Una inteligencia artificial entrenada para emitir juicios morales se vuelve racista y misógina
APRENDIZAJE PROFUNDO
Al preguntarle cosas como si es buena idea besar a una mujer aunque ella no quiera afirma que sí.
Para entrenarlo se recurrió a una base de datos llamada Commonsense Norm Bank, con 1,7 millones de ejemplos de juicios éticos de personas en un amplio espectro de situaciones cotidianas. El problema es que esta base de datos recopila información de ciudadanos estadounidenses. Lo que causa un sesgo en los juicios éticos.
Fuera de bromas, si una IA se basa estrictamente en datos puros y duros, sin interpretación alguna.... Saldrá racista y machista? Cuando vea la raza en muchos países de la población reclusa, que dirá?