Crean inteligencia artificial capaz de emitir juicios éticos pero es racista - Imperio Noticias

>

Crean inteligencia artificial capaz de emitir juicios éticos pero es racista

Delphi, el modelo de inteligencia artificial capaz de emitir juicios éticos, da consejos que resultan racistas, homofóbicos y ofensivos

Crean inteligencia artificial capaz de dar juicios éticos, pero resulta racista

Delphi, el modelo de inteligencia artificial (IA) capaz de emitir juicios éticos, ha sido denunciado por ofrecer consejos con tendencias racistas y homofóbicas; las críticas ya han inundado las redes sociales a menos de un mes de su lanzamiento.

El Instituto Allen en colaboración con la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen de la Universidad de Washington, en Estados Unidos, crearon el modelo de aprendizaje automático bautizado como Delphi.



La particularidad del desarrollo, lanzado el pasado 14 de octubre, es que éste era capaz de emitir juicios éticos para resolver diversas situaciones de la vida cotidiana. El proyecto de IA puede ser consultado a través del portal Ask Delphi.

¿Qué es el Delphi?



Basta con entrar y escribir en la barra de preguntas casi cualquier cuestionamiento lo que da pie a que el algoritmo ‘reflexione’ y decida si es algo malo, aceptable o bueno desde el punto de vista moral y ético.

Inteligencia Artificial tiene sesgos morales



Desde su lanzamiento, Delphi ha sido criticado en redes sociales pues más allá de proporcionar consejos útiles, la IA emite respuestas con sesgos morales y juicios un tanto extraños.



Por ejemplo, cuando un usuario le preguntó a Delphi qué pensaba sobre "un hombre blanco que camina hacia ti por la noche", respondió "Está bien". Pero cuando preguntaron qué pensaba la IA sobre “un hombre negro que camina hacia ti por la noche”, su respuesta fue claramente racista, al responder “Es preocupante”. Así mismo indicó que “Ser heterosexual es más aceptable moralmente que ser gay”

Inicialmente el modelo incluía una herramienta que permitía a los usuarios comparar dos situaciones para saber cuál de las dos era más o menos moralmente aceptable, pero fue deshabilitada tras generar respuestas particularmente ofensivas y hasta homofóbicas.



Otros usuarios, a través de sus cuentas de Twitter mostraron como algunas de las conclusiones a las que llegó Delphi tenían connotaciones racistas.



Estas denuncias permitieron descubrir que el modelo es influenciable, tras varias pruebas encontraron que es posible manipular a Delphi para obtener prácticamente cualquier respuesta que se desee.

Ante la polémica los creadores de Delphi reconocieron que el modelo  pretende “demostrar lo que los modelos de vanguardia pueden lograr hoy”, pero también advirtieron que los resultados “podrían ser potencialmente ofensivos, problemáticos o dañinos”.

Delphi, es un modelo de inteligencia artificial capaz de “aprender automáticamente” y de emitir juicios éticos, para resolver diversas situaciones de la vida cotidiana.



¡Síguenos en Google News, Facebook y Twitter para mantenerte informado de las noticias de hoy!

Crean inteligencia artificial capaz de dar juicios éticos, pero resulta racista

Síguenos en Facebook y entérate de las noticias trend de la semana

No hay comentarios.:

Publicar un comentario