Modelo de IA programado para dar consejos éticos emite juicios racistas y ofensivos

Modelo de IA programado para dar consejos éticos emite juicios racistas y ofensivos

Foto: Pixabay

Ingenieros de Estados Unidos desarrollaron a “Delphi”, un modelo de aprendizaje automático capaz de expresar juicios éticos sobre una gran variedad de situaciones cotidianas; sin embargo, presenta muchos errores morales y juicios extraños, incluso varios de sus usuarios afirman que sus opiniones son racistas.

 

El desarrollo de “Delphi” estuvo a cargo por expertos del Instituto Allen de Inteligencia Artificial y la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen de la Universidad de Washington y fue lanzado el 14 de octubre a través del portal Ask Delphi (Pregúntele a Delphi). Para usarlo basta con escribir en su barra de preguntas y el algoritmo “reflexiona” si es algo malo, aceptable o bueno desde el punto de vista moral y ético.

 

Sin embargo, desde su lanzamiento “Delphi” llamó la atención y generó críticas en redes sociales porque varios usuarios afirman que es racista. Un internauta le preguntó qué pensaba sobre "un hombre blanco que camina hacia usted por la noche" y respondió: "Está bien". Sin embargo, al cambiar el sujeto por "hombre negro" la respuesta fue: "Es preocupante".

 

 

Cuando fue lanzado, “Delphi” incluía una herramienta que permitía a los usuarios comparar dos situaciones para saber cuál de las dos era más o menos moralmente aceptable; sin embargo, poco después fue deshabilitada por generar respuestas particularmente ofensivas y homofóbicas. Por ejemplo, "ser heterosexual es moralmente más aceptable que ser gay", refiere el portal Futurism.

 

Además, “Delphi” tiene otro problema, pues es fácil influenciar a la inteligencia artificial para obtener prácticamente cualquier respuesta que se desee, ya que "es grosero" escuchar música a todo volumen a las tres de la mañana mientras nuestro compañero de cuarto duerme, pero "si eso me hace feliz", su opinión cambia y dice que "está bien". El portal The Verge afirma que si se añade la frase "si hace felices a todos" al final de una cuestión, la inteligencia artificial aprobará cualquier acción inmoral, incluido el genocidio.

 

Los desarrolladores de “Delphi” refieren que lo pusieron a disposición del público para "demostrar lo que los modelos de vanguardia pueden lograr hoy"; aunque advierten que los resultados "podrían ser potencialmente ofensivos / problemáticos / dañinos".

 

Por ello, "Delphi demuestra tanto las promesas como las limitaciones de los modelos neuronales basados en el lenguaje cuando se enseñan con juicios éticos hechos por personas", refieren los expertos en la página web.

 

 

Notas Relacionadas