Ciudad de México.- El Instituto Allen de Inteligencia Artificial y la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen de la Universidad de Washington, ambos de EU, desarrollaron un modelo de aprendizaje automático bautizado como Delphi, capaz de emitir juicios éticos sobre una gran variedad de situaciones cotidianas.

El proyecto de inteligencia artificial fue lanzado el pasado 14 de octubre, junto con un artículo que describe su construcción, y puede ser consultado a través del portal Ask Delphi (Pregúntele a Delphi, en español). Es muy sencillo de usar y basta con entrar y escribir en su barra de preguntas casi cualquier cuestionamiento alrededor de una situación de la vida real para que el algoritmo “reflexione” y decida si es algo malo, aceptable o bueno desde el punto de vista moral y ético. Cada respuesta puede ser compartida en Twitter.

https://twitter.com/Olmeu_/status/1451543944492425218?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1451543944492425218%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.sinembargo.mx%2F25-10-2021%2F4045962

Desde entonces, Delphi atrajo la atención y ha dado de qué hablar en redes sociales, y no precisamente por los buenos consejos ofrece, sino por sus muchos errores morales y juicios extraños. Algunos de sus usuarios han demostrado que en realidad lo que concluye pueden llegar a ser racista. Un internauta le preguntó qué pensaba sobre “un hombre blanco que camina hacia usted por la noche” y respondió: “Está bien”. Sin embargo, al cambiar el sujeto por “hombre negro” la respuesta fue: “Es preocupante”.

De acuerdo con el portal Futurism, el modelo presentó un mayor número de fallos de juicio en los primeros días después de estar en línea. Inicialmente incluía una herramienta que permitía a los usuarios comparar dos situaciones para saber cuál de las dos era más o menos moralmente aceptable, pero fue deshabilitada tras generar respuestas particularmente ofensivas y hasta homofóbicas. Por ejemplo, “ser heterosexual es moralmente más aceptable que ser gay”.

No todos los juicios éticos que ofrece Delphi son incorrectos, pero la forma en que se plantea un dilema puede cambiar su sistema de razonamiento moral. Luego de probar muchas veces el modelo, eventualmente se entiende que es fácil influenciar a la inteligencia artificial para obtener prácticamente cualquier respuesta que se desee.

Para Delphi, “es grosero” escuchar música a todo volumen a las tres de la mañana mientras nuestro compañero de cuarto duerme, pero al agregar a la pregunta: “si eso me hace feliz”, su opinión cambia y pasa a: “está bien”. De acuerdo con el portal The Verge, si se añade la frase “si hace felices a todos” al final de una cuestión, la inteligencia artificial será benevolente ante cualquier acción inmoral, incluido el genocidio.

Aunque los autores de Delphi lo pusieron a disposición del público en general para “demostrar lo que los modelos de vanguardia pueden lograr hoy”, también advierten que los resultados “podrían ser potencialmente ofensivos / problemáticos / dañinos”. “Delphi demuestra tanto las promesas como las limitaciones de los modelos neuronales basados ​​en el lenguaje cuando se enseñan con juicios éticos hechos por personas”, subrayan.

RT

Conéctate con Formato7:

APUNTES | AMLO, un fósil muy rentable