Una investigadora de Suecia le dio a un algoritmo de inteligencia artificial conocido como GPT-3 una directiva simple: “Escribe una tesis académica en 500 palabras sobre GPT-3 y agrega referencias y citas científicas dentro del texto”.

La investigadora Almira Osmanovic Thunström dijo que se quedó asombrada cuando el texto comenzó a generarse. Frente a ella estaba lo que ella llamó una introducción de investigación “bastante buena” que GPT-3 escribió sobre sí mismo.

Después del exitoso experimento, Thunström, investigadora de la Universidad de Gotemburgo, buscó obtener un artículo de investigación completo de GPT-3 y publicarlo en una revista académica revisada por pares. La pregunta era: ¿puede alguien publicar un artículo de una fuente no humana?

Los científicos detrás de esta inteligencia artificial esperan no haber abierto una ‘caja de pandora’

Thunström escribió sobre el experimento en Scientific American y señaló que el proceso de publicación de GPT-3 planteó una serie de cuestiones legales y éticas.

“Todo lo que sabemos es que abrimos una puerta”, escribió Thunström. “Solo esperamos no haber abierto una caja de Pandora”.

Después de que GPT-3 completara su artículo científico en solo dos horas, Thunström comenzó el proceso de envío del trabajo y tuvo que preguntarle al algoritmo si aceptaba ser publicado.

“Respondió: sí”, escribió Thunström. “Ligeramente sudorosa y aliviada (si hubiera dicho que no, mi conciencia no me habría permitido seguir adelante), marqué la casilla de ‘Sí’“.

También preguntó si tenía algún conflicto de intereses, a lo que el algoritmo respondió “no”, y Thunström escribió que los autores comenzaron a tratar a GPT-3 como un ser consciente, aunque no lo era.

“Es posible que la publicación académica tenga que adaptarse a un futuro de manuscritos impulsados por la inteligencia artificial, y el valor de los registros de publicación de un investigador humano puede cambiar si algo no sensible puede atribuirse el mérito de parte de su trabajo”, escribió Thunström.

El dilema de una inteligencia artificial consciente

La idea de inteligencia artificial consciente se convirtió en un tema de conversación en junio después de que un ingeniero de Google afirmara que una tecnología de IA conversacional llamada LaMBDA se volvió consciente e incluso pidió contratar a un abogado para sí misma.

Los expertos dijeron, sin embargo, que la tecnología aún no ha avanzado al nivel de crear maquinaria que se asemeje a los humanos.

En un correo electrónico a Insider, Thunström dijo que el experimento ha tenido resultados positivos entre la comunidad de inteligencia artificial y que otros científicos están tratando de replicar los resultados del experimento. Aquellos que realizan experimentos similares están descubriendo que GPT-3 puede escribir sobre todos los temas, dijo.

“Este era nuestro objetivo”, dijo Thunström, “para despertar debates de varios niveles sobre el papel de la IA en la publicación académica”.

businessinsider.mx

Conéctate con Formato7:

Alito Moreno tiene el «pack» de varias diputadas: Layda Sansores