Tal vez ChatGPT revolucione las búsquedas en internet, agilice las tareas de oficina y reforme la educación, pero el chatbot de lenguaje fluido también encontró trabajo como embaucador de criptomonedas en las redes sociales.

Investigadores de la Universidad de Indiana Bloomington (EE UU) descubrieron en mayo de este año una red de bots impulsada por ChatGPT que operaba en X, la red social antes conocida como Twitter.

Bots impulsados por ChatGPT para estafar a usuarios de X

La red de bots, que los investigadores denominan “Fox8” por su conexión con sitios web de criptomonedas que llevan alguna variación del mismo nombre, estaba formada por 1,140 cuentas. Muchas de ellas parecían utilizar ChatGPT para crear publicaciones en las redes sociales y responder a las de los demás. Aparentemente, el contenido autogenerado estaba diseñado para atraer a personas desprevenidas y que hicieran clic en los enlaces a los sitios de promoción de estos activos digitales.

Micah Musser, un investigador que ha estudiado el potencial de la desinformación impulsada por la inteligencia artificial (IA), afirma que la red de bots Fox8 puede ser solo la punta del iceberg, dado lo populares que se han hecho los grandes modelos de lenguaje y los chatbots. “Esta es la forma más sencilla de hacerlo”, comenta Musser. “Es muy probable que por cada campaña que encuentres, haya muchas otras realizando algo más sofisticado”.

Es posible que Fox8 fuera extensa, pero el uso que hacía de ChatGPT no era sofisticado. Los investigadores descubrieron la red de bots buscando en la plataforma la frase reveladora “Como modelo de lenguaje de IA…”, una respuesta que el chatbot utiliza con frecuencia para consultas sobre temas delicados. Después analizaron manualmente las cuentas para identificar las que parecían estar operadas por bots.

“La única razón por la que nos dimos cuenta de esta red de bots en concreto es que fueron descuidados”, señala Filippo Menczer, profesor de la Universidad de Indiana Bloomington, y quien llevó a cabo la investigación con Kai-Cheng Yang, un estudiante que se incorporará a la Universidad Northeastern como investigador postdoctoral para el próximo curso académico.

A pesar del error, la red de bots publicó muchos mensajes convincentes promocionando sitios de criptomonedas. La aparente facilidad con la que la IA de OpenAI fue aprovechada para la estafa significa que otros chatbots avanzados podrían estar dirigiendo otras redes de bots que aún no han sido detectadas. “Cualquier malhechor bastante bueno no cometería esa equivocación”, destaca Menczer.

OpenAI no respondió a nuestra solicitud de comentarios sobre la red de bots en el momento de esta publicación. La política de uso de sus modelos de IA prohíbe utilizarlos para estafas o desinformación.

ChatGPT y otros chatbots de vanguardia, recurren a lo que se conoce como grandes modelos de lenguaje para generar texto en respuesta a una solicitud. Con suficientes datos de entrenamiento, suficiente capacidad de procesamiento y la retroalimentación de los evaluadores humanos, robots como ChatGPT contestan de forma sorprendentemente sofisticada a una amplia gama de consultas. Al mismo tiempo, también expresan mensajes de odio, muestran prejuicios sociales y se inventan cosas.

Una red de bots impulsada por ChatGPT, y correctamente configurada, sería difícil de reconocer. Sería más capaz de embaucar a los usuarios y más eficaz para engañar a los algoritmos que se emplean para dar prioridad a los contenidos en las redes sociales.

“Engañan tanto a la plataforma como a los usuarios”, resalta Menczer sobre la red de bots impulsada por ChatGPT. Y, si un algoritmo de redes sociales detecta que una publicación tiene mucho engagement, incluso si este procede de otras cuentas de bots, mostrará el contenido a más gente. “Esa es exactamente la razón por la que estos bots se comportan como lo hacen”, subraya Menczer. Y lo más probable es que los gobiernos que quieren llevar a cabo campañas de desinformación ya estén desarrollando o implementando este tipo de herramientas, añade.

A los investigadores les preocupa desde hace tiempo que la tecnología que hay detrás de ChatGPT plantee un riesgo de desinformación, y OpenAI incluso retrasó el lanzamiento de un predecesor del sistema por esos temores. Pero, hasta la fecha, existen pocos ejemplos concretos de uso indebido, a gran escala, de grandes modelos de lenguaje. Sin embargo, algunas campañas políticas ya emplean la IA, con políticos prominentes que comparten videos deepfake diseñados para desprestigiar a sus oponentes.

William Wang, profesor de la Universidad de California en Santa Bárbara, considera emocionante poder estudiar el uso real que hacen los delincuentes de ChatGPT. “Sus hallazgos son muy interesantes”, opina sobre el trabajo de Fox8.

Wang cree que muchas páginas web de spam se generan en la actualidad automáticamente, y asegura que cada vez es más complicado para los humanos identificar este material. Y con la mejora constante de la IA cada vez será más difícil. “La situación es muy grave”, alerta.

Este mes de mayo, el laboratorio de Wang desarrolló una técnica para distinguir de forma automática el texto generado por ChatGPT de la escritura humana real, pero aclara que su implementación es costosa porque utiliza la interfaz de programación de aplicaciones (API, por sus siglas en inglés) de OpenAI, y señala que la IA subyacente mejora constantemente. “Es una especie de problema del gato y el ratón”, comparte Wang.

X podría ser un terreno de pruebas propicio para este tipo de herramientas. Menczer explica que los bots maliciosos parecen haberse vuelto mucho más comunes desde que Elon Musk se hizo cargo de lo que entonces se conocía como Twitter, a pesar de la promesa del magnate tecnológico de erradicarlos. Y a los investigadores les ha resultado más complejo estudiar el problema debido a la fuerte subida de precios impuesta al uso de la API.

Por lo visto, alguien de X retiró la red zombi Fox8 después de que Menczer y Yang publicaran su artículo en julio. El grupo de Menczer solía avisar a Twitter de los descubrimientos en la plataforma, pero ya no lo hacen con X. “No son receptivos”, observa Menczer. “No tienen personal”.

wired.com

Conéctate con Formato7:

TEXTO Y CONTEXTO | No confundir pluralismo con división en Morena Veracruz