ChatGPT bien puede revolucionar la búsqueda website, agilizar las tareas de la oficina y rehacer la educación, pero el chatbot que habla sin problemas también ha encontrado trabajo como un vendedor de criptomonedas en las redes sociales.
Investigadores de la Universidad de Indiana en Bloomington descubrieron una botnet impulsada por ChatGPT que operaba en X, la purple social anteriormente conocida como Twitter, en mayo de este año.
La botnet, que los investigadores denominaron Fox8 debido a su conexión con sitios internet de criptomonedas que tienen alguna variación del mismo nombre, constaba de 1140 cuentas. Muchos de ellos parecían usar ChatGPT para crear publicaciones en las redes sociales y para responder a las publicaciones de los demás. Aparentemente, el contenido generado automáticamente fue diseñado para atraer a humanos desprevenidos a hacer clic en enlaces a través de los sitios de publicidad criptográfica.
Micah Musser, un investigador que ha estudiado el potencial de la desinformación impulsada por la IA, dice que la purple de bots Fox8 puede ser solo la punta del iceberg, dado lo populares que se han vuelto los modelos de lenguaje grande y los chatbots. “Esta es la fruta madura”, dice Musser. “Es muy, muy probable que por cada campaña que encuentre, haya muchas otras que hagan cosas más sofisticadas”.
La botnet Fox8 podría haber estado en expansión, pero su uso de ChatGPT ciertamente no era sofisticado. Los investigadores descubrieron la pink de bots al buscar en la plataforma la frase reveladora «Como un modelo de lenguaje de IA…», una respuesta que ChatGPT a veces united states para avisos sobre temas delicados. Luego analizaron manualmente las cuentas para identificar las que parecían ser operadas por bots.
“La única razón por la que notamos esta pink de bots en certain es porque eran descuidados”, dice Filippo Menczer, profesor de la Universidad de Indiana en Bloomington, quien llevó a cabo la investigación con Kai-Cheng Yang, un estudiante que se unirá a la Universidad del Noreste como investigador postdoctoral para el próximo año académico.
A pesar del tic, la botnet publicó muchos mensajes convincentes que promocionaban sitios de criptomonedas. La aparente facilidad con la que aparentemente se aprovechó la inteligencia artificial de OpenAI para la estafa significa que los chatbots avanzados pueden estar ejecutando otras redes de bots que aún no se han detectado. “Cualquier tipo malo bastante bueno no cometería ese error”, dice Menczer.
OpenAI no había respondido a una solicitud de comentarios sobre la botnet al momento de la publicación. La política de uso de sus modelos de IA prohíbe usarlos para estafas o desinformación.
ChatGPT y otros chatbots de última generación utilizan lo que se conoce como modelos de lenguaje extenso para generar texto en respuesta a un aviso. Con suficientes datos de entrenamiento (muchos de ellos extraídos de varias fuentes en la internet), suficiente potencia informática y comentarios de evaluadores humanos, los bots como ChatGPT pueden responder de formas sorprendentemente sofisticadas a una amplia gama de entradas. Al mismo tiempo, también pueden dejar escapar mensajes de odio, exhibir prejuicios sociales e inventar cosas.
Una purple de bots basada en ChatGPT correctamente configurada sería difícil de detectar, más capaz de engañar a los usuarios y más eficaz para jugar con los algoritmos utilizados para priorizar el contenido en las redes sociales.
“Engaña tanto a la plataforma como a los usuarios”, dice Menczer sobre la botnet impulsada por ChatGPT. Y, si un algoritmo de redes sociales detecta que una publicación tiene mucha participación, incluso si esa participación proviene de otras cuentas de bots, mostrará la publicación a más personas. “Es exactamente por eso que estos bots se comportan como lo hacen”, dice Menczer. Y los gobiernos que buscan lanzar campañas de desinformación probablemente ya estén desarrollando o implementando tales herramientas, agrega.