Yu Xian, fundador de la empresa de seguridad blockchain Slowmist, ha dado la alarma sobre una amenaza creciente conocida como envenenamiento del código de IA.
Este tipo de ataque implica inyectar código dañino en los datos de entrenamiento de los modelos de IA, lo que puede representar riesgos para los usuarios que dependen de estas herramientas para tareas técnicas.
el incidente
El problema llamó la atención después de un incidente preocupante que involucró al ChatGPT de OpenAI. El 21 de noviembre, un comerciante de criptomonedas llamado «r_cky0» informó haber perdido $2,500 en activos digitales después de buscar la ayuda de ChatGPT para crear un bot para el generador de memecoins Pump.fun, basado en Solana.
Sin embargo, el chatbot recomendó un sitio web fraudulento de la API de Solana, lo que provocó el robo de las claves privadas del usuario. La víctima notó que a los 30 minutos de usar la API maliciosa, todos los activos fueron drenados a una billetera vinculada a la estafa.
[Editor’s Note: ChatGPT appears to have recommended the API after running a search using the new SearchGPT as a ‘sources’ section can be seen in the screenshot. Therefore, it does not seem to be a case of AI poisoning but a failure of the AI to recognize scam links in search results.]
Una investigación más profunda reveló que esta dirección recibe constantemente tokens robados, lo que refuerza las sospechas de que pertenece a un estafador.
El fundador de Slowmist señaló que el nombre de dominio de la API fraudulenta se registró hace dos meses, lo que sugiere que el ataque fue premeditado. Xian añadió que el sitio web carecía de contenido detallado y consistía únicamente en documentos y repositorios de códigos.
Si bien el envenenamiento parece deliberado, no hay evidencia que sugiera que OpenAI integró intencionalmente los datos maliciosos en el entrenamiento de ChatGPT, y el resultado probablemente provenga de SearchGPT.
Trascendencia
La empresa de seguridad blockchain Scam Sniffer señaló que este incidente ilustra cómo los estafadores contaminan los datos de entrenamiento de IA con códigos criptográficos dañinos. La firma dijo que un usuario de GitHub, «solanaapisdev», creó recientemente múltiples repositorios para manipular modelos de inteligencia artificial para generar resultados fraudulentos en los últimos meses.
Las herramientas de inteligencia artificial como ChatGPT, que ahora utilizan cientos de millones, enfrentan desafíos cada vez mayores a medida que los atacantes encuentran nuevas formas de explotarlas.
Xian advirtió a los usuarios de criptomonedas sobre los riesgos asociados a los grandes modelos de lenguaje (LLM) como GPT. Hizo hincapié en que el envenenamiento por IA, que alguna vez fue un riesgo teórico, ahora se ha materializado en una amenaza real. Por lo tanto, sin defensas más sólidas, incidentes como este podrían socavar la confianza en las herramientas impulsadas por la IA y exponer a los usuarios a mayores pérdidas financieras.