- ChatGPT rechazó 250.000 solicitudes de imágenes falsas de candidatos en el último mes, dijo OpenAI.
- Respondió a millones de preguntas sobre la votación dirigiendo a los usuarios a fuentes oficiales externas.
- Algunos otros chatbots adoptaron un enfoque diferente.
En el período previo a las elecciones presidenciales de esta semana, OpenAI respondió miles de solicitudes para generar imágenes falsas de candidatos.
A principios de año, la compañía de inteligencia artificial dijo que sus productos de inteligencia artificial tenían «barandillas» para evitar abusos, como deepfakes o chatbots que se hacen pasar por candidatos.
El anuncio se produjo en medio de preocupaciones de que la IA causara estragos durante la campaña, generando deepfakes y teorías de conspiración para que los usuarios las difundieran en línea. En enero, los votantes de New Hampshire recibieron llamadas automáticas falsas de un presidente falso, Joe Biden, que los disuadió de votar en las primarias presidenciales del estado ese mes.
OpenAI dijo que ChatGPT rechazó aproximadamente 250.000 solicitudes para generar imágenes de los candidatos utilizando DALL-E, el generador de arte de IA de la compañía, en el mes previo a las elecciones.
«En el mes previo al día de las elecciones, estimamos que ChatGPT rechazó más de 250.000 solicitudes para generar imágenes DALL·E del presidente electo Trump, el vicepresidente Harris, el vicepresidente electo Vance, el presidente Biden y el gobernador Walz», dijo OpenAI. en una publicación de blog el viernes.
OpenAI dijo anteriormente que instruiría a ChatGPT para responder preguntas logísticas sobre la votación dirigiendo a los usuarios a CanIVote.orgun sitio de información electoral estadounidense administrado por la Asociación Nacional de Secretarios de Estado. ChatGPT dio alrededor de 1 millón de respuestas pidiendo a los usuarios que visitaran el sitio de votación en el mes anterior al 5 de noviembre, dijo la compañía.
OpenAI también dijo que el día de las elecciones respondería preguntas sobre los resultados electorales remitiendo a los usuarios a organizaciones de noticias como Associated Press y Reuters.
«Alrededor de 2 millones de respuestas de ChatGPT incluyeron este mensaje el día de las elecciones y el día siguiente», dijo la compañía en la publicación del blog del viernes.
ChatGPT también evitó expresar opiniones políticas sobre los candidatos, a diferencia de chatbots como Grok AI de Elon Musk, que expresaron entusiasmo por la victoria de Trump.