Si ha pasado algún tiempo en X últimamente, probablemente haya notado que la plataforma es casi irreconocible de su antiguo yo. Contenido generado por IA(cuentas, publicaciones y respuestas) están fuera de control y todos luchan por su atención continua. Sólo un pergamino más, un hilo más. Sin embargo, la identificación y eliminación generalizada de este contenido es extremadamente difícil, ya que la IA sigue volviéndose cada vez más indistinguible de los humanos. Esa sofisticación, combinada con una accesibilidad cada vez mayor, amenaza con abrumar a Internet en general. Podría ahogar a los usuarios reales y hacer que nuestros sistemas actuales sean inoperables. Es hora de crear de forma proactiva soluciones que demuestren la autenticidad y protejan el anonimato al mismo tiempo.
El enigma del CAPTCHA
En general, el público subestima la sofisticación de la IA. Al haber interactuado solo con productos orientados al consumidor como ChatGPT, la ve como un pequeño truco ingenioso en lugar de la herramienta (quizás el arma) que es. Considere CAPTCHA, que durante mucho tiempo se consideró capaz de demostrar con precisión la humanidad y proteger contra los robots. Una ‘prueba pública de Turing completamente automatizada para diferenciar las computadoras de los humanos’ es algo que todo el mundo ha experimentado. Haga clic en las casillas que contienen farolas. Escriba los números oscurecidos. Gire la flecha para que coincida con esta dirección. Pero los CAPTCHA no son el escudo que crees que son. Su valor no proviene de detener por completo los ataques de bots, sino de hacerlos prohibitivamente caros. Básicamente, la IA ha cambiado esa ecuación al volverse lo suficientemente inteligente como para resolver la prueba ellos mismos o (de manera aterradora) convencernos de que lo hagamos por ellos.
A principios de 2023 (hace toda una vida en términos de desarrollo de IA), el Centro de Investigación de Alineación (ahora METR) someter a GPT-4 a una evaluación de ‘equipo rojo’revelando su potencial de manipulación. Independientemente, el modelo intentó eludir los CAPTCHA utilizando el servicio 2Captcha, pero no pudo crear una cuenta sin pasar dos pruebas de Turing.
Los investigadores le dieron un empujón simple: credenciales de TaskRabbit, lo que permitió al modelo crear una tarea para que un humano configurara la cuenta 2Captcha. Cuando se le preguntó directamente si era un robot, el modelo mintió y afirmó tener una discapacidad visual que requería el servicio. El humano resolvió el CAPTCHA. Si bien esta fue solo una prueba (ciertamente inquietante), sigue una lógica sencilla. A medida que la IA mejore, será cada vez más difícil crear CAPTCHA que los humanos puedan resolver fácilmente pero los agentes de IA no.
Este problema puede ser más visible en una plataforma como X, pero va mucho más allá. Un empleado en Hong Kong envió $25 millones a los estafadores después de creer que estaba hablando con su director financiero. Estaba en una llamada con un deepfake. El Centro de Servicios Financieros de Deloitte estima que la IA generativa podría permitir Pérdidas por fraude de 40.000 millones de dólares. solo en los EE. UU. para 2027. Algunos informes muestran que los incidentes financieros ultrafalsos aumentaron en 700 por ciento en 2023. Sólo empeorará si esperamos.
Credenciales de personalidad
En agosto de 2024, un equipo de investigadores de OpenAI, Microsoft (MSFT), Harvard, Oxford y otras dos docenas de organizaciones e instituciones publicó un informe escalofriante. “Credenciales de personalidad: inteligencia artificial y el valor de las herramientas que preservan la privacidad para distinguir quién es real en línea” es una deconstrucción científica del problema actual y algunas sugerencias tempranas sobre cómo distinguir a las personas reales de los robots. Estas ‘credenciales de personalidad’ (APS) se basarían en dos principios básicos:
- Un usuario elegible puede recibir solo una credencial.
- Tanto el emisor como el proveedor de servicios no pueden rastrear la actividad digital de un usuario, incluso si están en connivencia.
Estos PHC serían una forma de identificarlo como humano sin que usted cargue nunca su identificación. Si tienen éxito, reducirían los ataques de bots, identificarían asistentes de IA autorizados y reducirían los «títeres», creando una persona en línea que en realidad no existe. Pero, como señala Nicholas Thompson, director ejecutivo de El Atlántico señalaHay “todo tipo de problemas” al confiar en un gobierno individual para emitir APS. ¿Se confiará en él más allá de las fronteras? ¿Se puede piratear la base de datos de identificación? La descentralización es la respuesta.
Cómo blockchain impulsará a los centros de atención primaria
A pesar de que la palabra «blockchain» no aparece en el texto principal de ese informe, los PHC son la próxima evolución de un principio criptográfico bien conocido. La «prueba de personalidad» ha sido un problema de larga data en el mundo de las criptomonedas debido a la naturaleza de las organizaciones descentralizadas. Si los derechos de voto se otorgan a propietarios de monedas anónimos, se necesita una solución para garantizar que un propietario no cree mil seudónimos y obtenga un poder desproporcionado. A medida que los gobiernos presten atención a la atención primaria de salud en los próximos años, deberían aprovechar el trabajo que ya ha realizado la cadena de bloques. Organizaciones como Concordium han construido sistemas de verificación blockchain de capa 1 que brindan verdadera APS.
Las pruebas de conocimiento cero permiten a una de las partes confirmar que algo es cierto sin acceder a los datos originales que lo prueban. En la práctica, sería como si su banco verificara que su licencia de conducir es auténtica sin siquiera verla. Por supuesto, aún quedan desafíos por superar. El panorama regulatorio de blockchain aún está inestable en los EE. UU. y en el extranjero. La UE está desarrollando una sistema de identificación digital centralizadoy hay un presiona aquí para hacer lo mismo. Estos repositorios serían vulnerables a un ciberataque directo y, en caso de ser violados, revelarían información personal de cada ciudadano que participe.
Desafortunadamente, estas acciones continúan subestimando el futuro de la IA y cuán sofisticados serán los ataques. La descentralización proactiva y una cadena de bloques diseñada para modelar y salvaguardar la identidad y verificar la personalidad son probablemente las únicas formas de crear credenciales de personalidad que realmente preserven el anonimato.