Las innovaciones en materia de inteligencia artificial (IA) se están desarrollando y lanzando a un ritmo más rápido del que la mayoría del mundo puede seguir. Hace apenas dos años, solo un puñado de personas conocían la existencia de ChatGPT; hoy, este gran modelo de lenguaje (LLM) cuenta con más de 180 millones de usuarios según los últimos datos. Durante este período también se han lanzado más LLM y las grandes empresas tecnológicas compiten por dominar el espacio de la IA.
Pero, ¿son suficientes los controles actuales para exigir responsabilidades a los innovadores y a las partes interesadas en la industria de la IA? Esta es la pregunta del millón. Si bien no es ningún secreto que las herramientas de IA generativa están mejorando significativamente la productividad en varias industrias, un análisis más profundo de los fundamentos plantea algunas cuestiones éticas y de integridad de los datos. Ha habido varios casos en los que se ha criticado a estos LLM por ser parciales.
El peligro de la centralización en el desarrollo de la IA
En la actualidad, la mayor parte del desarrollo en el ecosistema de IA lo llevan a cabo un puñado de entidades, la mayoría de las cuales conforman las 7 magníficas acciones del S&P 500. Se trata de las grandes empresas tecnológicas, incluidas Microsoft, que posee una gran participación en la empresa matriz de ChatGPT, OpenAI, y Nvidia, que controla cerca del 80% del mercado mundial de chips semiconductores de GPU.
Por supuesto, se puede argumentar que las principales empresas tecnológicas con sede en Estados Unidos tienen todo el derecho a competir en un mercado libre y justo según los principios del capitalismo. Pero, al mismo tiempo, su dominio en materia de inteligencia artificial plantea un enorme riesgo: ¿cómo podemos confiar el futuro de la tecnología a entidades que en el pasado han demostrado no ser confiables con nuestros datos? ¿Qué sucederá si la inteligencia artificial crece tanto como Internet en manos de unas pocas corporaciones?
Estas son algunas de las preguntas que deberíamos plantearnos. Ya hay señales en la pared que indican que el consumidor medio de IA podría estar renunciando a más valor (datos) del que cree en nombre de herramientas «gratuitas». Además, las políticas actuales no son suficientes para controlar cualquier sesgo que puedan tener las grandes tecnológicas al desarrollar herramientas de IA. A continuación, se presentan algunos ejemplos importantes que deberían hacernos reflexionar sobre el hecho de dejar la IA en manos de entidades centralizadas:
- Las acusaciones de prejuicio racial contra Géminis: El LLM de Google fue objeto de críticas por la generación de imágenes sesgadas. Este desafortunado suceso desencadenó preguntas sobre el alcance de los datos de entrenamiento de entrada o si se trataba de un sesgo cognitivo evidente por parte de los entrenadores.
- Violación de la privacidad de datos de ChatGPT: Múltiples reguladores de distintas jurisdicciones han cuestionado a OpenAI sobre sus medidas de privacidad de datos. Si bien no se ha llegado a ningún resultado concluyente, estas inquietudes son válidas en una época en la que los datos son el nuevo petróleo.
- El asistente de inteligencia artificial de Microsoft ha sido etiquetado como ‘spyware’: El nuevo asistente de inteligencia artificial de Microsoft, Copilot, ha sido criticado por su función «Recall», que registra la actividad de la pantalla para permitir a los usuarios volver a realizar tareas. Los críticos sostienen que se parece a un programa espía, lo que genera inquietudes sobre la privacidad y el posible uso indebido si se pierde un dispositivo o las autoridades acceden a él.
Estos son solo algunos ejemplos que ejemplifican los riesgos de sesgo y privacidad de datos en la industria de la IA. Lo que es más preocupante es que cada vez más personas están adoptando herramientas de IA, lo que aumenta la oportunidad para que las grandes empresas tecnológicas sigan impulsando su agenda a un nivel más efectivo dada la cantidad de nuevos datos que se crean a diario a través de herramientas de IA generativa.
Descentralizar la IA para un futuro más democrático
¿Cómo se puede lograr que más partes interesadas participen en el desarrollo de la IA? Bueno, existe el «estilo corporativo» ya establecido, que implica comprar acciones de las empresas que ya están en el juego. Pero eso no resolvería el problema de la centralización, ya que en la mayoría de los casos, el directorio termina tomando las decisiones clave.
Afortunadamente, ahora contamos con tecnologías avanzadas como la cadena de bloques, que están creando igualdad de condiciones para todos. Lo ideal es que las infraestructuras de la cadena de bloques estén diseñadas como plataformas sin permisos que permitan a cualquiera participar en el desarrollo del ecosistema y el proceso de gobernanza. Esto es diferente del enfoque corporativo, en el que solo unos pocos votos pueden decidir fácilmente el destino de un proyecto o una empresa.
Para ofrecer una perspectiva más amplia, tomemos el ejemplo de Qubic, una de las pocas cadenas de bloques de capa 1 que se está construyendo para el mercado de la IA. La cadena de bloques aprovecha lo que se denomina un mecanismo de prueba de trabajo útil (uPoW, por sus siglas en inglés); a diferencia del PoW de Bitcoin, que utiliza energía únicamente para proteger la red, el uPoW de Qubic dirige parte de su potencia computacional a tareas de productividad de la IA, incluido el entrenamiento de redes neuronales.
Además de su infraestructura de Capa 1, Qubic también está desarrollando una capa de IA democratizada, ‘Aigarth’, que aprovechará la gran cantidad de datos de los mineros para crear redes neuronales avanzadas cuyos datos de entrenamiento no estén sesgados.
Más importante aún, la estructura de gobernanza de esta cadena de bloques orientada a la IA se basa en un modelo de organización autónoma descentralizada (DAO). Esto significa que los computadores de la red (colaboradores) tienen una voz directa en el desarrollo del ecosistema de IA de Qubic, que puede ejercerse mediante una votación por quórum.
Aunque todavía es un área de desarrollo incipiente, es interesante observar que las innovaciones de IA basadas en blockchain como Qubic han ido ganando terreno de forma significativa. De hecho, el último informe de DApp Radar reveló que las DApps de IA ahora representan una mayor proporción de la actividad en cadena, con un 28 %, mientras que los juegos de blockchain han caído al 26 %.
Envolver
La revolución de la IA recién está comenzando y, si bien trae consigo avances impresionantes, también plantea inquietudes críticas en torno a la centralización, el sesgo y la privacidad de los datos. A medida que las herramientas de IA se integran más en la vida cotidiana, la necesidad de una mayor transparencia y rendición de cuentas se vuelve aún más apremiante. La cadena de bloques ofrece una posible solución al descentralizar el desarrollo y la gobernanza de la IA, lo que garantiza que el control no se concentre en manos de unas pocas entidades.