La IA y la cadena de bloques van de la mano. Esta combinación perfecta se vuelve cada vez más obvia a medida que exploramos las buenas y malas oportunidades con la tecnología en auge impulsada por la inteligencia artificial. Para profundizar en este tema, que también apasiona a nuestro fundador, moderé un panel sobre IA ética y Blockchain durante la AI & Blockchain Virtual Expo 2024 el 31 de octubre. Aquí hay un resumen de lo que sucedió en caso de que se lo haya perdido.
Los panelistas abarcaron un amplio espectro de experiencias, desde técnicas y de investigación hasta asociaciones, empresas y atención médica. Sus diferentes perspectivas aportaron conocimientos fascinantes sobre el candente tema de la ética de la IA y cómo podemos prevenir y resolver las principales preocupaciones que lo rodean. El grupo incluía a Wei Zhang, director de investigación de nChain; Kristopher Klaich, director de políticas de la Cámara de Comercio Digital; Kerstin Eimers, Global Web3 de Deutsche Telekom; y Daniel Pietrzykoski, Estrategia Técnica e Innovación de Productos – Blockchain y Gestión de Programas de Johnson & Johnson.
El debate comenzó con lo que significa la ética de la IA para cada panelista y las preocupaciones en torno a la IA, incluidos ejemplos del mundo real.
Klaich y Eimers señalaron que todavía estamos en las etapas experimentales de estas tecnologías futuras, lo que plantea problemas de estafas y otros desafíos. Klaich usó el ejemplo de los agentes de IA que operan en el mundo blockchain, creando sus propias billeteras y actuando como personas influyentes para bombear un token o incluso ofrecer pequeñas cantidades de dinero a otros para promocionar el token. Este comportamiento puede manipular el mercado, dificultando saber qué es y qué no es una persona real.
«Las oportunidades son aterradoras en ese sentido e infinitas», dijo Klaich.
Eimers señaló aplicaciones que crean imágenes y retratos «ideales» generados por IA, que pueden provocar problemas de salud mental, especialmente en mujeres jóvenes.
“Creo que hay muchas áreas que debemos observar, que son impresionantes por un lado, pero que al mismo tiempo también plantean luchas y desafíos éticos”, dijo Eimers.
Zhang reveló que el mayor desafío para él es la regulación. Usó la analogía de un criminal que escapa de una escena usando un auto veloz, pero la solución no es prohibir los autos; es para garantizar que la policía también tenga coches rápidos.
«Esto conduce a un tipo de conflicto generalizado entre el avance tecnológico y la regulación y luego el mal uso de la tecnología», dijo.
“Se está haciendo un mal uso de la IA y necesitamos una regulación para ponernos al día y crear la tecnología correspondiente para abordar la nueva tecnología. Entonces, si prohibimos ciegamente la tecnología, lo que tendremos será policía sin automóviles”, señaló Zhang.
Afortunadamente, Pietrzykoski, que tuvo dificultades técnicas durante todo el panel, pudo intervenir en este punto.
“Hay mucho terreno desconocido en este momento y creo que mucha gente está tratando de resolverlo. Hay mucha aprensión y mucho miedo. O algo aclara lo que tenemos que hacer, o va a pasar algo malo y tendremos que encontrar una manera de afrontarlo”, afirmó.
Entonces, ¿cómo podemos afrontarlo antes de que suceda algo malo? Aquí es donde entran en juego blockchain y la educación.
Klaich habló sobre la importancia de la privacidad, la propiedad y la procedencia de los datos y explicó cómo podemos enviar información a la cadena de bloques para rastrear de dónde provienen los datos para los modelos de IA.
Zhang, que participa en la investigación sobre la IA verificable en la cadena de bloques, dijo que la clave es lograr un equilibrio entre la utilización de los datos y la privacidad de los datos, el propósito de la regulación, ya sea que esté dirigida por el gobierno o la industria.
“Lo que estoy tratando de abordar en esto es otro ángulo, si podemos lograr algo que pueda resolver el conflicto entre los dos por completo para que ya no haya conflicto entre la privacidad y la utilización de los datos. Por supuesto, esto es demasiado bueno para ser verdad, pero la semilla está ahí y es utilizar blockchain y criptografía”, dijo.
La idea es demostrar que la entrada al modelo de IA, la ejecución del modelo de IA y la salida del modelo de IA son verificables sin comprometer la privacidad del usuario. No se revelarán secretos comerciales del modelo de IA, pero podemos estar convencidos de que el modelo está actuando como se esperaba.
Los casos de uso en este escenario incluyen certificar que un modelo de IA fue entrenado en un conjunto de datos particular, lo que demuestra que es imparcial. O bien, el propietario de los datos podría cobrar regalías de un modelo de IA cuando se utilicen sus datos, lo que también requiere la emisión de un certificado.
La capacidad de realizar micropagos basados en blockchain también abre las puertas a los usuarios que estén dispuestos a compartir sus datos personales.
«Con la IA y las aplicaciones que ejecutan IA o se basan en IA, tendremos la opción de interactuar y potencialmente recibir una compensación o recibir micropagos por revelar ciertas piezas de nuestra información personal a estos modelos», explicó Klaich.
El papel de la educación en la prevención del uso indebido de la IA es un área que apasiona especialmente a Eimers y estuvo encantada de profundizar en el tema.
«La educación realmente juega un papel importante y va mucho más allá de simplemente elaborar algunos materiales o listas de verificación rápidas para los clientes», dijo.
Eimers reveló los detalles de las campañas de concientización de Deutsche Telekom, incluido «Un mensaje de Ella», un deepfake de un niño para concienciar a los padres sobre la privacidad de los datos de sus hijos.
“Invertimos mucho tiempo y también recursos para llevar esos mensajes al mercado masivo y utilizar nuestro alcance de la mejor manera posible. Creo que esto es muy, muy importante, y la responsabilidad y la rendición de cuentas, lo que una empresa tiene que hacer”, dijo.
También se abordó la cuestión de quién es responsable si la IA falla, un tema muy debatido porque todavía estamos en territorio inexplorado. Nadie sabe la respuesta todavía. Sin embargo, Zhang confía en que no podemos responsabilizar a la tecnología y dijo que cerrarla nunca es una solución; recuerden a la policía, que también necesita un automóvil rápido.
«En general, yo diría que, en términos de responsabilidad, el primer enfoque técnico es tener identidades», dijo.
“En Web3 o en cualquier generación futura de Internet, solo existe un protocolo de identidad… en este sistema, todas sus interacciones pueden ser consideradas responsables y auditables. Al usar blockchain para administrar esto, podrá rastrear y verificar todo el historial. Usando la criptografía, podemos preservar la privacidad del usuario y revelarla sólo si se comete un delito”, dijo.
«Esperamos poder tener un sistema o al menos una herramienta para ayudar a identificar el mal comportamiento de los modelos de IA y, por lo tanto, sus correspondientes desarrolladores o empresas para responsabilizarlos», añadió Zhang.
Para que la inteligencia artificial (IA) funcione dentro de la ley y prospere frente a los crecientes desafíos, necesita integrar un sistema blockchain empresarial que garantice la calidad y la propiedad de la entrada de datos, lo que le permitirá mantener los datos seguros y al mismo tiempo garantizar la inmutabilidad. de datos. Consulte la cobertura de CoinGeek sobre esta tecnología emergente para obtener más información Por qué la cadena de bloques empresarial será la columna vertebral de la IA.
Ver: Posibilidades de desbloqueo de Blockchain e IA
title=»Reproductor de vídeo de YouTube» frameborder=»0″ permitir=»acelerómetro; reproducción automática; escritura en portapapeles; medios cifrados; giroscopio; imagen en imagen; compartir web» referrerpolicy=»origen-estricto-cuando-cruz- origen» permitir pantalla completa>