Únase a los principales ejecutivos en San Francisco los días 11 y 12 de julio y descubra cómo los líderes empresariales se adelantan a la revolución de la IA generativa. Aprende más


En las últimas semanas, ha habido una serie de desarrollos significativos en la discusión world sobre el riesgo y la regulación de la IA. El tema emergente, tanto de las audiencias de EE. UU. sobre OpenAI con Sam Altman como del anuncio de la UE de la Ley de IA modificada, ha sido un llamado a una mayor regulación.

Pero lo que ha sorprendido a algunos es el consenso entre gobiernos, investigadores y desarrolladores de IA sobre esta necesidad de regulación. En el testimonio ante el Congreso, Sam Altman, director ejecutivo de OpenAI, propuso crear un nuevo organismo gubernamental que emita licencias para desarrollar modelos de IA a gran escala.

Dio varias sugerencias sobre cómo un organismo de este tipo podría regular la industria, incluida «una combinación de requisitos de licencia y prueba», y dijo que las empresas como OpenAI deberían ser auditadas de forma independiente.

Sin embargo, si bien existe un acuerdo cada vez mayor sobre los riesgos, incluidos los impactos potenciales en el trabajo y la privacidad de las personas, todavía hay poco consenso sobre cómo deberían ser dichas regulaciones o en qué deberían centrarse las posibles auditorías. En la primera Cumbre de IA Generativa celebrada por el Foro Económico Mundial, donde los líderes de IA de empresas, gobiernos e instituciones de investigación se reunieron para impulsar la alineación sobre cómo navegar estas nuevas consideraciones éticas y regulatorias, surgieron dos temas clave:

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos compartirán cómo han integrado y optimizado las inversiones en IA para lograr el éxito y evitar errores comunes.

Regístrate ahora

La necesidad de una auditoría de IA responsable y responsable

Primero, debemos actualizar nuestros requisitos para las empresas que desarrollan e implementan modelos de IA. Esto es particularmente importante cuando cuestionamos qué significa realmente “innovación responsable”. El Reino Unido ha estado liderando esta discusión, y su gobierno recientemente brindó orientación para la IA a través de cinco principios básicos, que incluyen seguridad, transparencia y equidad. También ha habido una investigación reciente de Oxford que destaca que «LLM como ChatGPT generan una necesidad urgente de actualizar nuestro concepto de responsabilidad».

Un impulsor central detrás de este impulso por nuevas responsabilidades es la creciente dificultad de comprender y auditar la nueva generación de modelos de IA. Para considerar esta evolución, podemos considerar la IA «tradicional» frente a la IA LLM, o la IA de modelo de lenguaje grande, en el ejemplo de recomendar candidatos para un trabajo.

Si la IA tradicional se entrenó con datos que identifican a los empleados de una determinada raza o género en puestos de mayor nivel, podría generar sesgos al recomendar personas de la misma raza o género para puestos de trabajo. Afortunadamente, esto es algo que podría detectarse o auditarse mediante la inspección de los datos utilizados para entrenar estos modelos de IA, así como las recomendaciones de salida.

Con la nueva IA impulsada por LLM, este tipo de auditoría de sesgo se está volviendo cada vez más difícil, si no imposible, de probar el sesgo y la calidad. No solo no sabemos en qué datos se entrenó un LLM «cerrado», sino que una recomendación conversacional podría introducir sesgos o «alucinaciones» que son más subjetivas.

Por ejemplo, si le pide a ChatGPT que resuma un discurso de un candidato presidencial, ¿quién puede juzgar si es un resumen sesgado?

Por lo tanto, es más importante que nunca que los productos que incluyen recomendaciones de IA consideren nuevas responsabilidades, como qué tan rastreables son las recomendaciones, para garantizar que los modelos utilizados en las recomendaciones puedan, de hecho, ser auditados por sesgo en lugar de solo usar LLM.

Es este límite de lo que cuenta como una recomendación o una decisión que es clave para las nuevas regulaciones de IA en recursos humanos. Por ejemplo, la nueva ley AEDT de la ciudad de Nueva York está impulsando auditorías de sesgo para tecnologías que involucran específicamente decisiones de empleo, como aquellas que pueden decidir automáticamente quién es contratado.

Sin embargo, el panorama regulatorio está evolucionando rápidamente más allá de cómo la IA toma decisiones y cómo se construye y utiliza la IA.

Transparencia en la transmisión de los estándares de IA a los consumidores

Esto nos lleva al segundo tema clave: la necesidad de que los gobiernos definan estándares más claros y amplios sobre cómo se construyen las tecnologías de IA y cómo estos estándares se aclaran para los consumidores y empleados.

En la reciente audiencia de OpenAI, Christina Montgomery, directora de privacidad y confianza de IBM, destacó que necesitamos estándares para garantizar que los consumidores estén informados cada vez que interactúan con un chatbot. Este tipo de transparencia sobre cómo se desarrolla la IA y el riesgo de que los malos actores utilicen modelos de código abierto es clave para las consideraciones de la reciente Ley de IA de la UE para prohibir las API de LLM y los modelos de código abierto.

La cuestión de cómo controlar la proliferación de nuevos modelos y tecnologías requerirá un mayor debate antes de que se aclaren las compensaciones entre riesgos y beneficios. Pero lo que se vuelve cada vez más claro es que a medida que se acelera el impacto de la IA, también lo hace la urgencia de estándares y regulaciones, así como la conciencia tanto de los riesgos como de las oportunidades.

Implicaciones de la regulación de la IA para los equipos de recursos humanos y los líderes empresariales

El impacto de la IA quizás lo sientan más rápidamente los equipos de RR. para adaptar su estrategia comercial.

En las dos cumbres WEF recientes sobre IA generativa y el futuro del trabajo, hablé con líderes en IA y recursos humanos, así como con legisladores y académicos, sobre un consenso emergente: que todas las empresas deben impulsar la adopción y la conciencia de IA responsable. El WEF acaba de publicar su «Informe sobre el futuro de los trabajos», que destaca que durante los próximos cinco años, se espera que cambie el 23% de los trabajos, con 69 millones creados pero 83 millones eliminados. Eso significa que los trabajos de al menos 14 millones de personas se consideran en riesgo.

El informe también destaca que no solo seis de cada 10 trabajadores necesitarán cambiar su conjunto de habilidades para hacer su trabajo (necesitarán mejorar y volver a capacitarse) antes de 2027, sino que solo la mitad de los empleados tienen acceso a oportunidades de capacitación adecuadas en la actualidad.

Entonces, ¿cómo deben los equipos mantener a los empleados comprometidos con la transformación acelerada por IA? Al impulsar la transformación interna que se centra en sus empleados y considerar cuidadosamente cómo crear un conjunto de personas y experiencias tecnológicas compatibles y conectadas que empoderen a los empleados con una mayor transparencia en sus carreras y las herramientas para desarrollarse.

La nueva ola de regulaciones está ayudando a arrojar una nueva luz sobre cómo considerar el sesgo en las decisiones relacionadas con las personas, como en el talento y, sin embargo, a medida que estas tecnologías son adoptadas por personas tanto dentro como fuera del trabajo, la responsabilidad es mayor que nunca. para que los líderes empresariales y de recursos humanos comprendan tanto la tecnología como el panorama regulatorio y se apoyen en impulsar una estrategia de IA responsable en sus equipos y negocios.

Sultan Saidov es presidente y cofundador de Beamery.

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir información e innovación relacionadas con los datos.

Si desea leer sobre tips de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podría considerar contribuir con un artículo propio!

Leer más de DataDecisionMakers

Share.
Leave A Reply