Dirígete a nuestra biblioteca bajo demanda para ver las sesiones de VB Transform 2023. Regístrate aquí


ChatGPT y otros chatbots que generan texto e imágenes han capturado la imaginación de millones de personas, pero no sin controversia. A pesar de las incertidumbres, las empresas ya están en el juego, ya sea jugando con los últimos chatbots de IA generativa o implementando procesos impulsados ​​por IA en todas sus empresas.

Por eso es esencial que las empresas aborden las crecientes preocupaciones sobre la imprevisibilidad de la IA, así como los impactos más predecibles y potencialmente dañinos para los usuarios finales. No hacerlo socavará el progreso y la promesa de la IA. Y aunque los gobiernos están tomando medidas para crear reglas para el uso ético de la IA, el mundo empresarial no puede darse el lujo de esperar.

Las empresas necesitan establecer sus propias barreras de seguridad. La tecnología simplemente avanza demasiado rápido (mucho más rápido que la regulación de la IA, como era de esperar) y los riesgos comerciales son demasiado grandes. Puede resultar tentador aprender sobre la marcha, pero la posibilidad de cometer un error costoso va en contra de un enfoque advert hoc.

Autorregularse para ganar confianza

Hay muchas razones para que las empresas autorregulan sus esfuerzos de IA: los valores corporativos y la preparación organizacional, entre ellos. Pero la gestión de riesgos puede estar en lo más alto de la lista. Cualquier paso en falso podría socavar la privacidad y la confianza del cliente y la reputación corporativa.

Evento

VB Transform 2023 bajo demanda

¿Te perdiste una sesión de VB Change 2023? Regístrese para acceder a la biblioteca bajo demanda de todas nuestras sesiones destacadas.

Regístrate ahora

Afortunadamente, hay mucho que las empresas pueden hacer para generar confianza en las aplicaciones y procesos de IA. Elegir las tecnologías subyacentes adecuadas (aquellas que faciliten el desarrollo y el uso reflexivos de la IA) es parte de la respuesta. Igualmente importante es garantizar que los equipos que crean estas soluciones estén capacitados sobre cómo anticipar y mitigar los riesgos.

El éxito también dependerá de una gobernanza de la IA bien concebida. Los líderes empresariales y tecnológicos deben tener visibilidad y supervisión de los conjuntos de datos y modelos de lenguaje que se utilizan, evaluaciones de riesgos, aprobaciones, pistas de auditoría y más. Los equipos de datos (desde los ingenieros que preparan los datos hasta los científicos de datos que construyen los modelos) deben estar atentos para detectar sesgos en la IA en cada paso del camino y no permitir que se perpetúen en los procesos y resultados.

La gestión de riesgos debe comenzar ahora

Es posible que las organizaciones eventualmente no tengan más remedio que adoptar algunas de estas medidas. La legislación que se está redactando ahora podría eventualmente exigir controles y contrapesos para garantizar que la IA trate a los consumidores de manera justa. Hasta ahora, aún no se ha codificado una regulación integral de la IA, pero es sólo cuestión de tiempo antes de que eso suceda.

Hasta la fecha, en Estados Unidos, la Casa Blanca ha publicado un “Plan para una Declaración de Derechos de la IA”, que establece principios para guiar el desarrollo y el uso de la IA, incluidas protecciones contra la discriminación algorítmica y la capacidad de optar por no participar en procesos automatizados. Mientras tanto, las agencias federales están aclarando los requisitos que se encuentran en las regulaciones existentes, como las de la Ley de la FTC y la Ley de Igualdad de Oportunidades Crediticias, como primera línea de defensa de la IA para el público.

Pero las empresas inteligentes no esperarán a que se materialicen las normas gubernamentales generales. La gestión de riesgos debe comenzar ahora.

Regulación de la IA: reducir el riesgo y aumentar la confianza

Considere esto hipotético: una persona angustiada envía una consulta al centro de soporte de chatbot de una clínica de atención médica. “Me siento triste”, dice el usuario. «¿Qué tengo que hacer?»

Es una situación potencialmente smart y que ilustra lo rápido que podrían surgir problemas sin la debida diligencia de la IA. ¿Qué sucede, digamos, si la persona se encuentra en medio de una disaster private? ¿El proveedor de atención médica enfrenta una posible responsabilidad si el chatbot no brinda la respuesta matizada que se requiere o, peor aún, recomienda un curso de acción que puede ser perjudicial? En cualquier industria podrían surgir escenarios similares, difíciles de escribir y riesgosos.

Esto explica por qué la concientización y la gestión de riesgos son el foco de algunos marcos regulatorios y no regulatorios. La Ley de IA propuesta por la Unión Europea aborda casos de uso de alto riesgo y riesgos inaceptables. En Estados Unidos, el Marco de Gestión de Riesgos del Instituto Nacional de Estándares y Tecnología tiene como objetivo minimizar el riesgo para individuos y organizaciones, al tiempo que aumenta «la confiabilidad de los sistemas de IA».

¿Cómo determinar la confiabilidad de la IA?

¿Cómo se puede determinar si la IA es confiable? Están surgiendo diversas metodologías en diferentes contextos, ya sean las Directrices para una IA confiable de la Comisión Europea, el Proyecto de ley de IA de la UE, la Hoja de ruta de garantía de la IA del Reino Unido y el reciente Libro Blanco sobre la regulación de la IA, o AI Verify de Singapur.

AI Confirm busca “generar confianza a través de la transparencia”, según la Organización para la Cooperación y el Desarrollo Económicos. Para ello, proporciona un marco para garantizar que los sistemas de IA cumplan con los principios aceptados de la ética de la IA. Esta es una variación de un tema ampliamente compartido: gobierne su IA desde el desarrollo hasta la implementación.

Sin embargo, por más bien intencionados que puedan ser los diversos esfuerzos gubernamentales, sigue siendo very important que las empresas creen sus propias reglas de gestión de riesgos en lugar de esperar a que se apruebe la legislación. Las estrategias de IA empresarial tienen mayores posibilidades de éxito cuando se incorporan en su implementación algunos principios comunes (seguros, justos, confiables y transparentes). Estos principios deben ser viables, lo que requiere herramientas para integrarlos sistemáticamente en los procesos de IA.

Personas, procesos y plataformas

La ventaja es que la innovación empresarial basada en la IA puede ser un verdadero diferenciador competitivo, como ya vemos en áreas como el descubrimiento de fármacos, la previsión de reclamaciones de seguros y el mantenimiento predictivo. Pero los avances no están exentos de riesgos, razón por la cual la gobernanza integral debe ir de la mano con el desarrollo y la implementación de la IA.

Un número cada vez mayor de organizaciones está trazando sus primeros pasos, teniendo en cuenta a las personas, los procesos y las plataformas. Están formando equipos de acción de IA con representación en todos los departamentos, evaluando la arquitectura de datos y discutiendo cómo debe adaptarse la ciencia de datos.

¿Cómo están gestionando todo esto los líderes de proyectos? Algunos comienzan con poco más que correos electrónicos y videollamadas para coordinar a las partes interesadas y hojas de cálculo para documentar y registrar el progreso. Eso funciona a pequeña escala. Pero las iniciativas de IA a nivel empresarial deben ir más allá y capturar qué decisiones se toman y por qué, así como detalles sobre el desempeño de los modelos a lo largo del ciclo de vida de un proyecto.

Una gobernanza sólida es el camino más seguro

En resumen, el valor del autogobierno surge de la documentación de los procesos, por un lado, y de la información clave sobre los modelos a medida que se desarrollan y en el momento de su implementación, por el otro. En conjunto, esto proporciona una imagen completa del cumplimiento precise y futuro.

Las pistas de auditoría posibles gracias a este tipo de infraestructura de gobernanza son esenciales para la “explicabilidad de la IA”. Esto comprende no sólo las capacidades técnicas necesarias para la explicabilidad, sino también la consideración social: la capacidad de una organización para proporcionar una justificación para su modelo e implementación de IA.

Todo esto se reduce a que una gobernanza sólida es el camino más seguro hacia iniciativas exitosas de IA: aquellas que generan confianza en el cliente, reducen el riesgo e impulsan la innovación empresarial. Mi consejo: no espere a que se seque la tinta de las normas y reglamentos gubernamentales. La tecnología avanza más rápido que la política.

Jacob Beswick es director de soluciones de gobernanza de IA en datosiku.

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos.

Si desea leer sobre thoughts de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podrías considerar contribuir con un artículo propio!

Leer más de DataDecisionMakers

Share.
Leave A Reply