La inteligencia artificial (IA) está revolucionando las operaciones comerciales, ofreciendo avances en eficiencia, toma de decisiones y participación del cliente. Sin embargo, su rápida integración en los procesos comerciales presenta un espectro de riesgos legales y financieros que las empresas deben navegar para garantizar el cumplimiento y mantener la confianza.
La definición legal amplia de IA y sus implicaciones
En los Estados Unidos, el marco legal define AI mucho más expansivo de lo que la persona promedio podría esperar, lo que puede incluir una amplia gama de aplicaciones de software. Sub 15 USC § 9401 (3), AI es cualquier sistema basado en máquinas que:
- hace predicciones, recomendaciones o decisiones,
- utiliza objetivos definidos por humanos, y
- influye en entornos reales o virtuales.
Esta definición amplia implica que incluso las herramientas comunes como Excel Macros podrían estar sujetas a las regulaciones de IA. Como señala Neil Peretz de Enumero Law, una definición tan expansiva significa que las empresas en varios sectores ahora deben volver a solicitar todo su uso de software para garantizar el cumplimiento de las nuevas leyes de IA.
Navegar por el paisaje regulatorio en evolución
El entorno regulatorio para la IA está evolucionando rápidamente. La Ley de IA de la Unión Europea, por ejemplo, clasifica los sistemas de IA en categorías de riesgos, imponiendo requisitos de cumplimiento estrictos en aplicaciones de alto riesgo. En los Estados Unidos, varios estados introducen leyes de IA, lo que requiere que las empresas se mantengan al tanto de las regulaciones cambiantes.
Según Jonathan Friedland, un socio de Mucho Shelist, PC, que representa a las juntas directivas de las empresas respaldadas por PE y otras empresas de propiedad privada, los desarrollos en inteligencia artificial están ocurriendo tan rápido que muchas empresas de tamaño modesto pasan mucho tiempo desarrollando programas de cumplimiento para garantizar la adherencia a las leyes aplicables.
Un resultado, según Friedland, es que «[a]S uno podría esperar, la gran cantidad de programas de certificados, cursos en línea y títulos que ahora se ofrecen en AI están explotando. Todos parecen estar entrando en el juego «, continúa Friedland:» Por ejemplo, la Asociación Internacional de Profesionales de la Privacidad, una organización global previamente centrada en la privacidad y la protección de datos, recientemente comenzó a ofrecer su ‘certificación profesional de gobernanza de inteligencia artificial «. El desafío para las empresas, según Friedland, es «invertir adecuadamente sin exagerar».
Navegar por el sesgo y la discriminación en los sistemas de IA
Los desafíos legales se han asociado con el sesgo y la responsabilidad algorítmicos, que afirman que los datos históricos utilizados para capacitar a la IA a menudo reflejan las desigualdades sociales, que los sistemas de IA pueden perpetuar aún más.
Sean Griffin, de Longman & Van Grack, destaca los casos en los que las herramientas de IA han llevado a acusaciones de discriminación, como una demanda contra Workday, donde un solicitante afirmó que el sistema de IA de la compañía rechazó sistemáticamente a los candidatos negros y mayores. Del mismo modo, Amazon suspendió una herramienta de reclutamiento de IA después de descubrir que favoreció a los candidatos masculinos, revelando el potencial de IA para reforzar los prejuicios sociales.
Para mitigar estos riesgos, las empresas deben implementar auditorías regulares de sus sistemas de IA para identificar y abordar los sesgos. Esto incluye diversificar datos de capacitación y establecer mecanismos de supervisión para garantizar la equidad en las decisiones impulsadas por la IA.
Abordar las preocupaciones de privacidad de los datos
La dependencia de la IA en vastas conjuntos de datos, que a menudo contiene información personal y confidencial, plantea problemas significativos de privacidad de datos. Las herramientas impulsadas por IA pueden inferir información confidencial, como los riesgos para la salud de la actividad de las redes sociales, potencialmente sin pasar por alto las salvaguardas de privacidad tradicionales.
Debido a que los sistemas de IA potencialmente tienen acceso a una amplia gama de datos, el cumplimiento de las regulaciones de protección de datos como GDPR y CCPA es crucial. Las empresas deben asegurarse de que los datos utilizados en los sistemas de IA se recopilen y procesen legalmente, con consentimiento explícito cuando sea necesario. La implementación de marcos de gobierno de datos sólidos y datos de anonimato puede ayudar a mitigar los riesgos de privacidad.
Garantizar la transparencia y la explicabilidad
La complejidad de los modelos de IA, particularmente los sistemas de aprendizaje profundo, a menudo resulta en escenarios de ‘caja negra’ donde los procesos de toma de decisiones son opacos. Esta falta de transparencia puede conducir a desafíos en la responsabilidad y la confianza. Las empresas deben tener en cuenta los riesgos asociados con involucrar a terceros para desarrollar u operar sus soluciones de IA. En muchas áreas de toma de decisiones, se requiere explicación, y un enfoque de caja negra no será suficiente. Por ejemplo, al negar a alguien por crédito al consumidor, se deben proporcionar razones de acción adversa específicas al solicitante.
Para abordar esto, las empresas deben esforzarse por desarrollar modelos de IA que sean interpretables y que puedan proporcionar explicaciones claras para sus decisiones. Esto no solo ayuda en el cumplimiento regulatorio, sino que también mejora la confianza de las partes interesadas.
Gestión de riesgos de ciberseguridad
Los sistemas de IA son objetivos y herramientas en ciberseguridad. Alex Sharpe señala que los cibercriminales están aprovechando la IA para crear ataques sofisticados de phishing y automatizar los intentos de piratería. Por el contrario, las empresas pueden emplear IA para la detección de amenazas y la rápida respuesta a los incidentes.
Los riesgos legales asociados con la IA en los servicios financieros destacan la importancia de la gestión de los riesgos de ciberseguridad. La implementación de medidas sólidas de ciberseguridad, como cifrado, controles de acceso y monitoreo continuo, es esencial para proteger los sistemas de IA de las amenazas. Las evaluaciones y actualizaciones de seguridad regulares pueden salvaguardar aún más contra las vulnerabilidades.
Considerando el seguro como una herramienta de mitigación de riesgos
Dados los riesgos multifacéticos asociados con la IA, las empresas deben evaluar en qué medida ciertos tipos de seguros pueden ayudarlos a administrar y reducir los riesgos. Políticas como la responsabilidad general comercial, la responsabilidad cibernética y el seguro de errores y omisiones pueden ofrecer protección contra diversos riesgos relacionados con la IA.
Las empresas pueden beneficiarse de auditar riesgos de IA específicos de negocios y considerar el seguro como una herramienta de mitigación de riesgos. Revisar y actualizar regularmente la cobertura de seguro garantiza que se alinee con el panorama de riesgos en evolución asociado con la implementación de IA.
Conclusión
Si bien la IA ofrece potencial transformador para las empresas, también introduce riesgos legales y financieros significativos. Al abordar de manera proactiva los problemas relacionados con el sesgo, la privacidad de los datos, la transparencia, la ciberseguridad y el cumplimiento regulatorio, las empresas pueden aprovechar los beneficios de la IA al tiempo que minimiza los posibles pasivos.
AI tiende a decirle al Prompter lo que quieren escuchar, ya sea cierto o no, subrayando la importancia de la gobernanza, la responsabilidad y la supervisión en su adopción. Las organizaciones que establecen políticas claras y estrategias de gestión de riesgos estarán mejor posicionadas para navegar con éxito el futuro impulsado por la IA.
Para obtener más información sobre este tema, vea la gestión de riesgos corporativos / recordar HAL 9000: Pensar en los riesgos de la inteligencia artificial para una empresa. Los comentarios cotizados a los que se hace referencia en este artículo se hicieron durante este seminario web o poco después durante las entrevistas posteriores a Webinar con los panelistas. Los lectores también pueden estar interesados en leer otros artículos sobre gestión de riesgos y tecnología.
© 2025. DailyDacTMLLC D/B/A/PISE FINANCIEROTM. Este artículo está sujeto a las renuncias que se encuentran aquí.