Las leyes que rigen la inteligencia artificial son cada vez más diferentes dependiendo de dónde se encuentre en los EE. UU., una fuente creciente de confusión para las empresas que compiten por capitalizar el auge de la IA.
Este año, en el estado de Utah, los legisladores están debatiendo una legislación que exige que ciertas empresas revelen si sus productos interactúan con los consumidores sin utilizar a un ser humano.
En Connecticut, los legisladores estatales están considerando un proyecto de ley que impondría limitaciones más estrictas a la transparencia sobre el funcionamiento interno de los sistemas de inteligencia artificial considerados de «alto riesgo».
Se encuentran entre los 30 estados (más el Distrito de Columbia) que han propuesto o adoptado nuevas leyes que imponen restricciones, directa o indirectamente, sobre cómo se diseñan y utilizan los sistemas de IA.
La legislación apunta a todos los ámbitos, desde la protección de los niños y la transparencia de los datos hasta la reducción de los prejuicios y la protección de los consumidores de las decisiones generadas por la IA en materia de atención médica, vivienda y empleo.
«Es realmente un desastre para los negocios», dijo Goli Mahdavi, abogado de Bryan Cave Leighton Paisner, sobre los proyectos de ley aún en desarrollo y los estatutos recientemente promulgados. «Es simplemente mucha incertidumbre».
La razón del mosaico de leyes en todo Estados Unidos es la falta de acción por parte de Washington para ofrecer una regulación federal directa de la tecnología en rápida evolución, en gran parte porque no todos los legisladores estadounidenses están de acuerdo en que se necesitan nuevas leyes para controlar la IA.
Las cosas son diferentes en otras partes del mundo. La Unión Europea aprobó este año una ley integral de IA llamada Ley de IA. Y China ha adoptado leyes de IA con un enfoque más político que apuntan a la distribución de noticias generadas por IA, deepfakes, chatbots y conjuntos de datos.
Sin embargo, las leyes estatales que se debaten o promulgan en Estados Unidos reflejan las prioridades establecidas por el gobierno federal, dijo Mahdavi.
El presidente Biden, por ejemplo, ordenó a los desarrolladores y usuarios de IA que la apliquen «responsablemente» en una orden ejecutiva emitida en octubre pasado. Luego, en enero, la administración añadió el requisito para que los desarrolladores revelen al gobierno los resultados de sus pruebas de seguridad.
Las leyes estatales comparten algunos temas comunes, pero sus diferencias sutiles pueden hacer que el cumplimiento empresarial sea un desafío.
California, Colorado, Delaware, Texas, Indiana, Montana, New Hampshire, Virginia y Connecticut adoptaron leyes de protección al consumidor que les dan derecho a ser notificados sobre la toma de decisiones automatizada y el derecho a optar por no utilizar la tecnología de elaboración de perfiles utilizada para producir efectos legalmente significativos.
Las leyes prohíben en términos generales a las empresas someter a los consumidores a tecnología de toma de decisiones automatizada sin su consentimiento.
Las empresas, por ejemplo, no pueden perfilar a los consumidores según su desempeño laboral, condición de salud, ubicación, situación financiera y otros factores, a menos que lo acuerden explícitamente.
Las leyes de Colorado se extienden más allá para prohibir que la IA genere tarifas de seguro discriminatorias.
Sin embargo, el término «toma de decisiones automatizada», que aparece en la mayoría de las leyes, se determine de manera diferente entre los estados.
En algunos casos, una decisión sobre empleo o servicios financieros ya no se considera automatizada siempre que se tome con cierto nivel de participación humana.
Hasta ahora, Nueva Jersey y Tennessee no han llegado a promulgar disposiciones de exclusión voluntaria. Sin embargo, los estados exigen que quienes utilizan la IA para elaborar perfiles y tomar decisiones automatizadas realicen evaluaciones de riesgos para garantizar que los datos personales de los consumidores estén protegidos.
En Illinois, una ley que entró en vigor en 2022 limita a los empleadores el uso de IA en evaluaciones en video clip de candidatos a puestos de trabajo. Se requiere el consentimiento de un candidato antes de que un empleador pueda utilizar la IA para evaluar la imagen de vídeo del candidato.
En Georgia, en 2023 entró en vigor una ley estricta adaptada al uso de la IA por parte de los optometristas. La ley exige que no se pueda confiar únicamente en los dispositivos y equipos de IA utilizados para analizar imágenes oculares y otros datos de evaluación ocular para generar una prescripción inicial ni una renovación de prescripción por primera vez.
Nueva York se convirtió en el primer estado en exigir que los empleadores realicen auditorías de sesgo de sus herramientas de decisión laboral basadas en IA. La ley entró en vigor en julio de 2023.
Varios estados siguieron esa tendencia de manera más amplia, exigiendo que las entidades e individuos que usan IA realicen evaluaciones de riesgo de datos antes de usar la tecnología para procesar datos de los consumidores.
Lo que ayuda a tantos estados a aprobar estas leyes en sus legislaturas es «un nivel histórico de manage de un solo partido», dijo Scott Babwah Brennen, jefe de política de expresión en línea en el Centro de Política Tecnológica de UNC-Chapel Hill.
El año pasado, las legislaturas estatales de aproximadamente 40 estados estaban dominadas por un solo partido. Ese recuento se ha más que duplicado respecto de los 17 que tenían ese management en 1991.
Haga clic aquí para conocer las últimas noticias tecnológicas que afectarán al mercado de valores.
Lea las últimas noticias financieras y comerciales de Yahoo Finanzas