La inteligencia synthetic no puede dar cuenta de sus errores. Una propuesta de ley tiene como objetivo proteger a los consumidores del engaño de los robots, dicen sus partidarios.
La inteligencia artificial generativa, del tipo que genera texto o imágenes, basándose en indicaciones, aprende mucho como lo hacen los humanos: capta el lenguaje, cuyo vocabulario crece con cada interacción humana, y almacena esos encuentros como datos para poder responder de manera más apropiada. en el futuro.
Los miembros de la Legislatura de Utah quieren que los humanos del sector empresarial de Utah y el departamento de Comercio del estado aprendan sobre la IA de la misma manera.
El Comité Senatorial de Negocios y Trabajo, por votación unánime, envió la SB149 al pleno del Senado el jueves. El proyecto de ley, si se convierte en ley, establecería un “laboratorio de aprendizaje” de IA para que las empresas y los reguladores estatales estén al tanto de las últimas tecnologías y tendencias en inteligencia artificial, para que el estado pueda comprender mejor cómo typical la IA.
El proyecto de ley impondría algunas reglas inmediatas sobre la IA orientada al consumidor, porque si bien la IA ya puede actuar como humana, eso no la convierte en humana.
“Queremos poner algunas barreras de seguridad ahora”, dijo al comité Margaret Busse, directora ejecutiva del Departamento de Comercio de Utah.
Según la SB149, las empresas que utilizan IA generativa podrían ser consideradas responsables si esa IA engaña a los consumidores en violación de las leyes de protección al consumidor de Utah. Por ejemplo, si un chatbot engaña a un consumidor para que compre un producto, el chatbot no es responsable de esa mentira: la empresa detrás de él sí lo es.
«No se puede utilizar la IA como defensa», dijo Busse.
El proyecto de ley también requeriría que cualquier IA generativa orientada al consumidor, como chatbots o mensajes de texto, responda honestamente si se le pregunta: «¿Eres humano?» En ciertas industrias autorizadas, incluidas la atención médica, la salud mental y las finanzas, la IA debería revelar que no es humana al inicio de cualquier conversación.
«Para interacciones sensibles, las personas deben saber si están tratando con un no humano», dijo Busse.
El patrocinador del proyecto de ley, el senador Kirk Cullimore, republicano por Sandy, reconoció que Utah en basic desconfía de aumentar la regulación para los propietarios de empresas pero las prácticas comerciales engañosas ya son ilegales. Este proyecto de ley, dijo, simplemente aclara la responsabilidad cuando está involucrada la IA.
Los propietarios, ejecutivos y representantes de empresas (incluso aquellos directamente involucrados en el application de inteligencia synthetic) dijeron a los legisladores que apoyan dicha regulación.
Bree Jones, propietaria de dos empresas de application, dijo que la IA no es un segmento de nicho de la industria tecnológica: es «la tecnología predominante».
Jones añadió: «También soy madre de dos hijos y me preocupa el hecho de que la IA se está volviendo tan dominante, tan fácil de acceder y desarrollar, que aquellos que no están regulados y tal vez sean un poco traviesos con ella realmente podrían hacerlo». algún daño aquí en el próximo corto tiempo”.
Ginger Chinn, vicepresidenta de la Cámara de Comercio de Salt Lake, dijo que el proyecto de ley period una de las principales prioridades legislativas de la cámara, porque fomenta la innovación y protege a las empresas.
Cullimore agregó que la inteligencia synthetic está creciendo rápidamente y que lo mejor para el estado es mantenerse a la vanguardia lo mejor que pueda. El Laboratorio de Aprendizaje de IA del proyecto de ley podría permitir a las empresas probar las capacidades de la IA sin temor a represalias.
«En Utah nos enorgullecemos de tener un toque ligero en la industria y la innovación, y queremos promover la innovación», dijo Cullimore.
Los participantes del laboratorio, en el lenguaje del proyecto de ley, “analizarían e investigarían los riesgos, beneficios, impactos e implicaciones políticas” de la nueva tecnología de IA y utilizarían su conocimiento compartido para ayudar a guiar la regulación. Los participantes “definirían las cosas [they] Queremos aprender y decidir qué necesitamos regular”, dijo Busse.
En otras palabras, el laboratorio funcionaría de forma muy parecida a como lo hace ahora la IA generativa.
Shannon Sollitt es una Informe para América miembro del cuerpo que cubre la responsabilidad empresarial y la sostenibilidad para El Salt Lake Tribune. Su donación para igualar nuestra subvención RFA la ayuda a seguir escribiendo historias como ésta considere hacer una donación deducible de impuestos de cualquier monto hoy haciendo clic aquí.