Pasan menos de cinco minutos de una entrevista con Tom Siebel antes de que el multimillonario tecnológico comience a dar la alarma sobre los numerosos riesgos de la inteligencia artificial.
«De la forma en que se está reinventando la guerra, todas estas nuevas tecnologías dependen en gran medida de la IA», dice Siebel, director ejecutivo y fundador de la empresa de computer software de IA empresarial C3.ai, en respuesta a la segunda pregunta de Fortuna.
La empresa proporciona aplicaciones de inteligencia synthetic a empresas de petróleo y fuel, desde Shell hasta Baker Hughes, así como a las comunidades de inteligencia y defensa de Estados Unidos. Pero C3.ai no hará negocios con naciones que no sean aliadas de estados democráticos, incluidas China y Rusia, porque Siebel dice que «harán mal uso de estas tecnologías en formas que no podemos imaginar».
MIT Sloan Administration Review y Boston Consulting Team reunieron recientemente un panel de académicos y profesionales de la IA y la pregunta ultimate que formularon fue: «A medida que la comunidad empresarial se vuelve más consciente de los riesgos de la IA, las empresas están haciendo inversiones adecuadas en inteligencia synthetic responsable». At the time de 13 se mostraron reacios a aceptar.
La IA está cambiando la forma en que los humanos trabajan, socializan, crean y experimentan el mundo. Pero muchas cosas pueden salir mal. El sesgo en la IA se deliver cuando se toman decisiones que son sistemáticamente injustas para varios grupos de personas. Los críticos temen que los prejuicios puedan perjudicar especialmente a los grupos marginados. Las alucinaciones perciben patrones que son imperceptibles para los humanos y crean resultados inexactos. Y la deriva se deliver cuando los grandes modelos lingüísticos se comportan de manera impredecible y requieren recalibración.
Los estadounidenses están preocupados. Una encuesta del Pew Research Middle de este verano encontró que el 52% estaba más preocupado que entusiasmado por el mayor uso de la IA. En el lugar de trabajo, los estadounidenses se oponen al uso de la IA para tomar decisiones finales de contratación por un margen del 71% al 7%. Las mujeres tienden a ver la IA de forma más negativa que los hombres.
Sin embargo, no todo es pesimismo. La mitad de las organizaciones dice que los factores de riesgo son una consideración crítica al evaluar nuevos usos de la IA. Una gran proporción de estadounidenses no cree que el uso de la IA en el lugar de trabajo tenga un impacto importante en ellos personalmente.
«Nunca deberías tener como objetivo automatizar a un grupo de trabajadores», dice Steve Mills, director de ética de IA de BCG. «Se trata de cómo combinar a las personas con la IA para mejorar su trabajo, permitirles hacer más y aprovechar la creatividad y el ingenio humanos».
La IA funciona mejor cuando hay supervisión humana. Muchas empresas dicen que sus empleados revisan rigurosamente los modelos de IA que crean o utilizan y que se implementan procesos para garantizar la privacidad y la seguridad de los datos. Los gigantes tecnológicos comparten públicamente su espíritu de IA responsable para aliviar las preocupaciones sobre la tecnología en rápida evolución.
«Soy optimista en que la IA será una herramienta colaborativa que utilizarán los trabajadores», dice Todd Mobley, que representa a los empleadores en litigios para DLA Piper. “Pero debería ser un proceso continuo e iterativo con debates, capacitación y pruebas de las herramientas para garantizar que se utilicen por los motivos adecuados. Y que la herramienta no esté creando consecuencias no deseadas”.
«Creemos que la IA puede ser muy poderosa para automatizar muchas tareas, incluso automatizar decisiones, pero en algún momento es necesario que un ser humano esté al tanto para validar cómo se toman las decisiones», dice Rob Thomas, vicepresidente senior de program y jefe. Responsable comercial de IBM.
Thomas enfatiza que debe haber transparencia sobre cómo se construye la IA y de dónde provienen los datos. La regulación debería supervisar los casos de uso de la IA, pero no el desarrollo de la tecnología. Y la gobernanza es essential para comprender cómo funcionan los modelos.
Para ello, antes de finales de este año, IBM lanzará watsonx.governance [sic] disponible para ayudar a las empresas a monitorear y administrar sus actividades de IA, y emplear automatización de software package para mitigar el riesgo, gestionar los requisitos regulatorios y abordar preocupaciones éticas. «Nuestra intención es ofrecer computer software y capacidades que permitan a cualquier empresa confiar en la IA», afirma Thomas.
En septiembre, el gigante alemán del program SAP presentó un nuevo copiloto de IA generativa llamado Joule, que se está integrando en aplicaciones que van desde la cadena de suministro hasta las finanzas y las adquisiciones. Los usuarios de algunos productos de SAP pueden hacer una pregunta o proponer un problema y recibir respuestas de IA extraídas de datos comerciales de toda la cartera de SAP y fuentes de terceros.
Thomas Saueressig, que dirige el equipo de ingeniería de productos de SAP y los esfuerzos de desarrollo ético de IA, dice que es fundamental reconocer que existe sesgo en modelos de lenguaje grandes y que SAP pone recursos en esfuerzos de mitigación para garantizar que las indicaciones de Joule eviten sesgos. Saueressig dice que es “absolutamente esencial” que el desarrollo de la IA se centre en las personas. «Creemos que es un dúo, no un duelo».
Desde principios de 2022, todos los empleados de SAP han firmado la política de ética de la IA de la empresa. «Tenemos un enfoque muy claro en el valor de la protección de datos y la privacidad», afirma Saueressig.
Tony Habash cree que la IA cambiará drásticamente la forma en que los terapeutas practican la psicología. Como director de información de la Asociación Estadounidense de Psicología, Habash ve usos beneficiosos que van desde la toma de notas impulsada por IA hasta proporcionar indicadores de tratamiento para que el terapeuta los utilice para mejorar la atención. También existe potencial para que la IA avance en la investigación médica y haga que la atención médica sea más accesible al reducir los costos.
«Creemos que el mayor cambio que tenemos por delante es la relación hombre-máquina», afirma Habash. Históricamente, los humanos tenían que aprender lenguajes de programación, como Java, para decirle a una máquina qué hacer. «Y luego nos despertamos y la máquina habla nuestro idioma con IA generativa». Habash dice que esto plantea cuestiones éticas sobre cómo los humanos pueden crear confianza, mejores prácticas y pautas para la interacción máquina-humano.
«Un médico que trabaje con un sistema de IA deberá comprender claramente cómo funciona, para qué está diseñado y cómo utiliza la IA para mejorar la calidad del servicio de atención médica y garantizar el bienestar del paciente». dice Sunil Senan, vicepresidente senior y director global de datos, análisis e inteligencia artificial de Infosys.
Hay formas en que la IA puede ayudar a los humanos a comportarse de manera más humana. Tomemos el ejemplo de «¿Estás seguro?» de Match Team. característica. Usando IA, la aplicación de citas Tinder de Match es capaz de identificar frases que podrían ser problemáticas y avisar al remitente que el mensaje que está a punto de enviar podría ser ofensivo. De manera very similar, “¿Esto te molesta?” es un mensaje rápido que los receptores pueden utilizar para marcar lenguaje dañino en Match.
Estas funciones han reducido el acoso en la aplicación y Match ha ampliado «¿Estás seguro?» a 18 idiomas hoy. «Las personas que vieron este aviso y cambiaron su mensaje tenían menos probabilidades de ser denunciadas», dice Rory Kozoll, vicepresidente senior de plataforma central y tecnologías de Match Group. «Estos modelos son realmente impresionantes por su capacidad para comprender los matices y el lenguaje».
Cuando el fondo de capital de riesgo M12 de Microsoft busca invertir, busca nuevas empresas que puedan implementar tecnología de manera responsable. Con ese fin, M12 invirtió en Inworld, que crea personajes virtuales impulsados por IA en juegos de rol que no están controlados por humanos. Estas conversaciones virtuales podrían descarrilarse y volverse tóxicas, pero Inworld establece barreras estrictas sobre lo que se puede decir, lo que le permite trabajar con clientes familiares como Disney.
“Siempre me sentiré mejor durmiendo por la noche sabiendo que las empresas en las que hemos invertido tienen una línea de visión clara sobre el uso de los datos, los datos que entran en el modelo, los datos en los que se entrena el modelo y luego el uso ultimate del modelo se ajustará a directrices y barreras que sean legales y comercialmente sólidas”, afirma Michael Stewart, socio de M12.
Ally Financial, el banco totalmente electronic más grande de EE. UU., utiliza inteligencia artificial en suscripción y chatbots. Al implementar IA, Ally experimenta con clientes internos y siempre cuenta con un ser humano involucrado. Sathish Muthukrishnan, director de información, datos y electronic de Ally Economic, dice que la tecnología de inteligencia synthetic utilizada en los chatbots debe hablar exactamente como lo haría un asociado con un cliente.
“Los modelos de IA están aprendiendo a evitar sesgos y es nuestra responsabilidad enseñar eso”, afirma Muthukrishnan.
Están surgiendo algunas nuevas empresas de IA que apuntan a generar más confianza en la tecnología. En septiembre, Armilla AI estrenó cobertura de garantía para productos de IA con aseguradoras como Swiss Re para brindar a los clientes una verificación de terceros de que la IA que están utilizando es justa y segura. «Un modelo funciona muy bien porque está sesgado», explica Karthik Ramakrishnan, cofundador y director ejecutivo de Armilla AI. Sesgo, explica, no es una palabra negativa porque la IA debe entrenarse con datos para pensar de cierta manera.
«Pero lo que nos preocupa es cómo el modelo trata las diferentes situaciones y demografías», dice Ramakrishnan.
Credo AI es una oferta de gobernanza de IA que automatiza la supervisión de la IA, la mitigación de riesgos y el cumplimiento normativo. El software program brinda responsabilidad y supervisión a toda la pila tecnológica de un cliente, lo que ayuda a definir claramente quién está revisando los sistemas ¿Existe una junta de ética y quiénes forman parte de ella? y cómo se auditan y aprueban los sistemas.
«Los líderes empresariales ni siquiera saben dónde se utiliza realmente la IA dentro de su propia organización», dice Navrina Singh, directora ejecutiva y fundadora de Credo AI. «Tienen registros de modelos pero no tienen registros de aplicaciones».
En C3.ai, Siebel sigue preocupado de que la IA acabe en las manos equivocadas. La privacidad es su mayor preocupación. Siebel dice que la sociedad debería estar alineada en que la IA no debería hacer un mal uso de la información privada, propagar peligros para la salud social, interferir con los procesos democráticos o usarse para aplicaciones militares sensibles sin supervisión civil. En cuanto al sesgo, es un hueso más difícil de resolver.
«Tenemos cientos de años de historia en la civilización occidental», dice Siebel. “No hay nada más que prejuicios. Ya sea género, ya sea origen nacional, ya sea raza. ¿Dime cómo vamos a solucionar eso? Es irreparable”.