Esos informes se produjeron apenas unas semanas después de que el Consejo de Supervisión de la Estabilidad Financiera de Washington dijera que la IA podría provocar un «daño directo al consumidor» y Gary Gensler, presidente de la Comisión de Bolsa y Valores (SEC), advirtiera públicamente sobre la amenaza a la estabilidad financiera de numerosas inversiones. empresas que dependen de modelos de IA similares para tomar decisiones de compra y venta.
«La IA puede desempeñar un papel central en los informes posteriores a una futura crisis financiera», dijo en un discurso en diciembre.
En la conferencia anual del Foro Económico Mundial para los principales directores ejecutivos, políticos y multimillonarios celebrada en una elegante ciudad de esquí suiza, la IA es uno de los temas centrales y un tema en muchos de los paneles y eventos.
En un informe publicado la semana pasada, el foro dijo que su encuesta entre 1.500 formuladores de políticas y líderes de la industria encontró que las noticias falsas y la propaganda escrita e impulsada por chatbots de IA son el mayor riesgo a corto plazo para la economía world-wide. Alrededor de la mitad de la población mundial participa en elecciones este año en países como Estados Unidos, México, Indonesia y Pakistán, y a los investigadores de desinformación les preocupa que la IA facilite que las personas difundan información falsa y aumente el conflicto social.
Los propagandistas chinos ya están utilizando IA generativa para intentar influir en la política en Taiwán, informó el viernes The Washington Submit. El contenido generado por IA está apareciendo en movies de noticias falsas en Taiwán, dijeron funcionarios del gobierno.
El informe del foro se produjo un día después de que FINRA en su informe anual dijera que la IA ha generado “preocupaciones sobre la precisión, la privacidad, el sesgo y la propiedad intelectual”, incluso cuando ofrece posibles ganancias en costos y eficiencia.
Y en diciembre, el FSOC del Departamento del Tesoro, que monitorea el sistema financiero para detectar comportamientos riesgosos, dijo que fallas de diseño de IA no detectadas podrían producir decisiones sesgadas, como negar préstamos a solicitantes que de otra manera calificarían.
La IA generativa, que se entrena con enormes conjuntos de datos, también puede producir conclusiones totalmente incorrectas que suenan convincentes, añadió el consejo. El FSOC, presidido por la Secretaria del Tesoro, Janet L. Yellen, recomendó que los reguladores y la industria financiera presten más atención al seguimiento de los riesgos potenciales que surgen del desarrollo de la IA.
Gensler de la SEC ha estado entre los críticos más abiertos de la IA. En diciembre, su agencia solicitó información sobre el uso de la IA a varios asesores de inversiones, según Karen Barr, directora de la Asociación de Asesores de Inversiones, un grupo industrial. La solicitud de información, conocida como “barrido”, se produjo cinco meses después de que la comisión propusiera nuevas reglas para evitar conflictos de intereses entre los asesores que utilizan un tipo de IA conocido como análisis de datos predictivos y sus clientes.
«Cualquier conflicto de intereses resultante podría causar daño a los inversores de una manera más pronunciada y en una escala más amplia de lo que antes period posible», dijo la SEC en su propuesta de reglamentación.
Las regulaciones existentes ya exigen que los asesores de inversiones prioricen las necesidades de sus clientes y eviten tales conflictos, dijo Barr. Su grupo quiere que la SEC retire la regla propuesta y foundation cualquier acción futura en lo que aprenda de su barrido informativo. “La reglamentación de la SEC no da en el blanco”, dijo.
Las empresas de servicios financieros ven oportunidades para mejorar las comunicaciones con los clientes, las operaciones administrativas y la gestión de carteras. Pero la IA también entraña mayores riesgos. Los algoritmos que toman decisiones financieras podrían producir decisiones crediticias sesgadas que nieguen a las minorías el acceso al crédito o incluso causar un colapso del mercado global, si docenas de instituciones que dependen del mismo sistema de inteligencia synthetic venden al mismo tiempo.
“Esto es algo diferente a lo que hemos visto antes. La IA tiene la capacidad de hacer cosas sin manos humanas”, dijo el abogado Jeremiah Williams, exfuncionario de la SEC que ahora trabaja en Ropes & Grey en Washington.
Incluso el Tribunal Supremo ve motivos de preocupación.
“Obviamente, la IA tiene un gran potencial para aumentar drásticamente el acceso a información clave tanto para abogados como para no abogados. Pero con la misma evidencia se corre el riesgo de invadir los intereses de la privacidad y deshumanizar la ley”, escribió el presidente del Tribunal Supremo, John G. Roberts Jr., en su informe de fin de año sobre el sistema judicial estadounidense.
Al igual que los conductores que siguen instrucciones del GPS que los llevan a un callejón sin salida, los humanos pueden ceder demasiado a la IA en la gestión del dinero, dijo Hilary Allen, decana asociada de la Facultad de Derecho de la Universidad Americana de Washington. «Existe una gran mística acerca de que la IA sea más inteligente que nosotros», dijo.
La IA tampoco puede ser mejor que los humanos a la hora de detectar peligros improbables o «riesgos de cola», dijo Allen. Antes de 2008, pocas personas en Wall Avenue previeron el fin de la burbuja inmobiliaria. Una de las razones fue que, dado que los precios de la vivienda nunca antes habían bajado en todo el país, los modelos de Wall Road suponían que nunca se produciría una caída tan uniforme. Incluso los mejores sistemas de IA son tan buenos como los datos en los que se basan, afirmó Allen.
A medida que la IA se vuelve más compleja y capaz, algunos expertos se preocupan por la automatización de «caja negra» que no puede explicar cómo se llegó a una decisión, lo que deja a los humanos inseguros sobre su solidez. Los sistemas mal diseñados o administrados podrían socavar la confianza entre comprador y vendedor que se requiere para cualquier transacción financiera, dijo Richard Berner, profesor clínico de finanzas en la Escuela de Negocios Stern de la Universidad de Nueva York.
«Nadie ha planteado un escenario de estrés con las máquinas funcionando fuera de handle», añadió Berner, primer director de la Oficina de Investigación Financiera del Tesoro.
En Silicon Valley, el discussion sobre los peligros potenciales en torno a la IA no es nuevo. Pero se sobrealimentó en los meses posteriores al lanzamiento a finales de 2022 de ChatGPT de OpenAI, que mostró al mundo las capacidades de la tecnología de próxima generación.
En medio de un auge de la inteligencia synthetic que impulsó un rejuvenecimiento de la industria tecnológica, algunos ejecutivos de empresas advirtieron que el potencial de la IA para provocar el caos social rivaliza con las armas nucleares y las pandemias letales. Muchos investigadores dicen que esas preocupaciones distraen la atención de los impactos de la IA en el mundo genuine. Otros expertos y empresarios dicen que las preocupaciones sobre la tecnología son exageradas y corren el riesgo de empujar a los reguladores a bloquear innovaciones que podrían ayudar a las personas e impulsar las ganancias de las empresas de tecnología.
El año pasado, políticos y formuladores de políticas de todo el mundo también lucharon por entender cómo encajará la IA en la sociedad. El Congreso celebró múltiples audiencias. El presidente Biden emitió una orden ejecutiva diciendo que la IA period “la tecnología más importante de nuestro tiempo”. El Reino Unido convocó un foro mundial sobre IA en el que el primer ministro Rishi Sunak advirtió que “la humanidad podría perder completamente el management de la IA”. Las preocupaciones incluyen el riesgo de que la IA “generativa”, que puede crear texto, video clip, imágenes y audio, pueda usarse para crear información errónea, desplazar empleos o incluso ayudar a las personas a crear armas biológicas peligrosas.
Los críticos de la tecnología han señalado que algunos de los líderes que han hecho sonar la alarma, como el director ejecutivo de OpenAI, Sam Altman, están, no obstante, impulsando el desarrollo y la comercialización de la tecnología. Las empresas más pequeñas han acusado a los pesos pesados de la IA, OpenAI, Google y Microsoft, de exagerar los riesgos de la IA para activar una regulación que dificultaría la competencia de los nuevos participantes.
«Lo que pasa con las exageraciones es que hay una desconexión entre lo que se dice y lo que realmente es posible», dijo Margaret Mitchell, científica jefe de ética en Hugging Confront, una nueva empresa de inteligencia artificial de código abierto con sede en Nueva York. «Tuvimos un período de luna de miel en el que la IA generativa era súper nueva para el público y solo podían ver lo bueno a medida que la gente comenzaba a usarla, podían ver todos sus problemas».