El tema de la inteligencia artificial (IA) no podría recibir más publicidad. Después de décadas de ser un tema tecnológico excéntrico, de repente saltó a la parte remarkable de la lista de todos, con el lavado de IA que impregna todos los aspectos de la tecnología.
Pero las organizaciones deben ser cautelosas: los riesgos de adoptar IA son altos y probablemente subestimados, tanto a nivel empresarial como social. Y la mayoría de las organizaciones tendrán que proceder con cuidado. Dejando de lado el posible riesgo para toda la humanidad, las decisiones sobre cómo se implementa la IA tienen grandes implicaciones financieras y de particular que las organizaciones deberán sopesar cuidadosamente.
Más allá de las preguntas éticas y existenciales más amplias sobre las amenazas de la IA (los líderes tecnológicos han advertido sobre la posible extinción humana), existen consideraciones más prácticas, como el costo, las habilidades requeridas y los riesgos comerciales. Profundicemos y consideremos los cinco principales riesgos de la IA para su empresa.
Riesgo #1: Precisión y Responsabilidad
Este puede ser el mayor problema actual con la IA. Muchas aplicaciones de IA tienen errores graves con el abastecimiento, la precisión y la responsabilidad.
¿De dónde viene la información? ¿Cómo lo verificas? ¿Cuál es el conjunto de datos en el que se basa la IA? La mayoría de las aplicaciones impulsadas por IA no son transparentes ni verificables. Usando un término adoptado por la comunidad de inteligencia, «confiar pero verificar», la mayoría de las fuentes de IA no se pueden verificar. Es una caja negra.
En muchos casos, hay errores absolutos. Muchos de los errores cometidos por los chatbots han sido documentados. Aquí hay algunos:
- Bard AI de Google tuvo un comienzo difícil al cometer algunos errores conocidos y «alucinaciones», un fenómeno en el que los modelos de IA inventan hechos. Algunas de las alucinaciones que produjo en el campo de la astronomía llevaron a un destacado astrofísico, Grant Tremblay, a afirmar que, si bien Bard de Google es «impresionante», los chatbots de IA como ChatGPT y Bard «tienden a declarar información incorrecta con confianza».
- ·El chatbot Bing de Microsoft no pudo diferenciar los datos financieros clave en una comparación básica de aspiradoras y ropa. Los humanos tienen que limpiar esto.
- Las alucinaciones de ChatGPT de OpenAI son comunes, como el caso documentado en el que inventó casos judiciales ficticios cuando un abogado lo usó para una investigación legal. Las alucinaciones atacan de nuevo.
- AI fracasó en gran medida en ayudar a diagnosticar COVID-19 para ayudar a la evaluación clínica de la pandemia. En un examen de 415 herramientas de IA de este tipo, ninguna de ellas period apta para uso clínico.
- La compañía de datos de bienes raíces en línea Zillow incurrió en una amortización de $ 300 millones porque su programa de Ofertas no pudo cotizar con precisión las casas con un algoritmo impulsado por IA.
Estos son solo algunos ejemplos, hay muchos más. Algunos de ellos presentan riesgos para la salud financiera y física. La pregunta que deben hacerse las organizaciones: ¿Confía en la IA sin la supervisión y las pruebas adecuadas?
Riesgo #2: Brecha de habilidades
A medida que las organizaciones consideran la adopción de IA, deben preguntarse si tienen las habilidades o capacidades para hacerlo. Poner la IA en las manos equivocadas podría ser una destrucción armada. Como me dijo una fuente de Silicon Valley en un integrador de TI: «Nuestros clientes apenas entienden la nube, ¿cómo van a entender la IA?»
Buen punto. Con la amenaza de errores financieros, alucinaciones o errores que ya hemos demostrado que pueden causar daños graves, ¿la mayoría de las organizaciones tienen la experiencia en IA para usar la tecnología? La respuesta es probablemente no.
McKinsey ha identificado una gran cantidad de riesgos de la IA, incluidos desafíos técnicos como dificultades con los datos y problemas con el proceso tecnológico. La clave de toda IA son los datos, y la forma en que estos datos se recopilan, almacenan y utilizan es fundamental. Sin la comprensión adecuada, las organizaciones incurren en muchos riesgos, incluidos riesgos de reputación, riesgos de datos y riesgos de seguridad.
Riesgo #3: Propiedad Intelectual y Riesgos Legales
Si una persona o una organización hace algo mal, es responsable por los errores a través del estado de derecho. ¿Qué pasa con la IA?
Hay una serie de problemas legales en la aplicación de la IA. ¿Será tratada la IA como humanos cuando cometa errores? Identificar los orígenes de un mistake de IA o la fuente de datos es particularmente difícil de rastrear (es decir, en el caso de las alucinaciones). Y luego están las enormes cuestiones de propiedad intelectual (PI). Si la IA utiliza modelos de datos que toman prestados de la propiedad intelectual, como application, arte y música, ¿quién es el propietario de la propiedad intelectual? AI desintermedia a los propietarios de IP. Si Google se utiliza para buscar algo, normalmente puede devolver un enlace a la fuente o al creador de la IP ese no es el caso con la IA.
Hay una serie de otros problemas: privacidad de datos, sesgo de datos, discriminación, seguridad y ética. Falsificaciones profundas. ¿Quién posee los derechos cuando alguien crea una falsificación profunda de ti?
Consider una gran organización en la que las herramientas de IA se están adoptando en un espectro de empleados y divisiones en una metodología de «TI en la sombra». Esta es una pesadilla authorized y de responsabilidad que ha llevado a docenas de empresas a prohibir la adopción de herramientas de IA como ChatGPT, incluidos grandes nombres como Apple, JPMorgan Chase, Citigroup, Deutsche Bank, Wells Fargo y Verizon.
Riesgo #4: Costos
Cada tecnología se evalúa en última instancia por su retorno financiero de la inversión (ROI). Algunas tecnologías se han inventado con una promesa única, pero finalmente han fracasado porque cuestan más de lo que producen. Algunos ejemplos en los que puedo pensar son Google Glass, Betamax, Segway y la tecnología de celdas de flamable, todos los cuales fallaron por completo o no estuvieron a la altura de las ganancias esperadas en el mercado.
Un ejemplo específico de dónde la IA no logra generar un ROI, o incluso incurre en una pérdida, es el intento equivocado (y arrogante) de Zillow de implementar compras automatizadas de casas basadas en un algoritmo de precios impulsado por la IA, que terminó sin funcionar y costándole a la empresa cientos de millones de dólares.
La escala de la implementación de la IA en términos de inversión, capacitación y potencial eclipsa quizás cualquier tecnología del pasado. Accenture ya ha anunciado una inversión de $ 3 mil millones en IA, y los proveedores de nube más grandes están invirtiendo decenas de miles de millones en nueva infraestructura para IA. Las empresas más tradicionales de Fortune 500 tendrán que gastar enormes cantidades de dinero para capacitar al individual e invertir en nuevas tecnologías de IA.
¿Valdrá la pena? Esto se reducirá a resultados específicos en innumerables aplicaciones, pero habrá algunos choques de trenes en el camino. Un estudio realizado por Boston Consulting Team y MIT Sloan indicó que solo el 11% de las empresas dicen que ven un ROI significativo en IA.
Riesgo #5: El Fin de la Humanidad
He dejado el mayor riesgo de la IA para el ultimate. Podría bombardearnos a todos, decidiendo que es más inteligente y más poderoso que nosotros, y que los humanos ni siquiera son necesarios.
Siempre ha habido un discussion sobre el impacto de la singularidad, o el punto en el que la IA cobra vida propia, y lo que significará para la humanidad. Hay, después de todo, momentos en los que no parecemos tan inteligentes.
La pregunta menos dramática sobre la IA es sobre su alma. Por ejemplo, ¿la IA generativa tiene alma cuando escribe o crea música? ¿Abrazarán los humanos a una máquina sin alma?
Las preguntas se vuelven más profundas cuando preguntamos sobre nuestra seguridad o qué sucede cuando la IA alcanza la singularidad. ¿Cuál es el impacto en la seguridad international cuando los terroristas o los estados-nación hostiles usan la IA para atacar a otros? Elon Musk ha advertido a Naciones Unidas sobre las armas autónomas controladas por inteligencia synthetic.
La amplia gama de riesgos para la humanidad llevó recientemente a 1000 líderes y expertos en tecnología a firmar una carta de advertencia sobre una gran amenaza para la existencia humana.
Esta pregunta probablemente sea demasiado grande para el CIO o el CEO promedio, pero ciertamente los gobiernos globales la están abordando, y muchos ya están tomando medidas para restringir o prohibir por completo la IA.
Este riesgo, así como el resto de los riesgos que hemos enumerado, deberían llevarlo a una sola conclusión: es posible que sus organizaciones deban adoptar un enfoque lento y constante para adoptar la IA, y necesita una estrategia para contemplar los riesgos de inmediato. la puerta Puede que no haga que los humanos se extingan, pero podría plantear enormes riesgos para su negocio.
Sígueme en Gorjeo. Verificar mi sitio internet o algunos de mis otros trabajos aquí.