Los casos de uso comercial de IA generativa continúan creciendo a medida que la tecnología se filtra en todo tipo de productos, servicios y tecnologías. Al mismo tiempo, las implicaciones de seguridad de la evolución de las capacidades generativas de IA siguen ocupando los titulares. Una encuesta reciente de Salesforce de más de 500 líderes sénior de TI reveló que, aunque la mayoría (67 %) está dando prioridad a la IA generativa para su negocio en los próximos 18 meses. Casi todos admiten que se necesitan medidas adicionales para abordar los problemas de seguridad y equiparse para aprovechar con éxito la tecnología.
La mayoría de las organizaciones comprarán (no construirán) IA generativa, y es posible que muchas ni siquiera compren IA generativa directamente, sino que la reciban a través de integraciones agrupadas. Esto obliga a los líderes de seguridad a invertir tiempo para comprender los diferentes casos de uso de IA generativa dentro de sus negocios, así como los riesgos asociados.
Un nuevo informe de Forrester ha revelado los departamentos comerciales con mayor probabilidad de adoptar la IA generativa, sus principales casos de uso y las amenazas y riesgos de seguridad contra los que los equipos deberán defenderse a medida que la tecnología se generalice.
7 casos de uso de negocios de IA generativa más probables
Según el informe de seguridad de IA generativa de Forrester, los siete casos de uso de IA generativa más probables en las organizaciones, junto con sus amenazas y riesgos de seguridad relacionados, son:
- Internet marketing: Los generadores de texto permiten a los especialistas en promoting producir instantáneamente borradores de textos para campañas. Esto introduce fuga de datos, exfiltración de datos y amenazas de inteligencia competitiva, dijo Forrester. Los riesgos incluyen problemas de relaciones públicas/clientes relacionados con la publicación del texto debido a procesos de supervisión y gobernanza deficientes antes de la publicación.
- Diseño: Las herramientas de generación de imágenes inspiran a los diseñadores y les permiten maquetar thoughts con un mínimo de tiempo/esfuerzo, escribió Forrester. También se pueden integrar en flujos de trabajo más amplios. Esto introduce el envenenamiento de modelos, la manipulación de datos y las amenazas a la integridad de los datos, escribió Forrester. Los riesgos a considerar son las restricciones de diseño y las políticas que no se siguen debido a problemas de integridad de datos y posibles problemas de derechos de autor/IP del contenido generado.
- ÉL: Los programadores usan modelos de lenguaje grande (LLM) para encontrar errores en el código y generar documentación automáticamente. Esto introduce la exfiltración de datos, la fuga de datos y las amenazas a la integridad de los datos, mientras que la documentación producida puede correr el riesgo de revelar detalles importantes del sistema que una empresa normalmente no divulgaría, dijo Forrester.
- Desarrolladores: TuringBots ayuda a los desarrolladores a escribir código prototipo e implementar sistemas de application complejos. Esto introduce problemas de seguridad de código, manipulación de datos, ransomware y robo de IP, según Forrester. Los riesgos potenciales son el código no seguro que no sigue las prácticas de seguridad de SDLC, el código que viola los requisitos de licencia de propiedad intelectual o la inteligencia artificial generativa que se ve comprometida con los sistemas de producción de rescate.
- Científicos de datos: La IA generativa permite a los científicos de datos producir y compartir datos para entrenar modelos sin poner en riesgo la información particular. Esto introduce el envenenamiento de datos, la desofuscación de datos y amenazas adversas de aprendizaje automático. El riesgo asociado se relaciona con el modelo de generación de datos sintéticos que se somete a ingeniería inversa, «lo que permite a los adversarios identificar los datos de origen utilizados», escribió Forrester.
- Ventas: La generación de IA ayuda a los equipos de ventas a producir concepts, usar un lenguaje inclusivo y crear contenido nuevo. Esto introduce amenazas de manipulación de datos, exfiltración de datos y cumplimiento normativo. «Los equipos de ventas podrían violar las preferencias de contacto al generar y distribuir contenido», dijo Forrester.
- Operaciones: Las operaciones internas utilizan IA generativa para elevar la inteligencia de su organización. Esto introduce la manipulación de datos, la integridad de los datos y las amenazas a la experiencia de los empleados. El riesgo es que los datos utilizados para la toma de decisiones puedan ser manipulados, lo que lleva a conclusiones e implementaciones inexactas, escribió Forrester.
Cadena de suministro, gestión de terceros importante para asegurar la IA generativa
Si bien la lista de Forrester de los casos de uso comercial de IA generativa más probables se centra en las funciones comerciales internas, también instó a los líderes de seguridad a no pasar por alto el elemento de riesgo del proveedor y de terceros. «Dado que la mayoría de las organizaciones encontrarán IA generativa integrada en productos y servicios ya implementados, una prioridad inmediata para los líderes de seguridad es la gestión de riesgos de terceros», escribió. Cuando una empresa compra un producto o servicio que incluye IA generativa, depende de sus proveedores para asegurar la solución, dijo Forrester. «Microsoft y Google están asumiendo esa responsabilidad al agrupar e integrar la IA generativa en servicios como Copilot y Workspace, pero otros proveedores obtendrán soluciones de IA de su propio ecosistema de proveedores. La seguridad deberá compilar su propio conjunto de preguntas de gestión de riesgos y seguridad del proveedor. basado en los casos de uso descritos anteriormente», agregó.