- OpenAI actualizó sus políticas de uso el 10 de enero.
- Como parte de la actualización, alivió las restricciones al uso militar de su tecnología.
- Los cambios acompañan el lanzamiento de OpenAI de la Tienda GPT, su mercado ChatGPT personalizado.
OpenAI alivió silenciosamente las restricciones a las aplicaciones militares de su tecnología a principios de esta semana.
En una actualización no anunciada de sus políticas de uso el 10 de enero, OpenAI levantó una amplia prohibición sobre el uso de su tecnología para «militares y bélicos». El nuevo lenguaje aún prohíbe que los servicios de OpenAI se utilicen para fines más específicos, como desarrollar armas, herir a otros o destruir propiedad, dijo un portavoz de OpenAI a Business enterprise Insider.
El portavoz añadió que la empresa «tenía como objetivo crear un conjunto de principios universales que fueran fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que ahora también pueden construir GPT». El 10 de enero OpenAI lanzó su tienda GPTun mercado para que los usuarios compartan y exploren versiones personalizadas de ChatGPT conocidas como «GPT».
La nueva política de uso de OpenAI ahora incluye principios como «No dañar a otros», que son «amplios pero fáciles de entender y relevantes en numerosos contextos», así como prohibiciones en casos de uso específicos como el desarrollo o el uso de armas, dijo el portavoz de OpenAI.
A algunos expertos en IA les preocupa que la reescritura de políticas de OpenAI sea demasiado generalizada, especialmente cuando la tecnología de IA ya se está utilizando en el conflicto de Gaza. El El ejército israelí dijo que utilizó IA para señalar objetivos para bombardear dentro del territorio palestino.
«El lenguaje que figura en la política sigue siendo vago y plantea preguntas sobre cómo OpenAI pretende abordar la aplicación de la ley», dijo a The Intercept Sarah Myers West, directora normal del AI Now Institute y ex analista de políticas de IA en la Comisión Federal de Comercio.
Aunque OpenAI no ofreció muchos detalles sobre sus planes, los cambios de lenguaje podrían abrir la puerta a futuros contratos con el ejército. Un portavoz de OpenAI le dijo a BI que existen casos de uso de seguridad nacional que se alinean con la misión de la empresa, que es en parte lo que llevó a los cambios. OpenAI ya está trabajando con la Agencia de Proyectos de Investigación Avanzada de Defensa, por ejemplo, «para estimular la creación de nuevas herramientas de ciberseguridad para proteger el software package de código abierto del que dependen la infraestructura y la industria críticas».