El nuevo modelo o1 de OpenAI es mejor para planear, y eso pone nervioso al «padrino» de la IA.

Yoshua Bengio, un científico informático canadiense ganador del premio Turing y profesor de la Universidad de Montreal, dijo a Business Insider en una declaración enviada por correo electrónico que o1 tiene una «capacidad de razonamiento muy superior a la de sus predecesores».

«En general, la capacidad de engañar es muy peligrosa y deberíamos tener pruebas de seguridad mucho más sólidas para evaluar ese riesgo y sus consecuencias en el caso de o1», escribió Bengio en el comunicado.

Bengio se ganó el apodo de «padrino de la IA» por su premiada investigación sobre aprendizaje automático con Geoffrey Hinton y Yann LeCun.

OpenAI lanzó su nuevo modelo o1, diseñado para pensar más como los humanos, a principios de este mes. Hasta ahora, ha guardado en secreto los detalles de su proceso de «aprendizaje». Los investigadores de la firma de inteligencia artificial independiente Apollo Research descubrieron que el modelo o1 miente mejor que los modelos de inteligencia artificial anteriores de OpenAI.

Bengio ha expresado su preocupación por el rápido desarrollo de la IA y ha abogado por medidas legislativas de seguridad como la SB 1047 de California. La nueva ley, que fue aprobada por la legislatura de California y está a la espera de la firma del gobernador Gavin Newsom, impondría una serie de restricciones de seguridad a los modelos de IA potentes, como obligar a las empresas de IA en California a permitir pruebas de terceros.

Sin embargo, Newsom ha expresado su preocupación por la SB 1047, que según él podría tener un «efecto paralizador» en la industria.

Bengio dijo a BI que hay «buenas razones para creer» que los modelos de IA podrían desarrollar habilidades de intriga más fuertes, como hacer trampa deliberada y discretamente, y que debemos tomar medidas ahora para «prevenir la pérdida del control humano» en el futuro.

OpenAI dijo en una declaración a Business Insider que la versión preliminar de o1 es segura según su «Marco de preparación», el método de la compañía para rastrear y evitar que la IA cree eventos «catastróficos», y está clasificada como de riesgo medio en su «escala cautelosa».

Según Bengio, la humanidad necesita tener más confianza en que la IA «se comportará como se espera» antes de que los investigadores intenten dar más saltos significativos en la capacidad de razonamiento.

«Eso es algo que los científicos no saben hacer hoy en día», dijo Bengio en su declaración. «Es por eso que la supervisión regulatoria es necesaria en este momento».