Sam Altman fundó OpenAI en 2015 con una noble misión: desarrollar una inteligencia artificial general que «beneficie a toda la humanidad».
Eligió ser una organización sin fines de lucro para apoyar esa misión.
Pero a medida que la compañía se acerca al desarrollo de la inteligencia artificial general, una versión aún mayoritariamente teórica de la IA que puede razonar tan bien como los humanos, y el dinero de inversores entusiasmados comienza a llegar, algunos están preocupados de que Altman esté perdiendo de vista la parte del objetivo de «beneficiar a toda la humanidad».
Ha sido un cambio gradual, pero quizás inevitable.
OpenAI anunció en 2019 que agregaría una rama con fines de lucro (para ayudar a financiar su misión sin fines de lucro), pero que, fiel a su espíritu original, la compañía limitaría las ganancias que los inversores podrían llevarse a casa.
«Queremos aumentar nuestra capacidad de captar capital sin dejar de cumplir con nuestra misión, y ninguna estructura legal preexistente que conozcamos logra el equilibrio adecuado», dijo OpenAI en ese momento. «Nuestra solución es crear OpenAI LP como un híbrido entre una organización con fines de lucro y una sin fines de lucro, a la que llamamos una empresa de ‘ganancia limitada'».
Fue una decisión hábil que, a primera vista, parecía destinada a satisfacer a los empleados y las partes interesadas interesadas en desarrollar la tecnología de manera segura y a aquellos que querían ver a la empresa producir y lanzar productos de manera más agresiva.
Pero a medida que las inversiones se volcaron hacia el sector con fines de lucro y la notoriedad de la empresa (y la notoriedad de Altman) aumentó, algunos se pusieron nerviosos.
El año pasado, la junta directiva de OpenAI destituyó brevemente a Altman por temor a que la empresa lanzara productos de forma demasiado agresiva sin priorizar la seguridad. Los empleados, y sobre todo Microsoft (con su inversión multimillonaria), acudieron al rescate de Altman, que regresó a su puesto después de tan solo unos días.
Sin embargo, la grieta cultural había quedado expuesta.
Dos de los principales investigadores de la empresa, Jan Leike e Ilya Sutskever, renunciaron poco después. El dúo estaba a cargo del llamado equipo de superalineación de la empresa, que tenía la tarea de garantizar que la empresa desarrollara inteligencia artificial general de manera segura, el principio central de la misión de OpenAI.
Más tarde, ese mismo mes, OpenAI disolvió por completo el equipo de superalineación. Después de marcharse, Leike dijo en X que el equipo había estado «navegando contra el viento».
«OpenAI debe convertirse en una empresa de IA que priorice la seguridad», escribió Leike en X, y agregó que construir IA generativa es «un esfuerzo intrínsecamente peligroso», pero que OpenAI ahora estaba más preocupada por construir «productos brillantes».
Ahora parece que OpenAI casi ha completado su transformación en un gigante al estilo de las grandes tecnológicas que «se mueve rápido y rompe cosas».
Fortune informó que Altman les dijo a los empleados en una reunión la semana pasada que la compañía planea alejarse del control de la junta directiva de organizaciones sin fines de lucro, que ha «superado», durante el próximo año.
Reuters informó el sábado que OpenAI está a punto de conseguir otra inversión de 6.500 millones de dólares, lo que valoraría la empresa en 150.000 millones de dólares. Pero fuentes dijeron a Reuters que la inversión tiene una condición: OpenAI debe abandonar su límite de beneficios para los inversores.
Eso colocaría a OpenAI ideológicamente lejos de sus primeros días de ensueño, cuando su tecnología estaba destinada a ser de código abierto y para el beneficio de todos.
OpenAI le dijo a Business Insider en un comunicado que sigue enfocada en «crear una IA que beneficie a todos» mientras continúa trabajando con su junta directiva sin fines de lucro. «La organización sin fines de lucro es fundamental para nuestra misión y seguirá existiendo», dijo OpenAI.