A medida que la inteligencia artificial se generalice y sea más fácil de generar, será cada vez más difícil distinguir lo auténtico de lo falso o, más específicamente, de lo profundo. Esta situación también ha creado una oportunidad para las empresas que se especializan en identificar contenido generado por IA.
Eso incluye una startup llamada OpenOrigins, fundada en 2021, que combate los medios falsos mediante el uso de tecnología blockchain para verificar la autenticidad de fotos, videos y otros contenidos digitales. El jueves, la compañía anunció que había recaudado 4,5 millones de dólares en una inversión inicial liderada por Galaxy Interactive y que se está expandiendo a nivel mundial.
La empresa con sede en Londres ofrece a las redacciones la posibilidad de verificar la autenticidad de los medios digitales en tiempo real y en retrospectiva. Su software de punto de captura se puede instalar en una cámara o en un iPhone para establecer que una foto o un vídeo fue realmente tomado por un humano. También se puede utilizar para revisar archivos extensos y validar la originalidad del contenido existente. Luego, toda esta información se registra en la cadena de bloques pública e inmutable Hyperledger, un marco de código abierto basado en Ethereum proporcionado por la fundación Linux.
El director ejecutivo y fundador de OpenOrigins, Manny Ahmed, desarrolló uno de los primeros detectores de deepfake cuando era estudiante de doctorado en la Universidad de Cambridge. Sin embargo, pronto se dio cuenta de que la gente usaría detectores para entrenar herramientas de inteligencia artificial para crear generadores de deepfake más convincentes. “Y eso es exactamente lo que pasó”, dijo.
En cambio, giró para desarrollar una infraestructura que demuestre que el contenido fue creado por humanos. «Lo que intentamos hacer no es demostrar si algo es falso, sino más bien demostrar qué es real», dijo Ahmed. Fortuna. “No estamos haciendo detección de deepfakes. Estamos utilizando muchos puntos de datos diferentes para demostrar que una determinada foto o vídeo es real”.
La empresa trabaja con una de las principales productoras de medios del Reino Unido, ITN. Con la nueva financiación se está expandiendo ahora a nivel mundial, empezando por India y Estados Unidos. La compañía también está lanzando un mercado para ayudar a estas redacciones a otorgar licencias efectivas sobre sus datos verificados para capacitación en IA.
«Estamos tratando de asegurar la forma de Internet que permita el valor probatorio», dijo el cofundador de OpenOrigins, Ari Abelson. Fortuna. «Es algo realmente importante en las noticias, por eso nos centramos allí, pero esto se aplica ampliamente a otras industrias».
Abelson dice que la tecnología podría aplicarse para proteger a las compañías de seguros del fraude, así como para verificar la autenticidad de los perfiles de aplicaciones de citas y las llamadas de Zoom.
Otras empresas utilizan la tecnología blockchain para certificar la originalidad del contenido digital, como el protocolo Verify, desarrollado por el equipo de Fox Corps en colaboración con Polygon Labs, pero Ahmed dice que su empresa resuelve un problema de escalabilidad que los competidores no resuelven.
“Somos los únicos que intentamos realizar la autenticación, no sólo del contenido en vivo recopilado en tiempo real, sino también del contenido histórico. Hasta donde yo sé, no existe una solución unificada para ambos”, afirmó.
Los fundadores dijeron que utilizarán los fondos adicionales para ampliar su equipo comercial y contratar personal dentro de los Estados Unidos.
«La razón por la que estamos tan concentrados en proteger los archivos en este momento es porque hay un período de tiempo limitado en el que eso es factible». Dijo Ahmad. «Una vez que alcancemos un punto de sofisticación en el que los videos de IA sean funcionalmente indistinguibles de los que no lo son, será muy, muy difícil para nosotros confiar retroactivamente en esos archivos».