El director ejecutivo de Nvidia, Jensen Huang, declaró recientemente que creía que la inteligencia artificial (IA) a nivel humano probablemente se logrará en los próximos cinco años y que las alucinaciones, uno de los mayores desafíos del campo, serán fáciles de resolver. .

Los comentarios de Huang se produjeron durante un discurso en la conferencia de desarrolladores de Nvidia GTC en San José, California, el 20 de marzo.

https://www.youtube.com/check out?v=Y2F8yisiS6E

Durante el discurso de apertura del evento, Huang abordó la notion de la inteligencia synthetic typical (AGI). Según un informe de TechCrunch, el CEO dijo a los periodistas que la llegada de AGI fue una cuestión de evaluación comparativa:

«Si especificamos que AGI es algo muy específico, un conjunto de pruebas en las que un programa de application puede funcionar muy bien, o tal vez un 8% mejor que la mayoría de las personas, creo que llegaremos allí en 5 años».

No está claro exactamente a qué tipo de pruebas se refería Huang. El término «typical» en el contexto de la inteligencia artificial generalmente se refiere a un sistema que, independientemente del punto de referencia, es capaz de hacer cualquier cosa que un ser humano con una inteligencia promedio podría hacer con recursos suficientes.

También habló sobre las “alucinaciones”, un resultado no deseado del entrenamiento de grandes modelos de lenguaje para que actúen como sistemas generativos de IA. Las alucinaciones ocurren cuando los modelos de IA generan información nueva, generalmente incorrecta, que no está contenida en su conjunto de datos.

Según Huang, resolver las alucinaciones debería ser una cuestión sencilla. “Agregue una regla: para cada respuesta, debe buscar la respuesta”, dijo a los miembros de la audiencia antes de agregar: “La IA no debería simplemente responder primero debería investigar para determinar cuáles de las respuestas son las mejores”.

Dejando de lado el hecho de que CoPilot AI de Microsoft, Gemini de Google, ChatGPT de OpenAI y Claude 3 de Anthropic cuentan con la capacidad de proporcionar fuentes para sus resultados desde Web, si el problema de las alucinaciones de la IA se resolviera de una vez por todas, podría revolucionar innumerables industrias. incluidas las finanzas y las criptomonedas.

Actualmente, los fabricantes de los sistemas antes mencionados recomiendan precaución al utilizar sistemas de IA generativa para funciones en las que la precisión es importante. La interfaz de usuario de ChatGPT, por ejemplo, advierte que «ChatGPT puede cometer errores» y aconseja a los usuarios que «consideren comprobar información importante».

En el mundo de las finanzas y las criptomonedas, la precisión puede marcar la diferencia entre ganancias y pérdidas. Esto significa que, bajo el position quo genuine, los sistemas de IA generativa tienen una funcionalidad limitada para los profesionales de las finanzas y las criptomonedas.

Relacionado: La CFTC advierte que la IA no puede elegir a su próximo cripto ganador

Si bien existen experimentos que involucran robots comerciales impulsados ​​por sistemas de inteligencia artificial generativa, generalmente están sujetos a reglas para evitar la ejecución autónoma, lo que significa que están preprogramados para ejecutar operaciones de una manera estrictamente controlada, identical a la colocación de órdenes limitadas.

Si los modelos de IA generativa no sufrieran alucinaciones con resultados totalmente inventados, entonces, aparentemente, deberían ser capaces de realizar transacciones y hacer recomendaciones y decisiones financieras con overall independencia de la aportación humana. En otras palabras, si se resolviera el problema de las alucinaciones en la IA, es posible que el comercio totalmente automatizado se hiciera realidad.