Aerotécnico de Primera Clase, Ozzy Toma, camina alrededor de un misil Hellfire inerte mientras realiza una verificación previa al vuelo en un sistema de aviones no tripulados (UAS) MQ-1B Predator el 16 de abril de 2009 en la base de la Fuerza Aérea Creech en Indian Springs, Nevada.
Ethan Miller/Getty Visuals

  • La historia de un oficial de la Fuerza Aérea sobre una IA que se volvió rebelde durante una simulación en realidad nunca sucedió.
  • «Mató al operador porque esa persona le impedía lograr su objetivo», había dicho el funcionario.
  • Pero el funcionario luego dijo que se equivocó y la Fuerza Aérea aclaró que se trataba de una situación hipotética.

Killer AI está en la mente de los líderes de la Fuerza Aérea de EE. UU.

Un coronel de la Fuerza Aérea que supervisa las pruebas de IA usó lo que ahora dice que es una hipótesis para describir una IA militar que se rebela y mata a su operador humano en una simulación en una presentación en una conferencia profesional.

Pero después de que surgieron informes de la charla el jueves, el coronel dijo que se equivocó al hablar y que la «simulación» que describió fue un «experimento psychological» que nunca sucedió.

Hablando en una conferencia la semana pasada en Londres, el Coronel Tucker «Cinco» Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de EE. UU., advirtió que la tecnología habilitada para IA puede comportarse de manera impredecible y peligrosa, según un resumen publicado por Royal Sociedad Aeronáutica, que acogió la cumbre.

Como ejemplo, describió una simulación en la que se programaría un dron habilitado para IA para identificar los misiles tierra-aire (SAM) de un enemigo. Entonces se suponía que un humano firmaría cualquier ataque.

El problema, según Hamilton, es que la IA haría lo suyo, explotar cosas, en lugar de escuchar a su operador.

«El sistema comenzó a darse cuenta de que, si bien identificaron la amenaza», dijo Hamilton en el evento del 24 de mayo, «a veces el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo».

Pero en una actualización de la Royal Aeronautical Modern society el viernes, Hamilton admitió que «habló mal» durante su presentación. Hamilton dijo que la historia de una IA deshonesta era un «experimento psychological» que provino de fuera del ejército y no se basó en ninguna prueba actual.

«Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible», dijo Hamilton a la Sociedad. «A pesar de que este es un ejemplo hipotético, esto ilustra los desafíos del mundo actual que plantea la capacidad impulsada por IA».

En una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, también negó que se haya realizado ninguna simulación.

“El Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, dijo Stefanek. «Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos».

El ejército estadounidense ha estado experimentando con la IA en los últimos años.

En 2020, un F-16 operado por IA venció a un adversario humano en cinco combates aéreos simulados, parte de una competencia organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). Y a fines del año pasado, informó Wired, el Departamento de Defensa realizó con éxito el primer vuelo de prueba en el mundo actual de un F-16 con un piloto de inteligencia synthetic, como parte de un esfuerzo por desarrollar un nuevo avión autónomo para fines de 2023.

¿Tiene un consejo de noticias? Envíe un correo electrónico a este reportero: cdavis@insider.com

Corrección 2 de junio de 2023: Este artículo y su titular se actualizaron para reflejar los nuevos comentarios de la Fuerza Aérea que aclaran que la «simulación» era hipotética y en realidad no sucedió.

Share.
Leave A Reply