En un ejemplo del uso exitoso de la IA por parte del CI, después de agotar todas las demás vías, desde espías humanos hasta inteligencia de señales, EE. UU. pudo encontrar una instalación de investigación y desarrollo de armas de destrucción masiva no identificada en un gran país asiático al ubicar un autobús que viajaba entre ella. y otras instalaciones conocidas. Para hacer eso, los analistas emplearon algoritmos para buscar y evaluar imágenes de casi cada centímetro cuadrado del país, según un alto funcionario de inteligencia de EE. UU. que habló en segundo plano con el entendimiento de que no sería identificado.

Si bien la IA puede calcular, recuperar y emplear programación que realiza análisis racionales limitados, carece del cálculo para diseccionar adecuadamente más componentes emocionales o inconscientes de la inteligencia humana que los psicólogos describen como pensamiento del sistema 1.

La IA, por ejemplo, puede redactar informes de inteligencia similares a artículos periodísticos sobre béisbol, que contienen un flujo estructurado no lógico y elementos de contenido repetitivo. Sin embargo, cuando los resúmenes requieren razonamientos complejos o argumentos lógicos que justifiquen o demuestren conclusiones, se ha encontrado que la IA es deficiente. Cuando la comunidad de inteligencia probó la capacidad, dice el funcionario de inteligencia, el producto parecía un resumen de inteligencia, pero por lo demás no tenía sentido.

Se puede hacer que estos procesos algorítmicos se superpongan, agregando capas de complejidad al razonamiento computacional, pero incluso entonces esos algoritmos no pueden interpretar el contexto tan bien como los humanos, especialmente cuando se trata de lenguaje, como el discurso de odio.

La comprensión de AI podría ser más análoga a la comprensión de un niño pequeño humano, dice Eric Curwin, director de tecnología de Pyrra Technologies, que identifica amenazas virtuales para los clientes, desde violencia hasta desinformación. “Por ejemplo, la IA puede comprender los conceptos básicos del lenguaje humano, pero los modelos fundamentales no tienen el conocimiento latente o contextual para realizar tareas específicas”, dice Curwin.

“Desde una perspectiva analítica, la IA tiene dificultades para interpretar la intención”, agrega Curwin. “La informática es un campo valioso e importante, pero son los científicos informáticos sociales los que están dando grandes pasos para permitir que las máquinas interpreten, comprendan y predigan el comportamiento”.

Para «construir modelos que puedan comenzar a reemplazar la intuición o la cognición humana», explica Curwin, «los investigadores primero deben entender cómo interpretar el comportamiento y traducir ese comportamiento en algo que la IA pueda aprender».

Aunque el aprendizaje automático y el análisis de big data proporcionan un análisis predictivo sobre lo que podría o probablemente sucederá, no puede explicar a los analistas cómo o por qué llegó a esas conclusiones. La opacidad del razonamiento de la IA y la dificultad para examinar las fuentes, que consisten en conjuntos de datos extremadamente grandes, pueden afectar la solidez y la transparencia reales o percibidas de esas conclusiones.

La transparencia en el razonamiento y el abastecimiento son requisitos para los estándares comerciales analíticos de los productos producidos por y para la comunidad de inteligencia. La objetividad analítica también es un requisito legal, lo que genera llamados dentro del gobierno de los EE. UU. para actualizar dichos estándares y leyes a la luz de la creciente prevalencia de la IA.

Algunos profesionales de la inteligencia también consideran que el aprendizaje automático y los algoritmos, cuando se emplean para juicios predictivos, son más arte que ciencia. Es decir, son propensos a sesgos, ruidos y pueden estar acompañados de metodologías que no son sólidas y conducen a errores similares a los que se encuentran en las ciencias y artes criminalísticas forenses.



Source link

Share.
Leave A Reply