Cortex AI Analítica
"Análisis de relevancia para la actualidad."
- "Quizá ahí está la clave : cuanto más sofisticadas son las herramientas, mayor es la tentación de creer que la complejidad del mundo puede reducirse a datos" , concluye Girao.
Ya en el siglo XVIII, los reformadores militares franceses comenzaron a reemplazar el ojo entrenado del artillero por tablas balísticas, elevadores de cañones y procedimientos de fuego estandarizados. Pero según se ha ido ampliando la distancia y el ruido entre atacante y objetivo, la cadena de ataque se ha ido haciendo más compleja.
Si en la Segunda Guerra Mundial, los estadounidenses utilizaban la secuencia "encontrar, apuntar, atacar, destruir" (find, fix, fight, finish), para la década de los 90 ya retahíla se había ampliado a "encontrar, fijar, seguir, apuntar, atacar, evaluar" (find, fix, track, target, engage, assess o F2T2EA). Y cada revolución tecnológica militar ha llegado con la promesa de hacer más eficiente el proceso burocrático de la destrucción.
La última evolución de este anhelo militar es el Maven Smart System (Sistema Experto Inteligente) que opera el Pentágono. Esta plataforma de gestión desarrollada por Palantir, empresa pionera en inteligencia artificial de grado militar, ha que ha acelerado el proceso de forma exponencial, inaugurando en la guerra de Irán una era de ataques "a la velocidad del pensamiento".
Este doctor en filosofía maneja el arma con IA más poderosa del mundo: "O nosotros, o nuestros enemigos"
Enrique Andrés Pretel"La IA ya es un arma en combate y se ha convertido en un factor diferencial que permite una serie de resultados de guerra completamente atípicos. Después de años en misiones periféricas, en el contexto actual la inteligencia artificial es central en las operaciones militares en Irán, Ucrania o Venezuela", explica Miguel Lucas, director global de innovación en la consultora LLYC (Llorente y Cuenca) y experto en inteligencia artificial. "Estamos viendo ataques a una escala, velocidad y complejidad impensables hace tan solo unos años", agrega.
La compañía —fundada por el polémico multimillonario Peter Thiel y dirigida por el excéntrico doctor en filosofía Alex Karp— asumió el proyecto en 2019, después de que Google renunciara al contrato por las protestas de sus empleados. A este sistema se le integró posteriormente el modelo de lenguaje Claude, de la empresa Anthropic. El resultado es un software capaz de generar blancos a escala industrial y ofrecer varios cursos de acción al operador mediante un sistema intuitivo que multiplica y acelera la capacidad de toma de decisiones.
De días a minutosLa primera tarea es la recopilación y análisis de inteligencia. El sistema integra imágenes satelitales, información captada por drones y radares, interceptación de comunicaciones, inteligencia de señales y de fuentes abiertas en una sola plataforma. El uso es bastante intuitivo y combina un mapa con información de inteligencia, blancos potenciales y activos disponibles, con una pantalla que organiza los posibles objetivos por columnas que dividen las diferentes fases del ataque.
El sistema transcribe autónomamente las comunicaciones, analiza fotos y vídeos, detecta patrones y une información de varias redes que transforma la inteligencia de señales en inteligencia actuable en una fracción del tiempo. Antes, estas tareas básicas consumían el grueso del tiempo de los analistas, abrumados por la creciente avalancha de imágenes y datos sensorizados. Además, trabajaban con un decena de sistemas independientes al mismo tiempo, sacando datos de unos y de otros para referenciarlos manualmente hasta construir sus "paquetes de blancos", que luego debían ser aprobados. En Maven, todo este proceso, de la selección a la autorización, está bajo una misma interfaz. La idea subyacente es que, en teoría, la máquina vigila y el analista piensa.
"La inteligencia artificial ya no solo sirve para ganar guerras, sino para provocarlas"
Laura Gutiérrez"El software integra esta amalgama de datos, sensores, satélites, drones, comunicaciones interceptadas, rastro público, etc y permite identificar y seguir determinados objetivos, figuras representativas, estructuras de decisión, activos militares e infraestructuras críticas. Lo que antes podía tardar semanas se está haciendo en minutos o segundos con mínima intervención humana", apunta Lucas.
Es decor, todos estos datos se concretan en la identificación y priorización de objetivos. El sistema Maven genera y ordena listas de posibles objetivos con los que los operadores pueden interactuar a través del modelos de lenguaje Claude de Anthropic. Se emplea para identificar lanzadores de misiles, defensas aéreas y nodos de comando y control. Esta inédita capacidad de procesamiento permitió a las fuerzas aliadas golpear un récord de 1.000 blancos en las primeras 24 horas de hostilidades.
Para alcanzar este nivel, el Pentágono lleva cinco años organizando los ejercicios Scarlet Dragon, que empezaron como un pequeño banco de pruebas y en el contexto actual son unas maniobras con munición real, que conectan varios estados y varias ramas de las fuerzas armadas con ingenieros de campo de Palantir. Allí trabajan con una sola premisa: cómo acelerar el proceso entre deteción y decisión.
El punto de referencia era la invasión de Irak de 2003, en la que unas 2.000 personas trabajaban en el proceso de obtención de blancos durante toda la guerra. En los últimos Scarlet Dragon, apenas 20 soldados utilizando Maven gestionaron el mismo nivel de operaciones. En 2024, el objetivo era 1.000 decisiones de objetivos por hora o 3,6 segundos por decisión.
¿Quién decide realmente?Con la lista de objetivos definida, la IA ayuda a organizar toda la 'cadena letal' (the kill chain), comprimiendo los tiempos entre localización, identificación, decisión y ataque. El sistema ofrece los blancos más probables, ordenándolos por grado de confianza, recomienda los sistemas de armas más apropiados para actuar (misiles, drones, bombardeos) y las ventanas de oportunidad óptimas para el ataque. Un operador es el encargado de dar luz verde definitiva al proceso.
El ataque a Irán desata otra guerra: Trump vs. Silicon Valley. Y el desenlace es imprevisible
Manuel Ángel Méndez"Este es el debate clave con la introducción de IA en todo tipo de sistemas de armas. Se está cerrando el ciclo sensor, decisión, actuación. Entre la detección del objetivo, la identificación y luego el ataque (kill chain). El ciclo, dicen las compañías, lo cierra de manera constante un humano. Pero estamos viendo que ya existe una delegación real de decisiones letal hasta cierto punto", apunta el analista de LLYC.
El sistema también permite adaptarse al blanco en tiempo real con ataques dinámicos, que se suelen emplear para golpear a objetivos en movimiento o contrarreloj. Los israelíes emplearon herramientas de IA para analizar los movimientos, comunicaciones y patrones de comportamiento de los líderes políticos y militares de la República Islámica para acabar con ellos. Una vez realizado el ataque, la IA también analizará y valorará los resultados con todos los datos ISR (inteligencia, señales, reconocimiento) disponibles.
La IA también facilita la propia gestión de batallas. Coordina los diferentes sistemas de armas, aviones, drones, misiles, satélites y ciber para cada operación y se encarga de la logística y la optimización operativa (combustible, municiones, disponibilidad, mantenimiento). Y además se emplea en tareas de predicción defensiva para saber dónde pueden impactar los ataques enemigos para interceptarlos.
Humanos o máquinasEl 28 de febrero, primer día de la Operación Furia Épica, las fuerzas estadounidenses atacaron una escuela de primaria en Minab, al sur del país, con al menos dos impactos que dejaron a unas 180 personas muertas (la mayoría niñas de entre 7 y 12 años). Buena parte del debate se centró en especular si la IA había tenido algo que ver con este catastrófico error, si había alucinado o calculado con un apetito de riesgo diferente al del humano.
El complejo estaba clasificado como una infraestructura militar en las bases de datos de la Agencia de Inteligencia de Defensa. Pero alguien se olvidó de actualizarlas por lo que no se reflejaba que este edificio se había separado del comando de la Guardia Revolucionaria adyacente para construir una escuela, algo que mostraban las imágenes satelitales desde al menos 2016. Así que, en realidad, el fallo no fue de la máquina. Pero la máquina tampoco lo evitó. De hecho, lo propició, al generar tal cantidad de objetivos que los operadores humanos no pueden procesarlos individualmente.
"La IA no es infalible, tiene un margen de error; pero tampoco lo es el humano. Se han cometido fallos de identificación de objetivos antes. El humano no garantiza la ausencia de errores en el proceso. Tampoco a nivel ético y moral. Sometidos a la presión del contexto, no hay garantías de que el nivel ético de cada uno de los individuos que juegan este papel (decidir qué objetivo se ataca) sea homogéneo, ni representativo de lo que pueda pensar una mayoría de ciudadanos", explica Lucas.
La 'guerra' del algoritmo ya está aquí: así se prepara la defensa para la era de la IA
Isabel RodríguezEsta cuestión está en el centro de la polémica entre la Administración Trump y Anthropic. El Departamento de Defensa quiere que los proveedores de IA le quiten las salvaguardas a sus sistemas para el uso militar. Aunque el Pentágono promete un "uso lícito", nadie sabe en realidad a lo que se refieren.
La negativa de Anthropic —cuyas líneas rojas son la vigilancia masiva de ciudadanos estadounidenses y el uso de armas completamente autónomas— desató una batalla que llevó a que la empresa fuera declarada un riesgo para la seguridad de la cadena de suministro, lo que de facto vetaría el uso de su tecnología a otras empresas. Aunque la decisión fue revertida por un tribunal, el conflicto sigue latente. Pero la tendencia es clara. Armas cada vez menos controladas por humanos.
"El tipo de guerra que hemos visto en Irán tiene mucho que ver con saturar la capacidad de decisión del adversario y tener que decidir en segundos. La identificación de miles de blancos en tan poco tiempo somete a un estrés a aquellos humanos que tienen que decidir si finalmente se aprieta o no se aprieta el botón", apunta el experto en inteligencia artificial.
Con la geopolítica hemos topadoPero si la guerra de Irán ha mostrado el creciente potencial de la inteligencia artificial, también ha mostrado sus límites. Pese a todo el poderío tecnológico y militar del Pentágono, los iraníes han resistido. Trump accedió a un alto al fuego y se negocia una paz que, por el momento, no hace lucir a los ayatolás como los perdedores del enfrentamiento. ¿Por qué con todo este poder de procesamiento, la inteligencia accionable resultante y la capacidad militar de ejecutarlo no se han logrado los objetivos de la guerra?
Porque si la decisión última de atacar (todavía) recae en un humano, la primera decisión también. Son humanos los que autorizaron, diseñaron y planearon el conflicto. Y lo hicieron con la promesa implícita de que las máquinas alterarían la correlación de fuerzas de manera aplastante. Pero la inteligencia artificial no tuvo en cuenta la geografía, ni la capacidad del régimen iraní para regenerarse o la falta de voluntad política de los estadounidenses para sostener el la guerra.
"Esa promesa (una tentación estratégica) se topa con una realidad mucho más obstinada. Irán no es un objetivo abstracto ni una red que pueda desactivarse desde el aire. Es un espacio físico vasto, montañoso, fragmentado, con profundidad estratégica suficiente como para absorber golpes sin colapsar. La superioridad tecnológica permite golpear, incluso desorganizar; pero no necesariamente decidir. La inteligencia artificial puede comprimir el tiempo de decisión y ampliar el alcance de la violencia, pero no elimina las fricciones clásicas de la guerra", comenta Francisco Girao, especialista de defensa de la consultora Atrevia.
La trampa imperial: cómo se invade una pesadilla estratégica de 1,6 millones de km²
Enrique Andrés PretelEsas "fricciones" de las que hablaba Carl von Clausewitz, el general prusiano del siglo XIX cuyo pensamiento inspiró muchas de las doctrinas militares occidentales, son la acumulación de incertidumbres, errores, contradicciones y eventos inesperados que llevan a que las operaciones rara vez se ejecuten exactamente como se habían planeado. Puedes comprimir el tiempo de decisión, pero estas tensiones en ningún escenario desaparecen. Simplemente dejas de verlas. Un diseño militar que el propio Clausewitz definió como "la guerra sobre el papel".
"La guerra, así planteada, se vuelve más limpia en su ejecución, más precisa en su alcance y, sobre todo, más ambiciosa en su promesa: convertir el territorio en algo secundario, casi irrelevante, sustituido por redes, nodos y flujos de información. Algo que motiva al más pintado de los decisores de despacho", apunta el analista de Atrevia.
La guerra de Irán se gestó en una corazonada de Benjamín Netanyahu y en el ego de Trump, que ya se veía como el presidente que logró acabar con medio siglo de amenaza ayatolá. La inteligencia artificial les allanaba el camino para abatir a los líderes enemigos (medio centenar, incluyendo al ayatolá Alí Jameneí) y atacar todo tipo de blancos (militares y estratégicos). Pero el magnate republicano entendió demasiado tarde que, para someter al régimen, tendría que invadir el país. Una pesadilla estratégica de 1,6 millones de km² imposible de vender al público estadounidense.
"Quizá ahí está la clave: cuanto más sofisticadas son las herramientas, mayor es la tentación de creer que la complejidad del mundo puede reducirse a datos", concluye Girao.
Galería de Imágenes

%3Aformat(jpg)%2Ff.elconfidencial.com%252Foriginal%252F6f9%252Fb0d%252F4e2%252F6f9b0d4e2670e82fb54370899286c2ae.jpg&w=1400&fit=cover&output=webp&q=75)


