Una historia que muestra cuán profundamente la IA ya está integrada en la infraestructura militar de EE. UU. — y cuán difícil es 'apagarla' incluso por orden directa del presidente.
28 de febrero de 2026 la administración de Donald Trump emitió un decreto para cesar el uso de las tecnologías de la empresa Anthropic en todas las agencias federales. Quedaron prohibidas todas las soluciones de la empresa, incluida la modelo Claude. Se estableció formalmente un periodo de transición — de hasta seis meses — para la completa eliminación de los servicios y la transición a plataformas alternativas.
La causa del conflicto fue la negativa fundamental de Anthropic a suavizar las restricciones de su modelo. La empresa se adhiere públicamente a la política:
— prohibición del uso de IA para vigilancia masiva
— prohibición de sistemas de combate completamente autónomos
— prohibición de escenarios donde el modelo toma decisiones sobre ataques de forma autónoma
Estas restricciones fueron las que causaron tensión con el bloque militar.
Sin embargo, según información de The Wall Street Journal, solo unas horas después de la publicación de la directiva, los militares estadounidenses continuaron utilizando Claude en el apoyo analítico de la operación contra Irán.
No se trataba de un control directo de las armas.
Pero Claude se utilizaba en las siguientes tareas:
— procesamiento de flujos de inteligencia en tiempo real
— estructuración de imágenes satelitales y mapas térmicos
— detección de anomalías y posibles objetivos militares
— evaluación de riesgos de impactos secundarios
— modelado de la posible reacción de Irán
— cálculo de escenarios de escalada y respuestas
De hecho, el modelo actuaba como un acelerador analítico. Lo que antes requería el trabajo de enteros departamentos de analistas durante días, ahora era procesado por un algoritmo en minutos.
Las decisiones finales eran tomadas por los comandantes militares. Pero en la guerra moderna, la velocidad es una ventaja. La IA se convierte no en un arma, sino en una herramienta para acelerar el pensamiento.
¿Por qué se continuó el uso a pesar de la prohibición?
En primer lugar, la directiva preveía un período de transición. Esto significaba que las integraciones existentes podían mantenerse temporalmente.
En segundo lugar, la infraestructura ya estaba profundamente integrada en los circuitos analíticos del Pentágono.
En tercer lugar, en condiciones de operación activa, la desconexión repentina del sistema podría afectar la eficacia operativa.
Después del conflicto, el Pentágono comenzó una búsqueda acelerada de proveedores alternativos de IA: empresas dispuestas a trabajar en un formato más flexible en contratos militares. Se trata de grandes actores tecnológicos y contratistas de defensa que no imponen restricciones éticas tan estrictas.
Pero esta historia es más importante que el incidente en sí.
Demuestra tres tendencias clave:
La IA ya se ha convertido en parte de la infraestructura estratégica.
Las empresas privadas pueden influir en los límites del uso aceptable de las tecnologías.
El Estado, incluso teniendo el poder de emitir un decreto, no puede romper instantáneamente la dependencia tecnológica.
Para los mercados, esto es una señal: el sector de IA militar solo seguirá creciendo. Los presupuestos gubernamentales para IA están aumentando, y la demanda de modelos capaces de operar en escenarios de defensa se intensifica.
Anthropic adoptó una postura de cautela tecnológica. Pero si un proveedor limita el uso militar, otro ocupará su lugar. El mercado de tecnologías de defensa no tolera el vacío.
La IA se está convirtiendo gradualmente en un elemento cognitivo del equilibrio militar. No un 'terminador' autónomo, sino una herramienta de análisis, predicción y aceleración de la toma de decisiones.
Y la pregunta principal ahora no es si se utilizó Claude después de la prohibición.
La pregunta principal es cuántos sistemas similares ya están integrados en las estructuras militares de diferentes países, y qué papel jugarán en futuros conflictos.
La IA sale de los laboratorios y se convierte en parte de la geopolítica real.
#AI #Anthropic #Claude #США #Иран