El Pentágono quiere que las IA aprendan de datos ultrasecretos. ¿Pero en serio?

En marzo de 2026, el Pentágono está proyectando algo que suena a película de ciencia ficción, pero cada vez es más real: entrenar modelos de IA generativa directamente con datos clasificados. Según fuentes consultadas por MIT Technology Review, no es solo que estas IA respondan preguntas sobre inteligencia militar (que ya se hace), sino que se pretende que **aprendan y actualicen su conocimiento a partir de información ultrasecreta** como informes de vigilancia o evaluaciones en tiempo real de escenarios bélicos.

Hasta ahora, la piedra angular era que estos modelos no «aprendían» con el contenido clasificado al que acceden; únicamente procesaban y respondían. La cosa puede cambiar y rápido. Entrenar IA con datos secretos implica riesgos de seguridad inéditos. No hablamos solo de filtrar secretos por descuido, sino de que la propia arquitectura del modelo pueda incorporar información clasificada en sus respuestas futuras. ¿Qué pasa si un nombre de operativo especial o detalles de una operación sensible salen a la luz porque están embebidos en el modelo? Eso pinta muy feo.

Y sí, la idea en el fondo es convertir estas IA en herramientas súper afinadas para el ejército, capaces de analizar desde imágenes satelitales hasta grabaciones diversas —todo con alta precisión y rapidez—, para mantener la ventaja en conflictos como el que se está intensificando con Irán. El Pentágono ya tiene acuerdos con OpenAI, xAI (sí, la de Elon Musk) y Anthropic para operar versiones de sus modelos en ambientes seguros y clasificados, pero entrenar directo sobre estos datos secretos sería un salto mitológico en la guerra tecnológica.

¿Cómo diablos entrenas una IA con información “top secret” sin que se escape nada?

Una locura mencionada entre bambalinas es que el entrenamiento se haría en centros de datos con certificación especial para manejar proyectos gubernamentales clasificados. Allí, una copia del modelo se fusionaría con la data secreta. Se garantiza que los datos serán propiedad exclusiva del Departamento de Defensa, y la participación del personal de empresas de IA sería limitada y estrictamente controlada; solo personal con autorizaciones muy específicas tendría acceso.

¿Controlar una bestia como esa? Complicadísimo. Porque no es solo ejecutar un algoritmo: a medida que el modelo absorbe datos clasificados, **el riesgo de que salten secretos en respuestas involuntarias se multiplica exponencialmente**. Aalok Mehta, que conoce el mundillo desde Google y OpenAI y ahora hace política de IA, lo deja claro: un modelo podría filtrar información sensible a quien no debe tenerla, algo que puede poner en jaque derechos humanos, operaciones en curso y la seguridad nacional.

Pero calma, tampoco se trata de que esta inteligencia artificial vaya a vomitar secretos en foros públicos o a OpenAI. Los protocolos del Pentágono y la infraestructura existente (ojo a Palantir, que ya cocina un entorno seguro para consultar IA sin soltar data afuera) buscan evitar esa clase de despelotes. Lo difícil es contener la fuga interna, sobre todo cuando diferentes ramas militares, con accesos exigentes y distintos niveles clasificados, comparten o usan el mismo modelo. ¿Cuántas veces no has visto esa película de error humano en las contraseñas? Con IA entrenada en secretos, la escala es gigante.

IA entrenada con datos abiertos versus secretos: ¿dónde está la delgada línea?

Antes de lanzarse a entrenar con datos top, el Pentágono quiere probar la eficacia que obtienen las IA cuando se alimentan con datos menos peligrosos —análogos, pero no clasificados— como imágenes satelitales abiertas comercialmente. Esta estrategia intenta calibrar primero qué tanto mejoran las capacidades de las IA con datos accesibles del público, para justificar después la migración hacia la capa oscura de la inteligencia militar.

Esto no es un capricho: hace tiempo que las fuerzas armadas usan computación visual para analizar imágenes de drones y aviones. No es ni nuevo ni fácil. Pero cuando hablamos de inteligencia generativa, que puede sintetizar texto, traducir idiomas y hasta juzgar prioridades tácticas, la exigencia de precisión sube a niveles estratosféricos.

Además, AI companies han lanzado variantes de sus grandes modelos de lenguaje afiladas para entornos gubernamentales más seguros, como **Claude Gov** de Anthropic, diseñado para manejar más idiomas y mayor sensibilidad. Pero entrenar directamente con datos secretos es otro nivel: el «fine-tuning» pasa a ser un viaje por el filo de la navaja entre innovación tecnológica y riesgo de seguridad.

¿Por qué el Pentágono se está poniendo «AI-first» y apurando el tren?

El memo filtrado de enero de Pete Hegseth, el Secretario de Defensa, no deja dudas: la guerra se juega ahora también en bits y algoritmos, y el Pentágono quiere montarse como sea en el tren de la inteligencia artificial. Lo ha usado para:

– Clasificar listas de objetivos y recomendar ataques prioritarios.

– Automatizar redacción de contratos y reportes administrativos.

– Potencialmente delegar tareas de análisis que antes hacían humanos (detectando patrones sutiles en imágenes o vinculando información nueva con contextos históricos).

Pero, ojo: con el conflicto con Irán creciendo, la presión para tener un arma digital que no solo responda sino que se vuelva más inteligente con datos propios es altísima. El salto de modelos «answer only» a modelos «learning in the wild classified environments» es una apuesta arriesgada, pero que puede arrojar resultados decisivos en la guerra.

Que el Pentágono no haya comentado oficialmente no significa que no se esté jugando en serio en este terreno. Al contrario, la presión para desarrollar IA militar puntera está en auge, y para hacerlo se necesitan garantías robustas que probablemente ni el mundo civil está tan preparado para manejar.

¿Qué tareas concretas podría mejorar esta IA si aprende con datos clasificados?

No nos engañemos: el Pentágono no busca volverse loco con IA para cosas triviales. Los usos serían específicos y potentes, como por ejemplo:

– Mejorar la identificación automática de amenazas en imágenes que pueden parecer inocuas a un ojo inexperto pero que un analista veterano detectaría.

– Cruzar información nueva con un gigantesco archivo histórico de inteligencia, todo en cuestión de segundos.

– Automatizar análisis de audio y video multilingüe, para adelantarse a movimientos enemigos o detectar patrones poco evidentes.

El volumen de datos es apabullante: texto, imágenes, videos, grabaciones de audio en decenas de idiomas. La IA entrenada en esto podría ser un detective incansable y mucho más certero que el humano promedio, que empieza a agotarse y cometer errores bajo presión.

Pero claro, esto también abre cajas de Pandora. La posibilidad de que interlocutores no autorizados reciban información sensible a través de una IA mal configurada, o que adversarios descubran qué datos exactos se usan para entrenarla, es un riesgo que el Pentágono quiere minimizar a toda costa.

¿Un riesgo incontrolable o una evolución inevitable?

En el fondo, la cuestión no es la tecnología. La IA puede manejar datos clasificados si la infraestructura, protocolos y seguridad son a prueba de balas. El verdadero conflicto está en cómo gestionar la información sensible sin fallos humanos, y en decidir si un modelo puede tener muchas «vidas» y usuarios sin contaminarse.

Palantir ya lleva años ganando contratos para crear “cámaras blindadas” de datos clasificadas donde la IA responde preguntas sin liberar información (ni siquiera a sus creadores). Pero que ese sistema se use para entrenamiento, no solo inferencia, lo cambia todo. Entrenar implica contagiar el modelo con información, y no siempre se puede garantizar que esa información se quede donde debe.

Hay también debates éticos y geopolíticos: ¿vale la pena poner tanto riesgo si pierdes el control de tu IA militar? ¿El enemigo puede replicar esta estrategia? ¿Cómo evitar que la «IA secreta» se convierta en un Frankenstein fuera de control? Ese debate está en pleno auge, y podría definir la guerra tecnológica del próximo decenio.

El futuro inmediato de la IA militar: ¿más avances o más paranoias?

Mientras gobiernos, empresas y analistas disputan sobre la conveniencia y seguridad de entrenar IA con datos ultra secretos, lo único claro es que la presión para automatizar y mejorar capacidades crece sin pausa. La rentabilidad de invertir en estas tecnologías para seguridad nacional es enorme, y casi nadie quiere quedarse detrás ni un segundo.

La pregunta concreta que queda flotando: ¿hasta qué punto podemos fiarnos de estos sistemas para manejar información que, si cae en malas manos, puede costar vidas humanas reales? ¿Son estas IA herramientas de ayuda, o cajas de Pandora? La respuesta, ni el Pentágono ni los proveedores de IA la tienen clara aún.

Porque la IA militar entrenada en secretos puede ser la última arma que cambie las reglas del juego… o el inicio de un desastre silencioso.

¿Tú qué opinas? ¿Vale la pena arriesgar la seguridad en pos de la eficiencia? ¿O nos estamos metiendo en terreno demasiado resbaladizo?

Artículos Relacionados

Por Helguera

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *