OpenAI se hace socio del Pentágono: no es ciencia ficción, es real y ya va caliente
Febrero 2024, OpenAI da el salto que muchos dudaban: acuerdo firmado para que su inteligencia artificial sea utilizada por el Pentágono en entornos clasificados. Vamos, que la empresa más mediática de IA, creadora del omnipresente ChatGPT, ya está metiendo la pata hasta el fondo en el barro militar, un giro radical para una compañía que antes renegaba de estos contratos. Sam Altman lo explicó a su manera: no, no dejarán construir «armas autónomas» con su IA, pero luego la letra pequeña revela que la única condición es que el Ejército siga sus normas internas para estos asuntos, las cuales son un chiste en cuanto a su rigor y restricción.
Y por si pensabas que esto era un «no» a la vigilancia doméstica, pues más bien tiras de la chistera y te sale una dudosa política que no garantiza nada. Lo curioso es que no se sabe si Altman suelta este brindis al sol porque está escupiendo bilis ideológica (la excusa recurrente de la «competitividad frente a China») o simplemente porque OpenAI tiene hambre de billetes, después de gastar una fortuna solo entrenando sus modelos y buscando ingresos nuevos vía publicidad, venta de licencias o contratos ambientales.
Que OpenAI entre de lleno en esta guerra tecnológica —que es más que otra cosa un híbrido de inteligencia artificial y militares empeñados en complicarse la vida—, es una bomba. Las hostilidades en Irán ya se están usando con IA como uno de los jugadores clave, y nos podemos imaginar que OpenAI pronto estará incrustada en el sistema, aunque no se sabe cómo de rápido.
¿Y qué pinta OpenAI en esto?—análisis y toma de decisiones militares con IA conversacional
Por ahora, la tecnología de OpenAI no está integrada oficialmente en los sistemas ultrasecretos del Pentágono, ni siquiera en Battlefield One. Eso requiere ajustar sus modelos con otras herramientas militares que ya están rodando. Hasta Elon Musk y su proyecto xAI están haciendo la misma danza burocrática para colar su IA (Grok) en estas mismas aguas turbias. La prisa es enorme, porque después de que Anthropic se negara a facilitar su IA para usos militares y fue declarada «riesgo para la cadena de suministro» por el Pentágono —controversia que aún se está peleando en tribunales—, la presión para que OpenAI y otras se pongan las pilas va en aumento.
Ahora, imaginemos un escenario realista: un analista humano introduce una lista de posibles objetivos en la IA, que escupe una priorización para los ataques basándose en toneladas de datos, logísticos y de inteligencia (imágenes, textos, vídeos). Todo con un ojo humano que valida el resultado, ¿pero para qué sirve entonces esta IA si viene a hacer el mismo trabajo que siempre, con una doble comprobación humana?
La diferencia está en la interfaz, porque mientras la inteligencia artificial militar tradicional (como el sistema Maven, que analiza vídeos de drones para identificar objetivos) lleva años en funcionamiento, la novedad brutal es que OpenAI y similares ofrecen una capa conversacional natural. Da igual si trabajas en el Pentágono o en un Call Center, puedes preguntarle al modelo qué hacer, cómo priorizar los bombardeos o qué reportes lanzar, como si fuera un asesor táctico parlante. Nadie había probado nunca usar IA generativa para decidir directamente qué acciones tomar en el campo de batalla, y vaya si esto abre un abanico de problemas éticos y técnicos.
Drones: la guerra también es intangible y AI se pone las pilas en defensa aérea
Final de 2024: OpenAI anuncia una alianza con Anduril, empresa que fabrica drones y sistemas para contrarrestarlos. No es baladí. El contrato afirma que la IA de OpenAI ayudará a detectar ataques de drones contra fuerzas estadounidenses y a neutralizarlos en tiempo real. La propia empresa dice que esto no viola sus reglas internas («no hacer sistemas para dañar a personas») porque va dirigido contra máquinas invasoras, no humanos (buen intento de lavar la cara).
Anduril tiene el sistema Lattice, una especie de consola desde donde soldados controlan desde defensas antidrón a misiles o submarinos autónomos, y acaba de cerrar un monstruoso contrato de 20.000 millones de dólares para conectar estas tecnologías a sistemas militares veteranos y pegarles una alfombra de IA encima.
Si OpenAI consigue demostrar que sus modelos mejoran la capacidad de defensa contra drones, Lattice será la vía rápida para adherirlos a la cadena de combate, lo que no solo cambia la plantilla sino también el escenario. Dos cosas saltan a la vista: primero, la tecnología se normaliza como una parte más del entramado bélico (quizá sin saber del todo cómo), y segundo, la complejidad aumenta porque se mezclan capacidades extremadamente avanzadas para la detección y neutralización de amenazas que ni siquiera sabíamos que existían hace unos años. La guerra se sigue modernizando… y el humano sigue siendo un espectador encendido.
La IA llega a las oficinas militares: la burocracia también se renueva con algoritmos
No todo es ciencia ficción explosiva con drones o ataques; el Pentágono también apuesta por meter la inteligencia artificial en áreas que suenan absolutamente aburridas pero cruciales: logística, contratos, compras, administración. En diciembre, el Secretario de Defensa, Pete Hegseth, promocionó GenAI.mil, una plataforma segura para que personal militar use IA comercial para tareas diarias. Google Gemini estampó su firma primero ahí, después xAI metió a Grok (a pesar de metidas de pata claras, como contenido antisemita o deepfakes), y finalmente OpenAI anunció en febrero que pondría sus modelos para redactar documentos, contratos y otros apoyos administrativos.
¿Alguien espera que un soldado redactando su papeleo en GenAI.mil decida qué pasa realmente en Irán? No, pero la importancia está en la actitud: el Ejército estadounidense se está lanzando a la piscina con la integración masiva de IA en cada rincón, desde el despacho del general hasta la trinchera digital. Los usuarios todavía están confusos en muchos casos, pero la voluntad política empuja y poco a poco se va cimentando la idea de que la IA no es solo un accesorio, es el motor que mueve la guerra moderna, no importa si en computadoras viejas o drones de última generación.
Las sombras del acuerdo: límites difusos y peligros invisibles
Lo que queda más que claro es que este acuerdo entre OpenAI y el Pentágono camina sobre una línea muy fina, casi inexistente entre ética, rentabilidad y poder. Altman dice que no se usarán sus modelos para «armas autónomas» o «vigilancia doméstica», pero se basa en que el Ejército se ponga de acuerdo consigo mismo violando poco sus propias reglas. Las escritas políticas oficiales suelen ser tan laxas o ambiguas que sirven para justificar casi cualquier uso, desde intimidación hasta actos ofensivos ultrasecretos.
Además, la integración en combate que sugiere el posible uso en Irán —donde OpenAI podría estar alimentando decisiones de ataques o defensas antibombas— abre interrogantes terribles sobre control, transparencia, responsabilidad y errores. Al fin y al cabo, ¿quién quiere vivir con la idea de que un algoritmo generativo, con un buen par de sesgos o interpretaciones erróneas, esté recomendando a quién le llega un misil primero? Y claro, que alguien ahí tenga que revisar la información, desconcertados ante la rapidez de la IA lo hace todavía más rocambolesco.
Esto ya no es un videojuego ni una fantasía utópica, es la realidad de un ejército hipervigilante, hambriento de tecnología y dispuesto a poner a prueba estas herramientas sin demasiados escrúpulos.
¿Quién gana y quién pierde? La industria tech, ética y geeks de uniforme
OpenAI no es la primera tech gigante que da el salto al sector militar. Lo que sorprende es la velocidad y la naturalidad con la que lo ha hecho, como si toda resistencia moral se hubiera derretido con la idea de quemar más dinero y ganar contratos multimillonarios. Tanta plata implica también más presión para seguir alimentando futuros proyectos, lo que lleva a que desde banqueteros de IA hasta defensores de derechos humanos estén en alerta roja.
Los empleados de OpenAI, y de hecho todo el ecosistema tech, están en un brete. ¿Cómo justificar que tu herramienta pueda servir para dirigir ataques en zonas en conflicto? Aquí no hay HODL ni excusas de «La tecnología es neutral», porque la realidad es brutal: vender IA para aplicaciones militares puede terminar en un arma más efectiva, y la responsabilidad difusa se pierde en los despachos.
Mientras tanto, el público general ni se entera o muestra poco interés, pero dentro del Pentágono la IA está apretando el acelerador para cambiar por completo la guerra, con toda la ambigüedad y riesgo moral que eso comporta.
Entonces, ¿qué esperar?
OpenAI y la IA ya no son solo temas para geeks o paranoicos del futuro. Están en medio de uno de los conflictos bélicos donde se probarán sus límites e influencia. La tecnología aún debe refinarse, y nadie garantiza que vaya a ser aceptada sin rechistar ni del mundo militar ni de sus propios aliados dentro de la compañía.
Lo inquietante es que se está abriendo la caja de Pandora sin un manual de instrucciones que asegure que lo que salga de ahí no se vaya a convertir en un caos difícil de controlar, con consecuencias que van más allá de las líneas del combate. Porque cuando un algoritmo conversacional empieza a decidir a quién le llega un misil primero, la cuestión deja de ser técnica para convertirse en política, ética y, en el fondo, en puro terror.
¿Y tú, hasta dónde estarías dispuesto a que una IA tome decisiones en una guerra? ¿Te fías de ese consultor invisible que puede marcar la diferencia entre la vida y la muerte… sin ni siquiera tener un cuerpo que rendir cuentas?
Artículos Relacionados
The Download: The startup that says it can stop lightning, and inside OpenAI’s Pentagon deal
Más información sobre Is the Pentagon allowed
Descubre the download: 10 things that matter in ai, plus anthropic’s plan to sue the pentagon
