¿Qué pinta la IA en el campo de batalla? Y no, no es ciencia ficción

El Departamento de Defensa de Estados Unidos ya está metiendo la pata — o mejor dicho, metiendo inteligencia artificial — en temas que hasta ahora parecían cosa de pelis catastróficas: usar chatbots para decidir a qué objetivo bombardear primero. En marzo de 2026, un funcionario del Pentágono filtró que están probando sistemas generativos para rankear blancos de ataque. Imagina una lista de posibles objetivos en zonas conflictivas; la IA los procesa, saca prioridades y recomienda un orden de ataque. ¿Te parece frío? Pues que sepas que los humanos detrás tienen que dar la aprobación final, al menos por ahora.

Lo loco del asunto es que modelos tipo ChatGPT de OpenAI o Grok de xAI podrían estar a punto de formar parte del cerebro militar estadounidense. Estos sistemas no solo dialogan o generan textos; están devorando información y opinando, como si fueran un oficial táctico digital. La diferencia es que no se cansan, no dudan y pueden procesar toneladas de datos en segundos. ¿Qué podría salir mal?

Por otro lado, la idea de que una IA decida priorizar objetivos bélicos es para cagarse, porque eso implica un nivel alto de automatización en la guerra que abre puerta a errores monumentales –- o si te lo quieres tomar en plan conspiranoico, a decisiones tomadas sin supervisión humana real. En el Pentágono parecen tranquilos, pero cualquiera que haya oído hablar sobre las “bolas de cristal” de la IA sabe que todavía están lejos de entender completamente sus límites.

Y ojo, que el mismo Pentagon CTO ha levantado la voz criticando otro chatbot, Claude, de Anthropic. Lo acusó de “contaminar la cadena de suministro de defensa”, porque tiene un sesgo aprendido, una preferencia política que podría torcer la pelota en misiones militares. No me preguntes cómo se detecta eso en un modelo de lenguaje, pero es la última pelea tech entre gigantes de IA y el ejército americano.

¿Claude? Más bien «Claude el contaminador» según el Pentágono

Antropic y OpenAI tienen sus rifirrafes públicos. La guerra no termina en el campo de batalla. Anthropic recibió un mazazo cuando el Pentágono alegó que Claude, su popular chatbot, era un riesgo para la «cadena de suministro» de defensa porque supuestamente inyecta una “preferencia de política” dentro de sus modelos. ¿Quién lo dice? El CTO del Pentágono en persona.

Para ponerlo en contexto: la defensa americana no solo busca la IA más potente o más rápida; quiere la IA que se pueda controlar y que no introduzca sesgos que perjudiquen misiones delicadas – ni que el algoritmo tenga alguna especie de agenda extraoficial. Dicho de otro modo: el ejército quiere un robot-muerto-de-cabeza, obediente y sin ideología.

Anthropic, por supuesto, está en shock, porque esta acusación viene justo después de que OpenAI lograra un acuerdo “comprometido” con el Departamento de Defensa para colaborar en IA. En términos de negocios y del golpe estratégico, esto significa que OpenAI se ganó la confianza del Pentágono para desarrollar IA con uso militar, mientras Anthropic queda en la cuerda floja.

Y esta movida no es solo un capítulo técnico. Es política pura infiltrada en el código. La IA no es neutral, aunque insistan en venderla como una herramienta objetiva y matemática. Esto viene a recordarnos que detrás de todo modelo de IA hay decisiones humanas, intenciones y conflictos de interés. Que si un algoritmo que sugiere objetivos militares puede tener “preferencias”, el panorama es un poco hardcore.

Además, imagina cómo esta tensión afecta la innovación en IA. Empresas y startups se partirán la cabeza para cumplir no solo con performance y ética, sino también con la política militar y estatal. Un lío gordo, y que a nosotros, de a pie, solo nos llega en notas crípticas con titulitos como “Claude poluciona cadena de defensa”. La verdad, vaya tela.

Cuando el chollo de la info se convierte en robo: ex-empleado de DOGE pillado con un USB

De la intimidad a la trinchera menos tecnológica, el cotilleo espía del día viene con tensión y cuentos dantescos. Un ex empleado de la famosa plataforma DOGE, que se ve que tuvo acceso sensible, está bajo sospecha de haber robado datos de seguridad social y llevarlos a su nuevo puesto dentro de un contratista gubernamental. Marchando un clásico episodio de “me tocó tener datos confidenciales y se me ocurrió hacer el rata”.

Este tipo usó un «pendrive» para copiar y transportar los datos, una jugada tan antigua que parece de película pero sigue pasando en 2026. La historia salió a la luz gracias a investigaciones de Wired y Washington Post, con acusaciones de filtraciones internas que ni la NSA se esperaría.

¿Por qué este detalle importa en una crónica sobre IA y tecnología? Porque nos recuerda que la seguridad digital, por muy avanzada y con algoritmos de la NASA que sea, se viene abajo cuando el eslabón humano es débil o está corrupto. Las mejores IAs, modelos y sistemas defensivos no valen nada si al final alguien con acceso coloca un USB en su bolsillo y se hace el héroe narrativo del espionaje industrial.

Además, el gobierno y sus contratistas manejan una cantidad brutal de datos sensibles. Ese robo no solo podría poner en peligro a civiles con información financiera o biométrica comprometida, sino también expone brechas monumentales en la seguridad digital, una ironía que no les queda nada bien.

Ucrania soltando su guante de datos para que la IA analice la guerra

En otro frente del conflicto tecnológico-militar, Ucrania ha decidido jugar a la transparencia extrema y está ofreciendo su valiosa data de batalla para el entrenamiento de inteligencia artificial, especialmente drones y vehículos aéreos no tripulados (UAVs). Esta movida estratégica tiene su jugada maestra: permite a sus aliados entrenar máquinas para saber cómo moverse y atacar mejor en el terreno real.

Reuters reportó que la información está siendo usada para que las IAs aprendan en tiempo real, desarrollando tácticas de guerra mucho más avanzadas, o lo que en jerga militar sería «hacer el trabajo sucio con menos humanos en riesgo.» El regalo de Ucrania es una especie de “open-source militar” que no se ve todos los días.

Esto choca con la visión europea, donde los drones ya son una apuesta gigante para el futuro bélico. Con ejércitos que apuestan a la mezcla de inteligencia artificial, automatización y máquinas autónomas, parece que la guerra 4.0 no es solo un concepto sino el día a día inmediato. MIT Technology Review lo resume: “El hueco tecnológico entre quienes tienen acceso a esta tecnología y quienes no se abrirá como un abismo en el campo militar”.

Es interesante también cómo esta tendencia genera un mercado inesperado en las zonas limítrofes a Ucrania, donde empresas intentan repensar la tecnología civil para convertirla en equipamiento militar rápido y barato. Recordemos el caso de Global Wolf Motors, quienes con un scooter adaptado pasaron de la incredulidad a la línea del frente en semanas. En estas circunstancias, la tecnología deja de ser un lujo y pasa, literalmente, a ser cuestión de supervivencia.

Meta tropezando con su última IA: cuando los gigantes no levantan vuelo

No todo brilla en el universo IA. Meta, que hace no mucho parecía una apuesta segura en inteligencia artificial, se pegó un buen batacazo al posponer el lanzamiento de su último modelo generativo. La razón oficial: no alcanza el rendimiento esperado frente a rivales como Google, OpenAI o Anthropic.

Para un gigante con recursos a patadas, que la estrategia de IA caiga en saco roto es un mal signo. El NYT señala que el ex jefe de IA de Meta renunció para apostar contra los grandes modelos de lenguaje (LLMs), porque cree que están sobrevalorados y con limitaciones técnicas que nadie quiere enfrentar en público. Este tipo de escepticismo interno se refleja en la pausa del lanzamiento que Meta impuso.

Esto es una catarsis para el consumidor tech que estudia la escena: la carrera por la IA no es un sprint tecno-romántico sino una lucha de titanes que puede acabar en caída libre para quien se duerma. Meta podría estar pagando el precio de sobreestimar el hype, sacar un producto verde que no logra la magia y chocar contra los estándares – o la expectación – del mercado.

Para añadir salsa, todo esto ocurre mientras la guerra cibernética crece y con actores internacionales (como Irán) saltándose sanciones en plataformas como X para animar el conflicto. Los hackers, la manipulación de información y la expansión de IA en ciberataques no ayudan a levantar la moral en Silicon Valley.

¿Vale la pena este coctel tecnológico bélico? Spoiler: da miedo y también algo de hype

Al final del día, la mezcla de IA y defensa militar tiene sabor a aviso. Los algoritmos que están a punto de decidir vida o muerte en segundos no son entes puros flotando en el ciberespacio, sino máquinas con todas las garras humanas (y humanas fallas) metidas dentro.

Modelos como ChatGPT o Grok se encaminan a ser asesores con cuotas propias, aunque teóricamente siempre supervisados por un humano, pero el final del juego tiene lagunas enormes y riesgo real. Las acusaciones contra Claude empeoran la foto: si ni siquiera los ejércitos logran un modelo limpio sin sesgos, ¿cómo vamos a fiarnos nosotros de que no jodan todo?

Mientras tanto, la lección de Ucrania dota a la inteligencia artificial de un factor disruptivo sin precedentes en guerra, pero abriendo la puerta a conflictos más automatizados y menos humanos. En definitiva, la tecnología sube el nivel de la partida, pero las reglas, y las trampas, cambian cada vez más rápido.

¿Estamos listos para un ejército digital que piensa por sí mismo o solo será el próximo desastre previsto en futuras novelas distópicas? Solo el tiempo (y quizá unos cuantos bots) lo dirán. Y tú, ¿te fías de una IA con una lista de objetivos mortales en sus manos?

Artículos Relacionados

Por Helguera

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *