¿Pero qué ha hecho exactamente el Pentágono con Anthropic?

El 28 de marzo de 2024, un juez de California frenó en seco un intento del Pentágono que parecía sacado de un guion de serie conspiranoica: llamar a Anthropic —la empresa que desarrolla la IA Claude— un “riesgo para la cadena de suministro” y ordenar a todas las agencias gubernamentales que dejen de usar sus servicios. ¿La razón oficial? Cuestiones de seguridad. ¿La realidad? Una pelea que más parecía un ajuste de cuentas político con tintes de guerra cultural. La jugada no solo se quedó en papel mojado, sino que la compañía consiguió un bloqueo temporal que, de momento, la mantiene fuera del ojo del huracán.

Para entenderlo en contexto: Anthropic ha estado sirviendo su IA a distintas ramas del Departamento de Defensa desde principios de 2025 —sin mayor problema. Pero cuando el gobierno quiso apretar el contrato y sujetar a la empresa a sus caprichos directos, surgieron los roces. La defensa de Anthropic (por cierto, bien respaldada hasta por exfuncionarios de la era Trump) dejó claro que el Pentágono confundía querer castigar con tener motivos legales sólidos. El juez Rita Lin destapó la caja de Pandora: el gobierno se saltó los procesos normales, y la cosa se exacerbó gracias a la elocuencia (léase: insultos y amenazas) en redes sociales de varios funcionarios, incluyendo al mismísimo Trump en Truth Social.

Un dato para no perderse: el Pentágono quiso colgarle a Anthropic la etiqueta de “saboteador” sin pruebas que sostuvieran tal acusación. Y lo peor es que se inventaron motivos, como el fantasmagórico “kill switch” para desactivar el software a discreción (que terminó siendo un cuento chino). Todo esto se tradujo en amenazas de vetar cualquier colaboración comercial con ellos, algo que los abogados confirmaron no tiene ni pie ni cabeza legalmente. Aún así, la campaña de desprestigio digital siguió rodando sin control.

¿Por qué esta pelea era mucho más que un simple contrato?

Olvida pensar en esto como una disputa aburrida de papeleo o tecnicismos; aquí está en marcha una batalla harto política y cultural. Para el Pentágono, Anthropic no era solo un proveedor; era el símbolo de algo mucho más amplio: una empresa de IA que no encajaba en su visión (y en la de la administración Trump en ese momento) de quién y cómo debe manejar la inteligencia artificial, especialmente la que roza la defensa nacional.

El gobierno primero aprovechó a Anthropic, usó su IA durante meses, y sin pestañear, hasta pudieron tragar la narrativa de ser una empresa responsable con la ética y seguridad en la IA—estrategia de marketing que podría poner nerviosos a muchos competidores y curiosos. Pero cuando llegó el momento de pedir cuentas o ajustar el collar, la cosa se torció. La repentina calificación de riesgo para la cadena de suministro no fue solo burocracia, fue un ataque directo a lo que representa Anthropic, señalándolo como si fuera una amenaza nacional.

Porque sí, esta pelea no se ocultó tras puertas cerradas; tomó Twitter, Truth Social, ruedas de prensa, y discursos públicos llenos de comentarios incendiarios sobre la “ideología” del equipo de Anthropic y un tono de puro desprecio hacia su “arrogancia” por no ceder ante lo que el Pentágono quería imponer. Todo esto en paralelo al inicio de la crisis en Irán que encendió los telediarios esos mismos días. El jueguito político tuvo prioridad, incluso sobre la guerra real.

Las contradicciones legales que deja esta pelea en evidencia

El juez Lin apuntó con lupa y salió a la luz una colección de contradicciones propias de una película de manual. El Pentágono, gigante administrativo, formuló acusaciones impactantes pero no supo aportar pruebas ni seguir los caminos jurídicos correctos para respaldarlas. ¿Que el secretario de Defensa Pete Hegseth ordenó calificar a Anthropic como riesgo para la cadena de suministro? Sí, pero no actuó según el protocolo legal que esa etiqueta requiere. ¿Que Anthropic estaba a punto de convertirse en un “saboteador”? Sin evidencias.

Más gracioso aún, el Pentágono tenía que justificar ante comités del Congreso que no había alternativas a tanta hostilidad, pero jamás explicó ni una vez por qué otros remedios no eran posibles —un silencio que habla más que cualquier argumentación. En definitiva, montaron la épica de la saga en medios y redes sociales primero (con Trump cayendo a balazos en Truth Social), y luego buscaron por dónde meter la justificación legal. Cuando tiran la piedra y esconden la mano, el juez sale con 43 páginas destripando el enredo como si fuera un puzzle mal armado.

Además, la denuncia de Anthropic contra la violación de su derecho a la libertad de expresión entró fuerte a la pelea. Dicen los documentos: “el gobierno no solo quiere cortar lazos; quiere castigar públicamente a Anthropic por su visión y discurso”. Una declaración que pone el litigio en un escenario donde la línea entre política, discurso y ley se difumina peligrosamente.

¿Y ahora qué? ¿Anthropic ha ganado la guerra? Ni de coña

Aunque la orden judicial frenó momentáneamente la expulsión de Anthropic del tablero gubernamental, no significa que estén libres para seguir bailando sin pisar caras. Hay otros mecanismos, legales y no tan legales, que el gobierno puede desplegar para mantener a Anthropic en minoria si decide que eso conviene. El simple hecho de no incluirlos como “riesgo de cadena de suministro” no los blinda contra ser vetados en otros contratos o proyectos militares. Muchos proveedores ya ven a Anthropic con lupa, por el riesgo reputacional que conlleva.

Por otro lado, el pentágono ha invertido tiempo y recursos en esta cruzada, hasta el punto de sacrificar foco en operaciones reales como el conflicto iraní. Apuntar hacia una “guerra cultural” en lugar de una estrategia ordenada deja claro dónde están los intereses —y no se ven ni muy tecnológicos ni muy pragmáticos.

Incluso un veterano de la política de IA en la era Trump, Dean Ball, calificó la sentencia judicial como “devastadora para el gobierno”. Pero ya sabemos cómo puede cambiar la cosa en tribunales superiores si deciden apelar. Mientras tanto, Anthropic juega a defender su marca, la ética de la IA que dice promover, y a aguantar el tirón mediático que lanzaron desde arriba.

¿Por qué la ideología está tomando el mando en la adopción de tecnología AI?

Aquí está el meollo del asunto y la conclusión que el Pentágono no quería que explotara: no es solo que Anthropic no coopera lo suficiente, ni que su IA suponga una amenaza técnica. El problema está en que las grandes potencias, y sus instituciones militares en particular, exigen más que servicio y funcionalidad: quieren sumisión ideológica, alineamiento político y garantías dogmáticas. Y si la empresa no encaja en ese molde, se convierte inmediatamente en sospechosa.

Es un giro curioso y alarmante que coloca la tecnología, los avances en IA y la seguridad nacional bajo una lupa de cultura y política que puede quemar proyectos que serían útiles solo por tener ideas o modelos diferentes. La IA, que debería ser objeto de colaboración técnica y científica, se politiza hasta el extremo. El Pentágono quiere marcas “dóciles”, listas para alinearse con la narrativa oficial, ignorando que la innovación en IA viene de cuestionar y probar límites, no de abrazar ideologías rígidas.

Trump, Hegseth y compañía han dejado claro: en la Casa Blanca hay prioridad por controlar el discurso y asegurarse lealtades. Anthropic, aunque esencial para operaciones del gobierno, estuvo y está en la mira por, literalmente, no bailar la música que dictan. Y esa es una batalla que va más allá de contratos y regulaciones, es la guerra por el futuro de la IA americana. Solo que ahora hay jueces que empiezan a decir hasta aquí.

Lo que nadie te cuenta sobre “la era del AI patriotismo”

Si te preguntas cómo demonios se llega a que una inteligencia artificial —que en teoría es código y datos— se convierta en el equivalente tecnológico de un prófugo político, este lío deja pistas claras. La “seguridad nacional” ya no es solo cuestión de armas o espionaje, sino de controlar “quién maneja el código”.

Resulta que más allá de la técnica, lo que está en juego es el relato: quién apunta con qué IA, qué valores incorpora ese software, qué discursos acepta o rechaza. En ese contexto, Anthropic está sancionada (suspendida, señalada y despreciada) por no plegarse a la narrativa “patriótica” marcada por la administración. Un ejemplo claro de cómo la innovación tecnológica se expone a tensiones políticas que pueden frenarla o incluso hundirla.

Por último, queda claro que quienes quieran seguir colaborando con el gobierno tienen dos opciones: **o subirse al “tren del pensamiento único” o sufrir las consecuencias** (marginación, veto, desprestigio). Y aunque Anthropic gane la batalla legal, la guerra cultural y económica la tiene asegurada si el Pentágono sigue apostando por esta estrategia.

Vaya sorpresa: el futuro de la IA no está en manos de los tecnólogos, sino de políticos enzarzados

Dicen que la tecnología debería ser neutral, una herramienta al servicio de todos. Pero el caso Anthropic y el Pentágono nos regalan una bofetada de realidad: la IA es ahora un arma política, un símbolo ideológico y campo de batalla para agendas que nada tienen que ver con algoritmos o eficiencia.

Mientras el mundo mira a Anthropic, y mientras los tribunales tratan de poner orden en la chapuza legal, lo que subyace es ese dilema: la seguridad nacional y la innovación convergen en un punto donde **el filtro ideológico se vuelve la verdadera barrera de entrada**. La supuesta guerra contra un “riesgo para la cadena de suministro” no es más que un camuflaje para una batalla de narrativas.

¿Y entonces qué? ¿Seguiremos dejando que unos pocos decidan quién puede desarrollar IA y quién no, dependiendo de las afinidades políticas y culturales? ¿O veremos por fin una visión más madura donde la tecnología sirva para otra cosa que el juego de poder y el control ideológico? Tú decides.

Artículos Relacionados

Por Helguera

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *