OpenAI y el Pentágono: un “compromiso” que pinta peor de lo que parece
El 28 de febrero, OpenAI anunció un acuerdo con el Departamento de Defensa de Estados Unidos para que sus tecnologías pudieran ser usadas en entornos clasificados. Sam Altman, CEO de OpenAI, admitió que las negociaciones fueron “definitivamente apresuradas”, comenzando las conversaciones solo después de que el Pentágono le diera un tirón de orejas público a Anthropic, su competidor principal que había rechazado trabajar con ellos.
En el comunicado oficial, Altman y su equipo se esforzaron mucho en recalcar que no habían cedido a que el ejército haga lo que le dé la gana con sus modelos, especialmente sobre la prohibición del uso para armas autónomas y la vigilancia masiva interna. Pero, entre líneas, esa lectura moralista y triunfalista se derrumba: Anthropic eligió apegarse a límites éticos estrictos y perdió, mientras OpenAI optó por un juego legalista y pragmático, dejando a la casa militar más libertad para maniobrar con su IA.
Lo verdaderamente jugoso está en esas cláusulas escondidas tras jerga burocrática, porque la diferencia no es tanto en los límites que se exige el Pentágono a sí mismo, sino en cómo cada empresa aborda las negociaciones. Anthropic se centró en prohibiciones específicas; OpenAI simplemente dijo: “confíen en que seguiremos la ley”. Y vaya que eso dependerá de cómo entiendas “confiar” cuando historiales como el caso Snowden demuestran lo contrario.
¿Y dónde quedan las garantías reales?
Aquí la trampa legal se siente fuerte. La versión del contrato que OpenAI publicó solo garantiza que el Pentágono no pueda usar la tecnología para violar leyes vigentes —por ejemplo, la Cuarta Enmienda que protege contra vigilancia masiva o directivas recientes sobre armamento autónomo— pero no les da a OpenAI libertad para vetar usos legales pero éticamente cuestionables. Jessica Tillipman, experta en derecho de contrataciones gubernamentales en la Universidad George Washington, lo explica clarito: OpenAI no se reservó un “derecho soberano” para impedir usos legales, simplemente asegura que todo debe estar dentro del marco legal… tal como está ahora.
Lo malo es que ese marco es un coladero. La vigilancia masiva pudo considerarse legal durante años, y se demostró que no solo se abusó sino que se hizo sin supervisión real. ¿Realmente piensas que unos acuerdos a la carrera, firmados con más prisa que visión, vayan a contener un ejército con una IA, en medio de tensiones bélicas reales (Irán, para más datos)?
Altman quiere vender la idea de que el Pentágono es un actor que cumple la ley al pie de la letra y que su contrato es la muralla ética frente a futuros desmadres, pero no pasa mucho para recordar que las leyes son lentas, se interpretan y se adaptan. Mientras tanto, la tecnología no.
¿OpenAI realmente puede “meter sus líneas rojas” a la IA militar?
En defensa propia, OpenAI asegura que mantendrá controles de seguridad incrustados directamente en las reglas de comportamiento del modelo —nada de versiones descafeinadas para uso militar sin esas “líneas rojas” incorporadas. Boaz Barak, empleado de OpenAI y voz autorizada en el tema, afirmó que pueden programar la IA para que jamás se involucre en vigilancia masiva o armas autónomas sin supervisión humana.
Ah, pero aquí viene el “pero”. ¿Cómo hacen para garantizar que esos controles no se caigan o sean capaces de monitorearse con efectividad en entornos estrictamente clasificados y bajo presión de operativos reales? La empresa no detalla ni una pizca de cómo sus reglas de seguridad para el Pentágono serán más que un simple compromiso de palabra. Mucho menos explica quién verificará eso, ni si podrá reaccionar rápido en caso de que la IA actúe fuera de ese marco.
Se supone que este rollo debería estar funcionando “en seis meses”. Sí, seis meses para adaptar una tecnología que afecta escenarios de guerra y políticas de seguridad nacional. Como mínimo, esta promesa parece una exhibición optimista que no hace justicia a la complejidad del problema.
¿Quién pone el límite entre lo legal y lo moral, si no es el gobierno?
Aquí la parte realmente turbia: Anthropic intentó marcar un terreno donde las empresas tecnológicas no solo deben asentir a lo legal sino asumir una responsabilidad moral propia y decir “no” cuando consideren que algo está mal, incluso si fuera legal. El gobierno dijo: “Ni de coña”.
Concretamente, Pete Hegseth, secretario de defensa adjunto, y personaje con fama de duro, no se cortó un pelo: “Anthropic nos dio una clase magistral de arrogancia y traición”. Remató citando una orden de Trump para cortar toda relación con la empresa porque quería prohibir que su IA Claude participara en armas autónomas o vigilancias masivas. “El Departamento de Guerra necesita acceso total y sin restricciones para todos los propósitos LEGALES”, sentenció.
Esto deja en bandeja una cuestión que nos debería preocupar más: las compañías de tecnología, especialmente estas mastodónticas que dominan la IA, no deberían ser las que decidan por sí mismas qué prohibiciones éticas aplicar si el gobierno puede simplemente imponer sus propias reglas o tumbar el contrato de quien no guste de eso.
¿Y los empleados de OpenAI qué tal lo ven?
Los juicios desde dentro podrían ser igual de interesantes que los de fuera. OpenAI ha invertido un dineral en talento, con cerebros altamente capacitados y perfeccionistas que no van a tragar con compromisos que les parezcan una rendición o que les manchen la visión idealista con la que muchos entraron al proyecto.
¿Van a aceptar que la empresa se haya bajado los pantalones en nombre de la “pragmática legalidad”? Porque Altman defiende que la postura de confiar en que el gobierno cumpla la ley es la más razonable y efectiva, pero ¡ojo! que para algunos empleados, sobre todo tras todo lo mal que pintan las perspectivas de control real y supervisión, puede sentirse como traición.
El tiempo dirá si la tensión interna es manejable o si aparecerán fugas de cerebros a otros proyectos menos interesados en hacer la vista gorda. O si se aventan protestas internas que desgasten la reputación de la empresa y su capacidad para atraer talento.
¿El Pentágono tiene realmente el mecanismo para sustituir a Anthropic?
El caso Anthropic no solo acabó con un simple “adiós y no vuelvas”. Hegseth no se quedó en el filtro del chat: propuso calificar a Anthropic como riesgo para la cadena de suministro (esto puede fastidiar bien por las normativas militares y de seguridad nacional). Esto abriría la puerta para que ningún contratista o socio del Pentágono pueda tratar con la empresa, lo que es prácticamente una condena de muerte comercial para Anthropic si se materializa.
La empresa ha dicho que demandará si se intentan usar esos mecanismos, y OpenAI incluso se ha posicionado en contra de que esa campaña arrase sin miramientos a su rival.
Mientras, el Pentágono debe reemplazar urgentemente a Claude, el modelo de Anthropic que sí está siendo usado en operaciones clasificadas, incluso en la escalada de ataques en Irán y Venezuela. Le han dado seis meses para hacerlo, entrando OpenAI y también la nueva propuesta de Elon Musk, xAI, al ruedo. Pero según informes, Claude estuvo operativo justo después del anuncio de la prohibición, lo que demuestra que la transición no va para nada como un proceso automático y sencillo.
Ahí está la presión: ¿podrán las ofertas alternativas cumplir con los mismos usos delicados con la velocidad y seguridad que exige la defensa nacional? ¿O corremos el riesgo de que la carrera por usar IA en combates acabe siendo una especie de Wild West tecnológico sin reglas claras y supervisión adecuada?
¿Esto es solo el aperitivo de una guerra tecnológica real en la sombra?
Aunque esta pelea abierta entre Anthropic, OpenAI y el Pentágono parece un culebrón corporativo, en realidad es una pista sobre el pulso más amplio entre ética, poder y tecnología que se está dirimiendo en el terreno más caliente del planeta.
Operaciones militares en Irán, Venezuela y probablemente más teatros de conflicto están siendo el laboratorio improvisado donde tecnologías que no terminamos de entender, ni controlar, se prueban y ajustan bajo presión política, estratégica y humana. Mientras, las empresas que producen estos cerebros artificiales se ven obligadas a negociar con gobiernos acostumbrados a amoldar la reglamentación a conveniencia.
La pregunta que queda flotando: ¿se mantendrá alguna línea roja real que no pueda borrarse con la firma de un contrato robusto, o será solo cuestión de tiempo antes de que todo se “legalice” y nivele hacia abajo bajo la excusa del “cumplimiento de la ley”?
¿Quién gana cuando la frontera entre lo posible, lo legal y lo moral se disuelve en un gris que solo unos pocos tendrán poder para definir?
¿Realmente alguien cree que la IA militar va a pararse en un “no” si la ley no se lo impide de verdad? Aquí nadie está apostando al buen samaritano.
