Pentágono vs. Anthropic: ¿La guerra fría de la vigilancia digital?
A principios de 2024, en pleno siglo XXI, el Departamento de Defensa de EE. UU. se estrelló con Anthropic, una empresa de inteligencia artificial que no estaba dispuesta a que su IA Claude se convirtiera en la herramienta definitiva para espiar (a lo bestia) a los estadounidenses. El conflicto explotó con dos temas calientes: usar tecnología de inteligencia artificial para analizar datos comerciales a granel de ciudadanos y evitar que su IA alimentara sistemas letales sin control humano. Anthropic dijo “ni de coña” y se negaron a que su producto se usara para vigilancia masiva en el país — ni hablar de sistemas autónomos letales. Resultado: a los pocos días, el Pentágono etiquetó a Anthropic como un riesgo para la cadena de suministro, ¡un insulto solo reservado para compañías extranjeras peligrosas! Mientras, OpenAI, su rival, firmaba un acuerdo con el Pentágono con cláusulas genéricas para “todos los usos legales” de sus IA, lo que encendió alarmas inmediatas y protesta social (sí, la gente se bajó la app de ChatGPT en masa).
El CEO de OpenAI, Sam Altman, apenas frenó la crisis aclarando que su contrato se atiene a la ley actual que, según él, impide que el Departamento de Defensa practique vigilancia doméstica. Y que no permitirían que la NSA u otras agencias de inteligencia usaran sus sistemas para eso. Pero Dario Amodei, fundador de Anthropic, soltó una bomba: la ley está desfasada y no se ha actualizado para seguir el ritmo de lo que puede hacer la IA. ¿A quién creer? Lo que viene es un lío legal y ético mayúsculo.
El vacío legal: ¿puede la ley frenar la vigilancia de IA sobre ciudadanos?
Aquí está la trampa. La respuesta no es “sí” o “no”, sino todo un batiburrillo de regulaciones basadas en tecnologías y realidades de hace 40 o 50 años. La Cuarta Enmienda, por ejemplo, fue escrita cuando los únicos «registros» que requerían autorización eran probablemente papeles en cajones o escuchas telefónicas basadas en cable. Todo esto antes de que Internet explotara en nuestra vida cotidiana y los datos personales se convirtieran en un activo valiosísimo (y súper vulnerable).
Alan Rozenshtein, catedrático de Derecho en Minnesota, apunta directo al núcleo: mucho de lo que el público considera vigilancia (como analizar mensajes en redes sociales públicas o registros de cámaras de seguridad) no se considera “vigilancia” para efectos legales porque la información ya está ahí, visible o comprada de terceros. Y, sí, el gobierno puede adquirir bases de datos comerciales con localizaciones móviles, historiales de navegación y todo tipo de datos personales sin necesidad de orden judicial. El problema es que casi no hay límites realistas sobre qué pueden hacer luego con esa información.
No hay ni una ley clara ni un marco legislativo que se adapte al tsunami tecnológico que supone analizar millones o miles de millones de datos a la vez con herramientas de inteligencia artificial. Rozenshtein dice que la ley no ha alcanzado la realidad digital y la potencia de estos nuevos métodos, que pueden conjurar perfiles detalladísimos de individuos sin que ni siquiera ellos lo sospechen.
¿Surveillance AI? Más que simples ojos tecnológicos
La inteligencia artificial en manos del Pentágono puede agarrar fragmentos dispersos de datos —simplemente datos ordinarios que no están protegidos porque no son considerados sensibles por sí solos— y transformarlos en retratos hipercomplejos de individuos. Esa textura compleja, construida con montones de información aparentemente inocua, los expertos la llaman “superinteligencia de vigilancia”. Y funciona casi como magia negra para doblar la privacidad.
¿Qué puede esto hacer en la práctica? Para empezar, detectar patrones, relaciones, tendencias ocultas sin que haga falta un montaje explícito de vigilancia, orden judicial o siquiera sospecha fundada. Puede incluir desde patrones de compra, actividad en redes sociales, locaciones frecuentes, movimientos financieros, hasta interacciones y seguimientos digitales (todo sin intervención humana directa en muchos casos).
¿Y la ley? Estrictamente, mientras esos datos no sean recogidos ilegalmente (robados, interceptados sin permiso, etc.), el gobierno puede tratarlos como quiera. Ni la Constitución ni casi ninguna ley federal prohíbe analizar a fondo datos comprados comercialmente si tecnológicamente eso significa “hacer vigilancia”. En otras palabras, la ley peca de obsoleta (por decirlo de forma suave). Mientras los humanos entienden lo molesto y preocupante, el marco legal no lo ve como una violación.
Para qué quiere el Pentágono estos datos y para qué no
No todo es conspiranoia. Por difícil que suene, ciertas misiones requieren que unidades de defensa y contrainteligencia tengan que vigilar ciudadanos. Por ejemplo, si localizan a alguien que podría estar colaborando con un enemigo extranjero o planeando acciones terroristas. Loren Voss, exoficial de inteligencia militar, lo explica así: la vigilancia tiene sentido para temas bien concretos y específicos relacionados con la seguridad nacional.
Pero ahí también viene el gran problema: ¿dónde está el límite entre protección y espionaje masivo? Uno se pregunta si esa búsqueda legítima se transforma en un barrido indiscriminado de la población, porque con IA capaz de procesar una cantidad colosal de información, la frontera se diluye. O peor, que el gobierno aproveche esa capacidad para rastrear todo y a todos sin supervisión efectiva ni control público. La gente se pone nerviosa, y no sin razón.
¿OpenAI y Anthropic: guardianes o socios del espionaje?
OpenAI ha puesto en su contrato una cláusula que dice que su IA no será usada para vigilancia doméstica “intencionada” de personas americanas, incluyendo la adquisición deliberada de datos comerciales personales. Esto suena a salvar la cara, pero hay letra pequeña y vacíos enormes, como las posibles interpretaciones legales o “vigilancia inadvertida”.
Jessica Tillipman, profesora de derecho, no se traga el cuento: aunque OpenAI diga lo que quiera, a fin de cuentas, si el gobierno cree que algo es legal, lo usará. Y las compañías no van a poder frenar al Pentágono cuando la maquinaria se ponga en marcha. La pregunta real: ¿qué control tiene esta empresa sobre el uso real? Ninguno sólido.
Además, ¿qué pasa con la vigilancia de extranjeros dentro del país o inmigrantes sin papeles? Ese hueco legal ni se toca. OpenAI también promete “capas de seguridad” técnicas y empleados supervisando, pero no hay claridad sobre si esto pueda frenar lo que el Pentágono necesite realmente. Y ojo, darle a una empresa el poder de “desconectar” la tecnología en medio de operaciones militares tiene sus riesgos — nada deseable que un pulgar arriba o abajo privado paralice decisiones del ejército.
Anthropic, por su parte, quiere líneas rojas más duras y que sea el Congreso el que ponga reglas claras, no un intento de resolverlo entre bastidores ejecutivos y firmas de IA. Tiene sentido: quienes deberían decidir sobre vigilancia masiva somos todos, no un puñado de CEO hablando detrás de puertas cerradas.
¿El futuro se decide en el Congreso o en contratos opacos?
Por ahora, el uso de IA en defensa no está regido por leyes específicas nuevas, sino por contratos y acuerdos confidenciales con estas empresas tecnológicas. Y eso, siendo amable, es una broma pesada para una democracia. La legislación avanza a paso de tortuga, mientras la tecnología galopa a todo trapo dejando atrás los marcos jurídicos.
El senador Ron Wyden de Oregon, conocido por sus batallas a favor de la privacidad, está tratando de abrir la caja para que el Congreso establezca reglas claras que limiten la vigilancia masiva y el uso de IA para crear perfiles automáticos. Su iniciativa “Fourth Amendment Is Not For Sale Act” (La Cuarta Enmienda no se vende) pretende poner freno a que el gobierno compre y analice datos personales sin regulación clara, pero lleva años varada sin éxito.
¿Nos encaminamos a una lucha larga donde la privacidad quede en manos de contratos secretos y promesas vagas? Por ahora el panorama no solo es preocupante, sino que raya en la distopía. La potencia de la IA para vigilancia sin vigilancia (valga la redundancia) abre una brecha brutal entre lo que la gente cree que pasa y lo que puede estar pasando sin control real.
¿Y tú, hasta dónde dejarías que te espíen con IA?
La pregunta que queda flotando en todo este debate es tan sencilla como incómoda: ¿queremos que nuestro gobierno use toda la artillería digital para tenernos cuantificados al mínimo detalle con IA o preferimos poner límites claros, aunque cueste? No hablamos solo de miedo al Gran Hermano, sino de la realidad palpable de una sociedad donde el dato es poder y el poder tiende a corromperse.
Mientras los contratos sigilosos y acuerdos a medias engañan al público con frases genéricas sobre “usos legales”, las herramientas de IA pueden convertir un océano de perfiles digitales en un arma invisible pero potentísima de control social. ¿Seremos conscientes de ello antes de que sea demasiado tarde, o a la mayoría le va a importar un comino hasta que la vigilancia digital le toque de cerca?
Así que no te sorprendas si el Pentágono está mirando —muy de cerca— tus movimientos, gustos y patrones en las sombras tecnológicas. ¿Quién vigila al vigilante cuando el vigilante es un algoritmo con acceso a un billón de datos?
Artículos Relacionados
The Download: 10 things that matter in AI, plus Anthropic’s plan to sue the Pentagon
Más información sobre OpenAI’s “compromise” with the
Descubre the download: earth’s rumblings, and ai for strikes on iran
