¿Pero qué demonios pasa con Anthropic y el Pentágono en 2026?

Abril 2026, White House y Anthropic en modo “tira y afloja”: por un lado, la Casa Blanca mantiene en la lista negra al desarrollador de IA, pero por otro, quiere su modelo Mythos para uso oficial. ¿Cómo se come eso? Resulta que Anthropic soltó Mythos hace poco, pero según ellos es “demasiado peligroso para una liberación pública”. No es que lo digan por antipáticos, sino que el modelo tendría un nivel de riesgo que hasta los ministros de finanzas ya están sudando frío por las cuestiones de seguridad. (BBC y Bloomberg han cubierto este despelote).

Mientras tanto, la Administración Trump del pasado parece haber dejado una impronta con una cultura confrontativa hacia Anthropic, una especie de guerra fría tecnológica que ahora el Pentágono continúa. Y ojo, Anthropic acaba de sacar otro modelo menos arriesgado, lanzado bajo advertencias de seguridad y control. Pero la jugada real está en la negociación tras bambalinas para acceder a Mythos; ni los insiders entienden bien si es paranoia o genialidad estratégica.

No es solo un problema de tecnología, es política, seguridad y economía entrelazadas. ¿Realmente vale la pena meter un sistema “demasiado peligroso” en la cima militar cuando las peores consecuencias pueden ser imprevisibles? Aquí el riesgo no es solo técnico: es quién controla la narrativa y quién pone las reglas de juego para la IA que decide potencialmente sobre vidas humanas. ¿Te imaginas? Que un algoritmo de “alto riesgo” controle acciones en la guerra o la inteligencia y el gobierno andan negociando bilateralmente, casi en modo “confía pero verifica”.

Mientras los jefazos del Departamento de Defensa sueñan con armas selectivas y automatizadas, la realidad choca: Mythos tiene un perfil que asusta incluso a los que lo desarrollaron. Un arma de doble filo, porque controlarlo es una pinchada en una nube de incertidumbre.

La falacia de tener «humanos en el loop» en la guerra de IA

Vamos directos a una bomba conceptual: el Pentágono insiste en que sus operaciones de IA deben tener a un humano supervisando —el famoso “humano en el loop”— para mantener responsabilidad y contexto.

¿Crees que eso significa que los humanos entienden qué está haciendo la máquina? Olvídalo.

Según Uri Maoz, experto en el tema, la idea de que los humanos realmente entiendan y controlen las decisiones en tiempo real de una IA bélica es pura ilusión. Es un consuelo para los que no quieren admitir que el control se está yendo de las manos y que las máquinas “piensan” en formas que somos incapaces de captar o predecir.

¿Por qué? Porque el entramado algorítmico, las redes neuronales y las miles de variables se vuelven negros para el ojo humano, incluso para quienes programan o supervisan. Un operador humano es casi un espectador sin guion ni entender el backstage.

Claramente, esto no significa que la IA vaya a disparar sin permiso, pero sí que el “permiso” humano pueda ser una formalidad sin comprensión real. La consecuencia, más que un «bypass», es un vacío de responsabilidad y un enorme hueco legal y ético.

Por suerte, la ciencia no se queda quieta: hay propuestas sobre nuevas salvaguardas y protocolos para entender lo que esas máquinas “piensan”, cómo evalúan riesgos y cómo adaptar la supervisión humana de forma efectiva. Aunque, si me preguntas, no es lo mismo saber que manipular en el fragor de la guerra.

La genética que manda: la farsa del “Neandertal interior”

Seguro que has escuchado el rollo de que llevamos un “Neandertal” dentro, ese genoma trasvenoso que nos haría primos lejanos e impredecibles a la vez. ¿Quién no se ha sentido primitivo alguna vez en una discusión o corriendo detrás del bus?

Pues resulta que dos genetistas franceses le dieron al teorema un garrotazo en 2024. Argumentaron que lo que llamamos genes Neandertales podría no ser un legado por cruzamientos, sino una señal distorsionada provocada por la estructura de la población humana antigua —grupos pequeños, aislados, genes concentrándose localmente—, que la ciencia interpretó erróneamente como interbreeding entre sapiens y neandertales.

Este detalle es mucho más que una nimiedad: cambia cómo entendemos nuestra evolución, la plasticidad de la especie y la narrativa del origen humano. No estamos hablando de una “raza mezclada” sino de un entramado mucho más sutil e impredecible en la dispersión génica. Lo que creímos un cuento de aventuras entre especies, quizás fue un rompecabezas demográfico y poblacional más complejo.

Esto hace que la narrativa del “Neandertal interior” sea un romántico mito y también alerta sobre cómo podemos hacernos trampas con las interpretaciones científicas para crear historias que, aunque venden bien, no siempre son exactas.

La dependencia militar en Starlink y el problemón de las infraestructuras

“El cielo no es el límite”; parece que el Pentágono lo tomó literal al confiar en Starlink para sus pruebas militares con drones. En 2026, un corte en el servicio de Starlink durante una prueba comprometió la operación naval, evidenciando una dependencia tecnológica arriesgada y con puntos débiles evidentes.

Cuando un sistema satelital privado se vuelve la columna vertebral de maniobras bélicas, entra el juego la vulnerabilidad frente a caídas o sabotajes. ¿Qué pasa cuando un sector tan estratégico depende de la infraestructura del sector privado, moneda en mano? Que la confiabilidad se pone en duda.

Esta dependencia también lleva a que las grandes automotrices Ford y GM entren por la puerta lateral en innovación militar, probando tecnologías híbridas que mezclan producción civil y defensa. El DoD anda buscando aprovechar no solo la capacidad tecnocrática, sino todo lo que pueda empujar la frontera tecnológica desde varias industrias simultáneamente.

Pero el problema es más profundo: los datos y centros de procesamiento están atrasados, retrasando proyectos cruciales de IA hasta un 40% este año. No es solo falta de inversión; es que nadie quiere tener un centro de datos gigantesco y ruidoso en su vecindario, dando dolores de cabeza y amenazas de seguridad. Una mezcla explosiva.

Modelos de IA globales: Mythos, Happy Oyster y el avance (y limitaciones) de la comprensión física

Alibaba lanzó Happy Oyster, su modelo IA con la intención de extender la comprensión del mundo físico por parte de las máquinas. Un paso necesario para que los sistemas no se queden solo en patrones digitales sino que empiecen a “entender” causas y efectos reales. Claro, todavía es poco más que una promesa con pies de barro: los modelos aún saltan cuando se trata de verdadera causalidad y razonamiento.

Google no se queda atrás y con Gemini apunta a que la IA nos genere imágenes propias y personalizadas gracias a la recolección y análisis fino de datos del usuario, supuestamente para ahorrarnos el curro de dar indicaciones detalladas. Y aunque suena a chapuza a la carta, puede abrir puertas muy turbias respecto a la privacidad y el uso intensivo de nuestros datos personales.

OpenAI, por su parte, actualiza Codex para entrar de lleno a competir con Claude Code en la arena de programación automática. Pero ojo, no todos están convencidos de que la IA vaya a ser la savia nueva definitiva en codificación ni de que vaya a destronar a los humanos desarrolladores en un futuro próximo.

En esencia, estamos viendo un juego de avances y limitaciones que marcarán qué tan rápido y bien la IA se integra en aspectos con consecuencias reales, como la seguridad y la creatividad técnica.

La batalla ética y laboral tras la voz humana: actores contra Hollywood y la IA

Globos o balas: los actores de doblaje están en pie de guerra contra la industria que, sin pestañear, está entrenando modelos IA con sus voces para reemplazarlos poco a poco. Hollywood lanza las redes y las voces reales que alguna vez dieron vida ahora forman parte de un conjunto de datos para imitadores artificiales.

¿La consecuencia? Más trabajo perdido y un dilema ético brutal sobre quién tiene derecho a usar la voz, el arte, y la imagen. ¿Consentimiento? ¿Pago justo? Todo un tema que se está cocinando mientras el avance tecnológico dispara las balas (metafóricas) contra el bolsillo de muchos profesionales.

Una revolución silenciosa pero implacable que está cambiando el ecosistema laboral y cultural en una industria que se adapta (o no) al poder de la automatización. El control va sobre lo cuestionable: ¿hasta qué punto la tecnología debe invadir la identidad humana y capitalizarla?

Las tierras raras que determinan tu futuro tecnológico y energético

Para cerrar este embrollo, prefiero dejar una nota del tamaño que merece: los elementos raros, esos metales poco glamorosos encargados de hacer posible todo desde baterías a chips, están en el centro de una lucha geopolítica que bien podría determinar si el mundo avanza hacia energías limpias o sigue atascado en las fósiles.

China domina el mercado, como el pez más grande en el estanque, mientras Estados Unidos y otros buscan fuentes no convencionales para no depender tanto. Científicos y empresas exprimen ideas nuevas, pero no es tarea fácil. La extracción es sucia, compleja y lleva años de inversión.

Así que detrás del hablar de IA, modelos y guerra hay un telón oscuro de minerales que la mayoría ni considera, pero que será la verdadera pelea por sobrevivir y dominar el futuro.

¿Quién controla la IA? ¿Podremos alguna vez entenderla o solo seremos sus marionetas de silicio? Porque entre armas autónomas que ni entendemos, negociaciones absurdas contra un modelo peligroso y actores que luchan por mantener sus voces, parece que la tecnología avanza mientras nosotros corremos para no quedarnos atrás, confundidos y medio dormidos. ¿Y tú, qué opinas? ¿Estamos jugando con fuego o simplemente haciendo historia?

Artículos Relacionados

Por Helguera

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *