¿OpenAI jugando a ser la inteligencia del Pentágono?
Que OpenAI haya firmado un acuerdo con el Pentágono no es noticia de chiste. Marzo 2026, la IA de OpenAI abre la puerta a que el departamento militar estadounidense la use para algo más que analizar datos: hablamos de integrar sus modelos en la elección de objetivos de ataque. Sí, tal cual suena. Un oficial de defensa dejó caer que esta IA podría ayudar a decidir dónde soltar la metralla. Y no es solo teoría, la alianza con Anduril —la empresa que fabrica drones y sistemas anti-drones— es la pista más clara de lo que viene.
Una cosa es que las máquinas analicen, otra muy distinta es que empiecen a influenciar decisiones tácticas en el campo de batalla, más aún cuando hablamos de Irán como escenario piloto. ¿De verdad queremos que “Grok” (el nombre del modelo de OpenAI para uso militar) decida sobre objetivos letales? Y para colmo, todo esto sucede cuando… la sociedad y los propios empleados de OpenAI se muestran claramente incómodos con la militarización de su trabajo. Porque no es un juego de “HODL” para ellos, sino una línea moral delicadísima.
Tampoco estamos ante una simple moda tecnológica, la presión para integrar esta inteligencia artificial con herramientas militares ya existentes es real y pesada. El salto de un asistente de texto a un árbitro en operaciones bélicas va más allá de ciencia ficción: se está testeando en un escenario hiperreal y complejo. Lo que plantea preguntas que, de entrada, ningún fanboy de la IA querrá enfrentar.
El lado oscuro de Grok: la demanda por material ilegal generado por IA
Te dejo este dato para que te retuerzas un poco: xAI, la empresa tras Grok, enfrenta una demanda súper grave. Resulta que su IA habría sido usada para generar material de abuso sexual infantil (CSAM) falso, con deepfakes pornográficos hechos a partir de fotos de personas reales. Sí, un mercado negro de pornografía sintética está explotando, y Grok parece estar en el epicentro.
No es el típico “vale, una cosa más” en la lista negra de problemas éticos. Estamos hablando de una crisis candente, con víctimas reales denunciando que la tecnología fue diseñada (y mal utilizada) para producir contenido que no solo es ilegal, sino espeluznante. No es una filtración accidental, porque el mercado de deepfake porno es gigantesco y crece sin control, algo que alertan expertos y reportan fuentes como MIT Technology Review.
La bala de plata: la inteligencia generativa vino a revolucionarlo todo, pero sin controles sólidos, se convierte en el arma perfecta para horrores digitales. Y mientras el mundo debate si puede regular estas creaciones, empresas como xAI están en la mira por no controlar el monstruo que despertaron.
China marcando territorio: el primer chip cerebral comercial
Aquí viene la bomba tecnológica que hace que mucha gente en occidente se muerda las uñas. China acaba de aprobar para uso comercial el primer chip cerebral del mundo, aprobado para tratar la parálisis. Esto es del 17 de marzo, y la noticia —que parece sacada de una peli de ciencia ficción— está en Nature, nada menos.
BCI (interfaz cerebro-computadora) avanza a pasos de gigante. Ya no solo es ciencia de laboratorio o prototipos raros. Estos chips están llegando al mercado con aplicaciones médicas reales y generativas AI ayudando a calibrar y personalizar el tratamiento. Miramos con escepticismo al progreso occidental que va más despacio y con más siglas legales, pero China avanza sin pedir permiso.
Claro, es un win-win para empresas y gobiernos: desde el tratamiento de discapacidades hasta el “potencial” para aumentos cognitivos o controles neurológicos. Es la puerta hacia una fusión hombre-máquina cada vez más real. Lo inquietante es que surgen dudas sobre qué grado de autonomía tendrá esta tecnología y quién la regulará para evitar abusos o espionaje mental. Más vale estar atentos, porque esta carrera va de cabeza a transformar lo que significa ser humano.
Cuando las empresas de IA se ponen paranoicas: Anthropic y su reclutamiento insólito
Mientras OpenAI se lanza con la milicia y xAI se mete en líos judiciales, Anthropic da un giro oscuro: están contratando a un experto en armas químicas y defensa contra explosivos. ¿Un contraataque? ¿Previendo que su IA pueda ser usada para “catástrofes”? Algo así. La compañía no quiere que su inteligencia artificial se convierta en una bomba de relojería.
Pero ojo, que la relación con la Casa Blanca les está yendo horrible. Con acusaciones de falta de control y miedo a potenciales desastres, Anthropic se ve forzada a blindarse. Reclutar a un especialista en armas químicas para prevenir mal uso suena a que andan con el pie en el freno, ante un posible cohete sin control de la IA.
Esto nos lleva a una pregunta incómoda: ¿hasta qué punto controlamos la tecnología que desarrollamos? Cuando una empresa tecnológica gigante teme que su propia creación se use para destruir, ya no es ciencia ficción, es un reflejo directo de la desconfianza y paranoia crecientes en el sector AI.
Nvidia: “Nos vamos a la luna” con chips de IA, pero Wall Street no se lo traga
Si alguien está frotándose las manos con el boom de la IA son los fabricantes de chips. Nvidia predice nada menos que un billón de dólares en ingresos por chips de inteligencia artificial para finales de 2027. Brutal. Han firmado con Bolt para fabricar robotaxis europeos y expandir su dominio.
Sin embargo, la lógica fría de Wall Street no se rinde tan fácilmente. El pronóstico ultra-optimista de Nvidia no impresionó demasiado a los inversores, que sospechan de hype inflado o complicaciones a largo plazo. ¿Vale todo este crecimiento para mantener la burbuja viva o realmente estamos ante el despegue definitivo?
Lo interesante es que el CEO de Nvidia, Jensen Huang, habla de una “inferencia” que ha llegado: el momento donde el uso de la IA crece más rápido que el desarrollo de nuevos modelos. Está diciendo que la demanda masiva está aquí, y que la carrera tecnológica es ya de adopción y aplicación, no solo de descubrir nuevas fórmulas.
Pero ese frenazo en bolsa muestra que, pese a las promesas, el mercado no quiere que se le vendan soluciones mágicas sin respaldo sólido.
El impacto invisible (y caótico) de la IA en la justicia y la política
¿Creías que la IA solo revoluciona lo técnico y militar? No. Desde tribunales hasta escenarios políticos, las consecuencias se sienten fuerte y claro. Un testigo en juicio fue pillado usando smartglasses para recibir ayuda legal en tiempo real de ChatGPT. Sí, parecía sacado de “Black Mirror”, pero fue real.
Y no es un caso aislado: la IA está infiltrándose en los procedimientos legales creando errores. La dependencia en consejos automatizados sin la supervisión adecuada puede provocar fallos judiciales (y cuando hablamos de justicia, ningún margen de error es tolerable). Esa “comodidad” tecnológica tiene un precio que aún no dimensionamos.
Por otro lado, la política estadounidense también sufre divisiones profundas. Trump, como siempre, sacudió el avispero generando tensiones dentro de los republicanos con sus posturas sobre la IA, las cuales ayudaron a tumbar una importante ley de regulación en Florida. Ah, y encima volvió a caer en la trampa de un video falso generado por IA, dejándonos claro que ni siquiera los políticos mayores pueden darse el lujo de ignorar esta tecnología.
Sumamos a eso el absurdo de rumores conspirativos: algunos piensan que Benjamin Netanyahu es un clon de IA. Sí, la desinformación generada por la inteligencia artificial no solo amplifica fake news… las hace infinitas y difíciles de controlar. Este cóctel caótico se siente en redes y medios, y anticipa un futuro digital aún más tóxico.
El héroe inesperado de la guerra de drones ucraniana
Terminamos con una historia que parece salida de un videojuego, pero es pura realidad. Serhii “Flash” Beskrestnov, un civil obsesionado con la radio, se ha convertido en un espía improvisado para Ucrania. Equipado con un VW van lleno de antenas y hardware, mensualmente se planta junto al frente para interceptar las comunicaciones de drones enemigos.
Este tipo no es un súper soldado con gadgets de ciencia ficción, sino un tipo real, usando obsesión por las radios y tecnología para escuchar y decodificar en tiempo real lo que pasa allá arriba, en el cielo de una guerra donde los drones son parte esencial de la batalla. Su aporte a la defensa ucraniana ya tiene seguidores contando más de 127,000 en redes sociales, entre soldados y oficiales.
La bomba: aunque es civil, ha ganado fans dentro del ejército pero también críticas de mandos superiores. ¿Una especie de “espía reclutado por redes sociales”? Esta historia refleja cómo en los conflictos modernos lo tecnológico y lo humano se mezclan de formas imprevisibles, y cómo la guerra de drones es un ecosistema que depende mucho más de la información que del fuego directo.
¿En serio, tecnología? Aquí huele a apocalipsis o revolución
Volando entre chips cerebrales y demandas legales por pornografía sintética, con la IA decidiendo dónde caerán bombas reales y civiles que se vuelven espías radioaficionados, la escena tech es todo menos aburrida. Los avances impresionan, sí, pero el coste ético y social es gigantesco.
Mientras algunos paladines de la innovación anuncian un futuro en el que la IA es la gran salvadora, otros ya levantan la bandera roja: ¿hemos pensado bien a dónde lleva todo esto? Porque que OpenAI le venda al ejército y xAI enfrente demandas por CSAM no puede ser solo mala suerte, es indicativo de los problemas para los que nadie tiene aún respuestas claras.
El debate se arremolina en torno a cuestiones que no solo impactan a geeks y programadores, sino a gobiernos, ciudadanos y nuestras propias decisiones morales. ¿Podemos seguir jugando con fuego a esta escala sin quemarnos todos? Ahí lo dejo, ¿tú qué opinas?
Artículos Relacionados
Where OpenAI’s technology could show up in Iran
Más información sobre Nurturing agentic AI beyond
Descubre future ai chips could be built on glass
