¿Google y Adobe fabrican videos de la migra? Sí, y no es broma
El Departamento de Seguridad Nacional de Estados Unidos (DHS) anda últimamente experimentando con inteligencia artificial de empresas tecnológicas tipo Google y Adobe para fabricar y editar contenido audiovisual que luego lanza directo a las redes sociales. Esto no es un rumor ni ficción distópica, viene en documento oficial que salió a la luz el 29 de enero de 2026, listando detalladamente esas herramientas AI que DHS usa para desde esbozar documentos hasta manejar ciberseguridad. Lo llamativo aquí: mientras la administración Trump empuja una agenda agresiva de deportaciones masivas, las agencias de inmigración se han sumergido en la creación —más bien inundación— de videos para “vender” esa estrategia al público. Y parecen tirarle con todo, incluso con AI.
Y ojo, porque esta no es una movida aislada ni inocente. Compañías de primer nivel que prestaban sus servicios a estas agencias empiezan a cortar ties—por ejemplo el gigante francés Capgemini ya confirmó que, tras una sonada presión del gobierno y la opinión pública, dejaron de colaborar con ICE (Servicio de Inmigración y Control de Aduanas). Esto abre un interrogante feroz: ¿Queremos que las agencias encargadas de controlar fronteras usen inteligencia artificial para moldear la opinión pública? Las implicaciones de manipulación y propaganda están, como mínimo, en rojo.
La presión de los empleados de tecnología ha sido clave: empleados que trabajaban precisamente para estas compañías han exigido públicamente que se deslinden de un proyecto cuya ética muchos cuestionan. Claro, no es para menos. El uso del AI video generator para crear contenido que legitima operaciones que afectan vidas humanas severamente, cruzando una línea moral bastante peligrosa. Por eso la noticia no es tanto que el DHS use tecnología avanzada, sino que el activismo interno y público ya empieza a hacer mella en estas alianzas polémicas.
¿Vale la pena el “ahorro” y la eficiencia de producir montones de contenido con IA, si el costo ético es acabar legitimando políticas migratorias de mano dura? Tampoco es que Google y Adobe se estén partiendo el pecho, parece más la lógica fría y calculadora de gigantes tecnológicos buscando cómo expandir su influencia comercializando AI al gobierno. Así que el debate no está en el “si”, está en el “hasta dónde” y “por qué” y en cómo frenarlo.
Vitalism: cuando no solo quieres vivir más, sino que la muerte es un error
Hace unos años que viene llamando la atención una corriente que va más allá del típico discurso científico: el movimiento que se llama Vitalismo, no un resfriado filosófico sino una fiebre que levanta pasiones y lleva al siguiente nivel la obsesión por la longevidad.
Estos tipos (y no son pocos) creen que la muerte no solo es un accidente biológico inevitable, sino un problema ético fundamental que debe corregirse. Literalmente sostienen que morir es “moralmente incorrecto” y están dispuestos a no solo perseguir avances científicos que frenen o den marcha atrás al envejecimiento, sino que también mover influencias para cambiar leyes, abrir puertas regulatorias para el acceso a drogas experimentales que prolonguen la vida humana.
Esto no es un club de ancianos con batitas de laboratorio sino un movimiento que combina ciencia dura con activismo intenso y, lo que es más, empiezan a contagiar a figuras poderosas y políticas públicas. La tecnología que desarrollan para ralentizar el tiempo no busca únicamente resultados médicos, sino replantear el sentido social, la economía, inclusive las políticas de salud.
Ser parte del Vitalismo es tener la esperanza de que la ciencia no solo posponga la muerte sino que, en un futuro quizás no tan lejano, la anule como evento obligatorio que marca nuestra existencia. Es un giro radical en la forma de pensar la vida humana, con implicaciones profundas y controversiales: ¿qué pasa con los recursos, con la ética, con la población mundial cuando la vejez se vuelve simplemente una etapa reversible?
Así que mientras la ciencia avanzada se abre camino con terapias innovadoras, el Vitalismo no solo busca pista, está pisando fuerte en legislaciones y escenarios políticos. Y sí, esta mezcla de filosofía, longevidad y biohacking puede sonar como sacada de una novela cyberpunk, pero está pasando ahora y probablemente mucho más pronto de lo que sospechas.
¿La realidad o la ficción? El AI Hype Index y el ruido de la inteligencia artificial
Difícil distinguir qué es verdad y qué relato inflado a presión cuando se trata de inteligencia artificial. El “AI Hype Index” llegó para poner orden —o al menos intentarlo— con un resumen dinámico que revela dónde queda el hype y dónde comienza el impacto real (o el desastre).
Un dato que resalta: los chatbots y modelos de lenguaje, mucho rimbombantes, tienen sus días contados (OpenAI lo admite incluso con GPT-4o, que apenas tiene un 0.1% de usuarios activos). La gran mayoría corre hacia modelos más eficientes o especializados. Basta ver el nerviosismo en grandes empresas y gobiernos (como el Pentágono con Anthropic, que tiene preocupaciones sobre posible espionaje interno) para entender que la AI no está solo en manos juguetonas, sino que es un arma de doble filo que puede dar un paso de esperanza o jodernos a todos.
Pero la historia no se detiene en grandes instituciones, porque también hay errores graves y abusos: una empresa de juguetes AI (sí, juguetes que hablan con niños) tuvo sus chats expuestos a cualquiera con una cuenta Gmail. Ni hacking ni qué, acceso simple. Mientras tanto, China avanza con su respaldo oficial para llevar la medicina tradicional china a la era de la AI, y la carrera por la Luna no se queda atrás, con potencias compitiendo ferozmente.
La suma de noticias deja claro que la inteligencia artificial está revolucionando campos muy dispares, pero también que la falta de regulaciones estrictas, la tentación de usar AI para manipular, y la voracidad por liderar la innovación pueden traducirse en un escenario caótico o tóxico.
¿Por qué la tecnología militar está en guerra con Anthropic y otras IA?
Parece que ni el Pentágono puede domar esta bestia de la inteligencia artificial. Anthropic, una de las firmas más punteras de AI, está choco con el Departamento de Defensa estadounidense porque el primero teme que sus herramientas puedan ser convertidas en instrumentos de vigilancia masiva contra ciudadanos estadounidenses.
Es decir, que el Ejército quiere AI para espiar, recopilar y analizar datos dentro de Estados Unidos y no precisamente para mejorar la seguridad de civil a civil… Esto queda lejos del clásico ideal de innovación para “el bien común” y suena más a “te seguimos y controlamos”.
El problema con Anthropic es que tiene algo que se llama enfoque ético en el desarrollo AI. Y poner eso frente a las demandas de inteligencia militar es como intentar mezclar aceite y agua.
La situación refleja un foco de tensión grande: la AI crece rápido y no hay suficiente consenso o regulación sobre límites morales entre el sector privado, el público, y el militar. El riesgo que corremos es una carrera donde gana el que menos escrúpulos tenga para usar esta tecnología, dejando atrás debates sobre privacidad, derechos humanos y consecuencias imprevisibles.
¿Terapia con ChatGPT? Los dilemas de usar AI en la salud mental
Esto parece una escena sacada de una película negra: un paciente en sesión con su terapeuta descubre por accidente (problemas de conexión) que el profesional está usando ChatGPT para generar respuestas en tiempo real. Y no solo lo hace, sino que el pobre cliente “recibe” recomendaciones y análisis generados por una máquina, sin saberlo jamás.
Hay quienes defienden la ayuda que AI puede brindar en salud mental por su accesibilidad y rapidez, pero ¿y el costo en privacidad, confianza y la simple empatía?
Clientes que reciben estas respuestas sintéticas sienten una ruptura en el vínculo terapéutico: es una traición de la confianza que debería ser sagrada. En un tema tan delicado como la salud mental, lo artificial no debería reemplazar la humanidad.
Y hay un tema técnico que pocos comentan: ¿hasta dónde puede un modelo AI entender matices emocionales profundos, o simplemente responde con las últimas palabras clave? Lo que debería ser un espacio seguro se transforma en un experimento de laboratorio, donde los pacientes se convierten en conejillos sin estar informados.
Esto no quiere decir que la tecnología no pueda aportar, solo que estamos al borde de una línea muy fina donde la ética y el cuidado humano pueden perder si se hace mal el balance.
¿Un futuro con SpaceX, Tesla y xAI fusionados? Elon Musk sigue dando que hablar
Elon Musk, ese eterno experto en hacer ruido y levantar hype (más de uno diría que para despistar), está cocinando un posible bombazo: la fusión de SpaceX con su compañía de inteligencia artificial xAI y tal vez Tesla también en la mezcla. La operación se baraja para este año y promete ser un blockbuster.
Si se concreta un movimiento así, estaríamos ante una superpotencia tecnológica con capacidad de abarcar desde la exploración espacial hasta la AI más avanzada y vehículos eléctricos. ¿La intención? Todavía en nebulosa, pero Musk nunca tarda en sorprender al mercado, para bien o para mal.
¿Un sueño de nerds o una jugada maestra para dominar múltiples sectores tech? Depende de la perspectiva. El fanático de Musk lo ve como el siguiente paso lógico para “ir a la luna” —literalmente—, mientras el escéptico pregunta: ¿no sería esta concentración de poder un riesgo enorme sin controles transparentes?
Lo que es seguro es que la IPO (oferta pública inicial) que planea tendrá a Wall Street y a Silicon Valley más atentos que nunca. Porque si alguien sabe manejar el show y la tecnología, ese es Musk.
¿Qué huele en el pasado? IA para recrear aromas históricos
Un final inesperado y curioso: ¿te imaginas que la inteligencia artificial ayude a olfatear la historia? Científicos están estudiando con AI cómo recrear los aromas de épocas pasadas, desde momias hasta campos de batalla.
Más allá del detalle curioso y casi poético, esto abre un nuevo campo para la investigación histórica y arqueológica, dándole horarios olfativos a los registros que hasta ahora solo podían ser textos o imágenes.
Esta aplicación de AI, además de entretenimiento, puede mejorar la experiencia educativa y cultural, haciendo la historia más palpable y multisensorial. Así que quizá pronto una exposición en un museo no solo te mostrará cómo era un guerrero romano, sino cómo olía su campamento.
¿Beauty tech? ¿Ciencia inútil? Puede que las dos. Pero este tipo de experimentos es de los que sacan lo mejor que el AI puede ofrecer: expandir el sentido humano y no solo repetir códigos o videos.
El pulso de la tecnología hoy no está en la comodidad ni en la neutralidad. Está en la batalla entre ética y poder, humanidad y algoritmo, rareza y utilidad. ¿Nos vamos a dejar seducir por videos de la migra hechos por AI? ¿Olvidaremos la humanidad en terapias que escupen respuestas automáticas? ¿O vamos a pelear para que la tecnología sirva a lo mejor de nosotros, en vez de convertirnos en otra línea de código fácil de apagar? Tú decides.
Artículos Relacionados
OpenAI’s latest product lets you vibe code science
Más información sobre CES showed me why
Descubre llms contain a lot of parameters. but what’s a parameter?
