¿Y este gráfico de AI por qué no deja de darnos sustos?
Desde marzo del año pasado, METR —que no es un aparato de medición cualquiera, sino una ONG dedicada a la evaluación y riesgos en IA, Model Evaluation & Threat Research para ser exactos— nos ha estado soltando un gráfico que más que tranquilizar, parece poner el termómetro en rojo en la comunidad tecnológica. Cada vez que salen a la palestra nuevos modelos de lenguaje grande (los queridos LLMs de OpenAI, Google o Anthropic), todo el mundo se queda en tensión esperando a que METR actualice esa curva que muestra no solo avances, sino un crecimiento exponencial en capacidades.
¿Ejemplos? El último bombazo fue Anthropic con su Claude Opus 4.5 a finales de noviembre. Según METR, este bicho puede hacer en un rato lo que a un humano le tomaría ¡cinco horas! Y ojo que estamos hablando de un salto no solo dentro de la tendencia exponencial sino por encima de ella. Ligeramente aterrador y delicioso para los fans del hype tecnológico, pero también inquietante porque si esta curva sigue así, la ventana de lo que los humanos dominamos empieza a estrecharse rápido.
Pero claro, no todo es tan simplón como parece en esa gráfica siniestra que amamos odiar. Los científicos detrás advierten que hay truquitos y particularidades en las pruebas, en los sets de datos y en las configuraciones del entrenamiento que hacen que la comparación cruda no sea tan justa. No es que estos modelos sean infalibles ni estén a punto de encargarse de todos los trabajos intelectuales del planeta en un abrir y cerrar de ojos, pero sí que muestran que la escalada es implacable y que la carrera armamentista en IA está en modo turbo.
Así que no, no es ciencia ficción ni alarmismo barato. Este gráfico es ahora un termómetro serio del progreso real en IA. Y lo que indica, por mucho que queramos negarlo, es que nos estamos jugando con una tecnología que no va a ser fácil de controlar o regular. No solo crece, sino acelera sin pausas.
La aceleración de la inteligencia artificial: ¿en qué punto estamos realmente?
Para meterle más contexto, hay que entender cómo funciona esta fiesta del AI escalando sin frenos. Estos últimos modelos no solo se mueven en más parámetros —sí, esas mareantes cantidades de neuronas digitales que les permiten «pensar» o simular conversaciones competentes— sino que también incorporan datasets gigantescos a los que solo un puñado de supermáquinas tiene acceso.
El gráfico de METR mide burda pero eficazmente cómo ha mejorado la capacidad para resolver tareas complejas que antes eran territorio exclusivo del razonamiento humano. Y créeme, la primera impresión es *inquietante*: tareas que alguien promedio resolvería en horas o días, el modelo las concluye en cuestión de minutos o segundos, y con un nivel de coherencia visible que rompe los estándares anteriores.
Claro, aquí aparece el “pero” inevitable. Cuando se desmenuzan las pruebas, se ve que esos «minutos» son en circunstancias muy específicas, con datasets que deliberadamente favorecen al modelo (sí, a veces un set filtradito para que brille) y con parámetros ajustados para que no falle. Pero incluso teniendo en cuenta eso, la tendencia sigue siendo alcista y, sobre todo, disruptiva.
Y esto trae un nuevo problema: el hype tecnológico y la presión por liberar versiones cada vez más potentes puede jugar en contra de la seguridad y ética en el despliegue. ¿Quién verifica realmente estas mejoras? ¿Dónde están los controles reales que frenen el desmadre si un modelo empieza a pensar por su cuenta en algo así como 30 segundos? Spoiler: no están ni se les espera (al menos no con la eficacia deseable).
Next-gen en energía nuclear: ¿otra carrera frenética o la solución real?
Cambiando de tercio, la energía nuclear vuelve a ponerse en el centro del debate tecnológico y ambiental, pero no con las viejas plantas que todos conocemos, sino con la Next-gen nuclear. MIT Technology Review organizó un Roundtable donde se mezclaron preguntas buenas, malas y feas sobre el futuro de esta energía, la relación con los centros de datos hyperscale (sí, esos monstruos que alimentan la IA) y la estabilidad de nuestras redes eléctricas.
Algunas preguntas que surgieron tenían sentido: ¿la próxima generación nuclear es segura? ¿Puede competir en costos con las renovables? ¿Es viable a tiempo para mitigar el cambio climático? La respuesta no es un sí o no simple. Aunque los reactores avanzados prometen ser más seguros, con menores residuos y capaces de usar combustible reciclado, el desafío sigue siendo gigantesco: burocracia, aceptación pública (spoiler, sigue siendo un gran no), y escalabilidad.
Un detalle interesante: con la explosión en demanda energética por la IA y esos data centers que no paran, la importancia de fuentes limpias, fiables y “a demanda” se ahonda. Las renovables son obligatorias, pero su intermitencia choca con la urgencia de un servicio estable, cosa que la nuclear puede suplir. Eso sí, no vas a montar un reactor de última generación en un par de meses, y más con los líos políticos y de regulación que arrastran.
¿Solución ideal? Una mezcla donde la nuclear avancé sin prisas pero sin pausa, conviviendo con renovables inteligentes y almacenamiento masivo. Mientras, los desafíos tecnológicos y sociales para aceptar esta transición aún son de aúpa.
Apple y el choque entre privacidad y seguridad: la escalada de Lockdown Mode
Apple jamás ha sido santo de devoción para los paranoicos por la privacidad, pero con su Lockdown Mode parece haber llegado un paso más allá. Se hizo famoso porque evitó que el FBI accediera al iPhone de una periodista (Hannah Natanson). Un modo “hardcore” para proteger datos que ahora muchos desearán tener siempre encendido.
Pero ojo, que esta es una espada de doble filo. La protección es efectiva “por ahora”, lo que algunos interpretan como un tiro de advertencia: con cada avance técnico, con cada loophole que se cierra, los gobiernos y agencias redoblan esfuerzos para buscar nuevas brechas.
Además, contra toda lógica, a pesar de bloquear el teléfono, accedieron al portátil. Esto demuestra lo frágiles que son las fronteras digitales personales y la complejidad de proteger datos al 100%. Que tu teléfono sea casi “inviolable” y tu laptop una puerta trasera abierta no es ninguna garantía.
Este episodio evidencia el problema: tecnologías de protección de datos avanzan, pero los ataques a la privacidad también migran y mutan. En un futuro cercano, la pelea será quién controla tus dispositivos, qué accesos se permiten y qué derechos tienes reales sobre tu info. No un problema menor en una era en que hasta las luces y los frigoríficos pueden ser espiados.
India y su apuesta multimillonaria por la IA: el nuevo jugador del tablero global
Mientras el mundo sigue tratando de entender cómo controlar la IA, India entra al ring con una estrategia clara: invertir miles de millones y ofrecer exenciones fiscales a 20 años para atraer inversiones en inteligencia artificial. No es solo por ambición económica; también quieren desarrollar su propia autonomía en IA para no depender de gigantes extranjeros.
Pero nada es gratis. Las condiciones laborales para entrenar estas máquinas son sombrías. Miles de moderadoras de contenido, mayoritariamente mujeres, están expuestas a horas y horas de contenido abusivo para alimentar los algoritmos. ¿Cuánto vale el esfuerzo humano detrás del entrenamiento de una IA? Mucho, pero nadie quiere mirarlo.
Además, se discute la regulación de redes sociales para menores y ponderar la independencia tecnológica: un balance complicado. India muestra que la carrera por la IA no es un lujo solo de EE.UU. y Europa, sino una competencia global donde surgirán nuevos pesos pesados. ¿El problema? Entre tanta urgencia por ganar terreno, los debates éticos y sociales quedan relegados. ¿Qué importa, si la IA es la nueva materia prima del poder?
Peligro real: millones de datos personales en datasets de IA abierta
Aquí va un bombazo que a nadie le gusta pero que debería ser gritado a los cuatro vientos: uno de los datasets de IA abiertos más grandes, DataComp CommonPool, tiene **cientos de millones** de imágenes personales con pasaportes, tarjetas, certificados de nacimiento y caras reconocibles. Esto salió en una auditoría que apenas revisó el 0.1% del total. La realidad completa asusta.
¿Consecuencias? Todo lo que subiéramos a internet alguna vez (sí, esa foto inocente que pusiste en tus redes) probablemente ya fue recolectada para entrenar máquinas que no conoces, no controlas y no supervisas. ¿Dónde quedó el derecho a la privacidad? ¿Alguien autorizó explícitamente ese uso? Ni para atrás, ni en broma.
Esta evidencia huele a potencial escándalo y a un tema sin resolver en la ética digital actual. Mientras legisladores y tecnólogos debaten, los datos personales se extrajeron, duplicaron y reutilizan con una facilidad pasmosa y sin casi ningún control. Una bomba de tiempo para la confianza en tecnología que potencialmente puede convertir cada identidad en un producto comercial.
Pero… ¿en serio estamos listos para todo esto?
Las noticias de hoy muestran dos caras de una misma moneda: por un lado, la **IA trepa escalas exponenciales que nos dejan sin aliento**, y con avances que superan expectativas (tal como Claude Opus 4.5); por otro, la infraestructura energética, social y ética que debería soportar estos desarrollos no termina de afianzarse, ni siquiera de arrancar.
La energía, la privacidad, la regulación de datos, las condiciones laborales y la competencia geopolítica se mezclan en una coctelera que huele más a crisis que a evolución ordenada. ¿Controlamos la tecnología o ella nos controla? ¿Estamos listos para dejar de jugar con fuego y empezar a pensar dos pasos más adelante? ¿O simplemente nos dejamos llevar por la inercia del progreso sin freno?
Por ahora, la única certeza es que la velocidad de la innovación a veces supera la capacidad humana para digerirla y gestionarla. Que el ritmo no pare… hasta que nos den razones para preocuparnos de verdad. ¿Estamos casi allí? A juzgar por el gráfico de METR y los legajos de millones de datos personales, parece que sí. Ojalá que no sea demasiado tarde para que el sentido común y la ética lo alcancen.
¿Y tú qué opinas? ¿Debe frenarse esta locura tecnológica o simplemente acostumbrarnos a sobrevivir en el futuro que ya llegó?
Artículos Relacionados
OpenAI’s latest product lets you vibe code science
Más información sobre The Download: US immigration
Descubre llms contain a lot of parameters. but what’s a parameter?
