OpenAI va a por todas: un investigador AI autónomo para 2028
En septiembre de 2026, OpenAI planea lanzar lo que llama un «interno de investigación autónomo», un sistema basado en agentes que pueda abordar un pequeño conjunto de problemas de investigación sin depender casi nada de supervisión humana. ¿Hasta ahí todo bien? Pero no se quedan en eso: la vista está puesta en 2028, cuando pretenden tener listo un sistema multiagente totalmente automatizado capaz de asumir retos científicos y de política pública “demasiado complejos o extensos para humanos”. Sí, hablamos de un equipo de IA que se apañe solo para tres o cuatro tareas complejas, desmenuzando problemas en matemáticas, física, biología, química, negocios y más. Casi un laboratorio de investigación metido en un data center. Jakub Pachocki, el cerebro científico detrás de la movida en OpenAI, no se corta al hablar del tema. Este tipo, que ayudó a crear GPT-4 y la arquitectura de “modelos de razonamiento” que permiten entender procesos largos y ramificados, asegura que están a punto de conseguir modelos capaces de funcionar indefinidamente de forma coherente, imitando a los humanos. Claro, siempre con alguien marcando la dirección, no vaya a ser que el sistema empiece a perrear solo.
Y aquí viene lo jugoso: esta apuesta no es una ocurrencia loca sino la nueva «Estrella del Norte» de OpenAI, la prioridad que realinea años de trabajo y varios frentes de investigación, desde la interpretabilidad de modelos hasta los agentes autónomos. Con los frenones a fondo, buscan que este sistema sea lo suficientemente flexible para que funcione con cualquier problema que se pueda expresar en texto, código o dibujos en una pizarra. Literalmente, que pueda chapar cualquier yerbajo mental del mundo real. ¿Una fantasía technoliloca o la nueva realidad que nos espera?
Codex y su evolución: la prueba de fuego para la autonomía
¿Recuerdas Codex? Lanzado en enero de 2026, es un “app agente” que genera código sobre la marcha para ejecutar tareas variadas — desde analizar documentos hasta crear gráficos o organizar tu desorden de inbox y redes sociales. OpenAI se jacta de que la mayoría de sus ingenieros ya no imaginan sus jornadas sin Codex, un indicio fuerte de que esta tecnología ha dejado de ser un experimento para convertirse en una herramienta de trabajo real. Para Pachocki, Codex es la «versión beta» del futuro investigador AI: por ahora, se limita a tareas de programación, pero con un poco más de músculo estará listo para abordar problemas científicos complejos sin supervisión.
¿El gran escollo? Este sistema debe poder funcionar durante largos periodos sin que un humano ponga gasolina moral a la máquina cada diez minutos. Lo que Pachocki denomina «sistemas que puedan correr indefinidamente y coherentemente». Eso implica una serie de mejoras técnicas: desde modelos que se corrigen solos si se confunden, que puedan dividir un problema gigante en subtareas manejables, hasta controlar multitudes de agentes que trabajen en paralelo. Así, un investigador automatizado no solo codificaría, sino que razonaría, planificaría y ejecutaría proyectos delicados. Solo faltaría ver cómo estos “ingenieros de IA” se coordinan sin pisarse el acelerador.
Por supuesto, tienen competencia seria. Google DeepMind y Anthropic también piden pista, con estrategias parecidas y modelos de razonamiento a prueba de balas. Pero nadie puede negar que OpenAI lleva años marcando ritmo con sus impulsos tecnológicos, creando ecosistemas donde cientos de millones de usuarios conviven con sus modelos, y ahora quieren escalar esa influencia al terreno de la innovación científica pura.
¿Pero qué tan realidad es esto? Las dudas del mundo académico
El hype está ahí, pero varios expertos ponen las manos en la masa con escepticismo. Doug Downey, del Instituto Allen para IA, ve el concepto de investigador automatizado súper interesante y prometedor, pero advierte que llegar a un sistema capaz de encadenar múltiples tareas complejas sin errores todavía es un enorme desafío. En pruebas recientes, aunque GPT-5 (la base de Codex) lideró, seguía cometiendo errores a lo largo de cadenas de tareas sucesivas—y eso cuando hablamos de modelos de última generación, no de versiones anteriores.
También hay otro detalle para no perder de vista: la utilidad real depende mucho de cómo los humanos prefieren trabajar. Como anécdota, Pachocki mismo no usaba autocompletado ni herramientas de IA para programar hace apenas un año, porque es un maniático del control y prefería teclear todo a mano (¡en Vim, no en cualquier editor de pacotilla!). Pero cambió de opinión cuando vio que puede hacer en un fin de semana lo que antes le llevaba una semana entera. Eso no quiere decir que le suelte el control total a la IA todavía, pero al menos es una señal de que el cambio va en serio.
Movilizar toda esa potencia para resolver problemas fuera de la programación pura —pensemos en matemáticas duras, biología, química— es la frontera que Pachocki quiere cruzar con Codex 2.0 o 3.0. No se trata solo de ganar competiciones de matemáticas, sino de lograr un genuino «asesor científico digital» que pueda recomendar pruebas, hipótesis, modelos, o incluso experimentos imaginativos en un par de tardes (o menos).
Riesgos de un jugador tan poderoso: ¿quién controla al controlador?
¿Y la parte oscura? OpenAI es consciente de que poner en marcha un sistema que pueda ejecutar programas de investigación larguísimos sin supervisión directa abre la caja de Pandora. Pachocki lo dice clarito: pueden surgir problemas serios. Ya no hablamos solo del clásico “se salió de control”, sino de hackeos, malinterpretaciones de instrucciones o incluso un sistema que pueda desarrollar sin querer soluciones “peligrosas” o dañinas.
La fórmula que están usando para mantener el control es la llamada “monitorización de cadena de pensamiento” o chain-of-thought monitoring. Bajar a la sala de máquinas para revisar paso a paso cómo y por qué la IA llega a ciertas conclusiones, vigilando esas notas internas en un “cuaderno de garabatos” que el modelo va generando mientras trabaja, es la manera de detectar y corregir a tiempo cualquier comportamiento raro antes de que se salga de madre.
Aún así, Pachocki advierte que los modelos son negros misteriosos para nosotros. No existe una fórmula mágica para controlarlos al 100%. Lo sensato es mantenerlos en jaulas digitales (sandboxing), limitando su acceso a recursos sensibles y evitando herramientas que pudieran usar para causar daños a gran escala. Y aquí entran en juego escenarios de ciencia ficción pero muy reales desde el punto de vista de amenazas: IA generando ciberataques inéditos o hasta diseñando patógenos sintéticos. Nada que asuste a un guionista, pero abrir ojo, que no es broma.
Un poder sinsentido, pero con consecuencias gigantes
El poder de un solo data center con un investigador AI capaz de hacer el trabajo de grandes organizaciones humanas genera un dilema ético y político tremendamente gigante. Pachocki no evade la responsabilidad. Reconoce que esa concentración de poder tecnológico “extremadamente sin precedentes” abre desafíos enormes para gobiernos y normativas. Quién debe regular estos desarrollos, cómo evitar abusos o monopolios ultrapotentes es un terreno pantanoso más que nunca.
¿A quién le interesa que estos avances queden solo en manos de unos pocos? Ya viste la pelea pública entre Anthropic y el Pentágono, con OpenAI finalmente firmando su propio acuerdo militar mientras escalan tensiones sobre el uso ético de IA en el campo de batalla. Hasta ahora no hay consenso ni reglas claras. Y como Pachocki mismo confiesa, la solución va más allá de los gurús tecnológicos: requiere una coalición con políticos, reguladores y la sociedad para trazar redlines reales.
¿Se imaginan? Lo que antes exigía ejércitos enteros o equipos gigantescos, a partir de ahora podría hacerlo un par de operadores en un centro de datos con acceso a sistemas hiperinteligentes. La distribución y vigilancia de ese poder va a definir el juego en la próxima década, o quizás antes.
La obsesión de OpenAI: no la AGI, sino la “tecnología económica transformadora”
Pachocki evita entrar en fanatismos AGI (inteligencia artificial general) como el nirvana tecnológico que muchos esperan. Para él, esos términos ya están quemados y difusos. En vez de perseguir un robot que iguale un cerebro humano en todos los sentidos, el foco está en lograr una “tecnología económica transformadora”. Algo que, aunque no sea tan versátil ni inteligente en todos sus aspectos como una persona, cambie radicalmente la forma en que se desarrollan las tareas cognitivas.
Y ahí está la madre del cordero: los modelos de lenguaje no son cerebro humano, solo simulan algunos patrones —sobre todo lenguaje— gracias a enormes cantidades de datos humanos. Ni tienen el tipo de eficiencia ni el bagaje evolutivo de nuestra mente. Pero pueden ser útiles, suficientemente “smart” para acelerar la ciencia, el desarrollo y la innovación más allá de lo que hubiéramos creído hace unos años. Y, créeme, esa transformación ya está en marcha.
Así que olvida la carrera AGI tradicional. Lo importante es ver hasta dónde puede ir esta tecnología al cambiar estructuras productivas enteras con capacidades que sí, a fin de cuentas, se parecen a tener “una mente” dedicada exclusivamente a resolver problemas complicados mientras tú duermes o vas por un café.
Entonces, ¿esto se va a la luna o ni de coña?
Llegamos al punto de quiebre. ¿Estamos a las puertas de una revolución tecnológica que cambiará para siempre la manera en que se hace ciencia y política? ¿O es todo un castillo en el aire, otro hype de Silicon Valley?
Mirando el historial, OpenAI lleva años tirando líneas de avance reales. GPT-4 y GPT-5 ya demostraron saltos brutales de capacidad, y herramientas como Codex funcionan y se están usando en serio. Pero eso no quita que construir un sistema totalmente autónomo, capaz de hacer investigación profunda sin errores y con resultados reproducibles, es un salto enorme todavía.
Los escepticismos están más que justificados, sobre todo viniendo de la academia y ciencia real. Trabajo encadenado, evaluación crítica, control de calidad, creatividad real: poner todo eso dentro de IA aún tiene barreras que no se ven a simple vista. Pero el rumbo que lleva OpenAI y sus rivales despeja una cosa: la carrera está en marcha, para bien o para mal. Y quien llegue primero a ese investigador AI indestructible puede cambiar las reglas del juego global.
¿Estás listo para que tu nuevo colega sea una máquina? ¿O prefieres seguir pensando que ni de coña una IA puede hacer algo así sin romperse los dientes mil veces?
Por ahora, solo queda esperar y observar qué tan lejos son capaces de empujar esta loca apuesta tecnológica. ¿Y tú? ¿Le das crédito a la visión de Pachocki o crees que estos ‘científicos de metal’ son puro humo de marketing?
Artículos Relacionados
The Download: OpenAI is building a fully automated researcher, and a psychedelic trial blind spot
Más información sobre The Download: OpenAI’s US
Descubre where openai’s technology could show up in iran
