¿Sabías que Pokémon Go tiene algo que ver con robots repartiendo pizzas?
Niantic Spatial, la spin-off de Niantic (los que parieron Pokémon Go en 2016), está usando imágenes y datos del legendario juego para que robots de reparto sepan exactamente dónde llevarte la pizza sin perderse ni un segundo. Sí, ni siquiera GPS tiene tanta precisión en ciudades llenas de rascacielos y señales que rebotan como en un videojuego.
Cuando Pokémon Go se lanzó, fue un bombazo: 500 millones de instalaciones en solo 60 días. Ojo, que en 2024 todavía ronda los 100 millones de jugadores activos (ni con todo el FOMO de nuevas modas llega a eso nadie). Pues Niantic ha convertido ese ejército de entrenadores callejeros en un ejército de ojos digitales. Cada foto, cada rincón marcado del juego, se traduce en una base de datos brutal: 30 mil millones de imágenes urbanas. ¿Para qué? Para construir mapas con una precisión absurda, capaces de ubicarte con unos pocos centímetros de error. Ni GPS ni pollas.
En plena era en que drones y robots parecen una moda pasajera, Niantic Spatial apuesta a que sus datos de un juego de realidad aumentada pueden transformar la navegación robótica urbana. ¿Un robot repartiendo pizza en plena calle? Sí, eso ya es real en ciudades como Los Ángeles, Chicago y Helsinki. Y no es ni de lejos tan fácil como parece: las calles urbanas son una jungla para las pipas del GPS.
De golpe, la tecnología que parecía hecha solo para capturar un Pikachu se convierte en la solución para que robots de Coco Robotics no se pierdan cuando tienen que dejar tu pizza en la puerta, ni un paso más ni un paso menos. Huele a futuro, o más bien a una mezcla insólita de nostalgia gamer y robótica con GPS supervitaminado.
¿Pero qué mierda es esta “posicionamiento visual” y por qué importa hasta en la entrega de pizzas?
Google Maps y la conexión constante a satélites no hacen milagros, sobre todo entre sombras y torres de cemento. El término “cañón urbano” no suena a título de serie B, pero define bien la pesadilla que es para los sistemas satelitales: señales que se rebotan, interferencias que te meten en la calle equivocada o te hacen desaparecer medio bloque.
Visual positioning system (VPS) es la versión hardcore del “te veo, sé dónde estás”. No es algo nuevo, pero la traba siempre había sido la cantidad y calidad de los datos para que funcione con fiabilidad. Aquí entra Niantic con la base más bestia jamás vista de imágenes y metadatos recogidos durante años por sus millones de jugadores.
Imagina cientos de ángulos, luces, días y climas distintos de una misma intersección, cada uno con precisión milimétrica de dónde se tomó la imagen y hacia dónde apuntaba la cámara. Esa montaña de datos entrena un modelo que no solo sabe que existe un edificio, sino que reconoce cada ventana, cada farola y hasta el árbol del rincón.
Y esto no es cháchara de futuristas: Coco Robotics usa estos modelos para que sus robots sepan en qué baldosa callejera están, eviten tapar entradas de restaurantes y no terminen dejando la pizza a diez metros como el humano más patoso del mundo.
Es como si esos bichos tecnológicamente limitados tuvieran un sexto sentido urbano, heredado del scouting pokémon de la generación de jugadores. Ni GPS ni sensores locos, solo simple “ojo de pez” y un cerebro digital que ya sabe exactamente dónde estás parado.
¿En serio los robots pueden ser tan precisos en medio del caos urbano?
Sí, pero no sin retos. Coco Robotics tiene mil robots en cinco grandes urbes diferentes: Chicago, Miami, Helsinki, Los Ángeles y Jersey City. Reparten 4 bolsas de la compra o hasta 8 pizzas extra grandes. No es un carrito eléctrico cualquiera: corre a unos 8 km/h, el ritmo clásico de alguien caminando rápido. Por supuesto, la carrera no es velocidad sino fiabilidad. Que la pizza llegue fría es imperdonable.
La gran traba: GPS. Su señal muere rápidamente entre los rascacielos, se vuelve loca al chocar y resulta inútil en túneles, puentes o zonas densas. El robot pinta una línea como un borracho y termina en la acera contraria. La solución es darle ojos y cerebro, igual que a los humanos.
Cada robot tiene cuatro cámaras a la altura de la cadera, apuntando a todas partes (no van sacando fotos estilo turismo, pero usan esa info para saber dónde están). Ahí Niantic Spatial mete mano con sus algoritmos entrenados con juegos como Ingress y Pokémon Go. Los datos son masa crítica y el engranaje empieza a girar: reconocimiento visual, comparación con base de datos, localización.
Algunas startups como Starship llevan similar tecnología, con sensores para crear un mapa tridimensional de objetos cercanos. Pero Niantic apuesta a que su base de datos masiva y su entrenamiento con experiencia real de jugadores le da ventaja. Que un robot deje justamente la pizza donde debe y no un metro más allá no es un detalle menor.
Para que entendamos la dimensión, los robots de Coco han hecho más de medio millón de entregas, a lo largo de varios millones de kilómetros en condiciones extremas (lluvia, nieve, tormentas, lo que sea). No es un ensayo de laboratorio: están en plena batalla con los humanos que llevan las pizzas (y no es un mano a mano trivial).
¿Y todo esto empezó porque alguien quería que Pikachu se moviera con realismo?
Exacto. John Hanke, CEO de Niantic Spatial, dice que cuando empezaron con la VPS la idea era simplemente mejorar la experiencia de la realidad aumentada. ¿Quieres unas gafas que te superpongan el mundo real con objetos digitales? Necesitas que el sistema entienda exactamente dónde estás mirando, dónde estás parado y qué hay a tu alrededor.
Pero algo curioso pasó. Mientras la visión AR fracasaba en despegar como esperaban (adiós gafas y realidad aumentada masiva que nos prometieron), el mundo de la robótica despegaba en serio. Robots repartidores, drones, máquinas autónomas que empiezan a compartir el espacio humano piden a gritos la misma habilidad esencial: “entender dónde estoy” para no colisionar, no molestar, ni estorbar.
Si un robot se tropieza o se choca con algo, no es un bug menor, puede ser un accidente. Y para que se integren en nuestras aceras y obras sin estropear la vida, tienen que tener un sentido espacial casi humano. No basta que sepan “más o menos dónde están”, porque eso solo genera caos y retrasos.
Así, los datos recogidos durante años con juegos que parecían solo para diversión ahora alimentan el primer “mapa viviente”: un modelo digital detalladísimo que no solo es estático, sino que se actualiza conforme cambia el mundo (con nuevas construcciones, obras o incluso cambios temporales en calles).
¿Mapa para humanos o para máquinas? Niantic tiene la respuesta
Olvida lo que sabes sobre mapas en papel, Google Maps o incluso esos globos terráqueos de colores bonitos. Niantic y empresas como ESRI están en una liga diferente: mapas creados para máquinas. Eso significa que un punto en el mapa no solo tiene coordenadas sino también etiquetas, propiedades y una especie de guía explicativa para algoritmos.
La idea es que las máquinas no solo “vean una pared”, sino que sepan que es un “edificio de ladrillo rojo a dos metros” o “una entrada de restaurante con cartel luminoso a la derecha”. Todo cargado de manera que los robots y sistemas autónomos entiendan el entorno como si “leyeran” un manual.
Para decirlo franco, no basta con ser un GPS con talento, hace falta que el sistema entienda lo que observa para decidir qué hacer: girar, frenar, bajar la velocidad, o avisar que el camino está bloqueado.
Niantic habla de construir el “tejido conectivo del mundo”: esa red de datos y descripciones que permitan a las máquinas moverse con sentido común (esa cosa que incluso a Google le falta en sus modelos de lenguaje). Es la diferencia entre un sistema que sabe dónde está y uno que controla a dónde va, cómo moverse y qué evitar sin equivocarse.
¿Modelos del mundo o fantasías digitales? Niantic apuesta por la realidad
En el mundo del AI y los modelitos para navegación, hay una armada de empresas que prefieren simular mundos virtuales, creando escenarios fantasiosos para que sus agentes aprenden a moverse y reaccionar. Puedes imaginar batallas de IA en simulaciones complejas, entrenando lejos del mundo real.
Niantic, sin embargo, sigue fiel a su juego: recrear el mundo real, con todas sus imperfecciones, cambios constantes y detalles imposibles de copiar en una simulación. “Estamos lejos de tenerlo todo, pero queremos estar donde el mundo real y el digital convergen”, dice McClendon, CTO de Niantic Spatial.
Esa precisión, la plasticidad del modelo y la actualización constante son la clave. Cuantos más robots usen el sistema, más datos generarán y, a su vez, mejor será el mapa. Un círculo virtuoso online y offline que promete cambiar la forma en que las máquinas “ven” y entienden el planeta que pisan.
Pero no es un camino simple. La tecnología tiene que enfrentarse a cambios, obras, la imprevisibilidad humana y fenómenos meteorológicos. No basta con datos masivos, la calidad, la actualización y la inteligencia para interpretar la información son la base para que los robots no acaben como IT en medio de un cruce.
¿Te imaginas un futuro donde tu pizza llegue siempre a tiempo gracias a un juego?
Olvida el mito de la tecnología que solo avanza en laboratorios con pocos elegidos. Acá tienes un ejemplo perfecto de un fenómeno popular —un juego, sí, Pokémon Go— que terminó revolucionando cómo los robots entienden el espacio y se mueven sin perderse. Niantic Spatial y Coco Robotics están armando un rompecabezas que solo ahora empieza a mostrar su borde: la entrega eficiente, la integración real de robots en ciudades atestadas y una mejora palpable en la experiencia humana.
¿Será un futuro donde hasta los repartidores automáticos sean más puntuales y fiables que muchos humanos apurados? Probablemente. ¿Será gracias a un juego de realidad aumentada? Absolutamente sí.
Quizá la próxima vez que salgas a cazar Pokémons, te estés preparando para el futuro tecnológico que ya está aquí, silencioso, mientras esperas esa pizza caliente en la puerta. Porque, al final, el futuro no solo se juega: se come.
¿Quién lo iba a decir, verdad?
