Desde hace unos años, Google Maps ha dejado de ser solo un mapa para convertirse en una especie de guía inteligente que nos acompaña prácticamente a todas partes. Ahora el salto va un poco más allá: no solo nos orienta en la calle, también nos ayuda a movernos dentro de aeropuertos, estaciones y centros comerciales gracias a la realidad aumentada.
Esta revolución llega de la mano de Live View e Indoor Live View, funciones que combinan la cámara del móvil, la inteligencia artificial y los mapas de interiores para mostrar flechas y señales virtuales superpuestas sobre el entorno real. El resultado es que puedes ver, en la pantalla del teléfono, por dónde tienes que ir para encontrar una puerta de embarque, una tienda o un cajero sin volverte loco mirando planos.
¿Qué es Live View y cómo ha cambiado Google Maps?
Live View es la función de Google Maps que usa la realidad aumentada para guiarte mientras caminas. En lugar de limitarse a una vista cenital del mapa con una flecha azul, activa la cámara de tu móvil y, sobre la imagen real de la calle, dibuja flechas gigantes, indicaciones y nombres de calles que te van marcando el camino.
Este sistema se apoya en un concepto clave: el VPS o Sistema de Posicionamiento Visual. En vez de depender únicamente del GPS, Live View compara lo que ve la cámara con las millones de imágenes de Street View para saber exactamente dónde estás, qué tienes delante y hacia qué dirección te estás moviendo.
La función se anunció originalmente en el Google I/O de 2018, y desde entonces Google la ha ido puliendo para que sea más precisa, más rápida y, sobre todo, más útil en situaciones reales, como cuando sales del metro y no sabes si girar a la izquierda o a la derecha.
¿Cómo funciona Live View paso a paso?
El mecanismo de uso de Live View es bastante sencillo, aunque por detrás tenga un buen cóctel de inteligencia artificial y visión por ordenador. Lo básico es que, al activar la opción en Google Maps, el móvil cambia entre el mapa clásico y la interfaz de realidad aumentada según la posición del dispositivo.
Cuando sostienes el teléfono en vertical apuntando hacia la calle, la aplicación activa la cámara y muestra la imagen del entorno en tiempo real. Encima de esa imagen, aparecen flechas, rótulos y cuadros de texto indicando por dónde seguir, a cuántos metros está el siguiente giro o qué calle tienes delante.
Si bajas el móvil y lo colocas en horizontal hacia el suelo, la interfaz vuelve automáticamente al mapa tradicional de Google Maps. De este modo, Google intenta reducir el consumo de batería, ya que la cámara y el procesamiento de imagen consumen más recursos que el mapa clásico apoyado solo en GPS.
Como Live View está pensado sobre todo para ir caminando, Google exige que el dispositivo sea compatible con ARCore (en Android) o ARKit (en iPhone). Estos kits de desarrollo de realidad aumentada permiten que el teléfono entienda el espacio, detecte superficies y mantenga estables las flechas y señales sobre el entorno mientras te mueves.
Indoor Live View: la realidad aumentada se mete en los edificios
El salto realmente interesante llega con Indoor Live View, la evolución de Live View pensada para interiores. Hasta ahora, Google Maps mostraba planos de muchos centros comerciales, aeropuertos o estaciones, pero tocaba interpretarlos a mano como los planos clásicos pegados en las paredes.
Indoor Live View une esos mapas de interiores con la navegación aumentada. Gracias a nuevos avances que permiten conocer la altitud y la posición exacta de objetos dentro de un edificio, Google puede colocar flechas virtuales con una precisión suficiente como para indicarte no solo si tienes que ir recto o girar, sino también en qué planta está lo que buscas.
El objetivo es claro: en sitios donde es muy fácil desorientarse, como un aeropuerto enorme o un macrocentro comercial, el móvil se convierte en una especie de brújula visual. Solo tienes que levantar el teléfono y seguir las señales que aparecen sobre el entorno, sin tener que ir comprobando carteles ni directorios físicos cada dos minutos.
¿Qué puedes hacer dentro de aeropuertos y centros comerciales con Indoor Live View?

La aplicación práctica de Indoor Live View en interiores es enorme. En un aeropuerto, por ejemplo, puedes usarlo para que te guíe hasta tu puerta de embarque sin perder tiempo dando vueltas por la terminal ni preguntando a todo el mundo.
Entre los puntos que Indoor Live View te puede ayudar a localizar están ascensores, escaleras mecánicas, baños, cintas de recogida de equipaje, mostradores de facturación, taquillas, paradas de transporte público dentro del propio edificio, cajeros automáticos o cualquier otro servicio esencial que esté mapeado.
En el caso de centros comerciales, la función te indica en qué piso está cada tienda y cómo llegar hasta ella por el recorrido más directo. Es especialmente útil cuando tienes prisa, quieres entrar, comprar algo concreto y salir sin recorrerte todo el edificio a ciegas.
Indoor Live View ya se ha desplegado en varias zonas de Estados Unidos, en grandes recintos como aeropuertos, intercambiadores de transporte y centros comerciales. Google ha confirmado que el servicio se irá extendiendo a más localizaciones, incluyendo aeropuertos, centros comerciales e intercambiadores de Tokio y Zúrich, y que la idea es continuar el salto internacional progresivamente.
Madrid y Barcelona: Live View llega a los interiores en España
Google ha confirmado de forma oficial la llegada de las indicaciones de Live View en interiores a Madrid y Barcelona. Esto significa que no solo podrás usar la realidad aumentada para orientarte por la calle, sino también dentro de aeropuertos y grandes centros comerciales de estas ciudades.
Además, la propia Live View de exteriores se refuerza en estas ciudades y en Dublín con una función que permite buscar elementos cercanos directamente desde la cámara. Así, al levantar el teléfono, podrás localizar cajeros automáticos, restaurantes, parques o paradas de autobús cercanas a tu posición, sin necesidad de introducir manualmente la búsqueda en el mapa.
Esta ampliación forma parte de un paquete más amplio de mejoras anunciadas por Google, que incluye no solo la parte de mapas, sino también avances en el buscador, en Google Lens y en el Traductor, todos ellos muy ligados a la inteligencia artificial y al reconocimiento visual.
La tecnología que hay detrás: IA, reconocimiento visual y localización global
Toda esta experiencia de Live View e Indoor Live View se apoya en un pilar fundamental: la inteligencia artificial aplicada a la visión por ordenador. Google utiliza redes neuronales avanzadas para analizar lo que ve la cámara, compararlo con sus bases de datos y calcular, en cuestión de milisegundos, cuál es tu posición y hacia dónde apuntas.
La compañía habla de una nueva tecnología de posicionamiento llamada “localización global”, que recurre a la IA para escanear decenas de miles de millones de imágenes de Street View. Con ese procesamiento masivo, el sistema es capaz de identificar edificios, formas, señales y otros elementos del entorno para situarte con mayor precisión de la que permite el GPS por sí solo.
En interiores, el reto es aún mayor, porque el GPS pierde fiabilidad. Por eso Google está fotografiando de arriba abajo miles de edificios, de la misma manera que hizo con las calles para Street View. Combinando esas imágenes con los planos de cada planta y con sensores del móvil (cámara, giroscopio, acelerómetro), Indoor Live View puede calcular la planta exacta y la posición aproximada dentro del edificio.
Para las funciones de exploración más avanzadas, como la llamada visión inmersiva (Immersive View), Google utiliza técnicas de IA como los campos de radiación neuronal (NeRF), que permiten convertir imágenes normales en recreaciones 3D muy realistas, con iluminación, texturas y profundidad mucho más cercanas a la realidad.
Visión inmersiva: explorar ciudades y locales antes de ir
Además de las indicaciones con Live View, Google está desplegando una función llamada vista inmersiva, que supone una forma distinta de explorar ciudades y puntos de interés. En lugar de limitarse a una foto o a un mapa 2D, genera escenas tridimensionales del entorno a partir de una fusión de imágenes aéreas y Street View.
Con esta vista inmersiva puedes, por ejemplo, sobrevolar el entorno de un museo como el Rijksmuseum de Ámsterdam, ver dónde están las entradas, desplazarte virtualmente por las calles cercanas y comprobar, con un deslizador temporal, cómo cambian la luz, el clima y el nivel de afluencia en distintos momentos del día.
Si bajas hasta el nivel de la calle, puedes explorar restaurantes y comercios de la zona, e incluso asomarte al interior de algunos locales para hacerte una idea del ambiente: si la iluminación es íntima, si hay vistas agradables, si parece un lugar tranquilo o muy animado.
En esta recreación tan detallada, la IA se encarga de reproducir con precisión la textura de los materiales, la iluminación realista y el fondo, de manera que la sensación se acerque a una visita previa antes de decidir dónde ir. La vista inmersiva ya ha empezado a desplegarse en ciudades como Londres, Los Ángeles, Nueva York, San Francisco y Tokio, y Google ha anunciado que llegará también a Ámsterdam, Dublín, Florencia y Venecia.
Google Lens, búsqueda múltiple y “Buscar lo que aparece en tu pantalla”
Parallelamente a las mejoras de Maps, Google está potenciando su buscador con funciones que combinan imagen y texto. Aquí entra en juego Google Lens, la herramienta que permite buscar información simplemente apuntando la cámara o usando una imagen ya guardada.
Lens se ha convertido en una pieza central del ecosistema de búsqueda de Google: la compañía asegura que los usuarios ya lo utilizan más de 10.000 millones de veces al mes. Su papel se refuerza con lo que Google llama búsqueda múltiple, una función en la que puedes mezclar una imagen con texto adicional para afinar mucho más lo que estás buscando.
Por ejemplo, puedes hacer una foto de un plato de comida y añadir el texto “cerca de mí” para que el sistema te devuelva resultados de restaurantes de tu zona que sirvan algo parecido, o que estén especializados en ese tipo de cocina. Esta búsqueda múltiple está disponible de momento en Estados Unidos y en inglés, pero Google ya ha anunciado que se extenderá de forma global y que se aplicará también a resultados locales.
Otro paso importante será poder usar la búsqueda múltiple con cualquier imagen que aparezca en los resultados del buscador en el móvil. Si estás navegando, ves una foto que te llama la atención y quieres saber más, podrás lanzar Lens directamente sobre esa imagen y combinarla con texto para refinar la información que buscas.
Dentro de este mismo contexto, Google prepara la función “Buscar lo que aparece en tu pantalla”, que te permitirá hacer una búsqueda sobre cualquier elemento visible en tu móvil (una foto, un vídeo, una app, una web) sin tener que salir de lo que estás viendo. El sistema tomará lo que hay en pantalla, lo analizará con Lens y te mostrará resultados relevantes al instante.
Mejoras en Google Traductor y traducción de imágenes
Otra pata de esta evolución basada en IA es Google Traductor, que incorpora cambios para ofrecer traducciones con más contexto, ejemplos y matices. La idea es que cuando traduzcas una palabra con significados múltiples, la app te muestre frases, giros y usos comunes adaptados al idioma destino.
Esto es especialmente útil si, por ejemplo, hablas de cómics, manga o términos culturales, ya que el Traductor te ayuda a escoger la expresión que encaja mejor según el contexto, los modismos locales o el registro que necesitas. Estas mejoras se están desplegando en idiomas como inglés, español, francés, alemán y japonés.
Google también ha rediseñado la manera en que se muestran los resultados: ahora utiliza un tamaño de fuente dinámico que se ajusta a medida que escribes, y añade traducciones alternativas y definiciones de diccionario cuando están disponibles, para que puedas comparar matices rápidamente.
En el terreno visual, la compañía ha aplicado avances de IA, como redes generativas similares a las del “borrador mágico” de la cámara de Google, a la traducción de texto en imágenes. De este modo, el texto traducido se integra de forma mucho más natural sobre fondos complejos, eliminando los parches o bloques de color que antes quedaban alrededor de las letras.
Además, se añade la opción de traducir imágenes web completas, lo que amplía enormemente las posibilidades para entender contenido visual independientemente de cómo lo encuentres: ya sea a través de una foto, una captura de pantalla o una página repleta de imágenes y rótulos en otro idioma.
Otras funciones de Google Maps: rutas ecológicas y calidad del aire
Más allá de la navegación con realidad aumentada, Google Maps está incorporando mejoras para que la experiencia de moverse por la ciudad sea más sostenible y más informativa. Una de las novedades es la opción de calcular rutas más ecológicas, priorizando aquellos trayectos que generen una menor huella de carbono.
Si el tiempo estimado de llegada es similar entre la ruta rápida y la ruta más eficiente, la aplicación puede elegir por defecto la opción con menos emisiones. Cuando la ruta ecológica es claramente más larga, Maps mostrará ambas alternativas para que seas tú quien decida, marcando cuál es más rápida y cuál es más respetuosa con el medio ambiente.
Otra función importante es la capa de calidad del aire, que muestra información sobre el estado del aire en determinadas zonas, así como las condiciones meteorológicas esperadas al llegar a tu destino. Esto es especialmente relevante para personas con problemas respiratorios o para quienes quieran planificar mejor actividades al aire libre.
Ultimas consideraciones
Por último, Google Maps está empezando a avisar de áreas de bajas emisiones en ciudades como Ámsterdam, Londres o Madrid. Cuando traces una ruta que atraviesa una zona restringida para ciertos vehículos, la aplicación te mostrará un aviso y, si es posible, ofrecerá alternativas para esquivarla o te informará de si tu coche puede entrar.
Todo este conjunto de innovaciones convierte a Google Maps y a los servicios asociados de Google en un sistema cada vez más completo para explorar, orientarse y tomar decisiones inteligentes, tanto dentro como fuera de los edificios. Desde las flechas flotando en el aire en aeropuertos y centros comerciales con Indoor Live View, hasta la vista inmersiva en 3D de ciudades, la búsqueda visual con Lens o las rutas ecológicas, el mapa de toda la vida se ha transformado en una plataforma interactiva que mezcla realidad aumentada, inteligencia artificial y datos en tiempo real para que moverse por el mundo resulte bastante menos complicado.