Spotify está probando una capa ligera para gafas de realidad extendida que muestra Now Playing y letras sincronizadas, usando el teléfono como cerebro. Un vistazo a lo que podría cambiar la forma de escuchar música en movilidad.
El objetivo es mostrar información clave como la canción que está sonando y las letras sincronizadas directamente en el campo de visión del usuario, y se apuesta por un diseño que privilegia lo que se ve sin necesidad de mirar una pantalla.
La idea no sería convertir #Spotify en una app completa para las gafas, sino ofrecer una capa de experiencia que funcione junto al teléfono. En este esquema, el procesamiento pesado seguiría en el móvil, y las gafas actuarían como una pantalla inteligente que proyecta la información. Este enfoque coincide con las directrices actuales de Android XR, que buscan maximizar la autonomía de la batería y evitar que los dispositivos de cabeza se calienten demasiado al estar conectados de forma continua al teléfono.
Además, el informe de Android Authority señala que la experiencia podría integrarse más allá de la reproducción básica: podrían existir funciones de apoyo con la colaboración de Meta.
Las actualizaciones de software para las gafas con IA de Meta ya apuntan a una experiencia musical multimodal en la que las gafas pueden percibir el entorno y adaptar la #música en función de lo que se ve alrededor.
Por ejemplo, si se mira un paisaje concreto o una celebración, la escena podría inspirar una lista de reproducción que encaje con el ambiente y con el historial de escucha del usuario.
Entre las funciones en prueba se baraja un control por gestos sencillos, como tocar la patilla de las gafas para subir o bajar el volumen, o pausar y avanzar temas.
También se habla de una pantalla dedicada a las letras y de un perfil de gusto musical que permita afinar las recomendaciones mediante indicaciones simples.
Aunque la versión estable de la interfaz aún no existe, se espera que estas capacidades lleguen públicamente a lo largo del año, en el marco de la transición hacia una era de dispositivos en los que la imagen y el sonido se consumen sin mirar hacia una pantalla tradicional.
El calendario de la industria indica que 2026 podría ver el desembarco de hardware #XR de firmas como Google
El calendario de la industria indica que 2026 podría ver el desembarco de hardware XR de firmas como Google, Samsung y otras, con soluciones que conectan con el ecosistema de Spotify.
Para el usuario español, estas novedades podrían hacer que escuchar música sea más cómodo en movilidad, por ejemplo al cocinar, hacer deporte o simplemente caminar por la calle sin sujetar el teléfono.
No obstante, también surgen preguntas sobre la privacidad y el uso de datos: si las gafas pueden ver el entorno y adaptar la música, qué tanto se sabe de lo que se observa.
Spotify insiste en que la experiencia se usa de forma consciente y que las interacciones serán simples y seguras. En cualquier caso, este movimiento refuerza una tendencia del sector: la música y el streaming buscan nuevas formas de acompañar al usuario en su vida diaria, aprovechando la convergencia entre dispositivos y la analítica para afinar cada lista de reproducción.
En resumen, Spotify está explorando una vía que podría convertir a sus usuarios en consumidores de música mediante gafas que muestran la información importante en el campo de visión, con el móvil como cerebro.
Es un ejemplo más de cómo la industria tecnológica apuesta por #interfaces más naturales y menos dependientes de pantallas, en una década en la que el entorno digital se mete cada vez más en la vida diaria.
