Las nuevas características de IA en Gemini Live prometen transformar la interacción del usuario con la tecnología.
Nueva Delhi, 24 de marzo: Google ha comenzado a implementar funciones de video en tiempo real basadas en inteligencia artificial para su plataforma Gemini Live.
Estas características permitirán a Gemini "ver" pantallas y transmisiones de cámara en tiempo real, ofreciendo así un nivel de interactividad sin precedentes para los usuarios.
Como parte de esta actualización, Google ha introducido dos capacidades clave: la lectura de pantallas y el análisis de video en vivo. Según un informe de The Verge, la implementación de estas nuevas funciones se anunció durante el Congreso Mundial de Móviles (MWC) 2025. Entre las mejoras se incluyen las capacidades de compartir pantalla y cámara impulsadas por el proyecto Astra.
El Proyecto Astra es un prototipo de investigación que explora las futuras capacidades de un asistente universal de inteligencia artificial. Los usuarios tienen la posibilidad de interactuar usando comandos de voz o incluso mostrando lo que ven a través de video, gracias a este innovador proyecto.
Recientemente, un usuario de Android descubrió un botón de "Compartir pantalla con Live" en la interfaz de Gemini, ubicado justo encima de la sugerencia "Preguntar sobre la pantalla".
La primera demostración de la capacidad de lectura de pantallas fue reportada por un usuario en Reddit que utilizaba un teléfono Xiaomi. Este usuario compartió un video donde se muestra la nueva función de lectura de pantalla de Gemini. Además, obtuvo acceso a las capacidades de la cámara en tiempo real, lo que permite interactuar con el entorno a través de la interfaz de Gemini Live.
Esta función se activa cuando se inicia una transmisión de video, permitiendo que Gemini analice en vivo las imágenes de la cámara del smartphone y ofrezca respuestas contextuales basadas en lo que observa.
Google también ha lanzado una nueva función llamada 'Canvas', disponible para usuarios seleccionados de Gemini. Esta característica permite trabajar con documentos y código dentro de las respuestas del chatbot, facilitando aún más la interacción y productividad de los usuarios.
Según los informes, la disponibilidad de estas nuevas funciones está dirigida a suscriptores avanzados de Gemini que forman parte del plan Google One AI Premium.
Se espera que la expansión de estas capacidades se realice de manera gradual a lo largo de este mes.
La implementación de estas innovaciones en Gemini Live es parte de la estrategia de Google para liderar el camino en el ámbito de la inteligencia artificial y la interacción usuario-tecnología.
Históricamente, Google ha sido un pionero en el desarrollo de tecnologías que buscan facilitar la vida de los usuarios, desde sus inicios con el motor de búsqueda hasta sus últimas incursiones en IA.
Con estas nuevas herramientas, la empresa no solo busca mejorar la experiencia del usuario, sino también establecer un nuevo estándar en la manera en que interactuamos con la tecnología en nuestro día a día.