Google ha introducido una nueva función para Gemini Live que describirá tu entorno utilizando sólo tu smartphone.
Compartir cámara y pantalla permite a los usuarios de Android y iPhone apuntar con la cámara de su teléfono a objetos del mundo real y hacer preguntas a Gemini sobre ellos. A continuación, Gemini Live explicará el objeto en forma de conversación. Incluso se pueden hacer preguntas de seguimiento para comprender mejor el tema.
La función se anunció por primera vez en abril, pero durante Google I/O 2025 se reveló que por fin está disponible en dispositivos Android y iPhone.
Si habilitas Gemini Live para acceder a la cámara de tu teléfono, sólo tienes que apuntar con tu dispositivo a objetos, edificios o cualquier otra cosa sobre la que necesites información. A continuación, puedes hacer una pregunta sobre el objeto, por ejemplo, pedirle una opinión sobre el color de una prenda de ropa que quieres comprar, y recibirás una respuesta.
Gemini reconocerá el objeto, por lo que podrás utilizar la conversación oral para hablar sobre él. También es posible compartir la pantalla, así que puedes tomar una foto de un sitio de compras, por ejemplo, y hacer preguntas sobre las opciones de regalo o los precios.
En el momento de redactar este artículo, Google I/O aún no había concluido, pero se han hecho grandes anuncios sobre Gemini y se han introducido mejoras en el sistema de inteligencia artificial.
También hemos oído hablar de la traducción en tiempo real del español al inglés y viceversa, que se está extendiendo a Google Meet. En las próximas semanas se añadirán más idiomas.