En Google I/O, la gran G aseguró que nos encontramos en !un momento único en una generación! en el que la IA va a reinventar lo que pueden hacer los smartphones. Y el anuncio de las actualizaciones de Google AI para Android es, en su opinión, una gran señal de hacia dónde se dirige todo esto.
Ya hemos visto algunas de estas funciones, como Circle To Search, que se está ampliando y debería llegar al doble de los 100 millones de usuarios actuales a finales de 2024.
Pero lo realmente interesante aquí es Gemini en Android, porque podrás utilizar su superposición desde todo tipo de aplicaciones Android: soltar imágenes generadas por IA en Gmail o Mensajes de Google, pedir más información sobre el video que se está reproduciendo en YouTube, extraer datos de PDF (si tienes la versión avanzada), etcétera. Y AI overview te permitirá profundizar en las respuestas, utilizando un lenguaje más sencillo o ampliando los resultados para ayudarte a entenderlos mejor.
Es bastante impresionante, pero Google dice que viene algo mejor, y muy pronto.
Google está especialmente motivado con lo que denomina Gemini Nano with Multimodality (Gemini Nano con Multimodalidad). Esto significa que el asistente inteligente no solo procesará texto, sino también más información contextual: imágenes, sonidos y lenguaje hablado. A finales de este año se aplicará en TalkBack para ayudar a las personas ciegas y con baja visión, y en la aplicación de tu smartphone para detectar estafas.
Google también está apostando fuerte por la IA en las búsquedas. La promesa aquí es que podrás pedirle que te haga un plan de comidas para X personas, o que planifique un viaje a X destino basándose en las mejores recomendaciones, u obtener respuestas instantáneas y precisas sin tener que visitar ninguno de los lugares que ofrecen esas respuestas. No está claro qué interés tienen las publicaciones en ofrecer esas respuestas si Google no les envía visitas, pero la empresa promete que "a medida que ampliemos esta experiencia, seguiremos centrándonos en enviar tráfico valioso a editores y creadores".
Nos gusta la idea, descrita por la empresa, de que puedas apuntar con la cámara de tu Android a un tocadiscos de una tienda de segunda mano y que te diga por qué el lápiz óptico se desvía y qué tienes que hacer al respecto. Pero eso depende de que Google tenga contenidos de alta calidad, útiles y precisos. Lo comprobaremos este mismo año: los usuarios de EE.UU. tendrán acceso a la búsqueda con video en Search Labs a finales de este año, y muchos más podremos probar las herramientas en los próximos meses.