No MWC em Barcelona, o Google apresentou novas funcionalidades inovadoras para seu assistente de IA, Gemini. A partir de março, assinantes do plano Google One AI Premium poderão transformar seus smartphones em 'olhos' com tecnologia de IA graças a duas inovações principais—Análise de Vídeo Ao Vivo e Compartilhamento de Tela Inteligente.
A Análise de Vídeo Ao Vivo permite que o assistente processe entradas de câmera em tempo real instantaneamente. Os usuários podem apontar a câmera para uma peça de roupa para obter conselhos de estilo ou escanear um ambiente para receber sugestões de design de interiores. O Gemini não apenas "vê" o que está na tela—ele se envolve ativamente em diálogos. Por exemplo, os usuários podem pedir que otimize uma rota de navegação ou esclareça um gráfico complexo em uma apresentação, recebendo explicações em um formato dinâmico e conversacional.
No momento, essas funcionalidades estão disponíveis apenas em dispositivos Android com suporte multilíngue. No estande do Google, a empresa demonstrou o Gemini rodando em dispositivos Samsung, Xiaomi e outros parceiros, enfatizando a compatibilidade entre marcas. Não há informações ainda sobre quando os usuários de iOS terão acesso.
As atualizações anunciadas são apenas um passo em direção ao ambicioso projeto Astra do Google. Até 2025, a empresa pretende desenvolver um assistente multimodal universal capaz de:
Embora o Google não tenha anunciado oficialmente o Astra como um produto independente, especialistas especulam que suas funcionalidades serão gradualmente integradas ao Gemini, intensificando a competição com o ChatGPT. Notavelmente, a OpenAI ofereceu um modo de voz expandido com análise de tela desde dezembro de 2023, mas o Google está apostando em uma integração profunda com seu próprio ecossistema.
A capacidade da IA de processar informações visuais em tempo real está borrando a linha entre os mundos digital e físico. Os usuários não estão mais apenas interagindo com um "assistente falante", mas se envolvendo com um participante ativo em suas tarefas diárias—desde compras até aprendizado. Com o lançamento do Gemini Vision, os assistentes de IA estão entrando em uma era de interação hiper-contextual, onde a pergunta chave muda de "Como eu pergunto?" para "O que eu mostro?"
Uma grande questão permanece: privacidade. Como o Google protegerá os dados transmitidos através da câmera e da tela? A empresa garante que toda análise é realizada sob rigorosos padrões de segurança, mas os detalhes completos só serão revelados uma vez que as funcionalidades sejam oficialmente lançadas.