A Google anunciou o lançamento do Gemini 2.0, aquele que diz ser o seu modelo de IA mais capaz, apresentando novos recursos de multimodalidade. O modelo oferece saídas de imagem e áudio nativas, assim como a utilização de ferramenta nativa que estabelecem a base para experiências agentivas, que permitem planear, lembrar ou agir para os utilizadores, sob as suas orientações.
Foi também apresentado o modelo experimental Gemini 2.0 Flash, que a Google diz ser um assistente mais útil. Pode utilizar este modelo nas versões Gemini para desktop e web mobile e em breve disponível para telemóveis. A Google diz que se trata de uma versão experimental e ainda pode ter bugs. Algumas funcionalidades do Gemini não são ainda compatíveis com este modelo durante o período experimental. O Gemini 2.0 chegou às mãos dos programadores e está a ser testado em grupos de confiança, diz a Google. A Pesquisa é um dos primeiros produtos a receber a segunda versão do modelo.
A empresa está também a lançar um novo recurso designado por Deep Research, que utiliza raciocínio avançado e recursos de contexto longo para atuar como um assistente de investigação, a exploração de tópicos complexos e a compilação de dados. Este recurso está disponível no Gemini Advanced. O recurso apresenta-se como uma alternativa ao recém-lançado OpenAI 01 da dona do ChaGPT, que também foi criado com a capacidade de raciocínio. A nova versão deste modelo é mais rápida e melhor a resolver problemas competitivos de matemática, ciência e código.