Esta era a “nossa visão quando lançámos o Gemini 1.0 no passado mês de dezembro”.
O primeiro modelo criado “para ser nativamente multimodal, o Gemini 1.0 e 1.5, impulsionou grandes avanços com multimodalidade e contexto longo para entender informações em texto, vídeo, imagens, áudio e código, e processar muito mais delas” e agora “milhões de programadores estão a construir com Gemini”.
“Hoje estamos entusiasmados por lançar a nossa próxima era de modelos criados para esta nova era de agentes: apresentamos o Gemini 2.0, o nosso modelo mais capaz até agora. Com novos avanços na multimodalidade — como saída de imagem e áudio nativa — e uso de ferramentas nativas, tal irá permitir construir novos agentes de IA que nos vai aproximar da nossa visão de um assistente universal”, explica Sundar Pichai.
Assim, “estamos, hoje, a colocar a versão 2.0 nas mãos de programadores e grupos de testes de confiança e estamos a trabalhar rapidamente para incluí-la nos nossos produtos, a começar pelo Gemini e Pesquisa”, adianta.
Portanto, a partir de hoje, o modelo experimental Gemini 2.0 Flash “estará disponível a todos os utilizadores do Gemini” e também “estamos a lançar um novo recurso chamado ‘Deep Research’, que usa raciocínio avançado e recursos de contexto longo para atuar como um assistente de investigação, com a exploração de tópicos complexos e a compilação de relatórios para si. Já está disponível no Gemini Advanced”, salienta o CEO da Google e da Alphabet.