Os smartphones terão de evoluir de forma massiva para receber as futuras funcionalidades de RAM.
Em breve, cada smartphone terá de ter, no mínimo, 32 GB de RAM para acompanhar as novidades.
Smartphones terão de ter mais de 32 GB de RAM para correr funcionalidades IA
Os smartphones já incorporam funções de IA há algum tempo, mas até agora essas capacidades eram limitadas.
A Google e Apple oferecem recursos como o Gemini Nano e o Apple Intelligence, mas esses modelos ainda estão longe do que vemos em computadores mais potentes. A diferença principal está no tamanho dos modelos de IA que podem ser executados localmente.
Enquanto nos Pixel, por exemplo, a Google oferece modelos de IA como o Gemini Nano em versões de 1,8B e 3,25B parâmetros, em PCs já conseguimos rodar modelos muito mais avançados.
Comparações recentes mostram que modelos como DeepSeek R com 14 biliões de parâmetros e o Llama 3.1 com 8B conseguem ser executados de forma eficiente até mesmo num Mac Mini M4 com 16GB de RAM.
Isso acontece porque os modelos maiores precisam de mais memória para funcionar corretamente. Um LLM de 7B parâmetros já exige pelo menos 8GB de RAM, sendo recomendável 12GB ou mais para um desempenho fluido.
Os fabricantes de smartphones sabem disso e já começaram a aumentar a quantidade de memória disponível nos dispositivos.
O iPhone 16, por exemplo, passou de 6GB para 8GB de RAM, e os Pixel 9 chegam até aos 16GB – tudo para garantir que os modelos de IA possam ser executados localmente sem comprometer o desempenho.
Mas esse aumento de RAM pode não parar por aí. Para permitir o uso de modelos ainda mais poderosos, os smartphones do futuro podem vir equipados com 32GB de RAM ou mais, algo impensável há alguns anos.
Além da memória, outro fator crucial é a potência de processamento. Os smartphones não possuem GPUs dedicadas, como os computadores, mas estão a evoluir no uso de NPUs (Neural Processing Units) cada vez mais eficientes. Isso pode representar um grande salto na capacidade dos dispositivos para rodar IA localmente.
Outra técnica que pode facilitar essa transição é a quantização, um processo que reduz o tamanho dos modelos de IA, tornando-os mais leves e eficientes, ainda que com alguma perda de precisão.
Esta abordagem já tem sido utilizada para permitir que modelos de IA maiores funcionem em dispositivos mais modestos, reduzindo não apenas os requisitos de hardware, mas também o consumo de energia.
O resultado de todas essas melhorias é um futuro próximo em que os smartphones poderão executar modelos de IA avançados diretamente no dispositivo, sem necessidade de conexão à internet e preservando totalmente a privacidade do utilizador.
Com essas vantagens, não parece absurdo imaginar que em breve os fabricantes irão começar a destacar telemóveis com 32GB de RAM ou mais, à medida que a corrida pela IA móvel se intensifica.
Acompanhe as nossas notícias no seu email
Aproveite a campanha: