Google Gemma 3 270M

 

A Google acaba de alargar a sua família de modelos de inteligência artificial com o lançamento do Gemma 3 270M, o mais recente e compacto membro da gama Gemma 3. Este novo modelo foi desenhado com um foco claro na eficiência, sendo ideal para ser ajustado (fine-tuning) para a execução de tarefas específicas, oferecendo desde logo boas capacidades de seguimento de instruções e estruturação de texto.

 

Pequeno mas poderoso: o que torna o Gemma 3 270M especial

 

Apesar do seu tamanho reduzido, com 270 milhões de parâmetros, o Gemma 3 270M destaca-se pelo seu vasto vocabulário de 256.000 tokens e 170 milhões de parâmetros de incorporação (embedding). Isto permite-lhe lidar eficazmente com tokens menos comuns e terminologia específica de diferentes domínios e idiomas, tornando-o uma base extremamente versátil para personalização.

 

A Google sublinha que, embora não seja ideal para diálogos complexos de várias voltas, o modelo responde bem à maioria das instruções e é particularmente eficaz em tarefas como classificação de texto e extração de dados.

 

Eficiência energética como bandeira

 

O grande trunfo do Gemma 3 270M é, sem dúvida, o seu baixo consumo energético. Testes internos da empresa, realizados num sistema-em-chip (SoC) do Pixel 9 Pro, revelaram que a versão quantizada (INT4) do modelo consumiu apenas 0,75% da bateria durante 25 conversas.

 

Este resultado posiciona-o como o modelo Gemma mais eficiente da Google até à data, sendo uma solução perfeita para dispositivos com recursos limitados, como telemóveis e outros equipamentos de hardware modesto.

 

Disponibilidade e versões para todos

 

Para facilitar a sua adoção pela comunidade de programadores, a Google disponibilizou não só um checkpoint pré-treinado, mas também uma variante já afinada para seguir instruções gerais de imediato. Além disso, para garantir o desempenho em hardware mais modesto, foram lançados checkpoints treinados com reconhecimento de quantização (Quantization-Aware Trained), que permitem ao modelo operar com precisão INT4 com perdas mínimas de performance.

 

O modelo já está disponível para download em plataformas como Hugging Face, Ollama, Kaggle, LM Studio e Docker, e pode ser testado no Vertex AI, conforme detalhado no blog oficial da Google.