{"id":35212,"date":"2025-08-19T01:33:15","date_gmt":"2025-08-19T01:33:15","guid":{"rendered":"https:\/\/www.europesays.com\/pt\/35212\/"},"modified":"2025-08-19T01:33:15","modified_gmt":"2025-08-19T01:33:15","slug":"google-lanca-gemma-3-270m-o-novo-modelo-de-ia-focado-na-maxima-eficiencia","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/pt\/35212\/","title":{"rendered":"Google lan\u00e7a Gemma 3 270M: o novo modelo de IA focado na m\u00e1xima efici\u00eancia"},"content":{"rendered":"<p style=\"text-align:center\"><img decoding=\"async\" alt=\"Google Gemma 3 270M\" height=\"300\" src=\"https:\/\/www.europesays.com\/pt\/wp-content\/uploads\/2025\/08\/tugatech-3411-35708.jpg\" width=\"600\" fetchpriority=\"high\"\/><\/p>\n<p>\u00a0<\/p>\n<p>A Google acaba de alargar a sua fam\u00edlia de modelos de intelig\u00eancia artificial com o lan\u00e7amento do Gemma 3 270M, o mais recente e compacto membro da gama Gemma 3. Este novo modelo foi desenhado com um foco claro na efici\u00eancia, sendo ideal para ser ajustado (fine-tuning) para a execu\u00e7\u00e3o de tarefas espec\u00edficas, oferecendo desde logo boas capacidades de seguimento de instru\u00e7\u00f5es e estrutura\u00e7\u00e3o de texto.<\/p>\n<p>\u00a0<\/p>\n<p><strong>Pequeno mas poderoso: o que torna o Gemma 3 270M especial<\/strong><\/p>\n<p>\u00a0<\/p>\n<p>Apesar do seu tamanho reduzido, com 270 milh\u00f5es de par\u00e2metros, o Gemma 3 270M destaca-se pelo seu vasto vocabul\u00e1rio de 256.000 tokens e 170 milh\u00f5es de par\u00e2metros de incorpora\u00e7\u00e3o (embedding). Isto permite-lhe lidar eficazmente com tokens menos comuns e terminologia espec\u00edfica de diferentes dom\u00ednios e idiomas, tornando-o uma base extremamente vers\u00e1til para personaliza\u00e7\u00e3o.<\/p>\n<p>\u00a0<\/p>\n<p>A Google sublinha que, embora n\u00e3o seja ideal para di\u00e1logos complexos de v\u00e1rias voltas, o modelo responde bem \u00e0 maioria das instru\u00e7\u00f5es e \u00e9 particularmente eficaz em tarefas como classifica\u00e7\u00e3o de texto e extra\u00e7\u00e3o de dados.<\/p>\n<p>\u00a0<\/p>\n<p><strong>Efici\u00eancia energ\u00e9tica como bandeira<\/strong><\/p>\n<p>\u00a0<\/p>\n<p>O grande trunfo do Gemma 3 270M \u00e9, sem d\u00favida, o seu baixo consumo energ\u00e9tico. Testes internos da empresa, realizados num sistema-em-chip (SoC) do Pixel 9 Pro, revelaram que a vers\u00e3o quantizada (INT4) do modelo consumiu apenas 0,75% da bateria durante 25 conversas.<\/p>\n<p>\u00a0<\/p>\n<p>Este resultado posiciona-o como o modelo Gemma mais eficiente da Google at\u00e9 \u00e0 data, sendo uma solu\u00e7\u00e3o perfeita para dispositivos com recursos limitados, como telem\u00f3veis e outros equipamentos de hardware modesto.<\/p>\n<p>\u00a0<\/p>\n<p><strong>Disponibilidade e vers\u00f5es para todos<\/strong><\/p>\n<p>\u00a0<\/p>\n<p>Para facilitar a sua ado\u00e7\u00e3o pela comunidade de <strong><a href=\"https:\/\/tugatech.com.pt\/t70661-claude-agora-e-um-tutor-de-ia-que-o-ensina-a-programar-em-vez-de-dar-a-resposta\" rel=\"noopener nofollow\" target=\"_blank\">programadores<\/a><\/strong>, a Google disponibilizou n\u00e3o s\u00f3 um checkpoint pr\u00e9-treinado, mas tamb\u00e9m uma variante j\u00e1 afinada para seguir instru\u00e7\u00f5es gerais de imediato. Al\u00e9m disso, para garantir o desempenho em hardware mais modesto, foram lan\u00e7ados checkpoints treinados com reconhecimento de quantiza\u00e7\u00e3o (Quantization-Aware Trained), que permitem ao modelo operar com precis\u00e3o INT4 com perdas m\u00ednimas de performance.<\/p>\n<p>\u00a0<\/p>\n<p>O modelo j\u00e1 est\u00e1 dispon\u00edvel para download em plataformas como Hugging Face, Ollama, Kaggle, LM Studio e Docker, e pode ser testado no Vertex AI, conforme detalhado no <strong><a href=\"https:\/\/developers.googleblog.com\/en\/introducing-gemma-3-270m\/\" rel=\"noopener nofollow\" target=\"_blank\">blog oficial da Google<\/a><\/strong>.<\/p>\n","protected":false},"excerpt":{"rendered":"\u00a0 A Google acaba de alargar a sua fam\u00edlia de modelos de intelig\u00eancia artificial com o lan\u00e7amento do&hellip;\n","protected":false},"author":2,"featured_media":35213,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[109,107,108,32,33,105,103,104,106,110],"class_list":{"0":"post-35212","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-e-tecnologia","8":"tag-ciencia","9":"tag-ciencia-e-tecnologia","10":"tag-cienciaetecnologia","11":"tag-portugal","12":"tag-pt","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-technology","17":"tag-tecnologia"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/35212","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/comments?post=35212"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/35212\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media\/35213"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media?parent=35212"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/categories?post=35212"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/tags?post=35212"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}