{"id":180956,"date":"2025-12-09T04:37:25","date_gmt":"2025-12-09T04:37:25","guid":{"rendered":"https:\/\/www.europesays.com\/pt\/180956\/"},"modified":"2025-12-09T04:37:25","modified_gmt":"2025-12-09T04:37:25","slug":"modelos-de-linguagem-menores-crescem-no-mercado-de-ia-08-12-2025-tec","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/pt\/180956\/","title":{"rendered":"Modelos de linguagem menores crescem no mercado de IA &#8211; 08\/12\/2025 &#8211; Tec"},"content":{"rendered":"<p>Um artigo de pesquisadores da <a href=\"https:\/\/www1.folha.uol.com.br\/folha-topicos\/nvidia\/\" rel=\"nofollow noopener\" target=\"_blank\">Nvidia<\/a>, publicado recentemente, lan\u00e7ou um vatic\u00ednio: &#8220;Os pequenos modelos de linguagem (SLMs), mais do que os modelos grandes (LLMs), s\u00e3o o futuro dos agentes de <a href=\"https:\/\/www1.folha.uol.com.br\/folha-topicos\/inteligencia-artificial\/\" rel=\"nofollow noopener\" target=\"_blank\">intelig\u00eancia artificial<\/a>&#8220;.<\/p>\n<p>Os cientistas da empresa <a href=\"https:\/\/www1.folha.uol.com.br\/tec\/2025\/12\/amazon-usara-tecnologia-da-nvidia-em-chips-de-ia-e-lancara-novos-servidores.shtml\" rel=\"nofollow noopener\" target=\"\">fabricante de chips<\/a> argumentam que, para tarefas repetitivas e espec\u00edficas, os modelos menores s\u00e3o potentes o suficiente, mais adequados e mais econ\u00f4micos do que os LLMs. O artigo traduz bem o atual momento do mercado de IA, em que empresas buscam solu\u00e7\u00f5es do tipo em busca de mais efici\u00eancia e menores custos.<\/p>\n<p>Os modelos grandes, como o <a href=\"https:\/\/www1.folha.uol.com.br\/folha-topicos\/chatgpt\/\" rel=\"nofollow noopener\" target=\"_blank\">ChatGPT<\/a>, \u00e9 claro, continuam a ser a for\u00e7a motriz do setor, que se baseia em ganho de escala \u2014com os servi\u00e7os de IA generativa movidos a quantidades colossais de dados e poder computacional.<\/p>\n<p>At\u00e9 o momento, essas ainda s\u00e3o as principais ferramentas para criar <a href=\"https:\/\/www1.folha.uol.com.br\/mercado\/2025\/12\/empresas-atribuem-cortes-de-funcionarios-a-ia-mas-impacto-real-da-tecnologia-ainda-e-pequeno.shtml\" rel=\"nofollow noopener\" target=\"\">agentes ou sistemas de agentes<\/a>. Mas as vantagens dos SLMs ficam cada vez mais claras e correm nas principais previs\u00f5es sobre esse mercado.<\/p>\n<p>Para faz\u00ea-los funcionar, por exemplo, \u00e9 poss\u00edvel usar chips menos poderosos do que as custosas GPUs (unidades de processamento gr\u00e1fico) da <a href=\"https:\/\/www1.folha.uol.com.br\/folha-topicos\/nvidia\/\" rel=\"nofollow noopener\" target=\"\">Nvidia<\/a>, apelando a hardware mais simples \u2014o que torna poss\u00edvel at\u00e9 mesmo rodar os modelos em dispositivos como um celular ou carros aut\u00f4nomos.<\/p>\n<p>&#8220;Ainda que os LLMs ofere\u00e7am flu\u00eancia conversacional impressionante, a maioria das sub-tarefas que os sistemas de agentes precisam cumprir s\u00e3o repetitivas, espec\u00edficas e n\u00e3o conversacionais \u2014o que pede modelos eficientes, previs\u00edveis e baratos&#8221;, escrevem os pesquisadores da Nvidia.<\/p>\n<p>Em outras palavras: um agente criado para resolver alguma tarefa de escrit\u00f3rio n\u00e3o precisa saber f\u00edsica qu\u00e2ntica ou literatura francesa, como \u00e9 o caso dos modelos generalistas. Ao serem treinados com dados especializados, o risco de erros ou alucina\u00e7\u00f5es tamb\u00e9m cai, segundo especialistas.<\/p>\n<p>N\u00e3o h\u00e1 uma defini\u00e7\u00e3o geral do que configura um LLM ou SLM, mas tudo se resume ao n\u00famero de par\u00e2metros, as configura\u00e7\u00f5es num\u00e9ricas que fazem cada rob\u00f4 entender os dados em seu sistema. Os modelos grandes costumam ter centenas de bilh\u00f5es de par\u00e2metros, enquanto os menores ficam na casa das dezenas de bilh\u00f5es ou mesmo nos milh\u00f5es.<\/p>\n<p>Um estudo recente de pesquisadores da <a href=\"https:\/\/ruf.folha.uol.com.br\/2025\/lista-universidades-instituicoes\/universidade-federal-de-minas-gerais-575.shtml\" rel=\"nofollow noopener\" target=\"\">Universidade Federal de Minas Gerais<\/a> e da Universidade Federal de S\u00e3o Jo\u00e3o del Rei comparou diferentes modelos. E, embora os LLMs, possam ser de 7% a 26% mais efetivos do que os SLMs, eles conseguem esse resultado com custos computacionais muito maiores.<\/p>\n<p>Os modelos menores, por sua vez, ganham em velocidade \u2014eles s\u00e3o at\u00e9 590 vezes mais r\u00e1pidos. Esse dado, tamb\u00e9m chamado de lat\u00eancia, \u00e9 crucial, j\u00e1 que existem aplica\u00e7\u00f5es que precisam de respostas em tempo real.<\/p>\n<p>Al\u00e9m disso, o tamanho menor tamb\u00e9m permite, em tese, que o modelo ofere\u00e7a funcionalidades offline, j\u00e1 que ele poderia realizar tarefas localmente em cada dispositivo, sem precisar enviar dados para a nuvem. Tudo isso ainda cria a possibilidade de levar a IA a regi\u00f5es com maiores dificuldades econ\u00f4micas.<\/p>\n<p>Mesmo gigantes do mercado de IA v\u00eam desenvolvendo modelos menores. O <a href=\"https:\/\/www1.folha.uol.com.br\/folha-topicos\/google\/\" rel=\"nofollow noopener\" target=\"_blank\">Google<\/a>, por exemplo, tem a fam\u00edlia de modelos Gemma, considerados um marco dessa virada e criados com a mesma pesquisa e <a href=\"https:\/\/www1.folha.uol.com.br\/folha-topicos\/tecnologia\/\" rel=\"nofollow noopener\" target=\"_blank\">tecnologia<\/a> do Gemini. H\u00e1 vers\u00f5es, como o Gemma2B, com 2 bilh\u00f5es de par\u00e2metros.<\/p>\n<p>    Folha Mercado<\/p>\n<p class=\"c-newsletter__subtitle\">Receba no seu email o que de mais importante acontece na economia; aberta para n\u00e3o assinantes.<\/p>\n<p>O cen\u00e1rio se repete em outras empresas: a Microsoft tem os modelos da fam\u00edlia Phi, enquanto a Nvidia tem aqueles da fam\u00edlia Nemotron-Nano, para ficar em alguns exemplos.<\/p>\n<p>O estudo recente &#8220;State of the Art and Future Directions of Small Language Models&#8221;, de um grupo de pesquisadores da It\u00e1lia, mostrou que o n\u00famero de publica\u00e7\u00f5es acad\u00eamicas sobre SLMs era quase nulo antes de 2023; e, de l\u00e1 para c\u00e1, agora est\u00e3o na casa das dezenas por ano.<\/p>\n<p>A tend\u00eancia no mercado n\u00e3o \u00e9 de um tipo de modelo substituindo o outro. Para Bruno Garcia, gerente de dados e intelig\u00eancia artificial da IBM, o cen\u00e1rio \u00e9 de conviv\u00eancia entre diversos modelos, a depender de cada objetivo que se tenha.<\/p>\n<p>&#8220;Fa\u00e7o analogia com um time: nem tudo a gente resolve com um modelo s\u00f3 e nem sempre determinado modelo \u00e9 o ideal&#8221;, diz ele. &#8220;H\u00e1 modelos que trabalham melhor com texto, imagem, som, v\u00eddeo\u2026 Cada um vai ser especialista em algo.&#8221;<\/p>\n<p>Garcia acredita que o mercado de IA deve buscar cada vez mais efici\u00eancia \u2014e isso pode se refletir no tamanho dos modelos.<\/p>\n<p>&#8220;\u00c9 mais ou menos o que vivemos com os computadores do passado. Guardadas as devidas propor\u00e7\u00f5es, antes um computador ocupava uma sala; hoje, o recurso de hardware tem mais computa\u00e7\u00e3o embarcada que o foguete que levou o homem \u00e0 lua&#8221;, afirma. &#8220;A tend\u00eancia \u00e9 que os modelos ganhem efici\u00eancia.&#8221;<\/p>\n<p>Os LLMs, obviamente, n\u00e3o s\u00e3o dispens\u00e1veis. Se existe uma aurora dos SLMs, isso s\u00f3 acontece porque antes os modelos maiores ganharam proemin\u00eancia e promoveram o avan\u00e7o tecnol\u00f3gico desse campo.<\/p>\n<p>Al\u00e9m disso, \u00e9 at\u00e9 poss\u00edvel criar um SLM do zero, mas o m\u00e9todo comum usa os modelos grandes no treinamento dos menores \u2014uma das principais ferramentas para isso \u00e9 a destila\u00e7\u00e3o de LLMs.<\/p>\n<p>&#8220;Isso significa que n\u00e3o necessariamente \u00e9 mais barato, porque v\u00e1rias vezes voc\u00ea precisa do modelo grand\u00e3o primeiro&#8221;, diz Lucas Smaira, chefe de pesquisa da VettoAI e ex-pesquisador do Google Deepmind.<\/p>\n<p>Ele tamb\u00e9m n\u00e3o acredita em um cen\u00e1rio no qual os SLMs substituiriam os gigantes. Embora eles sirvam para resolver quest\u00f5es de produtividade, a pesquisa de ponta com foco em saltos tecnol\u00f3gicos envolve necessariamente os modelos mais ambiciosos.<\/p>\n<p>&#8220;Substituir todo o trabalho de escrit\u00f3rio n\u00e3o faz sentido economicamente, porque a\u00ed n\u00e3o haveria gente com dinheiro para gastar. A \u00fanica coisa que faz sentido economicamente \u00e9 desbravar tecnologia nova, e esse \u00e9 o objetivo desse \u2018boom\u2019. Os LLMs v\u00e3o continuar sendo a coisa mais dif\u00edcil e valiosa, talvez s\u00f3 fiquem longe do consumidor por um tempo&#8221;, afirma.<\/p>\n","protected":false},"excerpt":{"rendered":"Um artigo de pesquisadores da Nvidia, publicado recentemente, lan\u00e7ou um vatic\u00ednio: &#8220;Os pequenos modelos de linguagem (SLMs), mais&hellip;\n","protected":false},"author":2,"featured_media":180957,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[642,359,109,107,108,236,643,933,549,415,32,4478,33,105,103,104,106,110],"class_list":{"0":"post-180956","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-e-tecnologia","8":"tag-chatgpt","9":"tag-chips","10":"tag-ciencia","11":"tag-ciencia-e-tecnologia","12":"tag-cienciaetecnologia","13":"tag-folha","14":"tag-google","15":"tag-inteligencia-artificial","16":"tag-internet","17":"tag-nvidia","18":"tag-portugal","19":"tag-processadores","20":"tag-pt","21":"tag-science","22":"tag-science-and-technology","23":"tag-scienceandtechnology","24":"tag-technology","25":"tag-tecnologia"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@pt\/115687761039607196","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/180956","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/comments?post=180956"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/180956\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media\/180957"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media?parent=180956"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/categories?post=180956"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/tags?post=180956"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}