{"id":177846,"date":"2025-12-06T17:02:21","date_gmt":"2025-12-06T17:02:21","guid":{"rendered":"https:\/\/www.europesays.com\/pt\/177846\/"},"modified":"2025-12-06T17:02:21","modified_gmt":"2025-12-06T17:02:21","slug":"mistral-3-chega-para-agitar-o-mercado-de-ia-open-source-com-novos-modelos-multimodais","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/pt\/177846\/","title":{"rendered":"Mistral 3 chega para agitar o mercado de IA open-source com novos modelos multimodais"},"content":{"rendered":"<p style=\"text-align:center\"><img decoding=\"async\" alt=\"Mistral logo\" height=\"338\" src=\"https:\/\/www.europesays.com\/pt\/wp-content\/uploads\/2025\/12\/tugatech-6776-41868.jpg\" width=\"600\" fetchpriority=\"high\"\/><\/p>\n<p>\u00a0<\/p>\n<p>A startup francesa de intelig\u00eancia artificial continua a mostrar que a Europa tem uma palavra forte a dizer no mundo da tecnologia. A <strong><a href=\"https:\/\/mistral.ai\/news\/mistral-3\" rel=\"noopener nofollow\" target=\"_blank\">Mistral<\/a><\/strong> apresentou oficialmente a sua nova fam\u00edlia de modelos, denominada Mistral 3, que aposta numa abordagem open-source, multilingue e, crucialmente, multimodal.<\/p>\n<p>\u00a0<\/p>\n<p>Esta nova gama de ferramentas de IA promete oferecer solu\u00e7\u00f5es tanto para dispositivos locais como para infraestruturas de grande escala, mantendo o compromisso da empresa com a transpar\u00eancia e acessibilidade do c\u00f3digo.<\/p>\n<p>Ministral: Pot\u00eancia compacta para uso local<\/p>\n<p>A empresa n\u00e3o se focou apenas em modelos gigantescos. A nova linha inclui os modelos &#8220;Ministral&#8221;, desenhados especificamente para serem eficientes em termos de recursos, ideais para computa\u00e7\u00e3o na &#8220;edge&#8221; (local) e integra\u00e7\u00e3o em aplica\u00e7\u00f5es que requerem respostas r\u00e1pidas sem depender excessivamente da nuvem.<\/p>\n<p>\u00a0<\/p>\n<p>Estes modelos chegam em tr\u00eas variantes distintas baseadas no n\u00famero de par\u00e2metros: 3, 8 e 14 mil milh\u00f5es (billion). Para cada tamanho, a Mistral disponibiliza vers\u00f5es &#8220;base&#8221;, &#8220;instruct&#8221; (para seguir instru\u00e7\u00f5es) e &#8220;reasoning&#8221; (focada em racioc\u00ednio l\u00f3gico). Uma das grandes novidades \u00e9 o suporte nativo para a compreens\u00e3o de imagens, tornando-os verdadeiramente multimodais. Segundo a empresa, estes modelos mais pequenos oferecem um desempenho competitivo com uma gera\u00e7\u00e3o de tokens mais econ\u00f3mica.<\/p>\n<p>Mistral Large 3: O peso pesado com arquitetura eficiente<\/p>\n<p>A joia da coroa deste lan\u00e7amento \u00e9, sem d\u00favida, o Mistral Large 3. Este modelo de topo utiliza uma arquitetura &#8220;Mixture of Experts&#8221; (MoE) esparsa, uma t\u00e9cnica que permite ativar apenas uma fra\u00e7\u00e3o dos par\u00e2metros totais para cada tarefa, garantindo maior efici\u00eancia e velocidade.<\/p>\n<p>\u00a0<\/p>\n<p>Para treinar este &#8220;monstro&#8221;, a empresa utilizou cerca de 3.000 GPUs H200 da <a href=\"https:\/\/tugatech.com.pt\/t75103-nvidia-reforca-dominio-no-design-de-chips-com-investimento-de-2-mil-milhoes-na-synopsys\" rel=\"noopener nofollow\" target=\"_blank\">Nvidia<\/a>. O modelo conta com um total impressionante de 675 mil milh\u00f5es de par\u00e2metros, mas, gra\u00e7as \u00e0 arquitetura MoE, apenas 41 mil milh\u00f5es est\u00e3o ativos durante a infer\u00eancia. Tal como o resto da s\u00e9rie, o Mistral Large 3 \u00e9 disponibilizado sob a licen\u00e7a Apache 2.0, o que permite uma utiliza\u00e7\u00e3o comercial bastante livre.<\/p>\n<p>\u00a0<\/p>\n<p style=\"text-align:center\"><img loading=\"lazy\" decoding=\"async\" alt=\"teste de benchmark aos diferentes modelos de LLM\" height=\"391\" src=\"https:\/\/www.europesays.com\/pt\/wp-content\/uploads\/2025\/12\/tugatech-1337-41869.jpg\" width=\"600\"\/><\/p>\n<p>\u00a0<\/p>\n<p>Em termos de performance, os testes de benchmark colocam o Mistral Large 3 numa posi\u00e7\u00e3o de destaque:<\/p>\n<p>\u00a0<\/p>\n<p>O desempenho \u00e9 compar\u00e1vel a outros grandes nomes do ecossistema aberto, como o Qwen e o DeepSeek, embora testes recentes indiquem que o <a href=\"https:\/\/tugatech.com.pt\/t75130-deepseek-v3-2-e-speciale-a-resposta-open-source-que-promete-bater-o-gpt-5-e-gemini-3-pro\" rel=\"noopener nofollow\" target=\"_blank\">DeepSeek V3.2<\/a> tem demonstrado melhorias significativas neste campo.<\/p>\n<p>Disponibilidade imediata nas principais plataformas<\/p>\n<p>A Mistral quer garantir que os novos modelos chegam rapidamente \u00e0s m\u00e3os dos programadores e empresas. Toda a fam\u00edlia Mistral 3 j\u00e1 se encontra dispon\u00edvel atrav\u00e9s do Mistral AI Studio e da plataforma Hugging Face.<\/p>\n<p>\u00a0<\/p>\n<p>Al\u00e9m disso, a empresa assegurou parcerias estrat\u00e9gicas para disponibilizar os modelos nas principais nuvens p\u00fablicas. Os interessados podem aceder aos novos modelos atrav\u00e9s do <a href=\"https:\/\/tugatech.com.pt\/t75137-amazon-desafia-a-concorrencia-com-as-novas-ai-factories-locais-e-aposta-na-nvidia\" rel=\"noopener nofollow\" target=\"_blank\">Amazon<\/a> Bedrock, Azure Foundry, IBM WatsonX e Together AI, facilitando a integra\u00e7\u00e3o em fluxos de trabalho empresariais j\u00e1 existentes.<\/p>\n","protected":false},"excerpt":{"rendered":"\u00a0 A startup francesa de intelig\u00eancia artificial continua a mostrar que a Europa tem uma palavra forte a&hellip;\n","protected":false},"author":2,"featured_media":177847,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[109,107,108,32,33,105,103,104,106,110],"class_list":{"0":"post-177846","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-e-tecnologia","8":"tag-ciencia","9":"tag-ciencia-e-tecnologia","10":"tag-cienciaetecnologia","11":"tag-portugal","12":"tag-pt","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-technology","17":"tag-tecnologia"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@pt\/115673703915554844","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/177846","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/comments?post=177846"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/177846\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media\/177847"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media?parent=177846"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/categories?post=177846"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/tags?post=177846"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}