Mistral logo

 

A startup francesa de inteligência artificial continua a mostrar que a Europa tem uma palavra forte a dizer no mundo da tecnologia. A Mistral apresentou oficialmente a sua nova família de modelos, denominada Mistral 3, que aposta numa abordagem open-source, multilingue e, crucialmente, multimodal.

 

Esta nova gama de ferramentas de IA promete oferecer soluções tanto para dispositivos locais como para infraestruturas de grande escala, mantendo o compromisso da empresa com a transparência e acessibilidade do código.

Ministral: Potência compacta para uso local

A empresa não se focou apenas em modelos gigantescos. A nova linha inclui os modelos “Ministral”, desenhados especificamente para serem eficientes em termos de recursos, ideais para computação na “edge” (local) e integração em aplicações que requerem respostas rápidas sem depender excessivamente da nuvem.

 

Estes modelos chegam em três variantes distintas baseadas no número de parâmetros: 3, 8 e 14 mil milhões (billion). Para cada tamanho, a Mistral disponibiliza versões “base”, “instruct” (para seguir instruções) e “reasoning” (focada em raciocínio lógico). Uma das grandes novidades é o suporte nativo para a compreensão de imagens, tornando-os verdadeiramente multimodais. Segundo a empresa, estes modelos mais pequenos oferecem um desempenho competitivo com uma geração de tokens mais económica.

Mistral Large 3: O peso pesado com arquitetura eficiente

A joia da coroa deste lançamento é, sem dúvida, o Mistral Large 3. Este modelo de topo utiliza uma arquitetura “Mixture of Experts” (MoE) esparsa, uma técnica que permite ativar apenas uma fração dos parâmetros totais para cada tarefa, garantindo maior eficiência e velocidade.

 

Para treinar este “monstro”, a empresa utilizou cerca de 3.000 GPUs H200 da Nvidia. O modelo conta com um total impressionante de 675 mil milhões de parâmetros, mas, graças à arquitetura MoE, apenas 41 mil milhões estão ativos durante a inferência. Tal como o resto da série, o Mistral Large 3 é disponibilizado sob a licença Apache 2.0, o que permite uma utilização comercial bastante livre.

 

teste de benchmark aos diferentes modelos de LLM

 

Em termos de performance, os testes de benchmark colocam o Mistral Large 3 numa posição de destaque:

 

O desempenho é comparável a outros grandes nomes do ecossistema aberto, como o Qwen e o DeepSeek, embora testes recentes indiquem que o DeepSeek V3.2 tem demonstrado melhorias significativas neste campo.

Disponibilidade imediata nas principais plataformas

A Mistral quer garantir que os novos modelos chegam rapidamente às mãos dos programadores e empresas. Toda a família Mistral 3 já se encontra disponível através do Mistral AI Studio e da plataforma Hugging Face.

 

Além disso, a empresa assegurou parcerias estratégicas para disponibilizar os modelos nas principais nuvens públicas. Os interessados podem aceder aos novos modelos através do Amazon Bedrock, Azure Foundry, IBM WatsonX e Together AI, facilitando a integração em fluxos de trabalho empresariais já existentes.