A empresa chinesa DeepSeek apresentou os seus mais recentes modelos de inteligência artificial (IA), DeepSeek-V3.2 e DeepSeek-V3.2-Speciale. Estes novos sistemas destacam-se pela sua capacidade avançada de raciocínio e pela integração autónoma de ferramentas, o que promete mexer, e bem, o panorama tecnológico atual.

DeepSeek

Novos concorrentes de peso no mercado da IA

A relevância deste lançamento é inegável. A empresa de Hangzhou assegura que o DeepSeek-V3.2 consegue igualar o desempenho do GPT-5 em diversos testes de raciocínio. Por sua vez, a versão Speciale eleva a fasquia, atingindo um nível comparável ao do Gemini-3 Pro e conquistando resultados de excelência em competições internacionais de matemática e informática.

Recorde-se que a DeepSeek já tinha captado a atenção do setor em janeiro, com um modelo notável pela sua eficiência e baixo custo. Agora, a empresa reforça a sua aposta com sistemas open-source que lançam um desafio direto à OpenAI e à Google no que toca a capacidades de raciocínio complexo.

A grande novidade técnica do DeepSeek-V3.2 reside na sua capacidade de integrar o “pensamento” diretamente na utilização de ferramentas. O modelo consegue executar um raciocínio interno enquanto realiza pesquisas na internet, utiliza uma calculadora ou desenvolve código, uma funcionalidade pioneira. Este sistema opera de duas formas distintas:

  • Com raciocínio visível, semelhante ao processo de “cadeia de pensamento” (chain-of-thought) já observado em modelos como o ChatGPT.
  • Sem qualquer exibição do processo de raciocínio.

Importa salientar que a cadeia de pensamento mantém-se ativa entre as diferentes chamadas a ferramentas, sendo reiniciada apenas quando o utilizador introduz uma nova instrução.

Como foi alcançada esta eficiência?

Para atingir este nível de desempenho, os engenheiros da DeepSeek desenvolveram a DeepSeek Sparse Attention (DSA), uma arquitetura inovadora que diminui drasticamente o custo computacional associado ao processamento de contextos longos. Embora o modelo possua um total de 671 mil milhões de parâmetros, apenas 37 mil milhões são ativados por cada token processado.

Em termos práticos, a arquitetura DSA permite uma redução de aproximadamente 50% no custo de inferência em contextos extensos, quando comparada com a arquitetura densa anterior. Em produção, o sistema é capaz de lidar com janelas de contexto de 128.000 tokens.

O “treino por reforço” (reinforcement learning) foi uma componente crucial, consumindo mais de 10% do poder computacional total do pré-treino. Para tal, a equipa gerou mais de 1800 ambientes sintéticos e 85.000 tarefas específicas para aprimorar as suas capacidades como agente autónomo.

Novos modelos da DeepSeek alcançam resultados impressionantes

O desempenho do DeepSeek-V3.2-Speciale é notável, tendo alcançado o equivalente a uma medalha de ouro na Olimpíada Matemática Internacional 2025, na Olimpíada Internacional de Informática 2025, nas finais mundiais do ICPC 2025 e na Olimpíada Matemática Chinesa 2025. Ambos os modelos já se encontram disponíveis para utilização:

  • O V3.2 pode ser acedido através da aplicação, do website e via API.
  • O V3.2-Speciale está, por enquanto, disponível exclusivamente através da API.

Numa ação que contrasta com a habitual opacidade das grandes tecnológicas norte-americanas, a DeepSeek publicou os pesos completos do modelo e o relatório técnico detalhado do processo de treino. Esta transparência é um fator diferenciador, mesmo quando comparada com outros modelos open-source, como o Llama, que são frequentemente lançados com algumas restrições.

Com esta estratégia, a startup chinesa pretende provar que os sistemas open-source podem, de facto, competir ao mais alto nível com os modelos proprietários mais avançados, ao mesmo tempo que continua a otimizar e a reduzir custos.

 

Leia também: