{"id":73700,"date":"2025-09-16T12:15:50","date_gmt":"2025-09-16T12:15:50","guid":{"rendered":"https:\/\/www.europesays.com\/pt\/73700\/"},"modified":"2025-09-16T12:15:50","modified_gmt":"2025-09-16T12:15:50","slug":"openai-gastou-us-78-milhoes-para-fazer-o-mesmo-que-a-alibaba-fez-por-us-500-mil","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/pt\/73700\/","title":{"rendered":"OpenAI gastou US$ 78 milh\u00f5es para fazer o mesmo que a Alibaba fez por US$ 500 mil"},"content":{"rendered":"<p>A corrida pela supremacia na intelig\u00eancia artificial (IA) n\u00e3o se mede apenas pela pot\u00eancia, mas cada vez mais pela efici\u00eancia. A Alibaba acaba de demonstrar que \u00e9 poss\u00edvel treinar modelos de topo com uma fra\u00e7\u00e3o do custo dos seus concorrentes, como a OpenAI.<\/p>\n<p style=\"text-align: center;\"><a target=\"_blank\" href=\"https:\/\/www.europesays.com\/pt\/wp-content\/uploads\/2025\/09\/qwen3-next.webp.webp\"><img fetchpriority=\"high\" decoding=\"async\" src=\"https:\/\/www.europesays.com\/pt\/wp-content\/uploads\/2025\/09\/qwen3-next.webp.webp\" alt=\"\" width=\"1024\" height=\"576\" class=\"alignnone size-full wp-image-1078977\"  \/><\/a><\/p>\n<p>A nova era de efici\u00eancia da Alibaba<\/p>\n<p>A Alibaba Cloud, o bra\u00e7o de infraestrutura na nuvem da gigante tecnol\u00f3gica chinesa, surpreendeu o mercado ao apresentar a sua nova fam\u00edlia de Large Language Models (LLM), a <a target=\"_blank\" href=\"https:\/\/qwen.ai\/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&amp;from=research.latest-advancements-list\" rel=\"nofollow noopener\">Qwen3-Next<\/a>. Descritos pela empresa como &#8220;o futuro dos LLMs eficientes&#8221;, estes modelos representam um salto qu\u00e2ntico <strong>em termos de otimiza\u00e7\u00e3o de recursos<\/strong>.<\/p>\n<p>Para se ter uma ideia, <strong>s\u00e3o 13 vezes mais pequenos<\/strong> que o modelo mais robusto que a pr\u00f3pria empresa <a target=\"_blank\" href=\"https:\/\/pplware.sapo.pt\/inteligencia-artificial\/openai-e-deepmind-tem-concorrencia-alibaba-lanca-modelo-com-1-biliao-de-parametros\/\" rel=\"nofollow noopener\">havia lan\u00e7ado apenas uma semana antes<\/a>.<\/p>\n<p>Dentro desta nova fam\u00edlia, o destaque vai para o Qwen3-Next-80B-A3B. Segundo os seus criadores, este modelo n\u00e3o s\u00f3 \u00e9 at\u00e9 10 vezes mais r\u00e1pido que o seu antecessor, o Qwen3-32B, como tamb\u00e9m atinge esta performance <strong>com uma redu\u00e7\u00e3o impressionante de 90% nos custos associados ao treino<\/strong>.<\/p>\n<p>Para contextualizar a magnitude desta conquista, basta olhar para os custos da concorr\u00eancia. De acordo com o <a target=\"_blank\" href=\"https:\/\/hai.stanford.edu\/assets\/files\/hai_ai-index-report-2024-smaller2.pdf\" rel=\"nofollow noopener\">AI Index Report<\/a> da Universidade de Stanford, o treino do GPT-4 custou \u00e0 OpenAI cerca de 78 milh\u00f5es de d\u00f3lares em poder computacional. A Google investiu ainda mais no Gemini Ultra, <strong>com um valor estimado de 191 milh\u00f5es de d\u00f3lares<\/strong>.<\/p>\n<p>Em contraste, estima-se que o treino do Qwen3-Next <strong>ter\u00e1 custado apenas 500.000 d\u00f3lares<\/strong>. Embora a Alibaba n\u00e3o tenha confirmado valores exatos, o seu artigo oficial revela que o Qwen3-Next-80B-A3B utilizou &#8220;apenas 9,3% do custo computacional (horas de GPU)&#8221; do modelo anterior, o Qwen3-32B.<\/p>\n<p style=\"text-align: center;\"><a target=\"_blank\" href=\"https:\/\/pplware.sapo.pt\/wp-content\/uploads\/2025\/09\/qwen_3_next.webp\" rel=\"nofollow noopener\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.europesays.com\/pt\/wp-content\/uploads\/2025\/09\/qwen_3_next-1024x576.webp.webp\" alt=\"\" width=\"720\" height=\"405\" class=\"alignnone size-large wp-image-1078979\"  \/><\/a><\/p>\n<p>Qual \u00e9 o segredo para tamanha efici\u00eancia?<\/p>\n<p>Os modelos Qwen3-Next utilizam a arquitetura Mixture of Experts (MoE), que divide o modelo em v\u00e1rias sub-redes neuronais especializadas, conhecidas como &#8220;especialistas&#8221;.<\/p>\n<p>A Alibaba elevou esta abordagem a um novo patamar, utilizando 512 especialistas &#8211; um n\u00famero superior aos 256 do DeepSeek-V3 ou aos 384 do Kimi-K2 &#8211; mas mantendo apenas 10 ativos em simult\u00e2neo,<strong> otimizando drasticamente o processo<\/strong>.<\/p>\n<p>O segundo pilar desta efici\u00eancia \u00e9 uma t\u00e9cnica de &#8220;aten\u00e7\u00e3o h\u00edbrida&#8221; chamada Gated DeltaNet, desenvolvida em colabora\u00e7\u00e3o pelo MIT e pela NVIDIA. Esta tecnologia refina a forma como o modelo processa a informa\u00e7\u00e3o de entrada, determinando de forma inteligente <strong>que dados s\u00e3o cruciais e quais podem ser descartados<\/strong>.<\/p>\n<p>O resultado \u00e9 um mecanismo de aten\u00e7\u00e3o preciso <strong>e extremamente econ\u00f3mico em termos de recursos computacionais<\/strong>.<\/p>\n<p>Apesar do seu baixo custo de treino, o desempenho do Qwen3-Next-80B-A3B \u00e9 not\u00e1vel. Em testes de desempenho realizados pela <a target=\"_blank\" href=\"https:\/\/artificialanalysis.ai\/models\/qwen3-next-80b-a3b-reasoning\" rel=\"nofollow noopener\">Artificial Analysis<\/a>, o modelo da Alibaba superou concorrentes diretos como o DeepSeek R1 e o Kimi-K2. Embora n\u00e3o destrua os gigantes do mercado como o GPT-4,<strong> o seu rendimento \u00e9 excecional quando se considera o investimento necess\u00e1rio<\/strong>.<\/p>\n<p>Este lan\u00e7amento reflete uma tend\u00eancia crescente na ind\u00fastria: a procura por modelos mais pequenos, especializados e eficientes. A Alibaba prova agora que \u00e9 poss\u00edvel alcan\u00e7ar um desempenho de topo <strong>sem necessitar de um or\u00e7amento multimilion\u00e1rio<\/strong>.<\/p>\n<p>\u00a0<\/p>\n<p><strong>Leia tamb\u00e9m:<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"A corrida pela supremacia na intelig\u00eancia artificial (IA) n\u00e3o se mede apenas pela pot\u00eancia, mas cada vez mais&hellip;\n","protected":false},"author":2,"featured_media":73701,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[83],"tags":[10035,88,89,19421,90,17744,32,33],"class_list":{"0":"post-73700","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-empresas","8":"tag-alibaba","9":"tag-business","10":"tag-economy","11":"tag-eficiencia","12":"tag-empresas","13":"tag-modelo","14":"tag-portugal","15":"tag-pt"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/73700","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/comments?post=73700"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/73700\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media\/73701"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media?parent=73700"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/categories?post=73700"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/tags?post=73700"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}