{"id":27368,"date":"2025-08-13T10:26:07","date_gmt":"2025-08-13T10:26:07","guid":{"rendered":"https:\/\/www.europesays.com\/pt\/27368\/"},"modified":"2025-08-13T10:26:07","modified_gmt":"2025-08-13T10:26:07","slug":"os-avancos-no-raciocinio-da-ai-que-surpreenderam-a-bridgewater","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/pt\/27368\/","title":{"rendered":"Os avan\u00e7os no racioc\u00ednio da AI que surpreenderam a Bridgewater"},"content":{"rendered":"<p>Pela primeira vez, modelos do Google e da OpenAI conquistaram medalha de ouro na Olimp\u00edada Internacional de Matem\u00e1tica (International Math Olympiad \u2013 IMO), uma das competi\u00e7\u00f5es acad\u00eamicas mais desafiadoras do planeta.<\/p>\n<p>O feito \u2013 relatado pela Bridgewater Associates, uma das maiores gestoras de hedge funds do mundo \u2013 \u00e9 um marco in\u00e9dito no desenvolvimento da intelig\u00eancia artificial, porque a prova da IMO exige racioc\u00ednio estruturado em problemas in\u00e9ditos, o que a torna um teste real de capacidade de pensamento l\u00f3gico, e n\u00e3o apenas de c\u00e1lculo.<\/p>\n<p>Para Greg Jensen, o co-CIO da Bridgewater, e Jas Sekhon, o chief scientist e head de AI e machine learning da gestora, o resultado surpreendeu.\u00a0<\/p>\n<p>Pesquisadores esperavam que demorasse at\u00e9 18 anos para que uma AI alcan\u00e7asse esse n\u00edvel.\u00a0 Bastaram quatro.<\/p>\n<p>O salto refor\u00e7a a hip\u00f3tese de que a capacidade de racioc\u00ednio da AI \u2013 antes restrita a ferramentas matem\u00e1ticas espec\u00edficas (math-specific tools) \u2013 est\u00e1 se aproximando dos m\u00e9todos gerais de racioc\u00ednio (general reasoning methods), abrindo caminhos para aplica\u00e7\u00f5es em \u00e1reas complexas como finan\u00e7as, macroeconomia e formula\u00e7\u00e3o de pol\u00edticas p\u00fablicas.<\/p>\n<p>Este avan\u00e7o reacendeu um intenso debate sobre a real capacidade de modelos de AI raciocinarem em contextos novos.<\/p>\n<p>Yann LeCun, cientista-chefe de AI da Meta e ganhador do Pr\u00eamio Turing \u2013 o \u201cNobel\u201d da computa\u00e7\u00e3o \u2013 \u00e9 um dos c\u00e9ticos mais conhecidos. Para ele, os Large Language Models (LLMs) atuais, por serem treinados para prever a pr\u00f3xima palavra (token), acumulam erros que se propagam e distorcem conclus\u00f5es, tornando-se invi\u00e1veis para tarefas longas e complexas. Com 95% de acerto na previs\u00e3o de cada token, ap\u00f3s 100 tokens a probabilidade de n\u00e3o haver erro \u00e9 inferior a 1%.<\/p>\n<p>Essa limita\u00e7\u00e3o, argumenta LeCun, \u00e9 estrutural: enquanto a arquitetura se basear apenas em previs\u00e3o de tokens, o racioc\u00ednio permanecer\u00e1 vulner\u00e1vel \u00e0 propaga\u00e7\u00e3o de pequenos erros. Isso \u00e9 muito ruim quando \u00e9 preciso raciocinar de forma sistem\u00e1tica, quando \u201cquase certo\u201d n\u00e3o \u00e9 um resultado suficiente.<\/p>\n<p>Segundo a Bridgewater, dois avan\u00e7os t\u00e9cnicos foram decisivos:\u00a0 o aprendizado por refor\u00e7o com recompensas verific\u00e1veis (reinforcement learning with verifiable rewards \u2013 RLVR), que permite avaliar a qualidade de cada passo do racioc\u00ednio e criar dados sint\u00e9ticos de alta qualidade para novos ciclos de treino, e o test-time compute, que amplia o tempo de processamento no momento da execu\u00e7\u00e3o; ou seja, em vez de responder imediatamente, o modelo \u201cpensa\u201d por alguns minutos ou at\u00e9 uma hora, no caso mais espec\u00edfico da IMO.\u00a0\u00a0\u00a0<\/p>\n<p>Para entender o contexto, \u00e9 preciso conhecer as tr\u00eas fases principais do desenvolvimento de um modelo de AI:<\/p>\n<p style=\"padding-left: 40px;\">-Pre-training: quando o modelo \u00e9 exposto a volumes massivos de texto, aprendendo padr\u00f5es da linguagem, gram\u00e1tica, estilo e informa\u00e7\u00f5es gerais. \u00c9 caro, intensivo em capacidade computacional (compute), mas relativamente padronizado entre laborat\u00f3rios.<\/p>\n<p style=\"padding-left: 40px;\">-Post-training: fase de refinamento ap\u00f3s o pre-training, que ajusta o comportamento do modelo para torn\u00e1-lo mais \u00fatil, seguro e alinhado. Aqui executa-se o SFT (supervised fine-tuning), no qual humanos ensinam respostas corretas, e o RL (reinforcement learning), em que o modelo aprende com feedback humano \u00a0 ou com verifica\u00e7\u00f5es objetivas (RLVR). Essa etapa \u00e9 mais propriet\u00e1ria, variando de laborat\u00f3rio para laborat\u00f3rio.<\/p>\n<p style=\"padding-left: 40px;\">-Test-time compute: a computa\u00e7\u00e3o usada quando o modelo responde. Tradicionalmente, essa etapa \u00e9 r\u00e1pida, mas no novo paradigma ela pode se estender por longos minutos, como mencionei anteriormente nesse artigo.<\/p>\n<p>Na IMO, essa combina\u00e7\u00e3o foi determinante para que modelos de RLVR de alta qualidade com mais test-time compute conseguissem manter respostas coerentes e aprofundadas por longos per\u00edodos, superando um desafio at\u00e9 ent\u00e3o restrito a poucos humanos.<\/p>\n<p><b>O valor estrat\u00e9gico para os neg\u00f3cios<\/b><\/p>\n<p>O salto t\u00e9cnico tamb\u00e9m reposiciona o valor dos chamados reasoning traces \u2014 registros detalhados de processos de decis\u00e3o que, por sua raridade e alta qualidade, tornaram-se ativos estrat\u00e9gicos disputados pelos principais laborat\u00f3rios de AI.<\/p>\n<p>Alguns est\u00e3o dispostos a treinar modelos gratuitamente em troca desse tipo de dado, a menos que o fornecedor queira manter o ganho de performance como exclusivo.<\/p>\n<p>Empresas que acumulam d\u00e9cadas de investimentos sistem\u00e1ticos podem estar particularmente bem-posicionadas para aproveitar essa nova din\u00e2mica.<\/p>\n<p>O hist\u00f3rico de racioc\u00ednios de alta qualidade dessas companhias \u2013 cada vez mais valorizado como ativo estrat\u00e9gico \u2013 pode ser usado para treinar modelos capazes de operar em dom\u00ednios complexos e amb\u00edguos, como os mercados globais, onde decis\u00f5es exigem tanto interpreta\u00e7\u00e3o quanto an\u00e1lise de dados.<\/p>\n<p>Para o mercado, a vit\u00f3ria na IMO n\u00e3o \u00e9 apenas um marco t\u00e9cnico, mas um indicativo de que a curva de evolu\u00e7\u00e3o da AI \u00e9 mais inclinada do que se imaginava. Se essas capacidades de racioc\u00ednio se generalizarem, poder\u00e3o gerar um salto de produtividade e redefinir a competitividade entre empresas e pa\u00edses.<\/p>\n<p>\u201cO que parecia distante j\u00e1 est\u00e1 acontecendo,\u201d diz Jensen. A velocidade das inova\u00e7\u00f5es pode surpreender at\u00e9 os mais otimistas, e compreender, explorar e direcionar essas capacidades ser\u00e1 determinante para definir os vencedores e os perdedores na economia da intelig\u00eancia artificial.<\/p>\n<p>Rosiane Pecora \u00e9 Executive Vice Chair LatAm no UBS Global Wealth Management.\u00a0<\/p>\n<p>                                                        <a href=\"https:\/\/braziljournal.com\/author\/rosiane-pecora\/\" rel=\"author nofollow noopener\" title=\"Rosiane Pecora\" class=\"author url fn\" target=\"_blank\">Rosiane Pecora<\/a>                                                    <\/p>\n","protected":false},"excerpt":{"rendered":"Pela primeira vez, modelos do Google e da OpenAI conquistaram medalha de ouro na Olimp\u00edada Internacional de Matem\u00e1tica&hellip;\n","protected":false},"author":2,"featured_media":27369,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[109,107,108,32,33,105,103,104,106,110],"class_list":{"0":"post-27368","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-e-tecnologia","8":"tag-ciencia","9":"tag-ciencia-e-tecnologia","10":"tag-cienciaetecnologia","11":"tag-portugal","12":"tag-pt","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-technology","17":"tag-tecnologia"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/27368","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/comments?post=27368"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/27368\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media\/27369"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media?parent=27368"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/categories?post=27368"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/tags?post=27368"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}