{"id":129544,"date":"2025-10-28T08:46:08","date_gmt":"2025-10-28T08:46:08","guid":{"rendered":"https:\/\/www.europesays.com\/pt\/129544\/"},"modified":"2025-10-28T08:46:08","modified_gmt":"2025-10-28T08:46:08","slug":"nova-ia-do-deepseek-lida-com-texto-de-jeito-diferente-e-abre-portas-para-nova-era-de-modelos","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/pt\/129544\/","title":{"rendered":"Nova IA do DeepSeek lida com texto de jeito diferente, e abre portas para nova era de modelos"},"content":{"rendered":"<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">A nova IA do DeepSeek, o <strong>DeepSeek-OCR<\/strong>, e o artigo que a acompanha reimaginam fundamentalmente a forma como os grandes modelos de linguagem processam informa\u00e7\u00f5es, comprimindo o texto em representa\u00e7\u00f5es visuais. Em vez de alimentar o texto em um modelo de linguagem como tokens, o <a href=\"https:\/\/www.estadao.com.br\/tudo-sobre\/deepseek\/?srsltid=AfmBOoq5_GVEbC8MSsxCq8S-uqC4qPaMj50CrL-nr6yQUZ2GxQ4H1rBg\" target=\"_blank\" rel=\"nofollow noopener\" title=\"https:\/\/www.estadao.com.br\/tudo-sobre\/deepseek\/?srsltid=AfmBOoq5_GVEbC8MSsxCq8S-uqC4qPaMj50CrL-nr6yQUZ2GxQ4H1rBg\"><strong>DeepSeek<\/strong><\/a> o converteu em imagens.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">O resultado \u00e9 at\u00e9 10 vezes mais eficiente e abre as portas para janelas de contexto muito maiores \u2014 a quantidade de texto que um modelo de linguagem pode considerar ativamente de uma s\u00f3 vez ao gerar uma resposta. Isso tamb\u00e9m pode significar uma maneira nova e mais barata para os clientes empresariais aproveitarem o poder da <a href=\"https:\/\/www.estadao.com.br\/tudo-sobre\/inteligencia-artificial\/?srsltid=AfmBOoppQ4Y5KzRVBQKG5vp0ffFWOdPi0dDO-Nlg8zvq0WRQbOI_V4G4\" target=\"_blank\" rel=\"nofollow noopener\" title=\"https:\/\/www.estadao.com.br\/tudo-sobre\/inteligencia-artificial\/?srsltid=AfmBOoppQ4Y5KzRVBQKG5vp0ffFWOdPi0dDO-Nlg8zvq0WRQbOI_V4G4\"><strong>intelig\u00eancia artificial (IA)<\/strong><\/a>.<\/p>\n<p><img  loading=\"lazy\" class=\"lazy-load-img\"\/><\/p>\n<p>Novo modelo do DeepSeek \u00e9 muito mais eficiente com o entendimento de textos \u00a0Foto:  Simon Lehmann<\/p>\n<p>Os primeiros testes mostraram resultados impressionantes. Para cada 10 tokens de texto, o modelo precisa apenas de um \u201ctoken de vis\u00e3o\u201d para representar as mesmas informa\u00e7\u00f5es com 97% de precis\u00e3o, escreveram os pesquisadores em seu artigo t\u00e9cnico. Mesmo quando comprimido at\u00e9 20 vezes, a precis\u00e3o ainda \u00e9 de cerca de 60%. Isso significa que o modelo pode armazenar e lidar com 10 vezes mais informa\u00e7\u00f5es no mesmo espa\u00e7o, tornando-o especialmente bom para documentos longos ou permitindo que a IA compreenda conjuntos maiores de dados de uma s\u00f3 vez.<\/p>\n<p>A nova pesquisa chamou a aten\u00e7\u00e3o de v\u00e1rias figuras conhecidas da IA, incluindo <strong>Andrej Karpathy<\/strong>, cofundador da <a href=\"https:\/\/www.estadao.com.br\/tudo-sobre\/openai\/?srsltid=AfmBOopV6uwjk5KYFoAHFYYb7A299TUzmhhX-eX2gevyiqDfSgKFDDw5\" target=\"_blank\" rel=\"nofollow noopener\" title=\"https:\/\/www.estadao.com.br\/tudo-sobre\/openai\/?srsltid=AfmBOopV6uwjk5KYFoAHFYYb7A299TUzmhhX-eX2gevyiqDfSgKFDDw5\"><strong>OpenAI<\/strong><\/a>, que chegou a sugerir que todas as entradas para LLMs poderiam ser melhores como imagens.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">\u201cA parte mais interessante para mim&#8230; \u00e9 se os pixels s\u00e3o melhores entradas para LLMs do que o texto. Se os tokens de texto s\u00e3o um desperd\u00edcio e simplesmente p\u00e9ssimos na entrada. Talvez fa\u00e7a mais sentido que todas as entradas para LLMs sejam apenas imagens. Mesmo que voc\u00ea tenha uma entrada de texto puro, talvez prefira renderiz\u00e1-la e depois aliment\u00e1-la\u201d, escreveu Karpathy, em uma postagem no <a href=\"https:\/\/www.estadao.com.br\/tudo-sobre\/x-twitter\/?srsltid=AfmBOorFBcjpB75UpUfwNRYhOhRnbttoXHUgAAXm8fYsjDFKrdp0QOjH\" target=\"_blank\" rel=\"nofollow noopener\" title=\"https:\/\/www.estadao.com.br\/tudo-sobre\/x-twitter\/?srsltid=AfmBOorFBcjpB75UpUfwNRYhOhRnbttoXHUgAAXm8fYsjDFKrdp0QOjH\"><strong>X<\/strong><\/a>, que destacou v\u00e1rias outras vantagens das entradas baseadas em imagens.<\/p>\n<p>O que isso significa para a IA empresarial<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">A pesquisa pode ter muitas implica\u00e7\u00f5es para a forma como as empresas utilizam a IA. Os modelos de linguagem s\u00e3o limitados pelo n\u00famero de tokens que podem processar de uma s\u00f3 vez, mas comprimir texto em imagens desta forma pode permitir que os modelos processem bases de conhecimento muito maiores. Os usu\u00e1rios tamb\u00e9m n\u00e3o precisam converter manualmente o seu texto. O modelo do DeepSeek renderiza automaticamente a entrada de texto como imagens 2D internamente, processa-as atrav\u00e9s do seu codificador de vis\u00e3o e, em seguida, trabalha com a representa\u00e7\u00e3o visual comprimida.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">Os sistemas de IA s\u00f3 podem considerar ativamente uma quantidade limitada de texto por vez, ent\u00e3o os usu\u00e1rios precisam pesquisar ou alimentar os modelos com documentos pouco a pouco. Mas com uma janela de contexto muito maior, seria poss\u00edvel alimentar um sistema de IA com todos os documentos de uma empresa ou uma base de c\u00f3digo inteira de uma s\u00f3 vez. Em outras palavras, em vez de pedir a uma ferramenta de IA para pesquisar cada arquivo individualmente, uma empresa poderia colocar tudo na \u201cmem\u00f3ria\u201d da IA de uma s\u00f3 vez e pedir que ela analisasse as informa\u00e7\u00f5es a partir da\u00ed.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">O modelo est\u00e1 dispon\u00edvel publicamente e \u00e9 de c\u00f3digo aberto, ent\u00e3o os desenvolvedores j\u00e1 est\u00e3o experimentando-o ativamente.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">\u201cO potencial de obter um LLM de ponta com uma janela de contexto de 10 ou 20 milh\u00f5es de tokens \u00e9 muito empolgante\u201d, disse <strong>Jeffrey Emanuel<\/strong>, ex-investidor quantitativo. \u201cBasicamente, voc\u00ea poderia enfiar todos os documentos internos importantes de uma empresa em um pre\u00e2mbulo de prompt e armazen\u00e1-los em cache com a OpenAI e, em seguida, apenas adicionar sua consulta ou prompt espec\u00edfico em cima disso e n\u00e3o ter que lidar com ferramentas de pesquisa, mantendo a rapidez e a economia.\u201d<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">Ele tamb\u00e9m sugeriu que as empresas poderiam alimentar um modelo com uma base de c\u00f3digo inteira de uma s\u00f3 vez e, em seguida, simplesmente atualiz\u00e1-lo a cada nova altera\u00e7\u00e3o, permitindo que o modelo acompanhasse a vers\u00e3o mais recente sem ter que recarregar tudo do zero.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">O artigo tamb\u00e9m abre as portas para algumas possibilidades intrigantes sobre como os LLMs podem armazenar informa\u00e7\u00f5es, como o uso de representa\u00e7\u00f5es visuais de uma forma que ecoa os \u201cpal\u00e1cios da mem\u00f3ria\u201d humanos, onde pistas espaciais e visuais ajudam a organizar e recuperar conhecimento.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">\u00c9 claro que h\u00e1 ressalvas. Por um lado, o trabalho do DeepSeek se concentra principalmente na efici\u00eancia com que os dados podem ser armazenados e reconstru\u00eddos, e n\u00e3o se os LLMs podem raciocinar sobre esses tokens visuais com a mesma efic\u00e1cia com que fazem com textos regulares. A abordagem tamb\u00e9m pode introduzir novas complexidades, como lidar com diferentes resolu\u00e7\u00f5es de imagem ou varia\u00e7\u00f5es de cor.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">Mesmo assim, a ideia de que um modelo poderia processar informa\u00e7\u00f5es com mais efici\u00eancia ao ver o texto pode ser uma grande mudan\u00e7a na forma como os sistemas de IA lidam com o conhecimento. Afinal, uma imagem vale mais que mil palavras ou, como o DeepSeek parece estar descobrindo, dez mil.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">Este conte\u00fado foi traduzido com o aux\u00edlio de ferramentas de Intelig\u00eancia Artificial e revisado por nossa equipe editorial. <a href=\"https:\/\/www.estadao.com.br\/link\/estadao-define-politica-de-uso-de-ferramentas-de-inteligencia-artificial-por-seus-jornalistas-veja\/\" target=\"_blank\" rel=\"nofollow noopener\"><strong>Saiba mais em nossa Pol\u00edtica de IA<\/strong><\/a>.<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">c.2024 Fortune Media IP Limited<\/p>\n<p data-component-name=\"paragraph\" class=\"styles__ParagraphStyled-sc-6adecn-0 gsLklW  \">Distribu\u00eddo por The New York Times Licensing Group<\/p>\n","protected":false},"excerpt":{"rendered":"A nova IA do DeepSeek, o DeepSeek-OCR, e o artigo que a acompanha reimaginam fundamentalmente a forma como&hellip;\n","protected":false},"author":2,"featured_media":129545,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[6263,29447,16972,10332,88,109,107,108,16976,8518,29448,3587,8583,29449,10337,29450,10338,21689,11038,29451,32,33,105,103,104,29452,3154,29453,29454,5856,106,110,29455],"class_list":{"0":"post-129544","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-e-tecnologia","8":"tag-ai","9":"tag-analytics","10":"tag-applications","11":"tag-artificial","12":"tag-business","13":"tag-ciencia","14":"tag-ciencia-e-tecnologia","15":"tag-cienciaetecnologia","16":"tag-computing","17":"tag-data","18":"tag-decision-making","19":"tag-deepseek","20":"tag-digital","21":"tag-efficiency","22":"tag-innovation","23":"tag-insights","24":"tag-intelligence","25":"tag-learning","26":"tag-machine","27":"tag-platform","28":"tag-portugal","29":"tag-pt","30":"tag-science","31":"tag-science-and-technology","32":"tag-scienceandtechnology","33":"tag-search","34":"tag-smart","35":"tag-solutions","36":"tag-systems","37":"tag-tech","38":"tag-technology","39":"tag-tecnologia","40":"tag-tools"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@pt\/115450923257189809","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/129544","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/comments?post=129544"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/129544\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media\/129545"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media?parent=129544"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/categories?post=129544"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/tags?post=129544"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}