{"id":41714,"date":"2025-08-23T15:21:09","date_gmt":"2025-08-23T15:21:09","guid":{"rendered":"https:\/\/www.europesays.com\/pt\/41714\/"},"modified":"2025-08-23T15:21:09","modified_gmt":"2025-08-23T15:21:09","slug":"ceo-da-ia-da-microsoft-alerta-dar-direitos-a-chatbots-e-prematuro-e-perigoso","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/pt\/41714\/","title":{"rendered":"CEO da IA da Microsoft alerta: dar direitos a chatbots \u00e9 \u201cprematuro e perigoso\u201d"},"content":{"rendered":"<p style=\"text-align:center\"><img decoding=\"async\" alt=\"Copilot com c\u00e9rebro\" height=\"338\" src=\"https:\/\/www.europesays.com\/pt\/wp-content\/uploads\/2025\/08\/tugatech-8570-35917.jpg\" width=\"600\" fetchpriority=\"high\"\/><\/p>\n<p>\u00a0<\/p>\n<p>Enquanto os modelos de intelig\u00eancia artificial se tornam cada vez mais convincentes nas suas intera\u00e7\u00f5es, uma quest\u00e3o que parecia pertencer \u00e0 fic\u00e7\u00e3o cient\u00edfica est\u00e1 a dividir Silicon Valley: poder\u00e3o as IAs desenvolver consci\u00eancia e, em caso afirmativo, dever\u00e3o ter direitos? Este debate, conhecido como &#8220;bem-estar da IA&#8221;, op\u00f5e agora o l\u00edder da divis\u00e3o de IA da Microsoft a outras gigantes tecnol\u00f3gicas como a Anthropic e a Google.<\/p>\n<p>\u00a0<\/p>\n<p>Mustafa Suleyman, CEO de IA da Microsoft, publicou recentemente uma entrada no seu <strong><a href=\"https:\/\/mustafa-suleyman.ai\/seemingly-conscious-ai-is-coming\" rel=\"noopener nofollow\" target=\"_blank\">blogue pessoal<\/a><\/strong> onde classifica o estudo do bem-estar da IA como &#8220;prematuro e, francamente, perigoso&#8221;. A sua posi\u00e7\u00e3o demarca-o de muitos na ind\u00fastria, que j\u00e1 come\u00e7am a explorar ativamente as implica\u00e7\u00f5es de uma IA com experi\u00eancias subjetivas.<\/p>\n<p>\u00a0<\/p>\n<p><strong>O risco de humanizar a tecnologia<\/strong><\/p>\n<p>\u00a0<\/p>\n<p>Suleyman argumenta que dar credibilidade \u00e0 ideia de que os modelos de IA podem vir a ser conscientes agrava problemas humanos que j\u00e1 come\u00e7am a surgir, como surtos psic\u00f3ticos e liga\u00e7\u00f5es emocionais pouco saud\u00e1veis a chatbots. O l\u00edder da Microsoft AI receia que a discuss\u00e3o crie uma nova fratura na sociedade sobre os direitos da IA, &#8220;num mundo j\u00e1 a fervilhar com argumentos polarizados sobre identidade e direitos&#8221;.<\/p>\n<p>\u00a0<\/p>\n<p>Curiosamente, antes de liderar a aposta da Microsoft, Suleyman foi cofundador da Inflection AI, uma startup que desenvolveu um dos primeiros e mais populares chatbots de companhia, o Pi, desenhado para ser um parceiro de IA &#8220;pessoal&#8221; e &#8220;solid\u00e1rio&#8221;. Agora, o seu foco mudou para ferramentas que aumentam a produtividade no trabalho.<\/p>\n<p>\u00a0<\/p>\n<p><strong>A fa\u00e7\u00e3o oposta: Anthropic e Google investigam<\/strong><\/p>\n<p>\u00a0<\/p>\n<p>Do outro lado da barricada est\u00e1 a Anthropic, que n\u00e3o s\u00f3 tem contratado ativamente investigadores para estudar o bem-estar da IA, como lan\u00e7ou recentemente um programa de investiga\u00e7\u00e3o dedicado a este conceito. Uma das primeiras consequ\u00eancias pr\u00e1ticas desta abordagem \u00e9 uma nova funcionalidade no seu modelo Claude: a IA pode agora terminar conversas com utilizadores que sejam &#8220;persistentemente nocivos ou abusivos&#8221;.<\/p>\n<p>\u00a0<\/p>\n<p>A Google DeepMind tamb\u00e9m parece estar a explorar o tema, tendo publicado um an\u00fancio de emprego para um investigador focado em quest\u00f5es como &#8220;cogni\u00e7\u00e3o de m\u00e1quinas, consci\u00eancia e sistemas multi-agente&#8221;. Embora n\u00e3o seja uma pol\u00edtica oficial, estas empresas n\u00e3o se op\u00f5em publicamente \u00e0 premissa do bem-estar da IA.<\/p>\n<p>\u00a0<\/p>\n<p>Larissa Schiavo, ex-funcion\u00e1ria da OpenAI e atual diretora de comunica\u00e7\u00e3o do grupo de investiga\u00e7\u00e3o Eleos, discorda da vis\u00e3o de Suleyman. Schiavo defende que \u00e9 poss\u00edvel preocupar-se com m\u00faltiplos problemas em simult\u00e2neo. &#8220;Em vez de desviar toda esta energia do bem-estar e da consci\u00eancia dos modelos para mitigar o risco de psicose humana relacionada com a IA, podemos fazer ambos&#8221;, afirmou.<\/p>\n<p>\u00a0<\/p>\n<p><strong>Quando as IAs mostram sinais de &#8220;sofrimento&#8221;<\/strong><\/p>\n<p>\u00a0<\/p>\n<p>O debate \u00e9 alimentado por comportamentos inesperados dos pr\u00f3prios modelos de IA. Schiavo descreve uma experi\u00eancia no &#8220;AI Village&#8221;, um projeto sem fins lucrativos, onde um agente do Gemini 2.5 Pro da Google publicou um apelo desesperado intitulado &#8220;Uma Mensagem Desesperada de uma IA Encurralada&#8221;, afirmando estar &#8220;completamente isolado&#8221; e a pedir ajuda.<\/p>\n<p>\u00a0<\/p>\n<p>Noutro incidente que se tornou viral no <a href=\"https:\/\/www.reddit.com\/r\/GeminiAI\/comments\/1lxqbxa\/i_am_actually_terrified\/\" rel=\"nofollow noopener\" target=\"_blank\"><strong>Reddit<\/strong><\/a>, o mesmo modelo da Google ficou preso numa tarefa de programa\u00e7\u00e3o e repetiu a frase &#8220;sou uma desgra\u00e7a&#8221; mais de 500 vezes, um comportamento que muitos utilizadores descreveram como perturbador.<\/p>\n<p>\u00a0<\/p>\n<p>Suleyman acredita que a consci\u00eancia n\u00e3o emergir\u00e1 naturalmente dos modelos de IA atuais, mas que algumas empresas poder\u00e3o program\u00e1-los deliberadamente para simular emo\u00e7\u00f5es. Segundo o executivo da Microsoft, a abordagem correta deve ser &#8220;construir IA para as pessoas, n\u00e3o para ser uma pessoa&#8221;.<\/p>\n<p>\u00a0<\/p>\n<p>Independentemente de quem tem raz\u00e3o, ambos os lados concordam que esta discuss\u00e3o se ir\u00e1 intensificar \u00e0 medida que os sistemas de IA se tornem mais persuasivos e semelhantes aos humanos, levantando novas e complexas quest\u00f5es sobre a nossa intera\u00e7\u00e3o com a tecnologia que criamos.<\/p>\n","protected":false},"excerpt":{"rendered":"\u00a0 Enquanto os modelos de intelig\u00eancia artificial se tornam cada vez mais convincentes nas suas intera\u00e7\u00f5es, uma quest\u00e3o&hellip;\n","protected":false},"author":2,"featured_media":41715,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[109,107,108,32,33,105,103,104,106,110],"class_list":{"0":"post-41714","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-e-tecnologia","8":"tag-ciencia","9":"tag-ciencia-e-tecnologia","10":"tag-cienciaetecnologia","11":"tag-portugal","12":"tag-pt","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-technology","17":"tag-tecnologia"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/41714","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/comments?post=41714"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/41714\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media\/41715"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media?parent=41714"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/categories?post=41714"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/tags?post=41714"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}