{"id":40504,"date":"2025-08-22T17:22:16","date_gmt":"2025-08-22T17:22:16","guid":{"rendered":"https:\/\/www.europesays.com\/pt\/40504\/"},"modified":"2025-08-22T17:22:16","modified_gmt":"2025-08-22T17:22:16","slug":"a-inteligencia-artificial-deve-ganhar-consciencia-responsavel-da-microsoft-alerta-para-os-perigos-computadores","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/pt\/40504\/","title":{"rendered":"A Intelig\u00eancia Artificial deve ganhar consci\u00eancia? Respons\u00e1vel da Microsoft alerta para os perigos &#8211; Computadores"},"content":{"rendered":"<p>Nos \u00faltimos meses, t\u00eam sido noticiados v\u00e1rios casos de pessoas cuja sa\u00fade mental entra em decl\u00ednio depois de desenvolverem uma <a href=\"https:\/\/tek.sapo.pt\/extras\/sugestoes\/artigos\/de-conselhos-medicos-a-problemas-pessoais-5-topicos-para-manter-fora-das-conversas-com-o-chatgpt\" rel=\"nofollow noopener\" target=\"_blank\">liga\u00e7\u00e3o emocional com chatbots de IA<\/a>.<strong> O fen\u00f3meno<\/strong>, descrito por muitos como \u201cpsicose induzida por ChatGPT\u201d ou \u201cpsicose por IA\u201d <strong>est\u00e1 a gerar preocupa\u00e7\u00e3o. Mas, para Mustafa Suleyman, CEO da Microsoft AI, esta preocupa\u00e7\u00e3o vai mais al\u00e9m.<\/strong><\/p>\n<p>Numa publica\u00e7\u00e3o no seu blog pessoal, <strong>o respons\u00e1vel explica que est\u00e1 cada vez mais preocupado com este risco de psicose<\/strong>, defendendo que as suas consequ\u00eancias n\u00e3o se limitar\u00e3o a pessoas que j\u00e1 est\u00e3o em risco de desenvolverem problemas de sa\u00fade mental.<\/p>\n<p>\u201cA minha principal preocupa\u00e7\u00e3o \u00e9 que muitas pessoas passem a <strong>acreditar t\u00e3o fortemente na ilus\u00e3o de que os sistemas de IA s\u00e3o entidades conscientes que, em breve, comecem a defender direitos para a IA,<\/strong> prote\u00e7\u00f5es para o bem-estar dos modelos e at\u00e9 cidadania para as m\u00e1quinas\u201d, afirma.<\/p>\n<blockquote><p>\u201cEste desenvolvimento pode representar um ponto de viragem perigoso no desenvolvimento da IA e exige a nossa aten\u00e7\u00e3o imediata\u201d, defende Mustafa Suleyman.<\/p><\/blockquote>\n<p>Embora admita que muitos investigadores na \u00e1rea da IA possam demonstrar ceticismo quando fala em consci\u00eancia, o respons\u00e1vel <a href=\"https:\/\/mustafa-suleyman.ai\/seemingly-conscious-ai-is-coming\" target=\"_blank\" rel=\"noopener noreferrer nofollow\">defende que<\/a>, apesar dos desafios e incertezas em torno da defini\u00e7\u00e3o desta quest\u00e3o, <strong>esta discuss\u00e3o est\u00e1 prestes a tornar-se num dos debates mais impactantes da nossa gera\u00e7\u00e3o.<\/strong><\/p>\n<p><strong>\u201cIsto porque, em \u00faltima an\u00e1lise, o que importa a curto prazo \u00e9 a forma como as pessoas percepcionam a IA\u201d<\/strong>, indica. Mustafa Suleyman detalha que a experi\u00eancia de interagir com um LLM \u00e9, por defini\u00e7\u00e3o, uma simula\u00e7\u00e3o de uma conversa. <strong>\u201cMas, para demasiadas pessoas, isto \u00e9 uma intera\u00e7\u00e3o altamente convincente e muito real, rica em sentimentos e experi\u00eancias\u201d.<\/strong><\/p>\n<p><strong>O respons\u00e1vel defende que, para fazer face a esta quest\u00e3o, \u00e9 necess\u00e1rio estabelecer regras e princ\u00edpios claros<\/strong>, tendo em conta todo o trabalho que tem sido feito sobre a maneira como as pessoas interagem com sistemas de IA.<\/p>\n<p><strong>\u201cPara come\u00e7ar, as empresas de IA n\u00e3o devem alegar ou encorajar a ideia de que os sistemas que desenvolvem t\u00eam consci\u00eancia\u201d<\/strong>, afirma Mustafa Suleyman. \u201cCriar uma defini\u00e7\u00e3o consensual e uma declara\u00e7\u00e3o sobre o que os sistemas de IA s\u00e3o e n\u00e3o s\u00e3o seria um bom primeiro passo nesse sentido\u201d, real\u00e7a.<\/p>\n<p>Num apelo \u00e0 ind\u00fastria, <strong>o respons\u00e1vel afirma que se devem desenvolver sistemas de IA para as pessoas, n\u00e3o para serem pessoas digitais<\/strong>. \u201cEm vez de uma simula\u00e7\u00e3o de consci\u00eancia, devemos concentrar-nos em desenvolver uma IA que evite essas caracter\u00edsticas: que n\u00e3o afirme ter experi\u00eancias, sentimentos ou emo\u00e7\u00f5es\u201d, afirma.<\/p>\n<p>Al\u00e9m disso, o respons\u00e1vel argumenta que a quest\u00e3o das prote\u00e7\u00f5es para o \u201cbem-estar\u201d da IA podem <strong>abrir novas divis\u00f5es na sociedade em torno dos direitos da tecnologia<\/strong>, num mundo em si j\u00e1 marcado por debates polarizados sobre identidade e direitos.<\/p>\n<p>Por outro lado, como aponta <a href=\"https:\/\/techcrunch.com\/2025\/08\/21\/microsoft-ai-chief-says-its-dangerous-to-study-ai-consciousness\/\" rel=\"nofollow noopener\" target=\"_blank\">o TechCrunch<\/a>, <strong>a opini\u00e3o do CEO da Microsoft AI diverge de outras abordagens que algumas tecnol\u00f3gicas est\u00e3o a tentar seguir<\/strong>.<\/p>\n<p>Por exemplo, <strong>a Anthropic lan\u00e7ou recentemente um programa de investiga\u00e7\u00e3o sobre este tema.<\/strong>\u00a0Neste contexto, a empresa avan\u00e7ou uma <a href=\"https:\/\/tek.sapo.pt\/noticias\/internet\/artigos\/claude-da-anthropic-vai-deixar-de-responder-a-perguntas-estranhas\" rel=\"nofollow noopener\" target=\"_blank\">nova funcionalidade nos seus modelos de IA<\/a> que vai <strong>permitir ao chatbot Claude parar de responder, quando surgem \u201ccasos raros e extremos de intera\u00e7\u00f5es persistentemente prejudiciais ou abusivas por parte dos utilizadores\u201d<\/strong>.<\/p>\n<p>Mas a criadora do Claude n\u00e3o \u00e9 a \u00fanica. <strong>Al\u00e9m da OpenAI<\/strong>, cujos investigadores j\u00e1 demonstraram abertura para estudar este tema,<strong> a Google DeepMind tamb\u00e9m est\u00e1 \u00e0 procura de especialistas<\/strong> que investiguem quest\u00f5es sociais que envolvam temas como cogni\u00e7\u00e3o e consci\u00eancia das m\u00e1quinas.<\/p>\n","protected":false},"excerpt":{"rendered":"Nos \u00faltimos meses, t\u00eam sido noticiados v\u00e1rios casos de pessoas cuja sa\u00fade mental entra em decl\u00ednio depois de&hellip;\n","protected":false},"author":2,"featured_media":40505,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[109,107,108,32,33,105,103,104,106,110],"class_list":{"0":"post-40504","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-e-tecnologia","8":"tag-ciencia","9":"tag-ciencia-e-tecnologia","10":"tag-cienciaetecnologia","11":"tag-portugal","12":"tag-pt","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-technology","17":"tag-tecnologia"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/40504","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/comments?post=40504"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/40504\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media\/40505"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media?parent=40504"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/categories?post=40504"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/tags?post=40504"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}