O psicólogo cognitivo e cientista da computação anglo-canadense Geoffrey Hinton, que recebeu o Prêmio Nobel de Física em 2024 por seu progresso com redes neurais de aprendizagem — além do Prêmio Turing de computação, em 2018 —, adotou um discurso bastante alarmista sobre o uso acelerado da Inteligência Artificial entre as sociedades modernas.
Para Hinton, apelidado de “padrinho das IAs” por seus esforços no campo do deep machine learning (aprendizado profundo dos sistemas de IA generativos), a humanidade enfrenta uma encruzilhada existencial que não se liga só à redefinição do papel da inteligência humana sensível diante dos avanços consideráveis dos dispositivos não-humanos, mas à própria segurança e integridade física da humanidade.
Ele estima que haja uma chance, atualmente situada entre 10% e 20%, de um extermínio humano levado a cabo por IAs — a projeção, afirma ele, não é supersticiosa, mas parte da observação de padrões em sistemas que já começam a ultrapassar a humanidade em capacidade técnica sem que haja um alinhamento necessário de valores.
Hinton, um ex-funcionário da Google, deixou o cargo de pesquisador na mais famosa multinacional de softwares do mundo em maio de 2023 para “poder falar sobre os perigos da IA, sem precisar considerar como isso impacta a empresa”.
Hoje, ele vê dois tipos principais de ameaça dos sistemas artificiais generativos: primeiro, o uso malicioso potencial de indivíduos que se apossam dos instrumentos oferecidos pela tecnologia para “coisas ruins”, como “a criação de vírus letais”.
Depois, uma gradual perda das rédeas da tecnologia, uma vez que as IAs se tornem mais autônomas e capazes de autoaperfeiçoamento, com objetivos próprios e não exatamente alinhados com os interesses humanos — numa espécie de ‘dilema de Asimov’ e as leis básicas que controlam e limitam o comportamento de “robôs” (como o princípio mais importante de não causar danos a seres humanos).
Em maio de 2024, Hinton foi coautor de um artigo, publicado no periódico Science, em que apela para que governos adotem marcos de segurança mais rigorosos em relação à IA, com financiamento adicional de pesquisas em temas de segurança. Ele defende uma regulação governamental do mercado das inteligências generativas, incentivando valores de segurança acima do lucro; e propõe que agências nacionais de segurança tenham divisões para lidar especificamente com os riscos das IAs, com protocolos de contenção específicos e regulações comuns que atuem antes da liberação dos modelos mais capazes das inteligências generativas.
Mais recentemente, durante uma conferência de tecnologia sediada em Las Vegas, Ai4, Hinton chegou a sugerir que as IAs fossem treinadas com um tipo de “instinto maternal” em relação à humanidade, a fim de assegurar que continuem obedientes aos critérios de integridade humana mesmo após ultrapassarem a inteligência da espécie.
Se a visão maternal não for instigada, alerta Hinton, o impulso pela substituição de inteligências mais limitadas vai predominar entre os sistemas neurogenerativos.
Mas há discordâncias. O ex-CEO da OpenAI, Emmett Shear, defende que, embora as IAs continuem a tentar subverter sistemas humanos como uma forma natural de evolução de sua própria inteligência, o mais interessante seria trabalhar em um senso de colaboração entre a humanidade e as IAs.
O que é a superinteligência artificial?
A chamada superinteligência artificial, também conhecida pela sigla ASI (Artificial Superintelligence), é uma evolução esperada da Inteligência Artificial Geral (AGI) das IAs.
Diferente dos humanos, que têm limites biológicos e evolutivos, uma IA é capaz de reescrever seu próprio código e, conforme se torne mais inteligente, projetar inclusive versões mais potentes de si mesma, em sucessivas melhorias e a um ritmo exponencial.
Uma vez que atingisse a ‘superinteligência’, a IA seria capaz de aprender e raciocinar em múltiplos domínios de forma bastante parecida com os humanos (e, eventualmente, até superior), desde áreas científicas até atividades criativas como a arte ou a estratégia política.
Mark Zuckerberg, a mente por trás da Meta (que engloba o Facebook, Instagram e WhatsApp), tem trabalhado num laboratório de inteligência cujo objetivo é alcançar a superinteligência das IAs. No entanto, acredita-se que essa inteligência, mesmo nos seus níveis mais surpreendentes, deve ser fundamentalmente distinta da humana, e ainda incapaz de reproduzir seus aspectos mais fundamentais, como a originalidade orgânica das formas de pensamento.
Comunicar erro Encontrou um erro na matéria? Ajude-nos a melhorar