A promessa de um “jardim murado” seguro, frequentemente utilizada pela Apple e pela Google para justificar o controlo férreo sobre as respectivas lojas de aplicações, parece ter falhado redondamente na protecção contra o abuso digital. Uma nova investigação do Tech Transparency Project (TTP) revela que ambas as plataformas alojaram e lucraram com dezenas de aplicações de inteligência artificial (IA) desenhadas para criar nudez não consensual.

Ao contrário do que seria de esperar em ambientes moderados, o TTP não teve de recorrer a termos obscuros para encontrar este software. Bastou pesquisar por palavras como “nudify” (aplicar nudez) ou “undress” (despir) nas barras de pesquisa da App Store e da Google Play Store para ser brindado com listas de opções. No total, foram identificadas 55 aplicações na loja da Google e 47 na da Apple capazes de remover digitalmente a roupa de mulheres ou de inserir rostos de pessoas inocentes em corpos nus.

O negócio do “twerk” e da nudez instantânea

O relatório detalha casos concretos que ilustram a facilidade de acesso a estas ferramentas. Aplicações como a DreamFace ou a WonderSnap — esta última descreve-se como um “gerador de vídeos de twerk por IA” — permitem que o utilizador carregue uma fotografia de uma mulher vestida e, em segundos, receba um vídeo da mesma pessoa em topless ou a realizar danças sugestivas.

O mais alarmante para a privacidade dos utilizadores é a sofisticação e a origem de algumas destas ferramentas baseadas em inteligência artificial. A investigação destaca a app Bodiva, disponível na loja da Apple, que oferece modelos de “edição instantânea” para remover roupa. O programador listado reside na China e a política de privacidade da aplicação admite que os dados pessoais são armazenados na República Popular da China, levantando sérias questões de segurança nacional e privacidade, especialmente quando se trata de imagens biométricas sensíveis.

Lucro partilhado e reacções tímidas

O modelo de negócio destas lojas digitais implica que a Google e a Apple retêm uma percentagem (habitualmente entre 15% a 30%) das receitas geradas. Segundo a consultora AppMagic, as aplicações identificadas geraram, no seu conjunto, cerca de 117 milhões de dólares (aproximadamente 108 milhões de euros) em receitas globais. Isto significa que as gigantes tecnológicas lucraram directamente com a disseminação de software de abuso sexual baseada em imagem.


Confrontados com a investigação, alguns criadores de software tentaram justificar-se. A Bizo Mobile, responsável pela app AI Dress Up, classificou os resultados como um erro não intencional e prometeu corrigir os filtros de detecção. Já a Google e a Apple, embora tenham removido dezenas de aplicações após serem contactadas pelo TTP e pela imprensa, mantiveram uma postura reactiva.