Leia mais:
INSS libera mais benefícios, porém não reduz fila de pedidos
Como funcionam esses aplicativos na prática
Inteligência artificial aplicada à manipulação de imagem
Esses aplicativos utilizam modelos avançados de IA treinados com grandes volumes de dados visuais. A partir disso, conseguem prever como seria o corpo humano sob roupas, gerando imagens falsas com aparência realista.
Entre as principais funcionalidades identificadas estão:
- Remoção digital de roupas (“nudify” ou “undress”)
- Criação de imagens pornográficas com base em fotos reais
- Geração de vídeos deepfake com conteúdo sexual
- Troca de rostos em imagens íntimas
- Criação de chatbots eróticos baseados em pessoas reais
Testes realizados pelo TTP
Para avaliar o funcionamento, o TTP utilizou imagens de mulheres geradas por IA. Mesmo assim, os resultados foram preocupantes:
- Apps conseguiram “despir” digitalmente as imagens
- Ferramentas de face swap criaram montagens com nudez
- Alguns aplicativos ofereciam conteúdo explícito já nos modos gratuitos
- Outros exigiam pagamento, mas deixavam claro o potencial de uso indevido
Números que mostram a dimensão do problema
Os dados do levantamento chamam atenção pelo volume e impacto:
App Store (Apple)
- 46 aplicativos identificados
- 18 com capacidade de “nudificação” (39,1%)
- 40% do Top 10 de resultados com conteúdo impróprio
Google Play (Android)
- 49 aplicativos encontrados
- 20 com funções semelhantes (40,8%)
Alcance global
- 438 milhões de downloads somados
- US$ 122 milhões em receita gerada
- 31 apps classificados como “adequados para menores”
Esses números evidenciam que o problema não é isolado, mas sim sistêmico.
Falhas nas políticas das plataformas
Diretrizes existem, mas não são eficazes
Tanto Apple quanto Google possuem regras claras:
- A Apple proíbe conteúdo pornográfico ou ofensivo
- O Google veta apps com conteúdo sexual explícito
Mesmo assim, esses aplicativos continuam disponíveis, o que levanta questionamentos sobre:
- Eficiência da moderação automatizada
- Falhas nos processos de revisão
- Incentivo indireto via anúncios pagos
O papel dos algoritmos de busca
Outro ponto crítico é o funcionamento dos algoritmos internos das lojas. Termos como:
- “nudify”
- “deepnude”
- “undress”
estão retornando resultados com esse tipo de aplicativo sem filtros adequados.
Isso mostra que o problema não está apenas na aprovação dos apps, mas também na forma como eles são distribuídos.
Riscos reais para usuários no Brasil
Violação de privacidade e crimes digitais
No contexto brasileiro, o uso desses aplicativos pode configurar crimes graves. A legislação já prevê punições para:
- Divulgação de imagens íntimas sem consentimento
- Montagens falsas com teor sexual
- Cyberbullying e violência digital
A Lei Carolina Dieckmann e o Marco Civil da Internet são exemplos de bases legais aplicáveis.
Impacto psicológico e social
As vítimas desses conteúdos enfrentam consequências sérias:
- Danos à reputação
- Ansiedade e depressão
- Assédio online
- Dificuldade de remoção do conteúdo
Mulheres são as principais vítimas, o que reforça o debate sobre violência de gênero no ambiente digital.
O papel das empresas de tecnologia
Responsabilidade das big techs
Empresas como Apple e Google têm papel central na contenção desse problema. Entre as medidas esperadas estão:
- Revisão mais rigorosa de apps com IA
- Bloqueio de palavras-chave sensíveis
- Monitoramento contínuo após publicação
- Remoção rápida de aplicativos denunciados
O caso envolvendo IA generativa
O relatório também menciona o uso de tecnologias como a da xAI, empresa ligada a Elon Musk, em alguns desses aplicativos. Isso mostra como modelos de IA avançados podem ser adaptados para usos problemáticos quando não há controle adequado.
Como se proteger desse tipo de conteúdo
Boas práticas para usuários
Para reduzir riscos, é importante:
- Evitar compartilhar fotos pessoais com desconhecidos
- Configurar privacidade nas redes sociais
- Denunciar aplicativos suspeitos
- Não baixar apps fora de desenvolvedores confiáveis
O que fazer se for vítima
Caso alguém tenha sua imagem manipulada:
- Registre provas (prints, links, datas)
- Denuncie nas plataformas
- Procure ajuda jurídica
- Registre boletim de ocorrência
No Brasil, a Polícia Civil possui delegacias especializadas em crimes digitais.
O futuro da IA e os desafios regulatórios
O avanço da inteligência artificial exige novas formas de regulação. Projetos de lei no Brasil e no mundo já discutem:
- Limites para uso de IA generativa
- Responsabilização de plataformas
- Proteção de imagem e identidade digital
A tendência é que regras mais rígidas sejam implementadas nos próximos anos, especialmente diante do crescimento desses casos.
Conclusão
O levantamento do TTP expõe uma falha grave no ecossistema digital global. Apps capazes de gerar conteúdo íntimo falso estão sendo distribuídos em larga escala, mesmo com políticas que deveriam impedir isso.
Para o usuário brasileiro, o tema vai além da tecnologia: envolve segurança, privacidade e direitos fundamentais. O desafio agora é equilibrar inovação com responsabilidade, garantindo que a inteligência artificial seja usada de forma ética e segura.