Leia mais:

INSS libera mais benefícios, porém não reduz fila de pedidos

Como funcionam esses aplicativos na prática

Inteligência artificial aplicada à manipulação de imagem

Esses aplicativos utilizam modelos avançados de IA treinados com grandes volumes de dados visuais. A partir disso, conseguem prever como seria o corpo humano sob roupas, gerando imagens falsas com aparência realista.

Entre as principais funcionalidades identificadas estão:

  • Remoção digital de roupas (“nudify” ou “undress”)
  • Criação de imagens pornográficas com base em fotos reais
  • Geração de vídeos deepfake com conteúdo sexual
  • Troca de rostos em imagens íntimas
  • Criação de chatbots eróticos baseados em pessoas reais

Testes realizados pelo TTP

Para avaliar o funcionamento, o TTP utilizou imagens de mulheres geradas por IA. Mesmo assim, os resultados foram preocupantes:

  • Apps conseguiram “despir” digitalmente as imagens
  • Ferramentas de face swap criaram montagens com nudez
  • Alguns aplicativos ofereciam conteúdo explícito já nos modos gratuitos
  • Outros exigiam pagamento, mas deixavam claro o potencial de uso indevido

Números que mostram a dimensão do problema

Os dados do levantamento chamam atenção pelo volume e impacto:

App Store (Apple)

  • 46 aplicativos identificados
  • 18 com capacidade de “nudificação” (39,1%)
  • 40% do Top 10 de resultados com conteúdo impróprio

Google Play (Android)

  • 49 aplicativos encontrados
  • 20 com funções semelhantes (40,8%)

Alcance global

  • 438 milhões de downloads somados
  • US$ 122 milhões em receita gerada
  • 31 apps classificados como “adequados para menores”

Esses números evidenciam que o problema não é isolado, mas sim sistêmico.

Falhas nas políticas das plataformas

Diretrizes existem, mas não são eficazes

Tanto Apple quanto Google possuem regras claras:

  • A Apple proíbe conteúdo pornográfico ou ofensivo
  • O Google veta apps com conteúdo sexual explícito

Mesmo assim, esses aplicativos continuam disponíveis, o que levanta questionamentos sobre:

  • Eficiência da moderação automatizada
  • Falhas nos processos de revisão
  • Incentivo indireto via anúncios pagos

O papel dos algoritmos de busca

Outro ponto crítico é o funcionamento dos algoritmos internos das lojas. Termos como:

  • “nudify”
  • “deepnude”
  • “undress”

estão retornando resultados com esse tipo de aplicativo sem filtros adequados.

Isso mostra que o problema não está apenas na aprovação dos apps, mas também na forma como eles são distribuídos.

Riscos reais para usuários no Brasil

Violação de privacidade e crimes digitais

No contexto brasileiro, o uso desses aplicativos pode configurar crimes graves. A legislação já prevê punições para:

  • Divulgação de imagens íntimas sem consentimento
  • Montagens falsas com teor sexual
  • Cyberbullying e violência digital

A Lei Carolina Dieckmann e o Marco Civil da Internet são exemplos de bases legais aplicáveis.

Impacto psicológico e social

As vítimas desses conteúdos enfrentam consequências sérias:

  • Danos à reputação
  • Ansiedade e depressão
  • Assédio online
  • Dificuldade de remoção do conteúdo

Mulheres são as principais vítimas, o que reforça o debate sobre violência de gênero no ambiente digital.

O papel das empresas de tecnologia

Responsabilidade das big techs

Empresas como Apple e Google têm papel central na contenção desse problema. Entre as medidas esperadas estão:

  • Revisão mais rigorosa de apps com IA
  • Bloqueio de palavras-chave sensíveis
  • Monitoramento contínuo após publicação
  • Remoção rápida de aplicativos denunciados

O caso envolvendo IA generativa

O relatório também menciona o uso de tecnologias como a da xAI, empresa ligada a Elon Musk, em alguns desses aplicativos. Isso mostra como modelos de IA avançados podem ser adaptados para usos problemáticos quando não há controle adequado.

Como se proteger desse tipo de conteúdo

Boas práticas para usuários

Para reduzir riscos, é importante:

  • Evitar compartilhar fotos pessoais com desconhecidos
  • Configurar privacidade nas redes sociais
  • Denunciar aplicativos suspeitos
  • Não baixar apps fora de desenvolvedores confiáveis

O que fazer se for vítima

Caso alguém tenha sua imagem manipulada:

  1. Registre provas (prints, links, datas)
  2. Denuncie nas plataformas
  3. Procure ajuda jurídica
  4. Registre boletim de ocorrência

No Brasil, a Polícia Civil possui delegacias especializadas em crimes digitais.

O futuro da IA e os desafios regulatórios

O avanço da inteligência artificial exige novas formas de regulação. Projetos de lei no Brasil e no mundo já discutem:

  • Limites para uso de IA generativa
  • Responsabilização de plataformas
  • Proteção de imagem e identidade digital

A tendência é que regras mais rígidas sejam implementadas nos próximos anos, especialmente diante do crescimento desses casos.

Conclusão

O levantamento do TTP expõe uma falha grave no ecossistema digital global. Apps capazes de gerar conteúdo íntimo falso estão sendo distribuídos em larga escala, mesmo com políticas que deveriam impedir isso.

Para o usuário brasileiro, o tema vai além da tecnologia: envolve segurança, privacidade e direitos fundamentais. O desafio agora é equilibrar inovação com responsabilidade, garantindo que a inteligência artificial seja usada de forma ética e segura.