Lá pelas tantas no livro “A máquina do caos”, o jornalista americano Max Fisher conta a história da carioca Christine, que, certa vez, notou algo estranho na conta de YouTube da filha. Um vídeo da criança, de 10 anos, brincando com uma amiguinha numa piscina estava recebendo milhares de visitas, algo inédito e surpreendente para um perfil criado apenas para consumo próprio. A explicação, Fisher escreve, era ter caído no sistema de recomendação de conteúdo com temática sexual do YouTube, simplesmente pelo fato de as garotas estarem usando biquíni.
- Míriam Leitão: O que exigir das plataformas
- Além da ‘adultização’: Cinco vídeos mais vistos de Felca têm base de Virginia, receitas de TikTok e Wandinha
Neste capítulo, Fisher mostra, a partir de robustas pesquisas, como a lógica dos algoritmos e de monetização das grandes plataformas colocam as crianças em risco. É a mesma discussão que o influenciador Felca impulsionou há duas semanas, acelerando a tramitação no Congresso de um Projeto de Lei com medidas de proteção para menores nas redes, aprovado pelo Senado anteontem e na fila da sanção presidencial. O governo Lula também entrou na conversa e se prepara para enviar projeto de regulação das big techs, empresas cujas entranhas o repórter disseca nas 512 páginas do livro. Elas foram escritas a partir de conversas com executivos, análises de documentos confidenciais e estudo de casos em países impactados pela disseminação de fake news. Na época do lançamento nos Estados Unidos, em 2022, o livro foi descrito pelo New York Times como um “relato devastador”.
Por chamada de vídeo de Nova York, Fisher — finalista do prêmio Pulitzer em 2019 por uma reportagem sobre redes sociais — falou sobre regulação, funcionamento do algoritmo e como a sociedade pode cobrar mudanças.
Em 2022, você contou a história da Christine e, agora, o influenciador Felca dominou as conversas sobre sexualização infantil. De lá para cá, o que o YouTube e outras plataformas têm feito para proteger crianças?
É possível que o YouTube tenha feito alguma mudança concreta, mas, mesmo assim, claramente os fatores estruturais continuam lá. E também no Instagram, o que considero importante mencionar, pois mostra que não se trata apenas de uma política específica de uma determinada plataforma. É algo inerente à forma como as redes sociais modernas são organizadas e como são regidas: algoritmos opacos, caixas-pretas, que escolhem o que vemos e determinam no que a maior parte da Humanidade gasta suas horas, baseando-se puramente na maximização do engajamento.
Max Fisher — Foto: Divulgação
Como a ascensão do modelo de vídeos curtos, como Reels do Instagram, TikTok, Kwai e YouTube Shorts, contribuiu para o aumento da exploração infantil nas redes sociais?
É a mesma fórmula básica, só que agora acelerada. As grandes empresas querem nos manter nas plataformas o máximo de tempo possível para poderem mostrar mais anúncios, afinal é assim que ganham dinheiro. Elas querem garantir que o próximo conteúdo seja justamente aquele com maior probabilidade de engajamento. Se é uma plataforma de vídeos longos, a decisão algorítmica se dá a cada cinco, dez ou 15 minutos. Já numa de vídeos curtos o algoritmo decide a cada dez ou 20 segundos. Existem, então, muito mais chances de sermos conduzidos por uma corrente que começa em um tipo de conteúdo que escolhemos e que pode terminar em qualquer outro que ela queira. Na maioria das vezes, apenas veremos muitos vídeos parecidos com o que já assistimos. Não é como se toda cadeia de recomendações levasse necessariamente a algo sombrio ou perigoso. Mas a verdade é que existe poder para isso. Em redes sociais de vídeos curtos, como o TikTok, as oportunidades são muito maiores.
No livro, você e os pesquisadores citados afirmam que a solução para acabar com a exploração infantil nas redes é desligar o algoritmo quando se trata de conteúdo com crianças, impedindo recomendações.
Esses algoritmos são sofisticados em identificar todo tipo de característica de qualquer foto ou vídeo publicado na plataforma, então é trivialmente fácil para eles reconhecerem crianças. A “desvantagem” de desligar recomendação com esses conteúdos seria essas empresas ganharem um pouquinho menos dinheiro. Isso representaria uma parte muito, muito pequena do negócio e do lucro delas. Mesmo que estivéssemos falando de milhões de pessoas direcionadas para vídeos de sexualização infantil, ainda seria uma gota no oceano diante do número total de visualizações que essas empresas têm e do dinheiro que fazem. Não estou dizendo que resolveria 100% do problema, mas é a medida que mais faria diferença e custaria pouco. O fato de elas se recusarem a fazer isso porque impactaria 0,000001% do lucro, mesmo sabendo que salvaria um grande número de crianças de serem sexualizadas, me parece muito revelador sobre a forma como operam.
‘A máquina do caos’, tradução de Érico Assis — Foto: Divulgação
Recentemente, a União Europeia, a Austrália e o próprio Brasil têm feito esforços de regulação. Existe algum modelo que pareça mais efetivo?
É muito difícil para qualquer país que não seja os Estados Unidos regular as big techs, porque elas estão acessíveis livremente em quase todos os lugares, são controladas por empresas sediadas nos EUA e, no fim das contas, só precisam responder à lei norte-americana. O Brasil parece ser um dos poucos países que têm conseguido, de fato, forçar alguma mudança nas companhias. Em parte porque é um mercado muito grande e altamente lucrativo para elas. Mas há ainda outro fator: os legisladores brasileiros têm mostrado disposição real em usar esse poder, de uma forma que muitos outros países não demonstraram. A União Europeia talvez não tenha sido tão agressiva, mas também detém um enorme poder de mercado. Porém, tanto no caso do Brasil quanto no da UE, acredito que o fator decisivo será a disposição de desligar o acesso às plataformas ou a ameaça concreta de desligar esse acesso. Esse é o único recurso suficientemente forte para obrigar as empresas a ouvir. Qualquer país, grande ou pequeno, pode aprovar quantas regulações quiser, mas o único ponto de pressão, capaz de forçar as companhias a pelo menos fingirem que estão mudando sua política, é o bloqueio de acesso.
O que a sociedade civil pode fazer sobre esse assunto?
As big techs desistiram de fingir que se importam com o que as pessoas pensam delas. Não são mais sensíveis à opinião pública como já foram. Antes, queriam ser vistas atuando para o bem comum ou, pelo menos, não causando danos. Uma das razões era o recrutamento. O mercado de trabalho em tecnologia sofreu bastante nos últimos anos. Tornou-se mais difícil conseguir emprego na área, o que significa que as empresas não precisam mais se preocupar se os potenciais funcionários acreditam ou não que elas estão fazendo o bem. Há candidatos de sobra para contratar. E a opinião no Vale do Silício está muito polarizada. Por isso, acredito que o modelo de ação da sociedade civil hoje é pressionar governos e reguladores, não diretamente as empresas. Elas não ligam para o que as pessoas pensam delas, mas governantes precisam se importar.
Como você enxerga o futuro das big techs?
Acredito que apenas uma ou duas coisas podem transformar o futuro. A primeira seria uma grande mudança política dentro dos Estados Unidos, de modo que o governo finalmente regulasse de forma efetiva essas plataformas. Estávamos caminhando nessa direção sob a administração Biden, mas Trump não se importa com nada disso. A outra possibilidade seria se as pessoas decidissem, individualmente, que não devem usar essas plataformas como fonte de notícias e informação. E, olha, eu entendo: são muito viciantes, fazem parte dos nossos hábitos diários de consumo. Não há razão para acreditar que, se eu, como indivíduo, mudar meus hábitos e deixar de usar redes sociais, isso vá gerar alguma transformação. Mas, se todos fizermos isso, é o instrumento mais forte que temos. Essas empresas só têm tanto poder sobre nós porque escolhemos usá-las todos os dias.