Vítimas lutam enquanto o Google não age rapidamente

Relatos de imagens e vídeos íntimos postados online sem consentimento estão aumentando, com deepfakes adicionando uma nova dimensão ao problema. No início de 2022, dois funcionários de políticas do Google se encontraram com mulheres vítimas do golpe GirlsDoPorn, onde vídeos explícitos delas estavam circulando online, inclusive por meio de resultados de pesquisa do Google.

As mulheres sugeriram que o Google usasse um disco rígido de 25 terabytes contendo todos os episódios do GirlsDoPorn para criar um "hash" de cada clipe e bloqueá-los dos resultados de pesquisa. No entanto, dois anos depois, nenhuma dessas ideias foi implementada, e os vídeos continuam a aparecer nos resultados de pesquisa.

Resposta inadequada do Google

Apesar das mudanças recentes que permitem que sobreviventes de abuso sexual baseado em imagem removam mais facilmente resultados de pesquisa indesejados, vítimas e defensores estão frustrados com a falta de ação mais ousada do Google. O Google se recusou a adotar a ferramenta da indústria StopNCII, que compartilha informações sobre imagens íntimas não consensuais (NCII), devido a preocupações sobre o conteúdo do banco de dados.

Internamente, funcionários do Google sugeriram medidas mais rigorosas, como exigir que sites adultos verifiquem o consentimento, mas essas ideias não foram adotadas. Um porta-voz do Google declarou que combater imagens explícitas não consensuais (NCEI) continua sendo uma prioridade e que as ações da empresa vão além do que é legalmente exigido.

No entanto, fontes dentro do Google argumentam que mais poderia ser feito. Elas apontam para as restrições mais rígidas do Google sobre material de abuso sexual infantil (CSAM) como evidência de que a empresa pode implementar medidas mais rigorosas para o NCII.

Apelos para medidas proativas

Os defensores acreditam que o Google deveria tomar medidas mais proativas para proteger as vítimas. O National Center on Sexual Exploitation argumenta que o Google deveria honrar automaticamente todas as solicitações de remoção e exigir que os sites provem que houve consentimento para gravar e publicar o conteúdo contestado.

Os sistemas atuais do Google, que tentam remover automaticamente links de pesquisa quando conteúdo relatado anteriormente ressurge, têm limitações. O conhecido sistema de proteção à vítima, projetado para filtrar resultados com imagens explícitas de consultas de pesquisa semelhantes, não é infalível.

Vítimas como as do golpe GirlsDoPorn são forçadas a permanecer vigilantes, constantemente procurando e relatando novos uploads de seu NCII. Esse fardo não deve recair sobre as vítimas, diz Adam Dodge, fundador do grupo de defesa Ending Tech-Enabled Abuse. Ele pede que o Google assuma mais responsabilidade na identificação e remoção proativa de mídia não consensual.

Um apelo à ação

Vítimas e defensores estão pedindo ao Google que adote medidas mais fortes para combater o crescente problema de imagens explícitas não consensuais. Embora o Google tenha feito algumas melhorias, como atualizar seus formulários e políticas de remoção, esses esforços são vistos como insuficientes.

Com o aumento de deepfakes gerados por IA e o aumento de relatos de NCII, a necessidade de medidas mais robustas e proativas é mais crítica do que nunca. As vítimas estão contando com o Google para tomar as medidas necessárias para garantir sua privacidade e segurança, e para pôr fim à revitimização causada pelo aparecimento contínuo de suas imagens explícitas online.