Plataforma X Interrompe Buscas pelo Nome de Taylor Swift Após Propagação de Deepfakes Pornográficos
A plataforma X confirmou que está impedindo os usuários de pesquisar o nome de Taylor Swift depois que deepfakes pornográficos da artista começaram a circular no site esta semana. Os visitantes do site começaram a notar no sábado que algumas buscas contendo o nome de Swift só retornavam uma mensagem de erro. Em um comunicado ao Wall Street Journal no sábado à noite, Joe Benarroch, chefe de operações de negócios da X, declarou: “Esta é uma ação temporária e feita com muita precaução enquanto priorizamos a segurança nesta questão.” Essa medida vem dias depois de o problema ter sido divulgado inicialmente.
Críticas à Resposta Inicial da Plataforma X e Ações dos Fãs para Conter a Propagação das Imagens
A maneira como a X lidou com o problema desde o começo atraiu críticas por ter sido lenta em conter a disseminação de imagens sexualmente explícitas não consensuais. Após as imagens viralizarem na quarta-feira, os fãs de Swift tomaram a iniciativa de limitar a visibilidade das imagens e remover as contas que as compartilharam, fazendo denúncias em massa e inundando as hashtags relacionadas à cantora com conteúdo positivo, conforme reportado pela NBC News no início desta semana. Muitas das contas ofensivas foram posteriormente suspensas, mas não antes de serem vistas, em alguns casos, milhões de vezes. The Verge relatou na quinta-feira que uma postagem foi visualizada mais de 45 milhões de vezes.
Declaração da Plataforma X e a Persistência das Imagens Online
Em um comunicado postado em sua plataforma mais tarde naquele dia, a X disse: “Postar imagens de Nudez Não Consensual (NCN) é estritamente proibido na X e temos uma política de tolerância zero em relação a esse conteúdo. Nossas equipes estão ativamente removendo todas as imagens identificadas e tomando as medidas apropriadas contra as contas responsáveis por postá-las. Estamos monitorando de perto a situação para garantir que qualquer violação adicional seja imediatamente abordada e o conteúdo removido. Estamos comprometidos em manter um ambiente seguro e respeitoso para todos os usuários.” No entanto, ainda era possível encontrar as imagens nos dias seguintes.
Origem Provável das Imagens e a Resposta da Microsoft
404Media rastreou a provável origem das imagens até um grupo no Telegram conhecido por criar imagens AI geradas não consensuais de mulheres, usando ferramentas gratuitas, incluindo o Microsoft Designer. Em uma entrevista com Lester Holt da NBC News na sexta-feira, Satya Nadella, CEO da Microsoft, disse que o problema destaca a responsabilidade da empresa e “todas as salvaguardas que precisamos colocar em torno da tecnologia para que haja mais conteúdo seguro sendo produzido.” Ele continuou dizendo que “há muito a ser feito lá, e muito está sendo feito,” mas também observou que a empresa precisa “agir rapidamente.”