Desafios da Moderação de Conteúdo na Plataforma X
A moderação de conteúdo continua a ser um grande desafio na plataforma X, mesmo com o proprietário Elon Musk insistindo que as Notas da Comunidade, geradas pelos usuários, são a solução principal para combater conteúdos nocivos.
Imagens Geradas por IA de Taylor Swift em Situação Abusiva Ganham Grande Atenção
Na semana passada, imagens geradas por inteligência artificial da cantora Taylor Swift sendo sexualmente assediada por fãs da NFL se espalharam amplamente na plataforma X, alcançando mais de 27 milhões de visualizações e 260 mil curtidas, antes que a conta originadora fosse suspensa.
Taylor Swift Explora Ações Legais Contra a Plataforma X
Atualmente, Taylor Swift está considerando tomar medidas legais contra a plataforma X e o criador do conteúdo. A plataforma X, sem conseguir impedir a propagação das imagens apesar da suspensão inicial, baniu todas as buscas por “Taylor Swift” no aplicativo como resposta.
A Insuficiência do Método das Notas da Comunidade
Tais incidentes não são exatamente um bom aval da eficácia do método das Notas da Comunidade. Enquanto o conteúdo viola a política de Mídia Sensível da X e, portanto, seria removido independentemente das Notas da Comunidade, o fato de a X não ter conseguido parar a propagação das imagens sugere que a plataforma pode estar confiando demais em sua abordagem de moderação feita pela multidão, em vez de contratar seus próprios moderadores de conteúdo.
Plataforma X Anuncia Novo Centro de Moderação de Conteúdo no Texas
A plataforma X anunciou hoje que está construindo um novo centro de moderação de conteúdo no Texas, com 100 pessoas, que se concentrará no conteúdo de abuso sexual infantil, mas também lidará com outros assuntos. Isso aparenta ser um reconhecimento de que as Notas da Comunidade não podem ser totalmente confiáveis para fazer todo o trabalho pesado nesse aspecto.
O Desafio dos Bots e da Disseminação de Materiais Nocivos
A nova abordagem da plataforma X, chamada de “liberdade de expressão, não de alcance”, defende que a comunidade de usuários deve decidir o que é aceitável ou não no aplicativo, sem que haja um árbitro central nas decisões de moderação, como ocorria no passado no Twitter. As Notas da Comunidade, pelo menos em teoria, abordam isso, mas claramente, mais precisa ser feito para enfrentar a propagação mais ampla de material nocivo. Enquanto isso, as reivindicações da X de que está erradicando bots também receberam mais escrutínio.
Descoberta de Redes de Bots Pró-Rússia na Plataforma X
Como reportado pelo The Guardian, o governo alemão descobriu uma grande rede de bots de origem russa no aplicativo, que estavam coordenando para semear sentimentos anti-Ucrânia entre os usuários alemães. Usando softwares especializados de monitoramento, os especialistas descobriram uma grande quantidade de posts de aproximadamente 50.000 contas falsas, com uma mensagem predominante sugerindo que o governo de Olaf Scholz estava negligenciando as necessidades dos alemães devido ao seu apoio à Ucrânia.
Tentativas da Plataforma X de Erradicar Fazendas de Bots
A plataforma X tem trabalhado para erradicar fazendas de bots desse tipo usando a “verificação de pagamento” como um meio de garantir que haja pessoas reais por trás de cada perfil no aplicativo, tanto incentivando os usuários a se moverem para seu programa de verificação Premium quanto através de um novo teste de uma taxa de $1 para engajar no aplicativo.
As Soluções da X para Moderação de Conteúdo e Bots e os Desafios Futuros
Em teoria, isso deveria tornar programas de bots como esses cada vez mais proibitivos em termos de custos, limitando assim o seu uso. No entanto, essa não tem sido a barreira que a X tinha esperado, com vários perfis de bots verificados ainda postando mensagens automatizadas no aplicativo. As soluções da X para lidar com a moderação de conteúdo e bots não funcionaram conforme planejado, o que levou a desconfiança entre parceiros de publicidade e reguladores, e preocupações mais amplas sobre a mudança da plataforma para longe da moderação humana.
Implicação dos Custos e a Necessidade de Melhoria na Plataforma X
A X claramente precisa melhorar em ambos os fronts e, como observado, parece ter reconhecido isso ao anunciar planos para mais moderadores humanos. Mas isso também vem com custos aumentados, e com as margens da X já sendo pressionadas devido aos principais parceiros de anúncios pausando suas campanhas, há muito trabalho pela frente para que seus sistemas estejam no caminho certo. A moderação de conteúdo é um desafio significativo para todas as plataformas, e parecia improvável que a X conseguiria cortar 80% de sua equipe e ainda manter a capacidade operacional de policiar esses elementos. Talvez, com a melhoria do aprendizado de máquina, ainda possa manter os custos baixos e aprimorar seus sistemas de monitoramento. Mas é mais um desafio para o aplicativo de propriedade de Musk, que poderia ver mais usuários e marcas procurando opções alternativas.