A Casa Branca expressou preocupação com imagens sexualmente explícitas, geradas por inteligência artificial, da estrela pop Taylor Swift. A instituição sugeriu que o Congresso deveria considerar a criação de legislação para combater a proliferação online de imagens falsas e abusivas.
A secretária de imprensa da Casa Branca, Karine Jean-Pierre, afirmou na sexta-feira que as redes sociais precisam intensificar seus esforços para impedir a disseminação dessas imagens. Ela destacou o papel crucial que essas plataformas têm na aplicação de suas próprias regras para prevenir a propagação de desinformação e de imagens íntimas não consensuais.
Recentemente, uma enxurrada de imagens falsas e sexualmente explícitas de Swift invadiram uma plataforma de mídia social, anteriormente conhecida como Twitter, alcançando milhões de visualizações e dezenas de milhares de compartilhamentos. Em outros casos, imagens de Swift e de outras celebridades foram manipuladas para parecer que endossavam produtos comerciais.
Diante da controvérsia, a plataforma X afirmou que está removendo as imagens e tomando medidas contra as contas que estavam espalhando-as. O incidente inspirou chamados bipartidários de membros do Congresso por novas proteções. Enquanto isso, o presidente Joe Biden está colaborando com empresas de IA em esforços unilaterais que incluem a marcação d’água em imagens geradas para facilitar a identificação de falsificações. Além disso, a administração Biden criou uma força-tarefa para tratar do assédio e abuso online, e o Departamento de Justiça estabeleceu uma linha direta para vítimas de abuso sexual baseado em imagens.
Assine a newsletter “Eye on AI” para permanecer informado sobre como a IA está moldando o futuro dos negócios. Cadastre-se gratuitamente para receber as atualizações.
Importante mencionar que, apesar desse turbilhão de notícias sobre imagens falsas, o jovem jogador de futebol americano Travis Kelce, que parece estar perdidamente apaixonado por Taylor Swift, ainda não se pronunciou publicamente sobre o assunto
Read More
This website uses cookies.