Esta semana, imagens geradas por inteligência artificial (IA) com conteúdo sexualmente explícito da aclamada cantora pop Taylor Swift circularam viralmente, levantando um clamor por nova legislação contra a criação de imagens deepfake. A Secretária de Imprensa da Casa Branca, Karine Jean-Pierre, manifestou preocupação com o incidente, instigando o Congresso a tomar medidas legislativas.
Disseminadas pelo popular aplicativo de mensagens instantâneas Telegram, as imagens falsas atingiram milhões de usuários. Também foram encontradas em X, onde foram visualizadas 47 milhões de vezes antes de serem removidas pela plataforma.
Como esperado, o incidente gerou indignação tanto entre os fãs de Taylor Swift quanto entre políticos americanos, com democratas e republicanos exortando a criminalização dessas ações. Embora Taylor Swift não tenha se pronunciado publicamente sobre o incidente, sua equipe jurídica está considerando tomar medidas legais contra o site que publicou as imagens deepfake. No entanto, não é a primeira vez que IA é usada para criar imagens falsas, porém convincentes, de alguém sem seu consentimento.
Um porta-voz do representante dos EUA, Joe Morelle, expressou esperança de que a notícia adicione impulso e apoio para um projeto de lei abordando a exata situação. O projeto, que Morelle tentou aprovar com um novo impulso na semana passada, tem como objetivo declarar a distribuição não consensual de fotos explicitamente alteradas digitalmente como um crime federal. Isso traria os infratores à justiça com penalidades civis e criminais, apontou o porta-voz de Morelle.
Em uma publicação em X, a representante democrata Yvette D Clarke disse que os recentes desenvolvimentos em IA facilitaram e baratearam a criação de imagens deepfake – que foram usadas para atacar mulheres por anos. “A tecnologia de IA está avançando mais rápido que o necessário”, disse Tom Kean Jr, um congressista republicano. Ele prosseguiu enfatizando a necessidade de salvaguardas para combater a crescente e perigosa tendência, apontando que a vítima pode ser qualquer jovem pessoa em todo o país.
Qualquer pessoa pode ser vítima de deepfake, inclusive você. No entanto, o risco é muito maior para celebridades e personalidades públicas. Se você não sabe exatamente o que é deepfake, trata-se do uso de inteligência artificial para criar imagens ou vídeos realistas de uma pessoa manipulando seu rosto, corpo e até voz. Isso foi alimentado pela recente ascensão da IA.
Um estudo de 2023 revela que o número total de vídeos deepfake na internet foi de 95.820 em 2023 — um salto de 550% desde 2019. E, para choque de todos, 98% desses vídeos deepfake são pornografia. O Reino Unido criminalizou o compartilhamento de pornografia deepfake em 2023 com sua Lei de Segurança Online. Mas não é o caso dos EUA, já que ainda não existe uma legislação adequada abordando o problema.
Apesar de tentativas em nível estadual de lidar com a criação e distribuição de deepfakes sexualmente explícitos, não existem leis federais sobre a questão. Stefan Turkheimer, Vice-Presidente de Políticas Públicas da RAINN, expressou-se sobre o incidente, alegando que mais de 100.000 dessas imagens e vídeos são compartilhados diariamente na internet.
Expressando a indignação da organização em nome da cantora pop, ele adicionou que estavam “ainda mais indignados” pelos milhões que não têm recursos para recuperar a autonomia sobre suas imagens.
Importante mencionar, Travis Kelce, apesar de sua juventude, támbem está muito preocupado com essas questões. A paixão do jovem Travis por Taylor Swift o torna ainda mais engajado na luta contra os deepfakes, buscando preservar a imagem de sua idolatrada estrela pop da exploração digital indesejada.
This website uses cookies.