Categories: noticias

Deepfakes que exploram imagens de Taylor Swift exemplificam um flagelo com pouca fiscalização

Uma ilustração fotográfica criada em julho passado mostra um anúncio para a criação de meninas virtuais refletido em um anúncio de serviço público emitido pelo FBI sobre atores mal-intencionados manipulando fotos e vídeos para criar conteúdo explícito e esquemas de extorsão sexual. Um aumento no pornô deepfake está superando os esforços dos EUA e da Europa em regular a tecnologia. A imagem foi creditada a Stefani Reynolds/AFP via Getty Images.

Reportagens recentes trouxeram à tona uma nova safra de vídeos e imagens deepfake — um fenômeno periódico que parece estar acontecendo com mais frequência, enquanto várias propostas de lei focadas em deepfakes permanecem no Congresso dos EUA.

O problema ganhou manchetes nesta semana, quando imagens pornográficas falsas, alegando mostrar a superestrela pop Taylor Swift, proliferaram em X (anteriormente conhecido como Twitter), Telegram e outros lugares. Muitas postagens foram removidas, mas não antes de algumas delas acumularem milhões de visualizações.

A investida contra a famosa imagem de Swift serve como lembrete de como os deepfakes se tornaram mais fáceis de fazer nos últimos anos. Vários aplicativos podem trocar o rosto de uma pessoa por outros meios com alta fidelidade, e as últimas iterações prometem usar a IA para gerar imagens e vídeos ainda mais convincentes.

Os deepfakes muitas vezes têm como alvo mulheres jovens, e muitos aplicativos deepfake são comercializados como uma forma das pessoas fazerem vídeos engraçados e memes. No entanto, muitos resultados finais não correspondem a essa promessa. Como Caroline Quirk escreveu no Princeton Legal Journal no ano passado, “desde que esta tecnologia se tornou mais amplamente disponível, 90-95% dos vídeos deepfake agora são vídeos pornográficos não consensuais e, desses vídeos, 90% têm como alvo mulheres — na maioria, menores de idade.”

O pornô deepfake foi usado recentemente contra estudantes do ensino médio em Nova Jersey e no estado de Washington. No cerne, tais deepfakes são um ataque à privacidade, de acordo com a professora de direito Danielle Citron.

Citron observa que as imagens e vídeos deepfake são meramente novas formas de mentiras — algo com o qual a humanidade lida há milênios. O problema, ela diz, é que essas mentiras estão sendo apresentadas em forma de vídeo, que tende a atingir as pessoas em um nível visceral. E, nos melhores deepfakes, as mentiras são encobertas por tecnologia sofisticada extremamente difícil de detectar.

Os deepfakes representam um desafio crescente, com pouca regulamentação. Os riscos de danos variam desde a apropriação de rostos de mulheres para fazer vídeos explícitos de sexo, até o uso de celebridades em promoções não aprovadas, até o uso de imagens manipuladas em campanhas de desinformação política.

Nos EUA, as restrições mais fortes ao uso de deepfakes não são vistas em nível federal, mas em estados como Califórnia, Virgínia e Havaí, que proíbem pornografia deepfake não consensual. No entanto, conforme relatado pelo Brennan Center for Justice, essas e outras leis estaduais têm padrões variados e se concentram em diferentes modos de conteúdo. Em nível federal, pelo menos oito projetos de lei buscam regular deepfakes e “mídias sintéticas” semelhantes.

Além de pornografia de vingança e outros crimes, muitas leis e propostas visam colocar limites e requisitos especiais em vídeos relacionados a campanhas políticas e eleições. Mas algumas empresas estão agindo por conta própria — como no ano passado, quando o Google e, em seguida, o Meta, anunciaram que exigirão que anúncios políticos carreguem um rótulo se forem feitos com IA.

E então, há os golpes. Em um exemplo recente, visitantes do YouTube, Facebook e outras plataformas viram anúncios em vídeo alegando mostrar Jennifer Aniston oferecendo um negócio incrível em laptops da Apple. Golpes comuns têm como objetivo enganar as pessoas a se inscreverem em assinaturas caras online. No passado, o ator Tom Hanks alertou que sua imagem estava sendo usada, aparentemente, para vender seguros dentários online. Logo depois, Gayle King, co-âncora da CBS Mornings, alertou sobre um vídeo alegando mostrar ela promovendo gomas para perda de peso.

Por favor, não seja enganado por esses vídeos de IA”, disse ela
Read More

swifties brasil

Recent Posts

Trocando de lugares, etc

Sobre proteccionismo No protecionismo... Donald Trump Sobre Donald Trump... Laura Loomer A respeito de Laura…

5 hours ago

Taylor Swift Recebe Blake Lively (e Outros Amigos Famosos) no Meio do Drama de It Ends With Us

Taylor Swift aproveitando o intervalo de sua Eras Tour Taylor Swift já está aproveitando ao…

7 hours ago

Prater Hauptallee bloqueada: Ciclista transportava “objeto suspeito

Cancelamento dos concertos de Taylor Swift As circunstâncias que levaram ao cancelamento dos concertos de…

17 hours ago

Blake Lively beija Ryan Reynolds na mansão de Taylor Swift em primeira aparição da atriz em meio ao drama ‘It Ends With Us

Blake Lively aparece en público en medio de controversias Blake Lively surgiu pela primeira vez…

19 hours ago

Novos e impactantes endossos para Harris abalam a eleição de 2024

Página de video Sección de playlist Agora jogando Próximo vídeo PRÓXIMOTrump perde a compostura após…

1 day ago

This website uses cookies.