A Microsoft está sob pressão para agir rapidamente contra a criação de deepfakes explicitamente sexuais e sem consentimento, depois que imagens falsas geradas por IA de Taylor Swift nua viralizaram esta semana, revelou na sexta-feira o CEO da Microsoft, Satya Nadella.
Em uma entrevista exclusiva ao NBC News com Lester Holt, Nadella expressou sua preocupação com as “alarmantes e terríveis” imagens deepfake de Swift, que foram postadas em X e até quinta-feira já haviam sido visualizadas mais de 27 milhões de vezes.
A conta que divulgou as imagens foi suspensa após uma série de denúncias feitas pelos fãs da cantora.
“Sim, precisamos agir”, disse Nadella em resposta a uma pergunta sobre os deepfakes de Swift. “Todos nós nos beneficiamos quando o mundo online é um lugar seguro. Portanto, não imagino que alguém deseje um mundo online inseguro para criadores e consumidores de conteúdo. Por isso, é nossa responsabilidade agir rapidamente nessa questão.”
X não respondeu ao pedido de comentário da NBC News sobre as imagens deepfake de Swift, enquanto o representante da cantora se recusou a comentar sobre o assunto.
A Microsoft tem investido em tecnologia de inteligência artificial própria, sendo um dos principais investidores na OpenAI — uma das principais organizações de IA que criou o ChatGPT — assim como em ferramentas integradas aos produtos da Microsoft, como o Copilot, um chatbot de IA no motor de busca da empresa, o Bing.
“Eu retorno ao que acredito ser nossa responsabilidade, que são todas as salvaguardas que precisamos colocar em torno da tecnologia para que seja produzido mais conteúdo seguro,” afirmou Nadella. “Há muito a ser feito e já está sendo feito. Mas trata-se de uma convergência global e societal sobre certas normas, especialmente quando conseguimos reunir lei, aplicação da lei e plataformas tecnológicas; acredito que podemos governar mais do que imaginamos.”
A 404 Media relatou que as imagens deepfake de Swift que viralizaram em X foram rastreadas até um grupo de chat no Telegram, onde os membros disseram ter usado a ferramenta de IA generativa da Microsoft, o Designer, para produzir tal material. A NBC News não confirmou de forma independente essa reportagem.
Nadella não comentou diretamente sobre o relatório da 404 Media, mas em uma declaração à 404 Media a Microsoft disse que estava investigando os relatórios e tomaria as medidas apropriadas para abordá-los. “Nosso Código de Conduta proíbe o uso de nossas ferramentas para a criação de conteúdo adulto ou íntimo não consensual, e quaisquer tentativas repetidas de produzir conteúdo que vá contra nossas políticas podem resultar em perda de acesso ao serviço”, declarou a Microsoft.
A empresa tem grandes equipes trabalhando no desenvolvimento de salvaguardas e outros sistemas de segurança em linha com seus princípios de IA responsável, incluindo filtragem de conteúdo, monitoramento operacional e detecção de abuso para mitigar o mau uso do sistema e ajudar a criar um ambiente mais seguro para os usuários.
This website uses cookies.