Deepfake usa uma grande quantidade de vídeos pornográficos para treinar a IA: mas a lei só protege o rosto, nunca ninguém se importa com quem pertence aquele corpo?

A discussão sobre deepfake pornográfico de IA há muito se concentra no rosto sintetizado, ignorando a quem pertence aquele corpo; mais de 10.000 TB de conteúdo adulto suspeito de serem usados para treinar modelos nudify.
(Resumindo: Pesquisa da Universidade da Califórnia revela o fenômeno de “névoa de IA”: 14% dos trabalhadores estão enlouquecendo com agentes e automação, com 40% considerando sair do emprego)
(Informação adicional: Últimas notícias》Huang Renxun entrou na Air Force One na última hora para acompanhar Trump na visita à China, foco na exportação de chips NVIDIA)

Índice deste artigo

Alternar

  • Corpo como dado de treinamento
  • Deslocamento na era dos contratos
  • A ironia do Take It Down Act

Sempre que alguém fala sobre deepfake pornográfico de IA, o foco da discussão quase sempre está naquele rosto, na face sintetizada, na face que fez ela fazer coisas que ela nunca fez. Mas há outro problema quase nunca mencionado: de quem é aquele corpo?

De acordo com a reportagem da 《technologyreview》, Jennifer, uma psicoterapeuta de Nova York de 37 anos, usou um software de reconhecimento facial em 2023 para procurar seus vídeos adultos de dez anos atrás, e encontrou um vídeo que ela nunca tinha visto: seu corpo, com o rosto de outra pessoa.

Ela reconheceu o cenário de fundo como uma cena filmada em 2013, e percebeu: “Alguém usou meu corpo para fazer deepfake.”

Corpo como dado de treinamento

A palavra deepfake surgiu em novembro de 2017, quando um usuário do Reddit chamado “deepfakes” começou a colocar rostos de celebridades em corpos de atores adultos. Desde então, o corpo de criadores de conteúdo adulto se tornou o material mais frequentemente roubado, uma situação “que sempre acontece”, disse o advogado especializado na indústria adulta Corey Silverstein.

Mas a natureza do problema mudou. O corpo de atores adultos não é mais apenas extraído para vídeos específicos, mas usado como dado de treinamento para ensinar a IA a gerar “imagens realistas de nudez”, a mover-se, a parecer autêntico. Esse processo ocorre sem consentimento informado e quase sem rastreamento.

O modelo de negócios do aplicativo “nudify” é baseado nisso: basta fazer upload de uma foto vestida para obter uma foto falsa de nudez. Esses aplicativos quase certamente usam mais de 10.000 TB de conteúdo adulto online como fonte de treinamento, deixando os criadores sem quase nenhuma forma de reparação.

Hany Farid, especialista em análise digital da UC Berkeley, afirma: “Tudo isso é uma caixa preta.” Mas, dada a prevalência de conteúdo adulto na internet, é “uma hipótese razoável” que seja usado para treinar IA.

O problema não se limita ao treinamento. A IA já consegue reproduzir completamente a aparência e a voz de atores adultos. A criadora Tanya Tate recentemente soube que um fã famoso gastou 20 mil dólares para conversar sexualmente com uma versão de IA dela, criada por um golpista. Após serem enganados, vários fãs começaram a acusar Tate pessoalmente e a espalhar informações falsas.

A empresa de aplicação de direitos autorais Takedown Piracy, usando tecnologia de impressão digital, removeu 130 milhões de vídeos infratores de uma única plataforma do Google, mesmo que os vídeos tenham sido modificados ou os rostos trocados, a impressão digital ainda identifica o material original.

Deslocamento na era dos contratos

Muitos atores adultos assinaram contratos anos atrás que continham cláusulas como “o editor pode usar qualquer tecnologia presente ou futura que venha a ser descoberta”. Na época, imaginava-se VHS convertendo-se em DVD.

Ninguém previu que “tecnologias futuras” significariam treinar IA com seu conteúdo para criar substitutos sintéticos capazes de substituir seu trabalho. Stephen Casper, doutorando em ciência da computação no MIT, aponta que atores que começaram a criar antes do surgimento da IA não poderiam ter consentido previamente com esses usos; esses riscos são “impostos retroativamente”, descreve Jennifer.

A capacidade de enganar da IA também está acelerando. Uma pesquisa de Farid em 2025 revelou que a taxa de acerto de participantes ao identificar fala gerada por IA era de apenas cerca de 60%, pouco acima do palpite aleatório.

A ironia do Take It Down Act

A única lei federal dos EUA contra deepfake atualmente é o Take It Down Act, que exige que sites removam imagens íntimas não consensuais (NCII) em 48 horas. A intenção da lei é proteger vítimas, mas pode ter efeito contrário.

Eric Goldman, professor de direito na Universidade de Santa Clara, afirma que qualquer pessoa pode denunciar conteúdo adulto legal e consensual, alegando que se trata de NCII, forçando plataformas a removerem. Isso faz da lei uma ferramenta potencial de censura, alinhada ao objetivo do Projeto 2025 de eliminar conteúdo pornográfico da internet.

Atualmente, a lei americana não considera esse tipo de violação de direitos autorais como invasão de privacidade, pois “não sabemos a quem atribuir a responsabilidade”, diz Goldman. A UE, Reino Unido e Austrália já anunciaram restrições ao aplicativo nudify, mas esses apps, uma vez removidos, frequentemente reaparecem com nomes diferentes.

Reba Rocket diz: “Garotas de IA farão qualquer coisa que você quiser, elas não dizem não. Isso me assusta, especialmente quando treinam esses modelos com pessoas reais. E uma vez na internet, fica lá para sempre.”

TRUMP-2,02%
NVDA1,04%
TAKE-1,17%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Fixado