Tudo sobre Inteligência Artificial
O que você faria se encontrasse uma foto sua modificada por inteligência artificial? Uma adolescente de Nova Jersey enfrentou essa situação ao descobrir que seu retrato, em traje de banho, foi alterado por um aplicativo que remove roupas, criando uma imagem íntima falsa.
Com o apoio de um professor da Faculdade de Direito de Yale, alunos e um advogado, ela entrou com uma ação contra a desenvolvedora do aplicativo. As alegações incluem a criação e distribuição de fotos de adultos e adolescentes nus sem consentimento.

Processo Pede Que Todas as Fotos Sem Consentimento Sejam Excluídas
De acordo com o The Wall Street Journal, a empresa AI/Robotics Venture Strategy 3 Ltd., responsável pela ferramenta ClothOff, é acusada de gerar imagens falsas de nudez. O caso começou há dois anos, quando a jovem, então com 14 anos, descobriu que um colega havia manipulado sua foto e compartilhado a imagem alterada com outros alunos.
O processo também cita o aplicativo Telegram, que hospedava um bot do ClothOff, já removido. A jovem pede que o tribunal determine a exclusão permanente das imagens e o bloqueio do site nos EUA.

Na ação, a autora solicita que todas as imagens de nudez de crianças e adultos sem consentimento sejam eliminadas e não utilizadas para treinar os modelos de inteligência artificial da empresa. Em resposta, a companhia, com sede nas Ilhas Virgens e operada da Bielorrússia, diz que o uso de imagens de menores é tecnicamente “impossível” e que promove o uso ético da IA. O Telegram reiterou que pornografia não consensual é explicitamente proibida em seus termos de serviço e removida assim que detectada.
Como Foi o Caso
- A adolescente postou uma foto no Instagram em que estava de maiô.
- Um colega de classe baixou a imagem e gerou uma foto falsa de nudez usando inteligência artificial.
- As imagens adulteradas, que mostravam rostos reconhecíveis, foram compartilhadas entre estudantes.
- As vítimas descobriram suas fotos manipuladas e expostas sem consentimento.
- Uma das jovens moveu uma ação judicial contra o ClothOff, acusando a empresa de permitir a criação e disseminação das imagens.
- A denúncia argumenta que o material criado configura abuso sexual infantil.

Lei Afirma Que É Crime Federal Publicar Imagens Íntimas Não Consensuais
Em maio de 2025, o Congresso dos EUA aprovou o Take It Down Act, que torna crime federal divulgar imagens íntimas sem autorização, sejam reais ou geradas por inteligência artificial. A lei exige que os sites removam essas imagens em até 48 horas.
A vítima do caso ClothOff vive com medo de ver suas imagens usadas online. Enquanto isso, o procurador da cidade de São Francisco, David Chiu, entrou com uma ação em 2024 contra 16 sites de nudez deepfake, incluindo o ClothOff. Muitos desses sites foram fechados.
Nós não vamos parar até que todos os proprietários sejam responsabilizados.
David Chiu, procurador da cidade de São Francisco, ao WSJ.
Este caso levanta questões importantes sobre privacidade e os limites da tecnologia. Você já teve notícias de situações semelhantes? Compartilhe sua opinião e interaja conosco nos comentários.
Facebook Comments