Tudo sobre Inteligência Artificial
Um grupo de amigas em Minneapolis, Minnesota, enfrentou uma realidade alarmante ao descobrir que suas fotos pessoais estavam sendo usadas para criar deepfakes pornográficos. Essa situação preocupante veio à tona em junho do ano passado, quando Jessica Guistolise, uma consultora de tecnologia, recebeu um aviso de que mais de 80 mulheres da região tiveram suas imagens manipuladas em conteúdos de natureza sexual produzidos por inteligência artificial.
Segundo uma reportagem da CNBC, os vídeos e fotos falsos foram gerados pelo site DeepSwap, um dos apps classificados como “nudify”. Esses serviços permitem que qualquer pessoa, mesmo sem formação técnica, crie imagens explícitas sem o consentimento das pessoas retratadas. O caso das mulheres de Minneapolis destaca como essas ferramentas de IA podem invadir a privacidade e causar sérios danos.

O impacto da descoberta
Jessica Guistolise foi alertada por uma conhecida, Jenny, que o ex-marido dela, Ben, estava criando deepfakes usando fotos retiradas das redes sociais. Jenny mostrou a Jessica imagens manipuladas de várias mulheres, incluindo algumas amigas, como a estudante de direito Molly Kelley.
Ao analisar as imagens, Guistolise se deu conta de que algumas foram tiradas de momentos íntimos, como férias com a família e a formatura da afilhada. O grupo se organizou para entender o alcance desse problema e buscar uma ação legal. Embora Ben tenha admitido a criação dos deepfakes, não havia provas de que ele as havia compartilhado, situação que complicava a aplicação da lei. Kelley comentou: “Ele não quebrou nenhuma lei que conhecemos”, mostrando a lacuna legal diante das novas tecnologias.
Nudify: fácil, acessível e perigoso
Ferramentas como DeepSwap estão disponíveis em plataformas como Facebook e Instagram, além de serem encontradas na App Store e Google Play. Especialistas alertam que o processo de criação de imagens explícitas é extremamente rápido. De acordo com Haley McNamara, do National Center on Sexual Exploitation, é possível fazer um deepfake sexual realista a partir de uma única foto em menos tempo do que leva para preparar um café.

A facilidade de acesso a essas ferramentas aumenta os riscos, especialmente para as mulheres, que têm sido as principais vítimas. Pesquisadoras da Universidade da Flórida e da Georgetown University notam que sites como DeepSwap funcionam com modelos de assinatura, criando um mercado lucrativo, embora ainda pequeno dentro da esfera da IA generativa.
O que são apps “nudify”
- Apps “nudify” usam inteligência artificial para alterar fotos de pessoas, simulando que estão nuas.
- A tecnologia substitui roupas por versões digitais do corpo da pessoa, criando imagens que parecem realistas.
- Esses aplicativos operam com redes neurais e algoritmos de deep learning, reconstruindo partes do corpo de forma artificial a partir da imagem original.
Consequências psicológicas
O trauma gerado pelos deepfakes foi intenso. Kelley, grávida na época, relatou aumento de estresse e impactos na saúde. Megan Hurley sentiu paranoia e ansiedade, pedindo a amigos que fizessem capturas de tela se encontrassem imagens dela online. Pesquisadores apontam que, mesmo sem a divulgação pública, a simples existência do conteúdo gera medo e vulnerabilidade.
Ações legais e políticas
As mulheres buscaram apoio de legisladores, incluindo a senadora estadual Erin Maye Quade, que apresentou um projeto de lei em Minnesota. Esta proposta prevê multas de US$ 500 mil para empresas que criem deepfakes sexuais sem consentimento. A medida foca na criação de conteúdo e não apenas na distribuição, tentando preencher lacunas da legislação atual, que ainda enfrenta desafios no controle de empresas internacionais.
No âmbito federal, o Take It Down Act, sancionado pelo presidente Donald Trump, criminaliza a publicação de imagens sexuais não consensuais, incluindo deepfakes. Porém, especialistas afirmam que a lei não resolve totalmente situações em que o conteúdo nunca foi compartilhado publicamente.
O cenário internacional e o mercado de deepfakes
O problema é global. Em 2024, um australiano foi condenado a nove anos de prisão por criar deepfakes de 26 mulheres, enquanto autoridades examinavam casos envolvendo dezenas de adolescentes. Apesar da exclusão de sites populares como MrDeepFakes, os serviços de nudify continuam a crescer.
No Brasil, um grupo foi acusado de criar deepfakes pornográficos a partir de fotos publicadas nas redes sociais. Esses crimes envolvem comunidades no Facebook e no Telegram que aceitam “encomendas” de imagens falsas.
Plataformas como Meta têm trabalhado para remover anúncios e aplicativos relacionados, mas especialistas em segurança digital alertam sobre o uso de novos canais, como Discord, para a troca de informações sobre a criação de conteúdo sexual de IA.
Um alerta para o público
Guistolise e suas amigas seguem tentando reconstruir suas vidas e alertar o público sobre os riscos da tecnologia. Ela ressalta: “É importante que as pessoas saibam que isso existe, é acessível e fácil de fazer, e precisa parar”.

O caso das mulheres de Minneapolis mostra como a IA mal utilizada pode causar danos reais e duradouros, sublinhando a necessidade de legislação e conscientização sobre deepfakes.
Facebook Comments