Seu corpo, sua voz e seu rosto ainda são seus? A IA pode fazer você duvidar

Inteligência artificial

Tudo sobre Inteligência Artificial

A cada nova tendência que você participa na internet, mais informações sobre você são coletadas pelas inteligências artificiais. Desde uma foto de casal até uma imagem profissional, compartilhamos nossas imagens e vozes sem pensar muito. Mas será que isso é seguro?

Recentemente, a repórter Nicole Nguyen, do The Wall Street Journal, teve uma experiência inquietante ao postar uma foto de seu filho vestido de duende. A imagem era adorável, mas, surpreendentemente, não era real. Isso a levou a refletir sobre nossa capacidade de controlar a própria imagem na era da inteligência artificial.

As políticas de privacidade de empresas como Meta, Google e OpenAI permitem que imagens dos usuários sejam utilizadas para melhorar seus sistemas de IA. Com o avanço das ferramentas de geração de vídeo e foto, um simples registro pode criar um clone digital que age e fala como você, tudo isso gerado por algoritmos.

deepfake IAs e1752858491520
(Imagem: Tero Vesalainen/Shutterstock)

Deepfakes e IA: o novo desafio da identidade digital

  • Modelos de IA conseguem replicar rostos e vozes de forma impressionante.
  • Ferramentas como Sora (OpenAI) e Vibes (Meta) criam vídeos inteiros com pessoas que não existem.
  • Especialistas alertam: mesmo com segurança, o uso indevido é uma realidade.
  • Pessoas comuns e celebridades têm sido vítimas de falsificações.
  • As leis estão começando a surgir, mas ainda estão atrasadas em relação à tecnologia.

Quando a ficção se torna crime

Em um experimento, Nicole testou o aplicativo Sora, que gera vídeos com avatares realistas. Em poucos segundos, a IA produziu uma versão dela em situações absurdas, como um discurso no Oscar. O resultado era tão realista que poderia enganar familiares e amigos.

Meu avatar não era perfeito – meus dentes pareciam estranhos, assim como algumas das minhas expressões – mas a semelhança era impressionante.

Nicole Nguyen

Aumentam os casos de uso indevido de imagem

Em 2023, uma imagem falsa do Papa Francisco circulou na internet. Desde então, os deepfakes evoluíram de fotos estáticas para vídeos completos. Com o lançamento do Sora 2, as redes sociais estão recheadas com vídeos de celebridades gerados por IA, como Michael Jackson e Taylor Swift. Embora muitos sejam inofensivos, a tecnologia tem um lado sombrio.

A meteorologista Bree Smith foi uma das vítimas de deepfakes sexuais, com seu rosto sendo colocado em vídeos íntimos de outras pessoas, um caso que gerou bastante repercussão e contribuiu para a aprovação de uma lei no Tennessee que criminaliza tais práticas.

Com a legislação ainda atrasada, novas empresas, como Vermillio e Loti, oferecem serviços para monitorar e remover conteúdos falsos, mas a proteção é cara. A Vermillio cobra entre US$ 10 a US$ 99 por mês, enquanto a Loti pode chegar a US$ 2.500 para figuras públicas.

Captura de tela de anúncio falso com deepfake de Taylor Swift
(Imagem: Reprodução/The New York Times)

O impacto humano da era dos rostos digitais

O uso indevido de imagens se tornou um risco cotidiana, afetando desde influenciadores até adolescentes. As consequências vão além da privacidade, incluindo impactos psicológicos e sociais, como constrangimento e perda de credibilidade profissional.

Num mundo onde os conteúdos novos aparecem a todo momento, pode ser difícil identificar um deepfake. Muita gente pode ser enganada sem perceber que está vendo uma fabricação digital.

E você, o que pensa sobre o avanço das inteligências artificiais na manipulação de imagens? Compartilhe suas opiniões nos comentários. Vamos discutir juntos!

Facebook Comments

ARTIGOS RELACIONADOS