O que é a inteligência artificial que fez a imagem do papa de casacão

Publicado em

Tempo estimado de leitura: 3 minutos

RAPHAEL HERNANDES
SÃO PAULO, SP (FOLHAPRESS) – No sábado (25), as redes sociais foram inundadas com uma imagem falsa do papa Francisco vestindo um casacão branco (também chamado por aí de jaqueta puffer, ou japona para quem está abaixo do Trópico de Capricórnio).

Além do suposto estilo papal, o conteúdo chamou a atenção por se tratar de uma imagem gerada por inteligência artificial (IA) extremamente convincente, que enganou muita gente.

Não é a primeira do tipo que brotou nos últimos dias. Em aplicações mais nocivas, deepfakes (conteúdo sintético gerado por IA) mostraram uma falsa prisão do ex-presidente americano Donald Trump e uma forjada cena do presidente russo Vladmir Putin atrás das grades.

A tecnologia usada para fazer esse tipo de conteúdo é chamada de “inteligência artificial generativa”, pois gera novos conteúdos. Nesse caso, criam imagens, mas a categoria ganhou destaque no final do ano passado com o lançamento do ChatGPT, voltado a textos. Outras aplicações sintetizam áudios e vídeos.

Por mais que a versão mais atualizada do GPT (motor do ChatGPT) seja capaz de entender fotos, tratam-se de sistemas distintos, cada um especializado em uma coisa. Os que fazem imagens passaram a borbulhar no primeiro semestre de 2022 com a explosão de aplicativos fáceis de usar, por mais que esse tipo de uso de IA já existisse anos antes.

Alguns dos principais nomes nessa área são o Dall-e (da mesma criadora do GPT), Stable Diffusion e Midjourney. A imagem do papa foi publicada na comunidade oficial deste último dentro do fórum online Reddit na sexta (24).

No último dia 15, o Midjourney recebeu uma atualização, ainda em testes, para uma versão que promete resultados ainda mais realistas.

Nesses sistemas, os usuários descrevem a imagem que querem usando um texto e pronto. No exemplo abaixo, a reportagem pediu ao Dall-e que fizesse “um [cachorro] pug preto comendo uma banana em estilo Renascentista”.

Assim como outras IAs modernas, tudo passa pela análise de um monte de dados. O computador detecta padrões em imagens e usa a informação para sintetizar seus conteúdos.

A verossimilhança é possível graças a uma arquitetura denominada “rede generativa adversarial”. Essa categoria de aprendizagem de máquina surgiu em 2014 e coloca a IA em pares: um lado capaz de criar o conteúdo, outro para avaliar se o conteúdo é falso. É como se um robô ficasse repetidamente gerando imagens enquanto o segundo responde “não está bom, faça de novo” até o resultado ser convincente.

Há algumas limitações, percebidas principalmente nos detalhes. No caso da imagem do papa, as mãos distorcidas denunciam a IA –uma questão frequente nesses sistemas, mas que começa a ser solucionada. Em versões mais antigas desses geradores, uma das principais dificuldades eram os dentes.

Em 2019, o site “This Person Does Not Exist” (“esta pessoa não existe”) trouxe ao público uma das primeiras impressões desse tipo de tecnologia. Usando uma IA menos sofisticada do que a vista atualmente, gera retrato de pessoas não existentes.

Usando uma versão mais recente, rostos sintéticos foram classificados como mais confiáveis do que faces reais. A avaliação consta em artigo científico publicado pelos pesquisadores Sophie Nightingale (Universidade Lancaster, na Inglaterra) e Hany Farid (Universidade da California em Berkeley, nos EUA), em 2022. Para os testes, exibiram baterias de retratos para um grupo de pessoas classificar.

“As imagens geradas sinteticamente não são só realistas, mas inspiram mais confiança que as reais. Isso pode ser porque as sintéticas tendem a parecer mais genéricas”, diz o estudo.

Uma das preocupações vindas desses conteúdos sintéticos é justamente a aplicação nos deepfakes. A preocupação levou a a Darpa (Agência de Projetos de Pesquisa Avançada de Defesa dos EUA) a investir milhões no desenvolvimento de tecnologias para combater esses conteúdos falsos.

A difusão da inteligência artificial generativa para imagens levou a protestos de artistas, em partes pelo temor de substituição no trabalho, principalmente após uma IA ganhar um concurso de arte.

Há também a questão do uso de seus conteúdos para alimentar os robôs. A criadora da Stable Diffusion, Stability AI, foi processada pelo fornecedor de banco de imagens Getty Images pelo uso indevido de suas fotos

Que você achou desse assunto?

ÚLTIMAS NOTÍCIAS

- Publicidade -

ASSUNTOS RELACIONADOS

ChatGPT fica mais rápido e 50% mais barato

A OpenAI revelou nesta segunda-feira, 13, o novo cérebro do ChatGPT: o GPT-4o. Em uma demonstração que aproxima sua ferramenta do filme Ela (Spike Jonze, 2013), a companhia de inteligência artificial (IA) mostrou avanços sobre o GPT-4 turbo e ampliou a capacidade de processamento de texto e compreensão de imagens, além de manter suporte para

Tem iPhone? Atenção, há uma nova atualização para fazer

A Apple lançou recentemente uma nova atualização para o iPhone, o iOS 17.5, que traz uma série de novas funcionalidades úteis. Uma dessas novidades é o Repair State, que permite manter ativado o sistema de geolocalização Find My mesmo quando o dispositivo é enviado para reparo. Além disso, o iOS 17.5 traz uma vantagem significativa

Apple e Google lançam ferramenta para alertar usuários sobre rastreamento

Nesta segunda-feira, as empresas Apple e Google integraram em seus sistemas operacionais uma ferramenta que alerta os usuários de iPhone e Android caso alguém esteja os rastreando por meio de um localizador sem fio ou Bluetooth. Conforme comunicado da Apple, o recurso, chamado de "Detecção de Rastreador Indesejado", foi lançado a partir desta segunda-feira no