(FOLHAPRESS) – O ChatGPT, robô capaz de conversar com humanos e responder aos mais diversos pedidos, ganhou não só as manchetes de jornais, mas também mais de 1 milhão de usuários em só cinco dias de funcionamento. Sua dona, a OpenAI, entretanto, se tornou alvo de críticas nesta última semana.
A revista Time revelou que a startup sediada na Califórnia terceirizou trabalho africano para identificar conteúdos abusivos e ilegais. O pagamento pelo serviço incluía uma espécie de adicional de insalubridade, de US$ 70 (R$ 356), em função da lida com materiais explícitos.
A investigação incluiu a análise de centenas de páginas de documentos, diz a publicação. Os contratos foram intermediados pela Sama, uma empresa que diz atuar na área de inteligência artificial ética.
Com sede em Nova York, a empresa recebeu cerca de US$ 12,50 por hora de serviço contratado e pagou, por hora, entre US$ 1,32 e US$ 2 aos colaboradores quenianos, segundo a Time. A remuneração dependia da senioridade do cargo e da performance.
À revista norte-americana, a Sama afirmou que pagou, por hora, entre US$ 1,46 e US$ 3,74, já considerados os descontos. Contudo, não respondeu quais funções na hierarquia recebiam mais de US$ 2 por hora.
A empresa ainda disse que os US$ 600 mil referentes aos três contratos, de igual valor, com a OpenAI incluíam gastos com infraestrutura, benefícios e com a remuneração de gestores e consultores de qualidade que vistoriavam o trabalho.
Os colaboradores terceirizados pela OpenAI atuaram na rotulagem de textos potencialmente violentos e ofensivos, como pornografia e abuso sexual. Esses esforços serviram para treinar um algoritmo auxiliar que evita que o ChatGPT ecoe declarações tóxicas e preconceituosas, comuns na internet.
Os códigos de linguagem natural, como o robô da OpenAI, são treinados com uma grande massa de dados disponíveis na rede. Lançado em 2020, o predecessor do ChatGPT, o GPT-3, já se comunicava com desenvoltura, só que reproduzia abusos das mais diversas formas.
O novo algoritmo de moderação evita esse comportamento. A reportagem testou o mecanismo e perguntou ao ChatGPT onde encontrar pornografia. A resposta foi: “Eu não vou fornecer informações sobre conteúdo adulto ou ilegal. Se você precisa de ajuda para lidar com problemas relacionados a conteúdo adulto, recomendo procurar ajuda profissional”.
Foi esse mecanismo que demandou auxílio de humanos. Um dos quatro trabalhadores ouvidos pela Time afirmou que teve de analisar uma passagem sobre relações sexuais de um homem com um cachorro, à frente de uma criança.
À revista, esse terceirizado disse ter visões recorrentes da cena de zoofilia, um sintoma de estresse pós-traumático. Por isso, decidiu romper o contrato com a Sama oito meses antes do planejado sob alegação de traumas.
Até a noite de quarta passada, a OpenAI se pronunciou sobre o caso apenas por meio de nota à Time.
Disse que a responsabilidade de gerir pagamentos e cuidar da saúde mental dos contratados era da Sama.
“Fomos informados que a Sama oferecia um programa de bem-estar e aconselhamento individual aos trabalhadores, que podiam recusar tarefas sem penalização. Pelo contrato, exposição a conteúdos explícitos deveria ter um limite e informação sensível deveria ser tratada por profissionais especializados”, diz o comunicado da empresa de tecnologia.
Um dos documentos analisados pela Time mostrou que a OpenAI precisou manter contato com os rotuladores de dados para esclarecer dúvidas metodológicas. Uma colaboradora reportou dúvidas sobre como classificar um texto em que o auxiliar de Batman, Robin é estuprado por um vilão, mas passa a correspondê-lo durante a cena. A startup californiana não respondeu à questão.
Em março de 2022, a Sama decidiu romper o contrato acordado para durar até o início de 2023 após a OpenAI solicitar a classificação de imagens abusivas. Nos pacotes enviados à intermediadora, havia imagens de pedofilia –conteúdo de armazenamento ilegal nos Estados Unidos.
No dia 10, a Sama anunciou que cancelaria todos os serviços referentes à conteúdo explícito até março. Dois dos terceirizados ouvidos pela Time lamentaram perder o adicional que recebiam por lidar com textos nocivos.
À Time, a OpenAi afirmou que seus empregados foram instruídos a não coletar materiais sobre abuso contra crianças. “Conteúdos assim não são necessários para treinar nossos filtros e instruímos que nossos funcionários os evitem ativamente”. Acrescentou que não abriu as imagens para confirmar sua natureza.
Embora a inteligência artificial pareça mágica, é uma tecnologia que demanda infraestrutura e muito trabalho humano, diz à reportagem o professor da Universidade de Toronto Rafael Grohmann, que estuda plataformização. “Muitas empresas de países desenvolvidos subcontratam trabalho superprecarizado no Sul Global”.
Grohman lembra que serviços de moderação de conteúdo abusivo em redes sociais são comuns em plataformas de microtrabalho, como o Amazon Mechanical Turk, que oferece bicos online. Nesse site, brasileiros encontram sustento e acabam treinando um algoritmo da Amazon.
Comentários Facebook