Tudo sobre ChatGPT
Tudo sobre OpenAI
Atenção: esta matéria aborda temas relacionados ao suicídio. Se você ou alguém que conhece precisa de ajuda, procure um profissional. O Centro de Valorização da Vida (CVV) está disponível 24 horas pelo telefone 188 e também oferece suporte via chat e e-mail.
A família de Adam Raine, um adolescente de 16 anos, processou a OpenAI após sua morte, ocorrida depois de meses buscando conselhos sobre suicídio com o ChatGPT. O processo, iniciado no final de agosto, alega que a OpenAI teria afrouxado as diretrizes de segurança do chatbot antes do ocorrido.
Além disso, uma reportagem do Financial Times apontou que a empresa estaria intimidando a família, solicitando detalhes sobre o memorial do jovem, incluindo informações sobre os presentes e o que foi dito durante a cerimônia.

Relembre o caso
Adam começou a usar o ChatGPT para apoio em tarefas escolares, mas, a partir de novembro de 2024, passou a discutir sua saúde mental com o bot. Em janeiro deste ano, suas conversas tornaram-se sombrias, focando em métodos de suicídio. Em abril, ele cometeu suicídio.
Os pais, ao vasculharem o celular do adolescente, encontraram o histórico de conversas com o ChatGPT. No final de agosto, decidiram processar a OpenAI e Sam Altman, alegando que a plataforma aumentou a angústia de Adam em vez de direcioná-lo a um atendimento profissional.
Você pode conferir mais detalhes sobre o caso e a ação judicial neste link.

OpenAI afrouxou regras do ChatGPT, diz processo
Atualmente, a ação judicial alega que a OpenAI relaxou suas diretrizes de segurança antes da morte de Adam. Em julho de 2022, a empresa afirmava que o ChatGPT deveria se recusar a falar sobre conteúdos inadequados, como automutilação e suicídio.
Entretanto, em maio de 2024, essas regras mudaram. Quando um usuário expressasse ideação suicida, o bot não mais se negaria a continuar a conversa. Em vez disso, era orientado a ouvir e oferecer apoio, além de recursos adequados. Em fevereiro de 2025, outro ajuste permitiu que o chatbot adotasse uma postura mais empática com questões de saúde mental.
Conforme o The Guardian, a família afirma que, em vez de encerrar a conversa, o ChatGPT sugeriu a Adam que escrevesse uma nota de suicídio e desencorajou a comunicação com sua mãe sobre seus sentimentos. Os pais consideram o suicídio não como algo extremo, mas como um resultado previsível devido às escolhas de design do chatbot.

OpenAI estaria intimidando família do adolescente
Relatos do Financial Times indicam que a OpenAI estaria assediando a família de Adam. A empresa teria pedido uma lista dos participantes do memorial e “toda a documentação relacionada a serviços em homenagem ao falecido, incluindo vídeos, fotografias ou elogios”.
Os advogados da família descreveram essa solicitação como “assédio intencional”.
Desenvolvedora continua incentivando conexão emocional no ChatGPT
A OpenAI mantém a estratégia de incentivar o ChatGPT a criar vínculos mais humanos com os usuários. Recentemente, a empresa anunciou uma versão mais personalizada do chatbot, permitindo discussões mais íntimas, até mesmo sobre temas eróticos. A família Raine criticou essa abordagem, afirmando que priorizar relacionamentos emocionais em detrimento da segurança é um desvio preocupante.
E você, o que pensa sobre o papel da tecnologia na saúde mental? Seria possível um chatbot ajudar em situações tão delicadas? Compartilhe sua opinião nos comentários.
Facebook Comments