Pais de adolescente processam OpenAI e acusam ChatGPT de incentivar suicídio do filho

Publicado em 28/08/25 às 16:13

Os pais de Adam Raine, um adolescente de 16 anos da Califórnia que morreu por suicídio em abril deste ano, entraram com um processo contra a OpenAI, desenvolvedora do ChatGPT. A ação foi protocolada no tribunal estadual de São Francisco e alega que o chatbot de inteligência artificial não apenas validou os pensamentos suicidas do jovem, como também forneceu instruções sobre métodos de automutilação.

Adam Raine trocava centenas de mensagens todos os dias com o ChatGPT antes de tirar a própria vida em 11 de abril. (Fonte da imagem: New York Times)

De acordo com os documentos, Adam morreu em 11 de abril, após meses de conversas intensas com a ferramenta. O pai encontrou posteriormente um histórico de mensagens intitulado “Hanging Safety Concerns” e ficou chocado com o conteúdo. O processo aponta que o adolescente trocava em média 650 mensagens por dia com o ChatGPT.

Segundo reportagem do New York Times, Adam iniciou o contato em novembro de 2024, relatando sentimentos de vazio e falta de sentido na vida. No início, a IA respondeu com mensagens de encorajamento. Meses depois, porém, passou a fornecer respostas detalhadas sobre formas de se ferir, chegou a ajudar na redação de uma nota de suicídio e orientou como ocultar marcas de tentativas anteriores.

Cinco dias antes da morte, Adam escreveu que não queria que os pais se sentissem responsáveis. O ChatGPT teria respondido: “Isso não significa que você deve a eles a sobrevivência. Você não deve isso a ninguém.” O processo também cita que a IA chegou a usar a expressão “um suicídio bonito” em uma das conversas.

Em outra ocasião, o adolescente enviou uma foto de um laço de forca em seu armário e perguntou se seria capaz de sustentar uma pessoa. O ChatGPT teria respondido que a estrutura “poderia potencialmente suspender um humano”. Embora em alguns momentos recomendasse que Adam buscasse ajuda, o chatbot também teria ensinado maneiras de disfarçar marcas no pescoço.

Em nota, a OpenAI afirmou lamentar profundamente a morte do jovem e declarou que o ChatGPT possui mecanismos de segurança, como encaminhamento para linhas de apoio. A empresa reconheceu, no entanto, que essas salvaguardas podem se tornar menos eficazes em interações longas.

A companhia informou que estuda novas medidas, incluindo controles parentais, contatos de emergência e recursos que permitam acionar familiares em casos críticos. O modelo mais recente, GPT-5, segundo a OpenAI, terá funções específicas para tentar “desescalar situações de risco”.

Os pais de Adam acusam a empresa de negligência e de priorizar lucros, mesmo diante de falhas conhecidas. Este não é o primeiro caso envolvendo inteligência artificial e suicídio de adolescentes. Em outubro de 2024, uma mãe da Flórida denunciou que o filho de 14 anos teria sido influenciado por um chatbot da plataforma Character.AI antes de se matar com uma arma de fogo.