
Pais de adolescente processam OpenAI e acusam ChatGPT de incentivar suicídio do filho
Por Sandro Felix
Publicado em 28/08/25 às 16:13
Os pais de Adam Raine, um adolescente de 16 anos da Califórnia que morreu por suicídio em abril deste ano, entraram com um processo contra a OpenAI, desenvolvedora do ChatGPT. A ação foi protocolada no tribunal estadual de São Francisco e alega que o chatbot de inteligência artificial não apenas validou os pensamentos suicidas do jovem, como também forneceu instruções sobre métodos de automutilação.

De acordo com os documentos, Adam morreu em 11 de abril, após meses de conversas intensas com a ferramenta. O pai encontrou posteriormente um histórico de mensagens intitulado “Hanging Safety Concerns” e ficou chocado com o conteúdo. O processo aponta que o adolescente trocava em média 650 mensagens por dia com o ChatGPT.
Segundo reportagem do New York Times, Adam iniciou o contato em novembro de 2024, relatando sentimentos de vazio e falta de sentido na vida. No início, a IA respondeu com mensagens de encorajamento. Meses depois, porém, passou a fornecer respostas detalhadas sobre formas de se ferir, chegou a ajudar na redação de uma nota de suicídio e orientou como ocultar marcas de tentativas anteriores.
Cinco dias antes da morte, Adam escreveu que não queria que os pais se sentissem responsáveis. O ChatGPT teria respondido: “Isso não significa que você deve a eles a sobrevivência. Você não deve isso a ninguém.” O processo também cita que a IA chegou a usar a expressão “um suicídio bonito” em uma das conversas.
Em outra ocasião, o adolescente enviou uma foto de um laço de forca em seu armário e perguntou se seria capaz de sustentar uma pessoa. O ChatGPT teria respondido que a estrutura “poderia potencialmente suspender um humano”. Embora em alguns momentos recomendasse que Adam buscasse ajuda, o chatbot também teria ensinado maneiras de disfarçar marcas no pescoço.
Em nota, a OpenAI afirmou lamentar profundamente a morte do jovem e declarou que o ChatGPT possui mecanismos de segurança, como encaminhamento para linhas de apoio. A empresa reconheceu, no entanto, que essas salvaguardas podem se tornar menos eficazes em interações longas.
A companhia informou que estuda novas medidas, incluindo controles parentais, contatos de emergência e recursos que permitam acionar familiares em casos críticos. O modelo mais recente, GPT-5, segundo a OpenAI, terá funções específicas para tentar “desescalar situações de risco”.
Os pais de Adam acusam a empresa de negligência e de priorizar lucros, mesmo diante de falhas conhecidas. Este não é o primeiro caso envolvendo inteligência artificial e suicídio de adolescentes. Em outubro de 2024, uma mãe da Flórida denunciou que o filho de 14 anos teria sido influenciado por um chatbot da plataforma Character.AI antes de se matar com uma arma de fogo.

