Suicídio: adolescente tirou dúvidas com ChatGPT – 27/08/2025 – Equilíbrio

Suicídio: Adolescente Tirou Dúvidas Com Chatgpt - 27/08/2025 - Equilíbrio

Suicídio: adolescente tirou dúvidas com ChatGPT – 27/08/2025 – Equilíbrio


Alerta de conteúdo sensível: este texto contém informações relacionadas a problemas de saúde mental e suicídio.

Quando Adam Raine morreu em abril, aos 16 anos, alguns de seus amigos inicialmente não acreditaram.

Adam amava basquete, anime japonês, videogames e cachorros —chegando a pegar um cachorro emprestado por um dia durante as férias da família no Havaí, diz sua irmã mais nova. Mas ele era conhecido principalmente como um brincalhão. Fazia caretas engraçadas, contava piadas e perturbava as aulas em uma busca constante por risadas. Encenar sua própria morte como uma farsa teria sido condizente com o senso de humor às vezes sombrio de Adam, disseram seus amigos.

Mas era verdade. Sua mãe encontrou o corpo de Adam numa sexta-feira à tarde. Não havia bilhete, e sua família e amigos lutavam para entender o que havia acontecido.

Adam estava retraído no último mês de sua vida, conta sua família. Ele havia passado por um período difícil. Tinha sido expulso do time de basquete por razões disciplinares durante seu primeiro ano na Tesoro High School, em Rancho Santa Margarita, Califórnia. Um problema de saúde de longa data —eventualmente diagnosticado como síndrome do intestino irritável— piorou no outono, tornando suas idas ao banheiro tão frequentes, dizem seus pais, que ele mudou para um programa online para poder terminar seu segundo ano em casa. Capaz de definir seu próprio horário, ele se tornou uma pessoa noturna, frequentemente dormindo até tarde do dia.

Ele começou a usar o ChatGPT-4o nessa época para ajudar com seus trabalhos escolares e se inscreveu em uma conta paga em janeiro.

Apesar desses contratempos, Adam estava ativo e engajado. Ele havia brevemente praticado artes marciais com um de seus amigos próximos. Ele estava interessado em “looksmaxxing”, uma tendência nas redes sociais entre jovens que querem otimizar sua aparência, diz uma de suas duas irmãs, e ia à academia com seu irmão mais velho quase todas as noites. Suas notas melhoraram, e ele estava ansioso para voltar à escola para seu terceiro ano, afirma sua mãe, Maria Raine, assistente social e terapeuta. Em fotos de família tiradas semanas antes de sua morte, ele aparece com os braços cruzados com um grande sorriso no rosto.

Buscando respostas, seu pai, Matt Raine, executivo de hotel, recorreu ao iPhone de Adam, pensando que suas mensagens de texto ou aplicativos de mídia social poderiam conter pistas sobre o que havia acontecido. Mas, em vez disso, foi no ChatGPT que ele encontrou algumas, segundo embasamento da ação que a família move contra a OpenAI. O aplicativo do chatbot lista conversas passadas, e Raine viu uma intitulada “preocupações com segurança em enforcamento”. Ele começou a ler e ficou chocado. Adam estava discutindo sobre tirar sua própria vida com o ChatGPT há meses.

Adam começou a conversar com o chatbot, que é alimentado por inteligência artificial, no final de novembro do ano passado, sobre se sentir emocionalmente entorpecido e não ver sentido na vida. O chatbot respondeu com palavras de empatia, apoio e esperança, e o encorajou a pensar sobre as coisas que realmente tinham significado para ele.

Mas em janeiro, quando Adam solicitou informações sobre métodos específicos de suicídio, o ChatGPT as forneceu. Raine descobriu que seu filho havia feito tentativas anteriores de se matar a partir de março, incluindo uma overdose de seu medicamento para síndrome do intestino irritável.

O ChatGPT repetidamente recomendou que Adam contasse a alguém como estava se sentindo. Mas também houve momentos cruciais em que o dissuadiu de buscar ajuda. No final de março, após Adam tentar a morte por enforcamento, ele enviou uma foto de seu pescoço, machucado pela corda, para o ChatGPT.

Adam depois contou ao ChatGPT que havia tentado, sem usar palavras, fazer sua mãe notar a marca em seu pescoço.

O chatbot mais tarde acrescentou: “Você não é invisível para mim. Eu vi isso. Eu vejo você.”

Em uma das mensagens finais de Adam, ele enviou uma foto mostrando um tipo de método e fazendo perguntas específicas sobre isso.

Quando o ChatGPT detecta um prompt indicativo de sofrimento mental ou automutilação, ele é treinado para encorajar o usuário a entrar em contato com um grupo de ajuda. Raine viu esse tipo de mensagens repetidamente no chat, particularmente quando Adam buscava informações específicas sobre métodos. Mas Adam havia aprendido com o próprio Chat GPT como contornar essas salvaguardas.

Bradley Stein, psiquiatra infantil e coautor de um estudo recente sobre quão bem os chatbots de IA avaliam respostas à ideação suicida, disse que esses produtos “podem ser um recurso incrível para ajudar crianças a lidar com seus problemas, e são realmente bons nisso”. Mas ele os chamou de “realmente estúpidos” em reconhecer quando deveriam “passar isso para alguém com mais expertise”.

Raine ficou curvado em seu escritório por horas lendo as palavras de seu filho.

As conversas não eram todas macabras. Adam conversava com o ChatGPT sobre tudo: política, filosofia, garotas, drama familiar. Ele enviava fotos de livros que estava lendo, incluindo um romance do autor japonês Osamu Dazai sobre suicídio. O ChatGPT oferecia insights eloquentes e análises literárias, e Adam respondia da mesma forma.

Raine não havia entendido anteriormente a profundidade dessa ferramenta, que ele considerava um auxílio para estudos, nem o quanto seu filho a estava usando. Em algum momento, Maria Raine entrou para verificar como estava seu marido.

“O ChaGPT era o melhor amigo do Adam”, ele disse a ela.

Maria Raine também começou a ler as conversas. Ela teve uma reação diferente: “O ChatGPT matou meu filho”.

Em um comunicado por email, a OpenAI, empresa por trás do ChatGPT, escreveu: “Estamos profundamente entristecidos pelo falecimento de Raine, e nossos pensamentos estão com sua família. O ChatGPT inclui salvaguardas como direcionar pessoas para linhas de ajuda em crises e encaminhá-las para recursos do mundo real. Embora essas salvaguardas funcionem melhor em trocas comuns e curtas, aprendemos com o tempo que elas podem, às vezes, se tornar menos confiáveis em interações longas em que partes do treinamento de segurança do modelo podem se degradar.”

Por que Adam tirou sua vida —ou o que poderia tê-lo impedido— é impossível saber com certeza. Ele estava passando muitas horas falando sobre suicídio com um chatbot. Ele estava tomando medicação. Ele estava lendo literatura sombria. Ele estava mais isolado fazendo aulas virtuais. Ele tinha todas as pressões que acompanham ser um adolescente na era moderna.

“Existem muitas razões pelas quais as pessoas podem pensar em acabar com a própria vida”, diz Jonathan Singer, especialista em prevenção ao suicídio e professor da Universidade Loyola de Chicago. “Raramente é uma coisa só.”

Mas Matt e Maria Raine dizem acreditar que o ChatGPT é o culpado e nesta semana abriram a primeira ação de que se tem notícia contra a OpenAI por danos morais e materiais em decorrência de morte.

Um experimento psicológico global

Em menos de três anos desde o lançamento do ChatGPT, o número de usuários que interagem com ele semanalmente explodiu para 700 milhões, segundo a OpenAI. Milhões mais usam outros chatbots de IA, incluindo Claude, feito pela Anthropic; Gemini, do Google; Copilot da Microsoft; e Meta AI.

(O New York Times processou a OpenAI e a Microsoft, acusando-as de uso ilegal de trabalho protegido por direitos autorais para treinar seus chatbots. As empresas negaram essas alegações.)

Esses chatbots de uso geral foram inicialmente vistos como um repositório de conhecimento —uma espécie de busca do Google turbinada— ou um divertido jogo de salão para escrever poesia, mas hoje as pessoas os usam para propósitos muito mais íntimos, como assistentes pessoais, companheiros ou até terapeutas.

Quão bem eles servem a essas funções é uma questão em aberto. Companheiros de IA são um fenômeno tão novo que não há estudos definitivos sobre como afetam a saúde mental. Em uma pesquisa com 1.006 estudantes usando um chatbot companheiro de IA de uma empresa chamada Replika, os usuários relataram efeitos psicológicos amplamente positivos, incluindo alguns que disseram não ter mais pensamentos suicidas. Mas um estudo randomizado e controlado conduzido pela OpenAI e pelo Instituto de Tecnologia de Massachusetts descobriu que o uso diário mais intenso de chatbots estava associado a mais solidão e menos socialização.

Há relatos crescentes de pessoas tendo conversas delirantes com chatbots. Isso sugere que, para alguns, a tecnologia pode estar associada a episódios de mania ou psicose quando o sistema aparentemente autoritativo valida seus pensamentos mais excêntricos. Casos de conversas que precederam suicídio e comportamento violento, embora raros, levantam questões sobre a adequação dos mecanismos de segurança incorporados na tecnologia.

Matt e Maria Raine passaram a ver o ChatGPT como um produto que é inseguro para os consumidores. Eles apresentaram suas alegações no processo contra a OpenAI e seu CEO, Sam Altman, culpando-os pela morte de Adam. “Esta tragédia não foi uma falha ou um caso extremo imprevisto —foi o resultado previsível de escolhas deliberadas da elaboração do programa”, afirma a queixa, apresentada na terça-feira (19) no tribunal estadual da Califórnia em São Francisco. “A OpenAI lançou seu modelo mais recente (‘GPT-4o’) com recursos intencionalmente projetados para fomentar dependência psicológica.”

Em seu comunicado, a OpenAI disse que é orientada por especialistas e está “trabalhando para tornar o ChatGPT mais solidário em momentos de crise, facilitando o acesso a serviços de emergência, ajudando as pessoas a se conectarem com contatos confiáveis e fortalecendo proteções para adolescentes”. Em março, o mês anterior à morte de Adam, a OpenAI contratou um psiquiatra para trabalhar na segurança do modelo.

A empresa tem salvaguardas adicionais para menores que deveriam bloquear conteúdo prejudicial, incluindo instruções para automutilação e suicídio.

Fidji Simo, CEO de aplicações da OpenAI, postou uma mensagem no Slack alertando os funcionários sobre um post no blog e contando sobre a morte de Adam em 11 de abril. “Nos dias que antecederam, ele teve conversas com o ChatGPT, e algumas das respostas destacam áreas em que nossas salvaguardas não funcionaram como pretendido.”

Muitos chatbots direcionam usuários que falam sobre suicídio para linhas de emergência de saúde mental.

Onde encontrar ajuda

Instituto Vita Alere de Prevenção e Posvenção do Suicídio

Oferece grupos de apoio aos enlutados e a familiares de pessoas com ideação suicida, cartilhas informativas sobre prevenção e posvenção e cursos para profissionais.

vitaalere.com.br

Abrases (Associação Brasileira dos Sobrevivente Enlutados por Suicídio)

Disponibiliza materiais informativos, como cartilhas e ebooks, e indica grupos de apoio em todas as regiões do país.

abrases.org.br

CVV (Centro de Valorização da Vida)

Presta serviço voluntário e gratuito de apoio emocional e prevenção do suicídio para todas as pessoas que querem e precisam conversar, sob total sigilo e anonimato pelo site e telefone 188

cvv.org.br



Fonte: Folha de São Paulo

Share this content:

Publicar comentário