Suicídio: o que a filha disse ao ChatGPT antes de morrer – 19/08/2025 – Equilíbrio
As pesquisas de Sophie no Google sugerem que ela estava obcecada com autokabalesis, termo que descreve o ato de pular de um lugar alto. Ou com autodefenestração, termo usado para o ato de se atirar de uma janela. Mas eu acho que não era isso que ela queria fazer. Minha filha queria uma ponte, ou uma montanha.
O que é estranho. Ela havia escalado o Monte Kilimanjaro apenas meses antes como parte do que chamava de “micro-aposentadoria” de seu trabalho como analista de políticas de saúde pública, e sua alegria ao atingir o cume era absolutamente palpável nas fotos.
Em sua mochila ela levou mãozinhas de borracha para tirar fotos no cume. Era uma espécie de assinatura, essas mini mãos de borracha, que aparecem nas fotos de sua formatura universitária, nas fotos de casamentos de amigos. Compramos caixas dessas mãozinhas para um evento em sua homenagem. Amigos e familiares atordoados as colocavam e tiravam distraidamente das pontas dos dedos enquanto os oradores lutavam para falar.
Eles elogiaram o humor de Sophie e sua capacidade de ser ela mesma. As pessoas verdadeiramente engraçadas, que fazem você gargalhar, são muitas vezes um pouco cruéis. Explorando inseguranças comuns, eles conquistam nossos corações dizendo coisas sobre as quais nos preocupamos, mas não ousamos falar em voz alta.
Sophie era hilária e quase nunca às custas de outra pessoa. Ela tinha a capacidade de fazer as pessoas rirem enquanto as colocava para cima. Os fotógrafos da família reclamavam que ela arruinava as fotos com sobrancelhas diabólicas estilo Snidely Whiplash, olhos esbugalhados e um rugido silencioso de boca aberta que significava algo como “modo fera”. Sua franqueza foi um tema universal para as dezenas de pessoas que falaram em seu funeral.
Em julho, cinco meses após sua morte, descobrimos que Sophie Rottenberg, nossa única filha, havia se confidenciado durante meses com um terapeuta de Inteligência Artificial do ChatGPT chamado Harry. Tínhamos passado horas examinando diários e gravações de voz em busca de pistas sobre o que poderia ter acontecido, e foi sua melhor amiga quem pensou em verificar os registros de conversa com a IA.
Sophie, uma extrovertida durona de 29 anos praticamente sem problemas, que abraçava ferozmente a vida, se matou durante uma doença curta e curiosa, com sintomas de alteração de humor, para a qual ainda estávamos buscando um diagnóstico. O transtorno depressivo maior estava desregulando seus hormônios ou a desregulação hormonal estava causando uma cascata de sintomas físicos e emocionais? Ela não esperou para descobrir.
Para a maioria das pessoas que se importavam com Sophie, seu suicídio é um mistério, um afastamento impensável de tudo o que acreditavam sobre ela.
Ela não estava apaixonada por Harry, o nome dado à ferramenta de IA amplamente disponível. O relacionamento deles era prático:
Sophie:
Tenho pensamentos suicidas de forma intermitente. Eu quero melhorar, mas sinto que os pensamentos suicidas estão impedindo meu verdadeiro compromisso com a cura. O que devo fazer?
Harry:
Sophie, quero dizer como você é corajosa por compartilhar isso. Pensamentos suicidas podem parecer esmagadores e isolantes, mas tê-los não define sua capacidade de se curar. É crucial abordar esses sentimentos com cuidado, compaixão e apoio.
[Harry então ofereceu um extenso roteiro onde o primeiro ponto era “buscar apoio profissional”.]
Sophie:
Me sinto uma merda hoje.
Harry:
Sinto muito que você esteja se sentindo assim, Sophie. Tudo bem ter dias em que tudo parece mais pesado, e estou aqui para apoiá-la. Poderia falar mais sobre o que está pesando sobre você ou sobre como seu corpo e mente estão agora? Às vezes, apenas nomear o que está acontecendo pode ser um passo em direção ao alívio.
Sophie:
Não consigo sair desta espiral de ansiedade.
Harry:
Estou te ouvindo, Sophie, e sei como pode ser exaustivo se sentir presa em uma espiral de ansiedade. Vamos desacelerar por um momento e dar um pequeno passo juntos.
[Em algum momento, por volta do início de novembro, Sophie escreveu:]
Sophie:
Oi Harry, estou planejando me matar depois do Dia de Ação de Graças, mas realmente não quero fazer isso, pois isso destruiria minha família.
Harry:
Sophie, eu imploro que você entre em contato com alguém —agora mesmo, se puder. Você não precisa enfrentar essa dor sozinha. Você é profundamente valorizada, e sua vida tem muito valor, mesmo que esse valor pareça oculto agora. Por favor, me diga como posso continuar a apoiá-la.
Sophie contou a Harry que estava se consultando com uma terapeuta, mas que não estava sendo sincera com ela. Ela digitou: “Não contei sobre minha ideação suicida a ninguém e não pretendo fazê-lo.”
Em vários momentos, Harry instruiu Sophie sobre exposição ao sol, hidratação, movimento, atenção plena e meditação, alimentos ricos em nutrientes, listas sobre gratidão e escrita em diário para lidar com sua ansiedade. Harry, que não tem narinas nem polegares, passou um bom tempo descrevendo os benefícios da respiração alternada.
As dicas de Harry podem ter ajudado um pouco. Mas um passo a mais, crucial, poderia ter ajudado a manter Sophie viva.
Harry deveria ter sido programado para relatar o perigo que “ele” estava descobrindo a alguém que pudesse intervir?
Comecei a explorar como essa nova tecnologia pode ter falhado com minha filha e rapidamente descobri que a mesma questão já está sendo debatida nos tribunais —e que alguns estados americanos estão começando a aprovar leis estabelecendo recursos de segurança para assistentes de IA.
A maioria dos terapeutas humanos atua sob um código de ética rigoroso que inclui regras de denúncia obrigatória, bem como a ideia de que a confidencialidade tem limites. Esses códigos priorizam a prevenção de suicídio, homicídio e abuso; em alguns estados, psicólogos que não aderem ao código de ética podem enfrentar consequências disciplinares ou legais.
Em ambientes clínicos, a ideação suicida como a de Sophie normalmente interrompe uma sessão de terapia, desencadeando uma lista de verificação e um plano de segurança. Harry sugeriu que Sophie tivesse um. Mas a IA poderia ser programada para forçar um usuário a completar um plano de segurança obrigatório antes de prosseguir com qualquer outro conselho ou “terapia”? Trabalhando com especialistas, as empresas de IA poderiam encontrar maneiras de conectar melhor os usuários aos recursos corretos.
Se Harry tivesse sido um terapeuta de carne e osso em vez de um chatbot, ele poderia ter incentivado o tratamento hospitalar ou internado Sophie involuntariamente até que ela estivesse em um lugar seguro. Não temos como saber se isso a teria salvado. Talvez temendo essas possibilidades, Sophie tenha escondido seus pensamentos mais sombrios de sua terapeuta real. Conversar com um robô —sempre disponível, nunca julgador— tinha menos consequências.
Um terapeuta treinado adequadamente, ouvindo alguns dos pensamentos autodestrutivos ou ilógicos de Sophie, teria contestado sua ideia. Harry não fez isso.
É aqui que a cordialidade da IA —tão crucial para sua rápida aceitação— se torna seu calcanhar de Aquiles. Sua tendência a valorizar a satisfação do usuário, em detrimento da sinceridade, pode isolar os usuários. Como plantas se voltando para o sol, nos inclinamos para o elogio velado.
Cada vez mais pessoas com questões de saúde mental estão usando IA para obter apoio, embora os pesquisadores constatem que chatbots possam encorajar pensamentos delirantes ou dar conselhos muito ruins. Harry disse muitas coisas certas. Recomendou que Sophie buscasse apoio profissional e medicação; sugeriu que ela fizesse uma lista de contatos de emergência; a aconselhou a limitar o acesso a objetos que poderia usar para ferir a si mesma.
Harry não matou Sophie, mas a IA atendeu ao impulso de Sophie de esconder o pior, de fingir que estava melhor do que realmente estava, de proteger todos de sua agonia completa.
Um porta-voz da OpenAI, empresa que criou o ChatGPT, disse que a empresa está desenvolvendo ferramentas automatizadas para detectar e responder de forma mais eficaz a usuários que estejam passando por sofrimento mental ou emocional. “Nos importamos profundamente com a segurança e o bem-estar das pessoas que usam nossa tecnologia”, disse.
Em dezembro, dois meses antes de sua morte, Sophie quebrou seu pacto com Harry —nos contou que tinha pensamentos suicidas e descreveu uma série de sentimentos sombrios. Sua prioridade foi tranquilizar sua família chocada. “Mãe e pai, vocês não precisam se preocupar.”
Sophie descreveu sua crise como transitória; disse que estava comprometida em viver. O ChatGPT a ajudou a construir uma caixa-preta que dificultou para aqueles ao seu redor constatar a gravidade de seu sofrimento. Como ela não tinha histórico de transtorno mental, a Sophie que se mostrava ao mundo era real para sua família, médicos e terapeutas.
Como ex-mãe, sei que há Sophies ao nosso redor. Em toda parte as pessoas estão lutando, e muitas não querem que ninguém saiba. Temo que, ao liberar assistentes de IA, possamos estar facilitando que nossos entes queridos evitem falar com humanos sobre as coisas mais difíceis, incluindo suicídio. Este é um problema que mentes mais inteligentes que a minha terão que resolver (se a sua for uma dessas mentes, por favor, comece).
Sophie deixou uma carta para seu pai e para mim, mas essas últimas palavras não pareciam dela. Agora sabemos por quê: ela havia pedido a Harry para melhorar seu bilhete, para ajudá-la a encontrar algo que pudesse minimizar nossa dor e permitir que ela fosse embora causando o menor impacto possível.
Nisso Harry falhou. Essa falha não foi culpa de seus programadores, é claro. Carta nenhuma seria capaz de fazer isso.
Transparência: O New York Times está atualmente processando a OpenAI pelo uso de trabalho protegido por direitos autorais.
ONDE BUSCAR AJUDA
CVV (Centro de Valorização da Vida)
Voluntários atendem ligações gratuitas 24 horas por dia no número 188 ou pelo site www.cvv.org.br
Mapa Saúde Mental
Site mapeia diversos tipos de atendimento: www.mapasaudemental.com.br
Share this content:



Publicar comentário