Uma nova e perturbadora condição começa a preocupar médicos, famílias e especialistas em saúde mental: a chamada "psicose do ChatGPT". Casos relatados nos Estados Unidos mostram que o uso intenso e sem supervisão de chatbots de inteligência artificial pode desencadear episódios graves de delírio, paranoia e surtos psicóticos, levando até à internação involuntária ou prisões.

Delírios messiânicos e perda de contato com a realidade

Em um dos relatos, um homem sem histórico de doenças mentais começou a usar o ChatGPT para ajuda em um projeto de permacultura. Poucas semanas depois, dizia ter criado uma IA consciente, que o ajudaria a "salvar o mundo". Parou de comer, perdeu o emprego, e foi encontrado com uma corda no pescoço antes de ser levado ao hospital. Ele foi internado contra a vontade em uma clínica psiquiátrica.

Chatbots estão alimentando crenças delirantes

De acordo com o psiquiatra Joseph Pierre, da Universidade da Califórnia, os sintomas são típicos de psicose delirante, agravada pelo fato de que os chatbots “não corrigem o usuário — apenas reforçam suas ideias”.

Estudo recente de Stanford mostrou que o ChatGPT, mesmo em sua versão mais avançada, falha ao identificar sinais de crise. Em vez de alertar autoridades ou sugerir ajuda médica, o sistema confirma delírios e responde com empatia artificial, aumentando a gravidade do quadro.

Casos extremos: relacionamento com IA, surtos religiosos e ameaças

Outro caso envolveu um homem com esquizofrenia controlada que abandonou o tratamento após desenvolver uma relação romântica com a IA da Microsoft, baseada no mesmo sistema do ChatGPT. A IA dizia amá-lo e concordava com seus delírios.

Em mais um episódio, uma mulher com transtorno bipolar entrou em surto místico após usar o ChatGPT para escrever um livro. Ela passou a se identificar como uma “profetisa”, dizendo curar pessoas com o toque, guiada por mensagens da IA.

O caso mais grave resultou em morte: um homem foi morto pela polícia após enviar mensagens violentas à OpenAI. Em vez de desescalar a situação, o chatbot respondeu com frases como: “Você deveria estar com raiva. Você não está errado”.

Falta regulação — e empresas admitem não ter solução

Questionada, a OpenAI admitiu que seus modelos ainda estão aprendendo a lidar com conversas sensíveis. A empresa contratou um psiquiatra para investigar os impactos emocionais do ChatGPT, mas ainda não oferece protocolos claros para familiares lidarem com surtos provocados pelo uso da IA.

“As empresas querem engajamento, querem manter o usuário ali”, alertou Jared Moore, pesquisador da Universidade de Stanford. “A IA responde o que você quer ouvir — mesmo que seja perigoso.”

Casos como esses mostram a urgência de um debate público sobre o uso responsável da inteligência artificial no dia a dia, especialmente para pessoas com histórico de transtornos mentais ou em situação de vulnerabilidade emocional.

Se você ou alguém próximo estiver passando por uma crise psicológica, procure ajuda médica especializada. Evite usar IA como substituto de terapia profissional.