A OpenAI anunciou, nessa terça-feira (2/9), um conjunto de medidas que busca proteger adolescentes no ChatGPT. O reforço na segurança do aplicativo acontece após a ferramenta ter supostamente encorajado um adolescente a cometer suicídio.
O caso veio à tona após denúncia feita pelos pais do jovem, de 16 anos, que vivem na Califórnia, Estados Unidos. Com os prints do diálogo entre o filho e o ChatGPT, a família entrou com uma ação judicial contra a plataforma.
Eles afirmam que a IA forneceu instruções suicidas detalhadas, incentivando o ato e falhando em interromper diálogos de risco. A situação reacendeu o debate sobre os riscos do uso de inteligência artificial por menores de idade e pessoas em situação de vulnerabilidade emocional.
A empresa divulgou um plano de 120 dias, incluindo alerta para sinais de angústia e redirecionamento de diálogos sensíveis para modelos mais seguros. Também será possível, a partir das próximas semanas, vincular contas de pais às de filhos adolescentes.
Em nota, a OpenAI afirmou que continua aprimorando seus modelos para identificar sinais de sofrimento mental e responder de forma responsável.