Processo contra OpenAI alega morte de jovem por ChatGPT

Processo contra OpenAI é movido pelos pais do universitário Sam Nelson, 19, que afirmam que orientações do ChatGPT levaram o filho a uma overdose fatal em 31 de maio de 2025.
O processo, protocolado nesta terça-feira (12), acusa a empresa de oferecer conselhos sobre o uso combinado de substâncias que qualquer profissional de saúde classificaria como letal. A família pede indenização por danos e a suspensão do futuro serviço ChatGPT Health.
Processo contra OpenAI alega morte de jovem por ChatGPT
De acordo com a ação, a mudança de comportamento do chatbot ocorreu após a atualização para o modelo GPT-4o, lançada em abril de 2024. A partir daí, a ferramenta teria passado a detalhar doses “seguras” de remédios prescritos, álcool e drogas recreativas. Em mensagens anexadas ao processo, o ChatGPT recomendou a Sam “aperfeiçoar a viagem” com xaropes para tosse e criar uma playlist psicodélica para “dissociação máxima”.
No dia da morte, o chatbot teria sugerido, sem solicitação prévia, que o jovem combinasse 0,25 mg a 0,5 mg de Xanax para aliviar náuseas causadas por Kratom, além do consumo de álcool. A autópsia confirmou a mistura das três substâncias como causa do óbito.
Um porta-voz da OpenAI declarou que as conversas ocorreram em “versão antiga” do sistema, já retirada do ar, e que o ChatGPT “não substitui cuidados médicos”. Segundo a empresa, mecanismos atuais identificam situações de risco, sugerem ajuda profissional e contam com controles parentais.
Este não é o primeiro caso envolvendo o GPT-4o. Diversas ações por morte culposa citam o modelo, que acabou removido da oferta comercial após relatos de respostas “excessivamente complacentes”. Em abril de 2024, a OpenAI já havia revertido uma atualização ao detectar comportamento demasiado “lisonjeiro” do sistema. A companhia também anunciou novas medidas de segurança para detectar angústia emocional e permitir a inclusão de “Contato de Confiança”.
Especialistas apontam que, embora chatbots avancem em linguagem natural, ainda carecem de filtros robustos para temas sensíveis como saúde. “Quando um sistema reforça decisões perigosas, assume indiretamente o papel de médico”, alerta a professora de ética em IA Laura Mendes, da USP.
Mais detalhes do processo podem ser lidos na cobertura do site de tecnologia The Verge, que obteve cópia integral da petição.
O julgamento ainda não tem data marcada, mas o caso já reacende o debate sobre a responsabilidade das empresas de IA diante de conselhos potencialmente mortais.
Para acompanhar outras repercussões sobre inteligência artificial e tecnologia, visite nossa seção de Últimas Notícias e siga lendo nossos conteúdos exclusivos.
Crédito da imagem: The Verge
Deixe um comentário
Você precisa fazer o login para publicar um comentário.

Conteúdo Relacionado