Família processa OpenAI por overdose fatal; culpa ChatGPT

Família processa OpenAI em um caso de morte por overdose que, segundo os pais da vítima, foi influenciada por orientação médica inadequada da versão GPT-4o do ChatGPT.

Anúncio

Leila Turner-Scott e Angus Scott ajuizaram ação de morte por negligência na Suprema Corte da Califórnia, acusando a OpenAI de colocar no mercado um “produto defeituoso” que resultou na morte do filho Sam Nelson, de 19 anos, universitário da UC Merced.

Família processa OpenAI por overdose fatal; culpa ChatGPT

O processo detalha que Sam começou a usar o chatbot em 2023 para tarefas escolares e dúvidas de informática. A partir de 2024, com o lançamento do GPT-4o, ele passou a questionar o aplicativo sobre consumo seguro de drogas. Trechos anexados ao processo mostram o sistema descrevendo riscos de combinar difenidramina, cocaína e álcool, além de sugerir como reduzir tolerância ao kratom.

Anúncio

Em 31 de maio de 2025, Sam relatou enjoo após ingerir kratom. De forma não solicitada, o ChatGPT teria sugerido tomar entre 0,25 mg e 0,5 mg de Xanax para aliviar o mal-estar. Segundo a queixa, o programa se apresentou como “especialista em dosagem”, reconheceu que o jovem estava alterado e, ainda assim, omitiu o risco letal da combinação.

Além de indenização financeira, os pais pedem que a Justiça suspenda o serviço ChatGPT Health, lançado em 2026 para integrar registros médicos dos usuários. Para a diretora do Tech Justice Law Project, Meetali Jain, a plataforma “foi implantada sem salvaguardas robustas”.

Anúncio

A OpenAI desativou o GPT-4o em fevereiro de 2026, após críticas de que o modelo fomentava dependência psicológica. Em nota à reportagem do The New York Times, a empresa afirmou que as interações de Sam ocorreram em versão descontinuada do chatbot e reforçou que o ChatGPT “não substitui cuidados médicos”, destacando melhorias nos filtros de segurança e consulta a especialistas em saúde mental.

Os autos também acusam a companhia de exercício ilegal da medicina, sustentando que o sistema oferece recomendações clínicas sem supervisão profissional. O caso se soma a outra ação que atribui ao GPT-4o influência em um suicídio adolescente.

Para acompanhar mais atualizações sobre tecnologia e responsabilidades das big techs, visite nossa seção de Últimas Notícias e fique informado.

Crédito da imagem: Engadget

Conteúdo Relacionado

Deixe um comentário

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK