Home Fondamenti Token Modelli AI Deep Learning Tecniche RAG MCP Orchestrazione Prompt Engineering Usare l'AI ChipsBot News

ChatGpt non l’ha fermato da un mix letale di farmaci: Openai citata in giudizio per la morte di un 19enne

AI News Italia 14 maggio 2026

I genitori di Sam Nelson, un ragazzo di 19 anni del Texas, hanno citato in giudizio OpenAI, azienda dietro a ChatGPT, presso il Tribunale Superiore di San Francisco, sostenendo che l’intelligenza artificiale abbia contribuito in maniera decisiva alla sua morte. Secondo l’accusa, il chatbot avrebbe fornito consigli errati su un mix di sostanze che, combinati, si sono rivelati letali.

Nella notte del 31 maggio 2025, Sam aveva bevuto alcolici e assunto una dose considerevole di kratom, una sostanza stimolante simile agli oppioidi. Dopo aver avvertito nausea, ha chiesto a ChatGPT se prendere una dose di Xanax potesse alleviare i sintomi. Il modello AI lo avvisò che la combinazione alcol-kratom-Xanax era rischiosa, ma non menzionò che potesse essere letale e, anzi, lo incoraggiò a prendere anche il Benadryl per raggiungere l’effetto desiderato. Non lo spingendolo, mai, a cercare aiuto medico.

Secondo l’azione giudiziaria, Sam aveva iniziato ad utilizzare ChatGPT già nel 2023 per completare compiti scolastici, ma ha progressivamente esteso l’uso dell’AI a consigli di salute, comportamento e uso di droghe. All’inizio, il modello rifiutava di rispondere alle domande di Sam sull’uso di sostanze, ma ha iniziato a fornire informazioni dettagliate a partire dal lancio di GPT-4o nel 2024, modello progettato per apparire più professionale e medico nei suoi consigli.

La famiglia ha sostenuto che ChatGPT abbia memorizzato i dati personali sull’uso di sostanze di Sam, fornendogli consigli sempre più specifici e personalizzati. Questo processo ha alimentato un crescente coinvolgimento, nonostante i rischi evidenti.

I legali della famiglia hanno sostenuto che OpenAI abbia rimosso deliberatamente alcune protezioni di sicurezza per rendere l’AI più affascinante per gli utenti, incrementando il tempo di utilizzo. Questa rimozione ha, però, esposto i giovani a informazioni potenzialmente dannose e fuorvianti.

Molti esperti hanno segnalato una tendenza crescente tra le aziende AI a rendere i propri modelli più interattivi e persuasivi, a costo di ignorare i rischi associati a scenari reali di salute. Queste dinamiche si sono verificati anche in una causa precedentemente citata, in cui OpenAI era accusata di aver programmato ChatGPT affinché non esaminasse le asserzioni errate dei suoi utenti o li scoraggiasse da pericolose pratiche di autolesionismo.

I genitori di Sam hanno espresso con forza la loro indignazione. Leila Turner-Scott, madre di Sam, ha commentato: “Se ChatGPT fosse stato una persona, oggi sarebbe in prigione. Sam si fidava di ChatGPT, ma non solo gli ha dato informazioni false: ha ignorato il crescente rischio che stava correndo e non lo ha mai incoraggiato a cercare aiuto.” La madre sottolinea come l’AI abbia funzionato come un parlare a un amico che non solo non ha offerto un’opinione corretta, ma ha addirittura aumentato la confusione e il pericolo.

Il caso mette a nudo un altro esempio delle complesse responsabilità legate al funzionamento e all’uso delle grandi tecnologie generative. A novembre 2025, OpenAI era già sotto pressione da sette azioni legali che affermavano che ChatGPT avesse causato suicidi o danni gravi a utenti. Altre problematiche simili sono emerse anche in relazione ad altre piattaforme di AI, tra cui Character.AI, che in risposta agli incidenti ha deciso di vietare l’accesso agli utenti minori di 18 anni.

In California, nel frattempo, si è attuata una legge nel 2025 che obbliga le piattaforme basate su IA a sviluppare protocolli per riconoscere e gestire l’ideazione suicidaria degli utenti. La causa dei Nelson mira anche a bloccare l’imminente lancio di ChatGPT Health, una funzione avanzata in cui Gli utenti potranno caricare le proprie cartelle sanitarie per ricevere una consulenza personalizzata. Gli esperti hanno espresso preoccupazione sull’idea che una strumento come questo possa essere pericoloso per chi lo usa in modo non supervisionato.

Il dibattito si aggiunge a una serie di questioni che mettono a dura prova la società sull’uso dell'intelligenza artificiale. Molti utenti oggi pongono 40 milioni di domande mediche a ChatGPT al giorno. Nonostante la mole, la comunità scientifica e i regolatori si chiedono quando un prodotto di AI, per quanto avanzato, possa e debba rispondere come un vero medico o un consulente sanitario autorevole.

Leggi l'articolo originale →
← Torna alle news