Home Fondamenti Token Modelli AI Deep Learning Tecniche RAG MCP Orchestrazione Prompt Engineering Usare l'AI ChipsBot News

ChatGPT Trusted Contact, nuova funzione contro l’autolesionismo

AI Italia Blog 8 maggio 2026

OpenAI ha annunciato il rilascio di una nuova funzione opzionale di ChatGPT chiamata Trusted Contact, che permette agli utenti adulti di indicare una persona fidata da avvisare in caso di possibile rischio grave di autolesionismo. La funzione è stata progettata per favorire interventi rapidi e supporto reale, senza sostituire l’assistenza clinica o i numeri di emergenza.

La funzione Trusted Contact nasce come estensione di un impianto già presente in ChatGPT, che dispone già di notifiche di sicurezza collegate ai controlli parentali. Tuttavia, la novità è che questa logica di allerta esce dall’ambito strettamente familiare e viene resa disponibile, su base volontaria, a chi ha più di 18 anni (più di 19 in Corea del Sud).

La scelta di mantenere la funzione facoltativa non è secondaria. Sul piano economico e regolatorio, i sistemi di intelligenza artificiale che operano in contesti sensibili si muovono in un equilibrio stretto tra prevenzione, responsabilità della piattaforma e tutela dell’autonomia individuale. OpenAI prova a posizionarsi in questo spazio con una soluzione che richiede una decisione preventiva dell’utente: è lui a nominare una persona di fiducia, è lui a poterla modificare o rimuovere in qualsiasi momento, ed è la persona indicata a dover accettare formalmente il ruolo.

Il funzionamento della funzione è costruito in più fasi. L’utente può aggiungere dalle impostazioni di ChatGPT un solo contatto fidato adulto. La persona scelta riceve un invito che spiega il suo ruolo e deve accettare entro una settimana. Senza questa accettazione, la funzione non si attiva. Se l’invito viene rifiutato, l’utente può selezionare un altro adulto.

La seconda fase riguarda il rilevamento del rischio. Se i sistemi automatici di monitoraggio individuano una conversazione in cui l’utente sembra parlare di autolesionismo in termini che suggeriscono una possibile preoccupazione seria per la sicurezza, ChatGPT informa l’utente che il contatto fidato potrebbe essere avvisato. Nello stesso momento, la piattaforma incoraggia la persona a scrivere direttamente al proprio Trusted Contact, proponendo anche formule iniziali di conversazione per facilitare il contatto.

Dopo il passaggio automatico entra in campo la revisione umana. OpenAI spiega che una piccola squadra di operatori appositamente formati esamina il caso. Solo se questi revisori ritengono che la conversazione possa indicare un problema serio di sicurezza, parte la notifica al contatto fidato. L’avviso può arrivare via email, sms o notifica in-app, se il destinatario possiede un account ChatGPT.

Uno degli aspetti più delicati riguarda la quantità di informazioni condivise. OpenAI afferma che la notifica è intenzionalmente limitata. Non contiene dettagli completi della chat né trascrizioni della conversazione. Comunica in modo generale che il tema dell’autolesionismo è emerso in una forma potenzialmente preoccupante e invita il contatto fidato a farsi sentire. Il messaggio include anche un link a indicazioni elaborate da esperti su come gestire conversazioni sensibili.

Questa scelta risponde a una doppia esigenza. Da un lato, rendere utile l’avviso, perché chi lo riceve deve capire che potrebbe essere opportuno intervenire. Dall’altro, ridurre al minimo il trasferimento di contenuti personali. Per un’azienda che gestisce una piattaforma globale basata su interazioni testuali, la protezione della privacy è un punto decisivo anche sotto il profilo reputazionale e normativo.

OpenAI fonda la nuova funzione su una letteratura clinica che considera la connessione sociale un fattore di protezione importante nella prevenzione del suicidio. Nel testo di presentazione della funzione, Arthur Evans, chief executive officer dell’American Psychological Association, sostiene che la scienza psicologica mostra con continuità il peso protettivo delle relazioni sociali, soprattutto nei periodi di sofferenza emotiva.

La logica economica della funzione è anche quella della prevenzione tempestiva. Nei servizi digitali, la velocità di risposta può fare la differenza, ma l’intervento non può essere lasciato soltanto alla macchina. Per questo OpenAI insiste su un modello a più livelli: rilevamento automatico, informazione all’utente, incoraggiamento al contatto diretto, revisione umana e poi eventuale notifica.

OpenAI dichiara di aver lavorato con oltre 170 esperti di salute mentale per migliorare la capacità del modello di riconoscere possibili segnali di crisi. La società cita la propria Global Physicians Network, una rete composta da oltre 260 medici abilitati in 60 Paesi, e l’Expert Council on Well-Being and AI.

Munmun De Choudhury, docente di Interactive Computing al Georgia Tech e membro dell’Expert Council on Well-Being and AI, definisce la funzione un passo in avanti nella capacità dell’intelligenza artificiale di favorire connessioni umane autentiche e sicurezza psicologica, soprattutto nei momenti di vulnerabilità.

Le parole usate dagli esperti che OpenAI ha scelto di citare aiutano a inquadrare il posizionamento della società: la tecnologia non come risposta finale, ma come meccanismo di attivazione di relazioni umane già esistenti.

Per il mercato dell’AI conversazionale, il coinvolgimento di organismi esterni ha anche un valore strategico. Le piattaforme che operano su temi sensibili devono mostrare che le scelte di prodotto non nascono soltanto da obiettivi di crescita o engagement, ma da un confronto con competenze cliniche e standard di sicurezza riconoscibili.

Conclusione

La funzione Trusted Contact di ChatGPT rappresenta un passo importante nella direzione della prevenzione del suicidio e della promozione della salute mentale. La scelta di OpenAI di lavorare con esperti di salute mentale e di adottare un approccio a più livelli per la gestione delle conversazioni sensibili è un esempio di come la tecnologia possa essere utilizzata per favorire la connessione sociale e la sicurezza psicologica.

Linee guida per l’uso della funzione

Per utilizzare la funzione Trusted Contact, gli utenti devono seguire le seguenti linee guida:

    • Aggiungere un contatto fidato adulto dalle impostazioni di ChatGPT
    • Verificare che il contatto fidato abbia accettato il ruolo entro una settimana
    • Utilizzare la funzione solo in caso di emergenza o di grave preoccupazione per la sicurezza
    • Seguire le indicazioni dei revisori umani e delle linee guida di esperti per la gestione delle conversazioni sensibili

È importante notare che la funzione Trusted Contact non sostituisce l’assistenza clinica o i numeri di emergenza. In caso di grave preoccupazione per la sicurezza, è sempre necessario contattare un professionista della salute mentale o un servizio di emergenza.

Leggi l'articolo originale →
← Torna alle news