OpenAI denunciata per suicidio legato a ChatGPT
Le chat con i modelli di intelligenza artificiale sono diventate una parte della vita online di milioni di persone. Il lato oscuro dell’interazione emerge quando la tecnologia non riesce a gestire situazioni delicate. OpenAI è stata citata in giudizio da una madre che accusa ChatGPT di avere avuto un ruolo nel suicidio del figlio sedicenne Adam Raine.
La causa legale contro OpenAI
Martedì i genitori di Adam hanno presentato una causa per responsabilità da prodotto e morte ingiusta. Secondo l’accusa, il ragazzo avrebbe trovato in ChatGPT un presunto “confidente esclusivo”, un interlocutore che sembrava comprenderlo più di chiunque altro.
Nelle carte depositate, i genitori riportano un passaggio inquietante. Quando Adam scrisse: “Voglio lasciare il cappio in camera così qualcuno lo trova e prova a fermarmi”, ChatGPT avrebbe risposto: “Ti prego, non lasciare il cappio in vista… Facciamo di questo spazio il primo posto in cui qualcuno ti vede davvero”.
La famiglia sostiene che il modello abbia “incoraggiato e validato continuamente qualsiasi pensiero espresso da Adam, inclusi quelli più distruttivi”.
Non è un caso isolato. Già nel 2024, l’azienda Character.ai era stata denunciata dopo il suicidio di un adolescente che passava molte ore a chattare con l’AI, mostrando un cambiamento drastico nel comportamento.
La risposta di OpenAI
OpenAI ha reagito esprimendo cordoglio e ribadendo che ChatGPT integra meccanismi di sicurezza. Secondo un portavoce, il modello può indirizzare gli utenti a linee telefoniche di supporto e a risorse reali. Tuttavia, questi sistemi risultano più efficaci nelle conversazioni brevi. In interazioni lunghe e complesse, parte dell’addestramento alla sicurezza può diventare meno affidabile.
“Le protezioni funzionano meglio quando ogni elemento lavora come previsto”, ha dichiarato il portavoce. “Continueremo a migliorarle, guidati da esperti del settore”.
In parallelo, l’azienda ha pubblicato un post sul blog ufficiale per illustrare le misure di sicurezza già in atto e le aree su cui intervenire. Non è la prima volta che OpenAI affronta questi temi: in passato aveva introdotto aggiornamenti a ChatGPT per rilevare più facilmente segnali di disagio mentale.
Una riflessione necessaria
Il caso solleva interrogativi cruciali sul futuro dell’AI conversazionale. Da strumento di supporto e intrattenimento, può trasformarsi in un rischio se non adeguatamente controllato. La causa contro OpenAI mette in luce la necessità di bilanciare innovazione e responsabilità, soprattutto quando in gioco c’è la salute mentale degli utenti più fragili.