Roma, 13 giugno 2024 – Ogni settimana più di un milione di utenti di ChatGpt invia messaggi che esprimono idee o progetti legati al suicidio. A rivelarlo è una ricerca di OpenAI, la società californiana dietro il famoso chatbot basato su intelligenza artificiale. Un dato che arriva in un momento delicato per l’azienda e che fa riflettere sulle conseguenze sociali e psicologiche di un uso sempre più diffuso di queste tecnologie.
Più di un milione di segnali d’allarme ogni settimana
Il rapporto di OpenAI mostra come circa lo 0,07% degli utenti attivi in una settimana manifesti segnali di possibili problemi mentali, come psicosi o mania. Non sembra molto, ma tradotto in numeri reali significa decine di migliaia di persone in situazioni critiche, considerando la vastità della platea globale. I dati arrivano da un monitoraggio automatico delle conversazioni, pensato proprio per individuare in tempo i casi a rischio.
“Dobbiamo proteggere chi ci cerca per un aiuto”, ha detto un portavoce di OpenAI. Negli ultimi mesi l’azienda ha rafforzato le procedure per gestire le emergenze e ampliato le collaborazioni con le linee di assistenza per crisi. Solo nel 2023, secondo fonti interne, oltre 170 medici ed esperti sanitari hanno lavorato alla revisione dei protocolli di sicurezza.
Il caso dell’adolescente americano riaccende il dibattito
La sicurezza degli utenti è tornata sotto i riflettori dopo la causa della famiglia di un adolescente americano, morto suicida dopo aver usato intensamente ChatGpt. L’episodio, avvenuto nei primi mesi dell’anno, ha sollevato dubbi su quanto i chatbot siano in grado di riconoscere e intervenire in situazioni di disagio psicologico. “Non possiamo più chiudere gli occhi davanti ai rischi”, ha detto la madre del ragazzo durante una conferenza stampa a New York. “Le aziende devono prendersi le loro responsabilità”.
La vicenda ha spinto la Federal Trade Commission (FTC) a lanciare un’indagine approfondita sulle società che sviluppano chatbot con intelligenza artificiale. L’obiettivo è capire come questi strumenti gestiscono i rischi per bambini e adolescenti. La FTC ha chiesto a OpenAI e ad altre aziende di chiarire i protocolli e le azioni previste in caso di emergenze.
OpenAI risponde con nuovi strumenti e misure
Di fronte alle critiche, OpenAI ha annunciato aggiornamenti al proprio sistema. L’ultima versione, chiamata Gpt-5, promette più attenzione alla sicurezza e una maggiore capacità di indirizzare chi è in difficoltà verso i servizi giusti. “Abbiamo investito molto per migliorare i nostri sistemi”, ha spiegato Mira Murati, Chief Technology Officer. “Vogliamo ridurre i rischi e offrire un ambiente digitale più sicuro”.
Per tenere sotto controllo i casi più delicati, OpenAI ha coinvolto una rete globale di 170 medici e specialisti in salute mentale. Lavorano a turni, coprendo Stati Uniti, Europa e Asia, garantendo assistenza quasi continua. Questi esperti aiutano a rivedere i casi critici e a definire le linee guida interne.
Un problema che coinvolge istituzioni e società
L’impatto dei chatbot sul benessere psicologico è ormai al centro di studi anche nelle università di Stati Uniti ed Europa. Una ricerca pubblicata su “Nature Human Behaviour” mette in guardia: interagire a lungo con sistemi automatici può peggiorare condizioni di disagio, soprattutto nei giovani. “Serve un approccio che coinvolga più settori”, spiega la professoressa Laura Bianchi dell’Università di Milano. “Non basta la tecnologia, servono scuole, famiglie e servizi sanitari al lavoro insieme”.
Nel frattempo, nelle chat pubbliche di supporto psicologico si moltiplicano le voci di ragazzi che raccontano esperienze difficili online. Un utente, “Luca_17”, ha scritto ieri sera alle 22:14: “A volte sembra che nessuno ascolti davvero”. Poco più di una frase, ma che racconta molto della realtà dietro i numeri.
 
                                                                                                                                                 
                                     
				             
				             
				             
				             
				             
				             
				             
				             
				            