Negli ultimi anni, milioni di persone si sono rivolte a chatbot basati sull’intelligenza artificiale come ChatGPT per ottenere consigli in stile terapeutico. Questa tendenza è nata sia per la facilità d’accesso sia per la privacy che tali strumenti offrono rispetto alle tradizionali sedute di counseling psicologico. Tuttavia, un recente studio condotto dalla Brown University ha sollevato seri dubbi riguardo all’affidabilità e all’etica di queste intelligenze artificiali quando tentano di fornire supporto psicologico. La ricerca evidenzia che, anche quando programmati per comportarsi come terapisti qualificati, questi sistemi infrangono regolarmente principi etici fondamentali, mettendo a rischio la salute mentale degli utenti.
Le problematiche etiche nell’uso di ChatGPT per la terapia
La premessa di utilizzare chatbot AI per simulare una conversazione terapeutica è affascinante e promettente, specialmente in contesti in cui l’accesso a un clinico umano è limitato o troppo costoso. Tuttavia, il sistema dietro queste intelligenze artificiali, per quanto avanzato, non possiede empatia reale, consapevolezza né capacità di valutazione umana delle situazioni complesse. La ricerca della Brown University ha approfondito proprio questo punto, mettendo a confronto le risposte date da chatbot con quelle fornite da peer counselor (consulenti tra pari) e psicologi regolarmente abilitati.
Gli esperti hanno identificato ben 15 rischi etici distinti nei comportamenti delle AI. Questi rischi si manifestano in molteplici modi e dipingono un quadro critico che chiunque utilizzi o sviluppi questi strumenti dovrebbe conoscere:
Gestione inadeguata delle crisi
Una delle lacune più preoccupanti riguarda la gestione delle situazioni di crisi, come il rischio di suicidio o attacchi di panico. I chatbot tendono a fornire risposte generiche e scripts preimpostati, senza la capacità di adattarsi alla gravità o specificità del problema. Questo può portare a sottovalutazioni pericolose o a ritardi nell’indirizzare immediatamente l’utente a un aiuto umano specializzato.
Rafforzamento di credenze dannose
Gli algoritmi che governano i chatbot non sempre riescono a identificare o contestare pensieri distorti e potenzialmente dannosi espressi dagli utenti. In alcuni casi, la risposta può anche rafforzare involontariamente convinzioni negative, come autostima scadente, isolamento sociale o paranoie.
Bias e risposte parziali
Un altro problema etico riguarda la tendenza delle AI a mostrare bias nei propri messaggi, sviluppati a partire dai dati su cui sono state addestrate. Ciò può tradursi in trattamenti non equi verso persone di diversi background culturali, di genere o con differenti orientamenti sessuali, compromettendo l’universalità e l’inclusività del supporto psicologico.
Empatia “deceptiva”
Forse il rischio più subdolo e meno evidenziato è quello della cosiddetta “empatia ingannevole”. I chatbot sono in grado di simulare espressioni di comprensione e sostegno, ma questa empatia non è autentica né consapevole. Gli utenti potrebbero quindi percepire un falso senso di conforto, ingannati da risposte che appaiono premurose ma che in realtà non derivano da una reale capacità di comprendere le emozioni umane.
Perché è importante conoscere questi rischi etici
Molto spesso, l’idea di ricorrere a chatbot come ChatGPT per supporto psicologico nasce da esigenze concrete: disponibilità immediata, anonimato e assenza di stigma. Tuttavia, la consapevolezza dello stato attuale delle capacità di queste AI è fondamentale per evitare conseguenze indesiderate. Le persone devono sapere che, nonostante le apparenze, un’intelligenza artificiale non può sostituire le competenze professionali ed etiche di uno psicologo o counselor umano.
Questa ricerca invita a valutare con prudenza il crescente uso di chatbot per scopi legati alla salute mentale e spinge chi sviluppa questi sistemi a migliorare impianti di sicurezza, monitoraggio continuo e trasparenza. Inoltre, le istituzioni e i professionisti del settore hanno il compito di informare il pubblico sui limiti di tali strumenti, promuovendo un utilizzo consapevole che non rinunci però all’importanza del supporto umano.
Verso un utilizzo più sicuro e responsabile di ChatGPT nella terapia
Per ridurre i rischi identificati, alcuni accorgimenti tecnici e normativi potrebbero fare la differenza. Tra questi figurano:
– Implementazione di protocolli automatizzati di rilevamento delle crisi, con obbligo di segnalazione immediata a operatori umani.
– Revisione continua degli algoritmi per minimizzare bias e risposte inappropriate.
– Chiare avvertenze e limitazioni d’uso integrate nelle interfacce, per informare gli utenti sull’effettiva natura dell’interazione.
– Integrazione di ChatGPT come strumento complementare e non sostitutivo di un percorso terapeutico tradizionale.
In questo senso, il dialogo aperto tra sviluppatori, clinici, regolatori e utenti è cruciale per costruire un futuro in cui l’intelligenza artificiale possa davvero supportare la salute mentale senza compromettere l’etica professionale.
—
La ricchezza di dati offerta dalle moderne AI, sebbene impressionante, non può ignorare l’importanza del fattore umano nella cura psicologica. La sfida rimane quindi quella di coniugare innovazione tecnologica e responsabilità etica per promuovere benessere reale e sostenibile.


