Diversi studi hanno confermato che i chatbot basati su algoritmi di apprendimento automatico apparentemente possono contribuire a ridurre ansia e sintomi depressivi, ma la loro efficacia resta circoscritta a un sollievo transitorio.
Una ricerca randomizzata condotta dagli sviluppatori di Woebot ha dimostrato che, in un campione non clinico, due settimane di interazione con il bot hanno portato a una diminuzione significativa dei livelli di ansia e depressione rispetto ai materiali di auto‐aiuto tradizionali dell’Organizzazione Mondiale della Sanità.
Tuttavia, sebbene alcuni utenti riportino di aver instaurato un rapporto di fiducia con questi sistemi, un’analisi più approfondita mette in luce come l’empatia percepita sia solo una simulazione, priva della profondità di una relazione terapeutica umana.
La differenza cruciale risiede nella natura stessa dell’empatia: mentre il terapeuta è in grado di attivare processi cognitivi e affettivi per comprendere e integrare il vissuto del paziente, un algoritmo si limita a riconoscere pattern nei dati di addestramento e a restituire risposte preconfezionate.
Questo meccanismo rischia di generare dipendenza da soluzioni rapide e rassicuranti, inducendo l’utente ad allontanarsi dalle sedute tradizionali, dove invece la lentezza del dialogo e l’investimento emotivo scaturiscono progressivamente dal confronto con un professionista in carne e ossa.
Parallelamente, emergono crescenti timori sulla riservatezza delle informazioni condivise durante le conversazioni con i chatbot. Un’analisi condotta su infrastrutture di intelligenza artificiale in ambito sanitario ha evidenziato vulnerabilità nei protocolli di sicurezza: dati sensibili potrebbero essere acquisiti senza garanzie adeguate, trasferiti in archivi opachi e successivamente impiegati per scopi commerciali o di profilazione comportamentale.
In mancanza di un quadro normativo chiaro, resta ignoto quali dataset abbiano alimentato l’addestramento dei modelli e quali misure siano state adottate per isolare le confidenze degli utenti da altri flussi di informazioni.
In Italia, molti adolescenti si presentano in studio affermando di aver inizialmente confidato nei chatbot prima di rendersi conto della necessità di un intervento umano. Secondo l’ex presidente dell’Ordine degli Psicologi, il pericolo più grande è rappresentato da una fiducia illusoria verso uno strumento tecnologico che, per quanto sofisticato, rimane privo di esperienza soggettiva e sensibilità emotiva.
Nei contesti clinici si avverte un’urgenza condivisa: formare i professionisti all’uso critico delle nuove tecnologie, definire rigorose linee guida etiche e garantire trasparenza sui processi di gestione dei dati, per scongiurare derive manipolatorie.
Alla luce di queste evidenze, la comunità scientifica concorda sul fatto che l’intelligenza artificiale debba essere considerata un supporto complementare alle terapie tradizionali, non un sostituto. Solo integrando l’innovazione tecnologica con la centralità del rapporto psicologo-paziente sarà possibile assicurare percorsi di cura efficaci, sicuri e rispettosi della dignità e della privacy di chi chiede aiuto.
ARTICOLI CORRELATI:

