IA, la macchina dell’empatia: “L’app sembra capirci. Ma la risposta è statistica”

Roma, 13 agosto 2025 – “Ciao, sono il tuo compagno IA, sempre pronto a parlare con te quando hai bisogno di un amico empatico”. Così si presenta Replika, un servizio di intelligenza artificiale con milioni di utenti iscritti che, insieme ad altri chatbot simili come ChatGpt, Serena.ai e Therabot, sembra in grado di instaurare nelle conversazioni con l’utente una relazione empatica. Questi sistemi si stanno moltiplicando a una velocità incredibile e con un successo gigantesco. “Ad oggi, nella nostra società, c’è una grandissima esigenza di soddisfare un bisogno di empatia – afferma Silvano Zipoli Caiani, professore di filosofia della mente all’Università di Firenze e autore, fra gli altri, di Corporeità e Cognizione (2017) e Vedere e agire. Come occhio e cervello costruiscono il mondo (2015, insieme a Gabriele Ferretti) –. E dove c’è un bisogno si inserisce una possibilità di tipo economico”.

Il ruolo dell’IA: “É umana se ci ricorda chi siamo”

Ma non è tutto oro ciò che luccica: molti sono infatti i rischi a cui si va incontro quando ci si interfaccia con un’ IA di questo tipo. Risalgono per esempio al gennaio del 2023 i primi casi di vere e proprie molestie da parte di Replika ai danni di utenti più fragili e troppo emotivamente coinvolti e allo scorso maggio la sanzione di 5 milioni di euro del Garante privacy italiano per il mancato rispetto da parte del chatbot IA del Regolamento europeo sulla privacy.

Professor Zipoli, che cosa si intende quando si parla di empatia di un’intelligenza artificiale?

“Quando diciamo che qualcuno o eventualmente qualcosa è in grado di empatizzare, parliamo di un processo in cui comprendiamo e proviamo quali sono gli stati mentali e affettivi dell’altro. È un comprendere nel vivere. Noi esseri umani possiamo essere empatici ogni volta che per esempio parliamo con degli amici, interpretiamo il comportamento dei bambini o guardiamo un film. Oggi siamo di fronte a dei sistemi – i large language models, LLM, sui quali si basano alcune IA – che popolano la rete e i nostri smartphone e che sono in grado di comportarsi esattamente come degli agenti che provano empatia: sono quindi in grado di simularla almeno da un punto di vista linguistico”.

Quanto influisce il design nell’empatia di un’IA?

“Gli LLM sono sistemi realizzati proprio per dare l’impressione di essere in grado di comprendere profondamente i nostri stati mentali. Sono dunque progettati per soddisfare l’esigenza di trovarsi in una relazione empatica, che infatti è una condizione ricercata da noi esseri umani. Questi sistemi hanno raggiunto un tale grado di affinità da dar corso all’impressione di stare realmente empatizzando con l’utente. A questo si aggiunge il fatto che oggi c’è una grandissima esigenza di soddisfare un bisogno di empatia. E dove c’è un bisogno si inserisce una possibilità di tipo economico. Oggi, gli LLM sembrano in grado di offrire un supporto comparabile a quello fornito dai professionisti della salute mentale. Penso a Serena.ai, un’app facilmente scaricabile nel telefono: una terapeuta h24, presentata come in grado di comprendere profondamente il tuo vissuto in qualsiasi momento”.

Come difendersi dai rischi?

“Gli LLM funzionano sulla base di associazioni statistiche, quello che fanno è imparare qual è la parola più probabile che segue un’altra all’interno di una vastissima rappresentazione statistica di quello che è il linguaggio umano. Sono addestrati. Se io so che di fronte a me c’è un sistema che risponde su base statistica, sono avvertito”. Chiamarla empatica è troppo.