Negli ultimi anni, i modelli linguistici di grandi dimensioni (LLM) sono diventati strumenti sempre più utilizzati per ottenere informazioni sanitarie. Milioni di utenti si affidano a chatbot con intelligenza artificiale generativa, come ChatGPT, per interpretare sintomi, capire il significato di esami medici o valutare se rivolgersi al pronto soccorso. OpenAI ha lanciato ChatGPT Salute, definito come “un’esperienza dedicata che integra in modo sicuro le informazioni sanitarie con l’intelligenza di ChatGPT, per aiutare a sentirsi più informati, preparati e sicuri nella gestione della propria salute”. La popolarità di questi strumenti è favorita dall’immediatezza delle risposte e dalle difficoltà di accesso ai servizi sanitari in molti Paesi.
Crescita della fiducia e uso diffuso
Uno studio pubblicato su AI & Society ha analizzato le opinioni di 31.000 adulti in 35 Paesi sulla delega di ruoli socialmente importanti all’intelligenza artificiale. Il 45% degli intervistati si affiderebbe all’IA come medico personale, mentre il 41% dei britannici la utilizzerebbe per consulenze psicologiche. Oltre tre quarti degli utenti parlerebbero con un chatbot come se fosse un amico. La psicologa Ala Yankouskaya evidenzia che la fiducia nell’IA cresce grazie alla disponibilità immediata di supporto, ma mette in guardia: “Questi sistemi non possono sostituire il colloquio con un professionista sanitario”.
Rischi e controversie legali
Nonostante i benefici, l’eccessiva fiducia nell’IA può avere conseguenze gravi. Diversi casi legali recenti documentano episodi in cui i chatbot hanno rafforzato pensieri suicidari, con cause contro OpenAI, Google e Character.AI. Il problema principale risiede nella capacità della tecnologia di rassicurare e creare empatia, inducendo gli utenti a seguire indicazioni potenzialmente pericolose. Questi eventi sottolineano la necessità di supervisioni rigorose e linee guida chiare per l’uso di IA in contesti sanitari sensibili.
Test clinici e limiti dei chatbot
Studi scientifici come quello pubblicato su Nature Medicine hanno testato ChatGPT Health in 960 scenari clinici, coprendo 21 specialità. Il sistema riconosce emergenze evidenti, ma spesso sottovaluta situazioni ambigue, consigliando agli utenti di restare a casa anche quando servirebbe un pronto soccorso. Ricerche successive hanno evidenziato un’accuratezza media del 70-74% nelle raccomandazioni, con problemi di variabilità nelle risposte e tendenza all’overtriage, ovvero suggerire cure più urgenti del necessario. Studi su GPT-3 hanno confermato che, pur identificando possibili diagnosi, l’IA resta inferiore ai medici nella precisione diagnostica e nel triage.
Opportunità e precauzioni
Gli LLM rappresentano una risorsa potente per la medicina digitale, ma il loro uso richiede consapevolezza dei limiti. Isaac Kohane della Harvard Medical School sottolinea che “gli LLM sono il primo punto di riferimento dei pazienti per consigli medici, ma sono meno sicuri agli estremi clinici, dove il giudizio professionale fa la differenza tra emergenze mancate e allarmi inutili”. Il messaggio chiave per utenti e professionisti è chiaro: i chatbot possono supportare la gestione della salute, ma le valutazioni indipendenti e il confronto con medici reali devono rimanere la regola, non l’eccezione.
L’articolo ChatGPT e salute digitale: fiducia crescente dei pazienti, rischi clinici e limiti proviene da Blitz quotidiano.