Le risposte dell’IA ai pazienti risultano più empatiche e chiare?

Nell’intervista pubblicata su “Il Punto”, il professor Guido Boella, Vicerettore per l’Intelligenza Artificiale all’Università di Torino, riflette sugli esiti di uno studio apparso su JAMA Network Open, che analizza la percezione dei pazienti nei confronti dei messaggi clinici redatti da chatbot. La ricerca mostra un apparente paradosso: le risposte fornite dall’intelligenza artificiale risultano spesso più chiare e addirittura più “empatiche” rispetto a quelle umane, ma la soddisfazione dei pazienti cala drasticamente quando viene rivelata la natura artificiale dell’autore.

Boella sottolinea come questa contraddizione non sia del tutto sorprendente: è un meccanismo psicologico già osservato in altri contesti, dove la qualità percepita di un contenuto è influenzata dalla sua presunta origine. È una questione di fiducia, di aspettative e di contesto culturale, più che di effettiva efficacia comunicativa. In particolare, emerge un punto cruciale: la comunicazione automatizzata può simulare l’empatia, ma resta priva di autentica consapevolezza emotiva. I chatbot attingono a grandi quantità di dati per produrre risposte “plausibili”, e non provano empatia — ma possono sembrare empatici, e spesso questo basta.

L’intervista tocca poi il tema della trasparenza: è giusto informare sempre il paziente sull’origine delle informazioni ricevute? Boella difende la necessità etica della chiarezza, sottolineando come celare l’intervento dell’AI equivarrebbe a trattare l’utente come un soggetto da proteggere, e non da rispettare. In tal senso, richiama anche gli obblighi normativi imposti dall’AI Act europeo.

Centrale nel discorso è anche la figura del medico: l’AI non dovrebbe sostituirlo, ma affiancarlo. Come in passato il professionista consultava il prontuario cartaceo, oggi può fare affidamento su sistemi intelligenti per approfondire o verificare una diagnosi. Ma, ammonisce Boella, la differenza sta nell’uso consapevole e critico, non nella delega passiva.

L’intelligenza artificiale in ambito sanitario — osserva il professore — non è una questione puramente tecnologica. Ha implicazioni economiche, politiche e sociali profonde. Se inserita in un sistema sanitario già stressato, rischia di diventare un alibi per ulteriori tagli e semplificazioni. La responsabilità e la formazione degli operatori diventano allora nodi cruciali per evitare un uso distorto delle tecnologie.

La conclusione è chiara: l’AI può migliorare la medicina, ma solo se viene guidata da scelte consapevoli. Non è tanto la tecnologia a decidere il nostro futuro, ma come decidiamo di usarla. E questo, dice Boella, è un compito collettivo.

Leggi l’intervista completa