Il documento OMS sull’intelligenza artificiale applicata alla salute. Considerazioni normative

L’Organizzazione Mondiale della Sanità (OMS) ha pubblicato a ottobre 2023 un nuovo documento che elenca le principali considerazioni normative sull’intelligenza artificiale (AI) nel’ambito della salute “Regulatory considerations on artificial intelligence for health”.

La pubblicazione sottolinea l’importanza di stabilire la sicurezza e l’efficacia dei sistemi di intelligenza artificiale, rendendo rapidamente disponibili sistemi adeguati a coloro che ne hanno bisogno e promuovendo il dialogo tra le parti interessate, inclusi sviluppatori, enti regolatori, produttori, operatori sanitari e pazienti.

Con la crescente disponibilità di dati sanitari e il rapido progresso delle tecniche analitiche – siano esse di apprendimento automatico, basate sulla logica o statistiche – gli strumenti di intelligenza artificiale potrebbero trasformare il settore sanitario. L’OMS riconosce il potenziale dell’IA nel migliorare i risultati sanitari rafforzando gli studi clinici; migliorare la diagnosi medica, il trattamento, la cura di sé e l’assistenza centrata sulla persona; e integrare le conoscenze, le abilità e le competenze degli operatori sanitari. Ad esempio, l’intelligenza artificiale potrebbe essere utile in contesti in cui mancano specialisti medici, nell’interpretazione delle scansioni retiniche e delle immagini radiologiche, per esempio. Tuttavia, le tecnologie di intelligenza artificiale – compresi i modelli linguistici di grandi dimensioni – vengono rapidamente implementate, a volte senza una piena comprensione del loro funzionamento, il che potrebbe avvantaggiare o danneggiare gli utenti finali, compresi gli operatori sanitari e i pazienti.
Quando si utilizzano dati sanitari, i sistemi di intelligenza artificiale potrebbero avere accesso a dati personali sensibili, necessitando di solidi quadri giuridici e normativi per salvaguardare la privacy, la sicurezza e l’integrità, che questa pubblicazione mira a contribuire a creare e mantenere.

“L’intelligenza artificiale rappresenta una grande promessa per la salute, ma comporta anche gravi sfide, tra cui la raccolta non etica di dati, minacce alla sicurezza informatica e amplificazione di pregiudizi o disinformazione”, ha dichiarato il dottor Tedros Adhanom Ghebreyesus, direttore generale dell’OMS. “Questa nuova guida aiuterà i Paesi a regolamentare l’IA in modo efficace, per sfruttarne il potenziale, sia nel trattamento del cancro che nel rilevamento della tubercolosi, riducendo al minimo i rischi”.

In risposta alla crescente esigenza dei Paesi di gestire in modo responsabile la rapida ascesa delle tecnologie sanitarie basate sull’intelligenza artificiale, la pubblicazione delinea sei aree per la regolamentazione dell’IA per la salute.

– Promuovere la fiducia, la pubblicazione OMS sottolinea l’importanza della trasparenza e della documentazione, ad esempio documentando l’intero ciclo di vita del prodotto e monitorando i processi di sviluppo.

– Gestione del rischio, questioni come “uso previsto”, “apprendimento continuo”, interventi umani, modelli di formazione e minacce alla sicurezza informatica devono essere tutte affrontate in modo completo, con modelli resi il più semplici possibile.

– Convalida esterna dei dati e chiarezza sull’uso previsto dell’IA aiutano a garantire la sicurezza e a facilitare la regolamentazione.

– L’mpegno per la qualità dei dati, ad esempio attraverso una valutazione rigorosa dei sistemi prima del rilascio, è vitale per garantire che i sistemi non amplifichino pregiudizi ed errori.

– Sfide poste da normative importanti e complesse – come il General Data Protection Regulation (GDPR) in Europa e l’Health Insurance Portability and Accountability Act (HIPAA) negli Stati Uniti d’America – vengono affrontate ponendo l’accento sulla comprensione dell’ambito giuridico e dei requisiti di consenso, al servizio della privacy e della protezione dei dati.

– Promuovere la collaborazione tra organismi di regolamentazione, pazienti, operatori sanitari, rappresentanti del settore e partner governativi può aiutare a garantire che prodotti e servizi rimangano conformi alla normativa durante tutto il loro ciclo di vita.

I sistemi di intelligenza artificiale sono complessi e dipendono non solo dal codice con cui sono costruiti, ma anche dai dati su cui vengono addestrati, che provengono, ad esempio, da contesti clinici e interazioni con gli utenti. Una migliore regolamentazione può aiutare a gestire i rischi che l’intelligenza artificiale possa amplificare i bias nei dati di addestramento. Ad esempio, può essere difficile per i modelli di intelligenza artificiale rappresentare accuratamente la diversità delle popolazioni, il che porta a pregiudizi, imprecisioni o addirittura fallimenti. Per contribuire a mitigare questi rischi, è possibile utilizzare le normative per garantire che gli attributi – come genere, razza ed etnia – delle persone presenti nei dati di formazione vengano riportati e che i set di dati siano intenzionalmente resi rappresentativi.

Il testo completo è scaricabile da questo link https://iris.who.int/handle/10665/373421

Il testo “Ethics and governance of artificial intelligence for health” (28 giugno 2021)  è scaricabile qui https://www.who.int/publications/i/item/9789240029200