Intervista: l’IA cambierà anche il settore sanitario?
Vorreste sapere se la vostra diagnosi è stata fatta dall’IA?

Effy Vayena è bioeticista e professoressa al Politecnico federale di Zurigo (ETH). Ricerca le sfide etiche della sanità digitale e dell’IA e vede grandi opportunità nell’uso responsabile di queste tecnologie.
Effy Vayena, quando si parla con persone esperte di intelligenza artificiale in medicina, tutte ne sottolineano l’enorme potenziale. A un certo punto, però, si finisce sempre per citare le questioni etiche. Di che tipo di questioni si tratta?
Ad esempio, questioni di comprensibilità: quando in medicina dobbiamo valutare il risultato di un’IA o assumerci la responsabilità in caso di problemi, dobbiamo poter comprendere come l’IA sia giunta a quella decisione. Non è sempre facile. Questo problema viene descritto come fenomeno black box. Possiamo utilizzare un’IA se non capiamo come funziona? Nel contesto medico, non è facile rispondere a questa domanda.
Cosa potrebbe andare storto?
Un problema nell’applicazione dell’intelligenza artificiale in generale, e quindi anche in medicina, è il bias, ovvero il pregiudizio. I modelli di IA vengono addestrati con dati che non rappresentano l’intera società e quindi riflettono i pregiudizi esistenti. I modelli riprendono queste distorsioni nelle loro previsioni. Un modello potrebbe fornire risultati inaffidabili per una persona perché si basa su dati inadeguati, anche se per altri funziona bene. In ambito medico, un simile bias può essere potenzialmente letale. Spesso vengono svantaggiati determinati gruppi, ad esempio a causa del sesso, dell’origine etnica o dello status sociale. In medicina abbiamo sempre avuto più dati su determinati gruppi della popolazione.
Perché?
Perché determinati gruppi di popolazione ricorrono più spesso all’assistenza medica, non per motivi di salute, ma a causa di fattori come l’assicurazione, l’istruzione o lo status socioeconomico. I dati sanitari a nostra disposizione provengono spesso da questi gruppi privilegiati, mentre altri rimangono sottorappresentati. Se un modello viene addestrato su questa base, le previsioni per i gruppi meno rappresentati sono inaffidabili: questo è stato dimostrato. La particolarità dell’IA è che amplifica queste disuguaglianze. Essa amplia e automatizza i bias, rendendo le conseguenze più gravi. Un esempio: un modello di IA addestrato con i dati di un ospedale urbano funziona bene in quel contesto. Se viene utilizzato in regioni rurali o in altri paesi, spesso le prestazioni diminuiscono. I modelli devono quindi essere addestrati e testati specificamente per il loro utilizzo, al fine di evitare discriminazioni.
Ci sono altre domande che la preoccupano?
Il tema delle risorse è piuttosto centrale. Molte applicazioni di IA richiedono enormi capacità di calcolo, il che a sua volta significa un elevato consumo di energia e acqua. Da un lato, speriamo di poter utilizzare l’intelligenza artificiale per risolvere sfide come il cambiamento climatico. Dall’altro, la stessa tecnologia potrebbe contribuire in modo significativo a questi problemi.
Ci sono aspetti etici che sono già stati chiariti? E per i quali sappiamo cosa è etico e cosa no?
Abbiamo già molti principi fondamentali che ci aiutano a progettare sistemi di IA a vantaggio della società. Ciò riguarda non solo lo sviluppo della tecnologia, ma anche la sua applicazione: chi utilizza l’IA? A quali condizioni? Come influenza la catena del valore? Sappiamo, ad esempio, che l’autonomia è importante: vale a dire, preservare la libertà di decisione dell’individuo, anche quando sono in uso sistemi di IA. Nessuno dovrebbe essere spinto ad agire contro la propria volontà solo sulla base di un risultato automatizzato. Oppure il principio della privacy: l’addestramento dell’IA richiede enormi quantità di dati. Questi dati sono sicuri? Questo è un problema più datato e nel frattempo abbiamo buoni modelli di protezione dei dati. La domanda rimane: quanto rischio è accettabile se il beneficio è grande?
Come valuta l’influenza dell’IA sulle relazioni interpersonali?
In realtà, diamo semplicemente per scontato che funzionerà se inseriamo un sistema di IA, ad esempio, in un ospedale, a condizione che l’IA operi bene. Ma non l’abbiamo ancora studiato a sufficienza. Cosa accade se l’IA viene inserita nell’interazione tra mediche e pazienti? Come cambia le relazioni tra le mediche stesse?
E cosa ci riserva il futuro: l’intelligenza artificiale sostituirà il corpo dei medici?
Penso che questa sia la discussione sbagliata. Dopo tutto, la questione centrale è la seguente:
in Svizzera e in Europa c’è un’enorme carenza di personale medico, che è destinata ad aumentare ulteriormente. Il cambiamento demografico aggrava questo problema, poiché stiamo diventando sempre più anziani e abbiamo bisogno di più assistenza. Le macchine non sostituiranno queste persone. La domanda è quindi piuttosto: come può l’intelligenza artificiale aiutare il personale medico a lavorare in modo più efficiente e, ad esempio, a sgravare loro dai compiti amministrativi, in modo che possano concentrarsi meglio sul loro compito effettivo? Uno sviluppo in questa direzione potrebbe essere molto positivo per il nostro sistema sanitario. Questo punto è davvero importante per me.
Quale punto?
Non dovremmo vedere questa tecnologia come un nemico, ma come qualcosa che noi stessi abbiamo creato e che possiamo plasmare in modo che ci aiuti a risolvere alcuni dei nostri problemi. Siamo noi a stabilire le linee guida. In tutti gli argomenti che discutiamo nel mio settore, non si tratta in definitiva di fermare lo sviluppo. Queste questioni etiche hanno lo scopo di garantire che la tecnologia venga utilizzata in modo sensato, che aiuti le persone e non causi danni. Non si tratta di bloccare lo sviluppo, ma di plasmarlo in modo responsabile e orientato al futuro.
Possiamo plasmare la tecnologia? Può spiegarci meglio?
Non mi piace quando le persone dicono: «L’IA farà questo, l’IA farà quello». L’IA non farà nulla. Siamo noi esseri umani a svilupparla. E siamo noi esseri umani a decidere in quale direzione andrà lo sviluppo. Purtroppo, i media non contribuiscono in modo positivo. Alimentano la paura di essere in balia della tecnologia. Questo porta a un atteggiamento difensivo nei confronti della tecnologia, invece di pensare attivamente a come potremmo plasmarla positivamente. Ciò di cui abbiamo bisogno è una narrazione più positiva che dimostri che siamo noi ad avere il controllo. Nel sistema sanitario abbiamo problemi evidenti che dobbiamo affrontare. Dobbiamo cercare di controllare la tecnologia in modo che ci aiuti a risolvere questi problemi, e questo con la giusta dose di regolamentazione.
Capisco le paure delle persone: l’IA è un argomento complesso che si sviluppa a ritmo sostenuto.
L’istruzione è il miglior rimedio contro la paura. Non si tratta di diventare tutti informatici, ma di rendere l’argomento più comprensibile e di comunicare meglio i rischi e i benefici. In Svizzera, in fin dei conti, possiamo decidere collettivamente. Ma questo richiede una popolazione informata. Solo così possiamo prendere decisioni che, da un lato, esercitano la dovuta cautela, ma che, dall’altro, ci permettono anche di sfruttare i vantaggi di tali tecnologie. Abbiamo bisogno di un dibattito pubblico e di maggiori sfumature nel discorso. L’IA ha un potere trasformativo. È una tecnologia molto, molto potente e troppo importante per lasciarla solo alle politiche e agli informatici.
Quindi meno narrazioni di paura e più linee guida etiche?
Abbiamo già una solida base di linee guida etiche. La domanda è: come traduciamo principi come equità, spiegabilità, imparzialità, autonomia e privacy in applicazioni concrete? È proprio qui che sta il punto critico: applicare le linee guida etiche nella vita reale di tutti i giorni.
Può fare un esempio?
Immagini di essere in ospedale, viene eseguita una radiografia: vorrebbe sapere se la diagnosi è stata fatta da un’intelligenza artificiale?
Penso di sì.
Questo la farebbe sentire meglio o peggio?
Peggio. O meglio? Non ne sono sicura.
Penso che non ci sia una risposta chiara a questo. Alcune persone vogliono saperlo perché vedono l’IA in modo critico. Altre, come me, sperano che l’IA venga utilizzata solo quando è ritenuta realmente affidabile. Nel caso della medica, so che ha seguito una formazione ben definita. Nel caso dell’IA, mi manca questa fiducia.
Proprio per questo dobbiamo assicurarci che le applicazioni di IA vengano esaminate a fondo prima di essere utilizzate. Durante una risonanza magnetica, non mi chiedo se lo scanner esploderà. Lo stesso deve valere per l’IA. Viene utilizzata perché è uno strumento importante. Ma solo se è stata testata accuratamente. Successivamente, l’applicazione deve essere monitorata nella pratica: il personale medico segue le raccomandazioni dell’IA oppure no? Utilizza l’IA solo come strumento ausiliario? Non si tratta solo dell’accuratezza delle previsioni, ma anche di come viene influenzato il flusso di lavoro. Il nostro obiettivo è garantire che l’IA lavori in modo affidabile e che abbia complessivamente un effetto positivo sui pazienti, sugli ospedali e sull’intero sistema sanitario.
Ha menzionato più volte le regolamentazioni: come regolamentiamo l’IA nel settore sanitario?
Dobbiamo fare attenzione a non frenare la tecnologia e il suo potenziale. È etico non introdurre dispositivi difettosi. Ma è altrettanto etico consentire alle persone di avere una tecnologia migliore. Se possiamo sviluppare un medicinale che salva vite o pronunciare diagnosi più rapidamente e con maggiore accuratezza, abbiamo la responsabilità etica di farlo. Se il quindici percento di queste diagnosi sono errate, dobbiamo ridurre la percentuale. Quando una tecnologia viene vietata, molte persone pensano: «Bene! Ora siamo protetti». Ma forse stiamo anche perdendo un’opportunità. Abbiamo un vantaggio perché ora siamo protetti, oppure ci stiamo rimettendo perché non abbiamo accesso alla tecnologia? Non abbiamo un sistema sanitario perfetto che dobbiamo proteggere. Abbiamo un sistema imperfetto che dobbiamo migliorare.
Come possiamo trovare l’equilibrio tra innovazione e regolamentazione?
Non è facile, soprattutto quando l’innovazione si muove così rapidamente come nel campo dell’IA. Ci sono diversi approcci, ma nessun metodo perfetto. Un approccio è quello di non introdurre subito regolamentazioni rigorose e aggressive. Perché quando lo sviluppo di una tecnologia viene fermata, allora è ferma. Un altro approccio è quello di consentire esperimenti controllati, le cosiddette «sandbox».
Può spiegare questo termine?
In questi ambienti di prova, si possono testare nuove tecnologie in un ambito limitato e monitorato per valutarne i rischi e i benefici. I test vengono eseguiti nel mondo reale con il consenso delle persone coinvolte. Le imprese possono provare i loro prodotti in un quadro definito, senza dover temere sanzioni immediate. Con questa procedura, le innovazioni possono essere testate gradualmente e in modo mirato. Il terzo approccio riguarda la collaborazione con gli sviluppatori di tecnologia. Spesso le aziende promuovono l’innovazione, mentre le autorità di regolamentazione rimangono in disparte e non capiscono quasi nulla della tecnologia. È necessaria una maggiore cooperazione tra chi sviluppa la tecnologia e chi vuole proteggerci, nonché il coinvolgimento del personale medico, dei pazienti e di altri gruppi di interesse.
Quando si parla di IA ed etica, prima o poi si finisce per parlare di Big Tech.
È preoccupante che poche grandi imprese controllino gli standard e lo sviluppo delle tecnologie di IA. Le prossime regolamentazioni dovrebbero quindi favorire anche le imprese più piccole. Oggi, i requisiti elevati rendono difficile per le piccole start-up affermarsi sul mercato. Le grandi aziende, invece, hanno molti avvocati, hanno team di compliance e possono pagare multe elevate. Una regolamentazione troppo rigida potrebbe anche portare a una maggiore dipendenza dalle grandi imprese.
Se guardiamo al campo della medicina personalizzata: come valuta il potenziale dell’IA?
L’idea della medicina personalizzata è quella di adattare le cure alle esigenze specifiche di una persona. Il termine più attuale per questo è medicina di precisione. Se do lo stesso medicinale a due persone diverse che hanno la stessa età e soffrono della stessa malattia, non è preciso. Forse la seconda persona è più bassa, ha altri geni, reagisce in modo diverso. Ora, però, possiamo offrire cure più precise, adattate al genotipo, alla dose e al momento.
L’IA svolge un ruolo importante in questo, analizzando enormi quantità di dati e riconoscendo strutture. La speranza è che l’IA possa accelerare notevolmente la medicina di precisione e che ogni persona riceva esattamente ciò di cui ha bisogno per le proprie esigenze specifiche.
In futuro, le assicurazioni malattia potrebbero dire: «Se partecipate a questo programma basato sull’IA, otterrete dei vantaggi. Altrimenti no»?
Qui, a mio parere, è importante capire come funziona la regolamentazione. Si tratta dell’uso consentito della tecnologia. Un’azienda può sfruttarla per offrire vantaggi alle persone o per arrecare danni? Può spingere le persone in una certa direzione? Il divieto di creare profili genetici per l’assicurazione malattia dimostra che possiamo regolamentare l’uso della tecnologia senza frenare la tecnologia stessa. Come società, abbiamo concordato collettivamente che non siamo responsabili dei nostri geni. Ognuno ha il diritto di essere assicurato, indipendentemente dalla malattia che ha. Quindi sono le condizioni sociali che dobbiamo regolamentare, e non la tecnologia.
Cos’è l’IA in medicina?
L’intelligenza artificiale viene utilizzata principalmente per fare previsioni. Si addestra un sistema di IA con enormi quantità di dati, grazie ai quali impara a riconoscere schemi. Se si applica poi l’IA in una nuova situazione, può fare una previsione in tempi rapidissimi sulla base degli schemi appresi. In medicina, l’IA viene utilizzata, ad esempio, per identificare i tumori sulle radiografie, per selezionare medicinali individuali o per ottimizzare i flussi di lavoro nelle cliniche.

Effy Vayena è professoressa di bioetica al Politecnico federale di Zurigo (ETH) e dirige l’Health Ethics and Policy Lab. La sua ricerca, che si colloca all’intersezione tra etica, tecnologia e politica sanitaria, influenza il dibattito etico sulla sanità digitale, l’intelligenza artificiale e la medicina personalizzata.