Cerca

Il convegno "Intelligenza Artificiale e Medicina" che si è tenuto a Roma Il convegno "Intelligenza Artificiale e Medicina" che si è tenuto a Roma 

Pav e Fiamc: "L'IA non può sostituirsi a competenza e responsabilità del medico"

A conclusione del convegno "Intelligenza Artificiale e Medicina", che si è tenuto a Roma, presso la Curia generalizia dei Gesuiti, la Pontificia Accademia per la Vita e la Federazione mondiale dei medici cattolici indicano alcuni principi etici fondamentali per l'IA nella pratica medica. Impiegare le nuove tecnologie per migliorare il giudizio clinico, supportare l'accuratezza diagnostica e ottimizzare i risultati dei pazienti

Vatican News

Una serie di principi etici fondamentali per l'uso dell'Intelligenza Artificiale nella pratica medica è stata diffusa stasera, 11 novembre, alla fine dei lavori del congresso internazionale organizzato dalla Federazione Internazionale delle Associazioni Mediche Cattoliche (FIAMC) e dalla Pontificia Accademia per la Vita (PAV) che si tenuto presso la Curia Generalizia della Compagnia di Gesù. 


Monsignor Renzo Pegoraro, presidente della PAV, e il professor Bernard Ars, presidente della Federazione mondiale delle associazioni dei Medici Cattolici, hanno congiuntamente dichiarato che lo stupore per gli straordinari risultati raggiunti dallo sviluppo dei sistemi di IA non può essere slegato dalla preoccupazione per l'impatto di quegli stessi risultati sulle relazioni personali e sociali. Facendo memoria delle indicazioni tracciate già da Papa Francesco in questo ambito, secondo le quali ”la dignità intrinseca di ogni essere umano e la fraternità che ci unisce come membri dell'unica famiglia umana devono sostenere lo sviluppo delle nuove tecnologie e servire come criteri indiscutibili per valutarle prima che vengano impiegate", nel comunicato finale del congresso si ricorda come nel campo dell'assistenza sanitaria "è fondamentale che l'IA sia un ausilio che migliori il giudizio clinico, supporti l'accuratezza diagnostica e migliori i risultati dei pazienti, senza mai sostituirsi alla competenza, all'empatia o alla responsabilità del medico".

Supervisione, giudizio clinico, trasparenza

L'IA deve rimanere subordinata al ragionamento clinico del medico, sottolineano PAV e FIAMC: “Le decisioni relative al trattamento dei pazienti e il peso della responsabilità che esse comportano devono sempre rimanere di competenza dell'essere umano e non devono mai essere delegate all'IA” . Nel processo di utilizzo dell'IA, precisano, il medico deve stare attento a "non lasciarsi ipnotizzare dal fascino dei risultati tecnologici". Anche su trasparenza e interpretabilità si esprimono: "I medici dovrebbero essere in grado di comprendere e spiegare come vengono generate le raccomandazioni derivate dall'IA. Gli algoritmi black-box che mancano di interpretabilità rischiano di minare la fiducia e la responsabilità clinica, inducendo alla dequalificazione e alla delega di responsabilità".

Equità e riservatezza

Vigilanza massima viene richiesta inoltre ai sanitari sul rischio che dati incompleti o distorti possano perpetuare disparità. Sempre sotto il profilo della garanzia di equità, si afferma che l'IA non dovrebbe ampliare il divario tra contesti ricchi di risorse e contesti poveri di risorse. Tutti i pazienti, indipendentemente dalla loro posizione geografica o dal loro status socioeconomico, devono poter beneficiare dei progressi tecnologici: “Ottimizzare le risorse significa utilizzarle in modo etico e fraterno, senza penalizzare i più fragili” . È necessario, si raccomanda, promuovere dati inclusivi e rappresentativi nello sviluppo dell'IA.


Il personale medico viene messo in guardia dall'uso dei dati dei pazienti nelle applicazioni di IA: esso deve essere conforme agli standard legali ed etici. La riservatezza professionale deve essere trasposta anche nel contesto dell'IA. In più, affermano PAV e FIAMC, "sarebbe importante distinguere quando l'errore è riconducibile al medico per un uso improprio di questi sistemi, o quando è solo ed esclusivamente attribuibile all'ospedale che gestisce e imposta lo strumento, o alla società di IA".

Privacy, responsabilità

Le tecniche numeriche basate sui calcoli, per quanto efficaci possano essere, presentano molti limiti epistemologici e logici. Pertanto, concludono monsignor Pegoraro e il professor Ars, non possono sostituire tutte le sfaccettature del pensiero umano e tutte le dimensioni delle relazioni umane. Alcune dimensioni profonde della cura del paziente non possono infatti essere sostituite da procedure numeriche ottimizzate e robot autonomi. Il criterio guida fondamentale è quello per cui "il paziente non è un problema da risolvere (con l'IA o altre tecnologie), ma un mistero che rivela Cristo stesso".

Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui

11 novembre 2025, 18:30