IA e difesa, Taddeo: “Rischiamo di passare dalla guerra all’atrocità"
Fabio Colagrande – Città del Vaticano
La frattura tra il Dipartimento della Guerra degli Stati Uniti e l’azienda Anthropic sull’uso “senza restrizioni” del modello Claude in ambito militare ha riportato al centro una questione cruciale: fino a che punto è lecito delegare alle macchine decisioni che riguardano la vita e la morte? Il rifiuto del CEO Dario Amodei di autorizzare sorveglianza di massa e armi completamente autonome, con il conseguente ordine dell’amministrazione statunitense di sospendere l’utilizzo dei sistemi dell’azienda, evidenzia la tensione crescente tra sicurezza nazionale ed etica dell’intelligenza artificiale .
Un nodo che Papa Leone XIV ha affrontato con parole nette. Nel Messaggio per la Giornata Mondiale della Pace 2026, il Pontefice ha messo in guardia dal rischio di una “spirale distruttiva” e di un processo di “deresponsabilizzazione dei leader politici e militari, a motivo del crescente ‘delegare’ alle macchine decisioni riguardanti la vita e la morte di persone umane”. Mentre nel suo intervento alla Conferenza annuale sull’Intelligenza Artificiale del giugno 2025 aveva ricordato che l’IA è “innanzitutto uno strumento” e che va valutata alla luce dello “sviluppo integrale della persona e della società”. In questo scenario si colloca la riflessione, ai microfoni dei media vaticani, di Mariarosaria Taddeo, docente di Digital Ethics and Defence Technologies all’Oxford Internet Institute, autrice del volume Codice di guerra. Etica dell’intelligenza artificiale nella difesa (RaffaelloCortina editore, 2025).
Predicibilità e controllo: una regolazione ancora fragile
A proposito degli standard tecnici e normativi in grado di garantire un reale controllo dei sistemi di IA nella difesa, Taddeo osserva che gli strumenti oggi disponibili sono “molto pochi in realtà”, perché la predicibilità di questi sistemi è “una questione complessa”: si tratta di macchine che apprendono dalle interazioni con l’ambiente e, in questo apprendimento, “tutto quello che non è esplicitamente proibito diventa un possibile risultato”. Chi le sviluppa, aggiunge, dovrebbe possedere “una capacità predittiva quasi divina”. A ciò si somma la “scarsissima robustezza dal punto di vista tecnico”: quando l’ambiente operativo è diverso da quello di addestramento, possono emergere “risultati inattesi e non voluti”, oltre alle criticità legate alla cybersicurezza.
Sul piano normativo, la studiosa rileva che esiste “una sola regolamentazione”, quella europea, basata sul rischio e non sul controllo. Gli altri approcci, a suo giudizio, sono “molto vacui e molto superficiali” e viziati dall’idea che l’IA debba essere controllata solo in fase di progetto o a valle dell’uso. In realtà, una tecnologia dotata di autonomia e capacità di apprendimento richiede “un monitoraggio costante, durante tutto l’arco del ciclo di vita”, ma si tratta di standard “più difficili da congegnare e da fare implementare”.
Responsabilità morale e il limite dell’atrocità
Sul tema dei sistemi d’arma autonomi, Taddeo afferma che la decisione su vita e morte rimane “senza un’attribuzione della responsabilità morale che sia corretta e giustificabile”. È possibile attribuire una responsabilità legale — ad esempio a un generale o a un ministro — ma “la responsabilità legale non sempre è congruente con quella morale”. Quest’ultima, sostiene, “rimane impossibile da attribuire in maniera giustificata e accettabile, quando le macchine eseguono delle azioni che riguardano la vita di un altro essere umano”. Il fatto che il problema sia “non solvibile” rappresenta un “caso limite” che indica l’esistenza di usi degli agenti artificiali “non moralmente accettabili”.
Richiamando il processo di Norimberga, la Taddeo ricorda che i giudici sottolinearono la necessità di accertare la responsabilità individuale. In guerra, la responsabilità morale è “uno dei fattori che si considera possano limitare il rischio che la guerra diventi un’atrocità”. Se essa non può essere attribuita in partenza, occorre riconoscere “un limite serio nell’adozione dell’intelligenza artificiale”, perché oltre quel confine si passa “dal contesto della guerra, al contesto dell’atrocità e della immoralità”.
Diritto umanitario e approccio “translational”
Quanto al rapporto tra IA e diritto internazionale umanitario, tenendo conto che l’IA sta ridefinendo la guerra, soprattutto nelle operazioni cosiddette “non cinetiche”, Taddeo chiarisce che le nuove regolamentazioni non possono prescindere dai principi già sanciti. Occorre garantire che l’IA rispetti, ad esempio, il principio di discriminazione e la tutela dei non combattenti. Tuttavia, applicare tali principi richiede “un’analisi un po’ più concreta e qualche nuova formula”. Cita l’articolo 36 del Primo Protocollo aggiuntivo alle Convenzioni di Ginevra, che impone di testare le armi prima dell’uso. Nel caso dell’IA, però, “tecnicamente ogni volta che il sistema apprende qualcosa di nuovo diventa una nuova arma”, il che renderebbe necessario un test costante, soluzione “impraticabile”. Non servono nuovi principi, ma “un modo che ci permetta di soddisfare questo articolo in maniera che sia fattibile e accettabile”.
L’approccio da lei definito “translational” implica tradurre i principi etici in linee guida operative: tracciabilità dei processi decisionali, standard sul livello di controllo umano, criteri di robustezza e sicurezza, identificazione dei “casi limite” su cui aprire un dibattito pubblico. A proposito della recente guerra a Gaza, ricorda il dato di un 10% di falsi positivi, cittadini non combattenti, nei sistemi militari di identificazione dei target: stabilire se tale soglia sia accettabile dipende dai principi del diritto umanitario, che devono essere “calati in un contesto pratico”. Oggi, osserva la studiosa, quando dei limiti vengono posti, derivano più dalla “coscienza civile di qualcuno” che da un quadro normativo vincolante.
Il contributo della Chiesa e il vuoto comunicativo
Alla luce dell’invito di Papa Leone XIV a valutare l’IA secondo lo sviluppo integrale della persona, Taddeo ritiene che la tradizione cattolica possa offrire un richiamo imprescindibile all’empatia e al rispetto della dignità umana, elementi capaci di impedire che la guerra “trascenda in forme di atrocità e di crimine assoluto”. La tradizione della “guerra giusta”, integrata nella cultura cattolica e occidentale, può inoltre esercitare pressione sul legislatore affinché la regolamentazione sia più adeguata.
L’autrice denuncia inoltre un “vuoto comunicativo molto importante”. L’attenzione si accende solo nei “grandi casi” mediatici, spiega la Taddeo, come la recente querelle tra Anthropic e il Pentagono, ma manca un’attenzione costante. L’IA, osserva, viene adottata sempre più ampiamente dai sistemi di difesa di molti Paesi che hanno un budget sufficiente a questo scopo; ciò comporta un’“erosione” dall’interno, meno visibile ma “costante e sistemica” del diritto umanitario internazionale, che limita il potere dello Stato. Se tali limiti si indeboliscono in ambito militare, avverte, potrebbero essere messi in discussione anche in ambito civile. Per questo è necessaria una maggiore attenzione da parte della politica e dell’opinione pubblica: la difesa “oramai è una questione presente nella nostra società” e riguarda il modo in cui gli Stati esercitano il loro potere.
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui