Gallagher: la tecnologia non sostituisca il giudizio umano su questioni di vita o morte
Isabella H. de Carvalho – Città del Vaticano
Bisogna avere “un approccio incentrato sull’essere umano nello sviluppo e nell’uso delle tecnologie emergenti”, specialmente nel campo militare, poiché esse non possono sostituire “il giudizio umano in questioni di vita o di morte” perché oltre passerebbero confini “che non devono mai essere superati”. Questo l’appello dell’arcivescovo Paul Richard Gallagher, segretario per i Rapporti con gli Stati e le Organizzazioni, nel suo intervento ad un dibattito aperto, il 24 settembre, alle Nazioni Unite a New York. Organizzato dal Consiglio di Sicurezza dell’Onu l'appuntamento aveva come tema l’Intelligenza Artificiale e la pace e la sicurezza internazionale. Monsignor Gallagher ha evidenziato che “se lo sviluppo e l’uso dell’Intelligenza Artificiale non sono saldamente ancorati al rispetto della dignità umana e alla ricerca del bene comune” rischiano di diventare “strumenti di divisione e aggressione” e di “alimentare ulteriori conflitti”. Questa non è una “preoccupazione astratta o lontana”, ma “una realtà urgente, data l’instabilità globale attuale e la rapida integrazione dell’intelligenza artificiale nei sistemi d’arma convenzionali e nucleari”, ha insistito.
Una moratoria sulle armi letali autonome
Come spesso ribadito nel corso degli ultimi anni, il segretario per i Rapporti con gli Stati ha nuovamente affermato che la Santa Sede “sostiene con forza l'adozione di una moratoria immediata sullo sviluppo” dei sistemi di armi letali autonome (lethal autonomous weapon systems, LAWS). La realizzazione di queste tecnologie “solleva gravi preoccupazioni” per la comunità internazionale a livello giuridico, umanitario, etico e di sicurezza, poiché sono sistemi “privi della capacità umana” di giudizio morale e discernimento etico. La Santa Sede, ha proseguito l’arcivescovo, chiama a creare “uno strumento giuridicamente vincolante per garantire che le decisioni sulla vita e sulla morte rimangano sotto un controllo umano significativo”.
Ancora, Gallagher ha sollevato come “altrettanto preoccupante” l’emergenza “di una nuova corsa agli armamenti, segnata dall’integrazione dell’intelligenza artificiale nei sistemi militari”, inclusi nelle tecnologie spaziali e nella difesa missilistica. Per l’arcivescovo questo contesto rischia di “alterare la natura delle armi e della guerra”, creando “un livello di incertezza senza precedenti”. Specialmente l’utilizzo “dell’intelligenza artificiale nei sistemi di comando e controllo nucleare”, ha continuato, potrebbe portare a “nuovi rischi sconosciuti che vanno ben oltre la già fragile e moralmente discutibile logica della deterrenza”.
Il ruolo del Consiglio di Sicurezza
Il presule ha infine ribadito che il Consiglio di Sicurezza ha “la responsabilità primaria di mantenere la pace e la sicurezza internazionale” e quindi deve “prestare particolare attenzione al progresso scientifico e tecnologico” che si attua nel mondo contemporaneo. Ringraziando la Corea del Sud per avere convocato il dibattito su questo tema attuale, l'arcivescovo ha chiarito che l’Intelligenza Artificiale sta già avendo “un profondo impatto” su campi come l’istruzione, il mondo del lavoro, la comunicazione, la sanità e altri ancora. Questa tecnologia, ha commentato, “ha il potenziale per aiutare a realizzare” le aspirazioni “che hanno guidato la creazione delle Nazioni Unite ottant'anni fa”, come la pace, la sicurezza e la garanzia della libertà e dei diritti umani.
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui