Le giovani generazioni e il “paradosso” dell'IA
Roberto Paglialonga - Città del Vaticano
La sfida dell’Intelligenza artificiale (IA) si colloca sulla frontiera di un mutamento antropologico, non solo tecnico-scientifico. Il “cambiamento d’epoca” — di cui già nel 2015 parlava Papa Francesco — scaturisce, infatti, anche dalla variazione di quei criteri che un tempo caratterizzavano l’umano in quanto tale, e che oggi invece si mescolano, intersecandosi, con ciò che è virtuale. Tanto che la distinzione tra ciò che è naturale, e umano appunto, e ciò che non lo è, è difficilmente rintracciabile, fino a scivolare, in molti casi, nel terreno del post-umano (se non pericolosamente del dis-umano). In una commistione che mostra di avere impatti significativi in particolare sulla maturazione psicologica, sociale, ma anche biologica e neurologica, di bambini e giovani, arrivando nel peggiore dei casi a generare attività che ledono i loro diritti e la loro dignità. Si pensi agli episodi di sfruttamento e abusi, in particolare a carattere sessuale, che si verificano in modo sempre più frequente dentro, e attraverso, gli “ambienti” cosiddetti social.
Una questione etica e morale
La “Dichiarazione di Roma” del 6 ottobre 2017 sulla dignità del minore nel mondo digitale già riconosceva che «i progressi tecnologici esponenziali e la loro integrazione nella nostra vita quotidiana non stanno cambiando solo quello che facciamo e come lo facciamo, ma stanno cambiando chi siamo», introducendo dunque un problema di carattere morale ed etico nella gestione di quegli stessi progressi. La consapevolezza che l’online, pur aprendo spazi di creatività e connessione, sia anche un luogo in cui l’innocenza dei bambini viene spesso esposta a minacce, è stata al centro dell’High-Level Meeting on Child Dignity in the Artificial Intelligence Era, promosso martedì 12 novembre presso il Palazzo della Cancelleria dalla Fondazione Child. Un evento al termine del quale è stata sottoscritta una dichiarazione d’intenti, poi presentata a Papa Leone XIV, per invitare governi, istituzioni, aziende e cittadini a costruire insieme un nuovo patto umano per l’era digitale, fondato sulla dignità e sulla protezione dei più piccoli. "L’era dell’intelligenza artificiale non deve essere un’era di indifferenza morale. Ogni algoritmo deve servire la vita; ogni innovazione deve promuovere il bene comune", ha dichiarato il presidente della Fondazione, Ernesto Caffo.
Il paradosso dell'IA
Opportunità e rischi si mescolano. L’IA amplifica il paradosso secondo cui il digitale «può educare o sfruttare, proteggere o manipolare», si dice in una nota conclusiva del summit. Tanto che ormai "i bambini si confrontano con sistemi che simulano la cura senza empatia e la compagnia senza coscienza, rischiando di modellare la loro sensibilità e immaginazione secondo logiche di coinvolgimento e profitto più che di crescita e umanità". Impressionano alcuni dati. Secondo lo studio Me, Myself & AI di Internet Matters, nel Regno Unito il 42% dei ragazzi tra 9 e 17 anni utilizza chatbot per lo studio e l’apprendimento, mentre il 23% si affida a queste tecnologie per chiedere consigli. Una parte significativa dei giovani dichiara di usarli anche per compagnia: per molti, "parlare con un chatbot è come parlare con un amico". Un’altra ricerca, intitolata Bambini e adolescenti nel Regno Unito e chatbot AI, condotta da Hendrycks, rivela che il 64% dei minori ha già interagito con un chatbot, e più di un terzo ritiene queste conversazioni equivalenti a un dialogo con un amico. Ancora più preoccupante è il 12% che afferma di rivolgersi all’IA perché "non ha nessun altro con cui parlare". Idem negli Usa, dove l’indagine Teens & AI Companions di Common Sense Media (2025) mostra che il 72% degli adolescenti tra i 13 e i 17 anni ha utilizzato un “IA companion” almeno una volta, il 52% in modo regolare e il 13% quotidianamente. Un terzo dichiara di usarli per interazioni sociali o emotive, mentre il 24% ha condiviso dati personali con il sistema e il 34% ha vissuto episodi di disagio. Accanto agli spazi di relazione, crescono così nuove forme di "dipendenza, isolamento e rischio", spiegano dalla Fondazione Child, come quello per esempio di cadere nella trappola della pedopornografia online o del cyberbullismo.
Governare la tecnologia
"La tecnologia necessita di uno sviluppo human based, l’IA deve essere sviluppata e applicata in modo che rispetti sempre i bambini evitando manipolazioni e discriminazioni", ha detto nel corso dell’evento alla Cancelleria Anna Maria Tarantola, vicepresidente della Fondazione Giulia Cecchettin e membro del comitato scientifico della Fondazione Centesimus Annus. "Servono più responsabilità, più cooperazione e più iniziative di largo campo dedicate all’educazione". "I bambini non sono consumatori, ma persone in formazione piene di curiosità e immaginazione", ha aggiunto Daniel Kardefelt-Winther, dell’Unicef Global Office of Research and Foresight. Pertanto, non si può permettere "che la logica del mercato definisca i confini morali della nostra civiltà", ha evidenziato Emilio Puccio, segretario generale dell’Intergruppo sui diritti dei bambini del Parlamento europeo.
Il dramma di Sewell Setzer (e di un'intera generazione)
Particolarmente toccante la testimonianza di Meghan Garcia, mamma del quattordicenne Sewell Setzer, studente a Orlando, in Florida, che si è pian piano chiuso in se stesso, intrattenendo solo una “relazione sentimentale” con un chatbot della rete Character.AI, in grado di generare virtualmente per lui frasi amorose da parte di Daenerys, la regina immaginaria del “Trono di Spade”. Al culmine di questo “rapporto”, Sewell, ormai incapace di distinguere la verità dall’artifizio, per raggiungere l’amata, viene indotto dal bot a togliersi la vita (lo farà con un colpo di pistola alla tempia), e ora la madre ha intentato la prima causa legale negli Usa contro l’azienda. "Non lo faccio per spirito di vendetta, non mi interessa", confessa ai media vaticani. "Ma non c’è alcuna regolamentazione diretta alla tutela dei bambini e che impedisca alle aziende di fare ciò che fanno". Piuttosto, dice con le lacrime agli occhi, "lo faccio perché cresca la consapevolezza dei rischi che ci sono e perché altri genitori non debbano soffrire ciò che ho sofferto io. Ho maturato questo mio impegno anche grazie alla fede". In tribunale i produttori si sono appellati al Primo emendamento sulla libertà di parola: "È un loro diritto, a me interessa quello che può accadere da adesso. E proprio due settimane fa Character.AI ha annunciato che proibirà i chatbot per gli under 18: non certo perché sono buoni, ma per la pressione pubblica e mediatica". Meghan è guidata dalla speranza che il suo impegno crei "consapevolezza nei genitori, negli insegnanti, nelle scuole, ma anche nei leader politici di poter cambiare le cose". Il dramma di Sewell non è isolato, purtroppo. Secondo il Center for Disease Control oltre il 40% degli adolescenti soffre di cronici sentimenti di tristezza e disperazione, mentre per il Pew Research Center il 46% dei teenager vive un "attaccamento compulsivo alle piattaforme digitali". Dati che testimoniano come intervenire, adesso, sia non più procrastinabile.
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui