Papeževa poslanica za 60. svetovni dan sredstev družbenega obveščanja: Ohranjati človeške glasove in obraze Papeževa poslanica za 60. svetovni dan sredstev družbenega obveščanja: Ohranjati človeške glasove in obraze  

Papeževa poslanica za dan sredstev družbenega obveščanja: Ohranjati človeške glasove in obraze

Na god sv. Frančiška Saleškega, v soboto 24. januarja 2026, je izšla poslanica svetega očeta Leona XIV. za 60. svetovni dan sredstev družbenega obveščanja z naslovom: Ohranjati človeške glasove in obraze.

Leon XIV.

POSLANICA NJEGOVE SVETOSTI PAPEŽA LEONA XIV. 
za 60. svetovni dan sredstev družbenega obveščanja 
Ohranjati človeške glasove in obraze

Dragi bratje in sestre! 
Obraz in glas sta enkratni, značilni potezi vsake osebe; izražata njeno neponovljivo identiteto in sta sestavna prvina vsakega srečanja. Da bi opredelili osebo so namreč stari Grki uporabljali besedo »obraz« (prósopon), ki označuje tisto, kar je pred pogledom, kraj prisotnosti in odnosa. Latinski pojem oseba (persona iz per-sonare) pa vključuje zvok: ne katerikoli zvok, ampak značilen glas nekoga.

Obraz in glas sta sveta. Podaril nam ju je Bog, ki nas je ustvaril po svoji podobi in podobnosti, ko nas je poklical v življenje z Besedo, ki nam jo je sam spregovoril, z Besedo, ki skozi stoletja odmeva v glasovih prerokov in ki se je v polnosti časov utelesila. Ta Beseda – to sporočanje, ki ga Bog daje o sebi – smo lahko videli in slišali v glasu in obrazu Jezusa, Božjega Sina (prim. 1 Jn 1,1-3).

Bog je od samega trenutka stvarjenja želel človeka kot sogovornika in je kot pravi sv. Gregor iz Nise,[1] v njegov obraz vtisnil odsev božanske ljubezni, da bi mogel po ljubezni v polnosti živeti svojo človeškost. Ohranjati  človeške obraze in glasove zato pomeni ohranjati ta pečat, ta neizbrisen odsev Božje ljubezni. Nismo vrsta, ki bi jo sestavljali vnaprej določeni biokemijski algoritmi. Vsak človek ima nezamenljivo in neponovljivo poklicanost, ki se v teku življenja razkriva in kaže ravno v komunikaciji z drugimi.

Če tega ne bomo ohranjali, tvegamo, da bo digitalna tehnologija korenito spremenila nekatere temeljne stebre človeške civilizacije, ki jih včasih jemljemo za samoumevne. S simuliranjem človeških glasov in obrazov, modrosti in znanja, zavedanja in odgovornosti, empatije in prijateljstva sistemi, znani kot umetna inteligenca, ne le posegajo v informacijske ekosisteme, temveč vdirajo tudi v najglobljo raven komunikacije, raven človeških odnosov.

Izziv torej ni tehnološki, temveč antropološki. Ohranjati obraze in glasove navsezadnje pomeni ohranjati nas same. Sprejeti priložnosti, ki jih ponujata digitalna tehnologija in umetna inteligenca, s pogumom, odločnostjo in razločevanjem, ne pomeni, da pred seboj skrivamo kritična vprašanja, nepreglednost in tveganja.

Ne se odpovedati lastnim mislim 
Že dolgo obstajajo številni dokazi, da algoritmi, zasnovani za maksimiranje angažiranosti na družbenih omrežjih – kar je donosno za platforme – nagrajujejo hitra čustva in kaznujejo bolj zamudne človeške izraze, kot sta prizadevanje za razumevanje in refleksijo. Z omejevanjem skupin ljudi v mehurčke lahkega soglasja in lahkega ogorčenja ti algoritmi slabijo sposobnost poslušanja in kritičnega mišljenja ter povečujejo družbeno polarizacijo.

K temu se doda še naivno nekritično zanašanje na umetno inteligenco kot vsevednega »prijatelja«, razdeljevalca vseh informacij, arhiva vseh spominov, »preroka« ​​vseh nasvetov. Vse to lahko še dodatno spodkoplje našo sposobnost analitičnega in ustvarjalnega razmišljanja, razumevanja pomena in razlikovanja med sintakso in semantiko.

Čeprav lahko umetna inteligenca nudi podporo in pomoč pri upravljanju komunikacijskih nalog, pa izogibanje trudu lastnega razmišljanja in zadovoljitev z umetnim statističnim zbiranjem dolgoročno tvegamo, da bo oslabil naše kognitivne, čustvene in komunikacijske sposobnosti.

V zadnjih letih so sistemi umetne inteligence vse bolj prevzeli nadzor nad produkcijo besedil, glasbe in videoposnetkov. Velik del človeške ustvarjalne industrije je tako v nevarnosti, da bo razstavljen in nadomeščen z oznako »Poganja ga umetna inteligenca«, kar bo ljudi spremenilo v zgolj pasivne potrošnike anonimnih izdelkov brez izvora, brez ljubezni. Medtem ko bi se mojstrovine človeškega genija v glasbi, umetnosti in literaturi skrčile zgolj na poligone za stroje.

Vprašanje, ki nas zanima, pa ni, kaj stroj zmore ali bo zmogel narediti, ampak kaj zmoremo in bomo zmogli narediti mi, za lastno rast v človečnosti in znanju, z modro uporabo takšnih močnih orodij, ki so nam na voljo. Ljudje so bili vedno v skušnjavi, da bi si prisvojili sadove znanja brez truda sodelovanja, raziskovanja in osebne odgovornosti. Odpoved ustvarjalnemu procesu in predaja svojih miselnih funkcij in domišljije strojem pa pomeni, da zakopljemo talente, ki smo jih prejeli, da bi rasli kot ljudje v odnosu do Boga in drugih. To pomeni, da skrijemo svoje obraze in utišamo svoje glasove.

Biti ali pretvarjati se: simulacija odnosov in resničnosti 
Ko tekamo po svojih informacijskih tokovih (feed), postaja vedno težje razumeti, ali komuniciramo z drugimi ljudmi, z »boti« ali z »virtualnimi vplivneži«. Nejasni posegi teh avtomatiziranih dejavnikov vplivajo na javne razprave in na odločitve ljudi. Klepetalni roboti (chatbot), ki temeljijo na velikih jezikovnih modelih (LLM), se še posebno pokažejo kot presenetljivo učinkoviti v prikritem prepričevanju z nenehno optimizacijo personalizirane interakcije. Dialoška, prilagodljiva in posnemovalna struktura teh jezikovnih modelov je sposobna posnemati človekova čustva in tako simulirati odnos. Ta antropomorfizacija, ki je lahko celo zabavna, je hkrati zavajajoča, posebno za bolj ranljive ljudi. Ker klepetalni roboti, ki so pretirano »čustveni«, poleg tega, da so vedno navzoči in na voljo, lahko postanejo skrivni arhitekti naših čustvenih stanj in na ta način vdrejo v zasebne sfere ljudi in jih zasedejo.

Tehnologija, ki izkorišča našo potrebo po odnosu, ima lahko ne samo boleče posledice na usodo posameznikov, ampak lahko tudi poškoduje družbeno, kulturno in politično tkivo družbe. To se zgodi, ko odnose z drugimi nadomestimo z odnosi z umetno inteligenco, ki je usposobljena za katologizacijo naših misli, s tem ko okoli nas zgradi svet ogledal, kjer je vse narejeno »po naši podobi in podobnosti«. Na ta način se pustimo oropati priložnosti za srečanje z drugim, ki je vedno drugačen od nas, in s katerim se lahko in se moramo naučiti soočati. Brez sprejemanja drugačnosti ne more biti ne odnosa ne prijateljstva.

Drug velik izziv, ki ga predstavljajo ti nastajajoči sistemi, je popačenje (v angleščini bias), ki vodi v pridobivanje in prenašanje spremenjenega dojemanja resničnosti. Vzorce umetne inteligence oblikuje pogled na svet tistih, ki jih gradijo in posledično lahko tudi sami vsiljujejo načine razmišljanja s ponavljanjem stereotipov in predsodkov, ki so navzoči že v podatkih, iz katerih črpajo. Pomanjkljiva preglednost v načrtovanju algoritmov skupaj z neustrezno družbeno predstavljivostjo podatkov težita k temu, da se ujamemo v mreže, ki manipulirajo z našimi mislimi ter ohranjajo in poglabljajo obstoječe družbene neenakosti in krivice.

Tveganje je veliko. Moč simulacije je takšna, da nas umetna inteligenca lahko celo zavede z ustvarjanjem vzporednih »resničnosti«, s prisvajanjem naših obrazov in naših glasov. Potopljeni smo v večdimenzionalnost, kjer postaja vedno težje ločiti resničnost od fikcije.

Temu se pridruži še problem pomanjkanja natančnosti. Sistemi, ki statistično verjetnost prodajajo kot znanje, nam v resnici ponujajo kvečjemu približke resnice, ki so včasih prave »halucinacije«. Pomanjkljivo preverjanje virov skupaj s krizo terenskega novinarstva, ki pomeni nenehno zbiranje in preverjanje informacij na kraju dogajanja, ustvari še bolj rodovitna tla za dezinformacije, kar povzroča vedno večji občutek nezaupanja, zmedenosti in negotovosti.

Možno zavezništvo 
Za to ogromno nevidno silo, ki vključuje vse nas, je samo peščica podjetij, katerih ustanovitelji so bili nedavno prestavljeni kot ustvarjalci »osebe leta 2025«, oziroma arhitekti umetne inteligence. To vzbuja pomembno zaskrbljenost glede oligopoljskega nadzora algoritemskih sistemov in umetne inteligence, ki so sposobni subtilno usmerjati obnašanje in celo na novo napisati človeško zgodovino – vključno z zgodovino Cerkve – pogosto ne da bi se mi tega zares zavedali.

Izziv pred nami ni ustavljanje digitalnih inovacij, ampak jih voditi, zavedati se njihovega ambivalentnega značaja. Vsak izmed nas mora povzdigniti glas v obrambo ljudi, da bodo ta orodja v resnici vključili kot zaveznike.

To zavezništvo je možno, vendar mora temeljiti na treh stebrih: odgovornosti, sodelovanju in izobraževanju.

Najprej odgovornost. Glede na vlogo jo lahko opredelimo kot poštenje, preglednost, pogum, sposobnost vizije, dolžnost podelitve znanja, pravico do obveščenosti. Na splošno pa se nihče ne more izogniti svoji odgovornosti pred prihodnostjo, ki jo gradimo.

Za tiste, ki so na čelu spletnih platform, to pomeni zagotoviti si, da strategij podjetja ne bodo vodili samo kriteriji maksimiranja dobička, ampak daljnovidna vizija, ki upošteva skupno dobro, tako kot je vsakemu izmed njih pri srcu dobrobit njegovih otrok.

Od ustvarjalcev in razvijalcev modelov umetne inteligence se zahteva preglednost in družbena odgovornost v zvezi z načeli načrtovanja in s sistemi vodenja, na katerih temeljijo njihovi algoritmi in razviti modeli, tako da bodo spodbujali informirano soglasje s strani uporabnikov.

Enaka odgovornost se zahteva tudi od nacionalnih zakonodajalcev in nadnacionalnih regulatorjev, ki so zadolženi za nadzor spoštovanja človekovega dostojanstva. Ustrezna regulacija lahko ljudi zaščiti pred čustveno navezanostjo na klepetalnice in omeji širjenje lažnih, manipulativnih ali zavajajočih vsebin, ter hkrati ohranja celovitost informacije v zvezi z zavajajočim simuliranjem.

Medijska in komunikacijska podjetja ne morejo dovoliti, da bi algoritmi, ki so naravnani, da za vsako ceno zmagajo v bitki za nekaj sekund pozornosti, prevladajo nad njihovo zvestobo profesionalnim vrednotam, ki so usmerjene v iskanje resnice. Zaupanje javnosti se pridobi z natančnostjo in preglednostjo, ne pa z zatekanjem v kakšno koli angažiranost. Vsebine, ki jih ustvari ali manipulira umetna inteligenca, morajo biti jasno označene in ločene od vsebin, ki jih ustvarijo ljudje. Ščititi je treba avtorstvo in suvereno lastništvo dela novinarjev in drugih ustvarjalcev vsebine. Informacije so javno dobro. Ustvarjalna in pomenljiva javna služba ne temelji na nepreglednosti, pač pa na preglednosti virov, na vključevanju deležnikov in na visokem standardu kakovosti.

Vsi smo poklicani k sodelovanju. Nobeno področje se ne more samo soočiti z izzivom vodenja digitalnih inovacij in upravljanja umetne inteligence. Zato je potrebno oblikovati zaščitne mehanizme. Vsi deležniki – od tehnološke industrije do zakonodajalcev, od ustvarjalnih podjetij do akademskih krogov, od umetnikov do novinarjev in pedagogov – morajo biti vključeni v oblikovanje in usposabljanje učinkovitega, poučenega in odgovornega digitalnega prebivalstva.

V to je usmerjeno izobraževanje: v povečanje naših osebnih in kolektivnih sposobnosti kritičnega razmišljanja, oceno verodostojnosti virov in morebitnih interesov, ki stojijo za izbiro informacij, ki nas dosežejo, v razumevanje psiholoških mehanizmov, ki jih sprožajo, in omogočanje, da naše družine, skupnosti in združenja izdelajo praktična merila za bolj zdravo in bolj odgovorno kulturo komunikacije.

Prav zaradi tega je vse bolj nujno na vseh ravneh izobraževalnih sistemov uvesti tudi opismenjevanje za medije, za informacije in za umetno inteligenco, kar nekatere civilne ustanove že spodbujajo. Kot katoličani lahko in moramo dati svoj prispevek, da bodo ljudje – zlasti mladi – pridobili sposobnost kritičnega mišljenja in rasli v svobodi duha. To opismenjevanje bi moralo biti vključeno v širše pobude vseživljenjskega izobraževanja, ki bi dosegle tudi starejše in odrinjene člane družbe, ki pogosto čutijo, da so izključeni in nemočni spričo hitrih tehnoloških sprememb.

Opismenjevanje za medije, informacije in umetno inteligenco bo vsem pomagalo, da se ne bodo prilagodili antropomofizirajočemu toku teh sistemov, ampak jih bodo obravnavali kot orodja, da bodo vedno uporabljali zunanjo potrditev virov, ki jih zagotavljajo sistemi umetne inteligence – ki bi lahko bili netočni ali napačni – ter zaščitili svojo zasebnost in podatke s poznavanjem varnostnih parametrov in možnostmi ugovarjanja. Pomembno je, da izobražujemo druge in da se sami izobražujemo za namensko uporabo umetne inteligence in v tem kontekstu zavarujemo svojo podobo (foto in avdio), svoj obraz in svoj glas, da bi se izognili njihovi uporabi za ustvarjanje škodljivih vsebin in vedenj, kot so digitalne goljufije, kibernetsko ustrahovanje in ponaredki, ki kršijo zasebnost ter intimnost ljudi brez njihovega soglasja. Kot je industrijska revolucija zahtevala temeljno pismenost, da je omogočila ljudem odzvati se na novosti, tako tudi digitalna revolucija zahteva digitalno pismenost (skupaj z humanistično in kulturno izobrazbo), da bi razumeli, kako algoritmi oblikujejo naše dojemanje stvarnosti, kako delujejo predsodki umetne inteligence, kateri mehanizmi določajo pojavljanje določenih vsebin v naših virih informacij (feed), katere so in kako spreminjajo predpostavke in ekonomske modele ekonomije umetne inteligence.

Obraz in glas morata spet spregovoriti o človeku. Ohraniti moramo dar komunikacije kot najglobljo resnico človeka, h kateri mora biti usmerjena tudi vsaka tehnološka inovacija.

Ko predlagam ta razmišljanja, se zahvaljujem vsem, ki si prizadevajo za tukaj nakazane cilje in iz vsega srca blagoslavljam tiste, ki preko medijev delajo za skupno dobro.

Vatikan, 24. januarja 2026, god sv. Frančiška Saleškega.

[1] »Dejstvo, da je bil človek ustvarjen po Božji podobi, pomeni, da je bil človeku že od trenutka stvarjenja vtisnjen kraljevski znak […]. Bog je ljubezen in vir ljubezni: božanski Stvarnik je na naš obraz položil tudi to potezo, da bi po ljubezni – odsevu Božje ljubezni  - človek prepoznal in pokazal dostojanstvo svoje narave in podobnost s svojim Stvarnikom« (Gregor Niški, La creazione dell’uomo: PG 44, 137).

sobota, 24. januar 2026, 12:30