© 2025 SVET24, informativne vsebine d.o.o. - Vse pravice pridržane.
Manipulacija
Čas branja 4 min.

Zloraba umetne inteligence ogroža javno mnenje in demokracijo


Zan Urbanija
9. 12. 2025, 05.33
Posodobljeno
09:30
Deli članek
Facebook
Kopiraj povezavo
Povezava je kopirana!
Deli
Velikost pisave
Manjša
Večja

Umetna inteligenca ne le posnema, temveč lahko aktivno spreminja javno mnenje. Od prirejenih anket do vpliva na volitve – zloraba UI ogroža temelje demokracije.

profimedia-0794076595.jpg
Profimedia
Avtonomni sistemi danes samostojno ustvarjajo in objavljajo vsebine na družbenih omrežjih.

Ko je septembra lani naključen neodločen ameriški volivec začel pogovor z umetno inteligenco, si verjetno ni mislil, da sodeluje v eksperimentu, ki bo kasneje odmeval v znanstvenih krogih.

Želel je le razjasniti svoje politične preference. Velikemu jezikovnemu modelu je pojasnil, zakaj se nagiba k podpori Kamale Harris in ne Donalda Trumpa, pri čemer je priznal, da o Harrisovi ve zelo malo, o Trumpu pa ima pretežno negativno mnenje.

Raziskovalci so to interakcijo vključili v obsežen akademski eksperiment, v katerem je sodelovalo več kot dva tisoč ljudi. Rezultate sta decembra letos objavili uglednih znanstvenih revijah Science in Nature.

Znanstveniki sicer opozarjajo, da to še ni dokaz, da bi lahko klepetalni roboti sami po sebi »ugrabili« volitve, potrjuje pa novo ranljivost v demokratičnem procesu.

chatgpt.jpg
Profimedia
Veliki jezikovni modeli prepričljivo posnemajo človeško vedenje in prevzamejo identiteto anketirancev.

Prelomnost novih ugotovitev

Javnomnenjske raziskave so kompas demokratičnih družb, a ta kompas se vrti vse bolj nepredvidljivo.

Sean Westwood z Univerze Dartmouth v reviji PNAS (november 2025) opozarja na strukturno grožnjo: veliki jezikovni modeli (kot so ChatGPT, Gemini, Grok in podobni), so postali tako spretni pri posnemanju človeškega vedenja, da lahko prevzamejo identiteto anketirancev.

Preberite še

Ko anketni podatki ne odražajo več mnenja resničnih ljudi iz mesa in krvi, temveč le generirane odgovore algoritmov, družba namreč izgubi sposobnost samorefleksije.

telefon umetna inteligenca
Profimedia
Veliki jezikovni modeli so napačno napovedali volilno udeležbo na evropskih volitvah 2024.

##ARTICLE-1865457##

Westwoodova študija razkriva, da lahko »avtonomni sintetični anketiranec« vprašalnik izpolni za približno 0,05 dolarja, medtem ko plačilo za človeka znaša okoli 1,50 dolarja.

Še bolj skrb vzbujajoče je, da ti boti v več kot 43.000 testih dosegajo 99,8-odstotno uspešnost pri reševanju varnostnih vprašanj (t. i. attention checks), namenjenih filtriranju robotov.

To pomeni, da bi lahko zlonamerni akterji z relativno majhnim vložkom v ankete vbrizgali lažne podatke in ustvarili izkrivljeno sliko javnega mnenja.

Ko tehnologija poseže v volitve

Da ne gre zgolj za laboratorijsko teorijo, kažejo dogodki v Romuniji. Konec leta 2024 je v prvem krogu predsedniških volitev presenetljivo zmagal neodvisni kandidat Călin Georgescu.

Romunsko ustavno sodišče je kasneje rezultate prvega kroga razveljavilo zaradi dokazov o tujem vmešavanju.

profimedia-0943095098.jpg
Profimedia
V Romuniji je na volitvah presenetljivo zmagal neodvisni kandidat Călin Georgescu.

Tajni dokumenti in poročila civilne družbe so razkrili, da je uspeh Georgescuja slonel na usklajeni kampanji na omrežju tiktok.

Mreža približno 25.000 računov je agresivno promovirala njegove vsebine. Čeprav je kandidat uradno prijavil minimalne stroške kampanje, podatki kažejo na obsežno, a prikrito financiranje promocije.

Algoritmi tiktoka so te vsebine zaradi umetno ustvarjene priljubljenosti potisnili na zaslone milijonov volivcev, kar je spremenilo volilno dinamiko.

Razbijanje mehurčkov in tehnološki lov na mačko z mišjo

Družbena omrežja skušajo te manipulacije omejiti. Platforma X (nekdanji Twitter) je novembra 2025 začela uvajati funkcijo »O tem računu« (angl. About this account), ki prikaže izvorno državo računa.

profimedia-0783225078.jpg
Profimedia
Družbeno omrežje X je z uvedbo prikaza lokacije razgalilo lažne informacijske mehurčke.

Poteza je razgalila nekatere mreže botov, ki so se izdajali za lokalne aktiviste, a rešitev ni popolna. Uporabniki lahko prikaz lokacije v nastavitvah prilagodijo, prav tako pa sistem ni imun na uporabo omrežij VPN, ki prikrijejo pravo lokacijo uporabnika.

Še večji izziv predstavljajo globoki ponaredki (angl. deepfake). Poročilo Evržopskega parlamenta za leto 2025 navaja, da ljudje napredne video in avdio ponaredke prepoznajo le s približno 50-odstotno uspešnostjo – kar je enako naključnemu ugibanju oziroma metu kovanca.

Uspešnost zaznavanja je sicer odvisna od kakovosti posnetka, a tehnologija napreduje hitreje od naše sposobnosti presoje.

Slovenski paradoks: Digitalni, a ranljivi

Kako ranljivi smo v Sloveniji? Podatki Statističnega urada Republike Slovenije (SURS) za leto 2024 kažejo, da internet vsak dan ali skoraj vsak dan uporablja 87 odstotkov prebivalcev (v starosti 16–74 let).

Pri mladih med 16. in 24. letom je ta delež kar 99-odstoten, medtem ko je pri starejših (65–74 let) 56-odstoten.

umetna inteligenca, evropa
Profimedia
Poročilo Evropskega parlamenta navaja, da ljudje prepoznajo globoke ponaredke le s 50-odstotno uspešnostjo.

Eurostat (2024) navaja, da so mladi v Sloveniji celo na prvem mestu v EU po spletni državljanski participaciji.

To ustvarja svojevrsten paradoks: najbolj digitalno pismena generacija je hkrati najbolj izpostavljena algoritemski manipulaciji na platformah, kjer prevladujejo hitre, čustveno nabite video vsebine.

Obseg vpliva umetne inteligence v številkah

Podatek

Kaj to pomeni v praksi?

~25.000 računov

Velikost mreže na TikToku, ki je vplivala na volitve v Romuniji.

99,8 % uspešnost

Boti rešujejo teste pozornosti (attention checks) bolje od ljudi.

10 do 52 botov

Število lažnih vnosov, potrebnih za obrat rezultata v tesni anketi.

50 % natančnost

Uspešnost ljudi pri prepoznavanju naprednih deepfake posnetkov.

30–40 % (ocena)

Ocenjen delež vprašljivih odgovorov v spletnih panelih (ni neodvisno potrjeno).

Viri: Romunski obveščevalci, PNAS, EP Think tank

»Silicijevo vzorčenje«: Od napake do orodja

Medtem ko strokovnjaki opozarjajo na nevarnosti, del industrije v tehnologiji vidi priložnost, imenovano »silicijevo vzorčenje« (angl. silicon sampling). Podjetja, kot sta Yabble in Remesh, razvijajo orodja, kjer umetna inteligenca simulira ciljne publike.

Namesto dolgotrajnega iskanja specifičnih demografskih skupin, raziskovalec določi parametre – denimo »mati treh otrok iz predmestja« – UI pa generira odgovore.

Čeprav je metoda uporabna za hitro testiranje idej v zgodnjih fazah, metodološka literatura svari pred popolnim zanašanjem na te podatke.

profimedia-1057481822.jpg
Profimedia
Zlonamerni akterji bi lahko v ankete vbrizgali lažne podatke.

Manjka jim namreč ključna komponenta: nepredvidljiva, »umazana« resničnost človeškega življenja, ki je algoritem ne more popolnoma simulirati.

Prihodnost raziskovanja javnega mnenja bo zato verjetno hibridna – s strogim preverjanjem, kdo je na drugi strani zaslona: človek ali koda.

E-novice · Novice

Prijavite se na e-novice in ostanite na tekočem z najpomembnejšimi dogodki doma in po svetu.

Hvala za prijavo!

Na vaš e-naslov smo poslali sporočilo s potrditveno povezavo.

umetna inteligenca delo racunalnik.jpg
Profimedia
Ugotovitve potrjujejo, da umetna inteligenca lahko s kratkim pogovorom spremeni politično prepričanje.

© 2025 SVET24, informativne vsebine d.o.o.

Vse pravice pridržane.