© 2026 SVET24, informativne vsebine d.o.o. - Vse pravice pridržane.
Državnozborske volitve 2026
Čas branja 7 min.

Pričakovati gre predvolilno kampanjo, kakršne v Sloveniji še nismo videli


6. 1. 2026, 05.44
Deli članek
Facebook
Kopiraj povezavo
Povezava je kopirana!
Deli
Velikost pisave
Manjša
Večja

Z Urošem Svetetom o kibernetski varnosti, ki bo morda v letošnji predvolilni kampanji odločilna. Meja med resnico in lažjo se namreč nevarno briše.

1717677125-dsc00778-1717677081759.jpg
Sašo Švigelj/MPA
Vstopamo v obdobje, kjer se bo politični boj odvijal na nevidni fronti: v kodah, algoritmih in na strežnikih, ki so zunaj dosega naše zakonodaje. Fotografija je simbolična.

S podpisom odloka o razpisu parlamentarnih volitev, ki bodo 22. marca, vstopa Slovenija v obdobje intenzivne politične kampanje, ki pa se bo bistveno razlikovala od vseh dosedanjih.

Medtem ko bodo politične stranke na televizijskih soočenjih tekmovale s programi in obljubami, bo vzporedno potekala druga, manj vidna bitka. To ne bo le spopad mnenj, temveč soočenje z napredno tehnologijo, ki briše mejo med resnico in fikcijo.

Prihajajoči meseci bodo od volivcev zahtevali izjemno mero kritičnosti, saj se v politični prostor sistemsko vključujejo orodja, kot so globoki ponaredki, usklajene kampanje botov in napredna vohunska oprema.

pegasus
Profimedia
Medtem ko bodo politične stranke tekmovale s programi in obljubami, bo vzporedno potekala druga, manj vidna bitka z napredno tehnologijo. Fotografija je simbolična.

Konec dobe, ko je »pismeno oko« ločilo resnico od laži

Do nedavnega je veljalo tiho prepričanje: če si informacijsko pismen, če poznaš tehnologijo in si previden, te ne morejo prinesti naokoli.

Danes je ta varnostni ščit prebit. Kot opozarja dr. Uroš Svete, direktor Urada vlade RS za informacijsko varnost (URSIV), smo prišli do točke preloma, kjer stara pravila digitalne samoobrambe ne veljajo več.

V preteklosti so strokovnjaki za informacijsko varnost svetovali iskanje vizualnih napak, kot so nenaravno mežikanje ali čudne sence. Danes pa, kot opozarja Svete, velja skoraj obratna logika.

Ker veliki jezikovni modeli generirajo slovnično brezhibna besedila, je prav popolnost lahko prvi znak, da avtor ni človek.

Še bolj zaskrbljujoč je po mnenju direktorja URSIV napredek pri videu in zvoku. Globoki ponaredki so postali tako dovršeni, da v njih »preprosto ni več napak«, ki bi jih lahko zaznalo človeško oko ali uho, še doda. Poudari še, da vstopamo v fazo, kjer niti vrhunski strokovnjaki za informacijsko varnost ne bodo mogli več z gotovostjo ločiti avtentičnega posnetka od generiranega.

1744286324-03-80-1744286315929.jpg
Jure Klobčar/MPA
Direktor Urada za informacijsko varnost dr. Uroš Svete opozarja, da smo prišli do točke preloma.

Ljudje v tej bitki algoritmov nismo več razsodniki, temveč le še zmedeni opazovalci, saj se bosta morali v prihodnje spopadati dve umetni inteligenci – ena, ki laž ustvari, in druga, ki jo poskuša zaznati, še doda direktor Urada RS za informacijsko varnost.

Preberite še

Slovaška lekcija in priročni izgovor

Da to ni znanstvena fantastika, ampak realnost, dokazuje primer s Slovaške. Tik pred parlamentarnimi volitvami jeseni leta 2023, v času volilnega molka, se je po družbenih omrežjih kot požar razširil zvočni posnetek, je o tem poročal britanski Reuters. V njem naj bi predsednik stranke Progresivna Slovaška, Michal Šimečka, z novinarko razpravljal o kupovanju glasov romske manjšine.

Posnetek je bil, čeprav je sprva deloval popolnoma avtentično, lažen, ustvarjen z umetno inteligenco. Ker se je napad zgodil med volilnim molkom, ko mediji o politiki ne smejo poročati, stranka ni imela možnosti učinkovite obrambe. Številni analitiki ocenjujejo, da je prav ta tehnološki napad pomembno vplival na tesen izid volitev.

Ta tehnološka negotovost prinaša še en politični fenomen, ki sta ga ameriška pravna strokovnjaka Robert Chesney in Danielle Citron poimenovala »dividenda lažnivca«.

profimedia-0831852007.jpg
Profimedia
Globoki ponaredki niso več vizualno pomanjkljivi posnetki nizke ločljivosti, temveč so postali izjemno dovršeni.

Ko se bo v javnosti pojavil pristen, a za določenega kandidata obremenjujoč posnetek – na primer posnetek koruptivnega dogovora – ga bo ta lahko preprosto označil za umetno generiranega.

Ker javnost ve, da je mogoče ponarediti vse, postane resnica stvar interpretacije in političnega prepričanja, ne pa objektivnih dejstev.

Iluzija naključne izbire

Da bi razumeli učinkovitost sodobnih manipulacij, je treba poznati okolje, v katerem jih prejemamo. Informacijski mehurček danes ni več le sociološki pojem, temveč rezultat tehnološke obdelave podatkov.

Ko uporabnik drsa po zaslonu svojega telefona in pregleduje vsebine, vstopa v prostor, ki je prilagojen njegovim preteklim interakcijam. Algoritmi platform, kot so Meta (Facebook, Instagram) ali TikTok, vsebin ne razvrščajo po uredniški presoji ali verodostojnosti, temveč glede na potencial za interakcijo.

profimedia-1054499575.jpg
Profimedia
Ko uporabnik drsa po zaslonu, vstopa v prostor, ki je prilagojen njegovim preteklim interakcijam in ni uredniško voden.

To potrjujejo empirični podatki. Raziskava nevladne organizacije Center za boj proti digitalnemu sovraštvu (CCDH) je analizirala delovanje priporočilnih sistemov na omrežju TikTok. Študija je pokazala, da lahko algoritem novim uporabnikom že v nekaj minutah po registraciji začne predlagati polarizirajoče vsebine.

Cilj sistema je maksimizacija časa, ki ga uporabnik preživi v aplikaciji. Algoritem testira odzive na različne dražljaje, pri čemer so vsebine, ki sprožajo močnejše reakcije, pogosto privilegirane, saj statistično gledano podaljšujejo čas uporabe. Dr. Svete pojasnjuje, da platforme na podlagi zbranih podatkov ustvarijo t. i. »digitalnega dvojčka« uporabnika, s pomočjo katerega predvidevajo odzive na določene vsebine.

V praksi to vodi v selektivni prikaz informacij. Če sistem zazna naklonjenost določeni politični opciji, se nabor prikazanih novic prilagodi temu profilu. Uporabniku so prikazane predvsem vsebine, ki potrjujejo njegova stališča, medtem ko so nasprotna mnenja ali posnetki, ki bi lahko omajali njegovo prepričanje, izločeni iz njegovega časovnega traku.

Tveganje v tem procesu ni v zavestnem zavračanju nasprotnih argumentov s strani uporabnika, temveč v tem, da mu jih algoritem sploh ne ponudi v presojo. Tudi informacijsko pismen uporabnik v takem okolju težko kritično ovrednoti dogajanje, saj nima dostopa do celovitega spektra informacij.

Ko umetna inteligenca vdre v naš ego

Prava nevarnost prihajajočih volitev pa ne tiči zgolj v tehnološki dovršenosti ponaredkov, temveč v psihologiji. Informacijski mehurčki in globoki ponaredki najučinkoviteje delujejo takrat, ko padejo na plodna tla naših lastnih pričakovanj in predsodkov.

profimedia-1061624117.jpg
Profimedia
Prihajajoči meseci bodo od volivcev zahtevali izjemno mero kritičnosti, saj se v politični prostor sistemsko vključujejo orodja, kot so globoki ponaredki.

Kognitivni psiholog Peter Wason je ta pojav poimenoval potrditvena pristranskost (angl. confirmation bias). Ko algoritem na družbenem omrežju zazna, da ste jezni na določenega politika, vam bo serviral globoki ponaredek, ki to čustvo potrdi – na primer lažen zvočni posnetek, kjer ta politik žali svoje volivce.

V tistem trenutku vsa elektronska pismenost odpove. Tudi visoko izobražen posameznik bo tak posnetek delil naprej, ne da bi preveril vir, ker si globoko v sebi želi, da bi bilo to res. Ne gre za napako v kodi, ampak za »vdor« v človeški ego.

Kako dezinformacije vstopijo v slovensko dnevno sobo?

Dezinformacijske kampanje v Slovenijo ne prihajajo nujno z očitnim, zlonamernim pečatom, temveč so pogosto zamaskirane v legitimno komunikacijo znotraj zaprtih skupin. Aplikacije, kot je Telegram, postajajo ključna infrastruktura za kibernetske grožnje, opozarja direktor URSIV. Prek njih ne poteka le širjenje propagande, temveč tudi novačenje napadalcev.

Podobne vzorce smo lahko spremljali v tujini. Na nedavnih volitvah v Romuniji so analitiki, denimo iz think-tanka Expert Forum, zaznali, kako so usklajene kampanje na TikToku in Telegramu umetno napihnile priljubljenost določenih kandidatov in ustvarile vtis množične podpore, ki je v realnosti ni bilo.

profimedia-0943095098.jpg
Profimedia
Na nedavnih volitvah v Romuniji so analitiki zaznali, kako so usklajene kampanje na TikToku in Telegramu umetno napihnile priljubljenost proruskega kandidata Calina Georgescuja.

V Sloveniji je obramba pred takšnim vplivanjem otežena, saj imajo operaterji zaradi načela internetne nevtralnosti visok tolerančni prag do sumljivega prometa, kar botom omogoča nemoteno delovanje.

Ko varnost ni več odvisna od previdnosti uporabnika

Morda še večji izziv za integriteto volitev predstavlja tehnologija, pri kateri previdnost uporabnika ne igra več vloge. Govorimo o napredni programski opremi, kot je sistem Pegasus, ki omogoča t. i. »zero-click« okužbe.

To pomeni, da za vdor v napravo žrtvi ni treba klikniti na sumljivo povezavo ali odpreti priponke. Napadalec potrebuje le telefonsko številko, da pridobi dostop do mikrofona, kamere in šifriranih sporočil.

Da tovrstna orodja niso le hipotetična grožnja, kažejo primeri iz naše neposredne bližine. Na Poljskem je bila takšna oprema leta 2019 uporabljena za pridobivanje informacij iz štaba opozicije, kar so s forenzično analizo potrdili pri kanadskem inštitutu Citizen Lab, to pa je neposredno vplivalo na potek kampanje.

Glede na potrjene informacije – nakup je priznal predsednik tamkajšnjega parlamentarnega odbora za obrambo in varnost – da s tovrstno tehnologijo razpolaga tudi sosednja Madžarska, ostaja odprto vprašanje, ali se lahko podobna orodja uporabijo za tiho spremljanje političnega dogajanja tudi pri nas.

profimedia-0664784878.jpg
Profimedia
Odprto vprašanje ostaja, ali se lahko orodja, kot je Pegasus, s katerimi potrjeno razpolaga Madžarska, uporabijo za tiho spremljanje političnega dogajanja (tudi) pri nas.

Ranljivost domačih omrežij

Poleg ciljanih vdorov v telefone politikov pa strokovnjaki opozarjajo na širšo, sistemsko ranljivost. Gre za t. i. »speča omrežja«.

Hekerske skupine, pogosto povezane s tujimi državnimi akterji, kot v poročilih o grožnjah navaja Microsoftov oddelek za digitalno varnost, izkoriščajo varnostne pomanjkljivosti v domačih usmerjevalnikih (modemih) in drugih omrežnih napravah, ki jih uporabniki redko posodabljajo.

Te naprave lahko napadalci neopazno vključijo v svojo infrastrukturo in tam mirujejo dlje časa. Aktivirajo se lahko v ključnih trenutkih – denimo na dan volitev – za izvajanje usklajenih napadov na spletne strani ali za širjenje dezinformacij, pri čemer se promet navzven zdi povsem legitimen, saj prihaja iz slovenskih gospodinjstev.

Demokracija na preizkušnji algoritmov

Volitve leta 2026 ne bodo le preizkus politične volje, temveč predvsem test odpornosti slovenskega informacijskega prostora. Vstopamo v obdobje, kjer se bo politični boj odvijal (tudi) na nevidni fronti: v kodah, algoritmih in na strežnikih, ki so zunaj dosega naše zakonodaje.

profimedia-0679993059.jpg
Profimedia
Aplikacije in zaprte skupine so pogosto uporabljene za ustvarjanje lažne slike o politični moči posameznih kandidatov.

Nevarnost ni zgolj v tem, da bi nas nekdo prelisičil z lažnim posnetkom. Večje tveganje je, da tehnologija spodkopava temeljni konsenz o tem, kaj je resnica. Ko postane vsaka informacija sumljiva ali prilagojena našim željam, družba izgubi skupni jezik, potreben za dialog.

V prihajajoči kampanji zato ključna obramba ne bo le iskanje tehničnih napak v posnetkih, temveč vzdrževanje intelektualne distance. Demokracija namreč ne stoji na popolni varnosti sistemov, temveč na sposobnosti volivca, da svojo odločitev sprejme avtonomno – kljub algoritmu, ki trdi nasprotno.

E-novice · Novice

Prijavite se na e-novice in ostanite na tekočem z najpomembnejšimi dogodki doma in po svetu.

Hvala za prijavo!

Na vaš e-naslov smo poslali sporočilo s potrditveno povezavo.

O avtorju


© 2026 SVET24, informativne vsebine d.o.o.

Vse pravice pridržane.