Pričakovati gre predvolilno kampanjo, kakršne v Sloveniji še nismo videli
Z Urošem Svetetom o kibernetski varnosti, ki bo morda v letošnji predvolilni kampanji odločilna. Meja med resnico in lažjo se namreč nevarno briše.
S podpisom odloka o razpisu parlamentarnih volitev, ki bodo 22. marca, vstopa Slovenija v obdobje intenzivne politične kampanje, ki pa se bo bistveno razlikovala od vseh dosedanjih.
Medtem ko bodo politične stranke na televizijskih soočenjih tekmovale s programi in obljubami, bo vzporedno potekala druga, manj vidna bitka. To ne bo le spopad mnenj, temveč soočenje z napredno tehnologijo, ki briše mejo med resnico in fikcijo.
Prihajajoči meseci bodo od volivcev zahtevali izjemno mero kritičnosti, saj se v politični prostor sistemsko vključujejo orodja, kot so globoki ponaredki, usklajene kampanje botov in napredna vohunska oprema.
Konec dobe, ko je »pismeno oko« ločilo resnico od laži
Do nedavnega je veljalo tiho prepričanje: če si informacijsko pismen, če poznaš tehnologijo in si previden, te ne morejo prinesti naokoli.
Danes je ta varnostni ščit prebit. Kot opozarja dr. Uroš Svete, direktor Urada vlade RS za informacijsko varnost (URSIV), smo prišli do točke preloma, kjer stara pravila digitalne samoobrambe ne veljajo več.
V preteklosti so strokovnjaki za informacijsko varnost svetovali iskanje vizualnih napak, kot so nenaravno mežikanje ali čudne sence. Danes pa, kot opozarja Svete, velja skoraj obratna logika.
Ker veliki jezikovni modeli generirajo slovnično brezhibna besedila, je prav popolnost lahko prvi znak, da avtor ni človek.
Še bolj zaskrbljujoč je po mnenju direktorja URSIV napredek pri videu in zvoku. Globoki ponaredki so postali tako dovršeni, da v njih »preprosto ni več napak«, ki bi jih lahko zaznalo človeško oko ali uho, še doda. Poudari še, da vstopamo v fazo, kjer niti vrhunski strokovnjaki za informacijsko varnost ne bodo mogli več z gotovostjo ločiti avtentičnega posnetka od generiranega.
Ljudje v tej bitki algoritmov nismo več razsodniki, temveč le še zmedeni opazovalci, saj se bosta morali v prihodnje spopadati dve umetni inteligenci – ena, ki laž ustvari, in druga, ki jo poskuša zaznati, še doda direktor Urada RS za informacijsko varnost.
Slovaška lekcija in priročni izgovor
Da to ni znanstvena fantastika, ampak realnost, dokazuje primer s Slovaške. Tik pred parlamentarnimi volitvami jeseni leta 2023, v času volilnega molka, se je po družbenih omrežjih kot požar razširil zvočni posnetek, je o tem poročal britanski Reuters. V njem naj bi predsednik stranke Progresivna Slovaška, Michal Šimečka, z novinarko razpravljal o kupovanju glasov romske manjšine.
Posnetek je bil, čeprav je sprva deloval popolnoma avtentično, lažen, ustvarjen z umetno inteligenco. Ker se je napad zgodil med volilnim molkom, ko mediji o politiki ne smejo poročati, stranka ni imela možnosti učinkovite obrambe. Številni analitiki ocenjujejo, da je prav ta tehnološki napad pomembno vplival na tesen izid volitev.
Ta tehnološka negotovost prinaša še en politični fenomen, ki sta ga ameriška pravna strokovnjaka Robert Chesney in Danielle Citron poimenovala »dividenda lažnivca«.
Ko se bo v javnosti pojavil pristen, a za določenega kandidata obremenjujoč posnetek – na primer posnetek koruptivnega dogovora – ga bo ta lahko preprosto označil za umetno generiranega.
Ker javnost ve, da je mogoče ponarediti vse, postane resnica stvar interpretacije in političnega prepričanja, ne pa objektivnih dejstev.
Iluzija naključne izbire
Da bi razumeli učinkovitost sodobnih manipulacij, je treba poznati okolje, v katerem jih prejemamo. Informacijski mehurček danes ni več le sociološki pojem, temveč rezultat tehnološke obdelave podatkov.
Ko uporabnik drsa po zaslonu svojega telefona in pregleduje vsebine, vstopa v prostor, ki je prilagojen njegovim preteklim interakcijam. Algoritmi platform, kot so Meta (Facebook, Instagram) ali TikTok, vsebin ne razvrščajo po uredniški presoji ali verodostojnosti, temveč glede na potencial za interakcijo.
To potrjujejo empirični podatki. Raziskava nevladne organizacije Center za boj proti digitalnemu sovraštvu (CCDH) je analizirala delovanje priporočilnih sistemov na omrežju TikTok. Študija je pokazala, da lahko algoritem novim uporabnikom že v nekaj minutah po registraciji začne predlagati polarizirajoče vsebine.
Cilj sistema je maksimizacija časa, ki ga uporabnik preživi v aplikaciji. Algoritem testira odzive na različne dražljaje, pri čemer so vsebine, ki sprožajo močnejše reakcije, pogosto privilegirane, saj statistično gledano podaljšujejo čas uporabe. Dr. Svete pojasnjuje, da platforme na podlagi zbranih podatkov ustvarijo t. i. »digitalnega dvojčka« uporabnika, s pomočjo katerega predvidevajo odzive na določene vsebine.
V praksi to vodi v selektivni prikaz informacij. Če sistem zazna naklonjenost določeni politični opciji, se nabor prikazanih novic prilagodi temu profilu. Uporabniku so prikazane predvsem vsebine, ki potrjujejo njegova stališča, medtem ko so nasprotna mnenja ali posnetki, ki bi lahko omajali njegovo prepričanje, izločeni iz njegovega časovnega traku.
Tveganje v tem procesu ni v zavestnem zavračanju nasprotnih argumentov s strani uporabnika, temveč v tem, da mu jih algoritem sploh ne ponudi v presojo. Tudi informacijsko pismen uporabnik v takem okolju težko kritično ovrednoti dogajanje, saj nima dostopa do celovitega spektra informacij.
Ko umetna inteligenca vdre v naš ego
Prava nevarnost prihajajočih volitev pa ne tiči zgolj v tehnološki dovršenosti ponaredkov, temveč v psihologiji. Informacijski mehurčki in globoki ponaredki najučinkoviteje delujejo takrat, ko padejo na plodna tla naših lastnih pričakovanj in predsodkov.
Kognitivni psiholog Peter Wason je ta pojav poimenoval potrditvena pristranskost (angl. confirmation bias). Ko algoritem na družbenem omrežju zazna, da ste jezni na določenega politika, vam bo serviral globoki ponaredek, ki to čustvo potrdi – na primer lažen zvočni posnetek, kjer ta politik žali svoje volivce.
V tistem trenutku vsa elektronska pismenost odpove. Tudi visoko izobražen posameznik bo tak posnetek delil naprej, ne da bi preveril vir, ker si globoko v sebi želi, da bi bilo to res. Ne gre za napako v kodi, ampak za »vdor« v človeški ego.
Kako dezinformacije vstopijo v slovensko dnevno sobo?
Dezinformacijske kampanje v Slovenijo ne prihajajo nujno z očitnim, zlonamernim pečatom, temveč so pogosto zamaskirane v legitimno komunikacijo znotraj zaprtih skupin. Aplikacije, kot je Telegram, postajajo ključna infrastruktura za kibernetske grožnje, opozarja direktor URSIV. Prek njih ne poteka le širjenje propagande, temveč tudi novačenje napadalcev.
Podobne vzorce smo lahko spremljali v tujini. Na nedavnih volitvah v Romuniji so analitiki, denimo iz think-tanka Expert Forum, zaznali, kako so usklajene kampanje na TikToku in Telegramu umetno napihnile priljubljenost določenih kandidatov in ustvarile vtis množične podpore, ki je v realnosti ni bilo.
V Sloveniji je obramba pred takšnim vplivanjem otežena, saj imajo operaterji zaradi načela internetne nevtralnosti visok tolerančni prag do sumljivega prometa, kar botom omogoča nemoteno delovanje.
Ko varnost ni več odvisna od previdnosti uporabnika
Morda še večji izziv za integriteto volitev predstavlja tehnologija, pri kateri previdnost uporabnika ne igra več vloge. Govorimo o napredni programski opremi, kot je sistem Pegasus, ki omogoča t. i. »zero-click« okužbe.
To pomeni, da za vdor v napravo žrtvi ni treba klikniti na sumljivo povezavo ali odpreti priponke. Napadalec potrebuje le telefonsko številko, da pridobi dostop do mikrofona, kamere in šifriranih sporočil.
Da tovrstna orodja niso le hipotetična grožnja, kažejo primeri iz naše neposredne bližine. Na Poljskem je bila takšna oprema leta 2019 uporabljena za pridobivanje informacij iz štaba opozicije, kar so s forenzično analizo potrdili pri kanadskem inštitutu Citizen Lab, to pa je neposredno vplivalo na potek kampanje.
Glede na potrjene informacije – nakup je priznal predsednik tamkajšnjega parlamentarnega odbora za obrambo in varnost – da s tovrstno tehnologijo razpolaga tudi sosednja Madžarska, ostaja odprto vprašanje, ali se lahko podobna orodja uporabijo za tiho spremljanje političnega dogajanja tudi pri nas.
Ranljivost domačih omrežij
Poleg ciljanih vdorov v telefone politikov pa strokovnjaki opozarjajo na širšo, sistemsko ranljivost. Gre za t. i. »speča omrežja«.
Hekerske skupine, pogosto povezane s tujimi državnimi akterji, kot v poročilih o grožnjah navaja Microsoftov oddelek za digitalno varnost, izkoriščajo varnostne pomanjkljivosti v domačih usmerjevalnikih (modemih) in drugih omrežnih napravah, ki jih uporabniki redko posodabljajo.
Te naprave lahko napadalci neopazno vključijo v svojo infrastrukturo in tam mirujejo dlje časa. Aktivirajo se lahko v ključnih trenutkih – denimo na dan volitev – za izvajanje usklajenih napadov na spletne strani ali za širjenje dezinformacij, pri čemer se promet navzven zdi povsem legitimen, saj prihaja iz slovenskih gospodinjstev.
Demokracija na preizkušnji algoritmov
Volitve leta 2026 ne bodo le preizkus politične volje, temveč predvsem test odpornosti slovenskega informacijskega prostora. Vstopamo v obdobje, kjer se bo politični boj odvijal (tudi) na nevidni fronti: v kodah, algoritmih in na strežnikih, ki so zunaj dosega naše zakonodaje.
Nevarnost ni zgolj v tem, da bi nas nekdo prelisičil z lažnim posnetkom. Večje tveganje je, da tehnologija spodkopava temeljni konsenz o tem, kaj je resnica. Ko postane vsaka informacija sumljiva ali prilagojena našim željam, družba izgubi skupni jezik, potreben za dialog.
V prihajajoči kampanji zato ključna obramba ne bo le iskanje tehničnih napak v posnetkih, temveč vzdrževanje intelektualne distance. Demokracija namreč ne stoji na popolni varnosti sistemov, temveč na sposobnosti volivca, da svojo odločitev sprejme avtonomno – kljub algoritmu, ki trdi nasprotno.