© 2026 SVET24, informativne vsebine d.o.o. - Vse pravice pridržane.
Grok
Čas branja 6 min.

Musk obljubil svobodo, dal pa orodje za zlorabo otrok. Kdo bo odgovarjal?


10. 1. 2026, 05.41
Posodobljeno
06:27
Deli članek
Facebook
Kopiraj povezavo
Povezava je kopirana!
Deli
Velikost pisave
Manjša
Večja

Grok je omogočal generiranje zlorab otrok in njihovo slačenje. Aleš Završnik opozarja na dvojna merila: Za navadne ljudi in korporacije veljajo povsem različna pravila.

profimedia-1064309573.jpg
Profimedia
Pomanjkanje varnostnih filtrov je omogočilo generiranje fotorealističnih prikazov spolnih zlorab otrok in globokih ponaredkov.

Ko je podjetje xAI predstavilo orodje Grok, je bila ena od ključnih tržnih obljub lastnika podjetja Elona Muska manjša stopnja omejitev v primerjavi s konkurenčnimi modeli. Vendar pa se je kmalu izkazalo, da pomanjkanje varnostnih filtrov omogoča generiranje fotorealističnih prikazov spolnih zlorab otrok in t. i. globokih ponaredkov (deepfakes).

Incident presega vprašanje posameznih zlorab in odpira širšo razpravo o odgovornosti ponudnikov storitev umetne inteligence. Dr. Aleš Završnik, znanstveni svetnik na Inštitutu za kriminologijo na Pravni fakulteti v Ljubljani, opozarja na strukturne težave pri regulaciji tehnoloških velikanov in pojasnjuje, kje slovenska zakonodaja potegne mejo kaznivosti za končnega uporabnika.

Veriga odgovornosti

Pri iskanju odgovornosti za nastalo situacijo je ključno razlikovanje med razvijalcem osnovne tehnologije in ponudnikom storitve. Grok za generiranje slik uporablja model Flux.1, ki ga je razvilo nemško podjetje Black Forest Labs.

Težava torej ni nujno v sami kodi, temveč v poslovni odločitvi ponudnika, da orodje ponudi široki javnosti brez ustreznih varovalk. Evropski Akt o digitalnih storitvah (DSA) v 34. in 35. členu določa, da morajo velike spletne platforme pred lansiranjem storitve oceniti sistemska tveganja, vključno z vplivi na pravice otrok.

Završnik takšno neodgovorno ravnanje označi brez dlake na jeziku: »To je škandalozno. Takšen način lansiranja orodja na trg definitivno ne predstavlja etične proizvodnje tehnologije.« Gre za zavestno odločitev ponudnika storitve, ki varnost žrtvuje za doseg in profit.

V primeru Groka se zdi, da ta varnostna ocena ni bila opravljena ustrezno ali pa so bila tveganja ignorirana. Kljub opozorilom je bilo orodje še vedno prosto dostopno. Završnik je do tega kritičen in meni, da bi morala Evropa potegniti strožjo ločnico: »Menim, da takšna storitev v trenutni obliki absolutno ne bi smela biti ponujena na trgu Evropske unije, saj predstavlja preveliko tveganje.« Poudarja, da bi morali regulatorji imeti moč, da takšne storitve ustavijo, preden povzročijo nepopravljivo družbeno škodo.

Aleš Završnik
Robert Balen/Večer
Dr. Aleš Završnik, znanstveni svetnik na Inštitutu za kriminologijo na Pravni fakulteti v Ljubljani.

Umetna inteligenca ne sanja, ampak reciklira

Dejstvo, da je Grok (in njemu podobni modeli) sploh sposoben generirati realistično podobo spolne zlorabe otroka, odpira neprijetno vprašanje: kje je model dobil »znanje« za tak izris? Da se umetna inteligenca nauči ustvarjati realistične ljudi, mora »videti« na milijone fotografij.

Završnik slikovito opiše, kako ti modeli pridobivajo podatke: »Ti modeli masovno zajemajo naše osebne podatke, pogosto tudi kršijo avtorske pravice in brez vprašanj 'postrgajo' vse s spleta, vključno z našimi obrazi, da se na njih učijo.«

Če algoritem zna ustvariti podroben prikaz zlorabe, to pomeni, da je bil v procesu učenja izpostavljen takšnim materialom. Raziskava Stanfordskega observatorija za internet (Stanford Internet Observatory) je v preteklosti že razkrila, da je priljubljena odprtokodna baza podatkov LAION-5B, ki jo uporablja mnogo modelov za generiranje slik, vsebovala na tisoče povezav do potrjenih posnetkov zlorab otrok (CSAM).

Preberite še

Tehnološki velikani so te baze "postrgali" z interneta brez ustreznega čiščenja. Namesto da bi korporacije vložile sredstva v sanitizacijo učnih podatkov pred treningom, so zgradile modele na temeljih, ki vključujejo najhujše oblike človeškega trpljenja, nato pa poskušajo končni izdelek le površinsko "zakrpati" s filtri.

Ko ti filtri odpovejo – kot v primeru Groka – se pokaže pravi, nefiltrirani obraz podatkov, na katerih sloni industrija.

Kazni kot strošek poslovanja

Za tehnološke gigante so kazni pogosto le 'cost of doing business' – strošek poslovanja. Morebitne globe, ki jih izrečejo regulatorji, so pogosto vračunane v proračun razvoja, podobno kot se plačilo parkirnine vračuna v stroške uporabe avtomobila.

Elon Musk
Profimedia
Ko je podjetje xAI predstavilo orodje Grok, je bila ena od ključnih tržnih obljub lastnika podjetja Elona Muska manjša stopnja omejitev.

Ob tem Završnik izpostavlja dvojna merila pri obravnavi kršitev: »Če bi posamezni raziskovalci tako kršili pravice, kot tehnološki velikani, bi bili takoj sankcionirani. Če pa se kršitve dogajajo na masovni ravni, kot pri tehnoloških velikanih, se to pogosto spregleda in opravičuje kot napredek za dobrobit človeštva in zaradi geopolitičnih trenj dobi povsem druge razsežnosti.« Medtem ko bi bil posameznik hitro kaznovan, se pri velikih korporacijah tovrstne prakse pogosto tolerirajo pod pretvezo splošne družbene koristi.

Kazenska odgovornost uporabnika

Medtem ko je odgovornost korporacij predmet dolgotrajnih regulatornih postopkov, je položaj uporabnika v slovenski zakonodaji jasneje opredeljen.

Slovenski Kazenski zakonik (KZ-1) v 176. členu inkriminira prikazovanje, izdelavo, posest in posredovanje pornografskega gradiva, ki prikazuje mladoletno osebo ali realistično podobo take osebe.

Završnik pojasnjuje, da zakonodaja s tem terminom zajema tudi sintetične materiale, ustvarjene z umetno inteligenco: »Ni treba ugotavljati, ali gre za dejanskega Luko ali Majo. Dovolj je, da oseba na sliki izgleda, kot da je dejanski otrok.«

Prameni obrambe, ki bi se sklicevali na to, da na sliki ni resnične osebe, ampak zgolj računalniško generirani piksli, na sodišču niso vzdržni, če je prikaz dovolj prepričljiv, še doda Završnik.

profimedia-1048009437.jpg
Profimedia
Dejstvo, da je Grok sploh sposoben generirati realistično podobo spolne zlorabe otroka, odpira neprijetno vprašanje o izvoru podatkov za učenje.

Jezik prisile je edini, ki ga korporacije razumejo

Da korporacije razumejo le jezik prisile, dokazuje primer iz naše soseščine, na katerega spomni dr. Završnik. Ko je italijanski regulator za varstvo podatkov (Garante) leta 2023 zaradi kršitev začasno prepovedal delovanje ChatGPT-ja v Italiji, se je podjetje OpenAI odzvalo nemudoma.

»Ko so jim zaprli trg, so vsaj nekatere zadeve uredili v nekaj dneh,« opozarja Završnik. To dokazuje, da tehnološke rešitve za večjo varnost obstajajo in so izvedljive, vendar jih podjetja implementirajo šele, ko je ogrožen njihov dobiček in ko prejemajo milijonske kazni.

Dokler regulatorji (in v primeru Groka tudi oglaševalci) ne potegnejo ročne zavore, bo varnost uporabnikov in otrok ostala v drugem planu.

Standard »razumnega opazovalca« in tehnične napake

Pogost argument v razpravah o generiranih slikah so tehnične nepopolnosti umetne inteligence, kot so napačno število prstov, nenaravne sence ali asimetrija obraza. Ali takšne napake izključujejo kaznivost, ker slika ni popolnoma realistična?

»Če človek ne bi razlikoval, ali je to resničen otrok ali ne,« tehnične podrobnosti verjetno ne bodo vplivale na presojo sodišča, pojasnjuje Završnik. Izjema so očitno nerealistični prikazi, kot so stripi ali animeji, kjer ni dvoma o fiktivnosti (skladno z načelom določnosti v kazenskem pravu oziroma lex certa).

profimedia-0514635906.jpg
Profimedia
Namesto da bi korporacije vložile sredstva v sanitizacijo učnih podatkov pred treningom, so zgradile modele na temeljih, ki vključujejo najhujše oblike človeškega trpljenja.

Pri fotorealističnih generacijah pa tehnične napake ne predstavljajo nujno razbremenilne okoliščine in bi bili znaki kaznivega dejanja izpolnjeni.

Definicija posesti v digitalni dobi

Pomemben vidik kazenske odgovornosti je definicija posesti prepovedanega gradiva. Mnogi uporabniki so prepričani, da so kazensko odgovorni le, če datoteko trajno shranijo na trdi disk.

Sodna praksa v nekaterih evropskih državah (npr. v Nemčiji) že razširja definicijo posesti na tehnične sledi, kot je predpomnilnik (cache) spletnega brskalnika. Če ima uporabnik tehnično znanje ali možnost, da sliko prikliče nazaj iz začasnega pomnilnika, se to lahko šteje za posest nad sliko.

Digitalne sledi uporabe so torej lahko dokazno gradivo, tudi če uporabnik slike ni zavestno shranil v mapo na računalniku, saj jo ima v posesti na drug način v začasnem pomnilniku naprave.

Stik dveh kaznivih dejanj

Posebno kategorijo predstavljajo globoki ponaredki, kjer se obraz resnične osebe (znane osebnosti ali posameznika iz uporabnikove okolice) preslika na pornografsko vsebino. V teh primerih ne gre zgolj za kaznivo dejanje v zvezi s pornografskim gradivom po 176. členu KZ-1, ki ščiti otroke pred zlorabami, temveč tudi za zlorabo osebnih podatkov po 143. členu KZ-1.

V tem primeru škoda ni abstraktna (kot pri generiranju neobstoječih oseb), temveč konkretna. Gre za poseg v osebnostne pravice in dostojanstvo določljive žrtve. »Če je žrtev prepoznavna, ima na voljo vsa pravna sredstva, saj je škoda, ki ji je povzročena, konkretna,« zaključuje Završnik, in dodaja »da je dodatni znak, da globinski ponaredki zahtevajo dokazovanje »huje prizadetosti zasebnosti« takšne osebe, kar trenutno zahteva KZ-1 v 6. odstavku 143. člena KZ-1, pretiran in preveč v škodo žrtvi«.

Aleš Završnik
Robert Balen/Večer
Završnik izpostavlja dvojna merila, saj se pri velikih korporacijah prakse zajemanja podatkov tolerirajo pod pretvezo napredka.

Cena digitalne »svobode«

Grok nam pred oči postavlja neprijeten paradoks digitalne dobe. Dopustili smo razvoj sistema, v katerem se zdi, da za arhitekte digitalnega prostora in za njegove uporabnike veljajo povsem različna pravila igre.

Medtem ko tehnološki velikani v imenu napredka in svobode govora testirajo meje dovoljenega, se moramo vprašati: smo kot družba res pripravljeni sprejeti realnost, kjer so varnostni filtri le tržna kategorija, morebitne globe pa zgolj poslovni strošek?

Ob tem se neizogibno vsiljuje vprašanje o mejah te nove »svobode«. Elon Musk je odstranitev varovalk utemeljil z bojem proti cenzuri. A ko »svoboda govora« postane sinonim za pravico do generiranja posnetkov zlorab in digitalnega slačenja resničnih ljudi, smo kot družba prestopili nevarno mejo.

Ali v dobi algoritemskega kapitalizma še vedno velja staro pravilo, da se pravice nekoga končajo tam, kjer se začnejo pravice drugega?

E-novice · Novice

Prijavite se na e-novice in ostanite na tekočem z najpomembnejšimi dogodki doma in po svetu.

Hvala za prijavo!

Na vaš e-naslov smo poslali sporočilo s potrditveno povezavo.

O avtorju


© 2026 SVET24, informativne vsebine d.o.o.

Vse pravice pridržane.