Svet24
© 2025 SVET24, informativne vsebine d.o.o. - Vse pravice pridržane.
Halucinacije
Čas branja 2 min.

Odmevna pritožba: ChatGPT uporabnika obtožil, da je umoril svoja otroka


S.R.
20. 3. 2025, 17.24
Deli članek
Facebook
X (Twitter)
Kopiraj povezavo
Povezava je kopirana!
Deli

Avstrijska nevladna organizacija za varstvo zasebnosti Noyb, ki je že dlje časa trn v peti tehnoloških velikanov, je v četrtek vložila pritožbo zoper ChatGPT oziroma podjetje OpenAI.

klepetalni robot
Profimedia
Klepetalni roboti oziroma jezikovni modeli, na katerih temeljijo, radi »halucinirajo.«

Njihovemu jezikovnemu modelu ChatGPT namreč očitajo, da si izmišljuje podatke o posameznikih. V oči bode zlasti primer, ko si je klepetalni robot izmislil zgodbo, da je eden od uporabnikov umoril svoja otroka.

Kot poroča Politico, pritožba temelji na primeru norveškega uporabnika z imenom Arve Hjalmar Holmen, ki je avgusta lani ChatGPT vprašal, če ima kakšne informacije o njemu. ChatGPT mu je postregel z lažno zgodbo, kako je Holmen umoril dva svoja otroka in poskušal umoriti še tretjega, pri čemer je klepetalni robot pravilno navedel število in spole njegovih otrok ter tudi njegov domači kraj. »Najbolj me plaši dejstvo, da bi lahko ta izpis nekdo prebral in mu verjel,« je glede zadeve dejal Holmen.

Organizacija Noyb je pritožbo vložila na norveški organ za varstvo podatkov Datatilsynet, od katerega zahteva, da družbi OpenAI naloži globo ter od nje zahteva izbris obrekljivih podatkov in izboljšanje svojega modela, da se odstranijo napačni rezultati. V Noyb namreč trdijo, da OpenAI s tem, ko svojemu klepetalnemu robotu zavestno dopušča proizvajanje obrekljivih izhodnih podatkov, krši načelo točnosti podatkov iz Splošne uredbe o varstvu podatkov (GDPR).

Drobni tisk

OpenAI v primeru ChatGPT uporabnike v drobnem tisku sicer obvešča, da lahko klepetalni robot postreže z lažnimi podatki, a odvetnik Noyb Joakim Söderberg trdi, da to »ni dovolj.« Söderberg je poudaril, da »ne moreš kar širiti lažnih informacij in na koncu dodati majhno izjavo o omejitvi odgovornosti s pojasnilom, da vse, kar praviš, morda ni resnično.« Po besedah odvetnika je uredba GDPR jasna, ko pravi, da morajo biti »osebni podatki točni. Če niso, imajo uporabniki pravico do zahtevka po spremembi, ki bo odražala resnico.«

Organizacija Noyb je podobno pritožbo lani podala že na avstrijski organ za varstvo podatkov. Takrat je bil razlog ta, da si je ChatGPT izmislil rojstni datum ustanovitelja organizacije in aktivista Maxa Schremsa.

Pri časniku so ob tem spomnili, da so evropski nacionalni organi za varstvo podatkov leta 2023 ustanovili delovno skupino, ki bi usklajevala postopke na področju varstva podatkov, uvedene zoper ChatGPT. Delovno področje te skupine so na začetku letošnjega leta še razširili in se odslej ukvarja z ukrepi zoper ponudnike jezikovnih modelov na splošno.

Umetna inteligenca »halucinira«

Kot je sicer znano, jezikovni modeli pri generiranju rezultatov izvajajo številne napake, v računalniškem žargonu gre za »haluciniranje.« Kot nam je že pred časom v intervjuju pojasnil redni profesor na Fakulteti za elektrotehniko, računalništvo in informatiko (FERI) v Mariboru Domen Mongus, jezikovni modeli generiranje odgovora izvajajo na osnovi statistike povezanih besed na internetu. »Ker tovrstni modeli ne razumejo vsebine, o kateri govorijo, govor pa tvorijo zgolj na osnovi statistike povezanih besed, pravimo, da halucinirajo, ko ustvarijo neresnično besedilo. Razlogi za to se lahko skrivajo v napačnih in neuravnoteženih učnih vzorcih ali v preprosti nezmožnosti samega modela, da pravilno prepozna ter vzdržuje kontekst skozi celotno generiranje besedila,« pravi Mongus.


© 2025 SVET24, informativne vsebine d.o.o.

Vse pravice pridržane.