© 2026 SVET24, informativne vsebine d.o.o. - Vse pravice pridržane.
Halucinacije
Čas branja 3 min.

Umetna inteligenca se moti namerno, ZDA pa jo uporabljajo za vojne namene


Niko Hari
7. 4. 2026, 05.38
Deli članek
Facebook
Kopiraj povezavo
Povezava je kopirana!
Deli
Velikost pisave
Manjša
Večja

Raziskave kažejo, da umetna inteligenca ne dela napak naključno, temveč sistemsko ugiba. Še bolj zaskrbljujoče: uporablja se tudi pri vojaških odločitvah.

openai
Profimedia
Halucinacije velikih jezikovnih modelov so povsem namenske.

Kolikokrat se vam je zgodilo, da vam je umetna inteligenca, denimo ChatGPT, s polno mero samozavesti odgovorila na vprašanje, a popolnoma napačno? Ta pojav, ki ga strokovnjaki imenujejo haluciniranje velikih jezikovnih modelov, je do nedavnega veljal za nekaj običajnega, a naključnega - pomota, če želite.

Nove raziskave, ki so jih opravili na ameriški univerzi Georgia Tech v sodelovanju z raziskovalci podjetja OpenAI in pekinški univerzi Cinghua pa kažejo popolnoma drugačno resničnost. Halucinacije umetne inteligence so namreč sistemski problem, ki ga način učenja jezikovnih modelov celo spodbuja. 

Bi umetno inteligenco uporabljali za odgovore na vsakodnevna vprašanja, če bi vam v polovici primerov povedala, da pravilnega odgovora preprosto nima? Res, da bi bili vsi podani odgovori 100-odstotno pravilni in kredibilni, a bi bil s tem uničen celoten poslovni model, na katerem sloni komercialno dostopna umetna inteligenca velikih podjetij, v katere so investitorji vložili nesramno visoke vsote denarja.

Preberite še

Študije ugotavljajo, da si modeli ne izmišljajo napačnih odgovorov zgolj zaradi slabe analize podatkov, ampak zato, ker jih že sam način učenja in odziva uporabnikov spodbuja k ugibanju namesto k priznanju nevednosti. Avtorji opozarjajo, da so modeli v praksi nagrajeni, če na vprašanje odgovorijo odločno, tudi kadar pravilnega odgovora ne poznajo.

Če denimo model ne zna dovolj dobro ločiti med pravilnim in napačnim odgovorom, bo kot odgovor ustvarjal tudi verjetne, a neresnične trditve. Posebej ranljiva so redka dejstva, ki se v učnih podatkih modela pojavijo le enkrat. Delež halucinacij pri takšnih temah je po podatkih raziskave kar 20-odstoten.

G9zIVkdXQAAimjS.jpg
X/Nexta
Ugrabljeni predsednik Venezuele Nicolas Maduro se že nahaja v New Yorku.

Od komercialne do vojne uporabe

V komercialni rabi se umetna inteligenca uporablja za vse vrste reševanja težav. Od raziskovanja informacij, do življenjskih nasvetov in celo v terapevtske namene. Povedano po domače: vse več ljudi se obrača k umetni inteligenci z namenom, da razmišlja namesto njih.

Če bi torej kakšen velik jezikovni model v nekem deležu primerov priznal, da relevantnega in 100-odstotno resničnega odgovora ne pozna, za komercialno rabo ni več uporaben. Zato točnost odgovorovpri razvoju teh modelov tudi nikoli ni bila v ospredju, ampak je to preprosto bila frekvenca uporabe v komercialne namene, ki umetni inteligenci omogoča relevantnost in preživetje na trgu. Tudi zato popolna natančnost umetne inteligence ni v interesu njenih razvijalcev. 

Še bolj zaskrbljujoči pa so nedavno razkriti podatki, da se veliko svetovnih odločevalcev predvsem pri vojaških operacijah zanaša na podatke umetne inteligence (seveda je ta neprimerljivo bolj razvita od tiste v komercialni rabi). Med zadnjimi, ki so UI uporabljali za določanje vojaških ciljev je bila po poročanju Wall Street Journala tudi administracija ZDA med zajetjem venezuelskega predsednika Nicolasa Madura, kasneje pa še med operacijami na Bližnjem vzhodu. Pogodbo o rabi umetne inteligence za vojne namene je s Pentagonom podpisalo podjetje OpenAI (razvijalci modela ChatGPT). 

profimedia-1078885562.jpg
Profimedia
Sam Altman je priznal oportunizem. Kaj to pomeni za zasebnost uporabnikov in druge etične pomisleke o umetni inteligenci?

Orodje, ki morda ni zanesljivo, odloča o življenju in smrti

Marca letos je po številnih varnostnih ter etičnih pomislekih in opozorilih glede zasebnosti pri takšni rabi umetne inteligence, direktor OpenAI Sam Altman zaposlenim priznal, da podjetje nima nadzora nad tem, kako Pentagon uporablja njihovo umetno inteligenco v vojaških operacijah. Poudaril je, da ne morejo vplivati na konkretne operativne odločitve. Pentagon naj bi od razvijalcev zahteval odstranitev varnostnih omejitev, da bi razširil uporabo umetne inteligence v vojaških scenarijih. Prav tako so v javnost že pricurljali podatki, da je Pentagon umetno inteligenco uporabil tudi pri izbiri ciljev napadov. 

Konkurenčni Anthropic je sodelovanje s Pentagonom zavrnil zaradi strahu pred zlorabami, kot sta množični nadzor in nevarnost avtonomnega orožja, kar je naletelo na neodobravanje ameriškega obrambnega ministra Peta Hegsetha, Anthropic pa je po hitrem postopku izgubil vse velike pogodbe z ameriškim obrambnim ministrstvom. Le nekaj dni po tem je priložnost zagrabil etično očitno veliko manj zaskrbljen Altman. Ta je priznal, da je podjetje delovalo hitro in morda oportunistično, a je tudi vztrajal, da bo tehnologija uporabljena zakonito. Vse do nedavne izjave.

Svet24

Prva stran dneva

Dnevni izbor najpomembnejših zgodb doma in po svetu, dostavljen neposredno v vaš e-poštni nabiralnik.

Hvala za prijavo!

Na vaš e-naslov smo poslali sporočilo s potrditveno povezavo.

Z oddajo e-poštnega naslova se prijavim na uredniške e-novice. Odjava je možna kadar koli prek povezave »Odjava« v vsakem sporočilu. Več v Politiki zasebnosti.


© 2026 SVET24, informativne vsebine d.o.o.

Vse pravice pridržane.