© 2026 SVET24, informativne vsebine d.o.o. - Vse pravice pridržane.
Vojna
Čas branja 4 min.

Trump besen, ker ne sme uporabljati umetne inteligence za vojskovanje


3. 3. 2026, 16.15
Deli članek
Facebook
Kopiraj povezavo
Povezava je kopirana!
Deli
Velikost pisave
Manjša
Večja

OpenAI pod pritiskom zaposlenih omejuje sodelovanje s Pentagonom pri nadzoru državljanov. Anthropic zaradi etičnih zadržkov pristaja na vladni črni listi.

profimedia-1079747773.jpg
Profimedia
Donald Trump vodilne v podjetju Anthropic na družbenih omrežjih označuje za levičarske norce. Fotografija je simbolična.

Ameriška vojska pospešeno vključuje umetno inteligenco v svoje bojne sisteme, kar sproža hude etične spore.

Podjetje OpenAI je po pritisku javnosti in lastnih zaposlenih moralo zaostriti dogovor s Pentagonom, medtem ko je rivalski Anthropic zaradi zavrnitve sodelovanja pri orožju pristal na črni listi.

Umetna inteligenca ni več zgolj tehnologija, ki nam pomaga pisati besedila ali ustvarjati slike. Vse bolj postaja ključno orodje sodobnega vojskovanja.

Razprava o tem, kako daleč lahko gre vojska pri uporabi teh sistemov, je v zadnjih dneh močno pretresla tehnološki svet.

V središču dogajanja sta se znašli dve vodilni podjetji na področju umetne inteligence: OpenAI (ustvarjalec znanega programa ChatGPT) in njihov glavni tekmec Anthropic (ustvarjalec programa Claude).

profimedia-1078546771.jpg
Profimedia
Vojska program Claude uporabi tudi pri načrtovanju in izbiri tarč med napadi na Iran. Fotografija je simbolična.

Da bi razumeli to zapleteno tehnološko in politično bitko, moramo najprej pogledati, kako vojske sploh uporabljajo umetno inteligenco v praksi.

Kako deluje umetna inteligenca na bojišču?

Ko govorimo o umetni inteligenci v vojski, si pogosto predstavljamo robote iz znanstvenofantastičnih filmov, a realnost je trenutno nekoliko drugačna.

Preberite še

Kot pojasnjuje britanska medijska mreža BBC, vojske, med njimi Združene države Amerike, Ukrajina in zveza Nato, umetno inteligenco trenutno uporabljajo predvsem za obdelavo ogromnih količin podatkov.

Vojaški poveljnik mora v nekaj minutah pregledati tisoče satelitskih posnetkov, prebrati stotine obveščevalnih poročil in prestreženih komunikacij.

Za človeka je to nemogoče, umetna inteligenca pa lahko takšno nalogo opravi v nekaj sekundah.

Ameriško podjetje Palantir na primer zagotavlja programe, ki vse te podatke združijo in jih analizirajo s pomočjo naprednih jezikovnih modelov (kot je Claude).

profimedia-1079439529.jpg
Profimedia
Vojska program Claude uporabi tudi pri načrtovanju in izbiri tarč med napadi na Iran. Fotografija je simbolična.

Vodja britanske podružnice Palantirja Louis Mosley za BBC pojasnjuje, da to omogoča »hitrejše, učinkovitejše in navsezadnje bolj smrtonosne odločitve«.

Vendar pa strokovnjaki opozarjajo na veliko nevarnost: jezikovni modeli si včasih podatke preprosto izmislijo, kar strokovno imenujemo »haluciniranje«.

Zato častnica Amanda Gustave, glavna skrbnica podatkov pri Natovi projektni skupini Maven, poudarja, da imajo v procesu vedno vključenega človeka.

»Nikoli ne bi dovolili, da umetna inteligenca sprejme odločitev namesto nas,« zagotavlja za BBC.

Kljub temu nekatera tehnološka podjetja želijo trdna in zakonska zagotovila, da njihovi programi ne bodo nikoli uporabljeni za samostojno (avtonomno) ubijanje ali za množični nadzor lastnih državljanov.

profimedia-1079610965.jpg
Profimedia
Ameriška vojska uporabi program Claude pri svoji nedavni vojaški operaciji v Venezueli. Fotografija je simbolična.

Spor, ki je pretresel Silicijevo dolino

Tukaj se zgodba zaplete. Podjetje Anthropic, ki velja za eno najbolj varnostno usmerjenih podjetij na tem področju, je po poročanju tehnološkega portala Wired zavrnilo zahteve ameriškega obrambnega ministrstva (Pentagona).

Pentagon je od podjetja zahteval neomejen dostop do njihovih programov za »vse zakonite namene«. Anthropic je tukaj postavil črto: njihova tehnologija se ne sme uporabljati za avtonomno orožje ali za množični nadzor Američanov.

Odziv ameriškega državnega vrha je bil oster. Ameriški predsednik Donald Trump je vodilne v Anthropicu na družbenih omrežjih označil za »levičarske norce, ki nimajo pojma o resničnem svetu«, obrambni minister Pete Hegseth pa je podjetje razglasil za »varnostno tveganje v dobavni verigi«, povzema Wired.

To dejansko pomeni prepoved poslovanja ameriške vojske in njenih dobaviteljev s tem podjetjem.

Časnik The Guardian ob tem poroča, da se je prah dvignil že januarja, ko je ameriška vojska uporabila program Claude pri vojaški operaciji v Venezueli.

profimedia-1078885562.jpg
Profimedia
Sam Altman je prvotno trdil, da ima dogovor s Pentagonom največ varnostnih varoval doslej. Fotografija je simbolična.

Kljub prepovedi pa naj bi vojska, kot navajata The Wall Street Journal in Axios, isti program pretekli konec tedna uporabila tudi pri načrtovanju in izbiri tarč med napadi na Iran, kar kaže na to, kako močno je tehnologija že vpeta v vojaške sisteme.

Hiter skok OpenAI in upor zaposlenih

V trenutku, ko se je Pentagon sprl z Anthropicom, je priložnost zgrabilo podjetje OpenAI. V naglici so z ameriško vojsko podpisali pogodbo, ki jim omogoča uporabo njihovih sistemov za zaupne vojaške operacije.

Kot poroča časnik The New York Times, je OpenAI v nasprotju z Anthropicom pristal na pogoje Pentagona, da lahko tehnologijo uporabljajo za vse zakonite namene, a so si hkrati izborili pravico, da v sisteme vgradijo lastne varnostne omejitve.

Poteza je sprožila pravi vihar v tehnološkem svetu. Uporabniki so začeli množično brisati aplikacijo ChatGPT.

Oglasili so se tudi zaposleni. The Guardian poroča, da je skoraj 900 zaposlenih pri podjetjih Google in OpenAI podpisalo odprto pismo, v katerem vodstva pozivajo, naj zavrnejo zahteve Pentagona po uporabi njihovih modelov za domači množični nadzor in avtonomno ubijanje.

Znanstveniki so razvili diagnostični okvir Psychopathia Machinalis, ki razkriva kar 32 možnih psiholoških motenj, ki jih lahko razvije umetna inteligenca – od obsesij do maničnih epizod.
UI
Umetna inteligenca v nekaj sekundah pregleda tisoče satelitskih posnetkov in obveščevalnih poročil. Fotografija je simbolična.

Nekdanji vodja politike pri OpenAI Miles Brundage je bil še ostrejši in je na omrežju X zapisal, da bi »raje šel v zapor, kot pa sledil protiustavnemu ukazu vlade«.

Priznanje napake in popravki dogovora

Zaradi izjemnega pritiska javnosti in zaposlenih je izvršni direktor OpenAI Sam Altman moral stopiti korak nazaj.

Čeprav je sprva trdil, da ima njihov dogovor s Pentagonom »največ varnostnih varoval doslej«, je kasneje priznal napako.

Na družbenem omrežju X je zapisal: »Iskreno smo poskušali umiriti razmere in se izogniti veliko slabšemu izidu, a mislim, da je vse skupaj izpadlo zgolj oportunistično in šlampasto.«

OpenAI je nato po poročanju The New York Times pogodbo nujno dopolnil z zelo natančnimi omejitvami.

V dogovor so izrecno zapisali, da se njihovi sistemi »ne smejo namerno uporabljati za domači nadzor ameriških oseb in državljanov«.

telefon umetna inteligenca
Profimedia
Umetna inteligenca postaja ključno in neizogibno orodje sodobnega vojskovanja na bojišču. Fotografija je simbolična.

To vključuje tudi prepoved namernega sledenja ali zbiranja osebnih podatkov s pomočjo njihovih programov.

Prav tako do sistema ne bodo imele dostopa obveščevalne agencije, kot je Nacionalna varnostna agencija (NSA), razen če bi za to pripravili povsem ločen in nov dogovor.

Razprava o vlogi umetne inteligence v vojski s tem seveda ni zaključena, temveč se šele dobro začenja. Kot opozarja profesorica Mariarosaria Taddeo z Univerze v Oxfordu za BBC, je izključitev Anthropica iz vojaških poslov zelo slaba novica. »S tem je prostor zapustil tisti akter, ki je najbolj ozaveščen o varnosti. In to je resničen problem,« je prepričana strokovnjakinja.

Svet24

Prva stran dneva

Dnevni izbor najpomembnejših zgodb doma in po svetu, dostavljen neposredno v vaš e-poštni nabiralnik.

Hvala za prijavo!

Na vaš e-naslov smo poslali sporočilo s potrditveno povezavo.

Z oddajo e-poštnega naslova se prijavim na uredniške e-novice. Odjava je možna kadar koli prek povezave »Odjava« v vsakem sporočilu. Več v Politiki zasebnosti.

O avtorju


© 2026 SVET24, informativne vsebine d.o.o.

Vse pravice pridržane.