Trump besen, ker ne sme uporabljati umetne inteligence za vojskovanje
OpenAI pod pritiskom zaposlenih omejuje sodelovanje s Pentagonom pri nadzoru državljanov. Anthropic zaradi etičnih zadržkov pristaja na vladni črni listi.
Ameriška vojska pospešeno vključuje umetno inteligenco v svoje bojne sisteme, kar sproža hude etične spore.
Podjetje OpenAI je po pritisku javnosti in lastnih zaposlenih moralo zaostriti dogovor s Pentagonom, medtem ko je rivalski Anthropic zaradi zavrnitve sodelovanja pri orožju pristal na črni listi.
Umetna inteligenca ni več zgolj tehnologija, ki nam pomaga pisati besedila ali ustvarjati slike. Vse bolj postaja ključno orodje sodobnega vojskovanja.
Razprava o tem, kako daleč lahko gre vojska pri uporabi teh sistemov, je v zadnjih dneh močno pretresla tehnološki svet.
V središču dogajanja sta se znašli dve vodilni podjetji na področju umetne inteligence: OpenAI (ustvarjalec znanega programa ChatGPT) in njihov glavni tekmec Anthropic (ustvarjalec programa Claude).
Da bi razumeli to zapleteno tehnološko in politično bitko, moramo najprej pogledati, kako vojske sploh uporabljajo umetno inteligenco v praksi.
Kako deluje umetna inteligenca na bojišču?
Ko govorimo o umetni inteligenci v vojski, si pogosto predstavljamo robote iz znanstvenofantastičnih filmov, a realnost je trenutno nekoliko drugačna.
Kot pojasnjuje britanska medijska mreža BBC, vojske, med njimi Združene države Amerike, Ukrajina in zveza Nato, umetno inteligenco trenutno uporabljajo predvsem za obdelavo ogromnih količin podatkov.
Vojaški poveljnik mora v nekaj minutah pregledati tisoče satelitskih posnetkov, prebrati stotine obveščevalnih poročil in prestreženih komunikacij.
Za človeka je to nemogoče, umetna inteligenca pa lahko takšno nalogo opravi v nekaj sekundah.
Ameriško podjetje Palantir na primer zagotavlja programe, ki vse te podatke združijo in jih analizirajo s pomočjo naprednih jezikovnih modelov (kot je Claude).
Vodja britanske podružnice Palantirja Louis Mosley za BBC pojasnjuje, da to omogoča »hitrejše, učinkovitejše in navsezadnje bolj smrtonosne odločitve«.
Vendar pa strokovnjaki opozarjajo na veliko nevarnost: jezikovni modeli si včasih podatke preprosto izmislijo, kar strokovno imenujemo »haluciniranje«.
Zato častnica Amanda Gustave, glavna skrbnica podatkov pri Natovi projektni skupini Maven, poudarja, da imajo v procesu vedno vključenega človeka.
»Nikoli ne bi dovolili, da umetna inteligenca sprejme odločitev namesto nas,« zagotavlja za BBC.
Kljub temu nekatera tehnološka podjetja želijo trdna in zakonska zagotovila, da njihovi programi ne bodo nikoli uporabljeni za samostojno (avtonomno) ubijanje ali za množični nadzor lastnih državljanov.
Spor, ki je pretresel Silicijevo dolino
Tukaj se zgodba zaplete. Podjetje Anthropic, ki velja za eno najbolj varnostno usmerjenih podjetij na tem področju, je po poročanju tehnološkega portala Wired zavrnilo zahteve ameriškega obrambnega ministrstva (Pentagona).
Pentagon je od podjetja zahteval neomejen dostop do njihovih programov za »vse zakonite namene«. Anthropic je tukaj postavil črto: njihova tehnologija se ne sme uporabljati za avtonomno orožje ali za množični nadzor Američanov.
Odziv ameriškega državnega vrha je bil oster. Ameriški predsednik Donald Trump je vodilne v Anthropicu na družbenih omrežjih označil za »levičarske norce, ki nimajo pojma o resničnem svetu«, obrambni minister Pete Hegseth pa je podjetje razglasil za »varnostno tveganje v dobavni verigi«, povzema Wired.
To dejansko pomeni prepoved poslovanja ameriške vojske in njenih dobaviteljev s tem podjetjem.
Časnik The Guardian ob tem poroča, da se je prah dvignil že januarja, ko je ameriška vojska uporabila program Claude pri vojaški operaciji v Venezueli.
Kljub prepovedi pa naj bi vojska, kot navajata The Wall Street Journal in Axios, isti program pretekli konec tedna uporabila tudi pri načrtovanju in izbiri tarč med napadi na Iran, kar kaže na to, kako močno je tehnologija že vpeta v vojaške sisteme.
Hiter skok OpenAI in upor zaposlenih
V trenutku, ko se je Pentagon sprl z Anthropicom, je priložnost zgrabilo podjetje OpenAI. V naglici so z ameriško vojsko podpisali pogodbo, ki jim omogoča uporabo njihovih sistemov za zaupne vojaške operacije.
Kot poroča časnik The New York Times, je OpenAI v nasprotju z Anthropicom pristal na pogoje Pentagona, da lahko tehnologijo uporabljajo za vse zakonite namene, a so si hkrati izborili pravico, da v sisteme vgradijo lastne varnostne omejitve.
Poteza je sprožila pravi vihar v tehnološkem svetu. Uporabniki so začeli množično brisati aplikacijo ChatGPT.
Oglasili so se tudi zaposleni. The Guardian poroča, da je skoraj 900 zaposlenih pri podjetjih Google in OpenAI podpisalo odprto pismo, v katerem vodstva pozivajo, naj zavrnejo zahteve Pentagona po uporabi njihovih modelov za domači množični nadzor in avtonomno ubijanje.
Nekdanji vodja politike pri OpenAI Miles Brundage je bil še ostrejši in je na omrežju X zapisal, da bi »raje šel v zapor, kot pa sledil protiustavnemu ukazu vlade«.
Priznanje napake in popravki dogovora
Zaradi izjemnega pritiska javnosti in zaposlenih je izvršni direktor OpenAI Sam Altman moral stopiti korak nazaj.
Čeprav je sprva trdil, da ima njihov dogovor s Pentagonom »največ varnostnih varoval doslej«, je kasneje priznal napako.
Na družbenem omrežju X je zapisal: »Iskreno smo poskušali umiriti razmere in se izogniti veliko slabšemu izidu, a mislim, da je vse skupaj izpadlo zgolj oportunistično in šlampasto.«
OpenAI je nato po poročanju The New York Times pogodbo nujno dopolnil z zelo natančnimi omejitvami.
V dogovor so izrecno zapisali, da se njihovi sistemi »ne smejo namerno uporabljati za domači nadzor ameriških oseb in državljanov«.
To vključuje tudi prepoved namernega sledenja ali zbiranja osebnih podatkov s pomočjo njihovih programov.
Prav tako do sistema ne bodo imele dostopa obveščevalne agencije, kot je Nacionalna varnostna agencija (NSA), razen če bi za to pripravili povsem ločen in nov dogovor.
Razprava o vlogi umetne inteligence v vojski s tem seveda ni zaključena, temveč se šele dobro začenja. Kot opozarja profesorica Mariarosaria Taddeo z Univerze v Oxfordu za BBC, je izključitev Anthropica iz vojaških poslov zelo slaba novica. »S tem je prostor zapustil tisti akter, ki je najbolj ozaveščen o varnosti. In to je resničen problem,« je prepričana strokovnjakinja.
Prva stran dneva
Dnevni izbor najpomembnejših zgodb doma in po svetu, dostavljen neposredno v vaš e-poštni nabiralnik.