V začetku letošnjega leta je manager neimenovane banke v ZAE prejel klic dolgoletne stranke, direktorja podetja, s katerim je že večkrat govoril. Direktor je več kot navdušeno povedal, da je njegovo podjetje dobilo pomemben posel, zato mu mora banka čimprej odobriti prenos 35-ih milijonov dolarjev. Direktor je še povedal, da bo posel urejal odvetnik Martin Zelner in bančnik je ime poznal, saj je njegova sporočila dobival po elektronski pošti.
Bančnik je stranko poznal, saj je z njo že večkrat govoril, tako da je poznal direktorjev glas in vse, kar je ta povedal, je bilo prav. Tako je sprožil postopek za transakcijo ... verjetno najdražjo napako v njegovi karieri.
"DEEPVOICE" TEHNOLOGIJA- KOGA V RESNICI SLIŠIMO
Bančnik je prenakazilo denarja odobril, prepričan, da je vse legitimno, v resnici pa je bil žrtev drzne visokotehnološke prevare. Oseba, s katero je govoril po telefonu, je namreč uporabljala tehnologijo, imenovano "deepvoice" ("Globoki glas"), ki klonira glas neke osebe tako, da ga nihče ne more razlikovati od originala.
Zgodba o superprevari je prišla na dan, ko so bili objavljeni sodni dokumenti, v katerih so Združeni Arabski Emirati zaprosili za pomoč ameriške preiskovalce pri sledenju 35-ih milijonov, katerih del so nakazali na več računov v ameriški banki Centennial Bank.
Oblasti v emiratih o prevari niso razkrile veliko, razen tega, da verjamejo, da je vanjo vpletenih vsaj 17 ljudi in da je denar bil nakazan na več računov po vsem svetu, zaradi česar bo toku tega denarja težko slediti.
Za popolno "kloniranje" originalnega glasu je potrebnih le pet sekund (!) posnetega glasu ali telefonskega pogovora.
Razlago si lahko pogledate TUKAJ.
TEGA BO VSE VEČ OPOZARJAJO STROKOVNJAKI
To je šele drugi primer, ko so banko prevarali z deepvoice tehnologijo. Prvič se je to zgodilo leta 2019, poznavalci kibernetskega kriminala pa opozarjajo, da bo takšnih prevar vedno več. Razvoj umetne inteligence (AI) je namreč omogočil t.i. "deepfake" (globoka prevara) in "deepvoice" tehnologijo, ki se sedaj razvijata z velikansko hitrostjo, kriminalci pa seveda stremijo k temu, da z njuno uporabo pridobijo prednost.
"Manipulacija zvoka, ki je veliko lažja kot izdelava "deepfake" videov, bo samo še narasla in brez izobraževanja in opozarjanja o teh novih načinih kibernetskih napadov, ter brez boljših metod preverjanja pristnosti, bo vedno več podjetij postalo žrtev zelo prepričljivih telefonskih pogovorov," pravi strokovnjak za kibernetsko varnost, Jake Moore.
Veliko ljudi namreč za deepfake tehnologijo, ki omogoča nastajanje povsem lažnih video in audio posnetkov, sploh še ni slišalo. Posebej pri slednjih je tehnologija že tako napredovala, da je za popolno "kloniranje" originalnega glasu potrebnih le pet sekund (!) posnetega glasu ali telefonskega pogovora.