RATOVANJE BUDUĆNOSTI

'TKO ZAVLADA ROBOTIMA, VLADAT ĆE SVIJETOM' Alarmantno upozorenje: 'Terminator je na putu, nemamo još puno vremena, prijeti nam Treći svjetski rat...'

 

Roboti ubojice, poznatiji pod akronimom LAWS (Lethal Autonomous Weapons Systems), ove su godine trebali dobiti svojevrsne upute, odnosno ograničenja za upotrebu. Naime, tehnologija je na polju smrtonosnih automatiziranih strojeva otišla toliko daleko da se predviđa da bi vrlo brzo, možda čak u roku od nekoliko godina, roboti za ratovanje mogli postati stvarnost.

Tri godine razmatrala su se i dogovarala ograničenja na razini svjetskih vlada zbog etičkih problema koja proizlaze iz stvaranja strojeva koji sami, bez naredbe čovjeka, mogu ubiti ljude. Oko 90 zemalja u kolovozu je trebalo formalizirati zaključke pod pokroviteljstvom UN-a. No, sjednica o ovom važnom pitanju otkazana je jer Brazil i nekoliko manjih zemalja nisu platili doprinose za UN-ovu konvenciju o konvencionalnom oružju. Otkazan bi mogao biti i sastanak najavljen za studeni, ako se računi ne izravnaju.

Ni vijesti iz Amerike nisu najbolje, piše Christian Science Monitor. Naime, administracija aktualnog predsjednika Donalda Trumpa trebala je dodati nove stavke u direktivu donesenu u vrijeme administracije Baracka Obame o autonomnom oružju. No, Pentagon je, piše CSM, odlučio ostaviti trenutačnu direktivu na snazi unatoč kritikama da je sadržaj previše nejasan.

Javno pismo

Znajući da je riječ o izuzetno važnom pitanju, privatni sektor istupio je podsjećajući svjetske vlade na odgovornost koju imaju. Poznati direktori velikih tehnoloških kompanija, koje i same razvijaju robote, ali za civilnu upotrebu, poslali su javno pismo s konferencije o umjetnoj inteligenciji IJCAI u Melbourneu. “Utrka u naoružanju prijeti trećom revolucijom u ratovanju”, stoji u pismu koje potpisuje čak 126 osoba iz tech sektora, među kojima se ističe Elon Musk, vlasnik kompanije Tesla Motors koja proizvodi električne automobile, ali trenutno testira i vozila bez vozača. Prve dvije revolucije bile su izum baruta i nuklearna bomba. “Jednom kada se razviju, smrtonosni automatski strojevi promijenit će ratovanje na način da će oružani sukobi biti šireg opsega od svega dosad viđenoga, a brzina ratovanja dosegnut će razinu koja će biti previše za ljudske pojmove”, upozorava se u pismu.

“To oružje može se koristiti za terorizam ili despotsku vladavinu protiv nedužnog stanovništva. Oružje može biti hakirano i potaknuto na neželjeno ponašanje. Nemamo još puno vremena za djelovanje. Kada se Pandorina kutija otvori, bit će je teško zatvoriti”, apelirali su direktori tehnoloških divova. Traže da se “nemoralni” smrtonosni automatski sustavi dodaju na listu oružja zabranjenog UN-ovom konvencijom o konvencionalnom oružju iz 1983. Na toj su listi kemijsko oružje i laseri koji namjerno osljepljuju.

Elon Musk pozvao je na aktivnu regulaciju umjetne inteligencije, nazivajući AI najvećom egzistencijalnom prijetnjom čovječanstvu. Ryan Gariepy, osnivač Clearpath Roboticsa, upozorio je da bi autonomni sustavi za ubijanje mogli zaprijetiti stabilnosti u svijetu. “Za razliku od drugih robotskih strojeva, koji su još u sferi znanstvene fantastike, samostalno djelujući strojevi za ubijanje su nadomak ostvarenja”, napomenuo je Gariepy.

I ruski predsjednik Vladimir Putin uključio se nedavno u polemiku kada je (odgovarajući na pitanja ruskih školaraca) izjavio da će “onaj tko bude vladao automatskim strojevima budućnosti vladati svijetom”.

Razvoj umjetne inteligencije donosi velike mogućnosti, ali i opasnosti koje se još ne mogu predvidjeti, smatra Putin koji je upozorio da bi bilo “vrlo nepoželjno” da netko dobije monopol na tom polju te da će Rusija podijeliti sve znanje koje stekne.

Akcijski filmovi

Ruski predsjednik izjavio je još kako vjeruje da će se ratovi u budućnosti voditi između dronova. “Onaj čiji dronovi budu uništeni, morat će se predati”, izjavio je Putin.

Ova tema odavno je obrađena u filmovima i književnosti. Najpoznatiji široj publici vjerojatno je “Terminator”, američki akcijski film iz davne 1984. Njegova radnja govori o ne tako dalekoj 2029. godini u kojoj se autonomni sustav za obranu otrgne s lanca te počinje nuklearni rat kojim je gotovo potamanio ljudsku rasu.

Pišući o ovoj temi, Christian Science Monitor navodi kako stručnjaci koji se protive umjetnoj inteligenciji u vojnom sektoru kao problem ne navode to da bi strojevi mogli postati pametniji od ljudi, barem ne uskoro, nego bi, upravo suprotno, bili nedovoljno inteligentni da upravljaju novim oružjem i nedorasli odgovornosti.

Vojska, dakako, ima dobre razloge da želi robote u svojem arsenalu. Vojsci autonomni sustavi mogu pomoći u mnogim zadacima. Pogotovo su atraktivni za obavljanje dosadnih ili opasnih misija, primjerice nadzora ili za uklanjanje mina, a za razliku od ljudi, nikada se ne umaraju niti se žale. Jasna je njihova prednost u štednji ljudskih života, ali ne samo to, oni su važan dio financijske računice jer značajno smanjuju troškove na terenu.

Etička pitanja

Etička pitanja otvaraju se s razvojem takvog oružja. Sadašnje direktive blage su i neodređene, ističu kritičari. Kada je riječ o SAD-u, ministarstvo obrane je 2012. godine izdalo Direktivu 3000.09 koja kaže da “autonomno oružje treba biti dizajnirano tako da ljudski operatori imaju odgovarajuću priliku za prosudbu”. Slično se čulo i u britanskom parlamentu. No, što je ljudska prosudba još nije definirano, a tako će, posvemu sudeći, i ostati. Iz britanskog ministarstva obrane nedavno su poručili da službeni London ne namjerava podržati uvođenje zabrane na robote-ubojice koji mogu ubiti bez ljudske kontrole.

U međuvremenu, kako navodi Egadget, niz zemalja, među kojima su uz Ameriku i Rusiju, Kina, velika Britanija i Izrael, rade na “lawsima”.

I ljudi griješe

Neki stručnjaci podsjećaju na to da se i vojnici-ljudi na terenu, osim što mogu pogriješiti i ubiti civile, često ponašaju destruktivno, silujući i uništavajući neprijateljsku stranu.

“Posve je moguće da će roboti moći bolje obavljati vojničke zadatke u budućnosti, no etički problemi svejedno su tu. Roboti-ubojice smanjuju prepreke za rat. Neće vam više trebati 1000 ljudi, dovoljan će biti samo jedan”, ističe Toby Walsh, australski istraživač sa Sveučilišta New South Wales u Sydneyju koji je jedan od potpisnika pisma kojim se apelira da se takvi strojevi zabrane ili barem ograniče. Naime, međunarodna utrka u naoružavanju, ističu, prijeti nesagledivim posljedicama.

Svjetske sile punom parom rade na robotskom oružju za ‘obranu’

Samsung’s SGR-A1

Vlada Južne Koreje dala je razviti ovaj autonomni sustav, a spekulira se da je sposoban za nadzor, prepoznavanje glasa, lociranje i pucanje iz strojnice ili bacača granate koji se nalazi na njemu. Samsung’s SGR-A1 “u službi” je na demilitariziranoj zoni koja dijeli dvije Koreje. Mnogi detalji su nepoznati jer ih je južnokorejska vlada označila kao “visoko povjerljive”.

Dron Taranis

Britanski autonomni sustav koji razvija kompanija BAE Systems je bespilotna letjelica koja bi trebala nositi interkontinentalne rakete zrak-zrak i zrak-zemlja. Prvi testni let imao je 2013. godine. Očekuje se da će postati potpuno operabilan 2030. i da će zamijeniti borbene zrakoplove Tornado GR4 odnosno njihove pilote.

Uran-9

Ruski tenk Uran-9 je borbeno kopneno vozilo bez vozača, no Rusija i SAD razvijaju konvencionalne tenkove s robotima za upravljačem.

Sea Hunter

Američki autonomni ratni brod Sea Hunter sagradio je Vigor Industrial, a kršten je 2016. godine. Iako je još u razvoju, plan je da nosi protupodmorničko naoružanje.

Echo Voyager

Kompanija Boeing surađuje s najvećom američkom kompanijom za ratne brodove na razvoju nove robotske podmornice. Echo Voyager, Boeingova autonomna podmornica, već je isprobana, a može mjesecima patrolirati podmorjem. Bit će temelj za autonomnu podmornicu koja ne treba imati u blizini brod ili posadu.

Perdix

Riječ je o mikrodronovima koji se izbacuju iz utroba borbenih zrakoplova, a tvore roj sićušnih bespilotnih letjelica. Operator Perdixa daje naredbu skupini mikrodronića, primjerice o nadzoru vojnog objekta, a dronovi zaključuju kako će to izvršiti. Zasad se koriste samo za nadzor, no postoji mogućnost korištenja u borbi.

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
Linker
16. travanj 2024 06:19