c S
U središtu

Autonomni robotski sustavi i međunarodna sigurnost

26.05.2017 Prva poznata uporaba modernih robotiziranih sustava u ratu datira iz vremena Zimskog rata koji se tijekom 1939. i 1940. vodio između Finske i Sovjetskog saveza. Sovjeti su u sklopu svoje kampanje u borbu poslali i prerađene tenkove koje su prema ciljevima navodili radijskim signalima s udaljenosti od 500 – 1.500 metara.

Razvoj borbenih robotskih sustava tada je neobjašnjivo zastao, međutim, posljednjih nekoliko godina svjedoci smo ubrzanog razvoja tehnologije u području umjetne inteligencije i robotike. Osim što se takva tehnologija razvija u mirnodopske svrhe, poseban interes pokazuju kompanije koje se primarno bave razvojem i proizvodnjom vojnih sustava.

S obzirom na ogroman utjecaj na ratovanje u cjelini, razvoj neovisnih borbenih sustava, odnosno umjetne inteligencije i robotike u vojne svrhe, naziva se i trećom revolucijom u ratovanju. Prve dvije bile su izum baruta i razvoj nuklearnog oružja.

Svi moderni roboti, pa tako i vojni, strojevi su koji imaju mogućnost „osjećati“ i djelovati, uz određenu razinu autonomije, a u skladu s vlastitim programskim postavkama.

Razina autonomije u pravilu se može podijeliti na:

- robote koji mogu odrediti metu i djelovati prema njoj samo uz čovjekovu naredbu (Human-in-the-Loop Weapons) npr. bezposadne letjelice

- robote koji mogu odrediti metu i djelovati prema njoj uz čovjekov nadzor i mogućnost da čovjek u svakom trenutku preuzme kontrolu nad njihovim djelovanjem eng. override (Human-on-the-Loop Weapons)

- robote koji mogu odrediti metu i djelovati prema njoj bez ikakve dodatne čovjekove naredbe ili kontrole (Human-out-of-the-Loop Weapons) poznate kao lethal autonomous weapons systems – LAWS ili jednostavno roboti ubojice.

Iako potpuno neovisni, robotski sustavi koji su sposobni sami izabrati i djelovati prema cilju još uvijek, službeno, nisu u uporabi, no bitno je naglasiti da se na njihovom razvoju ubrzano radi. Prve procjene stručnjaka govorile su da do funkcionalnih neovisnih robota mora proći još nekoliko desetljeća, međutim, prema novim procjenama koje se temelje na ubrzanom razvoju umjetne inteligencije i pratećih tehnologija, svijet je tek nekoliko godina daleko od takvog scenarija.

Inženjeri koji rade na razvoju takvih sustava uvjeravaju javnost da je moguće u njih implementirati zaštitne mjere koji bi omogućile da roboti imitiraju način na koji ljudi razmišljaju i donose odluke, ipak, sasvim je razumno donijeti zaključak da potpuno neovisni sustavi neće moći biti u potpunosti usklađeni s međunarodnim humanitarnim normama. Nedostatak ljudske svijesti i empatije sigurno će biti najveća prepreka koju će tvorci takvih strojeva morati savladati, naravno ako uopće i sami tvorci imaju dovoljno empatije prema ljudskoj patnji i volju da se ugrožene skupine ljudi u ratnoj zoni u najvećoj mogućoj mjeri zaštite od djelovanja njihovog oružja.

U zajedničkom izvještaju (Losing Humanity: The Case against Killer Robots) kojeg su 2012. godine objavili Human Rights Watch i Harvard Law School’s International Human Rights Clinic (IHRC) pozivaju se države da donesu zajedničke obvezujuće norme kojima bi se zabranili potpuno neovisni sustavi i da istovrsne odredbe unesu u nacionalna zakonodavstva.

Očito je da takvi ubojiti neovisni sustavi moraju biti pravno regulirani, međutim, nameće se pitanje trebaju li se takvi sustavi u potpunosti zabraniti ili se njihov razvoj i upotreba mogu dopustiti pod određenim, strogo reguliranim uvjetima.

Opća zabrana vjerojatno bi bila najučinkovitija jer bi se zabranio i sam razvoj takvog naoružanja te bi nadzor nad provedbom odredbi bio puno učinkovitiji. Samo reguliranje značilo bi da se takva oružja smiju razvijati i koristiti, ali nadzor nad njihovim korištenjem, pogotovo ilegalnim korištenjem, bio bi iznimno težak i u praksi teško provediv što bi vjerojatno dovelo do sve većeg širenja takvog naoružanja po svijetu.

Treba napomenuti da bi razvoj takvog oružja, kao i svih visokotehnoloških vojnih sustava, mogle financirati samo najbogatije i tehnološki najrazvijenije zemlje svijeta što bi isprva dovelo, kao i kod nuklearnog oružja, do podjele na one koje ga imaju i na one koje ga nemaju. Međutim, protekom vremena, kada bi i tehnološki inferiornije države ili organizacije razvile ili na neki drugi način pribavile takvu tehnologiju, svijet bi sigurno krenuo u još jednu veliki utrku u naoružanju.

Organizacija ICRAC (The International Committee for Robot Arms Control), zajedno s još nekoliko nevladinih organizacija, pokrenula je „Inicijativu za zaustavljanje robota ubojica“ koja poziva na uvođenje pravila koja bi onemogućila države da razvijaju takva oružja za koja smatraju da će biti opasna i nepredvidljiva. ICRAC je neprofitna međunarodna organizacija kojoj je svrha upotreba robotike u mirnodopske svrhe te se zalaže za reguliranje njezine upotrebe u vojne svrhe. U svojoj izjavi iz 2009. godine navode svoje prijedloge o kojima bi se trebalo raspravljati; zabrana razvoja i uporabe strojeva koji mogu samostalno donositi odluke o oduzimanju ljudskih života, zabrana naoružavanja bezposadnih sustava nuklearnim oružjem, zabrana razvoja svemirskih robotskih sustava i dr. …

Sudionici inicijative redovno sudjeluju na sastancima vladinih stručnjaka država stranaka Konvencije o određenom konvencionalnom oružju iz kojih u budućnosti može proizaći novi protokol u sklopu Konvencije kojim bi se u potpunosti zabranili roboti ubojice – LAWS. Sličan sastanak stručnjaka koji su se sastali 1995. godine rezultirao je zabranom korištenja osljepljujućeg laserskog oružja na koju se odnosi Protokol IV Konvencije.

Puni naziv spomenute konvencije je Konvencija o zabrani ili ograničenju uporabe određenog konvencionalnog oružja koje se smatra izuzetno opasnim (izaziva velike traumatske učinke) ili je neselektivnog djelovanja (engl. Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects - CCW).

Svrha Konvencije je zabrana ili ograničavanje upotrebe određenih vrsta oružja za koje se smatra da uzrokuje nepotrebnu i/ili neopravdanu patnju vojnicima, odnosno onih oružja koja bi mogla nediskriminatorno djelovati na civile. Konvencija je na snazi od 2. prosinca 1983., a Republika Hrvatska je stranka konvencije od 2. prosinca 1993.

Posljednja pregledna konferencija koja se održava svakih pet godina održana je u Ženevi u prosincu 2016.

Institut Future of life objavio je 2015. godine otvoreno pismo potpisano od strane znanstvenika koji se bave istraživanjima na području umjetne inteligencije i robotike, a u kojem navode da većina istraživača umjetne inteligencije ne želi stvarati oružje već im je cilj doprinositi čovječanstvu.

Kao što je većina kemičara i biologa podržala međunarodne sporazume koji su uspješno zabranili uporabu kemijskog i biološkog oružja i kao što je većina fizičara podržala sporazume koji su zabranili baze nuklearnog oružja u svemiru, tako i robotičari i istraživači umjetne inteligencije ne podržavaju razvoj autonomnih borbenih sustava.

Do današnjeg dana otvoreno pismo potpisalo je više od dvadeset tisuća znanstvenika od kojih se više od tri tisuće bavi razvojem umjetne inteligencije i robotike. Na listi se, među ostalim, nalaze i znanstvene zvijezde poput Stephena Hawkinga, Elona Muska, Steve Wozniaka i drugih.

Neven Brkić, dipl. iur.