Autonoomsed relvasüsteemid – tulevikutehnoloogia, millest on raske unistada

Relvad nagu ka kõikvõimalikud ennast valitseda ja suunata suutvad tehnoloogiad tõmbavad ligi megalomaane – seega liigub autonoomsete relvade ümber palju väga suuri ideid singulaarsusest, tapjarobotitest, maailmavallutusest, aga ka eetilisemast ning valutumast sõjast. Esimesena tuleb meelde kampaania „Peatage tapjarobotid“, millele on oma autoriteeti ja sära laenanud sellised teadus- ja tehnoloogiakuulsused nagu Stephen Hawking, Elon Musk ja Steve Wozniak. Sellest, et nende peatamiseks puudub poliitiline entusiasm, annavad aga märku Vladimir Putini 2017. aastal lausutud sõnad, et riigist, mis haarab autonoomsete relvade arendamises juhtpositsiooni, saab maailmas järgmine suurvõim.[1] Isegi riigid, mis on kodanikuühiskonna ja rahvusvaheliste organisatsioonide survele tundlikumad, põhjendavad surmavate autonoomsete tehnoloogiate arendamist argumendiga, et kui nemad oleksid ettevaatlikud ja eetilised, aga vastasleer mitte, siis haaraksid maailmas võimu ebademokraatlikud jõud. Paratamatult annavad arutelus tooni pigem düstoopilised noodid ja autonoomsed relvad esindavad tulevikuideaali vaid neile, kes kas usuvad siiralt, et nende abil on võimalik vähendada sõjast puudutatud inimeste kannatusi, vältida konfliktide eskaleerumist, või kes unistavad lihtsalt vastaste efektiivsest ja odavast hävitamisest.

Millisest tehnoloogiast käib jutt?

Kõige vastuolulisemad on relvad, mis suudavad ilma reaalajalise inimkontrollita võtta vastu otsuse oma võitlusvastane tappa – see hõlmab sihtmärgi valimist, rünnaku vajalikkuse üle otsustamist ning rünnaku ajastamist. Kas selline relv on tingimata autonoomne selle sõna laiemas filosoofilises tähenduses, on küsitav, aga määrav on tõsiasi, et süsteem on varustatud algoritmiga, mis suudab juba analüüsitud andmete põhjal teha kontekstispetsiifilisi valikuid ja sooritada tegusid, millest sõltuvad inimelud. Hirmutav, kuid siiski suhteliselt algeline näide on Lõuna-Korea piirivalverobot SGR-A1, mis praegu küll veel kõigest hoiatab neid, kes Lõuna- ja Põhja-Korea vahelise demilitariseeritud tsooni lähedal kahtlaselt ringi liiguvad, et juhul kui nad piirist ei kaugene, võib ta tulistada. Tulistamiskäsk ise tuleb inimoperaatorilt, aga mitte sellepärast, et tehnoloogia teisiti ei võimaldaks, vaid sellepärast, et nii on õiguspärane. Mehitamata õhusõidukite seas leiab näiteid rohkem. Iisraelis toodetud Harop on programmeeritud ründama radarsignaali edastavaid objekte ja seeläbi nõrgestama vastase õhukaitset. Sellest on olemas ka maa- ning merelahinguteks kohandatud versioonid. Haropit on müüdud muuhulgas Hiinale, Lõuna-Koreale, Türgile ja hiljuti kogus see kuulsust Aserbaidžaani armee arsenalis. Ameeriklaste droon RQ-11 Raven, mis on olnud kasutuses juba 2000ndate algusest, suudab iseseisvalt navigeerida ettemääratud trajektooridel. Mainitud relvad ei põhine masinõppel ega suur-andmetel ning põhimõtteliselt järgivad need sisestatud käsuridu, olgugi et need võivad olla arvukad ja keerulised ning dünaamilises keskkonnas viia vigadeni sihtmärkide tuvastamisel, ei ole need süsteemid veel inimesele hoomamatud mustad kastid. Selliseid süsteeme nimetatakse vahel ka esimese põlvkonna autonoomseteks relvadeks.

See, mis põhjustab suuri eetilisi, maailmavaatelisi ja poliitilisi vaidlusi, on nn teise põlvkonna autonoomia. Teise põlvkonna autonoomsed relvasüsteemid kätkevad seninägematuid võimalusi ja ohte ühel konkreetsel põhjusel – nad ületavad kognitiivselt analüüsivõimelt inimesi ning pole seetõttu reaalajas mõistetavad ega hallatavad. Seetõttu arvatakse, et need võivad kinkida mõnele riigile enneolematu sõjalise eelispositsiooni, ning samal ajal kardetakse, et see toob kaasa inimõiguste ja sõjaõiguse mastaapse rikkumise ja eetika üleüldise murenemise. Hüpe esimesest põlvkonnast teise on väidetavalt juba toimunud – Liibüa väed kasutasid eelmisel aastal lahingus Türgis toodetud drooni Kargu-2. Kargu-2 ei vajanud lahingutegevuses reaalajas juhtnööre ega ühendust kontrollbaasiga.[2]

Piirid automatiseeritu ja autonoomse vahel nagu ka kõikvõimalike põlvkondade jm nüansside vahel on vaieldavad, mistõttu kõnelused rahvusvahelistes organisatsioonides kulgevad teosammul. Tehnoloogilistest suurvõimudest on autonoomsete relvade keelamise suurim eestkõneleja Hiina, kes küll soovib keelustada ainult nende rakendamist, mitte aga arendust ega tootmist, millesse ta on ise suunanud sadu miljardeid, jäädes alla vaid Ameerika Ühendriikidele. Ühendriigid, Venemaa, Ühendkuningriik ja Iisrael ning paljud teised usuvad, et praeguses arengufaasis, kus täisautonoomne sõjandus pole veel kohale jõudnud, oleksid ranged keelud ennatlikud. Väljendatakse hirmu, et need piiraksid ka masin- ja sügavõppel põhinevaid rakendusi tsiviilisikute kaitses, kaaskahjude minimeerimises ja olukorra jälgimises.

Hajutatud kontroll

Mõisterägastiku keskmes on sõnapaar „sisuline inimkontroll“ (meaningful human control), mis peaks määrama konkreetse relvasüsteemi võime opereerida kooskõlas õigluse, südametunnistuse ja muude valdavalt inimesele ainuomaseks peetavate väärtustega. Lihtsustatult öeldes moodustavad eri huvigrupid spektri, mille ühes otsas on need, kes pooldavad isetegutsevate sõjatehnoloogiate arendamise ja kasutamise absoluutset keelamist, ning teises otsas need, kes usuvad seesuguse innovatsiooni positiivsesse mõjusse ega soovi mingeid lisapiiranguid. Enamik eksperte asuvad kusagil keskel, kuid kalduvad pigem pessimismi ning usuvad, et autonoomsed relvad võiksid olla lubatud vaid juhul, kui säilib sisuline järelevalve kas relva operatsioonitsükli üle tervikuna või mõne selle kriitiliselt olulise funktsiooni üle. „Sisulist inimkontrolli“ kui eraldi kriteeriumi mainis esmakordselt oma vastuses Ühendkuningriigi kaitseministeeriumi seisukohtadele Briti mittetulundusühing Article 36, rõhutades kaalutletud moraalset otsustamist igal üksikjuhtumil, nii nagu see käib ülalmainitud Korea robotpiirivalvuri puhul. Hiljem on rõhutatud sisulise inimkontrolli säilitamise vajadust nn kriitiliste funktsioonide üle, milleks on sihtmärkide väljavalimine ja lahingutegevusse astumine abstraktsemalt. Kui üha enam abstraktseid sõjalisi otsuseid langetatakse algoritmiliste soovituste põhjal, mis töötavad põhimõttel „kui teile meeldis see sõjaline sihtmärk siin, siis võiksite proovida ka seda seal“, siis on oht, et hirm, kaastunne ja eetilised ühishuvid (nt põhiuskumus, et sõda kui selline ei ole hea) kaotavad oma kaalu.

Vastuseks võidakse väita, et inimlik otsustusprotsess ei kao, vaid nihkub ajas nii, et rünnakumomendi asemel saab määravaks hoopis selle ettevalmistusprotsess. Sõjaliste operatsioonide puhul on kontroll olnud alati ajas hajutatud. Hollandi õigusteadlane Merel Ekelhof toob hüpoteetilise, kuid realistliku näite sellest, kuidas sõjalennuk saadetakse hävitama kindlat sihtmärki. Nagu tavaks, on õigusnõunik operatsiooni ettevalmistamise käigus sihtmärgi heaks kiitnud, seejärel on piloodile antud täpsed juhtnöörid, kirjeldused ning koordinaadid, sama informatsioon on sisestatud lennuki pardaarvutisse. Sihtmärgile lähenedes veendub piloot, et halva nähtavuse tõttu peab ta rünnaku lõpuleviimisel usaldama pardaarvutit.[3]

Kuigi see analoogia illustreerib hästi, kui oluline on näha inimlikku kontrolli kõikides operatsiooni kavandamise või relva programmeerimise etappides, on see ka veidi eksitav, kuna asetab autonoomsete relvade problemaatika selle tegeliku kontekstiga võrreldes miniatuursesse skaalasse. Esiteks, piloodil säilib võimalus asjaolusid hinnates operatsioonist loobuda. Teiseks, pardaarvuti on automatiseeritud ja selle käsutuses olevad andmed on asjasse segatud inimestele hästi teada ega muutu ajas. Kolmandaks, ka vastutusahel on suhteliselt selge ja lühike – vastutust võib kanda piloot, arvutisse andmed sisestanud operaator, õigusnõunik, operatsiooni koordineeriv väejuht või erandjuhul ka näiteks lennuki tootja. Iseõppiva täisautonoomse süsteemi puhul oleks see nimekiri võrreldamatult pikem. Sisuline inimkontroll ei piirdu seega ühegi kindla momendiga sündmuste jadas, kuid äärmuslik hajutatus ja distantseeritus õõnestaksid selle tuumideed.

Kas kontrollil oleks üldse tähtsust siis, kui sõda muutuks tugevatele mugavaks ja ohutuks? Ebavõrdne võitlus, kus üks pool riskib eludega ning teine süümepiinade ja diplomaatilise hukkamõistuga, ei ole sõjapidamise reeglitesse sisse kodeeritud. Nn Martensi klausel näeb sellistel puhkudel ette, et „täpsemate eeskirjade puudumisel jäävad nii elanikkond kui ka sõdijad rahvusvahelise õiguse printsiipide kaitse ja valitsemise alla, nii nagu need tulenevad (tsiviliseeritud) rahvaste vahel juurdunud tavadest, inimlikkuse seadustest ja avaliku südametunnistuse nõudmistest“.[4] Martensi klausli laiem teleoloogiline tõlgendus lennutab kõik rahvusvahelised kõnelused autonoomsete relvasüsteemide lubatavuse üle otsejoones keeruliste loomuõiguslike ja moraalifilosoofiliste küsimuste juurde, kus lihtsalt lepingute heast tundmisest ei piisa. Nii küsitakse näiteks, kas masin suudaks mõista ja austada oma inimesest võitlusvastase võõrandamatut väärikust ning kas surm algoritmi läbi oleks sellega kooskõlas.

Ebausaldusväärne palgasõdur

Mõnikord esitatakse murede leevendamiseks argument, et nii nagu ükski tervemõistuslik väejuht ei sooviks palgata ülivõimekat, kuid jõu kasutamise reeglitele (rules of engagement, ROE) allumatut palgasõdurit, ei ole kellegi huvides võtta kasutusele analoogseid tehnoloogiaid. Selline palgasõdur oleks kiire, tugev, täpne, võimetu tundma valu ja viha, suurepärase mäluga, omandanud lugematuid fakte ja demonstreerinud imetlusväärset analüüsivõimet. Samuti oleks ta jõhker, kartmatu, kaheldava lojaalsusega ning ei suudaks ennast alati arusaadavalt väljendada. See, mille põhjal ta täpselt järeldusi teeb, jääks mõnikord ähmaseks. Kogu oma intelligentsuse juures võib ta näiteks veidi pikema ninaga inimesi ajada süstemaatiliselt segi paavianidega, minetada igasuguse konstruktiivsuse, nähes soditud liiklusmärki, ning ilmutada üllatavates situatsioonides sulaselget rassismi ja seksismi. Mõned eksperdid küll väidaksid, et tunnevad tema mõttemaailma piisavalt hästi, ning kinnitaksid, et muretsemiseks pole põhjust. Kirjeldatud onu Heino ja James Bondi hübriid võiks sobida keskpärase märuli kangelaseks, aga õnneks tema sõjaline karjäär jääks tõenäoliselt lühikeseks.

Kas autonoomne relv oleks midagi samasugust? Mis puudutab inimlike tunnete puudumist ja suvalisena näivaid kognitiivseid protsesse, siis praegu arvatavasti küll. Viimasest vallast on näiteid, kus neurovõrgul põhinev tarkvara õppis näiliselt tuvastama maskeeritud tanke metsas, kuid hiljem ilmnes, et tegelikult langetas see otsuseid vastavalt taeva selgusele.[5] Algoritmiliste otsustusprotsesside seast laiemalt meenub piinlik juhtum, kus Facebook küsis kasutajatelt, kes olid vaadanud mustanahalisi mehi kujutanud videoid, kas nad soovivad näha veel klippe primaatidest.[6] Sarnaselt kõigi muude niisuguste süsteemidega kalduks ka autonoomne relv võimendama ajaloo jooksul omandatud oskusi ja teadmisi, aga ka eksiarvamusi ja vigu.

Kuna mistahes autonoomne süsteem kalduks pigem uskuma kui kahtlema, st ülehindama olemasolevate tõendite olulisust ja alahindama puuduvate tõendite tähtsust, siis on inimlik järelevalve oma intuitiivsuse, emotsionaalsuse ja süvenemisega hädavajalik. Kõige dramaatilisem ja sageli tsiteeritud näide sellest, kuidas inimlik kahtlus võib maailma päästa, pärineb 1983. aastast, mil Nõukogude Liidu valveohvitser Stanislav Petrov sai satelliitseirel põhinevalt eelhoiatussüsteemilt valesignaali, et Ameerika Ühendriigid on välja saatnud viis ballistilist raketti, kuid jättis mingi sisetunde ajel sellest raporteerimata ja hoidis nii ära tuumasõja. Ameerika Ühendriikide mereväelaev USS Vincennes aga tulistas 1988. aasta 3. juunil alla Iran Airi reisilennuki, mille pardal viibinud 290 inimest hukkusid. Kuigi nii lennuki trajektoor kui ka edastatud identimissignaal viitasid, et tegu on tsiviillennukiga, liigitas laeva arvutisüsteem selle hävitajaks ning pardameeskond lähtus viimasest. Selle juhtumi najal on hiljem selgitatud nii tehnoloogia usaldamisega kaasnevaid riske[7] kui ka vajadust veel targemate ja iseseisvamate relvasüsteemide järele.[8]

Mõlemad juhtumid leidsid aset oludes, kus inimese ja tehnoloogia suhe oli teistsugune – veidi skeptilisem. Tollal veel ei küsitud arvutilt nõu ei võõras linnas navigeerides, õhtuks filmi valides ega oma tervislikke harjumusi kujundades. Täisautonoomne süsteem poleks jätnud võimalust kahelda ja praegustes tingimustes me ehk ei oskaks seda enam nõudagi. Kas meid ähvardab seetõttu oht, et võitlejaid konfliktikoldes või rahumeelseid tsiviilisikuid ründab juba homme parv kontrollimatuid autonoomseid kamikaze-droone? Ilmselt mitte, aga pisut ärevaks teeb see, kui võimupositsioonil sõjaväelased, poliitikud või tehnoloogid korrutavad, et nemad ennustamisega ei tegele, kuid ka paanikaks polevat põhjust. Ennustamisel on teenimatult halb maine ja olemasolevate reeglite amorfsus uute oludega kohanemisel ei ole lõputu. Näiteks võib üsna julgesti ennustada, et kui osutub võimatuks mõtestatud ja pühendunud inimlik kontroll, mis annaks aega rünnaku nüansside läbikaalumiseks ning vajaduse korral ka rünnaku otsustavaks lõpetamiseks, siis tuleb tulevikurelvadesse sisse kirjutada kogu sõjapidamise reeglistik koos selle eetilise ning ajaloolise taustsüsteemiga. See ei tundu realistlik, mistõttu tasuks siiski panustada inimlikule kontrollile.

[1] Путин: лидер в сфере искусственного интеллекта станет властелином мира. RIA Uudised, 01.09.2017.

[2] V. Wadhwa, A. Salkever, Killer Flying Robots Are Here. What Do We Do Now? Foreign Policy, 05.07.2021.

[3] M. Ekelhof, Autonomous Weapons: Operationalizing Meaningful Human Control. ICRC Humanitarian Law and Policy blog, 15.08.2018, https://bit.ly/3FB55YP.

[4] Haagi II konventsioon, Convention (II) with Respect to the Laws and Customs of War on Land and Its Annex: Regulations Concerning the Laws and Customs of War on Land. Haag, 29.07.1899, preambul.

[5] E. Yudkowsky, Artificial Intelligence as a Positive and Negative Factor in Global Risk, rmt-s: Global Catastrophic Risks. Toim. N. Bostrom, M. M. Ćirković. Oxford, 2006, lk 323.

[6] Facebook Apology as AI Labels Black Men ‘Primates’. BBC News, 09.09.2021.

[7] Vt nt C. A. Pfaff,  The Ethics of Acquiring Disruptive Technologies. PRISM, 2010, kd 6, nr 3, lk 140.

[8] Vt nt R. Work, Principles for the Combat Employment of Weapon Systems with Autonomous Functionalities. Center for a New American Security, 28.04.2021.


Comments

Lisa kommentaar

Sinu e-postiaadressi ei avaldata. Nõutavad väljad on tähistatud *-ga

Vikerkaar