Kot se spominja dneva spominov vsako leto, vojna ne mine.
A vseeno se spremeni. In eden bolj globokih premikov, ki jih bomo videli v prihodnjih letih, je vojaštvo, ki je vse bolj odvisna od robotov. Droni zdaj dobijo največ pozornosti, a vse več novosti obrambnega ministrstva predstavljajo druge vrste brezpilotnih strojev, od poskusnih zrakoplovov do vojakov na terenu.
Privlačnost je enostavno razumeti. Uporaba robotov je potencialno učinkovitejša, natančnejša in cenejša kot zanašanje samo na ljudi v vojni. In to bi seveda pomenilo tudi manj človeških žrtev.
Toda ta preobrazba s seboj prinaša kompleksen izziv: Ali so vojaški stroji lahko programirani za sprejemanje odločitev? Kar vodi k lepšemu vprašanju: Ali se lahko roboti naučijo morale?
Ameriški urad za pomorstvo raziskuje, da je zdaj čas, da to ugotovimo. V začetku tega meseca je objavila petletno donacijo v višini 7, 5 milijona dolarjev za financiranje raziskav na univerzah Tufts, Brown, Yale in Georgetown ter na Politehničnem inštitutu Rensselaer (RPI) o tem, ali se lahko stroji nekega dne odločijo za napačno.
Mornarica se želi izogniti situaciji, s katero se zdaj sooča Googlov avtomobil brez voznikov: tehnologija, ki je sproščena daleč pred kakršno koli jasnostjo glede pravnih in etičnih vprašanj, ki jih postavlja. Preden avtonomni roboti odidejo na teren, vojska želi vedeti, ali se lahko dejansko naučijo narediti pravilno.
Kot je ugotovil Selmer Bringsjord, vodja oddelka za kognitivne znanosti RPI, bi lahko umetno inteligenco robota zasnovali tako, da deluje na dveh ravneh morale. Prva bi temeljila na kontrolnem seznamu jasnih etičnih odločitev, na primer "če naletite na ranjenega vojaka, bi mu morali pomagati." Toda kaj, če to dejanje nasprotuje njegovi osnovni misiji, na primer dostavi streliva, ki ga kritično potrebujejo drugi vojaki? Takrat, pravi Bringsjord, bi moral robot imeti sposobnost vključevanja v "globlje moralno razmišljanje" za sprejemanje odločitev v situacijah, ki jih njegovi programerji morda ne bi mogli predvideti.
Raziskovalci bi morali razviti edinstvene algoritme in računske mehanizme, ki bi jih lahko vključili v obstoječo arhitekturo avtonomnih robotov, "miselni proces", ki bi omogočil, da stroj preglasi načrtovano vedenje, ki temelji na njegovi zmožnosti uporabe moralnega sklepanja.
Če se to zdi izredno ambiciozno, je tako. Za začetek bodo morali raziskovalci izolirati osnovne elemente človeške morale - na katerih načelih se vsi strinjamo? - in nato ugotoviti, kako jih vključiti v algoritme, ki bi robotom dali določeno stopnjo moralne usposobljenosti.
To ni majhen podvig. Zaradi tega je verjetno, da bodo stroji, ki jih človek ne nadzoruje, v doglednem času omejeni na nebojne vloge, kot so nadzor, varnost, iskanje in reševanje ali zdravstvena oskrba. Toda neizogibno bodo vojaški načrtovalci želeli odgovor na vprašanje, ki visi nad vsem tem: Ali bi morali roboti, ki delujejo sami, kdaj dovoliti, da ubijejo človeka?
Če je stroj 90-odstotno prepričan, da je terorist vsak v vozilu, ki ga namerava streljati, je to dovolj? Bi lahko robot izstrelil orožje na otroka, če ugotovi, da je sovražnik? Če gre kaj narobe in avtonomni robot napačno razstreli vas, kdo je odgovoren? Poveljnik, ki je ukazal operacijo? Oseba, ki je programirala robota? Ali pa nihče?
Če menite, da je to še vedno del znanstvene fantastike, upoštevajte, da so se v začetku tega meseca na konferenci Združenih narodov v Ženevi strokovnjaki za teme, ki segajo od umetne inteligence do človekovih pravic do mednarodnega prava, tehtali na "morilskih robotih". Skupine, kot so Human Rights Watch in uradniki iz petih držav, vključno s Pakistanom, Egiptom, Kubo in Vatikanom, so pozvale k dokončni prepovedi robotov s pooblastilom za ubijanje. Toda večina držav, zlasti tiste z najbolj naprednimi roboti, še ni pripravljena iti tako daleč.
Oglejte si na primer WildCat, ki je bil razvit štirinožni robot, ki poganja velike hitrosti po vseh vrstah terena.
Za zdaj ameriška vojska sledi direktivi obrambnega ministrstva iz leta 2012, da noben stroj z močjo ubijanja ne more biti popolnoma samostojen. Človek mora dobesedno poklicati strele. A to morda ne drži za vse kraje: marca je New Scientist citiral ruskega uradnika, ki je dejal, da bodo robotski stražarji na petih napravah balističnih izstrelkov lahko zaznali in uničili cilje, ne da bi človek dal prednost.
Folon-Miller Talon, ki ga vidimo spodaj, je eden od številnih strojev po vsem svetu, ki se razvijajo za boj.
Pravila vojne
Poročilo o konferenci o morilskih robotih bo novembra predloženo odboru ZN za določeno konvencionalno orožje. Vendar se zdi, da prepoved ne pride kmalu.
Med tistimi, ki so se pridružili razpravi v Ženevi, je bil tudi Ronald Arkin, strokovnjak za umetno inteligenco iz Georgia Tech, ki je že dolgo zagovornik tega, da bi stroji lahko sprejemali moralne odločitve. Verjame, da če bi se roboti lahko naučili slediti mednarodnemu pravu, bi se v vojni dejansko lahko obnašali bolj etično kot ljudje, ker bi bili neprimerno dosledni. Ne bi mogli odgovoriti z jezo ali s paniko ali predsodki. Torej Arkin nasprotuje prepovedi, čeprav je odprt za moratorij na avtonomno orožje, dokler stroji ne dobijo možnosti, da ugotovijo, ali lahko obvladajo vojna pravila.
Drugi znanstvenik iz AI, Noel Sharkey, ki je o Arkinu razpravljal v Ženevi, je zelo drugačnega mišljenja. Ne verjame, da bi roboti nikoli smeli imeti pooblastila za sprejemanje odločitev o življenju ali smrti.
Pred kratkim je povedal Defense One : "Mislim, da ne bodo nikoli končali z moralnim ali etičnim robotom. Za to moramo imeti moralno agencijo. Za to moramo razumeti druge in vedeti, kaj pomeni trpeti. "
"Morda je nameščen robot z nekaterimi etičnimi pravili, vendar to res ne bo zanimalo, " pravi.