Hva slags dømmekraft og forståelse vil en drapsrobot kunne ha? Utviklingen av en etisk maskin vil være svært vanskelig, og forskere vet ikke hvordan de skal gjøre det.
Kjetil Holtmon Akø diskuterer i et innlegg datert 5. mars noen av problemstillingene jeg tok opp i en tekst om drapsroboter og politisk kontroll. Akø problematiserer min påstand om at drapsroboter ikke vil kunne operere i henhold til folkeretten, og mener at bruk av denne typen våpensystemer ikke nødvendigvis vil være å gi fra seg kontroll. Det er flott å få mer debatt rundt denne tematikken, og jeg vil her prøve å klargjøre noen av de uklarhetene mitt siste innlegg kan ha inneholdt.
LES OGSÅ: Kontroll over «drapsroboter»
Krigens regler
Jeg tror altså at det vil være svært utfordrende å utvikle en drapsrobot som er i stand til å operere i tråd med folkerettens regler. Det er flere grunner til dette.
Det er problematisk å programmere roboter med fornuft og dømmekraft, som er avgjørende for å foreta de vurderingene rundt proporsjonalitet og militær fordel som internasjonal humanitærrett krever. Vil en drapsrobot kunne skille mellom et lovlig og et ulovlig militært mål i en kontekst hvor de stridende ikke bruker uniformer og mange sivile er bevæpnet, slik tilfellet er mange steder i verden i dag? Og vil en drapsrobot kunne avgjøre når en soldat er såret eller har overgitt seg? Slike vurderinger avhenger blant annet av forståelse for kroppsspråk, ansiktsuttrykk, toneleie osv. Det er uklart om en maskin vil kunne programmeres med den typen dømmekraft som slike vurderinger er avhengige av.
En vurdering av hva som er et lovlig mål må også inkludere overveielser rundt forventet sivil skade som følge av et angrep. Systemet må også kunne vurdere den forventede militære fordelen oppnådd gjennom angrepet, noe som er svært vanskelig å programmere, og veie dette opp mot forventet sivil skade. Disse vurderingene må gjøres på bakgrunn av situasjonen når angrepet finner sted, ikke når våpensystemet deployeres, og det er derfor utfordrende å programmere dette på forhånd. Mens sjakkens regler, som Akø referer til, er enkle og i svært liten grad åpner for tolkning, er respekt for krigens regler avhengig av kontekstuell forståelse, tolkning av menneskelig intensjon og avveining av risiko og fordel. Mange robotforskere ser det som svært utfordrende, om ikke umulig, å programmere et våpensystem som kan operere på grunnlag av slike faktorer.
LES OGSÅ: Politisk kontroll over roboter, men ikke drapsroboter?
Kontroll og ansvar
Eksperter på internasjonal rett har påpekt at det under folkeretten ikke er selvsagt at en offiser som beordrer bruk av, eller en operatør som bruker, en drapsrobot, kan holdes direkte ansvarlig for et overgrep, så lenge det ikke kan bevises at disse hadde en intensjon om å begå et overgrep, eller opptrådte uvørent. Det er heller ikke selvsagt at en offiser høyere oppover i kommandokjeden kan holdes indirekte ansvarlig for overgrepet dersom vedkommende ikke visste om eller burde visst om at hans/hennes underordnede var i ferd med å bruke et våpensystem som ville begå et overgrep. Svært komplekse autonome systemer, spesielt systemer med evne til selv-læring og adapsjon, vil oppføre seg på måter vi ikke forstår eller har forutsett. Det kan derfor være urimelig å forvente at en operatør eller en offiser, kanskje med begrenset teknisk kunnskap om autonome systemer, skal forstå at et slikt våpensystem var i ferd med å begå et overgrep.
I tillegg utvikles denne typen plattformer for å reagere og handle raskt, og det leder til spørsmål om en militær eller sivil overordnet hadde reell kontroll over angrepssituasjonen da angrepet ble begått. Dersom situasjonen ikke var under vedkommendes kontroll, enten på grunn av våpensystemets fart eller manglende kunnskap om våpensystemet angrepsmål, kan det være utfordrende å holde vedkommende indirekte ansvarlig.
Når det gjelder menneskelig kontroll over drapsroboter, så er det selvsagt en eller flere personer som har programmert våpensystemet før det brukes. Man kan dermed si at et menneske har vært involvert i å utforme de rammene systemet handler innenfor. Det faktum at et menneske har vært involvert på et stadium i utviklingsprosessen er for meg en svært lite meningsfull type kontroll, sammenlignet med det å ha reell kontroll over våpensystemets angrep i angrepsøyeblikket. Dette vil være spesielt relevant dersom vi snakker om systemer med evne til selv-læring og rask adapsjon (som systemer bør ha, dersom de ikke skal bli forutsigbare og enkle mål for andre lignende systemer), som kan utvikle en adferd som verken er planlagt eller forutsett. Det er mulig Akø ikke anser en slik utvikling som en svekking av menneskelig kontroll over våpensystemer, men da må jeg si meg uenig.
LES OGSÅ: Shoot and Detect, Avoid and Forget
Etisk krigføring
Akø uttrykker i sitt innlegg en optimisme for utvikling og bruk av denne typen våpensystemer som jeg dessverre ikke deler. Flere land bruker fortsatt landminer og klasevåpen, til tross for den effekten denne typen våpen har på sivilbefolkningen. Det er flere land som nå utvikler våpensystemer med en høy, og stadig høyere, grad av autonomi, inkludert USA, Storbritannia, Kina, Russland og Israel. Jeg anser ingen av disse som fanebærere for internasjonal rett, og ser heller ingen overbevisende grunn til at de vil bruke eventuelle helautonome våpensystemer med mer respekt for internasjonalt regelverk enn de benytter andre våpen. Dessverre tror jeg såkalte ”dumme” systemer vil benyttes lenge før man eventuelt utvikler en drapsrobot som kan brukes i tråd med folkerettens bestemmelser (hvis dette i det hele tatt skjer). Og da kan situasjonen eskalere raskt. USA har en militær policy (med begrenset verdi med tanke på hvordan et autonomt system defineres i denne) som sier at landet ikke skal bruke helautonome våpensystemer. Men på spørsmål om hvordan USA ville reagert dersom et annet land hadde begynt å bruke denne typen våpen, åpnet Robert Works, viseforsvarsminister under Obama og Trump, for at USA ville gjøre det samme. I en slik situasjon vil militære hensyn etter alt å dømme veie tyngre enn kravet om at drapsroboter skal utvikles til et nivå hvor det anses som sikkert at de vil kunne operere i tråd med folkeretten.
Som Akø nevner er det selvsagt slik at en drapsrobots mangel på følelser kan fjerne frykten, stresset og sinnet som kan få en menneskelig soldat til å begå overgrep. Samtidig betyr det at drapsroboten mangler dømmekraften og empatien som gjør et menneske i stand til å spare en fiendes liv ut i fra medfølelse. Menneskelige soldater har også evne til å nekte å følge en ordre dersom denne anses som ulovlig eller uetisk, mens en drapsrobot kan programmeres til å følge en ordre uansett.
Utviklingen av en etisk maskin vil være svært vanskelig, og forskere vet ikke hvordan de skal gjøre det. Det vil ta lang tid for en robot å lære seg, gjennom observasjon, hva som kan være en etisk riktig handling, og dette krever en forståelse for abstrakte konsepter som ennå ikke er programmerbare. Observasjon og læring av menneskelig adferd i krig vil også medføre en fare for at menneskets overgrep læres og kopieres. Angrep på og overgrep mot sivile er ofte godkjent langt oppover i mange militære systemer. Det er derfor ingen grunn til å tro at denne typen adferd ikke vil programmeres inn i drapsroboter. Da blir problemet at mens menneskelige soldater kan avstå fra slike handlinger av moralske grunner vil drapsroboter ikke ha denne muligheten. Så lenge mennesker ikke kan opptre mer etisk i krig har jeg liten tro på at maskiner vil føre oss i den retningen.