MÖRDARROBOTAR KAN INTE FÖLJA OCH RESPEKTERA KRIGETS LAGAR

Enligt den internationella humanitära rätten, också känd som krigets lagar, måste alla väpnade aktörer kunna skilja på civila och stridande. Potentiella militära vinster måste vägas mot risken för civila offer och civila ska skyddas i största möjliga utsträckning. För att göra överväganden, analysera intentionen bakom mänskligt agerande och fatta komplexa beslut om exempelvis proportionalitet krävs mänsklig förmåga. Det är något som robotar saknar.

MÖRDARROBOTAR GÖR DET SVÅRT ATT UTKRÄVA ANSVAR

Både krigets lagar och de mänskliga rättigheterna baseras på att individer som begår brott mot den internationella rätten kan ställas till svars för sina handlingar. Redan idag är det svårt att peka ut vem som är ansvarig vid exempelvis drönarattacker som leder till utomrättsligt dödande. I de fall en mördarrobot bryter mot internationell rätt eller kränker mänskliga rättigheter kommer det vara ännu svårare att utkräva ansvar. För vem kan egentligen ställas till svars för oväntade eller oönskade konsekvenser: den krigande staten, programmeraren, den militära befälhavaren eller roboten själv?

MÖRDARROBOTAR KAN LEDA TILL GLOBAL KAPPRUSTNING

Flera stater är redan idag i full gång med att utveckla helt autonoma vapensystem. Så fort ett land lyckas utveckla ett vapen som anses ge militära fördelar kommer andra länder att vilja följa. Den nya teknologin riskerar därmed en ny global kapprustning kring militariserad AI som skulle kunna hota internationell fred och säkerhet.

MÖRDARROBOTAR KAN BLI OFÖRUTSÄGBARA OCH TRAPPA UPP VÄPNADE KONFLIKTER

Mördarrobotar kan leda till oavsiktliga och snabbt eskalerande väpnade konflikter eftersom systemen kan komma att agera och och interagera med varandra i en hastighet bortom mänsklig kontroll. När allt fler länder utvecklar och använder helt autonoma vapensystem, offensiva såväl som defensiva, är det oundvikligt att systemen kommer att interagera och reagera på varandra. Vilka konsekvenserna blir om vapensystem interagerar med konkurrerande fientliga system är vetenskapligt omöjligt att förutse.

MÖRDARROBOTAR KAN INTE VÄGRA ATT BEGÅ DISKRIMINERANDE HANDLINGAR

Helt autonoma vapensystem kan bli ett verktyg för att förtrycka befolkningar och slå ner fredliga protester eller försök till politisk förändring. En robot arbetar utifrån den data den har programmerats med. Därmed finns stora risker att sociala fördomar och partiskhet vävs in eller används i programmeringen, såsom föreställningar om kön, hudfärg och etnicitet, när roboten ska identifiera vem som är fiende. Systemen kan också programmeras till att begå diskriminerande handlingar, exempelvis att selektivt döda en speciell etnisk grupp. En robot är inte kapabel att känna empati eller medlidande och kan, till skillnad mot människor, aldrig vägra att använda vapen mot sin egen civilbefolkning.

MÖRDARROBOTAR KAN LEDA TILL KONSTANTA SLAGFÄLT OCH MILITARISERING AV CIVILA OMRÅDEN

Likt landminor finns det en risk att mördarrobotar kommer att lämnas kvar i konfliktdrabbade områden. Det skulle riskera ett konstant, globalt slagfält med förödande humanitära och psykosociala konsekvenser. Redan nu finns obemannad övervakningsteknologi med förmåga att använda pepparspray, elchockvapen och “mindre dödlig ammunition”, i civila miljöer. Mördarrobotar skulle riskera att öka denna typ av militarisering.