Hoppa till huvudinnehåll

Mördarrobotarna lurar närmare i tiden än du tror: "Beslutet att döda får aldrig överlåtas till en maskin"

Den amerikansks drönaren RQ-4 Global Hawk
Den obemannade amerikanska drönaren RQ-4 Global Hawk utför övervaknings- och rekognoceringsuppdrag. Amerikanska militärer drömmer om drönarsvärmar som kan attackera fienden likt en vargflock. Den amerikansks drönaren RQ-4 Global Hawk Bild: AFP / Lehtikuva robotar,robotteknik,artificiell intelligens,vapen (tekniskt objekt),vapenindustri,drönare (obemannad luftfarkost)

Försämrade stormaktsrelationer, höjda försvarsanslag och stora satsningar på artificiell intelligens gör att en ny generations vapen, de autonoma dödliga vapensystemen, i folkmun mördarrobotar, börjar se dagens ljus. Till sin revolutionerande effekt jämförs de med krutet och atombomben.

Den nya actionfilmen Angel Has Fallen inleds med en sekvens där drönare självständigt attackerar den amerikanska presidenten. Än så länge är detta fiktion.

Men det finns ansiktsigenkänningsprogram, det finns drönare, och det finns, framför allt, artificiell intelligens.

Dödliga autonoma vapensystem (Lethal Autonomous Weapons Systems eller LAWS) utarbetas så att de kan övervaka sin omgivning, identifiera eventuella hot och på basen av en sofistikerad algoritm självständigt fatta beslut att attackera.

USA och Ryssland, men också Kina, Israel, Storbritannien, Frankrike och Sydkorea utvecklar dem i rask takt.

Snabbfakta: Satsningar på autonoma vapen och artificiell intelligens

  • USA:s försvarsministerium Pentagon säger hösten 2018 att man satsar två miljarder dollar för att under fem år utveckla artificiell intelligens inom ramen för DARPA, Defence Advanced Research Projects Agency. Det är den största offentligt kända investeringen i AI hittills.
  • I mars 2019 ber Pentagon kongressen om en nästan tiodubblad budget (från 49 miljoner dollar 2019 till 447 miljoner dollar 2020) för att vidareutveckla obemannade krigsfartyg. Den obemannade trimaranen Sea Hunter som kan befinna sig till havs i månader och spana efter fiendeubåtar presenterades redan 2016.
    • 2012 grundar Ryssland fonden FPI, som är kopplad till Kreml och försvarsministeriet och som ska utveckla ny vapenteknologi redo att tas i bruk 2025-2030.
      • Kina har en trestegsplan för att utveckla AI. 2020 ska landet hålla jämna steg med resten av världen. Betydande genombrott väntas 2025. Kina vill vara världsledande på AI 2030.
        • Det kinesiska ministeriet för industri- och informationsteknologi har uppmanat den kinesiska regeringen att undvika en kapprustning om AI.
          • Sydkorea vill bli världsledande på AI 2022. Redan 2017 hade Sydkorea försvarsroboten SGR-1 vid gränsen till Nordkorea. Med hjälp av rörelsedetektorer, värmekameror och laserstyrning kunde den lokalisera och anfalla måltavlor på tre kilometers avstånd utan mänsklig inblandning.
          • Källa: PAX, FPI, Allt om Vetenskap

          Ur militär synpunkt är fördelarna med autonoma vapensystem flera. En robot kan vara verksam dygnet runt utan att bli trött, sårad eller dödad. Då tekniken utvecklas blir robotarna relativt billiga att producera.

          Med avancerade sensorer kan de programmeras så att de opererar i svärmar eller i flock, på marken, i luften eller under vatten. Amerikanska militärer talar om "vargflockar", "wolfpacks".

          Ryssland har varit vaket när det gäller vad man kan åstadkomma med artificiell intelligens redan länge.

          Artificiell intelligens är inte bara Rysslands utan hela mänsklighetens framtid. Den som tar ledningen på det området blir herre över världen― Vladimir Putin, 2017

          Ryssland utvecklar bland annat robotfordon, som tanken Marker. Marker demonstreras på den här Youtube-videon till ackompanjemang av smittande actionmusik

          Demonstrationsvideon härstammar från den ryska organisationen FPI:s sidor. FPI, Fond perspektivnyh issledovanij, på svenska ungefär "Fonden för framtidsutveckling" är kopplad till Kreml och det ryska försvarsministeriet. Här utvecklas både AI och vapenteknologi.

          Uppdraget är att ta fram nyckelelement för den nya generationens vapen och specialteknologi som ska lägga grunden för det ryska försvaret och andra maktstrukturer i samhället, citeras Putin säga på organisationens nätsidor.

          Marker samarbetar i demonstrationen med en människa, men flera ryska militärer har låtit förstå att Ryssland strävar efter att helt automatisera slagfälten.

          Då vinns striden av den som har de snabbaste robotarna eller som är bäst på att hacka motståndarens datasystem.

          Den ryska humanoida roboten Fedor, eller Skybot F-850
          Den ryska humanoida roboten Fedor, eller Skybot F-850, är den första robot som har varit kommendör på ett ryskt rymdskepp. Då Soyuz MS-14 åkte till den internationella ryndstationen ISS i augusti var det Fedor som övervakade och rapporterade om förhållandena under den annars obemannade rymdfärden. Den ryska humanoida roboten Fedor, eller Skybot F-850 Bild: AFP / Lehtikuva robotar,robotteknik,artificiell intelligens,vapen (tekniskt objekt),vapenindustri

          USA och Ryssland rörande överens - det behövs inga förbud mot autonoma vapensystem

          USA och Ryssland är för en gångs skull sällsynt överens. Ingendera vill ha ett internationellt förbud mot de autonoma vapensystemen och motarbetar varje försök att få ett sådant till stånd.

          Frågan diskuteras både i EU, OSSE och FN. Senast var den på agendan i augusti i Genève, då stater och expertgrupper sammanstrålade till CCW-mötet, konventionen om konventionella vapen, som sammanträder regelbundet.

          Inom ramen för CCW har man tidigare lyckats förbjuda och stigmatisera till exempel landminor, klustervapen och förblindande laservapen.

          Beslutet att döda får aldrig överlåtas till en maskin― Tuuli Vuori, Fredsförbundet

          Men varken USA eller Ryssland har det minsta intresse av att de autonoma vapensystemen ska stigmatiseras. Eftersom CCW bygger på konsensus var det många andra som återvände från mötet djupt besvikna.

          - I sista stund strök man en rad om mänsklig kontroll ur slutdokumentet, säger Tuuli Vuori från Fredsförbundet.

          Fredsorganisationer, människorättsorganisationer, flera stater, forskare och många som arbetar inom it-teknologin anser att möjligheten till autonoma vapensystem bör kvävas i sin linda.

          En robot i förgrunden och aktivister i bakgrunden som demonstrerar mot mördarrobotar framför Brandenburger Tor i Berlin.
          Kampanjen "Stop Killer Robots" har i flera år lobbat för att autonoma vapensystem ska förbjudas innan de blir tillgängliga. Här en demonstration i Berlin. En robot i förgrunden och aktivister i bakgrunden som demonstrerar mot mördarrobotar framför Brandenburger Tor i Berlin. Bild: imago images / snapshot/ All Over Press robotar,kampanjer,Tyskland,Autonoma vapensystem

          - Beslutet att döda får aldrig överlåtas till en maskin. Det är en etisk och moralisk gräns som inte får överskridas. Hur ska de nya vapnen kunna följa humanitär lagstiftning, hur ska de kunna skilja mellan civila och soldater? säger Vuori.

          Själva teknologin kan också sprida sig, till exempel till terrorister.

          FN:s generalsekreterare António Guterres har upprepade gånger tagit ställning mot autonoma vapensystem och kallat dem omoraliska.

          Finland starkt kritiskt till helt autonoma vapensystem

          Finland är aktivt i alla vapenövervakningsprocesser och deltar regelbundet i CCW:s möten.

          Professor Pekka Appelqvist från Försvarsministeriet är en av landets ledande tekniska experter på mobilrobotik och maskinautonomi. Han öppnar upp den komplexa frågan.

          - Helt autonoma vapensystem finns ännu inte, men teknologin utvecklas hela tiden och vi borde förstå vad artificiell intelligens innebär i ett bredare perspektiv, säger Appelqvist.

          I nuläget utför också den mest avancerade artificiella intelligensen uppgifter som människan bestämmer.

          I framtiden skulle maskinerna ändå kunna göra mycket mer.

          - En maskin som gör självständiga överväganden och fattar egna beslut är inte samma sak som en maskin som med olika grader av autonomi utför en uppgift som har bestämts av en människa, säger Appelqvist.

          I det senare fallet handlar det om hur lång löplina man ska ge åt ett system, sammanfattar Appelqvist.

          Politiskt minerad mark

          De autonoma vapensystemen är politiskt minerad mark. Orden och uttryck har politiserats och vägs på guldvåg.

          Det handlar om att hitta rätt formulering för vilken grad av mänsklig kontroll som behövs, förklarar Appelqvist.

          När det gäller helt autonoma vapensystem är Finlands linje klar.

          - Vi stöder under inga omständigheter hypotetiska autonoma vapensystem, som skulle fungera utan en klart definierad uppgift och tydliga randvillkor för densamma. En människas medvetna beslut i ett tidigare skede av beslutskedjan bör ingå. Kommendörens ansvar för operationen gäller därmed också i framtiden. Det inbegriper etiska överväganden i varje enskilt fall om hur och när vapensystemen ska användas, säger Appelqvist.

          Finland önskar politiskt bindande principer och ett normativt regelverk i den här frågan. I klartext ett gemensamt politiskt dokument om hur man ska förhålla sig till saken konkret. Att få till stånd ett sådant är ändå lättare sagt än gjort, då de viktigaste länderna inte är intresserade av att vara med.

          Teknologiarbetarnas uppror

          Det som gör frågan ytterst besvärlig är att teknologin för autonoma vapensystem är precis samma som den teknologi som kan användas till civila ändamål.

          - Den teknologiska kunskapsbasen för militära och civila applikationer är 1-1, alltså helt samma, säger Appelqvist.

          Den artificiella intelligens som bland andra Pentagon vill utveckla är allt från ansiktsigenkänning till olika inlärningsprogram, det som kallas "deep learning".

          I princip kan ändå vilket som helst hjälpmedel, som till exempel parkeringshjälp då man kör bil, användas för militära syften. På den här videon demonstrerades en robotfågel avsedd för civilt bruk. Samma idé kan ändå vara intressant militärt för till exempel övervakningsuppdrag.

          Robotfågeln väger under ett halv kilo. Den använder GPS och fjärrstyrd kamera och gör en halvautonom flygning.

          Ändå finns en ansvarsdiskussion som teknologijättarna inte kommer undan.

          2018 började 4 000 anställda på Google anonymt protestera mot ett avtal med den amerikanska försvarsmakten om att utveckla AI och maskininlärning för det som kallades Project Maven.

          Det ledde till att Google beslöt att inte designa eller installera applikationer som kan användas i autonoma vapensystem.

          Flera andra teknologijättar som Microsoft och Amazon, Facebook och Apple, har däremot inte gjort motsvarande beslut.

          I synnerhet för Finland, där det teknologiska kunnandet är på topp, är det här en fråga där det gäller att vara alert.

          - Finland och Europa vill ha en etiskt hög standard på AI, säger Appelqvist.

          Gränsen mellan människa och robot

          De etiska frågorna tar inte slut. Många är kanske mer rädda för mänsklig dumhet än för artificiell intelligens. Att skicka ut robotar i stället för soldater sparar människoliv.

          Eventuellt kan man kanske argumentera för att automatiska vapensystem är etiskt försvarbara eftersom de ökar precisionen och på så vis är en vidareutveckling av precisionsvapnen. Men var drar man gränsen?

          - Tiden kan ta slut på riktigt. Vi har redan kommit för långt i utvecklingen. Om några år kan det finns helt autonoma vapensystem, säger Tuuli Vuori.

          Människan är ju också som bekant en irrationell varelse, som kan bli trött och överspänd, behöver sova och äta, vill ha lön för mödan och plötsligt kan fatta ett självständigt beslut stick i stäv med en order. Människan kan vara gränslöst inhuman.

          - Samtidigt har människan en förmåga att intuitivt se saker, som en känslolös maskin inte förmår. Saker har olika sidor, säger Appelqvist.

          Källor: Intervjuer med Tuuli Vuori och Pekka Appelqvist, Arms Control Association, The Guardian, Sipri, PAX, fpi.gov.ru

          Läs också

          Nyligen publicerat - Inrikes