Forskere vil ha forbud mot drapsroboter
Killer robots. 640 akademikere, og blant dem en rekke forskere på kunstig intelligens, krever at norske myndigheter engasjerer seg i kampen for å forby autonome våpensystemer, såkalte killer robots.
OBS! Denne artikkelen er mer enn tre år gammel, og kan inneholde utdatert informasjon.
«Vi som har signert dette oppropet mener at beslutningen om å ta et menneskeliv aldri skal overlates til en maskin, og vil imøtese et forbud mot dødelige autonome våpensystemer», heter det i oppropet som 640 akademikere og teknologer har signert så langt. Kampanjen har offisiell lansering 18.juni.
Det blir blant annet foredrag av Toby Walsh, verdensledene AI (Artificial Intelligence)-ekspert.
..politisk uakseptabelt, moralsk forkastelig og bør forbys gjennom internasjonal lov.
António Guterres
Autonome våpensystemet, også kalt «killer robots», er en Pandoras eske; når den først er åpnet vil den være vanskelig å lukke. Vi bør derfor handle nå, heter det i oppropet,
Flere av verdens nasjoner er inne i et våpenkappløp for å være først og best på såkalte autonome våpensystemer, det vil si våpen som, basert på kunstig intelligens, selv finner målet, styrer seg selv og angriper.
Flere AI-forskere
Ifølge intitativtaker, prorektor for forskning på OsloMet, Morten Irgens, er underskriverne blant andre:
- Over 130 eksperter i kunstig intelligens / robotikk inkludert Klas Pettersen lederen for NORA, styreleder for Nora, Pinar Heggernes, lederen for to AI-labber ved Universitetet i Agder, Ole Christoffer Granmo og Baltasar Beferull-Lozano og leder for robotikklabben ROBIN ved Universitetet i Oslo Jim Tørresen, Også nærmere 140 forskere fra teknologiuniversitetet NTNU.
- 195 med andre kompetanseområder innen teknologi / IKT / ingeniørfag,
- 30 instituttledere og liknende
- 40 senterledere, forskningsgruppeledere og liknende,
Rektorene som så langt har signert er Anne Husebekk på UiT Norges arktiske universitet, Curt Rice på OsloMet, Frank Reichert ved Universitetet i Agder, (samt påtroppende rektor i Agder Sunniva Whittaker), Johann Roppen på Høgskulen i Volda, Arne Krumsvik på Høgskolen Kristiania og Vidar Hånes på MF vitenskapelige høgskole.
«Vi som støtter oppropet gjør det som engasjerte medborgere, og ikke som representanter for våre institusjoner. Vi står sammen med 28 nasjoner, Europaparlamentet og 21 nobelprisvinnere. Vi står også sammen med kollegaer i Belgia, Italia, Australia og Canada, 4 500 forskere innen kunstig intelligens og robotikk og 26 000 andre som har skrevet under på et internasjonalt opprop», heter det i det norske oppropet.
FN-sjefen: Uakseptabelt og moralsk forkastelig
FNs generalsekretær António Guterres var klar i sin tale på en internasjonal konferanse i fjor der han blant annet snakket om kunstig intelligens.
Han mente ifølge Reuters at maskiner med makt og eget skjønn til å ta menneskeliv er «politisk uakseptabelt, moralsk forkastelig og bør forbys gjennom internasjonal lov».
En internasjonal kampanje med krav om internasjonal regulering av draps-roboter har pågått siden 2013.
OsloMets prorektor for forskning, Morten Irgens, er inititativtaker til den norske kampanjen som henvender seg til norske myndigheter og ber dem gå i front for å forby draps-roboter, slik tidligere regjeringer i sin tid arbeidet for et forbud mot klasevåpen.
Kampanjen mot norske myndigheter
Med demokratiseringen av teknologi som foregår nå vil kostnadene med teknologien om noen år være så lav at den fort kan havne i hendene på en despot, ikke-statlige aktører eller terrorgrupper
Morten Irgens
— Hvorfor lage sitt eget opprop og ikke heller støtte den internasjonale kampanjen som allerede har pågått noen år?
— Vi støtter den internasjonale kampanjen. Men denne underskriftskampanjen retter seg direkte mot norsk myndigheter, sier Irgens. Nasjonale kampanjer vil bidra til å mobilisere regjeringer mer direkte. Det tror vi er viktig.
— Forskning på kunstig intelligens kan føre mye bra med seg også, så dere vil vel ikke forby forskningen?
— Absolutt ikke, autonome systemer kan gjøre veldig mye godt, som minerydding, for eksempel sier Irgens, og legger til:
— Men vi ønsker ikke å fjerne mennesker fra avgjørelsen om å ta liv. Vi vil ikke åpne for et forbud om å forske på autonomi. Vi er forskere på avanserte teknologier. Men et internasjonalt rammeverk på bruken av teknologien vil også betrygge mange forskere, sier Irgens.
Han frykter at bruk av autonome våpensystemer både kan aksellere konflikter og redusere terskelen for konflikt.
— Det er både moralske og etiske grunner til å forby slike våpen, de er mildt sagt problematiske i fohold til humanitærretten. Og med demokratiseringen av teknologi som foregår nå vil kostnadene med teknologien om noen år være så lav at den fort kan havne i hendene på en despot, ikke-statlige aktører eller terrorgrupper, sier Irgens.
Han viser også til rapporter om at Russland utvikler en missil som selv kan endre mål underveis, etter at den er skutt ut.
— I tillegg har vi cybersikkerhetsproblemet. Og hva skjer hvis noen hacker seg inn på et autonomt våpen? Som for eksempel en russisk atuonom missil, spør Irgens.
USA og Kina vil i front
Norges fremste allierte, USA, samt Israel, Kina og Russland, er i front på forskning på autonome våpensystemer og ønsker ikke noe forbud mot bruk av disse. USA har tvertimot annonsert etter forskere som ønsker å utvikle slike våpensystemer. Kina haster også med å utvikle det samme. For to år siden satte de seg som mål å være verdensledende innen 20130.
I mars i år gikk også Storbritannia sterkt imot regulering i et møte i FN der autonome våpensystemer ble diskutert.
Russlands president, Vladimir Putin, sa allerede for to år siden at den som blir ledende på kunstig intelligens (AI) vil også bli ledende i verden.
28 land i verden, blant annet atomvåpenmakten Pakistan, samt Brasil, Egypt, Irak og Australia har gått inn for forbud, men ikke Norge.
Eriksen Søreide og Norge skeptiske
Ifølge en spørrerunde i Stortinget i fjor, svarte utenriksminister Ine Marie Eriksen Søreide at Norge er blant landene som er skeptiske til hvorvidt det er mulig å utvikle fullt ut autonom våpenteknologi som vil kunne operere innenfor folkerettens rammer:
«Vårt utgangspunkt er at alle våpentyper som ikke kan anvendes i tråd med humanitærretten, må anses som forbudte, svarte hun dengang.
— Er ikke alt i orden da, Irgens?
— Humanitærretten har ikke satt klare grenser for autonomi i våpensystemer. Virkeligheten endrer seg, og teknologi utvikler seg. Humanitærretten er derfor dynamisk i natur og må tydeliggjøres i møte med ny teknologi. Dette er også grunnen til at FNs generalsekretær har bedt om et tydelig forbud mot slike våpen, sier prorektor Morten Irgens.
Regjeringen har satt igang et arbeid med en nasjonal strategi for kunstig intelligens, her er ikke militær bruk nevnt, enn så lenge.
Forsvaret vil ikke ha slike systemer
Forskningssjef André Pettersen ved Forsvarets forskningsinstitutt (FFI), sier til Aftenposten at autonome våpensystemer ikke er noe som venter rundt neste hjørne.
— Å lage enkle, dumme systemer, som velger mål tilfeldig og ikke tar avanserte beslutninger, trenger ikke være så langt unna. Men militære vil ikke være interessert i våpen de ikke har kontroll over, jeg kjenner ikke til slike prosjekter, sier Pettersen.
Militære vil ikke være interessert i våpen de ikke har kontroll over, jeg kjenner ikke til slike prosjekter.
André Pettersen
Også for autonome våpen vil det være et element av menneskelig kontroll. Noen har programmert dem, noen bestemmer hvordan de skal brukes, mener han.
— Overdriver dere frykten for autonome våpen, slik Pettersen antyder?
— For å ta det siste først: Det er riktig at det er mennesker som bestemmer at man skal bruke et autonomt våpen i en gitt konfliktsituasjon. Men denne våpenkategorien utfordrer militære kommandokjeder, siden våpnene bestemmer selv når og hvordan de vil bruke dødelig makt. Derfor er det også motstand blant fagmilitære mot å ta denne typen våpen i bruk. Våpnene er ikke under meningsfull menneskelig kontroll når de tar en nøkkelavgjørelse, om dødelig makt skal brukes, sier Irgens og legger til:
— Et viktig spørsmål er hva som er meningsfull menneskelig kontroll. Dette diskuteres nå rundt om i verden og er langt fra opplagt. Det er en rekke andre grunner også til at denne våpentypen er uønsket. For eksempel vil den etterhvert bli relativt rimelig og kompakt, og vil lett kunne falle i hendene på ikke-statlige aktører. I sum vil denne utviklingen skape en mer usikker verden. Vi mener derfor at det er i Norges interesse å få på plass tydelig lovgivning raskt, før våpenutviklingen ikke lenger lar seg bremse, sier prorektoren.
I @Morgenbladet i morgen eller på søndag tar jeg til orde for at Haagkonvensjonen må endres slik at autonome våpensystemer - basert på AI - kan reguleres internasjonalt @BakkeJensen https://t.co/6zJrSm0oms
— Dag Rune Olsen (@UiBrector_Olsen) 14. juni 2019
Hva er tilstrekkelig menneskelig kontroll?
Men forskningssjefen i Forsvaret Forskningsinstitutt André Pettersen, mener også at debatten om autonome våpen er komplisert. Ifølge avisen bruker han følgende eksempel: Et autonomt våpen kan brukes til å ramme et krigsskip i åpent hav. Da vil det militære målet være tydelig definert av mennesker, selv om det er våpenet selv som tar beslutningen om å angripe. Men hvis det samme våpenet brukes mot mål midt i en by, blir risikoen for feil en annen.
— Når man ønsker et forbud, handler det om en frykt for at man skal miste kontroll over våpnene eller at våpnene utfører angrep i strid med krigens folkerett. Men hva er et autonomt våpen? Genève-konvensjonene sier at man skal ha tilstrekkelig menneskelig kontroll. Når har man det og når har man ikke det? Det er der debatten står internasjonalt, sier Pettersen i Aftenposten.
Rektor ved Universitetet i Bergen, Dag Rune Olsen, tvitret fredag kveld at også han tar til orde for en internasjonal regulering av bruken av drapsroboter.
Logg inn med en Google-konto, eller ved å opprette en Commento-konto gjennom å trykke på Login under. (Det kan være behov for å oppdatere siden når man logger inn første gang)
Vi modererer debatten i etterkant og alle innlegg må signeres med fullt navn. Se Khronos debattregler her. God debatt!