Debatt ● Odin Hoff Gardå
Digitaliseringsminister på feilspor
Å love bedre, tryggere og enklere tjenester er ikke annet enn naiv KI-optimisme. Den bærekraftige veien mot forsvarlig KI ser ut til å være gjennom forklarlig KI. Troverdige forklaringer vil gjøre mange av de etiske utfordringene mer håndgripelige.
Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
« … [kunstig intelligens] er verktøyet som trengs for å sikre bedre, tryggere og enklere tjenester for alle oss som bor her — nå og i fremtiden.»
Det kan se ut som en reklametekst fra Microsoft, men er faktisk et utsagn fra digitaliseringsminister Karianne Tung (Aftenposten, 14.05.2024). Ministeren har et ambisiøst mål om bruk av KI i 80 prosent av offentlig sektor innen 2025.
Det er forståelig at det nye gullrushet innen kunstig intelligens (KI) er forlokkende. Men forhastet bruk av KI vil ikke sikre noe av det Tung lover her. Økonomisk gunstigere tjenester, kanskje på overflaten. Men å love bedre, tryggere og enklere tjenester er ikke annet enn naiv KI-optimisme.
Det mangler ikke på entusiasmen hos Tung, men hun bommer på målet. Dersom vi ønsker bærekraftig KI, må vi investere mer langsiktig i norsk KI-kompetanse. Med et impulsivt mål om å bli storforbrukere av KI-løsninger vil vi ende opp som KI-tapere på sikt.
Ministeren skriver at hun er redd for å stå igjen på stasjonen når KI-toget går. Men hun er i ferd med å sette seg på feil tog.
Odin Hoff Gardå
Vi kan ikke late som at dagens KI-teknologi er problemfri. Bruk av KI kan gjøre stor skade, til tross for gode intensjoner. Diagnostisering av sykdommer, beregning av forsikringsrisiko og hvordan vi ansetter nye medarbeidere er noen få av mange eksempler på områder hvor KI gjør sitt inntog. At maskiner nå kan løse mange oppgaver raskere og mer nøyaktig enn oss mennesker er bare én side av saken. Lover og regelverk som for eksempel EUs KI-forordning («AI Act») er et steg i riktig retning, men kan ikke på egen hånd løse problemene.
Å forstå hvordan et KI-system kom fram til et svar basert på informasjonen vi puttet inn i systemet er en av de store uløste utfordringene innen KI. Mange populære metoder innen KI omtales derfor ofte som svarte bokser.
Populære tjenester som ChatGPT, Gemini og Copilot er eksempler på ikke-forklarlig KI. Selv om svaret vi får kan framstå overbevisende, vet vi ikke hvordan modellen kom fram til det. Forklarlig KI (eng. «explainable AI») derimot er KI hvor vi til en viss grad kan forstå hvordan svaret ble til.
Forklarlighet er på mange måter den hellige gral innen KI og noe mange prøver å få til. Men selv om det forskes mye på forklarlighet er vi fortsatt langt unna mål. Til og med de mest populære metodene innen forklarlig KI kan bli lurt til å gi uriktige forklaringer selv i svært enkle tilfeller. Dessuten er forklaringene vi får begrensede og uegnet til å løse mange av de etiske utfordringene som oppstår når KI møter omverdenen.
Forklarlighet er på mange måter den hellige gral innen KI og noe mange prøver å få til.
Odin Hoff Gardå
Ukritisk bruk av KI kan blant annet bidra til å opprettholde fordommer og føre til økt diskriminering i samfunnet. Ofte finnes det skjevheter i data med hensyn på faktorer som kjønn, etnisitet, seksuell orientering og andre sensitive personopplysninger.
Disse skjevhetene kan ende opp i algoritmene og derfor bidra til utilsiktet diskriminering i for eksempel ansettelsesprosesser og helsetjenester. Amazon brukte et KI-system som viste seg å favorisere jobbsøknader som inkluderte ord oftere brukt av menn enn kvinner. Et annet eksempel er KI-løsninger for diagnostisering av hudkreft ut ifra bilder. Her har flere metoder vist seg å gi signifikant dårligere nøyaktighet for pasienter med mørkere hudfarger. Men hva med tilfellene som forblir uoppdaget? Mangelen på tilstrekkelig forklarlig KI gjør det vanskelig å oppdage og eliminere slike skjevheter.
Vi må få på plass en bærekraftig KI-politikk så snart som mulig. Det må stilles krav til leverandører og brukere av KI om åpenhet rundt datakilder og metoder. Vi trenger også tydelige retningslinjer for hvordan KI-systemer skal valideres slik at systemene blir så rettferdige som mulig.
Men den bærekraftige veien mot forsvarlig KI ser ut til å være gjennom forklarlig KI. Troverdige forklaringer vil gjøre mange av de etiske utfordringene mer håndgripelige. Forskning på områder som forklarlig og rettferdig KI må prioriteres framfor effektivisering av tjenester. Ved å gå for fort fram risikerer å svekke allmennhetens tillit til KI og tilhørende forskningsmiljøer.
Ministeren skriver at hun er redd for å stå igjen på stasjonen når KI-toget går. Men hun er i ferd med å sette seg på feil tog. Kun gjennom langsiktig investering i norsk KI-forskning og kompetansebygging kan vi bygge et KI-tog som er trygt og bærekraftig.