Kunstig intelligens

EUs nye regler for KI vil påvirke akademia og forskning

EU har vedtatt verdens første juridiske rammeverk som regulerer kunstig intelligens (KI). I Norge jobber Direktoratet for høyere utdanning og kompetanse med tolkning og veileder for norsk akademia.

EU-flagg utenfor Europakommisjonens hovedkvarter
EU har laget verdens første regelverk for utvikling av systemer for kunstig intelligens.
Publisert Sist oppdatert

Brussel (Khrono.no): Den første august trådte EUs nye forordning for kunstig intelligens i kraft. Det juridiske regelverket skal sikre ansvarlig bruk av KI-systemer i tråd med grunnleggende rettigheter. 

I forordningen nevnes akademia og forskning flere ganger, blant annet når det gjelder systemer for opptak til høyere utdanning, rekruttering, evaluering av studenter og overvåkning av skoleeksamener for å forhindre fusk. Det presiseres imidlertid at regelverket ikke skal gjelde grunnforskning. 

Vil føre til byråkrati

Tommy Tranvik sitter i arbeidsgruppen i Direktoratet for høyere utdanning og kompetanse som er i gang med tolkning av betydningen av den nye KI-forordningen for norsk akademia.

Direktoratet for høyere utdanning og kompetanse (HK-dir) har akkurat satt ned en arbeidsgruppe som jobber med å forstå hvilken betydning regelverket vil få for norsk akademia og forskning. 

— Det vil føre til litt jobb for institusjonene som ønsker å bruke disse systemene og enda mer jobb for institusjoner som ønsker å utvikle egne slike KI-løsninger, sier seniorrådgiver Tommy Tranvik i avdeling for digitalisering og informasjonssikkerhet i HK-dir. Han er blant annet ekspert på IT-styring i offentlig sektor. 

— Grunnforskning er stort sett unntatt fra dette regelverket. Men med en gang forskningen skal tas i bruk og ut til offentligheten, så vil regelverket tre i kraft, presiserer Tranvik.

Kronglete regelverk

Han mener den største jobben blir å sette seg inn i regelverket.

— Det er et litt kronglete og vanskelig regelverk. Det kommer til å ta litt tid å forstå hvordan det skal tolkes, sier han.

Direktoratet for høyere utdanning og kompetanse jobber med å få på plass en veileder og ressurser som høyere utdanningsinstitusjoner kan bruke for å forstå og etterleve det nye regelverket.

Basert på risikokriterier

EUs nye KI-regelverk er inndelt i tre risikokategorier: 

  • Minimal risiko: Disse KI-systemene blir ikke berørt av regelverket ettersom de ikke utgjør en risiko for folks rettigheter og trygghet. Eksempler på dette er anbefalingssystemer og spamfilter. 
  • Åpenhetsrisiko: Alt KI-innhold som samhandler med mennesker, som chatbots, må tydeliggjøre at det er en maskin som svarer. Alt KI-innhold, inkludert «deepfakes», skal tydelig merkes.
  • Høy risiko: Alle KI-systemer som faller innunder denne kategorien vil måtte oppfylle strenge kriterier, inkludert risikovurderingssystemer, krav til høy datakvalitet, logging av informasjon, god brukerinformasjon og informasjonssikkerhet. Eksempler er systemer brukt til rekruttering, overvåkning, vurdering om en person kan få banklån, osv.
  • Uakseptabel risiko: KI-systemer som truer folks grunnleggende rettigheter eller sikkerhet blir forbudt. Eksempler på dette er KI som forsøker å påvirke menneskers frie vilje, noen former for automatisert politiarbeid og systemer for følelsesanalyser på arbeidsplasser.
EU-kommisjonens president Ursula von der Leyen og daværende statsminister i Storbritannia Rishi Sunak møttes på AI Safety summit for å diskutere felles regelverk for KI i november 2023.

    — Vil sikre tryggere KI-bruk

EU-kommisjonens talsperson for forskning, innovasjon og digital økonomi, Thomas Regnier, mener at vi trenger en bred regulering av kunstig intelligens på tvers av Europa for å sikre trygg bruk for alle. 

— Dette regelverket vil ikke løse alle utfordringene vi har knyttet til bruk av kunstig intelligens, men med dette regelverket vil universiteter, høyskoler og andre kunne vite at KI-systemer som blir tilbudt i EU, er godkjent av EU og trygge å bruke, sier Regnier til Khrono.

Han legger til: 

— 80 prosent av all KI representer ingen risiko for folk, men andre deler av KI representerer høy risiko. Fremover må disse systemene godkjennes i EU før de kan tas i bruk. Det er et stort fremskritt. 

Når det gjelder bruk av KI innen akademia og forskning, mener han det bør være strenge kriterier. 

— Det må gjøres gode risikovurderinger før systemer som påvirker opptak, vurderinger og rekrutteringer kan tas i bruk. Dette er teknologi som representerer høy risiko og bruken av disse systemene kan få store personlige konsekvenser for enkeltindivider, sier Regnier. 

Ikke hjelp mot hjemmeeksamenfusk

Portrett av Thomas Regnier.
Talsperson for EU-kommisjonen Thomas Regnier.

Foreløpig vil ikke dette regelverket hjelpe universitetene med å løse floken som gjelder studenter og andre som bruker KI for å jukse på innleveringer og hjemmeeksamener.

— Vi vil stadig ha behov for å utvide forordningen til nye området som dekker de utfordringene de ulike institusjonene har, slik at ikke alle håndterer det på ulikt vis. Det er også viktig at institusjoner samarbeider på tvers for å finne felles retningslinjer på slike utfordringer, sier Regnier.

Gradvis implementering

Det blir en gradvis innføring av KI-forordningen. Lovverket for verktøy som er uakseptable å bruke, vil tre i kraft allerede etter seks måneder, deretter vil det gradvis innføres etter alvorlighetsgrad fram til hele forordningen er implementert i august 2026. EU har også lansert en KI-avtale som skal bidra til at flere produsenter av KI-teknologi etterlever regelverket før det er fullt implementert.

Når regelverket har trådt i kraft, vil tilbydere og produsenter som ikke følger regelverket risikere bøter. Det blir opp til hvert medlemsland hvordan de vil håndheve regelverket.

Powered by Labrador CMS