kunstig intelligens

116 studenter felt for KI-fusk i fjor. Særlig én ting avslørte dem

Stadig flere studenter blir tatt for å fuske med kunstig intelligens.

I fjor behandlet Nemndene for studentsaker ved de statlige høgskolene og universitetene 145 saker der studenter var mistenkt for å fuske ved hjelp av kunstig intelligens. De fleste ble felt. Bildet er et illustrasjonsfoto fra Universitetet i Oslo.
Publisert Sist oppdatert

Norske studenter har kastet seg over kunstig intelligens (KI). Fire av fem bruker det i studiearbeidet sitt, ifølge undersøkelsen Studiebarometeret som kom i februar. 

FAKTA

KI-fusk i 2024

  • Universitetet i Bergen: Totalt seks studenter felt, hvorav  tre ble utestengt i to semestre og tre utestengt i ett semester. (I tillegg til at besvarelsen ble annullert. Alle som blir felt for fusk får besvarelsen annullert). 
  • Universitetet i Stavanger: Seks studenter felt, hvorav fire utestengt i to semestre og to i ett semester.
  • Universitetet i Oslo: 34 studenter felt. 21 utestengt i to semestre, 12 i ett semester og én fikk kun annullert besvarelsen.
  • Universitetet i Sørøst-Norge: 18 felt, hvorav 16 utestengt i to semestre og to i ett semester.
  • UiT: Tre felt, hvorav én student ble utestengt to semester og to studenter i ett semestre.
  • Universitetet i Innlandet: Fire felt, hvorav tre utestengt i to semestre og en i ett semester.
  • OsloMet: Fem felt, hvorav tre utestengt i to semestre, én utestengt i ett semester og én kun annullert.
  • Høgskulen på Vestlandet: Behandlet fem saker med mistanke om KI-fusk, men felte ingen.
  • Høgskolen i Østfold: Fem studenter ble felt, alle ble utestengt i to semestre.
  • Norges idrettshøgskole: To studenter felt, begge utestengt i to semestre.
  • Nord universitet: To studenter felt, hvorav én ble utestengt i to semestre og én i fire semestre.
  • NMBU: Seks studenter felt, hvorav alle kun fikk besvarelsen annullert .
  • NTNU: 10 studenter felt, hvorav fem ble utestengt i to semestre og fem i ett semester 
  • Universitetet i Agder: 15 felt, hvorav fire i to semestre, én i ett semester og 10 kun besvarelsen annullert .

Har ikke hatt noen KI-saker: Norges handelshøyskole, Arkitektur- og designhøgskolen i Oslo, Politihøgskolen, Kunsthøgskolen i Oslo og Samisk høgskole.

Studenter som blir felt for fusk, kan klage til det nasjonale klageorganet Felles klagenemnd. Khrono har ikke oversikt over hvor mange av disse sakene som har blitt klaget hit, og om noen av vedtakene ble endret av klagenemnda. 

I alt oppgir institusjonene å ha behandlet 145 saker der det var mistanke om fusk ved hjelp av kunstig intelligens i 2024. Private høgskoler er ikke med i oversikten.   

Flere saker handlet om flere typer fusk, og ikke bare fusk med kunstig intelligens. 

I noen vedtak fastslår ikke nemndene direkte at studenten har fusket med KI, men nøyer seg med å si at det for eksempel er oppdiktede referanser.

Men noen er litt for ivrige.

Khrono har hentet inn tall og vedtak for 2024 fra klagenemndene ved nesten alle statlige universiteter og høgskoler — totalt 19 institusjoner — der studenter har vært mistenkt for å fuske ved hjelp av KI.

De viser at:

  • Totalt ble 116 studenter felt for fusk i disse sakene. 
  • Av disse ble 68 utestengt i to semestre. 
  • Bare 21 studenter ble frikjent.

Se alle tallene i faktaboksen.

Tallene har økt kraftig siden Khrono talte opp sist. Da fant vi at 66 studenter hadde blitt felt for KI-fusk i perioden august 2023 til august 2024. 

Og da Khrono gjorde en opptelling i august 2023, hadde bare tre studenter blitt felt siden ChatGPT ble lansert i november 2022. 

Dette avslører studentene 

Særlig én ting er med på å avsløre studentene:

Uregelmessigheter med kildene, for eksempel oppdiktede eller mangelfulle referanser, går igjen i flertallet av sakene Khrono har fått innsyn i.

Professor i kunstig intelligens Morten Goodwin ved Universitetet i Agder er ikke overrasket over dette.

— ChatGPT-3 og til en viss grad ChatGPT-4 er utrolig dårlig på kilder, sier Goodwin.

Han påpeker at språkmodellene ikke er oppslagsverk, men laget for samtaler. Akkurat som i samtaler mellom mennesker, formulerer de seg underveis.

Da kan de komme med referanser som er «omtrent riktige». Men det kan også være de dikter opp referanser eller hevder de sier ting de ikke sier, forteller Goodwin. 

Portrett av Morten Goodwin i campusmiljø
KI-professor Morten Goodwin på Universitetet i Agder, campus Grimstad.

I noen av fuskesakene er det en lang liste med gale kilder, i andre saker er det noen få. 

Fusket består gjerne av mer enn at bare tull med kilder, men er ofte kombinert med at store deler av besvarelsen er generert av kunstig intelligens. 

 Her er noen eksempler på fuskesaker:

Diktet opp nettside og forfatternavn 

På en mappeeksamen i et historieemene, som bestod av tre særoppgaver, ved Universitetet i Oslo hadde studenten oppgitt flere kilder som sensor ikke fant. 

Studenten skrev blant annet om fascisme og revolusjon i Norge.

Studenten hevdet å ha hentet partiprogrammet til Nasjonal samling på nettsiden nasjonalsamling.no, en nettside som ikke finnes. 

Fakultetet fant i alt 14 fiktive kilder.

Studenten refererte til bøker og forfattere som ikke fantes. Eller forfatternavn kunne være reelle, men bøkene oppdiktet. 

For eksempel refererte studenten til side 26 og 27 i boka «Arbeiderbevegelsen i Norge: Fra Rørosstreiken til velferdsstaten» på Universitetsforlaget, av forfatter Lars Westrum Berger. Men forfatteren og boka finnes ikke.

I tillegg påpekte sensor at selve teksten også var overfladisk, og trolig framstilt av en KI-modell.

Studenten forklarte seg ikke i saken. Nemnda var ikke i tvil om at dette var fusk. Studenten fikk annullert sin besvarelse og ble utestengt i to semestre.

Fant ikke to referanser 

I besvarelsen til en OsloMet student stusset sensor over at studenten brukte et begrep som ikke var å gjenfinne i litteraturhenvisningen. Store deler av innholdet manglet kildehenvisninger. 

Dessuten klarte ikke sensor å gjenfinne to av referansene. Sensor konkluderte med at de to kildene var oppdiktede, og mistenkte at studenten hadde brukt KI til dette. 

Studenten erkjente at hen burde vært grundigere med kildehenvisningene. Studenten hevdet å ha søkt på nett og fått hjelp av en venn til å finne kilder, men kunne ikke svare konkret på hvor kildene kom fra. De fiktive kildene kunne like gjerne kunne skyldes slurv, mente studenten. 

Nemnda mente at studenten hadde fusket forsettlig, men ga bare ett semesters utestengelse i stedet for to, på grunn av lang saksbehandlingstid.

Diktet opp egne arbeider fra 2006

En NTNU-student ble tatt for å levere en eksamensbesvarelse med flere referanser til kilder som ikke eksisterer eller sitater som ikke kunne gjenfinnes i kildene.

Studenten henviste blant annet til det hun hevdet var hennes egne arbeider fra 2006. Men de to kildene eksisterte ikke. 

Studenten hevdet hun skrev hele teksten selv og brukte originale kilder, men hun brukte ChatGPT til å korrigere språk, noe som førte til kilder og årstall ble endret, forklarte hun.

Studentnemnda kjøpte ikke forklaringen og utestengte henne i to semestre for fusk. Den fant det skjerpende at hun også i 2021 ble tatt for fusk i tre ulike fag. 

Ikke uvanlig å bruke kilder feil 

KI-ekspert Morten Goodwin minner om at det ikke er uvanlig at studenter bruker kilder feil, uavhengig av ChatGPT.

— Det som ikke er så vanlig, er å skrive kilder som ikke finnes. Det er en veldig sterk indikasjon på bruk av kunstig intelligens, sier han.

Sensorer kan også bli mistenksomme hvis studenter bruker kilder som er langt utenfor pensum. 

Plutselig endrer språket seg 

Et annen tegn på urent mel i posen er hvis deler av samme besvarelse ser ulike ut i skrivestil eller kvalitet.

Det er mange eksempler på det i fuskesakene Khrono har sett, men ofte i kombinasjon med andre indikasjoner på fusk. 

Dette er noe også professor Oddveig Storstad på lærerutdanningen ved NTNU har sett en del av.

— Plutselig ser jeg at teksten blir i et annet språk. Det gjør meg mistenksom. Men det er ikke noe jeg kan gjøre med det, sier den erfarne sensoren.

For dette holder ikke som bevis på at noen har fusket. 

— Så da sitter du der da, og bare «ja, ja, sånn har det blitt». 

Oddveig Storstad sensurerer arbeidene til lærer-, sosiologi- og statsvitenskapsstudenter.

— Fryktelig demotiverende 

Hun har ikke noe annet valg enn å slippe teksten gjennom, selv om hun kan ha en sterk mistanke om at deler av teksten er generert ved hjelp av kunstig intelligens.

— Det er fryktelig demotiverende, rett og slett. For du vet ikke hvem det er du sensurerer. Er det en student eller er det kunstig intelligens? 

Det er svært få slike saker hun har meldt videre, forteller hun. 

— Jeg har gjort det der jeg har vært sikker, eller så sikker som du kan være. Men det er ikke lett. Du vet også at du setter i gang et helt apparat, og det krever utrolig mye ressurser. Det krever også veldig mye ressurser av oss som sensorer å finne ut av dette. Det er tid vi ikke får betalt for, sier hun. 

Storstad mener man må slutte med hjemmeeksamener, i hvert fall hvis det ikke suppleres med muntlig eksamen. 

Hvor går grensen? 

Universitetene og høgskolene har regler og retningslinjer for bruk av kunstig intelligens. Noen har det eksplisitt i sin eksamensforskrift.

Ved Universitetet i Innlandet står det for eksempel i forskriften at det er fusk å «presentere innhold som er frembrakt ved hjelp av kunstig intelligens eller annen teknologi som sitt eget arbeid».

Andre, som Universitetet i Bergen, nevner ikke KI eksplisitt, men dekker det gjennom generelle regler om fiktive kilder og å framstille arbeidet som mer selvstendig enn det er.

I tillegg kan den enkelte eksamensoppgave ha mer konkrete bestemmelser om KI-bruk.

— Hvor presist tror du studenter og sensorer klarer å trekke disse grensene i praksis?

— Det tror jeg er utrolig vanskelig. For det første er det ikke veldig fastlagte grenser, som at «her får du lov til å bruke det og her får du ikke lov». Noen av retningslinjene vi har, er at du kan bruke det til språkvask, men ikke til å skrive innholdet. Men hvor går grensen? spør Morten Goodwin.

Som Khrono har skrevet om før, manglet Nord universitet fram til i fjor høst et klart forbud mot å levere KI-genererte tekster, og universitetet frikjente derfor studenter som leverte tekster med blant annet falske kilder. 

Også ved NMBU ble to masterstudenter tatt for å ha diktet opp kilder, men slapp med en advarsel blant annet fordi reglene var uklare. 

Spår at det blir enda vanskeligere å oppdage 

Morten Goodwin mener uansett at falske kilder er på vei ut, ettersom KI-modellene blir bedre. 

— Dette har endret seg ganske voldsomt med de siste versjonene av språkmodellene. I det som heter versjon o1, som er den nest siste, og 03, som er den siste, er slike hallusinasjoner, som at den finner på referanser, nesten ikke til stede lenger, sier han. 

— Disse studentene har sikkert ikke brukt den siste versjonen, for den koster rundt 2000 kroner i måneden. Men det at kunstig intelligens lager falske referanser, er snart en saga blott. I år er dette kanskje en måte å oppdage det på, men til neste år tror jeg det nesten ikke er noe av dette.

Powered by Labrador CMS