kunstig intelligens
Studentene oppga falske kilder, men slapp straff for fusk
To studenter slapp med en advarsel da de leverte en oppgave med falske kilder diktet opp av ChatGPT. En student ved et annet universitet ble felt for fusk og utestengt i ett år. Nå reagerer Norsk studentorganisasjon på forskjellsbehandlingen.
Taleroboten ChatGPT kan være et nyttig verktøy for studenter,
men er også notorisk upålitelig.
Blant annet kan den finne på å dikte opp kilder som ikke eksisterer.
Er det fusk å levere inn en tekst med slike falske kilder? Ja, vil sikkert mange si, uten betenkningstid.
Men det er også eksempler på at studenter har blitt frikjent, blant annet fordi universitetenes regelverk for kunstig intelligens (KI) har vært uklart.
Norsk studentorganisasjon (NSO) har inntrykk av at studenter forskjellsbehandles.
— Inntrykket vårt er at praksisen rundt KI overhodet ikke er lik. Vi har i lengre tid etterlyst at det må komme på plass nasjonale retningslinjer for KI slik at det er forutsigbart å forholde seg til, særlig med tanke på fusk, sier NSO-leder Kaja Ingdal Hovdenak.
Her er to saker fra det siste studieåret:
Sjekket referansene
Klagenemnda til NMBU (Norges miljø- og biovitenskapelige universitet) behandlet i mai en sak der to masterstudenter hadde levert en felles semesteroppgave i kvalitativ metode.
Under sensuren fant emneansvarlig referanser som ikke kunne identifiseres, og mistenkte derfor fusk ved hjelp av kunstig intelligens. Professoren mente det «ikke er akseptabelt å bygge opp teorikapittelet basert på referanser som ikke eksisterer».
Studentene erkjente at semesteroppgaven hadde to feil referanser, av totalt fem.
De forklarte at de hadde brukt ChatGPT for få opp relevante navn og referanser. Deretter sjekket de opp disse i søkemotoren Google Scholar.
Studentenes advokat anførte at de på denne måten fikk bekreftet at dette er personer som var relevante, og de har da «følt at de har fått en bekreftelse på at referansen er aktuell».
Manglet retningslinjer
Dessuten manglet NMBU retningslinjer for KI-bruk, anførte advokaten. Studentene søkte etter regler og retningslinjer, men fant ikke noe.
Da den lokale klagenemnda behandlet saken, konstaterte den at NMBU hadde mangelfulle regler og hadde gitt utilstrekkelig informasjon om hva som var akseptabel KI-bruk.
Av sakspapirene går det fram at det NMBUs nettside hadde noe informasjon om KI. Handelshøgskolen, der de to studerte, vedtok egne retningslinjer noen uker før studentene leverte.
Klagenemnda trodde på studentenes forklaring om hvordan de hadde brukt ChatGPT:
«Selv om kontrollene i ettertid viste seg utilstrekkelige, finner klagenemnda at studentene har tilstrebet forsvarlig bruk av ChatGPT. Når det likevel skjedde en feil, kan det ikke utelukkende tilskrives svikt i studentenes personlige forutsetninger, men like mye rammebetingelsene de arbeider under», skriver nemnda.
Fikk en advarsel
Videre skriver den at teknologien er ny og universitets regelverk under utvikling, og nemnda la vekt på at de fiktive referansene utgjorde en beskjeden del av oppgaven.
«En enda grundigere kontroll kunne ventelig avklart at de to referansene var fiktive, og dermed vurderes handlemåten som uaktsom. Klagenemnda kan ikke se at studentene har handlet grovt uaktsomt og heller ikke forsettlig».
Det endte med at studentene gikk fri. «Klagenemnda har kommet til at studentene bør få en advarsel» heter det i vedtaket. Det var fusk, men fusket var kun uaktsomt.
Til Khrono sier lederen av nemnda, Karen Eg Taraldrud, at grensen for utestenging går et sted mellom uaktsomhet og grov uaktsomhet.
— Hvorfor er det ikke grovt uaktsomt å levere inn oppdiktede kilder, som du selv ikke har kontrollert at eksisterer og lest selv?
— De hadde jo kontrollert dem mot en annen søkemotor. Men hvis du vil se på forskjellen mellom uaktsomhet og grov uaktsomhet, går vi til straffeloven og ser på hvordan den definerer forskjellen. Det handler om hvor stor grunn det er til å bebreide studenten. Og her syntes vi ikke at studentene kunne bebreides så mye at vi kunne kalle det grovt uaktsomt, sier Taraldrud.
At studentene studerte innovasjon og skrev om ny teknologi, talte også til deres fordel. Da er det nemlig naturlig å være nysgjerrig på ny teknologi. Dette taler for at hensikten med å benytte KI ikke var å fuske, men faglig utvikling, mente nemnda.
«Virket å være oppdiktede»
Denne studenten ved Nord universitet gikk også fri:
I eksamensbesvarelsen var det mye rart med referansene. Referansene i løpende tekst var ikke mulige å etterprøve, da de var ufullstendig oppgitt. Flere kilder i litteraturlista «virket å være oppdiktede», da de ikke var å gjenfinne i tidsskriftene de skulle være hentet fra.
Studenten innrømmet at noen referanser var hentet ved hjelp av ChatGPT.
Studentnemnda konkluderte med at det studenten hadde gjort, ikke kunne regnes som å plagiere andre kilder, «da kunstig intelligens ikke nødvendigvis kan spores til spesifikke kilder».
Videre la den vekt på at det ikke var angitt noen spesifikke retningslinjer for akkurat denne eksamenen:
«Nemnda kan ikke se at det følger av emnebeskrivelsene og / eller eksamensoppgaven at det var et uttrykkelig forbud mot bruk av ChatGPT eller annen kunstig intelligens for å utarbeide eksamenssvar underveis i eksamen. Nemnda er dette kommet til at det ikke foreligger hjemmel i forskrift for å definere bruk av kunstig intelligens som fusk ved denne aktuelle eksamenene slik ordlyden i forskriften er utformet», konkluderte den lokale klagenemnda i mars.
Disse ble utestengt for falske kilder
I andre tilfeller har imidlertid bruk av falske kilder blitt straffet med utestengelse.
Ved Universitetet i Agder (UiA) fant sensor to ikke-eksisterende referanser i en besvarelse. De ble brukt flere steder i teksten og sto i litteraturlisten.
Studenten forklarte at hun brukte ChatGPT for å oversette besvarelsen og for å finne flere kilder. Hun hadde aldri som hensikt å jukse.
«Studenten erkjenner imidlertid at hun burde ha kontrollert kildene som ChatGPT oppga, men det anføres at hun ikke kan klandres for å ha benyttet disse uten nærmere kontroll», skriver universitetets klagenemnd.
Nemnda viste blant annet til at UiAs eksamensregler sier at det er fusk «å benytte kilder i skriftlige arbeider uten tilstrekkelige kildehenvisninger». Dette uavhengig av om det er studenten selv eller KI som har laget henvisningene.
Studenten er selv ansvarlig for innholdet i besvarelsene, understreket nemnda.
At det blant annet var lengre avsnitt der det ble henvist til fiktive kilder, mente nemnda var en indikasjon på ChatGPT ble brukt til mer enn det studenten selv opplyste om.
Studenten ble utestengt i to semestre og fikk besvarelsen annullert.
Rotet det til
I masteroppgaven til en NTNU-student ble det også funnet en rekke kilder som ikke eksisterte. Selv hevdet studenten at han ikke forsøkte å jukse.
Han sa han hadde brukt et program for å behandle referansene, men at det ble for komplisert og at han fortsatte uten å bruke programmet. Han sa han rotet det til, og innrømmet å ikke ha sjekket alle kildene.
NTNUs studieforskrift sier at manglende kildehenvisning kan være fusk.
Nemnda mente studenten bevisst hadde henvist til kilder som ikke eksisterer og /eller brukt kunstig intelligens uten å oppgi dette som kilde. Reaksjonen ble annullering og utestengelse i ett semester. Utestengelsesperioden ble redusert på grunn av lang saksbehandlingstid.
I en annen sak ved NMBU ble også en student felt for fusk for å ha levert falske kilder i en semesteroppgave. Da la nemnda blant annet vekt på at det var en erfaren masterstudent, som også hadde tatt kildehenvisningskurs, og at de falske kildene var i «betydelig omfang». Studenten slapp å bli utestengt, men fikk semesteroppgaven annullert.
Studentleder: — Vanskelig å forholde seg til
Studentleder Kaja Ingdal Hovdenak mener disse sakene viser at det er behov for et nasjonalt felles regelverk som sikrer studentenes rettssikkerhet.
— Det at vi ikke har nasjonale føringer på dette, viser at det er vanskelig både for institusjonene og studentene å forholde seg til regelverket, sier hun.
— Det skal ikke ha noe å si hvilken institusjon du studerer ved for om du blir felt for fusk eller ikke. KI skal ses på som et hjelpemiddel på lik linje med andre hjelpemidler, slik er det dessverre ikke i dag, sier NSO-lederen.