Debatt ● fem ledere ved oslomet

Robotfusk - nye og gamle problemer

ChatGPT er åpent tilgjengelig, pratsom og kanskje litt skremmende – slik ny teknologi gjerne er. Men både problemene robotene skaper i utdanningssystemet og løsningene er mer velkjente enn vi tror.

Utforming av eksamensoppgaver og varierte vurderingsformer kan gjøre det mindre fristende - og vanskeligere - bruke en robot til å avlegge eksamen for en.

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

Å få eksamensbesvarelser fulle av chatbottekst som ikke reflekterer kandidatenes egne tanker og kompetanse er en frykt som deles av mange i høyere utdanning. For oss er det ikke like opplagt at dette er noe grunnleggende nytt som vil endre alt. Muligheten til å få andre til å skrive eksamen for deg, har alltid vært til stede. For oss som vurderer eksamensbesvarelser er det uansett vanskelig å avgjøre hvem som egentlig har skrevet teksten. Og selv i de sakene som først kan se ut som opplagt fusk, er det ikke gitt hvordan man skal bevise det, slik som NTNU erfarte da de nylig tapte forsøket på å bevise fusk i retten.

Vil chatbotene endre hverdagen på universitetene? På OsloMet har vi hittil ikke hatt noen formelle saker med mistanke om bruk av robotsvar. Dette beviser selvsagt ikke at bruk av chatboter ikke forekommer, kun at det ikke har vært avdekket tilfeller som har blitt tatt videre. Kan vi si at kommende robotfusksaker er fusk selv på en eksamen der alle hjelpemidler et tillatt? Ja, selvsagt: Det er aldri lov å presentere tekst du ikke selv har skrevet som din egen. Det gjelder enten det er en robot som har skrevet svaret, en velmenende onkel som har skrevet for deg, eller en kilde du siterer uten å oppgi hvem som har skrevet den. Saker om robotfusk bør behandles på lik linje med andre saker hvor det avdekkes at studenter ikke har skrevet eksamen selv. Samtidig er det lov å lære underveis i eksamensarbeidet, også av chatboter. Å vurdere tekster skrevet av chatboter kan være en nyttig øvelse.

Belyser avanserte chatboter en svakhet som allerede eksisterte i vurderingsarbeidet vårt? Å gi studentene en oppgave som er formulert som en tradisjonell skoleeksamensoppgave og be dem om å gjøre det hjemme, uten å samarbeide, har aldri fungert spesielt godt. Under pandemien økte omfanget av hjemmeeksamener, og antall fuskesaker ble femdoblet. Fuskesakene koster tid og ressurser for universiteter og høyskoler. Og viktigere: Å gå gjennom en fuskesak er en belastende situasjon for studenten, både hvis anklagen om fusk er rimelig og proporsjonal og hvis den ikke er det.

Løsning på fusk kan virke enkel: Vi må avsløre fusk og sanksjonere når vi oppdager det. Slik vi har stoppet plagiering før, bør vi stoppe robotfusk nå. Problemet er at avdekking og sanksjonering aldri har vært en patent løsning.

For det første er fuskesaker vanskelige å avdekke. For det andre er det i praksis vanskelig å trekke en klar grense mellom samarbeid og plagiering. Erfaring fra universitetspedagogiske kurs viser at selv underviserne er i tvil. For det tredje vil også sakene som avdekkes, og tilsynelatende er ubestridelig fusk, være vanskelige å få gjennom uten lange prosesser, slik våre undervisere tidligere har beskrevet. Vi skal fortsatt sanksjonere fusk der det er nødvendig, men må samtidig innse at rutinene for fuskesaker ikke kan bli helt enkle og smidige så lenge man også må sikre grundig dokumentasjon og studentenes rettsikkerhet.

Lenge før chatbotene kom har det vært grunn til å finne andre løsninger på fusk enn sanksjonering. Mye tyder på at vi må ta årsakene, ikke symptomene. Innsatsen bør først og fremst rettes mot å hindre at fusk fremstår som et dårlig, men fristende alternativ, ikke på å avsløre elendigheten etter eksamensinnlevering. Vurderingsformer som involverer refleksjon, tilbakemeldingssløyfer, personlige erfaringer og koblinger til arbeidslivet kan både motivere til å lære og gjøre det vanskeligere å plagiere chatboter og andre. Studenter som har tett kontakt med ansatte, som får tilbakemeldinger underveis og er fornøyde med læringsmiljøet lærer mer og henfaller sjeldnere til bevisst fusk. Bevisst fusk er ofte resultat av en opplevd håpløs situasjon med for eksempel stor arbeidsmengde, karakterpress og oppgaver studenten ikke ser hensikten med.

LES VIDERE ETTER ANNONSEN

FÅ NYHETER PÅ MOBILEN
Last ned Khrono-appen!

Download on the App Store Tilgjengelig på Google Play

Chatboten gir deg svar hvis du ber dem beskrive barns språkutvikling, men den er ikke spesielt god hvis svaret også skal knyttes til egne erfaringer fra din praksis i barnehagen, videoen dere har sett i undervisningen og pensum for det aktuelle emnet. En løsning er derfor å lage mer kompliserte oppgaveformuleringer. Alternative vurderingsformer tydelig knyttet til læringsutbytte og som motiverer til jevn innsats gjennom hele semesteret, gir studentene en grunn til å lære. Varierte vurderingsformer gir mindre rom for robotfusk: Muntlig eksamen er et eksempel, og gir også muligheter for grupper som kan slite på skriftlige vurderinger, som studenter med dysleksi.

Å finne gode vurderingsformer som er mulige innenfor ressursene som er tilgjengelige, vil alltid være krevende. Chatbotene begrenser kanskje mulighetsrommet vårt enda mer og representerer en utfordring for universiteter og høyskoler. Men istedenfor å se det som en helt ny og ukjent utfordring, bør vi kanskje innse at robotene får frem en utfordring som alltid har vært der; at mange eksamensformer verken kan garantere for at det er studentens faktiske kunnskap som testes, eller stimulerer til dybdelæring.

De som virkelig har grunn til å frykte chatboter, er kanskje de som lever av å skrive eksamensoppgaver for andre. For dem er dette en reell trussel som trolig kommer til å ødelegge levebrødet. Men akkurat denne næringen som lever av å produsere eksamensfusk, er det ikke sikkert vi skal sørge over tapet av. For oss andre ligner utfordringene fremdeles på de vi allerede hadde: Hvordan kan vi finne måter å vurdere studentene våre på, som både gir en rettferdig vurdering og som gir dem grunn til å lære.

Signert av:

Av Nathalie Hyde-Clarke, Marius Lysebo, Kåre Rønn Richardsen, Finn Aarsæther (prodekaner for utdanning, OsloMet) og Silje Fekjær (prorektor for utdanning, OsloMet)

Powered by Labrador CMS