kunstig intelligens

NTNU forbyr bruk av ChatGPT på eksamen. — Nødvendig å nevne det eksplisitt

Utviklingen innen kunstig intelligens skaper hodebry før eksamensperioden starter. Flere utdannings­­institusjonen presiserer nå for studentene hva som er lov og ikke lov.

Prorektor for utdanning ved NTNU, Marit Reitan, forteller at justeringen av eksamensreglementet har blitt nøye diskutert ed NTNU.

Under skoleeksamener bruker NTNU et verktøy som gjør at studentene ikke har tilgang til internett og da heller ikke ChatGPT. Men ved hjemmeeksamen er alle hjelpemidler tillatt, og regelverket for hjemmeeksamen er oppdatert med følgende presisering i avsnittet som omhandler juks og plagiat:

«Det er ikke tillatt å generere besvarelser ved hjelp av kunstig intelligens (Chat-GPT eller lignende) og levere den helt eller delvis som egen besvarelse.»

Prorektor for utdanning, Marit Reitan, forteller til Khrono at vedtaket om ChatGPT, som ble fattet i slutten av februar, er grundig forankret i utdanningsutvalget ved universitetet, der prodekanene ved alle fakultetene og studenttillitsvalgte sitter.

— Justeringen av eksamensreglementet har blitt nøye diskutert. Vi tolket det eksisterende regelverket som omhandler plagiat slik at det også omfatter bruk av ChatGPT, men med tanke på all oppmerksomheten dette nye verktøyet har fått, mente vi at det var nødvendig også å nevne det eksplisitt i reglementet, forklarer Reitan.

Hun understreker at det å bruke ChatGPT på samme måte som man bruker for eksempel en søkemotor eller andre tillatte hjelpemidler under hjemmeeksamen, er lovlig.

— Forbudet handler om at studentene ikke kan levere tekst som framstår som egenprodusert, men som helt eller delvis er produsert av kunstig intelligens. Vi mener at dette angir en tydelig grense, sier Reitan.

Ingen endring

Khrono har sendt ut spørsmål til statlige universiteter og høgskoler om de har gjort endringer i eksamensreglementet som følge av ChatGPT. Ingen av de 9 som hadde svart innen fredag ettermiddag, har endret eksamensregelverket. Men flere har arbeidsgrupper som jobber med kunstig intelligens og problemstillinger rundt teknologien. Andre har presisert informasjonen til studenter om bruken.

Bildet viser et portrett av Beate Torset, teamleder ved læringssenteret hos Norges idrettshøgskole
Beate Torset, teamleder ved læringssenteret hos Norges idrettshøgskole

Ved Norges idrettshøgskole har de utarbeidet en egen politikk for bruk av kunstig intelligens. Denne sier at «all bruk av kunstig intelligens (KI) tekstgeneratorer (ChatGPT m.fl.) i innleveringer (eksamen, mappevurdering, arbeidskrav) skal være transparent og opplyst om. Det skal oppgis hvilket verktøy som er benyttet, i hvilke(n) del(er) av teksten og hvordan».

— Vi har ikke sett behov for å endre selve eksamensreglementet da det er tilstrekkelig dekkende hva gjelder at å oppgi arbeid som ikke er utført av en selv som ens eget, er fusk, skriver teamleder i læringssenteret ved Idrettshøgskolen, Beate Torset.

Arbeidsgruppe kartlegger

Ved Høgskolen på Vestlandet har de ikke endret eksamensreglementet som følge av ChatGPT.

— Det er klart at kunstig intelligens og ChatGPT utfordrer oss med tanke på hvordan vi har lagt opp eksamen i dag. Samtidig ønsker vi å tilrettelegge for at studentene skal benytte de verktøyene som er tilgjengelige og relevante. Uansett er kravet at svaret på en eksamen skal være selvstendig arbeid. Det holder ikke å levere noe som en robot har skrevet, sier prorektor for utdanning, Anne-Grethe Naustdal.

Hun forteller at høgskolen har satt ned en arbeidsgruppe som kartlegger muligheter og konsekvenser av kunstig intelligens, blant annet når det gjelder vurdering.

— Det kan hende at vi må legge om vurderingen av studenter sin læring til å skje mer gjennom hele studiet og ikke bare ved avsluttende eksamen, sier prorektor for utdanning ved HVL, Anne-Grethe Naustdal

— Det kan hende at vi må legge om vurderingen av studenter sin læring til å skje mer gjennom hele studiet og ikke bare ved avsluttende eksamen. Det gjør vi også i dag, men for å sikre at vi faktisk får testet læring, må vi muligvis vurdere mer løpende, sier Naustdal.

Ikke mer skoleeksamen

— Kan det bli slik at kunstig intelligens fører til flere skoleeksamener?

— Det er en mulighet, men vi ønsker ikke at alt skal bli skoleeksamen. Det er heller ikke mulig å teste alle typer læringsutbytte gjennom skoleeksamener, sier hun.

Prorektoren viser til at studentene er fri til å benytte søkemotorer og alle digitale verktøy på hjemmeeksamen. På samme måten tenker hun at kunstig intelligens-teknologi også må bli en del av hva som benyttes, men at en hele veien må ha kildehenvisninger. Men utviklingen har skjedd så raskt at høgskolen trenger tid til tenke seg om.

Ville hatt pause

— Er det slik at institusjonene sliter med å henge med her?

— Vel, jeg er iallfall enig med dem som sier at det hadde vært godt om vi kunne tatt en fot i bakken for å vurdere følgene av teknologien. Men det går sikkert ikke å få den pusten i bakken, så derfor har vi laget denne arbeidsgruppen som jeg håper vil komme med kloke råd, sier Anne-Grethe Naustdal.

Prorektoren er likevel klar på at utdanningsinstitusjonene må tilpasse seg den teknologiske utviklingen.

— Dette er teknologi som studentene vil møte i arbeidslivet, og vi sier ikke «fyfy» på noe vis. Men vi må sørge for å utforme oppgavene på hjemmeeksamen slik at vi får testet studentene sin læring, selv om de også benytter seg av kunstig intelligensbasert teknologi, påpeker Naustdal.

Hun viser til at det allerede er tilrettelagt for å henvise til at eksempelvis ChatGPT er brukt i et eksamenssvar.

— Kandidatene skal oppgi kildene, og vi er opptatt av at de skal benytte litteraturen som hører til. Om noen leverer svar basert på en robot og utgir det for å være eget arbeid, vil ikke det bli godkjent, sier prorektoren. Men legger til at utfordringen selvsagt er om institusjonen greier å fange opp fusket.

Leste om det i lokalavisa

Ved NTNU har beslutningen om å forby ChatGTP skapt debatt. Professor ved Institutt for lærerutdanning, Thomas Dahl, forteller at han og flere av kollegaene hans først fikk vite om regelendringen gjennom et oppslag i Adressa sist uke.

Professor Thomas Dahl.

— Dette har ikke blitt kommunisert ut godt nok. For mange ansatte ved NTNU ble denne beslutningen først kjent etter at undervisningsperioden var over i vår. Det var Adressa som informerte mange av oss om dette først, sier han til Khrono.

— Noen av oss som underviser har faktisk lært studenter å bruke ChatGPT. Vi har vist dem hvordan ChatGPT kan brukes, og ikke minst ikke kan brukes til å skrive studentbesvarelser. Vi har heller ikke lagt noen restriksjoner på bruken, men vist hvordan det må framgå av besvarelsen at det er et selvstendig arbeid, og ikke bare en reproduksjon av kunnskap eller noe som er generert av en tekstkalkulator, forteller Dahl.

Han mener det har vært uklart om vedtaket faktisk innebærer at studentene ikke kan bruke ChatGPT i forbindelse med hjemmeeksamen, siden vedtaket sier at alle hjelpemidler der er tillatt.

— Oppslaget i Adressa kan imidlertid vanskelig tolkes som annet enn at de ikke har lov å bruke ChatGPT i det hele tatt ved hjemmeeksamen, sier Dahl.

Seksjonssjef Morten Sørlie i seksjon for læringsstøtte ved NTNU svarer at informasjonen om bruk av chatGPT er kommunisert ut via «de vanlige kanalene».

— Dersom informasjonen ikke har nådd fram til alle, må vi se nærmere på om den har vært tydelig nok, sier han, og poengterer at rektorvedtaket ble sendt ut til fakultetene, studenttinget, forvaltningsutvalget, studieadministrasjonen og en rekke andre relevante mottagere.

Tok ny vending

Etter at Khrono har intervjuet både Thomas Dahl, Morten Sørlie og Marit Reitan, har saken tatt en ny vending.

I en e-post til Khrono forteller Dahl at NTNU har opplyst om regelendringen på en god måte flere steder, men at det dessverre har sviktet på instituttet hans. Han forteller også at han fått informasjon fra ledelsen ved Fakultet for samfunns- og utdanningsvitenskap, som har fortalt at det ikke er noe i veien for at studentene hans får bruke ChatGPT på eksamen på måten han har instruert dem.

Powered by Labrador CMS