Debatt ● Urd Vindenes
God dag, mann! Økseskaft. Om KI og dømmekraft
Hvilke undervisere er det Westbye og Reber debatterer mot når de skriver at vi ikke bør «avvise» eller «forby» KI?


Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
I innlegget «La studentene få prompte» (Khrono, 25. februar) svarer Anne Katrine Westbye på innlegget mitt «La studentene få konse» (Khrono, 14. februar), og argumenterer for at store språkmodeller har stor nytteverdi i læringsprosessen.
Slik dette innlegget står, er Westbye og jeg enige om at det å prøve og teste de store språkmodellene, undersøke hvordan de fungerer og å diskutere hva de kan og ikke kan i ulike situasjoner, er viktig for studenter og undervisere.
Vi var mindre enige i diskusjonen oss mellom på Linkedin, som Westbye ikke viser til i Khrono-innlegget, og som er redigert av Westbye i ettertid. Jeg drar også kjensel på noen av mine egne argumenter fra Linkedin i Westbyes Khrono-innlegg. Når vi ender på samme konklusjon i Khrono, lurer jeg på hva eller hvem Westbye argumenterer mot?
Westbye skriver at «i stedet for å avvise KI», kan vi bruke dem som verktøy for refleksjon og utforsking. Rolf Reber støtter Westbye (Khrono, 28. februar) og skriver at «i stedet for å forby KI, bør vi oppdatere vår undervisning».
Det framstår dermed som at jeg avviser KI, noe jeg ikke har gjort. Jeg siterer meg selv fra kronikken 14. februar: «Jeg mener det fins mange gode måter å bruke generativ KI i utdanning på, så lenge det ikke betyr noe om teksten den skriver, er sannferdig».
Denne påstanden står jeg ved.
Jeg har aldri tatt til orde for noe KI-forbud, men tvert imot bidratt med råd om hvordan man kan bruke KI både til utforsking av språkstruktur (f.eks. i Norsklæreren 1-2024) og til refleksjon over hva KI egner seg til og ikke (i det nevnte Khrono-innlegget).
Problemstillinga i denne diskusjonen var likevel en annen, nemlig hvor kapasitetskrevende det er å forholde seg til utydelige «hallusinasjoner» (bullshit) fra en avsender med overbevisende og autoritativ språklig stil når man er i en læringssituasjon. Det må være mulig å problematisere bruken av KI i utdanning uten å bli tillagt andre standpunkt, som å ville forby KI (jf. Arne Næss’ saklighetsnormer).
I innlegget mener Westbye for øvrig at jeg undervurderer studentene mine og framstiller dem som «særlig sårbare for feilinformasjon, nesten hjelpeløse i møte med KI-genererte tekster», og som «passive mottakere av kunnskap snarere enn som kritiske tenkere i høyere utdanning.» Jeg mener at vi alle er sårbare for feilinformasjon, og at vi har ulike forutsetninger for å vurdere innhold kritisk avhengig av hva vi har erfaring med.
Vi må passe oss så vi ikke reduserer «kritisk tenking» til en isolert ferdighet som kan frakoples kunnskap og erfaring.
Urd Vindenes
Jeg har nokså gode forutsetninger for å vurdere innholdet i en tekst om norrøn grammatikk, men det hadde gått verre om jeg skulle vurdert en tekst om platetektonikk eller samfunnsøkonomisk historie. Dessverre har jeg erfaring med at studenter har brukt KI som «samtalepartner for å sjekke forståelse» innafor temaer som grammatikk, og det har ikke alltid gått bra.
Vi må passe oss så vi ikke reduserer «kritisk tenking» til en isolert ferdighet som kan frakoples kunnskap og erfaring. Når studentene tilegner seg fagkunnskap gjennom lesing, lytting og samtaler, anser jeg dem ikke for å være passive mottakere, men tvert imot så aktive at det blir slitsomt — og det skal det være. Hjernen er på treningssenter.
For å hjelpe studentene med å bruke generativ KI på en faglig forsvarlig måte, trenger de støtte, påpeker Westbye. Igjen lurer jeg på hva Westbye reagerer på i tilnærminga mi. Oppgava der studentene skulle vurdere en KI-generert samtale om språkendring, er en måte å gi støtte på. Den innebar å gjøre studentene bevisste om at KI ikke bare hallusinerer, men at den hallusinerer fram informasjon som kan være vanskelig å oppdage.
Westbye påpeker videre at vi må gi studentene verktøya de trenger for å bruke språkmodeller på en måte som styrker kritisk tenking. Igjen er jeg ikke uenig. Kunnskap styrker kritisk tenking, og den aller beste måten å øke studentenes KI-kyndighet på, er å sørge for at studentene tilegner seg kunnskap.
Det er ikke overraskende at ChatGPT gjorde feil da den blei bedt om å skrive om språkendringer fra urnordisk til norrønt, skriver Westbye, ettersom det er et område med begrensa treningsdata. Og nettopp dette er noe av poenget med oppgava jeg ga dem. Formålet med oppgava var ikke å lære fakta om urnordisk, men nettopp å bevisstgjøre studentene om hvor galt det kan bære av sted når språkmodellene brukes på denne måten.
Måten språkmodellene fungerer på, gjør at hallusinasjonene ser ut som troverdig informasjon, og vi har derfor lett for å «sovne ved rattet».
Urd Vindenes
Det kan også se ut til at Westbye har misforstått meg når hun skriver at «å lære [studentene] hvordan de kan bruke KI kritisk og effektivt er ikke en ekstra byrde — det er helt nødvendig». Jeg skreiv ikke at det var en byrde for oss forelesere å lære studentene å bruke KI kritisk og effektivt, men at det kan være en byrde for studenter i tidlig læringsfase å ta i bruk KI som for eksempel «samtalepartner».
Når vi leser KI-generert tekst om et tema vi ikke har mye kunnskap om eller erfaring med, må vi ta høyde for at det er forvrengninger og usannheter i teksten.
KI-forsker og forfatter Ethan Mollick har skrevet om 15 tilfeller KI er godt egna og fem hvor de er dårlig egna. Han argumenterer for at KI er uegna når du skal lære deg eller syntetisere ny informasjon, særlig når det dreier seg om informasjon med høy nøyaktighetsgrad. Måten språkmodellene fungerer på, gjør at hallusinasjonene ser ut som troverdig informasjon, og vi har derfor lett for å «sovne ved rattet».
Det handler dessuten ikke bare om hallusinasjoner, for språkmodellene gjør også andre feil, men andre typer enn mennesker gjør. Språkmodeller framstår i større grad enn mennesker skråsikre på områder hvor de kan lite, de er servile overfor brukerne og vil oftere si seg enig i feiloppfatninger hos brukeren.
Hvordan motvirker vi at studentene «sovner ved rattet» når de bruker generativ KI? Ved å gi dem et trafikalt grunnkurs: Studentene må skjønne hvordan modellene fungerer (forvent bullshit), og hva de risikerer ved å bruke dem i ulike situasjoner. Det tror jeg Westbye og jeg kan enes om.
Nyeste artikler
I «frihetens hjemland» er universitetstoppene tause
Angeren slo inn rett før disputas. — Hvorfor i alle dager har jeg gjort dette?
Tre ulike filmfortellinger om helseprofesjonene
Studenten i saken om selvplagiat skal kreve erstatning
Harald Eia vil gi tilbake: — Jeg har vært en parasitt
Mest lest
Kathrine Sund-Henriksen (1980 — 2025)
Harald Eia vil gi tilbake: — Jeg har vært en parasitt
Torstein kom inn på lærerstudiet med 2 i norsk, Endre kom inn med 2 i matte
Studentene får nytt verktøy for å unngå fusk
Oppsigelsene har begynt ved universitetene i Nederland