Debatt ● Urd Vindenes

La studentene få konse

For dem som er i en tidlig læringsfase, kan KI skape mer forvirring og være mer tidkrevende enn det er hjelpsomt.

Jeg mener det fins mange gode måter å bruke generativ KI i utdanning på, skriver forfatteren. — Så lenge det ikke betyr noe om teksten den skriver, er sannferdig.
Publisert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

Generativ kunstig intelligens (KI) blir ofte promotert som et «verktøy» som kan hjelpe studenter til å skrive bedre, forstå vanskelig fagstoff og til å håndtere store informasjonsmengder. Generativ KI er imidlertid ikke et nøytralt verktøy, slik kalkulatoren er, men en tekstgenerator som serverer bullshit som noen ganger er lett å oppdage, andre ganger ikke. 

Store språkmodeller er grunnleggende sett autocomplete-maskiner. Og ja — det er helt fantastisk at de bare ved å predikere neste språklige tegn (token) klarer å skrive tekster med menneskeaktig språk og med mange riktige faktaopplysninger. 

Men selv om det er imponerende og tankevekkende at en algoritme kan få til det, betyr det ikke at vi kan bruke informasjonen den kommer med i læring eller i akademisk skriving.

Et av de største problema med generativ KI-bruk i utdanning og skriving er at den gjerne presenterer informasjon på en svært overbevisende måte, selv når den tar feil. Emily Bender, professor i lingvistikk, påpeker at «et system som er riktig 95 prosent av tida, er farligere enn et som er riktig 50 prosent av tida» — fordi vi blir mer tilbøyelige til å stole på det. Studenter og andre uten solid bakgrunnskunnskap vil slite med å skille riktig informasjon fra feil.

Så kan man innvende at også menneskeskapte tekster inneholder feil, inkludert lærebøker og forskningsartikler. Men når vi innhenter informasjon om et emne, må vi ta et valg om hvem vi kan stole mest på. Et fagfellevurdert læreverk eller et leksikon er i de fleste tilfeller mer til å stole på enn en studentbesvarelse, en blogg eller et Instagram-innlegg. 

De er også mer til å stole på enn tekster skapt av store språkmodeller, uansett hvor gode og detaljerte instrukser studenten bruker. For det første bygger disse modellene på et hav av tekster, inkludert de dårlige, og for det andre hallusinerer de — det vil si at de dikter opp informasjon uten å advare om at de gjør det. Det kan også skje selv om du «mater» eller trener opp modellen på en spesifikk tekst.

Den kognitive belastninga for studentene vil etter alle solemerker øke om de også skal dobbeltsjekke og kritisk vurdere all informasjon de får.

Urd Vindenes

I KI-tips for høyere utdanning blir studentene som regel mint på at store språkmodeller kan hallusinere, så de må «huske å faktasjekke informasjonen». Men er det så enkelt, og vil KI-bruken i sum fungere som en hjelp i læringa? Den kognitive belastninga for studentene vil etter alle solemerker øke om de også skal dobbeltsjekke og kritisk vurdere all informasjon de får. Da har de mindre kapasitet igjen til det de skal bruke hodet til, nemlig læring. 

For dem som er i en tidlig læringsfase, kan KI skape mer forvirring og være mer tidkrevende enn det er hjelpsomt.

Jeg ga studentene mine i oppgave å kvalitets- og faktasjekke en chat-logg mellom meg og ChatGPT 4o, der jeg stilte den spørsmål om språkendringer mellom urnordisk og norrønt. De aller fleste begynte med å undersøke årstalla som var oppgitt, og som var feil. Denne hallusinasjonen gikk det altså greit å oppdage. 

Verre var det med påstander som at «urnordisk var rikt på synonymer» eller at norrønt var «mer komplekst» enn urnordisk. Hvor i læreboka skulle de slå opp slike vage påstander? Og hva betyr de i det hele tatt? 

Noen av studentene påpekte dette selv, men mange så seg ferdig med oppgava da de hadde sjekka det som var enkelt å sjekke — nemlig årstalla. 

Vi snakker ikke nok om at noen påstander enkelt lar seg faktasjekke, mens andre påstander er for vage til det. Vi snakker heller ikke nok om at dersom studenter skal utvikle kritiske leseferdigheter, må de ha et solid kunnskapsfundament. 

For å få dette, må de få frigjort mer tid og kapasitet til gammeldags innlæring av deklarativ kunnskap. Da må pensumtekstene være kontrollert og godkjent av kvalifiserte fagfolk, slik at de ufaglærte studentene slipper å bruke verdifull lesetid på å prøve å overta den jobben. 

Jeg mener det fins mange gode måter å bruke generativ KI i utdanning på, så lenge det ikke betyr noe om teksten den skriver, er sannferdig. For eksempel kan det brukes i grammatikkundervisning til å teste ut konstruerte språk. Eller man kan bruke det for å bevisstgjøre studentene om KI-fallgruver, som med oppgava der studentene skulle kvalitetskontrollere KI-tekst. 

Da de oppdaga hvor vanskelig det var å faktasjekke teksten, fikk både studentene og jeg en aha-opplevelse om at KI ikke bare hallusinerer, men den hallusinerer både spesifikk og vag informasjon. Sistnevnte er vanskelig å oppdage og vanskelig å faktasjekke. 

Powered by Labrador CMS