Debatt ● Leif Christian Lahn
KI-forskningens framtid — uten «Kunstig intelligens»
Debatten om KI drives frem av en fortelling om et kappløp mellom maskinintelligens og menneskelig intelligens. Dette imaget utløser både frykt for en ukontrollerbar superintelligens og mye penger. Men er det fruktbart for utviklingen av feltet?
Kunstig intelligens, KI, robot, artificial intelligence, AI
Foto: Possessed Photography / Unsplash
Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
30. november markerte ettårsdagen for frisleppet
av ChatGPT, og siden har debatten om KI (kunstig intelligens) hatt pandemisk
karakter — med flere utbrudd i Khronos spalter. Vill begeistring står mot frykt og et sterkt ønske om kontroll, noe som
delvis gjenspeiles i diskusjoner av ekstramilliarden til KI-forskning.
En
tilstand som minner meg om tida for snart 40 år siden da jeg fikk en romslig
bevilgning fra Norges allmennvitenskapelige forskningsråd (NAVF) til å forske
på KI og utviklingen av ekspertsystemer.
Også denne såkalte «første bølgen» med KI-forskning var drevet fram av
sterke geopolitiske krefter — mer spesielt Vestens behov for å møte japanske
digitaliseringsinitiativ. Samtidig fikk
toneangivende KI-forskeres urealistiske spådommer om maskinens beseiring av
menneskelig intelligens motbør i den akademiske diskursen — i form av «Mind
over machine».
Fortellingene om et kappløp mellom
maskinintelligens og menneskelig intelligens er fortsatt gangbare i
framstillinger av KI som fagfelt og knytter an til myter om blant annet
ukontrollerbar superintelligens. Et image som utløser frykt og mye penger.
Vill begeistring står mot frykt og et sterkt ønske om kontroll, noe som delvis gjenspeiles i diskusjoner av ekstramilliarden til KI-forskning.
Leif Christian Lahn
Tiradene opprettholdes av det jeg vil omtale
som KI-forskningens sterke program — the Strong Programme of Artificial Intelligence (forkortet
SPAI); de faglige ambisjonene om å skulle utvikle digitale maskiner som
simulerer menneskelig intelligens forstått som nevrale mekanismer i hjernen. En slik posisjonering frambringer ufruktbare
og luftige diskusjoner av holdbarheten i analogien mellom maskinintelligens og
menneskelig intelligens. Hva er likt og
hva er ulikt?
Et par innlegg i Khrono det
siste året har vært viet slike problemstillinger, og i populære framstillinger
som f.eks. den prisbelønnede til Inga Strümke, er temaet gjennomgående til
stede på en direkte eller indirekte måte. Sentrale begreper som «dype nevrale
nett», «synapser» og hele rekken av læringskategorier («dyp læring»,
«forsterket læring», «livslang læring», osv.) omtales som om KI repliserer
mekanismer i den menneskelig hjerne.
I stedet for denne diskusjonen av analogiens
holdbarhet burde både tilhengere og motstandere av SPAI og programmets motstandere være tydeligere opptatt av
dens fruktbarhet for utviklingen av fagfeltet. Hvordan kan teorier om menneskelig intelligens gi inspirasjon til nye
systemdesign eller arkitekturer for digital analyse m.m., og omvendt hvordan
kan utprøvingen av statistiske og matematiske modeller for oppgaveløsning bidra
med ideer til studier av menneskelig læring.
I noen grad er en slik vekselvirkning på et teori-
og modellgenererende nivå akseptert innen SPAI, men fortsatt er sammenligningen
av ting og ting — maskin og hjerne — et dominerende perspektiv. Som nevnt, går
denne tingliggjøringen og nærsyntheten lettere sammen med forestillinger om
konkurranse enn om samspill mellom maskin og hjerne. Det sistnevnte som forskning
på hvordan generativ teknologi bidrar til en utvikling av menneskelig
kompetanse.
Et tydeligere samspillsperspektiv betyr også et
skifte i figur og grunn. En dings som
ChatGPT og dens underliggende modeller vil fortsatt være til stede som figur,
men grunnleggende forskning på analyseverktøyene bør også trekke inn
bakgrunnsfaktorer som f.eks. digital infrastruktur i metodeutviklingen. I NFRs
nylig publiserte oversikt over høringsinnspill til retningen på «KI-milliarden»
framhevet flere tunge miljøer innen norsk KI-forskning at variasjonen i brukeromgivelsenes
(økonomi, helse, industri, transport, undervisning m..) risikovurderinger må ivaretas
når man designer robuste og forsvarlige KI-løsninger.
Norge og Skandinavia har en lang og anerkjent tradisjon med brukermedvirkning i utvikling av digitale systemer (participative design) som bør videreføres og styrkes i møte med ny generativ teknologi.
Leif Christian Lahn
I en tidligere meningsutveksling i Khrono
(Kannelønning vs. Krogh og Irgens) om «KI-milliarden» settes forskning på
teknologiutvikling opp mot studier av konsekvenser og bruk. Et slikt skille får lite oppslutning fra høringssvarene
i den nevnte NFR-undersøkelsen og er lite forenlig med en utvidet forståelse av
KI-forskning. Norge og Skandinavia har
en lang og anerkjent tradisjon med brukermedvirkning i utvikling av digitale
systemer (participative design) som bør videreføres og styrkes i møte med ny
generativ teknologi.
Det slår meg at mye
av diskusjonen rundt KI og demokrati har vært preget av frykt og fortegnelser
av SPAI-scenarioer med rigide kontrollregimer som motsvar. Den deliberative tradisjonen der relevante
aktører deltar i utviklings- og implementeringsprosesser har fått mindre
oppmerksomhet — dette til forskjell fra digitaliseringsbølgen i Norge for 40 år
siden da avdøde prof. Kristen Nygaard m.fl. ledet flere grunnleggende
forskningsprosjekter der slike perspektiver var framtredende.
Dagens reguleringsdiskurs vanskeliggjøres av SPAI
og mystifikasjonene assosiert med begrepet «Kunstig intelligens». Det opprettholder uklare forestillinger om
hva som skal være gjenstand for kontroll og hvilke grep som bidrar til
forsvarlig utvikling av fagfeltet.
Hvorfor
ikke skrote den problematiske hjerneanalogien og alle de luftige læringsformene
til fordel for et mer presist og teknisk vokabular som muliggjør en mer
nyansert vurdering av framskritt og utfordringer innenfor delområdene? Denne
mer pragmatiske enn programmatiske tilnærmingen er kanskje ikke salgbart når
fagfeltet ønsker konsolidering og opprettholdelse av en prestisjefull
merkevare, men som nevnt kan kostnadssidene blir store ved å holde på
SPAI.
En liten flik av «KI-milliarden»
kunne vært satt av til en vitenskapshistorisk og kritisk diskusjon av
fagfeltets posisjonering, strukturering i delområder og tverrfaglig
profil. Et beskjedent prosjekt som kan
starte i periferien og uten hastverk, men med impact som monner og som kan overgå
de noe urealistiske forventningene enkelte KI-forskere har til norske
gjennombrudd på fagfeltets såkalte grunnmodeller.
Et første steg i avviklingen
av SPAI — the Strong Programme of Artificial Intelligence — som bør ha sett
sine beste dager noen tiår tilbake.