kunstig intelligens
Bremsene forsiktig på for ChatGPT. — Vi må tenke gjennom konsekvensane
Fleire norske akademikarar kasta seg på oppropet for pause i utviklinga av kunstig intelligens, saman med ekspertar frå Google, Microsoft — og Elon Musk.
— Eg skreiv under fordi vi treng å stanse opp og tenke gjennom korleis teknologien bør brukast, og korleis vi kan hindre misbruk. Eg meiner ikkje at vi skal stanse utviklinga, men vi treng ein grundig refleksjon, seier Morten Dæhlen, som er leiar for dScience, Senter for data og beregningsvitskap ved Universitetet i Oslo.
27 500 har signert til no, oppropet som i mars vart publisert frå Future of Life Institute:
Kunstig intelligens (KI) kan utgjere ein grunnleggande risiko for menneskeslekta, slo brevet og oppropet fast. Kravet var derfor at ein i første omgang innføret ei «minst 6 månader lang pause i opplæring av KI-system som er kraftigare enn GPT-4» (systemet som ChatGPT er basert på).
No har Open AI, selskapet som har utvikla GPT-4, lytta — i alle fall delvis.
Selskapet arbeider ikkje — for tida — med å vidareutvikle GPT5. «Vi vil ikkje gjere det på ei stund», sa Open AI-sjefen Sam Altman i eit foredrag på MIT, referert i teknologimagasinet The Verge. NRK omtalte nyleg saka.
Kor omfattande og langvarig denne pausen eigentleg vil vere, er likevel ikkje klart.
Ikkje farleg for utdanning
Det var den veldige krafta i den siste versjonen av GPT-4, som kom i mars, som fekk Future of Life Institute til å starte underskriftskampanjen for å finne pauseknappen.
Morten Dæhlen seier at han ikkje ser det som noko mål å stanse utviklinga — det er alltid klokt å bruke litt tid til å tenke seg om, derfor er det bra med ein slik pause, meiner han.
— All teknologi kan brukast feil og av menneske med vonde hensikter. Det er ikkje det same som at vi skal stanse utviklinga. Eg ser mykje positivt i KI, som vil skape forbetringar på mange område. Grunnen til at eg støtta oppropet, er at eg vil at vi skal tenke betre gjennom konsekvensar, før teknologien blir slept laus.
Dæhlen trur heller ikkje ChatGPT er farleg for utdanningsinstitusjonane, tvert imot.
— Dette trur eg vi klarer å tilpasse oss. Det er allereie gjort ein del, for eksempel med å ta eit steg tilbake og endre på eksamensformene. Etter det eg veit, blir det også jobba blant pedagogane med læringsopplegg der denne typen verktøy skal få plass, seier Dæhlen.
Fleire norske
Han karakteriserer ChatGPT som ein fantastisk språkmodell. Men den kan også vere ein innhaldsprodusent, som ikkje alltid produserer sant innhald.
— Dersom dette innhaldet blir brukt feil, kan det føre til fleire feil, og då kan vi komme i eit uføre der det blir skapt feil på feil. Det er ei utfordring som løysast. Og vi veit strengt tatt lite om kva som skjer i konserna som utviklar teknologien, korleis dei samlar informasjon om oss og korleis dei brukar han. Eg er skeptisk til at dette er lukka.
Dæhlen er ikkje den einaste frå Noreg som har signert pause-oppropet. 19 andre står på lista, dei aller fleste heimehøyrande på norske forskings- og utdanningsinstitusjonar.
Blant dei er NTNU-professor og medlem i Akademiet for yngre forskarar, Simen Å. Ellingsen, sjefforskar ved SINTEF, Ole Martin Løvik, og pedagogikkprofessor Eevi Beck ved Universitetet i Oslo. Også to seniorrådgivarar i Forskingsrådet har signert: Markus Engelhardt og Heidi Roggen.
Trur ikkje på «atombombe»
Farane knytt til utviklinga av kunstig intelligens kom igjen i søkelyset denne veka etter at «KI-gudfaren» åtvara mot teknologien, mellom anna i oppslag i New York Times og The Guardian. «Gudfaren» er Geoffrey Hinton, ein av pionerane i såkalla maskinlæring, som mellom anna ChatGPT bygger på.
Hinton sa opp stillinga si i Google, og åtvarar no mot ei «flodbølgje av feilinformasjon» og «den eksistensielle trusselen» som ligg i faren for at teknologien blir meir intelligent enn oss.
— Hinton er ein glitrande fyr. Men eg tenker at media drar litt til her. Samstundes er det klart at, som med mykje teknologisk utvikling, kan dette ha positive sider, ogP det kan bli brukt feil og gjere skade. Den tidlege forskinga innan kjernefysikk hadde heilt andre mål enn atombomba, seier Dæhlen.
Men noko ny «atombombe», ser han ikkje nokon fare for i KI-teknologien.
— Nei, det gjer eg ikkje. Men desse aspekta er nettopp grunnen til at vi bør ta denne pausen for å få tid til å tenke gjennom ting.