Debatt Anja Salzmann

Kunstig intelligens: «En holdning som rett og slett kan være farlig»

Teknologisk fremskritt går aldri hånd i hånd med moralsk fremskritt, skriver Anja Salzmann i et svar til Lars Nyre.

Forsker Anja Salzmann mener UiBs satsing på kunstig intelligens lider av mangel på kritiske perspektiver.
Publisert Sist oppdatert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

I et innlegg fra 2. desember svarer professor Lars Nyre på mitt debattinnlegg som kritiserer underskudd av etiske refleksjoner på konferansen «Intelligente Bergen» som ble gjennomført 04. november 2022 på Universitetet i Bergen. Dessverre har Nyre misforstått en del av mine synspunkter.

Jeg har ikke gitt uttrykk for at UiB (eller Norge som han skriver) ikke skal satse på utvikling av kunstig intelligens (KI) og jeg etterlyser ikke en konkret KI-strategi av Universitetet. Jeg snakker heller ikke generelt om begrepet teknologi`, men presiserer at mitt fokus er på kunstig intelligens som `risikoteknologi´.

Jeg stiller også spørsmål ved et universitets rolle og hvordan det som sådant skal engasjere seg i utforskning og utvikling av kunstig intelligens (KI).

Begrepet risikoteknologi knyttes først og fremst til teknologier som har stort endringspotensial for miljøet og samfunnet og til såkalte dual-use teknologier som kan brukes til både sivile og militære formål.

Risikobegrepet dukket først opp rundt 1980-tallet i ulike akademiske diskurser og ble særlig fremmet av sosiologer som Ulrich Beck og Anthony Giddens. Risiko ble ansett som et treffende konsept for å forstå endringsprosesser i det moderne samfunnet i lyset av en rask teknologisk utvikling. Ulrich Beck`s bok om «risikosamfunnet» fra 1986 ble en internasjonal akademisk bestselger og har også preget arbeidet av årets vinner av Holbergprisen, Sheila Jasanoff. Én av grunnene var at Becks teori ble tragisk eksemplifisert av den nukleære Tsjernobyl-katastrofen i Ukraina i 1986.

Det hjelper ikke med et fatalistisk blikk på utviklingen og å anse teknologisk utvikling som et uoverkommelig naturfenomen eller skjebne.

Anja Salzmann, forsker

Lars Nyre hevder at «Universitetssektoren må vera sentral i utforskinga» men «kan ikkje legga så stor vekt på etikk at det bremsar framdrifta» og at «Forskarane må ha lov å trå feil og gjera etiske kurskorrigeringar undervegs».

Dette er en holdning som rett og slett kan være farlig når man snakker om risikoteknologier, nettopp fordi deres konsekvenser ofte er irreversible (f.eks. metoder som «gendriv» basert på gensaksen CRISPR/Cas eller syntetiske medier i kontekst av KI-teknologi). Det er også grunnen til at disipliner som technology assessment og STS-studier har vokst frem, og at flere akademiske og politiske debatter rundt begreper som Responsible Innovation (RI) eller Responsible Innovation and Research (RRI) dukket opp omtrent samtidig de siste årene i både i USA og Europa.

Det er dette fremvoksende fokus på etikk som Nyre beskriver som «vakre ideal» som kommer rett fra det humanistiske elfenbeinstårnet og som han bekymrer seg for «kan hemma konkurranseevna til norsk teknologiforsking på lengre sikt». Men interessen for etikk vil dessverre ikke forsvinne men heller øke med tiden.

Den gjenspeiler for eksempel et økende ubehag i demokratiske land over det enorme makt- og manipuleringspotensial som digitale teknologier åpner for og som brukes aktiv av autoritære stater eller til hybrid krigføring. Men det dukker også opp i offentlige debatter om verdens rikeste manns oppkjøp av Twitter, barnas personvern og ungenes psykiske helse eller konfliktene rundt den nye helseplattformen i Midt-Norge — for å nevne noe.

Teknologisk fremskritt går aldri hånd i hånd med moralsk fremskritt. Det er en fundamental læring når man ser på menneskenes turbulente historie og særlig på epoker med teknologiske nyvinninger eller revolusjoner. Noe som vi til daglig opplever i sosiale medier eller hvor ureflektert og ukritisk vi integrerer digital teknologi i hverdagen.

Samfunnet må lære seg å ta i bruk teknologier på en fornuftig og sivilisert måte. Dette skjer hovedsakelig gjennom moralske fremskritt og uttrykker seg i en rekke sosiale innovasjoner. Det har over tid frembrakt strukturer, institusjoner og verdier som vi ofte tar for gitt. Lovgivning, rettssystemet, fagforeninger, tilsynsmyndigheter (konkurransetilsynet, mattilsynet, arbeidstilsynet osv.), velferdssystemet, journalistikk, demokratiet og ikke minst menneskerettigheter — alt dette er resultat av menneskelige moralske fremskritt.

Det er dessverre ikke nok å skru på «overskridende tekniske løysingar» eller «pressa grensene i arbeid med å laga avanserte tekniske løysingar». Det hjelper heller ikke med et fatalistisk blikk på utviklingen og å anse teknologisk utvikling som et uoverkommelig naturfenomen eller skjebne.

Å ønske å forstå, og å åpne nye horisonter for tenkning skape rom for kritisk refleksjon er i mine øyne en vesentlig, definerende del av akademisk arbeid. Derfor har jeg også et annet blikk på hva som er rollen til et offentlig universitet og hva som skulle stå sentralt i formidlingen.

Jeg er ikke enig med Nyre i at «unge folk må lære seg å følga den logikken som datamaskinar krev». Jeg mener de burde lære seg først og fremst kritisk tekning, særlig i en tid hvor grensen mellom fakta og fiksjon viskes ut og de samfunnsøkonomiske og samfunnspolitiske kostnadene av digitaliseringen er knapt forstått av allmennheten.

Ansvarlig utforskning og utvikling av KI ved et universitet bør etter min mening ikke se bort fra teknologiens risikopotensial, og den bør etterleve demokratiske prinsipper i konfliktfylte, komplekse forhandlinger mellom ulike interesser, synspunkter og ekspertiser. Dette er nøkkelen til å få fram robuste og bærekraftige KI -løsninger som folk til kommer til å stole på.

Kilder:

Bijker, W. E., Hughes, T. P., & Pinch, T. J. (Eds.) (1984). The social construction of technological systems. Cambridge, MA: MIT Press.

Daub, A. (2020). What Tech Calls Thinking: An Inquiry into the Intellectual Bedrock of Silicon Valley, Farrar, Straus and Giroux.

Kilder:

Bijker, W. E., Hughes, T. P., & Pinch, T. J. (Eds.) (1984). The social construction of technological systems. Cambridge, MA: MIT Press.

Daub, A. (2020). What Tech Calls Thinking: An Inquiry into the Intellectual Bedrock of Silicon Valley, Farrar, Straus and Giroux.

Powered by Labrador CMS