Vi bør tenke oss godt om før vi lar teknologioptimister og næringsinteresser alene få drive samfunnskritisk teknologisk utvikling, uavhengig av demokratiske prosesser og innsyn, skriver Leif Skiftenes Flak. Foto: pixabay
Vi bør tenke oss godt om før vi lar teknologioptimister og næringsinteresser alene få drive samfunnskritisk teknologisk utvikling, uavhengig av demokratiske prosesser og innsyn, skriver Leif Skiftenes Flak. Foto: pixabay

Digitalisering er for viktig til at det kan overlates til teknologene alene

Digitalisering. Å kaste personvernet på bålet for å speede opp teknologiutviklingen, kan bli som å pisse i buksa for å holde varmen. Det varmer kanskje litt med én gang men kan fort bli både kaldt og ekkelt, skriver professor og direktør ved CeDIT, Senter for digital transformasjon ved Universitetet i Agder.

Publisert   Sist oppdatert

De siste ukene har det gått en prinsipielt viktig debatt mellom forskere. Morten Goodwin fra CAIR-senteret ved Universitetet i Agder mener norske forskere lider under datatørke og at personvernet i vår del av verden er til hinder for den digitale utviklingen. Han fikk raskt tilsvar fra både Universitetet i Bergen (UiB) og Norsk Regnesentral som advarer mot lettvinte personvernholdninger blant forskere og minner om at problemet med datatørke nok er sterkt overdrevet.

Her begynner vi å ane hvorfor vi bør være glade for at noen er opptatt av sikkerhet og personvern. Teknologi som i utgangspunktet utvikles for gode formål, kan også benyttes til å skade oss.
Leif Skiftenes Flak
Professor og direktør ved CeDIT

Problemet er at hverken du eller jeg eller politikerne våre i særlig grad synes å ta disse problemstillingene inn over oss. Datatilsynet advarer igjen og igjen, uten at noen ser ut til å bry seg nevneverdig om hva de sier. Vi deler data villig vekk – fordi vi må det for å få tilgang til digitale tjenester som gjør livene våre enklere og fordi vi fortsatt har tillit til at dataene brukes på en forsvarlig måte.

Data kommer utvilsomt til å være grunnlag for mange og viktige fremskritt de nærmeste årene. Mens forskere som Goodwin mener Europa befinner seg i personvernets tidsalder, mener jeg verden generelt befinner seg i dataenes og teknologigigantenes tidsalder. Mengden data som genereres hvert år akselererer voldsomt og konvensjonell teknologi evner ikke å lenger å utnytte dataene fullt ut.

Det oppstår et gap mellom de dataene vi har tilgjengelig og de dataene vi klarer å utnytte til noe fornuftig. Det er blant annet her kunstig intelligens kommer inn, siden den kunstige intelligensen gjerne blir bedre og mer presis jo mer data man forer den med.

Morgendagens vinnere sies å være de som klarer å utnytte data best. Men hva er det egentlig de vinner? Dette diskuteres i alt for liten grad. Vinner de muligheten til å kurere kreft eller løse klimautfordringene? Eller vinner de muligheten til å samle enda mer rikdom og makt på noen veldig få hender? Er sistnevnte en premie vi er villige til å legge i potten? Hvilke konsekvenser kan dette få for deg og meg?

Kunnskapsfronten innen kunstig intelligens befinner seg ikke i akademia, men nettopp i de store teknologiselskapene. Totalitære regimer som Kina har egne teknologigiganter – som vi antar har tette bånd til landets regjering. PST og flere andre etterretningsorganisasjoner advarer f.eks. mot kinesiske Huawei.

Isolert sett er Huawei et selskap som utvikler imponerende teknologi, teknologi som blant annet kan benyttes i den digitale kjerneinfrastrukturen i ulike land. Det PST m.fl. er bekymret for, er om Huawei gir kinesiske myndigheter fri tilgang til datastrømmene i systemene sine. Hvis dette stemmer, burde det bekymre deg og meg også. Her begynner vi å ane hvorfor vi bør være glade for at noen er opptatt av sikkerhet og personvern. Teknologi som i utgangspunktet utvikles for gode formål, kan også benyttes til å skade oss.

Teknologigigantene dominerer verden i langt større grad enn mange sannsynligvis er klar over. De fem store, Microsoft, Google, Amazon, Facebook og Apple, er i dag mektigere enn mange land. Hvorfor? Fordi de har enormt mange brukere og fordi de sitter på enorme mengder data om brukerne sine. Dette er verdifullt ved at de kan nå veldig mange mennesker veldig enkelt – og ved at de utvikler kunstig intelligens for å omdanne dataene de har om brukerne sine til å virkelig kunne forstå dem.

Og ved å forstå oss brukere får de også makt til å påvirke oss på ulike måter. Noen måter er nokså aksepterte i samfunnet, f.eks. å påvirke oss til å kjøpe spesielle produkter via skreddersydd markedsføring basert på våre personlige handlemønstre. Andre måter er foreløpig (?) slett ikke akseptert, f.eks. å påvirke demokratiske prosesser gjennom skreddersydde politiske kampanjer basert på ulovlige psykologiske profiler av velgere. Sistnevnte gjorde at Cambridge Analytica måtte stenge butikken og at Facebook fikk en stygg skrape i lakken i fjor. De politiske konsekvensene kjenner vi ikke rekkevidden av.

Utviklingen løper videre fordi tilliten vår til teknologien foreløpig ikke har fått alvorlige brudd. Sårbarheten vår øker imidlertid etter hvert som vi deler mer og mer data. Hvem eier egentlig dataene våre etterhvert som vi putter sensorer i alt fra kjøleskap til toaletter, hvordan skal disse dataene utveksles og hvilke regler gjelder for bruk av dataene? Hvilke lover gjelder på Internett?

Store selskaper som Huawei, Google og Apple selger oss kostbare produkter som sender dem data om når vi slokker lyset om kvelden og hvor vi beveger oss. Hva kan dette brukes til – og vil vi dette? EU har tatt initiativ til personverns-lovgivningen GDPR og ny opphavsrettslov. Dette har skapt storm internasjonalt, men jeg håper vi kommer til å se flere overnasjonale retningslinjer i tiden fremover.

Jeg forstår forskeres ønske om tilgang til mer data slik at de kan gjøre viktige fremskritt innen medisin, klima, transport og mange andre samfunnsområder. Samfunnet bør legge til rette for dette – på en ansvarlig måte. Vi kjenner ikke de samfunnsmessige konsekvensene av den akselererende teknologiutviklingen. Flere, som Stephen Hawkin og Elon Musk, advarer mot nettopp kunstig intelligens. Samtidig mener teknologieksperter som Kai-Fu Lee og Morten Goodwin at teknologien ikke er farlig. Det er mennesker som er farlige.

Uenigheten gjør imidlertid at vi bør tenke oss godt om før vi lar teknologioptimister og næringsinteresser alene få drive samfunnskritisk teknologisk utvikling uavhengig av demokratiske prosesser og innsyn. I stedet bør dette få en mye tydeligere plass i det offentlige ordskiftet. Politikere og forskere fra flere fagdisipliner må på banen for å belyse tilsiktede og utilsiktede konsekvenser av digitalisering. Og du og jeg bør definitivt begynne å bry oss mer om dataene våre.