Debatt ● Nandor Knust og Michael A. Riegler

Få juridiske rammer for KI

Det finnes mange etiske retningslinjer for KI, men det finnes få juridiske rammer. Hva kan vi lære av miljølovgivning?

Høye trær sett nedenfra
Vill vekst: Uregulert KI-utvikling kan skade snarere enn bevare språk og kulturelle ressurser, skriver forfatterne. — Dette understreker behovet for nye måter å se på alles bidrag og rettigheter innen KI, som går utover nåværende løsninger som opphavsrett eller EU AI-forordningen.
Publisert Sist oppdatert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

På et nylig seminar om kriminalitet mot økosystemer diskuterte vi konseptet om «Pachamama» — et juridisk prinsipp der naturen gis rettigheter og behandles som en ressurs som må beskyttes for fremtidige generasjoner. Dette fikk oss til å tenke: Kan lignende prinsipper brukes for å beskytte kunnskapen som ligger til grunn for kunstig intelligens (KI)?

Tenk på dette: Dagens KI-systemer er trent på generasjoner av menneskelig kunnskap — våre språk, historier, vitenskapelige oppdagelser og kunstneriske uttrykk. Vi lar denne kollektive arven omformes til proprietære KI-systemer uten noe reelt rammeverk for beskyttelse eller styring. Det finnes mange etiske retningslinjer for KI, men det finnes få juridiske rammer.

Hva kan vi lære av miljølovgivning?

Det er mye å lære fra historiske tilfeller av miljøkonflikter, som konkrete eksempler på hvordan ulike rettssystemer og interessegrupper samhandler med hverandre. Mange nasjoner, som Norge, har utviklet progressive rammeverk for å balansere teknologisk utvikling med miljøvern, kulturelle og sosiale rettigheter, urfolksrettigheter og økonomiske interesser. Disse konfliktene førte til betydelige utvidelser av metodologier for konsekvensutredninger, som tar hensyn til både kulturelle, sosiale og økologiske aspekter. 

Sammenvevingen av ulike kontrollsystemer for beskyttede juridiske goder, som miljø, kulturarv, økonomiske interesser og eiendomsrettigheter, har skapt viktige mekanismer for helhetlige konsekvensanalyser.

Vi står ved et kritisk punkt, og vi må bestemme om vi vil forme hvordan vår delte kunnskap brukes i KI-utviklingen, eller om vi vil la KI endre vårt forhold til kunnskap og kultur.

Knust og Riegler

Domstolene har måttet anvende kollisjonsregler mellom ulike konkurrerende systemer: økonomiske aktører som søker utvikling, miljøvernhensyn og kulturelle rettigheter til lokalsamfunn. Disse kollisjonene og løsningene gir verdifull innsikt for KI-regulering, da vi står overfor lignende konflikter mellom teknologisk innovasjon, kulturell bevaring og økonomiske interesser. Utfordringen ligger i å finne passende metoder for forsoning innenfor et fungerende rammeverk som respekterer og balanserer de konkurrerende interessene.

For å motvirke dette kan ideene vi diskuterte rundt «Pachamama-rammeverket» tilby konkrete tilnærminger som kan styrke KI-styringen:

  1. Kollektiv forvaltning — Lokalsamfunn og urfolk har en formell rolle i beslutninger om naturressurser. Tilsvarende kunne vi ha etablert representative råd for delte kulturelle ressurser i KI-utvikling, der spesielt berørte grupper får en stemme i hvordan deres kulturarv brukes.
  2. Helhetlig konsekvensutredning — Ideen om «Pachamama-lover» krever vurdering av både økologiske og kulturelle konsekvenser av utviklingsprosjekter. For KI kunne dette innebære obligatoriske kulturpåvirkningsanalyser før store språkmodeller lanseres, særlig med tanke på effekten på minoritetsspråk og kulturer.
  3. Langsiktig beskyttelse — Langsiktig vern over kortsiktig gevinst. I en KI-sammenheng kunne dette materialiseres som krav om dokumentasjon og bevaring av originale kilder som brukes i opplæring, samt mekanismer for å sikre at minoritetsperspektiver ikke blir slettet over tid.

Parallellen til miljøvern strekker seg også til ressursbruk. Store KI-modeller konsumerer ikke bare vår kollektive kunnskap, men også betydelige naturressurser. Et middels stort datasenter bruker like mye vann som tre sykehus. Denne økende energietterspørselen har fått teknologigiganter som Google og Amazon til å investere i kjernefysiske løsninger. De mulige implikasjonene av dette burde være noe vi alle har rett til å påvirke.

Nyere forskning dokumenterer hvordan uregulert KI-utvikling kan skade snarere enn bevare lavressursspråk og kulturelle ressurser. Vi kan også se hvordan selv allmenn kunnskap kan svekkes når store språkmodeller mangler riktige kvalitetskontrollmekanismer. Dette understreker behovet for nye måter å se på alles bidrag og rettigheter innen KI, som går utover nåværende løsninger som opphavsrett (KI lager ikke bare kopier) eller EU AI-forordningen (hovedsakelig fokusert på bruken av KI, ikke opprettelsen og tiltenkte anvendelser av den).

Vi står ved et kritisk punkt, og vi må bestemme om vi vil forme hvordan vår delte kunnskap brukes i KI-utviklingen, eller om vi vil la KI endre vårt forhold til kunnskap og kultur. Den imponerende norske tilnærmingen med å balansere ulike interesser innenfor regimene for kollisjon har vist at selv begrenset suksess og små impulser kan skape viktige føringer for fremtiden. 

Ved å kombinere disse lærdommene med konkrete elementer av de abstrakte veiledende ideene i «Pachamama-rammeverket», kan vi begynne å bygge mer effektive beskyttelsesmekanismer for vår kollektive kulturarv i KI-alderen.

Powered by Labrador CMS