Det skumle som skjer nå er at forlagsgiganten Elsevier er i forhandlinger med 20 institusjoner i Europa om å bygge et slikt system som registerer all aktivitet, men der universitetene blir tvunget til å kjøpe den informasjonen. Foto: Tove Lie
Det skumle som skjer nå er at forlagsgiganten Elsevier er i forhandlinger med 20 institusjoner i Europa om å bygge et slikt system som registerer all aktivitet, men der universitetene blir tvunget til å kjøpe den informasjonen. Foto: Tove Lie

Man kan legge ut oppdraget for forlagstjenester på anbud

Publisering. Problemet er at tidsskrifthierarkiet belønner «fake news» ved at de mest prestisjetunge tidsskriftene har mindre pålitelige artikler og fører til fragmentering av forskningsartikler.

Publisert   Sist oppdatert

Bård Harstad skrev i Khrono fredag 4. oktober «Enn så lenge virker tidsskrift-hierarkiet helt nødvendig» og begrunner det med at tidsskrifthierarkiet hjelper til med å skille fakta fra «fake news». Problemet er at tidsskrifthierarkiet belønner «fake news» ved at de mest prestisjetunge tidsskriftene har mindre pålitelige artikler og fører til fragmentering av forskningsartikler, såkalt «salamiforskning», som har små utvalg og dermed lav pålitelighet. Et lotteri for å velge blant kvalifiserte artikler hadde vært bedre fordi det belønner ingen skjevt.

Harstad avslutter med: «Det er mulig Dora-forkjempere har overmenneskelige egenskaper som gjør dem i stand til å finne, lese og vurdere all forskning selv, helt objektivt.» Nei, det er er ikke overmenneskelige krefter, kun fornuftig bruk av relativt gammel digital teknologi (cirka ti år) som gjør det mulig å for det første minske behovet for fagfellevurdering, og for det andre effektivisere fagfellevurderingsarbeidet. Det er mulig tradisjonelle tidsskrifter ikke er klar over disse mulighetene og tror det er magi, men det er nok bare Clarkes tredje lov som gjør seg gjeldende: «Any sufficiently advanced technology is indistinguishable from magic.»

Et lotteri for å velge blant kvalifiserte artikler hadde vært bedre fordi det belønner ingen skjevt.
Pål Magnus Lykkja og Björn Brembs

Det er viktig å tenke på at Dora bare er en bit i et større puslespill for å sørge for at feilprosenten i artikler skal bli mindre FØR de kommer til fagfellevurdering fordi feil ikke er så lett å oppdage når de først er skapt og gjemt inne i et dokument. Det er lettere å la være å miste nåla inn i høystakken enn å prøve å finne den igjen etterpå, for å si det sånn. Et annet tiltak for å redusere feilprosenten i artikler FØR fagfellevurdering er de såkalte FAIR-prinsippene (Fair, Accessible, Interoperatible, Reproducible) fordi det blir vanskeligere å komme med sterke påstander når andre har mulighet til å sjekke om det faktisk er grunnlag for dem i dataene.

Ekspertens rolle blir annerledes med god teknologi. Du trenger ikke være kompis med ekspeditøren i platesjappa lenger med Spotify. Forskere forbinder kvalitet med store navn eller kjente artikler og har en egen «information world» som de er veldig stolte av, mens datamaskiner trives best med tallkoder på dokumenter og forfattere. Derfor så har man laget nummersystemet OrcID for forskere og nummersystemet DOI for datasett og dokumenter. Med denne enkle underlagsteknologien kan datamaskinen mye lettere bistå med å kontrollere siteringer, sjekke utregninger og avdekke feil bruk av teori. Tradisjonell fagfellevurdering ligner mer på en fysisk butikk som er vanskelig tilgjengelig og vanskelig for kunder og selgere å finne hverandre og handle på tross av stor kunnskap hos selgerne, mens open science er mer som Google.

Alternativer til tidsskrifthierarkiene som verktøy for ansettelser og fordeling av forskningsmidler: Dora, FAIR, identifikatorene og annoteringsteknologi i kombinasjon med åpent tilgjengelig publisering gjør det vanskeligere å produsere dårlig forskning uten å bli oppdaget.

Derfor trenger ikke utvalgskomiteer å lese så nøye hva som fortjener forskningmidler eller hvem som fortjener stillinger fordi åpne vitenskapsteknologier medvirker til høyere kvalitet og relevans i forskningen allerede fra idéstadiet enn tradisjonell tidsskriftsdrift klarer. Det er det som er tanken ihvertfall, men det forutsetter selvfølgelig at forskerne bruker åpne vitenskapsmetoder. Og med tidsskrifthierarkier som Journal Impact Factor og Nivå 1 og 2, så har de ikke insentiv til å bruke åpne vitenskapsmetoder.

Det mangler insentiver og oppslutning for eksempel for noe så enkelt som å skaffe seg OrcID og gi datasett et DOI-nummer. Dora ønsker å redusere de kraftige insentivene for å publisere i tidsskrifter med høy impact factor og salamiforskning, så Dora bidrar til at forskerne får mindre ulyst på å bruke åpne vitenskapsverktøy som OrcID og DOI-nummer. Med åpne fagfellevurderinger som i for eksempel eLife, så skapes det større insentiv for å gi virkelig grundige fagfellevurderinger.

Med full tilgang til hele tekster, inkludert fagfellevurderinger, prosedyrer, kode, og datasett, så er det også mulig å bruke avansert tekst- og datautvinning for å analysere hvem som har gjort hva ned til minste komma. Det er allerede mange som tilbyr slik teknologi, for eksempel GitHub, Ubiquity, Scholastica, Pensoft, SciELO, OLH, eLife, Open Science Framework osv. Åpent tilgjengelig forskning gjør det mulig å bruke.

Tekst- og datautvinning (Text- and Data Mining, TDM på engelsk) er også arbeidsbesparende analyseverktøy i forbindelse med systematiske oversikter (Systematic Reviews) slik at forskerne mer presist og mye raskere kan få oversikt over hva som er forsket på og ikke, i forbindelse med vurdering av for eksempel kreftmedisiner eller forskning på leksehjelp i skolen. Tekst- og datautvinning er som en steinsil som effektiv sorterer steiner av forskjellige størrelser, det er bedre enn at det sitter en person og vurderer størrelsene på en og en stein.

Et eksempel på effektivitet i ansettelseskomitéer for stillinger er OrcID. Med OrcID så kan vurderingskomitéer få tilgang til komplette CV-er som dels skriver seg selv uten at forfatterne trenger å gjøre noe som helst, fordi forlagene og arkivene sender bekreftelse på publisering rett til personens OrcID. Med DOI-lenker til åpne artikler og åpne datasett i personens OrcID-side, så har vurderingskomitéer bedre tilgang til hele den vitenskapelige produksjonen til den de vurderer, og i tilfelle man vil sjekke om man faktisk har bidratt som man har sagt, så er det mulig å ta stikkprøver effektivt.

I OrcID kan hver person dokumentere undervisningspraksis, deltagelse i samskrivningsprosjekter, kronikker, veiledningsaktivitet og annet som er relevant for stillingen eller forskningsfinansieringen, alt sammen lett tilgjengelig med lenker. Når datamaskinene får nummer på objektene, og ikke artikkeltitler og forfatternavn, så bereder de grunnen for annoteringsteknologi som for eksempel www.hypothes.is som gir en enormt presis informasjon om hva en forsker har bidratt med og har kompetanse på.

Det skumle som skjer nå er at forlagsgiganten Elsevier er i forhandlinger med 20 institusjoner i Europa om å bygge et slikt system som registerer all aktivitet, men der universitetene blir tvunget til å kjøpe den informasjonen som Elsevier samler inn for å kunne finne de fagfellevurdererne de trenger, for å ansette riktig, for å fordele penger. Springer kommer etter i samme løypa. Dora, OrcID, DOI og FAIR trenger oppslutning fra hele hele universitetsverdenen for å kunne begynne å benytte seg av vanlig digital teknologi som brukes på det meste av andre samfunnsområder. Inntil nå så har til og med lenke til fulltekst vært fraværende i vitenskapelige artikler, og fagdatabasene er så elementære og dårlige at de bare såvidt humper og går på 1995-teknologi.

I tillegg til en enorm datamengde fra hele forskningsprosessen, så kan man også benytte loddtrekning i mye større grad for å unngå bias. Denne metoden kan brukes når man har en rekke omtrent likt kvalifiserte kandidater eller like gode konkurrerende prosjektsøknader. Loddtrekning er mye bedre for finsortering enn å bruke siste desimaler i Journal Impact Factor eller kvantum publiserte artikler (salamiforskningens «Least Publishable Unit» LPU). Det er ikke så uvitenskapelig som man skulle tro, derimot er tidsskrifthierarkiene dokumentert uvitenskapelig, og har som eneste fordeler en viss grad av sammenlignbarhet og objektivitet.

Man kan bare legge ut oppdraget for forlagstjenester på anbud, og da vil man sikre seg at man betaler en riktig markedspris.
Pål Magnus Lykkja og Björn Brembs

Det kan se ut som at den viktigste grunnen til at Plan S med sine løsninger for transformative agreements har blitt lansert, er at man feilaktig har antatt at bare forlagene kan utføre den jobben som de gjør i dag. Det stemmer ikke, det kan bibliotekene gjøre, eller hvem som helst andre, og de kan gjøre samme jobben som forlagene med bare ti prosent av det det koster i dag.

Verden har råd til en Hadron Collider pluss en internasjonal romstasjon, verdens to dyreste eksperimenter og vitenskapelige prosjekter, PER ÅR for de pengene man sparer. Universitetene sitter på kompetansen, og teknologien som trengs er minst ti år gammel, og det er nok av penger å ta av for å kjøpe de tjenestene man trenger. Man kan bare legge ut oppdraget for forlagstjenester på anbud, og da vil man sikre seg at man betaler en riktig markedspris.

Universitetene har bedt tradisjonelle forlag om åpen vitenskap, det er som å vente på at fossilbilprodusenter skal begynne med å produsere el-biler. Omtrent som da Norge solgte Think til Ford. Elon Musk var smartere enn som så, han startet Tesla, og han kunne hyre eksperter fra tradisjonell bilproduksjon til å produsere elektriske biler.

Universitetsverden har sine Teslaer som Ubiquity, Scholastica, Pensoft, SciELO, OLH, eLife osv. men universitetene mangler entreprenørånden til Elon Musk. Offentlige forskningspenger bør ikke ha som mål å holde forlag i live, eller gjøre forskerne fornøyd, men sørge for at universitetene fungerer optimalt. Derfor må man tenke utenfor boksen, og se at andre kan utføre forlagstjenester til en brøkdel av prisen.