Exemplet Nederländerna – en framstående forskningsnation; frågan om att dämpa publiceringsstress

I förra bloggen (23 februari 2016) reflekterade jag över basanslagens roll i kunskapsöversikten om system för forskningsfinansiering och kvalitet som Expertgruppen för kvalitetsfrågor inom Sveriges universitets- och högskolors förbund publicerade nyligen (hittas på denna hemsida). I översikten finns också rekommendationer till regeringen inför kommande forskningspolitiska proposition. Nederländerna får stort utrymme i rapportens internationella utblick. Den forskningspolitiska styrningen i Nederländerna sker med hjälp av en fyraårig strategisk plan som är knuten till en övergripande vision. Planen har ett begränsat antal mål och till dessa kopplade åtgärder. Av särskilt intresse är att forskningsresurser inte är anhängiga prestationer samt följande åtgärd som kopplas till det tredje målet.

Ambition 3: The Dutch science is a breeding ground for talent.

The government wants talent in science even more have come into its own. This leads to a number of actions: 

  • To reduce the pressure to publish (and acquire funding − som diskuterades I förra bloggen).

I Nederländerna finns alltså en syn som nästan är motsatsen till klyschan ”publish or perish” − och devisen ”hungriga vargar jagar bäst” beträffande externa medel. Forskarna vid de nederländska lärosätena ska således varken känna sig tvingade att publicera till varje pris eller vara alltför beroende av externa medel. Istället ska forskningsresultatens kvalitet vara ledstjärna. Kvalitet före kvantitet. Tankefiguren skulle kunna sammanfattas så här: hög kvalitet i forskning trivs bäst i en akademisk miljö präglad av arbetsro och långsiktighet.

Publiceringsstress, å andra sidan, kan hänga samman med för lite fasta ekonomiska resurser i forskningssystemet så till vida att publikationer kanske tvingas fram i försök att genom en bra ”track record” i CV:et öka chanserna att få nästa projekt externfinansierat. Andemeningen i den nederländska strategiska planen tampas lite varstans också med karriär- och meriteringssystemets övervärdering av en lång lista med vetenskapliga publikationer − en global företeelse, verkar det som.

Hur undviks då publiceringsstress och kan forskningssystemet locka fram en kärnfull vetenskaplig produktion? Vi vet att antalet vetenskapliga publikationer ökar i rask takt samtidigt som en del av dessa förblir ociterade även flera år efter publicering – en klassisk fråga om kvalitet versus kvantitet. Frågan är om Expertgruppens förslag till Regeringen att utreda om belöning av publikationsprestationer enligt norsk/dansk modell skulle vara saliggörande i det här fallet. Tänk om rekommendationen är ett uttryck för en övertro på sådana modellers styrningsförmåga på nationell nivå? Det finns anledning till att undersöka senare års utveckling av vetenskaplig produktion och citeringar i Sverige och i våra skandinaviska grannländer.

I den norsk/danska modellen belönas enbart antalet publikationer (inte citeringar). Beroende på hur statusfylld en publikationskanal anses vara – det är forskarsamhället som bestämmer nivåindelningen – får olika kanaler olika tyngd, liksom publikationsformen (artikel, monografi, bokkapitel). Det ligger nära till hands att kritisera tillvägagångssättet med en sådan subjektiv nivåindelning av publikationskanaler och -former. Och det är samtidigt bekvämt för de specialister som står för nivåindelningen av artiklar att väga in en tidskrifts Journal Impact Factor (JIF) för att få in någon sorts objektivitet i sammanhanget. Men vi får komma ihåg att JIF berättar enbart hur ofta en publikation i just den tidskriften är citerad i genomsnitt de senaste åren och säger därför inget om de enskilda publikationernas citeringar. The San Francisco Declaration on Research Assessment har av den anledningen avrått från användning av JIF vid mätning av såväl enskilda forskares meriter och forskningens genomslag i större sammanhang.

Erfarenheterna från Norge och Danmark visar att modellerna knappast förbättrat genomslaget i forskning. Norska ”tellekantsystemet” har visserligen inneburit en rejäl ökning av antalet publikationer men, som också konstateras i en utvärdering: “… it is less surprising that the indicator seems to have affected scale rather than impact. If the intention was to encourage publications of the highest possible quality, the design of the Indicator and its reward mechanisms would probably have been different.” Utvärdering av den danska modellen talar samma språk: Verken i Norge eller Danmark har indikatoren hatt innvirkning på siteringshyppighet. Danmark er blant verdens mest siterte land, mens Norge har en stabil siteringshyppighet på et lavere nivå.”

I den svenska modellen belönas som bekant citeringar i Web of Science. Vetenskapsrådet konstaterar i Forskningens framtid! förvisso en något ökad citeringsgrad för svenska publikationer men också att antalet publikationer har ökat som en effekt av ”bland annat införandet av resursfördelningsmodellen 2009, vilken har gett tydliga incitament för lärosätena att maximera antalet publikationer till lärosätet.” Även den svenska modellen verkar således ha drivit på den vetenskapliga produktionen men utan att genomslaget ökat nämnvärt i någon generell utsträckning. Hur som helst verkar det inte vara någon större skillnad mellan den svenska och norska modellens beskrivning av vetenskaplig produktion på lärosätesnivå (Sandström och Sandström, 2008). Skillnaden ligger istället i att citeringar ger ett tydligt och svårmanipulerbart kvalitetsincitament. Men det är, som sagt, osäkert om den avsedda effekten har åstadkommits i Sverige som helhet. Det utesluter inte att enskilda lärosäten kan påverkas positivt. Malmö högskola, som använder den svenska modellen i den interna resursfördelningen av forskningsanslaget, har ökat såväl sin samlade produktion och citeringsgrad. Från att ha varit under världsgenomsnittet under de första åren då modellen var verksam har nu Malmö högskola en citeringsgrad på 1,06 i Vetenskapsrådets fördelningsunderlag 2016 (det vill säga en bit över världsgenomsnittet).

Med dessa tre skandinaviska erfarenheter kan man fråga sig om det finns en övertro på att det är möjligt att genom olika former av incitamentsstrukturer dirigera fram en förbättring av ett lands vetenskapliga position i världen? Nederländerna har som sagt en mer avslappnad och icke-kontrollerande hållning i denna fråga. Visserligen redovisas antalet publikationer i det nederländska Standard Evalution Protocol men där ska det också anges vilka fem publikationer som anses vara de mest framstående. Varken den vetenskapliga produktionen eller genomslaget i from av citeringar påverkar som sagt fördelningen av forskningsmedel mellan de nederländska lärosätena. Och, som också konstaterades i förra bloggen, verkar det gå bra för Nederländerna ändå − vilket det höga genomslaget för det landets vetenskapliga produktion visar.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *