Ranking, fast med en nypa salt

Lunds universitet och Entreprenörskunskapsforum samarrangerade den 1 september ett seminarium med titeln ”University Rankings – to what use?” där frågor kring dagens internationella rankingutbud togs upp till kritisk granskning i presentationer och paneldiskussioner. Särskilt kommenterades huruvida de indikatorer som ingår i de olika rankingarna – och den ofta godtyckliga viktningen mellan dem – berättar hela historien om kvaliteten i verksamheten. Som exempel nämndes indikatorn ”reputation” i Times Higher Education World University Rankings och “antal nobelpristagare” i Academic Ranking of World Universities (även kallad Shanghai-rankingen). Därutöver verkar de mest kända av de vertikala rankingarna – hit hör också QS World University Rankings och även CWTS Leiden rankingen – vara inriktade på indikatorer för forskning medan nämnvärd hänsyn varken tas till samverkan med omgivande samhälle eller utbildningskvalitet. Den senare torde vara den mest intressanta aspekten för potentiella studenter.

Men rankingarna kan ha ytterligare intressenter, nämligen universitetsledningar och högskolepolitiker. Men företrädare för universiteten (Per Eriksson, rektor vid Lunds universitet och Anders Malmberg, prorektor vid Uppsala universitet) intygade att rankingarna inte sätter några djupare spår i den strategiska planeringen eller påverkar den interna resursfördelningen. Däremot bevakas placeringarna med stort intresse och används i förekommande fall i byggande av varumärket. Inte heller Peter Honeth (statssekreterare vid utbildningsdepartementet) ansåg att rankingarna inverkar på politiken. Men han nämnde också att rankingarna ibland får oproportionerlig massmedial uppmärksamhet som i fallet när de dalande positionerna för vissa svenska lärosäten på rankinglistorna sammanföll med det negativa utfallet av svenska skolresultat i den senaste PISA-undersökningen. Även generaldirektören för Vetenskapsrådet, Sten Stafström, förhöll sig kallsinnig till att ge rankingarna någon större roll i deras arbete (som bland annat innefattar att vara expertorgan till utbildningsdepartementet).

Två exempel gavs på att komma till tals med de tillkortakommanden som präglar de mest kända rankingarna, nämligen bristen på indikatorer för utbildningskvalitet och samverkan. Don Westerheijden vid Center for Higher Education Policy Studies vid University of Twente i Nederländerna berättade om U-Multirank – en horisontell ranking som tar hänsyn till både lärosätets verksamhetsprofil och utbildningskvalitet i urval. Även om The League of European Research Universities (LERU), där bland andra Lunds universitet ingår, inte är positivt inställda till detta EU-initiativ (läs meddelande från ranking-konkurrenten Times Higher Education) kan en sådan ranking vara värdefull för lärosäten som inte befinner sig högt på de vertikala rankingarna. Tilläggas kan att arbetet med att samla in data till U-Multirank är substantiellt och att det verkar som om några av universiteten I LERU ändå kommer att medverka.

Det andra exemplet rörde Leiden-rankingens indikator för samverkan med omgivande samhälle och presenterades av Koen Frenken från Centre for Science and Technology Studies vid Leiden University, Nederländerna. Indikatorn för detta är andelen publikationer som författats i samarbete med näringslivet. Det blir i och för sig ett begränsat urval om bara näringslivssamarbeten räknas in och inte de som finns med övriga samhällsektorer. Dessutom är det bara riktigt stora organisationer som har resurser att bedriva forskning. Å andra sidan ligger det i indikatorbegreppets natur att inte vara allomfattande.

Det brukar sägas att rankinglistorna är här för att stanna. Vissa kommer ihåg vilken uppståndelse det blev i samband med den ranking av universitet och högskolor som tidskriften Moderna Tider gjorde 1999. Uppståndelsen berörde framför allt ovanan vid att ett lärosäte fick en högre placering än ett annat men också rankinglistornas (brist på) återspegling av kvalitet. En darwinistisk reflektion är att om nu rankningarna överlevt denna initiala kritik, så fyller de också en funktion. Anledningen måste vara att de ger sådan information som inte var tillgänglig tidigare och att den presenteras på ett lättfattligt sätt, inte mer svårläst än Allsvenskan i fotboll. Men det hindrar inte att kvalitetsaspekterna fortfarande är i förgrunden för diskussionen. Så även under denna eftermiddag.

Hur allvarligt ska vi då se på rankninglistorna? Enligt seminariet: inte alltför allvarligt. Men ibland är det lätt att spänna vagnen före hästen. Eller som Locke et al. (2008) uttrycker det: Counting What Is Measured or Measuring What Counts? Enbart jakt på placeringar kan leda fel. En högre placering kan visserligen öka synligheten men behöver inte ha något med kvalitetshöjning att göra. Ett exempel på en sorts manipulation av rankingen föreslås i ett inlägg av Kåre Bremer i Vetenskapsrådets Curie. Genom att fusionera Stockholms universitet, Karolinska institutet och Kungliga Tekniska högskolan skulle detta samlade lärosäte bli det tredje högst rankade i Europa. Man kan undra vad som hindrar att fler lärosäten, i närheten eller lite längre bort, inkluderas i jakten på ytterligare placeringar? Läs Björn Hammarfelts syrliga kommentar.

Lämna ett svar

Din e-postadress kommer inte publiceras.