Fortsättning av en bibliometrisk studie för jämförelse mellan LTU och vissa andra europeiska universitet

Relevanta dokument
En bibliometrisk jämförelse mellan LTU och vissa andra svenska och europeiska universitet.

Rekommendationer för användning av bibliometriska indikatorer i bedömning av enskilda forskares publikationer Dnr /

Vetenskapsrådets underlag för indikatorn vetenskaplig produktion och citeringar

Publikationsstatistik för BTH

Hitta en artikel som använt samma teoretiker i samma sammanhang som du. Viktor Öman, bibliotekarie viktor.oman@mdh.se

Synliggör din forskning! Luleå universitetsbibliotek

SwePub som källa för bibliometriska analyser

Genus, produktivitet och samarbete

20 frågor om bibliometri

SKALPROBLEMET: Svenska publikationer och citeringar

Bibliometriskt underlag för medelsfördelning

Presentationen försöker besvara dessa frågor med hjälp av Incites, framförallt med den nya versionen av Incites

FÖREDRAGNINGS-PM 1 (5)

Publikationsstatistik för BTH

Times-rankingen. Universitetsrankingen från Times Higher Education. Avdelningen för analys och utvärdering PM: 2010:02. Göteborgs universitet

Söka, värdera, referera

SwePub Analys. Noden för publikationsdata i det svenska ekosystemet för forskningsinformation

Shanghai-ranking (ARWU) 2016

Registrera/publicera i DiVA

Centre for Research Ethics & Bioethics

Shanghai-ranking (ARWU) 2015

Open Access-publicering vid svenska lärosäten - en kartläggning 2011

Kort introduktion till bibliometri samt huvuddragen i den norska modellen. Per Ahlgren

Vetenskaplig publicering

PUBLICERINGSRÅD FÖR DEN MEDICINSKA OCH HÄLSOVETENSKAPLIGA FAKULTETEN VID LINKÖPINGS UNIVERSITET OCH FÖR REGION ÖSTERGÖTLAND

Kvalitetsgranskning av examensarbeten referenser i examensarbeten på sjuksköterske- och lärarutbildningen

UNIVERSITETSRANKNINGEN FRÅN QS 2015

Forskningsbiblioteken som aktörer i publiceringsfrågor

UNIVERSITETSRANKINGEN FRÅN TIMES HIGHER EDUCATION 2013

SHANGHAIRANKNINGEN 2016

Open access till artiklar 2018 Årlig uppföljning av öppen tillgång till artiklar registrerade i DiVA

Registrera konferenspublikationer i DiVA

DiVA KTH:s publikationsdatabas Manual Uppdaterad

Minnesanteckningar LRC-rådet

Open Access perspektiv från ett lärosätes ledning. Stefan Bengtsson Rektor Malmö högskola Prorektor/vice VD Chalmers -1107

Svenska lärosätens påverkan på kunskapsunderlaget i riktlinjer från Statens beredning för medicinsk och social utvärdering

Linköpings universitet

Riktlinjer för användning av bibliometri vid Vetenskapsrådet

Bibliometrisk studie av naturoch samhällsvetenskapliga institutioner vid Stockholms universitet,

Linköpings universitet

BESLUT 1(5) UFV 2011/134. Modell för fördelning av statsanslag från konsistoriet till områdesnämnderna vid Uppsala universitet

UNIVERSITETSRANKNINGEN FRÅN TIMES HIGHER EDUCATION 2018

KoF 07. Quality and Renewal An Overall Evaluation of Research at Uppsala University

Bibliometri i MER14. - hur, vad, varför? Per Nyström, bibliotekarie. per.nystrom@mdh.se. Viktor Öman, bibliotekarie. viktor.oman@mdh.

Informationssökning i högskolebibliotekets databaser och på Internet

Registrera forskningspublikation i DiVA

Bibliometri för utvärdering av forskning

Källkritik. - om att kritiskt granska och värdera information. Ted Gunnarsson

Open Access-policy för vetenskaplig publicering vid Umeå universitet

Uppdaterad Registrera/publicera i DiVA

Bibliometri för utvärdering av forskning

UNIVERSITETSRANKNINGEN FRÅN TIMES HIGHER EDUCATION 2015

Årsrapporten på webben uka.se/arsrapport

Utvärdering Kvalitet och Nytta 2018 (KoN2018) Information och instruktioner till prefekter angående Units of Assessment (UoA)

Ulf Sandström

Innehåll. Källkritik och vetenskaplighet. Introduktion till UB

Presentationen i korthet

Viktigt om informationssökning

PM GÖTEBORGS UNIVERSITET Analys och utvärdering Box 100, Göteborg

Ger proceedings papers en annan bild av högskolelandskapet? En undersökning med fokus på fältet Computer Science

LEIDEN-RANKINGEN En analys av universitetsrankingen från CWTS, med fokus på Göteborgs universitet

PM GÖTEBORGS UNIVERSITET Avdelningen för analys och utvärdering Box 100, Göteborg

UNIVERSITETSRANKNINGEN FRÅN TIMES HIGHER EDUCATION 2016

Publikationstyp Konferensbidrag

Informationssökning inför uppsatsen

Sammanfattning av informationssökning VT19

Handlingsplan för Mittuniversitetets forskningsutvärdering 2013, ARC13: Processbeskrivning, organisation och ansvarsfördelning

Disciplinärenden kvinnor och män

Informationssökning - att söka och finna vetenskapliga artiklar! Linköpings Universitetsbibliotek

SHANGHAIRANKNINGEN 2016

Informationssökning Liberal Arts LIB40 V17

Vetenskapsrådet. Missiv (U2009/4353/F) Carl Jacobsson. Utbildningsdepartementet Stockholm

Riktade samverkansprojekt Öppna samverkansprojekt

Introduktionsseminarium för examensarbete, del 2

Parallellpublicering av konferensartiklar ett projekt Mötesplats Open Access i Norrköping mars 2012

DiVA publikationsdatabas vid Södertörns högskola

Universitetsrankningar samt något om SU:s arbete med datainsamling till rankningarna. Per Ahlgren

Dialogmöte granskning av kvalitetssäkring av forskning. Anders Söderholm Generaldirektör, UKÄ

Klassificering av kurser vid universitet och högskolor 2007

Bibliometri för forskningsutvärdering

Instruktioner till ansökningsformuläret i Prisma: Tidskriftsbidrag 2018

- nya möjligheter att göra forskningen tillgänglig. Vetenskaplig publicering och Open Access Karlstads universitet, 18 februari 2010

K2:s publiceringspolicy

16/12/14. Samproduktion för tillväxt Resultat och effekter av forskningsfinansiering. Resultatrapport till KK-stiftelsen av DAMVAD

Effekten av ho gskolesektorns forskningsfinansiering sedan 2009

Registrera och publicera i DiVA

Hyresstatistik Boende 2009: Gerd Lindqvist/Iris Åkerberg Tel

KOMMENTARER TILL INDIKATORRAPPORTEN

Studentuppsatser/Examensarbeten registreras men fulltextpublicering sker frivilligt.

En studie av studenter som har läst vid flera lärosäten

NATURVETENSKAPLIGA BEFORDRINGS_ PROFESSORERS PUBLICERINGSMERITER BIBLIOMETRIC CHARACTERISTICS OF PROMOTED AND RECRUITED PROFESSORS IN NATURAL SCIENCES

Introduktionsseminarium vt17

Bildexempel på myndigheters leveranspliktiga material

CHE ExcellenceRanking

En utvärdering av validitet och reliabilitet för bedömningsinstrumentet uppföljning av insatser för vuxna missbrukare (UIV)

PM GÖTEBORGS UNIVERSITET Analys och utvärdering Box 100, Göteborg

Ja: Ändra i den befintliga registreringen om du vill redigera eller komplettera uppgifter

Rutiner och tidsplan för nominering till Knut och Alice Wallenberg Stiftelse: Forskningsprojekt av hög vetenskaplig potential.

Biotopskydd och naturvårdsavtal på skogsmark 2015 JO1402

Transkript:

Fortsättning av en bibliometrisk studie för jämförelse mellan LTU och vissa andra europeiska universitet Terje Höiseth, överbibliotekarie Bakgrund Min förra undersökning (http://www.ltu.se/lrc-intern/nyheter/1.46435) lämnade en del frågeställningar och funderingar som jag kommer at gå vidare med i denna studie. För det första verkade det som publiceringsgraden, alltså antal publicerade dokument per forskare var mindre vid LTU än exempelvis Chalmers och KTH. En möjlig förklaring är det stora antal adjunkter vid LTU, eller är det verkligen så att vid LTU publicerar varje forskare i snitt färre artiklar? Vi kommer att söka svar på denna fråga i det kommande materialet. En annan observation från förra studien var att det verkar som när man först har publicerat sig är chansen att bli citerat inte signifikant mindre vid LTU än vid de större lärosätena. Även denna fråga kommer vi att försöka att svara lite mer ingående på i denna studie. Den tredje frågan som vi så vitt tangerade i förra studien var det låga antal publikationer från LTU som finns med i de kommersiella citeringsdatabaserna som Web of Science och Scopus i förhållande till vad som är registrerat i LTUs lokala repository PURE. Här kommer vi att göra en liten undersökning och jämföra med Chalmers för att se om vi hittar ett liknande fenomen där. Urval Vi kommer att studera samma universitet som i förra studien, förutom LTU är det KTH och Chalmers från Sverige och Hamburg-Harburg, Delft och L Aquila från övriga Europa. Problematiken med att jämföra institutioner som är olika stora kom tydlig fram i förra undersökningen, och här kommer vi att göra ett försök på att eliminera denna faktor. Dels kommer vi att studera publiceringen för tre olika år (2002, 2005, 2007) och sedan begränsa resultaten till de 10 mest produktiva forskarna (med hänsyn till antal publiceringar) vid varje lärosäte. I och med att det är lika stor grupp från varje universitet kan man ju lätt få fram siffror som visar om det är så att de stora universiteten publicerar mer per forskare eller inte. När det gäller citeringar är det egentligen enbart 2002 som är relevant med absoluta siffror, då 2005 och 2007 är för nära i tid till att det har hunnits med att citera i någon

större omfattning, men detta är lika för alla universitet, som underlag för jämförelse kan de ändå ge en del information. Liksom i förra studien hämtas underlaget från Scopus då det är den databas som bäst täcker de ämnesområden vi ska undersöka. Web of Science har sämre täckning, och Google Schoolar är inget alternativ så länge du inte arbetar med bibliometriska studier av enskilda forskare. Dataunderlag 2002 N N(10) H(10) H(korr) C(10) N(C+) LTU 226 53 18 14 1643 44 KTH 1163 153 24 20 1877 121 Chalmers 1123 112 22 18 1886 91 Delft 1524 180 26 24 2750 137 Hamburg 166 49 12 12 410 33 L'Aquila 516 68 14 11 711 53 Tabell 1 Teckenförklaring: N = Antal publikationer totalt för lärosätet under rubricerade år N(10) = Summan av publikationer för de 10 forskarna med flest publikationer detta år H(10) = H-index för dessa forskares publikationer H(korr) = H-index korrigerat för självciteringar C(10) = Antal citeringar för N(10) publikationer N(C+) = Den delmängd av N(10) som är citerat minst en gång, och rensat från självciteringar Detta underlag kan så generera följande tabell för artiklar publicerade 2002: P(C+) C(10)/N(10) LTU 0,83 31,5 KTH 0,79 11,3 Chalmers 0,75 16,2 Delft 0,76 15,5 Hamburg 0,67 10,4 L'Aquila 0,79 10,4 Tabell 2

P(C+) = Sannolikheten för att en publicerat artikel ska citeras minst en gång av någon annan än artikelförfattaren. C(10)/N(10) = Antal citeringar per publicerad artikel Motsvarande tabeller för 2005 och 2007: 2005 N N(10) H(10) C(10) N(C+) LTU 308 59 11 315 37 KTH 1734 208 16 1866 111 Chalmers 1479 147 14 796 80 Delft 2501 228 24 1866 123 Hamburg 331 90 13 666 51 L'Aquila 673 91 15 751 60 Tabell 3 Citeringssannolikhet och citeringar per artikel: P(C+) C(10)/N(10) LTU 0,63 5,3 KTH 0,53 8,9 Chalmers 0,54 5,4 Delft 0,54 8,1 Hamburg 0,57 7,4 L'Aquila 0,66 8,2 Tabell 4 2007 N N(10) H(10) C(10) N(C+) LTU 381 81 6 129 34 KTH 1973 221 11 521 94 Chalmers 1329 151 6 203 40 Delft 2734 239 8 307 60 Hamburg 326 90 5 115 21 L'Aquila 717 112 7 188 43 Tabell 5. Citeringssannolikhet och citeringar per artikel: P(C+) C(10)/N(10) LTU 0,42 1,6 KTH 0,43 2,4 Chalmers 0,26 1,3 Delft 0,25 1,3 Hamburg 0,23 1,3 L'Aquila 0,38 1,7 Tabell 6.

Analyser och kommentarer En snabb blick på siffrorna för publikationer från de 10 mest produktiva från varje lärosäte visar att det är en klar tendens till att forskare från de stora universiteten publicerar mer än de som kommer från mindre universitet. Medan Luleå visar ett snitt per forskare i denna grupp på mellan 6 och 9 publikationer per år, har exempelvis KTH mellan 15 och 22. Detta resultat stödjer alltså hypotesen att forskarna på de universitet vi jämför oss med är mer produktiva när det gäller publicering än LTU (och de mindre universiteten.) Det finns självklart olika publiceringstraditioner inom olika ämnesområden, och de stora tekniska universiteten har större enheter med naturvetenskap än LTU som är mera tekniktungt. Detta kan vara en del av förklaringen. Vi upptäckte även ett annat intressant fenomen vid en närmare granskning av urvalet. Om man summerar varje enskild forskares publicering inom 10- gruppen för 2005 för LTU, KTH och Hamburg, och jämför med N(10), som är den samlade unika produktionen, får vi följande ganska intressanta tabell: N(10) N(Tot) LTU 59 98 KTH 208 226 Hamburg 90 93 Tabell 7 Här är tendensen mycket klar: Det existerar nästan inget medförfattarskap för publiceringen på KTH och Hamburg mellan deras 10 forskare, medan för LTU är det mycket omfattande. Nästan 40 % av artiklarna försvinner i och med att två eller flera av 10-gruppen är författare till en och samma artikel. Jag tror inte att det är mer vanligt med flera författare till artiklar i Luleå än vid KTH och i Hamburg, men tydligen befinner sig dessa inte i gruppen av 10 mest produktiva forskare. Jag har även vidgat gruppen och tittat på N(20), och resultatet blir exakt detsamma. Extra tydlig blir det för LTUs del när vi tittar på siffror från 2003. Räknar vi ihop forskarnas samlade produktion blir de tillsammans 116 artiklar för de 10 mest produktiva forskarna, medan N(10) blir 55 unika artiklar. Listan toppas av Öberg och Briddon med vardera 27 publikationer i 2003, men det är de samma 27 artiklarna i bådas fall, så för LTU utgör det 27 artiklar, inte 54. Att reda ut medförfattarskap och institutionstillhörighet är ett av de problem man brottas med i den danska modellen för fördelning av forskningsmedel efter publiceringsgrad. Det återstår då att titta på om det finns skillnader mellan universiteten på graden av acceptans i de kommersiella citeringsdatabaserna av det publicerade materialet på varje lärosäte. Vid LTU har vi full kontroll över det publicerade materialet genom

PURE, medan det för övriga universitet bara finns tillgång till Chalmers siffror på ett förhållandevis enkelt sätt. Om vi begränsar publikationer i det lokala repository till vetenskapliga peer-rewied artiklar och granskade konferensbidrag, får vi följande siffror för LTU och Chalmers för åren 2005 och 2007: 2005 2007 LTU(PURE) 696 733 LTU(SCOPUS) 308 381 Chalmers(CPL) 1725 1618 Chalmers(SCOPUS) 1479 1329 Vi ser omedelbart att en betydlig större andel av Chalmers publikationer finns även med i SCOPUS, mens det är klart sämre för LTU. Det finns två möjliga förklaringar till detta förhållande. Det ena är rätt och slätt att forskare vid LTU i större grad än vid Chalmers publicerar sig i tidskrifter och konferenser som inte täcks av SCOPUS eller Web of Science. Det kan vara tidskrifter av bransch-karaktär eller liknande som säkert är helt rätt med tanke på vår mer tillämpade profil, men som inte går hem om vi tänker synlighet i databaser och citerings-indexar. Här kan man självklart om man publicerar sig mera taktiskt bättra på den delen av statistiken. Den andra orsaken ligger i hur vi registrerar publikationer i PURE. Om någon forskare kommer till LTU och har en karriär bakom sig vid ett annat universitet, har det varit praxis att även registrera forskarens samlade produktion bakåt i tiden i PURE. Publikationen kommer då med i statistiken för LTU-publikationer i PURE, medan det i SCOPUS är registrerad på det universitet forskaren var vid publiceringstillfället. Vi arbetar på en lösning där artiklarna kommer med i forskarens CV och institutionernas listor, men inte räknas i LTUs årsstatistik. En annan observation när det gäller Chalmers är att alla doktorsavhandlingar vid Chalmers verkar vara registrerat i SCOPUS, medan detta inte är fallet för övriga universitet. Vi undersöker just nu vad detta beror på, och kollar självklart möjligheten att även få LTUs avhandlingar registrerat. Oavsett förklaringsmodeller måste det här vara belagt med siffror att forskarna vid LTU publicerar sig i mindre grad än forskare vid jämförbara lärosäten, och det bara understryker det rektor och fakultetsledning har sagt i denna fråga. I och med att citeringar kommer att tas med som en parameter i algoritmen för fördelning av forskningsanslag är det självklart av stort intresse att titta på hur LTU klarar sig här i förhållande till andra. I den förra studien visade jag att det tar ungefär 10 år från att en artikel skapas till den når sitt citeringsmaximum. Det betyder

egentligen att man belönar 10 år gammal forskning i anslagsfördelningen. En tröst kan väl vara att de flesta Nobel-priser delas ut till forskning som är betydligt äldre. I och med den långa eftersläpningen av citeringar är det egentligen siffrorna från 2002 som har högst relevans. Jag har alltså tittat på antal citeringar C(10) som finns för de N(10) artiklar som publicerats av de 10 forskare vid varje lärosäte som har publicerat flest artiklar under rubricerade år. C(10)/N(10) är alltså siffran på antal citeringar i snitt per artikel. Jag har dessutom tagit fram C(+), som är C(10) rensat för självciteringar och tittat på hur många av publikationerna som har minst en citering som inte är en självcitering. Utifrån detta har jag räknat fram sannolikheten P(C+) för att en publicerad artikel ska citeras minst en gång av en annan forskare. En grafisk framställning av C(10)/N(10) för 2002 ser ut så här: 2002 C(10)/N(10) 35 30 Citeringar per artikel 25 20 15 10 C(10)/N(10) 5 0 LTU KTH Chalmers Delft Hamburg L'Aquila Resultatet är ganska överraskande och visar alltså att LTUs publikationer har i snitt 32 citeringar per artikel, medan de andra universiteten ligger på mellan hälften och en tredjedel av detta. Siffrorna för 2005 0ch 2007 är självklart på långt när fullständiga, men ingenting pekar på något liknande som vi ser för 2002. Man kan misstänka något fel i dataunderlaget, men förklaringen är en helt annan. Under 2002 publicerade O Anzutkin en artikel som hittills är citerad 512 gånger. Detta ger självklart ett stort utslag på statistiken, men även om man bortser från denna extremt citerade artikel ligger LTU mycket bra till i antal citeringar per artikel. Åren

2005 och 2007 ligger för nära i tiden till att vi kan utläsa något med säkerhet, men där har inte LTU samma tätposition som 2002 i förhållande till övriga. Exemplet med Antzutkins artikel visar även en svaghet med H-index som bör påtalas. Antzutkin har en H-index på 19 enligt Scopus, och även om denna index ger en indikation på hur mycket man har publicerat och citerats, fångar den absolut inte upp artiklar som har extremt höga citeringssiffror. Historien har visat exempel på forskare som har publicerat få, men verkligen banbrytande artiklar som på grund av antalet får låg H-index, men har haft stor betydelse för utvecklingen av ett ämne. Man ska även använda H-index med försiktighet! Slutligen har jag konstruerat ett mått som visar sannolikheten för att en publicerat artikel citeras minst en gång av någon annan än författaren själv. Grafiskt ser det ut så här: 0,9 0,8 0,7 0,6 0,5 0,4 2002 2005 2007 0,3 0,2 0,1 0 LTU KTH Chalmers Delft Hamburg L'Aquila Här ser vi att LTU ligger i topp när det gäller sannolikheten för att en publicerad artikel blir citerat minst en gång. Det betyder att när man först publicerar sig på LTU, är det större chanser för att artikeln citeras än när man publicerar sig vid några av de andra lärosätena. Om man ser citeringar som ett tecken på kvalitet kan man uttrycka sig så att LTU har liten kvantitet, men bra kvalitet när det gäller publiceringsverksamheten.

Sammanfattning och konklusioner Det publiceras för lite vid LTU. Oavsett om man räknar på hela populationen av forskare eller tar ett urval på 10 eller 20 är bilden densamma, vi ligger sämre till än de andra universiteten i undersökningen. Det är en klar tendens att forskare vid LTU inom gruppen av mest publicerande sampublicerar, medan detta är ganska ovanligt vid de övriga universiteten. Detta påverkar i stor grad mängden av unika publikationer vid lärosätet. Vi finner även att mängden av publikationer som inte registreras hos SCOPUS eller Web of Science relativt sett är högre vid LTU än Chalmers (som är det enda vi på ett enkelt sätt kan jämföra oss med). Genom att välja tidskrifter och konferenser som indexeras i SCOPUS och/eller Web of Science kan man rätta till detta, man måste alltså tillämpa en mer taktisk publicering. Bilden är helt annorlunda när det gäller citeringar. Båda när det gäller antal citeringar per artikel och sannolikheten för att en publicerad artikel ska citeras, ligger LTUs forskare i topp. Det visar i alla fall att man inte behöver komma från att visst lärosäte för att en artikel ska citeras, och att kvantitet inte nödvändigtvis är det samma som kvalitet. Luleå 090406