Hur fördelar vi forskningspengar?

Just nu läser jag Vetenskapsrådets förslag på justering av modellen för indikatorerna (egentligen indikatorn) vetenskaplig produktion och citeringar, de som används för att fördela en del av statens forskningspengar (ute på remiss nu). 20 % närmare bestämt, som fördelar sig lika över en indikator för vetenskaplig produktion/citeringar och en indikator för externa medel. Men det är inte 20 % rakt av, det hela sker enligt en relativt komplicerad omfördelningsmetod som beskrivs närmare i den här texten av Ulf Heyman och mynnar ut i att det i realiteten var 15,8 % av forskningsanslagen som låg i potten 2014 då texten skrevs.

Modellen infördes efter ett förslag i propositionen Ett lyft för forskning och innovation (prop 2008/09:50). I propositionen benämns de två indikatorerna, vetenskaplig produktion och externa medel, som kvalitetsindikatorer. Dessa har enligt propositionen tydligast koppling till vetenskaplig kvalitet och får störst acceptans hos remissinstanserna (s.55). Förslaget i propositionen är att hälften av forskningsmedlen skulle fördelas efter föreslagna indikatorer (några till ingår). Så blev det inte, 2009 började Sverige fördela 10 % av statens direkta forskningsanslag efter modellen och 2014 utökades andelen till 20 %.

Det är alltid spännande att diskutera den bibliometriska delen med forskare, vi når sällan fram till konsensus. Just den bibliometriska delen består av ett antal komponenter, bl a en om produktiviteten hos forskare inom olika ämnen (i remissen föreslås en ändring av detta). Humaniora behandlas för sig då datakällan Web of Science inte indexerar särskilt stor andel humaniora. Det betyder att för humaniora räknas volym medan de andra disciplinerna räknar citeringar. Ungefär här tar forskarnas tålamod slut, och diskussionen om Web of Science som datakälla tar vi en annan gång. Det är fullt förståeligt att forskarna inte sätter sig in i dessa modeller, de berör dem sällan direkt. Jag förmodar att de flesta forskare strävar efter att deras forskning ska hålla en god vetenskaplig kvalitet. När det kommer till att bedöma den vetenskapliga kvalitén hos sig själv och andra blir det svårare, och det finns massor av anekdoter om den förfärliga peer review-processen (t ex här). Under tiden pågår diskussioner bland bibliometriker om många citeringar verkligen är ett tecken på vetenskaplig kvalitet, eller om det snarare handlar om vetenskapligt genomslag eller över huvud taget inte går att ge citeringen en entydig betydelse då olika ämnen citerar på olika sätt.

Det om forskarna. Men lärosätena vill gärna förstå hur de ska kunna få en större del av anslagen. Ett svar vore ju att försöka förmå sina forskare att söka (och få) externa forskningsmedel samt publicera artiklar som indexeras i Web of Science (och för alla ämnen utom inom humaniora, citeras ordentligt). Och de måste hela tiden prestera bättre än de konkurrerande lärosätena. Lärosäten kan arbeta med detta på olika sätt. En del ger extra pengar till forskare som publicerar artiklar som blir indexerade i Web of Science. Andra verkar inte uppmärksamma den här delen av fördelningsmodellen i någon större utsträckning. Och tanken från regeringens sida är väl inte heller att lärosäten aktivt ska försöka påverka modellen. Det är en ständigt återkommande fråga inom bibliometrin: Går det att utvärdera forskare/lärosäten/grupper utan att de anpassar sig till modellerna, och vad som anses vara kvalitet oavsett om de själva anser det?

Advertisements

Praktiserande bibliometriker

Såhär på sluttampen inför semestern finns mer tid, och jag har precis läst igenom en debatt om storleksoberoende indikatorer för utvärderande bibliometri i Journal of Informetrics (vol 10:nr 2 2016, prenumeration krävs för åtkomst).

I korthet handlar debatten om lämpligheten i olika indikatorer, där två forskare föreslår att deras indikator  Fractional Scientific Strength (FSS) borde ersätta den ofta använda Mean Normalized Citation Score (MNCS), eftersom FSS tar hänsyn även till produktivitet och på så sätt ställer forskningsinput (forskningsresurser in) mot forskningsoutput (i det här fallet publikationer). Bidragen diskuterar olika frågor: ska vi ha den enda, ultimata indikatorn eller flera för att täcka in bredd? Hur kan ekonometriska och scientometriska modeller hämta inspiration från varandra? Hur kan datakällor verifieras och på vilken nivå (lokal, nationell global) kan vi förvänta oss god datakvalitet? Kan vi vara pragmatiska och använda oss av “good enough”-indikatorer?

Södertörns högskola har precis genomfört en intern forskningsutvärdering och jag har varit ansvarig för leverans av bibliometriska underlag. Detta underlag utgjorde tillsammans med andra underlag (forskningsmedel, antal anställda etc) bakgrundsmaterial för inbjudna utvärderingspaneler (s k kollegial granskning, eller peer review) som skulle bedöma forskningens status efter på förhand definierade kriterier. Panelerna var uppdelade ämnesvis. De allra flesta ämnena på högskolan lämpar sig inte för citeringsanalys så de bibliometriska underlagen bestod till största delen av deskriptiv statistik med DiVA som datakälla. För två ämnen på högskolan beställdes citeringsanalys från KTHB:s bibliometrigrupp.

Vad har då detta att göra med den ovan nämnda debatten? Medan jag läser de olika debattinläggen funderar jag på utvärderingsprocessen som sådan. Jag fick ta del av utvärderarnas rapporter efteråt vilket var mycket värdefullt för utvärderingen av min del i arbetet. En del utvärderare uttryckte att underlagen var oklara, och hade önskat sig kompletterande uppgifter för att kunna tillgodogöra sig siffrorna. Andra kombinerade på egen hand siffrorna i de olika underlagen för att på så sätt räkna fram nyckeltal som t ex antal publikationer/forskare. Några verkar inte ha använt statistiken alls. Jag fick också input angående citeringsanalysen, där forskare som vanligtvis är insatta i bibliometriska underlag fann den svårläst och svår att dra slutsatser från. Av detta drar jag två slutsatser: 1. Jag som levererar data kan inte ha kontroll över hur den används, men jag kan om jag vill försöka beskriva hur den bör användas. 2. Mitt underlag var inte komplicerat i förhållande till de teoretiska diskussioner kring indikatorer och deras för- och nackdelar som fördes i debatten ovan. Kan utvärderarna, de som är satta att granska sina kollegors forskning, förväntas vara insatta i detaljer, som t ex den här debatten?

En kedja formas där specialisterna (scientometrikerna) utvecklar indikatorerna som vi praktiserande bibliometriker använder oss av och levererar till beställarna (ledningarna vid våra lärosäten) och som sedan används av de forskare som är satta att utvärdera andra forskare. Det kanske alltid är så att alla inte kan ha detaljkunskapen. I så fall, hur gör vi kommunikationen mellan varje led tydlig? Till nästa gång kommer jag fundera mer på hur underlaget förmedlas, det går heller inte att skriva in allt och tro att alla läser. Nu har jag också nya riktlinjer till min hjälp, Nyligen kom Leiden-manifestet där scientometriker från ett flertal lärosäten sammanfattar 10 punkter att hålla fast vid. Leiden-manifestet utgör en grund till nationella riktlinjer utarbetade av arbetsgruppen för bibliometri i SUHF (där jag är med). Och då och då får jag tillfälle att fördjupa mig i en aktuell debatt, några pusselbitar till att fundera över. Allt bygger ju förstås på att jag tycker att bibliometriska underlag har en roll att spela i forskningsutvärdering. Det tycker inte alla, och den diskussionen förekommer ju i så fall den om indikatorernas vara eller inte vara.

 

Definitioner på gränsen

Att människor har kategoriserandet i blodet hör jag ofta, särskilt när det kommer till barn. Jag tycker väl att vi vuxna också är bra på att kategorisera åt dem – runda knappar där, ovala där, grönt hit och rött dit, det här är en katt – vad säger katten?

Så fort vi har kategoriserat något börjar vi avgränsa. Vad är det som gör att den här gruppen skiljer sig från den där gruppen? När jag läste biologi lärde vi oss att raser inte gick att definiera biologiskt. Inte ens begreppet art satt där det skulle när organismer envisades med att tillverka avkomma över artgränserna. Till och med liv var svårdefinierat på grund av de ettriga virusen.

Idag funderar jag över vetenskapliga publikationstyper, en betydligt mer artificiell form av avgränsning. Vi specialiserar oss alla på olika saker. I mitt dagliga arbete lever jag med DiVAs och numer SwePubs definitioner av olika publikationstyper. Samtidigt gnager vissa tvivel mig, jag har t ex inte till fullo klart för mig vad som skiljer ett antologibidrag från en tidskriftsartikel.

Den vetenskapliga publikationen har varit konservativ till formen, två exempel är tidskriftsartiklar och avhandlingar. Till viss del verkar detta ha hindrat övergången till digitalt format, då vi envisats med att skapa PDF:er (döda träd online) som gör möjligheten att återanvända text och diagram till en mer eller mindre härlig utmaning. Vad gäller avhandlingarna är de ju intimt förknippade med själva den akademiska processen, där nya forskare går i lära hos äldre forskare och presterar text för att säkerställa sin väg framåt i den vetenskapliga världen. Äldre avhandlingar var ofta kortare och det var vanligt att samma forskare skrev flera, vilket är betydligt mer ovanligt nuförtiden. Idag har vi två avhandlingsvarianter; monografin och den sammanlagda. Det finns geografiska skillnader, forskare vid anglosaxiska lärosäten tenderar att arbeta om en ursprunglig monografiavhandling till en läsvärd bok att ge ut på ett (prestigefullt) förlag. Vid svenska lärosäten händer ibland att avhandlingen direkt ges ut på förlag vilket kan förvåna då den i teorin inte har gått igenom hela den vetenskapliga granskningsprocessen; avhandlingen trycks ju innan disputation där värdefulla kommentarer tillkommer. Men en bok kan förvisso vara läsvärd (och sälja) utan att vara alldeles korrekt.

Vad är då skillnaden på ett antologibidrag och en tidskriftsartikel? Och vidare, vad är skillnaden på en artikel och en monografi? Jag fick ett svar på den första frågan en gång i tiden: antologier har ett specifikt tema och tidskrifter handlar mer övergripande om ett ämne. Nyligen fick jag veta att enskilda tidskriftsnummer inom humaniora ofta har ett tema, och bjuder in forskare att skriva kring det. Så just nu tänker jag att uppdelningen snarare har blivit till inom olika ämnen, där vissa ämnen har haft för vana att skriva för tidskrifter och vissa för antologier. Textmängden varierar men verkar vara jämförbar vilket leder till den andra frågan: hur skiljer monografin ut sig? Förutom prestige i det fysiska verket per se skulle nog flera säga textmängden, men det finns monografier som inte är längre än artiklar. Det andra uppenbara svaret finns i namnet mono-grafi: ett enskilt verk (med ISBN). Tidskrifter är verk i serier (med ISSN). Men en monografi kan också utkomma i serie, t ex i en serie dedikerad till empiriska studier inom teologi. Såklart kan även en antologi ingå i en serie. Om vi tittar på sorgebarnet för katalogisatörer/DiVA-registrerare: konferensbidrag, finner vi att de kan ges ut som artikel i en tidskrift, kapitel i en antologi eller kanske på en webbplats på nätet (då frågan infinner sig om den överhuvudtaget kan anses vara publicerad). Då konferenserna ofta är återkommande hamnar publikationerna gärna i en serie. Intressanta rapporter från dem som gått i närkamp med konferensbidragens särskilda natur finns här och här. Jag fortsätter leta ledtrådar här och där, den vetenskapliga kommunikationens historia är spännande och omfattande.

Men varför bry sig om detta?

I utvärderingarnas förlovade land ska även publikationer utvärderas antingen genom att läsas eller genom mätning. Det kan vara svårt att mäta en enskild publikation och då har utvärderingar ofta genomförts på publikationskanaler istället – tidskrifter och förlag. Argumentationen är att en publikation som antagits av ett högt ansett förlag eller en tidskrift med hög Impact Factor på något sätt väger mer. Och då kommer vi till vikten av publikationstyper. Att skriva ett antologibidrag (artikkel i antologi) hos ett prestigefullt internationellt förlag ger en poäng i norska modellen, att skriva en artikel (artikkel i periodika og serier) i en serie ger tre poäng. Varför får antologibidrag mindre poäng? Rimligtvis får ett antologibidrag utgivet i en serie tre poäng, vad blir då argumentet för det? I underlaget till norska modellen har jag hittat ett resonemang kring varför monografier får så höga poäng (fem poäng på nivå 1 och åtta poäng på nivå 2) där publikationstyperna faktiskt jämförs: en sammanläggningsavhandling består idag ofta av 3-5 artiklar och kan då anses motsvara en monografi i tidsåtgång (s. 52).

Åtminstone får de flesta publikationstyper poäng i norska modellen. Till citeringsanalyser (som också används i utvärderingar) hämtas data främst från de två stora leverantörerna Thomson Reuters (Web of Science) och Elsevier (Scopus). Även om de båda numer indexerar såväl antologier som monografier utgör dessa publikationstyper inte underlag i citeringsanalyserna. Flera skäl finns, bland annat ser citeringsmönster i monografier annorlunda ut än i tidskrifter. Vilket inte beror på publikationsformen primärt, utan på att de ämnen som publicerar monografier citerar på ett annat sätt än de ämnen som väljer att publicera artiklar. Hursomhelst leder de ökade utvärderingskraven till att författare uppmanas att börja skriva artiklar (även argument som mer internationellt inriktad publicering hörs men det borde fortfarande inte primärt bero på publikationstypen utan snarare val av kanal). Det är inte givet att detta är en bra lösning eftersom vi får förmoda att invanda citeringsmönster bör följa med till nya publikationsformer.

Samhällsvetenskapliga ämnen har ofta en blandad produktion, både tidskriftsartiklar och monografier är vanliga. Vid flera tillfällen har äldre samhällsvetare vittnat om trenden att nya doktorander i högre utsträckning väljer sammanläggningsavhandlingar. Och publikationsmönster förändras, om än långsamt, av många olika orsaker. Men att välja publikationstyp för att passa in i en specifik utvärderingsmodell synes mig vara en mindre bra anledning för att ändra på sina vanor. Några säger nog emot – om du som forskare inte anpassar dig till spelet blir du inte långvarig.

Ibland funderar jag också på framtiden, kommer andra publikationstyper bli viktiga? Kommer vi alls prata om enskilda publikationer? Ett exempel är recensionen, den är ju ett kvitto på att någon faktiskt har läst boken och ganska så ordentligt också. I denna tid av mindre läsande och mer skrivande kommer kanske recensionerna lyftas fram som bevis på spridning när utvärderingarna nu ska fokusera på olika typer av genomslag. Titta, någon har faktiskt läst den här. Vad gäller upplösningen av publicering som vi känner till den finns mycket att läsa (såklart). Ett tips är Janneke Ademas blogg Open Reflections. Hon har bland annat undersökt anonymt författarskap, vilket jag antar skulle rimma särdeles illa med utvärderingar.

Vad är en falsk DOI?

Under de senaste veckorna har jag följt en spännande tråd om hur DOI:er (eller mer korrekt: DOI-liknande URL:er) kan användas, och hur de bör användas. Att förlagen kontaktar biblioteket och ber oss agera på “otillåten nedladdning” är inte nytt. Nyheten här var att de hade registrerat nedladdningen med hjälp av DOI-liknande URL:er som bara spindlar och andra internetkravlande typer kan upptäcka. I det här fallet kontaktades lärosätets IT-avdelning då användarens inloggningsuppgifter ansågs ha använts på felaktigt sätt (SciHub-jakt?). Användaren svarade då med att skriva ovanstående inlägg. En intressant detalj är att även åtkomst till Open Access-material stängdes av för den här användaren. Avstängningen hävdes senare.

Har ni hört talas om stenlusen (Steinlaus), en hård figur som livnär sig på sten? (En parentes: Fint att den här historien innehåller flera referenser till Arthropoda – om än fejkade sådana). Honungsfällor i den upphovsrättsliga världen – inga nyheter. Honeypots är för övrigt ett annat intressant ämne, det är för lätt att gå vilse på Wikipedia.

Men var DOI:erna verkligen falska? Några hävdade det, medan andra menade att de inte gjorde någon större skada då de inte är registrerade. Här står också att läsa om väluppfostrade spindlar som följer internets regler, och deras mer rebelliska systrar som kravlar lite hursomhelst. Det händer saker på den andra sidan webläsaren. Hursomhelst kom ett inlägg från CrossRef, stordealare av DOI:er. CrossRef avråder från DOI-liknande URL:er (alla blir så irriterade när de inte funkar) och bjuder på nya fejkidentiteter – känner ni Josiah Carberry vid Brown University?

Här någonstans känner jag att det vore fint med en fejkbibliotekarie som fick en egen Wikipedia-sida, gärna lite kompisar också. Fejkdata är roligt så länge de inte leder till mail i stil med:

Vi har upptäckt otillåten aktivitet som utförts med hjälp av dina inloggningsuppgifter. Din högskolas åtkomst stängs av tills dess du kan visa att ni åtgärdat problemet.

Jag kan lätt lova att inte använda mig av DOI-liknande URL:er, och nycklar är viktiga saker – utan dem blir det svårt att matcha vår data.

Copyright och Open Access

Efter aktuella händelser som att högskolan i Dalarna JO-anmälts för sin nya OA-policy (nu i veckan meddelades att JO har lagt ned ärendet) har jag börjat fundera lite mer på hur OA och upphovsrätt förhåller sig till varandra (och det finns nog många som tänkt på detta innan och även har svar på mina funderingar). Hursomhelst har jag fått anledning att titta lite närmare på deklarationerna/initiativen som faktiskt funnits ett tag nu:  Budapest (2002) och Berlin (2003). Och för den delen Bethesda (2003), även om den inte verkar ha haft lika stort genomslag, åtminstone inte här. Berlin-deklarationen har signerats av bland andra Kungliga biblioteket, Vetenskapsrådet och Sveriges universitets- och högskoleförbund (SUHF) medan Budapest-initiativet framförallt har signerats av privatpersoner från svenskt håll. Eftersom jag i förra inlägget funderade lite över skillnaderna mellan de två, letade jag vidare och hittade bland annat detta (det saknas sannerligen inte fördjupningsmaterial). Eftersom Berlin-deklarationen har signerats av flera övergripande svenska organisationer, Vetenskapsrådet är ju involverat i förslaget till nya riktlinjer för öppen tillgång, väljer jag att gå vidare med den deklarationen. Vetenskapsrådets förslag nämner inte explicit Berlin men följande får väl anses vara i linje med nedanstående, mer detaljerade krav: Det som internationellt benämns som open access, eller på svenska, öppen tillgång, innebär i korthet att forskningsresultat går att finna via en sökning på internet och kan läsas av alla, utan kostnad samt att materialet är fritt att återanvända.

I Berlin-deklarationen anges följande som krav på Open Access-bidrag:

Open access contributions must satisfy two conditions:The author(s) and right holder(s) of such contributions grant(s) to all users a free, irrevocable, worldwide, right of access to, and a license to copy, use, distribute, transmit and display the work publicly and to make and distribute derivative works, in any digital medium for any responsible purpose, subject to proper attribution of authorship (community standards, will continue to provide the mechanism for enforcement of proper attribution and responsible use of the published work, as they do now), as well as the right to make small numbers of printed copies for their personal use.

Jag läser in att det skulle motsvara en CC-BY (med ev NC och/eller SA) licens. ND (no derivatives) borde inte vara möjligt med den här OA-definitionen. Jag tycker också det är intressant att det skrivs author(s) and right holder(s) inte author(s) and/or rightholders. Här förutsätts att författaren behåller rättigheterna (alla, även de ekonomiska?). Hen kan eventuellt dela dessa med flera. Nyligen delades nyheten att Elsevier är världens största OA-förlag (sett till absolut antal guld OA-tidskrifter) flitigt på Twitter. Jag fastnar på en mening om att många av dessa tillhör societies/institutions, och att dessa har copyright -det framgår inte här om den delas med författarna. Förlagen använder alltmer CC-licenser och forskarna får ofta välja bland flera alternativ. Här är en artikel som försöker reda ut hur forskarna väljer. Enligt artikeln väljer författarna ofta restriktiva licenser, som då inte bör vara förenliga med Berlin-deklarationen?

CC-licenser är ett sätt för upphovsrättsinnehavaren att tala om vad vi får göra med verket, oftast slipper vi då be om lov varje enskild gång utan kan följa den uppsatta licensen. Jag använder själv CC-licensierat material, framförallt bilder. På sistone har jag också velat märka upp till exempel mina presentationer med CC-licens. Men då infinner sig nya dilemman. Får jag sätta en CC-licens på en presentation som till största delen består av skärmdumpar från Excel? Jag använder Excel för att visa en beräkning liksom jag använder Powerpoint för att tillverka presentationen. Jag har inte hittat något slutgiltigt svar på detta och då infinner sig två vägar: 1. Jag kan sticka ut huvudet och testa vad som händer om jag lägger ut min presentation med CC – kommer tåget (i detta fall Microsoft)? 2. Gå på försiktighetsprincipen och då blir det inte så mycket sagt och gjort, presentationen ligger på min högskolas server och jag skickar den till alla som ber snällt (hittills har alla bett snällt). Jag tycker att det hade varit intressant om den nya OA-policyn vid Högskolan i Dalarna hade tagits upp av JO. Inte för att jag önskar någon en JO-process, utan för att vi tenderar att få praxis att bygga vidare på vilket ibland göra att vi kan ta lite större kliv framåt.

Reflektioner från #moa2016

Heather Joseph, SPARC, inledde med gamla traditioner och nya teknologier. Det slår mig att jag inte har klart för mig skillnaden mellan de olika deklarationerna/initiativen; vissa hänvisar till Berlin, andra till Budapest. Som jag förstått det är Berlin mer omfattande, t ex finns här krav på text mining  och möjlighet att omarbeta. Finns det andra skäl att luta sig mot den ena eller den andra?

“Do you ask for OA in your tender process?” var Heathers svar till en prefekt som ville slå ett slag för OA genom en “high impact, low risk activity”. Även andra talare var inne på att OA måste efterfrågas från högre instanser, t ex i utvärderingsprocessen.

Tom Mowlam från Ubiquity Press introducerade det för mig nya begreppet “legacy publishers” – förlag med en historia innan internet, på gott och ont. Ett försök att upprätta dessa förlag hittade jag hos the Guardian, som också förklarade lite mer vad det handlade om. Jag funderade på om Tom undvek uppdelningen for-profit/not-for-profit då han själv arbetat länge på BioMed Central, som är ett for-profit OA-förlag som numera ägs av Springer. Mowlam nämnde $2100/€1900 som medel-APC för legacy publishers – en siffra han menade var för hög att betala för forskare humaniora och samhällsvetenskap. Så sägs ofta men jag funderar lite på varför: avsätts inte OA-medel i forskningsanslagen? Räcker de anslagna medlen inte till för allt som forskarna vill publicera? Jag passade också på att fråga Tom om Lingua/Glossa-affären, och var prestigen egentligen ligger. Han menar att prestigen helt och hållet ligger hos redaktionsrådet, och att det syns i att Glossa redan har många inskickade artiklar.

EU tuffar också på med OA-initiativ. Eva Stensköld från Kulturdepartementet, tidigare Utbildningsdepartementet, nämnde några: Carlos Moedas tre O – “Open Innovation, Open Science, Open to the World” och European Open Science Policy Platform.  En slide i hennes presentation gav en bra överblick över de största utmaningarna vi står inför om vi ska kunna genomföra visionerna. Slutligen kom hon med ett bra tips för att få koll på höstens kommande forskningsproposition – att fokusera på regleringsbreven istället för själva propositionen.

Vetenskapsrådet arbetar på uppföljning av sina OA-krav, och har infört nya delar i sina riktlinjer – forskare ska nu endast återredovisa OA-artiklar. Det påpekades också att de långa embargotiderna som förlagen satt upp gör det svårare att se parallellpubliceringen som ett fullgott alternativ.

Några bidrag om system satte återigen fokus på ständiga frågan om att bygga själv mot att köpa. Chalmers gör ett ambitiöst hemmabygge med research.chalmers.se, en projektdatabas som ska bli spännande att följa. För att frigöra arbetstid har vissa moment automatiserats, bland annat beställer forskare numer ISBN via formulär istället för personlig service.

Arrangörerna av årets moa hade inte bara fått ihop en forskarpanel, alla forskare i panelen var dessutom redaktör för varsin tidskrift inom olika ämnen. Panelen behandlade just utmaningar för redaktioner. Att hitta bra granskare och driva på den processen är en fortsatt utmaning. Någon var orolig för att det redaktionella arbetet utarmas med en ökande automatisering – att texterna förlorar på det. Tidskriften Culture Unbound hade firat sitt 5-års jubileum med workshop: Publishing for Public Knowledge. Flera redaktörer var ense om att OA innebär önskvärd spridning, och att försäljningen är av mindre vikt.

En aktör som kan påvisa spridning är Wikipedia. Sara Mörtsell gav flera exempel på hur forskare använde Wikipedia för att kommunicera sin forskning. Hon tipsade också om en artikel som undersöker spridningen: Amplifying the impact of Open Access: Wikipedia and the Diffusion of Science av Teplitsky, Lu & Duede 2015. Helena Francke fortsatte på temat tillgängliggöra med en studie av svenska repositorier, genomförd i ett projekt som är ett samarbete med Björn Lundell & Jonas Gamalielsson. Hur lång horisont har vi i våra institutionella arkiv? Om vi har filer där, hur länge vill vi att de ska vara läsbara?

Sist, men inte minst: öppna data och juridik. Vikten av öppna data inom medicin blev oerhört tydlig. Jag blir matt av tanken på att återskapa dataset från diagram i olika mer eller mindre låsta publikationer. Juridiska genomgångar är ofta mycket bra, med den enda haken att jag tycker mig förstå allt på plats och när jag sedan ska återberätta blir allt mycket dimmigt. Jag har hört någon gång att om du kan förklara något, då kan du det verkligen. Så eloge till alla jurister som kan förklara, det är ett intressant ämne. En ny pusselbit för mig denna gången är att upphovsrättslagstiftningen är under revidering på EU-nivå. Jonas Holm hade också en slide med titeln Biblioteksjuridik – om det som räknades upp där ska betecknas biblioteksjuridik har vi ett digert kunskapsinhämtade framför oss. Vi ser ju att forskare vänder sig till oss med upphovsrättsliga frågor, så här finns nog en potential för biblioteket. I och med Sci-Hub har ju också det som sker på högskolor och universitet nått massmedia (ex här, här och här) – och här finns funderingar från forskare att försöka besvara. Fram för fler jurister som kan svara och förmedla kunskapen.

Något som gjorde mig glad under årets moa var det franska posterbidraget av Marianne Noel, CNRS/Université Paris-Est. Här finns också ett spår att fördjupa sig i, Marianne forskar om hur värdet av tidskrifter förändras inom vetenskaplig kommunikation (kemi). Hennes avhandling är snart klar. Kul att moa blir mer internationellt, och kanske behöver vi eventuellt byta språk framöver? Eller göra något gemensamt med Munin (Tromsö är ju väldigt vackert)?

#moa2016 på KB:s webbplats där alla presentationer kommer läggas upp

Eftersom vi delade #moa2016 med en musiktävling (tror det var samma sak förra året) trendade vi på twitter. Men i efterhand är det svårt att komma åt tweetsen från konferensen bland alla musikinlägg 🙂