Archief voor de ‘Elsevier’ Tag

TWIT #37

TWIT

TWIT #33

TWIT

TWIT #32

TWIT

TWIT #15

TWIT

TWIT #10

TWIT

Research Trends onder de loep

Trends

Als je onaardig zou willen doen, zou je zeggen dat het ‘slechts’ een PR-blaadje van een op winst beluste uitgeverij is, het intellectuele broertje van Library Connect dat zich op een algemener publiek van bibliothecarissen richt. Maar is dat terecht? Research Trends heeft tenslotte een goed aangeschreven hoofdredacteur, Henk Moed, en stelt zich ten doel “objective, up-to-the-minute insights into scientific trends based on bibliometric research” te bieden. Dat maakt nieuwsgierig, zeker als het nieuwste nummer van Research Trends zich richt op de geesteswetenschappen.

Aan tabellen, staafdiagrammen en fraaie visualisaties in ieder geval geen gebrek. De mooiste daarvan is wellicht deze van de (citatie-) verbanden tussen geesteswetenschappelijke tijdschriften:

GWtijdschriften

Alleen, die kenden we al, bijvoorbeeld uit de publicaties van Loet Leydesdorff. Niet echt verrassend dus, en dat geldt bijvoorbeeld ook voor de bijdrage over de ontwikkeling van de subsidies voor geesteswetenschappelijk onderzoek. Dat daar in 2009 een neerwaartse omslag in heeft plaatsgevonden zal niemand verbazen. De cijfers in Elseviers eigen databank, SciVal Funding, bevestigen het in ieder geval.

Veel van de bijdragen in Research Trends zijn gebaseerd op data uit die andere Elsevier database Scopus. Dat is enerzijds begrijpelijk, maar beperkt anderzijds de zeggingskracht en reikwijdte van die bijdragen. Als in een van die bijdragen onderzocht wordt wat de ‘leeftijd’ is van de artikelen en boeken die in bepaalde tijdschriften geciteerd worden, gebeurt dat per geesteswetenschappelijke discipline op basis van een selectie van vier tijdschriften. Het klinkt dan wel heel obligaat als in de conclusie wordt gesteld dat onderzoek op basis van een groter steekproef nodig is om de bevindingen nader te toetsen. In een andere bijdrage wordt onderzocht wat de taal van publicatie in geesteswetenschappelijke tijdschriften is. Dat gebeurt op basis van de tijdschriften die in Scopus worden geïndexeerd. Zijdelings wordt vermeld dat in Scopus alleen niet-Engelstalige tijdschriften worden meegenomen als zij in het Engels vertaalde titels en Engelstalige samenvattingen beschikbaar stellen. Zo krijgen je data bij voorbaat al een flinke kleuring mee, maar daar wordt later in het artikel niet meer op teruggekomen.

En zo is er op nog wel wat andere slakken zout te leggen. Een tabel over het aantal jaarlijkse gepubliceerde geesteswetenschappelijke artikelen in de jaren 2007-2011 geeft een verdrievoudiging voor deze periode, voor Nederland bijna een verviervoudiging. Ik kan me niet aan de indruk onttrekken dat het in die tabel om geesteswetenschappelijke artikelen opgenomen in Scopus gaat, en dat is toch wat anders. In een andere figuur over het gemiddelde aantal referenties per artikel ontbreekt een van de 14 onderscheiden disciplines en in de afsluitende bijdrage (Did you know?) wordt de invloed van Jane Austens Pride and Prejudice op (wetenschappelijk) onderzoek gelijk gesteld aan de 188 artikelen in Scopus waarin een referentie naar het boek is terug te vinden

Gelukkig heb ik toch ook nog een nieuwtje in deze aflevering van Research Trends gelezen: ook Scopus is zich, net als Web of Science, op de boekenmarkt aan het oriënteren. Naast Thomson Reuters Book Citation Index is Elsevier druk bezig met het Books Enhancement Program voor Scopus. Dat richt zich in eerste instantie op zo’n 75.000 boektitels die in 2015 aan de database moeten zijn toegevoegd. Maar ook dat had ik eigenlijk al moeten weten. Elsevier maakt er zelf op de Scopus-website namelijk prominent melding van.

Charleston dag #3: Elsevier, ‘t kan verkeren

Wie herinnert het zich eigenlijk nog? De opwinding begin dit jaar over het The Cost of Knowledge initiatief? Het aantal ondertekenaars is inmiddels opgelopen naar bijna 13.000, maar wie heeft het eigenlijk nog over Elsevier, de hoofdschuldige in het drama? Vandaag stond Elsevier in ieder geval geheel niet in een kwaad daglicht. In de openingspresentatie van de dag ging het over de licentieverplichtingen die in het afgelopen decennium afgesloten zijn tussen uitgevers en bibliotheken over de toegang tot digitale informatie. Op basis van een corpus van 224 licenties die in de periode 2000-2009 zijn afgesloten en beoordeeld zijn op de clausules betreffende post-cancellation access, interbibliothecair leenverkeer-regelingen en delen van artikelen met collega’s. En raadt eens? Van alle betrokken uitgeverijen (alle grote commerciële maar ook een aantal belangrijke niet-commerciële als Cambridge University Press en de American Chemical Society) blijkt Elsevier de ‘beste’ voorwaarden in zijn licenties opgenomen te hebben, ‘beste’ gedefinieerd als de voorwaarden die het meest tegemoet komen aan de modellicenties van de bibliotheken of hun consortia zelf! Dat zal in de directiekamers van Elsevier tot enige vrolijkheid aanleiding gegeven hebben. Alle details overigens over dit onderzoek zijn terug te vinden in deze voorpublicatie in College & Research Libraries. De auteurs benadrukten met enige hardnekkigheid de gedateerdheid van hun data (licenties uit de periode 2000-2009). In de tussenliggende jaren is er het nodige, volgens hen, nog verder ten goede gekeerd. Maar dat vereist (zoals al te raden viel) aanvullend onderzoek. ;-)

En alsof de dag al niet mooi genoeg begonnen was, speelde Elsevier ook een constructieve rol in een van de middagsessies over … altmetrics. Meestentijds instemmend begeleid door de oprichter van PeerJ bepleitte de vertegenwoordiger van Elsevier het belang van deze nieuwe methoden om het belang van onderzoek en publicaties te bepalen. Het was noodzakelijk “to break out of the Impact Factor trap” (dag Thomson Reuters) en het was te gevaarlijk om het kwaliteitsoordeel over te laten aan bedrijven waarvan we niet wisten hoe ze hun data bewerken en ordenen (dag Google). Er was dit keer niemand die in de zaal opstond om de praktijken van Elsevier zelf nog eens aan de kaak te stellen. ‘t Kan verkeren.

Die laatste sessie was overigens exemplarisch voor de bredere scope die de Charleston Conference inmiddels gekregen heeft. Men afficheert zich nog steeds met Issues in Book and Serial Acquisition, maar het palet aan onderwerpen is veel breder geworden. En dus stond er ook een sessie op het programma over research data management, nog zo’n topic dat de bibliotheekwereld momenteel in haar greep heeft. Collega’s uit de bibliotheken van North Carolina State University en de University of North Carolina at Chapel Hill presenteerden hun ervaringen tot nu toe met data storage en data management plans. In de VS zijn de voorwaarden die de National Science Foundation in 2010 aan onderzoekssubsidies heeft verbonden de belangrijkste drijfveer geweest achter deze activiteiten. Men is iets verder in de VS, maar nog niet veel verder dan in Nederland. De uitdagingen waar men tegenaan loopt zijn in essentie niet anders dan de onze:

  • reliance on campus-IT
  • coordination on campus among different constituents is crucial
  • institutional incentives are minimal
  • funding?
  • policies for stewardship, ownership and responsibilities are wanting
  • staff capacity is often lacking
  • domain-specific data management & metadata expertise is slowly evolving
  • library repository expectations are high
  • measuring success is still not possible.

Met de typisch Amerikaanse opgewektheid werd geconstateerd dat het eigenlijk nog een ‘huge mess’ was, maar daar gaan we iets aan doen. En ook dat wordt met dezelfde opgewektheid én overtuiging verkondigd.

Opletten blijft gewenst

Natuurlijk hebben e-books ‘value’. Dat hoeft wat mij betreft niet nog een keer ‘bewezen’ te worden. Ik begon dus met enige scepsis aan lezing van Assessing the Value of Ebooks to Academic Libraries and Users, mede gebaseerd op wereldwijd onderzoek van Elsevier hiernaar. Het hoeft ook niet te verwonderen dat volgens de veelgeplaagde uitgever e-books inderdaad ‘value’ hebben.

Biedt het paper dan nog verrassingen? ‘t Is maar hoe je het bekijkt. Van vier grote e-book collecties blijkt ‘slechts’ 37% gebruikt te worden. Een steun in de rug voor PDA dunkt mij, maar de onderzoekster haast zich er vooral aan toe te voegen dat voor p-books dat percentage (gelukkig?) niet anders is.

Maar in haar haast de ‘value’ van e-books te onderbouwen maakt Tina Chrzastowski een nogal grote uitglijder. Zie onderstaande uitsnede:

Waar in het diagram nog 12,6% van de respondenten e-books als “need to have” karakteriseren en 54,8% als “nice to have”, zijn deze percentages in de conclusie, slechts vijf regels verder, omgedraaid! Snelle conclusie-lezers worden zo geheel op het verkeerde been gezet.

Zo blijkt maar weer eens: ook een Professor in Library Administration moet op haar cijfers letten. En voor het aantonen van de ‘value’ van e-books is dit ook helemaal niet nodig.

Weekendvitaminen #16

Op het nachtkastje

Beeld van de week

Het is een prachtig beeld: een wat gedrongen, kleinere man voor een batterij scheepscontainers. Brewster Kahle, grondlegger en drijvende kracht achter het Internet Archive en de Wayback Machine, inspecteert zijn papieren archief ergens buiten San Francisco. Kahle wil niet langer alleen het internet archiveren, maar wil er tevens voor gaan zorgen dat het gedrukte boek tot in de eeuwigheid bewaard en raadpleegbaar blijft. En dus vult hij momenteel zeecontainer na zeecontainer met afgeschreven en afgedankte boeken, elke week 20.000 verse banden. ‘One copy in one institution is not good enough’, volgens Kahle. En dus verwacht hij in de komende jaren een groei van nu 500.000 banden naar 10 miljoen banden (terwijl Google naar het schijnt inmiddels de 20 miljoen gescande boeken is gepasseerd). En is hij inmiddels ook al met de opslag van films begonnen.

Weekendvitaminen #10

Op het nachtkastje

  • OCLC Research publiceerde deze week een tweede rapport over het gebruik van sociale media door de LAM-community (Libraries, Archives, Museums). Het betreft de resultaten van een survey uit november 2009 (!) waarop uiteindelijk door 42 instellingen gereageerd werd. Ik zet m’n vraagtekens bij de actualiteit van de resultaten. Juist bij sociale media gaan de ontwikkelingen zo snel dat twee jaar eigenlijk wel een eeuwigheid is. Twee jaar geleden? Toen twitterde ik nog niet eens… ;-) 
  • We kenden het vijf sterren-systeem al van Tim Berners-Lee voor het beoordelen van de bruikbaarheid van data als linked open data: hoe meer sterren, des te beter is de data geschikt voor hergebruik en linking. David Shotton stelt nu een soortgelijk vijf sterren-systeem voor voor de beoordeling van elektronische artikelen: hoe meer sterren, des te meer voldoet het artikel aan het ideaalbeeld van verrijkte publicatie en informatieuitwisseling (peer reviewed, open access, verrijkte content, beschikbare datasets en machine-leesbare metadata). Dat klinkt betrekkelijk eenvoudig, maar Sutton heeft het toch weer iets gecompliceerder gemaakt door ieder criterium vijf niveau’s te geven, niveau’s die corresponderen met grotere en kleinere sterren. Da’s dan weer jammer… David Haden vindt vijf overigens te weinig. Hij wil een zesde ster voor Googlyness.

Beeld van de week

Het beeld van de week is uiteraard Wikipedia-op-zwart. Uiteindelijk gebeurde dat met veel meer sites, maar de actie van Wikipedia zette toch eigenlijk alles in gang. Het op-zwart-zetten leverde overigens op verschillende plekken nog aardig wat discussie op, die soms ook in de openbaarheid werd ‘uitgevochten’. Een voorbeeld daarvan is de Digital Public Library of America, waar voor- en tegenstanders met elkaar in debat gingen op de discussielijst met als uiteindelijk resultaat een virtuele meerderheidsbeslissing om inderdaad ‘op zwart’ te gaan.

Heeft het effect gehad? Deze infographic suggereert dat wel:

Deze actie richtte zich met name op de wetsvoorstellen SOPA en PIPA, maar er is nog zo’n controversieel wetsontwerp in behandeling in het Congres: de Research Works Act (RWA). Deze wet zou het mandateren van open access beschikbaarstelling van resultaten van met publieke gelden gefinancierd onderzoek weer onmogelijk moeten maken. Grote uitgeverijen, zoals Elsevier, steunen deze wet van harte en in een bijdrage aan de LIBLICENSE-discussielijst kwam ik het waarom van die steun uit de mond van een Elsevier-directeur in onomwonden bewoordingen tegen:

We have specific concerns about the NIH mandate which at best is overly rigid/onerous, and at worst actually damaging. Early indications show the NIH Public Access Policy has had a negative impact on Elsevier and other publishers.  We have experienced a modest reduction of usage (by subscribers) and transactional sales (for non subscribers) for articles on our publishing platform after they are placed on PubMed Central even with links to the published journal article.  The NIH policy has only been in effect a few years and so these early warning signs are important:  they indicate usage and revenue loss could increase over time as the content duplicated in PMC increases.   This early evidence also suggests that PMC is providing access to users already served by the publishing system – essentially using tax payer funds to duplicate publisher efforts, and depriving publishers of revenue for their investments.  The current NIH public access policy therefore seems neither efficient nor sustainable.

Het gaat dus om revenue loss; ‘t is maar dat u het weet.

Volg

Ontvang elk nieuw bericht direct in je inbox.

Doe mee met 47 andere volgers