Open Password Archiv Logo

Anzeige






Open Password: Freitag, den 10. Juni 2016

Altmetrics – Jasmin Schmitz

Messung von Forschungsleistungen

Altmetrics: Auf dem Weg
zur Standardisierung

 

Aber noch viele Detailprobleme

Von Jasmin Schmitz, Düsseldorf, schmitz-jasmin@web.de

Im Rahmen des Bibliothekskongresses in Leipzig fand ein Workshop zum Thema „Offene Metriken für wissenschaftliche Daten“ statt. Seine Ergebnisse stellen einen guten Überblick des aktuellen Diskussionsstandes dar[1].

Ausgangslage

Die klassische Impact-Messsung, wie z.B. die Zählung von Zitationen, hat den Nachteil, dass sie relativ langsam ist, da es abhängig vom Wissenschaftsgebiet eine Zeit dauert, bis Publikationen rezipiert und zitiert werden. Zudem werden Zitationshäufigkeiten von kommerziellen Anbietern offeriert, die somit nicht offen zugänglich sind. Mit der fehlenden freien Zugänglichkeit geht auch ein Mangel an Transparenz einher, so dass oftmals unklar ist, wie entsprechende Zahlen ermittelt wurden. Darüber hinaus ist die Tendenz zu beobachten, Forschungsleistungen einzelner Individuen ausschließlich anhand einzelner Kennzahlen (z.B. Journal Impact Factor, h-Index) zu bewerten[2].

Diese Umstände werden zunehmend von der wissenschaftlichen Community kritisiert. Die vielleicht bekanntesten Veröffentlichungen dazu sind das Altmetrics Manifesto[3] sowie die San Francisco Declaration on Research Assessment (DORA)[4]. Hier wird gefordert, neben Zitationen auch Nutzungsdaten sowie weitere ergänzende oder alternative Kennzahlen zu erheben, die sich auf die einzelne Publikation beziehen (Article Level Metrics – ALM). Zudem sollten die Ergebnisse des Peer Review in die Bewertung einbezogen werden, die Messung von Publikationsleistungen somit multidimensional sein. Dazu gehört auch, dass andere Formen des Forschungsoutputs wie z.B. Forschungsdaten oder Software bei der Bewertung der Leistung mitberücksichtigt werden.

[1] Präsentationen sind abrufbar unter: https://opus4.kobv.de/opus4-bib-info/solrsearch/index/search/searchtype/collection/id/16398.

[2] D. Hicks, P.l Wouters, L. Waltman, S. de Rijcke & I.l Rafols: Bibliometrics (2015): The Leiden Manifesto for research metrics.  Nature 520, 429-43.  Doi:10.1038/520429a.

[3] J. Priem, D. Taraborelli, P. Groth, C. Neylon (2010), Altmetrics: A manifesto, 26 October 2010. http://altmetrics.org/manifesto.

[4] San Francisco Declaration on Research Assessment: http://www.ascb.org/dora/.

 

Standardisierungsbemühungen

Im Rahmen der „NISO Alternative Assessment Metrics (Altmetrics) Initiative“[1] sollen Standards oder Best Practises entwickelt werden. Zudem werden Vorschläge erarbeitet, für welche „Produkte“ wissenschaftlicher Arbeit ebenfalls Kennzahlen erhoben werden können[2].  Besonderes Augenmerk wird dabei auch auf Forschungsdaten gelegt[3]. Aus Sicht der NISO müssen Altmetrics transparent, replizierbar und genau sein. Sie schlagen daher vor, dass jeder Datenanbieter (wie z.B. Twitter und Facebook) sowie Datenaggregatoren (wie z.B. Altmetric.com und ImpactStory) einmal jährlich einen „Code of Conduct Self-Reporting Table“ ausfüllen, der erkennen lässt, welche Zahlen bereitgestellt und wie diese ermittelt werden. Diese Reports sollen frei zugänglich sein[4].

Ein wichtiger Teil von Article Level Metrics (ALM) ist die Nutzung gemessen über Downloads. Hierbei ergibt sich das Problem, dass eine Publikation an mehreren Stellen im Netz liegen kann. Das Zusammenführen der Downloadzahlen ist dann eine Herausforderung. Im ersten Schritt soll im Rahmen eines DFG-geförderten Projekts der EZB-Linking-Dienst um Open-Access-Publikationen erweitert werden. Damit würden parallel frei zugängliche Publikationen ermittelt und dem Nutzer angezeigt[5].

Bei den Nutzungsstatistiken ist nicht unerheblich, wie diese erhoben werden (z.B.: Mitzählen von automatisierten Anfragen ja/nein?). Im Bereich der Repositorien kann die Anzeige von Nutzungsstatistiken (neben anderer ALM) ein Anreiz für Autoren sein, ihre Publikationen dort ebenfalls bereitzustellen. Im Gegensatz zu Verlagsseiten, wo die Abrufzahlen nicht selten unter Verschluss gehalten werden, sollten die Abrufe hier – im Sinne von offenen Metriken – stets frei einsehbar sein.

Um Anreize für die Publikation von Forschungsdaten zu setzen, wären auch hier das Erheben von Nutzungsstatistiken und weiteren Impactzahlen wie Zitationsraten und Altmetrics sinnvoll. Ein vom NSF gefördertes Projekt („Making Data Count“[6]) hat hier versucht, entsprechende Voraussetzungen zu schaffen. Um Zitatraten für Forschungsdaten ermitteln zu können, ist es aber auch wichtig, dass verwendete Daten überhaupt zitiert werden und in Referenzlisten aufgenommen werden. Ein erster Schritt in diese Richtung sind die „Data Citation Principles“ von FORCE11[7]. Auch die Vergabe von persistenten Identifikatoren wie DOI für Forschungsdaten verbessert die Zitierfähigkeit und erleichtert das Erheben weiterer ALM.

[1] NISO Alternative Assessment Metrics (Altmetrics) Initiative: http://www.niso.org/topics/tl/altmetrics_initiative/.

[2] Alternative Outputs in Scholarly Communications:  http://www.niso.org/apps/group_public/download.php/16555/NISO%20RP-25-201x-2C,%20Alternative%20Outputs%20in%20Scholarly%20Communications.pdf .

[3] Alternative Outputs in Scholarly Communications: Data Metrics: http://www.niso.org/apps/group_public/download.php/16553/NISO%20RP-25-201x-2A%20Alternative%20Outputs%20in%20Scholarly%20Communications–Data%20Metrics.pdf .

[4] Altmetrics Data Quality Code of Conduct: http://www.niso.org/apps/group_public/download.php/16121/NISO%20RP-25-201x-3,%20Altmetrics%20Data%20Quality%20Code%20of%20Conduct%20-%20draft%20for%20public%20comment.pdf .

[5] OA-EZB: Open-Access-Services der Elektronischen Zeitschriftenbibliothek: http://www.uni-regensburg.de/bibliothek/projekte/oa-ezb/.

[6] Making Data Count: http://mdc.lagotto.io/.

[7] Joint Declaration of Data Citation Principles – FINAL: https://www.force11.org/group/joint-declaration-data-citation-principles-final.

Bedeutung

Alle Bemühungen um Altmetrics sollten aber nicht zum Ziel haben, wissenschaftlichen Impact erneut in einer Zahl auszudrücken, da Altmetrics kein Ersatz für die Zitationsanalyse sind, vielmehr eine Ergänzung. Sie können als Instrument dienen, um zu analysieren, wie man wahrgenommen wird und wie breit die Wahrnehmung ist. In diesem Sinne wäre auch eine Definition von Altmetrics als „alternative Metriken“ wenig hilfreich, wenn es nur um den Aspekt der Zählbarkeit und Quantifizierung geht. Vielmehr werden weitere „Nutzungsspuren“ ausgewertet. Hinzu kommt, dass ihre Bedeutung vielfach noch unklar ist (Was sagt es uns, wenn ein Artikel-DOI 20 Mal getwittert wurde?). Zudem muss über eine Normierung diskutiert werden, also Konsens darüber geschaffen werden, wie viele „Downloads“, „Mentions“, „Bookmarks“ usw. als durchschnittlich gelten und was gute bis herausragende Werte wären.  Bislang ist man sich weitestgehend einig, dass „Mentions“ auf Bookmarking-Seiten wie Mendeley oder in wissenschaftlichen Blogs für Publikationen einen anderen Stellenwert haben als anderswo im Web, aber darüber hinaus besteht Forschungsbedarf.

Datenqualität und Verfügbarkeit

Ein weiteres Thema ist die Datenqualität und die Verfügbarkeit von Altmetrics-Daten. So können die Zahlen je nach Anbieter variieren. Zudem ist zu beobachten, dass APIs, mit denen in der Regel Zahlen beim Datenanbieter oder -aggregator abgerufen werden, auch restriktiver werden.

Während die beschriebenen Standardisierungsbemühungen durchaus hilfreich sind, besteht eine ähnliche „Gefahr“ wie bei den „klassischen“ Impactkennzahlen, nämlich eine Konsolidierung in Richtung kommerzielle Anbieter – dies mit der Konsequenz, dass auch alternative bzw. ergänzende Metriken nicht grundsätzlich frei verfügbar wären. Das Ziel sollte allerdings sein, dass diese nicht nur transparent, sondern auch offen sind. Als offene Software wurde LAGOTTO[1] entwickelt, die auch von PLOS, CrossRef und DataCite für eigene Dienste genutzt wird[2], und die ihrerseits auf Daten von kommerziellen Anbietern wie beispielsweise Mendeley zugreift.

Da davon auszugehen ist, dass Impactzahlen (entweder klassisch oder alternativ) auch künftig bei der Bewertung von Forschungsleistungen eine Rolle spielen, ist eine kritische Begleitung der Entwicklungen durch die Wissenschaftler selbst unerlässlich. Hierbei geht es auch um die Frage der Deutungshoheit. Eine Art Open Governance wäre wichtig, da ansonsten nur die Interessen derjenigen eine Rolle spielen, die die Metriken bereitstellen.

[1] About Lagotto: http://www.lagotto.io/.

[2] Crossref Event Data: http://eventdata.crossref.org/ und DataCite API: https://api.labs.datacite.org/.

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Das Open Password Archiv ist eine digitale Sammlung von über 1.100 Artikeln und Ausgaben des ehemaligen Newsletters „Open Password“ aus der Publikation “Password Online”. Diese Publikation, die von 1986 bis 2015 als Print-Ausgabe erschien, diente als zentrale Informationsquelle für Fachleute in der Informationsbranche.

Im Archiv des 2016 gestarteten Pushdienstes finden Sie tiefgreifende Analysen, exklusive Geschichten und redaktionelle Beiträge, die wichtige Entwicklungen und Trends in verschiedenen Sektoren wie Finanzen, IT und Pharma beleuchten. Das Archiv ist online zugänglich und bietet eine wertvolle Ressource für Forscher, Information Professionals und alle, die an der Geschichte und den Entwicklungen der Informationsbranche interessiert sind.

Eine noch ausführlichere Zusammenfassung zu Open Password wurde vom ehemaligen Herausgeber Dr. Wilhelm Heinrich Bredemeier verfasst.

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.