G7-Staaten wollen Anreize für Open Science setzen

Die G7-Wissenschaftsministerinnen und -minister haben als Ergebnis ihrer bisher fünften Konferenz in Turin ein Communiqué (PDF) veröffentlicht, dass das Thema Open Science aufgreift. Neben der Bedeutung von Forschungsinfrastrukturen für digitale Forschungsdaten betonen die G7-Staaten die Bedeutung von Anreizen für Open Science. Auszug:

„First, the incentives for the openness of the research ecosystem: the evaluation of research careers should better recognize and reward Open Science activities. Secondly, the infrastructures for an optimal use of research data: all researchers should be able to deposit, access and analyse scientific data across disciplines and at the global scale, and research data should adhere to the FAIR principles of being findable, accessible, interoperable, and reusable.“
Der Bericht (PDF) der zuständigen „G7 Open Science Working Group“ beschreibt den Handlungsbedarf für die Mitgliedsstaaten wie folgt:
  • „Recognizing Open Science practices during evaluation of research funding proposals, and research outcomes;
  • Recognizing and rewarding research productivity and impact that reflect open science activities by researchers during career advancement reviews;
  • Including credit for service activities such as reviewing, evaluating, and curation and management of research data; and,
  • Developing metrics of Open Science practices“.

Erst jüngst hat die Arbeitsgruppe „Open Science Rewards“ der Open Science Policy Platform (OSPP) der Europäischen Kommission einen Report (PDF) zum Themenfeld “Rewards/Recognition under Open Science“ veröffentlicht. Die Expertinnen und Experten empfehlen Open Science als Beurteilungskriterium für Forschende zu berücksichtigen. U. a. enthält der Report eine „Open Science Career Assessment Matrix (OS-CAM)“, die Evaluierungskriterien für Open Science in den Blick nimmt. Zum Umgang mit Forschungsdaten werden z. B. die folgenden drei Kriterien vorgeschlagen:

  • „Using the FAIR data principles“
  • „Adopting quality standards in open data management and open datasets“
  • „Making use of open data from other researchers“

Wie es scheint kommt nach Jahren des Stillstands etwas Bewegung in die Diskussion um zeitgemäße Anreize und transparente Metriken für Forschende, die die Entwicklung von Open Science aktiv unterstützen.

Advertisements

Open Science Monitor der EU-Kommission online

Der „Open Science Monitor“ der EU-Kommission ist online. Auszug aus der Beschreibung des Tools zum Monitoring von Open Science in Europa:

„The Open Science Monitor supports open science initiatives in Europe. It provides a way to assess developments in open science and particularly trends in open science activities over time and comparatively between countries and scientific disciplines. […] The monitor was commissioned by the European Commission Directorate-General for Research and Innovation. It was developed by several partners, led by RAND Europe with the support of Digital Science, Altmetric, figshare and Deloitte.“

Für den Bereich „Open Research Data“ werden Daten  von re3data verwendet:

Open Science Monitor

Eine ausführliche Darstellung der Methodik findet sich auf der Website des Monitors (PDF). Der Monitor greift auf folgende Quellen zu: 101innovations, Altmetric, arXiv, bioRxiv, Clarivate Analytics, F1000Research, figshare, GenBank, Helmholtz-Centre for Environmental Research – UFZ and German Centre for Integrative Biodiversity Research (iDiv), Nature Publishing Group and Palgrave Macmillan, OpenAIRE, PeerJ preprints, Publons, re3data.org, RePEc, SHERPA/RoMEO, SHERPA/JULIET, Taylor & Francis und Wiley. In Zukunft sollen weitere Quellen, z. B. zur offenen Zugänglichmachung von wissenschaftlicher Software und Open Educational Resources integriert werden.

Next-generation metricsPassend zum Thema Metriken für Open Science hat heute die „Expert Group on Altmetrics“, die die Generaldirektion Forschung und Innovation der EU-Kommission berät, ihren Abschussbericht unter dem Titel „Next-generation metrics: Responsible metrics and evaluation for open science“ veröffentlicht.

Die fünf Kernaussagen des lesenswerten Reports lauten: „An open science system should be grounded in a mix of expert judgement, quantitative and qualitative measures“; „Transparency and accuracy are crucial“; „Make better use of existing metrics for open science“;“Next generation metrics should be underpinned by an open, transparent and linked data infrastructure;“ sowie „Measure what matters“.  Damit wird ein deutlicher Kurswechsel bei der Evaluierung von Forschungsleistung vorgeschlagen.

Die Expertinnen und Experten der Arbeitsgruppe empfehlen auch den Standard ORCID zur Identifikation von Autorinnen und Autoren und weiteren Beteiligten im Forschungsprozess verpflichtend im kommenden Rahmenprogramm für Forschung und Innovation (FP9) zu verankern.

Disclosure: Ich bin in zwei der genannten Initiativen involviert: re3data und ORCID DE.

Altmetrics-Studie: Neue Verfahren wissenschaftlicher Impact-Messung

Die niederländische SURFfoundation hat eine sehr lesenswerte Studie über innovative Verfahren der Impact-Messungen in der Wissenschaft veröffentlicht.  Unter dem Titel „Users, narcissism and control – tracking the impact of scholarly publications in the 21st century“ (PDF) beleuchtet die Studie Dienste und Verfahren, mit denen abseits des Impact-Faktors die Wirkung wissenschaftlicher Veröffentlichungen gemessen werden kann. U.a. werden Dienste wie Peer Evaluation, ScienceCard und PLoS Article-Level Metrics betrachtet.

Die Studie beschreibt das Potenzial dieser Dienste wie folgt:

„These allow the researcher to make some sort of limited self-assessment with respect to the response to his/her work. However, this does not mean that these technologies and databases can also legitimately be used in research assessments. For this application, they need to adhere to a far stricter protocol of data quality and indicator reliability and validity. Most new tools do not (yet) comply with these more strict quality criteria.“

Darüber hinaus werden folgende Empfehlungen gegeben:

„The report therefore advises to start a concerted research programme in the dynamics, properties, and potential use of new web based metrics which relates these new measures to the already established indicators of publication impact. Its goal would be to contribute to the development of more useful tools for the scientific and scholarly community. This programme should monitor at least the following tools: F1000, Microsoft Academic Research, Total-Impact, PlosONE altmetrics, and Google Scholar. The programme should moreover develop the following key research themes: concepts of new web metrics and altmetrics; standardisation of tools and data; and the use and normalisation of the new metrics.“

Im Januar erschien im Chronicle of Higher Education ein schöner Artikel („Scholars Seek Better Ways to Track Impact Online“) über die Diskussionen zu diesem Thema, die im Kontext des Altmetrics-Manifest geführt werden.