Neuer DFG-Kodex „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“

Bereits letzte Woche kommunizierte die Deutsche Forschungsgemeinschaft (DFG), sie habe „ihre Empfehlungen zur Sicherung guter wissenschaftlicher Praxis sowie die Verfahrensordnung zum Umgang mit wissenschaftlichem Fehlverhalten (VerfOwF) grundlegend überarbeitet.“

Seit heute Nachmittag ist der Kodex, der bereits am 1.8.2019 in Kraft tritt, online. Es gilt jedoch eine Übergangsfrist: Alle Hochschulen und außerhochschulischen Forschungseinrichtungen müssen ihn bis zum 31.7.2021 rechtsverbindlich umsetzen, um auch in Zukunft Fördermittel durch die DFG erhalten zu können. Der Kodex löst damit die aus dem Jahre 1998 stammende „Denkschrift „Sicherung guter wissenschaftlicher Praxis“ der DFG ab. Diese wurde zuletzt 2013 aktualisiert.

Bemerkenswert ist, wie tief die Forderung nach Open Science den Kodex durchdringt. Hierfür drei Beispiele:

Z. B. wird der Begriff „Publikationsorgan“ in Leitlinie 15 breit definiert. In der Erläuterung heiß es dazu: „Neben Publikationen in Büchern und Fachzeitschriften kommen insbesondere auch Fachrepositorien, Daten- und Softwarerepositorien sowie Blogs in Betracht.“

Die Leitlinie 13 widmet sich der „Herstellung von öffentlichem Zugang zu Forschungsergebnissen“. Dort findet sich der folgende Satz (Inkl. einem Bezug zu den FAIR-Prinzipien in den Erläuterungen):

„Dazu gehört es auch, soweit dies möglich und zumutbar ist, die den Ergebnissen zugrunde liegenden Forschungsdaten, Materialien und Informationen, die angewandten Methoden sowie die eingesetzte Software verfügbar zu machen und Arbeitsabläufe umfänglich darzulegen.“

In der Leitlinie 17 „Archivierung“ werden über die Forschenden hinaus auch die wissenschaftlichen Einrichtungen und ihre Informationsinfrastrukturen in die Pflicht genommen:

„Wissenschaftlerinnen und Wissenschaftler sichern öffentlich zugänglich gemachte Forschungsdaten beziehungsweise Forschungsergebnisse sowie die ihnen zugrunde liegenden, zentralen Materialien und gegebenenfalls die eingesetzte Forschungssoftware, gemessen an den Standards des betroffenen Fachgebiets, in adäquater Weise und bewahren sie für einen angemessenen Zeitraum auf. Sofern nachvollziehbare Gründe dafür existieren, bestimmte Daten nicht aufzubewahren, legen die Wissenschaftlerinnen und Wissenschaftler dies dar. Hochschulen und außerhochschulische Forschungseinrichtungen stellen sicher, dass die erforderliche Infrastruktur vorhanden ist, die die Archivierung ermöglicht.“

Weitere Informationen finden sich auf der Webseite der DFG. Dort finden sich auch Informationen zur Umsetzung des Kodex. Weitere Fallbeispiele und Erläuterungen sollen in einem dynamisches Dokument folgen. Eine journalistische Einordnung des neuen Kodex findet sich bei Jan-Martin Wiarda.

ROR – Die offene ID für Forschungsinstitutionen

Die seit längerem bekannten Bestrebungen, eine internationale und offene ID für Institutionen im Forschungsumfeld zu schaffen, sind in ROR (https://ror.org) gemündet.

Wer ist ROR

Hinter ROR stehen aktuell die vier Organisationen Crossref, DataCite, Digital Science und der California Digital Library. Besonders sichtbar nach aussen ist Maria Gould von der CDL.

Wie es sich zu einer richtigen offenen Initiative gehört ist tatsächlich vieles noch offen. So muss ein passendes Geschäftsmodell, eine Governance oder Prozesse zur Pflege der Daten erst noch definiert werden. Alle interessierten Personen und Institutionen sind dazu eingeladen mitzumachen und beizutragen.

Daten von GRID

Was hingegen schon klar ist, dass ROR initial auf den Daten von GRID von Digital Science basiert. Als erster Schritt wurden im Februar 2019 die 96’000 Organisationen von GRID in eine (minimum viable) Registry kopiert.

ROR Registry: https://ror.org/search

Die Daten sind ebenfalls lesend über eine API erhältlich, die zurzeit jedoch noch sehr spärlich dokumentiert ist. Ein statischer Export aller Daten auf Figshare ist in Vorbereitung.

Fokus Top-Level Affiliation Angabe

Ein typischer Use-Case von ROR ist die Erfassung der Affiliation bei Angaben zu Personen, was mit der aktuellen API bereits umgesetzt werden kann.

Affiliation Eingabe mit API-Lookup

Für die Erfassung und dem Bearbeiten von Organisationen ist ein Hybrid-Ansatz vorgesehen. Einerseits soll sich ein Team von ROR darum kümmern. Änderungen und Neuerfassungen sind aktuell an info@ror.org zu melden. Anderseits ist langfristig (anders als bei GRID) vorgesehen, dass Organisationen selber ihrer Daten bei ROR verwalten können.

Für den Moment ist der Fokus von ROR die Erfassung der Top-Level Organisationen. Bei einer Universität ist somit noch keine Erfassung von Fakultäten, Departement oder Institutionen vorgesehen. Diese Beschränkung ist mit dem Ziel von Reduzierung von Komplexität für den Beginn nachvollziehbar. Allerdings bleibt damit der Einsatz von ROR beschränkt und entfaltet damit kaum das Potential, welches gerade bei dem angestrebten selbstverwaltenden Ansatz möglich wäre.

Insbesondere sind viele dieser Daten bereits in einer oder der anderen Form vorhanden (z.B. GERiT für Deutschland).

DFG: „Leitlinien zum Umgang mit Forschungsdaten“ verabschiedet

Der Senat der Deutschen Forschungsgemeinschaft (DFG) hat Ende September „Leitlinien zum Umgang mit Forschungsdaten“ (PDF) verabschiedet.

Auszug aus der heutigen Ausgabe der „Information für die Wissenschaft„.

„Mit den vom Senat der Deutschen Forschungsgemeinschaft (DFG) am 30. September 2015 verabschiedeten „Leitlinien zum Umgang mit Forschungsdaten“ führt die DFG die bereits geltenden Erwartungen an Antragstellende hinsichtlich des Umgangs mit den im Projekt entstehenden Forschungsdaten konsistent zusammen und weist zugleich explizit auf die Angebote hin, mit denen die DFG Wissenschaftlerinnen und Wissenschaftler beim Management von Forschungsdaten unterstützt.“

Zur Zugänglichkeit und Nachnutzung der Forschungsdaten heißt es in der Policy:

„Soweit einer Veröffentlichung der Forschungsdaten aus einem DFG-geförderten Projekt Rechte Dritter (insbesondere Datenschutz, Urheberrecht) nicht entgegenstehen, sollten Forschungsdaten so zeitnah wie möglich verfügbar gemacht werden. Die Forschungsdaten sollten dabei in einer Verarbeitungsstufe (Rohdaten oder bereits weiter strukturierte Daten) zugänglich sein, die eine sinnvolle Nach- und Weiternutzung durch Dritte ermöglicht. Um dies sicherzustellen, ist darauf zu achten, dass der Zugang zu den Forschungsdaten auch dann gewährleistet bleibt, wenn im Zusammenhang mit einer Publikation Verwertungsrechte an den Forschungsdaten an Dritte, i.d.R. einen Verlag, übertragen werden müssen.“

In den letzen Monaten hatte verschiede DFG-Gremien bereits fachliche Ausführungen zum Thema veröffentlicht. Z.B.: für die Bildungsforschung und die Biodiversitätsforschung. Eine Übersicht zu weiteren Leit- und Richtlinien gibt es im Wiki Forschungsdaten.org 

DFG verankert Open Access verbindlich in Förderprogramm

Die Deutsche Forschungsgemeinschaft (DFG) fördert seit Mitte der 1990er-Jahre die Entwicklung digitaler Informationsinfrastrukturen für die Wissenschaft. Mit den beiden Förderprogrammen „Elektronische Publikationen“ und „Wissenschaftliche Zeitschriften“ wurden in der Vergangenheit wichtige Impulse zur Förderung von Open Access in Deutschland gesetzt.

Infrastruktur für elektronische Publikationen und digitale WissenschaftskommunikationBeide Programme wurden jetzt in ein überarbeitetes und erweitertes Förderprogramm namens „Infrastruktur für elektronische Publikationen und digitale Wissenschaftskommunikation“ überführt. Das DFG-Merkblatt 12.11 (PDF) informiert über die Ziele und die Bedingungen des Programms.

Äußerst begrüßenswert ist, dass die DFG dieses neue Programm mit einer verbindlichen Open-Access-Policy verknüpft. So heißt es im Absatz 2.2.2 der Förderbedingungen:

„Die in den Projekten erstellten Inhalte und alle aus Projekten resultierende Publikationen müssen grundsätzlich über das Internet für alle Nutzer und Nutzerinnen weltweit frei verfügbar sein (Open Access) und dauerhaft zugreifbar bleiben. Wo immer möglich, kennzeichnen eindeutige Lizenzen, in welchem Umfang die Nachnutzbarkeit von Publikationen bzw. einzelner Teile von Publikationen gewährleistet ist.“

Open Access in einem Förderprogramm zur digitalen Wissenschaftskommunikation verbindlich zu verankern ist natürlich ein äußerst naheliegender Schritt, der auch in der betroffenen Community auf viel Zustimmung treffen wird. Wünschenswert wäre, dass die DFG diese Open-Access-Bedingung in all ihren Programmen verankert und somit ihre Empfehlung für Open Access aus dem Jahr 2006 in eine verbindliche Richtlinie überführt.

Bereits 2013 hat die Helmholtz-Gemeinschaft Open Access verbindlich in ihrem Förderprogramm „Impuls- und Vernetzungsfonds“ verankert. In Deutschland arbeitende Wissenschaftlerinnen und Wissenschaftler werden bereits seit längerem durch die Open-Access-Politik der europäischen Forschungsförderung (ERC, FP7 und HORIZON 2020) mit verpflichtenden Open-Access-Bedingungen konfrontiert.

Alle genannten Richtlinien können sowohl durch den Grünen Weg (Selbstarchivierung), als auch durch den Goldenen Weg (Open-Access-Zeitschriften) umgesetzt werden. Vermehrt gewinnen auch Richtlinien an Bedeutung, die den Goldenen Weg präferieren, so z.B. die Open-Access-Richtlinien des CERN und der Gates Foundation.

Disclosure: Ich arbeite für die Helmholtz-Gemeinschaft.

Forschungsdaten öffnen – Anreize, Repositorien und Kooperationen

Die Diskussion über die Nachprüfbarkeit und Nachnutzung von digitalen Forschungsdaten gewinnt an weiter an Dynamik. 2013 haben die Wissenschaftsministerien der G8-Staaten unter dem Stichwort „Open Scientific Research Data“ einen möglichst offenen Zugang zu Forschungsdaten gefordert und damit eine zentrale Diskussion der Wissenschaft aufgegriffen, denn „Data Sharing“ ist für die Bearbeitung vieler drängender Forschungsfragen unabdingbar.

Vermehrt fordern Förderorganisationen, wie z. B. die Europäische Kommission (u. a. im Rahmen des „Open Research Data Pilot„in Horizon 2020) und wissenschaftliche Zeitschriften, dass Daten – die Ergebnis eines geförderten Projekts oder Grundlage eines Artikels sind – offen zugänglich gemacht werden. Siehe hierzu z. B. ein aktuelles Editorial in Nature (doi:10.1038/515312a).

Forschende sehen zwar häufig das Potenzial offener Forschungsdaten, stehen der offenen Zugänglichkeit „ihrer“ Daten jedoch auch zurückhaltend gegenüber. Um eine Kultur des „Data Sharings“ zu fördern, ist es dringend nötig Anreize zu schaffen. Im kompetitiven Wissenschaftssystem gilt es, Wissenschaftlerinnen und Wissenschaftlern Daten-Repositorien anzubieten, auf denen Forschungsdaten dauerhaft zugänglich gemacht werden können. Von großer Bedeutung ist es dabei die Zitierfähigkeit der Forschungsdaten zu garantieren, um somit auch die Verankerung des Teilens im wissenschaftlichen Reputationssystems zu fördern.

Wissenschaftliche Institutionen und ihre Serviceeinrichtungen wie Bibliotheken, Daten- und Rechenzentren sind deshalb gefordert, Infrastrukturen und Services bereitzustellen, die die zitierfähige und  dauerhafte Zugänglichmachung der digitalen Forschungsdaten ermöglichen.

Im Rahmen meiner Arbeit am Deutschen GeoForschungsZentrum GFZ haben wir in den letzten Jahren, gemeinsam mit Partnern,  die Initiative re3data.org – Registry of Research Data Repositories gestartet (doi:10.1371/journal.pone.0078080). Anliegen war und ist es, Forschenden eine Orientierung über mögliche Orte zur Speicherung zur Zugänglichmachung ihrer Daten zu geben.

re3data.org – the Registry of Research Data Repositories Dank der Förderung der DFG und engagierter Projektpartner haben wir heute erfreulicherweise die „Tausender-Marke“ geknackt: re3data.org weist jetzt über 1.000 Daten-Repositorien aus der ganzen Welt nach. Ein einfaches Icon-System hilft bei der Einordnung der indexierten Daten-Infrastrukturen. (Weiterführende Informationen zum Stand von re3data.org finden sich im Projektblog.)

Das jüngste, in re3data.org indexierte Daten-Repositorium ging erst heute Nachmittag online. Es handelt sich um das „CERN Open Data Portal“. Über dieses Portal macht das CERN in Genf u. a. Daten aus den LHC-Kollaborationen für die Öffentlichkeit zugänglich. Die Forschungsdaten sind durch die Nutzung der Creative-Commons-Deed „CC0“ gemeinfrei nachnutzbar. Siehe dazu die Pressemitteilung der CERN-Kolleginnen und -Kollegen.

CERN Open Data Portal

Auch wenn die Anzahl der „Daten-Policies“ wächst und die Landschaft der Daten-Repositorien an Profil gewinnt, gibt es weiterhin viel zu tun. Um die komplexen Herausforderungen des „Data Sharings“ auf internationaler Ebene aufzugreifen formiert sich die „Research Data Alliance (RDA)“. Organisiert durch das Open Science Koordinationsbüro der Helmholtz-Gemeinschaft findet heute und morgen eine Tagung dieser Initiative am GFZ in Potsdam statt. Dort diskutieren 120 „Data Practitioners” aus verschiedensten Fachgebieten über Stand und Perspektive der deutschen Beteiligung in der Research Data Alliance.

Weitere Informationen zum Thema:

  • Zehn Anregungen zum Umgang mit Forschungsdaten finden sich im Kapitel „Publikation von Forschungsdaten“ (doi:10.2314/coscv1.53) im Handbuch “CoScience“ (Das Kapitel steht unter CC-BY und kann nachgenutzt, weiterbearbeitet – und damit gerne auch verbessert – werden.)
  • Weitere Informationen finden sich im Wiki forschungsdaten.org.
  • Darüber hinaus kann das Thema auch auf der Mailingliste “Umgang mit Forschungsdaten” diskutiert werden.

(Crosspost von ALBERTopen.)

Bund und Länder richten „Rat für Informationsinfrastrukturen“ ein

Die Gemeinsame Wissenschaftskonferenz (GWK) hat am 22. November 2013  die Einrichtung eines Rates für Informationsinfrastrukturen beschlossen. Die Einsetzung des Gremiums geht auf eine Empfehlung des Wissenschaftsrates aus dem Jahr 2012 zurück.

Auszug aus der Pressemitteilung (PDF) der GWK:

„Um die vorhandenen vielfältigen Aktivitäten in diesem Bereich besser aufeinander abzustimmen und sie miteinander zu verzahnen, hat die GWK heute beschlossen, einen Rat für Informationsinfrastrukturen zunächst als vierjähriges Pilotprojekt einzurichten. [..] Der Rat soll sich auf der Systemebene den strategischen Zukunftsfragen dieses Wissenschaftsbereiches widmen, die Selbstorganisationsprozesse in der Wissenschaft stärken und Möglichkeiten zur Kooperation von Einrichtungen/Initiativen ausloten. Er wird Wissenschaft und Politik in Fragen der Weiterentwicklung der Informationsinfrastrukturen beraten. Dem 24-köpfigen Gremium sollen sowohl Nutzer und Betreiber von wissenschaftlichen Informationsstrukturen als auch öffentliche Zuwendungsgeber angehören. Die Finanzierung des Rates erfolgt gemeinsam durch Bund und Länder.“

WissKom2012: Programm steht, Anmeldung ist eröffnet

Herbstzeit ist Tagungszeit! Vom 5. – 7. November 2012 findet die WissKom2012 am Forschungszentrum Jülich statt. Das Motto der Konferenz lautet „Vernetztes Wissen – Daten, Menschen, Systeme“.

Als Mitglied des Programmkomitees freue ich mich ganz besonders auf die Konferenz. Das Programm steht und die Anmeldung ist eröffnet.

Im Themenfeld „Daten“ werden u.a. Ergebnisse und Erfahrungen aus den  Projekten EDaWaX, re3data.org und TERENO vorgestellt. Darüber hinaus geht es z.B. um die Registrierung sozial- und wirtschaftswissenschaftlicher Forschungsdaten.

Unter dem Stichwort „Systeme“ geht es u.a. um die semantische Anreicherung und Vernetzung von Open-Access-Publikationen sowie um Verfahren der Impact Messung auf Basis von Open-Access-Repositorien.

Das dritte Thema der Konferenz lautet „Menschen“. Hier geht es u.a. um kollaborative Wissengenerierung und pandisziplinären Forschungsplattformen. Weiter wird der sehr geschätzte Kollege Lambert Heller über „Ideale und Alltagsprobleme beim Rollenwandel digitaler BibliothekarInnen“ sprechen.

Veranstalter ist die Zentralbibliothek des Forschungszentrums  Jülich. Programm und Anmeldeformular finden sich auf finden sich unter: wisskom2012.de. Und natürlich ist die WissKom auch auf Facebook zu finden.

Workshop zum Thema Autorenidentifikation

In eigener Sache: Im Rahmen meiner Tätigkeit für das Open Access Koordinationsbüro der Helmholtz-Gemeinschaft bin ich Mitorganisator eines Workshops zum Thema Autorenidentifikation. Die Veranstaltung findet am 15. Oktober 2012 im Jacob-und-Wilhelm-Grimm-Zentrum der Humboldt-Universität zu Berlin statt. Auszug aus der Ankündigung:

„Die Herkunft wissenschaftlicher Erkenntnis eindeutig nachzuvollziehen ist in Zeiten einer immer komplexer und schneller werdenden Wissenschaftskommunikation notwendiger denn je. Herausforderungen, die beim Versuch auftreten, Publikationen eindeutig auf Wissenschaftlerinnen und Wissenschaftler sowie auf ihre institutionellen Zugehörigkeiten zu beziehen, sind seit langem bekannt und werden auch im Umfeld des elektronischen Publizierens diskutiert. Mit der Open Researcher Contributor Identification Initiative (ORCID) hat sich 2009 ein Zusammenschluss vielfältiger Akteure aus der Wissenschaft, aus Verlagen und weiteren Institutionen gebildet.“

ORCID verfolgt das Ziel einen unabhängigen und offenen Standard zur Identifikation von wissenschaftlichen Autorinnen und Autoren zu etablieren, der bestehenden Initiativen und Identifikationssysteme bündelt. Der Dienst soll im Oktober online gehen.

Anliegen des Workshops ist es Stand und zukünftigen Entwicklungen der Autorenidentifikation zusammenfassen und gemeinsame Perspektiven zu diskutieren. Programm und Anmeldeformular des Workshops finden sich auf der Website der Deutschen Initiative für Netzwerkinformation (DINI).

DFG-Positionspapier: „Perspektiven für die digitale Transformation“

Der Senat der Deutsche Forschungsgemeinschaft (DFG) hat heute unter dem Titel „Die digitale Transformation weiter gestalten – Der Beitrag der DFG zu einer innovativen Informationsinfrastruktur für die Forschung“ (PDF)  ein Positionspapier zur strategischen Weiterentwicklung von Informationsinfrastrukturen für die Forschung verabschiedet. Auszug aus der Pressemitteilung:

„Vor dem Hintergrund eines rasanten Wandels der Bedingungen wissenschaftlichen Arbeitens unter digitalen Vorzeichen setzt sich das Positionspapier mit den aktuellen Herausforderungen einer innovativen Informationsinfrastruktur für die Forschung auseinander, greift neue Entwicklungen auf und benennt prioritäre Felder für Förderinitiativen. DFG-Präsident Professor Matthias Kleiner: ‚Exzellente Grundlagenforschung ist nicht ohne Informationsinfrastrukturen auf der Höhe der Zeit zu denken. Insofern kommt ihrem Auf- und weiteren Ausbau eine hohe, zukunftsweisende Bedeutung zu. Das Papier wird als strategische und thematische Richtschnur für die Informations- und Literaturversorgung der nächsten Jahre dienen – im Interesse des Forschungsstandorts und seiner Wissenschaftlerinnen und Wissenschaftler.'“

Erarbeitet wurde das Positionspapier vom DFG-Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme. Das 18-seitige Papier behandelt folgende vier Themenfelder: Überregionale Literaturversorgung, Erschließung und Digitalisierung, Elektronische Publikationen und Informationsmanagement. Angeknüpft wird an die DFG-Strategieschrift „Schwerpunkte der Förderung bis 2015“ (PDF) aus dem Jahr 2006.

arXiv & Open Access Text Mining

Nature berichtete gestern von einem Vorhaben, das exemplarisch Vorteile des offenen Zugangs zu Informationen beschreibt: Ein Team der Harvard University wird die ca. 740.000 Volltexte des Open Access Repositorys arXiv mittels Text Mining Methoden analysieren. Ziel ist es die Halbwertszeit wissenschaftlicher Begriffe und Konzepte, ihre Dissemination oder gar ihren Mem-Charakter zu erfassen, kurzum: Wissenschaftstrends zu kartographieren. Neben dieser eher szientometrischen Perspektive gibt es allerdings  die angewandte Perspektive des Retrievals: Die Auswertungen erlauben es auch, die relevantesten Publikationen zu einer spezifischen Thematik zu bestimmen. Das sogenannte Cultural Observatory Team der Harvard University hat bereits Erfahrungen mit Analysen dieser Art gesammelt als es mit ähnlichen Verfahren 5 Millionen Texte, die in Google Books indiziert waren, auswertete. Die arXiv-Implementierung verspricht allerdings bessere Usability: Dokumentempfehlungen innerhalb des Google Book Index sind von begrenztem Nutzen, schließlich ist ein Großteil des Materials nicht offen zugänglich. Davon abgesehen illustriert das Projekt den Vorteil der Zugänglichmachung von Informationen unter offenen Lizenzen: restriktive Nutzungsbedingungen, wie sie v.a. im Closed Access üblich sind, untersagen Text Mining.