Thomson Reuters startet einen „Data Citation Index“

Thomson Reuters hat gestern in einer Pressemitteilung den Start des „Data Citation Index“ angekündigt. Anliegen des Indexes ist es, „to facilitate the discovery, use and attribution of data sets and data studies, and link those data to peer-reviewed literature.“ Der „Data Citation Index“ soll als Teil des Web of Knowledge nutzbar sein und noch in diesem Jahr online gehen.

Eine erste Version des Tools soll auf der ALA-Konferenz, die aktuell in Anaheim (California) stattfindet, präsentiert werden. Weiter heißt es in der Pressemitteilung:

„This new research resource from Thomson Reuters creates a single source of discovery for scientific, social sciences and arts and humanities information by connecting foundational research within data repositories around the world to related peer-reviewed literature in journals, books, and conference proceedings already indexed in the Web of Knowledge.“

Thomson Reuters arbeitet bei der Umsetzung des „Data Citation Index“ mit Forschungsdaten-Repositorien, wie z.B. dem Digital Social Science Data Archive der University of Michigan zusammen. Vorbild für diese Entwicklung ist die seit 2010 laufende Kooperation zwischen PANGAEA und Elsevier.

Wenig bescheiden stellt Keith MacGregor, Vizepräsident von Thomson Reuters, fest: „The Data Citation Index will revolutionize the way data sets are discovered and utilized.“

Ob der „Data Citation Index“ eine Revolution ist, bleibt abzuwarten; deutlich ist aber, dass sich die Vernetzung von Daten und Texten weiter professionalisieren wird und damit auch die Zusammenarbeit zwischen Daten-Repositorien, bibliographischen Datenbanken und anderen Nachweissystemen. Darüber hinaus werden Forschungsdaten wohl vermehrt als Scholarly Record in szientometrische Studien einfließen.

(via researchremix)

eLife geht online: Open Access Journal wird von MPG, Wellcome Trust und Howard Hughes Medical Institute unterstützt

Im Juni 2011 vereinbarten die Max-Planck-Gesellschaft MPG, das Howard Hughes  Medical Institute (USA) und der Wellcome Trust (UK), gemeinsam die Herausgabe eines Open-Access-Journals mit dem Titel eLife aus dem Bereich der Biomedizin/Life Sciences zu unterstützen. Keyfeatures sollten laut damaliger Ankündigung neben offenem Zugang selbstredend strenge Qualitätssicherung sowie ein schneller, innovativer Veröffentlichungsprozess sein. Gestern erblickte elife nun unter dieser URL das Licht der digitalen Wissenschaftswelt: http://www.elifesciences.org.

Auch wenn bislang noch kein Artikel publiziert wurde, gibt die Website etwas Aufschluss über elife. So ist dort von einem zügigen und fairen Publikationsprozess die Rede (die Anwendung von Open Review ist aber anscheinend nicht geplant), vom Einsatz multimedialer Elemente, breiter Beteiligung der Leserschaft, von innovativer Wissenschaftskommunikation und Kollaboration. Publikationsgebühren sollen (zumindest in der ersten Phase) nicht anfallen, die Dokumente selbst werden unter CC-BY verfügbar sein. eLife plant zudem den Einsatz und die Auswertung neuartiger Wirkungsindikatoren à la PLoS, sprich: den Nachweis von wissenschaftlicher Relevanz via Nutzungshäufigkeit und Social Media Impact.

Kurz: Open-Access-Erfolgsgeschichten; Twitter für Hochschulen; Forschungsdatenmanagement; Science Code Manifesto; Rechtliche Rahmenbedingungen des Data Sharing

Open-Access-Erfolgsgeschichten: Im Rahmen der aktuell laufenden Open-Access-Week präsentiert Knowledge Exchange, ein Zusammenschluss von europäischen Förderorganisationen, eine lesenswerte Sammlung von Erfolgsgeschichten rund um Open Access.

Twitter für Hochschulen: Die London School of Economics and Political Science hat eine Einführung zu Twitter veröffentlicht. Zielgruppe sind u.a. Dozentinnen und Dozenten, die erste Gehversuche mit Twitter machen.

Forschungsdatenmanagement: Die Kollegen der FH Potsdam haben ein Handbuch zum Management von Forschungsdaten herausgegeben. Alle Beiträge sind open access.

Open Source in der Wissenschaft: Fünf Cs prägen das jüngst veröffentlichte Science Code Manifesto: Code, Copyright, Citation, Credit und Curation. Initiiert wurde das Manifest von Akteuren der Climate Code Foundation.

Zweitveröffentlichungsrecht: CDU-Politiker Günter Krings findet Open Access gut. Nicht gut findet er jedoch das geforderte Zweitveröffentlichungsrecht, dies erläutert er in der heutigen FAZ. Ben Kaden hat den Text auf IUWIS kommentiert. Einen weiteren Kommentar hat Tobias Schulze veröffentlicht.

Data Sharing: Im Rahmen des EU-Projektes Opportunities for Data Exchange (ODE) ist die Broschüre „Ten Tales of Drivers & Barriers in Data Sharing“ (PDF) erschienen. Die Publikation dokumentiert zehn Blickwinkel von Personen aus Wissenschaft, Infrastruktur und Forschungsförderung auf das Thema.  (Disclosure: Ich bin an dem Projekt beteiligt.) Nicht weniger interessant: Knowledge Exchange hat einen Report zu den rechtlichen Rahmenbedingungen des offenen Zugangs zu Forschungsdaten veröffentlicht. Ein Kapitel befasst sich mit der rechtlichen Lage in Deutschland.

Grüne fordern umfassende Förderung von Open Access

Klaus Graf macht auf einen bemerkenswerten Gesetzesentwurf der Grünen zum Thema Open Access aufmerksam. Kurze Zusammenfassung:

Unter dem Titel „Förderung von Open Access im Wissenschaftsbereich und freier Zugang zu den Resultaten der öffentlich geförderten Forschung“ (17/7031) hat die Fraktion Bündnis 90/Die Grünen einen Antrag zum Thema Open Access in den Bundestag eingebracht.

Im Fokus des Antrags steht das Anliegen der Grünen „Wissenschaftlerinnen und Wissenschaftler bei der Nutzung und Publikation von Open Access Beiträgen durch Informationen, Beratung und Serviceleistungen zu unterstützen und dadurch die Verbreitung von Open Access Veröffentlichungen zu beschleunigen.“

Die Grünen schlagen vor Open Access durch Maßnahmen in den folgenden vier Handlungsfeldern zu fördern:

Rechtliche Vorraussetzungen für Open Access: Hier wird ein u. a. eine unabdingbares Zweitveröffentlichungsrecht gefordert.

Open-Access-Strategien der Wissenschaft unterstützen: Hier sehen die Grünen umfassenden Handlungsbedarf. U. a. soll der Aufbau von Open-Access-Publikationsfonds sowie die „Primärdateninitiative“ der Wissenschaftsorganisationen vorangetrieben werden.

Benachteiligung von Open-Access-Publikationen abbauen: Hier fordern die Grünen u. a. die Gleichberechtigung von Open-Access-Publikationen im Rahmen von Berufungsverfahren.

Transparenz über öffentliche Forschung erhöhen: Unter diesem Punkt fordern die Grünen u. a. die Einführung von „rechtlich verpflichtende[n] Bedingung“ um Publikationen, die im Eigenverlag von wissenschaftlichen Institutionen entstehen, nach einem Embargo von zwölf Monaten im Netz frei zugänglich zu machen. (Besonderer Handlungsbedarf wird bei den Ressortforschungseinrichtungen des Bundes gesehen.)

Bundestag.de hat eine kurze Notiz zu dem Antrag veröffentlicht.

Update, 27.09.11: Auf gruen-digital.de erläutert Konstantin Notz, netzpolitischer Sprecher der Grünen Bundestagsfraktion, das Anliegen.

Berliner Parteien zu Open Access

Vielleicht für die Berlinerinnen und Berliner von Interesse: Wikimedia Deutschland greift in ihren Wahlprüfsteinen zur anstehenden Wahl zum Berliner Abgeordnetenhaus das Thema Open Access in zwei Fragen auf.

Frage 10 befasst sich u.a. mit der Repositorien-Infrastruktur an Berliner Wissenschaftseinrichtungen. Frage 11 widmet sich der Forderung nach einem Zweitveröffentlichungsrecht.

Folgende Parteien haben die beiden Fragen beantwortet: Bündnis 90/Die Grünen, CDU, FDP, Die Linke, Piratenpartei, SPD, Partei für Soziale Gleichheit (PSG) und Tierschutzpartei. Die lesenswerte Übersicht aller Antworten zum Thema findet sich im Wikimedia-Wiki.

Auch die weiteren Antworten zu den Fragen des Themenkomplexes Bildung und Wissenschaftspolitik (Digitale Leseexemplare an Bibliotheken und kollaboratives Arbeiten im Bildungsbereich) sind interessant.

(via netzpolitik.org)

Veranstaltungshinweis: Die neue Ära der vernetzten Wissenschaft

Michael Nielsen, renommierter Quantenphysiker und Open-Science-Vordenker spricht am 16. September 2011 an der Freien Universität Berlin. Im Rahmen des Vortrags wird er sein Buch „Reinventing Discovery“, das im Oktober bei der Princeton University Press erscheint, vorstellen. Auszug aus dem Klappentext:

„Reinventing Discovery tells the exciting story of an unprecedented new era of networked science. We learn, for example, how mathematicians in the Polymath Project are spontaneously coming together to collaborate online, tackling and rapidly demolishing previously unsolved problems. We learn how 250,000 amateur astronomers are working together in a project called Galaxy Zoo to understand the large-scale structure of the Universe, and how they are making astonishing discoveries, including an entirely new kind of galaxy. These efforts are just a small part of the larger story told in this book–the story of how scientists are using the internet to dramatically expand our problem-solving ability and increase our combined brainpower.“

Der Vortrag „Reinventing Discovery: the New Era of Networked Science“ findet statt im Max-Kade-Auditorium (Audimax) im Henry-Ford Bau der Freien Universität, Garystraße 35, 14195 Berlin-Dahlem. Der Eintritt ist frei. Ein Flyer findet sich hier.

Um Anmeldung bis zum 12. September 2011 unter michaelnielsen2011berlin (at) gmail.com wird gebeten. Dank an Daniel Mietchen und Björn Brembs, die die Veranstaltung möglich machen!

Neuer Übersetzungsentwurf der Open Knowledge Definition zur Diskussion freigegeben

Die Open Knowledge Definition (OKD) definiert anhand von 11 Klauseln offenes Wissen (oder Open Knowledge). Verkürzt gesagt sind danach Wissensinhalte oder Daten offen, wenn jede Person sie frei (also ohne Restriktionen) nutzen, zu eigenen Zwecken weiterverwenden und ändern sowie weiterverteilen kann. Diese Kernaussagen der Open Definition, die letztlich eine Übertragung des Open-Source-Prinzips auf Wissensinhalte beabsichtigt, werden in den erwähnten 11 Klauseln ausgeführt und beschrieben. Während die englischsprachige Version der OKD in Version 1.1 [http://www.opendefinition.org/okd/] vorliegt, bezieht sich die derzeitige deutsche Übersetzung auf die OKD-Version 1.0. Aus diesem Grund wurde ein neuer Übersetzungsvorschlag gemacht, der unter der Adresse http://primarypad.com/openknowledgeuebersetzung veröffentlicht ist.

Die Verfasser des aktuellen Übersetzungsvorschlages, Christian Hauschke und Ulrich Herb, bitten alle Interessierten bis zum 21.08.2011 um eine Diskussion und Kommentierung der Ergebnisse, idealerweise im oben verlinkten Dokument. Dies gilt keinesfalls nur, aber insbesondere für die Formulierungen, bei denen sie im Dokument um Rückmeldungen bitten. Weiterhin werden alle Leser dieses Aufrufs darum gebeten, ihn weiter zu verbreiten.

DHV: Empfehlungen zum wissenschaftlichen Publizieren

Vor dem Hintergrund der Plagiatsaffäre um Karl-Theodor zu Guttenberg gewinnt die Diskussion um das wissenschaftlichen Publikationsverhalten an Relevanz.

Der Deutsche Hochschulverband (DHV) hat am 14.04.2011 disziplinübergreifende Empfehlungen zum wissenschaftsadäquaten Publikationsverhalten veröffentlicht. In den Empfehlungen werden die „Rechtsgrundlagen der Autorenbenennung“ behandelt und“ wissenschaftsethische Publikationsempfehlungen“ formuliert. Die DHV-Empfehlungen sind online.

Weiter fordert der DHV die Abgabe von Qualifikationsarbeiten in digitaler Form:

„In einer Resolution, die die Delegierten auf dem 61. DHV-Tag verabschiedeten, werden die Hochschulen aufgefordert, Studierende, Doktoranden und Habilitanden qua Prüfungsordnung dazu zu verpflichten, ihre Arbeiten auch in digitaler Form abzugeben, damit Texte besser und schneller auf Übereinstimmungen mit fremden Texten abgeglichen werden können.“

Dabei macht es sich der DHV leider etwas einfach in dem er a) „Diplomarbeitsbörsen“ verdächtigt Plagiarismus zu fördern und  b) das Potenzial von Open Access zur Plagiaterkennung nicht berücksichtigt.

Darüber hinaus werden in der aktuellen DIE ZEIT (14.4.2011 Nr. 16) die Ergebnisse einer Veranstaltung der Robert Bosch Stiftung aus dem November 2009 aufgewärmt. In dem Thesenpapier (PDF) zu der damaligen Veranstaltung werden sieben „Vorschläge zur Sicherung der Integrität und Qualität der Wissenschaft“ formuliert. U.a. heißt es dort:

„Die Autorschaft für eine wissenschaftliche Publikation bedingt substanzielle inhaltliche Anteile an der zu veröffentlichenden Arbeit. Die Autorschaft ist heute eine Währung der Wissenschaft geworden, die mit Geld belohnt wird. Das System der leistungsorientierten Mittelvergabe sollte daher die tatsächlichen Beiträge eines Autors prüfen und lediglich strategische Autorschaften ohne verantwortliche inhaltliche Beteiligung ächten.“

„Big Deals“ am Ende?

Der Journalist Richard Poynder hat Claudio Aspesi, Finanzanalyst von
Bernstein Research, zur Zukunft  des Verlagsriesen Reed Elsevier befragt. Hintergrund des lesenswerten Interviews ist eine Analyse, die Aspesi und sein Kollege Anthony Sleeman erstellt haben. In der Analyse wird der Niedergang der „Big Deals“ vorhergesagt:

  • The „Big Deal“ commercial model worked well for over a decade, but is becoming unsustainable in the current funding environment.
  • Universities which have started to renounce their „Big Deals“ seem able to cope, and this experience, coupled with budget pressures around the world, represents a significant threat to the „Big Deal“ model.
  • The best case scenario for Elsevier is a repeat of 2010 for several years, with limited organic growth and periodic flare ups of conflict with individual libraries (or, in some case, countries); widespread decisions to discontinue „Big Deals“ could lead to revenue and earnings decline.
  • Investors should start to ask management what is their plan B, since the assumption that the current commercial model will prove sustainable looks increasingly uncertain.

Vor dem Hintergrund dieser Einschätzung ist die Pressemitteilung „Der neue Weg zur Fachliteratur – Forschungszentrum Jülich und De Gruyter testen ‚Patron Driven Acquisition‘ des Verlges De Gruyter interessant (PDF). Während eines definierten Zeitraums stehen den Wissenschaftlern des Forschungszentrum Jülich sämtliche elektronischen Produkte des Verlages zur Nutzung bereit. Nach dieser Testphase entscheidet die Zentralbibliothek des Forschungszentrums Anhand der Nutzungszahlen welche Inhalte dauerhaft erworben werden. Siehe dazu auch den Kommentar von Dörte Böhner auf bibliothekarisch.de.

Forschungsdatenmanagement: Welche Anforderungen haben Wissenschaftler?

„Welche Anforderungen haben Wissenschaftler bei der dauerhaften Zugänglichkeit wissenschaftlicher Daten?“ Dieser Frage geht eine Studie der niederländischen SURFfoundation nach. In der Metadstudie werden fünfzehn Publikationen zu dem Themenkomplex betrachtet.

Der Autor Martin Feijen benennt folgende Faktoren, die für Wissenschaftsmanagement und Infrastruktureinrichtungen von zentraler Bedeutung bei der Entwicklung von Massnahmen des Forschungsdatenmanagements sind (S. 4):

  • Tools and services must be in tune with researchers’ workflows, which are often discipline-specific (and sometimes even project-specific).
  • Researchers resist top-down and/or mandatory schemes.
  • Researchers favour a “cafeteria” model in which they can pick and choose from a set of services.
  • Tools and services must be easy to use.
  • Researchers must be in control of what happens to their data, who has access to it, and under what conditions. Consequently, they want to be sure that whoever is dealing with their data (data centre, library, etc.) will respect their interests.
  • Researchers expect tools and services to support their day-to-day work within the research project; long-term/public requirements must be subordinate to that interest.
  • The benefits of the support must clearly visible – not in three years’ time, but now.
  • Support must be local, hands-on, and available when needed.

Die Studie „What researchers want“ (PDF) ist frei zugänglich.

PS: Die duz hat sich in ihrer März-Ausgabe unter dem Titel „Der Kampf um den Rohstoff des Wissens“ dem Thema  angenommen. Leider sind die Beiträge mehrheitlich nicht Open Access.