Europäische Universitäten veröffentlichen Open-Access-Positionspapier

Die League of European Research Universities (LERU) hat ein Positionspapier zu Open Access veröffentlicht. Das Papier „The LERU Roadmap Towards Open Access“ (PDF) wurde am 17. Juni in Brüssel vorgestellt.

Die LERU wurde 2002 gegründet und ist eine europäische Vereinigung von einundzwanzig „research-intensive“ Universitäten. Deutsche Mitglieder sind die Albert-Ludwigs-Universität Freiburg, die Ruprecht-Karls-Universität Heidelberg und die Ludwig-Maximilians-Universität München (LMU).

Passend zur Veröffentlichung des Positionspapier hat die LMU einen kurzen Film zum Thema Open Access veröffentlich. In dem Video beschreiben Angehörige der Universität die Vorteile von Open Access. Interessant ist auch der Start des Forschungsdaten-Repositorium „Open Data LMU“ .  Mit diesem ist die LMU wohl die erste deutsche Hochschule die ihren Wissenschaftlerinnen und Wissenschaftler ein eigenständiges und interdisziplinäres Repositorium für wissenschaftliche Daten bereitstellt.

Kriterien zur Zukunft des wissenschaftlichen Journals

In eigener Sache: Auf beyondthejournal.net ist eine überarbeite und englischsprachige Version von Kriterien zur Zukunft der wissenschaftlichen Zeitschrift zu finden. Die Version stammt aus der Feder von Daniel Mietchen, Lambert Heller und mir. Der Text entstand im März 2011, er hat es jedoch erst jetzt ins Web geschafft. Auszug:

Dynamics: Research is a process. The scientific journal of the future provides a platform for continuous and rapid publishing of workflows and other information pertaining to a research project, and for updating any such content by its original authors or collaboratively by relevant communities.

Scope: Data come in many different formats. The scientific journal of the future interoperates with databases and ontologies by way of open standards and concentrates itself on the contextualization of knowledge newly acquired through research, without limiting its scope in terms of topic or methodology.

Access: Free access to scientific knowledge, and permissions to re-use and re-purpose it, are an invaluable source for research, innovation and education. The scientific journal of the future provides legally and technically barrier-free access to its contents, along with clearly stated options for re-use and re-purposing.

Replicability: The open access to all relevant core elements of a publication facilitates the verification and subsequent re-use of published content. The scientific journal of the future requires the publication of detailed methodologies, including all data and code, that form the basis of any research project.

Review: The critical, transparent and impartial examination of information submitted by the professional community enhances the quality of publications. The scientific journal of the future supports post-publication peer review, and qualified reviews of submitted content shall always be made public.

Presentation: Digitization opens up new opportunities to provide content, such as through semantic and multimedia enrichment. The scientific journal of the future adheres to open Web standards and creates a framework in which the technological possibilities of the digital media can be exploited by authors, readers and machines alike, and content remains continuously linkable.

Transparency: Disclosure of conflicts of interest creates transparency. The scientific journal of the future promotes transparency by requiring its editorial board, the editors and the authors to disclose both existing and potential conflicts of interest with respect to a publication and to make explicit their contributions to any publication.

Der Text steht unter einer CCo-Lizenz. Kommentare sind auf beyondthejournal.net willkommen. Bearbeitungen sind erwünscht.

Offene EHEC-Forschung

Das Potenzial des Webs für die Wissenschaft lässt sich dieser Tage am Beispiel der EHEC-Forschung dokumentieren. Kai Kupferschmidt schildert die Entwicklungen rund um die Sequenzierung des EHEC-Erregers vor Tagen in der Science wie folgt: „scientists around the world […] are analyzing available genomic data on the fly and, via tweets, wikis, and blogs, disseminating results online“.

Die Bedeutung von Blogs und Wikis bei der EHEC-Forschung wird in einem äußerst lesenswerten Interview mit der Bioinformatikerin Marina Manrique, das Tobias Maier in seinem Blog WeiterGen veröffentlicht hat, deutlich. Manrique arbeitet für die spanische Biotech-Firma Era7 und ist mit der Auswertung der EHEC-Sequenzen beschäftigt. Auszug aus dem Interview:

„Es ist fantastisch zu sehen, wie weltweit Wissenschaftler angefangen haben, zusammen diese Daten zu analysieren. […] Die Freigabe der Rohdaten durch BGI, Lifetech und der Health Protection Agency Großbritannien war entscheidend für dieses Crowdsourcing-Bewegung, genauso wie die Nutzung von Twitter, GitHub und die privaten Blogs. […]  Am wichtigsten ist, dass dadurch dass wir unsere Ergebnisse Open-Access publizieren, vor allem unter CC0 Lizenz, wir allen Menschen die Möglichkeit geben kostenlos auf die komplett öffentlich zugänglichen Daten zu zu greifen.

Wie schnell und unbürokratisch die Forschung des Teams um  Manrique ablief erklärt sie in ihrem Blog:

During the morning sessions of the second day (2nd of June) BGI announced the release of the sequencing data of 5 IonTorrent chips […]. Just some hours later Nick Loman […] published a de novo assembly of the reads with MIRA in his blog […] . And then, some hours later (in the morning of the 3rd of June) we published the annotation of the Nick’s assembly in our website. We annotated it with the pipeline (BG7 pipeline) we were presenting at the conference […].

Die Bedeutung von Blogs, die eine schnelle und niedrigschwellige Kommunikation fördern, lässt sich z.B. an Blogposts von Nick Loman (Pathogens: Genes and Genomes) und Kat Holt (bacpathgenomics) und den dort erwähnten Referenzen zeigen.

Verschiedene kommerzielle und öffentliche Forschungseinrichtungen haben EHEC-Daten, zum Teil unter Creative-Commons-Lizenzen, zur Nachnutzung veröffentlicht. So z.B. die Health Protection Agency in Großbritannien oder das chinesische Beijing Genomics Institute (BGI) und das Universitätsklinikum Hamburg-Eppendorf. Die Daten der beiden letztgenannten Organisationen wurden unter CC0 veröffentlicht und sind darüber hinaus über einen Digital Object Identifier (DOI) eindeutig adressierbar.

Eine kollaborative Analyse der EHEC-Daten wird auf GitHub betrieben. Interessant ist, dass mit GitHub eine Plattform genutzt wird, die nicht von einer wissenschaftlichen Infrastruktureinrichtung geschaffen wurde, sondern von einem kommerziellen Hostingservice zur Software-Entwicklung.

Anhörung der EU-Kommission zu Open Access

Am 30. Mai 2011 fand in Brüssel eine Anhörung der Europäischen Kommission zum Thema „Scientific Information in Europe“ statt. Folgende Themen standen hier im Mittelpunkt:

  • 1. Zugänglichkeit zu wissenschaftlicher Information,
  • 2. Langzeitarchivierung von wissenschaftlichen Ergebnissen,
  • 3. Evaluierung im Wissenschaftssystem,
  • 4. Maßnahmen auf Ebene der Mitgliedstaaten und der EU.

Ziel der Anhörung war, der Kommission Ideen und Anregungen für weitere Maßnahmen in den genannten Themenfeldern zu geben. Im Folgenden seien einige Statements dokumentiert, die mittlerweile im Web veröffentlicht wurden:

Hinweise auf weitere Statements sind willkommen. Gerne aktualisiere ich diese Liste.

Gesamtkonzept für die Informationsinfrastruktur online

Das „Gesamtkonzept für die Informationsinfrastruktur in Deutschland“ ist online. Erstellt wurde das Gesamtkonzept von der Kommission Zukunft der Informationsinfrastruktur (KII), die im Auftrag der Gemeinsamen Wissenschaftskonferenz (GWK) arbeitete. Auszug aus der Pressemitteilung der Leibniz-Gemeinschaft:

Die Zusammensetzung der Kommission stellt ein Novum dar. Sie repräsentiert die maßgeblichen Akteure der Informationsinfrastruktur in Deutschland, und zwar sowohl die Dienstleister selbst als auch die Förderorganisationen ebenso wie die wissenschaftlichen Nutzer.

Die Kommission definiert „Informationsinfrastruktur“ als nationales, disziplinübergreifendes „Netz“ von Einrichtungen. Diese nehmen dezidiert in öffentlichem bzw. institutionellem Auftrag die Versorgung im weitesten Sinne von Wissenschaft und Forschung mit Information und damit zusammenhängenden Dienstleistungen wahr. Vor diesem Hintergrund wird dem Konzept ein ganzheitlicher, strukturorientierter Ansatz zugrundegelegt. Disziplin-, sparten- und institutionenübergreifend werden acht Handlungsfelder beleuchtet, die aus heutiger Sicht für die Informationsinfrastruktur von zentraler Bedeutung sind:

  1. Lizenzierung
  2. Hosting / Langzeitarchivierung
  3. Nichttextuelle Materialien
  4. Retrodigitalisierung / kulturelles Erbe
  5. Virtuelle Forschungsumgebungen
  6. Open Access
  7. Forschungsdaten
  8. Informationskompetenz / Ausbildung.

Alle Handlungsfelder stehen miteinander in Zusammenhang. Darüber hinaus wurden 5 der 8 Themen parallel und in Kooperation zwischen der Kommission und der Allianz-Schwerpunktinitiative Digitale Information behandelt.

(Disclosure: Ich war an zwei KII-AGs beteiligt.)

Open Access in der deutschen Wissenschaft

Die Kolleginnen Sünje Dallmeier-Tiessen (CERN) und Anja Lengenfelder (MPG) haben eine interessante Analyse der Study of Open Access Publishing (SOAP) veröffentlicht. In ihrem Paper, das Lengenfelder heute auf dem 100. Deutschen Bibliothekartag vorstellte, analysieren die Autorinnen die Einstellung von 3.000 in Deutschland arbeitenden Wissenschaftlerinnen und Wissenschaftlern. Auszug aus dem Abstract:

Im Ergebnis zeigt sich eine sehr positive Meinung zu Open Access, die sich mit den weltweiten Daten deckt. Ein erheblicher Anteil der in Deutschland arbeitenden Wissenschaftlerinnen und Wissenschaftler hat bereits Erfahrung mit Open Access Publikationen. Die Finanzierung der Publikationsgebühren wird als eines der Haupthindernisse bei der Open Access Publikation angegeben. Verschiedene Finanzierungsquellen werden hierfür genutzt: In Deutschland sind dies, insbesondere bei Angehörigen der außeruniversitären Forschungseinrichtungen, überdurchschnittlich häufig institutionelle Fonds.

Die Daten der gesamten SOAP-Studie mit 38.358 Statements von Wissenschaftlerinnen und Wissenschaftlern stehen weiterhin unter CC0 zur Nachnutzung bereit.

In diesem Kontext auch der Hinweis auf den Call for Paper der diesjährigen Open-Access-Tage, die vom 4. bis 5. Oktober 2011 an der Universität Regensburg stattfinden. Vortragsvorschläge sind bis zum 8. Juli 2011 willkommen.

„Es wird Zeit, alle alles lesen zu lassen“

In der Mittwochausgabe der FAZ findet sich ein lesenswerter Artikel von Hans-Jochen Schiewer, Rektor der Universität Freiburg. Dieser schildert seine Sicht auf die Transformation des subskriptionsbasierten Publikationssystems hin zu Open Access. Weiter beschreibt er die Open-Access-Strategie der League of European Research Universities (LERU), die diesen Monat in Brüssel präsentiert wird. Auszug:

„Die Idee des Open Access entspricht ganz den traditionellen Werten und Zielen akademischen Arbeitens, das auf Kollegialität, dem Austausch von Ideen und Ergebnissen, der gemeinsamen Suche nach Erkenntnis und der Verbreitung von Wissen zum Wohle der Gesellschaft insgesamt beruhen. Erst das digitale Zeitalter ermöglicht einen gemeinsamen freien Zugang zu wissenschaftlicher Erkenntnis und zu Forschungsdaten, wie er zuvor unter den Bedingungen des Druckzeitalters nicht denkbar war. Entscheidend dabei ist die Auswirkung dieses neuen Instruments auf die Entwicklung einer Gesellschaft, die den Leitbegriffen von Open Scholarship und Open Knowledge verpflichtet ist.“

Auf IUWIS rezensiert Ben Kaden den Aufsatz. (Apropos IUWIS: Es wäre fantastisch, wenn IUWIS COinS nutzen würde.)

Innovationspotenzial für die Volkswirtschaft

Zwei Beratungsunternehmen haben diese Woche Publikationen zu den Themenfelden Open Access und Forschungsdaten veröffentlicht.

Das McKinsey Global Institute (MGI) hat eine Studie zum Thema Big Data veröffentlicht, in der u.a. das Potenzial frei zugänglicher Forschungsdaten betont wird. Auszug:

„Making big data more accessible in a timely manner. In the public sector, making data more accessible across otherwise separated departments can sharply reduce search and processing time. In manufacturing, integrating data from R&D, engineering, and manufacturing units to enable concurrent engineering can cut time-to-market.“

Die Forschungsabteilung der Deutschen Bank befasst sich in der Studie „Die digitale Gesellschaft: Neue Wege zu mehr Transparenz, Beteiligung und Innovation“ (PDF) mit Open Access. Dort heißt es:

„Eine aktive Open Access-Politik kann Wissen effizienter und kostengünstiger verbreiten und sorgt somit für ein höheres Innovationspotenzial in der Volkswirtschaft.“

(via netzpolitik.org und CNI)

OpenScholar: Akademische Webseiten mit Drupal

Vor ein paar Tagen bin ich zufällig auf OpenScholar gestoßen. Hinter dem schönen Namen verbirgt sich eine Drupal-Distribution, die Wissenschaftlern die einfache Erstellung von Webseiten ermöglicht. Die Beschreibung der Software hört sich sehr interessant an:

„OpenScholar represents a paradigm shift in how the personal academic and research web sites are created and maintained. Built on the open-source framework Drupal, OpenScholar makes it possible to create academic web sites in a matter of seconds. Each web site comes with a suite of powerful tools from which users can facilitate the creation, distribution, and preservation of knowledge faster and more efficiently than ever before. OpenScholar supports customizable domains for every site, so site owners can keep their current domain name.“

OpenScholar wurde an der Harvard University entwickelt und läuft dort unter den Namen „Scholars at Harvard“ und „Projects at Harvard“ . Ein Video zeigt die Vorteile von OpenScholar: Lehrveranstaltungen, Publikationen und Veranstaltungen können dank vorgefertigten Formularen einfach erstellt werden. Besonders nützlich: OpenScholar unterstützt COinS. Darüber hinaus gibt u.a. auch eine Blogfunktion.

Der erste Blick auf OpenScholar beeindruckt. Welches CMS hat schon ein „Co-Authors-Widget“?

Klick in den Elsevier Webshop

Vor einigen Tagen habe ich mich zufällig in den Webshop von Elsevier geklickt. Mit diesem Angebot zeigt der Verlag die Möglichkeiten der Zweitverwertung seiner Inhalte auf illustrative Weise. Autoren haben dort u.a. die Möglichkeiten all ihre bei Elsevier publizierten Artikel in einem personalisierten Buch zusammenzustellen oder einen Artikel als Poster zu erwerben.

Zur Dekoration weißer Bürowände kann für 34,95 Euro ein „Certificate of publication“, im dunkelbraunen Holzrahmen bestellt werden.

Darüber hinaus bietet der Verlag über den Webshop verschiedene Dienste, u.a. einen „Illustration Service“, der triste Tabellen visuell aufbereitet  und „English Language Editing“, bei dem  Manuskripte von Muttersprachlern grammatikalisch aufbereitet werden.