Kurz: „The Digital Scholar“; Stand der Bibliometrie; Open-Access-Indikator gesucht

Seit heute ist Martin Wellers Buch „The Digital Scholar: How Technology is Changing Academic Practice“ frei zugänglich im Netz. Auf der Website von Bloomsbury Academic kann das Werk kapitelweise gelesen und gedruckt werden. Weller arbeitet als Professor für Educational Technology an der Open University. Auszug aus der Beschreibung des Werks:

„While industries such as music, newspapers, film and publishing have seen radical changes in their business models and practices as a direct result of new technologies, higher education has so far resisted the wholesale changes we have seen elsewhere. However, a gradual and fundamental shift in the practice of academics is taking place. Every aspect of scholarly practice is seeing changes effected by the adoption and possibilities of new technologies. This book will explore these changes, their implications for higher education, the possibilities for new forms of scholarly practice and what lessons can be drawn from other sectors.“

Anlässlich der diesjährigen European Summer School for Scientometrics (ESSS), die in dieser Woche in Wien stattfand, hat Robert Czepel vom ORF Wolfgang Glänzel (Katholieke Universiteit Leuven) zum Stand der Bibliometrie befragt:

„Tja, kann man Qualität überhaupt messen? – Das ist die Frage: Dass Qualität in der Wissenschaft direkt messbar ist, glaube ich nicht. Aber man hat Anhaltspunkte. Es gibt zumindest Indikatoren, die bestimmte Aspekte von Qualität wiedergeben. Wenn beispielsweise eine neue Entdeckung sehr schnell in die Kommunikation der Forscher weltweit einfließt, dann ist das auch ein Hinweis darauf, dass sie wichtig war.“

Passend zum Thema hat die Europäische Kommission heute einen Call zum Thema „Study to develop a set of indicators to measure open access“ veröffentlicht:

„The central aim of this study will be to develop an indicator that can ensure yearly and sustainable monitoring of the growth of open access literature from 2000 onwards within the ERA and beyond. The indicator will be accompanied by a study on the development of open access strategies in ERA countries and other selected countries, as well as by an exploratory study on a composed indicator measuring the growth of open access.“

Open-Access-Tage 2011: Anmeldung eröffnet

In diesem Jahr finden die Open-Access-Tage bereits zum fünften Mal statt. Gastgeberin ist vom 4. bis 5. Oktober 2011 die Universität Regensburg. Veranstaltet wird die Fachkonferenz von der Informationsplattform open-access.net und ihren Partnern.

Die Konferenz richtet sich an Personen aus Wissenschaft, Wissenschaftsmanagement, Verlagen und Infrastruktureinrichtungen aus Deutschland, Österreich und der Schweiz. Neben Vorträgen im Plenum besteht in vielen Sessions die Möglichkeit zur Diskussion. Teil der Veranstaltung ist wie in den Vorjahren die Open-Acces-Messe, auf der sich Open-Access-Projekte, -Verlage, -Zeitschriften, -Repositorien und weitere Akteure präsentieren können.

Die Anmeldung ist eröffnet und das Programm wächst und gedeiht. Als Mitglied des Programmkomitees würde ich mich freuen auch einige wisspub-Leserinnen und Leser in Regensburg sehen zu können. (Hashtag: #OAT11)

Google Scholar – von der Suchmaschine zum Collaboratory?

Hat die Vernachlässigung von Google Scholar ein Ende? Nachdem Microsoft Academic Search bereits vor einigen Monaten begonnen hat, bibliometrische Indikatoren in seiner wissenschaftlichen Suchmaschine nachzuweisen, zieht Google jetzt nach.

Vor einigen Tagen kündigte Google den Start des Dienstes „Google Scholar Citations“ an. Nach Angaben des Konzerns ermöglicht der Dienst „a simple way for you to compute your citation metrics and track them over time.“

Aktuell befindet sich der Google Scholar Citations in einer geschlossenen Betaphase. Die Reaktionen auf den Start von Google Scholar Citations sind vielfältig. Während z.B. Joachim Michel das Ende des Social Science Citation Index (SSCI) prognostiziert, äußern sich andere Kommentatoren zurückhaltender. So z.B. Martin Fenner, dessen lesenswerter Blogpost hier empfohlen werden muss.

Während bei Datenbanken wie Scopus oder Web of Science die Datengrundlage für die Berechnung bibliometrischer Indikatoren (einigermaßen) nachvollziehbar ist, ist bei Google Scholar Citations und bei Microsoft Academic Search unklar, welche Quellen  (z.B. Repositorien) indexiert werden. So hat z.B., wie bereits geschrieben, Albert Einstein bei Google Scholar 663 Publikationen und einen h-Index von 79, bei Microsoft Academic Search hat der Nobelpreisträger 194 Publikationen und einen h-Index von 23.

Ich habe seit wenigen Stunden einen Google Scholar Citations Account. Bei der Registrierung fand Google automatisch 9 Publikationen, an denen ich beteiligt bin. Diese werden nun automatisch in meinem Profil nachgewiesen. Bisher habe ich darauf verzichtet, weitere Publikationen hinzuzufügen oder auch die nachgewiesenen Slides zu löschen um das Profil etwas aussagekräftiger zu gestalten. Ein Klick auf mein Profil zeigt eine weitere Herausforderung: die heterogene Metadatenqualität. Nach diesen wenigen Spielereien mit dem Dienst fällt auch mein bisheriges Fazit eher verhalten aus.

Betrachtet man Google Scholar Citations jedoch vor dem Hintergrund von Google Plus wird das Potenzial des Dienstes deutlich. Eine Integration von Google Scholar Citations in Google Plus wäre ein feine Sache! So könnten z.B. die wöchentlichen Projektmeetings über Google Hangout organisiert werden oder die Papers der Kolleginnen und Kollegen könnten „Stream“ diskutiert werden.

Dieses Szenario könnte bald an Bedeutung gewinnen. Wie diesen Monat bekannt wurde investiert Google in das Startup-Unternehmen Wingu.

Wingu ist eine „enterprise cloud computing company“, die unter dem Namen „Elements“ ein Software-Produkt betreibt, das Google Scholar von einer Suchmaschine zu einer „virtuellen Forschungsumgebung“ (Collaboratory) aufwerten könnte. Auszug aus der Beschreibung der Software:

„Wingu’s flagship product, Elements, is an extensible scientific data integration and collaboration platform that helps researchers easily design, capture, analyze, and manage their data, allowing them to concentrate on science rather than software. The modular framework allows for simple data organization and customization, while the cloud-based architecture enables global collaborations with distributed teams.“

Es bleibt spannend! BTW: Ist jemandem ein Repositorium bekannt, welches das „citations-gadget“ integriert hat?

„What If the Web Really Worked for Science?“

Dieser zentralen Frage geht James Boyle, Jura-Professor und Mitbegründer des Center for the Study of the Public Domain an der Duke Law School in einem kurzweiligen und wenig juristischen Vortrag nach. Auszug:

„The World Wide Web was invented for science. It was invented to help spread scientific research, to connect researchers, to make information search and retrieval global and easy. It has worked, to some extent. But the irony today, is that it is easier to use the Web to search for shoes, books, or porn, than to use it for scientific research. Scholarly articles reporting the results of publicly funded scientific research languish behind paywalls, protected by copyright and digital rights management. Databases are incompatible, and their legal accessibility often unclear.“

Boyle plädiert für die Schaffung eines Anreizsystems, das das „Sharing“ von Wissen und Information im Sinne des Open Access in den Vordergrund stellt und belohnt.  Eine Aufzeichnung seines Vortrags steht bei YouTube (sogar in HD) bereit:

(via Michael Nielsen)

BMBF-Thesenpapier zum zukünftigen Internet

Das Bundesministerium für Bildung und Forschung (BMBF) hat im Rahmen der Konferenz „Zukünftiges Internet“ (Berlin, 05.07 -06.07.2011) eine Thesenpapier (PDF) zum zukünftigen Internet veröffentlicht. Das Papier umfasst zehn Thesen, die aus Sicht des Ministeriums zentrale Punkte bei der Entwicklung des Internets aufgreifen. Einen Bericht zur Konferenz von Richard Sietmann findet sich auf heise online.

Für mich etwas überraschend findet die Bedeutung des Internets für Forschung und Lehre keine eigenständige Betrachtung in den BMBF-Thesen. Wer sich jedoch einen Überblick über Stand und Entwicklung der digitalen und vernetzten Forschung in Deutschland machen will, kann sich durch den jetzt erschienen Tagungsband (PDF) der Konferenz „Digitale Wissenschaft 2010“ klicken, den wisspub-Kollege Cornelius Puschmann mit herausgegeben hat.

In 28 Beiträge von 61 Autorinnen und Autoren werden auf 210 Seiten die Themenfelder „Digital Humanities“, „Wissenschaftskommunikation und Web 2.0“, „E-Science und Forschungsdatenmanagement“ sowie „Elektronisches Publizieren und Open Access“ behandelt. (Disclosure: Auch ein Beitrag von mir ist enthalten.)

Kriterien zur Zukunft des wissenschaftlichen Journals

In eigener Sache: Auf beyondthejournal.net ist eine überarbeite und englischsprachige Version von Kriterien zur Zukunft der wissenschaftlichen Zeitschrift zu finden. Die Version stammt aus der Feder von Daniel Mietchen, Lambert Heller und mir. Der Text entstand im März 2011, er hat es jedoch erst jetzt ins Web geschafft. Auszug:

Dynamics: Research is a process. The scientific journal of the future provides a platform for continuous and rapid publishing of workflows and other information pertaining to a research project, and for updating any such content by its original authors or collaboratively by relevant communities.

Scope: Data come in many different formats. The scientific journal of the future interoperates with databases and ontologies by way of open standards and concentrates itself on the contextualization of knowledge newly acquired through research, without limiting its scope in terms of topic or methodology.

Access: Free access to scientific knowledge, and permissions to re-use and re-purpose it, are an invaluable source for research, innovation and education. The scientific journal of the future provides legally and technically barrier-free access to its contents, along with clearly stated options for re-use and re-purposing.

Replicability: The open access to all relevant core elements of a publication facilitates the verification and subsequent re-use of published content. The scientific journal of the future requires the publication of detailed methodologies, including all data and code, that form the basis of any research project.

Review: The critical, transparent and impartial examination of information submitted by the professional community enhances the quality of publications. The scientific journal of the future supports post-publication peer review, and qualified reviews of submitted content shall always be made public.

Presentation: Digitization opens up new opportunities to provide content, such as through semantic and multimedia enrichment. The scientific journal of the future adheres to open Web standards and creates a framework in which the technological possibilities of the digital media can be exploited by authors, readers and machines alike, and content remains continuously linkable.

Transparency: Disclosure of conflicts of interest creates transparency. The scientific journal of the future promotes transparency by requiring its editorial board, the editors and the authors to disclose both existing and potential conflicts of interest with respect to a publication and to make explicit their contributions to any publication.

Der Text steht unter einer CCo-Lizenz. Kommentare sind auf beyondthejournal.net willkommen. Bearbeitungen sind erwünscht.

Offene EHEC-Forschung

Das Potenzial des Webs für die Wissenschaft lässt sich dieser Tage am Beispiel der EHEC-Forschung dokumentieren. Kai Kupferschmidt schildert die Entwicklungen rund um die Sequenzierung des EHEC-Erregers vor Tagen in der Science wie folgt: „scientists around the world […] are analyzing available genomic data on the fly and, via tweets, wikis, and blogs, disseminating results online“.

Die Bedeutung von Blogs und Wikis bei der EHEC-Forschung wird in einem äußerst lesenswerten Interview mit der Bioinformatikerin Marina Manrique, das Tobias Maier in seinem Blog WeiterGen veröffentlicht hat, deutlich. Manrique arbeitet für die spanische Biotech-Firma Era7 und ist mit der Auswertung der EHEC-Sequenzen beschäftigt. Auszug aus dem Interview:

„Es ist fantastisch zu sehen, wie weltweit Wissenschaftler angefangen haben, zusammen diese Daten zu analysieren. […] Die Freigabe der Rohdaten durch BGI, Lifetech und der Health Protection Agency Großbritannien war entscheidend für dieses Crowdsourcing-Bewegung, genauso wie die Nutzung von Twitter, GitHub und die privaten Blogs. […]  Am wichtigsten ist, dass dadurch dass wir unsere Ergebnisse Open-Access publizieren, vor allem unter CC0 Lizenz, wir allen Menschen die Möglichkeit geben kostenlos auf die komplett öffentlich zugänglichen Daten zu zu greifen.

Wie schnell und unbürokratisch die Forschung des Teams um  Manrique ablief erklärt sie in ihrem Blog:

During the morning sessions of the second day (2nd of June) BGI announced the release of the sequencing data of 5 IonTorrent chips […]. Just some hours later Nick Loman […] published a de novo assembly of the reads with MIRA in his blog […] . And then, some hours later (in the morning of the 3rd of June) we published the annotation of the Nick’s assembly in our website. We annotated it with the pipeline (BG7 pipeline) we were presenting at the conference […].

Die Bedeutung von Blogs, die eine schnelle und niedrigschwellige Kommunikation fördern, lässt sich z.B. an Blogposts von Nick Loman (Pathogens: Genes and Genomes) und Kat Holt (bacpathgenomics) und den dort erwähnten Referenzen zeigen.

Verschiedene kommerzielle und öffentliche Forschungseinrichtungen haben EHEC-Daten, zum Teil unter Creative-Commons-Lizenzen, zur Nachnutzung veröffentlicht. So z.B. die Health Protection Agency in Großbritannien oder das chinesische Beijing Genomics Institute (BGI) und das Universitätsklinikum Hamburg-Eppendorf. Die Daten der beiden letztgenannten Organisationen wurden unter CC0 veröffentlicht und sind darüber hinaus über einen Digital Object Identifier (DOI) eindeutig adressierbar.

Eine kollaborative Analyse der EHEC-Daten wird auf GitHub betrieben. Interessant ist, dass mit GitHub eine Plattform genutzt wird, die nicht von einer wissenschaftlichen Infrastruktureinrichtung geschaffen wurde, sondern von einem kommerziellen Hostingservice zur Software-Entwicklung.

OpenScholar: Akademische Webseiten mit Drupal

Vor ein paar Tagen bin ich zufällig auf OpenScholar gestoßen. Hinter dem schönen Namen verbirgt sich eine Drupal-Distribution, die Wissenschaftlern die einfache Erstellung von Webseiten ermöglicht. Die Beschreibung der Software hört sich sehr interessant an:

„OpenScholar represents a paradigm shift in how the personal academic and research web sites are created and maintained. Built on the open-source framework Drupal, OpenScholar makes it possible to create academic web sites in a matter of seconds. Each web site comes with a suite of powerful tools from which users can facilitate the creation, distribution, and preservation of knowledge faster and more efficiently than ever before. OpenScholar supports customizable domains for every site, so site owners can keep their current domain name.“

OpenScholar wurde an der Harvard University entwickelt und läuft dort unter den Namen „Scholars at Harvard“ und „Projects at Harvard“ . Ein Video zeigt die Vorteile von OpenScholar: Lehrveranstaltungen, Publikationen und Veranstaltungen können dank vorgefertigten Formularen einfach erstellt werden. Besonders nützlich: OpenScholar unterstützt COinS. Darüber hinaus gibt u.a. auch eine Blogfunktion.

Der erste Blick auf OpenScholar beeindruckt. Welches CMS hat schon ein „Co-Authors-Widget“?

Michael Nielsen über Open Science

Der australische Quantenphysiker Michael Nielsen, auf desen Buch „Reinventing Discovery: The New Era of Networked Science“ ich mich schon sehr freue, hat auf der TEDxWaterloo einen sehr empfehlenswerten Vortrag zum Thema Open Science gehalten.

Falls nicht bekannt:Die Essays von Nielsen zum Thema „The future of science“ sind sehr lesenswert.

(via Daniel Mietchen.)