Zum Wochenende:
via (gulliver.turtle)
Zum Wochenende:
via (gulliver.turtle)
Im Wissenschaftsteil der FAZ von heute findet sich ein lesenswerter Artikel von Joachim Müller-Jung zur Nutzung von Blogs und Microblogs in der Wissenschaft.
Der Artikel „Heißer Dampf über unseren Köpfen“ beschreibt anhand einiger Beispiele, wie z.B. des „Arsen-Paper“ von Felisa Wolfe-Simon et al. und des „Stalking the fourth domain of life-Papers“ von Jonathan Eisen et al., den Einfluss des Web 2.0 auf die Wissenschaftskommunikation. Neben der Beschreibung des Potenzials, schlägt Müller-Jung gegen Ende des Artikels nachdenkliche Töne an:
„Ein Blog als Fluchtpunkt der seriösen Wissenschaftskommunikation und als Zielort maximaler Transparenz? Seine Botschaft hatte Eisen jedenfalls via Twitter und Facebook schnell verbreitet. Wie groß aber wird die Bereitschaft zu einer so gehaltvollen Aufbereitung bei jenen Autoren sein, die weniger vernetzt sind und weniger schreibfreudig, die dafür aber ihre Meriten der wissenschaftlichen Kernerarbeit zu verdanken haben? Sollen sie ins kommunikative Abseits geraten?“
Im Rahmen der diesjährigen New Yorker Social Media Week hat Mendely eine Session unter dem Motto „Research Gone Social“ veranstaltet. Eine Video-Aufzeichnung der Session ist nun online.
Die Vortragenden, Chris Wiggins (Columbia University), Gabriel Willow (WildLab), Margaret Smith (New York University Libraries) und Jan Reichelt (Mendeley), beschreiben in ihren Vorträgen Wirkung und Potenzial des Netzes auf den wissenschaftlichen Erkenntnisprozess. Die Themen der Vorträge reichen dabei von „data-driven science“ über „citizen science“ und „social media“ bis hin zum „reference managment“. Der Klick auf das Video lohnt sich.
(via Victoria Stodden)
Unter dem Begriff Citizen Science versteht man wissenschaftliche Projekte, die auf die Beteiligung von Freiwilligen setzen. In der englischsprachigen Wikipedia wird der Begriff wie folgt definiert:
„Citizen science is a term used for projects or ongoing program of scientific work in which individual volunteers or networks of volunteers, many of whom may have no specific scientific training, perform or manage research-related tasks such as observation, measurement or computation.“
Projekte wie Galaxy Zoo in der Astronomie oder eBird in der Biologie zeigen eindrucksvoll das Potenzial der Citizen Science. Mit Blick auf die Bedeutung des Netzes für Citizen Science hat sich der Begriff „Citizen Cyberscience“ etabliert, der – so meine Wahrnehmung – insbesondere durch François Grey geprägt ist. Im letzten Jahr fand in London der erste Citizen Cyberscience Summit statt. Das Programm zeigt die Vielzahl der laufenden Projekte, bei denen „Laien“ bei der Erhebung und Analyse von wissenschaftlichen Daten tätig werden können. Darüber hinaus gibt es Projekte wie SETI@home, Einstein@Home oder LHC@home, bei denen Freiwillige ein wissenschaftliches Vorhaben durch Rechenleistungen unterstützen können.
Auch in Deutschland gibt es einige Citizen Science Projekte, insbesondere im Bereich der Ornithologie. Hier ist es der Naturschutzbund Deutschland (NABU), der regelmäßig Interessierte zur Beteiligung an Aktionen wie der „Bundesweite Kuckucks-Kartierung„(2008) oder zur „Stunde der Gartenvögel“ (2010, 2011) aufruft. Ein weiteres Beispiel aus der Biologie ist das Projekt „Tagfalter-Monitoring Deutschland„. Hier erfassen Freiwillige tagesaktive Schmetterlinge. Das Projekt wird vom Helmholtz-Zentrum für Umweltforschung (UFZ) wissenschaftlich begleitet und durch verschiedene Naturschutzverbände sowie das Bundesamt für Naturschutz (BfN) unterstützt.
Weitere Projekte in Deutschland:
Über Hinweise auf weitere Projekte in Deutschland, gerne als Kommentar, freue ich mich.
Da die Kollegen Puschmann und Herb gerade andere Kanäle als dieses Blog nutzen, aggregiere ich im Folgenden zwei lesenswerte Beiträge der lieben Kollegen.
Ulrich Herb schreibt auf TELEPOLIS unter dem schönen Titel „Für Wissenschaftler wertlos“ über das Zählpixel der VG Wort:
Seit 2007 bietet die Verwertungsgesellschaft Wort (VG Wort) für online publizierte Dokumente die Möglichkeit einer Ausschüttung von Tantiemen aus Zweitverwertungrechten nach Urheberrechtsgesetz. Ob man in den Genuss einer Ausschüttung kommt, hängt von einer kruden Technik ab, die Verfasser wissenschaftlicher Dokumente in den meisten Fällen von einer Vergütung ausschließt. Alternativvorschlägen von E-Publishing-Akteuren verschließt sich die VG Wort bislang.
Cornelius Puschmann macht sich in seinem eigenen Blog „Gedanken zur gesellschaftlichen Aufgabe der Wikipedia„:
Das Internet fordert unter anderem deshalb gesellschaftliche Eliten heraus, weil es alternative Zugänge zu und Teilnahme an Wissen ermöglicht. Im Falle der Wikipedia sind es (unter anderem) Schule und Wissenschaft, die herausgefordert werden. Dabei geht es weniger darum, dass die bestehenden System ersetzt würden, als vielmehr um vergrößerte Transparenz und Partizipationsmöglichkeiten durch neue, bislang nicht in den Wissensverhandlungsprozess eingebundene Akteuere. Die Wikipedia ist nicht perfekt, aber das muss sie auch nicht sein. Es genügt völlig, dass sie uns die Komplexität der Wissenskodifizierung vor Augen führt, und dass sie die Barrieren zur Teilnahme an dieser Kodifizierung im Vergleich zum Buchzeitalter merklich reduziert hat. Die Wikipedia ist nicht bedeutsam als ewiger Wissensspeicher, in dem ordentlich sortierte Fakten abgelegt werden. Vielmehr ist sie ein Marktplatz, auf dem Wissen verhandelt wird, und dieser Prozess ist vielleicht wichtiger als sein Endprodukt, auch wenn es zweifellos oft ein ziemlich mühseliger Prozess ist.
Liebe Kollegen, bei diesem Output ist es schwer den Überblick zu behalten! Hinweise auf Eurer Schaffen und Wirken sind auch hier weiterhin willkommen. 🙂
Der Deutsche Bibliotheksverband (dbv) fordert eine nationale Digitalisierungsstrategie. In einem Thesenpapier (PDF), das die Entwicklung der „Deutschen Digitalen Bibliothek“ (DDB) begleiten soll, fordert der Verband „vom Bund zusätzliche Mittel von etwa 10 Millionen Euro jährlich für mindestens fünf Jahre, um mit entsprechenden Digitalisierungsprojekten relevante Inhalte in der DDB sichtbar machen zu können.“
Auszug aus der Pressemitteilung:
„Damit eine nationale Digitalisierungsstrategie wirklich erfolgreich sein kann, plädiert der Deutsche Bibliotheksverband für die konsequente Umsetzung einer abgestimmten nationalen Strategie. Ein wichtiger Aspekt dieser Strategie, so fordert der Bibliotheksverband, sollte die Einbeziehung der vielfältigen Digitalisierungsprojekte auch in kleineren Bibliotheken in das „Datenreservoir“ der nationalen digitalen Bibliothek sein. Dazu dbv-Vorstandsmitglied Dr. Frank Simon-Ritz: ‚Bibliotheken werden sich auf den Strukturwandel durch noch mehr Arbeitsteilung und Kooperationen einstellen. Die Unterhaltsträger, insbesondere die Länder, sollten die Digitalisierung durch einzelne Projekte, z.B. im Rahmen von Länderprogrammen für Digitalisierung und Bestandserhaltung, entschieden voranbringen. Bei der Massendigitalisierung halten wir es für sinnvoll, nach dem Beispiel des Kooperationsvertrages der Bayerischen Staatsbibliothek München, auch das Gespräch mit kommerziellen Partnern aufzunehmen.'“
Bereits im Januar hat sich der sogenannte „Ausschuss der Weisen“ vor dem Hintergrund der Weiterentwicklung der Europeana zur Digitalisierung des kulturellen Erbes Europas geäußert. In dem Positionspapier „Die neue Renaissance“ (PDF) werden die EU-Mitgliedstaaten aufgefordert, ihre Mittel für die Digitalisierung erheblich aufzustocken:
„Die Verantwortung für die Finanzierung der Digitalisierung liegt in erster Linie beim Staat und die Mitgliedstaaten werden ihre Investitionen in die Digitalisierung deutlich erhöhen müssen. Die gegenwärtige Finanzkrise kann zwar nicht ignoriert werden, kann aber genauso wenig ein Grund für Tatenlosigkeit sein.“
Die SPD-Bundestagsfraktion hat einen Gesetzentwurf zur Förderung von Open Access vorgelegt: Wissenschaftliche Publikationen, die im Rahmen der öffentlich geförderten Forschung entstehen, sollen nach einer Embargofrist von sechs Monaten bei Periodika und zwölf Monaten bei Sammelwerken auf Repositorien veröffentlicht werden können.
Auszug aus der Pressemittelung:
„Ein unabdingbares Zweitveröffentlichungsrecht für wissenschaftliche Veröffentlichungen wird auch von der Deutsche Forschungsgemeinschaft (DFG) und den Forschungsorganisationen seit langem gefordert. Es soll den wissenschaftlichen Autoren wie auch den Hochschulen ermöglichen, ihre Forschungsergebnisse neben der herkömmlichen Verlagspublikation zu publizieren, etwa auf eigenen Webseiten, auf den Seiten der wissenschaftlichen Fachgesellschaften oder auf Hochschulservern. Damit sollen zugleich zeitgemäße und dringend gebotene Kommunikations- und Publikationsmöglichkeiten geschaffen werden, denn bei wissenschaftlichen Veröffentlichungen geht es vor allem um den schnellen Zugang zu Publikationen und Forschungsergebnissen.“
Dieses Zweitveröffentlichungsrecht, das keinerlei Pflicht für Wissenschaftler impliziert, ermöglicht es wissenschaftlichen Urhebern selbst über den Grad der Sichtbarkeit ihrer Forschungsergebnisse zu entscheiden.
Der „Gesetzentwurf zur Änderung des Urheberrechtsgesetzes“ findet sich in BT-Drs. 17/5053 (PDF). IUWIS hat einige Reaktionen dokumentiert.
Bereits im Februar hat die Projektgruppe Urheberrecht der Enquete-Kommission ein Arbeitspapier „Zugang zu wissenschaftlichen Informationen über sogen. Open Access – Verwertungsmodelle“ veröffentlicht. (PDF) Dieses kann unter enquetebeteiligung.de diskutiert werden.
Der Journalist Richard Poynder hat Claudio Aspesi, Finanzanalyst von
Bernstein Research, zur Zukunft des Verlagsriesen Reed Elsevier befragt. Hintergrund des lesenswerten Interviews ist eine Analyse, die Aspesi und sein Kollege Anthony Sleeman erstellt haben. In der Analyse wird der Niedergang der „Big Deals“ vorhergesagt:
- The „Big Deal“ commercial model worked well for over a decade, but is becoming unsustainable in the current funding environment.
- Universities which have started to renounce their „Big Deals“ seem able to cope, and this experience, coupled with budget pressures around the world, represents a significant threat to the „Big Deal“ model.
- The best case scenario for Elsevier is a repeat of 2010 for several years, with limited organic growth and periodic flare ups of conflict with individual libraries (or, in some case, countries); widespread decisions to discontinue „Big Deals“ could lead to revenue and earnings decline.
- Investors should start to ask management what is their plan B, since the assumption that the current commercial model will prove sustainable looks increasingly uncertain.
Vor dem Hintergrund dieser Einschätzung ist die Pressemitteilung „Der neue Weg zur Fachliteratur – Forschungszentrum Jülich und De Gruyter testen ‚Patron Driven Acquisition‘ des Verlges De Gruyter interessant (PDF). Während eines definierten Zeitraums stehen den Wissenschaftlern des Forschungszentrum Jülich sämtliche elektronischen Produkte des Verlages zur Nutzung bereit. Nach dieser Testphase entscheidet die Zentralbibliothek des Forschungszentrums Anhand der Nutzungszahlen welche Inhalte dauerhaft erworben werden. Siehe dazu auch den Kommentar von Dörte Böhner auf bibliothekarisch.de.
„Welche Anforderungen haben Wissenschaftler bei der dauerhaften Zugänglichkeit wissenschaftlicher Daten?“ Dieser Frage geht eine Studie der niederländischen SURFfoundation nach. In der Metadstudie werden fünfzehn Publikationen zu dem Themenkomplex betrachtet.
Der Autor Martin Feijen benennt folgende Faktoren, die für Wissenschaftsmanagement und Infrastruktureinrichtungen von zentraler Bedeutung bei der Entwicklung von Massnahmen des Forschungsdatenmanagements sind (S. 4):
- Tools and services must be in tune with researchers’ workflows, which are often discipline-specific (and sometimes even project-specific).
- Researchers resist top-down and/or mandatory schemes.
- Researchers favour a “cafeteria” model in which they can pick and choose from a set of services.
- Tools and services must be easy to use.
- Researchers must be in control of what happens to their data, who has access to it, and under what conditions. Consequently, they want to be sure that whoever is dealing with their data (data centre, library, etc.) will respect their interests.
- Researchers expect tools and services to support their day-to-day work within the research project; long-term/public requirements must be subordinate to that interest.
- The benefits of the support must clearly visible – not in three years’ time, but now.
- Support must be local, hands-on, and available when needed.
Die Studie „What researchers want“ (PDF) ist frei zugänglich.
PS: Die duz hat sich in ihrer März-Ausgabe unter dem Titel „Der Kampf um den Rohstoff des Wissens“ dem Thema angenommen. Leider sind die Beiträge mehrheitlich nicht Open Access.
Das Wikimedia Research Committee hat unter dem Titel „Expert barriers to Wikipedia“ eine Umfrage zur Position von Wissenschaftlern und „Experten“ zu Wikipedia veröffentlicht. Auszug aus dem Einführungstext:
Wikipedia is now widely regarded as a mature project and is consulted by a large fraction of internet users, including academics and other experts. However, many of them are still reluctant to contribute to it. The aim of this survey is to understand why scientists, academics and other experts do (or do not) contribute to an open collaborative project such as Wikipedia, and whether individual motivation aligns with shared perceptions of Wikipedia within expert communities. We hope this may help us identify ways around barriers to expert participation.
Die Fragen laden zum Nachdenken ein. Ich habe etwa 10 Minuten zur Beantwortung benötigt. Passend zur Umfrage findet sich auf academics.de ein Beitrag von Johannes Becher und Viktor Becher mit dem schönen Titel „Gegen ein Anti-Wikipedia-Dogma an Hochschulen“.
Der Hinweis auf die Umfrage kam von Daniel Mietchen, der Mitautor der Umfrag ist und sich u.a. mit der Funktion von Wikis in der Wissenschaftskommunikation beschäftigt.