Es macht die Runde: neues deutschsprachiges Bibliotheks Open Access Journal wird starten. Informationspraxis ein Projekt initiiert von Rudolf Mumenthaler und Lambert Heller und in der Vergangenheit schon unter dem Schlagwort #newlis diskutiert.
Wie auch schon in der Vergangenheit in der #newlis Diskussion sehe ich dies Projekt nicht ohne Hindernisse, auf die ich in meinem Beitrag kurz eingehen möchte. Diese lassen sich in die Bereiche Autoren, Leser, Qualitätskontrolle und Unabhängigkeit einteilen.
Autoren
Aus meiner Erfahrung im Herausgeber Gremium der VÖB Mitteilungen (die übrigens ein deutschsprachiges Open Access Journal darstellen) weiß ich das es immer eine Herausforderung darstellt Beiträge einzuwerben, im Gegensatz zu anderen wissenschaftlichen Disziplinen haben wir im deutschsprachiges Bibliotheksbereich kein Überangebot von Artikeln. So dass es leider nicht der Fall ist, das man sich eine größere Ablehungsquote leisten kann was sich wiederum auf die Qualitätskontrolle auswirkt.
Noch schwieriger wird es wenn das Konzept der Themenhefte anstrebt was sicherlich für den Leser attraktiver ist da er eine größere Übersicht zu einem Thema erhält jedoch eine weit intensivere Ansprache von Autoren erfordert.
Leser Auch wenn derzeit das Konzept der Zeitschrift extrem weit aufgestellt ist (wie eigentlich bei den meisten deutschsprachigen Bibliothekarische Zeitschriften wird sich ein gewisses Profil herausbilden. Hier wird sich zum einen die Frage stellen wie genau dieses ausgerichtet sein wird (eher wissenschaftlich oder doch eher praktischer). Wenn man sich die Liste der Initiatoren anschaut würde ich eher auf einen stark wissenschaftlich geprägten Anspruch tippen.
Hier stellt sich dann die Frage, wie groß die potenzielle Leserschaft sein wird. Ein starker Praxisbezug würde die Zeitschrift für eine breite Leserschaft aber sicher interessanter machen. Zusätzlich stellt sich die Fragendes Verhältnisses zu bestehenden Biblioblogs. Was sind die Unterschiede, was motiviert mich als Blogautor in einer rein elektronischen Zeitschrift zu publizieren? Wird Informationspraxis so attraktiv das es gegenüber anderen Blogs bestehen kann? Derzeit hat das Projekt auch dieser Richtung sehr starken Support doch was macht die Zeitschrift wirklich besser? Die Antwort ist ein Klassiker: eine Qualitätskontrolle.
Qualitätskontrolle Wie gestaltet man eine effiziente Qualitätskontrolle für ein deutschsprachiges Bibliotheksjournal? Meiner Meinung kann double blind Peer Review hier nicht die befriedigende Antwort sein. Fast alle Experten zu einem bestimmen Themenfeld in der deutschsprachigen Community kennen sich bzw haben sogar schon einmal zusammengearbeitet, so das wesentliche Kritikern für die Unabhängigkeit der Reviewer in den aller meisten Fällen nicht gegeben sein werden. Zum anderen halte ich es für sehr unwahrscheinlich wie bereits oben ausgeführt das aufgrund der beschränken Anzahl von Autoren das man so viele Einreichungen erhält das ein echter Auswahlprozess stattfinden kann.
Unabhängigkeit Ein letzter kleiner Kritikpunkt bevor ich zu den Chancen des neuen Ansätzen übergehe. Auf der Webseite heißt es: “Die Zeitschrift arbeitet unabhängig von einzelnen Bibliotheken, Hochschulen oder Berufsverbänden.” Problem ist das auch ein Verein nie völlig unabhängig ist. Er wird immer geprägt von den Mitgliedern und dem Vorstand. Es muss also klar seiner ist hinter dem Verein und was ist sein Ziel. Dies ist derzeit noch nicht der Fall, es wird nur gesagt das “Betrieben wird Informationspraxis vom gleichnamigen Verein mit Sitz in der Schweiz.”
Die Chancen Auch wenn das neue Journal sicher viele Hürden zu überwinden hat so gibt es doch mehrere erfreuliche neue Ansätze:
Auch wenn man nach meinen kritischen Kommentaren einen anderen Eindruck gewonnen haben könnte, ich wünsche dem Projekt viel Erfolg und werde auch selber zumindest kurz beim Treffen in Bremen vorbei schauen wo wir sehr gerne auch meine Kommentare persönlich diskutieren können.
Tags:Open Access ]]>Alle freien Bilder werden als Open Access for Scholarly Content (OASC) im Katalog gekennzeichnet. Sehr vorlbildlich würde mir von den Museen die die Berlin Declaration unterzeichnet haben (SPK, Jüdisches Museum, …) einen analogen Schritt wünschen.
via Digital Trends
Update: Klaus Graff hat in der Tat Recht, dass es sich unberechtigter Weise nur um NC Content handelt:
Images of Works of Art that are in the Public Domain. Images of works of art that the Museum believes to be in the public domain which are identified as Open Access for Scholarly Content (OASC) Icon on the Site may be downloaded for limited non-commercial, educational, and personal use only, or for fair use as defined in the United States copyright laws. In addition, authorized non-commercial uses for such images shall include scholarly publications in any media. Users must, however, cite the author and source of such images, and the citations should include the URL „www.metmuseum.org,“ but not in any way that implies endorsement of the user or the user’s use of the images.
Source: http://www.metmuseum.org/information/terms-and-conditions Da habe ich den Tag einfach die Lizenz nicht gründlich genug gelesen. Die Überschrift wurde dementsprechend angepasst aus Public Domain wurde NC Content. Manchmal freut man sich einfach zu früh ;-).
Tags:Open Access ]]>Die OKF bietet im Rahmen der „3rd Free Culture Research Conference“ einenWorkshop zu „Open Bibliographic Data and the Public Domain“ an. Details zum Workshop:
Open Bibliographic Data and the Public Domain Thursday, October 07, 2010 from 10:00 AM – 6:00 PM (GMT+0100)
http://publicdomain.eventbrite.com/
This one day workshop will focus on open bibliographic data and the public domain. In particular it will address questions like: • What is the role of freely reusable metadata about works in calculating which works are in the public domains in different jurisdictions? • How can we use existing sources of open data to automate the calculation of which works are in the public domain? • What data sharing policies in libraries and culrural heritage institutions would support automated calculation of copyright status? • How can we connect databases of information about public domain works with digital copies of public domain works from different sources (Wikipedia, Europeana, Project Gutenberg, …)? • How can we map existing sources of public domain works in different countries/languages more effectively? The day will be very much focused on productive discussion and ‘getting things done’ — rather than presentations. Sessions will include policy discussions about public domain calculation under the auspices of Communia (a European thematic network on the digital public domain), as well as hands on coding sessions run by the Open Knowledge Foundation. The workshop is a satellite event to the 3rd Free Culture Research Conferenceon 8-9th October.
Ort: Freie Universität Berlin Rooms 108/108a Garystr. 21 14195 Berlin Germany
Danke an Anja Jentzsch für den Hinweis, ich selber werde leider nicht teilnehmen können.
Tags:Allgemein, Freier Inhalt, Open Access, Veranstaltungen ]]>Since last year i talked about Open Bibliographic Data. During my time at CERN I managed that CERN as one the first libraries is publishing there data unter a public domain weaver. At the IFLA Pre-Conference (that I was not able to attend) Jens Vigen from CERN spoke about this project. After him spoke Anders Söderbäck about „Why Open Access to Bibliographic Metadata Matters, for Libraries and for the World.“ I hope the slides will be online soon.
On sunday in the „semantic web and libraries“ session (08:30 – 12:45 | Room: F4-6) I will give a presentation about „Step one: blow up the silo! – Open bibliographic data, the first step towards Linked Open Data“. A Paper with the main ideas you will find already online. Also I publishes already my presentation on slideshare. If you are in Gothenburg I hope You will join the session.
Heute habe ich eine Mail von Dan Brickley erhalten, der auf Flickr eine Visualisierung der UDC Klassen der bibliographischen Daten der CERN Library bereitgestellt hat. Ich bin begeistert, so viel zum Thema nicht intendierte Nutzung der Daten.

Wie ich schon auf der SWIB09 angekuendigt hatte, veroeffentlicht das CERN die Bibliographischen Daten aller am CERN katalogisierten Buecher unter der Public Domain Dedication Licence und unter CC0.
In der Ankuendigung erklaert Jens Vigen, Head Librarian des CERN:
Books should only be catalogued once. Currently the public purse pays for having the same book catalogued over and over again. Librarians should act as they preach: data sets created through public funding should be made freely available to anyone interested. Open Access is natural for us, here at CERN we believe in openness and reuse. There is a tremendous potential. By getting academic libraries worldwide involved in this movement, it will lead to a natural atmosphere of sharing and reusing bibliographic data in a rich landscape of so-called mash-up services, where most of the actors who will be involved, both among the users and the providers, will not even be library users or librarians. Our action is made in the spirit of the Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities; bibliographic data belongs to the cultural heritage.All other signatories should align their policy accordingly“
Ich hoffe das noch viele Bibliotheken dieser Idee folgen werden. Zu der Publikation der Daten gibt es ach ein kleines Video:
Tags:Open Access, Semantic Web ]]>Dieser Beitrag von Anne Christensen, Patrick Danowski und Adrian Pohl wurde zeitgleich auf den Blogs netbib, Bibliothek 2.0 und mehr und Übertext veröffentlicht. Katalogdaten sind zweifellos gefragter denn je – nicht nur für Zwecke der Fremddatenübernahme bei der Katalogisierung, sondern auch im Web 2.0, von Sozialen Katalogisierungsanwendungen wie LibraryThing und Open Library. Darüberhinaus gewinnen mit dem unaufhaltsamen Fortschritt von Linked Data, der dieses Jahr seinen bisherigen Höhepunkt erreicht hat, Katalogdaten in einem weiteren Anwendungsbereich an Bedeutung. Die Verlinkung freier Daten (Linked Open Data) bietet uns die Möglichkeit, das Wissen, was in den Titel- und Normdaten enthalten ist, abzuschöpfen und durch die Verknüpfung mit anderen – nichtbibliothekarischen – Wissensressourcen seine Nutzungsmöglichkeiten zu maximieren.
Kommerz mit Metadaten
Parallel zu dieser Entwicklung des Internet zum Linked-Data-Web und der Aussicht auf ganz neue Möglichkeiten der Recherche und Wissensgewinnung entwickelt sich aber auch die kommerzielle Nutzung von Metadaten in ganz neue Dimensionen. OCLC, das etwa ein Drittel seines Umsatzes mit dem Verkauf von anderen produzierter Katalogdaten macht, versuchte mit einer neuen Metadaten-Policy – unter Umgehung der Mitgliederbasis und der bibliothekarischen Gemeinschaft, die das Vorhaben schließlich zu Fall brachten -, sein Monopol auf die Katalogdaten der Mitgliedsbibliotheken juristisch zu zementieren. Organisationen wie EBSCO und Serials Solutions versuchen mit ihren neuen Produkten EBSCO Discovery Service und Summon eine Menge Geld im Bereich Aggregierung und Verkauf von Metadaten und dazugehörigen Suchoberflächen zu verdienen.
Open Access: ja, Open Data: ja, Open Bibliographic Data: nein
Vor diesem Hintergrund ist es verwunderlich, dass die deutschsprachigen Bibliotheken und Bibliotheksverbünde sich bisher kaum mit neuen Nutzungsmöglichkeiten ihrer bibliographischen Daten auseinandergesetzt haben. Adrian Pohl stellte zwar am Ende seiner Dokumentation der OCLC-Metadaten-Kontroverse bereits u.a diese Frage für die deutschsprachige Bibliothekswelt:
Über Problemstellungen wurde aber bisher selten geredet und an die Öffnung und Verfügbarmachung der mit öffentlichen Mitteln produzierten bibliothekarischen Daten wird kaum ein Gedanke verschwendet. Zur gleichen Zeit wird die Bibliothekswelt nicht müde als ein wichtiger Pfeiler der Open-Access-Bewegung lautstark von anderen, nämlich Wissenschaftlern, die Freigabe ihrer Arbeitsprodukte, sowohl von Publikationen also auch von Rohdaten, zu fordern.
Es tut sich was…
Es sind aber erste Entwicklungen hin zur Freigabe bibliographischer Daten auszumachen: Im Strategieentwurf des Gemeinsamen Bibliotheksverbund (GBV) vom August dieses Jahres ist die Entwicklung einer Lizenz zur Freigabe der Verbunddaten festgehalten, auch das Hochschulbibliothekszentrum Nordrhein-Westfalen (hbz) unterstützt die Freigabe von Katalogdaten und Patrick Danowski hat – wie im Übertext berichtet – auf der Tagung „Semantic Web für Bibliotheken“ angekündigt, dass die CERN Library ihre Daten öffnen werde. (Leider hat sich der angekündigte Termin auf Januar 2010 verschoben)
…aber: Zwei Open-Data-Vorträge abgelehnt
Dass das Thema – auch im Bibliothekswesen – an Bedeutung gewinnt, ist also klar. Dies zeigte sich auch daran, dass mindestens zwei Vortragsvorschläge dazu – von den Autoren und der Autorin dieses Beitrags – für den Bibliothekskongress 2010 eingereicht worden sind. (Die beiden Abstracts sind am Ende dieses Textes dokumentiert.) Leider entschied die Programmkommission (deren Zusammensetzung nicht transparent im Internet dokumentiert ist), dass dem Thema „Freie bibliographische Daten“ auf dem Bibliothekskongress kein Forum geboten werde. Beide Vorträge wurden abgelehnt. Insgesamt ist das Auswahlverfahren für den Bibliothekartag wie Bibliothekskongress wenig transparent.
Nachdem die erwähnte Tagung „Semantic Web in Bibliotheken“ vom hbz und der ZBW im November 2009 innerhalb von kürzester Zeit ausgebucht war, ist es umso bedauerlicher, dass dem offensichtlichen Interesse von Kolleginnen und Kollege an dieser Thematik in dem Leipziger Programm anscheinend nicht Rechnung getragen wurde. Bibliotheken haben mit Open Data die Chance, sich als Erzeugerinnen und Anbieterinnen von qualitativ hochwertigen, webfähigen Daten zu profilieren. BID Deutschland, die Bundesvereinigung Deutscher Bibliotheksverbände, als Veranstalterin des Leipziger Kongresses versäumt damit den eigenen Anspruch, „zeitgemäße Informationsdienstleistungen als Voraussetzung für die Entwicklung von international konkurrenzfähigen Produkten zur Verfügung zu stellen“.
Gespannt erwarten wir das Programm, um zu sehen welche Themen BID Deutschland für wichtig und innovativ hält.
Dokumentation der eingereichten Abstracts:
Freie Metadaten
Referenten: Anne Christensen (SUB Hamburg), Adrian Pohl (hbz)
ABSTRACT
Open Source und Open Access sind mittlerweile im öffentlichen und bibliothekarischen Diskurs fest verankerte Begriffe. In den letzten Jahren wird zunehmend auch über Open Data diskutiert – seien die freien Daten, um die es dabei geht, wissenschaftliche, statistische, administrative Daten oder eben Metadaten.
Dieser Vortrag dient als Einführung in das Thema „Freie Metadaten“ und beantwortet Fragen wie: Was heißt frei? Um welche Daten geht es? Warum sollen Daten frei sein? Behandelt werden der Hintergrund der Bestrebungen nach freien Metadaten, ihre Geschichte, die dahinterstehenden Motivationen und Ziele. Besondere Berücksichtigung findet dabei die Veröffentlichung von bibliografischen Daten und Normdaten als Open Linked Data.
Zudem werden Vorhaben zur Freisetzung der bibliografischen Metadaten im deutschsprachigen Raum betrachtet und es wird auf Fragen der Umsetzung eingegangen: Welche Lizenz soll ich wählen? Bin ich rechtlich befugt, alle Daten in meinem Katalog freizugeben? In welchem Format publiziere ich meine Daten?
Aus dem Silo ins Semantic Web: Bibliographische Daten als Linked Data Publizieren P. Danowski
CERN Scientific Information Service, 1211 Geneve, Schweiz
Inhalt
Tim Barners Lee hat den Begriff Linked Data fuer eine Methode beschrieben mit der Daten veroeffentlich, geteilt und verbunden werden. Dabei sollen die Daten mit URL basirten Identifiern erreichbar sein und andere Daten im Netz referenzieren (verlinken).1 Inzwischen wurde eine Vielzahl von Daten mit dieser Methode publiziert.2
Spaetestens seit dem letzten Jahr sind auch Bibliotheken auf dieses Thema aufmerksam geworden und beginnen ihrer Ressourcen in dieses Netz von Daten einzubringen. In dem Vortrag wird gezeigt, wie sich bibliographsche Daten als Linked Data publizieren lassen.
Dabei soll darauf eingegangen werden welche Frage zu klaeren sind. Dies sind unter anderen:
– Die Wahl einen Formats (einer Ontology)
– Lizenzfragen
– Vertrauensfragen
Der gesammten Prozess soll anhand eines Projekt fuer die Katalog Daten der CERN Library veranschaulicht werden. Es soll auch beschrieben werden welche Probleme in dem Prozess aufgekommen sind und welche Loesungsmoeglichten hierfür entdeckt wurden.
Quellenangaben
<1> vgl. auch http://en.wikipedia.org/wiki/Linked_data
<2> Zu der Menge der Daten gibt es ein klickbares Diagramm in dem die Verbindung der verschieden Ressources erkennbar ist. http://www4.wiwiss.fu-berlin.de/bizer/pub/lod-datasets_2009-07-14.html
Tags:Konferenzberichte, Metadaten, Open Access, Semantic Web ]]>Etwas spät aber noch zu schaffen: Bis morgen kann eine Umfrage zur OCLC Policy Änderung beantwortet werden. In der Umfrage ist die persönliche Meinung nicht der der Institution gefragt. Einen deutschsprachigen Text zur Darstellung der Diskussion findet sich im Bibliotheksdienst 03/09 von Adrian Pohl. Bibliotheken sollten im Kontext berücksichtigen, das sie fordern, dass wissenschaftliche primär Daten frei sein sollen. Wieso dann nicht auch bibliographische Primärdaten?
Tags:Open Access, freie bibliographische Daten, OCLC, OCLC Policy, Open Data, Umfrage ]]>Letztes Jahr auf dem Bibliothekskongress habe ich in meinem Vortrag zu Wikisource gesagt das gemeinfreie Materialien ,Gemeinfrei bleiben müssen. Etwas weiter habe ich dies in meinem Vortrag „New Rights on Public Domain via Digitalization?“ auf dem IFLA Satellite Meeting „Rethinking Access“ in Boston ausgeführt und die Position vieler Bibliotheken den Entwicklungen im Web 2.0 gegenübergestellt:
Gleichzeitig während die IFLA stattfand hat die EU Kommission ein Papier herausgegeben in der „Communication on Europe’s cultural heritage at the click of a mouse“ heißt es sehr eindeutig in dem Bereich „Hindernisse für die Nutzung von gemeinfreiem Material“ :
„In den nationalen Rechtsvorschriften können Hindernisse für die Nutzung von gemeinfreien Werken enthalten sein. Diese Hindernisse können die Zugänglichkeit und Nutzbarkeit des Materials z. B. über Europeana beschränken. Auf diese Frage gehen nur wenige Mitgliedstaaten ein. Die geringe Reaktion in diesem Bereich deutet darauf hin, dass in vielen Mitgliedstaaten noch keine Maßnahmen ergriffen wurden und das Thema größerer Aufmerksamkeit bedarf. […] In diesem Zusammenhang ist besonders zu betonen, dass gemeinfreie Werke diese Eigenschaft bei einer Formatänderung nicht verlieren sollten. So sollten sie gemeinfrei bleiben, wenn sie digitalisiert und über das Internet bereitgestellt werden.“ (Hervorhebung von mir)
In dem zugehörigen Staff Paper wird noch etwas ausführlicher auf das Thema eingegangen:
Member States seem to have taken hardly any action to identify and eliminate barriers to the online accessibility of works in the public domain held by public institutions. Most Member States do not address the issue in their reports. Some (e.g. Finland) indicate that they did look into the matter and did not find any problem. A few Member States report that there are provisions in the national legislation that limit the online accessibility of public domain works (e.g. Portugal, Sweden, Greece):
In particular the last two types of barriers can create unnecessary problems for making the public domain material accessible through Europeana. No actions are reported to address this type of barriers.
Etwas versteckt im Bereich Public Private Partnership ist der Hinweis:
Public domain content in the analogue world should remain in the public domain in the digital environment. If restrictions to user access and use are necessary in order to make the content available at all, these restrictions should only apply for a limited time period; […]“
Nachdem die EU-Kommission im Rahmen der Europeana so eindeutig Stellung bezogen hat wäre es wünschenswert, wenn etwas analoges für die Deutsche Digitale Bibliothek folgen würde. Auf der IFLA habe ich erfahren das in die World Digital Library der UNESCO und der Library of Congress nur gemeinfreies Material einfließen wird und zwar nur Material das digital gemeinfrei ist, so dass vielleicht für die eine oder andere Institution einen weiteren Anlass gibt der 2007 veröffentlichten „Wikimedia-Empfehlungen für Rechte bei Digitalisierungsprojekten“ zu folgen.
[Danke an Patrick Peifer von der Nationalbibliothek in Luxemburg für den Hinweis auf die EU Texte]
Tags:Bibliothek 2.0, Open Access, Digitaliserung, EDL, Europeana, IFLA, Public Domain, Wikimedia, World Digital Library ]]>In der aktuellen Ausgabe von Science wird eine erste Bilanz des reCAPTCHA Projekts gezogen. In dem Projekt wir eine neue Anwendung des Captcha Codes (Completely Automated Public Turing test to tell Computers and Humans Apart übersetzt „voll automatischer öffentlicher Turing-Test, um Computer und Menschen zu unterscheiden“) erprobt. Der Code wird eingesetzt um Spam beispielsweise in Blogkommentaren abzuwehren und sicher zu stellen das wirklich ein Mensch vor dem Computer sitzt. Dies funktioniert meisten, jedoch versuchen auch Spamer immer bessere Methoden (Ausführliche Informationen dazu im Telepolis Artikel „Der Captcha Krieg„)
Die Erkennungsrate von reCaptcha liegt bei 99%. „An jedem Tag würden über 100 Millionen dieser Tests gelöst. Das seien mehr als vier Millionen Wörter. Inzwischen wurden über 17.000 Bücher auf diese Weise bearbeitet. Die Fehlerquote liege bei unter einem Prozent. “ Verwendet wird es bereits auf über 40,000 Webseiten. Als Quelle dienen dabei Dokumente und Zeitungen aus dem Internet Archive der Open Content Alliance.
Ein weiteres Beispiel was mit freien Inhalten möglich ist.
Tags:Open Access, Web 2.0, Digitalisierung, Internet Archive, Open Content, Open Content Alliance, reCAPTCHA ]]>