Zwei Artikel zu Hochschulbibliografien und zur WorldCat Policy im Bibliotheksdienst

22. März 2009 um 18:45 1 Kommentar

In der März-Ausgabe des Bibliotheksdienst (Jahrgang 43/2009) ist ein Artikel zu Hochschulbibliografien erschienen, den ich zusammen mit Franziska Scherer an der Fachhochschule Hannover geschrieben haben: „Hochschulbibliografien an deutschen Hochschulen. Eine vergleichende Bestandsaufnahme„. Bei E-LIS habe ich eine Postprint-Version veröffentlicht, dort ist zusätzlich noch die Hochschulbibliografie der TU Darmstadt aufgeführt.

In der selben Ausgabe findet sich der Artikel „OCLC, WorldCat und die Metadaten-Kontroverse“ von Adrian Pohl (auch als Online-Version verfügbar). Adrian, der übrigens seit kurzem einen eigenen Blog betreibt, fasst darin übersichtlich die Kontroverse zur „Policy for Use and Transfer of WorldCat Records“ zusammen, so dass man sich nun auch auf Deutsch darüber gut einen Ãœberblick verschaffen kann. Ich bin ja persönlich der Meinung, dass bibliographische Daten wie beispielsweise WorldCat frei sein sollten, die passenden Lizenzen gibt es bald oder jetzt schon. Wenn allerdings, wie Adrian ausführt, OCLC ein Drittel seiner Einnahmen durch Lizensierung der Daten und WorldCat-Dienste macht, kann ich auch verstehen, dass sie sich nicht gleich hinter freie bibliographische Daten stellen. Schade für OCLC.

Bibliographische Daten müssen frei sein

4. Dezember 2008 um 00:42 7 Kommentare

In der englischsprachigen Biblioblogosphäre schlägt die neue OCLC-Policy zur Nutzung von Datensätzen aus WorldCat (PDF) schon seit Wochen hohe Wellen, während es in Deutschland aufgrund der geringeren Relevanz von WorldCat eher ruhig ist. Eine gute Zusammenfassung gab es vor zwei Wochen in netbib, der aktuelle Stand lässt sich dem CODE4LIB-Wiki entnehmen.

Ein bischen tun die Kollegen von OCLC mir ja schon leid: ich bezweilfle nicht einmal, dass sie mit der Policy die Möglichkeiten zur Nutzung der Daten verbessern wollten. Aber solange (wie bei den Verlagen) an totgeweihten Finanzierungsmodellen festgehalten wird, kann das nicht funktionieren. Der einzig richtige Weg ist, die bibliographischen Daten aus WorldCat freizugeben, so dass sie jeder ohne vorherige Einwilligung weiternutzen kann. Da Datenbanken nicht einfach dem Uhrheberrecht sondern je nach Land anderen Gesetzen unterliegen, ist die Sache nicht so einfach wie bei anderen Inhalten, aber es gibt bereits verschiedene Initiativen zu freien Katalogdaten, die sich auch den rechtlichen Aspekten widmen. Die einfachste Variante ist es, die Daten völlig frei unter Public Domain zu stellen, so dass jeder damit machen kann was er möchte. Falls verhindert werden soll, dass sich beispielsweise Google die Daten für Google Books einverleibt (die Google-Policy ist noch viel restriktiver als die von OCLC!), könnte eine virale Lizenz (Copyleft) verwendet werden, so wie es zum Beispiel bei Wikipedia üblich ist.

Der Streit ob Public Domain oder Freie Inhalte ist alt (siehe BSD vs. GNU/Linux) und ich kann nicht mit Sicherheit sagen, was sich für bibliographische durchsetzen wird. Sicher ist aber dass bibliographische Daten frei sein müssen. Zur Not werden halt die interessanten Daten nochmal abgetippt (oder gescannt – Handycam und OCR sollte bald ausreichen) und der Rest vergammelt in den Bibliothekskatalogen. Drei Beispiele: die Open Library steht bereit, die Erschließungsmöglichkeiten in LibraryThing werden immer ausgefeilter (die freiwilligen Katalogisierer ebenfalls) und bis in Wikipedia der Plan für eine zentrale Literaturdatenbank umgesetzt wird, ist nur eine Frage der Zeit.

Es ist an OCLC zu entscheiden, ob ihre Daten Teil dieser Bewegung sein werden oder nicht. Das trifft übrigens ebenso auf deutsche Bibliotheken und Bibliotheksverbünde zu! Entweder die Datenbanken werden geöffnet oder in Zukunft werden andere als Katalogexperten herangezogen. Wer daran zweifelt, sollte mal an Brockhaus und Wikipedia denken 😉

Dublin Core conference 2008 started

23. September 2008 um 12:20 4 Kommentare

Yesterday the Dublin Core Conference 2008 (DC 2008) started in Berlin. The first day I spent with several Dublin Core Tutorials and with running after my bag, which I had forgotten in the train. Luckily the train ended in Berlin so I only had to get to the other part of the town to recover it! The rest of the day I visited the DC-Tutorials by Pete Johnston and Marcia Zeng (slides are online as PDF). The tutorials were right but somehow lost a bit between theory and practise (see Paul’s comment) – I cannot tell details but there must be a way to better explain and summarize Dublin Core in short. The problem may be in a fuzzy definition of Dublin Core. To my taste there are far to many „cans“, „shoulds“, and „mays“ instead of formal „musts“. I would also stress more the importance of publicating stable URIs for everything and using syntax schemas.

What really annoys me on DC is the low committement of the Dublin Core Community to RDF. RDF is not propagated as fbase but only as one possible way to encode Dublin Core. The same way you could have argued in the early 1990s that HTTP/HTML is just one framework to build on. That’s right, and of course RDF is not the final answer to metadata issues – but it’s the state-of-the-art to encode structured data on the web. I wonder when the Dublin Core Community lost tight connection with the W3C/RDF community (which on her part was spoiled by the XML community). In official talks you don’t hear this hidden stories of the antipathies and self-interests in standardization.

The first keynote that I heard at day 2 was given by Jennifer Trant about results of steve.museum – one of the best projects that analyzes tagging in real world environments. Data, software and publications are available to build upon. The second talk – „Encoding Application Profiles in a Computational Model of the Crosswalk“ by Carol Jean Godby (PDF-slides) – was interesting as well. In our library service center we deal a lot with translations (aka mappings, crosswalks etc.) between metadata formats, so the crosswalk web service by OCLC and its description language may be of large use – if it is proberly documented and supported. After this talk Maria Elisabete Catarino reported with „Relating Folksonomies with Dublin Core“ (PDF-slides) from a study on the purposes and usage of social tagging and whether/how tags could be encoded by DC terms.

At Friday we will hold a first Seminar on User Generated Matadata with OpenStreetmap, Wikipedia, BibSonomy and The Open Library – looking forward to it!

P.S: Pete Johnston’s slides on DC basic concepts are now also available at slideshare [via his blog]

Linking to Wikipedia via ISBN

5. Dezember 2007 um 19:52 2 Kommentare

Two weeks ago I announced a new beta webservice for linking from title data to German Wikipedia articles that cite a given work by ISBN. Now Lambert pointed me to a message by Eric Hellmann about xISBN supporting links to the English Wikipedia since last week. This makes GBV one week earlier then OCLC and both of us ten month later then LibraryThing. The idea is not new but based on the work of Lars Aronsson, Spiritus rector of future library systems.

The three services have been developed partly parallel based on some same code. Here are two examples of the xISBN service by Xiaoming Liu and the GBV service that I am developing. xISBN is based on a powerfull API with many query parameters and planned to be part of WorldCat Grid Services (more about this maybe here, here, here, and here), while my service is based on a simple API called SeeAlso which is based on OpenSearch Suggestions and unAPI. Both approaches have their pros and cons. I will provide more information as soon as our server is more stable and the scripts are clean enough to get published at CPAN. Meanwhile I encourage everyone to play with OCLC’s xISBN (via an API of its own), WorldCat Idenities (via SRU), LibraryThing for Libraries (via an API of its own), available catalouges (via Z39.50, via SRU and via other APIs), the Wikipedia Query API, and the growing number of other services. Let’s mash up the library systems for the future!