Mehr zu Schnittstellen von Bibliothekssystemen

14. September 2007 um 11:47 5 Kommentare

Angeregt durch eine Frage zu SNLP auf Inetbib habe ich anknüpfend an meine vorhergehenden Überlegungen etwas weiter im Netz nach Schnittstellen zu Bibliothekssystemen recherchiert. Leider steht der Grad deren Dokumentation im umgekehrten Verhältnis zu ihrer Vielfalt. Die von Marshall Breeding publizierte Übersicht von Bibliothekssystemen ist auch nicht gerade vollständig, so hat er anscheinend von PICA noch nicht gehört. Deshalb erheben folgende Funde auch keinen Anspruch auf Vollständigkeit:

Zunächst einmal sind als Suchprotokolle das altehrwüdige Z39.50 und dessen Nachfolger SRU/SRW zu nennen. Zum asynchronen Abholen von Metadaten gibt es OAI-PMH. OAI wurde im Rahmen der Open Access- Bewegung für Preprint-Server eingesetzt und wird noch immer vor allem für Dokumentenserver eingesetzt. Etwas zwischen Schnittstelle und Format ist OpenURL angesiedelt, das für Linkresolver entwickelt wurde und inzwischen mit COinS auch zur Übertragung von Metadaten verwendet wird.

Was weitere Schnittstellen angeht sieht es leider etwas dürftig aus was die freie Verfügbarkeit betrifft. Die SirsiDynix-Werbeseite auf der statt auf Dokumentation auf Fortbildungen verwiesen wird, finde ich da symptomatisch: Es gibt zwar überall etwas aber jedes System hat seine eigene Schnittstelle, auf die sowieso nicht von Außen zugegriffen werden kann. Dazu gehört auch das Simple Library Network Protocol (SLNP), welches als interne API für Bibliothekssysteme der Sisis Informationssysteme GmbH entwickelt wurde und inzwischen auch von anderen Systemen wie Aleph, Bibliotheca unterstützt wird, um die Fernleihe zu koordinieren. Das alles spielt sich aber rein intern ab und hat mit Web 2.0 und Bibliotheks-Mashups noch nichts zu tun.

Auch im Open-Source-Bereich sieht es nicht besser aus. Für Koha ist bislang nur eine API geplant und die OpenSRF benannte API des ebenfalls freien Evergreen ist in seiner Unübersichtlichkeit und Komplexität auch eher für interne Zwecke gedacht. Die Talis API (siehe Dokumentation) sieht ganz gut durchdacht aus und wäre wahrscheinlich für viele Anwendungen brauchbar, aber ich kenne kein Bibliothekssystem, das sie unterstützt – dass so im luftleeren Raum dauerhaft verlässliche Schnittstellen entstehen, bezweifle ich. Etwas besser sieht die Open Library WebServices aus, die Oliver Flimm zur Anbindung von SISIS-Systemen an OpenBib entwickelt hat.

Worauf ich jedoch warte sind weitere Schnittstellen, die ohne großen Aufwand als Webservices auch von Außen benutzt können. Beispielsweise wäre nicht nur für Anbieter wie Bücherwecker eine API hilfreich, mit der Nutzer ihre Ausleihen samt Rückgabedatum abfragen können. Glücklicherweise hat – wie dem Vortrag von Norbert Weinberger auf der GBV Verbundkonferenz zu entnehmen ist – auch OCLC die Zeichen der Zeit erkannt und will in Zukunft mit einem „WorldCat Grid“ mehr in Richtung Serviceorientierte Architektur gehen. Ich bin gespannt, was sich da alles ergibt.

Falls keine API existiert oder diese nicht ausreichend dokumentiert ist, muss man wohl erstmal direkt auf die interne Datenbank des Bibliothekssystems zugreifen und selber etwas stricken. Das ist in der Regel aber nur dem Anbieter möglich und stellt keine nachhaltige Lösung dar. Bei Horizon soll das ganz gut gehen, hab ich mir sagen lassen. Möglicherweise kann auch noch mehr aus den Katalogdaten rausgeholt werden, die über Z39.50 oder SRU erhältlich sind. Bei PICA-Systemen steht der Ausleihstatus eines Mediums (ausleihbar, ausgeliehen, Präsenzbestand…) zum Beispiel anscheinend in Feld 201@, so sicher bin ich mir da aber nicht.

Für weitere Recherchen zum Thema habe ich im GBV Wiki habe ich vor einigen Wochen etwas mehr zu Webservices zusammengesammelt.

Yet another semantic tagging application

14. September 2007 um 02:11 3 Kommentare

I just found another semantic tagging application: SemKey is also a Firefox-Plugin like EntityDescriber that I just wrote about. SemKey uses WordNet and Wikipedia as controlled vocabularies and help you to find the appropriate entry in them. Maurizio Tesconi and his colleauges describe SemKey in their paper SemKey: A Semantic Collaborative Tagging System at the WWW2007 Workshop on Tagging and Metadata for Social Information Organization (other papers linked here).

But the authors of SemKey don’t cite Gabrilovich and Markovitch (2006): Overcoming the brittleness bottleneck using Wikipedia: Enhancing text categorization with encyclopedic knowledge which is highly related (see also the following paper of Gabrilovich and Markovitch). Looks like both Marchetti et al. and their reviewers of the WWW 2007 workshop don’t know about their subject area. The feedback on SemKey is also little: This is science 1.0 about Web 2.0. Researchers 2.0 publishe their work on weblogs and preprint archives or even dare to fight in the jungle of Wikipedia to push forward knowledge instead of citation rank.

The Steve.museum tagging project

13. September 2007 um 22:56 1 Kommentar

Steve.museum is a tagging project that has been active for more then a year by now. Unlike other artificial prototype-tagging-research projects it is based on real world data: works of art in museum collections. Moreover its not available only by pictures in research-papers but available at sourceforge (written in PHP). More news about the project can be found at the Mailing list and the blogosphere. I stumbled upon jtran’s blog and his report from ASIST SIG-CR workshop on social cassification that took place in Texas last year. Hopefully someone from the steve.museum team will participate in Dublin Core conference 2008 or some other event the I participate!

Katalog 2.0-Projekt Beluga mit eigenem Blog

13. September 2007 um 17:50 Keine Kommentare

Auf der 11. GBV-Verbundkonferenz wurde unter anderem das Hamburger Projekt Beluga vorgestellt. Aktuelles gibt es im Beluga-Blog, wo Anne Christensen verschiedene Katalog 2.0-Projekte vorstellt. Wie sie selbst in netbib schreibt polarisiert das Label “Katalog 2.0″ jedoch und hält zu sehr von einer Diskussion um das Wesentliche ab. Ich würde es folgendermaßen auf den Punkt bringen:

Es geht nicht darum, einen „Katalog 2.0“ zu schaffen, sondern bestehenden Kataloge der fortschreitenden Entwicklung anzupassen und diese mitzugehen und zu gestalten. Wie Markus Krajewski ebenso unterhaltsam wie lehrreich in seinem Buch „Zettelwirtschaft“ (ISBN 3-931659-29-1) darstellt, war auch der Weg zum Zettelkatalog mühsam. Ebenso ist mit der Einführung des OPAC das Bibliothekarische Abendland nicht untergegangen. Katalog 2.0 ist auch nichts, was von heute auf morgen eingeführt wird oder das es bei irgendeiner Firma fertig zu kaufen gibt. Wie der Katalog in 20 Jahren aussehen wird, kann niemand vorhersagen, aber dass er sich ändert halte ich für unzweifelhaft. Die Aufgabe eines Bibliothekars besteht nun darin, sich darüber Gedanken zu machen, was geändert werden kann und soll und diese Änderungen umzusetzen. Wer ganz vorne bei der Diskussion dabei sein möchte, sollte sich die seit letztem Jahr bestehende Mailingliste Next Generation Catalogs for Libraries (NGC4Lib) zu Gemüte führen.

Feedback aus der Blogosphäre zur Beluga-Ankündigung gibt es unter anderem bei Text & Blog, Wortgefecht und Blognation [en] – mehr gibt es über einen Suchfeed.

Tagging enriched with controlled vocabularies

10. September 2007 um 03:36 7 Kommentare

For Connotea there was published „Entity Describer“ (ED), an add-on tool that allows taggers to select terms from a controlled vocabulary such as MeSH. Background information can be found in the blog of its developer Benjamin Good. Up to now Entity Describer can only be used via a Greasemonkey script. [via Catalogoblog and netbib]

I bet soon there will be more tagging applications that support controlled vocabularies. For instance Sarah Hayman and Nick Lothian plan to extend the Education Network Australia (edna) with – how they call it – taxonomy-directed folksonomy. See their IFLA-Paper (that Patrick pointed me to) for more information.

Benjamin Good also wrote a paper about his work on ED and published it on his blog before even recieving reviewers comments. I like the following discussion on whether and how to publish it – a nice example of the changes in academic publishing. Now the paper is best available as preprint, identified with hdl:10101/npre.2007.945.1 and licensed under the Creative Commons Attribution 2.5 License (!). Thanks Benjamin and thanks to Nature for making this possible!

I already cited the work in an ongoing discussion about the Wikipedia-Article „Folksonomy. The discussion is mostly about words and I hate it. Good et al also contribute in confusion: Why do they have to introduce a new term („Semantic annotation means the association of a data entity with an element from a classification scheme“) instead of using existing vocabulary? A look at my typology of tagging systems could help clarification.

Well… or maybe tagging researchers just like to add synonyms and polysems because they are so used to them – a folksonomy will emerge anyhow so just call it how you like… 🙁

Data Sharing Summit und OpenID in Bibliotheken

6. September 2007 um 00:44 2 Kommentare

Mein Beitrag zur Geschlossenheit von Web 2.0-Diensten von letzter Woche war vielleicht etwas zu pessimistisch. Einem Beitrag von Dare Obasanjo auf den ich durch einen Beitrag von Lambert Heller gestoßen bin, entnehme ich den Hinweis auf den das Data Sharing Summit. Auf der am kommenden Wochenende im kalifornischen Richmond stattfindenden Veranstaltung soll es um die Interoperabilität von Sozialen Softwarediensten gehen (siehe Themensammlung).

Wie Dare Obasanjo schreibt ist es zwar technisch (mit OpenID) machbar aber aufgrund ihrer konkurrierenden Geschäftsmodelle unwahrscheinlich, dass sich jemand mit einem Facebook-Account bei MySpace anmelden und die jeweils beim anderen Dienst gesammelten Kontakte nutzen kann. Wie D’Arcus bemerkt würde die Verknüpfung von Benutzerprofilen auch für bibliographische Dienste wie Zotero, CiteULike, RefBase und Bibsonomy sehr interessant und dort eher möglich sein.

Da frag ich mich doch, welche Bibliothek bereits OpenID für ihre Benutzeraccounts unterstützt oder die Unterstützung plant. Dass man gleich den Benutzernamen und Passwort bei einem anderen Dienst eingeben muss, kann ja nicht der Weisheit letzter Schluss sein. Diese Lösung nutzt übrigens der überaus hilfreiche Bücherwecker, der ebenso wie ZACK aus einer Abschlussarbeit entstanden ist. Ich hoffe, dass sich mal eine Bibliothekseinrichtung der Sache annimmt und dabei hilft, daraus einen stabilen Webservice für alle Bibliotheken zu erstellen anstatt dass eine Erinnerungsfunktion mehr schlecht als recht in jeder einzelnen Bibibliothessoftware nachprogrammiert werden muss.

Im Bibliotheksbereich gewinnt zum Glück Shibboleth an Bedeutung, aber davon kann ich mich leider trotzdem noch nicht mit meinem Wikipedia- oder LibraryThing-Account bei der nächsten Stadtbücherei anmelden (übrigens kommt Single Sign on für die Wikimedia-Projekte ganz bestimmt … irgendwann ;-).

Eingeschlossene Nutzer im Datengrab Web 2.0

28. August 2007 um 00:51 1 Kommentar

Gestern Nacht hat überraschend Blogscout seinen Dienst eingestellt. Ich hatte den kostenlosen, privaten Dienst bei Markus kennengelernt und gerne genutzt, um zu schauen, von wo und wie oft mein Blog aufgerufen wird und über welche Suchanfragen and Referrer die Besucher kommen – beispielsweise wollen sie wissen, wer Bundeskanzler ist. Jetzt sind diese ganzen Statistiken weg. Das Beispiel erinnert mich daran, dass inzwischen statt Software Webservices und Daten im Zentrum stehen. Die wenigsten Webanwendungen bieten jedoch eine vollständige Exportfunktion, um die Daten auch wieder herauszubekommen. Und selbst dann ist der vollständige Umstieg auf einen anderen Dienst problematisch. Für Backups ist anscheinend der Anbieter des Webservices da (im Zweifellsfall haben die Amerikaner und Chinesen jeweils noch eine Kopie). Ein wenig erinnert mich das an die Microsoft-Produkte, deren Dateiformate den Softwarewechsel auch stark behindert haben. Tim O`Reilly hat es in einem Wired-Interview im April auf den Punkt gebracht: Web 2.0 Is About Controlling Data (aufgegriffen aber bisher nicht viel weitergesponnen von einigen Bibliotheken).

Idealerweise sollten nicht nur die Daten wieder aus dem Webdienst heraus und in eine eigene Anwendung hereinkommen sonder gleich die ganze Webanwendung frei sein. Ein Beispiel dafür ist LiPost, das man sich auch auf dem eigenen Server installieren kann. Für freie Software, die unter der Affero GPL (AGPL) lizensiert ist, ist die Zur-Verfügung-Stellung des Quelltextes bei einer Anwendung als Webdienst sogar zwingend.

Eine ausführlichere Auseinandersetzung mit dem Problem, dass Web 2.0 die durch Freie Software gewonnene Freiheit bedroht, findet sich im Artikel Free Software and the Web von Alejandro Forero Cuervo.

Persistent Identifiers: Irony of Fate or just absurd?

24. August 2007 um 01:20 4 Kommentare

The report „Implementing Persistent Identifiers: overview of concepts, guidelines and recommendations“ shows you the impracticality of URN and URN:NBN – you do not even have to read any of the 70 report’s pages to find out: If you try the „persistent identifier“ http://nbn-resolving.de/urn:nbn:de:gbv:7-isbn-90-6984-508-3-8 to get the report’s PDF, you get the following message by a resolver at http://resolver.sub.uni-goettingen.de/purl/?isbn-90-6984-508-3:

Unfortunately the URL could not be resolved. None of the underlying local document resolver were able to find a document with the given identifier. Maybe one of the services is down or a document with the number doesn’t exist. As your URL should contain a persistent identifier, please check again later.

I’d call this 404 2.0! Furthermore at http://www.cerl.org/news.htm one of the report’s publisher (CERL) points out to a review of the report at http://www.clir.org/pubs/issues/index.html#found – which gives you the current issue of CLIR issues (printed version’s ISSN 1098-6383 is not mentioned anywhere) instead of http://www.clir.org/pubs/issues/issues55.html#found. If you ask Google for the title you easily find the PDF. If you ask WorldCat for the ISBN 90-6984-508-3 you get a record where you have to click and search a lot to guess which link will bring you to the PDF – but it’s only the unresolvable URN again.

If people are already to dump to use existing identifier systems (URL, ISBN, ISSN) in the right way, I strongly doubt that persistent identifier systems will solve any problem.

Little more about The European Library (TEL)

24. August 2007 um 00:17 1 Kommentar

Patrick, who is enjoying the Winter in South Africa, went down well with his presentation (but I cannot find the slides?). In his blog he pointed out before IFLA that you can find more about The European Library (TEL) in Fleur Stigter’s blog. There is also a blog about the European Digital Library (EDL, very confusing) and a customized search engine for the projects. But I still have not found out what TEL and EDL are really about. To me as a library 2.0 developer one of the most interesting features of TEL is its SRU-interface which showed me that data quality needs to be the next hype. By the way TEL is hiring. If I could clone myself, I would apply here. In the context of Theseus there will surely also be some interesting jobs. Skilled library (2.0) developers where are you? Not every organization can do a hunt on you and reward 1.000$ like LibraryThing just did!

Militär-„Lego“ in Hongkong

22. August 2007 um 23:43 3 Kommentare
Military Mega Briks

Wenn man erstmal weiß wo, ist Hongkong eine Fundgrube für Spielzeug und Figuren aller Art. Als ich in einem Laden mit Lego auf diese nachgestellte Militärszene stieß, musste ich aber doch etwas stutzen. Ok, im Laden nebenan stand schon das gesamte Führerhauptquartier in Form von Actionfiguren zusammen aber Lego macht doch keinen Militärkram?! Es handelt sich hierbei höchstwahrscheinlich um Bäusätze der Firma Mega Brands deren Bausteine nicht nur
schlechten Geschmack beweisen, sondern vor allem mit Lego kompatibel sind (nach Auslauf der Lego-Patente ist dies auch anderen Firmen möglich). Neben Militaria bietet Mega Brands unter Anderem auch Pokémon (dessen verherrlichende Darstellung übrigens zumindest in der deutschsprachigen Wikipedia eher verhindert werden konnte als bei Militärthemen). Aber auch mit Lego selber können kleine Flugzeugträger, große Flugzeugträger und andere Kampfgeräte (hier und hier und hier) zusammengebaut werden. Lego Mindstorms-Selbstschussanlagen und -Minen gibt es zum Glück noch nicht.

Dann doch lieber einen netten Brickfilme anschauen, zum Beispiel Monty Python and the Holy Grail.