Link Resolver und Widgets im OPAC

26. November 2008 um 13:05 Keine Kommentare

Jonathan Rochkind hat in seinem Blog SeeAlso und Umlaut verglichen, die beide eine Form von Link Resolver darstellen. Während über SeeAlso ausgehend von einer ID (ISBN, ISSN, DOI, PPN, …) eine Liste von passenden Einträgen mit Links zurückgeliefert wird, liefert Umlaut ausgehend von einer OpenURL auch leicht komplexere Inhalte, wie zum Beispiel ein Formular, mit dem in verschiedenen Quellen im Volltext eines Buches gesucht werden kann. Die Abfrage geschieht jedoch leider nicht über eine standardisierte API sondern proprietär (d.h. nur Umlaut kann lesen was Umlaut liefert).

Nach meiner Auffassung ist Umlaut (wie Link Resolver im Allgemeinen) eine spezielle Form einer Metasuche. Ãœber eine OpenURL-Anfrage können mehrere Dienste und Quellen (SFX, CrossRef, Amazon, OCLC Worldcat, ISBNdb, LibraryThing, Google Books, HathiTrust, OpenLibrary, the Internet Archive, Worldcat Identities …) gemeinsam abgefragt werden und die Ergebnisse werden auf einer Seite zusammengefasst (siehe Beispiel). Das Zusammenfassen von Inhalten aus mehreren Quellen kann allerdings auch im OPAC bei einer Titelanzeige geschehen (siehe Beispiel).

Allgemein ist für die Zusammenfassung von Inhalten aus unterschiedlichen Quellen (Mashup-Prinzip) hilfreich, wenn auf einheitliche APIs und Datenformate zurückgegriffen wird. Das populärste Beispiel ist RSS (bzw. ATOM). SeeAlso kann als API und Format für einfachere Listen dienen und für komplexere Inhalte käme vielleicht die Universal Widget API (UWA) in Frage. UWA-Widgets können auch in eigene Seiten eingebunden werden. Einen OPAC als Widget gibt es ja schon – wie wäre es umgekehrt einen OPAC aus Widgets zusammenzusetzen? Ich denke, dass es noch einige Zeit dauern wird, bis sich neben ATOM/RSS weitere gute Standards für die Aggregierung von Inhalten auf Webseiten durchsetzen. Praktische Beispiele gibt es ja inzwischen immer mehr, gerade hat Lorcan Dempsey einige davon zusammengefasst.

Terminologiearbeit in Fachbüchern, -lexika und Wikipedia

26. November 2008 um 02:26 Keine Kommentare

Erst eben bin ich auf die bereits vor einem Jahr veröffentlichte Masterarbeit „Terminologiearbeit im Bereich Wissensorganisation“ von Stefan Hauser gestoßen (über das gerade aktualisierte E-LIS, die Arbeit wurde auch im Februar auf der ISKO 2008 vorgestellt). Die Abschlussarbeit im Studiengang Angewandtes Wissensmanagement an der FH Burgenland enthält einen Vergleich der „Grundlagen der praktischen Information und Dokumentation“ (2004), der „Terminologie der Information und Dokumentation“ (2006) und des BID-Bereich der deutschsprachige Wikipedia anhand von etwa 50 Artikeln bzw. Einträgen aus dem Themenbereich „Thesaurus“. Stefan Hauser möchte mit der Arbeit darüber Aufschluss geben, wie in den drei Publikationen Terminologiearbeit realisiert wird, welche Unterschiede dabei feststellbar sind und auf welche Faktoren sie zurückgeführt werden können. Dazu geht er unter Anderem Makrostruktur (3.4), Mikrostruktur (Lemmatisierung (3.5.1), Einleitung (3.5.2), Begriffsklärung und Definition (3.5.3)) und die Vernetzung der Einträge untereinander (3.6) ein.

Obgleich man über Details streiten kann, bildet die Arbeit einen guten Ãœberblick über Terminologiearbeit nicht zuletzt in Wikipedia. Bei der Erstellung des – mittlerweile vom Umfang recht gut ausgebauten – Themenbereiches Bibliothek, Information, Dokumentation habe ich zur Beurteilung der Abdeckung auch auf verschiedene Wortlisten zurückgegriffen. Eine genauere und umfassendere Analyse der Artikelabdeckung und Qualität in Wikipedia dürfte genügend Stoff für eine weitere Bachelor- oder Masterarbeit abgeben. Unabhängig davon bleibt zu hoffen, dass mehr und mehr Experten Wikipedia auch als Autor kennenlernen und ihr Wissen direkt dort eintragen, wo es nachgeschlagen und weitergenutzt wird – denn dass Informationen nur deshalb mehr Wert besitzt, weil sie gedruckt worden sind und nicht so leicht korrigiert werden können, sollte mittlerweile von niemandem mehr ernsthaft angenommen werden.

Ariadne article about SeeAlso linkserver protocol

13. November 2008 um 11:32 Keine Kommentare

The current issue of Ariadne which has just been published contains an article about the „SeeAlso“ linkserver protocol: Jakob Voß: „SeeAlso: A Simple Linkserver Protocol„, Ariadne Issue 57, 2008.

SeeAlso combines OpenSearch and unAPI to a simple API that delivers list of links. You can use it for dynamically embedding links to recommendations, reviews, current availability, reviews, search completion suggestions, etc. It’s no rocket science but I found a well defined API with reusable server and client better then having to hack a special format and lookup syntax for each single purpose.

The reference client is written in JavaScript and the reference server is written in Perl. Implementing it in any other language should not be complicated. I’d be happy to get some feedback either in form of code, applications, or criticism. 🙂 I noted that SeeAlso::Server is the only implementation of unAPI at CPAN so far – if someone is interested, we could extract parts into an independent unAPI package. The WWW::OpenSearch::Description package is also worth to consider for use in SeeAlso::Server.

LibraryThing als Bibliothekskatalog

7. November 2008 um 17:34 3 Kommentare

Inzwischen gibt es eine Reihe von kleineren Bibliotheken, die ihre Bestände in LibraryThing verwalten oder präsentieren, im deutschsprachigen Raum sind zum Beispiel die Bibliothek des Autonomen Feministischen Referats des AStA Bremen (Katalog, 591 Bücher), die Genderbibliothek des ZtG der HU Berlin (Katalog, 758 Bücher). Die Stadtbücherei Nordenham nutzt bereits seit 2005 (!) LibraryThing, um die Neuzugänge im Erwachsenenbestand in einem LT-Profil zu präsentieren. Um solche Nutzungen voranzubringen, veranstaltet LibraryThing nächste Woche in einer kleinen Bibliothek in Boston eine „flash-mob cataloging party„:

A bunch of us will be there with laptops and barcode scanners in hand—and we’re inviting anyone in the area to join us […] Books, bibliophiles, conversation, barcode scanners, pizza!

Dieses „nerdige“ Katalogisierungs-Treffen erinnert mich stark und gerne and die Wikipedia-Tagging-Party Ende Januar 2005. Der Directmedia-Verlag hatte damals Wikipedianer zu Getränken und Pizza eingeladen, um zur Vorbereitung der ersten Wikipedia-DVD möglichst viele Personendaten und Bildlizenzen zu „taggen“ – also vereinfacht Wikipedia-Inhalte zu katalogisieren (die Wikipedia-Personendaten haben sich übrigens inzwischen längst zu allgemeinen Daten und ihrer RDF-Publikation in DBPedia ausgeweitet, welches wiederum Keimzelle des Semantic Web ist).

Treffen wie die „flash-mob cataloging party“ oder die „Wikipedia-Tagging-Party“, bei denen sich hochmotivierte Freiwillige spontan und relativ unverbindlich für eine gemeinsame Sache zusammenfinden sind ein allgemeiner Trend, der von BarCamps bis zu Tausenden von Obamas Wahlkampfhelfern zu beobachten ist: das Web 2.0 ist eben mehr als Technik sondern hat auch Auswirkungen auf die gemeinsame Arbeits- und Lebensweise von Menschen.

Aus der Bibliotheksgeschichte lernen für die Zukunft des Katalogs

5. November 2008 um 01:54 2 Kommentare

Prof. Ursula Schulz schrieb letzte Woche im Beluga-Blog zur Geschichte der Usability-Evaluation von Online-Katalogen [via Suchkisten-Blog, wo mein Kollege Till zu recht schreibt: „Ist alles lösbar (sogar mit Open Source Software), aber eben Arbeit.“]. Schulz ist eine der wenigen Menschen in Deutschland, die tatsächlich etwas von Bibliothekskatalogen verstehen, weil sie nicht nur mit ihnen, sondern auch an ihnen und über sie gearbeitet hat. Neben der Bedeutung von Usability-Tests (die gar nicht genug betont werden kann), entnehme ich dem Beitrag, dass Bibliotheksgeschichte durchaus spannend und relevant sein kann. Dabei sollten jedoch auch Bezüge zur Gegenwart hergestellt werden. Statt der siebten Arbeit zum „Ursprung und Aufbau der Sammlung Moppelhein in der Schnurzelbacher Landesbibliothek“ lässt sich beispielsweise aufzeigen, was Martin Schrettinger zum Thema Social Cataloging beizutragen hat, wie Ranganathan beim Facettierten Browsing helfen kann oder was die Bücherverluste in der Spätantike mit dem Digitalen Vergessen gemeinsam haben.

Ich denke, dass sich derartige Ãœberlegungen vor allem in der Biblioblogosphäre, auf Mailinglisten wie NGC4Lib und in studentischen Abschlußarbeiten der Bibliotheks- und Informationswissenschaft finden. Außerdem kommen Fachzeitschriften in Frage – wobei zu beachten ist, dass die Wissenschaftssprache nun einmal Englisch ist, so dass interessante deutschsprachigen Zeitschriften wie „LIBREAS“ oder „Information – Wissenschaft & Praxis“ vom Diskurs eher abgekoppelt sind.

Subito mit DRM – Na und?

3. November 2008 um 15:53 3 Kommentare

Die unpraktische Beschränkung der Subito-Dokumentenlieferung durch DRM beschreiben und kommentieren treffend Infobib, Library Mistress und netbib. Irgendwie können einem subito und die Verlage auch leid tun, wie da versucht wird, totgeweihte Geschäftsmodelle am Leben zu erhalten. Mir fällt dazu das noch immer lesenswerte Buch No Copy ein, in dem Praxis und Formen der „Raubkopie“ beschrieben werden. Deshalb bin ich auch nicht so pessimistisch wie Juergen Plieninger, der schreibt:

Wissenschaftliches Arbeiten wird – wieder einmal – teurer, der Verlags- und Großhändlobby sei Dank!

Dokumentenlieferdienste – ob mit oder besser ohne DRM – sind natürlich hilfreich, aber grundsätzlich sowieso nur eine Ãœbergangslösung. Die Vorstellung, dass Dokumente „geliefert“ werden müssten ist einfach anachronistisch. Dokumente werden im digitalen Zeitalter kopiert. In vielen Wissenschaften ist es inzwischen Gang und Gäbe, alle relevanten Publikationen direkt untereinander auszutauschen und eigene Sammlungen anzulegen: die kompletten Backfiles ganzer Verlage passen inzwischen auf einen USB-Stick. Es ist nur eine Frage der Zeit, bis das Meiste per Open Access oder auf anderem Weg (Nationallizenz, Kulturflatrate, Filesharing …) verfügbar ist – der Rest ist mehr und mehr marginal.

Wie und warum BibCamp 2009

2. November 2008 um 23:19 4 Kommentare

Von 15.-16. Mai 2009 findet an der Hochschule der Medien in Stuttgart das zweite BibCamp statt. Die Planungsseite liegt bei Mixxt.de (das leider nur sehr versteckt OpenID unterstützt) [via infobib]. Das BibCamp ist eine bibliothekarische „Unkonferenz“ (auch „BarCamp“), das heisst Ablauf und Inhalte werden von den Teilnehmern bestimmt anstatt im Vorfeld ein Programm mit Einladungen und Rednern festzulegen. Wichtigste Voraussetzung (aus meiner Sicht) sind dabei ein stabiler, offener Internetzugang und genügend Gruppenräume, Flipcharts, Stifte, etc. Außerdem muss man sich gegenseitig ab und zu in den Arsch treten, dass niemand zu lange am Stück redet und dass Ergebnisse in Wikis, Blogs o.Ä. dokumentiert werden. Die Ergebnisse sollten dann über eine Blogsuche nach dem tag bibcamp2009 verfügbar sein (kann mir jemand sagen, wie ich über verschiedene Microbloggingdienste nach #bibcamp suche?).

Und warum gibt es das BibCamp? Weil wir uns mitten in einer Revolution befinden, die mit der Industrialisierung und der Einführung der Druckerpresse vergleichbar ist. Clay Shirky hat dazu Anfang des Jahres das Buch „Here Comes Everybody. The Power of Organizing Without Organizations“ veröffentlicht. Beim Elektrischen Reporter gibt es dazu ein Interview mit Clay Shirky über die gesellschaftlichen Veränderungen durch das Internet. Shirky spricht unter Anderem davon, dass für Jugendliche heute das Internet alltäglich ist, während die Älteren (zu denen ich mich an dieser Stelle auch zähle) einiges neu lernen müssen (zum Beispiel mit dem Selbstlernkurs 13 Dinge von Christian Hauschke und Edlef Stabenau). Eine Aussage von Shirky hat mit besonders gefallen:

The assumption that things can be linked, that they can be found easily wherever they are, that they can be accessed easily, and that they can be shared easily: those are all metaphors that are are moving from the elctronic layer up into the social layer.

Wer nicht bis nächsten Mai warten möchte, kann zum Beispiel kurzfristig nach Lettland fahren, wo es am Mittwoch, dem 5. November ebenfalls ein Bibcamp gibt.