Digital ist besser
15. Februar 2008 um 17:23 11 KommentareEigentlich habe ich ja nichts gegen gedruckte Artikel – ich blättere immer gerne in Zeitschriften jeder Art. Neulich bin ich beispielsweise auf einen anscheinend interessanten Artikel in einer gedruckten Fachzeitschrift gestoßen. Praktischerweise ist die SUB Göttingen gleich gegenüber. Dass ich erst nach über 10 Minuten das richtige Regal gefunden habe, schreibe ich mal meiner eigenen Konfusion zu. Leider waren die drei letzten Ausgaben gerade nicht vorhanden – naja vielleicht hat sie ein anderer Nutzer. Als sie jedoch die nächste Woche noch immer nicht da waren, habe ich eine freundliche Bibliothekarin gefragt, die erstmal herumtelefonieren musste. Wie sich herausstellte sind die letzten drei Ausgaben allesamt im Umlaufverfahren irgendwo im Haus und es gibt auch keine Möglichkeit herauszufinden, wer sie gerade hat. Dass eine Ausgabe einer Fachzeitschrift ein Dreivierteljahr nach Erscheinen noch immer nicht verfügung steht, weil sie bei irgendwelchen Mitarbeitern herumliegt, ist nicht nur schlechter Service sondern zeigt auch, dass das Medium Papier so manche Nachteile hat.
Papier ist ja ganz nett und vielleicht praktisch zum Archivieren, aber für neue Publikationen einfach nicht mehr zeitgemäß. Sobald in einigen Jahren elektronisches Papier leistungsfähig genug ist (und das ist deutlich abzusehen!) gibt es keinen Grund mehr, Fachartikel auf toten Bäumen zu verteilen. Sorry, aber wir verwenden auch keine Tontafeln und Pergament mehr – genau so wird es mit Papier geschehen. Bitte in Zukunft nur noch digital und Open Access. Wer sich auf den Wandel von Papier nach Digital nicht einstellen kann oder will, kann zwar mitunter Verständis für seine Situation erwarten, aber nicht dass die Entwicklung aufzuhalten sei. Wie Tocotronic schon 1995 erkannt haben: Digital ist besser.
P.S: Belletristik, Taschenbücher, Bildbände, Zeitungen etc. sind erstmal ausgenommen.
Linkserver auch beim BSZ
14. Februar 2008 um 00:20 1 KommentarIch muss zugeben, dass ich den Verbundkatalog des Südwestdeutschen Bibliotheksverbundes (SWB) nur sehr selten nutze und auch nur ganz zufällig darauf gestoßen bin – jedenfalls ist mir gerade aufgefallen, dass das BSZ (die Zentrale des SWB) ebenfalls einen Linkserver für seine Kataloge anbietet. Die Eigenentwicklung des BSZ wird folgendermaßen beschrieben:
Anreicherung des Katalogs mit Internet-Ressourcen:
Die Einzeltrefferanzeige im Web-Katalog kann ergänzt werden durch die Einblendung von dynamisch erzeugten Links zum Buchhandel (z.Zt. amazon, lehmanns, kno-k&v, libri, abebooks, booklooker, zvab). Soweit dort vorhanden werden das Cover und ein direkter Link zum Medium (i.e. der ISBN) angezeigt. Der Link-Server läuft zentral im BSZ

Im Verbundkatalog werden die Links mit dem Button „Verfügbarkeit im Buchhandel prüfen“ eingeblendet, wie zum Beispiel bei diesem guten Buch ausprobiert werden kann (siehe nebenstehendes Bild). Die Einbindung geschieht zwar nicht über eine sauber definierte Schnittstellen sondern als proprietärer HTML-Batzen, aber prinzipiell sehe ich kein Hindernis, den Service auf SeeAlso umzustellen, so dass verschiedene Linkserver einfacher gemeinsam in unterschiedliche Anwendungen eingebunden werden können. Ich habe mir erstmal verkniffen, zur Demonstration einen vollständigen SeeAlso-Proxy zu schreiben zumal dazu ein kleiner Trick notwendig wäre (stattdessen gibt es einen experimentellen Proxy für Google Buchsuche). Das Prinzip ist jedenfalls das selbe wie bei den Linkservern der VZG des GBV. Ein spontanes Lob an die Kollegen im Süden!
P.S: Der Linkserver des BSZ nimmt wie isbn2wikipedia auch ISBNs und liefert (in zusätzlichem HTML) eingebettete Links – ich hoffe das führt nicht zur irrigen Annahme, dass Linkserver nur mit ISBNs funktionieren!
P.P.S: Ich höre schon (wie bei Wikipedia) den Aufschrei der Entrüstung, aber muss es mal deutlich sagen: Google Buchsuche ist sehr nützlich und ein Link darauf fast immer ein Mehrwert. So habe ich im konkreten Fall zwar keinen Volltext aber wie gesucht Rezensionen gefunden (die FAZ-Kritik von Martin Lhotzky ist übrigens Bullshit) – Bibliotheken müssten für sowas wahrscheinlich erstmal Analysen und Regelwerke erstellen, was eine Rezension sei und wer wie wann bestimmen darf, was wie wo genau als zusätzlicher Link eingetragen wird – anstatt den Nutzer einfach selber entscheiden zu lassen.
Kurze Einführung zu LibraryThing für Bibliothekare
9. Februar 2008 um 16:34 5 KommentareIn Heft 137 des Mitteilungsblatt der Bibliotheken in Niedersachsen und Sachsen-Anhalt erschien letztes Jahr ein zweiseitiger Artikel zu LibraryThing. Obwohl bei LibraryThing schneller neue, spannende Features hinzukommen, als ich sie ausprobieren kann (inzwischen sogar Reihenwerke!), ist das grundlegende Prinzip unverändert: LibraryThing stellt Datenbank, Schnittstellen und Benutzeroberfläche bereit (von der sich herkömmliche OPACs übrigens gleich mehrere dicke Scheiben abschneiden können!) und die Benutzer erstellen, sammeln, verbessern, diskutieren, rezensieren etc. Bücher. Der Vergleich, dass LibraryThing für Bibliotheken das sei was Wikipedia für Enzyklopädieverlage, hinkt zwar an verschiedenen Stellen – so ganz von der Hand zu weisen ist es aber auch nicht. Deshalb sollte frau/man sich selber ein Bild davon machen.
Für die Einführung mit dem Titel „LibraryThing – Web 2.0 für Literaturfreunde und Bibliotheken“ recht ein Blatt beidseitig A4. Also auszudrucken, der/dem Kolleg(i/e)n hinlegen und mithelfen, dass das Deutsche Bibliothekswesen nicht den Anschluß verliert. Die OpenOffice-Datei ist auch verfügbar und Public Domain, d.h. es ist in diesem Fall völlig in Ordnung, meinen Namen rauszunehmen, im Text herumzustreichen und etwas anderes daraus zu machen!
Felix Klein über Riemann’sche Flächen in Katalogen
23. Januar 2008 um 11:43 6 KommentareIn einem Posting von letztem Jahr auf ol-tech wies Paul Rubin auf dieses Digitalisat (vollständiger Datensatz bei Archive.org) hin, mit dem die OCR ihre Schwierigkeiten haben dürfte: Abgesehen vom Titelblatt und Inhaltsverzeichnis ist das Vorlesungsskript „Riemann’sche Flächen 1“ (gehalten im Wintersemester 1891/92 in Göttingen) von Felix Klein handschriftlich verfasst! Der entsprechende Katalogeintrag im GBV ist dieser. Das Digitalisat stammt vom „zweiten Abdruck“ (1894), die erste Ausgabe (dieser Datensatz) ist von 1892. Einen unveränderte Nachdruck gab es 1906 (dieser Datensatz). 1986 erschien im Teubner-Verlag eine kommentierte Neuauflage (ISBN 3-211-95829-0), die im GBV-Katalog als Duplikat (hier und hier) verzeichnet ist. Wie aus dem Digitalisat bei Open Library und Internet Archive nicht ganz hervorgeht, gibt es auch den Zweiten Teil mit „Riemann’sche Flächen 2“ (siehe Datensatz) gehalten während des Sommer-Semesters 1892.
Abgesehen vom Inhalt finde das Beispiel schön, da es zwei Probleme und Herausforderungen illustriert. Duplikate und die Schwierigkeit sie automatisch zu erkennen (ein Algorithmus würde wahrscheinlich Teil 1 und Teil 2 zusammenschmeißen) sowie die fehlende semantische Verknüpfungen zwischen Datensätzen. Warum wird bei der Erstausgabe von Teil 1 nicht ein Verweis auf die folgenden Ausgaben, auf das Digitalisat und auf Teil 2 angezeigt? Je mehr ich mich mit dem Thema beschäftige, desto mehr komme ich zur Überzeugung, dass zu solch einer semantischen Tiefenerschließung alle Bibliothekare der Welt nicht ausreichen werden. Ein offener Ansatz wie beim Open Library Projekt, wo Katalogisate wie in Wikipedia von jedem gändert werden können, ist wahrscheinlich die einzige Möglichkeit, mit den Massen an Datensätzen und Verknüpfungsmöglichkeiten fertig zu werden.
P.S: Noch zwei amüsante Fundstücke: es gibt doch einen „Volltext“ und wie sich am Umschlag ablesen lässt wurde das zugrunde liegende Exemplar der Universität Berkeley zuletzt 1987 ausgeliehen worden, bevor es digitalisiert wurde.
Schnittstelle für Verfügbarkeitsdaten von Bibliotheksbeständen
21. Januar 2008 um 11:22 4 KommentareLetzen Dezember habe ich über Serviceorientierte Architektur geschrieben und bin unter Anderem auf den Heidelberger UB-Katalog eingegangen. Dabei ging es darum, wie Daten einzelner Exemplare von Bibliotheksbeständen – speziell Verfügbarkeitsdaten – über eine Schnittstelle abgefragt werden können. Bislang gibt es dafür keinen einfachen, einheitlichen Standards sondern höchstens verschiedende proprietäre Verfahren. Till hat mich zu Recht auf den Artikel „Beyond OPAC 2.0: Library Catalog as Versatile Discovery Platform“ hingewiesen, in dem die API-Architektur des Katalogs an der North Carolina State University vorgestellt wurde. Die Beispiele zeigen gut, was mit dem Buzzword „Serviceorientierte Architektu“ eigentlich gemeint ist, wie sowas in Bibliotheken umgesetzt werden kann und was für Vorteile der Einsatz von einfachen, webbasierten Schnittstellen bringt. Die als CatalogWS bezeichnete API ist – wie es sich gehört – offen dokumentiert. CatalogWS enthält einen Catalog Availability Web Service, der ausgehend von einer ISBN ermittelt, in welchen (Teil)bibliotheken ein Titel verfügbar oder ausgeliehen ist.
Bei Bedarf könnte ich mal versuchen, diese API für die GBV-Kataloge zu implementieren. Andererseits sollte man sich vielleicht erstmal Gedanken darüber machen, was es noch für Kandidaten für eine Verfügbarkeitsschnittstelle gibt und welche Daten über so eine Schnittstelle abfragbar sein sollten: Das NCIP-Protokoll scheint mir wie Z39.50 nicht wirklich zukunftsfähig zu sein. Janifer Gatenby macht in ihrem Vortrag „Bridging the gap between discovery and delivery“ (PPT) weitere durchdachte Vorschläge. Auf den Mailinglisten CODE4LIB und PERL4LIB habe ich letzte Woche herumposaunt, wie wichtig eine Holding-API wäre und dass das doch alles eigentlich ganz einfach sei. Neben Iinteressanten Bemerkungen zu FRBR bin ich daraufhin auf Holding-data in Z39.50 hingewiesen worden. In den PICA-LBS-Systemen stehen die Verfügbarkeitsdaten soweit ich es herausgefunden, habe im Feld 201@, aber nur teilweise. Für die weitere Umsetzung wäre es wahrscheinlich sinnvoll, erstmal alle in der Praxis vorkommenden Verfügbarkeits-Stati (ausleihbar, Präsenzbestand, Kurzausleihe, ausgeliehen, unbekannt…) zu ermitteln. Für elektronische Publikationen sollte die Schnittstelle außerdem irgendwie mit existierenden Linkresolvern zusammenarbeiten können. Eine einfache Schnittstelle für Verfügbarkeitsdaten von Bibliotheken ist also nicht ganz trivial, aber solange nicht jeder Spezialfall berücksichtigt wird oder erstmal ein Gremium eingesetzt werden muss, dürfte es machbar sein. Hat sonst noch jemand Interesse?
Die Zukunft (nicht nur des Lesens) auf dem 24C3
28. Dezember 2007 um 02:11 3 KommentareMein Plan, dieses Jahr mal zu Hause zu bleiben, um statt dem Chaos Communication Congress (24C3) anderen Dinge zu widmen, ist voll nach Hinten losgegangen, da alle Veranstaltungen (siehe Plan) gestreamt werden. Für heute (28.12.) um 11:30 möchte ich auf den Vortrag Elektronische Dokumente und die Zukunft des Lesens hinweisen:
Nachdem schon vor ewigen Zeiten die ersten e-book devices auf den Markt kamen und immer wieder neue Versuche gestartet wurden, digitale Bücher zu etablieren, dies aber immer und immer wieder scheiterte, wollen wir nun analysieren, warum das so grandios schiefgegangen ist (obwohl es ja für Text viel leichter hätte sein müssen als für Filme oder Musik). Es wird außerdem darum gehen, warum und was jetzt anders ist und welche Revolution uns da erwartet, die vermutlich noch umfassender und nachhaltiger sein wird, als die Digitalisierung von Musik und Film.
Heute (27.12.) haben mich vor allem der Vortrag der 129a-Betroffenen Anne Roth und der Vortrag über DNA-Hacking beeindruckt – der CCC zeigt mal wieder, dass alles noch viel atem(be)raubender ist, als bisher gedacht.
Heidelberger Katalog auf dem Weg zu Serviceorientierter Architektur
23. Dezember 2007 um 20:59 4 KommentareDie zunehmende Trennung von Bibliotheksdaten und ihrer Präsentation zeigt „HEIDI“, der Katalog der Unibibliothek Heidelberg. Vieles, was moderne Bibliothekskataloge bieten sollten, wie eine ansprechende Oberfläche, Einschränkung der Treffermenge per Drilldown, Permalinks, Exportmöglichkeit (u.A. direkt nach BibSonomy), RSS-Feeds und nicht zuletzt eine aktuelle Hilfe für Benutzer ist hier – zwar nicht immer perfekt, aber auf jeden Fall vorbildhaft – umgesetzt. Soweit ich es von Außen beurteilen kann, baut der Katalog auf zentralen Daten des Südwestdeutschen Bibliotheksverbundes (SWB) und lokalen Daten des lokalen Bibliothekssystems auf. Zum Vergleich hier ein Titel in HEIDI und der selbe Titel im SWB-Verbundkatalog. Aus dem Lokalsystem werden die Titeldaten mit Bestands- und Verfügbarkeitsdaten der einzelnen Exemplare angereichter, also Signatur, Medien/Inventarnummer, Standort, Status etc.:
Die tabellarische Ansicht diese Daten erinnert mich an WorldCat local, das sich zu WorldCat teilweise so verhält wie ein Bibliotheks-OPAC zu einem Verbundsystem. Hier ein Beispieldatensatz bei den University of Washington Libraries (und der gleiche Datensatz in WorldCat). Die Exemplardaten werden aus dem lokalen Bibliothekssystem als HTML-Haufen per JavaScript nachgeladen, das sieht dann so aus:
Bei HEIDI findet die Integration von Titel- und Exemplardaten serverseitig statt, dafür macht der Katalog an anderer Stelle rege von JavaScript Gebrauch. In beiden Fällen wird eine proprietäres Verfahren genutzt, um ausgehend von einem Titel im Katalog, die aktuellen Exemplardaten und Ausleihstati zu erhalten. Idealerweise sollte dafür ein einheitliches, offenes und webbasiertes Verfahren, d.h. ein RDF-, XML-, Micro- o.Ä. -format und eine Webschnittstelle existieren, so dass es für den Katalog praktisch egal ist, welches lokale Ausleih- und Bestandssystem im Hintergrund vorhanden ist. Die Suchoberfläche greift damit als als ein unabhängiger Dienst auf Katalog und Ausleihsystem zu, die ihrerseits eigene unabhängige Dienste mit klar definierten, einfachen Schnittstellen bereitstellen. Man spricht bei solch einem Design auch von „Serviceorientierter Architektur“ (SOA), siehe dazu der Vortrag auf dem letzten Sun-Summit. Eigentlich hätte beispielsweise die IFLA sich längst um einen Standard für Exemplardaten samt Referenz-implementation kümmern sollen, aber bei FRBR hat sie es ja auch nicht geschafft, eine RDF-Implementierung auf die Beine zu stellen; ich denke deshalb, es wird eher etwas aus der Praxis kommen, zum Beispiel im Rahmen von Beluga. Der Heidelberger Katalog setzt SOA noch nicht ganz um, geht allerdings schon in die richtige Richtung. Beispielweise wird parallel im Digitalisierten Zettelkatalog DigiKat gesucht und ggf. ein Hinweis auf mögliche Treffer eingeblendet. Wenn dafür ein offener Standard (zum Beispiel OpenSearch oder SRU) verwendet würde, könnten erstens andere Kataloge ebenso dynamisch zum DigiKat verweisen und zweitens in fünf Minuten andere Kataloge neben dem DigiKat hinzugefügt werden.
Ein weiteres Feature von HEIDI sind die Personeneinträge, von denen auf die deutschsprachige Wikipedia verwiesen wird – hier ein Beispiel und der entsprechende Datensatz im SWB. Die Verlinkung auf Wikipedia geschieht unter Anderem mit Hilfe der Personendaten und wurde von meinem Wikipedia-Kollegen „Kolossos“ erdacht und umgesetzt. Über einen statischen Link wird eine Suche durch einen Webservice angestossen, der mit Hilfe der PND und des Namens einen passenden biografischen Wikipedia-Artikel sucht. Ich könnte den Webservice so erweitern, dass er die SeeAlso-API verwendet (siehe Ankündigung), so dass Links auf Wikipedia auch nur dann angeboten werden, wenn ein passender Artikel vorhanden ist. Für einen verlässlichen und nachhaltigen Dienst ist es dazu jedoch notwendig, dass der SWB seine Personenangaben und -Normdaten mit der PND zusammenbringt. Natürlich könnte auch nach Namen gesucht werden aber warum dann nicht gleich den Namen einmal in der PND suchen und dann die PND-Nummer im Titel-Datensatz abspeichern? Hilfreich wäre dazu ein Webservice, der bei Übergabe eines Namens passende PND-Nummern liefert. Die Fälle, in denen eine automatische Zuordnung nicht möglich ist, können ja semiautomatisch gelöst werden, so wie es seit über zwei Jahren der Wikipedianer APPER mit den Personendaten vormacht. Hilfreich für die Umsetzung wäre es, wenn die Deutsche Nationalbibliothek URIs für ihre Normdaten vergibt und ihre Daten besser im Netz verfügbar macht, zum Beispiel in Form einer Download-Möglichkeit der gesamten PND.
P.S.: Hier ist testweise die PND-Suche in Wikipedia als SeeAlso-Service umgesetzt, zum Ausprobieren kann dieser Client verwendet werden, einfach bei „Identifier“ eine PND eingeben (z.B. „124448615“).
FH- und Universitäts-Master gleichgestellt
14. Dezember 2007 um 14:26 7 KommentareWie die Konferenz der informatorischen und bibliothekarischen Ausbildungseinrichtungen (KIBA) und die Nachrichten für Öffentliche Bibliotheken in NRW mitteilen, hat die Kultusministerkonferenz bereits im September entschieden, Masterabschlüsse an Fachhochschulen den Masterabschlüsse an Universitäten als Voraussetzung für eine höhere Laufbahn im öffentlichen Dienst gleichzustellen. Na sowas, war das nicht sowieso so gedacht? Eigentlich sollten FH und Uni doch mit dem Umstieg auf Bachelor und Master von den Abschlüssen gleichwertig sein – der Vorteil an einer Uni ist nur, dass man besser über den Tellerrand schauen kann, aber das hängt von jedem Studenten selber ab. Jedenfall bekommt soweit ich es verstanden habe, nach dem Tarifvertrag für den öffentlichen Dienst (TVöD) in Zukunft jemand mit Bachelor-Abschluss Entgeltgruppe E9 bis E12 und jemand mit Master E13 bis E15. Wie es bei Beamten aussieht, habe ich nicht verstanden (ersetzt ein Master-Abschluss ein Referendariat?), aber der Beamtenstatus gehört in Bibliotheken ja sowieso abgeschafft.
An welchen Unis und Fachhochschulen in Deutschland entsprechende Master für den Bibliotheks- und Informationsbereich angeboten werden, geht aus einer Tabelle in der aktuellen Ausgabe von Buch und Bibliothek hervor. Welcher Abschluss tatsächlich sinnvoll und hilfreich ist, lässt sich daraus eher nicht ablesen, das hängt eher von den jeweiligen Studienordnungen und Dozenten ab. Wie wäre es mit einem Bachelor im Bibliothekswesen und einem Master in Informatik (oder umgekehrt)?
Chatbox als Widget im Katalog
10. Dezember 2007 um 11:07 Keine KommentareLambert weist in Netbib auf die Widget-basierte Einbindung einer Chatbox im Katalog hin, wenn eine Suche keine Treffer liefert. Ein schönes Beispiel dafür, wie einzelne Dienstleistungen als eigenständige Services angeboten und kombiniert werden können. Mit der Ende September vorgestellte Universal Widget API (UWA) könnte das etwas einfacher werden. Dass trotz aller Begeisterung nicht jeder Service in jedem Kontext sinnvoll ist, dürfte klar sein – ein Haufen Widgets macht noch keine Bibliothek, dafür sind Bibliothekare notwendig, die eigene Ideen für Services und Widgets entwickeln und bestehende Dienste ausprobieren – die konkrete Programmierung neuer Widgets kann ja gerne Experten überlassen werden, aber Existierendes zusammenführen, Ausprobieren, Diskutieren, und Ideen entwickeln kann nicht einigen Wenigen überlassen werden!
Von Göttinger Tier-Feeds und Hannoveraner Bibliotheks-Mashups
6. Dezember 2007 um 17:32 1 KommentarWährend der soeben beendeten, zweiten VZG-Fortbildung zu RSS, Feeds und Content Syndication (die Folien sind schon mal bei Slideshare) wollte ich bei Feedblendr zur Demonstration einen aggregierten Feed zur Stadt Göttingen zusammenstellen. Als erster Treffer bei Google Blogsearch kam dazu zufälligerweise eine Mitteilung über die in Hamm, Oldenburg und Göttingen verfügbare Onleihe (von der Göttinger Stadtbücherei hatte ich dazu schon gestern eine Mail bekommen). Zu den weiteren Entdeckungen gehört, das Göttinger „Tierheim 2.0„, wo Hunde, Katzen und Kleintiere per RSS-Feed abonniert werden können: „Feed the animals„!
Bei einer Google-Suche nach der (leider etwas schwer auffindbaren) Seite der Bibliothek im Kurt-Schwitters-Forum Hannover bin ich dann auf das Weblog Bibliotheken in Hannover gestoßen, in dem Christian Hauschke und Manfred Nowak vom Workshop „Social Software in hannoverschen Bibliotheken“ berichten. Christians Ausführungen zu Lageplänen mit Google Maps (einen Lageplan in Google Maps einzuzeichnen, dauert auch ohne Vorkenntnisse höchstens zwanzig Minuten) möchte ich um eine Mashup-Idee ergänzen, die ich bereits neulich in meiner Lehrveranstaltung vorgestellt habe: Mit dem Perl-Modul PICA::Record lässt sich der Gesamtkatalog Hannover über SRU nach Bestandsdaten durchsuchen – dazu ist lediglich in diesem Beispielskript die Datenbank 2.92 statt 2.1 auszuwählen. Die so ermittelten Bibliotheken können dann mit etwas Bastelei in Google Maps angezeigt werden. Statt oder neben einer Liste der Bestandsnachweise wird dann zu einem Titel geografisch angezeigt, in welcher Bibliothek das Buch vorhanden ist. Mit Zugriff auf die Exemplardaten in den einzelnen OPACs könnte sogar noch angezeigt werden, ob ausleihbare Exemplare gerade vorhanden sind – wie das im Ansatz geht, steht in diesen Folien.
Neueste Kommentare