BibSonomy mit neuer Oberfläche
16. Dezember 2008 um 03:19 4 KommentareSeit einigen Tagen (im Blog steht noch nichts?) zeigt sich die Social-Cataloging Plattform BibSonomy mit einer neuen Benutzeroberfläche. Die Schriftgröße ist leider noch immer Augenkrebs und ich kann mich plötzlich nicht mehr per OpenID Delegation anmelden, aber das wird sicherlich auch noch (vielleicht finde ich dann auch heraus, warum mein PhD-Literatur-Account nicht öffentlich einsehbar ist). Social Cataloging kam in der gestrigen Vorlesung zu Social Tagging und (gemeinschaftlicher) Erschließung etwas zu kurz, deshalb sei nochmal darauf hingewiesen, dass die derzeit innovativ aktivsten Dienste zur Verwaltung von bibliographischen Daten keine Bibliotheken sondern LibraryThing und BibSonomy sind. Bibliotheken können dagegen lediglich in Sachen Autorität und Dauerhaftigkeit punkten und werden sich hoffentlich einige Scheiben abschneiden. Übrigens suchen sowohl die Verbundzentrale des GBV als auch das BibSonomy-Team studentische Mitarbeiter. Wer als Student im Raum Göttingen/Kassel wohnt und Webanwendungen o.Ä. programmieren kann, sollte sich mal überlegen, ob er/sie nur langweilige Übungsaufgaben und Firmenanwendungen schreiben oder an der Zukunft der webbasierten Literaturverwaltung mitarbeiten möchte! 🙂
Mikroform : Deutschland – 1 : 0
15. Dezember 2008 um 03:30 Keine KommentareWie die Frankfurter Rundschau berichtet sind am Freitag Tausende von Kontoverbindungs- und Überweisungsdaten (!) geleakt, auch Kreditkarte-Geheimnummern sollen nach Angabe der FR dabei sein. Zugespielt wurden die Daten der Zeitung auf Mikroform. Wie fefe treffend bemerkt sollte eine Bank solche Daten sowieso nicht an einen Dienstleister outsourcen und unverschlüsselt durch die Gegend transportieren; was einmal gesammelt und weitergegeben wurde, ist nicht mehr zu kontrollieren.
Ich könnte mir vorstellen, dass Mikroform verwendet wurde, weil die Kreditkarten-Daten zur Archivierung aufbewahrt werden müssen – für die Langzeitarchivierung eignet sich nun mal am Besten noch immer Mikroform. Praktisch auch: Whisteblowing mittels physischer Datenträger wie Mikroform ist in unserem Deutschen Überwachungsstaat besser möglich, da es ungleich schwieriger abgehört werden kann. Bei Telefon und Email sorgen Vorratsdatenspeicherung und Reichssicherheitshauptamt BKA-Gesetz nämlich dafür, dass Informanten abgeschreckt werden.
Da fällt mir ein weiteres Beispiele ein, wo Bibliotheks- und Informationswissenschaft und der derzeit stattfindende Rückbau des Rechsstaats sich treffen: beim mg-Prozess (Hintergrund) berichtete eine BKA-Vertreterin, wie mit Hilfe einer BfV-Datenbank versucht wurde, einen Urheber festzustellen. Die so „Ermittelten“ sitzen seit Ende Juli 2007 wegen schlechtem Retrieval in Haft. Wundern sollten diese Fällen eigentlich nicht – in einem Land, wo sich Personen in Polizeigewahrsam spontan selbstenzünden, ist vieles möglich. Richtig ist es dadurch noch lange nicht.
Bibliographische Daten müssen frei sein
4. Dezember 2008 um 00:42 7 KommentareIn der englischsprachigen Biblioblogosphäre schlägt die neue OCLC-Policy zur Nutzung von Datensätzen aus WorldCat (PDF) schon seit Wochen hohe Wellen, während es in Deutschland aufgrund der geringeren Relevanz von WorldCat eher ruhig ist. Eine gute Zusammenfassung gab es vor zwei Wochen in netbib, der aktuelle Stand lässt sich dem CODE4LIB-Wiki entnehmen.
Ein bischen tun die Kollegen von OCLC mir ja schon leid: ich bezweilfle nicht einmal, dass sie mit der Policy die Möglichkeiten zur Nutzung der Daten verbessern wollten. Aber solange (wie bei den Verlagen) an totgeweihten Finanzierungsmodellen festgehalten wird, kann das nicht funktionieren. Der einzig richtige Weg ist, die bibliographischen Daten aus WorldCat freizugeben, so dass sie jeder ohne vorherige Einwilligung weiternutzen kann. Da Datenbanken nicht einfach dem Uhrheberrecht sondern je nach Land anderen Gesetzen unterliegen, ist die Sache nicht so einfach wie bei anderen Inhalten, aber es gibt bereits verschiedene Initiativen zu freien Katalogdaten, die sich auch den rechtlichen Aspekten widmen. Die einfachste Variante ist es, die Daten völlig frei unter Public Domain zu stellen, so dass jeder damit machen kann was er möchte. Falls verhindert werden soll, dass sich beispielsweise Google die Daten für Google Books einverleibt (die Google-Policy ist noch viel restriktiver als die von OCLC!), könnte eine virale Lizenz (Copyleft) verwendet werden, so wie es zum Beispiel bei Wikipedia üblich ist.
Der Streit ob Public Domain oder Freie Inhalte ist alt (siehe BSD vs. GNU/Linux) und ich kann nicht mit Sicherheit sagen, was sich für bibliographische durchsetzen wird. Sicher ist aber dass bibliographische Daten frei sein müssen. Zur Not werden halt die interessanten Daten nochmal abgetippt (oder gescannt – Handycam und OCR sollte bald ausreichen) und der Rest vergammelt in den Bibliothekskatalogen. Drei Beispiele: die Open Library steht bereit, die Erschließungsmöglichkeiten in LibraryThing werden immer ausgefeilter (die freiwilligen Katalogisierer ebenfalls) und bis in Wikipedia der Plan für eine zentrale Literaturdatenbank umgesetzt wird, ist nur eine Frage der Zeit.
Es ist an OCLC zu entscheiden, ob ihre Daten Teil dieser Bewegung sein werden oder nicht. Das trifft übrigens ebenso auf deutsche Bibliotheken und Bibliotheksverbünde zu! Entweder die Datenbanken werden geöffnet oder in Zukunft werden andere als Katalogexperten herangezogen. Wer daran zweifelt, sollte mal an Brockhaus und Wikipedia denken 😉
E-LIS Repository auf EPrints 3 aktualisiert
4. Dezember 2008 um 00:20 3 Kommentare Das Repository E-LIS mit mitlerweile über
85.000 8730 Publikationen aus dem Bibliotheks- und Informationsbereich wurde auf die Softwareversion EPrints 3 aktualisiert (Christian berichtete).
Anfang Oktober hatte ich mich noch geärgert, dass viele Repositories der Entwicklung hinterherhinken; zumindest E-LIS ist nun wieder auf dem aktuellen Stand – auf dem man sich natürlich nicht Ausruhen kann denn die Entwicklung geht weiter: „The library is a growing organism“ (Ranganathan 1931). Ich hoffe, dass sich die Repository-Entwickler und Betreiber mehr zusammentun und neben OAI-PMH weitere gemeinsame Standards finden, damit Repositories selber nicht zu monolithischen Systemen verkommen sondern flexibel auf neue Anforderungen reagieren können.
In jedem Fall sollten gute Publikationen aus dem Bibliotheks- und Informationsbereich, die nicht bereits bei einer OpenAccess-Zeitschrift oder in einem anderen offenen Repository veröffentlicht wurden, in E-LIS hochgeladen werden.
P.S: Bedauerlicherweise sind nicht alle Publikationen bei E-LIS OpenAccess – in einigen Fällen ist die Registrierung notwendig, was nicht nur unpraktisch sondern auch überflüssig ist, weil sich jeder registrieren kann.
Link Resolver und Widgets im OPAC
26. November 2008 um 13:05 Keine KommentareJonathan Rochkind hat in seinem Blog SeeAlso und Umlaut verglichen, die beide eine Form von Link Resolver darstellen. Während über SeeAlso ausgehend von einer ID (ISBN, ISSN, DOI, PPN, …) eine Liste von passenden Einträgen mit Links zurückgeliefert wird, liefert Umlaut ausgehend von einer OpenURL auch leicht komplexere Inhalte, wie zum Beispiel ein Formular, mit dem in verschiedenen Quellen im Volltext eines Buches gesucht werden kann. Die Abfrage geschieht jedoch leider nicht über eine standardisierte API sondern proprietär (d.h. nur Umlaut kann lesen was Umlaut liefert).
Nach meiner Auffassung ist Umlaut (wie Link Resolver im Allgemeinen) eine spezielle Form einer Metasuche. Über eine OpenURL-Anfrage können mehrere Dienste und Quellen (SFX, CrossRef, Amazon, OCLC Worldcat, ISBNdb, LibraryThing, Google Books, HathiTrust, OpenLibrary, the Internet Archive, Worldcat Identities …) gemeinsam abgefragt werden und die Ergebnisse werden auf einer Seite zusammengefasst (siehe Beispiel). Das Zusammenfassen von Inhalten aus mehreren Quellen kann allerdings auch im OPAC bei einer Titelanzeige geschehen (siehe Beispiel).
Allgemein ist für die Zusammenfassung von Inhalten aus unterschiedlichen Quellen (Mashup-Prinzip) hilfreich, wenn auf einheitliche APIs und Datenformate zurückgegriffen wird. Das populärste Beispiel ist RSS (bzw. ATOM). SeeAlso kann als API und Format für einfachere Listen dienen und für komplexere Inhalte käme vielleicht die Universal Widget API (UWA) in Frage. UWA-Widgets können auch in eigene Seiten eingebunden werden. Einen OPAC als Widget gibt es ja schon – wie wäre es umgekehrt einen OPAC aus Widgets zusammenzusetzen? Ich denke, dass es noch einige Zeit dauern wird, bis sich neben ATOM/RSS weitere gute Standards für die Aggregierung von Inhalten auf Webseiten durchsetzen. Praktische Beispiele gibt es ja inzwischen immer mehr, gerade hat Lorcan Dempsey einige davon zusammengefasst.
Terminologiearbeit in Fachbüchern, -lexika und Wikipedia
26. November 2008 um 02:26 Keine KommentareErst eben bin ich auf die bereits vor einem Jahr veröffentlichte Masterarbeit „Terminologiearbeit im Bereich Wissensorganisation“ von Stefan Hauser gestoßen (über das gerade aktualisierte E-LIS, die Arbeit wurde auch im Februar auf der ISKO 2008 vorgestellt). Die Abschlussarbeit im Studiengang Angewandtes Wissensmanagement an der FH Burgenland enthält einen Vergleich der „Grundlagen der praktischen Information und Dokumentation“ (2004), der „Terminologie der Information und Dokumentation“ (2006) und des BID-Bereich der deutschsprachige Wikipedia anhand von etwa 50 Artikeln bzw. Einträgen aus dem Themenbereich „Thesaurus“. Stefan Hauser möchte mit der Arbeit darüber Aufschluss geben, wie in den drei Publikationen Terminologiearbeit realisiert wird, welche Unterschiede dabei feststellbar sind und auf welche Faktoren sie zurückgeführt werden können. Dazu geht er unter Anderem Makrostruktur (3.4), Mikrostruktur (Lemmatisierung (3.5.1), Einleitung (3.5.2), Begriffsklärung und Definition (3.5.3)) und die Vernetzung der Einträge untereinander (3.6) ein.
Obgleich man über Details streiten kann, bildet die Arbeit einen guten Überblick über Terminologiearbeit nicht zuletzt in Wikipedia. Bei der Erstellung des – mittlerweile vom Umfang recht gut ausgebauten – Themenbereiches Bibliothek, Information, Dokumentation habe ich zur Beurteilung der Abdeckung auch auf verschiedene Wortlisten zurückgegriffen. Eine genauere und umfassendere Analyse der Artikelabdeckung und Qualität in Wikipedia dürfte genügend Stoff für eine weitere Bachelor- oder Masterarbeit abgeben. Unabhängig davon bleibt zu hoffen, dass mehr und mehr Experten Wikipedia auch als Autor kennenlernen und ihr Wissen direkt dort eintragen, wo es nachgeschlagen und weitergenutzt wird – denn dass Informationen nur deshalb mehr Wert besitzt, weil sie gedruckt worden sind und nicht so leicht korrigiert werden können, sollte mittlerweile von niemandem mehr ernsthaft angenommen werden.
Ariadne article about SeeAlso linkserver protocol
13. November 2008 um 11:32 Keine KommentareThe current issue of Ariadne which has just been published contains an article about the „SeeAlso“ linkserver protocol: Jakob Voß: „SeeAlso: A Simple Linkserver Protocol„, Ariadne Issue 57, 2008.
SeeAlso combines OpenSearch and unAPI to a simple API that delivers list of links. You can use it for dynamically embedding links to recommendations, reviews, current availability, reviews, search completion suggestions, etc. It’s no rocket science but I found a well defined API with reusable server and client better then having to hack a special format and lookup syntax for each single purpose.
The reference client is written in JavaScript and the reference server is written in Perl. Implementing it in any other language should not be complicated. I’d be happy to get some feedback either in form of code, applications, or criticism. 🙂 I noted that SeeAlso::Server is the only implementation of unAPI at CPAN so far – if someone is interested, we could extract parts into an independent unAPI package. The WWW::OpenSearch::Description package is also worth to consider for use in SeeAlso::Server.
LibraryThing als Bibliothekskatalog
7. November 2008 um 17:34 3 KommentareInzwischen gibt es eine Reihe von kleineren Bibliotheken, die ihre Bestände in LibraryThing verwalten oder präsentieren, im deutschsprachigen Raum sind zum Beispiel die Bibliothek des Autonomen Feministischen Referats des AStA Bremen (Katalog, 591 Bücher), die Genderbibliothek des ZtG der HU Berlin (Katalog, 758 Bücher). Die Stadtbücherei Nordenham nutzt bereits seit 2005 (!) LibraryThing, um die Neuzugänge im Erwachsenenbestand in einem LT-Profil zu präsentieren. Um solche Nutzungen voranzubringen, veranstaltet LibraryThing nächste Woche in einer kleinen Bibliothek in Boston eine „flash-mob cataloging party„:
A bunch of us will be there with laptops and barcode scanners in hand—and we’re inviting anyone in the area to join us […] Books, bibliophiles, conversation, barcode scanners, pizza!
Dieses „nerdige“ Katalogisierungs-Treffen erinnert mich stark und gerne and die Wikipedia-Tagging-Party Ende Januar 2005. Der Directmedia-Verlag hatte damals Wikipedianer zu Getränken und Pizza eingeladen, um zur Vorbereitung der ersten Wikipedia-DVD möglichst viele Personendaten und Bildlizenzen zu „taggen“ – also vereinfacht Wikipedia-Inhalte zu katalogisieren (die Wikipedia-Personendaten haben sich übrigens inzwischen längst zu allgemeinen Daten und ihrer RDF-Publikation in DBPedia ausgeweitet, welches wiederum Keimzelle des Semantic Web ist).
Treffen wie die „flash-mob cataloging party“ oder die „Wikipedia-Tagging-Party“, bei denen sich hochmotivierte Freiwillige spontan und relativ unverbindlich für eine gemeinsame Sache zusammenfinden sind ein allgemeiner Trend, der von BarCamps bis zu Tausenden von Obamas Wahlkampfhelfern zu beobachten ist: das Web 2.0 ist eben mehr als Technik sondern hat auch Auswirkungen auf die gemeinsame Arbeits- und Lebensweise von Menschen.
Aus der Bibliotheksgeschichte lernen für die Zukunft des Katalogs
5. November 2008 um 01:54 2 KommentareProf. Ursula Schulz schrieb letzte Woche im Beluga-Blog zur Geschichte der Usability-Evaluation von Online-Katalogen [via Suchkisten-Blog, wo mein Kollege Till zu recht schreibt: „Ist alles lösbar (sogar mit Open Source Software), aber eben Arbeit.“]. Schulz ist eine der wenigen Menschen in Deutschland, die tatsächlich etwas von Bibliothekskatalogen verstehen, weil sie nicht nur mit ihnen, sondern auch an ihnen und über sie gearbeitet hat. Neben der Bedeutung von Usability-Tests (die gar nicht genug betont werden kann), entnehme ich dem Beitrag, dass Bibliotheksgeschichte durchaus spannend und relevant sein kann. Dabei sollten jedoch auch Bezüge zur Gegenwart hergestellt werden. Statt der siebten Arbeit zum „Ursprung und Aufbau der Sammlung Moppelhein in der Schnurzelbacher Landesbibliothek“ lässt sich beispielsweise aufzeigen, was Martin Schrettinger zum Thema Social Cataloging beizutragen hat, wie Ranganathan beim Facettierten Browsing helfen kann oder was die Bücherverluste in der Spätantike mit dem Digitalen Vergessen gemeinsam haben.
Ich denke, dass sich derartige Überlegungen vor allem in der Biblioblogosphäre, auf Mailinglisten wie NGC4Lib und in studentischen Abschlußarbeiten der Bibliotheks- und Informationswissenschaft finden. Außerdem kommen Fachzeitschriften in Frage – wobei zu beachten ist, dass die Wissenschaftssprache nun einmal Englisch ist, so dass interessante deutschsprachigen Zeitschriften wie „LIBREAS“ oder „Information – Wissenschaft & Praxis“ vom Diskurs eher abgekoppelt sind.
Subito mit DRM – Na und?
3. November 2008 um 15:53 3 KommentareDie unpraktische Beschränkung der Subito-Dokumentenlieferung durch DRM beschreiben und kommentieren treffend Infobib, Library Mistress und netbib. Irgendwie können einem subito und die Verlage auch leid tun, wie da versucht wird, totgeweihte Geschäftsmodelle am Leben zu erhalten. Mir fällt dazu das noch immer lesenswerte Buch No Copy ein, in dem Praxis und Formen der „Raubkopie“ beschrieben werden. Deshalb bin ich auch nicht so pessimistisch wie Juergen Plieninger, der schreibt:
Wissenschaftliches Arbeiten wird – wieder einmal – teurer, der Verlags- und Großhändlobby sei Dank!
Dokumentenlieferdienste – ob mit oder besser ohne DRM – sind natürlich hilfreich, aber grundsätzlich sowieso nur eine Übergangslösung. Die Vorstellung, dass Dokumente „geliefert“ werden müssten ist einfach anachronistisch. Dokumente werden im digitalen Zeitalter kopiert. In vielen Wissenschaften ist es inzwischen Gang und Gäbe, alle relevanten Publikationen direkt untereinander auszutauschen und eigene Sammlungen anzulegen: die kompletten Backfiles ganzer Verlage passen inzwischen auf einen USB-Stick. Es ist nur eine Frage der Zeit, bis das Meiste per Open Access oder auf anderem Weg (Nationallizenz, Kulturflatrate, Filesharing …) verfügbar ist – der Rest ist mehr und mehr marginal.
Neueste Kommentare