LibrayThing makes subject indexing not suck

30. Juli 2007 um 02:19 Keine Kommentare

I just mentioned it in my previous post – LibraryThing released a new tagging feature called „Tagmash„. Here a quick review for those of you who don’t read German and because I am not the only one who is so excited about Tagmash:

From a library and information science point of view the feature is little more then saved searches for boolean retrieval in a collaborative subject indexing system. But this „little more“ makes the difference: It’s the interface, stupid! You can create elaborated queries with OR, AND, and NOT in library catalouges and information retrieval systems since decades but most users don’t even know about it – it’s just too complicated and last but not least: it’s not fun!

Tim knows how to make OPACs not suck. It’s refreshing to see the the inventions of information retrieval beeing reinvented implemented in a way that is usable for everyone. David Weinberger got the heard of it in a comment to his posting about Tagmash:

So it is really a matter of positioning and perception. The Google url for a search on france and wwii is: http://www.google.com/search?source=ig&hl=en&q=france+wwii
LibraryThing’s url for the tagmash is http://www.librarything.com/tag/france,wwii So, it’s more human readable. More important, the tagmash page tries to assemble resources related the tagmash.

That’s the point: Assembling resources. A retrievel system where you have to type in a query in some special language to only get a list of hits (or a stupid „nothing found“ message) is just out of date. Other ways to present catalouge content in libraries are rare and experimental but they exist – we need more of them!

The query language (I suppose Tim would not call it such) of LibraryThing is going to evolve as well as the retrieval system, for instance to support weighted boolean retrieval, but the most important part will remain the user interface.

P.S: What I miss in LibraryThing tagging is RSS-Feeds for the books in Tagmashes (so you can create alerting services) and support of SKOS for the Semantic Web (which is not Tim’s job and will take some time).

Nochmal Tagging und dann los

29. Juli 2007 um 23:55 1 Kommentar

Bevor ich morgen nach Taiwan fliege (mit Zwischenlandung in Hongkong aber hoffentlich nicht so wie auf diesem Video), hier noch zwei Neuigkeiten zum Thema Tagging:

Auf der Dublin-Core Konferenz 2007 (DC-2007) in Singapur wird es eine von Liddy Nevile organisierte Session zum Thema Tagging geben. Angesichts eines fehlenden Permalinks für die Session, der Nicht-Nennung und Verlinkung der URL des im Abstract genannten Social Tagging wiki und des Tagesordnungspunktes „Election of leaders“ kann ich mir allerdings eine Spitze Bemerkung nur mühsam noch verkneifen.

Noch interessanter ist die neueste Entwicklungen der Tagging-Funktion in LibraryThing. Unter der Bezeichnung „Tagmash“ sind nun (soweit ich es auf den ersten Blick verstanden habe) gespeicherte Anfragen mit erweitertem Booleschem Retrieval über Tags möglich. Die Innovation liegt wie allgemein beim Tagging weniger in der Funktionalität als in der Umsetzung. Vom Standpunkt der Informationswissenschaft mag es keinen Unterschied machen, ob jemand seine Suchanfrage in einer speziellen Anfragesprache eingeben muss oder die Anfrage einfach zusammenklicken kann, aber in der Praxis liegen Welten dazwischen. Ãœbrigens unterstützt LibraryThing ebenfalls bereits Möglichkeiten für hierarchische Tags (hier ein Beispiel) und terminologische Kontrolle. Die Reaktionen auf Tagmash finden sich am besten Google Blogsearch oder Bloglines (Technorati ist bei mir durch die Zumüllung ihrer Suchergebnisse mit Videos und Fotos erstmal unten durch).

Noch ein Hinweis in eigener Sache: Die kommenden Postings werden wahrscheinlich etwas kürzer ausfallen oder ich schreibe gleich in unserem Urlaubsblog.

Mehrere Adressbücher in Thunderbird

29. Juli 2007 um 21:01 1 Kommentar

Obwohl es anscheinend schon mal ging, kann ich in Thunderbird (Version 2.0.0.5 für Linux) keine neues Adressbuch über Datei>Neu>Adressbuch anlegen. Wem ein „Persönliches Adressbuch“ und „Gesammelte Adressen“ nicht genug sind, der kann aber weitere Adressbücher anlegen, indem er über Extras>Exportieren ein vorhandenes Adressbuch exportiert, die Exportdatei danach umbenennt und anschließend über Export>Importieren das Adressbuch importiert. Ãœber den Export kann ein Adressbuch auch in eine Tabellenkalkulation oder andere Datenbanken importiert werden – gerade bei größeren Datenmengen (mein Adressbuch umfasst mitlerweile über 500 Einträge) ist die Bearbeitung und Weiterverarbeitung dort besser möglich. Was mir trotz des zwingend notwendigen Plugins MoreColsForAddressBook noch fehlt ist die Möglichkeit, Kontakte mit einem Bild zu versehen und Links auf Profile bei verschiedenen anderen Diensten zu setzen, so wie die „Also on “ Connections bei LibraryThing. FOAF-Support wäre auch nicht schlecht.

Vortrag zum Tagging

27. Juli 2007 um 11:35 Keine Kommentare

Die Unterlagen zum Vortrag Towards integration between collaborative tagging and professional indexing von Traugott Koch am 26.6.2007 im Berliner Bibliothekswissenschaftlichen Kolloquium sind nun Online. Ich finde die analytische Zusammenstellung des Themas sehr bereichernd und hilfreich für weitere Studien – und dass die Forschung noch sehr am Anfang steht, hat Traugott gut dargestellt.

Von ISBD zum Web 2.0 mit Mikroformaten

26. Juli 2007 um 14:18 15 Kommentare

Den folgenden Beitrag habe ich bereits in ähnlicher Form in INETBIB gepostet. Um ihn in die Blogosphäre einzubinden, poste ich ihn hier nochmal als Blogeintrag.

Um sich nicht im Sommerloch langweilen zu müssen, habe ich hier eine kleine Aufgabe für ISBD-Experten, Bibliothekare und andere Zukunftsinteressierte: Es geht um nicht weniger als die die Entwicklung eines bibliothekarischen Datenformates. Da der Beitrag etwas länger ist, hier eine

Zusammenfassung

1. Im Web sind mehr und mehr Daten direkt und in standardisierten Formaten zur Weiterverarbeitung verfügbar
2. Durchsetzen wird sich am Ende das, was im Browser ohne Plugin unterstützt wird
3. So wie es aussieht, werden dies Mikroformate sein
4. Für Bibliographsche Daten fehlt bislang ein Mikroformat
5. Wenn sich Bibliothekare nicht mit ihrem Sachverstand an der Entwicklung eines solchen Formates beteiligen, tun es andere – und das nicht unbedingt nach bibliothekarischen Gesichtspunkten.

Worum geht es?
Beitrag Von ISBD zum Web 2.0 mit Mikroformaten weiterlesen…

Förderpreis für Suchmaschinen

26. Juli 2007 um 11:40 Keine Kommentare

Der Gemeinnützige Verein zur Förderung der Suchmaschinen-Technologie und
des freien Wissenszugangs
(SuMa e.V.) schreibt mit dem SuMa Awards 2008 einen Förderpreise für Suchmaschinen aus. Für seine Bemühungen Alternativen zu Google aufzuzeigen und umzusetzen musste Herr Sander-Beuermann schon einige Häme einstecken – jetzt können die Kritiker also beweisen, dass sie es besser können.

Nach den bisherigen Informationen beschränkt sich der Wettbewerb nicht nur auf technische Realisierungen – auch wirtschaftliche und künstlerische Auseinandersetzungen sind gefragt. Mich würde beispielsweise interessieren, was an Semantic Web und Suchagenten wirklich dran ist und wie personalisierte Suchdienste das Suchverhalten verändern – werden wir ohne Internet bald an digitalem Alzheimer leiden? Am Wettbewerb kann also jeder vom Studenten bis zur Forschungsgruppen teilnehmen.

Unter SuMa-Lab.de zeigt der Verein einige existierende Projekte, daneben ist sicherlich A9 einen Blick wert. Eine Suchmaschine muss auch nicht von Grund auf neu programmiert werden, sondern kann mit etablierten Techniken (OpenSearch, SRU, OAI, RSS etc.) vielleicht sogar einfach zusammengeklickt werden – ob kleine Lösungen wie Planet Biblioblog den Hauptpreis bekommen, weiß ich nicht aber mit vielen solcher kleinen Lösungen („Webservices“) ist sicherlich mehr zu erreichen als mit dem Versuch eines dicken Google-Clons. Vergleichbare Wettbewerbe (allerdings mehr technik-zentriert) gab es übrigens schon bei Talis (Mashing Up The Library competition) und bei OCLC (OCLC Research Software Contest).

Open Library Project: Wikipedia der Kataloge

23. Juli 2007 um 14:35 3 Kommentare

Ein freies Projekt zur Katalogisierung aller jemals erschienenen Publikationen war ja abzusehen, aber dass es so schnell geht, hat mich doch überrascht. Das letzten Montag bekanntgegebene Open Library Project ist eine vom Internet Archive unterstütze Initiative, nach dem Wikipedia-Prinzip einen frei editierbaren Katalog zu schaffen. Die Software ist Open Source, kann also auch lokal installiert werden. Als Suchmaschine wird anscheinen Lucene-Solr verwendet. Einen Überblick gibt es eine Guided Tour und die System-Dokumentation.

Wenn man sich die Beteiligten und weitere Personen auf den Mailinglisten zum Projekt (Ol-lib, Ol-discuss, Ol-tech) ansieht, so sieht das Projekt sehr vielversprechend aus. Geleitet wird das Projekt von Aaron Swartz, und Tim Spaling (LibraryThing) ist dem Projekt auch wohlgesonnen.

Verwandte Projekte zur gemeinsamen Katalogisierung sind LibraryThing sowie Social Bookmarking-Dienste wie CiteULike, Connotea und BibSonomy und von Content-Seite Project Gutenberg sowie das weniger freie Google Books. Als größten Partner oder Konkurrenten – je nachdem aus welcher Richtung betrachtet – sehe ich allerdings WorldCat. Die aus der Wikipedia-Community hervorgebrachten Ansätze finde ich nicht so relevant, wenngleich Wikipedia natürlich eingebunden werden sollte.

Wie schon LibraryThing ist das Open Library Project bislang ausschließlich Englisch und nicht für Mehrsprachigkeit konzipiert (auch bei LibraryThing ist nur Oberfläche mehrsprachig, während die Tagging-Daten und Texte einsprachig sind). Wenn sich das Open Library Project ein Beispiel an Wikipedia nehmen will, sollten sprachabhängige Bestandteile besser in eigene Komponenten ausgelagert werden.

Und was bedeutet das ganze für die Bibliotheken?: In spätestens 5 Jahren werden alle wesentlichen Katalogdaten frei sein, zu einem wesentlichen Teil nicht mehr ausschließlich von Bibliothekaren erstellt werden und verschiedene Anbieter werden Suchfunktionen über diese Daten bereitstellen. Auf diesen Wandel sollte sich das Bibliothekswesen einstellen.

Entwicklungen an der Nationalbibliothek von Australien

23. Juli 2007 um 10:10 Keine Kommentare
National Library of Australia IT Architecture Project Report

Die Nationalbibliothek von Australien (NLA) hat vor einiger Zeit einen sehr ansehnlichen Lucene-basierten Katalog-Prototypen veröffentlicht. Dass die NLA zukunftsweisende Entwicklungen betreibt, zeigt auch die geospatial search (deren Eingabemaske allerdings nicht sehr komfortabel ist) und den im März diesen Jahres veröffentlichten National Library of Australia IT Architecture Project Report auf den ich hiermit hinweisen möchte. Den folgenden Absatz aus dem Report könnte ich direkt unterschreiben:

The benefits of having a native level of support for standard protocols in the architecture cannot be overestimated. A standards-based service-oriented approach for core services such as Contribute, Alert, Harvest and Request will allow protocols such as SRU Update, RSS, OAI-PMH and OpenURL to be supported across all applications. It will also ensure that these protocols are part of the Library’s way of thinking when training new staff or prototyping new requirements; and that gaps in standards are identified and addressed through a testbed approach, as part of the development process.

Ãœbrigens setzt die NLA wie der GBV auch als Zentralsystem das CBS von OCLC PICA ein.

Streit um Theseus: wohin mit 120 Millionen?

20. Juli 2007 um 15:36 2 Kommentare

Wie am 19.7 mittgeilt wurde ist das EU-Suchmaschinen-Großprojekt Theseus bewilligt worden. Der Gemeinnützige Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs e.V. (SuMa-eV) regt sich darüber auf (siehe Pressemitteilung), allerdings dummerweise aus den falschen Gründen.

Es ist nämlich viel eher beklagenswert, dass ohne verbindliche Vorgaben 120 Millionen Euro der Großindustrie (Empolis GmbH, der SAP AG, der Siemens AG und der Deutsche Thompson oHG) in den Rachen geworfen werden, die dafür bunte Luftblasen („Web 3.0“) erzeugt und große Versprechungen à la Transrapid und Mautsystem gemacht werden. Die Panikmache des Suma e.V. kann ich allerdings nicht ganz nachvollziehen. Dass auf „Semantische Technologien“ statt auf eine Google-Kopie gesetzt wird, ist nämlich der richtige Weg – nur muss dieses Buzzword in der Praxis auch richtig ausgefüllt werden, was ich bei der vorliegenden Ausgangslage stark bezweifle.

Die 120 Millionen wären viel besser angelegt, wenn damit zu einem Teil bereits bestehende OpenSource-Initiativen im Suchmaschinen- und Semantic-Web-Bereich unterstützt werden und mit dem Rest digitalisiert und annotiert wird (sei es in Wikipedia, LibraryThing & Co oder durch Bibliotheken und Digitalisierungseinrichtungen). Eine interessante Anwendung der „semantischen Technologien“ wäre es übrigens mal all die beteiligten Projektpartner, Firmen und Personen mit ihren Geschäftsbeteiligungen und Verstrickungen transparent zu erschließen, um zu erfahren, wer hier wem in die Tasche wirtschaftet.

Nachtrag: in der Englischsprachigen Blogosphäre gibt es bereits über ein Dutzend Beiträge zu Theseus. Besonders gefallen hat mir Galileo of the internet, der auch noch die besondere Europäische Komponente dieser Geldverschwendung darlegt:

But nothing symbolises the divide between old Europe and the New World. Whereas Google is a testament to the power of free enterprise, set up by Larry Page and Sergey Brin, then PhD students at Stanford University, the European version is a multi-million project, heavily subsidised by the German and French governments, and developed by some of the largest corporate giants in Europe.

Zotero, COins und technische Kompetenz in Bibliotheken

19. Juli 2007 um 23:22 2 Kommentare

Das Firefox-Literaturverwaltungs-Plugin Zotero wurde schon vor einigen Monaten in verschiedenen Bibliotheks-Weblogs genannt und unter Anderem auf e-teaching.org vorgestellt; da es Firefox 2.0 voraussetzt, habe ich es mir aber erst jetzt ein wenig näher angesehen.

Zotero erkennt auf vielen Webseiten bibliographische Angaben, so dass sie mit einem Mausklick in die eigene Literatursammlung übernommen werden können. Darunter sind auch Bibliothekskataloge, allerdings bislang noch keine aus Deutschland. Das ist allerdings auch nicht verwunderlich, denn wer sollte die Anbindung an Zotero auch umsetzen wenn nicht die so genannten „Web 2.0“-Experten mit bibliothekarischem Umfeld?

Soweit ich es verstanden habe, genügt für Zotero, bei der Titelanzeige in die HTML-Seite OpenURL-Daten mittels COins (ContextObjects in Spans) einzufügen. COins sind nicht nur für Zotero von Bedeutung sondern wird bereits jetzt als allgemeines Mikroformat für bibliographische Daten eingesetzt (die Microformats-Community werkelt derweil dennoch an einem eigenen Standard herum).

Da COins auf OpenURL basiert, dürfte es bei Katalogen, die bereits OpenURL als Source für Linkresolver unterstützen, einfach sein, auch COins anzubieten. Dies ist nebenbei bemerkt auch ein Beispiel dafür, wie wichtig es ist, dass Bibliotheken die technische Kompetenz zur Entwicklung ihrer OPACs selbst benötigen anstatt die Katalogsoftware bei einem Hersteller einzukaufen ohne selber daran herumzuskripten. Denn obwohl die Einbindung von COins technisch nicht aufwendig ist, hat ein herkömmlicher kommerzieller Hersteller in der Praxis dazu weder die Möglichkeit (außer er hat direkten Zugang zum Katalogserver) noch den Anreiz (außer er bekommt einen expliziten, bezahlten Auftrag). Die Bibliothek selber kann aber ohne die technischen Fähigkeiten, weder mal eben etwas wie COins selber in die eigenen Katalogsoftware integrieren, noch seinem Softwarehersteller früh und konkret genug sagen, was dieser genau umsetzen soll – und bekommen dann deshalb irgend etwas unzureichendes als „Web 2.0“ verkauft.

P.S.: Wie infobib mitteilt ist seit kurzem die Institutsbibliothek der Saarländer Informationswissenschaft schon soweit – ist ja auch kein Produkt von der Stange.