Die Karikaturen des Dan Perjovschi

31. Oktober 2007 um 23:39 Keine Kommentare

Beim Durchsehen der Fotos meines letzten Venedig-Besuchs bin ich wieder auf den rumänischen Künstler Dan Perjovschi gestoßen, den ich hiermit als wunderbaren Karikaturisten empfehlen möchte. Perjovschi schmückte mit seinen nicht selten schwarzhumorigen Zeichnungen Ausstellungswände in aller Welt, unter Anderem auch die des MoMa in New York (siehe YouTube-Videos weiter unten auf der Seite) oder die Bibliothek der Warwick-University (!). Einen weiteren Eindruck vermitteln eine Reihe von Bilder bei Flickr und seine Homepage.

Neues von Mozilla: Prism, Firefox 3 und Sunbird

27. Oktober 2007 um 13:48 2 Kommentare

Zum Wochenende einige Entwicklungen aus dem Mozilla-Projekt: Mit Prism möchte Mozilla Webapplikationen auf den Desktop bringen – für den Nutzer soll es praktisch keinen großen Unterschied machen, ob er eine lokale Anwendung aufruft oder eine Anwendung im Web. Es ist also Zeit, sich über kleine (Widgets) und große (Webapplikationen) praktische Anwendungen aus dem Bibliotheks- und Informationsbereich Gedanken zu machen – einige Ideen gibt es schon von Fabienne, Kommentare sind dort sehr erwünscht!

Schon weiter fortgeschritten ist Firefox 3 – die neue Version des populären Webbrowsers macht zur Zeit wegen seiner auf das jeweilige Betriebssystem angepassten Optik von sich reden. Die aktuelle Experimentier-Version kann jederzeit ausprobiert werden, mit einem endgültigem Release wird Ende 2007 gerechnet. Ich habe mir mal die Liste der geplanten Neuerungen angesehen und möchte folgende Features hervorheben:

Völlig überarbeitet wurde die Lesezeichen-Verwaltung, die nun die Bezeichnung „Places“ trägt: Neu ist vor allem, dass Lesezeichen und die Liste der besuchten Seiten gemeinsam verwaltet werden und auch mit Tags versehen werden können. Den Berichten nach, hat die Usability damit deutlich zugenommen. Offen ist für mich nur, wie Social Tagging-Dienste da reinpassen.

Eine weitere interessante Neuerung ist Content Type-Processing: Bisher kann Firefox auf Basis von Protokoll und MIME-Types beim Download verschiedene Anwendungen starten (Mailprogramm, Newsreader, Bildbetrachter…), RSS-Feeds können auch direkt an eine andere Webapplikation wie z.B. Bloglines weitergereicht werden. Im Rahmen eines grundsätzlichen Aufräumens der MIME-Type-Behandlung soll die Weiterleitung auch an andere Webanwendungen möglich sein, so dass z.B. beim Klick auf mailto:-Links der Webmailer geöffnet wird.

Ebenfalls in die Richtung, aus dem Browser ein allgemeines Werkzeug zum Auswählen, Weiterleiten und Verarbeiten von Informationen zu machen, geht die bereits im Januar 2007 diskutierte Unterstützung von Mikroformaten. So wie ich es verstanden habe, sollen beliebige Microformats mitsamt den mit ihnen ausführbaren Aktionen im Browser registriert werden können (siehe Screenshot im Notizblog. Ein Bibliothekarisches Microformat lässt (abgesehen von COinS) ja noch auf sich warten.

Weitere Neuerungen der Benutzeroberfläche wurden bereits im Juni von Alex Faaborg zusammengefasst (mit Screenshots).

Das dritte Mozilla-Projekt, von dem es Neues zu berichten gibt, ist die Kalenderanwendung Sunbird, die gerade in der Version 0.7 herausgekommen ist. Ich habe mir trotzdem für 2008 wieder einen Taschenkalender aus Papier gekauft – bis es für den Sonnevogel ein passendes Linux-Handy gibt 😉

Schlagwortnormdatei der New York Times als OPML

19. Oktober 2007 um 13:01 Keine Kommentare

Wie Lambert berichtet hat Amy Bellinger entdeckt, dass die New York Times ihre Schlagwortdatei mit 10522 subject headings als eine große OPML-Datei verfügbar macht, worüber Dave Winer ausführlicher berichtet. Die anschließende Diskussion ist etwas verstreut, unter anderem bei Flickr, bei Dave und bei Steven Cohen.

Archiving Weblogs with ATOM and RFC 5005: An alternative to OAI-PMH

19. Oktober 2007 um 11:34 1 Kommentar

Following up to my recent post (in German) I had a conversation with my colleague about harvesting and archiving blogs and ATOM vs OAI-PMH. In my opinion with the recent RFC 5005 about Feed Paging and Archiving and its proposed extension of Archived Feeds ATOM can be an alternative to OAI-PMH. Instead of arguing which is better, digital libraries should support both for harvesting and providing archived publications such as preprints and weblog entries (scientific communication and publication already takes place in both).

Instead of having every project to implementing both protocols you could create a wrapper from ATOM with archived feeds to OAI-PMH and vice versa. The mapping from OAI-PMH to ATOM is probably the easier part: You partition the repository into chunks as defined in RFC 5005 with the from and until arguments of OAI-PMH. The mapping from OAI-PMH to ATOM is more complicated because you cannot select with timestamps. If you only specify a fromargument, the corresponding ATOM feed could be harvested going backwards in time but if there is an until argument you must harvest the whole archive just to get the first entries and and throw away the rest. Luckily the most frequent use case is to get the newest entries only. Anyway: Both protocols have their pros and cons and a two-way-wrapper could help both. Of course it should be implemented as open source so anyone can use it (by the way: There seems to be no OAI-crawler in Perl yet: Sure there is OAI-Harvester but for real-world applications you have to deal with unavailable servers, corrupt feeds, duplicated or deleted entries, and a way to save the harvested records, so a whole layer above the harvester is missing).

P.S.: At code4lib Ed Summers pointed me to Stuart Weibel who asked the same question about blog archiving, and to a discussion in John Udell’s blog that include blog archiving (he also mentions BlogML as a possible part of a solution – unluckily BlogML looks very dirty to me, the spec is here). And Daniel Chudnov drafted a blog mirroring architecture.

Weblogs Sammeln, Erschließen, Verfügbar machen und Archivieren

19. Oktober 2007 um 03:03 2 Kommentare

Ich ärgere mich ja schon seit längerer Zeit, dass praktisch keine Bibliotheken Weblogs sammeln und archivieren, obwohl diese Mediengattung bereits jetzt teilweise die Funktion von Fachzeitschriften übernimmt. Inzwischen kann ich unter den Kollegen zwar ein steigendes Interesse an Blogs feststellen (der nächste Workshop war nach kurzer Zeit ausgebucht), aber so richtig ist bei der Mehrheit noch nicht angekommen, dass hier eine mit der Einführung des Buchdrucks oder Erfindung von Zeitschriften vergleichbare Evolution im Gange ist. Ansonsten sollten doch viel mehr Bibliotheken damit beginnen Weblogs zu Sammeln, Erschließen, Verfügbar zu machen und zu Archivieren.

Anstatt erstmal darüber zu diskutieren, in welche MAB-Spezialfelder die Daten kommen und als was für eine Mediengatung Weblogs gelten, müsste nur mal einer der existierenden Open Source-Feedreader aufgebohrt werden, so dass er im großen Maßstab auf einem oder mehreren Servern läuft und wenigstens jene Feeds sammelt, die irgend ein Bibliothekar mal als sammlungswürdig eigestuft hat. Alles was wohlgeformtes XML und mit einem Mindestsatz an obligatorischen Elementen (Autor [Zeichenkette], Titel [Zeichenkette], Datum [ISO 8061], Inhalt [Zeichenkette]) ausgestattet ist, dürfte doch wenigstens so archivierbar sein, dass sich der wesentliche Teil rekonstruieren lässt – Besonderheiten wie HTML-Inhalte, Kategorien und Kommentare können ja später noch dazu kommen, wenn die Infrastruktur (Harvester zum Sammeln, Speicher zum Archivieren, Index zum Erschließen und eine Lesemöglichkeit zum Verfügbar machen) steht.

Für die Millionen von Blogartikeln, die bislang verloren sind (abgesehen von den nicht für die Archivierung zur Verfügung stehenden Blogsuchmaschinen wie Bloglines, Technorati, Google Blogsearch, Blogdigger etc.) gibt es zumindest teilweise Hoffnung:

Im September wurde RFC 5005: Feed Paging and Archiving definiert eine (auch in RSS mögliche) Erweiterung des ATOM-Formats, bei der vom Feed der letzten Einträge auf die vorhergehenden Einträge und/oder ein Archiv verwiesen wird. Im Prinzip ist das schon länger möglich und hier an einem Beispiel beschrieben, aber jetzt wurde es nochmal etwas genauer spezifiziert. Damit ist ATOM eine echte Alternative zum OAI-PMH, das zwar der Bibliothekswelt etwas näher steht, aber leider auch noch etwas stiefmütterlich behandelt wird.

Wie auch immer: Bislang werden Blogs nicht systematisch und dauerhaft für die Nachwelt gesammelt und falls Bibliotheken überhaupt eine Zukunft haben, sind sie die einzigen Einrichtungen die dafür wirklich in Frage kommen. Dazu sollte in den nächsten Jahren aber die „Erwerbung“ eines Blogs für den Bibliotheksbestand ebenso vertraut werden wie die Anschaffung eines Buches oder einer Zeitschrift. Meinetwegen können dazu auch DFG-Anträge zur „Sammlung und Archivierung des in Form von Weblogs vorliegenden kulturellen Erbes“ gestellt werden, obgleich ich diesem Projektwesen eher skeptisch gegenüber bin: Die Beständige Weiterentwicklung von Anwendungen als Open Source bringt mehr und es wird auch weniger häufig das Rad neu erfunden.

P.S.: Auf der Informationsseite der DNB zur Sammlung von Netzpublikationen findet sich zu Weblogs noch nichts – es liegt also an jeder einzelnen Bibliothek, sich mal Gedanken über die Sammlung von für Sie relevanten Weblogs zu machen.

Second day at MTSR

18. Oktober 2007 um 18:46 Keine Kommentare

It is already a week ago (conference blogging should be published immediately) so I better summarize my final notes of the MTSR conference 2007: Beitrag Second day at MTSR weiterlesen…

Anime-Filmtip: Mushishi

17. Oktober 2007 um 23:57 Keine Kommentare

Marcus Hammerschmitt weist in einem Artikel in Telepolis auf die Japanische Anime-Serie Mushishi hin: ein Leckerbissen. In jeder der eher ruhig aber immer spannend und schön gestalteten Folgen, tauchen neue „Mushi“ auf – Lebewesen zwischen Pflanzen und Tieren, die nur von einigen Menschen wahrgenommen werden können. Zum Glück gibt’s bei YouTube momentan mehrere Folgen (in jeweils drei Teilen: Mushishi 1-4 und Mushishi Episode 12-15) – natürlich im Original und mit englischen Untertiteln anstatt einer vermurksten Ãœbersetzung. Die Realverfilmung soll etwas langatmig sein und die Manga-Vorlage ist wahrscheinlich nicht so mein Geschmack – aber die Animes sind sehr zu empfehlen.

Kandidaten für den Worst EU Lobby Award

17. Oktober 2007 um 00:57 1 Kommentar

Wie unter Anderem Telepolis und Spiegel Online berichten, wird dieses Jahr zum dritten Mal der Worst EU Lobbying Award verliehen. Unter jeweils fünf Kandidaten in zwei Kategorien kann darüber abgestimmt werden, welche Organisation besonders dreistes Lobbying auf EU-Ebene betreibt.

Die Gewinner 2006 waren ExxonMobil für ihre intransparente Finanzierung von Klimaskeptikern und die EU-Kommission Binnenmarkt als diejenige EU-Institution, die sich besonders gerne von Lobbyisten hofieren lässt (siehe auch die anderen Kandidaten). Im ersten Jahr gewann eine Initiative für Softwarepatente.

Mich wundert ja, dass Monsanto nicht als Kandidat dabei ist: auf deren Lobbyarbeit ist zurückzuführen, dass die EU-Kommission verlangt, dass die schwedische Verfassungs geändert werden solle, damit Greenpeace nicht mehr aufdecken kann, welche Schweinereien Monsanto unternimmt, um gentechnisch veränderten Mais unters Volk zu bringen. Übrigens bekommen in vielen Gegenden Bauern, deren Felder unfreiwillig durch gentechnisch verändertes Saatgut kontaminiert werden keine Entschädigung sondern müssen stattdessen auch noch Lizenzgebühren an Monsanto zahlen (siehe Interview mit Percy Schmeiser und Save our Seeds). Nicht dass ich grundsätzlich gegen jede Genmanipuliererei wäre, aber wie perfide mit Hilfe von Lobbying über die EU sowas gegen den Willen der Mehrheit durchgedrückt wird, ist schon bemerkenswert.

Kombinierte Tagsuche als Feed

15. Oktober 2007 um 00:04 Keine Kommentare

So möchte ich auch mal Arbeiten: John Udell stellt in seinem eigenen Blog die eine Frage (wie verschiedene Dienste kombiniert nach einem Tag zu durchsuchen und die Treffer zu einem Feed zusammenfassen sind) und die Blogosphäre kommt herbei, um ihm Lösungen anzubieten. [via netbib]

Semantic Web aus Bibliothekssicht

14. Oktober 2007 um 23:00 2 Kommentare

Ben weist im IB-Weblog auf einen Beitrag von Allen Cho hin, der Web 3.0-Librarian-Weblog von hin, der mit Dean Giustini den Artikel The Semantic Web as a Large, Searchable Catalogue: A Librarian’s Perspective verfasst hat. Abgesehen davon, dass sie aus meiner Sicht mit einigem Durcheinander und Fehlurteilen ahnen lassen, dass über das Semantic Web ebenso viel Übertreibungen und Unsinn verbreitet werden wird, wie über Web 2.0, enthält der Artikel trotz Übertreibungen eine richtige Kernaussagen: Dokumentarische Erschließung und Semantic Web haben viele Gemeinsamkeiten. Oder wie die Autoren schreiben:

The Resource Description Framework (RDF), a method of connecting URIs in a meaningful way, is the key to making the Semantic Web possible. Making connections among and between documents and ideas is something librarians do for a living.

Nur: wieviele Bibliothekare haben sich wenigstens mal mit RDF auseinandergesetzt und zumindest die wichtigsten Eigenschaften (URIs, Unicode, Triples) verstanden? Wenn man daran denkt, welch Schattendasein FRBR nach über einem Dutzend Jahren noch immer fristet und wie noch immer eher diskutiert statt ausprobiert wird, kann man schon stark daran zweifeln, ob an der folgenden Prognose etwas dran ist:

Many of the same techniques of bibliographic control apply to the possibilities of the Semantic Web. It was the computer scientists and computer engineers who had created Web 1.0 and 2.0, but it will ultimately be individuals from library science and information science who will play a prominent role in the evolution of organizing the messiness into a coherent whole for users.

Zumindest mit „individuals from library science and information science“ haben Sie recht.