Eingeschlossene Nutzer im Datengrab Web 2.0

28. August 2007 um 00:51 1 Kommentar

Gestern Nacht hat überraschend Blogscout seinen Dienst eingestellt. Ich hatte den kostenlosen, privaten Dienst bei Markus kennengelernt und gerne genutzt, um zu schauen, von wo und wie oft mein Blog aufgerufen wird und über welche Suchanfragen and Referrer die Besucher kommen – beispielsweise wollen sie wissen, wer Bundeskanzler ist. Jetzt sind diese ganzen Statistiken weg. Das Beispiel erinnert mich daran, dass inzwischen statt Software Webservices und Daten im Zentrum stehen. Die wenigsten Webanwendungen bieten jedoch eine vollständige Exportfunktion, um die Daten auch wieder herauszubekommen. Und selbst dann ist der vollständige Umstieg auf einen anderen Dienst problematisch. Für Backups ist anscheinend der Anbieter des Webservices da (im Zweifellsfall haben die Amerikaner und Chinesen jeweils noch eine Kopie). Ein wenig erinnert mich das an die Microsoft-Produkte, deren Dateiformate den Softwarewechsel auch stark behindert haben. Tim O`Reilly hat es in einem Wired-Interview im April auf den Punkt gebracht: Web 2.0 Is About Controlling Data (aufgegriffen aber bisher nicht viel weitergesponnen von einigen Bibliotheken).

Idealerweise sollten nicht nur die Daten wieder aus dem Webdienst heraus und in eine eigene Anwendung hereinkommen sonder gleich die ganze Webanwendung frei sein. Ein Beispiel dafür ist LiPost, das man sich auch auf dem eigenen Server installieren kann. Für freie Software, die unter der Affero GPL (AGPL) lizensiert ist, ist die Zur-Verfügung-Stellung des Quelltextes bei einer Anwendung als Webdienst sogar zwingend.

Eine ausführlichere Auseinandersetzung mit dem Problem, dass Web 2.0 die durch Freie Software gewonnene Freiheit bedroht, findet sich im Artikel Free Software and the Web von Alejandro Forero Cuervo.

Persistent Identifiers: Irony of Fate or just absurd?

24. August 2007 um 01:20 4 Kommentare

The report „Implementing Persistent Identifiers: overview of concepts, guidelines and recommendations“ shows you the impracticality of URN and URN:NBN – you do not even have to read any of the 70 report’s pages to find out: If you try the „persistent identifier“ http://nbn-resolving.de/urn:nbn:de:gbv:7-isbn-90-6984-508-3-8 to get the report’s PDF, you get the following message by a resolver at http://resolver.sub.uni-goettingen.de/purl/?isbn-90-6984-508-3:

Unfortunately the URL could not be resolved. None of the underlying local document resolver were able to find a document with the given identifier. Maybe one of the services is down or a document with the number doesn’t exist. As your URL should contain a persistent identifier, please check again later.

I’d call this 404 2.0! Furthermore at http://www.cerl.org/news.htm one of the report’s publisher (CERL) points out to a review of the report at http://www.clir.org/pubs/issues/index.html#found – which gives you the current issue of CLIR issues (printed version’s ISSN 1098-6383 is not mentioned anywhere) instead of http://www.clir.org/pubs/issues/issues55.html#found. If you ask Google for the title you easily find the PDF. If you ask WorldCat for the ISBN 90-6984-508-3 you get a record where you have to click and search a lot to guess which link will bring you to the PDF – but it’s only the unresolvable URN again.

If people are already to dump to use existing identifier systems (URL, ISBN, ISSN) in the right way, I strongly doubt that persistent identifier systems will solve any problem.

Little more about The European Library (TEL)

24. August 2007 um 00:17 1 Kommentar

Patrick, who is enjoying the Winter in South Africa, went down well with his presentation (but I cannot find the slides?). In his blog he pointed out before IFLA that you can find more about The European Library (TEL) in Fleur Stigter’s blog. There is also a blog about the European Digital Library (EDL, very confusing) and a customized search engine for the projects. But I still have not found out what TEL and EDL are really about. To me as a library 2.0 developer one of the most interesting features of TEL is its SRU-interface which showed me that data quality needs to be the next hype. By the way TEL is hiring. If I could clone myself, I would apply here. In the context of Theseus there will surely also be some interesting jobs. Skilled library (2.0) developers where are you? Not every organization can do a hunt on you and reward 1.000$ like LibraryThing just did!

Militär-„Lego“ in Hongkong

22. August 2007 um 23:43 3 Kommentare
Military Mega Briks

Wenn man erstmal weiß wo, ist Hongkong eine Fundgrube für Spielzeug und Figuren aller Art. Als ich in einem Laden mit Lego auf diese nachgestellte Militärszene stieß, musste ich aber doch etwas stutzen. Ok, im Laden nebenan stand schon das gesamte Führerhauptquartier in Form von Actionfiguren zusammen aber Lego macht doch keinen Militärkram?! Es handelt sich hierbei höchstwahrscheinlich um Bäusätze der Firma Mega Brands deren Bausteine nicht nur
schlechten Geschmack beweisen, sondern vor allem mit Lego kompatibel sind (nach Auslauf der Lego-Patente ist dies auch anderen Firmen möglich). Neben Militaria bietet Mega Brands unter Anderem auch Pokémon (dessen verherrlichende Darstellung übrigens zumindest in der deutschsprachigen Wikipedia eher verhindert werden konnte als bei Militärthemen). Aber auch mit Lego selber können kleine Flugzeugträger, große Flugzeugträger und andere Kampfgeräte (hier und hier und hier) zusammengebaut werden. Lego Mindstorms-Selbstschussanlagen und -Minen gibt es zum Glück noch nicht.

Dann doch lieber einen netten Brickfilme anschauen, zum Beispiel Monty Python and the Holy Grail.

Wird dem Theseus-Projekt (100 Millionen) Geld für eine Begleitstudie hinterhergeworfen?

21. August 2007 um 23:48 1 Kommentar

Bis zum 15.9. läuft eine Ausschreibung des Bundesministerium für Wirtschaft und Technologie zu einer „Begleitforschung für das Forschungsprogramm THESEUS“ (ich berichtete bereits letzten Monat). Mit der Begleitforschung soll „sichergestellt werden, dass die Fördermaßnahme mit hoher Effizienz umgesetzt, die Qualität der wissenschaftlichen Arbeiten gesi­chert und das im Rahmen von THESEUS gewonnene Know-How schnell verbreitet wird“. Ich stelle hiermit meine folgende Begleitstudie dem BMWi vorab und kostenlos zur Verfügung:

Im Projekt THESEUS wurden mit Hilfe vieler Buzzwords zahlreiche Berichte, Studien und Prototypen erstellt und 100 Millionen Euro Forschungsgelder an 30 Partner aus Industrie, Wissenschaft und Forschung verteilt. Ende der Studie.

Mal im Ernst: Evaluation ist ja eine gute Idee, aber ich Frage mich, ob einem Großprojekt (bei dem jeder Teilnehmern hauptsächlich für sich möglichst viel Renommee und Geld abgreifen möchte aber am Ende für nichts in die Verantwortung genommen wird), mit solch zusätzlicher Metaforschung (bei der doch wieder die Freunde und Bekannten der Auftragnehmer im Boot sitzen) beizukommen ist. Wenn schon großspurig in der Projektbeschreibung von Web 2.0 und Web 3.0 die Rede ist, dann sollte das auch bei der Planung und Begleitung des Projektes deutlich werden. Wie wäre es statt einer aufwendigen und intransparenten Begleitstudie (die eigentlich ja auch wiederum evaluiert werden müsste) mit einigen wenigen, klaren Regeln für alle Beteiligten:

§ 1) alle im Rahmen von Theseus entwickelten Computerprogramme und Programmbibliotheken werden als Freie Software veröffentlicht und im Laufe des Projektes als Open Source zur Verfügung gestellt, so dass sie von unabhängiger Seite evaluiert, weitergenutzt und weiterentwickelt werden können.

§ 2) alle im Rahmen von Theseus erstellten Dokumente (Berichte, Anleitungen, Dokumentationen, Digitalisate etc.) werden im Laufe des Projektes als Freie Inhalte veröffentlicht, so dass sie von unabhängiger Seite evaluiert, weitergenutzt und weiterentwickelt werden können.

§ 3) die unter § 2 genannten Dokumente umfassen insbesondere auch alle im Rahmen des Theseus-Projektes anfallenden Verträge, Protokolle, Absprachen und Standards, für die zusätzlich eine zeitnahe Veröffentlichung bindent ist, so dass die innerhalb des Projektes getroffenen Entscheidungen von unabhängiger Seite kommentiert und ihre Einhaltung kontrolliert werden können sowie Geldverschwendung und Korruption durch Transparenz vermieden werden.

§ 4) bei Verstößen gegen §§ 1-3 werden den Beteiligten Projektpartern die Fördermittel gekürzt.

Zu einfach? Naiv? Undurchsetzbar? Na dann fällt bei 100 Millionen das Geld zur Augenwischerei in Form einer konsequenzlosen Begleitstudie ja auch nicht mehr ins Gewicht.

Apropos naiv: Das BMWi fordert, dass „Für die Darstellung von Ergebnissen [der Begleitstudie] […] die bestehende Internetseite http://theseus-programm.de in Absprache mit der hierfür vom THESEUS-Programm-Büro beauftragten Agentur genutzt werden [soll]“.

Abgesehen davon, dass jede qualifizierte Studie angesichts dieser Forderung zum Ergebnis kommen sollte, dass Geld für eine „Agentur“ rausgeschmissen wurde, weil die Projektpartner zu inkompetent waren, ein CMS bzw. eine gemeinsame Kommunikations- und Publikationsplattform zu nutzen, wird diese Agentur bzw. das „THESEUS-Programm-Büro“ wohl kaum relevante Kritik auf der eigenen Seite ermöglichen. Oder veröffentlicht die Chinesische Nachrichtenagentur Xinhua plötzlich auch Nachrichten über Menschenrechtsverletzungen in China?

P.S: Letzten Freitag wurde Theseus auf der Veranstaltung „Wag the long tail“ des Verbandes der deutschen Internetwirtschaft e.V Theseus „erstmals der Öffentlichkeit vorgestellt“. Die dazugehörige Pressemitteilung wurde an verschiedener Stelle (u.A. heise) rezipiert – was die viertelstündige (sic!) Vorstellung durch Stefan Wess (Geschäftsführer der Bertelsmann-Tochter Empolis) enthielt, erfährt die Öffentlichkeit aber nicht. Bei Linuxworld schreibt schreibt dazu John Blau, der anscheinend dabei war.

Bunte Bibliotheks-Tagwolke

21. August 2007 um 14:21 1 Kommentar

Auf Web4Lib haben mit der Edmont Public Library und der Elisabeth C. Miller Library zwei kleinere Bibliotheken darauf hingewiesen, dass sie die Sacherschließung ihrer Bestände als Tagcloud anbieten. Alles schön bunt und eine tolle Vorlage für ein Poster, aber so ganz erschließt sich mit der Nutzen nicht. Nicht, dass es nicht auch sinnvolle Anwendungen für Tagclouds gäbe (zum Beispiel eine Auswertung der Demokratischen Präsidentschaftskandidaten) aber mehr als einen oberflächlichen Eindruck über den Gesamtbestand bieten die Tagclouds nicht und aufgrund des unterschiedlichen Layouts ist der Vergleich (zum Beispiel mit dem LibraryThing-Bestand) schwierig.

GBV-Verbunddaten weiterverarbeiten mit SRU-Schnittstelle und Perl

20. August 2007 um 14:58 2 Kommentare

Ende Juli habe ich im Rahmen meiner Arbeit bei der VZG mit PICA::Record eine Perl-API zur Verarbeitung von PICA+-Daten veröffentlicht. PICA+ ist das interne Katalogformat von PICA-Bibliothekssystemen, die neben dem GBV und den Verbünden HeBIS und SWB auch bei der Deutschen Nationalbibliothek und für Zentralsysteme in den Niederlanden, Australien, Frankreich und England eingesetzt werden. Inzwischen ist PICA übrigens eine vollständige OCLC-Tochterfirma. Mehr zum PICA+ Format findet sich in den jeweiligen Katalogisierungsrichtlinien, zum Beispiel beim GBV und in dieser kurzen Einführung.

PICA::Record ist sozusagen ein Pendant zu Mike Rylanders CPAN-Modul MARC::Record, das bereits seit einigen Jahren bei MARC-Anwendern genutzt und in der Mailingliste perl4lib diskutiert wird. Feedback in Form von Anwendungen, Ideen, Bugreports etc. ist sehr willkommen – zum Beispiel öffentlich bei der Dokumentation im GBV-Wiki. Neben der Erzeugung von Datensätzen in PICA+, um diese in Katalogsysteme einzuspielen, eignet sich PICA::Record auch für die umgekehrte Richtung. Dazu ist ein einfacher SRU-Client implementiert; die entsprechende SRU-Schnittstelle bietet der GBV seit einiger Zeit inoffiziell und nun auch öffentlich an. Für Bibliotheks-Mashups ist die SRU-Schnittstelle ein Baustein und die Perl-API ein mögliches Bindemittel. Natürlich kann der Webservice auch mit anderen Methoden als mit Perl abgefragt werden.

Beispiele und Anleitungen gibt es unter Anderem in der API-Dokumentation, im Quelltext oder hier.

Zurück in Deutschland

17. August 2007 um 18:29 Keine Kommentare

Heute morgen sind wir wieder gut in Frankfurt angekommen – nachdem wir im größten Casino in Macao beim Roulette auf die richtige Zahl getippt haben (setz‘ auf die 23! Und die 42! … es gibt keine 42! Dann 5, die Quersumme von 23! …und es fällt… die 5!!!) sind wir auch noch mit der Business-Class nach Hause geflogen: Besseres Essen und Getränke, mehr Filmauswahl und vor allem einen riesiegen Liegesessel! Ab sofort nur noch Business 😉 Nee, wir hatten einfach das Glück, dass unser Flieger überbucht war, wir überpünktlich am Schalter waren und auf die Fragen „Do you have to travel together?“ mit „Yes“ geantwortet haben: Also haben wir ein „Upgrade“ und einen früheren Flug in einer kleineren Maschine bekommen. Alles zusammengerechnet waren die drei Wochen günstiger als erwartet: der niedrige US-Dollar macht sich auch in anderen Ländern positiv für EU-Bürger bemerkbar – also ab nach Asien und Amerika! Zurück in Deutschland können wir erstmal hunderte von Fotos sichten und uns an die heimischen Sitten zurückgewöhnen (wie ging das nochmal mit Messer und Gabel?). Schade, ich würde gerne noch mal schnell auf den Nachtmarkt 🙁

Neues aus Taiwan

7. August 2007 um 20:24 Keine Kommentare

Nachdem dem Abschluss der erfolgreichen Wikimania 2007 auf Taiwan und dem festen Entschluss, nächstes Jahr wieder dabei zu sein, haben wir den Dienstag in Tainan, der viertgrößten und ältesten Stadt Taiwans verbracht. Momentan zieht ein kleiner Taifun über die Südspitze der Insel (aktueller Verlauf und sehr schön auf den Japanischen Satellitenbildern mit Animation zu sehen). Nach Wikimedia-Konferenz und städtischer Unterhaltung (unter Anderem hat eine Chinesin mich und zwei weitere Kerle ins Plush und Room 18 mitgenommen, so dass ich jetzt von Taiwanesinnen schwärme), sowie vor allem Essen und Trinken werden wir morgen mit der Alishan-Bergbahn ins Gebirge fahren, wo es etwas kühler ist als die sonst mindestens 30°C.

Wiki-basiertes Video-Dokumentationssystem MediaVid

4. August 2007 um 23:09 Keine Kommentare

Professionelle Video-Dokumentationssysteme sind noch immer ziemlich teuer, erfordern Expertenwissen und spezielle Hardware und sind relativ unflexibel. Auf der Wikimania2007 wurde von Michael Dale mit MediaVid ein vielversprechendes Video-Dokumentationssystem vorgestellt, das webbasiert als Wiki funktioniert.

Die Erstellung und Verbreitung von Videos ist dank günstigen Equipments inzwischen nicht mehr Herrschaftswissen sondern steht prinzipiell jedem offen. Zur Popularität haben nicht zuletzt Web 2.0-Dienste wie YouTube & Co. beigetragen. Im Gegensatz zu diesen unterstützt die kommende Version von Metavid allerdings die Segmentierung von Videos und die Annotierung mit Metadaten – und das alles vollständig auf Basis von Open Source (MediaVid basierend auf MediaWiki mit der Semantic MediaWiki Extension).

Statt also für im Web darstellbare Videos nur einige freien Schlagwörter (Tags) zu vergeben, können Videos in einzelne Szenen zerlegt werden, zu denen beliebige Daten wie dargestellte Personen, Orte, Themen, Texte etc. in frei definierbaren Feldern verwaltet und durchsucht werden können.

Als Beispielanwendungen hat das Team von MediaVid Mitschnitte des amerikanischen Senats annotiert, wie sie C-SPAN gegen teures Geld anbietet. Auf diese Weise können beispielweise alle Erwähnungen von „drugs and medicines“ in Reden von Senatoren, die Spenden von Pharmaunternehmen erhalten haben, per RSS abonniert werden.

Die auf der Wikimania vorgestellte Version von MediaVid soll in etwa 1-2 Monaten veröffentlicht werden. Das sollten sich Videoaktivisten-Gruppen aber auch professionelle Mediendokumentare, wie zum Beispiel die Dokumentationsabteilung des Bundestages mal ansehen. Einen ersten Eindruck geben die Vortragsfolien und dieser Screencast (der allerdings noch nicht alle Wiki-Funktionen enthält). Weitere Informationen gibt es im MediaVid Wiki.