Mathematische Weblogs, vom Fachreferenten erklärt
20. April 2008 um 13:24 1 KommentarHeft 1, Band 16 (2008) der Mitteilungen der DMV (Deutsche Mathematikervereinigung), die schon durch den regelmäßigen Jamiri-Comic positiv auffällt, enthält auf Seite 8-10 den Artikel „Weblogs – ein neues Medium für die Mathematik?“ von Katharina Habermann, Fachreferentin für Mathematik und Informatik an der SUB Göttingen. Eine Sammlung interessanter Matheblogs stellt sie bei del.icio.us zusammen und ihr Weblog ist auch sehr interessant (nur anscheinend leider nicht ausreichend in das offizielle Angebot der SUB und in die Virtuelle Fachbibliothek Mathematik eingebunden?). Wem als Fachreferent noch immer nicht ganz klar ist, was der ganze Web 2.0-Krempel soll und was Weblogs, Social Bookmarking & Co mit ihrer eigenen Arbeit zu tun haben, sollte sich den Artikel, Linksammlung und Weblogs mal ansehen – sicherlich lässt sich das auch auf andere Fächer übertragen.
Dynamische Kataloganreicherung mit Webservices
16. April 2008 um 17:36 3 KommentareDie Folien des Vortrags „Dynamische Kataloganreicherung mit Webservices“ am 15.4.2008 Berliner Bibliothekswissenschaftlichem Kolloquium (BBK) sind jetzt online bei Slideshare. In der aktuellen letzten iX (04/2008) gibt es einen Artikel zu Webschnittstellen, die dort erwähnten Sechs Wahrheiten über Freie APIs hätte ich auch noch aufnehmen sollen (auf die Nachteile von Webservices bin ich im Vortrag nicht eingegangen).
Eine Gute Übersicht von Webanwendungen, Widgets und Plugins, die Bibliotheken ihren Nutzern anbieten können, bietet die University of Texas Libraries, Austin. Vom Facebook-Widget bis zum Hinweis auf Zotero ist alles dabei und übersichtlich erklärt. Neue Widgets können direkt empfohlen werden und werden im Blog vorgestellt. Die Bibliothek ist unter Anderem auch Google Book Search-Partner und veröffentlicht Videos bei YouTube.
P.S: Und wo ich so sehr die Wichtigkeit von Standards betont habe: so sollte ein Standard nicht aussehen. Wie bei anderen Themen (Wikipedia-Artikeln, Kongress-veranstaltern etc.) reicht es nicht aus, auf den Namen des Herausgebers zu schauen, um Qualität von Müll unterscheiden zu können – ISO-„Standards“ sind beispielsweise nicht nur nicht frei zugänglich (und damit schon mal zweifelhaft) sondern in einigen Fällen eher das Gegenteil eines Standarts.
Web und Desktop wachsen zusammen
16. April 2008 um 14:25 4 KommentareBeim Zusammenlegen der Wikipedia-Artikel „Applet“, „Web-Widget“ und „Desktop-Widget“ zu einem Artikel „Widget“ (ggf. auch „Gadget“ oder „Plugin“, das Grundprinzip ist das Gleiche) ist mir aufgefallen, dass tatsächlich einiges dran an diesen kleinen Programmen, die sich in Windows Sidebar, Apple Dashboard, KDE Plasma, iGoogle, Facebook, Netvibes … oder eigene Webseiten einbinden lassen. Es handelt sich hierbei nicht nur um einen Hype, sondern um eine grundlegende Entwicklung, bei der Web und Desktop zusammenwachsen. Im Zuge der Webanwendungen ist schon länger die Rede davon, dass das Internet wird zum Betriebssystem wird – bisher sah ich das eher skeptisch, aber wenn man die Entwicklung etwas größer betrachtet, wird deutlich, dass da schon etwas Grundlegendes in Bewegung ist. Auf der einen Seite kommt der Desktop zu den Anwendungen ins Web (beispielsweise Google Docs oder die WordPress-Installation in der ich grade tippe) und auf der anderen Seite kommt das Web in Form von Anwendungen auf den Desktop. Da die Hersteller von Mobilgeräten hinsichtlich offener Schnittstellen noch rumzicken, bringt Google mit Android gleich ein eigenes (übrigens Linux-basiertes) Betriebssystem – die restlichen Anwender können Google Desktop als Widget-Plattform verwenden. Weitere Hinweise dieser Entwicklung sind die W3C Web Application Formats Working Group und ihr Entwurf zur Widgets 1.0 recommendation sowie Mozilla Prism, womit Webanwendungen auf den Desktop gebracht werden sollen. Welche Techniken und Systeme sich letzendlich durchsetzen werden, dürfte noch etwas offen bleiben. Um sich auf den grundsätzlichen Wandel vorzubereiten, bieten Widgets jedoch schon heute eine gute Möglichkeit – sollte man sich mal ansehen.
Bibliothekartag 2008 = 0.5?
14. April 2008 um 18:10 11 KommentareEin weiteres Beispiel dafür, dass Bibliotheken eigenen technischen Sachverstand benötigen anstatt outzusourcen bietet die Webseite des Bibliothekartags 2008 in Mannheim. Sieht schön aus, ist aber Murx. Statt wesentlicher Informationen in zeitgemäßer Form gibt es Grußworte und einen Offenen Brief an die bibliothekarische Fachöffentlichkeit – als JPG!? Nicht das Tagungsweblog wird eingebunden, sondern ein totes „Forum„. Die Programmübersicht, eigentlich ja der Kern einer solchen Webseite, ist aufgrund von CSS-Spielereien völlig unbrauchbar (der Auslöser dieses Rants). Einfache Tabelle? Thematische Übersicht? Liste der Referenten? Verlinkte Raumpläne? Alles Fehlanzeige. Dass für die Stadtpläne nicht einfach Google-Maps verwendet wurde ist da noch zu vernachlässigen und Ortsangaben wie „Treffpunkt: Foyer der UB, Plöck 107-109, 69117 Heidelberg (Bitte geben Sie als Suchwort ‚Plöck 109‘ ein)“ haben wenigstens Seltenheitswert 😉
Ich finde es äußerst problematisch, wie sich Bibliotheken unnötig in Abhängigkeit von Firmen begeben (hier diese Firmen) und dabei ihrer eigenen Handlungsspielräume und Fähigkeiten einschränken. „Mal schnell“ etwas an der Webseite oder am OPAC ändern geht nicht dann nicht mehr so einfach und/oder kostet zusätzlich Geld. Dem Hinweis zur Entwicklung eigener Kompetenzen von Anne Christensen im Beluga-Projekt kann ich mich nur anschließen. Mir geht der zwar Web-2.0-Leierkasten inzwischen auf den Geist (und ich werde freiwillig keine „Was ist und was soll XY 2.0“-Vorträge mehr halten), aber anscheinend ist es noch immer nicht angekommen, das im Web nur überlebt, wer sich selber mit den zahlreichen Diensten und Angeboten vertraut macht und sie selber ausprobiert. Für Konferenzen fallen mir neben Google Maps spontan Venteria und Mixxt ein und eine Programmübersicht kann so ausschauen. Schön wäre es auch, wenn die einzelnen Veranstaltungen mit Microformats erschlossen sind, jeweils eine eigene URL bekommen und aktiv zum Tagging angeboten werden, so dass sich jeder Besucher mit einem beliebigen Tagging-Dienst und/oder Kalenderprogramm einfach einen Plan zusammenstellen kann. Auch die Einbindung von Feeds zur Veranstaltung wäre nett – wenn sich Bibliotheken nicht mit Sacherschließung, Verschlagwortung und Metadaten auskennen, mit was dann?! Die UB Mannheim zeigt mit ihrem Blog, dem (versteckten) Konferenzblog und Überlegungen zu Tagging zumindest, dass es auch anders geht. Die Pläne zum kritiklosen Einsatz von Primo überzeugen dafür weniger – wurden Alternativen wie Encore, VuFind, OpenBib etc. überhaupt ernsthaft in Betracht gezogen?
Als Tags für Beiträge zum Bibliothekartag schlage ich „bibliothekartag2008“ (genutzt hier, kein Tag bei netbib) und „#bibtag08“ vor – sowas sollte eigentlich auch auf der Webseite zur Veranstaltung vorgegeben und erklärt werden, sonst werden die Tags gar nicht erst verwendet, vergessen oder uneinheitlich benutzt – wie teilweise passiert zur Inetbib 2008: dort wurde mal getaggt mit Leerzeichen, mal ohne und mal ganz ohne Tag. Naja, Googles Volltextsuche wird es schon richten – aber dafür brauchen wir dann auch keine Bibliothekare mehr.
P.S: Beim Versuch mich anzumelden, gab das Registrierungssystem „>sogleich eine Fehlermeldung von sich, als ich meine Telefonnummer korrigieren wollte. Kein Wunder wenn das m:con Congress Center Rosengarten VisualBasic unter IIS verwendet 😉
Working group on digital library APIs and possible outcomes
13. April 2008 um 14:48 3 KommentareLast year the Digital Library Federation (DLF) formed the „ILS Discovery Interface Task Force„, a working group on APIs for digital libraries. See their agenda and the current draft recommendation (February, 15th) for details [via Panlibus]. I’d like to shortly comment on the essential functions they agreed on at a meeting with major library system (ILS) vendors. Peter Murray summarized the functions as „automated interfaces for offloading records from the ILS, a mechanism for determining the availability of an item, and a scheme for creating persistent links to records.“
On the one hand I welcome if vendors try to agree on (open) standards and service oriented architecture. On the other hand the working group is yet another top-down effort to discuss things that just have to be implemented based on existing Internet standards.
1. Harvesting: In the library world this is mainly done via OAI-PMH. I’d also consider RSS and Atom. To fetch single records, there is unAPI – which the DLF group does not mention. There is no need for any other harvesting API – missing features (if any) should be integrated into extensions and/or next versions of OAI-PMH and ATOM instead of inventing something new. P.S: Google Wave shows what to expect in the next years.
2. Search: There is still good old overblown Z39.50. The near future is (slightly overblown) SRU/SRW and (simple) OpenSearch. There is no need for discussion but for open implementations of SRU (I am still waiting for a full client implementation in Perl). I suppose that next generation search interfaces will be based on SPARQL or other RDF-stuff.
2. Availability: The announcement says: „This functionality will be implemented through a simple REST interface to be specified by the ILS-DI task group“. Yes, there is definitely a need (in december I wrote about such an API in German). However the main point is not the API but to define what „availability“ means. Please focus on this. P.S: DAIA is now available.
3. Linking: For „Linking in a stable manner to any item in an OPAC in a way that allows services to be invoked on it“ (announcement) there is no need to create new APIs. Add and propagate clean URIs for your items and point to your APIs via autodiscovery (HTML link element). That’s all. Really. To query and distribute general links for a given identifier, I created the SeeAlso API which is used more and more in our libraries.
Furthermore the draft contains a section on „Patron functionality“ which is going to be based on NCIP and SIP2. Both are dead ends in my point of view. You should better look at projects outside the library world and try to define schemas/ontologies for patrons and patron data (hint: patrons are also called „customer“ and „user“). Again: the API itself is not underdefined – it’s the data which we need to agree on.
Ein Jahr Jakoblog
13. April 2008 um 12:43 7 KommentareSeit einem Jahr gibt es nun dieses Weblog. Das sind: 212 213 Beiträge in 365 366 Tagen, 351 Kommentare (davon etwa ein Drittel eigene und knapp die Hälfte Trackback/Pingback). Die Beiträge sind im Mittel zwei Kilobyte lang, die Verteilung sieht lognormal aus (Powerlaw). Der Zugriffsstatistik mit StatPress nach zu urteilen gibt es zur Zeit fast 150 Besucher pro Tag und zwischen 400 und 500 Seitenaufrufe (ohne Crawler etc.). Die meisten Besucher kommen per Google auf einige Artikel, die bei entsprechenden Suchanfragen hoch gerankt werden – populär sind vor allem MBTI (im Moment Google Platz 12) und ASIN (Platz 7). Besonders erfreut es, dass ich anscheinend beim Googeln nach Jakob knapp vor Jakob Maria Mierscheid lande, der immerhin zu den kompetentesten Abgeordneten des Bundestags gehört!
Eine inhaltliche Rückschau der 213 Beiträge gibt es vielleicht ein andermal. Die am Häufigsten vergebenen Tags („Bibliothek“: 69, „Wikipedia“: 29, „Web 2.0“: 23) drücken es eigentlich schon aus, danach folgen „Tagging“ und „Semantic Web“ sowie „Politik“ und „Freie Inhalte“. Für das kommende Jahr habe ich mir vorgenommen, weniger im Blog und dafür mehr an der Dissertation zu schreiben. 😉
Wie leicht lässt sich die TV-Realität beeinflussen?
12. April 2008 um 00:51 4 KommentareTeilnehmer der Gruppe Hedonistische Internationale (HI) haben dem (eigentlich ganz netten) TV-Magazin Polylux einen Beitrag über einen angeblichen Speed-Konsumenten untergejubelt. In einer Presseerklärung kritisiert die HI:
Erschreckend, wie einfach es ist, selbst gewählte Inhalte in Massenmedien zu platzieren und so gesellschaftliche Wirklichkeit werden zu lassen. […] Zentrale Bereiche des Journalismus werden an unterbezahlte Praktikanten ausgelagert, denen es aufgrund prekärer Arbeitsverhältnisse und des daraus resultierenden Drucks schwer möglich ist, ausreichend Zeit und Ressourcen in ihre Arbeit zu investieren.
Eine Richtigstellung habe ich auf der Seite von Polylux/Polylog bisher nicht finden können (P.S: ah, hier wird der Schwarze Peter weitergeschoben, P.P.S: und inzwischen offen diskutiert), stattdessen haben sie das Video einfach entfernt und die Kopie bei YouTube löschen lassen. Schade, dass die Redakteure nicht die Courage haben, den Fehler einzugestehen und die Leser für so unmündig halten, dass sie sich nicht selber ein Bild machen können. Stattdessen bestreitet der Sprecher des RBB im Intellektuellen-Boulevard die Probleme:
Den Vorwurf, Fernsehredaktionen würden schlecht recherchieren, wies Kotsch von sich. Man müsse sich trotzdem in Zukunft darüber Gedanken machen, wie ein weiterer Vorfall dieser Art verhindert werden könne. Personelle Konsequenzen würde der Sender allerdings nicht ziehen; genügend Personal, um gründlich zu recherchieren, gebe es auch.
Passender wäre ein Hinweis auf Michael Born, an den Günter Jauch wohl eher ungern erinnert wird. Die Darstellung von Thomas Pritzl in seinem Buch „Der Fake-Faktor. Spurensuche im größten Betrugsfall des deutschen Fernsehens“ (kopäd, 2006, ISBN 3-938028-69-6) ist sicherlich aufschlussreicher als die berechtigte aber kurze Kritik der Hedonistischen Internationalen. Obgleich ich eine klammheimliche Freude an der Aktion nicht verhehlen kann, frage ich mich jedoch ein wenig, was das ganze Spaß soll – vor allem nachdem ich mir selber ein Bild machen konnte (dank Google Video). Die gefakten Speed-Konsumenten sind übertrieben, aber Hans-Christian Dany, der im Beitrag als Experte vorkommt, kennt sich schon aus. Sein Buch Speed. Eine Gesellschaft auf Droge vermittelt ein besseres Bild als jeder TV-Beitrag und wenn nicht das Sach- und Personenregister fehlen würde, könnte ich es als unterhaltsames Standardwerke empfehlen (unterhaltsam ist es trotzdem).
Was mich an der Aktion etwas stört: Wenn die Massenmedien so einfach zu „unterwandern“ sind, sollte dort statt irrelevanter Späße besser Aufklärung eingebracht werden. Die Themenliste der Initiative Nachrichtenaufklärung ist leider etwas eingeschlafen. Sehr zu empfehlen zu „Konstruktion von Realität mittels Medien“ ist übrigens der Vortrag Die Wahrheit und was wirklich passierte vom 24C3 (Video über Torrent oder hier). Das Bekennervideo der Hedonistischen Internationalen ist darüber hinaus ein durchaus lustiges Stück (Real?)satire.
Siehe auch die Beiträge zum Fake bei Tanith, bei Netzpolitik und etwas anderes zum Thema Gehirn-Doping bei Nature [via Koehntop].
Suchmaschinen-Vorträge auf der Inetbib 2008
11. April 2008 um 12:35 3 KommentareDas Panel zu Suchmaschinen auf der Inetbib 2008 war erfreulicherweise durchweg mit Experten besetzt: Der Vortrag von Stefan Keuchel (Pressesprecher von Google Deutschland) bestand ausschließlich aus einer werbenden Darstellung der populärsten Google-Produkte. Muß man alles mal gesehen haben, aber dann reicht es auch (s.a. Netbib-Weblog). Ebenfalls hauptsächlich um Google ging es im Vortrag über Prof. Hendrik Speck (FH Kaiserslautern) über die „Entwicklung des Suchmaschinenmarktes“. Die interessanten Vortragsfolien stehen unter CC-BY-SA zur Verfügung – der Link führt allerdings zur Zeit ins 404 – (s.a. Netbib-Weblog). Der Vortrag von Prof. Mario Fischer (FH Würzburg-Schweinfurt) über Suchmaschinen-Optimierung war sehr unterhaltsam, obgleich er hauptsächlich Binsenweisheiten enthielt (Webseite für die Crawler einfach zugänglich machen, relevante Suchworte verwenden, etc.). Interessant wäre mal ein ähnlicher Vortrag zur „OPAC-Optimierung“. Ob die Teilnehmer über die Beispiele vermurkster Kataloge, in denen Nutzer nicht das finden, was sie suchen, ebenfalls so lachen würden wie in Fischers Vortrag über Webseiten und Suchmaschinen?
Inetbib 2008, first German „2.0“ library conference
10. April 2008 um 16:06 2 KommentareParticipating at the Inetbib 2008 conference in Würzburg I am pleased to see that web 2.0 usage among German librarians finally has reached the critical mass. I’d guess that we are more or less 18 month behind the situation of the vital US „library 2.0“ scene. With Inetbib 2008 we finally have a larger general library conference with open wifi and participants blogging (technorati, google blogsearch), twittering, flickring and social-networking the event (or just reading email if the speaker bores ;-). I hope that soon no more library colleauge will think that „all this internet services“ are a waste of time but usefull tools to better recognize developements, ideas, and events – even outside the German biblio-blogosphere (for instance here). The next event will be BibCamp, a Library 2.0 BarCamp at March May 16th/17th in in Potsdam and Berlin.
Der Subito-Rahmenvertrag ist Murx
9. April 2008 um 15:58 8 KommentareDer bisherige Höhepunkt der INETBIB 2008 war – obgleich ich nur mit halbem Ohr mitgehört habe – der Vortrag „Spinn ich oder die anderen?“ – Das Gute am neuen Urheberrecht und das Häßliche am neuen Subito-Rahmenvertrag von Dr. Harald Müller (Bibliothek des Max-Planck-Instituts für ausländisches öffentliches Recht und Völkerrecht). Dabei zerpflückt er den Subito-Rahmenvertrag als – in meinen Worten – überflüssigen, fehlerhaften und schädlichen Murx (Herr Graf kann bei Bedarf sicher drastischere Worte liefern).
Ich komme mir bei guten Vorträgen von Juristen immer vor wie jemand, der sich ohne technischen Sachverstand einen technischen Vortrag anhört. Vielleicht ist das Verhältnis zwischen Bibliotheken und Jura ähnlich dem Verhältnis zwischen Bibliotheken und Technik: es mangelnd an Fachkompetenz. Den anschließenden Kommentaren und Fragen nach zu Urteilen ist ist ein Grund für den vermurxten Subito-Vertrag, dass Bibliotheken Angst haben und vor lieber irgendeine „Rechtssicherheit“ wollen, anstatt eine eigene Rechtsposition zu vertreten – und diese auch zu verteidigen. Aber auch beim Urhheberrecht gilt: Freiheit stirbt mit Sicherheit.
Neueste Kommentare