Wikipedia-Artikel falsch in WorldCat
14. März 2008 um 01:35 2 KommentareOk, WorldCat ist schon eine feine Sache und momentan auf jeden Fall besser als alles in Google Buch-Suche zu packen (was auch eine Möglichkeit wäre) – aber ganz so einfach wie OCLC sich das vorstellt, ist der Betrieb eines Verbundkataloges doch nicht. Mathias hat mich gerade darauf aufmerksam gemacht, dass dort einige hundert falsch katalogisierte Wikipedia-Artikel eingetragen sind. Sicherlich gibt es Anwendungsfälle, in denen die Aufnahme von Wikipedia-Artikeln in einen Bibliothekskatalog sinnvoll ist und sicherlich gibt es richtige Arten, Wikipedia-Artikel zu katalogisieren. Die Einträge bei WorldCat sind keins von beidem – man beachte allein die falsche Herausgeberangabe! Die Möglichkeit, einzelne Versionen von Wikipedia-Artikeln zu zitieren ist sowieso anscheinend völlig unbekannt. Übrigens nehmen auch einige Repositories Wikipedia-Artikel auf, bei OAISter sind mir vor einiger Zeit einige Datensätze untergekommen.
Freie Katalogdaten und Erschließungsmittel
12. März 2008 um 23:57 1 KommentarDie Open Knowledge Foundation setzt sich für freie Daten ein, also Daten die wie Freie Inhalte oder Freie Software ohne Beschränkung weiterverarbeitet, verändert und weiterverbreitet werden dürfen. Letzten Herbst hat sie dazu einen Guide to Open Data Licensing erstellt. Damals wurde der Entwurf einer Lizenz für Freie Daten von Talis und Creative Commons diskutiert – die Hintergründe gibt es unter Anderem bei Talis beschrieben und eine kurze Zusammenfassung bei Peter Suber.
Auf dem jährlichen Treffen der Open Knowledge Foundation am Samstag (15.3.2008) in London soll nun soweit ich es verstanden habe, im Rahmen von Open Data Commons die „Open Data Commons Public Domain Dedication and Licence“ (PDDL) verabschiedet werden. Ein Beispiel für Daten, die mit dieser Lizenz explizit als Public Domain oder Freie Daten gekennzeichnet werden sollten sind bibliografische Katalogdaten.
Letzte Woche gab es im OKF-Blog einen Artikel über Freie Katalogdaten – bisher sieht es trotz öffentlicher Förderung von Bibliotheken schlecht aus – nirgendwo kann explizit der gesamte Katalog heruntergeladen werden. Vielleicht hilft ja das Informationsfreiheitsgesetz – eine öffentliche Einrichtung, die Bücher verwaltet, sollte wenigstens einen vollständigen Bestandskatalog zur Verfügung stellen. Wirklich freie Bibliothekskataloge gibt es also bislang leider nicht.
Neben bibliografischen Daten nehmen die Erschließungsmittel eine zunehmende Rolle ein. Hier entstehen zur Zeit offene Alternativen und Bibliotheken sollten sich fragen, welche Rolle ihre Normdaten, Klassifikationen und Schlagwortsysteme in Zukunft noch haben werden, wenn sie nur eingeschränkt nutzbar sind. Ein Beispiel für ein nicht nutzbares Erschließungssystem nennt Anthony Williams der von Peter kommentiert wird: Die American Chemical Society (ACS) verbietet es, die CAS-Nummern weiterzuverbreiten, mit denen Chemische Verbindungen identifiziert werden. Wenn die ACS mit ihrer Meinung Recht hat, können in Wikipedia-Artikeln über Chemikalien keine CAS-Nummern aufgenommen werden – obwohl sich darüber viele weitere Informationen finden ließen, schließlich sind CAS-Nummern sowas wie „Telefonnummern der Chemischen Welt„.
Tja, anscheinend ist an verschiedenen Stellen noch einiges an Aufklärungsarbeit zu leisten.
Bibliotheken in LibraryThing mit LibraryThing Local
12. März 2008 um 16:38 Keine KommentareLibraryThing ist vor allem für Öffentliche Bibliotheken wunderbar geeignet – ich hoffe, dass bald mal eine größere Stadtbücherei einsteigt, bislang ist ja Nordenham einsamer Vorreiter. Bisher hat noch niemand die Einbindung in den OPAC mit LibraryThing for Libraries umgesetzt. Schade, dass AbeBooks (zu 40% Anteilseigner an LibraryThing) laut Ausstellerverzeichnis nicht auf der Leipziger Buchmesse ist – ein direkter Ansprechpartner würden deutschen Bibliotheken sicher helfen.
Das neueste Feature (und Anlass dieses Beitrags) ist „LibraryThing Local“: dort lassen sich nette kleine Buchhandlungen, Bibliotheken, literarische Veranstaltungen und sonstige Orte mit Bezug zu Büchern und Lesen eintragen [via netbib]. Aus Berlin hat die Möglichkeit zum Beispiel Marius entdeckt, der darauf hinweist, dass in der Stadtteilbibliothek Berlin-Buch eine Lesung stattfindet. Jetzt müssten diese Daten noch irgendwie mit anderen Veranstaltungsdiensten wie wevent Venteria verknüpft werden.
Die ungeheure Kraft der Communities und warum ich LibraryThing für Bibliotheken ebenso relevant halte wie Wikipedia zeigt vielleicht folgende Aussage aus dem LibraryThing-Weblog:
This morning, three days after its official launch, LibraryThing Local passed 9,000 venues. (UPDATE: 10,000 13,000 15,000 16,000.)
In this time some 700 members have entered more libraries, bookstores, fairs and other venues than our closest competitor in this space assembled in ten months of work, drawing mostly on chain bookstores and publicists.
Freies Linux-Handy Neo 1973 mit OpenMoko
12. März 2008 um 12:13 4 KommentareAngesichts der Verzögerung beim ersten freien Handys „Neo 1973“ von OpenMoko (siehe OpenMoko-Wiki und Fotos) hatte ich die Hoffnung auf ein Linux-Handy schon aufgegeben und war kurz davor, mir ein normalen Mobiltelefon zu kaufen. Seit Wochen bin ich deshalb auf der Suche nach einem einfachen Handy, dass auch als MP3-Player verwendet werden kann (gerne auch Videos) und über einen Standard-Klinkenstecker für Audio (!) und einen (micro-)USB Anschluss zum Aufladen (!) verfügt. Der Speicher für MP3s, Videos und beliebige andere Dateien soll ohne irgendwelche Spezialsoftware per USB zugänglich sein, so dass sich dass Handy mit einem stinknormalen USB-Kabel auch als USB-Stick verwenden lässt. Außerdem sollte wenigstens das Adressbuch unter Linux synchronisierbar sein. Anscheinend ist das zuviel verlangt, denn proprietäre Spezialkabel, Aufladegeräte und Synchronisierungssoftware sind der Normalfall. Wie ignorant die Hersteller in diesem Punkt sind, zeigt die Recherchemöglichkeit nach praktisch allen Eigenschaften der Geräte – außer den von mir geforderten! Ich verlange ja nicht, dass alles Open Source sein muss, aber offene Standards sollten schon sein.
Gestern hat OpenMoko die CAD-Baupläne des Neo 1973 unter der CC BY-SA Lizenz freigegeben – neben der Software ist also auch das Gehäusedesign frei veränderbar. Die für den Massenmarkt geplante, überarbeitete „Neo FreeRunner“ soll noch im „Frühjahr Frühsommer 2008″ verfügbar sein – ich schätze mal, dass heisst dann frühestens im August.
Von der Öko-FDP und warum die Rente sicher ist
10. März 2008 um 03:01 1 KommentarNachdem sich die Grauen Panther auflösen, ist eigentlich als nächstes die Partei der Besserverdienenden an der Reihe. Gegen die Hälfte der eigenen Wählerschaft wird wegen Steuerhinterziehung ermittelt und es gibt inzwischen genügend andere Kleinparteien (Grüne, Linke, SPD). Vielleicht kommt ohne FDP auch mal wieder jemand auf die Idee, dass Liberalismus etwas mit Bürgerrechten zu tun hat anstatt mit dem neoliberalen Rückbaus der Sozialsysteme. Nun fürchten sich die Grünen aufgrund der Schwarz-Grünen Koalition in Hamburg als „Öko-FDP“ erkannt zu werden – dabei reicht dafür doch ein Blick in ihr Parteiprogramm und die Sozialpolitik der rot-grünen Koalition, die sich treffend mit „Hartz IV“ zusammenfassen lässt. Selbst für die Gleichstellung von Mann und Frau hat die CDU mit der Elternzeit (das Einstellungshindernis „Schwangerschaftsrisiko“ gilt jetzt auch für Männer) mehr getan als die Grünen in ihrer gesamten Regierungszeit. Engültig überzeugt, dass die Grünen die neue FDP sind, hat mich die Entdeckung ihrer Position zur Altersvorsorge. Eine Suche auf der Seite der Partei mit der angeknabberten Sonnenblume zum Thema „Rente“ liefert wenig mehr als das Wahlprogramm für die Legislatur 2005-2009, wo es auf Seite 39f. heißt:
Der demografische Wandel verlangt auch einen weiteren Umbau der Rentensysteme. Weniger erwerbstätige Menschen müssen mehr Nichterwerbstätige mitfinanzieren. […] Die gesetzliche Rente wird sich stärker zu einer Basisabsicherung entwickeln. Deshalb werden wir ergänzende private Vorsorge in unterschiedlichen Formen weiter fördern.
Damit plappern die Grünen nach, was von Lobbyorganisationen der Versicherungswirtschaft wie dem Deutschen Institut für Altersvorsorge seit Jahren zur Demontage des Rentensystems wiederholt wird. Während seit Beginn der Industrialisierung dank steigender Produktivität mit immer weniger Arbeit immer mehr Menschen versorgt werden können, soll damit plötzlich Schluss sein. Also wird erstmal der Generationenvertrag gekündigt.
Da die Rente nun nicht mehr ausreicht wird kurz ebenso scheinheilig wie medienwirksam bedauert, dass die staatliche Rente nicht mehr ausreicht und schwupps einen bunten Strauß von privaten Zusatzversicherungen aus dem Zauberhut geholt – haben Rürup, Riester und all die anderen Lobbyisten der Versicherungsbranche schon mal vorbereitet. Die Bürger (bzw. die es sich leisten können!) nehmen das gerne an und merken dank medialer Verblödung nicht, dass sie damit lediglich vorsorgen für die Beteiligten in den Finanzinstituten und „unabhängigen“ Instituten von denen mit Werbekampagnen und Gutachten die Vorteile privater Altersvorsorge gepriesen werden.
Dass auch Privatvorsorge Geld kostet und die Rentenversicherung unterm Strich teurer macht, ist wohl zu simpel. Statt nach dem Solidarprinzip das Geld den Alten zu geben, damit man später ebenso von den dann Jungen versorgt wird, gibt der Michel sein Geld lieber einem Versicherungskonzern. Der gibt es an einen Hedgefont weiter – und plötzlich werden Arbeitsplätze gestrichen oder das Eigenheim zwangsversteigert – na sowas. Die private Altersvorsorge ist dann gleich mit futsch, denn anders als bei der staatlichen Rente wird bei Arbeitslosigkeit nicht weiter eingezahlt sondern es muss unter Verlusten der Vertrag gekündigt werden.
Kein Wunder, dass sich die Partei der Demagogen und Allesversprecher etabliert. Im Gegensatz zu andere(n/m) vertreten die Linken beim Thema Rente ganz vernünftige Positionen.
Zum Abschluss noch was Aufheiterndes: Was ist der Unterschied zwischen einer Wahl in einem autoritären Regimen und einer Wahl bei uns? In einem autoritären Regime gibt es genau eine richtige Stelle, um sein Kreuz zu machen – bei uns gar keine.
Diagramme aus R mit OpenOffice weiterverarbeiten
27. Februar 2008 um 18:16 3 KommentareMeine Einstellung zu der Statistik-Software R lässt sich am ehensten als Hassliebe bezeichnen. Einerseits kann man mit R alles machen, was auch nur irgendwie mit Statistik und aus Datenreihen zu tun hat. Alle Funktionen sind frei programmierbar, so dass sich Datananalyse schön automatisieren lässt – zum Beispiel mit Rpad. Andererseits ist die Lernkurve von R wirklich nicht flach und die Bedienung, naja… Kommandozeile halt. Vereinfacht ausgedrückt verhält sich R in etwa zu Excel wie LaTeX zu Word. Allein schon der bekloppte Name, wie soll man denn danach Googeln? Als hilfreich kann ich die R Reference Card von Tom Short empfehlen, weitere Tips gibt es im R Wiki.
Nach viel zu viel Herumprobieren, habe ich herausgefunden, dass sich Diagramme aus R nach OpenOffice exportieren lassen – ohne etwas Feinschliff in Handarbeit sehen automatisch erzeugte Diagramm nämlich meist doch recht mäßig aus. Und das geht so:
- Diagram wie gewohnt in R erstellen (plot etc.). Die Größe des Grafikfensters lässt sich mit der Maus anpassen.
- Mit dev.copy(xfig,encoding='latin1',width=par()$din[1],height=par()$din[2]); dev.off() wird die aktuelle Grafikausgabe gespeichert im XFig-Format. Mit dem Parameter family kann zusätzlich eine Schriftart ausgewählt werden (siehe ?xfig).
- Mit dem Programm fig2sxd von Alexander Bürger (vielen Dank!) wird die .fig-Datei nach OpenOffice Draw konvertiert. Ich muss bisher die Datei vorher jedesmal kurz mit XFig öffnen und speichern, vielleicht lässt sich das noch vereinfachen.
- In OpenOffice Draw können nun Änderungen und Ergänzungen am Diagram vorgenommen werden. Irgendwie komme ich bisher nicht an die Texte ran, aber das finde ich hoffentlich auch noch raus.
Natürlich kann man auch mit XFig arbeiten, was von der Usability aber recht dürftig ist. Am liebsten wäre mir, wenn R gleich SVG exportieren würde, dann könnte man mit Incscape rangehen, vielleicht kommt das ja noch – ist schließlich alles OpenSource, da kann und/oder muss man fehlende Funktionen im Zweifelsfall eben selber dazu stricken.
Was ist Semantisches Tagging?
26. Februar 2008 um 14:19 11 KommentareIn Anschluß an den sehr fruchtbaren Workshop Social Tagging in der Wissensorganisation (Program und weitere Berichte von Mandy Schiefner, bei Joachim Wedekind und Johannes Moskaliuk) schreibe ich grade an einem Artikel über „Semantic Tagging“. Im Zusammenhang mit Social Tagging wurde das Thema Semantic Web zwar immer wieder genannt und die Beiträge dazu im letzten Panel waren alle interessant; wie den nun konkret beide Welten zusammenkommen sollen, blieb aber abgesehen vom Vortrag von Rolf Sint und Georg Güntner von Salzburg Research) über das Terminologie-Modul im Projekt LIVE etwas vage – vielleicht liegt das auch an meiner Technik-zentrierten Sicht, auf Implementierungen und Spezifikationen.
So wie ich das LIVE-Projekt verstanden habe, sollen bei der Olympiade 2008 sportliche Ereignisse „live“ verschlagwortet werden, wobei freie Tags zeitnah mit Hilfe eines Thesaurus-Editors in die „Ontologie“ eingearbeitet werden; das ganze basiert auf SKOS und ist damit weitgehend Semantic-Web-kompatibel – und ein Beispiel für Semantic Tagging. Mit Social Tagging hat das Projekt allerdings nur noch wenig zu tun. Falls sich dennoch normale Nutzer am Tagging der PR-Olympiade beteiligen dürfen, hier mal ein Vorschlag für die Tag-Cloud:
Aber zurück zum Semantischen Tagging: Die Bezeichnung ist eigentlich schon aus der Linguistik besetzt; dort wird unter Semantic Tagging die Erkennung und Auszeichnung von Namen und syntaktischen Strukturen in einem Text verstanden. Ein sehr einfaches Beispiel aus dem Web sind semantische HTML-Tags wie em, strong und cite; eine andere Form semantischen Taggings im Web, die eher in Richtung Auszeichnung von Daten geht, sind Mikroformate. Von dort lässt sich zwar wieder der Bogen zum Semantic Web spannen, aber eigentlich ist semantisches Tagging im Linguistischen Sinne etwas anderes: Gegeben ist ein Text, in dem einzelnen Bestandteile wie Subjekt, Objekt, Nebensatz, Personennamen etc. als solche markiert werden. Beim Social Tagging werden dagegen freie Tags an einen gesamten Text (oder ein anderes Objekt) angehängt, um seinen gesamten Inhalt zu beschreiben. Irgendwo sollte sich deshalb zwischen Semantischem Tagging innerhalb eines Textes und Semantischem Tagging als (Social) Tagging mit expliziter Semantik eine Grenze ziehen lassen.
Dachte ich. Bis ich entdeckt habe, was die Nachrichtenagentur Reuters Ende Januar online gebracht hat: Mit der kostenlosen Web-API „Calais“ lassen sich Texte analysieren, indem Reuters Namen, Orte, Zahlen und andere Angaben extrahiert (siehe API-Dokumentation) und mit RDF auszeichnet. [via Taxonomy Watch] Ob die gefundenen Entitäten auch gleich mit URIs versehen werden oder ob nur ausgezeichnet wird, dass es sich beispielsweise um einen Firmennamen handelt, habe ich noch nicht rausgefunden – in jedem Fall dürften die extrahierten Terme gute Vorschläge für semantisches Tagging abgeben. Zum Ausprobieren kann dieses Formular verwendet werden.
Ach herrje – Ich weiß manchmal nicht, ob ich begeistert sein soll, in welch spannender Weise sich das Web zur Zeit weiterentwickelt oder ob ich daran verzweifeln sollte, wie komplex und schnell das alles geht. Inzwischen ist „Semantic Web“ ja schon so hype, dass es schwierig wird, die Spreu vom Weizen zu trennen.
Bibliotheksveranstaltungen CODE4LIB und BibCamp 2008
24. Februar 2008 um 19:51 3 KommentareIn der kommenden Woche findet in Portland, Oregon die dritte vierte* CODE4LIB-Konferenz statt. Mein französischer Bibliotheks-Informatik-Bruder Nicolas Morin fasst zusammen, auf welche Teile des Programms er sich am meisten freut. Ich war nach zwei sehr produktiven Workshops Ende letzter Woche so konferenzmüde, dass das BarCamp Hannover ausfallen musste. Bei der CODE4LIB wäre ich aber schon gerne dabei, um herauszufinden, was sich hinter so interessanten Vortragstitel wie „Finding Relationships in Marc Data“ von Rob Styles, „Zotero and You, or Bibliography on the Semantic Web“ von Trevor Owens, „Can Resource Description become Rigorous Data?“ von Karen Coyle und „RDF and RDA: declaring and modeling library metadata“ von Corey Harper versteckt und um all die andere Bibliothekstechnik-Nerds zu treffen 🙂
Am ehesten einen Ersatz bietet das Bibcamp am 16 und 17.05.2008 in Berlin, auf das ich hiermit nochmal ausdrücklich hinweisen möchte. Hier wird es im Gegensatz zur CODE4LIB vorranging deutschsprachig und weniger techniklastig zugehen, so dass für alle etwas dabei sein sollte, die an Neuerungen in Bibliotheken interessiert sind. Es wäre nett, sich in die inoffizielle Teilnehmerliste im Wiki einzutragen. Wir sehen uns in Berlin!
P.S.: Wo die nächste CODE4LIB 2009 stattfindet, wird im Laufe der nächsten Woche zwischen vier Kandidaten entschieden. *Laut Peter Murray bzw. Mike. Ich tippe mal auf Ohio, also schon wieder USA 🙁
Neues zum Thema Whistleblowing
24. Februar 2008 um 19:14 Keine KommentareAm übernächsten Dienstag (4.3.2008) läuft auf Arte ein Themenabend zu Whistleblowing [via Whistleblower-Netzwerk-Blog]. Die Whistleblower-Plattform Wikileaks wurde vor einigen Tagen wegen einer Klage der Schweizer Privatbank Julius Bär gesperrt. Anscheinend hat ein Mitarbeiter interne Dokumente durchsichern lassen, die zeigen, dass die traditionsreichen Schweizer Bank Kunden bei der Steuerhinterziehung hilft. Hat etwa jemand anderes vermutet? Wahrscheinlich gab es diesmal auch kein Geld für den Informaten, in der Schweiz kennt sich die CDU ja selbst genügend mit Schwarzgeld aus. Mit dem kleinen, putzigen Liechtenstein ist auch ein Sündenbock gefunden, während sich „Führende Vertreter der Wirtschaft“ öffentlich distanzieren, als handle es sich bei Asozialität nicht um eine inhärenter Systemeingenschaft des Kapitalismus (Nochmal zur Aufklärung: Kapitalismus ist nicht zwingende Vorraussetzung für Soziale Marktwirtschaft und „eine andere Welt ist möglich“, auch jenseits des Staatssozialismus und Kommunismus).
Anstatt die Aufdeckung von Missständen durch Whisteblower zu unterstützen, werden in Zukunft wahrscheinlich Angestellte besser überwacht, damit es mit dem Greenwashing wieder klappt [via Telepolis]. Bleibt zu hoffen, dass Menschen trotzdem den Mund aufmachen, wenn es angebracht ist – zum Beispiel Mark Klein, der – wie vor drei Tagen bekanntgegeben wurde von der Electronic Frontier Foundation für die Aufdeckung illegaler Überwachung durch AT&T und NSA ausgezeichnet wurde. Apropos USA: Manche Dokumente kommen anscheinend auch durch eigene Unachtsamkeit an die Öffentlichkeit – zum Beispiel Informationen über US-Internierungslager, in denen „im Ernstfall“ Hunderttausende massenweise eingesperrt werden sollen. [via fefes blog]
Eigentlich müsste es doch auch aus dem Umfeld islamistischer Terroristen Whistleblower geben, denen der Mord an Unschuldigen zu weit geht. Wenn aber gleichzeitig die Unschuldigen Nachbarn/Familie etc. umgebracht werden von Blackwater & Co, die dann auch noch ungestraft davonkommen, fällt es schon schwerer die Mörder aus den eigenen Reihen zu verpfeifen.
UB Mannheim führt Social Tagging ein
21. Februar 2008 um 14:59 2 KommentareDas zweite Panel der Workshops Social Tagging in der Wissensorganisation am Institut für Wissensmendien am 21./22. Februar 2008 fasste vier Kurzvorträge unter dem Thema „Bibliotheken und Hochschulen“ zusammen.
Im ersten Vortrag führte Christian Hänger von der Universitätsbibliothek Mannheim mit „Tagging im Kontext Bibliothekarischer Sacherschließung“ an, welche Mehrwerte Social Tagging in Bibliotheken bringen kann, obwohl Bibliotheken Tagging in Form der kontrollierten Erschließung doch schon seit jeher betreiben. Durch Social Tagging können zum einen größere Mengen von Titeln zusätzlich erschlossen werden (zum Beispiel Artikel der Nationallizenzen). Zum anderen können neue Begrifflichkeiten schneller für das Retrieval verfügbar gemacht werden, während die Aufnahme neuer Begriffe in ein kontrolliertes Vokabular relativ lange dauert. Die Nachteile und Grenzens des Tagging bestehen jedoch nach Hänger in der höheren Unschärfe durch Homonyme und Synonyme und in schlechteren Ergebnissen als die Sacherschließung durch Experten.
An der UB Mannheim soll Social Tagging in einem kommenden DFG-Projekt in den OPAC eingebunden werden. Dabei soll unter Anderem untersucht werden, ob sich durch manuelles Tagging bessere Ergebnisse als durch automatische Erschließung erzielen lassen. Auch Misch- und Übergangsformen, wie zum Beispiel das Taggen mit Normdateien sollen ausprobiert werden. Als Tagging-Systeme werden sowohl BibSonomy als auch die Tagging-Funktion von ExLibris Primo eingesetzt.
Im Fazit brachte Christian Hänger seine Einschätzung bemerkenswert auf den Punkt: Tagging wird in Zukunft ein unverzichtbarer Bestandteil der bibliothekarischen Sacherschließung. Es ist jedoch kein Ersatz für bibliothekarische Sacherschließung, sondern eine Ergänzung.
Sicherlich lassen sich beide Aussagen bezweifeln: Möglicherweise ist Tagging für Bibliotheken irrelevant oder aber es wird die bibliothekarischen Sacherschließung überflüssig machen. Die Wahrheit lieht aber eher wie so oft in der Mitte – deshalb ist es sehr zu begrüßen, dass die UB Mannheim (Blog) das Thema Tagging in Bibliotheken einfach mal in die Hand nimmt und ausprobiert anstatt es tot zu diskutieren, um am Ende den Entwicklungen hinterherlaufen zu müssen!
Neueste Kommentare