Ende der Venterisierung und Napsterisierung

31. Oktober 2008 um 02:00 Keine Kommentare

Seit ich meine Wikipedia-Beobachtungsliste nur noch spärlich nutze, entdecke ich einige Änderungen erst wenn es schon praktisch zu spät ist – so zum Beispiel die Löschung der Artikel „Venterisierung“ und „Napsterisierung“ vor einigen Tagen. Reiner Kuhlen führte diese beiden Begriffe 2002 ein, um damit die „kontrollierte, private Aneignung von Wissen“ auf der einen und die „Aneignung und Weitergabe von Informationsprodukten unter Umgehung kommerzieller Gepflogenheiten“ auf der anderen Seite zu charakterisieren.

Da die im März 2004 von Agon Buchholz angelegten Artikel – im Gegensatz zu vielem anderen, was in Wikipedia gelöscht wird – eigentlich ganz gut geschrieben sind, habe ich sie ins BIT-Wiki eingestellt. Ob die Entfernung aus Wikipedia gerechtfertig ist oder nicht, kann ich nicht eindeutig sagen. Ich habe eher den Eindruck, dass sich die Begriffe weder in der Fachwelt noch in der Öffentlichkeit durchgesetzt haben. Abgesehen von einem Telepolis-Artikel stammen die meisten Erwähnungen von Kuhlen selbst.

Dennoch sind die mit Venterisierung und Napsterisierung beschriebenen Phänomene weiterhin aktuell. Sollten sie deshalb in Wikipedia erwähnt werden? Möglicherweise. Wer etwas daran auszusetzen hat, welche Inhalte aus dem Bibliotheks- und Informationsbereich sich in Wikipedia finden oder nicht finden und welche Qualität die Artikel aufweisen, soll sich daran beteiligen oder die Inhalte des de-facto Standard-Nachschlagewerks so hinnehmen wie sie sind. Die hinter Wikipedia stehende Hoffnung ist, dass relevante Inhalte, die entfernt wurden, irgendwann wieder eingestellt werden (weil jemand eine Lücke entdeckt) und dass irrelevante Inhalte, irgendwann entfernt werden (weil jemand merkt, wie unnötig sie sind). Wikipedia ist ein Community-basierter-Hypertext, der ständig in Bewegung ist. Wikipedia-Inhalte ändern sich ebenso wie sich unsere Begriffswelt ändert.

Wie Begriffe aufkommen und wieder in Vergessenheit geraten, kann man beispielsweise mit Hilfe von Google Trends analysieren. „Web 2.0“ war ursprünglich wie „Venterisierung“ und „Napsterisierung“ auch nur eine Neuschöpfung, die sich allerdings durchgesetzt hat und inzwischen langsam wieder abflaut (siehe Abbildung). Noch kürzer ist der Hype-Zyklus beispielsweise bei Second Life.

P.S: Wer sich für die herausragenden Bereiche der Qualitätssicherung in Wikipedia interessiert, sollte einen Blick auf die Bewertungen und den Schreibwettbewerb werfen. Der 9. Wettbewerb ist gerade zu Ende gegangen und die Preisträger sowie die Sieger des Publikumspreis stehen fest.

Verordnung zur Pflichtablieferung von Netzpublikationen in Kraft

23. Oktober 2008 um 11:21 8 Kommentare

Wie Heise berichtet, tritt heute die Verordnung zur Pflichtablieferung von Netzpublikationen (PDF) der Deutschen Nationalbibliothek (DNB) in Kraft – mehr dazu auf der Seite zu Netzpublikationen und auf Bibliotheksrecht. Der heise-Beitrag zeigt gut einige Schwierigkeiten auf, die die Verordnung mit sich bringt. Kurz gesagt macht das gesamte Verfahren eher den Eindruck, als hätte die DNB noch immer nicht verstanden, dass Netzpublikationen keine eins-zu-eins-Abbildung von Papiermedien sind. Das von der DNB präferierte Ablieferungsformat PDF stellt im Netz eher die Ausnahme dar und ist sowieso schlechte Praxis.

Der größte Knackpunkt ist allerdings der Ansatz, dass Dateien bei der DNB abgeliefert werden sollen, statt dass sie diese selber einsammelt. Die vom Internet Archive und anderen Nationalbibliotheken genutze Crawler-Software Heritrix ist frei verfügbar – vielleicht kann Gordon Mohr mit seinem Vortrag „Build Your Own Web Archive“ helfen. Crawling ist seit 1994 Praxis und mit OAI-PMH, Sitemaps, und Feeds gibt es inzwischen gängige Verfahren, um Daten und Metadaten auch besser strukturiert zum Abholen bereitzustellen.

Die jetzt zur Pflicht erkorene Praxis der Ablieferung von „Netzpublikationen“ macht den Eindruck, als sei die DNB gar nicht daran interessiert, die zur Zeit im Netz entstehenden kulturellen Werke zu sammeln und zu bewahren. Stattdessen hat sie mit der Verordnung nun ein Druckmittel in der Hand, um von Verlagen ausgewählte Publikationen geliefert zu bekommen. Das ist zwar legitim und besser als nichts – aber wenn man sich im Gegenzug anguckt, wie restriktiv die DNB auf ihren eigenen Daten sitzt, müffelt das schon etwas. Dazu ein schönes Zitat von Tim Spalding in NGC4LIB:

So, it’s not just Amazon, but now Google serving up high-quality book metadata to the world—data that libraries refuse to provide, except to each other and in antiquated formats. Another step down the long path to irrelevance.

Nach all dem Gemecker jetzt noch ein konstruktiver Vorschlag: Google propagiert den sitemaps-Standard, mit dem Betreiber von Webseiten angeben können, welche Teile ihrer Webseite von Crawlern durchsucht werden sollen. Die URLs einer sitemaps.xml-Datei können von Heritrix gecrawlt werden und werden in einer ARC-Datei abgelegt. Diese Datei kann als ZIP gepackt und bei der DNB abgeliefert werden. Wenn die DNB dieses Verfahren als Dienst anbietet, wo man zur „Pflichtablieferung von Netzpublikationen“ nur noch die URL der sitemaps-Datei angeben muss, sollte es mit dem Einsammeln von Netzpublikationen besser funktionieren.

Date of Wikimania 2009

21. Oktober 2008 um 00:18 3 Kommentare

As already announced two weeks ago (but not blogged before, only on identi.ca) Wikimania 2009 will take place August 25-28, 2009 in Buenos Aires, Argentina at the Centro Cultural General San Martín.

Zusammenarbeit zwischen Wikimedia-Projekten und Wissenschaften

20. Oktober 2008 um 20:08 Keine Kommentare

Über Möglichkeiten der Kooperation zwischen den Wissenschaften und Wiki(media)projekten haben auf der Tagung „Neue Formen wissenschaftlicher Zusammenarbeit durch kollaborative Medien” vom 9. bis 12. Oktober Teilnehmer aus dem akademischen Bereich und aus verschiedenen Wikimedia-Projekten diskutiert. Die Ergebnisse liegen nun in Form von sechs Empfehlungen vor:

• Wikipedia-Sprachversionen für Nicht-Standard-Sprachen oder Dialektbündel sowie für bedrohte oder ausgestorbene Sprachen sollten kritisch hinterfragt werden. Stattdessen sollen Textkorpora mit Hilfe von WikiSource geschaffen werden, die diese Sprachen dokumentieren können.

• Es sollen Möglichkeiten geschaffen werden, in einzelnen Wikimedia-Projekten die Autorenschaft deutlicher kenntlich zu machen.

• Die meisten Wikimedia-Projekte verfügen bereits über Prozesse zur Qualitätssicherung. Diese sollen stärker transparent gemacht und benutzerfreundlich dargestellt werden.

• Es wird empfohlen, über ein neues Konzept für die Strukturierung des Bereichs wissenschaftlichen Lehrmaterials und Publikationen nachzudenken. Es gibt sowohl Überschneidungen im Bereich Wikiversity und Wikibooks als auch eine Lücke im Bereich wissenschaftlicher Fachaufsätze.

• Die Zusammenarbeit zwischen Wikipedia-Projekten und Expertenwikis bzw. Spezialprojekten soll koordiniert und gefördert werden.

• Für Wikisource soll die qualitätsorientierte, wissenschaftliche Transkription und Edition auf der Grundlage von bereitgestellten Digitalisaten Fokus sein. Wir regen ein internationales Treffen zum Erfahrungsaustausch zu Wikisource an.

Aufgrund der vielfältigen Möglichkeiten (aber auch Hindernisse) der Zusammenarbeit zwischen Wikimedia-Projekten und den Wissenschaften konnten nur einige Bereiche angeschnitten werden. Beim nächsten Mal könnte beispielsweise sollte das Thema „Wikimedia-Projekte in der Lehre“ ausgiebiger behandelt werden. Zunächst einmal ist es wichtig, sich gegenseitig kennenzulernen und Missverständnisse auf beiden Seiten auszuräumen. Dabei können weitere Treffen zu speziellen Themen helfen. Zum Beispiel könnte zu Wikisource eine Veranstaltung organisiert werden, die vergleichbar mit dem Berliner Workshop zu „digitalen Editionen“ verschiedene Projekte zusammenbringt. Die Empfehlungen zu sechs verschiedenen Aspekten der Zusammenarbeit zwischen Wissenschaften und Wikiprojekten stehen samt Erläuterungen erstmal offen zur Diskussion.

Quick overview of Open Access LIS journals

14. Oktober 2008 um 21:12 Keine Kommentare

I just stumbled upon the article „Evaluating E-Contents Beyond Impact Factor – A Pilot Study Selected Open Access Journals In Library And Information Science“ by Bhaskar Mukherjee (Journal of Electronic Publishing, vol. 10, no. 2, Spring 2007). It contains a detailed analysis of five Open Archive Journals in Library and Information Science, namely Ariadne, D-Lib Magazine, First Monday, Information Research, and Information Technology and Disabilities.

A more comprehensive list of OA journals in the LIS field can be found in the Directory of Open Access Journals (DOAJ). It currently lists 89 journals. Not all of them are highly relevant and lively so how do you compare? The traditional journal impact factor is oviously rubbish and most journals are not covered anyway. In a perfect world you could easily harvest all articles via OAI-PMH, extract all references via their identifiers and create a citation network of the Open Access world of library science – maybe you should also include some repositories like E-LIS. But maybe you can measure the impact in other ways. Why not including blogs? Instead of laboriously writing a full research paper for JASIST to „evaluate the suitability of weblogs for determining the impact of journals“ (ad-hoc title) I quickly used Google Blogsearch to count some links from weblog entries to some journal pages:

First Monday
4,791
D-Lib Magazine
2,366
Ariadne
1,579
Information Research
372
Issues in Science & Technology Librarianship
249
Code4Lib Journal
209
Libres
61
Journal of Library and Information Technology
10

I clearly admit that my method is insufficient: you first have to evaluate Google Blogsearch, check URL patterns, divide the number by age or by number of articles etc. Fortunately my blog is not peer-reviewed. But you can comment!

A note on German OA LIS journals: It’s a shame that while German librarians basically read German library journals only two of them are truly Open Access: Beside the more specialized GMS Medizin-Bibliothek-Information there is LIBREAS (with blog count 71). Its current CfP is on a special issue about Open Access and the humanities!

P.S: Why do so many LIS journals use insane and ugly URLs instead of clean and stable ones like http://JOURNALNAME.TDL/ISSUE/ARTICLE? This is like printing a journal on toilet paper! Apache rewrite, virtual hosts, and reverse proxies are there for a good reason.

P.P.S: The IFLA had a Section on Library and Information Science Journals 2002-2005.

Beiträge zum Thema Open Access

14. Oktober 2008 um 15:38 Keine Kommentare

Zum heutigen Open Access Day möchte ich nur kurz auf die Informationsplattform open-access.net und die Open Access-Tagen hinweisen, die letzte Woche in Berlin stattfanden: via Archivalia gibt es einen Videobeitrag zur Veranstaltung von wisskomm tv, einem Vlog zu Wissenschaft und Wissenschaftskommunikation. Ebenfalls auf Archivalia gibt es zum Thema Open Access mehrere Gastbeiträge, u.A. von Eric Steinhauer, von Thomas Hoeren, von Gudrun Gersmann und von Rainer Kuhlen – und natürlich stellt sich Klaus Graf, Vorkämpfer für Open Access im deutschsprachigen Raum, dar. Darüber hinaus sucht LIBREAS, die einzige deutschsprachige Open Access-Bibliothekszeitschrift, für die Ausgabe 14 bis Anfang Januar 2009 Beiträge zum Thema „Open Access und Geisteswissenschaften“ [via Library Mistress].

Wikipedia in den Geisteswissenschaften: Wikisource

10. Oktober 2008 um 16:04 4 Kommentare

Vom 9. bis 12. Oktober nehme ich an der Tagung „Neue Formen wissenschaftlicher Zusammenarbeit durch kollaborative Medien – Wie Wikipedia und andere Wikiprojekte die (Geistes-) Wissenschaften verändern (können)“ teil. Die Wikimedia-Veranstaltung wird von der Alfred Toepfer Stiftung F.V.S. gefördert und findet auf dem Gut Siggen in Ostholstein statt. In der ersten Diskussionsrunde ging es es um Wikipedia-Schwesterprojekte, vor allem um Wikisource.

Wikisource ist ein editionsphilologisches Projekt freier Quellen und unterscheidet sich damit in einigen Punkten grundsätzlich von Wikipedia. Das Wiki dient als Werkzeug zur kollaborativen Textedition, indem Digitalisate gesammelt, transkribiert und zweifach korrekturgelesen werden. Die Wiki-Seiten werden anschließend für weitere Bearbeitungen gesperrt. Die deutschsprachige Ausgabe von Wikisource unterscheidet sich darin auch von anderen Sprachversionen: ab 2006 wurden gnadenlos alle Texte ohne zugehörige Scans gelöscht und genaue Editionsrichtlinien für Transkriptionen durchgesetzt.

In der Diskussion zu Wikisource kam unter Anderem der Wunsch auf, aus Transkriptionen bei Wikisource wiederum Editionen in Buchform zu erstellen. Leider ist die Erstellung von Druckformaten wie PDF aus MediaWiki grundsätzlich mangelhaft. Bei bisherigen Projekten wie WikiReader und WikiPress war immer viel Handarbeit notwendig. Problematisch ist auch die Trennung der verschiedenen Wikisource-Projekte nach Sprachen. Gerade bei älteren Sprachen ist die Abgrenzung schwierig und zur Edition von Keilschriften müsste theoretisch erst ein Wikisource-Ableger in Babylonisch erstellt werden. Schwierig ist die Trennung nicht nur für Mitarbeiter und Autoren sondern auch für Leser. Ein Punkt dabei ist, dass WikiSource nicht der eine Zugang zu Digitalisate und Editionen ist und sein wird. Im Englischsprachigen Bereich gibt es zumindest umfassende kommerzielle Datenbanken wie Eighteenth Century Collections Online (ECCO) und Early English Books Online (EBBO) während sich in Deutschland Projekte wie das Zentrale Verzeichnis Digitalisierter Drucke (ZVDD) aufgrund von Kompetenzstreitigkeiten und mangelnder Koordination schwer tun. Vor allem werden dort keine freien Digitalisate und Volltexte geboten. Abhilfe schaffen kann die Einhaltung der Wikimedia-Empfehlungen für Rechte bei Digitalisierungsprojekten und der technischen Vorgaben des DFG-Viewers.

Eine weitere Empfehlung an Wikisource war, dass die maßgeblichen verantwortlichen Bearbeiter der Textedition stärker als Autoren oder als Herausgeber herausgestellt werden sollten. Dies ist sowohl für die Zitierung von Wikisource als Quelle als auch für wissenschaftliche Mitarbeiter von Bedeutung, die ihre Editionsarbeit in Wikisource bislang nicht in ihren Publikationslisten aufführen können. Vielleicht lässt sich sowas ja mit Hilfe der Funktion der geprüften Versionen realisieren. Neben der Autorennennung fehlt oft auch eine Erläuterung der Editionsarbeit (wie und wann ist man zum Digitalisat gekommen, wer hat mitgearbeitet, welche Schwierigkeiten traten auf etc.). Eine Funktion zur einfachen Ermittlung der Autorenschaft an einzelnen Artikeln wäre übrigens auch für Wikipedia von Interesse, denn die Versionsgeschichte ist nicht nur unbekannt sondern auch unübersichtlich.

Zusammengefasst ist Wikisource zur Zeit zwar noch etwas unübersichtlich und weist an verschiedenen Stellen Schwierigkeiten auf, aber es hat den ungeheuren Vorteil, direkt und tatsächlich frei verfügbar zu sein, während man bei vergleichbaren Projekten wie TextGrid vor lauter Arbeitspaketen, Politanwendungen und Fachbeiträten die eigentlichen Inhalte und Arbeiten nicht findet.

Nach der ersten Pause ging es weiter mit einer Fortsetzung der Diskussion um Formen der Autorenschaft in Wikis sowie um Wikibooks, Wikiversity, Wiktionary, Omegawiki etc.

Der Text dieses Beitrags kann als Public Domain frei verwendet werden.

Gute Laune behalten in der Finanzkrise

9. Oktober 2008 um 10:18 3 Kommentare

Bislang versuche ich noch das Positive an der aktuellen Finanzkrise zu sehen. So ist beispielsweise Urlaub in Island endlich bezahlbar:

Kurs der Isländischen Krone

Kurs der Isländischen Krone

Leider ist es auf der schönen grünen Vulkaninsel voller Musiker um diese Jahreszeit nicht mehr ganz so gemütlich, weshalb ich mich nach anderen aufmunternden Folgen der aktuellen Finanzkrise umgesehen habe. Wenn ich schon die ganzen Hilfen für den ach so überlegenen Kapitalismus mittragen muss., möchte ich dafür wenigstens etwas zum Lachen haben. Danilo Vetter kommt mit der am Dienstag in seinem Blog begonnen Serie „Soundtrack zur Finanzkrise“ da gerade recht.

Besonders gefallen hat mir der Hinweis auf den ebenso unterhaltsamen wie lehrreichen Kurzfilm „Wie funktioniert Geld?“ (Teil 1, Teil 2, Teil 3) den Maximilian Block 2005 im Rahmen seiner Diplomarbeit erstellt hat. Man sollte sich nicht davon verwirren lassen, dass der Film als Satire daherkommt, denn die grundlegenden Prinzipien von Geld, Banken, Zins und Inflation/Deflation werden gut dargestellt.

Problematisch ist lediglich, dass der Eindruck entstehen könnte, das Finanzsystem basierte auf einer Verschwörung („Alien“). Der Fehlschluß zum antisemitischen Quark von „schaffendem“ und „raffendem“ Kapital, den die antikapitalistische Rechte vertritt ist da nicht weit (einer der letzten Verweise auf den Film stammt von dem Menschenfeinden des NPD-Regionalverband Böblingen, Stuttgart, Ludwigsburg). Nein, den Crash haben wir uns mit unserer Geiz-ist-geil-Mentalität schon selber eingebrockt und wenn der Ex-Hypo Real Estate-Vorstand im November 2007 sagte, dass seine Bank „gestärkt aus der Krise“ hervorginge, dann trifft das zwar nicht auf seine Bank aber eben doch auf das System zu; denn Gewinne machen möchte jeder gerne, vom Banker bis zum Arbeiter.

Es wird also wohl noch einige Krisenzyklen dauern bis zum letzten Gefecht. Die GEMA-Rechte der Internationalen lagen (liegen?) übrigens lange bei dem Volksmusik-Magnaten Hans Rudolf Beierlein; aber das mit den immateriellen Monopolrechten und wie die Allmende privatisiert wird, um weiter Gewinne und abhängige Lohnarbeit zu steigern, ist ein anderes Thema.

P.S: Wieso ist es eigentlich derzeit so ruhig um die ehemalige (?) Attac-Forderung nach Einführung einer Steuer auf internationale Devisengeschäfte o.Ä.? Attac mag zwar etwas naiv und uneinheitlich sein, aber immerhin werden auch normale Menschen angesprochen, die bei Hinweisen auf Kritische und andere Theorien verständlicherweise lieber abwinken.

Vorabversion der Rechercheplattform Beluga online

8. Oktober 2008 um 11:39 Keine Kommentare

Wie Anne Christensen heute morgen mitteilte gibt ist unter beluga.sub.uni-hamburg.de mit der Version 0.5 eine erste Vorabversion der Hamburger Rechercheplattform „beluga“. Zuletzt war das Projekt auf der GBV-Verbundkonferenz in dem Vortrag „Schaufenster zur Baustelle: beluga, ein offener Katalog aus Hamburg.“ vorgestellt worden. Was weniger beim Ausprobieren der Plattform sondern mehr bei der Lektüre des Beitrags klar wird: Mit Beluga soll nicht nur eine weitere monolithische Anwendung geschaffen werden, die einfach nur etwas moderner aussieht, sondern ein Baukasten von Werkzeugen, die in verschiedenen Kontexten verwendet werden können. [schneller war danilo mit einer Mitteilung]

Calls for participation: ISI und Bibliothekstag 2009

6. Oktober 2008 um 22:44 Keine Kommentare

Noch knapp zwei Wochen laufen die „Calls for participation“ zweier deutschsprachiger Bibliotheks- und Informationsveranstaltungen für das kommende Jahr [via Infobib u.A.]: Für den Bibliothekstag 2009 (2.-5. Juni 2009 in Erfurt) werden Beiträge bis zum 19.10. angenommen und für das 11. Internationale Symposium für Informationswissenschaft (ISI, 1.-3. April 2009, Konstanz) bis zum 17.10. Für Poster auf der ISI ist noch bis zum 5.11. und für studentische Arbeiten bis zum 15.11. Zeit. Wer auf der Suche nach eher wissenschaftlich und internationalen Konferenz ist, sollte in den International Calendar of Information Science Conferences der American Society for Information Science & Technology (ASIS&T) schauen. Die bei calendars.net verwalteten Einträge des Kalenders gibt es leider nicht direkt in einem standardisierten Format wie zum Beispiel hCalendar, aber aus dem RSS-Feed sollte sich etwas herausparsen lassen, um die Daten weiterzuverarbeiten (z.B. zum Ãœbernehmen in eigene Kalender oder zur Darstellung in Google Maps oder mit SIMILE Timeline).

P.S: Außerdem findet am 14. November das InfoCamp Berlin statt – eine Unkonferenz zum Thema Informationsarchitektur!