Kollaboratives Schreiben mit ICT und Historische Online-Kompetenz

Aus HistnetWiki
Version vom 19. Februar 2006, 01:17 Uhr von Jan Hodel (Diskussion | Beiträge) (Vertrauenswürdigkeit)
Wechseln zu:Navigation, Suche

Wie lassen sich die ICT-gestützten Möglichkeiten des kollaborativen Schreibens in den Geschichtswissenschaften einsetzen? Da in der Praxis das kollaborative Schreiben auf kollaborative Formen des Lesens zurückgreift und zudem die Grenze zwischen Autor/innen und Leser/innen (im Sinne des Wreading) zusehends verwischt wird, folgt eine Einschätzung gegliedert nach den Dimensionen der historischen Online-Kompetenz.

Lesen

Vertrauenswürdigkeit

Kann Wikipedia eine wissenschaftliche Referenz sein? Ist die Online-Enzyklopädie ein valable Hilfe für die wissenschaftliche Arbeit in der Kompetenzdimension des "Lesens"? Oder übt der "JeKaMi"-(Jeder kann mitmachen)-Ansatz nicht eher abschreckend für Wissenschaftler/innen, die fürchten müssen, dass ihre Beiträge durch besserwisserische Laien wieder verunstaltet werden können? Die Fragen beschäftigen die Scientific Community nicht erst seit den publikumswirksamen Fehleinträgen in Wikipedia zu John Seigenthaler oder Bertrand Meyer. Letzterer, ein Informatik-Professor an der ETH Zürich, hat die Falsch-Meldung seines vorzeitigen Ablebens, die in Wikipedia zu Weihnachten 2005 publiziert wurde, nicht nur mit einigem Humor aufgenommen, sondern in einem aufschlussreichen Artikel (1) eine Lanze für Wikipedia gebrochen. Er reagiert darin auf die verschiedentlich vorgetragenen Hypothesen, wonach das Prinzip von Wikipedia, jedem Schreibrecht zu gewähren, gar nicht funktionieren könne und über kurz oder lang die Qualität der Einträge sich auf einem niederen, wissenschaftlich unhaltbaren Niveau einpendeln müsse (Denning et al. (2); McHenry(3)). Meyer hält dagegen, die Praxis belege eher das Gegenteil: Dafür, dass dieses Projekt theoretisch gar nicht brauchbare Ergebnisse hervorbringen könne, funktioniere es im Alltag ganz hervorragend. Er bringt dabei zwei Punkte an:

  • Der Vergleich mit den herkömmlichen Enzyklopädien (ob von Kritikern oder Befürwortern vorgebracht) ziele am eigentlichen Nutzen von Wikipedia vorbei: Es sei vielmehr eine Alternative zur schnellen Internet-Suche nach Informationen, die sonst über Suchmaschinen, das heisst vor allem über Google vorgenommen werden.
  • Ausserdem biete Wikipedia (im Vergleich zu gedruckten Büchern, aber auch zu herkömmlichen Websites oder Posts im UseNet) die Möglichkeit, Fehler innert nützlicher Frist zu korrigieren. Auch wenn Fehler zuweilen lange unentdeckt blieben: sie können dann schnell und mit wenig Aufwand behoben werden.

Wikipedia, so Meyer weiter, nehme eine besondere Rolle ein neben der für fachwissenschaftlichen Publikationen unverzichtbaren, wenn auch nicht vor Fehlern gefeiten Peer-Review-Methode. Es wird verschiedene Arten der Wissensrepräsentationen geben, die sich nicht ausschliessen sondern ergänzen. Wikipedia ist schnell aktualisiert und breit in den abgedeckten Themen; Fachpublikationen können dafür mehr in die Tiefe eines Phänomens gehen.

Letztlich kommt Meyer zum Schluss, der allgemein für die Nutzung des Internets gilt und als Leitmotto der Historischen Online-Kompetenz gelten könnte: "dubito, ergo sum. [...] Since when are we supposed to trust everything that we read, printed, electronic or otherwise?" Wikipedia kann, wie andere kollaborative, in Wiki erstellte (Hyper-)Texte, durchaus als wissenschaftliche Referenz dienen. Das Wissen um die Entstehung der Inhalte legt eine Differenzierung nach Themenbereichen, ja nach einzelnen Artikeln, und eine Überprüfung im Einzelfall nahe. Die Wikipedia-Artikel zur Wannsee-Konferenz oder zur Historischen Anthropologie kann man gerade im Hinblick auf die oftmals gewählte Alternative (Google-Suche) als erster Einstieg in das jeweilige Thema gelten lassen.

Urheberrecht

Ein Problem wird mit kollaborativ erstellten Hypertexten wie Wikipedia hingegen jenseits der Vertrauenswürdigkeit der Informationen auch noch aufgeworfen: Die Frage nach dem Urheber-Recht und der korrekten Verwendung. Die Texte in Wikipedia sind in der Regel Public Domain, können also nach Bekunden der Quelle selbst ungefragt kopiert und weiterverwendet werden. Doch ist es nicht unbedingt im Interesse wissenschaftlicher Ausbildung, wenn in Seminararbeiten (oder auch in anderen wissenschaftlichen Publikationen) ohne Verweis längere Passagen aus einem Public Domain-Fundus verwendet werden. Andererseits ist mangelndes Copyright auch ein mögliches Hindernis, neue Erkenntnisse einfach in ein kollaboratives Projekt zu stellen. Wer dieses Wissen wie weiterverwendet, entzieht sich dann der Kontrolle der Autor/innen.

Denn in kollaborativen Projekten (und dies kommt im grösstenteils anonym funktionierenden Wikipedia besonders zur Geltung) ist am fertigen Produkt kaum zu erkennen, wer welche Inhalte dazu beigesteuert hat. Dies ist zwar mit einer Analyse der Archivversionen durchaus zu ermitteln, diese Form der Quellenkritik kann allerdings recht zeitintensiv werden.

Schliesslich ist auch der Verantwortlichkeit für die Inhalte in mittels ICT kollaborativ erstellten Texten zu thematisieren. Rechtlich mag die nicht kommerziell orientierte Trägerschaft MediaWiki für Unterlassungklagen (wie etwa im Fall "Tron") zum Adressaten werden. Aber wer verantwortet denn die wissenschaftlichen Aussagen der Inhalte, wenn die "Community" die Beiträge täglich redaktionell betreut und korrigiert? Dies gilt auch, wenn durchaus erkennbar wird, dass sich bestimmte Personen sehr intensiv um gewisse Themenbereiche kümmern.

In anderen Fällen mögen diese Fragen weniger unklar sein, zu prüfen sind sie auf alle Fälle. Dabei ist zu beachten, dass neben der "GNU Freie Dokumentationslizenz" auch die vom bekannten Internet-Rechtsexperten Lawrence Lessig entwickelte "Common Creative" existiert, die eine gestufte Freigabe von urheberrechtlich geschütztem Material ermöglicht.

Strukturierung

Die mittels ICT erreichbaren Inhalte ("das Internet") sind im Vergleich zu Printpublikationen schlecht strukturiert. Das Auffinden von Informationen ist schwierig. Es sind drei Ansätze identifizierbar, Ordnung in diese unstrukturierte Informationsflut zu bringen:

Beim konventionellen Weg werden Fachredaktoren angestellt, die auf professioneller Basis nach fachlichen Kriterien Strukturen erstellen und Inhalte in diese Strukturen einfüllen. Die Analogie zur Arbeit der Bibliotheken ist offensichtlich, aber nicht immer so konsequent umgesetzt wie bei den Subject Gateways, zum Beispiel dem History-Guide. Deshalb ist die Arbeit der Subject Gateways wohl auch immer noch so unbekannt, dass dazu nicht einmal ein Eintrag bei Wikipedia besteht. Eine Übersicht über verschiedene Subject Gateways, wobei dort der Begriff sehr weit gefasst ist, ist auf der Website Pinakes zu finden. Das Hauptproblem dieses Weges: die Arbeit ist schier endlos und ihre Bewältigung daher sehr teuer. Viele Projekte, die diesen Weg beschreiten, lassen in der Qualität nach, bzw. genügen wissenschaftlichen Kriterien nicht, oder müssen irgendwann ihre Arbeit einstellen.

Der maschinelle Weg hegt die Hoffnung, dass Computerprogramme das Netz von alleine strukturieren können. Die Suchmaschinen werden immer mehr besser programmiert, um die gesammelten Datenmengen zu strukturieren. Der Gipfel der Träume: Das semantische Web, in dem die Dokumente derart clever strukturiert sind, dass sie sich gegenseitig erkennen und aufsuchen können. Trotz jahrelangen Ankündigungen gibt es kaum Anzeichen dafür, dass der Durchbruch bevorstehe. Denn die Daten müssen von Menschen strukturiert, oder zumindest für die automatische Strukturierung vorbereitet werden. Doch im "Internet" sind schon zu viele unstrukturierter Inhalte, die kaum mehr nachträglich noch für das semantische Web aufbereitet werden können.

Schliesslich gibt es noch den momentan stark beachteten gruppenorientierten Weg der Social Software: Entweder Projekte im Sinne von Grassroot-Bewegungen: jeder leistet einen kleinen, freiwilligen Beitrag zum grossen Ganzen, und weil das Internet die ganze Welt verbindet, sind die Gruppen gross genug, dass aus dem vielen Kleinen etwas Grosses wird: siehe Open-Source-Software, Wikipedia, Tagging oder das Webverzeichnis dmoz.

Geschichtswissenschaften und web 2.0

Die Geschichtswissenschaften haben nicht nur das kollaborative Schreiben, sondern auch die Möglichkeiten des web 2.0 für die Strukturierung von ICT-basierten Inhalten noch kaum genutzt. Noch dominieren bei den geschichtswissenschaftlichen Fachportalen der konventionelle und der maschinelle Weg. Blogs oder Wikis zu historischen Themen sind im deutschen Sprachraum keine vorhanden. In Wikipedia sind keine Hinweise auf die Fachportale der Geschichte zu finden, dabei wären Querverbindungen unter Umständen sinnvoll, wenn in Wikipedia kurze Definitionen und Einleitungen zu detaillierteren Angaben in Clio-Online oder zu Website-Einträgen im History-Guide führen könnten. Seit neustem bietet Clio-Online einen RSS-Feed an, was einen schnellen Überblick zu neuen Inhalten auf dem Fachportal ermöglichen soll. Doch könnten nicht auch Tagging für die Rezensionen, Kommentare zu den Website-Einträgen oder ein Wiki-Bereich zu zentralen Begriffen das Fachportal aufwerten?

Schreiben

Blog mehr Meinung, Wiki mehr Fakten? Gilt nur, wenn man Wiki wie Wikipedia versteht. Allerdings tendiert Wiki tendenziell zu gemeinsamen Nenner. Das ist bei Wikipedia die Enzyklopädie-Metapher, die offenbar sehr präsent ist. Aber sonst müssten Gruppen sich anhand gemeinsamer Ansichten und gewünschter Aussagen zusammensetzen. Ausserdem wäre eine Konzept-Phase unabdingbar. Egal ob Blog oder Wiki: wer zuerst schreibt, hat immer starke Definitionsmacht, was geschrieben, bzw. worauf reagiert wird.


Reden

Social Software dient zunächst einmal dazu, die Informationen zu sammeln und zu strukturieren dank geeigneter Software und dem Engagement von Vielen. Doch sie hat auch das Potential, für Reflexion eingesetzt zu werden. Und damit sind nicht einfach die Kommentarfunktionen in etablierten Medien oder die Forums-Funktionen in verschiedenen Lern-Management-Systemen, aber auch nicht Blogs und Wikis gemeint. Die Technologien sind vorhanden. Sind die Nutzungen, bzw. die Vorstellungen von möglichen wissenschaftlichen Nutzungen klar genug? In Wikis lassen sich viele Dinge abbilden, weil die Technologie relativ einfach und formlos ist. Debatten, Diskussionen, Reflexionen und Auseinandersetzungen wären darin ohne weiteres möglich - wenn sich Wissenschaftler/innen finden, die auf diese Weise sich mit ihren Ideen und Erkenntnissen auseinandersetzen möchten.


Literatur und Links

  1. Meyer, Bertrand: Defense and Illustration of Wikipedia, 2006 (http://se.ethz.ch/%7Emeyer/publications/wikipedia/wikipedia.pdf [Zugriff 13.1.2006])
  2. Denning, Peter, Horning, Jim; Parnas, David; Weinstein, Lauren: "Wikipedia Risks (=Inside Risks 186)", in: Communications of the ACM, 48 (12, 2005) (http://www.csl.sri.com/users/neumann/insiderisks05.html [Zugriff 13.1.2006])
  3. McHenry, Robert: The Faith-Based Encyclopedia, TCS Daily, 15.11.2004 (http://www.tcsdaily.com/article.aspx?id=111504A [Zugriff: 18.2.2006])

HistCollaboratory: Navigationspfad von Jan Hodel

--Jan Hodel 16:48, 18. Feb 2006 (CET)