Kollaboratives Schreiben mit ICT und Historische Online-Kompetenz

Aus HistnetWiki
Wechseln zu:Navigation, Suche

Wie lassen sich die ICT-gestützten Möglichkeiten des kollaborativen Schreibens in den Geschichtswissenschaften einsetzen? Da in der Praxis das kollaborative Schreiben auf kollaborative Formen des Lesens zurückgreift und zudem die Grenze zwischen Autor/innen und Leser/innen (im Sinne des Wreading) zusehends verwischt wird, werden im Folgenden auch andere Dimensionen der historischen Online-Kompetenz behandelt, insbesondere das "Lesen".

"Lesen"

Vertrauenswürdigkeit

Kann Wikipedia eine wissenschaftliche Referenz sein? Ist die Online-Enzyklopädie ein valable Hilfe für die wissenschaftliche Arbeit in der Kompetenzdimension des "Lesens"? Oder übt der "JeKaMi"-(Jeder kann mitmachen)-Ansatz nicht eher abschreckend für Wissenschaftler/innen, die fürchten müssen, dass ihre Beiträge durch besserwisserische Laien wieder verunstaltet werden können? Die Fragen beschäftigen die Scientific Community nicht erst seit den publikumswirksamen Fehleinträgen in Wikipedia zu John Seigenthaler oder Bertrand Meyer. Letzterer, ein Informatik-Professor an der ETH Zürich, hat die Falsch-Meldung seines vorzeitigen Ablebens, die in Wikipedia zu Weihnachten 2005 publiziert wurde, nicht nur mit einigem Humor aufgenommen, sondern in einem aufschlussreichen Artikel (1) eine Lanze für Wikipedia gebrochen. Er reagiert darin auf die verschiedentlich vorgetragenen Hypothesen, wonach das Prinzip von Wikipedia, jedem Schreibrecht zu gewähren, gar nicht funktionieren könne und über kurz oder lang die Qualität der Einträge sich auf einem niederen, wissenschaftlich unhaltbaren Niveau einpendeln müsse (Denning et al. (2); McHenry(3)). Meyer hält dagegen, die Praxis belege eher das Gegenteil: Dafür, dass dieses Projekt theoretisch gar nicht brauchbare Ergebnisse hervorbringen könne, funktioniere es im Alltag ganz hervorragend. Er bringt dabei zwei Punkte an:

  • Der Vergleich mit den herkömmlichen Enzyklopädien (ob von Kritikern oder Befürwortern vorgebracht) ziele am eigentlichen Nutzen von Wikipedia vorbei: Es sei vielmehr eine Alternative zur schnellen Internet-Suche nach Informationen, die sonst über Suchmaschinen, das heisst vor allem über Google vorgenommen werden.
  • Ausserdem biete Wikipedia (im Vergleich zu gedruckten Büchern, aber auch zu herkömmlichen Websites oder Posts im UseNet) die Möglichkeit, Fehler innert nützlicher Frist zu korrigieren. Auch wenn Fehler zuweilen lange unentdeckt blieben: sie können dann schnell und mit wenig Aufwand behoben werden.

Wikipedia, so Meyer weiter, nehme eine besondere Rolle ein neben der für fachwissenschaftlichen Publikationen unverzichtbaren, wenn auch nicht vor Fehlern gefeiten Peer-Review-Methode. Es wird verschiedene Arten der Wissensrepräsentationen geben, die sich nicht ausschliessen sondern ergänzen. Wikipedia ist schnell aktualisiert und breit in den abgedeckten Themen; Fachpublikationen können dafür mehr in die Tiefe eines Phänomens gehen.

Letztlich kommt Meyer zum Schluss, der allgemein für die Nutzung des Internets gilt und als Leitmotto der Historischen Online-Kompetenz gelten könnte: "dubito, ergo sum. [...] Since when are we supposed to trust everything that we read, printed, electronic or otherwise?" Wikipedia kann, wie andere kollaborative, in Wiki erstellte (Hyper-)Texte, durchaus als wissenschaftliche Referenz dienen. Das Wissen um die Entstehung der Inhalte legt eine Differenzierung nach Themenbereichen, ja nach einzelnen Artikeln, und eine Überprüfung im Einzelfall nahe. Die Wikipedia-Artikel zur Wannsee-Konferenz oder zur Historischen Anthropologie kann man gerade im Hinblick auf die oftmals gewählte Alternative (Google-Suche) als erster Einstieg in das jeweilige Thema gelten lassen. Problematisch wird die Arbeit mit Wikipedia dann, wenn es als einzige Referenz bei einer Recherche konsultiert wird. Hier gelten die gleichen Vorbehalte wie bei anderen Informationsquellen auch.

Urheberrecht

Ein Problem wird mit kollaborativ erstellten Hypertexten wie Wikipedia hingegen jenseits der Vertrauenswürdigkeit der Informationen auch noch aufgeworfen: Die Frage nach dem Urheber-Recht und der korrekten Verwendung. Die Texte in Wikipedia sind in der Regel Public Domain, können also nach Bekunden der Quelle selbst ungefragt kopiert und weiterverwendet werden. Doch ist es nicht unbedingt im Interesse wissenschaftlicher Ausbildung, wenn in Seminararbeiten (oder auch in anderen wissenschaftlichen Publikationen) ohne Verweis längere Passagen aus einem Public Domain-Fundus verwendet werden. Andererseits ist mangelndes Copyright auch ein mögliches Hindernis, neue Erkenntnisse einfach in ein kollaboratives Projekt zu stellen. Wer dieses Wissen wie weiterverwendet, entzieht sich dann der Kontrolle der Autor/innen.

Denn in kollaborativen Projekten (und dies kommt im grösstenteils anonym funktionierenden Wikipedia besonders zur Geltung) ist am fertigen Produkt kaum zu erkennen, wer welche Inhalte dazu beigesteuert hat. Dies ist zwar mit einer Analyse der Archivversionen durchaus zu ermitteln, diese Form der Quellenkritik kann allerdings recht zeitintensiv werden.

Schliesslich ist auch der Verantwortlichkeit für die Inhalte in mittels ICT kollaborativ erstellten Texten zu thematisieren. Rechtlich mag die nicht kommerziell orientierte Trägerschaft MediaWiki für Unterlassungklagen (wie etwa im Fall "Tron"(7)) zum Adressaten werden. Aber wer verantwortet denn die wissenschaftlichen Aussagen der Inhalte, wenn die "Community" die Beiträge täglich redaktionell betreut und korrigiert? Dies gilt auch, wenn durchaus erkennbar wird, dass sich bestimmte Personen sehr intensiv um gewisse Themenbereiche kümmern.

In anderen Fällen mögen diese Fragen weniger unklar sein, zu prüfen sind sie auf alle Fälle. Dabei ist zu beachten, dass neben der "GNU Freie Dokumentationslizenz" (4) auch die vom bekannten Internet-Rechtsexperten Lawrence Lessig entwickelte "Creative Commons" (5) existiert, die eine gestufte Freigabe von urheberrechtlich geschütztem Material ermöglicht. In diesem Zusammenhang ist generell auf die Problematik der Zugänglichkeit von Inhalten über ICT zu verweisen, die sich nicht nur in Klagen über Musikpiraterie (und Klagen gegen vermeintliche Musikpiraten) äussert, sondern auch in Bestrebungen vor allem in Bibliothekskreisen, zu wissenschaftliche Publikationen einen freien Zugang zu ermöglichen (OpenAccess (5)).

Strukturierung

Die mittels ICT erreichbaren Inhalte ("das Internet") sind im Vergleich zu Printpublikationen schlecht strukturiert. Das Auffinden von Informationen ist schwierig. Es sind drei Ansätze identifizierbar, Ordnung in diese unstrukturierte Informationsflut zu bringen:

Beim konventionellen Weg werden Fachredaktoren angestellt, die auf professioneller Basis nach fachlichen Kriterien Strukturen erstellen und Inhalte in diese Strukturen einfüllen. Die Analogie zur Arbeit der Bibliotheken ist offensichtlich, aber nicht immer so konsequent umgesetzt wie bei den Subject Gateways, zum Beispiel dem History-Guide. Deshalb ist die Arbeit der Subject Gateways wohl auch immer noch so unbekannt, dass dazu nicht einmal ein Eintrag bei Wikipedia besteht. Eine Übersicht über verschiedene Subject Gateways, wobei dort der Begriff sehr weit gefasst ist, ist auf der Website Pinakes zu finden. Das Hauptproblem dieses Weges: die Arbeit ist schier endlos und ihre Bewältigung daher sehr teuer. Viele Projekte, die diesen Weg beschreiten, lassen in der Qualität nach, bzw. genügen wissenschaftlichen Kriterien nicht, oder müssen irgendwann ihre Arbeit einstellen.

Der maschinelle Weg hegt die Hoffnung, dass Computerprogramme das Netz von alleine strukturieren können. Die Suchmaschinen werden immer mehr besser programmiert, um die gesammelten Datenmengen zu strukturieren. Der Gipfel der Träume: Das semantische Web, in dem die Dokumente derart clever strukturiert sind, dass sie sich gegenseitig erkennen und aufsuchen können. Trotz jahrelangen Ankündigungen gibt es kaum Anzeichen dafür, dass der Durchbruch bevorstehe. Denn die Daten müssen von Menschen strukturiert, oder zumindest für die automatische Strukturierung vorbereitet werden. Doch im "Internet" sind schon zu viele unstrukturierter Inhalte, die kaum mehr nachträglich noch für das semantische Web aufbereitet werden können.

Schliesslich gibt es noch den momentan stark beachteten gruppenorientierten Weg der Social Software: Entweder Projekte im Sinne von Grassroot-Bewegungen: jeder leistet einen kleinen, freiwilligen Beitrag zum grossen Ganzen, und weil das Internet die ganze Welt verbindet, sind die Gruppen gross genug, dass aus dem vielen Kleinen etwas Grosses wird: siehe Open-Source-Software, Wikipedia, Tagging oder das Webverzeichnis dmoz.

Geschichtswissenschaften und web 2.0

Die Geschichtswissenschaften haben nicht nur das kollaborative Schreiben, sondern auch die Möglichkeiten des web 2.0 für die Strukturierung von ICT-basierten Inhalten noch kaum genutzt. Noch dominieren bei den geschichtswissenschaftlichen Fachportalen der konventionelle und der maschinelle Weg. Blogs oder Wikis zu historischen Themen sind im deutschen Sprachraum keine vorhanden. In Wikipedia sind keine Hinweise auf die Fachportale der Geschichte zu finden, dabei wären Querverbindungen unter Umständen sinnvoll, wenn in Wikipedia kurze Definitionen und Einleitungen zu detaillierteren Angaben in Clio-Online oder zu Website-Einträgen im History-Guide führen könnten. Seit neustem bietet Clio-Online einen RSS-Feed an, was einen schnellen Überblick zu neuen Inhalten auf dem Fachportal ermöglichen soll. Doch könnten nicht auch Tagging für die Rezensionen, Kommentare zu den Website-Einträgen oder ein Wiki-Bereich zu zentralen Begriffen das Fachportal aufwerten?

Gerade unter dem Aspekt der oben genannten Vertrauenswürdigkeit soll auch zum Mitwirken an Wikipedia und ähnlichen offenen Wiki-Projekten angeregt werden. Auf diese Weise kann der wissenschaftliche Gehalt auch historischer Sachverhalte solcher Projekte am besten gesteigert werden.

"Schreiben"

Die mangelnde Verbreitung kollaborativen Schreibens in den Geschichtswissenschaften entspringt einer langen Tradition der Geschichtsschreibung, die eine auktoriale Erzählstruktur bevorzugt. Es steht aber zu vermuten, dass die Schreibprozesse schon heute viel öfter kollaborative Elemente aufweisen, als dies in den fertigen Texten sichtbar ist. Dies gilt auch für die Rolle von ICT bei der Unterstützung solcher gemeinsamer Schreibprozesse. Gehen wir von der Aufteilung in verschiedenen Varianten des kollaborativen Schreibens aus, ist die wichtige Funktion von e-Mail oder Lern-Management-Systemen bei der Kommunikation über und Kooperation für gemeinsam erstellte Texte festzustellen. Daran schliesst sich die Bedeutung der Praxis an, in Dokumenten im so genannten "Änderungsmodus" zu schreiben, der die Veränderungen aller beteiligter Autor/innen gegenüber dem Ausgangstext auszeichnet.

Blogs oder Wikis hingegen werden in den Geschichtswissenschaften bislang kaum für kollaboratives Schreiben benutzt. Darum sind hier weniger konkrete Anwendungen zu beurteilen, sondern die Potentiale des ICT-gestützten kollaborativen Schreibens für die Geschichtwissenschaften.

Analysiert man Blogs und Wikis etwas genauer, scheint eine Tendenz zu einer unausgesprochenen "Arbeitsteilung" beim ICT-gestützten kollaborativen Schreiben erkennbar zu werden:

  • einerseits die sehr subjektiven, von Einzelpersonen verantworteten, zugespitzt formulierten Blogs, die Meinungen, Haltungen, Deutungen präsentieren und
  • andererseits die kollaborativ erstellten, lexikalischen, einem neutralen Standpunkt verpflichteten (und daher in einzelnen Fällen umso mehr umstrittenen und diskutierten) Wikis - wie im Paradebeispiel Wikipedia, das eher Faktenwissen abbildet, danz dem enzyklopädischen Vorbild verpflichtet?

Wikis tendieren dazu, Texte mit dem grösstem gemeinsamen Nenner der Teilnehmenden zu generieren - oder sie werden schnell unübersichtlich. Dies ist etwa auf den Diskussionseiten zu den verschiedenen Wikipedia-Artikeln zu beobachten. Die verschiedenen Diskussionstränge werden schnell unübersichtlich und schwer nach zu verfolgen. Pointierte Meinungen sind eher in Blogs, oder noch eher in den Kommentaren zu Blogs zu finden - oder in Diskussionsforen. Es ist aber schon schwer, den Überblick über die eigenen Kommentare zu behalten (die ja in slahsdot eine zentrale Rolle für den gesamten Bewertungsmechanismus sind). Dazu gibt es mit der Software CoComment nun einen Lösungsansatz.

Diese Tendenz zur Einpegelung auf einen gemeinsamen Standard führt aber vor allem bei offenen und anonymen Ansätzen, wie in Wikipedia, zu neutralen Artikeln. Wikis ermöglichen auch kollaboratives Schreiben von Arbeitsgruppen mit gemeinsamen Ansichten, die den Schreibprozess deklarierterweise steuern oder Personen ausserhalb der Gruppe gar keine Schreibrechte zugestehen. Je grösser die Gruppe oder je ausgeprägter die Aussichten sein sollen, desto mehr Zeit wird die Konzeption der Texte benötigen. Doch auch Konzepte können mit Wikis kollaborativ erarbeitet werden.

Doch ob es sich um Blog, Wiki oder um via e-Mail verschickte Textdateien handelt: wer zuerst schreibt, hat immer die Definitionsmacht, welche Inhalte behandelt werden und worauf andere Nutzer/innen zu reagieren haben (8). Dies ist ein echter Test für kollaborative Schreibprozesse, auch wenn diese wie beispielsweise in Wikipedia sehr gezielt dialogisch und nicht hierarchisch angelegt sind, also einen Ansatz verfolgen, der allen Autor/innen einen gleichberechtigten Zugang zum Schreibprozess gewähren.

Überdies geht es nicht nur um das gemeinsame Verfassen von Texten. Es geht bei ICT-gestütztem kollaborativen Schreiben um Hypertexte. Folglich muss die Schreibkompetenz (bzw. die Kompetenzdimension "Schreiben") auch das Erstellen und Redigieren von Hypertexte umfassen. Dabei geht es nicht nur darum, Links in einem Hypertext zu setzen und damit zu entscheiden, welche Links den Text sinnvoll ergänzen und für die Leser/innen einen Mehrwert generieren können. Jedes Wort mit einem Link zu versehen scheint nämlich wenig sinnvoll, auch wenn hier auch schon Software (Hyperwords) entwickelt wurde, die den Leser/innen noch mehr Freiheiten zu gewähren scheint. Mit Hyperwords kann jedes beliebige Wort mittels Mausklick zu einem Link werden und in Google, Amazon oder anderen Datenbeständen abgefragt werden. Dennoch bleibt die Verlinkung eines Hypertexts eine zentrale strukturierende Aufgabe der Autor/innen, die besonders bei der Planung und Entwicklung eines Hypertext-Gebildes einiges an Erfahrung und konzeptioneller Planungsarbeit verlangt.

Auch die multimedialen Eigenschaften von ICT sind angemessen beim ICT-gestützten Schreiben zu berücksichtigen. Die Einbindung von Bild-, Audio- und Film-Dateien stellen nicht nur technische Herausforderungen dar, sondern setzen auch ein Verständnis vom Zusammenspiel dieser Medien, von Intertextualität oder Intermedialität voraus.

Reden

Social Software dient zunächst einmal dazu, die Informationen zu sammeln und zu strukturieren dank geeigneter Software und dem Engagement von Vielen. Doch sie hat auch das Potential, für Reflexion eingesetzt zu werden. Und damit sind nicht einfach die Kommentarfunktionen in etablierten Medien oder die Forums-Funktionen in verschiedenen Lern-Management-Systemen, aber auch nicht Blogs und Wikis gemeint. Die Technologien sind vorhanden. Sind die Nutzungen, bzw. die Vorstellungen von möglichen wissenschaftlichen Nutzungen klar genug? In Wikis lassen sich viele Dinge abbilden, weil die Technologie relativ einfach und formlos ist. Debatten, Diskussionen, Reflexionen und Auseinandersetzungen wären darin ohne weiteres möglich - wenn sich Wissenschaftler/innen finden, die auf diese Weise sich mit ihren Ideen und Erkenntnissen auseinandersetzen möchten.


Literatur und Links

  1. Meyer, Bertrand: Defense and Illustration of Wikipedia, 2006 (http://se.ethz.ch/%7Emeyer/publications/wikipedia/wikipedia.pdf [Zugriff 13.1.2006])
  2. Denning, Peter, Horning, Jim; Parnas, David; Weinstein, Lauren: "Wikipedia Risks (=Inside Risks 186)", in: Communications of the ACM, 48 (12, 2005) (http://www.csl.sri.com/users/neumann/insiderisks05.html [Zugriff 13.1.2006])
  3. McHenry, Robert: The Faith-Based Encyclopedia, TCS Daily, 15.11.2004 (http://www.tcsdaily.com/article.aspx?id=111504A [Zugriff: 18.2.2006])
  4. http://de.wikipedia.org/wiki/GNU_FDL
  5. http://de.wikipedia.org/wiki/Creative_Commons
  6. Suber, Peter: Open Access Overview, 21.6.2004, Last Revision 15.2.2006. (http://www.earlham.edu/~peters/fos/overview.htm [Zugriff vom 19.2.2006])
  7. Bleich, Holger: wikipedia.de: Keine Weiterleitungssperre mehr wegen "Tron"-Artikeln [Update], in: heise online news, 20.1.2006, (http://www.heise.de/newsticker/meldung/68586 [Zugriff 19.2.2006])
  8. Weber, Stefan: Kommen nach den "science wars" die "reference wars"? in: Telepolis, 29.9.2005 (http://www.heise.de/tp/r4/artikel/20/20982/1.html [Zugriff 19.2.2006])

HistCollaboratory: Navigationspfad von Jan Hodel

--Jan Hodel 16:48, 18. Feb 2006 (CET)