Übersichten

Aktuelle Ausgabe
Archiv
Impressum
@Redaktion@
   

Band 10 • 2007 • Teilband II

ISBN 978-3-86004-205-2

Geschichte im Netz: Praxis, Chancen, Visionen

zur¨ck

Collaboratories. Über das gemeinschaftliche Schreiben von Geschichte

 

Collaboratories. Das Schreiben der Geschichte im vernetzten Zeitalter

von Peter Haber

Seit rund zehn Jahren lassen sich in den Geschichtswissenschaften tiefgreifende Veränderungen beobachten, die durch die neuen Informations- und Kommunikationstechnologien und insbesondere das Internet ausgelöst wurden. So sind heute E-Mail, Newsletters, Homepages oder bibliografische Datenbanken kaum mehr aus dem universitären Alltag wegzudenken.

Im Rückblick lassen sich dabei drei Phasen beobachten: In einer ersten Phase, die ungefähr in der Mitte der neunziger Jahre des letzten Jahrhunderts ihren Anfang nahm, begannen Historiker/innen, das Netz gezielt als Recherchierinstrument für historische Forschungen zu nutzen. Das Netz – das war in erster Linie das World Wide Web (WWW), das zu diesem Zeitpunkt seinen Siegeszug antrat und die älteren Internet-Dienste wie etwa Telnet, Gopher und File Transfer verdrängte. Die wichtigsten Ressourcen waren in dieser Zeit Bibliothekskataloge, die aber nicht selten nur über umständliche Telnet-Verbindungen zu erreichen waren. Historisch relevantes Material („Quellen“) war damals rar und die Aufbereitung fast ausnahmslos als spartanisch bis dilettantisch zu bezeichnen. In diesen ersten Jahren des WWW-Booms wurde das Netz von den meisten Historikern/innen (wenn überhaupt) fast ausschließlich als Möglichkeit genutzt, um Informationen zu beziehen, nicht aber, um selbst Informationen im Netz einzustellen.

Erst mit einigen Jahren Verzögerung wurde das WWW als mögliche Plattform zur Selbstdarstellung und zur Publikation eigener Forschungsergebnisse wahrgenommen. Besonders deutlich lässt sich dieser Wandel bei den Webauftritten Historischer Institute beobachten: Während in den Pionierjahren der ersten Phase Konzeption und Pflege eines allfälligen Web-Auftrittes Sache von studentischen Hilfskräften und dem EDV-Support war, avancierte das Thema in den folgenden Jahren vielerorts allmählich zur Chefsache. Denn einher mit der Konzeption eines Webauftritt gingen in der Regel Diskussionen über Strukturen, Hierarchien und Kompetenzen, die nun plötzlich offen gelegt und benannt werden mussten. Auch in dieser zweiten Phase, in der das Web nicht nur als Recherchierinstrument, sondern auch als Distributionskanal wahrgenommen wurde, waren die meisten Historiker/innen zurückhaltend, wenn es darum ging, eigene Texte oder Forschungsberichte online zu veröffentlichen. Die bevorzugten Kommunikationsmedien in den Geschichtswissenschaften blieben (und bleiben wohl vorläufig auch) die gedruckte Monografie und der Aufsatz in einer gedruckten Zeitschrift. Die Publikation von Online-Texten wurde (und wird) als wenig prestigeträchtig angesehen, da insbesondere Mechanismen der Qualitätskontrolle und eine garantierte Langzeitverfügbarkeit fehlen. Aber immerhin: an den Rändern des Faches, in den Spezialdisziplinen und in denjenigen Bereichen, die stark global vernetzt sind, hat sich das Klima ein wenig verändert. Digitale Publikationen sind nicht mehr tabu, aber sie fristen noch immer ein Schattendasein. Zu den wenigen wirkungsmächtigen Ausnahmen im deutschen Sprachraum gehört sicherlich das Projekt H-Soz-u-Kult. Bereits 1996 gestartet, ist es der Diskussionsliste gelungen, das traditionelle Kommunikationsgefüge – insbesondere im Bereich der Rezensionen und der „Call for Papers“ – zu durchbrechen und neue Strukturen zu erschaffen.

Aber auch H-Soz-u-Kult nutzt das Internet lediglich als Distributionskanal. Die drei hervorstechendsten Merkmale des World Wide Web – Hypertextualität, Multimedialität und Interaktivität – spielen bei H-Soz-u-Kult kaum eine Rolle. Verlinkt wird fast nur auf Bibliothekskataloge, Bilder und Töne kommen so gut wie gar nicht vor und Interaktivität findet nur im klassischen Dreieck Autor/in–Redaktor/in–Leser/in statt. So gesehen ist auch H-Soz-u-Kult ein typisches Kind dieser zweiten Phase.

Der Beginn der dritten Phase lässt sich auf das Jahr 2004 datieren, als zahlreiche neue Dienste im Netz auftauchten, die alle etwas gemeinsam hatten: Unter der konsequenten Nutzung von Hypertext, Multimedia und Interaktion schufen sie soziale Plattformen, auf denen Bilder, Reisetipps, Tagebuchnotizen – oder eben auch wissenschaftliche Bibliografien oder Texte – ausgetauscht und kollaborativ weiter bearbeitet werden konnten. Das neudeutsche Buzzword für diese Dienste lautet Web 2.0.

Mit Web 2.0 werden erstmals die neuen Möglichkeiten des Mediums WWW ausgereizt und nicht nur alter Wein in neuen Schläuchen serviert. Nach der Informationsbeschaffung in der ersten und der Repräsentation von Wissen in der zweiten Phase steht nun, in der dritten Phase der Web-Rezeption, das kollaborative Arbeiten im Netz im Vordergrund.

Das bekannteste Projekt dieses neuen kollaborativen Netz-Paradigmas ist Wikipedia, eine offene Enzyklopädie im doppelten Sinn: Nicht nur der Zugang zu den Texten, die in der Wikipedia versammelt sind, ist frei, auch jedermann und jedefrau kann die Texte in der Wikipedia überarbeiten, umschreiben und neue Texte anlegen. Wikipedia war in den letzten Monaten oftmals in den Schlagzeilen: Manipulationsversuche, eine oftmals schlechte Qualität der Einträge und die Frage, wie es denn weitergehen soll mit diesem Mammutprojekt, scheinen die Gemüter zu bewegen. Dabei ist – zumindest aus der Sicht der Geschichtswissenschaften – eines in Vergessenheit geraten: Interessant an Wikipedia sind nicht die historischen Inhalte, die dort zu finden sind, sondern die Art und Weise, wie die Texte entstehen und wie die Diskussionen geführt werden. Das Wiki-Prinzip – einfache Bearbeitung der Texte im Browser und die Möglichkeit, alle Veränderungen zu verfolgen und notfalls wieder rückgängig zu machen – hat sich in vielen Firmen bereits durchgesetzt. Handbücher, Anleitungen und ähnliche Dokumente werden in entsprechenden Intranets immer häufiger mit Wiki-Software erstellt. Und in den Wissenschaften?

Obwohl die poststrukturalistische Literaturtheorie bereits vor Jahrzehnten den Tod des Autors verkündet hat – Roland Barthes’ gleichnamige Schrift (La mort de l’auteur) erschien erstmals 1968 – erfreut sich zumindest der geschichtswissenschaftliche Autor noch immer bester Gesundheit. Was in den Naturwissenschaften seit Jahren schon gang und gäbe ist, die Mitautorschaft eines ganzen Teams unter der Federführung des Gruppenleiters/der Gruppenleiterin – ist in den Geisteswissenschaften immer noch die Ausnahme. Ein Text – ob Aufsatz oder Monografie – hat in der Regel eine/n Autor/in und damit Schluss. Das höchste der kollaborativen Gefühle sind gemeinsame Mitherausgeberschaften von Sammelbänden, an der sich höchstens drei oder vier Personen beteiligen.

Ob die neuen Möglichkeiten des Web 2.0 auch in den Geschichtswissenschaften zu einem Umdenken führen werden, bleibt ungewiss. Vieles spricht dafür, dass auch in Zukunft die individuelle Autorschaft wissenschaftlicher Texte konstituierendes Element in den Verteilungskämpfen des geschichtswissenschaftlichen Feldes bleiben wird. Und das mag vielleicht gar nicht nur schlecht sein. Ebenfalls plausibel scheint aber die Annahme, dass sich im paratextuellen Bereich – im ganzen Bereich der wissenschaftlichen Infrastruktur – einiges in Zukunft ändern wird. So wird zwar das Verfassen von Monografien, Aufsätzen und Rezensionen immer noch die sichtbare und identifizierbare Leistung eines bestimmten, namentlich ausgewiesenen Autors bzw. einer Autorin bleiben, aber Quellensammlungen, Editionen, Bibliografien und vielleicht auch neue Formen der historischen Fachinformation werden mehr und mehr kollaborativ und netzgestützt erstellt werden.

Die folgenden Texte schlagen den Bogen von der theoretischen Diskussion über aktuelle Fragestellungen hin zu laufenden und erst anlaufenden Projekten im Bereich des kollaborativen geschichtswissenschaftlichen Arbeitens.

***

Dr. Peter Haber ist wissenschaftlicher Mitarbeiter am Forschungsprojekt «digital.past | Geschichtswissenschaften im digitalen Zeitalter» am Historischen Seminar der Universität Basel und Lehrbeauftragter am Institut für Medienwissenschaften der Universität Basel. Er hat mehrere Publikationen zum Thema Geschichte und Neue Medien vorgelegt, zuletzt (zusammen mit Dr. Angelika Epple): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich 2005. Im Netz ist er unter <http://hist.net/haber/> zu finden. E-Mail: peter.haber@unibas.ch


Gemeinschaftliche Schreibprozesse in der Wikipedia

von Jakob Voß

Die Online-Enzyklopädie Wikipedia ist als populäre Internetquelle für Informationen zu den verschiedensten Themen bekannt. Nach dem Wiki-Prinzip kann jeder Leser Artikel direkt bearbeiten und so gleichzeitig als Autor tätig werden. Die Inhalte der Wikipedia werden auf diese Weise gemeinschaftlich von mehreren tausend Freiwilligen erstellt. Die Arbeitsprozesse innerhalb der Community sind für Außenstehende allerdings trotz des offenen Charakters des Projekts oft nicht direkt nachvollziehbar. Der Beitrag erklärt typische Verfahren und Besonderheiten der Textentstehung in Wikipedia. Als zentrale Grundlagen lassen sich dabei die Offenheit des Systems und die Bildung einer selbstorganisierten Community mit gemeinsamen Zielen ausmachen. Die Darstellung wird durch quantitative und reflektive Analysen der gemeinschaftlichen Schreibprozesse gestützt.

***

Einleitung

Die freie Online-Enzyklopädie Wikipedia hat sich innerhalb von fünf Jahren zu einer der 20 meistbesuchten Webseiten weltweit entwickelt. [1] Für viele Internetnutzer [2] ist sie eine der ersten Ausgangspunkte für ihre Recherchen. Die mehr als vier Millionen Artikel in über 200 Sprachen werden von über 50.000 regelmäßigen und vielen weiteren freiwilligen Autoren gemeinschaftlich in einem Wiki erstellt, korrigiert und ausgebaut. [3] Dieser Beitrag soll einen Einblick in die Arbeitsprozesse der Community geben und erklären, wie es die freiwilligen Mitarbeitern schaffen, ohne vorgegebene Führungsstrukturen gemeinsam produktiv an Artikeln zu arbeiten. Für eine allgemeine Einführung in die (speziell deutschsprachige) Wikipedia sei auf das Wikipedia-Buch [4] verwiesen. An dieser Stelle sollen nur kurz die wesentlichen Besonderheiten und Erfolgsfaktoren der Wikipedia genannt sowie grundlegende Bearbeitungs- und Entscheidungsprozesse dargestellt werden. Anschließend folgen mit einer Betrachtung der Wikipedia als selbstorganisiertem System und einer quantitativen Analyse der Benutzeraktivität zwei Beschreibungen, die im Schlussteil zusammengeführt werden.

Besonderheiten der Wikipedia

Zu den Ursachen des Erfolgs der Wikipedia zählen neben dem Wiki-Prinzip, nach dem sich jeder direkt beteiligen kann, die folgenden drei Faktoren, deren Kenntnis für das Verständnis des Projekts wesentlich sind: Erstens werden alle Beiträge als „Freie Inhalte“ gesammelt, die unter einer freien Lizenz für weitere Verwendung zur Verfügung stehen. Zweitens gibt es ein gemeinsames Ziel – das Ziel, eine Enzyklopädie zu schreiben, wobei der so genannte ‚Neutrale Standpunkt‘ als Richtschnur gilt. Und drittens wird die Wikipedia von einer selbstorganisierten Community getragen, deren Mitglieder gegenseitig Vertrauen zueinander aufbauen.

Wikis (aus dem hawaiianischen wikiwiki für ‚schnell‘) sind Websites, deren einzelne Seiten direkt im Webbrowser geändert werden können. Im Gegensatz zu Content Management-Systemen gibt es in der Regel keine ausgefeilte Differenzierung von Lese- und Schreibrechten. Stattdessen enthält jede Seite eines Wikis einen Link, durch den sich ein Dialog öffnet, in dem sich der Inhalt der Seite bearbeiten lässt. Dies geschieht in einer vereinfachten Syntax, die es auch ohne Kenntnisse von HTML erlaubt, Formatierungen und Links zu anderen Seiten des Wikis oder ins Internet anzulegen. Alle Bearbeitungsschritte werden gespeichert, so dass alle Änderungen öffentlich verfolgt werden können. Angemeldete Nutzer können sich dazu beispielsweise in Wikipedia einzelne Seiten auf ihre „Beobachtungsliste“ setzen oder die Liste der letzten Änderungen und neuer Artikel verfolgen. Im Prinzip kann in einem Wiki nichts zerstört werden, da alle Änderungen rückgängig gemacht werden können. Das Wiki-Prinzip gestattet somit viel Freiraum für Experimente und motiviert die Teilnehmer durch die direkte Umsetzung ihrer Beiträge.

Die Bezeichnung von Wikipedia als „freie Enzyklopädie“ steht dafür, dass es sich um ein Werk handelt, das frei im Sinne so genannter „Freier Inhalte“ ist. Freie Inhalte sind Texte, Bilder oder andere Medien, deren Verbreitung und Nutzung keinen engen urheberrechtlichen Schranken unterworfen ist. Die Inhalte der Wikipedia sind dabei unter den Bedingungen der GNU Free Documentation License (GFDL) lizensiert, die an die GNU General Public License (GPL) aus der Freien Software-Bewegung angelehnt ist. Diese beinhaltet die Forderung, dass Ableitungen freier Inhalte ebenfalls frei sein müssen (Copyleft oder Share Alike). Grundgedanke ist dabei in erster Linie nicht etwa das Bestreben, das Urheberrecht aufzuheben, wie von Kritikern angeführt wird, sondern die Schaffung nachhaltiger Allgemeingüter. Ingo Frost schreibt dazu: „Freie Inhalte können, dürfen und sollen kopiert und verbreitet werden. Leitgedanke dabei ist, dass Erweiterungen des Inhalts ebenfalls wieder frei zugänglich sein sollten. Der Aufbau von Freien Inhalten ist somit ein nachhaltiges Konzept, bei dem es sich für den einzelnen ‚lohnt sich einzubringen‘.“ [5] Die so sichergestellte Nachhaltigkeit erhöht gleichzeitig die Effizienz wie auch die Motivation [6] der beteiligten Autoren. Für das durch die Arbeit in Wikipedia befriedigte menschliche Bedürfnis, eigene Werte und Erfahrungen an kommende Generationen weiterzugeben, prägte der Psychoanalytiker Erik Erikson den Begriff der „Generativität“. [7]

Der Neutrale Standpunkt (auch NPOV für ‚Neutral Point Of View’) [8] ist eine der wenigen grundsätzlichen Regeln in der Wikipedia, die praktisch nicht verhandelbar sind (gleichwohl gibt es um seine Auslegung in der Praxis regelmäßig heftige Diskussionen). [9] Der Neutrale Standpunkt verlangt, Sachverhalte in einer Weise zu präsentieren, dass sowohl ihre Gegner als auch Befürworter deren Beschreibung akzeptieren können. Dies geschieht, indem vor allem bei strittigen Themen alle wesentlichen Positionen und Argumente zu einem Thema angemessen erwähnt und ihren jeweiligen Vertretern zugeschrieben werden. Das pluralistische Prinzip des Neutralen Standpunkts ist motiviert vom Gedanken der Aufklärung, in deren Tradition viele ‚Wikipedianer’ ihr Projekt sehen. [10] Im Zeitalter der Postmoderne ist allerdings das von der Aufklärung propagierte rationale Hinarbeiten auf objektive (‚neutrale‘) Wahrheiten nicht mehr möglich. Stattdessen lässt sich die gemeinsame Erstellung von enzyklopädischen Artikeln in einem Wiki als grundsätzlich nie abgeschlossener Diskurs mit dem Ziel, eine für alle rational denkenden Beteiligten akzeptable Beschreibung zu finden, verstehen. Das Wiki-Prinzip ermöglicht jederzeit ein erneutes In-Frage-Stellen und die Dekonstruktion [11] der bisherigen Darstellung. Der Neutrale Standpunkt dient dabei als Richtschnur, damit der Prozess nicht in Beliebigkeit ausartet und Streitigkeiten beigelegt werden können. Eine genauere Analyse der Neutralität in Wikipedia nimmt Joseph Reagle vor. [12]

Grundlegende Bearbeitungsprozesse

Die Analyse der vorhandenen Entscheidungsprozesse und der Organisationsform der Wikipedia erfordert zunächst ein grundlegendes Verständnis davon, was für Entscheidungen in Wikipedia überhaupt getroffen werden. Grundsätzlich wirkt jeder, der oder die sich aktiv in Wikipedia einbringt – seien es routinierte Wikipedianer oder Leser, die lediglich einen Kommentar oder eine kleine Korrektur hinterlassen – mit jeder einzelnen Bearbeitung an der Entscheidungsfindung mit. Mit dem Hinweis „Sei mutig!“ [13] werden Leser dazu aufgefordert, sich direkt durch Verbesserungen an Artikeln zu beteiligen. Dazu gehört auch das Rückgängigmachen (revert) von unpassenden Beiträgen anderer Benutzer. Bei Unklarheiten und andauernden Streitigkeiten können auch Fragen und Kommentare auf der Diskussionsseite eines Artikels hinterlassen werden.

Erfahrene Autoren, die Vertrauen innerhalb der Community besitzen, können den Status eines „Administrators“ bekommen. Damit haben sie die Möglichkeit einzelne Artikel für die Bearbeitung oder Verschiebung durch anonyme oder angemeldete Nutzer zu sperren, einzelnen Autoren oder IP-Nummern zeitweilig die Bearbeitungsmöglichkeit zu entziehen und Artikel zu löschen. Wie jede Änderung können auch diese Bearbeitungen über öffentliche Spezialseiten eingesehen und im Zweifelsfall rückgängig gemacht werden.

Wikipedia als selbstorganisiertes System

Die Frage nach der tatsächlichen Organisationsform und Entscheidungsstruktur der Wikipedia wird innerhalb wie außerhalb des Projektes kontrovers diskutiert. In der deutschsprachigen Wikipedia werden auf der Seite „Wikipedia: Machtstruktur“ [14] mit Anarchie, Diktatur, Demokratie, Meritokratie, Plutokratie und Technokratie verschiedene Regierungsformen aufgeführt und dargelegt, dass Wikipedia Züge von allen aufweist. Wesentlich für die inhaltliche Arbeit in der Wikipedia ist das anarchistische Element, das in Aufforderungen wie „Ignoriere alle Regeln!“ deutlich wird. [15] Die trotz des anarchischen Charakters vorhandenen Regeln und Leitlinien für die Formulierung von Artikeln werden innerhalb der Wikipedia selbst entwickelt. Sie etablieren sich weniger aufgrund von Autoritätsbestimmungen oder Mehrheitsentscheidungen, sondern weil sich gewisse Praktiken als sinnvoll erweisen und deshalb von immer mehr Benutzern aufgegriffen werden. Die Form der Entscheidungsfindung weist sowohl starke Züge einer Konsensdemokratie (Form der Demokratie, bei der anstelle einer Mehrheit der Dialog und Konsens aller angestrebt wird) als auch einer Meritokratie (Regierungsform, bei der Amtsträger aufgrund ihrer Leistung ausgewählt werden) auf. Streitigkeiten sind dabei nicht auszuschließen und werden möglichst durch sachliche Diskussion und Umgangsformen („Wikiquette“) beigelegt.

Die Tatsache, dass das Projekt sich trotz fehlender Leitungsstrukturen erfolgreich weiter entwickelt, lässt sich durch das Prinzip der Selbstorganisation erklären. In der Theorie (oder besser den Theorien) der Selbstorganisation ist vor allem das Konzept der „Autopoiese“ (aus dem Griechischen αυτό für ‚selbst‘ und ποίησις für ‚erzeugen‘ oder ‚machen‘) der chilenischen Neurobiologen Huberto Maturana und Francisco Varela einflussreich. Sie benutzen den Begriff der Autopoiese für eine funktionale Charakterisierung des Lebendigen: „Unser Vorschlag ist, daß Lebewesen sich dadurch charakterisieren, daß sie sich – buchstäblich – andauernd selbst erzeugen. Darauf beziehen wir uns, wenn wir die sie definierende Organisation autopoietische Organisation nennen.“ [16] Das ursprünglich vor allem kognitionswissenschaftliche Konzept der Autopoiese wurde in anderen Disziplinen übernommen, wobei vor allem die Position des radikalen Konstruktivismus in der Philosophie und die Übertragung auf soziale Systeme in den Sozialwissenschaften zu nennen sind. Allerdings kann der Begriff in den unterschiedlichen Disziplinen nicht ohne weiteres gleichgesetzt werden, da er jeweils in den Kontext einer fachspezifischen Theorie eingebunden ist. Für die Betrachtung der Organisation der Wikipedia bietet sich – abgesehen von der Feststellung, dass es sich um ein lebendiges soziales System handelt mit einer konstruktivistischen Sicht auf den Neutralen Standpunkt, auf die hier nicht weiter eingegangen werden soll – die Blickweise der Betriebswirtschaftslehre an. William Davidow und Michael Malone stellten Anfang der 1990er Jahre mit dem Begriff des „Virtuellen Unternehmens“ [17] ein Organisations- und Managementkonzept vor, das zumindest im Innenverhältnis auf Vertrauen und Selbstorganisation basiert. In einem virtuellen Unternehmen bilden sich projektbasiert Kooperationen heraus, ohne dass ein zentrales Management existieren muss. Dies ist insbesondere durch den Einsatz moderner Informations- und Kommunikationstechnologien möglich. Mittlerweile wurde darauf hingewiesen, dass die dabei vorhandene Selbstorganisation auch mit gewissen Nachteilen verbunden ist. Die Vorteile von Selbstorganisation bestehen in einer stärkeren Motivation der Mitarbeiter und Flexibilität zur Anpassung an unterschiedliche Bedingungen, was einen geringeren Zeitaufwand zur Folge haben kann, der sich wiederum in geringeren Kosten niederschlägt. Auf der anderen Seite können Mitarbeiter durch die ungewohnte Freiheit überfordert werden und das Konfliktpotential ist höher, da Regelungen zur Verteilung von Aufgaben und Kompetenzen selbst ausgehandelt werden müssen. Auch stellt Selbstorganisation hohe Anforderungen an die Führung, sofern diese überhaupt möglich ist, denn alle Regeln und Ordnungen befinden sich – zumindest potentiell – in ständiger Änderung, was zu schnelle Entscheidungen wiederum behindern kann.

Die Vor- und Nachteile einer selbstorganisierten Arbeitsweise lassen sich auch in Wikipedia beobachten: Wikipedianer arbeiten freiwillig, sind sehr motiviert. Ohne formale Hürden schließen sie sich spontan zu Arbeitsgemeinschaften zusammen und trennen sich wieder, so dass flexibel auf aktuelle Ereignisse reagiert werden kann. Gleichzeitig kann es bei den Beteiligten zu „Wikistress“ [18] kommen und vor allem bei kontroversen Themen gibt es keine Möglichkeit, eine bestimmte Entscheidung zu erzwingen. [19] Eine weitergehende Erklärung der Wikipedia als selbstorganisiertes System liefert Ingo Frost, der einen Vergleich mit Freiwilligenarbeit in gemeinnützigen Vereinen und anderen Partizipationsprojekten anstellt. [20] In beiden Fällen handelt es sich um selbstorganisierte Gemeinschaften, in denen soziales Vertrauen eine wichtige Rolle spielt. Soziales Vertrauen ist nach Robert Putnam [21] ein Gefühl der Übereinstimmung mit anderen Menschen, das dazu führt, dass Einzelne sich gegenseitig helfen, ohne eine Gegenleistung zu erwarten und darauf vertrauen, dass andere ebenso handeln.

Grad der Beteiligung und Autorenschaft

Ebenso wie klare Hierarchien unter den Autoren der Wikipedia fehlen feste Arbeitspensen und für eine regelmäßige Beteiligung zu erbringende Leistungen. Der Umfang der Beteiligung hängt lediglich von der Motivation und den Möglichkeiten potentieller Mitarbeiter ab. Da der Anteil der Autorenschaft einzelner Wikipedia-Benutzer an ganzen Artikeln nur schwer zu messen ist, wird im Folgenden die Anzahl von Bearbeitungen als Näherung für den Grad der Beteiligung in Wikipedia herangezogen. Der Datenbankdump aller vorhandenen Artikelversionen der deutschsprachigen Wikipedia enthielt zum 20.10.2005 insgesamt 7.216.350 Bearbeitungen, von denen 28 Prozent von IP-Nummern stammten und sich die restlichen auf 49.133 verschiedene Benutzeraccounts verteilten. Aufeinander folgende Bearbeitungen desselben Benutzers bzw. derselben Benutzerin am gleichen Artikel innerhalb einer Stunde (rund 31 Prozent) wurden zusammengefasst, da es sich eher um Zwischenspeicherungen als um eigenständige Bearbeitungen handelt. Die Verteilung der Benutzeraktivität anhand der Anzahl ihrer Bearbeitungen ist in Abbildung 1 dargestellt (links die Anzahl der Autoren mit bis zu 250 Bearbeitungen, rechts die Autoren geordnet nach der Anzahl ihrer Bearbeitungen).

Abbildung 1: Potenzgesetz bei der Verteilung der Benutzeraktivität

Die Verteilung lässt sich in doppelt-logarithmischer Darstellung durch eine Gerade annähern, deren Formel jeweils im Diagramm angegeben ist. Dabei handelt es sich um ein sogenanntes Potenzgesetz. Für die Benutzer mit bis zu 250 Bearbeitungen, die 96 Prozent aller Benutzeraccounts ausmachen, beträgt der Exponent n=1,5. [22] Allerdings entfallen auf diese 47.274 Benutzer nur knapp 16 Prozent aller Bearbeitungen; etwa drei Viertel aller Benutzer haben weniger als zehn Bearbeitungen getätigt. Die festgestellte ungleiche Verteilung ist im Bereich der Bibliometrie unter der Bezeichnung Lotkas Law bekannt. Sie wurde in verschiedenen Bereichen wissenschaftlicher Produktion überprüft und tritt unter anderem auch bei der Beteiligung von Open Source-Entwicklern an Softwareprojekten auf. [23] Vergleichbar mit der 80-20-Regel lässt sich die Verteilung der Benutzeraktivität in Wikipedia mit einer 90-10-Regel beschreiben, nach der weniger als zehn Prozent der Benutzer über 90 Prozent der Bearbeitungen unter Accounts tätigen. Der Verlauf für Benutzer mit hohen Bearbeitungszahlen (rechte Abbildung) weicht deutlich von einem reinen Potenzgesetz ab, ist allerdings noch immer sehr schief verteilt. Die Abflachung lässt sich damit erklären, dass es eine natürliche obere Grenze der Aktivität in Wikipedia gibt, da Wikipedianer auch noch anderen Tätigkeiten nachgehen müssen.

Die Bearbeitungszahlen sind zwar nur ein quantitives Kriterum, das nicht direkt mit dem Einfluss einzelner Autoren zusammenhängen muss; generell gilt jedoch, dass die Aktivität und damit auch der Einfluss von Wikipedia-Autoren sehr schief verteilt sind.

Zusammenfassung und Fazit

Zu den Ursachen des Erfolgs der Wikipedia zählen neben dem „Wiki-Prinzip“ die Beschränkung auf freie Inhalte, das gemeinsame Ziel einer Enzyklopädie nach dem „Neutralen Standpunkt“ und die Bildung einer selbstorganisierten Community, in der gegenseitiges Vertrauen vorherrscht. Von herkömmlichen Enzyklopädien unterscheidet sich Wikipedia durch den andauernden Diskurs, dem jeder Artikel durch Änderungen und Kommentare unterworfen ist. Damit ist sie ein lebendiger Ort, an dem Tausende Freiwillige versuchen, den über verschiedene Teildisziplinen und Publikationen verstreuten Wissensstand allgemein verständlich und konsistent zusammenzufassen – eine Aufgabe, die in der Wissenschaft bisher durch Reviews und Lehrbücher abgedeckt wurde, die jedoch weit weniger aktuell und umfangreich sein können.

Die selbstorganisierte Arbeitsweise trägt wesentlich zur Motivation und Flexibilität bei. Auf der anderen Seite kann die ungewohnte Freiheit zu Überforderung und Frustration führen; auch die Möglichkeiten der Planung und Führung sind begrenzt. Das offene Wiki-Prinzip erfordert einiges an Anpassung. So zogen in einer Untersuchung der Mathematik-Enzyklopädie PlanetMath [24] etwa ein Drittel der Teilnehmer die Kontrolle durch einen Hauptautor bzw. eine Hauptautorin pro Artikel der freien Bearbeitung durch alle Teilnehmer vor. [25]

Der Grad der Beteiligung von einzelnen Mitarbeitern in Wikipedia ist stark ungleich verteilt. So sind weniger als zehn Prozent der Benutzer für über 90 Prozent der angemeldeten Bearbeitungen verantwortlich. Ein solches Ungleichgewicht ist allerdings keine Wikipedia-eigene Besonderheit, sondern lässt sich unter anderem auch bei wissenschaftlichen Publikationen nachweisen. Im Unterschied zur institutionellen Wissenschaft ist die Wikipedia jedoch sehr durchlässig für den Aufstieg innerhalb des Systems, da keine formalen Hürden vorliegen und der gesamte Arbeitsprozess transparent ist. Was allein zählt, ist die geleistete Arbeit für das gemeinsame Projekt.

Eine genauere Analyse der Herausbildung von Autorität und Vertrauen in Wikipedia geben unter anderem Ciffolilli [26] , Frost [27] und Reagle. [28] Für weitere Untersuchungen ist sicherlich die qualitative Darstellung einzelner „Karrieren“ innerhalb der Wikipedia-Community interessant. Die gespeicherten Versionsgeschichten und Diskussionsbeiträge ermöglichen dafür die Rekonstruktion der gesamten Entwicklungen einer aktiv beteiligten Person in der Wikipedia. Nicht zuletzt besteht die Frage, wie weit sich die freien Arbeitsprozesse der Wikipedia auf andere Inhalte und Formen sozialer Software übertragen lassen. [29] Für umfangreiche – auch historische – Forschungen zur Wikipedia bestehen also noch viele Möglichkeiten.

***

Jakob Voß ist seit August 2002 in der deutschsprachigen Wikipedia aktiv und gehört seit dessen Gründung dem Vorstand des Vereins Wikimedia Deutschland – Gesellschaft zur Förderung Freien Wissens e.V. an. Er forscht und publiziert regelmäßig im Bereich der Wikiforschung und Sozialer Software und arbeitet derzeit in der Verbundzentrale des Gemeinsamen Bibliotheksverbund (VZG). E-Mail: jakob.voss@nichtich.de


[1] Nach Angaben der Suchmaschine Alexa. Internet seit Mitte Januar 2006, siehe <http://www.alexa.com/data/details/traffic_details?y=t&url=www.wikipedia.org> (06.06.2006).

[2] Für den deutlich geringeren Anteil weiblicher Aktiver in Wikipedia kann nicht das generische Maskulinum verantwortlich gemacht werden. Die im Folgenden verwendeten Bezeichnungen für Personengruppen gelten für Menschen beiderlei Geschlechts.

[3] Umfangreiche Statistiken siehe unter <http://stats.wikimedia.org/EN/> (06.06.2006).

[4] Fiebig, Henriette (Hg.), Wikipedia. Das Buch, Berlin 2005.

[5] Frost, Ingo, Zivilgesellschaftliches Engagement in virtuellen Gemeinschaften. Eine systemwissenschaftliche Analyse des deutschsprachigen Wikipedia-Projektes, München 2006, S. 29.

[6] Schroer, Joachim; Hertel, Guido, Deutschsprachige Wikipedia. Erste Ergebnisse der Online-Befragung, 13.04.2005, <http://www.psychologie.uni-wuerzburg.de/ao/publications/pdf/wikipedia_poster_fg_2005.pdf> (06.06.2006).

[7] Vgl. McAdams, Dan P.; de St Aubin, Ed, A theory of generativity and its assessment through self-report, behavioural acts and narrative themes in autobiography, in: Journal of Personality and Social Psychology 62 (1992), S.1003-15.

[8] Mehr zum NPOV siehe <http://de.wikipedia.org/wiki/Wikipedia:Neutraler_Standpunkt> (06.06.2006).

[9] Siehe den Kommentar von Jimbo Wales am 5. November 2003 auf der Englischen Wikipedia-Mailingliste <http://mail.wikipedia.org/pipermail/wikien-l/2003-November/008096.html> (06.06.2006).

[10] So hat der Verein Wikimedia Deutschland folgendes Zitat des Enzyklopädisten Denis Diderot in die Präambel seiner Satzung übernommen: „[…] damit die Arbeit der vergangenen Jahrhunderte nicht nutzlos für die kommenden Jahrhunderte gewesen sei, damit unsere Enkel nicht nur gebildeter, sondern gleichzeitig auch tugendhafter und glücklicher werden, und damit wir nicht sterben, ohne uns um die Menschheit verdient gemacht zu haben.“ Vgl. <http://www.wikimedia.de/satzung> (06.06.2006).

[11] Der Begriff der Dekonstruktion ist hier nicht nur im Sinne von Jacques Derrida zu verstehen, sondern auch als ganz praktische Handlung, bei der bestehende Artikel umformuliert und neu miteinander in Beziehung gesetzt werden.

[12] Reagle, Joseph, Is the Wikipedia Neutral? (2005), <http://reagle.org/joseph/2005/06/neutrality.html> (06.06.2006).

[13] Vgl. <http://de.wikipedia.org/wiki/Wikipedia:Sei_mutig> (06.06.2006).

[14] Vgl. <http://de.wikipedia.org/wiki/Wikipedia:Machtstruktur> (06.06.2006). Siehe auch die englische Seite <http://meta.wikimedia.org/wiki/Power_structure> (06.06.2006).

[15] Vgl. <http://de.wikipedia.org/wiki/Wikipedia:Ignoriere_alle_Regeln> (06.06.2006).

[16] Maturana, Humberto; Varela, Francisco, Der Baum der Erkenntnis. Die biologischen Wurzeln des menschlichen Erkennens, Bern 1987, S. 50.

[17] Davidow, William; Malone, Michael, The Virtual Corporation. Structuring and Revitalizing the Corporation for the 21st Century, New York 1992.

[18] Vgl. <http://de.wikipedia.org/wiki/Wikipedia:Wikistress> (06.06.2006).

[19] Beispielsweise im juristischen Streit um die Namensnennung des ehemaligen Hackers Boris Floricic. Siehe dazu Mielke, Kai, Wikipedia. Persönlichkeitsrechte eines Toten. in: c't. Magazin für Computertechnik 5 (2006), S. 106-107.

[20] Frost, Ingo, Zivilgesellschaftliches Engagement in virtuellen Gemeinschaften (wie Anm. 4).

[21] Putnam, Robert D., Bowling Alone. The Collaps and Revival of American Community, New York 2000, S. 134.

[22] Vgl. Voss, Jakob, Measuring Wikipedia, in: Proceedings of the 10th ISSI Conference (2005).

[23] Newby, Gregory; Greenberg, Jane; Jones, Paul, Open source software development and Lotkas Law: Bibliometric patterns in programming, in: Journal of the American Society for Information Science and Technology (JASIST) 54 (2003), S. 169-178.

[24] Vgl. <http://planetmath.org/> (06.06.2006).

[25] Krowne, Aarron; Bazaz, Anil, Authority Models for Collaborative Authoring, in: Proceedings of the 37th Annual Hawaii International Conference on System Sciences (2004).

[26] Ciffolilli, Andrea, Phantom authority, self–selective recruitment and retention of members in virtual communities. The case of Wikipedia, in: First Monday 8, Nummer 12 (2003), <http://firstmonday.org/issues/issue8_12/ciffolilli/>.

[27] Frost, Ingo, Zivilgesellschaftliches Engagement in virtuellen Gemeinschaften (wie Anm. 4).

[28] Reagle, Jospeh, Do as I do. Leadership in the Wikipedia, (2005), <http://reagle.org/joseph/2005/ethno/leadership.html> (06.06.2006).

[29] Vgl. Voß, Jakob, Mehr als Marginalien. Das E-Book als gemeinsamer Zettelkasten, in: Libreas 2 (2005), <http://www.ib.hu-berlin.de/~libreas/libreas_neu/ausgabe2/005zet.htm> (06.06.2006).


Ein webbasiertes Handbuch für das katholische Deutschland – Das »Wikinger«-Projekt im Rahmen der »E-Science«-Initiative der Bundesregierung

von Karl-Joseph Hummel und Andreas Burtscheidt

WIKINGER ist ein interdisziplinäres Forschungsprojekt, bei dem Medien-, Ingenieur- und Geschichtswissenschaften kooperativ zusammenwirken, um Fragen und Methoden internetbasierter Wissensgenerierung und -organisation neu entwickeln bzw. weiter entfalten zu können. Als exemplarischer Forschungsbereich wurde die zeitgeschichtliche Katholizismusforschung gewählt, um die Verfahren auf einer begrenzten Domäne erproben zu können. Das Ziel des Projektes ist die Erstellung eines web-basierten „Biografisch-bibliografischen Handbuchs für das katholische Deutschland“. Umfangreiche biografisch-bibliografische Informationen zum deutschen Katholizismus sollen künftig zuverlässig, strukturiert und semantisch verknüpft für die forschende Wissenschaft und rezipierende Öffentlichkeit zur Verfügung stehen, damit zeitraubende Recherchen künftig unterbleiben können.

Vorstellung des Projektes WIKINGER

Im Jahr 2004 hat das Bundesforschungsministerium die deutsche E-Science-Initiative ins Leben gerufen. E-Science bedeutet enhanced Science. Unter diesem Schlagwort werden Entwicklungen und Aktivitäten mit dem Ziel gefördert, eine neue Service-Infrastruktur für die wissenschaftliche Kommunikation und Publikation, Informationsbeschaffung und Teamarbeit in virtuellen Organisationen zu entwickeln. Vergleichbare E-Science-Programme gibt es bereits in den USA (Cyberinfrastructure) und in Großbritannien.

Der Übergang von digitalen Bibliotheken und elektronischen Publikationen zu virtuellen Informations- und Arbeitsumgebungen ist eine Zielsetzung der Förderinitiative. Damit sollen innovative Formen der Zusammenarbeit von Fachdisziplinen in Natur- und Geisteswissenschaften mit professionellen Informations- und IT-Dienstleistungen entwickelt werden.

Das Bundesministerium für Bildung und Forschung fördert im Rahmen der E-Science-Initiative damit neue Verfahren für ein innovatives Informationsmanagement in Wissenschaft und Forschung. In der ersten Phase werden vier Verbundvorhaben von 25 Forschungseinrichtungen und Unternehmen mit 7,5 Millionen Euro gefördert. Das Wikinger-Projekt gehört zu diesen ersten bewilligten Forschungsvorhaben im Bereich der E-Science-Wissensvernetzung. [1]

WIKINGER (WIKI Next Generation Enhanced Repository) [2] ist ein interdisziplinäres Forschungsprojekt, bei dem Medien-, Ingenieur- und Geschichtswissenschaften kooperativ zusammenwirken, um Fragen, Methoden und Verfahren internetbasierter Wissensgenerierung und -organisation neu entwickeln bzw. weiter entfalten zu können.

Die Projektpartner (das Fraunhofer-Institut für Medienkommunikation, St. Augustin; die Fakultät für Ingenieurwissenschaften der Universität Duisburg-Essen [Fachbereich Computerlinguistik, Duisburg] und die Kommission für Zeitgeschichte [KfZG] in Bonn) schlagen mit dem Projekt eine kollaborative, semantisch vernetzte E-Science-Umgebung vor. WIKINGER ermöglicht die halbautomatische Vernetzung großer, digital vorliegender Datenmengen, die über eine E-Science-Plattform im gesamten wissenschaftlichen Wertschöpfungsprozess zu nutzen, pflegen und publizieren sind.

Als exemplarischer Forschungsbereich wurde die zeitgeschichtliche Katholizismusforschung gewählt, um die Verfahren auf einer begrenzten Domäne erproben zu können. Das Ziel des Projektes ist die Erstellung eines webbasierten „Biografisch-bibliografischen Handbuchs für das katholische Deutschland“.

Die KfZG steuert zum WIKINGER-Projekt die Inhalte des Systems bei, ist federführend bei der Evaluierung der entwickelten Systeme und organisiert und pflegt den Kontakt zur Forschungsgemeinde. Die Computerlinguistik der Universität Duisburg-Essen (CL-DUE) entwickelt die benötigten Verfahren zur Eigennamenerkennung und die Annotierungsumgebung. Das Fraunhofer-Institut für Medienkommunikation (IMK) entwickelt die Verfahren zur semiautomatischen Erstellung semantischer Netze auf der Basis von Techniken des Semantic Web [3] sowie die WIKINGER-Plattform und übernimmt das Projektmanagement.

Im Detail sollen Verfahren zur automatischen Eigennamenerkennung und zur semi-automatischen Erstellung von Semantischen Netzen weiterentwickelt werden, um in einem ersten Schritt Eigennamen (wie Personen-, Zeit-, Ortsangaben oder Namen historischer Ereignisse) aus einer umfangreichen Datenkollektion zu extrahieren und diese in einem zweiten Schritt computer-unterstützt zu einem semantischen Netz miteinander zu verknüpfen. Bei der Generierung des Netzes werden Techniken des Semantic Web eingesetzt, um eine einfache Verbreitung und Nachnutzung des gesammelten Wissens über das Internet für die Zukunft zu ermöglichen.

Die Präsentation und die kollaborative Weiterverarbeitung der extrahierten und vernetzten Daten erfolgt über ein Wiki-System, das von allen autorisierten Teilnehmern/innen des Wissenschaftsbereichs genutzt werden kann. Die im Projekt entwickelten Module sollen in ein erweitertes Wiki [4] integriert werden, damit dieses als Software einer wachsenden Wissenschaftsgemeinde zur Verfügung gestellt werden kann.

Die Bedeutung eines webbasierten Handbuchs für das katholische Deutschland

Für die zeitgeschichtliche Analyse von Zusammenhängen zwischen Gesellschaft und individuellen und kollektiven Werte- und Deutungsmustern kommt der sozialgeschichtlichen Analyse von Eliten, intermediären Gruppen, kollektiven Biografien und sozialen Netzwerken zentrale Bedeutung zu. So unbestritten es mittlerweile ist, dass gesellschaftliche Milieus Orte prägender sozialer und kollektiver Sinnstiftung für ihre Mitglieder waren und sind [5] , so wenig sind deren biografische Strukturen bisher systematisch untersucht worden. Die Gründe für dieses Forschungsdesiderat sind in der gleichermaßen heterogenen wie umfänglichen Datenüberlieferung und -erhebung zu suchen, die solchen sozialgeschichtlichen Längsschnittanalysen zugrunde gelegt werden müssen. [6]

Die digitale Bereitstellung biografisch-bibliografischer Informationen zu Personen der zeitgeschichtlichen Katholizismusforschung ermöglicht weitergehende, auch international anschlussfähige Erkenntnisse über Selbstverständnis, Strukturen und Veränderungen von Milieus, Teilgruppen und Eliten und erlaubt vertiefte Einsichten in die Demokratisierung der deutschen Gesellschaft in den letzten zwei Jahrhunderten.

Als eines der führenden Zentren der Katholizismusforschung in Deutschland begleitet und unterstützt die KfZG aktiv die aktuellen Forschungsdiskurse und leistet im Bereich der Grundlagenforschung seit mehr als vier Jahrzehnten Pionierarbeit durch die wissenschaftliche Edition von Akten und Dokumenten.

In der Reihe Veröffentlichungen der Kommission für Zeitgeschichte sind zahlreiche wichtige sozial- und mentalitätsgeschichtliche Einzelstudien zur Geschichte des deutschen Katholizismus erschienen. Dabei geht es im Kern um die Analyse und historische Beschreibung der durch Subkultur (Konfession, Glaubens- und Frömmigkeitsleben) und Substruktur (Vereine, Presse, Parteien, Führungseliten) gekennzeichneten katholischen Gesellschaftsgruppe. Diese bildete sich in Deutschland seit der zweiten Hälfte des 19. Jahrhunderts in Auseinandersetzung mit der modernen Gesellschaft aus und unterliegt spätestens seit den 1960er Jahren des 20. Jahrhunderts einem Transformationsprozess. [7] Innerkirchlich geht dieser Transformationsprozess einher mit einer neuen Standortbestimmung der katholischen Weltkirche in der modernen Gesellschaft auf dem Zweiten Vatikanischen Konzil (1962-1965).

Allgemeine biografische Enzyklopädien, Lexika oder Handbücher bieten grundsätzlich einen raschen Zugriff auf bio-bibliografische Daten führender Persönlichkeiten des öffentlichen Lebens in Deutschland seit Beginn des 19. Jahrhunderts. Die moderne prosopografisch und kulturgeschichtlich fragende Zeitgeschichtsforschung zieht daraus bereits einen großen Gewinn.

Für die Erforschung bestimmter Milieus oder Teilgruppen gilt dies bisher nicht in gleicher Weise. Der von Wilhelm Kosch bereits in den 1930er Jahren unternommene Versuch, das katholische Deutschland biografisch-bibliografisch zu erfassen, blieb unabgeschlossen; eine Fortführung und Aktualisierung hat bislang niemand unternommen. [8] Wer bio-bibliografische Angaben zu katholischen Persönlichkeiten der letzten 200 Jahre sucht, ist deshalb auf einen mühsamen Weg in verschiedensten fachspezifischen Veröffentlichungen und Spezialstudien verwiesen, die den unverzichtbaren Hinweis auf die Konfession häufig aber nicht enthalten. [9]

Dieses dringliche Forschungsdesiderat greift das WIKINGER-Projekt auf. Es sollen dabei die in den bisherigen Veröffentlichungen der Kommission für Zeitgeschichte enthaltenen bio-bibliografischen Informationen für die Extraktion durch das Verfahren der Eigennamenerkennung (Named-Entity-Recognition Verfahren, NER) aufbereitet und für eine erste Erprobung der Named-Entity-Extraktion und semiautomatischen Erstellung semantischer Netze zur Verfügung gestellt werden.

Datenbasis und Datenaufbereitung

Beschreibung der Datenquellen

In der Reihe Veröffentlichungen der Kommission für Zeitgeschichte („Blaue Reihe“) liegen bis zum Projektbeginn am 01. Oktober 2005 156 Bände mit einem Gesamtumfang von etwa 65.000 Druckseiten vor. Im Einzelnen handelt es sich um wissenschaftliche Editionen zeitgenössischer Quellen (Reihe A) und Einzelstudien zu Themen des deutschen Katholizismus im 19. und 20. Jahrhundert (Reihe B). [10] Während der Laufzeit des Projektes werden weitere Publikationen hinzukommen, vornehmlich Quelleneditionen zum deutschen Katholizismus in der Weimarer Republik, der Bundesrepublik und der DDR.

In der textlichen Struktur besteht jeder Einzelband aus einem Fließtext, einem kommentierenden Fußnotenapparat, einem Verzeichnis der in den Studien zitierten gedruckten Quellen und Literatur sowie einem Personen-, Orts- und Sachregister. Einzelne Bände weichen in Art und Umfang von dieser Struktur ab und bieten daher ein textliches Sonderformat: Beispielsweise listet die zweibändige Bibliografie „Der Katholizismus in der Bundesrepublik Deutschland“ – systematisch gegliedert – in 31.000 Einträgen das katholische Schrifttum seit 1945 auf [11] ; 6.100 Einträge umfasst das einbändige „Bibliografisch-historische Handbuch des Volksvereins für das katholische Deutschland“. [12] Die zweibändige biografisch-statistische Dokumentation „Priester unter Hitlers Terror“ führt – in Spalten – namentlich über 12.000 katholische Kleriker mit Angaben über das Geburts- und Sterbedatum und ihr deviantes Verhalten in der NS-Zeit auf [13] ; 1.200 Kurzbiogramme sind in ähnlicher Weise in einem Verzeichnis der „Mitarbeiter der Historisch-Politischen Blätter für das Katholische Deutschland 1838-1923“ [14] zusammengetragen.

Lässt man einmal diese Sonderformate unberücksichtigt, so kann von den Registereinträgen ausgehend eine Gesamtzahl von etwa 40.000 verschiedenen Personennamen angenommen werden, die in den 156 Bänden der „Blauen Reihe“ erwähnt werden. Die ergänzenden personenbezogenen Informationen sind je nach Band verschieden im textlichen Aufbau, der Dichte der Informationen und der Häufigkeit. Das Spektrum reicht von rudimentären Ergänzungen des namentlichen Registereintrags durch eine Funktionsbezeichnung, über Kurzbiogramme in kommentierenden Fußnoten bzw. Appendices bis zu Lebensabrissen im Fließtext. Die Anzahl der standardisierten Biogramme dürfte mit 10.000 nicht zu hoch angesetzt sein.

Als externe Datenquellen, die im Projektverlauf zusätzlich berücksichtigt werden sollen, kommen bislang nicht genutzte Personeninformationen zum deutschen Laienkatholizismus des 19. und 20. Jahrhunderts sowie Bildquellen hinzu:

Im Zentralkomitee der deutschen Katholiken (ZdK) enthalten die über viele Jahre angelegten, umfangreichen Dokumentationen und Datenbestände zahlreiche Angaben über namhafte Persönlichkeiten des öffentlichen Lebens. Sie sind sehr gut dazu geeignet, in die Informationsplattform integriert zu werden. Die Katholische Nachrichtenagentur (KNA) bietet über das KNA-Bildarchiv Fotos zu einem breiten Themenspektrum mit dem Schwerpunkt Kirche an. Es stehen rund 100.000 Bilder (meistens für die Zeit nach 1945) im digitalen Archiv zur Auswahl. Durch die Berichterstattung aktueller Ereignisse im In- und Ausland nimmt dieser Bestand täglich zu. [15] Im Rahmen des Projektes sind insbesondere zeitgenössische Fotos von Personen aus dem Bereich der Katholizismusforschung von Bedeutung. Bei der Aufbereitung der Bildquellen kann auf Erfahrungen des Großprojektes „Fotoarchiv Hoffmann“ der Bayerischen Staatsbibliothek in München zurückgegriffen werden. [16]

Personenbezogene Recherchen sind mit einem beträchtlichen Zeitaufwand verbunden. Erst die strukturierte Aufbereitung und semantische Vernetzung der bio-bibliografischen Informationen ermöglichen eine gleichermaßen beschleunigte und intensive Nutzung durch breite Benutzerkreise. Die zugleich vielfältigen und komplexen Datenquellen eignen sich ausgezeichnet, um Verfahren der Eigennamenerkennung und Methoden semantischer Vernetzung weiterzuentwickeln. Die prosopografischen und bibliografischen Informationen, die auf diese Weise erschlossen werden, sind sowohl für die gesellschaftliche Öffentlichkeit wie für die wissenschaftliche Forschung von großem Informationswert.

Arbeitsschritte zur Datenaufbereitung bis 2008

Im Rahmen der Datenaufbereitung sind zunächst digitalisierte Textkorpora auszuwählen, die exemplarisch eine erfolgreiche Vorbereitung und Erprobung durch NER-Verfahren erlauben.

Es ist eine erste Strukturierung der biografischen Daten vorzunehmen. Zu klären ist, welche Angaben die Biogramme enthalten und welche standardisierte Form sie erhalten sollen. Dabei ist zu beachten, dass eine Verknüpfung mit den bibliografischen Informationen aus den Quellen- und Literaturverzeichnissen bzw. den erwähnten Bibliografien möglich wird.

In Kooperation mit den Projektpartnern werden die ausgewählten Personendaten vorstrukturiert und mit dem doppelten Ziel bearbeitet, vorläufige semantische Klassen der kirchlichen Zeitgeschichte und vorläufige relationale Taxonomien und Thesauri zu definieren, die eine Annotierung erlauben.

Für den Erfolg des Gesamtprojektes ist die Evaluierung der durch Verfahren der Eigennamenerkennung erzielten Ergebnisse von ausschlaggebender Bedeutung. Das NER-Verfahren der Computerlinguisten der Universität Duisburg-Essen wird von Seiten der am Projekt beteiligten Zeithistoriker/innen hinsichtlich der inhaltlichen wie der arbeitsergonomischen Ergebnisse der Anwendungen fachspezifisch begleitet.

Für die nachhaltige wissenschaftliche und öffentliche Nutzung des webbasierten „Biografisch-bibliografischen Handbuchs für das katholische Deutschland“ ist dessen inhaltliche Zuverlässigkeit unerlässliche Voraussetzung. Die Extraktion von Namen, Biogrammen und zugehörigen bibliografischen Informationen wird erwartungsgemäß dazu führen, dass sich widersprüchliche Personeninformationen, fehlerhafte Angaben oder gar fehlende Personennamen ergeben. Konkurrierende oder offensichtlich falsche Angaben werden geprüft und bereinigt, fehlende Personennamen ergänzt. Insbesondere sind Verfahren zu entwickeln, die eine Klärung widersprüchlicher Personenangaben ermöglichen. Die Verbesserung der Konsistenz sollte in diesem Arbeitsschritt auch nicht darüber hinausgehen, um die spätere Arbeit der Forschergemeinde nicht von vornherein zu determinieren. Als Hilfsmittel sind deshalb online verfügbare biografische Ressourcen erforderlich. So ist etwa der Katalog der circa 70.000 Bände umfassenden Bibliothek des Instituts für Staatskirchenrecht, der KfZG und des Collegium Albertinums in Bonn ab 2007 über einen OPAC online verfügbar.

Die Evaluierung des NER-Verfahrens wird unterstützt durch die Erweiterung und Ausdifferenzierung der semantischen Klassifizierung. Insbesondere wird eine eigene semantische Klassifikation „Historische Ereignisse“ entwickelt und definiert, die die Eigennamenerkennung unterstützt. Dies geschieht in enger Kooperation mit den Duisburger Projektpartnern.

Der fortgeführte Datenabgleich mittels Gesamtregister-Datenbank ermöglicht die zuverlässige Ermittlung der auf dem Wege des NER-Verfahrens nicht ermittelten Personennamen und damit die externe Aufdeckung systematischer Fehlerquellen bei der semantischen Klassifikation. Die entsprechenden Rückmeldungen an die Duisburger Projektpartner unterstützen das Active-Learning-Verfahren durch die Ausschaltung systematischer Fehlerquellen.

Die erprobten Verfahren werden auf weitere Textkorpora ausgeweitet. Zu integrieren sind die externen Datenquellen des ZdK und des KNA-Bildarchivs. Im Verlauf dieses Arbeitsschrittes ist zudem zu klären, inwiefern das Verfahren inhaltlich um die Biogramme der nicht-katholischen Persönlichkeiten erweitert werden sollte, deren biografische Daten schon leicht recherchierbar sind.

Die semi-automatisch erstellten Auszeichnungen werden in enger Kooperation mit dem Projektpartner IMK durch die am Projekt beteiligten Zeithistoriker/innen der KfZG evaluiert und in einem lernenden Verfahren optimiert.

Gemeinsam mit dem Projektpartner IMK werden hypothetisch erstellte Namen, Themen und Konzepte, die inhaltliche Bezüge der biografisch-bibliografischen Informationen darzustellen vermögen, semantisch verknüpft. Die hypothetisch erstellten Vernetzungen werden in ihrer Konsistenz aus Expertensicht kontrolliert. Die Ergebnisse werden im Sinne eines lernenden Verfahrens dem System erneut zur Verfügung gestellt und die Qualität der semi-automatisch zugeordneten semantischen Attribute evaluiert.

Die KfZG als zentrale Anlaufstelle für zeitgeschichtliche Katholizismusforschung vernetzt durch ihre organisatorische Verbindung von Wissenschaftlicher Kommission und Forschungsstelle deutschland- und europaweit universitäre und außeruniversitäre Einrichtungen, die mit Fragen der Katholizismusforschung befasst sind.

Der Forschergemeinde gehören an: Persönlichkeiten des öffentlichen Lebens aus Kirche, Politik und Gesellschaft; Professoren/innen für Neuere und Neueste Geschichte, Kirchengeschichte und Politikwissenschaften an deutschen und ausländischen Universitäten mit ihren Wissenschaftlichen Mitarbeitern/innen; Autoren/innen der „Blauen Reihe“; Leiter der deutschen katholischen Diözesan- und Ordensarchive und ihre Wissenschaftlichen Mitarbeiter/innen; Mitarbeiter/innen kooperativer Institute und Einrichtungen, wie die Evangelische Arbeitsgemeinschaft für kirchliche Zeitgeschichte, das Institut für Zeitgeschichte, die Görresgesellschaft zur Pflege der Wissenschaften, das Haus der Geschichte der Bundesrepublik Deutschland, die Kommission für Geschichte des Parlamentarismus und der politischen Parteien in Deutschland, die Wissenschaftlichen Dienste der politischen Stiftungen und des Deutschen Bundestages; die Mitglieder der assoziativen Netzwerke „Schwerter Arbeitskreis für Katholizismusforschung“ und der „Arbeitskreis für Protestantismusforschung“; die Redakteure/innen in (Kirchen-)Presse sowie bei Rundfunk und Fernsehen.

Insgesamt dürfte die Anzahl der Mitglieder dieser Community bei mindestens 500 liegen, die für die Zwecke des Projektes angesprochen werden können.

Als Pilotnutzer des Systems verbreitet die KfZG die Informationen über dessen Existenz und Anwendung in der Forschergemeinde und treibt die kollaborative Nutzung voran. Sie hält den Kontakt zu dieser und vermittelt anwendungsbezogene Erfahrungen an die übrigen Projektpartner.

Die Forschergemeinde, die bereits in der ersten Arbeitsphase für das Projekt sensibilisiert wurde, wird rechtzeitig über die Bereitstellung des webbasierten „Biografisch-bibliografischen Handbuchs für das katholische Deutschland“ informiert und in die Arbeitsweise des webbasierten Handbuchs eingeführt. Insbesondere wird sie mit den Vorteilen der erleichterten thematischen Recherche vertraut gemacht, die in der semantischen Verknüpfung von personen- und sachbezogenen Artikeln besteht, welche einem konstanten Peer Review (Begutachtung) ausgesetzt sind. Die Präsentation und praktische Einführung erfolgen im Rahmen von Tagungen und Konferenzen der genannten Universitäten und Institutionen der Community-Mitglieder; Workshops, Tagungen und Konferenzen der KfZG zur biografisch-bibliografischen Erforschung des deutschen Katholizismus.

Die auf kollaborative Nutzung, Ergänzung und Erweiterung des Handbuchs angelegte Arbeitsweise wird im Hinblick auf die Qualität des Dateninputs, den temporären Zeitaufwand und die Benutzerfreundlichkeit evaluiert.

Über die Existenz des Projektes, seine Ergebnisse und die Möglichkeiten ihrer Nutzung durch Kreise der Fachwissenschaften wird durch Platzierung in den internationalen Netzwerken (H-Net, H-German, H-Soz-u-Kult, Historicum.Net) und geschichtswissenschaftlichen Fachportalen (Clio-online) informiert.

Nutzbarkeit und Verwertung

Der Ertrag des Projektes aus der Sicht der zeithistorischen Katholizismusforschung besteht vor allem darin, dass umfangreiche bio-bibliografische Informationen zum deutschen Katholizismus zuverlässig, strukturiert und semantisch verknüpft für forschende Wissenschaft und rezipierende Öffentlichkeit zur Verfügung stehen; zeitraubende Recherchen, die bislang noch zur Klärung der Frage „Who is Who“ im deutschen Katholizismus angestellt werden müssen, werden künftig unterbleiben können.

Bei den Medien besteht ein hohes Interesse an zuverlässigen biografischen Informationen, verbunden mit passgenauen personenbezogenen Fotos und Bildern. Die Verknüpfung von aufbereiteten und semantisch vernetzten Biogrammen mit zugehörigen Fotos stellt eine solche kompakte Kombination von personenbezogenen Text- und Bildinformationen bereit, die auch Möglichkeiten kommerzieller Nutzung eröffnet.

Für die historische Grundlagenforschung, die sozial- und mentalitätsgeschichtlichen Fragestellungen im Rahmen von kollektiven Biografien und Netzwerkanalysen nachgeht, bietet das zu erstellende Datenhandbuch eine erstrangige Informationsquelle. Der Export ausgewählter Biogramme in relationale Datenbanken und deren Auswertung verspricht vertiefte Einsichten in Typen, biografische Vernetzungen und intermediäre Strukturen des deutschen Katholizismus im 19. und 20. Jahrhundert, insbesondere seiner Eliten. Was für die sozial- und mentalitätsgeschichtliche Auswertung ausgewählter Biogramme gilt, trifft in gleicher Weise auch für die bibliografischen Informationen zu. Ihre Zusammenführung zu einer Gesamtbibliografie des deutschen Katholizismus bietet einen aufschlussreichen Grundstock für Studien über die Entwicklung der geistigen Grundlagen Deutschlands seit dem ausgehenden 19. Jahrhundert.

Durch die Dynamik, die das webbasierte „Biografisch-bibliografische Handbuch für das katholische Deutschland“ aus der kollaborativen Nutzung seiner Forschergemeinde bezieht, können die nach Projektabschluss erscheinenden Bände der Veröffentlichungen der Kommission für Zeitgeschichte nach den im Rahmen des Projektes erprobten und evaluierten Verfahren ebenfalls als Dateninput aufbereitet werden.

***

Dr. Karl-Joseph Hummel ist seit 1993 Direktor der Kommission für Zeitgeschichte (Forschungsstelle Bonn). Er verfasste zahlreiche Publikationen zur Katholizismusforschung. E-Mail: kommission@kfzg.de

Andreas Burtscheidt ist Wissenschaftlicher Mitarbeiter der Kommission für Zeitgeschichte (Forschungsstelle Bonn) im Projekt „WIKINGER – Wiki Next Generation Enhanced Repository“. E-Mail: burtscheidt@kfzg.de


[1] Vgl. <http://www.bmbf.de/press/1714.php>.

[2] Ein Repository (zu deutsch: Lager, Depot), auch Repositorium genannt, ist eine Verzeichnisstruktur oder Datenbank, die Objekte inklusive Änderungsinformationen enthält. Vgl. die ausführliche Definition: <http://de.wikipedia.org/wiki/Repository>.

[3] Als Folge des ungebremsten Wachstums des WWW gestaltet es sich immer schwieriger, Informationen zu suchen, zu organisieren und zu pflegen. Zur Lösung solcher Probleme entstand deshalb die Vision des Semantic Webs als einer Erweiterung des gegenwärtigen Internets, um Daten eine wohldefinierte, maschinenverarbeitbare Bedeutung zu geben. Vgl. ausführlich: <http://de.wikipedia.org/wiki/Semantic_Web>.

[4] Wikis, auch WikiWikis oder WikiWebs genannt, sind im World Wide Web verfügbare Seitensammlungen, die von den Benutzern nicht nur gelesen, sondern auch online geändert werden. Der Name stammt von „wikiwiki“, dem hawaiianischen Wort für „schnell“. Wie bei Hypertexten üblich, sind die einzelnen Seiten und Artikel eines Wiki durch Querverweise (Links) miteinander verbunden. Die Seiten lassen sich jedoch sofort am Bildschirm ändern. Sie ähneln damit Content Management- Systemen. Dazu gibt es in der Regel eine Bearbeitungsfunktion, die ein Eingabefenster öffnet, in dem der Text des Artikels bearbeitet werden kann. Vgl. ausführlich: <http://de.wikipedia.org/wiki/Wiki>.

[5] Zum Stand der Erforschung des katholischen Milieus vgl. die Beiträge in: Hummel, Karl-Joseph (Hg.), Zeitgeschichtliche Katholizismusforschung. Tatsachen, Deutungen, Fragen. Eine Zwischenbilanz, Paderborn 2004.

[6] Als Vorarbeiten sind etwa zu nennen: Kösters, Christoph; Liedhegener, Antonius, Historische Milieus als Forschungsaufgabe. Zwischenbilanz und Perspektiven, in: Westfälische Forschungen 48 (1998), S. 593-601; Horstmann, Johannes; Liedhegener, Antonius (Hgg.), Konfession, Milieu, Moderne, Konzeptionelle Positionen und Kontroversen zur Geschichte von Katholizismus und Kirche im 19. und 20. Jahrhundert, Schwerte 2001 oder Altermatt, Urs; Metzger, Franziska, Milieu, Teilmilieus und Netzwerke. Das Beispiel des Schweizer Katholizismus, in: Altermatt, Urs (Hg.), Katholische Denk- und Lebenswelten. Beiträge zur Kultur- und Sozialgeschichte des Schweizer Katholizismus im 20. Jahrhundert, Freiburg im Üechtland 2003, S. 15-36.

[7] Vgl. dazu die Beiträge von Wilhelm Damberg, Christoph Kösters und Michael N. Ebertz in: Hummel, Karl-Joseph (Hg.), Zeitgeschichtliche Katholizismusforschung (wie Anm. 5).

[8] Vgl. Kosch, Wilhelm, Das katholische Deutschland. Biographisch-bibliographisches Lexikon, Bd. 1-3, Augsburg 1933-[?]. Die letzte Lieferung endet mit dem Buchstaben „Sch“.

[9] Einen ersten Einstieg liefert mittlerweile das überkonfessionell ausgerichtete Biographisch-Bibliographische Kirchenlexikon, Bd. I-II herausgegeben von Friedrich-Wilhelm Bautz †, ab Bd. III fortgeführt von Traugott Bautz, vgl. die Online-Ausgabe unter <http://www.bautz.de/bbkl>.

[10] Überblick unter <http://www.kfzg.de>.

[11] Vgl. Hehl, Ulrich v.; Hürten, Heinz, Der Katholizismus in der Bundesrepublik Deutschland 1945-1980. Eine Bibliographie, Mainz 1983; Abmeier, Karlies; Hummel, Karl-Joseph, Der Katholizismus in der Bundesrepublik Deutschland 1980-1993. Eine Bibliographie, Paderborn 1997.

[12] Vgl. Schoelen, Georg, Bibliographisch-historisches Handbuch des Volksvereins für das katholische Deutschland, Mainz 1982.

[13] Vgl. Hehl, Ulrich v.; Kösters, Christoph (Hgg.), Priester unter Hitlers Terror. Eine biographische und statistische Erhebung, Paderborn 1998.

[14] Vgl. Albrecht, Dieter; Weber, Bernhard (Hgg.), Die Mitarbeiter der Historisch-politischen Blätter für das katholische Deutschland 1838-1923, Mainz 1990.

[15] Text aus der KNA-Bild betreuenden Medienagentur mediamid.

[16] Die Bilddatenbank erschließt neben dem Fotoarchiv Hoffmann noch kleinere Bestände, die vor allem Materialien über die NSDAP in der Weimarer Republik, das Dritte Reich, den Zweiten Weltkrieg und die ersten Jahre der Nachkriegszeit (etwa Internationales Militärtribunal in Nürnberg) enthalten. Alle der über 66.000 Bilder wurden digitalisiert und katalogisiert. In der Datenbank ist mit jedem Katalogisat ein verkleinertes Bild im JPG-Format verknüpft. Vgl. <http://www.bsb-muenchen.de/karten/bilddatenb.htm>.


Hypermediale Erinnerung – Zur Gegenwart der NS-Vergangenheit im Internet

von Dörte Hein

Welche Rolle spielen Medien in ihrer Materialität und ihren Selektions- und Präsentationsformen bei der Konstruktion von Erinnerungsbildern an Nationalsozialismus und Holocaust? Dieser Artikel nimmt die Frage auf und diskutiert sie anhand der Darstellung des Holocaust im Internet, speziell dem World Wide Web. Ausgehend von der quantitativen Verteilung der Websites und deren Systematisierung wird unter anderem gefragt, wie Themen gewichtet und ausgewählt werden und in welcher Weise sich die Nutzungsbedingungen durch Interaktivität und Multimedialität verändern. Skizziert wird dabei auch, wie Ort und Zeit die Rezeption von Inhalten zum Holocaust bedingen.

***

„Es war, als spielte sich dieser Schlagabtausch im Jenseits ab. Dabei ging es irdisch gründlich zu. Beim Stelldichein von Mörder und Ermordetem wurden immer wieder die Tat und deren Motiv durchgekaut. Während der eine sich propagandistisch verbreitete, etwa kundtat, daß es im Reich zum Zeitpunkt des Prozesses 800.000 Arbeitslose weniger als im Vorjahr gegeben habe […] zählte der andere klagend auf, wie viele jüdische Ärzte und Patienten aus Krankenhäusern und Kurorten vertrieben worden seien […] So lief ihr Internet-Dialog auch während der nächsten Tage.“ [1]

Die Medialität der Erinnerung – Problemaufriss

Sind Chatrooms und Internetdialoge historische Quellen, die, als Resultate kollaborativer Schreibprozesse, etwas über den Umgang mit Nationalsozialismus und Holocaust in der Gegenwart aussagen können? Die Frage nach den Formen und Möglichkeiten des Aufbewahrens von sozialer Erinnerung in externen Speichermedien ist mit dem Generationswechsel der Zeitzeugen des Holocaust dringlicher zu stellen. Legt man Jan Assmanns Konzeption eines „kulturellen Gedächtnisses“, das der Herstellung und Untermauerung der Identität einer Gruppe dient, zugrunde, so ist von der Mediengebundenheit sozialer Erinnerung auszugehen. [2] Je nachdem, welches Träger- und Speichermedium bei der Rekonstruktion von Vergangenheit im Vordergrund steht, zeigen sich unterschiedliche Muster in Zugang und Aneignung.

Seit der zweiten Hälfte der 1990er Jahre wurde die nationalsozialistische Gewaltherrschaft verstärkt filmisch bearbeitet und repräsentiert. Dies verschärfte die Diskussion darüber, ob und in welcher Weise der Holocaust und die NS-Zeit in populären Medien dargestellt werden sollten. Können mediale Erzählformen, so ist zu fragen, einem Ereignis gerecht werden, sich annähern, wenn diesem der Bruch mit allen vorher geltenden Regelhaftigkeiten innewohnt? [3] Die massenmediale Geschichtsvermittlung, allen voran das Format des „Histotainment“, stand und steht im Verdacht, einer Trivialisierung, Verflachung und Kommerzialisierung Vorschub zu leisten. Der Holocaust drohe „in den medialen Bilderfluten banal zu werden, die Nazigrößen avancieren zu guten alten Bekannten, die wir aus dem Fernsehen kennen“. [4] Haben diese Befürchtungen angesichts der digitalen Medien, besonders des als oberflächlich und nur auf schnellen Informationszugang ausgerichtet geltenden World Wide Web, noch stärkere Berechtigung? Ist das WWW, übergreifend gefragt, ein neues, die gesellschaftliche Wahrnehmung der Vergangenheit bedingendes Dispositiv?

Die Rolle unterschiedlicher Medien bei der Verfertigung von Geschichtsdeutungen hat mittlerweile eine interdisziplinäre Forschung angeregt. Jedoch bleibt hierbei das Internet als Informations- und Kommunikationsplattform bis auf wenige Ausnahmen weitgehend außer Acht, und dies, obwohl von einer hohen Relevanz des Internet, besonders für die junge Generation, auszugehen ist. Die Beschleunigung der Kommunikation, die hypermediale Vernetzung, das Potenzial zu Interaktivität und Multimedialität sowie die technisch unbegrenzten Speicherkapazitäten sind dabei ebenso kennzeichnend wie die Dezentralität des Internet. Als technische Plattform zur Ermöglichung unterschiedlicher medialer Dienste übernimmt das Internet zentrale Speicherungs- und Kommunikationsaufgaben der Gesellschaft. Es ist, was die Menge an speicherbaren Daten anbelangt, ein sehr leistungsfähiges Speichermedium. Daher wird schon von einem „unermesslichen Super-Archiv“ [5] gesprochen. Gleichzeitig geht aber mit der Immaterialität der Daten im WWW die Flüchtigkeit und Unzuverlässigkeit der Daten einher, die dadurch noch verstärkt wird, dass Hypertexte nicht aus einer festen Anzahl von Modulen bestehen, sondern sich in einem ständigen Auf- und Umbau befinden.

Dieser Beitrag wird dem Zusammenhang von Medialität und Gedächtnis anhand des Umgangs mit dem Holocaust im WWW nachgehen. Welche Websites zu diesem Thema für die Nutzer/innen aufzufinden sind und wie man sie systematisieren kann, wird zunächst betrachtet. Der Gewichtung von Themen sowie den Konsequenzen für die Nutzer/innen und die Anbieter/innen wird darauf folgend nachgegangen. Interaktivität und Multimedialität als Zugangs- und Aneignungsbedingungen werden ebenso aufgegriffen wie Ort und Zeit als Rezeptionskategorien.

Zur medialen Kodierung des Holocaust im WWW – Systematisierung und quantitative Verteilung

Betrachtet man Websites als Gedächtnismedien, auf denen zu Erinnerndes an den Holocaust bewusst ausgewählt und präsentiert wird, ist zunächst zu fragen, in welcher Quantität sie überhaupt zu finden sind. Der Blick auf die hinter den Angeboten stehenden Kommunikatoren/innen und die dominierenden Strukturmerkmale kann helfen, die Websites dann zu systematisieren.

Aufgrund der nicht erfassbaren Menge an Websites erweist sich die Definition einer Grundgesamtheit an Elementen als problematisch. Zwar stehen Suchmaschinen und Linkkataloge zur Verfügung, jedoch weisen diese häufig bereits veraltete, nicht erreichbare oder tote Links nach oder indizieren Websites überhaupt nicht. [6] Bei der Suche nach Websites stößt man außerdem auf Seiten identischen Inhaltes, die so genannten Mirror-Sites, die herauszufiltern sind. Die von den Suchmaschinen vorgenommene Listung der Sites schließlich folgt einer internen, aus der Kombination mehrerer Faktoren gewonnenen Logik, die den Forschenden nicht gänzlich zugänglich gemacht und damit nur wenig transparent wird. Daher kann es in der vorliegenden Untersuchung nicht um statistische Repräsentativität gehen, sondern um die Abbildung von möglichst großer Heterogenität und Varianz im Datenmaterial. [7] Einem explorierenden Vorgehen folgend, wurde der Frage nachgegangen, wie Nutzer/innen, die Informationen zum Holocaust im WWW abrufen wollen, suchen würden. Der Suchbegriff „Holocaust“ in der derzeit gängigsten Suchmaschine Google [8] und die Einschränkung „Seiten auf Deutsch“ ergab eine Liste der treffendsten Ergebnisse von insgesamt 782 Einträgen. [9] Sodann wurden eine erhebliche Menge an Mirror-Sites, toten Links sowie Angeboten, die keinen direkten inhaltlichen Bezug zum Holocaust hatten, herausgefiltert. Die so zustande gekommene Liste umfasst schließlich 105 Websites.

Betrachtet man zunächst die dominierenden Präsentationsformen und Strukturmerkmale der existierenden Websites, so handelt es sich zum ersten um umfangreiche Internetportale, die Strukturinformationen zum Einstieg in das Thema Holocaust und Nationalsozialismus – teilweise mit spezifischem Fokus – bieten. Sie erfüllen neben der Informations- auch eine Service- und Orientierungsfunktion (Beispiel [10] siehe Abbildung 1).

Abbildung 1: Internetportal – Lernen aus der Geschichte

Als vorrangig serviceorientierte Angebote möchte ich Websites von meist öffentlichen Einrichtungen, wie etwa Gedenkstätten bezeichnen, bei denen ein offensichtlicher Bezug zu einem realen Ort gegeben ist und die Website eine entsprechende Funktionalität erfüllt. Hier werden weniger Hintergrundinformationen, als vielmehr Serviceinformationen zu den Institutionen selbst, den Angeboten, Veranstaltungen und Öffnungszeiten bereitgestellt (Beispiel [11] siehe Abbildung 2).

Abbildung 2: Serviceorientiertes Angebot – Gedenkstätte Sachsenhausen

Als vorrangig informationsorientierte Angebote waren meist von Interessenvereinigungen betreute und daher kollaborativ verfasste Informations- und Kommunikationsplattformen sowie Datenbanken und Archive heraus zu präparieren (Beispiel [12] siehe Abbildung 3).

Zeitungsartikel, E-Books und Online-Zeitungen wurden zu einer Kategorie zusammengefasst. Codiert wurden hier sowohl einzelne thematische Artikel als auch Online-Angebote von Printmedien, die sich dem Thema Holocaust bzw. dem Gedenken daran widmeten (Beispiel [13] siehe Abbildung 4).

Abbildung 3: Informationsorientiertes Angebot – shoa.de

Abbildung 4: Online-Angebot einer Tageszeitung – Der Tagesspiegel

Die Kategorie Enzyklopädien und Lexika umfasst einzelne Artikel aus Nachschlagewerken sowie kollaborativ verfertigte, vernetzte Einträge (Beispiel [14] siehe Abbildung 5).

Abbildung 5: Enzyklopädie – Wikipedia

Virtuelle Ausstellungen und Kunstprojekte schließlich sind meist Projekte, die nicht hauptsächlich informieren, sondern vielmehr künstlerisch-sinnliche Zugänge zum Thema schaffen wollen (Beispiel [15] siehe Abbildung 6).

Betrachtet man die quantitative Verteilung der Websites, so machen informationsorientierte Angebote als meist kollaborativ verfasste Informations- und Kommunikationsplattformen mit 33 Prozent den Hauptteil aus. Mit 21 Prozent waren Angebote der Kategorie „Zeitungsartikel, E-Book, Online-Zeitung“ vertreten. Serviceorientierte Angebote sowie Internetportale schließlich sind ebenfalls als dominierende Präsentationsformen anzusehen, wohingegen der Anteil an virtuellen Ausstellungen und Museen sowie Enzyklopädien sehr gering ausfällt (siehe Abbildung 7).

Abbildung 6: Virtuelle Ausstellung – Das Projekt CAMP

Abbildung 7: Diagramm: Verteilung nach Präsentationsformen in Prozent (n=105)

Auch ein Blick auf die hinter den Webangeboten stehenden Anbieter/innen kann hilfreich sein, die Angebote zu systematisieren. Hierbei sind als Anbietergruppen zu nennen: Archive, Forschungs- und Dokumentationszentren; Gedenkstätten und Museen; Universitäten und andere pädagogische Einrichtungen; Verbände/Vereine, Stiftungen und Initiativgruppen; Verlage und journalistische Kommunikatoren/innen sowie Privatpersonen. [16] Die Angebote journalistischer Kommunikatoren/innen und Verlage machen fast ein Viertel der Websites aus, wobei sie sich, erwartungsgemäß, hauptsächlich im Bereich „Zeitungsartikel, E- Book, Online-Zeitung“ engagieren. Auch Universitäten und andere pädagogische Einrichtungen sowie Verbände, Vereine und Interessengruppen sind mit jeweils circa 20 Prozent stark, vor allem im Bereich der „Informationsorientierten Angebote“, vertreten. Gedenkstätten und Museen als traditionelle Institutionen des kulturellen Gedächtnisses stellen mit 14 Prozent vor allem „Serviceorientierte Informationen“ zu realen Orten ins Netz, wohingegen sich Privatpersonen mit insgesamt 13 Prozent engagieren (siehe Abbildung 8).

Relevanzperspektiven

Quantitativ betrachtet, wächst in einem Medium, in dem unbegrenzte Datenbestände quasi ohne Anfangs- und Endpunkt gespeichert werden können, die Masse des Speicherbaren „ins Uferlose und führt zu einer entsprechenden Auflösung der traditionellen Horizontbildungen“. [17] Wie wird mit der durch die technischen Speicher immer weiter fortschreitenden Akkumulation der Datenmenge seitens der Anbieter/innen und Nutzer/innen umgegangen? Aufgrund der großen Menge an Websites wird es für die Nutzer/innen schwieriger, Inhalte überhaupt zu finden und auszuwählen. Für die Anbieter/innen liegt das Problem darin, Aufmerksamkeit zu erzeugen und zu steuern. Natürlich haben sich bestimmte Mechanismen zur Selektion, Organisation und Suche von Informationen entwickelt, man denke an Suchmaschinen, Portale oder Linkkataloge, die das Auffinden bestimmter Daten erleichtern. Hinzu kommt aber auf Nutzerseite auch, dass es keine feststehenden und für die Nutzer/innen transparenten Standards zur Beurteilung der Qualität und Glaubwürdigkeit der Angebote gibt. Einzelne Texte oder gesamte Websites sind nicht mehr ohne weiteres einem Autor oder einer Autorin zurechenbar, da sie meist kollaborativ verfasst sind und durch die Vernetzung in einen größeren kommunikativen Zusammenhang gestellt werden.

Abbildung 8: Diagramm: Verteilung nach Anbietern/innen in Prozent (n=105)

Durch die potenzielle Gleichberechtigung aller Themen und das damit einhergehende, oftmals beklagte Fehlen von Orientierungspunkten, die einen kollektiven Relevanzrahmen erzeugen könnten, obliegt die Auswahl und die Bewertung der Inhalte zunehmend allein dem Individuum. Das informationelle Fenster etwa kann Informationen zum Holocaust bieten, der kommerzielle Rahmen aber Links zu Wetter, Nachrichten oder Billigflügen. [18] Im Medium WWW wird diese Widersprüchlichkeit bewusst wahrgenommen, weil Informationen distanzlos, quasi nur einen Klick entfernt, nebeneinander liegen – der Text wird zum Hypertext. Gerade bei einem Thema wie dem Holocaust muss die kommerzielle Rahmung befremdlich wirken: „[…]capitalism undermines the representations of the Holocaust in cyberspace, providing inappropriate commercial frames and distasteful distractions in the light of something so important and so serious“. [19] In Assmanns Terminologie ist die gleiche Gewichtung aller Themen als das Verwischen der Grenze zwischen Speicher- und Funktionsgedächtnis, dem Vorrat an Wissen und dem jeweils aktualisierten, identitätsfundierenden Wissen, anzusehen. Zentrum und Peripherie zu unterscheiden oder das Wichtige vom Unwichtigen abzusetzen sei nun nicht mehr sozial oder kulturell vorgegeben, sondern individuell zu leisten und „kulturell Unbewusstes“ könne sich nicht mehr ausbilden. [20] All jene Websites also, die fortlaufend aktiviert werden und damit die Notwendigkeit ihres Erinnerns nachweisen, könnte man als Teile des Funktionsgedächtnisses bezeichnen. Dies impliziert das Risiko, dass das Banale, das oft Aufgerufene, bestehen bleibt und möglicherweise das verloren geht, was nach Jahren des Vergessens des Erinnerns bedürfte.

Der Wegfall oder die abgeschwächte kulturell vorgegebene Selektion lässt sich gleichermaßen auch auf die Anbieter/innen beziehen: Die Vermutung, dass Diskurse, die außerhalb des Netzes kein Ventil bzw. keine Träger finden, im Netz ausgetragen werden können, bestätigt sich auch bezüglich des Holocaust-Diskurses im WWW. Mit im Vergleich zur massenmedialen Sphäre geringeren Zugangsbarrieren haben Akteure/innen, die nicht den traditionellen Institutionen zur Interpretation von Geschichte angehören – etwa Privatpersonen oder Interessenvereinigungen – die Möglichkeit, diese Plattform zu nutzen. Dass auch Geschichtsrevisionismus bis hin zu gezielter rechtsextremistischer Propaganda verbreitet werden kann, ist die Schattenseite dieser Zugangsfreiheit. Viele zunächst freie Diskussionsforen mussten aufgrund von rechtsextremistischen Beiträgen und Parolen mit Zugangsbeschränkungen ausgestattet oder geschlossen werden.

Insgesamt ist von mehr Eigeninitiative und Eigenverantwortlichkeit, also der Individualisierung des Zugangs zu den informationstechnisch gespeicherten Wissensbeständen, auszugehen. Die Relevanzzuschreibung ist individuell zu leisten. Die im Vergleich zu anderen Medien deutlich höheren Freiheitsgrade in der Rezeption können somit die Polyphonie möglicher Erinnerungen verstärken. [21]

Zugangs- und Aneignungsbedingungen: Interaktivität und Multi-medialität

Die medial externalisierten Erinnerungsanlässe an den Holocaust brauchen aktive Formen der Aneignung und der Praxis, da sie sich andernfalls vom „lebendigen“ Wissen ablösen und ihre kommunikative Kraft verlieren. „Das abstrakte, auf erlerntem Wissen beruhende Gedächtnis bedarf neuer, sekundärer Formen von Erfahrung und sinnlicher Anschauung, um emotional durchdrungen und persönlich angeeignet zu werden.“ [22] Wodurch sind diese sekundären Formen von Erfahrung gekennzeichnet? Feste, Riten und wiederkehrende Anlässe dienen als primäre Organisationsformen der Weitergabe von Wissen; so gewinnt der/die Einzelne Anteil am kulturellen Gedächtnis. [23] Im WWW wird diese Aneignung durch die angelegte Möglichkeit zur Interaktion, die Interaktivität, unterstützt. Zum einen partizipieren Leser/innen des Hypertextes aktiv, weil sie durch die Verknüpfung der Links Inhalte auswählen und die Pfade der Rezeption selbst bestimmen können (Ebene der Selektion). Die in der hypermedialen, auf Modulen basierenden Vernetzung, der Hypermedialität, angelegte Möglichkeit zum selektiven Lesen fördert gleichermaßen den individuellen Zugang und schafft Raum für subjektive Erinnerungen und die „individuelle Zusammenstellung von Geschichtsbildern“. [24] Ferner besteht durch „echte Interaktionsangebote“ die Möglichkeit zu E-Mail-Kommunikation und zur Teilnahme an Chats oder Foren (Ebene der Modifikation). Hypertexte kompensieren durch die Kommunikationsfunktionen die Nachteile, die der abgeschlossene, schriftlich fixierte Text gegenüber dem Diskurs aufweist. [25] Selektions- und Modifikationsmöglichkeiten können also die aktive Aneignung der Erinnerungsanlässe im WWW unterstützen.

Durch diese Vermischung synchroner und asynchroner Kommunikationsformen entstehen, anders als in der mündlichen Kommunikation, Texte, die als wieder abrufbare Bestände für eine gewisse Zeit bestehen bleiben. Der synchrone Internet-Dialog im Chatroom ist so auch später noch nachzuvollziehen. Merkmale, die als Unterscheidungskriterien zur Abgrenzung von Sprache und Schrift dienen, verflechten sich in der computervermittelten Kommunikation und damit verschriftlicht sich die Sprache. [26] So verwischen die charakteristischen Unterscheidungsmerkmale zwischen dem kommunikativen und dem kulturellen Gedächtnis: das kommunikative Gedächtnis wird als interaktiv, das heißt durch persönliche, mündliche Kommunikation vermittelt, konzipiert und rekurriert auf Ereignisse der rezenten Vergangenheit, wohingegen das kulturelle Gedächtnis auf Träger- und Speichermedien externalisiert ist und damit als kulturelles Archiv dient. [27] Kommunikativ und kulturell vermitteltes Gedächtnis verbinden sich im World Wide Web auf neue Art und Weise. Auch außerhalb des Netzes entspinnen sich natürlich kommunikativ vermittelte Diskurse über bestimmte Gedächtnisorte, also Räume, die semiotisiert, in den Rang von Zeichen gehoben, sind. [28] Begreift man auch Websites als Gedächtnisorte, ist dieses kein eigenständiges, spezifisches Phänomen der Netzkommunikation. Das eigentlich Neue ist der schnelle mögliche Wechsel zwischen asynchronen und synchronen Kommunikationsformen in einem elektronischen Dokument.

Aufgrund der digitalen Codierung im WWW können nicht nur Texte, sondern auch andere mediale Objekte, wie Bild-, Audio und Videodateien, integriert werden. Diese „Assets“ machen aus reinen Textgebilden medial komplexe Konfigurationen. [29] Hypertexte sind mehrfachkodiert, also multimedial. [30] Durch die mehrkanalige Informationsvermittlung wird die Anschaulichkeit und Sinnlichkeit mündlicher Überlieferungen mit der Speicherkapazität des Schriftgedächtnisses kombiniert. Trotzdem ist, nach Rosmarie Beier, das alleinige Vertrauen auf die Wirkmächtigkeit und Wahrhaftigkeit von Bildern auch kritisch zu betrachten. Wenn man neue Technologien nicht allein als Kommunikations- und Informationssysteme, sondern auch und vor allem als Signifikationssysteme ansehe, stelle sich die Frauge, welche Konsequenzen dies auf die Konstruktion von Erinnerung haben könne. [31] Diese Argumentation schließt an Überlegungen zum Übergang von der Schrift- zur Bildkultur an: Vilém Flusser konstatiert das Ende der Schrift als kulturprägende Form der Welterschließung und -deutung. An ihre Stelle tritt das Bild als primäres Medium des Gedächtnisses, welches wiederum alternative Bezüge zur Vergangenheit eröffnen könnte. [32]

Bezogen auf den Diskurs über den Holocaust ist von einer Dominanz des Bildes als Gedächtnismedium auszugehen. Vor allem die nachgeborene Generation verfügt über einen kollektiv geteilten, weil größtenteils medial vermittelten, bebilderten Assoziationsraum zum Holocaust. „Die Bilder, die die Vorstellung von der Shoa dominieren, bilden aber nicht bloß einen unzusammenhängenden Fundus zur Illustration der historischen Darstellung, sie sind untereinander und mit dem weiteren sozialen Gedächtnis verbunden“. [33] Habbo Knoch bestimmt Fotografien als die Leitmedien des Holocaust-Bildes, weil sie Authentizität suggerieren und somit den visuellen Hintergrund der Vorstellungen des Holocaust ausmachen. [34] Wenn also bezüglich des Internet oftmals von einer neuen Bildlichkeit die Rede ist, verweist dies auf Phänomene, die schon bei anderen Medien der Vergegenwärtigung zu beobachten sind. Omer Bartov etwa bezeichnet vor allem filmische Darstellungen des Holocaust als „Plastic Holocaust“ und wendet sich damit gegen das kaum zu durchbrechende Kontinuum an medial vermittelten Bildern. [35]

Ort und Zeit als Rezeptionskategorien

Während Daniel Levy und Natan Sznaider mit der Entortung des Gedächtnisses an den Holocaust dessen Einbettung in kosmopolitische Bezüge beschreiben [36] , sind die veränderten örtlichen Rahmenbedingungen der Erinnerung auch mit konkretem Medienbezug zu fassen. Mit dem Internet werden räumliche Beschränkungen überschritten und damit wird der Raum, und nicht mehr die Zeit, zerdehnt. [37] In Abgrenzung zu anderen visuellen Darstellungen geschieht dies zunächst schlichtweg dadurch, dass die Repräsentationen im Internet „mit nach Hause genommen“ werden können und nicht, wie etwa in Galerien, Archiven oder Museen, an diesem Ort rezipiert werden müssen. [38] Gemeint ist die Transzendierung örtlicher Beschränkungen der Rezeption, was impliziert, dass deren Bedingungen nicht mehr extern vorgegeben, sondern individuell bestimmbar werden. Die weitere Dimension der Entortung der Erinnerungen an den Holocaust liegt in der Darstellung selbst. „Auschwitz ist überall und immer zugleich – nämlich im Internet“. [39] Der räumliche Ort des Gedenkens an den Holocaust habe sich aufgelöst, und zwar weg von Überresten und Denkmälern, hin zu den digitalen Reproduktionen und virtuellen Gedenkräumen. Hat sich die von realen Orten losgelöste Erinnerung im Internet gänzlich neu verortet? Dieser Ansicht ist in einer solchen Vehemenz nicht zu folgen, zumal von einer Wechselbeziehung zwischen realen und virtuellen Orten, einem „terrestrial anchor“ [40] , der Websites erst Legitimität verleiht, auszugehen ist. Von intermedialer Referenz ist auch daher zu sprechen, weil bei der Web-Nutzung allgemein ein Glaubwürdigkeits- und Imagetransfer feststellbar ist, der sich bei Websites zum Holocaust auf Mahn- und Gedenkstätten sowie Museen und Ausstellungen bezieht.

Schließlich wird auch die Zeit als Kategorie im Internet unter neue Bedingungen gestellt. Zum einen, da die auf den Websites rezipierbaren Holocaust-Darstellungen, anders als etwa Spiel- oder Dokumentarfilme, keine feste Erzählzeit haben und damit die Geschwindigkeit der Rezeption nicht mehr vorgegeben ist. Zum anderen erfordert Erinnerung zunächst einen Kontinuitätsbruch, so dass man die Vergangenheit von der Gegenwart trennen kann. Das Gedächtnis an sich ist also immer diachron. Im Internet aber ist auch synchrone Kommunikation möglich, indem „die schriftgestützte Fernkommunikation zunehmend wieder auf die Echtzeit mündlicher Interaktion reduziert wird“. [41] Damit verschwindet die traditionelle Gestalt der Chronologie und Gleichzeitigkeit wird hergestellt. Das Verhältnis von Aktualität und Geschichtlichkeit ändert sich. Durch ihre allgegenwärtige, mediale Aufbereitung werden auch aktuelle Ereignisse fast unmittelbar zu Erinnerungseffekten, wobei gleichzeitig das Geschichtliche nicht als etwas Erworbenes, sondern als Gegenwärtiges, als Bestehendes im Hier und Jetzt begriffen werden kann. [42] Dadurch verstärkt sich die Tendenz der Homogenisierung und Synchronisierung von Vergangenheit und Gegenwart: Erinnerungsanlässe an den Holocaust werden durch interaktive Elemente, Veranstaltungshinweise oder Bezüge zu aktueller Politik stark an die Gegenwart gebunden – Aleida Assmann spricht vom „Präsentismus des Internet“ [43] – und historisch entkontextualisiert, aktuelle Ereignisse durch sofortige neumediale Bearbeitung dagegen historisiert.

Zusammenfassender Ausblick

Wodurch also zeichnet sich die Repräsentation des Holocaust im World Wide Web aus? Wie gezeigt wurde, machen informationsorientierte Angebote, als meist kollaborativ verfasste Informations- und Kommunikationsplattformen, den Hauptteil der von mir erfassten Websites zum Thema Holocaust aus. Fasst man diese mit den Online-Angeboten von Tageszeitungen zusammen, sind es über die Hälfte der Angebote. Vereine, Verbände und Interessengruppen, Universitäten und pädagogische Einrichtungen sowie Verlage und journalistische Kommunikatoren/innen dominieren bei den Anbietern/innen der Websites.

Durch die „Hypertextifizierung von Wissen und Information“ [44] und die potenzielle Gleichberechtigung aller Themen obliegen Auswahl und Bewertung der Inhalte den individuellen Nutzern/innen. Dies betrifft auch und besonders die Beurteilung der jeweiligen Quelle und deren Glaubwürdigkeit, wobei hier von einem Transfer gewohnter Bewertungsmuster in den Online-Bereich auszugehen ist. Dass die Inhalte im WWW multimedial präsentiert werden können und sich örtliche und zeitliche Bedingungen der Rezeption ändern, sind weitere Tendenzen, die herausgestellt wurden. Natürlich sind all dies keine radikalen Neuheiten, sondern eher Phänomene, die im Online-Bereich explizit und bewusst werden. [45] Was an dieser Stelle jedoch besonders hervorgehoben werden soll, ist das partizipative Potenzial, das auf den Websites ausgemacht werden kann. Von der reinen Speicherung abgesehen, können interaktive Elemente die aktive Aneignung von Erinnerungsanlässen in einer kommunikativen Situation, die hohe rezeptive Freiheitsgrade mit sich bringt, befördern. So kann die Erinnerungskultur im Netz möglicherweise einer neuen Diskursivität entgegenkommen. Doch wie sieht die Rezeption tatsächlich aus? Dies führt mich abschließend zu einigen offenen Fragen. Diese betreffen vornehmlich die Verbindung von Aussagen über die Art der medialen Bedingtheit des Erinnerns mit der tatsächlichen Rezeption. Fragen nach dem Stellenwert, den unterschiedliche mediale Deutungsmuster auf die Interpretation der Vergangenheit haben, sind ebenso noch weitestgehend offen. Man weiß, dass die Thematisierungsfunktion des öffentlichen Diskurses auf das kollektive Gedächtnis eher gering ist. Dementsprechend dominieren, gerade in den Familienerinnerungen, Fronterfahrung, Flucht und die Bombardierung deutscher Städte, und nicht der Holocaust. [46] Demgegenüber prägen historische Spielfilme das Geschichtsbewusstsein vor allem junger Menschen sehr stark. [47] Welcher Stellenwert kommt hier dem Internet zu? Wie Websites, sind auch die eingangs erwähnten Chatrooms Bestandteile einer virtuellen Erinnerungskultur. Als Teile eines kollaborativ verfassten kommunikativen Gedächtnisses sind sie gerade deshalb so aufschlussreich, weil sich hier die vom öffentlichen Erinnerungsdiskurs abseitigen Diskussionen, der „Schlagabtausch im Jenseits“, nachverfolgen lassen.

***

Dörte Hein ist Wissenschaftliche Mitarbeiterin am Lehrstuhl für Kommunikationswissenschaft des Instituts für Deutsche Philologie an der Universität Greifswald. Arbeitsfelder: Erinnerungskultur, computervermittelte Kommunikation, Medientheorie, Nationalsozialismus und mediale Darstellung. E-Mail: doerte.hein@uni-greifswald.de


[1] Grass, Günter, Im Krebsgang, Göttingen 2003, S.48-49.

[2] Assmann, Jan, Kollektives Gedächtnis und kulturelle Identität, in: Hölscher, Tonio; Assmann, Jan (Hgg.), Kultur und Gedächtnis, Frankfurt am Main 1988, S. 15. Als kulturelles Gedächtnis wird entsprechend der „jeder Gesellschaft und jeder Epoche eigentümliche Bestand an Wiedergebrauchs-Texten, -Bildern und -Riten [...] in dessen Pflege sich ihr Selbstbild stabilisiert und vermittelt, ein kollektiv geteiltes Wissen über die Vergangenheit, auf das eine Gruppe ihr Bewusstsein von Einheit und Eigenart stützt“ definiert.

[3] Zur Debatte um die Darstellbarkeit des Holocaust vgl. ausführlicher: Köppen, Manuel (Hg.), Bilder des Holocaust. Literatur – Film – Bildende Kunst, Köln 1997; Krankenhagen, Stefan, Auschwitz darstellen. Ästhetische Positionen zwischen Adorno, Spielberg und Walser, Köln 2001; Martínez, Matías, Zur Einführung. Authentizität und Medialität in künstlerischen Darstellungen des Holocaust, in: Ders. (Hg.), Der Holocaust und die Künste. Medialität und Authentizität von Holocaust-Darstellungen in Literatur, Film, Video, Malerei, Denkmälern, Comic und Musik, Bielefeld 2004, S. 12-17.

[4] Ulrich, Bernd, Nie wieder. Immer wieder. Wen die Beschäftigung mit Auschwitz nicht mehr verstört, der macht etwas falsch, in: Die Zeit, 27.01.2005, S. 1. Dies wird auch an dem Film „Der Untergang“ kritisiert. Die Zuschauer/innen können die letzten Tage im so genannten „Führerbunker“ mitverfolgen. Distanzlos und haltungslos habe der Film Hitler verharmlost, in dem er uns, Hitlers Ideen und Taten aussparend, „nur das kommerzielle Sahnehäubchen seiner morbiden letzten Tage aufgetischt“ habe, vgl. Wenders, Wim, Tja, dann wollen wir mal, in: Die Zeit, 21.10.2004, S. 49-50.

[5] Esposito, Elena, Soziales Vergessen. Formen und Medien des Gedächtnisses der Gesellschaft, Frankfurt am Main 2002, S. 288.

[6] Vgl. Rössler, Patrick; Wirth, Werner, Inhaltsanalysen im World Wide Web, in: Wirth, Werner; Lauf, Edmund (Hgg.), Inhaltsanalyse. Perspektiven, Probleme, Potentiale, Köln 2001, S. 289.

[7] Vgl. Kelle, Udo; Kluge, Susann, Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung, Opladen 1999, S. 39, 68.

[8] Siehe <http://www.google.de>.

[9] Erhebungszeitraum: 12. bis 17. Februar 2006.

[10] Internetportal „Lernen aus der Geschichte“, <http://www.lernen-aus-der-geschichte.de> (17.02.2006).

[11] Gedenkstätte Sachsenhausen, <http://www.gedenkstaette-sachsenhausen.de> (15.02.2006).

[12] Shoa.de, <http://www.shoa.de> (15.02.2006).

[13] Der Tagesspiegel, <http://www.tagesspiegel.de/holocaust-mahnmal> (15.02.2006).

[14] Wikipedia, <http://de.wikipedia.org/wiki/Holocaust> (15.02.2006).

[15] Virtuelle Ausstellung, <http://camp.pixelpark.com> (15.02.2006).

[16] Rechtsextremistische Websites von Anbietern/innen, die sich ebenfalls den neuen Potenzialen, vor allem des vernetzten, weltweiten Informationsaustausches, bedienen, werden an dieser Stelle explizit nicht behandelt. Zum Thema Rechts-extremismus im Internet sei unter anderem verwiesen auf Pfeiffer, Thomas, Für Volk und Vaterland. Das Mediennetz der Rechten, Berlin 2002; Bösche, Andreas, Rechtsextremismus im Internet. Die Schattenseiten des www, Hall 2001 und Fromm, Rainer; Kernbach, Barbara (Hgg.), Rechtsextremismus im Internet. Die neue Gefahr, München 2001.

[17] Assmann, Jan, Das Kulturelle Gedächtnis. Schrift, Erinnerung und politische Identität in frühen Hochkulturen, München 2000, S. 246.

[18] Reading, Anna, Clicking on Hitler. The Virtual Holocaust @Home, in: Zelizer, Barbie (Hg.), Visual Culture and the Holocaust, New Brunswick 2001, S. 330.

[19] Ebd.

[20] Assmann, Das kulturelle Gedächtnis (wie Anm. 17), S. 246.

[21] Vgl. Beier, Rosmarie, Geschichte, Erinnerung und Neue Medien. Überlegungen am Beispiel des Holocaust, in: Dies. (Hg.), Geschichtskultur in der Zweiten Moderne, Frankfurt am Main 2000, S. 301.

[22] Assmann, Aleida, Persönliche Erinnerung und kollektives Gedächtnis in Deutschland nach 1945, in: Erler, Hans (Hg.), Erinnern und Verstehen. Der Völkermord an den Juden im politischen Gedächtnis der Deutschen, Frankfurt am Main 2003, S. 136.

[23] Vgl. Assmann, Das Kulturelle Gedächtnis. (wie Anm. 17), S. 57.

[24] Beier, Geschichte, Erinnerung und Neue Medien, (wie Anm. 21), S. 305.

[25] Vgl. Storrer, Angelika, Was ist „hyper“ am Hypertext, in: Kallmeyer, Werner (Hg.), Sprache und neue Medien, Berlin 2000, S. 238.

[26] Vgl. Sandbothe, Mike, Pragmatische Medienphilosophie und das Internet, in: Sandbothe, Mike; Marotzki, Winfried (Hgg.), Subjektivität und Öffentlichkeit. Kulturwissenschaftliche Grundlagenprobleme virtueller Welten, Köln 2000, S. 85f.

[27] Vgl. Assmann, Das kulturelle Gedächtnis (wie Anm. 17), S. 50-52.

[28] Ebd., S. 60.

[29] Vgl. Sager, Sven, Hypertext und Hypermedia, in: Brinker, Klaus (Hg.), Text- und Gesprächslinguistik. Ein internationales Handbuch zeitgenössischer Forschung, Berlin 2000, S. 588.

[30] Vgl. Storrer, Was ist „hyper“ am Hypertext (wie Anm. 25), S. 228. In Anlehnung an Stefan Freisler bezeichnet Storrer die Verflechtung von Schrift, Bild, Ton und Bewegung auch als „Synästhetisierungsaspekt von Hypertexten“, vgl. Freisler, Stefan, Hypertext- eine Begriffsbestimmung, in: Deutsche Sprache 22 (1994), S. 31.

[31] Beier, Geschichte, Erinnerung und Neue Medien (wie Anm. 21), S. 307.

[32] Vgl. Flusser, Vilém, Medienkultur, Frankfurt am Main 1999.

[33] Taubald, Benjamin, Der Kanon der Bilder. Das soziale Gedächtnis und seine mediale Konstitution, in: Petzel, Paul (Hg.), Erinnern. Erkundungen zu einer theologischen Basiskategorie, Darmstadt 2003, S. 112.

[34] Knoch, Habbo, Technobilder der Tat. Der Holocaust und die fotografische Ordnung des Sehens, in: Bannasch, Bettina; Hammer, Almuth (Hgg.), Verbot der Bilder - Gebot der Erinnerung. Mediale Repräsentation der Shoah, Frankfurt am Main 2004, S. 167-188.

[35] Bartov, Omer, Murder in Our Midst. The Holocaust, Industrial Killing and Representation, New York 1996, S. 175f.

[36] Vgl. Levy, Daniel; Sznaider, Natan (Hgg.), Erinnerung im globalen Zeitalter. Der Holocaust, Frankfurt am Main 2001.

[37] Vgl. Assmann, Das kulturelle Gedächtnis (wie Anm. 17), S. 247.

[38] Reading, Clicking on Hitler (wie Anm. 18), S. 332.

[39] Beier, Geschichte, Erinnerung und Neue Medien (wie Anm. 21), S. 304.

[40] Reading, Clicking on Hitler (wie Anm. 18), S. 334.

[41] Assmann, Das kulturelle Gedächtnis (wie Anm. 17), S. 247.

[42] Vgl. Jeudy, Henry Pierre, Die Welt als Museum, Berlin 1987, S. 7-14.

[43] Assmann, Aleida, Druckerpresse und Internet – von einer Gedächtniskultur zu einer Aufmerksamkeitskultur, in: Archiv und Wirtschaft. Zeitschrift für das Archivwesen der Wirtschaft 36 (2003), S. 10.

[44] Kuhlen, Rainer, Wenn Autoren und ihre Werke Kollaborateure werden – was ändert sich dann? Oder: wenn Kommunikation ein Recht, gar ein Menschenrecht wird – was ändert sich dann? In: <http://www.inf-wiss.uni-konstanz.de/People/RK/Publikationen2004/20040706_autoren_kollaborateure.pdf> (18.02.2006).

[45] Vgl. Sandbothe, Pragmatische Medienphilosophie (wie Anm. 26), S. 82-101.

[46] Vgl. Heinrich, Horst Alfred, Kollektive Erinnerungen der Deutschen. Theoretische Konzepte und empirische Befunde zum sozialen Gedächtnis, Weinheim 2002, S. 192-206, zum Gedenken an die Shoah besonders S. 201-206. Auch Familienerinnerungen stellen neben Entschuldungs- und Heroisierungstendenzen vorrangig das persönlich erfahrene Leid im Krieg und das mühselige Überleben heraus, vgl. Welzer, Harald; Moller, Sabine; Tschugnall, Karoline, „Opa war kein Nazi“. Nationalsozialismus und Holocaust im Familiengedächtnis, Frankfurt am Main 2002, S. 109.

[47] Eine Studie zur intergenerationellen Weitergabe von Erinnerungen an den Nationalsozialismus machte deutlich, dass weniger Schulen und sonstige Agenturen des kulturellen Gedächtnisses das Geschichtsbewusstsein vor allem junger Menschen prägen, als Alltagsgespräche in der Familie und Spielfilme, die als eine Art Füllmaterial in die Erzählungen eingebunden werden, vgl. Welzer; Moller; Tschugnall, „Opa war kein Nazi“ (wie Anm. 46), S. 108.


Kollektive Hypertextproduktion – Wenn sich Texte und Autoren/innen einander annähern

von Jakob Krameritsch

Ein zentrales Potenzial von (avanciertem) Hypertext lässt sich schnell auf den Punkt bringen: simultane, nicht-hierarchische und ortsunabhängige Dokumenten- und Akteursvernetzung. Demgemäß wurde die Inauguration von Hypertext vor allem in den 1990er Jahren von der Geistes- und Kulturwissenschaft generell euphorisch begleitet. Der diskursive Hype fand jedoch in den spärlich gelungenen praktischen Umsetzungsversuchen alsbald seine Ernüchterung; die Zeit für eine auf Praxiserfahrung gestützte Neubewertung scheint nun reif; fernab von Heilsversprechungen sind – so die These – wertvolle, nicht zuletzt didaktische Potenziale (eben auch für die historischen Kulturwissenschaften) identifizierbar: zum Beispiel Hypertext als Erfahrungsraum für Heterogenität, Pluralität und Prozessualität; oder Hypertext als Medium für „kollektive, vernetzte Schreibprozesse“. Der vorliegende Text diskutiert dies ausgehend von den Erfahrungen zweier am Institut für Geschichte der Universität Wien realisierter Webprojekte: „pastperfect.at“ und „Hypertextcreator“.

***

Muskat und Zimt: In den Tiefen und Weiten und Räumen der Geschichte

In seinem Roman Mister Aufziehvogel [1] erzählt Haruki Murakami eine brutal-traurige Episode, die sich an einem „erbärmlich heißen Nachmittag“ im August des Jahres 1945 im städtischen Zoo von Hsin-ching, Mandschukuo in China, zugetragen hat. Durch die Kriegswirren kam es zu Versorgungsengpässen, die auch den Zoo betrafen: Das Futter für die Tiere reichte nur mehr wenige Tage. Zudem stand die Invasion der sowjetischen Panzerdivisionen, der sich die Stadt weitgehend schutzlos ausgeliefert sah, unmittelbar bevor. Die Angst, Raubtiere könnten im Zuge der Kampfhandlungen ausbrechen und Menschen zerfleischen, wuchs. Deshalb erhielten Soldaten der japanischen Kwantung-Armee den Befehl, die Tiere des Zoos zu töten. Da auch Gift Mangelware darstellte, mussten die jungen, verängstigten Soldaten die Tiere mit Gewehren erschießen.

Die junge Tochter des Tierarztes des Zoos, Muskat, war zugegen und prägte sich dieses traurige Schauspiel ein. Selbst nach Jahrzehnten schwappte die Erinnerung an diese Ereignisse in ihr täglich hoch. Eines Tages begann sie ihrem Sohn, Zimt, davon zu erzählen, den die Geschichte von da an nicht mehr los ließ. Regelmäßig forderte er das nochmalige Erzählen und die Mutter kam dieser Bitte nach:

„Ich muß sie [die Geschichte, Anm. J.K.] ihm hundert-, zweihundert-, fünfhundertmal erzählt haben, aber ohne dabei jedesmal dasselbe zu wiederholen. Jedesmal verlangte Zimt, daß ich eine andere kleine Episode ausführte, die in der Haupthandlung enthalten war. Er wollte jeweils einen anderen Ast desselben Baumes kennenlernen. Ich folgte der Verzweigung, nach der er fragte, und erzählte ihm den Teil der Geschichte. Und so wuchs die Geschichte und wuchs immer weiter. Auf diese Weise schufen wir uns unser eigenes komplexes System von Mythen. Verstehen Sie? Wir gaben uns völlig der Geschichte hin, die wir uns jeden Tag erzählten. Stundenlang redeten wir über die Namen der Tiere im Zoo, über den Glanz ihres Fells oder die Farbe ihrer Augen, über die verschiedenen Gerüche [...]. In jede Richtung ging es endlos weiter. Es gab immer weitere Details, die sich zusätzlich einfügen ließen, und die Geschichte gewann immer mehr an Tiefe und Weite und Raum.“ [2]

Eine monosequenzierte [3] „Haupthandlung“ wird also zum Ausgangspunkt zahlreicher „Nebengeschichten“, die sich jedoch zunehmend von ihrer Ausgangsgeschichte emanzipieren, anwachsen zu eigenen, mehr werden als bloße Annotation, als bloßes Beiwerk. Die stets mündlich, also synchron vermittelte Geschichte wächst zu einem Netz, deren Kern jedoch präsent bleibt.

Wäre eine solche Struktur – computerverwaltet im WWW und damit der asynchronen wie synchronen Kommunikation und Diskursen freigegeben – nicht reizvoll für hypertextuell organisierte Geschichtsschreibung und -vermittlung?

Ein Autor bzw. eine Autorin oder ein Autorenkollektiv setzt durch die Beschreibung eines Ereignisses die „Initialzündung“ und bietet durch ein elaboriertes Hypertextsystem vielfache Funktionalitäten an. Die „Initialzünder“ definieren damit den konzeptionellen Rahmen – der sich jedoch auch flexibel erweitern ließe – für den weiteren Verlauf des potenziell unendlichen Projektes. Die „Haupthandlung“ bildet (anfangs) den Kern, das Zentrum, um das sich herum stets neue „Geschichten“ gruppieren können. Der Kern bietet etwa durch den (historischen) Kontext, in den die Geschichte eingebettet und dadurch räumlich und zeitlich verortet ist, durch etwa die Beschreibung der landschaftlichen und klimatischen Gegebenheiten, durch die darin agierenden Akteure/innen, deren Sprache, deren Emotionen usw. zahlreiche „Anker“ für nähere Analysen, weitere Fragestellungen durch (andere) Autoren/innen. Der „Muskat-und-Zimt-Hypertext“ wäre demnach nicht als „geschlossener Hypertext“ angelegt – diese verfügen nämlich „über eine feste Anzahl von Modulen.“ [4] Somit sind sie als statische Produkte mit stabiler Struktur konzipiert, auf die spätere Produkte ohne Risiko Bezug nehmen können. „Offene Hypertexte dagegen haben ‚offene Enden’, an die Autoren und Benutzer weitere Module anknüpfen können. Ein offener Hypertext ist ein ‚Text-in-Bewegung’, der das zugrunde liegende Thema über eine unbestimmte Zeitspanne hinweg im Gespräch hält. Die Module können aktualisiert werden, neue Module und Links zum Thema können dazu kommen. Über das Thema kann sich eine Diskussion zwischen Autoren und Nutzern entspinnen, deren Beiträge wiederum wechselseitig kommentiert und diskutiert werden. Es entsteht eine Ganzheit, die nicht einmal durchlaufen, sondern regelmäßig besucht wird, um es mit der üblichen Metapher auszudrücken.“ [5]

Abbildung 1: „Muskat-und-Zimt–Hypertext“

In einem offenen Hypertextsystem könnten „Wreader“ [6] – also die Hybridform aus Reader und Writer – stets weitere Erläuterungen „anhängen“ und den (monosequenziell erzählten) Kern um zusätzliche Informationen bereichern. Der gedachte Aufbau eines solchen Hypertextes, die stets wachsende Struktur ergäbe schematisch die nebenstehende Grafik (Abbildung 1).

Ein und dieselbe Passage, dieselbe Information in der Kerngeschichte, könnte Anlass für unterschiedliche – auch widersprüchliche – Beschreibungen bzw. Analysen geben. Synchrone wie asynchrone Diskussionen zwischen diesen unterschiedlichen Interpretationen könnten entstehen und abgebildet werden. So wie Muskat und Zimt über den Glanz des Fells der Tiere in ein Zwiegespräch eintraten, so könnten auch Wissenschafter/innen in diskursiven Kontakt über einzelne Thematiken treten und Probleme erörtern. Die daraus resultierenden Annahmen und Schlussfolgerungen könnten – synthetisiert – in einem zusätzlichen Ast abgelegt werden. Mit der Zeit könnten sich diese „informationellen Einheiten“ verselbstständigen und ihrerseits zu Ankerpunkten weiterer Geschichten, Analysen und Beschreibungen werden. Die Kerngeschichte bleibt bestehen, doch weitet sie sich aus in eine Text-, möglicherweise auch Bild- und Tonlandschaft. Aus einem geschlossenen, monosequenzierten Anfang wird ein offenes Hypertextnetz.

Im Idealfall wären die informationellen Einheiten durch typisierte Links [7] verknüpft, da diese die Kohärenzbildung – also die Bildung von individuellen „roten Fäden“ – entscheidend unterstützen. Metadaten erleichtern die gezielte Suche, grafisch-intuitiv begreifbare Interfaces bieten – zusätzlich zu den Ankern der Haupthandlung – zahlreiche Zugänge zu den Inhalten und gewährleisten einen Einblick in die stets wachsende Netzstruktur.

So wie Muskat und Zimt die Geschichte mit „immer weitere(n) Details, die sich zusätzlich einfügen ließen“ bereicherten und diese dadurch „immer mehr an Tiefe und Weite und Raum“ gewann, könnte auch eine wissenschaftliche Hypertextlandschaft entstehen.

„In jede Richtung ging es endlos weiter“, stellt Muskat fest. Neben die räumlich unbegrenzte Dimension tritt die zeitliche: Ausbau, Erweiterung und Vertiefung sind stets und flexibel durch potenziell alle am Hypertext Beteiligten möglich.

Typologien und Szenarien offener Hypertexte

„Muskat-und-Zimt-Hypertexte“ existier(t)en bereits, jedoch hauptsächlich auf dem Gebiet literarisch-künstlerischer Experimente als „Hyperfiction“. [8] Stellvertretend für viele sei hier das Projekt „Beim Bäcker“ (1996-2000) [9] erwähnt. Auch bei diesem stand eine „Einführungserzählung“ am Anfang, andere folgten, die diesen narrativen Strang weiterentwickelten, unterschiedliche Aspekte aufgriffen, neue Personen einführten „und so in ihrer Zusammengehörigkeit eine teilweise überraschende Multilinearität“ [10] erzeugten. Scheinbare Eindeutigkeiten wurden ambig, weil der Folgeerzähler oder die Folgeerzählerin ihnen eine andere Richtung gab. Christiane Heibach hat dieses und ähnliche Projekte [11] , die auf einer kollektiven Produktionsform – „vernetztes Schreiben“, wie Heibach dies bezeichnet – von Hypertext beruhen, eingehend untersucht und unterscheidet hierbei vier unterschiedliche konzeptionelle Ausrichtungen hinsichtlich der am Projekt aktiv beteiligten Personen bzw. Autoren/innen: [12]

1. Kooperation

Diese ist die „schwächste“ Form, da sie auf der Formierung einer nach außen hin abgegrenzten Gruppe zur Bewältigung einer Aufgabenstellung beruht. Diese Formen der Zusammenarbeit sind nicht hypertextspezifisch, da es sie auch außerhalb dieses Mediums „immer schon gegeben“ [13] hat. Allerdings – so vermutet Heibach – werden diese Kooperationen aus zweierlei Gründen zunehmen: weil die Produktion von Hypertexten die Integration umfassender Kompetenzen verlangt; etwa die Arbeitsaufteilung zwischen (wissenschaftlichen) Autoren/innen, (künstlerisch-ausgerichteten) Designern/innen und (technisch versierten) Programmierern/innen. Eine enge und gleichberechtigte Kooperation zwischen diesen Bereichen geht einer – leider allzu oft vernachlässigten – mediengerechten Inszenierung bzw. Webdramaturgie [14] voraus. Und zweitens weil offene wie geschlossene Hypertexte Medien darstellen, die der Zusammenarbeit und kollektiven Kreativität bzw. Intelligenz entgegenzukommen scheinen und diese auf unterschiedlichen Ebenen „prämieren“. Die „strukturelle Gewalt des Mediums“ (Wolfgang Schmale) ebnet auf zahlreichen Wegen mit zahlreichen Tools den Weg dafür, ja verführt geradezu, zeit- und ortsunabhängig in digitalen Netzwerken zusammen zu finden.

2. Partizipation

Diese Projekte sind dadurch gekennzeichnet, dass sie prinzipiell offen für die Beteiligung aller Nutzer/innen sind; Einzelbeiträge bleiben hier jedoch noch bestehen, eine Autorenzuschreibung ist gewahrt. Weiters wird hier durch die Person oder Gruppe, die das Projekt initiiert, gleichzeitig der Projektrahmen festgelegt und die redaktionelle Kontrolle übernommen. [15] Die Projektinitiatoren/innen-Gruppe übernimmt hierbei ähnliche Aufgaben wie die Herausgeber/innen etwa eines Sammelbandes; Leser/innen können allerdings freilich leichter zu Autoren/innen werden. Nicht nur, indem sie neue informationelle Einheiten produzieren und integrieren, sondern etwa auch durch die Schaffung neuer Pfade zwischen bestehenden Einheiten, die für andere Beteiligte nachvollziehbar sind. In der Rekonfiguration oder Neu-Kontextualisierung von bestehenden Informationseinheiten liegt nicht zuletzt auch eine der wissenschaftlichen Hauptaufgaben. In seinem umfassenden Werk „Cyberscience. Research in the Age of the Internet“ bezeichnet Michael Nentwich dies als „minimum publication“: „What I called [...] the ‚minimum publication’ (setting link between existing modules) above would obviously be such a borderline case between authoring, information seeking and analysis.“ [16]

3. Kollaboration

Kollaborative Projekte unterscheiden sich nun genau durch jene Elemente, die in einem partizipativen Projekt „aus der Buchkultur ins Netz transferiert“ werden: „Sie verzichten sowohl auf auktoriale Zuschreibungen als auch auf redaktionelle Kontrolle.“ [17] Das bedeutet gleichsam, dass jeglicher Anspruch auf konventionelle, zentralisierte Qualitätskriterien mit der Offenheit und Dynamik des Projektes ausgewechselt werden. Heibach nennt ein grundlegendes Dilemma der Kollaboration: „Absolute Freiheit und Strukturlosigkeit führen dazu, dass die Lesbarkeit verloren geht; redaktionelle Eingriffe jedoch stehen dem Prinzip der Offenheit der Gestaltungsmöglichkeiten für alle Teilnehmer entgegen. [...] Da es bei diesen Projekten nur selten um Narrativität, sondern vielmehr um den Prozess der gemeinsamen Kreativität geht, müsste diese Dynamik in irgendeiner Form dargestellt werden können – und zwar so, dass sie auch für Nicht-Beteiligte nachvollziehbar wird.“ [18]

Der Assoziations-Blaster [19] von Dragan Epscheid und Alvar Freude verwehrt sich etwa explizit gegen jeden Anspruch auf (intentionale) Narrativität und verschreibt sich vollkommen einer durch einen Zufallsgenerator gesteuerten Assoziativität. Damit geht jedoch verloren, was intentionale, selektive Lektüre erst ermöglicht: die Möglichkeit auf (globale wie lokale) Kohärenzbildung. Der in vielfacher Hinsicht äußerst reizvolle Assoziations-Blaster unterminiert Autorenschaft auf doppelte Weise: Einerseits ist eine freie, anonyme und unzensierte Beteiligung möglich, andererseits generiert eine Software die Zusammensetzung der Texte stets neu und zufällig, – und nicht mehr die Beteiligten intentional. Es wird demnach weder ein identifizierbarer Autor oder eine Autorin noch ein abgeschlossenes Werk, sondern vielmehr unendliche Vernetzungsmöglichkeit sichtbar. [20] Freilich ist die Steigerung des Zufallsprinzips nicht grundsätzlich negativ zu bewerten, – etwa im Sinne eines „Lost in Hyperspace“ – Effektes, der sich im Fehlen von Kontext, Orientierung und Übersicht als Gefühl der Obdachlosigkeit im hypertextuellen Raum manifestiert. Zufall kann – so er erkannt und genutzt wird – produktiv sein und heißt dann „Serendipity“. [21] Picasso hat dies auf den Punkt gebracht: „Ich suche nicht, ich finde!“

4. Dialog

Diese Projekte rücken verstärkt die intensive Interaktion in Form von Echtzeitgesprächen ins Zentrum. [22] Chatforen gewährleisten synchrone (Gruppen-)Kommunikation und ähneln damit bis zu einem gewissen Grad einer Face-To-Face-Kommunikation; Blogs [23] stellen in dieser Hinsicht eine Art asynchronen Chat dar. Bei allen Potenzialen, die diese Form der zeit- und ortsunabhängigen Interaktion- und Informationsform hat, lehrt die Erfahrung doch, dass vor allem rein textbasierte Chats die multimediale Struktur einer Face-To-Face-Kommunikation nicht eins zu eins ins WWW übertragen kann: Das Fehlen multimedialer Kommunikationsfaktoren erschwert nicht nur den Gesprächsprozess selbst, sondern auch dessen asynchrone Rezeption. Für die User/innen ist es oftmals extrem schwierig, den vielfältigen Diskursen zu folgen, die sich über Kreuz entwickeln, jedoch chronologisch hintereinander dargestellt werden. Face-To-Face-Kommunikation kann dadurch in ihrer Ausdrucksvielfalt sicherlich nicht ersetzt werden.

Kehren wir nun zu unserem „Muskat-und-Zimt-Hypertext“ zurück, können wir konzeptualisierter eine mögliche Form zwischen geschlossenen und Spielarten offener Hypertexte beispielhaft entwickeln. Der Startschuss hat die Form eines geschlossenen, monosequenzierten Haupttextes, dem danach weiteres Material durch eine klar definierte und nach außen hin abgegrenzte Autorengruppe hinzugefügt werden könnte. Einzelne Bereiche ließen sich nach Regeln der Partizipation öffnen; formal und inhaltlich definierte Vorgaben der Initiatorengruppe sind hierbei jedoch einzuhalten. Hinzugefügte Texte unterliegen vor ihrer „Freischaltung“ redaktionellen Eingriffen.

Richten wir unser Augenmerk auf bisherige Erfahrungen mit partizipativem, vernetztem Schreiben, scheint es erforderlich zu sein, vor allem auf Kohärenzen zu achten, um ein Auseinanderfallen in individuelle, voneinander wieder letztlich getrennte Bausteine zu vermeiden, wie Claudia Klinger, die Initiatorin des partizipativen Projekts „Beim Bäcker“ zu bedenken gibt: „Insofern zeigen Mitschreibeprojekte den ganz normalen Egoismus der Menschen, nicht mehr und nicht weniger. Jeder will seine eigene Welt kreieren und muss abwägen zwischen dem, was ihm ein Mitschreibeprojekt bringt (Einbindung in einen reizvollen Kontext, der unter Umständen stärker wahrgenommen wird als ein Einzelwerk im Netz, neue Kontakte) und was es ihn kostet (Abstriche an der eigenen Freiheit – die beim Bäcker jedoch nicht gross sind).“ [24] „In freien Kooperationen sind die Beteiligten frei, sich der Kooperation zu entziehen“ [25] , benennt Geert Lovnik das Problem beim Namen. Langwierige und mühsame Diskussionsprozesse, Schwierigkeiten der Koordination und des gemeinsamen Findens eines editorialen und inhaltlichen Rahmens, können Kollaborationen in ihrer Produktivität bremsen.

Muskat und Zimt formten sich ein „komplexes System an Mythen“. Die Initiatoren und Wreader von Hypertexten mit (kultur-)wissenschaftlichem Inhalt müssen darauf achten, ein komplexes, global und vielfach lokal kohärentes Netz an argumentativen, theoriegeleiteten Erzählungen zu schaffen. Das heißt nicht, dass Widersprüche, Ambivalenzen oder Ähnliches ausgeschlossen werden sollen, – ganz im Gegenteil. Vermieden werden soll aber eine lose Aneinanderreihung von individuellen Beiträgen, die sich nicht oder nur oberflächlich mit anderen kontextualisieren lassen. Ein „Zerfransen“ multipler Erzählstränge steht am anderen Ende kollektiver Intelligenz und Kreativität. Insofern muss darauf geachtet werden, dass spätere Wreader auf gewisse Kernthematiken bestehender informationeller Einheiten rekurrieren, diese zum konstitutiven Element ihrer Auseinandersetzung machen und so einzelne Elemente weiterdenken und „fortschreiben“. Zentrale Herausforderung partizipativer oder stärker geöffneter Hypertexte ist sicherlich die Wahrung lokaler und globaler Kohärenzen. Für den anfänglichen Aufbau einer – im Vergleich etwa zur thematisch weit offenen, enzyklopädischen Wikipedia – thematisch enger umrissenen kohärenten Hypertextbasis empfiehlt es sich daher wahrscheinlich, Zugriffsrechte zu schichten. Die Archivierung einzelner Stränge, das „Schließen“ und „Einfrieren“ vormals offener Strukturen gewährleistet die Dokumentation von Diskursen und kann so fixer und stabiler Bezugspunkt werden.

Einzelne Unterbereiche können jedoch auch zur Spielwiese von kollaborativen und dialogischen Hypertexten werden. Moderatoren/innen und Redakteure/innen sorgen für Synopsen, die wiederum Startschuss neuer partizipativer Hypertexte werden. Hier können in einem diskursiven asynchronen wie synchronen Prozess neue „Spielrunden“ [26] eingeläutet werden. Das offene Netz kann an potenziell allen Stellen durch die Beteiligung neuer „Spieler/innen“ und durch andere „Problemvorgaben“ stets wachsen.

Kooperativ Geschichte(n) schreiben: Hypertextcreator

Aus der bisherigen Skizze, die nur einige – beileibe nicht alle (!) – Spannungsfelder rund um hypertextuelle Multiautorenschaft angerissen hat, wird zweierlei klar ersichtlich: [27]

Einerseits gehen mit der (kooperativen bis dialogischen) Produktion von Hypertext zahlreiche Potenziale einher, die sich für Recherche, Forschung und (Geschichts- wie Medien-)Didaktik nutzen lassen. Im Kern dreht es sich hierbei um die Möglichkeiten der konkreten, nicht-hierarchischen und ortsunabhängigen Dokumenten- und Akteursvernetzung.

Jedoch wurde andererseits auch klar, dass Hypertext kein „leichtes“ Medium ist, dass sich eine an Hypertext geknüpfte „revolution in human thought“ [28] nicht von selbst – quasi durch mediale Geisterhand – realisiert. Gerade der diskursive Hype rund um Hypertext in den 1990er Jahren, der etwa das Erreichen des „land promised (or threatened) by post-modern theory“ [29] versprach, überschüttete die Anstrengungen, mit denen man sich bei der Planung, Entwicklung und Umsetzung eines semantisch, argumentativ stimmigen und kohärenten Hypertextnetzes konfrontiert sieht. Um zwei dieser Anstrengungen nur stichwortartig zu nennen: Inhalt, Technik, mediengerechte Dramaturgie und ästhetische wie didaktische Inszenierung sind die zentralen Felder einer Hypertextmediaproduktion. Sie müssen gleichberechtigt zusammengedacht und aufeinander abgestimmt werden. Interdisziplinäre Kommunikation steht hierbei also an vorderster Stelle. Wie oben bereits skizziert, braucht es im n-dimensionalen Raum „Hypertext“ auch neue Strategien zur Verdeutlichung von Kohärenzstrukturen – Anforderungen, die allzu oft übersehen wurden.

Kurz: Das zuweilen techno-eschatologisch anmutende Fest rund um den „advent of hypertext“ [30] verstellte diesen Blick auf die „Herausforderung Hypertext“. Ende der 1990er Jahre fand denn auch der diskursive, mit überzogenen Heilserwartungen operierende Hype in den spärlich gelungenen praktischen Umsetzungsversuchen alsbald seine Ernüchterung; Hypertext erhielt Etiketten wie „Mythos“ [31] , „Wunschmaschine“ [32] oder – wie Peter Sloterdijk vor kurzem in Analogie zur kulturpessimistischen Lesart einer TV-Konsumhaltung meinte – „Ausweitung der Komfortzone“.

In dieser Schere positionierte sich das Webprojekt zum 16. Jahrhundert pastperfect.at (Leitung: Wolfgang Schmale, Institut für Geschichte, Wien). [33] Dieses Projekt unternahm den Versuch, hypertextspezifische Potenziale zu hinterfragen und in der Praxis – für Autoren/innen und Rezipienten/innen – auszuloten.

Die Erfahrung lehrte uns, dass die Produktion eines umfassenden Hypertextes (700 Originalbeiträge von rund 40 Autoren/innen, verknüpft mit über 78.000 Links) in einem Autorenkollektiv nicht nur äußerst anstrengend ist, sondern ebenso mit zahlreichen Herausforderungen einhergeht, die sich didaktisch nutzen ließen. Nicht zuletzt der Erfolg dieses Projektes (Förder- und Publikums – MEDIDA-PRIX 2004 und red.dot Award für hohe Designqualität 2005) spornten uns an, ein von pastperfect.at adaptiertes Content Management System (CMS) namens Hypertextcreator zu gestalten, das hier abschließend beschrieben sei.

Der Hypertextcreator [34] stellt eine online zugängliche Lehr- und Lernsoftware dar, die im Zuge von Lehrveranstaltungen sowohl Lehrende wie Studierende unterstützen soll, Inhalte „medienadäquat“ zu produzieren, aufzubereiten und zu vernetzen. Das im Zuge von pastperfect.at erprobte CMS „VMS“ wurde hierfür weiter adaptiert und vereinfacht, so dass die von Studierenden erarbeiteten Inhalte leicht eingebettet und miteinander verknüpft werden können. Die im Zuge von pastperfect.at elaborierte „Attribut-Node-Verknüpfungslogik“ wurde auch zum Herzstück des Hypertextcreators:

Das System beruht darauf, dass eine interne Funktion die Vernetzung mehrfach verknüpfter gleicher Datensätze selbstständig erfragt und diese in Form von „Querlinks“ auf der User/innen-Oberfläche abbildet. Wird etwa die Kurzbiografie von Kolumbus sowohl einem Text A als auch einem Text B zugeordnet, so werden A und B über das jeweils zugewiesene „Attribut Kolumbus“ automatisch miteinander verknüpft. Dies ermöglicht die Generierung der bereits oben skizzierten kontextsensitiven und typisierten Links; jene weisen auf, über welchen Aspekt (Kolumbus) die Informationseinheiten miteinander verknüpft sind und zu welcher Informationseinheit (von A zu B usw.) der Pfad führt. Die User/innen können somit eine Vorentscheidung zwischen den diversen Linkangeboten treffen, da ein Hinweis auf den Inhalt der angebotenen Zieldokumente vorab gegeben wird (in den Layern dieser „Querlinks“, bei pastperfect.at gekennzeichnet durch Doppelpfeile „>>“). Dieses Tool kann so die User/innen bei der Kohärenzbildung, beim Ineinandermischen der Stücke entscheidend unterstützen. Die typisierten Links schaffen die Voraussetzung für die Möglichkeit einer Kontextualisierung, die gerade für die Rezeption eines (geschichts-)wissenschaftlichen Hypertextes wichtig erscheint. Es ist ein Tool, mit dem das Spiel von Fragmentierung und Kontextualisierung organisiert werden kann: Die Fragmentierung des Inhalts in Informationseinheiten kann dadurch in eine benutzergeleitete Kohärenzbildung münden. Auf dieser Verknüpfungslogik basiert sowohl pastperfect.at als auch der Hypertextcreator; sie bezeichnet gleichzeitig auch die programmiertechnische Grundarchitektur, die die strukturierende Basis für die Produktion und Vernetzung der Texte lieferte.

Das CMS unterstützt so den Prozess der Verknüpfung nicht nur technisch und spiegelt ihn mit Mehrwert wider, sondern strukturiert auch die Zusammenarbeit des Autorenkollektivs, ohne jedoch vorzugeben, dieses von intellektueller Arbeit zu entlasten. Von der Herausforderung der Vernetzung und Kohärenzplanung nach argumentativen und semantischen Gesichtspunkten wird das Autorenteam nicht befreit. Das oben beschriebene technische System hält das Autorenteam dazu an, nach gemeinsamen „Attributen“ (wie etwa Kolumbus) Ausschau zu halten, denn jene werden zu den „Instanzen der Verknüpfung“ und Brücken zwischen den einzelnen Einheiten. Dazu müssen sie erstens bestimmt und zweitens der jeweiligen Einheit zugewiesen werden. Ein gemeinsamer Prozess, zumal bei jedem möglichen Attribut (Personen, Begriffe oder entwickelte Begriffspaare) nachgeprüft werden muss, ob es in den Stand der „Attribute“ aufgenommen werden sollte. Wenn es später lediglich einem Text beigefügt ist, führt der Pfad ins Leere; ist es jedoch extensiv Texten zugeordnet, dann ist die Bestimmung wohl zu grob und muss verfeinert werden. Reine Quantität gerät zur Sinnlosigkeit. Beim individuellen Schreiben muss also stets das Netzwerk an Autoren/innen und Inhalten mitgedacht werden, in das man die je eigenen Texte einweben wollte. Ziel ist es ja, die eigenen Einheiten aus ihrer Isolation herauszureißen und sinnvoll in das Netzwerk zu integrieren. Bedeutung soll so nicht nur durch die einzelnen Texteinheiten produziert, sondern auch durch die Bahnen der Verknüpfungen generiert werden, die vielfältige Zusammenhänge für User/innen transparent werden lassen. Die Erarbeitung eines kohärenten, argumentativ und semantisch stimmigen Hypertextnetzwerkes verlangt danach, dies bedacht und verantwortungsvoll zu machen – wohl eine der zentralsten Aufgaben des Teams, die Kommunikation unabdingbar macht. Diese Logik der Attribut-Node-Relation wurde beim Hypertextcreator beibehalten – auch hier stellt sie das zentrale Werkzeug dar, um typisierte Verknüpfungen und Pfade herstellen zu können. Das CMS ist an ein einfach modifizierbares, öffentlich einsehbares User-Interface angebunden; während das Interface von pastperfect.at speziell auf die erarbeiteten inhaltlichen Anforderungen und Zugangskategorien einging, bestand demgegenüber für den Hypertextcreator die Herausforderung, ein weitestgehend „themenneutrales“ Interface zu konzipieren, da sich möglichst viele kulturwissenschaftliche Zugänge abbilden lassen sollten. Das User-Interface ist daher weniger von einem bestimmten Thema geprägt, sondern versucht vielmehr der Attribut-Node-Relation gerecht zu werden und diese nach außen zu kehren, wie Abbildung 2 [35] zeigt.

Das Interface garantierte zudem eine – im Vergleich zu pastperfect.at – extrem einfach handhabbare CMS-Interface-Kommunikation. Der Hypertextcreator lässt sich ohne Programmierkenntnisse bedienen. Grundlegende Funktionen und „Logiken“ des Systems lassen sich – so unsere Erfahrungen – innerhalb einer Unterrichtseinheit den Studierenden näher bringen. So können etwa die Attribute, die in einem zentralen und von allen Teilnehmern/innen einsehbaren und erweiterbaren „Fach“ gesammelt werden, den Nodes einfach via Choiceboxen zugeordnet werden.

Abbildung 2: Hypertextcreator: Screen des Prototypen „Hypertext // Bibliomanie“

Der Einsatz des Hypertextcreators sollte sich nicht vorwiegend technischen Beschreibungen widmen müssen, sondern im Gegenteil den Schwerpunkt der Auseinandersetzung auf kooperative Produktionsprozesse und auf die damit einhergehenden Vernetzungsaspekte – sowohl auf der Ebene der Dokumente wie auch auf der Ebene der Akteure/innen – legen können. Ziel der Entwicklung war es also, eine flexible, leicht zu bedienende CMS-Interface-Rahmenstruktur anbieten zu können, ohne jedoch den Handlungsspielraum der Nutzenden zu beschneiden. Kreativität im gemeinsamen Aufbau eines semantisch und argumentativ stimmigen, kohärenten Hypertextes sollen gefördert werden. [36]

Der Hypertextcreator wurde bisher in insgesamt 16 Lehrveranstaltungen an den Universitäten Wien, Graz, Klagenfurt und München eingesetzt. Es bestätigte sich, was uns pastperfect.at lehrte: Das Medium WWW (konkreter: CMS-gestützter Hypertext) unterstützt und befördert wie kein anderes kooperative, vernetzte Produktions- und Schreibprozesse. Diese Prozesse der gemeinsamen Entwicklung von Hypermedianetzwerken – die Prozesse der Dokumenten- und Akteursvernetzung also – gehen mit didaktischen Vorteilen bzw. Kompetenzerweiterungen einher, die gerade für zukünftige Geistes- und Kulturwissenschafter/innen wichtig und zentral erscheinen. Sie seien abschließend zusammengefasst:

Die Entwicklung eines Hypertextnetzes im oben skizzierten Sinne erfordert wissenschaftliche wie soziale Fähigkeiten, die durch den gezielten Einsatz des Hypertextcreators erlernt, unterstützt bzw. erweitert werden können.

  • Um mehr als eine Abfolge von voneinander abgekapselten Einzel-Arbeiten zu generieren, steht funktionierendes Teamwork, das Synergieeffekte ermöglicht, an erster Stelle; gefördert wird durch den Hypertextcreator nicht nur die individuelle Arbeit, sondern auch die Interaktion – und nicht zuletzt Face-To-Face-Kommunikation – mit den Mitautoren/innen; [37] die Logik der Attribut-Node-Relation strukturiert hierbei gleichsam die Zusammenarbeit, sie bietet einen Rahmen für die gezielte Einbettung der individuellen Forschungsarbeit in den Gesamtkontext der jeweiligen Lehrveranstaltung, die sich im entstehenden Hypertextnetz Schritt für Schritt materialisiert.
  • Die Erarbeitung eines gemeinsamen Hypertextes erfordert gemeinsame Begriffsbildung. Attribute (etwa Kurzbiografien oder Begriffserklärungen) müssen im Kontext aller Beiträge bestehen können und Geltung haben. Dies führt zu Diskussionen über die Bedeutungsvielfalt von Begriffen und (wissenschaftlichen) Konzepten, über die die Beiträge miteinander verknüpft werden.
  • Diskussionen darüber, welche Begriffe, Konzepte, Personen usw. in den „Stand der Attribute erhoben werden“, Diskussionen über die Granularität der Attribute, führen unweigerlich zu Fragen der Kategorisierung und inhaltlichen Gewichtung des Hypertextes. Die Einsicht in den (geschichts-)wissenschaftlichen Konstruktionsprozess wird erhöht und gleichzeitig die Interaktion zwischen den Teilnehmern/innen gestärkt.
  • Die notwendige Modularisierung und Fragmentierung stärkt die Fähigkeit, in Textkategorien und Zugängen zur Materie, in spezifischen „informationellen Einheiten“ zu denken. Studierende sind dazu angehalten, Themen in Teilthemen zu fragmentieren, über die Argumentationslinien deutlich werden. Im Gegensatz zu rein individuellem Schreiben müssen diese Überlegungen zum „topografischen Schreiben“ und zur Strukturierung („Fragmentierung“, „Kontextualisierung“ und „Kohärenzplanung“) verbalisiert werden, um innerhalb des Autorenteams ausgehandelt werden zu können – stets mit dem Ziel, eine kohärente Wissensbasis zu generieren.
  • Als Nebeneffekt bedeutet dies: Studierende müssen sich mit dem Prozess des Schreibens bewusst(er) auseinander setzen: mit Schreibstil, Schreibinteresse, mit gemeinsam erarbeiteten Standards für das gemeinsame Produkt.
  • Schreiben für Hypertext erfordert ein Denken in Zusammenhängen, Assoziations- und Verweisungsmustern: jede und jeder muss an den Inhalten anderer partizipieren und das Gesamtthema im Blick behalten; zumal es gilt, inhaltliche Überschneidungen zu vermeiden, jedoch Zusammenhänge strukturell zu ermöglichen. Schreiben bedeutet hier auch, den jeweils eigenen Text auf Zusammenhänge mit anderen Texten hin auszurichten („topografisches Schreiben“, „offene/multiple Texte“).
  • Auf einen Aspekt sei noch hingewiesen: Hypertextproduktion sollte den grundlegend multimedialen Charakter des WWW nicht außer Acht lassen. Die Geschichtswissenschaft, die lange Zeit (audio-)visuellen Quellen wenig Beachtung schenkte, hat ab den späten 1980er Jahren zunehmend die eigenständige, bedeutungstragende Qualität von Bild- und Tonmedien für sich (wieder-)entdeckt und zu einer interdisziplinären Bildwissenschaft ausgebaut. [38] Jene Medien lassen sich nun nicht nur technisch leichter integrieren, sondern auch leichter aus dem Status der reinen Illustration befreien und in den wissenschaftlichen Diskurs integrieren. Innerhalb des Hypertextcreators können auch Bild- und Tonmedien zu Attribut-Brückenköpfen werden. Dadurch können diese innerhalb des Hypertextes eine tragende Rolle spielen – ihr Wert für die historischen Kulturwissenschaften soll dadurch unterstrichen werden.
  • Nicht zuletzt sei noch ein pragmatischer Effekt des Einsatzes des Hypertextcreators unterstrichen: Die Studierenden lernen in der Praxis grundlegende Spielregeln und Funktionsweisen eines Redaktions- und Datenbanksystems kennen, blicken hinter die Kulissen von Hypertext, was zur Emanzipation und einem bewussteren Umgang mit dem Medium führt („Medienkompetenz“/„Medienkreativität“). Der aktive Gebrauch nimmt „der Technik“ ihren sie zuweilen mystifizierenden Schleier und baut damit bestehende Hemmschwellen (weiter) ab. Gerade diese Hemmschwellen stehen einer verstärkten Produktion von Hypertext immer noch entgegen. Die nächste Generation (von Studierenden) wird diese Schwellen wohl weniger wahrnehmen und als Hindernis sehen: mithin eine Chance für eine vermehrte und kreative Produktion von Hypertexten.

Durch einen gezielten Einsatz des Hypertextcreators werden all diese Herausforderungen strukturiert und damit unterstützt, kurz: Das System kann als Katalysator für Kompetenzerweiterungen dienen, die letztlich auch dem Schreiben für klassische Formate zugute kommen. Diese Anforderungen können vor allem dann gewinnbringend gemeistert werden, je mehr alle am Hypertext Beteiligten Kenntnis von dessen Charakteristika, Herausforderungen, Potenzial und Grenzen haben. Das Wissen um das Medium prägt den Prozess der Entwicklung und wirkt auf das Ergebnis zurück. Eine Beschäftigung mit hypertextspezifischen Potenzialen und Anforderungen muss demnach der gemeinsamen Entwicklung eines Hypertextnetzes inhärent sein.

Gelingt dies, werden zu guter Letzt durch den Hypertextcreator die in Teamwork erarbeiteten Ergebnisse am User-Interface auch mit Mehrwert transparent veranschaulicht. Das Produkt, die Website, hat – wie es eben bei Hypertexten im engeren Sinn der Fall ist – „offene Enden“. Die produzierten Inhalte sind nicht mit dem Siegel der Gültigkeit und Abgeschlossenheit (der (guten) Note) versehen; sie verstauben nicht abgekapselt voneinander in Ordnern und Kisten der Lehrenden; sie sind vielmehr stets ausbau-, erweiter-, und diskutierbar – an sie kann stets angedockt und in einem anderen Semester durch andere Personen weitergearbeitet werden. Im besten Fall steht am Ende eines ersten Einsatzes des Hypertextcreators nicht bloß ein „fertiges“ Produkt, sondern der Startschuss eines längerfristig angelegten Projektes. Die Erfahrungen zeigen, dass Studierende sichtlich (intellektuellen) Spaß daran haben, bereits bestehende Inhalte zu diskutieren, sich mit ihnen zu verknüpfen und diese so „weiter zu schreiben“.

Ein gemeinsames Geschichten-Weiterschreiben und -Denken entspricht nicht nur dem diskursiven und prozessualen Charakter der Geistes- und Kulturwissenschaften, es ist auch an Organisationsmodellen orientiert, wie sie heute im WWW vorzufinden sind. Der Hypertextcreator versucht deren Potential für verschiedenste Lehr- und Lernszenarien der Geistes- und Kulturwissenschaften fruchtbar zu machen. Es scheint generell zu kurz gegriffen zu sein, Inhalte bloß für das WWW „adäquat“ aufzubereiten, sie etwa lediglich „bildschirmgerechter“ zu gestalten. Vielmehr sollten wir umgekehrt die mit dem WWW entstehenden und (nur) in ihm existierenden erfolgreichen Organisationsmodelle und Nutzungsarten auf unsere Inhalte adäquat anwenden und diese für neue (wissenschaftliche) Schreibformen und Lesbarkeiten nutzbar machen. [39]

Erinnern wir uns zurück an Muskat und ihre Beschreibung der Geschichte, die sie gemeinsam mit ihrem Sohn immer weiter ausdehnte und verfeinerte. Haruki Murakami schreibt am Ende seiner Beschreibung: „Muskat lächelte, als sie von diesen […] Tagen erzählte. Ich hatte noch nie so ein natürliches Lächeln auf ihrem Gesicht gesehen.“

***

Dr. Jakob Krameritsch ist derzeit Projektmanager im interuniversitären E-Strategie-Projekt „Delta 3“ an der Akademie für bildende Künste in Wien sowie E-Learning-Beauftragter der historisch-kulturwissenschaftlichen Fakultät der Universität Wien. Er arbeitet als externer Lektor am Institut für Geschichte der Universität Wien und hat zahlreiche Webprojekte mitkonzipiert und koordiniert. E-Mail: jakob.krameritsch@univie.ac.at


[1] Murakami, Haruki, Mister Aufziehvogel, Köln 1998 (Original: Nejimaki-dori Kuronikuru, Tokyo 1994).

[2] Ebd., S. 562.

[3] Angelika Storrer unterscheidet zwischen medialer und konzeptioneller Linearität bzw. Nicht-Linearität bzw. unterschiedlichen Abstufungen von Sequenziertheit. Im Gegensatz zur medialen Eigenschaft betonen die konzeptionellen Eigenschaften die von der Textproduzentin bzw. vom Textproduzenten getroffene Entscheidung. Storrer vertritt die Auffassung, dass der wesentliche Unterschied zwischen Buch und Hypertext nicht auf der Ebene der medialen Linearität liegt, sondern auf der Ebene der konzeptionellen und unterscheidet zwischen mono-, mehrfach- und unsequenzierten Texten. Ihre Definition monosequenzierter Texte: „In monosequenzierten Texten plant der Autor einen thematisch kontinuierlichen Leseweg, auf dem sich jedes Textsegment inhaltlich-thematisch auf der Grundlage der bereits rezipierten Textsegmente einordnen lässt. Monosequenzierte Texte sind konzipiert für die vollständige Lektüre auf dem vom Autor gelegten Leseweg; die Textsegmente lassen sich nicht ohne Risiko für das Verständnis gegeneinander austauschen.“ Storrer, Angelika, Was ist „hyper“ am Hypertext? in: Kallmeyer, Werner (Hg.), Sprache und neue Medien (Jahrbuch des Instituts für deutsche Sprache 1999), Berlin 2000, S. 222-249, hier: S. 240.

[4] Ebd., S. 237.

[5] Ebd., S. 237f.

[6] Vgl. dazu Landow, George P., What´s a Critic to Do? Critical Theory in the Age of Hypertext, in: Ders. (Hg.), Hyper/Text/Theory, London 1994, S. 1-47, hier: S. 14.

[7] In typisierten Verknüpfungen kommt explizit zum Ausdruck, in welcher Beziehung die verknüpften Inhalte stehen – dazu werden sie häufig mit einem „Label“ oder „Attribut“ versehen. Zu Recht werden sie auch als „Meaningful Links“ bezeichnet. Diese scheinen gerade für die Vermittlung von komplexen (wissenschaftlichen) Inhalten entscheidend zu sein, deren Ziel es ja ist (bzw. sein sollte), ein Verstehen durch Rezipierende zu gewährleisten. Dieses Verstehen basiert auf der Möglichkeit, Kohärenz zu bilden. Dies gilt für alle Formen von Texten: „The primary goal of both hypertexts and linear texts is to convey in a coherent form to a reader“. Folz, Peter, Comprehension, Coherence, and Strategies in Hypertext and Linear Text, in: Rouet, Jean Francois; Levonen, Jarmo J.; Dillon, Andrew u.a. (Hgg.), Hypertext and Cognition, Mahwah, New Jersey 1996, S. 109-136, hier: S. 114. Vgl. auch: Conklin, Jeff, Hypertext: An Introduction and Survey, in: Computer. New York Institute of Electrical and Electronical Engineers (IEEE) 20, Heft 9 (1987), S. 17-41, hier: S. 40, hier zitiert nach Kuhlen, Rainer, Hypertext. Ein nicht-lineares Medium zwischen Buch und Wissensbank, Berlin 1991, S.125; auch zitiert in: Iske, Stefan, Vernetztes Wissen. Hypertext-Strukturen im Internet, in: Norbert Meder (Hg.), Wissen und Bildung, Bd. 5, Bielefeld 2002, S. 37.

[8] Siehe dazu etwa zur Einführung: Suter, Beat; Böhler, Michael (Hgg.), Hyperfiction. Internet und Literatur. Ein Lesebuch, Frankfurt am Main 1999.

[9] Dieses Projekt ist mittlerweile online nicht mehr zugänglich, auf der bei Heibach, Christiane, Literatur im elektronischen Raum, Frankfurt am Main 2003, inkludierten CD-Rom kann es jedoch gelesen und durchforstet werden.

[10] Heibach, Christiane, Schreiben im World Wide Web – eine neue literarische Praxis? in: Münker, Stefan; Roesler, Alexander (Hgg.), Praxis Internet. Kulturtechniken der vernetzten Welt, Frankfurt am Main 2002, S. 182-207, hier: S. 192.

[11] Vgl. beispielhaft die Online-Projekte: „Mein Pixel-Ich“ unter: <http://www.berlinerzimmer.de/tagebau/> sowie „NULL“ unter: <http://www.dumontverlag.de/null/> (Alle Links wurden zuletzt am 26.09.2006 überprüft). MUDs (Multi User Dungeon oder Multi User Dimension) sind die älteste Form des vernetzten Schreibens mittels Computernetzwerken und haben sich bis heute gehalten. Zumeist sind dies textbasierte Spiele, in denen Fantasy-Welten entworfen werden. Hierzu vgl. Harrison, Roger, Multi User Dungeons. Versuch einer Definition und Standortbestimmung, in: Bollmann, Stefan; Heibach, Christiane (Hgg.), Kursbuch Internet. Anschlüsse an Wirtschaft und Politik, Wissenschaft und Kultur, Mannheim 1996, S. 229-314.

[12] Vgl. dazu auch: Nentwich, Michael, Cyberscience. Research in the Age of the Internet, Vienna 2003, S. 270ff. Quer zu Heibachs Typologie offener Hypertexte zeichnet Nentwich – ausgehend von einem bereits (zum Großteil) realisierten Status quo eines (schwachen) Hypertextes – das Bild von fünf zukünftig möglichen Hypertext-Szenarien.

[13] Heibach, Literatur (wie Anm. 9), S. 161.

[14] Vgl. Hentschläger Ursula; Wiener, Zelko, Webdramaturgie. Das audio-visuelle Gesamtereignis, München 2002.

[15] Vgl. Heibach, Literatur (wie Anm. 9), 161ff.

[16] Nentwich, Cyberscience (wie Anm. 12), S. 295.

[17] Heibach, Literatur (wie Anm. 9), S. 172ff.

[18] Ebd., 174f. Vgl. etwa das Projekt „snowfield“ unter: <http://www.art-bag.org/snowfields>.

[19] Vgl. <http://www.assoziations-blaster.de>.

[20] Dazu Dragan Epscheid: „Unsere Echtzeit-Verknüpfung sorgt dafür, dass zwischen Texten, die von verschiedenen Leuten eingegeben werden können, automatisch Verbindungen im Sinne von Hyperlinks entstehen. So entsteht aus vielen einzelnen Texten das Textnetzwerk. Dieser Mechanismus ist das Kernstück des Assoziations-Blasters. Während sich Hypertext-Autoren/innen im herkömmlichen Web selbst um das Setzen von Links kümmern müssen, ist der Link in unserem System immer vorhanden. Nichtlinear bedeutet, dass der im Blaster erzeugte Hypertext keinen Anfang und kein Ende hat, es gibt auch keine festgelegte Lesereihenfolge. Man kann nicht an einem Punkt beginnen und sich dann Schritt für Schritt alle Inhalte anschauen oder abarbeiten, stattdessen hangelt man sich von einem Text zum nächsten, und jeder dieser Texte ist genau so Ausgangspunkt oder Ergebnis wie der vorherige. Während des Lesens kann ein gleichzeitig von einer anderen Person neu eingegebener Text das ganze Netzwerk verändern. Alle Verbindungen entstehen sofort, deswegen ‚Echtzeit’.“ Epscheid, Dragan; Freude, Alvar, Von der Leichtigkeit des Links und dem Kampf um seine Leichtigkeit, in: Dichtung Digital, <http://www.merz-akademie.de/~dragan.espenschied/dd_interview.html>.

[21] Vgl. dazu ausführlicher: Krameritsch, Jakob, Geschichte(n) im Hypertext. Von Prinzen, DJs und Dramaturgen, in: Epple, Angelika; Haber, Peter (Hgg.), Vom Nutzen und Nachteil des Internets für die historische Erkenntnis Version 1.0 (Geschichte und Informatik/Histoire et Informatique Bd. 15), Zürich 2005, S. 33-55.

[22] Vgl. etwa das Projekt: „Heaven & Hell“ unter <http://adaweb.walkerart.org/GroupZ/heaven&hell>.

[23] Der Begriff „Blogger“ meint umgangssprachlich die Betreiber/innen bzw. (aktive wie passive) Nutzer/innen von „Weblogs“. Die Bedeutungsspanne von „Weblogs“ ist groß, doch im Wesentlichen ist ein „Weblog“ eine chronologische bzw. auch thematische Auflistung von Kommentaren zu Informationen im WWW. Der Namensgeber für den Begriff „Blog“ bzw. „Weblog“ ist der amerikanische Programmierer John Barger. Er nannte die Dokumentation seiner Aktivitäten im Netz im Jahr 1997 „Web-Logbuch“ – also eine Chronik dessen, welche Links verfolgt wurden und auf welche Informationen dabei gestoßen wurde. In den meisten Fällen bestehen Weblogs demgemäß aus regelmäßig aktualisierten Beiträgen, die eher in informeller Art und Weise persönliche Meinungen wiedergeben. Zudem beinhalten sie in der Regel weiterführende Links und sind kommentierbar. So können die einzelnen Autoren/innen auch Bezug aufeinander nehmen, wobei eine Art Gesprächsprotokoll entsteht. Frei und kostenlos im WWW zu erwerbende Software macht es einfach, eigene Weblogs – auch ohne Programmierkenntnisse – zu publizieren. Journalismus etwa könnte in Zukunft noch vermehrt auf persönlichen Websites und nicht im Rahmen von Medienunternehmen stattfinden. In den USA jedenfalls wurden Blogger bereits 2004 zu den Conventions der Demokraten und Republikaner offiziell eingeladen. Der gleiche Mechanismus könnte selbstredend auch im Feld der Wissenschaft stattfinden. Speziell zum Thema Weblogs siehe: Rodzvilla, John (Hg.), We've got blog. How weblogs are changing our culture, o.O. 2002; Blood, Rebecca, The Weblog Handbook. Practical Advice on Creating and Maintaining your Blog, o.O. 2002; Kim, Amy Jo, Community Building on the Web, Berkeley 2002. Für eine erste kurze Einführung siehe auch: <http://www.abseits.de/weblogs.htm>.

[24] Simanowski, Roberto, Mitschreibeprojekte und Webtagebücher. Öffentlichkeit im Netz. Ein Interview mit Claudia Klinger, in: Dichtung Digital, 03.05.2000, unter: <http://www.dichtung-digital.de/Interviews/Klinger-3-Mai-00>.

[25] Lovnik, Geert, Traum der freien Kooperation, in: Lettre International 66 (2004), S. 130. Vgl. dazu auch die Ergebnisse eines Symposium zum Thema: „networks, art & collaboration“ (24.-25.04.2004, Buffalo) unter: <http://www.freecooperation.org>.

[26] Der Begriff rekurriert hier auf Helga Nowotny: „Der transitorische Charakter der Wissenskonfiguration sorgt für Formierung und Auflösung, um sich an anderer Stelle, in etwas anderer Zusammensetzung, mit etwas anderen Problemvorgaben und einer etwas veränderten Ressourcenfiguration neu zu konstituieren. Es ist die Dynamik der neuen Wissensproduktion, die den Raum, in dem sich dieser Wissenszuwachs repräsentiert, selbst dynamisiert. [...] Dies ist die Dynamik der Innovation und der Multiplizität des Neuen: Die nächste Spielrunde hat bereits begonnen, während wir uns noch in der gegenwärtigen zu befinden glauben.“

[27] Ausführlicher dazu: Krameritsch, Jakob, Geschichte(n) im Netzwerk. Hypertext und dessen Potenziale für die Produktion, Repräsentation und Rezeption der historischen Erzählung, Diss. Wien 2005.

[28] Landow, George, P, Hypertext 2.0. Being a revised, amplified edition of Hypertext: The Convergence of Contemporary Critical Theory and Technology, Baltimore 1994, S. 2.

[29] Bolter, Jay D., Writing Space. Computers, Hypertext, and the Remediation of Print, Mawhah, New Jersey 2001, S. 204.

[30] „In the humanities the advent of hypertext will probably provoke a certain amount of conflicts.“ Dieses vermutete Konfliktpotenzial wurde nur spärlich sichtbar, es wurde von fast grenzenloser Begeisterung überdeckt. Moulthrop, Stuart, In the Zones. Hypertext and Politics of Interpretation (1989), unter: <http://iat.ubalt.edu/moulthrop/essays/zones.html> (Februar 1989). Vgl. dazu auch: Schumacher, Ekkehard, Hyper/Text/Theorie. Die Bestimmung der Lesbarkeit, in: Andriopoulos, Stefan; Schabacher, Gabriele; Ders. (Hgg.), Die Adresse des Mediums, Köln 2001, S. 121-135.

[31] Porombka, Stephan, Hypertext. Kritik eines digitalen Mythos, München 2001.

[32] So meint Frank Hartmann: „Neue Technologien ohne soziale Innovation bleiben Wunschmaschinen (und die Hypertextmetapher ist eine davon).“, in: Hartmann, Frank, Mediologie. Ansätze einer Medientheorie der Kulturwissenschaften, Wien 2003, S. 187.

[33] Vgl. <http://www.pastperfect.at>.

[34] Vgl. <http://hypertextcreator.univie.ac.at>.

[35] Hypertextcreator: Screen des Prototypen „Hypertext // Bibliomanie“, <http://www.univie.ac.at/hypertextcreator/papersucks/site/browse.php>. Im linken Interfacebereich sind die Nodes abzurufen, rechts die Attribute, die die typisierte Verlinkung zwischen den Nodes herstellen. Hier am Beispiel eines Bildattributes von Marshall McLuhan, rechts unten in der Liste und das dazu korrelierende Bild im Pop-Up-Fenster.

[36] Ausführliche Informationen zu didaktischen Überlegungen, Ideen zur Strukturierung von Inhalten wie auch Vorschläge zur Unterrichtsgestaltung unter: <http://hypertextcreator.univie.ac.at>.

[37] Vgl. Kuhlen, Rainer, Wenn Autoren und ihre Werke Kollaborateure werden – was ändert sich dann? Oder: wenn Kommunikation ein Recht, gar ein Menschenrecht wird – was ändert sich dann? in: Bieber, Christoph; Leggewie, Claus (Hgg.), Interaktivität – ein transdisziplinärer Schlüsselbegriff, Frankfurt am Main 2004.

[38] Siehe dazu richtungsweisend: Wohlfeil, Rainer, Das Bild als Geschichtsquelle, in: HZ 243 (1986), sowie Tolkemit, Brigitte; Wohlfeil, Rainer, Historische Bildkunde. Probleme – Wege – Beispiele, ZHF/Beiheft 12, Berlin 1991.

[39] Vgl. Baumgartner, Peter, Didaktische Aspekte, unter: <http://www.pastperfect.at>, Reflexionen, Essays.


Internet-gestützte Zusammenarbeit in Forschungsverbünden – Das Forschungsnetzwerk und Datenbanksystem „Fremdheit und Armut“

von Gisela Minn und Tamara Stazic-Wendt

Im Beitrag wird der Versuch unternommen, erstens Anforderungen für kollaborative EDV-Systeme in interdisziplinären Forschungsverbünden zu formulieren und zweitens Einsatzmöglichkeiten kooperativer Arbeitsformen in den historischen Kulturwissenschaften aufzuzeigen. Ausgehend von der konkreten Arbeitssituation im Sonderforschungsbereich 600 „Fremdheit und Armut“ an der Universität Trier werden ausgewählte EDV-Lösungen zur Unterstützung der gemeinsamen Forschungsarbeit vorgestellt.

***

Einführung in die Themenstellung

Während die Nutzung der Internettechnologien zur Kommunikation und Informationsrecherche bereits etabliert ist und die Skepsis gegenüber elektronischen Publikationen allmählich schwindet, werden netzbasierte, kooperative Arbeitstechniken in den historischen Kulturwissenschaften jedoch noch kaum eingesetzt. Dies gilt auch für die Arbeit in Forschungsverbünden, die insbesondere durch die intensive Zusammenarbeit über Fach- und Disziplinengrenzen hinweg neue wissenschaftliche Erkenntnisfortschritte erzielen möchten. Zur Organisation und Koordination gemeinsamer Forschungsarbeit in derartigen, vielfach auf unterschiedliche Standorte verteilten Projektverbünden bietet der Einsatz Internet-basierter EDV-Systeme neue Perspektiven. So kann der Aufbau räumlich unabhängiger Datenarchive, der Austausch von Primärdaten innerhalb der Forschergruppen oder die gemeinsame Analysearbeit vereinfacht werden. Wie der beeindruckende Erfolg der Online-Enzyklopädie Wikipedia zeigt, ist es darüber hinaus möglich, die Erarbeitung, Formulierung, Veröffentlichung und Vernetzung von Forschungsergebnissen in kooperativer Form zu organisieren. In der konkreten Forschungspraxis sind jedoch allenfalls Vorstufen kollaborativen Schreibens in Form gemeinsamer Sammlung, Erschließung und Auswertung von Primärdaten zu beobachten.

Ausgehend von der konkreten Arbeitssituation im Sonderforschungsbereich 600 „Fremdheit und Armut“ [1] an der Universität Trier wird im folgenden Beitrag der Versuch unternommen, erstens Anforderungen für kollaborative EDV-Systeme in interdisziplinären Forschungsverbünden zu skizzieren und zweitens Chancen und Grenzen kooperativer Arbeitsformen in den historischen Kulturwissenschaften aufzuzeigen. Am Beispiel der integrierten Informations- und Arbeitsplattform des Projektverbundes werden ausgewählte EDV-Lösungen zur Unterstützung der Zusammenarbeit in den unterschiedlichen Phasen des wissenschaftlichen Arbeitsprozesses vorgestellt. [2]

Anforderungen an kollaborative EDV-Systeme für die Zusammenarbeit in interdisziplinären Projektverbünden

Bei der Erstellung des Anforderungsprofils für kollaborative EDV-Systeme sind unterschiedliche Faktoren zu beachten. Hierzu gehören insbesondere die Analyse der Organisationsstruktur der Verbünde, die genaue Beschreibung des wissenschaftlichen Arbeitsprozesses in seinen unterschiedlichen Teilschritten und die vergleichende Betrachtung der Arbeitsmethoden in den am Verbund beteiligten Fächern. Darüber hinaus sind die in den jeweiligen Fachkulturen üblichen Arbeitsgewohnheiten, Einstellungen gegenüber EDV-Anwendungen sowie die Haltung in Fragen des Autoren- und Urheberrechts zu beachten. Für die Konzeption und Programmierung des Forschungsnetzwerks und Datenbanksystems „Fremdheit und Armut (FuD-System)“, das im Mittelpunkt der folgenden Ausführungen steht, waren insbesondere die forschungs- und arbeitsorganisatorischen Rahmenbedingungen wichtig, die Sonderforschungsbereiche als interdisziplinäre, zeitlich befristete Projektverbünde kennzeichnen.

Sonderforschungsbereiche: Grundlagenforschung und Nachwuchsförderung

Im organisatorischen Rahmen von Forschungsverbünden, so genannten Sonderforschungsbereichen (SFBs), wird seit den 1960er Jahren die fach- und institutionenübergreifende Zusammenarbeit von Wissenschaftlern/innen an den Universitäten in Deutschland gefördert. [3] Zu Beginn des Jahres 2006 finanzierte die Deutsche Forschungsgemeinschaft (DFG) an 57 Hochschulen 266 Sonderforschungsbereiche, darunter 35 Einrichtungen im Bereich der Geistes- und Sozialwissenschaften. Auf eine Projektlaufzeit von maximal neun bis zwölf Jahren befristet, verbinden diese Forschungseinrichtungen wissenschaftliche Grundlagenforschung mit der Förderung des wissenschaftlichen Nachwuchses.

Für die Durchführung des umfassenden, langfristig konzipierten Forschungsprogramms legen die am Verbund beteiligten Wissenschaftler/innen gemeinsame Leitfragen, methodische Verfahren und Theorieansätze fest. Innerhalb dieses übergeordneten Forschungsrahmens erarbeiten Teilprojekte ausgewählte, zentrale Themenfelder. Diese Projektgruppen, zu denen Doktoranden/innen, Postdoktoranden/innen sowie wissenschaftliche Hilfskräfte gehören, sind die Hauptträger der Forschungsarbeit. Das Arbeitsprogramm untergliedern die Teilprojekte in verschiedene thematische Schwerpunkte, zu deren Bearbeitung sie klar definierte Teilstudien durchführen. Mit dem Abschluss dieser Untersuchungen erbringen die jeweiligen Bearbeiter/innen in der Regel zugleich den Nachweis der wissenschaftlichen Qualifikation im Rahmen des Studiums, der Promotion oder der Habilitation.

Neben den Teilprojekten mit ihren jeweiligen fachspezifischen Ausrichtungen werden übergreifende Arbeitskreise eingerichtet, in denen über die Grenzen der Teilprojekte und Fächer hinweg Wissenschaftler/innen ausgewählte Aspekte des Gesamtthemas zusammen bearbeiten und gemeinsam Ergebnisse formulieren. Die Erträge dieser interdisziplinären Arbeitsgruppen ergänzen die Forschungsleistungen der Teilprojekte und tragen dazu bei, die Einzelergebnisse zu einer übergreifenden Ergebnissynthese zusammenführen zu können.

Diese knapp skizzierte arbeitsteilige Organisation der Forschungsarbeit in den Teilprojekten, den Arbeitskreisen und den Qualifikationsvorhaben der Nachwuchswissenschaftler/innen prägen die Arbeitssituation in den SFBs. Einzelarbeit und gemeinschaftliche Forschungsarbeit sind eng miteinander verzahnt. Dabei überwiegen individuelle Arbeitsformen gegenüber kooperativen Verfahrensweisen. Einer der Hauptgründe hierfür ist die permanente Qualitätskontrolle, der die Arbeit der Forschungsverbünde unterliegt. Ihre Forschungsleistung wird in Evaluierungen, die regelmäßig in drei- bis vierjährigen Abständen stattfinden, durch ein Gremium externer Gutachter/innen überprüft. Im Mittelpunkt der Begutachtung stehen neben der Entwicklung des Gesamtverbundes insbesondere die Leistungen der Teilprojekte. Darüber hinaus verstärkt die Verbindung von Projektarbeit und wissenschaftlicher Qualifikation im Rahmen der SFB-internen Nachwuchsförderung den Vorrang individueller Arbeit vor kooperativen Arbeitsformen. Denn der Nachweis der persönlichen wissenschaftlichen Qualifikation setzt voraus, dass die Einzelleistung der Nachwuchswissenschaftler/innen jederzeit überprüfbar und messbar ist. Erforderlich ist daher ein EDV-System, das offen ist für individuelle und kooperative Arbeitsformen und das mit Blick auf die Autoren- und Urheberrechte ein hohes Maß an Transparenz garantiert.

Gemeinsame Forschungsarbeit: Arbeitsabläufe und EDV-Einsatz

Die Möglichkeit, Arbeitsvorgänge im Detail nachvollziehen zu können, ist zudem eine wichtige Voraussetzung für die Durchführung gemeinsamer Forschungsvorhaben. Hierzu ist es notwendig, dass die Projektangehörigen ein Datenkorpus aufbauen, das über einheitliche Schlagwortregister und Analyseraster uneingeschränkt zugänglich ist.

In der Regel arbeiten die Projektmitarbeiter/innen an Einzelplatzrechnern. Forschungsdaten und bibliografische Informationen, die sie für die von ihnen betreuten Teiluntersuchungen des Projektes und ihre Qualifikationsarbeiten erheben, erfassen und speichern sie lokal in kommerziellen Textverarbeitungs- oder Datenbankprogrammen wie Word, Access, Filemaker oder MAXqda bzw. in der Literaturverwaltungssoftware Bismas oder Endnote. Um ein Projektkorpus oder ein projektübergreifendes Quellen- und Literaturkorpus zu erstellen und zugänglich zu machen, müssen die Einzeldateien in einer Gesamtdatei zusammengeführt werden. Der hierzu notwendige Zeit- und Arbeitsaufwand ist erheblich; die Mehrbelastung hängt von zwei Faktoren ab, zum einen ist entscheidend, ob alle Projektangehörigen die gleiche Software einsetzen oder ob unterschiedliche EDV-Programme zum Einsatz kommen, so dass Datenkonvertierungen in ein einheitliches Dateiformat vorgenommen werden müssen. Wenn die Aufnahme und Verschlagwortung der Forschungsdaten nach individuellen Schemata erfolgten, sind nachträglich aufwendige Redaktionsarbeiten notwendig, um ein standardisiertes, über einheitliche Sachregister recherchierbares Datenkorpus zu erstellen.

Diese Arbeiten zum Aufbau einer gemeinsamen Datengrundlage müssen bei fortschreitender Datenerfassung an den Einzelrechnern in regelmäßigen Abständen wiederholt werden, damit die Gesamtdatei nicht veraltet, sondern annähernd dem aktuellen Bearbeitungsstand entspricht. Die Arbeitsbelastung für diese fortwährende Aktualisierung der Gesamtdatei steigt mit der Zahl der beteiligten Projekte, denn die Vielfalt der eingesetzten Programme sowie der Erfassungs- und Kategorisierungsschemata für die inhaltliche Arbeit nimmt zu. Zudem ist diese Vorgehensweise fehleranfällig.

Um die Arbeitsabläufe in Verbünden einfacher und effizienter zu gestalten, sind EDV-Lösungen zu entwickeln, die gegenüber der traditionellen Arbeitsweise an Einzelrechnern erlauben, die Forschungsarbeit dezentral an räumlich verteilten Standorten zu organisieren und Forschungsdaten parallel in eine gemeinsame Datenbank einzugeben. Zudem soll das System den schnellen und komfortablen Datenaustausch unterstützten und auf diese Weise gewährleisten, dass die Forschungsdaten an allen Arbeitsplätzen direkt verfügbar sind und die Systemnutzer/innen unmittelbar auf die frei verfügbaren Daten zugreifen können. Die permanente Aktualisierung der Datenbankinhalte ist schließlich Bedingung für die simultane Bearbeitung des gemeinsamen Datenbestandes.

Fachspezifische Anforderungen und rechtliche Aspekte

Neben diesen technischen Voraussetzungen, die für die kollaborative Arbeit an verteilten Arbeitsplätzen in Forschungsverbünden wichtig sind, sind bei der Systemkonzeption ferner die Anregungen und Wünsche der beteiligten Fächer bzw. der Einzelwissenschaftler/innen zu berücksichtigen. Damit das Datenbanksystem auch für die Forschungsarbeit in den verschiedenen wissenschaftlichen Disziplinen eingesetzt werden kann, sind Mechanismen vorzusehen, die zum Beispiel die Kombination Verbund übergreifender und fachspezifischer Inventarisierungs- und Erschließungsinstrumente unterstützen. Durch die Einführung eines differenzierten und flexiblen Rechtemanagements im Rahmen der Benutzerverwaltung ist zudem die Sicherung der Urheber- und Autorenrechte zu garantieren. So können insbesondere Bedenken der Nachwuchswissenschaftler/innen zerstreut werden, dass Daten vor Abschluss der eigenen Auswertung ungeschützt zur Verfügung gestellt werden. Die Transparenz der Bearbeitungsprozesse und die Protokollierung der Datenbankveränderungen stellen sicher, dass die Leistungen der einzelnen Systemnutzer/innen dokumentiert und ihre adäquate Bewertung möglich ist.

Die hier nur in einer Auswahl aufgeführten EDV-Anforderungen wurden bei der Konzeption des FuD-Systems des SFB 600 berücksichtigt. Ihre Umsetzung im Datenbankprogramm in Client Server-Architektur wird bei der folgenden Präsentation der Verfahren zur Unterstützung der gemeinsamen Forschungsarbeit vorgestellt. [4]

Computergestützte, netzbasierte Formen der Zusammenarbeit im SFB 600

Im Rahmen des SFB 600 an der Universität Trier arbeiten Geschichtswissenschaftler/innen, Kunst-, Kirchen- und Rechtshistoriker/innen sowie Literatur-, Medien- und Politikwissenschaftler/innen seit dem 01. Januar 2002 zusammen. Dem interdisziplinären Projektverbund, der sich in der zweiten Förderphase (2005 bis 2008) befindet, gehören 14 Professoren/innen, 36 Wissenschaftliche Mitarbeiter/innen und etwa 50 Studentische Hilfskräfte an. Unter der Federführung des Faches Geschichte untersuchen sie mit Unterstützung von fast 20 weiteren Kollegen/innen aus den beteiligten Fächern in derzeit 17 unterschiedlichen Teilprojekten, welche Formen des Umgangs mit Fremden und Armen Gesellschaften unterschiedlichen Typs von der Antike bis zur Gegenwart entwickelt haben. Ziel des Forschungsvorhabens ist es, die wissenschaftlichen Grundlagen für eine sozial- und kulturgeschichtliche Beschreibung europäischer und mediterraner Gesellschaften zu schaffen, die insbesondere die mit der Organisation gesellschaftlicher Solidarität und ihrer Begrenzung verbundenen Probleme in den Blick nimmt.

Aufbau des Dokumentinventars und -archivs

Voraussetzung für die gemeinsame Arbeit ist, dass bereits erhobene Primärdaten für alle Wissenschaftler/innen an zentraler Stelle nachgewiesen und zugänglich sind. Der Aufbau eines gemeinsamen Inventars und Dokumentenarchivs ist deshalb vorrangiges Arbeitsziel des Forschungsverbundes. Hierzu ist in enger Zusammenarbeit mit den Teilprojekten eine detaillierte Analyse der Datenmaterialien vorgenommen und eine systematische Beschreibung der formal-inhaltlichen Dokumentstrukturen erarbeitet worden. Sie ist Grundlage für die Generierung der für die unterschiedlichen Dokumenttypen vorgesehenen, spezifischen Eingabemasken, die allen Teilprojekten und Arbeitskreisen für die standardisierte, einheitliche Datenerfassung innerhalb des FuD-Systems zur Verfügung stehen.

In einem SFB, dessen Untersuchungszeitrahmen von der Antike bis zur Gegenwart gespannt ist, wird Datenmaterial unterschiedlichen Dokumenttyps, verschiedener Sprachen und Überlieferungsformen erhoben. Die Vielfalt der Dokumenttypen lässt sich grob in vier Bereiche gliedern: Texte archivalischer Provinienz oder gedruckter Form, visuelle Medien, Objekte und Dokumente in mündlicher Überlieferungsform. Das Quellenspektrum reicht zum Beispiel im Bereich der Textüberlieferung von Papyri aus ägyptischer Zeit über klassische Texte antiker Autoren/innen, frühmittelalterliche Mirakelberichte und Testamente, Responsen genannte Rechtsentscheide jüdischer Gelehrter bis hin zu Urkunden, Verordnungen und Verwaltungsschriftgut sowie Print- und Online-Medien, die die Masse der Quellen darstellen. Insgesamt stehen derzeit Masken für die Erfassung von annähernd 40 verschiedenen Textsorten mit jeweiligen Untergattungen bereit. Zu den visuellen Quellen zählen Bildwerke unterschiedlicher Kunstgattungen, Fotografien oder frühe Glasbilder, die so genannten Laterna-magica-Bilder. Die Audio-Quellen in verschriftlichter Form umfassen Radiosendungen, Interviews oder Reden. Zu den archäologischen Objekten zählen zum Beispiel Münzen oder Inschriften.

Für die Inventarisierung des heterogenen Datenmaterials, das in Papierform oder bereits als digitaler Volltext oder Image-Datei vorliegt, werden Dokumenttypen mit ähnlicher formal-inhaltlicher Struktur zu Gruppen zusammengefasst und standardisierte Eingabemasken entworfen.

Abbildung 1: Inventarisierungsumgebung mit mehrgliedriger Erfassungsmaske

Um die Erfassungsarbeiten übersichtlich zu gestalten, ist der Eingabevorgang in sieben Teilschritte untergliedert: In einem ersten Schritt werden die Grundinformationen zur Beschreibung des Dokuments erfasst. Hierzu gehören Angaben zu dem Überlieferungsort, den Urhebern/innen des Dokuments, den Adressaten/innen, der Datierung sowie dem Bearbeitungsstand oder dem projektinternen Aufbewahrungsort. Ergänzend können in der Teilmaske 2 bibliografische Informationen zu ediert vorliegenden Datenmaterialien eingetragen werden. Teilmaske 3 und 4 sind für die Eingabe eines Regests oder einer kurzen Zusammenfassung des Dokumentinhaltes bzw. des Volltextes oder des Bildobjektes vorgesehen. Daneben können im Rahmen der Inventarisierung digitale Aufnahmen des Dokumentes als Anhang angefügt sowie Kommentare und persönliche Notizen eingetragen werden. Über ein gemeinsam erarbeitetes Schlagwortsystem, das die Wissenschaftler/innen durch neue, mit der Gesamtredaktion abgestimmte Einträge dynamisch erweitern können, wird eine für alle Dokumente verbindliche grobe Sacherschließung nach zeitlichen bzw. thematischen Gesichtspunkten vorgenommen. Zur Vereinfachung bzw. Beschleunigung der Dateneingabe können bestimmte Voreinstellungen eingetragen werden, die bei nachfolgenden Erfassungsvorgängen beibehalten werden.

Derzeit stehen 15 verschiedene Eingabemasken im Datensystem bereit. Sie ermöglichen eine einheitliche, standardisierte Inventarisierung und Erschließung des Datenmaterials nach den gemeinsam erarbeiteten Regeln. Bei der Konzeption der Programmkomponente für die Inventarisierung werden auch die jeweiligen Interessen der Teilprojekte soweit möglich berücksichtigt. Das Angebot erlaubt deshalb nicht nur die systematische Aufnahme von Dokumenttypen, die für die gemeinsame Forschungsarbeit von Bedeutung sind. Unabhängig von der Relevanz für die projektübergreifende Arbeit werden ebenfalls Erfassungsmasken für Quellengattungen bereitgestellt, die ausschließlich in den Teilprojekten bearbeitet werden. Darüber hinaus werden die standardmäßig vorgegebenen Datenfelder in den Erfassungsmasken um projekt- oder dokumentspezifische Datenfelder ergänzt. Mit diesen Erweiterungen soll die Voraussetzung geschaffen werden, das EDV-System auch außerhalb der projektübergreifenden Arbeitskreise für die Einzelarbeit nutzen zu können.

Die integrierte Nutzung des Datenbanksystems für die kooperative wie auch für die individuelle Forschungsarbeit wird durch die Benutzerverwaltung und das Rechtemanagement gesteuert. Für jede/n Systemnutzer/in wird in der Datenbank ein Account eingerichtet, dem Informationen zur Funktion innerhalb des SFBs (Teilprojektleiter/in, Wissenschaftliche/r Mitarbeiter/in, Gastwissenschaftler/in, Tagungsteilnehmer/in) sowie zu den Mitgliedschaften in Arbeitsgruppen (Teilprojekte, Arbeitskreise, Tagungssektionen) zugeordnet sind.

Abbildung 2: Optionen zur Dokumentfreigabe im Rahmen des Rechtemanagements

Das Rechtemanagement beruht auf dem Grundprinzip, dass die Wissenschaftler/innen die alleinigen Urheber- und Verfügungsrechte für diejenigen Forschungsdaten besitzen, die sie in das System einstellen. Ausschließlich die Rechteinhaber/innen erteilen die Freigabe für das Datenmaterial und gewähren den Kollegen/innen die Möglichkeit der Mitnutzung. Unabhängig von der Dateneingabe können sie zu einem beliebigen, von ihnen selbst bestimmten Zeitpunkt im Arbeitsprozess entscheiden, welche Dokumente frei zugänglich sein sollen. Darüber hinaus können sie den Personenkreis genau festlegen, dem sie ihr Material zur Verfügung stellen wollen: Sie können wählen aus einer Liste aller beteiligten Wissenschaftler/innen und aller Arbeitsgruppen, oder sie können eine generelle Freigabe für den Gesamtverbund gewähren.

Außerdem haben die Datenproduzenten/innen die Möglichkeit zu bestimmen, welche Inhalte frei zugänglich sein sollen. Der Zugang kann eingeschränkt werden auf die Grundinformationen des Dokuments, die Kurzzusammenfassung, den Volltext, die Anhänge oder den Kommentar. Alternativ kann der Gesamtinhalt eines Dokuments verfügbar gemacht werden. Mit den verschiedenen Teilinhalten eines Dokuments sind unterschiedliche Nutzungsmöglichkeiten verbunden. Durch die Freigabe der Inventarisierungsdaten werden grundsätzlich zum Beispiel nur Leserechte gewährt. Die Freischaltung des Volltextes bietet Kollegen/innen die Möglichkeit, ein Dokument im Rahmen der Sach- und Semantikanalyse zu bearbeiten und für die eigene Fragestellung auszuwerten.

Durch die flexible Steuerung von Zugangs- und Nutzungsrechten kann die Bildung von Arbeitsgruppen, in denen unterschiedliche Formen der Kooperation mit variierenden Intensitätsstufen praktiziert werden, unterstützt werden. So können sich Angehörige verschiedener Teilprojekte zu einem Arbeitskreis zusammenschließen. Für die Vorbereitung einer Tagung können auch externe Konferenzteilnehmer/innen zeitlich befristet Mitglied in einer Arbeitsgruppe werden. Außerhalb dieser institutionalisierten Formen wissenschaftlicher Zusammenarbeit unterstützt das System auch die direkte Kommunikation zwischen Wissenschaftlern/innen. Sie können auf einfache und schnelle Weise Daten austauschen, um ein ad hoc anstehendes Problem gemeinsam zu lösen.

Die Einschränkung der Freigabe auf Teilinhalte der Dokumente berücksichtigt zudem die Interessen der Wissenschaftlichen Mitarbeiter/innen in der Qualifikationsphase, die erst nach Abschluss der eigenen Auswertungsarbeiten ihr Datenmaterial zur Verfügung stellen möchten. Durch diese differenzierte Form des Rechtemanagements finden zudem datenschutzrechtliche Auflagen Berücksichtigung, indem zum Beispiel personenbezogene Daten, die lediglich die im Archiv vereidigten Mitarbeiter/innen einsehen und auswerten dürfen, zwar im Inventar nachgewiesen, jedoch nicht im Volltext frei zugänglich gemacht werden.

Ziel ist es, möglichst alle Dokumente mit ihren Grundinformationen zu inventarisieren. Die Erfassung der Dokumentinhalte kann aus arbeitsökonomischen Gründen auf die zentralen, insbesondere für die projektübergreifenden Arbeiten wichtigen Dokumente beschränkt werden. Durch den Aufbau des Dokumentinventars und -archivs werden unterschiedliche Formen der Zusammenarbeit ermöglicht. In der konkreten Forschungspraxis können auf der Grundlage des Inventars Archivrecherchen sorgfältig geplant sowie Doppel- und Mehrfacherfassungen vermieden werden. In Forschungsverbünden mit einem hohen Anteil an Nachwuchswissenschaftlern/innen, die nach Abschluss ihrer Qualifikationsarbeit ausscheiden, ist es darüber hinaus für die Kohärenz und Kontinuität der Arbeit wichtig, Quellenmaterial zur Weiternutzung für die Nachfolger/innen bereitzuhalten. Die standardisierte Beschreibung und Erfassung der Forschungsdaten vereinfacht und beschleunigt zudem die Vorbereitung projektübergreifender Publikationen; für die Drucklegung einer gemeinsamen Quellenedition wird die notwendige Redaktionszeit gemindert. Zudem können für die gemeinsame Aufarbeitung eines Themas schnell und einfach Datenkorpora zusammengestellt werden.

Erstellung gemeinsamer Quellenkorpora

Für die Erstellung gemeinsamer Quellenkorpora können unterschiedliche Strategien gewählt werden. Bereits bei der Datenerfassung haben die Systemnutzer/innen die Option, ein Dokument einem bestimmten Teilprojekt, Arbeitskreis oder einer Arbeitsgruppe, die eine gemeinsame Tagung vorbereitet, zuzuweisen. Darüber hinaus kann das gleiche Dokument über die Zuweisungsmechanismen der Benutzerverwaltung jedem beliebigen Einzelwissenschaftler bzw. jeder beliebigen Einzelwissenschaftlerin oder jeder Gruppe zur Verfügung gestellt werden.

Im EDV-System stehen verschiedene Optionen zur Selektion der unterschiedlichen für einen Wissenschaftler bzw. eine Wissenschaftlerin verfügbaren Dokumentkorpora bereit. Über eine Menüleiste lassen sich lediglich die selbst eingetragenen, „eigenen“ Dokumente auflisten. Die Anzeige kann zudem auf die für die Einzelwissenschaftler/innen persönlich freigeschalteten Datenmaterialien eingeschränkt werden. Darüber hinaus ist eine Selektion der Dokumentkorpora möglich, die die Wissenschaftler/innen in ihrer Funktion als Mitglied unterschiedlicher Arbeitskreise einsehen dürfen. In dieser Arbeitsumgebung können auch die für den gesamten Forschungsverbund zugänglichen Materialien aufgeführt werden.

Abbildung 3: Optionen zur Selektion von Datenkorpora

Mit Hilfe der Volltextrecherche lassen sich schließlich über Suchanfragen themenspezifische Datenkorpora im Gesamtdatenbestand ermitteln. Neu aufgefundene Dokumente können zu bestehenden Korpora eines Teilprojektes oder eines Arbeitskreises hinzugefügt werden, wenn die „Eigentümer/innen“ die Freigabe erteilen. Daneben bietet die Funktion, Dokumente in so genannten Mappen zusammenzuführen, die Möglichkeit, sich unabhängig von institutionalisierten Formen der Kooperation in Teilprojekten oder Arbeitskreisen, spontan über ein Thema auszutauschen und sich hierzu themenspezifische Kleinkorpora gegenseitig zugänglich zu machen.

Gemeinsame Analysearbeit

Die im Dokumentarchiv zugänglichen Datenkorpora werden zur Bearbeitung gemeinsamer, Projekt übergreifender Fragestellungen herangezogen. Hierzu stehen im FuD-System verschiedene Analyseverfahren zur sachsystematischen, lexikografischen sowie historisch-semantischen und historisch-sprachpragmatischen Untersuchung bereit. Die gemeinsame Arbeit konzentriert sich auf zwei Untersuchungsbereiche: Erstens wird eine systematische Sachbeschreibung der vielfältigen Erscheinungsformen von Armut und Fremdheit, ihrer Ursachen und Folgen einerseits sowie der Praktiken der Inklusion und Exklusion der von sozialen Notlagen und gesellschaftlichem Ausschluss betroffenen Personen andererseits erarbeitet. Zweitens werden im Rahmen historischer Semantikanalysen die sprachlichen Manifestationen der Sachphänomene in den Blick genommen. Von besonderem Interesse ist es zum Beispiel, Kontinuitäten, Brüche und Neuansätze in der Bezeichnung von Armen und Fremden festzustellen bzw. immer wiederkehrende Argumentationsmuster in Diskursen auszumachen, die Rückschlüsse auf gesellschaftliche Einstellungen und Denkvorstellungen zulassen.

Abbildung 4: Arbeitsumgebung für die Quellenanalyse – Verknüpfung von Dokument und Analyseraster

Die Arbeitsumgebung für die gemeinsame Dokumentenanalyse ist in zwei Teilfenster untergliedert, im rechten Teilfenster befindet sich der Text, im linken Teilfenster können die für das jeweils gewählte Analyseverfahren festgelegten Kategorienschemata angezeigt werden.

Die Arbeitsschritte bei der computerunterstützten Bearbeitung der Dokumente sind dem traditionellen Analyseverfahren nachgebildet: Man kann Textpassagen wie mit einem Textmarker hervorheben und einem Eintrag aus den Kategorienschemata zuweisen; hinter dem Kategorieneintrag wird – wie in einem Register – ein Textstellenverweis generiert. Die Kategorienschemata können die Wissenschaftler/innen durch neue Einträge dynamisch erweitern. Ein wesentlicher Vorzug des Online-Verfahrens besteht darin, dass zwischen Textpassage und Kategorieneintrag bzw. den dazugehörenden Textstellenverweisen eine feste Verknüpfung hergestellt wird, die jederzeit sichtbar gemacht und recherchiert werden kann. Per Mausklick auf den Registereintrag kann die dazugehörige Textpassage im Dokument angezeigt werden. Umgekehrt kann per Mausklick auf eine ausgewählte Textpassage festgestellt werden, welche Kategorieneinträge ihr zugeordnet sind. Mit ebenfalls abrufbaren Zusatzinformationen wird gewährleistet, dass Bearbeitungsvorgänge transparent und damit nachvollziehbar bleiben.

Die Kategorienschemata sind, abhängig von den spezifischen Anforderungen der Analyseverfahren, unterschiedlich konzipiert. Für die sachsystematische Beschreibung der Forschungsgegenstände wurde gemeinsam in den Arbeitskreisen ein hierarchisch strukturiertes Untersuchungsraster entwickelt. Verfügbar sind die zur besseren Orientierung in unterschiedlichen Farbtönen gehaltenen Kategorienschemata zur Sachanalyse von „Armut“, „Fremdheit“ und „Inklusion/Exklusion“. Für die einheitliche Vorstrukturierung der historischen Phänomene wurden auf der ersten und zweiten Hierarchieebene Kategorieneinträge festgelegt, die für den Gesamtverbund verbindlich sind. Unterhalb dieser übergeordneten Untersuchungsebenen können die Wissenschaftler/innen weitere Unterkategorien, die sie für die individuelle Arbeit benötigen, eintragen und sie einer Kategorie der zweiten Ebene zuordnen. Um ebenfalls auf den nachgeordneten Hierarchiestufen eine möglichst Projekt übergreifende Faktenanalyse vornehmen zu können, sind die Kategorieneinträge für alle Systemnutzer/innen sichtbar. Texte oder Textpassagen können Lemmata der Kollegen zugeordnet werden. Korrekturen können in gegenseitiger Absprache vorgenommen werden.

Durch die Eintragung Projekt übergreifender und individueller Kategorieneinträge in ein Gesamtschema gewährleistet das System ein flexibles Nebeneinander von gemeinschaftlicher und individueller Forschungsarbeit. Diese Kombination von Einzel- und Gruppenarbeit wird bei den Untersuchungsverfahren zur historischen Semantik ebenfalls unterstützt. Im Unterschied zur so genannten „Sachanalyse“ konnte aufgrund der spezifischen Fragestellung kein SFB-übergreifendes Kategorienschema vorgegeben werden. Jeder Wissenschaftler bzw. jede Wissenschaftlerin, jedes Teilprojekt oder jeder Arbeitskreis hat die Möglichkeit, individuelle Untersuchungsschemata aufzubauen und die Analysen zur Semantik unabhängig voneinander durchzuführen. Über das Rechtemanagement ist gewährleistet, jederzeit die Analyseergebnisse für andere Mitarbeiter/innen zugänglich zu machen. Mit der Freischaltung ist zugleich die Option verbunden, die Schemata den Kollegen/innen zur weiteren Bearbeitung zur Verfügung zu stellen. So sind Mechanismen vorgesehen, nicht selbst angelegte, „fremde“ Schemata über die Kopierfunktion in die persönliche Arbeitsumgebung zu übernehmen, sie in eigene Analyseschemata einzuarbeiten, zu verändern und erneut an Kollegen/innen weiterzuleiten.

Für die Untersuchungen zur historischen Semantik werden unterschiedliche Online-Analyseverfahren bereitgestellt: Im Rahmen der Wortfeldanalyse können lexikografisch-semantische Beobachtungen zur historischen Entwicklung zentraler Quellentermini in die Datenbank eingetragen werden. So können Informationen zu semantischen Relationen, Wortbildungen oder Bemerkungen zur Sprachpragmatik und Rhetorik festgehalten werden. Vergleichbare Arbeitsinstrumente werden für die Analyse von Argumentationsmustern aufgebaut, so dass ebenfalls diskurs- und inhaltsbezogene Analysen gemeinsam möglich sind. Im Entwicklungsstadium befindet sich des weiteren ein Verfahren zur Textanalyse, um sprachpragmatische Beobachtungen zur Position der Autoren/innen oder Rezipienten/innen im jeweiligen Dokument systematisch zu erfassen oder gattungsspezifische Besonderheiten zu vermerken.

Abbildung 5: Arbeitsumgebung für die Quellenanalyse – Eingabemaske für die Wortfeldanalyse

Für alle Analyseverfahren gilt, dass sämtliche Bearbeitungsschritte dokumentiert werden und damit von allen Wissenschaftlern/innen nachvollzogen und kontrolliert werden können. Im Rahmen der „Sachanalyse“ können per Mausklick auf die Einzeleinträge in den Kategorienschemata Informationen, über die Wissenschaftler/innen abgerufen werden, die den Eintrag vorgenommen haben. Für jeden Textstellenverweis kann sichtbar gemacht werden, wer den Eintrag vorgenommen hat. Oberhalb des Textes wird angezeigt, um wessen Text es sich handelt und wessen Indexierung in der aktuellen Einstellung eingeblendet ist. Neben der Transparenz der Bearbeitungsschritte ist die Sicherung der Authentizität und Integrität der Daten und Auswertungsergebnisse besonders wichtig. So kann der Wortlaut eines Dokuments nach seiner Freigabe für die Quellenanalyse nicht mehr verändert werden. Jeder Wissenschaftler und jede Wissenschaftlerin trägt Auswertungen in einer gesonderten Version des betreffenden Textes ein. Kategorieneinträge können von den Wissenschaftlern/innen, die den Eintrag vorgenommen haben, nicht mehr gelöscht werden, wenn andere Kollegen eine Textstelle zugeordnet haben.

Mit den hier skizzierten vielfältigen Formen gemeinsamer Analysearbeit werden die Voraussetzungen geschaffen, um bei der Ergebnisformulierung ebenfalls kooperative Schreibtechniken einsetzen zu können. Denkbar ist, dass in Zukunft gemeinsam erarbeitete Analyseergebnisse über Exportfunktionen in eine Redaktionsumgebung transferiert und in einem kollaborativ organisierten Schreibprozess zu einer Gemeinschaftspublikation weiterentwickelt werden. Welche Implikationen bezüglich des Urheberrechts und individueller Autorenrechte sowie der Leistungskontrolle bei Evaluierungen mit dieser Form gemeinsamer Forschungsarbeit verbunden sind, ist zum jetzigen Zeitpunkt noch nicht abschätzbar.

Zusammenfassung und Ausblick

Vor dem Hintergrund der bisherigen Erfahrungen sind bezüglich der Anforderungen an kollaborative EDV-Systeme folgende Kriterien zu nennen: Bei der Planung von EDV-Systemen zur Unterstützung kooperativer Forschungsarbeit in Projektverbünden sind neben der Vielfalt der fachwissenschaftlichen Kulturen und der Pluralität der Methoden und Forschungsansätze forschungsorganisatorische, rechtliche und forschungsethische Aspekte zu berücksichtigen. Insbesondere das für SFBs charakteristische Nebeneinander von Einzelarbeit in den Teilprojekten und gemeinsamer Forschungsarbeit in Arbeitskreisen sowie die enge Verzahnung beider Arbeitsformen erfordern eine EDV-Infrastruktur mit hoher Flexibilität. Ein differenziertes Rechtemanagement, die Transparenz der Bearbeitungsprozesse, die Protokollierung der Datenbankveränderungen oder ein breites Angebot unterschiedlicher Kooperationsmöglichkeiten sind weitere wichtige Anforderungen. Sie gewährleisten die Sicherung von Urheber- und Autorenrechten und ermöglichen eine adäquate Beurteilung individueller Leistungen im Rahmen von Projektevaluierungen und Qualifikationsverfahren.

Mit der derzeit laufenden Einführung des Systems ist unter anderem die Erwartung verbunden, die interne Kommunikation und den Informationsaustausch zu verbessern, die Formulierung neuer Fragen und Untersuchungsgegenstände anzuregen oder die gemeinsame Erarbeitung von Forschungsthesen und deren Überprüfung zu fördern. Die Nutzung des Systems in Forschungsverbünden mit vergleichbarer Organisationsstruktur wird derzeit im Rahmen der Projektgruppe „Historisch-kulturwissenschaftliches Forschungszentrum Mainz – Trier“ sowie dem Editionsvorhaben „Corpus der Quellen zur mittelalterlichen Geschichte der Juden“ an der Universität Trier geprüft. In Planung sind neben der Weiterentwicklung der bereits bestehenden Komponenten die Vernetzung mit elektronischen Ressourcen im Rahmen einer digitalen Bibliothek, die Anbindung einer Literaturdatenbank sowie die Entwicklung eines Publikationssystems, das in Zukunft auch die kollaborative Produktion wissenschaftlicher Veröffentlichungen unterstützen kann.

Dr. Gisela Minn ist seit 2003 als Wissenschaftliche Mitarbeiterin im Sonderforschungsbereich 600 an der Universität Trier beschäftigt und zuständig für die Geschäftsführung und die Wissenschaftskoordination im Forschungsverbund. E-Mail: minn@uni-trier.de

***

Tamara Stazic-Wendt ist seit 2004 als Wissenschaftliche Mitarbeiterin im Sonderforschungsbereich 600 an der Universität Trier beschäftigt. Sie ist zuständig für die EDV-Koordination im Forschungsverbund und bereitet parallel eine Dissertation zum Thema „Arbeitslosigkeit und Arbeitslosenunterstützung in der südlichen Rheinprovinz (1919-1930)“ vor. E-Mail: stazic@uni-trier.de


[1] Vgl. zum Sonderforschungsbereich 600 „Fremdheit und Armut. Wandel von Inklusions- und Exklusionsformen von der Antike bis zur Gegenwart“ die Website unter der URL: <http://www.sfb600.uni-trier.de> (15.02.2006). Zum Forschungsprogramm vgl. Gestrich, Andreas; Raphael, Lutz (Hgg.), Inklusion/Exklusion. Studien zu Fremdheit und Armut von der Antike bis zur Gegenwart, Frankfurt am Main 2004.

[2] Das EDV-Vorhaben wird in Verbindung mit dem Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften an der Universität Trier durchgeführt. Zum Kompetenzzentrum und dem von ihm seit 1998 betreuten Projekten im Bereich der EDV-Anwendungen in den Geisteswissenschaften vgl. <http://www.kompetenzzentrum.uni-trier.de> (15.02.2006). An der Konzeption und Entwicklung des EDV-Projektes unter Leitung des Sprechers des SFB 600, Prof. Dr. Lutz Raphael, wirken die Kolleginnen und Kollegen Dr. Thomas Burch, Tanja Friedrich, Thomas Jäger, Dingjun Jia, Michael Leuk, Frank Queens, Jin Qui, Ansgar Schmitz, Stefan Schwarz und Julia Seibert mit. Ihnen sei an dieser Stelle ganz herzlich für ihre Mitarbeit gedankt.

[3] Vgl. zur Einrichtung und Förderung von Sonderforschungsbereichen die Hinweise auf der Website der Deutschen Forschungsgemeinschaft, <http://www.dfg.de/forschungsfoerderung/koordinierte_programme/sonderforschungsbereiche/> (15.02.2006).

[4] Zur Konzeption und technischen Umsetzung des EDV-Systems vgl. Burch, Thomas; Schmitz, Ansgar, Research Network and Database System – a Netbased Form of Working Platform in the CRC 600. Proceedings of the 12th Annual Tcl/Tk-Conference, published on CD-ROM, Portland (Oregon) 2005. Zu vergleichbaren Systemen, die ebenfalls im Rahmen des Kompetenzzentrums realisiert wurden, vgl. Burch, Thomas, Recker, Ute, Rösler, Uta, ILLR. Indices zur lateinischen Literatur der Renaissance. Handbuch zur CD-ROM, Hildesheim 2000; Jakobs, Peter, Entwurf und Implementierung eines verteilten Mehrbenutzersystems zur rechnergestützten Indexerstellung SGML-kodierter Texte. Unveröffentlichte Diplomarbeit Fachhochschule Trier, Trier 1999; Queens, Frank; Recker-Hamm, Ute, A Net-based Toolkit for Collaborative Editing and Publi-shing of Dictionaries, in: Literary and Linguistic Computing 20 (2005), S. 165-175.


hist.collaboratory – Werkstatt für die Historische Online-Kompetenz

von Jan Hodel

Das gemeinschaftliche Erstellen von Texten spielt in den Geschichtswissenschaften bislang kaum eine Rolle. Daher sind weder praktisch noch theoretisch die Möglichkeiten ergründet worden, welche sich für die Geschichtswissenschaften aus der Entstehung der ICT-gestützten kollaborativen Schreibwerkzeuge ergeben. Die Auseinandersetzung mit diesen Möglichkeiten wird zudem überlagert von der Diskussion über den fachlichen Stellenwert von Inhalten im Internet im Allgemeinen und beim Enzyklopädie-Projekt Wikipedia im Besonderen. hist.collaboratory versteht sich als eine Konzeptskizze, wie ICT-gestützte kollaborative Schreibwerkzeuge in den Geschichtswissenschaften eingesetzt werden können. Die Chancen liegen in der Offenlegung des Textentstehungsprozesses und in den Möglichkeiten, diesen Prozess zu kommentieren, zu reflektieren und zu diskutieren. Dies bedingt jedoch ein Umdenken der Historiker/innen im Hinblick auf formale und inhaltliche Zielsetzungen wissenschaftlichen Schreibens.

***

Der Titel dieses (Hyper-)Textes [1] lautet „hist.collaboratory“. Der Titel legt nahe, dass es im vorliegenden Text um Geschichte (hist), um Forschung (laboratory) und um Zusammenarbeit (collaboration) geht. Das Kunstwort „collaboratory“ zeigt zudem an, dass sich der Text um die Bedeutung von ICT (Information and Communication Technology) [2] für diesen Bereich dreht.

Collaboratory bezeichnet ein virtuelles Labor, „a laboratory without walls.“ [3] Der Begriff ist seit Ende der 1980er Jahre in den Naturwissenschaften für ICT-basierte Formen der Zusammenarbeit in Forschung und Lehre gebräuchlich, in den Geisteswissenschaften jedoch kaum bekannt. Wenn in den Geisteswissenschaften der Schreibtisch gleichsam als „Labor“ bezeichnet werden kann, dann soll der vorliegende Text über das „hist.collaboratory“ als Versuch gelten, einen „desk without walls“ zu skizzieren.

Bei den folgenden Überlegungen steht daher die Bedeutung des Schreibens in den Geschichtswissenschaften im Mittelpunkt, oder genauer die Auswirkungen von ICT-gestützten, kollaborativen Schreibwerkzeugen, die vor allem durch Wikipedia [4] bekannt geworden sind, auf die Praxis des geschichtswissenschaftlichen Arbeitens.

Der Aufsatz prüft die These, dass ICT-gestützte, kollaborative Schreibwerkzeuge nicht für den Einsatz in den Geschichtswissenschaften geeignet seien, weil diese der etablierten und noch immer vorherrschenden Konvention auktorialer Texte von Einzel-Autoren/innen diametral widersprechen und folglich allenfalls zu Ausbildungszwecken, bzw. zum Lernen in Gruppen taugen. [5] Weiter werden mögliche Anwendungen von ICT-gestützten, kollaborativen Schreibwerkzeugen in den Geschichtswissenschaften in den Blick genommen und anhand des Modells der Historischen Online-Kompetenz die Voraussetzungen für den erfolgreichen Einsatz solcher Anwendungen geklärt.

Schreiben in den Geschichtswissenschaften

Dem Autor bzw. der Autorin kommt in den Geschichtswissenschaften eine tragende Rolle zu. Geschichtswissenschaftliche Darstellungen verfolgen nicht nur das Ziel, historische Sachverhalte und Prozesse zu analysieren, sondern auch, sie zu deuten und zu erklären. Die Historiker/innen versuchen plausibel darzustellen, dass und wie historische Sachverhalte miteinander zusammenhängen, und zu erklären, warum sich historische Prozesse so und nicht anders zugetragen haben. [6] Zwar sind in den letzten Jahren engagierte geschichtstheoretische Debatten über die Bedeutung der Narrativität [7] in der Geschichtsschreibung geführt worden (die ihrerseits trotz Überschneidungen auch von der narrativen Kompetenz [8] in der Geschichtsdidaktik abzugrenzen ist). Dennoch ist zu konstatieren, dass geschichtswissenschaftliche Darstellungen noch immer in aller Regel als monoauktoriale Erzählungen und in einer linearen Textstruktur verfasst werden. [9] Hypertexte oder Formen des kollaborativen Schreibens spielen in der Praxis und in der theoretischen Debatte der Geschichtsschreibung so gut wie keine Rolle.

Darum wird im Folgenden Bezug genommen auf Überlegungen aus der Medientheorie und den Sprachwissenschaften zu Schreibprozessen und Textcharakteristika, die für das ICT-gestützte Schreiben relevant sind. Bei der Analyse der Bedeutung dieser Überlegungen für die Geschichtswissenschaften sind zwei Aspekte von besonderem Interesse, die beide die Bedeutung des Autors oder der Autorin in Frage stellen:

  • Der non-lineare Charakter des Hypertexts, der aus verknüpften, in sich geschlossenen Informationseinheiten besteht, was zur Auflösung der Grenze zwischen Autor/in und Leser/in beiträgt („Wreading“).
  • Das gemeinsame, unter Umständen anonyme Erstellen und Verantworten von Texten beim kollaborativen Schreiben.

Hypertext und Autor/in

In den 1990er Jahren knüpften George P. Landow [10] und David J. Bolter [11] mit ihren Hypertext-Theorien nicht nur an die theoretischen Vorarbeiten der Informatiker Vannevar Bush [12] und Ted Nelson [13] an, die Hypertext als Konzept schon in den 1950er und 1960er Jahren entwickelt hatten, sondern verbanden diese explizit mit den Theorien der strukturalistischen Sprachwissenschaften von Roland Barthes und Jacques Derrida. [14] Die computergestützte, aber noch nicht Internet-basierte [15] Hypertext-Technologie sahen Landow und Bolter als Erfüllung dieser so unterschiedlichen theoretischen Ansätze. Explizit bezogen sie sich auf die Ideen des Philosophen und Semiotikers Barthes von non-linearen Texten, die den Lesern/innen noch mehr Freiheiten bei der Art und Weise der Rezeption zugestehen sollten. Barthes spitzte diese Vorstellungen mit dem Ausdruck vom „Tod des Autors“ noch zu. [16] Hier kann nicht näher darauf eingegangen werden, welche Auswirkungen auf das vergleichsweise moderne Konzept des Autors [17] die Hypertext-Technologie hatte und hat und inwiefern die Thesen von Roland Barthes, der das World Wide Web noch nicht erahnen konnte, sich in der Cyber-Realität des beginnenden 21. Jahrhunderts manifestieren. Landow und Bolter hatten jedenfalls erwartet, dass die Hypertext-Technologie die herkömmliche Rolle des Autors bzw. der Autorin verändern oder gar auflösen würde. Gepaart mit den Eigenschaften der digitalen und vernetzten Kommunikationstechnologien führte der Hypertext in der Praxis zu einer Reihe von Problemen, die mit der Auflösung des Konzepts „Autor“ in Verbindung stehen: Fragen des Urheberrechts, der Plagiate, der wissenschaftlichen Verantwortung.

Zunächst soll der Blick aber auf wichtige Eigenschaften des Hypertexts gerichtet werden. Wesentliche Elemente des Hypertexts sind die Verknüpfung (bzw. Verlinkung) von in sich geschlossenen Informationseinheiten [18] und die daraus resultierende Non-Linearität des Textes, der die Leser/innen zu „Wreadern“ [19] macht.

Die Informationseinheiten (neuerdings wird auch die Bezeichnung Micro-Content verwendet) bei Hypertext sollten jeweils so in sich abgeschlossen sein, dass sie von den Lesern/innen ohne Kenntnis anderer Informationseinheiten verstanden werden können. Nur so kann gewährleistet werden, dass die Informationseinheiten wirklich in beliebiger Abfolge gelesen werden können. Die Länge dieser Einheiten ist nicht vorgegeben, dennoch sind sie in der Regel eher kurz, was vor allem mit den Lesegewohnheiten am Bildschirm zu tun hat.

Die Verlinkung der verschiedenen Informationseinheiten ist ein wesentliches Element des Hypertextes. Die „Links“ genannten Sprungmarken ermöglichen den Lesern/innen ein schnelles Wechseln zwischen Informationseinheiten mit einem inhaltlichen Zusammenhang. Die Leser/innen werden zu „Wreadern“, die durch das Verfolgen der verschiedenen Links die verknüpften Informationseinheiten zu einem individuellen, nur für sie gültigen Text zusammenstellen. [20]

Diese von den Lesern/innen gesteuerte Rezeption von modularen Informationseinheiten wird gerne als Beleg für einen non-linearen Text herangezogen. Dabei darf aber nicht vergessen werden, dass die Links in der Regel durch die Autoren/innen vorgegeben werden. Dadurch erhalten diese eine nicht zu unterschätzende Kontrolle darüber, welche Lese-Pfade durch den Gesamttext oder aus dem Text heraus den Lesern/innen überhaupt offen stehen und welche Kohärenzbildungen möglich sind. Die Autoren/innen legen damit den Rahmen fest, in welchem die Leser/innen die Informationseinheiten zu einem Sinn bildenden, Erkenntnis ermöglichenden Gesamttext zusammenfügen können. Den Lesern/innen bleibt beim Folgen der Links nur die Wahl der Informationseinheiten, die sie zur Kenntnis nehmen wollen, und der Reihenfolge, in der dies geschehen soll. [21]

Im eigentlichen, von Landow intendierten Sinne zu „Wreadern“ werden die Leser/innen aber erst bei Hypertexten, bei denen sie selber Informationseinheiten und Links verändern oder neu erstellen können. [22] Damit ist die Rolle des Autors bzw. der Autorin wirklich neu zu bestimmen, und es ergeben sich auch neue Arbeitsformen bei der Erstellung und Redaktion von Texten. Dies ist etwa beim ICT-gestützten kollaborativen Schreiben der Fall.

Kollaboratives Schreiben

Kollaboratives Schreiben ist nicht an den Einsatz von ICT gebunden. Die digitale Erfassung von Texten am PC und die damit einhergehende Vereinfachung bei ihrer Überarbeitung spielte für die Vereinfachung kollaborativer Schreibprozesse allerdings eine wichtige Rolle.

Lisa Ede und Andrea Lunsford haben bereits Ende der 1980er Jahre Formen des kollaborativen Schreibens untersucht. [23] Dabei betrachteten sie vor allem Beispiele aus den Technik- und Naturwissenschaften, aus der Medizin und den Rechtswissenschaften. In den Geisteswissenschaften dagegen ist gemeinschaftliches Publizieren nicht sehr verbreitet. In der Regel zeichnen einzelne Autoren/innen für wissenschaftliche Monografien und Aufsätze verantwortlich. Es steht jedoch zu vermuten, dass in den Geschichtswissenschaften doch auch mehrere Personen in die Entstehung von Texten involviert sind, auch wenn nur eine Person mit ihrem Namen für den Inhalt verantwortlich zeichnet. Davon zeugen etwa die Danksagungen in den Vorworten vieler Monografien. Zu klären bleibt, ob diese Beteiligung mehrerer Personen an der Textproduktion bereits als kollaboratives Schreiben gelten kann – oder als eine spezifische Form der Redaktion.

Es ist daher wichtig, die gemeinsamen Schreibprozesse genauer zu bestimmen. Dabei können, wie allgemein bei gruppenbasierten Arbeitsprozessen, folgende Formen unterschieden werden: [24]

  • Kommunikation: Die Autoren/innen verständigen sich bei einem gemeinsamen Publikationsprojekt über ihre Inhalte, stimmen diese untereinander ab und tauschen sich über den Fortschritt ihrer Arbeiten aus.
  • Kooperation: Die Autoren/innen erstellen den Text in einem arbeitsteiligen Verfahren, bei dem sie beispielsweise die Verantwortung für einzelne Kapitel oder Textteile übernehmen.
  • Kollaboration: Bei der Kollaboration erarbeiten alle Mitglieder des Autorenteams den Text im Sinne einer Ko-Konstruktion gemeinsam.

Ede und Lunsford unterschieden überdies zwei grundsätzlich verschiedene Ansätze des kollaborativen Schreibens. Beim hierarchischen Ansatz leitet eine Person, oftmals der oder die Verantwortliche des Projekts, den gesamten Entstehungs- und Gestaltungsprozess, definiert Rollen, verteilt Aufträge und überwacht den Fortgang der Arbeiten. Demgegenüber steht der dialogische Ansatz, bei welchem die Mitglieder der Gruppe gemeinsam Entscheidungen fällen und den Arbeitsprozess und das Ergebnis verantworten. Dabei halten die Autoren/innen fest, dass der dialogische Ansatz nicht einfach mit einem gleichberechtigten und der hierarchische mit einem bevormundenden Arbeitsprozess gleichgesetzt werden könne, auch wenn dies nahe liegend erscheinen möge. Denn [...] „the hierarchical mode can also comprise scenes of shared power and authority and lead not only to efficiency but to great job satisfaction.“ [25]

Kollaboratives Schreiben mit ICT

Als Sonderform des kollaborativen Schreibens kann das ICT-gestützte kollaborative Schreiben gelten, wozu insbesondere Blogs und Wikis gezählt werden. Es gab jedoch Vorläufer und Frühformen des ICT-gestützten kollaborativen Schreibens von (Hyper-)Texten. Dazu gehört das Online-System (NLS) [26] von Doug Engelbart sowie frühe Webplattformen für gemeinsames Publizieren wie Slashdot [27] oder Kuro5hin. [28] Außerdem sind auch in Foren (beispielsweise in Lern Management-Plattformen) kollaborative Schreibprozesse möglich, wenn auch nicht sehr häufig.

Blog

Blog ist eine Abkürzung von Weblog. [29] Der Begriff bezeichnet eine Website, in der in chronologisch umgekehrter Reihenfolge Einträge auf einer Seite aufgeführt werden. In Bezug auf Form und Inhalt bewegen sich Blogs zwischen News-Ticker und Online-Tagebuch. Blogs sind zu einem dynamischen Bereich des Webs geworden. Dafür gibt es folgende Gründe:

  • Blogs sind technisch einfach zu eröffnen und zu betreuen. Die Struktur ist denkbar einfach, kein/e Blogger/in braucht sich über die Strukturierung ihres oder seines Blogs Gedanken zu machen: Es ist einfach aneinander gereihter Text.
  • Blogs sind daher auch einfach zu starten und zu pflegen. Im Gegensatz zu Foren, Mailing-Listen oder Diskussionsgruppen kann ein Blog auch gut funktionieren, wenn nur eine Person sich um das Verfassen von Texten kümmert.

Die Schnelligkeit, Einfachheit und Formlosigkeit haben dazu geführt, dass Blogs ein wichtiges Mittel des Online-Journalismus [30] geworden sind, sich aber auch beim E-Learning wachsender Beliebtheit erfreuen. [31]

Wiki

Wiki [32] ist eine Abkürzung von „wikiwiki“, dem hawaiianischen Wort für „schnell“. Die Entwickler/innen der Wiki-Technologie wollten eine schnelle und einfache Art, wie Inhalte im Internet gemeinsam (also kollaborativ) erstellt, ergänzt und entwickelt werden sollten. In Wikis können die Nutzer/innen jeden Artikel jederzeit ändern oder ergänzen. Es gibt verschiedene Wikis mit unterschiedlichen Funktionen. [33] Ein wesentlicher Gesichtspunkt ist jedoch die einfache Handhabung auch für Neulinge. Grundlegende technische Kenntnisse reichen bereits aus, um Texte zu ändern und Links zu erstellen. Wikis werden daher oft als flexible und informelle Form des Lernens und der Wissensbildung eingesetzt.

Obwohl auch Wikis über Möglichkeiten verfügen, die Schreibberechtigungen auf gewisse Personenkreise einzuschränken oder einzelne Seiten oder Bereiche für Bearbeitungen zu sperren [34] , verkörpern sie die Vorstellung der Open Source-Bewegung, die allen Interessierten die Nutzung und die Weiterentwicklung von Produkten (und damit auch Texten) ermöglichen möchte. In Wikis werden die Prozesse des Wissensmanagements weniger mittels technischer Vorgaben (Schreib-Berechtigungen, technisch definierte „Rollen“) sondern durch soziale Regeln gesteuert. Beiträge sind dann von höherem Gewicht, wenn sie zum Ziel des Wikis etwas beitragen. Dies wird durch die Gemeinschaft der Leser/innen und Autoren/innen entschieden. Verletzungen der Regeln werden durch die Gemeinschaft der Beteiligten korrigiert und allenfalls sanktioniert. Wikis sind somit technische Hilfsmittel um „Gewohntes neu zu denken“, in diesem Fall die Prozesse der Texterstellung und ihrer Bewertung. [35]

Blogs und Wikis sind Beispiele für so genannte Social Software. [36] Damit sind zum einen partizipative Formen des gemeinschaftlichen Zusammenwirkens mittels ICT gemeint, andererseits neue Geschäftsmodelle und Web-Anwendungen, die sich in diesen Zusammenhang einbetten und neue soziale und ökonomische Interaktionsformen ermöglichen. Eine wesentliche Rolle bei Social Software spielen Gemeinschaften einander unbekannter Individuen, die kurzzeitig und ohne formelle Verbindlichkeit zusammenarbeiten (Communities). Diese ICT-basierte Form der Zusammenarbeit hat Auswirkungen darauf, wie Inhalte publiziert werden. Jimmy Wales, Gründer des Wikipedia-Projekts, beschreibt das Funktionsprinzip von Wikis wie folgt: „The basic thing I think makes it work is turning from a model of permissions to a model of accountability. It isn't that you are allowed or not allowed to edit a certain thing; it's when you do it, that change is recorded, and if it's bad, people can see that.“ [37] Der Netzanalytiker Clay Shirky spitzt die Aussage in ihrer Bedeutung für den Wandel des Publikationsvorgangs noch zu: „The order of things in broadcast is ‚filter, then publish.’ The order in communities is ‚publish, then filter.’“ [38]

Vertrauen und Vertrautheit

Das Unbehagen gegenüber der wissenschaftlichen Nutzung solcher Social Software gründet in diesem anderen Konzept des Wissensmanagements. Während bei der Social Software eine Community von Freiwilligen im Sinne des Open Source-Gedankens Wissen produziert, das allen nicht nur zur Nutzung, sondern auch bei der Produktion frei und kostenlos zugänglich sein soll, funktioniert der Wissenschaftsbetrieb (wobei hier vor allem von den Geisteswissenschaften die Rede ist) noch nach den Regeln des professionalisierten Fachspezialistentums, das kommerziell oder öffentlich-rechtlich finanziert über die wissenschaftliche Güte des Wissens wacht. Die Protagonisten/innen der Social Software kritisieren an den etablierten wissenschaftlichen Systemen der Wissensproduktion das Problem unethischer Autorschaft [39] , die Zunahme von Plagiaten [40] und das Versagen der herkömmlichen Mechanismen der Qualitätskontrolle. [41] Auf der anderen Seite stehen Vertreter/innen der Wissenschaften, die wenig Mühe aufwenden müssen, um in Wikipedia (oder ähnlichen Projekten) wissenschaftlich nicht vertretbare Aussagen als Beleg für ihre Skepsis zu finden. Am Streit sind mittlerweile so renommierte Akteure wie Nature oder die „Encyclopaedia Britannica“ beteiligt. [42]

Bei dieser Auseinandersetzung leidet das Vertrauen in die Wissenproduktionssysteme im Allgemeinen. Gefordert sind pragmatische Ansätze, welche eine Kombination von Transparenz und Öffentlichkeit aus der Social Software mit den bewährten Methoden der etablierten Qualitätssicherung (etwa der Quellenkritik) vorschlagen. So hat Bertrand Meyer, selber Opfer einer Wikipedia-Falschmeldung, auf grundsätzliche Kritik an Wikipedia [43] entgegnet, „since when are we supposed to trust everything that we read, printed, electronic or otherwise?“ [44] Im alltäglichen Gebrauch erweist sich Wikipedia weniger als Ersatz für Fachpublikationen, sondern als bessere Variante zur unstrukturierten, raschen Internet-Suche mittels Suchmaschinen. [45] In Wikipedia lassen sich zudem entdeckte Fehler vergleichsweise einfach und schnell korrigieren. Da die Erreichbarkeit via ICT auch in den Wissenschaften zunehmend zu einem bedeutenden Faktor bei der Wahl der zu Rate gezogenen Informationen wird, wäre die konsequente Beteiligung von Fachwissenschaftlern/innen eine Erfolg versprechende Strategie zur Sicherstellung der Qualität von Projekten wie Wikipedia.

Verbunden mit den unterschiedlichen Ansätzen zur Wissensproduktion sind auch die unterschiedlichen Vorstellungen zur Regelung der Zugänglichkeit zu wissenschaftlichen Publikationen und des Urheberrechts. Das Bedürfnis nach freiem Zugang zu Forschungsergebnissen, das sich in der Open Acess-Initiative [46] manifestiert, überschneidet sich mit den Anliegen der Open Source-Bewegung, die das Wissen mit gestuften (beim Modell der Creative Commons) [47] oder fast ohne Einschränkungen (bei der bei Wikipedia verwendeten GNU GPL) [48] der Öffentlichkeit zur Verfügung stellen will. Die medienspezifischen Eigenschaften der ICT (Digitalisierung, Vernetzung) stellen die traditionellen Konzepte, wie Wissen hergestellt, verteilt und genutzt wird, auf eine harte Probe – nicht nur in den Geschichtswissenschaften. [49]

Metawissen und Orientierung

So ergibt sich ein Konglomerat von Fragestellungen, die sich um Vertrauenswürdigkeit bei der Herstellung und Nutzung von Informationen drehen und Kernfragen der Quellenkritik und der Definition „geistigen Eigentums“ betreffen. Die Auseinandersetzung um die Qualität der Inhalte findet ihre Entsprechung in den Schwierigkeiten, diese Inhalte zu finden. Diese Orientierungsschwierigkeiten liegen in der mangelnden inhaltlichen Strukturierung begründet, die dem Internet schon seit seinen Anfängen anhaftet und durch seine technische Konzeption bedingt ist. [50] Auch das für die Orientierung im Internet nötige Wissen zweiter Ordnung [51] , das Metawissen, kann mittels Social Software von einer Community oder professionell von Fachspezialisten/innen erstellt werden. Hier sind beispielsweise das Webverzeichnis Open Directory [52] als Beispiel für Social Software, oder die Subject Gateways [53] als Beispiel für den fachwissenschaftlichen Ansatz zu nennen. Bei der Generierung des Orientierungs- oder Metawissens kommt noch eine dritte Form [54] hinzu: der maschinelle Ansatz, wie er bereits in einfacher Form in Suchmaschinen und in den Zukunftsvisionen des semantischen Webs [55] verkörpert wird, einem Informationsnetzwerk, in dem sich die Artefakte (bis zu einem gewissen Grad zumindest) ohne menschliches Zutun untereinander erkennen, filtern, beurteilen und sogar verständigen können.

Historische Online-Kompetenz

Für die Geschichtswissenschaften lohnt es sich, diese Situation vor dem Hintergrund Historischer Online-Kompetenz zu betrachten. Die Historische Online-Kompetenz ist eine Zusammenführung aus Vorschlägen zur Definition von historischen Kompetenzen und Medienkompetenzen. Sie umfasst die aus der Geschichtstheorie und der Geschichtsdidaktik abgeleitete Aufteilung des geschichtswissenschaftlichen Arbeitsprozesses in Analyse, Synthese und Reflexion, die in Verbindung mit den Definitionen der Medienkompetenz zu den Kompetenzdimensionen „Lesen“, „Schreiben“ und „Reden“ wird. Zum „Lesen“ gehören die Tätigkeiten der Informationssammlung, der Recherche, der Quellenkritik und der Interpretation und Analyse von Daten, sowie die Kenntnis von den medienspezifischen Rahmenbedingungen, in welchen Informationen bereitgestellt und abgerufen werden können (Urheberrechte, ökonomische Interessen, technische Grundlagen, Fragen der Strukturierung der Inhalte und der Recherche-Techniken). „Reden“ umfasst die Fähigkeit der Reflexion des eigenen Handelns und der aktiven Nutzung von ICT zur Teilnahme am wissenschaftlichen Diskurs. „Schreiben“ schließlich, und hierum geht es in diesem Text in erster Linie, umfasst die Nutzung von ICT zur Darstellung, Erläuterung und Deutung von geschichtswissenschaftlichen Erkenntnissen. [56]

Analysiert man die geschichtswissenschaftliche Auseinandersetzung mit ICT anhand des Modells der Historischen Online-Kompetenz, wird deutlich, dass sie bislang vor allem auf dem Hintergrund der Dimension „Lesen“ beurteilt worden sind. Doch welche Rolle spielen ICT im Allgemeinen und kollaborative Schreibwerkzeuge im Besonderen für das „Schreiben“, also die erklärende, synthetisierende Darstellung historischer Sachverhalte? Während die Hypertext-Theorien von Landow und Bolton in den Sprach- und Medienwissenschaften zu regen Debatten über neue Text- und Kommunikationsformen und ihre Auswirkungen geführt haben [57] , sind deren Auswirkungen auf die Geschichtswissenschaften bislang kaum rezipiert worden. [58] Das Schreiben als wissenschaftliche Technik wird zumindest im deutschen Sprachraum ohnehin als individuelles Problem der Studierenden gesehen, das diese sich im Sinne von „Learning by Doing“, in Schreibwerkstätten oder mithilfe von Schreibführern selber beibringen sollen. Kollaboratives Schreiben taucht dabei als ernsthafte und ernst genommene Form des wissenschaftlichen Publizierens nicht auf. [59] Die Aussage lässt sich problemlos auch auf die Kombination der beiden Schreibformen ausdehnen: ICT-gestützte kollaborative Schreibwerkzeuge, im speziellen Blogs und Wikis, werden in den Geschichtswissenschaften bislang kaum für kollaboratives Schreiben benutzt.

Nebst dem mangelnden Vertrauen gegenüber den neuen Formen der Publikation trägt wohl auch die fehlende Vertrautheit mit den Werkzeugen zur geringen Bereitschaft der Geschichtswissenschaftler/innen bei, ICT-gestützte kollaborative Schreibwerkzeuge für die wissenschaftliche Arbeit zu nutzen. Hierfür sind mehrere Hürden zu überwinden: ideelle, theoretische und praktische. Hier setzt das Konzept des „hist.collaboratory“ an. Auf der Grundlage theoretischer Überlegungen, die aus der Historischen Online-Kompetenz abgeleitet sind, soll es praktische Erfahrungsmöglichkeiten anbieten, um ideelle Vorbehalte abzubauen.

hist.collaboratory

Das hier vorgestellte hist.collaboratory ist eine Idee, die noch nicht technisch umgesetzt ist. Sie basiert auf den vorgängig dargestellten Erkenntnissen und versucht, mögliche Nutzungen von ICT-gestützten, kollaborativen Schreibwerkzeugen darzustellen. Einige der Anforderungen sind mit bestehender Technik zu realisieren, andere benötigen Anpassungen oder Neuentwicklungen.

Grundlegende Eigenschaften

Zunächst seien grundlegende Eigenschaften von ICT-gestützten kollaborativen Schreibwerkzeugen erörtert, die auch die Nutzungsmöglichkeiten eines hist.collaboratory bestimmen. Bei einer ersten Beurteilung scheinen Blogs und Wikis unterschiedliche Funktionen zu erfüllen:

  • Einerseits die von Einzelautoren/innen verantworteten, subjektiv, zuweilen zugespitzt formulierten Blogs, die Meinungen, Haltungen, Deutungen präsentieren und
  • andererseits die kollaborativ erstellten Wiki-Texte, die oft einem konsensualen, neutralen Standpunkt verpflichtet sind und sich mehr auf Faktenwissen konzentrieren.

Die Technologie determiniert jedoch nicht die Nutzung. Blogs bieten auch die Möglichkeit, dass mehrere Personen Beiträge verfassen und bearbeiten können, die durchaus neutral formuliert sein können. Wikis wiederum zeichnen sich durch ihren informellen Charakter aus, der verschiedene Nutzungen ermöglicht und entsprechende Absprachen unter den Teilnehmern/innen voraussetzt. Folglich sind auch in Wikis sowohl hierarchische als auch dialogische Formen des kollaborativen Schreibens denkbar. Wikis können aber auch genutzt werden, Texte in individueller Einzelarbeit zu erstellen.

Das Beispiel Wikipedias, bei dem sich einander unbekannte Autoren/innen ohne formelle Absprache auf das Verfassen von lexikalischen Texten einigen [60] , steht nur für eine von vielen Nutzungsmöglichkeiten von Wikis. Diese können auch für die konzeptionelle Entwicklung eines Textes eingesetzt werden, also für die Phase vor der eigentlichen Produktion eines Textes, in der sich eine Gruppe von Autoren/innen auf die Grundlagen, Gliederung und Leitaussagen einigt. Dabei kann es sich auch um eine geschlossen Gruppe handeln, die unter Ausschluss der Öffentlichkeit arbeitet.

Ob es sich um Blog, Wiki oder um andere gemeinschaftlich erarbeitete Texte handelt: wer die erste Fassung schreibt, hat die Definitionsmacht über die behandelten Inhalte. Die anderen Nutzer/innen können darauf nur noch reagieren. [61] Dies gilt weitaus mehr für Schreibprozesse, die wie beispielsweise in Wikipedia dialogisch angelegt sind und einer unbegrenzten Zahl von Autoren/innen einen gleichberechtigten Zugang gewähren, als für Schreibprozesse in geschlossenen Gruppen, die gemäß einem hierarchischen Modell organisiert sind und einem vorgegebenem Konzept folgen.

Die erforderlichen Kompetenzen bei der Nutzung ICT-gestützter kollaborativer Schreibwerkzeuge umfassen auch das Erstellen und Redigieren von Hypertexten. Dazu gehört nicht nur die Fähigkeit zu entscheiden, welche Links einen Text sinnvoll mit weiterführenden Informationen ergänzen könnten. Die Verlinkung eines Hypertexts ist eine zentrale strukturierende Aufgabe der Autoren/innen, die besonders bei der Entwicklung eines Hypertext-Gebildes einiges an Erfahrung mit Konzeption und Arbeitsplanung verlangt. Überdies sind auch die multimedialen Eigenschaften des Hypertexts angemessen zu berücksichtigen. Die Einbindung von Bild-, Audio- und Film-Dateien stellt nicht nur eine technische Herausforderung dar, sondern setzt auch ein Verständnis vom Zusammenspiel dieser Medien, von Intertextualität und Intermedialität voraus.

Wikis und Blogs machen (auf unterschiedliche Weise) den Prozess der Textentstehung und -bearbeitung transparent. Damit ermöglichen sie auch epistemisches Schreiben, also die Ordnung, Klärung und Vertiefung von Wissen durch seine Beschreibung. [62] Diese Transparenz verschafft dem ICT-gestützten kollaborativen Schreiben das Potential, den Prozess des Schreibens und der Wissensbildung zum Gegenstand der Reflexion und der Diskussion zu machen, zum Gegenstand der Kompetenzdimension „Reden“.

Transparenz

Das hist.collaboratory soll die Arbeits- und Erkenntnisprozesse der beteiligten Wissenschaftler/innen (als Wreader oder als kollaborative Schreiber/innen) in den Dimensionen „Lesen“, „Schreiben“ und „Reden“ sichtbar und damit zum Gegenstand gemeinsamer Wissenproduktion machen. [63] Wie Blogs und vor allem Wikis macht das hist.collaboratory den Schreib-Prozess transparent und ermöglicht damit sowohl den Autoren/innen selbst als auch Dritten die Analyse dieses Prozesses. [64] Dies kann sowohl für das nicht-kollaborative Abfassen eines linearen Textes als auch bei der kollaborativen Erstellung von nicht-linearen (Hyper-)Texten von Nutzen sein.

Wie in Wikis ist es im hist.collaboratory möglich, frühere Versionen jeder Informationseinheit zu archivieren und die Veränderungen zwischen diesen Versionen darzustellen. Es können auch eigene Lesepfade (auch durch fremde Texte) abgespeichert und auf Wunsch veröffentlicht werden. Damit lässt sich das durch selektive Rezeption entstehende Wreading festhalten und gegebenenfalls zur Diskussion stellen (siehe Abbildung 1).

Für die Reflexion verfügt hist.collaboratory einerseits über Kommentarfunktionen (innerhalb der Informationseinheiten, vergleichbar mit Randnotizen) und Diskussionsseiten (eigenständige Seiten parallel zu den Informationseinheiten, ähnlich den Diskussionsseiten in Wikipedia). [65] Die Reflexion soll sich dabei nicht nur auf vorliegende Inhalte beziehen, sondern auch Auseinandersetzungen über Darstellungszusammenhänge und Deutungen (zum Beispiel Lesepfade und die damit verbundenen Aussagen) zum Gegenstand machen.

Abbildung 1: Auch das Zusammenstellen eines Lesepfades durch einen Corpus von Hypertexten kann als „Schreibleistung“ eines Autors/einer Autorin gelten. Dabei müssen die im Lesepfad zusammengeführten Texte nicht unbedingt vom Autor/von der Autorin des Lesepfades stammen. Der Lesepfad kann noch mit Kernaussagen zu einem Kerntext erweitert werden (siehe Abbildung 2).

Abbildung 2: Beispiel für das Zusammenspiel von Kerntext (bestehend aus Kernaussagen und einem Lesepfad) und „Fußnoten“, also externen, in einem Lesepfad zusammengeführten Texten (siehe Abbildung 1)

Darstellungen und Deutungen

Es ist kaum möglich, mit Hypertexten herkömmlich deutende Texte zu verfassen. Die Verweisstruktur und der modulare Charakter der Informationseinheiten führen zu anderen Darstellungsformen. Dennoch ist denkbar, mit Lesepfaden durch Hypertexte eigene Deutungsangebote anzubieten. Diese Lesepfade können auch kommentiert werden. Dabei kann der Kommentar soweit zu einem Lauftext erweitert werden, bis ein kurzer Artikel mit zahlreichen erläuternden Verweisen, gleichsam einem kurzen Kerntext mit vielen extensiven Fußnoten, entsteht (siehe Abbildung 2). Hierbei sind auch Mischformen der Autorschaft denkbar. Die „Fußnoten“ könnten von größeren Gruppen kollaborativ entwickelt werden, die Kerntexte eher von Einzelpersonen oder kleinen Gruppen. Ferner könnten die „Fußnoten“ wie in klassischen wissenschaftlichen Texten auch auf externe, fremde Texte verlinkt werden.

hist.collaboratory kann auch für die Erstellung größerer Hypertext-Konstrukte zum Einsatz gelangen, die ähnlich wie Hans-Ulrich Gumbrechts „1926“ [66] einen größeren, von den Autoren/innen nicht näher vorgegebenen Deutungszusammenhang mittels der im Text angebrachten Verweise präsentieren und damit den Lesern/innen ermöglichen, auf eigenen Wegen diesen Deutungszusammenhang zu entdecken.

hist.collaboratory ist auch für die Erstellung von Konzepten geeignet, die eine Grundlage für Texte oder Projekte bilden. Dabei ist das Copyright im Sinne des Creative Commons geregelt: Die Autoren/innen legen selber fest, ob die Weiterverwendung lediglich unter Nennung der Autoren/innen oder mit Einschränkungen der Nutzungsart verbunden werden.

Dialoge

hist.collaboratory kann auch zu dialogischem Schreiben genutzt werden. Dialogisches Schreiben bezeichnet dabei das Austauschen von Argumenten, das Entwickeln von Fragestellungen und Themenbereichen oder die Darstellung und Erörterung von Forschungsresultaten von zwei oder mehr Autoren/innen. Dabei stellen diese ihre Ansichten wechselseitig vor und berücksichtigen dabei die von den Partnern/innen vorgebrachten Äußerungen. Ähnliche Prozesse finden vermutlich bereits in der Kommunikation mittels E-Mail statt, doch werden diese Prozesse kaum je öffentlich sichtbar gemacht. [67] In hist.collaboratory könnte dialogisches Schreiben ganz unterschiedlich ausgestaltet sein: Eine Mitschrift eines Messenger-Chats, eine Abfolge von Blog-Beiträgen, aufeinander Bezug nehmende Informationseinheiten, bzw. Artikel in einem Wiki oder ganze Hyper-Text-Bereiche.

Dialog, Transparenz, Reflexion sind zentrale Elemente des hist.collaboratory. Sie stehen für neuartige Schreib- und Arbeitsprozesse, die herkömmliche Formen wissenschaftlichen Arbeitens eher ergänzen als verdrängen werden und auch in den Geschichtswissenschaften ihre Anwendung finden können. Im Kern handelt es sich um Veranschaulichung von Kommunikationsprozessen, weshalb das Bild des „desk without walls“ nicht ganz treffend ist und eher von einem „Multi-User-Desk“ oder einer „virtuellen Büro-Seminarraum-Bibliothek“ gesprochen werden sollte. Das hist.collaboratory ist ein „virtueller Sprachraum“ für die gemeinsame Erstellung eines bewusst konstruierten Sprachwerks. [68]

Jenseits von Wikipedia

Wer über die Möglichkeiten sprechen möchte, die ICT-gestützte kollaborative Schreibwerkzeuge dem geschichtswissenschaftlichen Arbeiten bieten könnten, begegnet unweigerlich dem Vorbehalt vieler, wenn nicht der meisten Historiker/innen gegenüber dem Projekt Wikipedia. Wikipedia gilt in geschichtswissenschaftlichen Kreisen mehrheitlich als fachwissenschaftlich nicht valide, was im offensichtlichen Gegensatz zur tatsächlichen Nutzung unter Schülern/innen, Fachlehrern/innen, Studierenden, aber auch Dozierenden und Forschern/innen stehen dürfte. Noch ist eine eingehende Untersuchung und Beurteilung der fachwissenschaftlichen Qualität von Wikipedia nicht geleistet worden. [69] Eine solche Beurteilung wird erschwert einerseits durch die Menge der Einträge, deren schnellen Wandel [70] und deren große formale und inhaltliche Heterogenität und andererseits durch Anspruch und Nutzungszusammenhang des Projekts. Wikipedia versteht sich als Nachschlagewerk und nicht als Fachpublikation.

Allerdings verstellt diese Debatte den Blick auf die Möglichkeiten und Schwierigkeiten des kollaborativen Schreibens in den Geschichtswissenschaften. Denn diese weisen ja über die konkrete Anwendung in Wikipedia hinaus. Das vorgestellte Konzept des hist.collaboratory versucht diese zusätzlichen Möglichkeiten deutlich zu machen. Bei der Beurteilung des wünschbaren zukünftigen Einsatzes von ICT-gestützten kollaborativen Schreibwerkzeugen ist zu bedenken, dass trotz der noch immer vorherrschenden Tradition individualisierten wissenschaftlichen Schreibens viele Elemente der ICT-gestützten Zusammenarbeit im Alltag der Geschichtswissenschaften bereits Einzug gehalten haben. Der Informationsaustausch mittels E-Mail ist bereits selbstverständlich, die Kommunikation über Newsletter, Foren und neuerdings auch Blogs gewinnt an Bedeutung. Zukünftig gesellen sich hier vielleicht auch vermehrt Zugriffe auf gemeinsam genutzte Sammlungen von Links und Bibliografien hinzu. Möglicherweise werden sich auch unter Historikern/innen weitere informelle, ICT-gestützte Kommunikationsformen etablieren. So könnten sie zu bestimmten Fachproblemen Detail-Informationen erfragen oder Hinweise und Tipps abgeben, die auch für Dritte einsehbar sind und zur Transparenz des wissenschaftlichen Austauschprozesses beitragen. Dies setzt aber voraus, dass die Historiker/innen bereit sind, sich bereits mit „unfertigen“ Ideen an eine interessierte Öffentlichkeit zu wagen (und seien dies nur die Mitglieder der Arbeitsgruppe), die Arbeit an ihrem Text transparent zu gestalten und allen Beteiligten Zugang zum Text zu gewähren.

Dies erfordert ein Umdenken der Autoren/innen im Hinblick darauf, wie sie ihre Texte planen, verfassen, verändern und beenden wollen. Dieses Umdenken und Umgewöhnen wird wohl mehr Zeit benötigen als die Programmierung der dazu notwendigen Tools. Als Ergebnis könnten (um im Bild des „collaboratory“ zu bleiben) tatsächlich die Wände des virtuellen Studierzimmers aufgebrochen und die Schreib- und Erkenntnisprozesse noch interaktiver gestaltet werden. Der PC-Bildschirm wäre dann nicht nur im übertragenen Sinn ein „Fenster zur Welt“.

***

Jan Hodel ist Historiker und seit 2004 Wissenschaftlicher Mitarbeiter am Institut Forschung und Entwicklung der Pädagogischen Hochschule der Fachhochschule Nordwestschweiz (FHNW). Er beschäftigt sich u.a. mit der Verbindung von Geschichtsdidaktik und Neuen Medien. E-Mail: jan.hodel@hist.net


[1] Der Text wurde zunächst als Hypertext auf <http://wiki.histnet.ch> veröffentlicht und dann für diese Publikation überarbeitet und in einen traditionellen Lauftext transformiert. Der Hypertext ist noch immer unter <http://wiki.histnet.ch/index.php/HistCollaboratory> (16.03.2006) erreichbar und wird dort weiter bearbeitet. Das Verfassen dieses Tagungsbeitrages war zugleich ein Versuch, sich mit dem iterativen (und öffentlichen) Vorgang eines Denk- und Schreibprozesses auseinander zu setzen, der mit Hilfe von ICT ermöglicht und dokumentiert wird.

[2] Der Begriff ICT wird an Stelle der herkömmlichen Begriffe „Neue Medien“ und „Internet“ benutzt. „Neu“ sind die digitalen Medien eigentlich nicht mehr, insbesondere, da die „alten“ Medien (TV, Radio) ebenfalls digitalisiert und zunehmend in die ICT integriert werden (Internet-Radio, Music-Download). Der Begriff „Internet“ ist schon immer sehr vage verwendet worden und wird durch Entwicklungen in der Unterhaltungsindustrie und in der mobilen Kommunikation noch ungenauer. Wesentliches Merkmal von ICT ist die Digitalisierung der Speicherung und der Übertragung von Daten.

[3] Finholt, Thomas A., Collaboratories, in: Annual review of information science and technology, 36 (2002), S. 73-107.

[4] Nebst den Informationen bei Wikipedia (<http://www.wikipedia.de>) selbst (wo der jeweils neueste Stand der Entwicklungen dargestellt wird) lohnt als Einstieg zu Geschichte und Funktion von Wikipedia der entsprechende Teil von Erik Möllers Publikation: Möller, Erik, Die heimliche Medienrevolution. Wie Weblogs, Wikis und freie Software die Welt verändern, Hannover 2005, S. 169-198.

[5] Die Chancen und Möglichkeiten gemeinsamer Wissensproduktion interessiert die Pädagogik seit längerer Zeit. Daraus entstanden auch Modelle des Computer Supported Collaborative Work (CSCW) oder des Computer Supported Collaborative Learning (CSCL), vgl. Fischer, Frank; Waibel, Mira Chr., Wenn virtuelle Lerngruppen nicht so funktionieren wie sie eigentlich sollten, in: Rinn, Ulrike; Wedekind, Joachim (Hgg.), Referenzmodelle netzbasierten Lehrens und Lernens. Virtuelle Komponenten der Präsenzlehre, Münster 2002, S. 35-50.

[6] Goertz, Hans-Jürgen, Umgang mit Geschichte. Eine Einführung in die Geschichtstheorie, Reinbek b. Hamburg 1995, S. 119f.

[7] Vgl. Noiriel, Gérard, Die Wiederkehr der Narrativität, in: Eibach, Joachim; Lottes, Günther (Hgg.), Kompass der Geschichtswissenschaft, Göttingen 2002, S. 355-370; Goertz, Hans-Jürgen, Unsichere Geschichte, Stuttgart 2001, S. 32ff.

[8] Die narrative Kompetenz bezieht sich auf Jörn Rüsen und ist Teil eines Bündels von Teilkompetenzen, die zur historischen Kompetenz zusammengefasst werden, vgl. Pandel, Hans-Jürge, Geschichtsunterricht nach PISA. Kompetenzen, Bildungsstandards und Kerncurricula, Schwalbach 2005, S. 24-52.

[9] Die Veränderungen der Praxis durch die mediale Wirklichkeit werden erörtert bei: Epple, Angelika, Verlinkt, vernetzt, verführt – verloren? Innovative Kraft und Gefahren der Online-Historiographie, in: Dies.; Haber, Peter (Hgg.), Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich 2005 (Geschichte und Informatik, Bd. 15 (2004)), S. 15-32.

[10] Landow, George P., Hypertext. The convergence of contemporary critical theory and technology, Baltimore (Md.) 1992.

[11] Bolter, Jay David, Writing space. The computer, hypertext, and the history of writing, Hillsdale 1991.

[12] Bush stellte seine Idee eines vernetzten, computerbasierten Textsystems namens Memex in folgendem Artikel vor: Bush, Vannevar, As we may think, in: The Atlantic Monthly, Bd. 176, Nr. 1 (1945), <http://www.theatlantic.com/doc/194507/bush> (26.03.2006).

[13] Ted Nelson gilt als Erfinder des Ausdrucks „Hypertext“, vgl. die Archivseite seines Hypertext-Projekts „Xanadu“: Nelson, Ted (Hg.), Xanadu Archive Page, <http://xanadu.com/XUarchive/> (26.03.2006).

[14] Schumacher, Eckhard, Hyper/Text/Theorie: Die Bestimmung der Lesbarkeit, in: Andriopoulos, Stefan; Schabacher, Gabriele; Schumacher, Eckhard (Hgg.), Die Adresse des Mediums, Köln 2001, S. 121-135.

[15] Landow bezog sich noch auf PC-basierte Hypertext-Systeme. Tim Berners Lee hatte 1989 gerade erst die Hypertext-Idee auf das Internet übertragen und das Hypertext-System „World Wide Web“ entwickelt. Bis zu seinem Durchbruch dauerte es aber noch einige Jahre.

[16] Barthes, Roland, La mort de l’auteur, in: Ders., Oeuvres complètes, Bd. 2, Paris 1966-1973, S. 491-495.

[17] Zur Entstehung und Wandlung der Auktorialität (jedoch ohne Bezüge auf Hypertext): Städtke, Klaus, Auktorialität. Umschreibungen eines Paradigmas, in: Ders.; Kray, Klaus (Hgg.), Spielräume des auktorialen Diskurses, Berlin 2003, S. VII-XXVI.

[18] Vgl. Eibl, Thomas, Hypertext. Geschichte und Formen sowie Einsatz als Lern- und Lehrmedium. Darstellung und Diskussion aus medienpädagogischer Sicht, München 2004, S. 114-115.

[19] Wreader, bzw. Wreading ist ein von George P. Landow geprägtes Kunstwort, das die Vermischung von Lesen (Reading) und Schreiben (Writing) anzeigen soll. Landow, George P., What’s a Critic to Do? Critical Theory in the Age of Hypertext, in: Ders. (Hg.), Hyper text theory, Baltimore (Md.) 1994, S. 1-48, hier: S. 14.

[20] Landow ging so weit, die Grundlagen wissenschaftlicher Auseinandersetzung durch Hypertexte in Frage zu stellen. Die Individualisierung der Lese-Erfahrung, so argumentierte er, verunmögliche einen gemeinsamen „Fixpunkt“ zur Diskussion der im Hypertext dargestellten Sachverhalte. Jeder Leser, jede Leserin beziehe sich auf eine eigene Leseerfahrung, somit auf einen je einzigartigen Text. Landow, What’s a Critic to Do? (wie Anm.19), S. 33.

[21] Eine zentrale Rolle spielt dabei die Navigation, die zur Orientierung im „Cyberspace“ beiträgt. Vgl. Hodel, Jan, Wie kommen wir dahin? Das Internet verlangt nach neuen Fähigkeiten bei der Aufnahme von Informationen. Verfasst für die Online-Publikation im Bereich „Reflexionen“ der Website <http://www.pastperfect.at> (15.09.2003); <http://www.hist.net/hodel/person/docs/WieKommenWirDahin.pdf> (25.03.2006).

[22] Landow, What’s a Critic to Do? (wie Anm. 19), S. 14.

[23] Ede, Lisa; Lunsford, Andrea, Singular texts/plural authors. Perspectives on collaborative writing, Carbondale 1992, S. 134.

[24] Nach Zentel und Dillenbourg, die ihre Überlegungen im Zusammenhang mit ICT-gestütztem kollaborativem Lernen formulieren. Dillenbourg, Pierre (Hg.), Collaborative Learning. Cognitive and Computational Approaches, Amsterdam 1999; Zentel, Peter; Hesse, Friedrich W., Netzbasierte Wissenskommunikation in Hochschule und Weiterbildung. Die Globalisierung des Lernens, Bern 2004.

[25] Ede, Lisa; Lunsford, Andrea, Singular texts/plural authors (wie Anm. 23), S. 134.

[26] Vgl. Möller, Medienrevolution (wie Anm. 4), S. 26-28.

[27] Ebd, S. 116-125.

[28] Ebd. S. 139-145.

[29] Ebd. S. 115-158.

[30] Vgl. Hodel, Jan, Aus der Welt der Blogs II: journalistische Bedeutung, 01.10.2005, unter: <http://hodel-histnet.blogspot.com/2005/10/aus-der-welt-der-blogs-ii.html> (13.03.2006).

[31] Vgl. Hodel, Jan, Aus der Welt der Blogs: Blogs als Teil der eLearning-Landschaft, 05.02.2006, unter: <http://hodel-histnet.blogspot.com/2006/02/aus-der-welt-der-blogs-blogs-als-teil.html> (31.03.2006).

[32] Vgl. Wikipedia contributors: Wiki, in: Wikipedia, The Free Encyclopedia, 24.03.2006, 05:46 UTC, <http://en.wikipedia.org/w/index.php?title=Wiki&oldid=45224151> (24.03.2006).

[33] Eine Übersicht über die mehr als 50 verschiedenen Wiki-Versionen bietet die Website <http://wikimatrix.org>. Vgl. Hüttemann, Detlef; Riebesell, Jörg, Wikimatrix, unter: <http://wikimatrix.org> (25.03.2006).

[34] Beispiele, wie und warum Wikis zu internen Zwecken in Großunternehmen (Nokia), kleinen Startup-Firmen oder in nicht-profitorientierten Institutionen eingesetzt wird, zeigt der Artikel von Goodnoe, Ezra, Wikis at Work, in: InternetWeek, 03.02.2006, <http://internetweek.cmp.com/GLOBAL/btg/pipeline/shared/article/showArticle.jhtml?articleId=178601096&pgno=1> (24.03.2006).

[35] Ebersbach, Anja; Glaser, Markus; Heigl, Richard, Wiki-Tools. Kooperation im Web, Berlin 2005, S. 22.

[36] Es wird auch die Bezeichnung web 2.0 verwendet. Wikipedia contributors: Social software, in: Wikipedia, The Free Encyclopedia, 24.03.2006, 19:51 UTC, <http://en.wikipedia.org/w/index.php?title=Social_software&oldid=45305551> (26.03.2006).

[37] Terdiman, Daniel, How wikis are changing our view of the world, in: CNet News.com, 15.11.2005, <http://news.com.com/2009-1025-5944453-3.html> (17.02.2006).

[38] Shirky, Clay, Broadcast Institutions, Community Values, siehe: <http://www.shirky.com/writings/broadcast_and_community.html> (17.02.2006).

[39] Fröhlich, Gerhard, Unethische Autorschaften in den Wissenschaften. Von Sub-, Geister-, Ehren- und Vielschreibern, in: Telepolis, 13.03.2006, <http://www.heise.de/tp/r4/artikel/22/22197/1.html> (16.03.2006).

[40] Dabei ist zu berücksichtigen, dass die Möglichkeiten von ICT das Erstellen von Plagiaten noch befördert haben, besonders in der neueren Form von „Shake and Paste“, die „Copy and Paste“ abgelöst hat. Vgl. Weber, Stefan, Mit Shake and Paste zum Ziel. Krise der Kulturwissenschaften angesichts des grassierenden Plagiarismus, in: Telepolis, 21.04.2005, <http://www.heise.de/tp/r4/artikel/19/19921/1.html> (24.03.2006); Pany, Thomas, Shake, Rattle and Paste. Auch Elitestudenten schreiben aus dem Internet ab, in: Telepolis, 17.03.2006, <http://www.heise.de/tp/r4/artikel/22/22274/1.html> (24.3.2006).

[41] Hier ist zu verweisen auf den Fall des koreanischen Klon-Forschers Hwang Woo-Suk, der lange unentdeckt in renommierten Zeitschriften trotz Peer Review gefälschte Ergebnisse publizieren konnte. Vgl. Lange, Michael, Absturz ins Bodenlose, in: dr.radio (Deutschlandfunk Online), 29.12.2005, <http://www.dradio.de/dlf/sendungen/forschak/452964/> (23.03.2006).

[42] Vgl. Gonsalves, Antone, Britannica Slams Journal’s Wikipedia Comparison, in: InternetWeek, 24.03.2006, <http://internetweek.cmp.com/183702817?cid=rssfeed_pl_inw>(25.03.2006).

[43] Denning, Peter; Horning, Jim; Parnas, David; Weinstein, Lauren, Wikipedia Risks (=Inside Risks 186), in: Communications of the ACM, 48, 12 (2005), <http://www.csl.sri.com/users/neumann/insiderisks05.html> (13.01.2006); McHenry, Robert, The Faith-Based Encyclopedia, in: TCS Daily, 15.11.2004, <http://www.tcsdaily.com/article.aspx?id=111504A> (18.02.2006).

[44] Meyer, Bertrand, Defense and Illustration of Wikipedia, 2006, <http://se.ethz.ch/%7Emeyer/publications/wikipedia/wikipedia.pdf> (13.01.2006).

[45] Vgl. zur Rolle der Suchmaschinen: Haber, Peter, „Google-Syndrom“. Phantasmagorien des historischen Allwissens im World Wide Web, in: Epple, Angelika; Haber, Peter, Vom Nutzen und Nachteil des Internet für die historische Erkenntnis (wie Anm. 9), S. 73-89.

[46] Zur Einleitung siehe Suber, Peter, Open Access – eine kurze Einführung, in: NetBibWiki, 29.01.2005, <http://wiki.netbib.de/coma/OpenAccess> (02.02.2006).

[47] Creative Commons, vgl. <http://creativecommons.org> (25.03.2006).

[48] Free Software Foundation: GNU Free Documentation License, Version 1.2, November 2002, <http://www.gnu.org/copyleft/fdl.html> (25.03.2006).

[49] Mit den Auswirkungen von ICT auf die Geschichtswissenschaften, besonders in Bezug auf Kommunikation, Wissensrepräsentationen sowie Rolle und Funktion des Archivs befasst sich Peter Haber mit seinem Projekt „digital past“. Haber, Peter, digital.past, 15.01.2006, <http://hist.net/haber/digitalpast/index.html> (31.03.2006).

[50] Vgl. Hodel, Jan, Heidegger in der Strassenbahn oder Suchen in den Zeiten des Internet, in: Haber, Peter; Koller, Christophe (Hgg.), Geschichte und Internet – Raumlose Orte, geschichtslose Zeit? Zürich 2001 (Geschichte und Informatik Bd. 12/2001), S. 35-48.

[51] Degele, Nina, Neue Kompetenzen im Internet. Kommunikation abwehren, Informationen vermeiden, in: Lehmann, Kai; Schetsche, Michael (Hgg.), Die Google-Gesellschaft. Vom digitalen Wandel des Wissens, Bielefeld 2005, S. 63-74, hier: S. 65.

[52] Open Directory, vgl. <http://dmoz.org> (25.03.2006).

[53] Zu den Subject Gateways besteht bezeichnenderweise kein Eintrag bei Wikipedia. Aufschlussreich für die Zielsetzungen der Subject Gateways ist: Bargheer, Margo, Qualitätskriterien und Evaluierungswege für wissenschaftliche Internetressourcen. Ein Report für die bibliothekarische und dokumentarische Praxis, Göttingen 2002, vgl. <http://webdoc.sub.gwdg.de/ebook/aw/2003/bargheer/v10.pdf> (25.03.2006).

[54] Vgl. Hodel, Jan, Drei Königswege zur Ordnung des Chaos, 14.12.2005, <http://hodel-histnet.blogspot.com/2005/12/hok-lesen-vom-suchen-und-finden-xi-die.html> (25.03.2006).

[55] Vgl. Carvin, Andy, Tim Berners-Lee. Weaving the Semantic Web, in: digital divide network, 01.02.2005, <http://www.digitaldivide.net/articles/view.php?ArticleID=20> (31.03.2006).

[56] Detaillierter zur Historischen Online-Kompetenz: Hodel, Jan, Historische Online-Kompetenz. Informations- und Kommunikationstechnologie in den Geschichtswissenschaften, in: Pöppinghege, Rainer (Hg.), Geschichte lehren an der Hochschule. Bestandsaufnahme, methodische Ansätze, Perspektiven, Schwalbach, im Druck (2006).

[57] Vgl. unter anderen Hess-Lüttich, Ernest W.B. (Hg.), Medien, Texte und Maschinen. Angewandte Mediensemiotik, Frankfurt am Main 2001.

[58] Jakob Krameritsch zählt zu den Ausnahmen: Krameritsch, Jakob, Geschichte(n) im Hypertext. Von Prinzen, DJs und Dramaturgen, in: Haber; Epple, Vom Nutzen und Nachteil (wie Anm. 9), S. 33-56, und Ders., Geschichte(n) im Netzwerk. Hypertext und dessen Potenziale für die Produktion, Repräsentation und Rezeption der historischen Erzählung (Diss.), Wien 2005.

[59] So erwähnen die zahlreichen Schreibführer von Howard S. Becker bis Otto Kruse die Möglichkeit kollaborativen Schreibens nicht einmal, mit Ausnahme des Kapitels von Katrin Lehnen, dass aber nicht auf ICT-gestützte Formen eingeht: Lehnen, Katrin: Kooperative Textproduktion, in: Kruse, Otto; Jakobs, Eva-Maria; Ruhmann, Gabriele (Hg.): Schlüsselkompetenz Schreiben. Konzepte, Methoden, Projekte für Schreibberatung und Schreibdidaktik an der Hochschule, Bielefeld 2003 (2. Auflage), S. 147-170. Es bleibt daher abzuwarten, ob erste Anwendungsversuche wie das „Collaborative Academic Paper Writing“ (COLAC) sich dauerhaft im akademischen Alltag zu etablieren vermögen. COLAC wurde am Englischen Seminar der Universität Basel entwickelt und für den Medidaprix 2006 nominiert. <http://medidaprix.org/mdd_2006/suche/projekt.pl?nr=1050> (24.07.2006).

[60] Vgl. Emigh, William; Herring, Susan C., Collaborative Authoring on the Web. A Genre Analysis of Online Encyclopedias. Proceedings of the Thirty-Eighth Hawai’i International Conference on System Sciences, Los Alamitos 2005, <http://csdl.computer.org/comp/proceedings/hicss/2005/2268/04/22680099a.pdf> (01.02.2006).

[61] Weber, Stefan, Kommen nach den „science wars“ die „reference wars“?, in: Telepolis, 29.09.2005, unter: <http://www.heise.de/tp/r4/artikel/20/20982/1.html> (19.02.2006).

[62] Vgl. Renkl, Alexander, Epistemisches Schreiben mit Neuen Medien, in: Unterrichtswissenschaft 33 (2005), 3, S. 194-196.

[63] Interessant wären weitere Überlegungen dazu, wie das hist.collaboratory für verschiedene Formen der gemeinsamen Wissenskonstruktion genutzt werden könnte, die Frank Fischer wie folgt gliedert: kognitive Elaboration, situiertes Lernen, argumentativer Diskurs und kollektive Informationsverarbeitung. Fischer, Frank, Gemeinsame Wissenskonstruktion – Theoretische und methodologische Aspekte, München 2001, <http://epub.ub.uni-muenchen.de/archive/00000250/> (01.02.2006).

[64] Darauf verweist Peter Baumgartner anhand von Weblogs. Baumgartner, Peter, Eine neue Lernkultur entwickeln: kompetenzbasierte Ausbildung mit Blogs und E-Portfolios, 2006, unter: <http://www.educa.ch/dyn/bin/131141-131143-1-eportfoliodeutsch.pdf> (06.02.2006).

[65] Möller hält die Diskussionsseiten von Wikipedia noch für verbesserungsfähig und schlägt ein Konzept namens „liquid threads“ vor, dass die Strukturierung, Zusammenfassung und Archivierung von Diskussionen ermöglichen soll. Möller, Medienrevolution (wie Anm. 4), S. 192-195.

[66] Gumbrecht, Hans Ulrich, 1926. Ein Jahr am Rand der Zeit, Frankfurt am Main 2003.

[67] Eine Ausnahme bildet der Beitrag von Monica Kalt und Jan Hodel aus dem Jahr 1997, der in Form eines E-Mail-Wechsels publiziert wurde, in Tat und Wahrheit jedoch als Word-File entstand, das per E-Mail zwischen den Autoren/innen hin- und hergeschickt wurde: Hodel, Jan; Kalt, Monica, Umweltgeschichte Revisited, in: Traverse 2 (1997), S. 13-30.

[68] Karl Bühler unterscheidet in seiner Sprachtheorie zwischen spontanen Sprechhandlungen und reflektierten, bewusst konstruierten Sprachwerken, was bei der Textproduktionsforschung zu einer zentralen Kategorie geworden ist. Vgl. Popsiech, Ulrike, Schreibend schreiben lernen. Über die Schreibhandlung zum Text als Sprachwerk, Frankfurt am Main 2005, S. 2f.

[69] Die erste (und bislang einzige) Besprechung bei H-Soz-u-Kult bezog sich auf die CD-ROM-Version vom Frühling 2005 und untersuchte drei (!) Artikel genauer. Dabei fand der Rezensent einige inhaltliche und formale Unstimmigkeiten und Mängel. Schäfer, Christoph, Rezension zu „Wikipedia“, in: H-Soz-u-Kult, 07.07.2005, <http://hsozkult.geschichte.hu-berlin.de/rezensionen/2005-3-017> (13.06.2006). Mittlerweile hat auch der amerikanische Historiker Roy Rosenzweig eine ausführliche Würdigung der historischen Teile von Wikipedia publiziert, die zum Schluss kommt, dass die Qualität je nach Typus stark variiert, es aber auch bei den besseren Einträgen an stilistischer Feinheit und inhaltlich fundierter, persönlicher Gestaltung fehlt, vgl. Rosenzweig, Roy, „Can History be Open Source? Wikipedia and the Future of the Past“, in: Journal of American History 93 (2006), 1, S. 117-146, vgl. <http://www.historycooperative.org/journals/jah/93.1/rosenzweig.html> (21.06.2006).

[70] So waren im Juni 2006 die von Schäfer kritisierten Mängel im Wesentlichen behoben. In den betreffenden Einträgen „Investitur-Streit“ (Artikel „Investiturstreit“, in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 09.06.2006, 12:33 UTC, <http://de.wikipedia.org/w/index.php?title=Investiturstreit&oldid=17663159> (16.06.2006)), „Merkantilismus“ (Artikel Merkantilismus, in: Wikipedia, Die freie Enzyklopädie, Bearbeitungsstand: 14. Juni 2006, 19:03 UTC, <http://de.wikipedia.org/w/index.php?title=Merkantilismus&oldid=17864408> (16.06.2006) und „Historiker-Streit“ (Artikel Historikerstreit, in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 16. Juni 2006, 11:40 UTC, <http://de.wikipedia.org/w/index.php?title=Historikerstreit&oldid=17926305> (16.06.2006)) waren seit Mai 2005 jeweils über 100 Veränderungen vorgenommen worden.


Hinweis:

In den Texten der Artikel wird der Unicode-Zeichensatz verwendet. Falls Ihr Browser nicht automatisch die richtige Codierung einstellt, d.h. wenn die deutschen Extrazeichen nicht korrekt angezeigt werden, drücken Sie bitte den Reload-Knopf (Refresh oder Aktualisieren) oder ändern Sie die Zeichensatz-Einstellung selbst unter Ansicht -> Codierung -> Unicode (UTF-8).