Logo der Humboldt-Universität
 
edocSucheAutorenhinweiseProjekteRechte/Info/HilfeRSS
 
         
 

Übersichten

Aktuelle Ausgabe
Archiv
Impressum
@Redaktion@
   

Band 10 • 2007 • Teilband I

ISBN 978-3-86004-205-2

Geschichte im Netz: Praxis, Chancen, Visionen

zur¨ck

Quellen im Netz

 

Quellen im Netz, Vorstellung und Zusammenfassung der Sektion

von Patrick Sahle und Georg Vogeler

Die Vorbemerkungen und die Zusammenfassung zur Sektion versuchen die Beiträge in einen weiteren Kontext zu stellen. Zusammen bilden die einzelnen Präsentationen den aktuellen Entwicklungsstand im Bereich digitaler Quellenerschließung und Edition ab. Von den Organisatoren ist dabei ganz bewusst aus einer größeren Zahl von vorgeschlagenen Vorträgen ein möglichst breites Spektrum zusammengestellt worden, das verschiedene Epochen, Materialarten und Methodiken umgreift. Dadurch sollte in der Zusammenschau auch die Frage nach der Entwicklung einer ‚gemeinsamen’ Methodologie aufgeworfen werden. Der Vergleich der verschiedenen Ansätze zeigt, dass es im Übergang zu digitalen Arbeits- und Publikationsformen nicht (nur) zu einer weiteren Spezialisierung kommt, sondern auch die Inhalte, Techniken und Methoden zunehmend konvergieren. Schließlich ist der Frage nachzugehen, wie sich die Veränderungen auf der ‚Angebotsseite’ auch auf die ‚Benutzung’ und damit auf die Heuristik historischer Forschung auswirken.

***

Fragestellungen

Das Internet ist laut Urteil des Hanseatischen Oberlandesgerichts Hamburg vom 24.02.2005 eine „bekannte Nutzungsart“ seit 1993 (andere Urteile lauten auf 1995). [1] Das Internet ist also mit uns seit inzwischen 13 Jahren. Eine der ersten deutschen Übersichten über digitale Quellen zum Mittelalter – die heute natürlich allenfalls medien- und wissenschaftshistorisch von Interesse sein kann – datiert aus dem Jahr 1995. [2] Mehr als zehn Jahre sind für ein so dynamisches Medium wie das Internet eine lange Zeit, wie es andererseits für die Geschichtswissenschaft eine sehr kurze Zeit ist. Aus beidem ergibt sich das Paradox: Wir sind schon weit, stehen aber immer noch am Anfang. Umso mehr lohnt eine weitere Bestandsaufnahme aktueller Entwicklungsstände. Um es direkt in einer zeithistorisch wissenschaftsgeschichtlichen Perspektive zu verorten: Die anfängliche Phase vereinzelter kleiner innovativer Experimente geht langsam ihrem Ende entgegen. Auf den „Inseln“ stehen jetzt „Leuchttürme“: Wir sehen inzwischen immer mehr ausgereifte, stabile, umfassende und gut benutzbare Quellensammlungen, die unmittelbar die praktische Arbeit mit den Quellen beeinflussen können und Vorbildcharakter gewinnen. Bei den folgenden Beiträgen geht es also nicht um eine Bestandsaufnahme, welche Quellen im Netz verfügbar sind, sondern darum wie sie im Netz anders sind als man es von den gedruckten Quellenwerken her kennt.

Die Quellenerschließung bedient sich heute selbstverständlich digitaler Werkzeuge. Wir sind allerdings nach wie vor weit davon entfernt, dass auch die Ergebnisse der Quellenerschließung genauso selbstverständlich in digitalen Medien publiziert werden. Wir haben es immer noch eher mit einzelnen Vorreiterprojekten zu tun, die in ganz besonderer Weise sowohl inhaltlich als auch methodisch jene Pfade anlegen, denen eines Tages die dann alltägliche Praxis der Quellenerschließung wird folgen können. Wir sind immer noch weit davon entfernt, eine abgeschlossene Methodik der digitalen Quellenerschließung einfach als gegeben annehmen zu können, auf deren Grundlage wir uns endlich vor allem um die Inhalte kümmern könnten.

In der Vorbereitung dieser Sektion bestand das (Luxus-)Problem, aus einer ganzen Reihe höchst interessanter Themenvorschläge auswählen zu müssen. Leicht hätte man sich zum Beispiel auf eine bestimmte Quellengattung beschränken können. Die mittelalterlichen Urkunden scheinen derzeit eines der Felder zu sein, auf dem die breiteste Entwicklung in inhaltlicher und methodischer Hinsicht zu beobachten ist. Wir haben uns gegen eine solche Fokussierung entschieden – nicht nur, weil Ende Februar 2007 eine ganze Tagung zu diesem Komplex in München stattfinden wird. So haben wir versucht, die ganze Bandbreite der Entwicklungen abzudecken: unterschiedliche Quellengattungen und Materialtypen sind in die Überlegungen ebenso einzubeziehen wie die methodischen Ansätze und technischen Lösungswege. Hier geht es uns um eine Bestandsaufnahme zum Stand der Kunst: Was ist heute möglich? Was ist gewissermaßen schon etablierte „best practice“? Was sind die gängigen Paradigmen an denen man sich orientiert? Aber auch: wo liegen die noch nicht gelösten Probleme? Und: wo sind die Perspektiven für die nächste Zukunft?

Zu diesen Fragen liefern die Beiträge der Sektion „Quellen im Netz“ jeweils ganz eigene interessante Antworten. Wir glauben jedoch, einige Fragen erhellen zu können, die aus der Zusammenschau so unterschiedlicher Ansätze klar werden. So hoffen wir, dass die Sektion als Ganzes mehr ist als die Summe der Teile, wenn man die Beiträge unter zwei Aspekten betrachtet:

  1. Das, was sich unter dem Schlagwort „Konvergenz“ versammeln lässt: Konvergieren die einzelnen Quellenerschließungsprojekte in inhaltlicher Hinsicht? Führen sie zu umfassenden Sammlungen gleichartiger Quellen? Dazu ist auch die Frage zu stellen: Konvergieren sie in technischer Hinsicht? Lassen sie sich in der Praxis wirklich vernetzen und integrieren, weil man sich inzwischen auf gemeinsame technische Paradigmen und gemeinsame Standards verständigen kann? Konvergieren die digitalen Unternehmungen darüber hinaus in methodologischer Hinsicht? Bildet sich also eine neue übergreifende Methodologie der Quellenerschließung aus? Eine, die dann auch so unterschiedliche Materialen umfassen kann, wie mittelalterliche Urkunden, mittelalterliche Weltkarten, neuzeitliche Akten und Protokolle und modernes Filmmaterial? Und konvergieren damit auch die Aktivitäten der verschiedenen Akteure und ihrer Praktiken? Wird aus den Grunderschließungsleistungen der Archivare und Bibliothekare, den tiefer gehenden Editionsarbeiten, den Analysearbeiten und den Publikationsarbeiten der Fachwissenschaftler ein großes Ganzes?
  2. Wir gehen zunehmend zu grundsätzlichen Fragen über: Es verändern sich die Inhalte, es verändern sich die Arbeitsweisen und es verändern sich die Methoden. Die Methoden der Quellenerschließung stehen dann aber unweigerlich auch in engem Zusammenhang mit unserer Haltung zu den Quellen, unserer Sicht auf die Quellen und damit auch mit unserer Benutzung der Quellen. Der zweite Aspekt, der die folgenden Beiträge überspannen könnte ist damit jener der Heuristik: Verändern sich durch die neuen Angebote, durch die neuen Darstellungsweisen (fast könnte man sagen: die neuen Existenzweisen) und durch die neuen Nutzungsmöglichkeiten nicht auch unsere Fragestellungen und Arbeitsweisen? Wenn Geschichtswissenschaft bedeutet, Antworten auf immer wieder neue Fragen zu geben, dann müssten die Auswirkungen auf die Geschichte insgesamt offensichtlich werden.

Ergebnisse

Die sechs Beiträge der Sektion „Quellen im Netz“ [3] haben sehr unterschiedliche Dokumentarten vorgestellt: Urkunden, Filme, Landkarten, Protokolle, Güterverzeichnisse. Für diese Quellentypen werden spezifische digitale Erschließungs- und Präsentationsformen verwendet: Eine Einzelbildannotation in einem Film steht für eine andere Methodik als das semantisch gedeutete Inhaltsverzeichnis einer Landkarte in Form einer Topic Map. Das diachrone Modell eines hochkomplexen Quellentextes steht der Datenmenge minutiöser Dokumentation in politischen Akten des 20. Jahrhundert gegenüber.

In der Zusammenschau kann mit dem Bereich der mittelalterlichen Geschichte begonnen werden, dem sich vier Beiträge der Sektion mit Blick auf die Erschließung und Verarbeitung von mediävistischen Quellenarten gewidmet haben. Heutige nationale Grenzen, die immer noch die Aufbewahrung und Erschließung der Überlieferung bestimmen und begrenzen, kannte das Mittelalter noch nicht. Karl Heinz hat sich mit dem Monasterium-Projekt [4] diesen – und anderen – Grenzüberwindungen gewidmet. Das Projekt dokumentiert nicht nur die Verflechtungen kirchlicher Urkundenüberlieferung im östlichen Mitteleuropa, sondern ist auch ein Beispiel für die Integration traditionell getrennter Erschließungsebenen: Bilder von Urkunden werden kombiniert mit archivischen Informationen, mit Regesten und Editionen. Außerdem beleuchtet es Chancen und Probleme verteilter, kollaborativer und inkrementeller Arbeiten.

Michael Gervers hat mit seinem Beitrag „Towards the implementation of advanced research and result presentation facilities for a published online collection of medieval Latin charters“ am Beispiel des DEEDS-Projekts [5] umfangreiche Möglichkeiten für die Nutzung von Dokumenten mit tiefer semantischer Codierung aufgezeigt. Sie helfen, traditionelle, aber immer noch zentrale quellenkritische Fragen, wie die nach der Datierung und Echtheit eines Dokuments, in neuer Weise zu beantworten. Sie ermöglichen darüber hinaus aber auch inhaltliche Recherchen und Darstellungen, etwa zu Fragen nach religiösen Einstellungen, nach der Relevanz von römischen Entscheidungen in der Peripherie oder nach Rechtsentwicklungen.

Matthias Perstling hat demonstriert, wie elektronische Medien die Präsentation von komplex strukturierten Quellen ermöglichen, deren Mehrschichtigkeit in traditionellen Formen gar nicht adäquat abgebildet werden kann. Am Beispiel des Steirisch-landesfürstlichen Marchfutterurbars von 1414/1426 hat er die editorische Problematik einer seriellen, kontinuierlich veränderten Quelle geschildert und dazu das Modell einer „Online-Faksimile-Edition“ vorgestellt.

An der Quelle als Bild sind auch die Konzepte orientiert, die Günther Görz bei der Präsentation „Kognitiver Karten“ des Mittelalters, das heißt mittelalterlicher Weltkarten, vorgestellt hat. Das Kartenmaterial, das als Text-Bild-Kombinationen die Handlungsräume narrativ vermittelter Geschichte und Geschichten darstellt und sich mit dem jeweiligen Wissensstand und durch Wissenstransfer verändert, ist mit einem systematischen vergleichenden Stellenkatalog erschlossen worden. In den circa 250 Weltkarten des Projektes (von der Hereford- und Ebstorfkarte über Portulane und Ptolemäuskarten bis zum Behaim-Globus) können so Bilder, Legenden und Bild-Text-Kombinationen ge- und untersucht werden. Der Beitrag hat damit die Frage aufgeworfen, ob die zur Erschließung angewandte formale Ontologie auf der Basis einer für den Behaim-Globus erstellten Konzepthierarchie Erkenntnisse ermöglicht, die mit herkömmlichen Mitteln nicht gewonnen werden konnten.

Alle diese Beiträge geben Zeugnis davon, dass mittelalterliches Quellenmaterial mit Hilfe des Internets aus den modernen Grenzen wieder in überregionale Zusammenhänge gebracht werden kann (wie sie im Mittelalter gegeben waren), dass vielschichtige Quellenstrukturen abbildbar und in Suchanfragen integrierbar werden und dass Werkzeuge entwickelt werden können, die komplexe Zusammenhänge im Quellenmaterial sichtbar machen. Die Frage, ob für das Quellenmaterial aus anderen Epochen die gleichen Fragestellungen und Beobachtungen anwendbar sind, helfen die folgenden Beiträge zu beantworten.

Die Internetpräsentation einer zentralen zeithistorischen Quelle stellte Jörg Filthaut vor. Dabei ist die Neuedition der „Kabinettsprotokolle der Bundesregierung“ [6] nicht nur inhaltlich mit der gedruckten Edition der „Akten der Reichskanzlei“ der Weimarer Republik verbunden, sondern wird auch im Rahmen der Retrodigitalisierung dieser Edition in einer gemeinsamen Softwareplattform präsentiert. Das bisherige Nutzer-Feedback und bestehende Anfragen zeigen, dass es der Forschung in zunehmendem Maße möglich sein wird, große Mengen an Quellen in der Zusammenschau auszuwerten. Damit wird das Material insbesondere quantifizierenden Fragestellungen zugänglich. Als Perspektive ergibt sich daraus, dass es auch für die zeithistorische Forschung wünschenswert wäre, wenn elektronische Findmittel, wie zum Beispiel der Karlsruher Virtuelle Katalog, beim Suchergebnis als erste Treffer die Links zu den digitalen Angeboten liefern würden und erst dann die Buchform nachweisen würden. Eine weitere Perspektive des Referats war die Vernetzung zwischen Edition und elektronischen Exzerpten der Nutzer, mit der die Edition endgültig zu einer offenen und dynamisch wachsenden Arbeitsumgebung wird.

Christopher Carlson richtete den Blick schließlich auf eine eher ungewöhnliche Quellengattung, nämlich historische Filmeditionen. Die Diskussion über den Quellenwert von Filmmaterial hat zu editorischen Ansprüchen geführt, die von elektronischen Editionen zu erfüllen sind: Filmische Quellen müssen technisch und inhaltlich sorgsam ausgewählt, Provenienz und Dignität müssen überprüft und nachgewiesen werden. Die „Film-Edition“ muss das Material mit einer umfassenden quellenkritischen Analyse und einer entsprechenden Dokumentation absichern. Mithilfe von Bewegtbild-Datenbanken können die Filme endlich sehr viel besser bzw. tiefer erschlossen und annotiert werden, als dies früher möglich gewesen wäre. Neben dem qualitativen Gesichtspunkt entstehen auch neue quantitative Perspektiven: Umfangreiche, punktgenaue Annotationen sind möglich, die die Menge und das Niveau von textkritischem Apparat und inhaltlichem Kommentar klassischer Texteditionen erreichen können – ohne die Benutzbarkeit des Materials zu behindern. Christopher Carlson hat exemplarisch die vorhandenen Optionen anhand vielschichtiger Beispiele aktueller Filmeditionsarbeit aufgezeigt. Neuere technische Plattformen unterstützen dabei die Multimedialität der Wissensrepräsentation.

Welche Schlüsse können nun aus diesen Referaten für die beiden Grundfragen der Sektion gezogen werden? Einige weiterführende Überlegungen sollen abgeleitet und im Folgenden vorgestellt werden.

Verschwinden die Unterscheidungen zwischen Archivierung, Erschließung, Edition und wissenschaftlicher Publikation in der digitalen Welt?

Wir haben gefragt, ob die unterschiedlichen Aktivitäten und Praktiken der Akteure konvergieren. Die Ausgangserfahrung ist hier, dass Bibliothekare zum Beispiel unter Quellendigitalisierung gemeinhin eine Imagedigitalisierung von Buchseiten, Archivare digitale Abbildungen und Inhaltserschließung der Originale und Fachwissenschaftler elektronische Volltexteditionen verstehen. Die Referate der Sektion zeigen aber, wie schwach diese Grenzen ausgeprägt sind: Archivare edieren Texte ebenso umfassend, wie Forscher Grundlagenmaterial online zur Verfügung stellen. Die Referenten und Referate belegen also, dass die Grenzen digitaler Quellenrepräsentationen schon heute immer weniger den institutionellen Traditionen von Archiv, Bibliothek und Universität folgen. Insbesondere die Vorstellung des Monasterium-Projektes [7] hat gezeigt, wie sehr diese Formen in der digitalen Welt zusammenfließen: Ist ein umfangreiches Bildarchiv mit Regesten und Transkriptionen eine Faksimileausgabe, ein Regestenwerk, ein Repertorium oder eine Edition? Die mediale Festlegung der traditionellen Trennungen etablierter Publikationsformen verschwinden in einer digitalen Umgebung – ohne dass deshalb die inhaltliche Unterscheidung zwischen Faksimile, Regest und Edition verschwindet. Diese werden vielmehr als inhaltliche Module übergreifender Informationssysteme erkennbar.

Die Quellen im Netz konvergieren so in einem informationswissenschaftlichen Modell, das die bislang getrennten Formen der Quellenrepräsentation einander zuordnet und die historische Forschung mit ihren Quellen verbindet. An anderer Stelle ist dazu von einem „digitalen Informationsraum“ mit den Achsen „Benutzbarkeit, Funktionalität, Qualität“, „Menge“ und „Erschließungstiefe“ gesprochen worden. [8] Man kann damit einer Vernetzung zwischen den unterschiedlichen Formen der Quellenrepräsentation den Vorzug gegenüber einer Prozesskette geben. [9] Die mit der Bewahrung und Bearbeitung historischer Quellen beschäftigten Akteure in Archiv, Museum, Bibliothek und wissenschaftlicher Forschung können die erprobten Arbeitsgänge unter einer modularen Perspektive abwickeln und ihre Ergebnisse zum einzelnen Quellenobjekt verknüpfen.

Denn das Quellenobjekt ist, wenn man von modernen elektronischen Verwaltungsakten absieht, selbst noch nicht digital: Die Handschrift, die Filmrolle, das Exemplar eines Buches, der Globus werden von den dafür zuständigen Einrichtungen aufbewahrt und für wissenschaftliche Auswertung zur Verfügung gestellt. Die ehemals getrennten Repräsentations- und Erschließungsformen sind Abstraktionen von diesem realen Objekt, die digital reproduziert werden können:

  1. eine Beschreibung des Quellenobjektes (zum Beispiel die archivische Formalbeschreibung)
  2. der Text / das Bild als Abstraktion des Quellenobjektes, die gerne – und nicht immer ganz richtig – mit dem eigentlichen Quellenobjekt gleichgesetzt werden, insbesondere da die Quellenobjekte Texte und Bilder in Kopie überliefern können
  3. der „historische Ort“, das heißt die im Bild oder Text enthaltene Sachinformation. Diese ist Ergebnis einer historischen Interpretation unterschiedlicher Methodik: Sprachliche Methoden machen aus lateinischen Urkunden eine Übersetzung. Eine typologische Einordnung macht aus einem Stück Papier ein Konzept. Inhaltliche Erforschung macht aus einer Wortliste ein Verzeichnis von geografisch identifizierbaren Orten. Strukturanalyse macht aus einem Punkt auf einer Karte eine Stadt, aus einer Textphrase eine Arenga.

Die Quellen im Netz sind unterschiedliche Aspekte eines konkreten Quellenobjekts, die unterschiedlich eng mit historischer Deutung verknüpft, aber auf jeden Fall Teil der Darstellung von Geschichte im Internet sind. Oder anders formuliert: Quellen im Netz sind Verbindungsknoten zwischen virtueller Geschichte und der realen Welt. Der jetzigen wie der gewesenen.

Können wir noch etwas Konkreteres aus den Beiträgen dieser Sektion über die Konvergenz lernen? Es sind zwei Fragen, die wir dabei ansprechen möchten, zu denen die einzelnen Beiträge zwar nicht explizit Stellung bezogen haben, die implizit aber doch immer eine Rolle spielen:

  1. Welche Datenformate werden verwendet?
  2. Über welche Kanäle stellt man die Daten der Öffentlichkeit zur Verfügung?

Es ist inzwischen Konsens, „proprietäre“ Datenformate zu vermeiden. Offen gelegte und weit verbreitete Datenformate wie ASCII, tiff oder jpeg sind in der Diskussion längst Selbstverständlichkeiten. XML ist als Metagrammatik, die es uns erlaubt Daten dokumentnah und zugleich in einiger Komplexität zu strukturieren, zu einem ähnlichen Paradigma geworden, obwohl stark strukturierte Daten sehr wohl auch mit Hilfe von SQL offen archivierbar sind. Aber XML beschreibt semistrukturierte Daten und ist damit für historische Informationen besonders geeignet. XML hat noch einen weiteren Vorteil: XML-Daten werden gerne nach öffentlichen Standardsprachen gebildet. Das Textgestaltungsformat OpenDocument (ODF) ist zwar noch zu jung, um sich schon etablieren zu können, und muss deshalb hinter dem Nicht-XML-Format pdf zurückstehen. [10] Aber im geisteswissenschaftlichen Bereich sind andere XML-Schemata verbreitet und akzeptiert: Die Guidelines der Text Encoding Initiative (TEI) [11] oder die Encoded Archival Description (EAD). [12] Weitere sind in Entwicklung begriffen (wie zum Beispiel ein Standard zur Auszeichnung von Urkunden: Charters Encoding Initiative (CEI)) [13] oder stoßen in neue, noch völlig unreflektierte Bereich vor, wie die Historical Events Markup Language (HEML), die sich auf eine faktenorientierte Übersichtsdarstellung konzentriert. [14] Historikerinnen und Historiker sollten sich der Diskussion um solche Standards stellen, denn sonst drohen sie, in die Modelle von Sprachwissenschaftlern und Bibliothekaren gezwungen zu werden. Ein Bereich könnten hier vielleicht auch die von Manfred Thaller 2003 beschriebenen „Digital Autonomous Cultural Objects” (DACO) sein, deren spezifisch historische Eigenschaften festzulegen wären. [15] Auf jeden Fall stehen auch jetzt schon akzeptierte und offen dokumentierte Standards zur Verfügung, so dass zumindest der Datenaustausch problemlos gestaltet werden könnte.

Auch der Kanal, über den diese digitalen Daten ausgetauscht werden, ist eigentlich kaum noch strittig: Das Internet hat die Diskussionen über die Haltbarkeit von CD-ROMs oder über den Wechsel der Diskettenformate beendet – und die Diskussion über die Langfristarchivierung den Institutionen – den Bibliotheken, Archiven und Rechenzentren – zugewiesen. Das Internet ist der gegebene Kanal für die Verbreitung der Daten. Für die Frage der Konvergenz bedeutet das, dass die Daten über die dem WWW zu Grunde liegenden Protokolle zugänglich wären. Die Möglichkeiten, zwar in offenen Formaten zu archivieren, in proprietären oder zumindest nur schwer weiterzuverarbeitenden Formaten wie kennwortgeschützten PDF-Dateien zu veröffentlichen oder sie hinter einem Zugriffsschutz zu verbergen, werden aber ebenfalls genutzt. Dagegen wäre es zu bevorzugen, die digitalen Quellenrepräsentationen nicht nur in offenen Datenformaten zu speichern, sondern die Daten auch clientgesteuerten Lesevorgängen zugänglich und schematisch ansprechbar zu machen, so dass Metadatenprovider, gemeinsame Portale oder weiter verarbeitende Dienste auf die Daten zugreifen können (zum Beispiel nach den Standards der Open Archives Initiative - Protocol for Metadata Harvesting [16] ). Die einzelnen Objekte sollten, wie aus der Druckwelt gewohnt, mit Hilfe von kanonischen Referenzen in der Art von „MGH DD F.I. 218“ ansprechbar sein. [17] Erst dann erscheint die Vision vom „KVK für Quellen“, das heißt einem Institutionen übergreifenden Nachweisinstrument ebenso realistisch wie eine angebotsübergreifende Volltextsuche. [18] Gerade letzteres ist ein zentrales Desiderat für die historische Interpretation der Quellen.

Wie verändert sich das historische Arbeiten durch die Digitalisierung von Quellencorpora?

Die digitalen Repräsentationsformen von Quellen verändern nicht nur die Arbeit an den Quellen selbst, sondern auch die Forschung auf der Grundlage der Quellen.

Inhaltlich

Nur eines der vorgestellten Projekte kann vielleicht von sich behaupten, ein gänzlich neues Forschungsfeld überhaupt erst zu begründen: monasterium.net integriert nämlich einen historischen Raum, der durch nationale Grenzen – und bis zum Fall des eisernen Vorhangs sogar Grenzen ganzer Staatenblöcke – fragmentiert war. Die klösterliche Kultur Ostmitteleuropas ist schließlich keine nationale gewesen: Die Verbindungen zwischen den Zisterzienserklöstern des Raumes beruhten auf Filiationen, nicht auf politischen Grenzen. Das Projekt hat also einen historischen Raum redefiniert, der neu zu erforschen ist.

Methodik

Am stärksten verändern digitale Quellenrepräsentationen die Forschungsmethodik: Dabei ist an den Nutzen in der Forschungspragmatik nur deshalb zu erinnern, damit er nicht als Banalität missverstanden wird: Quellen im Netz erleichtern dem Forscher die Arbeit ungemein, wenn er 7 Tage in der Woche 24 Stunden von überall in Sekundenschnelle auf die Quellen zugreifen und diese sammeln, nachprüfen, weiter verarbeiten und in seine Publikationen einfließen lassen kann.

Quellen im Netz betreffen aber auch die „echte“ Forschungsmethodik, das heißt sie lösen nicht nur pragmatische Probleme der Forschung sondern beeinflussen auch die Wahl der Analysekriterien und die Auswertungsmethoden: Die Geschwindigkeit des Zugriffs stärkt eine in der modernen Geschichtsforschung eher untergenutzte Methode: die Statistik. Der Siegeszug der Kulturgeschichte hat die Gruppe von Historikern, die die verbreitete Abneigung gegen „trockene“ Zahlen teilen, wohl wachsen lassen. Die digitale Repräsentation von Quellen wird nun einen solchen Trend nicht brechen und die statistischen Jahrbücher nicht zur zentralen Quelle der Geschichtsforschung machen. Sie wird viel mehr Häufigkeiten von Quellenaussagen und ihren Anteilen an einer Grundgesamtheit alleine deswegen wieder einen gewissen Stellenwert verschaffen, weil sie leicht zu ermitteln sind und sie also zu einem ebenso leicht überprüfbaren Argument werden, wie es das direkte Quellenzitat ist.

Das beruht auf einer Eigenschaft digitaler Quellenrepräsentationen, die auch für qualitative Auswertungen gilt: Die ungeheuren Materialmengen, die einerseits durch elektronische Tools überhaupt edierbar geworden sind, können andererseits mit Suchbefehlen schnell wieder auf ein bearbeitbares und auf die Fragestellung zugeschnittenes Maß reduziert werden. Der elektronische Volltext ermöglicht darüber hinaus analysierende und interpretierende Operationen, die man unter dem Stichwort „Text-Mining“ zusammenfassen könnte: Dabei geht es nicht nur darum, passende Dokumente zu einem Suchwort zu ermitteln („Information retrieval“) oder Fakten aus Texten zu extrahieren, sondern in den Texten enthaltene Informationen explizit zu machen. [19] Es geht also darum, sprachliche Merkmale der Quellen so mit einander in Beziehung zu setzen, dass historische Erkenntnisse daraus gewonnen werden können. Die eine digitale Quelle (zum Beispiel ein historiografischer Text) kann damit die Hinweise liefern, die eine andere digitale Quelle (zum Beispiel eine Karte) verständlich macht.

Bei vielen Projekten zur Digitalisierung von Quellen stehen jedoch nicht die Volltexte am Anfang, sondern Bilder. Die Bilderfeindlichkeit der älteren historischen Forschung hat zunächst etwas mit der philologischen Tradition der Geisteswissenschaften zu tun. Hinzu kamen die hohen Kosten der Bildreproduktion, also historisch-technische mediale Bedingungen. Es kann nicht verwundern, dass die Interpretation bildlicher Quellen bzw. die Auswertung von bildlichen Eigenschaften der Quellen mit dem Siegeszug der digitalen Reproduktionstechniken einen immensen Aufschwung genommen hat. [20] Die Beiträge der Sektion haben gezeigt, dass die digitale Bildrepräsentation aber auch inhaltliche Möglichkeiten bietet, die über die reine Fotografie hinaus gehen: Bilder und Bildbereiche können direkt mit sachlichen Erläuterungen versehen werden, das heißt die digitale Quellenrepräsentation von Bildquellen ermöglicht eine kritische Annotation der Bilder wie sie in Texteditionen schon lange Standard ist, deren Bedarf bei Bildern aber erst durch die Diskussion um die Bilder der Wehrmachtsausstellung deutlich geworden ist. [21] Digitale Bildedition macht so kritische Bildinterpretation öffentlich und nachvollziehbar. Sie ist eine wirklich multimediale Quellenrepräsentation, die Sachinformation, Text und Bild direkt einander zuordnet.

Fazit

Digitale Quellenrepräsentationen verlieren ihre traditionellen, von institutioneller und medialer Logik vorbestimmten Grenzen. Im Verarbeitungsprozess entstehen neue Grenzen, die nichts mit der sachlichen Logik der Quelle selbst zu tun haben müssen. Diese Grenzen sind unscharf und können durch technische Lösungen überwunden werden, die den Austausch der Ergebnisse erleichtern. Dazu sind viele Technologien schon entwickelt, fachspezifische hat die Historikerzunft aber noch wenige zu bieten. Digitale Quellenrepräsentationen wirken derzeit auf die Forschung vorrangig methodisch: Bilder können kontrolliert als Sachaussagen interpretiert werden. Das Volumen verarbeitbaren Materials nimmt zu. Die Vielschichtigkeit der Quellen wird transparenter. Die Informationen aus unterschiedlichen Quellen vernetzen sich. Inhaltlich scheint die digitale Quellenrepräsentation zunächst einer Globalisierung des historischen Bildes förderlich. Weder aus der Multimedialität der digitalen Quellenrepräsentation noch aus den informationswissenschaftlichen Modellen ihrer Erschließung haben sich bislang durchweg neue Fragestellungen ergeben, die bislang unbekannte historische Forschung provoziert hat. Das aber kann sich noch ändern ...

***

Patrick Sahle M.A. ist Wissenschaftlicher Mitarbeiter an der Staats- und Universitätsbibliothek Göttingen, Laufende Projekte: Zentrales Verzeichnis Digitalisierter Drucke (zvdd), Online-Portal digitalisierter Kulturgüter Niedersachsens (OPAL). Arbeitsschwerpunkte: Digitale Quellenerschließung und -edition, Geisteswissenschaften und Neue Medien, Texttheorie.E-Mail: sahle@sub.uni-goettingen.de

Dr. Georg Vogeler ist Wissenschaftlicher Assistent an der Ludwig-Maximilians-Universität, Historisches Seminar, Abteilung Geschichtliche Hilfswissenschaften; Arbeitsschwerpunkte: Amtsbücherkunde, Quellendigitalisierung, Digitalisierung von mittelalterlichen und frühneuzeitlichen Urkunden (CEI), Überlieferung der Urkunden Kaiser Friedrichs II.E-Mail:g.vogeler@lrz.uni-muenchen.de


[1] Siehe hierzu den Beitrag in „Kommunikation und Recht“ 2006, Heft 1, S. 46-48. Das Urteil online auf den Seiten des Oberlandesgerichts unter <http://www.jurpc.de/rechtspr/20050121.htm> (06.08.2006).

[2] Derzeit archiviert unter <http://www.uni-koeln.de/~ahz26/dateien/maalt/mahomepageunix.html> (06.08.2006).

[3] Vgl. zu den Beiträgen der Sektion die Aufsätze in diesem Band.

[4] <http://www.monasterium.net> (20.02.2006).

[5] <http://www.utoronto.ca/deeds/research/deeds_project.html> (21.02.2006).

[6] <http://www.bundesarchiv.de/kabinettsprotokolle/> (06.08.2006).

[7] <http://www.monasterium.net> (20.02.2006).

[8] Vgl. Patrick Sahle, Urkunden-Editionen im Internet – Einführung und Überblick, in: Archiv für Diplomatik 52 (2006). Eine ähnliche Sicht bei Georg Vogeler: Towards a standard of encoding medieval charters with XML, in: Literary and Linguistic Computing 20 (2005), S. 269-280.

[9] Ohne den Begriff zu gebrauchen, beschreibt Karsten Uhde, ein Pionier der Verwendung des Internets für die Archive, in seinem Beitrag: Urkunden im Internet - Neue Präsentationsformen alter Archivalien, in: Archiv für Diplomatik 45 (1999), S. 441-464, die Prozesskette „Archiv->Regest->Edition->Forschung“.

[10] <http://www.oasis-open.org/committees/tc_home.php?wg_abbrev=office> (20.02.2006).

[11] <http://www.tei-c.org> (20.02.2006).

[12] Encoded Archival Description (EAD). Official EAD Version 2002 Web Site <http://www.loc.gov/ead/>, (20.02.2006).

[13] <http://www.cei.lmu.de> (20.02.2006).

[14] Bruce Robertson: Introduction to Heml, 2000-2004 <http://heml.mta.ca/heml-cocoon/description> (20.02.2006).

[15] Vgl. Thaller, Manfred, 'Historische Fachinformatik'. Ein Kölner Modell, in: Burckhardt, Daniel; Hohls, Rüdiger; Ziegeldorf, Vera (Hgg.), Geschichte und Neue Medien in Forschung, Archiven, Bibliotheken und Museen. Tagungsband .hist 2003 (Historisches Forum 7,1), Berlin 2005, S. 45-72.

[16] <http://www.openarchives.org> (20.02.2006).

[17] Vgl. den unpublizierten Beitrag von Bernhard Assmann auf der Tagung „A DTD for Medieval Charters“, München 2004, vgl. Vogeler, Georg, Ein Standard für die Digitalisierung mittelalterlicher Urkunden. Bericht zum Workshop (München 5./6. April 2004), in: Archiv für Diplomatik 50 (2004), S. 23-34.

[18] Vgl. dazu die Aktivitäten des Projektes DING: Heller, Markus; Vogeler, Georg, Modern information retrieval technology for historical documents, in: Humanities, Computers and Cultural Heritage : Proceedings of the XVIth international conference of the Association for History and Computing, Amsterdam 2005, S. 143-148 und <http://www.cis.uni-muenchen.de/~heller/Classes/ding/> (20.02.2006).

[19] Vgl. Mehler, Alexander, Textmining in: Lemnitzer, Lothar; Lobin, Henning (Hgg.): Texttechnologie. Perspektiven und Anwendungen. Tübingen 2004, S. 329-352.

[20] Vgl. z.B. Bruhn, Matthias; Borgmann, Karsten (Hgg.), Sichtbarkeit der Geschichte. Beiträge zu einer Historiografie der Bilder (Historisches Forum 5), Berlin 2005.

[21] Vgl. Schmidt-Neuhaus, Dieter: Die Tarnopol-Stellwand der Wanderausstellung 'Vernichtungskrieg - Verbrechen der Wehrmacht 1941-1944'. Eine Falluntersuchung zur Verwendung von Bildquellen, in: Geschichte in Wissenschaft und Unterricht 50 (1999), S. 596-603.


New Methods for the Analysis of Digitized Medieval Latin Charters

by Michael Gervers and Michael Margolin

Dramatic advances in information technology and significantly increased ease of access to the Internet have produced new and exciting research methods for historians. The DEEDS Project at the University of Toronto in Canada has built a corpus of about 9,000 securely dated medieval English charters which are accessible from the World Wide Web. This paper describes the application of advanced research and presentation methods to an analysis of scribal variations among a group of about 1,300, mostly undated, medieval Latin charters from The Cartulary of the Knights of St. John of Jerusalem in England. Research methods include a wide array of computerized textual analyses: full and segregated content searches, inline phonetic transformations, computational geometric representations, statistical processing of results, and the interactive graphical interpretations of those results.

***

Records of property transfer are as ancient as writing itself. Consequently, the deed, or conveyance, represents the most continuous form of legal documentation available to the historian. The current objective of the DEEDS Project, founded at the University of Toronto in 1975, is the provision of computerized access to the content of English conveyances of the twelfth and thirteenth centuries. [1] Our main priority at the moment is to develop the means to provide dates for private charters, 92 per cent of which, from the time of William the Conqueror in 1066 to the accession of King Edward II in 1307, were issued without chronological indicators. [2] The questions which can be addressed through the content of our databases are limitless, but to give a few examples of our research directions in recent years we may cite the following: 1) a study of the donations to the twelfth-century Order of the Hospital of St. John of Jerusalem which led to the conclusion that the Order became militarized in response to the fall of Edessa in 1144 and the call for the Second Crusade in 1145 [3] ; 2) changing forms of address appearing in grants to the Hospitallers in England during the twelfth and thirteenth centuries, which closely reflect the nature and degree of the Order’s presence in, or absence from, the Holy Land [4] ; 3) the relative growth of the estates of the military orders in London and its suburbs from the twelfth to fourteenth centuries [5] ; and 4) evidence of social unrest in England under the Interdict (1208-1214). [6] We are presently researching means to identify the medieval English scribe of the late twelfth through thirteenth centuries as an author.

Our Corpus of digitized medieval charters was started a decade ago using the Oracle version 5 database running on a 386-33 PC. At that time we had a set of seven main tables, namely DOCUMENT, PERSON, PROPERTY / COMPENSATION, LEASE, RELATION, LINKAGE and ROLE, with a variety of supporting code tables. [7] Encoding information was achieved at the data-entry level by means of a linguistically based coding ‘language’. Three types of ‘sentences’ were used to describe connections between people, property, and people and property. Actions, tense, number and mode were similarly coded. It worked very well for the time.

However, today, the DEEDS Corpus, together with metadata, is hosted by the latest Oracle database and is widely available on the World Wide Web. [8] The Corpus presently includes two groups of Latin charters, mainly from twelfth- and thirteenth-century England, derived either from printed sources or transcribed directly from the manuscripts (Figure 1).

Figure 1: Charter Source: Manuscript

The first group, of about 9,500 charters, has been dated internally or by the editor of the manuscript, using internal evidence (Figure 2).

Figure 2: Charter Source: Published Cartulary Copy

Figure 3: Digital Representation of Medieval Charter

The second group, of about 1,300 mostly undated charters, comes from The Cartulary of the Knights of St. John of Jerusalem in England (British Library, Cotton ms. Nero E vi). [9] In the computer, they are stored independently, but both groups are available for computerized analyses. Each charter is stored in digitized form, together with a photographic image of the original printed version, or of the manuscript itself. The text and any accompanying information is extracted from the original source by scanning, using the Optical Character Recognition Program (OCR) or by transcription directly from the manuscript. We have developed a program which we call “Document Manager” to convert the text of the charter, and all external and analytical data, into an Extensible Markup Language (XML) document which is later sent to the database (Figure 3). Each document stored in the database is the source for the searchable online version of that charter in Hyper Text Markup Language (HTML).

There are several ways to access DEEDS digitized data:

  1. Remotely: over the Internet, using File Transfer Protocol (FTP), connecting directly to the DEEDS database server, using Dedicated Web Services
  2. Locally: from workstations that have DEEDS applications installed on their hard drive.

Charters may be viewed over the Internet using the “Browse” option on the DEEDS Website. This will start the “Document Browser” (Figure 4) program which allows one to select the text of a particular charter, view the original source, and the title page of the printed edition. The source cartulary can be chosen by name or by its internal code. In addition, the “Document Browser” displays the diplomatic parts of the charter and formulae, marked up according to a predefined color legend.

Figure 4: Document Browser

A second online program permits textual queries to be directed to the chosen collection of charters. This can be started from the DEEDS website by selecting the “Search” option. This program supports exact, fuzzy and proximity text patterns. There are also multiple options for further refining the query by specifying meta data restrictions, such as the nature of the charter, the time span, the source of the text, the principal individuals appearing in it, etc. The program spans two panels. The first displays query restrictions while the second renders a search result in one of the three available modes:

  • „Search“,
  • „Context“,
  • „Chart“.

When the “Search” mode is selected, the lower panel will display a list of charters together with their dates. Any charter from this list can be viewed with a highlighted query term (Figure 5). The same view also allows one to find a word or phrase in the current document.

Figure 5: Query Term Search

When the “Context” mode is selected, each query term will be shown within its context. The context boundaries can be expanded from three words before and after the queried pattern, up to a maximum of ten words. These context words can be alphabetized independently, starting from the word nearest to the query term and moving either forwards or backwards (Figure 6).

Figure 6: Query Term Context

Figure 7: Graphical Output

When the “Chart” mode is selected the lower panel will display a graphical representation of the query using Scalable Computer Graphics (SVG) format. SVG is an XML dialect and therefore is portable across different hardware platforms and operating systems. An additional advantage of SVG is that all graphics can be scaled to any degree without loss of image quality and direct user interaction is allowed (Figure 7). There is also one more advanced option called “Alternative Spelling”. When this option is enabled some common spelling variations, like double consonants, are removed.

We have recently successfully applied our online facilities to explore scribal references in The Cartulary of the Knights of St. John of Jerusalem in England, in an attempt to identify authorship, or “schools” of writing (Figure 8).

Several more programs have been developed to work with digitized charters but, for now, they are only accessible from the DEEDS departmental workstations. We use these programs for the maintenance of digitized documents and for performing chronological and content-driven textual analysis. However, it is our intention to make those programs also accessible remotely over the Internet.

Figure 8: Hospitaller Cartularies Scribal References

We use a set of securely dated charters to draw any quantitative conclusions with respect to chronology or content. Obviously, the number of dated charters available for each time span varies, as does the accuracy of the chronological evidence, which varies from the exact day, month and year to a range of several years. To overcome discrepancies in chronological attributes, we have developed a method of normalizing chronological information in order to facilitate computer-aided analyses.

We convert the attributed date to the Julian calendar and then apply a special computer program to analyze the availability of charters over a given time span (in our case from 1050 to 1359). This program breaks up the total chronological span into periods when approximately equal numbers of dated charters are available. An index of this computer-generated period (henceforth referred to as a “tile”) is subsequently assigned to each charter. The tile value is later used as a proxy for the original date in all statistical computations. The size of the tile can vary from just one day to several years, while the number of charters referenced remains almost unchanged. The tile number assigned to the charter is automatically updated when charters are added to, or removed from, the collections. Both the actual and normalized availability of our first group of charters is shown in Figure 9.

We can apply computer-aided analysis to the charter text in order to evaluate the chronology and content. Since this is an official legal document written or issued by a religious, lay or royal institution, inevitably its vocabulary, structure and content reflect the time of its creation and also carry the “footprint” of the issuer. The core of our approach is that, by analyzing different aspects of the text, a link can be established between the given text and a set of similar charters whose attributes are known. The fact that all digitized charters are well attributed and are linked to a significant amount of meta data allows us to conduct computerized textual analyses from different angles, using the meta data for filtering information. This meta data includes elements such as: the type of legal action documented, information about the parties represented in the charter, details concerning the place of issue and locations, the name of the scribe, etc. One of its most important features is identification of the different diplomatic parts and any content-related formulae in the text of the charter. This information, which is currently available for about 50 per cent of our charters, can be accessed under the “Browse” option on our website menu.

Figure 9: DEEDS Corpus Charters

The examination of vocabulary involves extracting combinations of two or more adjacent words, so-called “word-patterns”, in consecutive order from the text of the charter and then finding occurrences of each pattern in a collection of digitized charters. The total number of valid word-patterns derived from a typical charter varies from hundreds to thousands, depending on the size of the text. All attributes of charters in which a given query term occurs are collected and later processed by the computer program. Depending on the circumstances, word-patterns can be generated in three different ways:

  • from the original text
  • from the partially normalized text
  • from the fully normalized text.

Normalization of the text (Figure 10) can include lexical transformations, phonetic transformations, or both. Partial normalization involves lexical transformation and includes the replacement of most Roman and Arabic numerals, prepositions, definite articles and measurement units by a one-letter proxy in the text of the document. Full normalization adds phonetic transformation by further replacing words by a phonetic proxy. We tested different phonetic matching algorithms [10] and eventually decided to use the modified version of the Lawrence Philips' Double Metaphone algorithm for the phonetic transformations (Figure 11). [11]

Figure 10: Original Text

Figure 11: Transformed Text

Figure 12: Word-Pattern Frequencies Over Time

We process the results that are returned by word-pattern queries in separate flows, depending on their nature, amount and quality:

  1. When a word-pattern produces more than 25 hits, each such distribution is evaluated independently.
  2. When a word-pattern produces between one and 25 hits, results are first tabulated using all those of the same number and later evaluated using one for each word-pattern size.
  3. All word-patterns which produce a single hit are accumulated and processed just once at the end of the process.

We accumulate intermediate results at various stages of the processing. All intermediate and final computations are performed by the integrated Statistical Engine (Figure 12).

Frequently, when word-patterns generate multiple hits, they produce a distribution with peaks in multiple clusters. In this case the correct local distribution can be chosen by using results produced by the other two flows (Figure 13). The addition to the program of an industrial strength statistical engine has enabled us greatly to improve the quality of calculations through all stages of word-pattern processing. We apply Robust Statistical Routines and Fibonacci ratios base weighting to achieve our final results. An example of output (Figure 14) shows the accuracy of our fully-automated chronological evaluation of a sample of 100 charters using original word-patterns.

Figure 13: Local Distribution

Figure 14: Charter Chronological Evaluations Test

Using computer-generated geometrical content footprints during charter analysis appears to be a promising way of comparing charter content. According to this method, original text is converted to digital form by replacing each letter, including spaces, by their arithmetic ASCII value. After that, the program computes the frequencies of each value. At the next stage, a Computational Geometry program treats frequency/character value pairs as objects of virtual two-dimensional space. Later the program extracts a series of convex polygons (called “convex hulls”) starting with the largest, using Onion Peeling Algorithms. [12] The smallest hull generated by the program is the one eventually used for a content representation of the text. Generally speaking, an overlap of hulls generated from different charters reflects the similarity of their content (Figure 15). The current implementation of our program for content footprint evaluation uses the latest release of the Computational Geometry Algorithms Library (CGAL). [13]

Figure 15: Geometrical Content Footprint

To sum up, this paper has introduced the DEEDS Project approach to the textual analysis and management of a collection of digitized Medieval Latin charters. All our digitized documents are encoded using XML and, although we use our own naming rules for XML elements and attributes, the structure of encoded charter documents can easily be exported to such encoding systems as the Text Encoding Initiative (TEI) and the emerging Charter Encoding Initiative (CEI). [14] We have developed a different technical approach to encoding the metadata and physical placement of the Markup Language tags into the text. At the storage level, we store separately an original text of the charter, encoding information and meta data information. Generally speaking we use dynamic encoding as an alternative to the more commonly used static system. This means that our system is capable of generating a variety of statically encoded documents in response to a specific client request. By employing dynamic encoding we have also eliminated the problem of overlapping markup elements. [15]

We have also discussed how we apply new methods to vocabulary and content analyses of Medieval Latin texts using “word-patterns” and Computational Geometry. Tight integration of a Statistical Engine into the process has allowed us to improve significantly the accuracy and reliability of our output results, and the use of analytical online tools like our “Browse” and “Search” programs can greatly facilitate the research. The application of Scaleable Vector Graphics as an alternative to commonly used Bitmap pictures has improved considerably the quality of graphical information available to Internet users.

For the future, we see great potential in the further development of word-pattern frequency analyses by using multiple mutually independent data flows. As we are always dealing with inexact statistical data, the search for alternative statistical methods remains one of our main priorities. We are currently working on the integration of the vocabulary and content evaluation tools into our website and we continuously seek to improve its appearance and functionality.

***

Michael Gervers is Professor of History at the University of Toronto. His research interests include medieval diplomatics, codicology, palaeography, chronology, charter analysis, textual editing and the dating of medieval documents. E-Mail: gervers@chass.utoronto.ca

Michael Margolin is Recearch Programmer at the DEEDS Project, University of Toronto. His research interests are quantitative analyses and digitization of medieval charters for the purpose of establishing chronological and authorship attribution. E-Mail: m.margolin@utoronto.ca


[1] Gervers, Michael, The DEEDS Project: Towards the dating and analysis of English private charters of the twelfth and thirteenth centuries, in: Le Médiéviste et l'Ordinateur 41 (2002), S. 60-66. The internet version can be consulted at <http://lemo.irht.cnrs.fr/41/mo41_07.htm> (12.10.2006). See also, Michael Gervers, “The Deeds Project and the Development of a Computerised Methodology for Dating Undated English Private Charters of the Twelfth and Thirteenth Centuries”, in: Michael Gervers (Hg.), Dating Undated Medieval Charters, Rochester–Woodbridge 2000, pp. 13-35; Fiallos, Rodolfo “An Overview of the Process of Dating Undated Medieval Charters: Latest Results and Future Developments”, in: idem, pp. 37-48.

[2] Gervers, Michael, “The Dating of Medieval English Private Charters of the Twelfth and Thirteenth Centuries”, in: Brown, Jacqueline; Stoneman, William P. (Hgg.), A Distinct Voice. Medieval Studies in Honor of Leonard E. Boyle, O.P., Notre Dame (Indiana) 1997, S. 455-504; idem, “Identifying Irregularities and Establishing Chronology in Medieval Charters”, in: Keats-Rohan, Katharine S.B. (Hg.), Resourcing Sources (Prosopographica et genealogica 7), Oxford 2002, S. 164-78.

[3] Gervers, Michael, “Donations to the Hospitallers in England in the Wake of the Second Crusade”, in: Gervers, Michael (Hg.), The Second Crusade and the Cistercians, New York 1992, pp. 155-61.

[4] Gervers, Michael, “Changing Forms of Hospitaller Address in English Private Charters of the Twelfth and Thirteenth Centuries”, in: Laszlovszky, József; Hunyadi, Zsolt (Hgg.), The Crusades and the Military Orders: Expanding the Frontiers of Medieval Latin Chritsianity, Budapest 2001, pp. 395-405.

[5] Gervers, Michael, “The Commandery as an Economic Unit in England”, in: Luttrell, Anthony; Pressouyre, Léon, La Commanderie, Institution des orders militaries dans l’Occident médiéval, Paris 2002, pp. 245-50.

[6] Gervers, Michael and Nicole Hamonic, “Pro Amore Dei: Diplomatic Evidence of Social Conflict During the Reign of King John”, in: Papers in honour of James A. Brundage. Publication anticipated in 2007.

[7] Gervers, Michael; Long, Gillian; McCulloch, Michael, “The DEEDS Database of Mediaeval Charters: design and coding for the RDBMS ORACLE 5”, in: History and Computing, 1 no. 3 (1990), pp. 1-12.

[8] <http://www.utoronto.ca/deeds/research/research.html> (01.10.2006).

[9] Gervers, Michael, The Hospitaller Cartulary in the British Library (Cotton MS Nero E VI). A Study of the Manuscript and its Composition, with a Critical Edition of Two Fragments of Earlier Cartularies for Essex, Toronto 1981; idem, The Cartulary of the Knights of St. John of Jerusalem in England: Essex, 2 vols., London 1982-96.

[10] Zobel, Justin; Dart, Philip, Phonetic String Matching: Lessons from Information Retrieval, <http://goanna.cs.rmit.edu.au/~jz/fulltext/sigir96.pdf> (12.10.2006).

[11] Philips, Lawrence, The Double Metaphone Search Algorithm, C/C++ Users Journal, June 2000,, <http://www.ddj.com/dept/cpp/184401251> (12.10.2006).

[12] Poulus, Marious; Papavlasopoulos, Sozon; Chrissilopoulos, Vasilious, A Text Categorization Technique based on a Numerical Conversion of a Symbolic Expression and Onion Layers Algorithm, in: Journal of Digital Information, 6/1 (2004), article no. 276.

[13] Computational Geometry Algorithms Library (CGAL), <http://www.cgal.org> (01.10.2006).

[14] Vogeler, Georg, Towards a standard of encoding medieval charters with XML, in: Literary and Linguistic Computing 20 (2005), S. 269-280.

[15] Gervers, Michael, “Application of Computerized Analyses in Dating Procedures for Medieval Charters”, in: Le Médiéviste et l’Ordinateur 42 (2003), S. 7-25. Co-authored with Michael Margolin.


Das Monasterium-Projekt – Ein Beispiel für kollaborative und inkrementelle Editionen

von Karl Heinz

Es ist die Absicht der folgenden, auf einem Vortrag auf der Berliner .hist 2006 Tagung basierenden Darstellung, das Monasterium-Projekt in seinen grundsätzlichen Strukturen vorzustellen und die Verwertungsmöglichkeiten der Projektergebnisse aufzuzeigen. Im Einzelnen kommen dabei die grundsätzlichen Ziele des Monasterium-Projekts zur Sprache, wobei die Darstellung der projektinternen Arbeitsweise eine Art Werkstattbericht geben wird. Neben diesen Grundlagen wird die Vereinigung des Monasterium-Konsortiums vorgestellt und in einem weiteren Punkt die verbesserten und neuen Forschungsmöglichkeiten für die Geschichtswissenschaft verdeutlicht. Zuletzt wird noch ein Ausblick auf die kommenden zwei bis drei Jahre versucht, indem die Perspektiven des Monasterium-Projekts erörtert werden.

***

Einleitung

Die Erfahrungen der letzten Jahrzehnte haben gezeigt, dass klösterliche Urkundenbestände – sei es in Österreich oder in anderen Staaten Europas – zwar vorhanden, für eine intensive wissenschaftliche Nutzung aber nur in ungenügendem Ausmaß vorbereitet sind. Die Gründe dafür sind mannigfaltig. In vielen Klosterarchiven sind Behelfe wie Findbücher oder Repertorien Mangelware. Wenn diese vorhanden sind, dann verfügen sie über ein ansehnliches Alter. Die Personalstruktur und die budgetäre Lage der Klöster sind ebenfalls nicht dazu geeignet, einen regelmäßigen Benutzerdienst zu installieren. Ein Besuch in Klosterarchiven muss meist von langer Hand vorbereitet werden, sofern das Archiv nicht überhaupt für die öffentliche Nutzung gesperrt ist. Hinzu kommt, dass oft gut ausgebildetes Personal fehlt.

Ziele des Monasterium-Projekts

Angesichts der großen historischen Bedeutung des in Frage stehenden Archivmaterials möchte das Monasterium-Projekt hier Abhilfe schaffen; im Einzelnen hat es sich folgende Ziele gesetzt: Grundsätzliche Absicht ist die Digitalisierung mittelalterlicher Urkundenbestände geistlicher Provenienz sowie die wissenschaftliche Aufbereitung derselben unter Schaffung einer umfassenden und recherchierbaren Datenbank. Die einzelnen Digitalisate werden mit den entsprechenden Metadaten verknüpft und über die Monasterium-Seite [1] im Internet publiziert. Das sichtbare Ergebnis der Bemühungen ist die Schaffung eines kostenfreien und möglichst benutzerfreundlichen Zugangs zu dieser erwähnten Form des historisch-kulturellen Erbes. In einer ersten Projektstufe waren es die Bestände der Stifte und Klöster des Landes Niederösterreich, welche – gleichsam als ein Pilotprojekt – zwischen den Jahren 2002 und 2005 aufgearbeitet worden sind.

Abwicklung und Finanzierung

Zur organisatorischen und fachlichen Abwicklung des Projekts wurde im Jänner 2002 das Institut zur Erschließung und Erforschung kirchlicher Quellen (IEEkQ) als Trägerverein des Projekts mit Sitz in St. Pölten gegründet. [2]

Abbildung 1: Startseite von Monasterium.net

Die erste Stufe des Monasterium-Projektes ist auf drei Jahre (Mitte 2002 bis Mitte 2005) anberaumt worden, wobei sich die finanziellen Mittel einerseits aus den Beiträgen aus öffentlicher Subventionierung andererseits aus den Zahlungen der Ordensstifte Niederösterreichs und Wiens zusammensetzten. Zu den Geldgebern der öffentlichen Hand gehören das Bundesministerium für Bildung, Wissenschaft und Kultur (BMBWK), das Kulturamt des Landes Niederösterreich, die Stadt Wien, die Landeshauptstadt St. Pölten, die Stadtgemeinde Ybbs, die Stadtgemeinde Geras, die Marktgemeinde Schönbühel-Aggsbach, und die Marktgemeinde Heiligenkreuz. Neben diesen Körperschaften steuerten auch die noch bestehenden Stifte und Klöster Niederösterreichs ihren Anteil bei. Es handelte sich um die Benediktinerabtei Altenburg (NÖ), das Prämonstratenser-Chorherrenstift Geras (NÖ), das Benediktinerstift Göttweig (NÖ), das Zisterzienserstift Heiligenkreuz (NÖ), das Augustiner-Chorherrenstift Herzogenburg (NÖ), das Augustiner-Chorherrenstift Klosterneuburg (NÖ), das Zisterzienserstift Lilienfeld (NÖ), das Benediktinerstift Melk (NÖ), die Benediktinerabtei Schotten (W), das Benediktinerstift Seitenstetten (NÖ) und das Zisterzienserstift Zwettl (NÖ).

Arbeitsweise

Integration und Vernetzung bereits bestehender Informationen

In einem ersten Arbeitsschritt wurden bereits bestehende Urkundeneditionen, sei es im Volltext oder als Regest, eingescannt und mittels einer Optical Character Recognition (OCR) Software in eine Textdatei konvertiert. Es dauerte ungefähr ein halbes Jahr (Juli bis Dezember 2002), bis das verwendete Programm ABBYY FineReader [3] durch eine Vielzahl an Tests die Retrokonversion mit einer Fehlerquote von unter einem Prozent bewerkstelligen konnte. Die so gewonnenen Texte wurden einem gründlichen Lektorat unterzogen, um die verbliebenen Fehllesungen zu eliminieren. Es hat sich gezeigt, dass ein großer Teil der Lesefehler, die nach der Konversion verblieben sind, auf Unschärfen und Unsauberkeiten im Druck zurückzuführen waren und immer ähnliche Buchstabenkombinationen betroffen haben. Nach diesen Fehlern konnte maschinell gesucht werden, was eine große Zeitersparnis bedeutete.

Kodierung

Der nächste Schritt betraf die Vorbereitung der Texte für das World Wide Web. Um die Texte auch im Internet darstellbar zu machen, wurden sie mit HTML-Markierungen versehen. Diese Markierungen beschränkten sich auf die Kennzeichnung von Originalschreibweisen (<i>) und von Superskripten (<sup>). Diese Auszeichnungsarbeit konnte zum Teil automatisiert unter Zuhilfenahme der Software Lotus Word Pro durchgeführt werden, wobei allerdings auch hier ein sorgfältiges Lektorat unentbehrlich war. Die so korrigierten und präparierten Texte werden nun in eine Datenbank gespielt, wobei die Inhalte von Hand in die entsprechenden Felder der Datenbankmaske kopiert wurden.

Indizierung

Besonders wichtig für die Benutzbarkeit des im Monasterium-Projekt bereitgestellten Materials ist, dass die Urkunden auch über einen Index erschließbar sind. Sinn der Indizierung ist es, die Recherchemöglichkeiten nicht nur auf die Volltextsuche zu beschränken, sondern ein Hilfsmittel beizusteuern, das genauere Abfragen ermöglicht. Jede einzelne Urkunde wird mit einem Indexbestand versehen, wobei die Indexbegriffe sechs Hauptgruppen zugeordnet werden. Diese Gruppen umfassen die Orts- und Personennamen, Sachbegriffe, Stifte und Klöster, Pfarrkirchen, Pfarren und Topografisches. Jeder Indexeintrag besteht aus einem Haupt- und einem Unterindexfeld. Im Hauptfeld wird der Begriff zunächst in der Originalschreibweise der Urkunde erfasst. Im Unterfeld erfolgt dann eine Spezifizierung des Begriffes. Im Fall von Orten werden diese identifiziert und die Ortsnamen aufgelöst. Die Zuordnung der Orte wird durch die Zuweisung zu einem bestimmten Gerichtsbezirk eindeutig ausgewiesen. Personennamen werden der modernen Schreibung entsprechend standardisiert. Allgemein bekannte Persönlichkeiten, wie Kaiser/Könige, Herzöge, Päpste, Bischöfe, Äbte etc. werden zusätzlich mit ihrer Funktion (Titel) und ihren Eckdaten versehen. Positionen wie Aussteller/innen, Empfänger/innen, Siegler/innen oder Zeugen/innen werden im Speziellen als solche gekennzeichnet, um nach ihnen gezielt suchen zu können. Dabei kann auch nach bestimmten personellen Kombinationen recherchiert werden, womit beispielsweise bestimmte Siegelpartnerschaften per Knopfdruck nachweisbar werden. Juristische Sachbegriffe werden im Unterindexfeld in ihrer Schreibung normalisiert und in kürzester Form erklärt.

Der große Vorteil der Indexrecherche liegt nun darin, dass man nach Begriffen suchen kann, die im Volltext nicht vorkommen. So ist es beispielsweise möglich, nach Orten mit ihrer heutigen Bezeichnung und nach Personen in ihrer modernen Namensschreibung zu suchen. Das Ergebnis bietet den Benutzern/innen gleichzeitig auch eine Mindestinformation über den gesuchten Begriff. Die Möglichkeit nach Originaltextstellen zu suchen bleibt natürlich unbenommen.

Neubearbeitungen

Eine Reihe von großen und wichtigen Beständen ist bis heute entweder ungenügend oder überhaupt nicht dokumentiert. In diesen Fällen ist das Monasterium-Projekt bestrebt, Neubearbeitungen in Form von Vollregesten zu erarbeiten. Klöster, die auf diese Art und Weise bearbeitet werden, sind das Benediktinerstift Melk, das Augustiner Chorherrenstift Klosterneuburg sowie das Zisterzienserstift Zwettl.

Bilddigitalisierung

Ein weiterer Projektschwerpunkt besteht in der Erstellung von farbigen Urkundendigitalisaten, welche mit Hilfe eines transportablen Scanners erstellt werden, da es ausgeschlossen war, die zu erfassenden Urkunden aus den Archiven zu entfernen. Die Urkunden wurden vor Ort in den jeweiligen Stiftsarchiven mit einer Auflösung von 400 dpi gescannt. Die Farbdigitalisate wurden als Masterfiles im TIFF-Format abgespeichert und dienten als Grundlage für alle weiteren Verwendungen. Aus diesen Masterfiles wurden zwei Qualitäten von JPEG-Bildern – eine hoch aufgelöste Form für die interne Verwendung und eine Variante mit niedrigerer Auflösung für die Darstellung im Netz – sowie Voransichtsbilder generiert. Diese Bilder wurden dann mit dem entsprechenden Datensatz verbunden, um sie gleichzeitig mit dem Text darstellbar zu machen.

Präsentation

Von Beginn an war ein Fokus des Projekts darauf gerichtet, mit seinem Angebot ein möglichst breites Publikum zu erreichen. Es erwies sich in diesem Zusammenhang als ausgesprochen förderlich, nach Absolvierung der oben angeführten Arbeitsschritte als letzte Stufe eine öffentliche Präsentation in den jeweils betroffenen Klöstern zu veranstalten. Bei diesen Gelegenheiten werden einerseits der Urkundenbestand vorgestellt als auch der praktische Umgang mit der Datenbank erläutert.

Das Monasterium-Konsortium

Schon kurz nach Projektbeginn führte der Einblick in die niederösterreichischen Urkundenbestände zu der Erkenntnis, dass die Aufarbeitung derselben nur ein erster kleiner Schritt sein konnte, dem noch mehrere Projektphasen zu folgen hätten. Es zeigte sich deutlich, dass die geistlichen Institutionen in ihren Beziehungen und Kontakten nicht nur die Grenzen des Landes, sondern auch die heutigen Staatsgrenzen Österreichs weit hinter sich ließen und Teil eines gut funktionierenden mitteleuropäischen Netzwerkes waren.

Aus diesem Umstand heraus wurde das Monasterium-Konsortium als eine lose Arbeitsgemeinschaft von Archiven, Bibliotheken, wissenschaftlichen Instituten und sonstigen Kulturerbe-Institutionen ins Leben gerufen. Alle diese Einrichtungen arbeiten gemeinsam an der Verwirklichung einer mitteleuropaweiten Urkunden-Datenbank, wobei dafür folgende vertraglich festgelegte Rahmenbedingungen gelten:

  • Entwicklung, Ausbau und Einhaltung gemeinsamer technischer und wissenschaftlicher Standards
  • Nutzung von Synergien und gemeinsamen Schnittstellen in den Bereichen Öffentlichkeitsarbeit, Projektmanagement, Marketing, Digitalisierung, Know-how etc.
  • Mehrsprachigkeit: gleichberechtigte Verwendung der Sprachen der Partnerstaaten – mehrsprachige Darbietung von Ressourcen (Texte, Indizes, Regesten)
  • Wahrung der Eigenständigkeit jeder einzelnen teilnehmenden Institution: Nutzung der Monasterium-Plattform soweit dies nötig ist unter Wahrung jeglicher Urheber- und Verwertungsrechte an den unter Monasterium.net bereitgestelltem Bild- und Textmaterialien.

Im Interesse der Wahrung einer möglichst großen Flexibilität jeder teilnehmenden Institution gibt es die Möglichkeit, auf verschiedenen Ebenen am Monasterium-Konsortium teilzunehmen:

  • Koordinator: Organisation und Vernetzung des Gesamtprojektes, Bereitstellung technischer und organisatorischer Infrastruktur (derzeit: Institut zur Erschließung und Erforschung kirchlicher Quellen, St. Pölten/A)
  • Arbeitsgruppe (aktiv): selbstständige wissenschaftliche und technische Erschließung von Beständen sowie Bereitstellung und Verwaltung von Daten (Texte/Bilder)
  • Content Provider (passiv): Bereitstellung von Beständen zur digitalen Erfassung (zum Beispiel Klosterarchive)
  • Consulter: Mitarbeit an der wissenschaftlichen und technischen Weiterentwicklung des Gesamtprojektes oder dessen Teilbereichen

Allgemeine Nutzungsmöglichkeiten

Durch die virtuelle Bereitstellung großer Urkundenbestände (gegenwärtig etwa 20.000 Stück) ergibt sich ein bequemer und vor allem auch gebührenfreier Zugang für alle Interessierten (Wissenschaftler/innen, Heimatforscher/innen, Studierende, Lehrer/innen usw.). Erstmals ist es möglich geworden, Urkundenbestände bestandsübergreifend zu durchsuchen. Die durch die Indizierung erreichte Aufarbeitung bzw. Normalisierung der wichtigsten Urkundeninhalte macht dieses Material auch für historische Laien benutzbar und erschließt im Zusammenhang mit der schulischen und universitären Lehre neue Vermittlungsmethoden. Die Daten stehen allen Schulen rund um die Uhr zur Verfügung. Die Stücke dienen als wertvolle Ergänzung zum im Geschichtsunterricht vermittelten Lehrstoff und veranschaulichen das bis dato zumeist nur theoretisch Gelernte, wobei die Daten in vielfältiger Weise auch interdisziplinär eingesetzt werden können.

Neben den erweiterten Möglichkeiten des Recherchierens bietet das Projekt auch eine breite Palette anderer Nutzungsfelder an, die den Benutzern/innen als Hilfsmittel dienen. Diese betreffen die historischen Hilfswissenschaften (Paläografie, Chronologie etc.), die Ortsnamenidentifizierung (zum Beispiel Orbis latinus) und Wörterbücher ebenso wie Links zu nützlichen Online-Nachschlagewerken bzw. Bibliothekskatalogen. Damit stehen den Interessierten weiterführende Möglichkeiten offen, die es ermöglichen, die Suchergebnisse bis zu einem gewissen Grad selbst zu interpretieren.

Neue Forschungsansätze

Eine digitale Quellensammlung wie sie die Monaterium-Datenbank darstellt, bietet der historischen Forschung in ihren Fragestellungen Möglichkeiten, welche bislang entweder nicht oder nur unter zeitlichem und finanziellem Aufwand durchführbar waren.

Die Bereiche, in welchen neue Erkenntnisse gewonnen bzw. bestehende verifiziert werden können sind:

Personengeschichte

Einzelne Persönlichkeiten lassen sich durch die Recherchierbarkeit der Daten sowohl im Volltext- als auch im Indexmodus über die Jahrzehnte hinweg verfolgen und nachweisen. Neben biografischen Angaben lassen sich nun auch Aussagen zum geografischen Wirkungsbereich und sozialen Umfeld einzelner Persönlichkeiten machen, indem Aussteller/innen, Siegler/innen und Zeugen/innen von Urkunden innerhalb eines bestimmten Zeitraums zueinander in Beziehung gesetzt werden, wodurch Partnerschaften im diplomatischen Sinn gleichsam auf Knopfdruck erkennbar werden.

Orts- und Lokalgeschichte

Gerade der klösterliche Urkundenbestand birgt in vielen Fällen sehr frühe Nennungen von einzelnen Siedlungen, Gegenden oder sonstigen topografischen Gegebenheiten, was für die Lokal- und Regionalgeschichte von nicht hoch genug einzuschätzender Bedeutung ist. In diesem Zusammenhang lassen sich im Rahmen zielgerichteter Abfragen auch besitzgeschichtliche Zusammenhänge rekonstruieren, wobei durchaus überraschende Ergebnisse erzielt werden können, wie das folgende Beispiel verdeutlichen mag:

Der winzige Ort Tallesbrunn (306 Einwohner/innen) liegt nicht weit von der österreichisch-slowakischen Grenze im östlichen Niederösterreich. Das fiktive Projekt, eine umfassende Ortschronik von Tallesbrunn zu verfassen, soll die Erleichterungen verdeutlichen, welche den Forschern/innen durch die Nutzung der Monasterium-Datenbank geboten werden können. Die Eingabe des Ortsnamens in die Indexsuche ergibt für den Zeitraum zwischen 1115 und 1359 nicht weniger als 23 Treffer in zehn verschiedenen Urkunden von vier verschiedenen Institutionen. Dabei handelt es sich um die Stifte Heiligenkreuz, Herzogenburg, Lilienfeld und das Schottenkloster in Wien. Neben der für die geringe Größe des Ortes nicht unbedeutenden Trefferquote ist vor allem der Umstand erwähnenswert, dass die betreffenden Urkunden in Archiven von ziemlich weit voneinander entfernten Stiften zu finden sind, welche in drei verschiedenen Landesvierteln Niederösterreichs liegen. Es ist sehr zweifelhaft, ob der fiktive Forscher bzw. die fiktive Forscherin auf den Gedanken gekommen wäre, für die Geschichte von Tallesbrunn auch das Archiv von Lilienfeld zu konsultieren, welches immerhin an die 160 km entfernt liegt. Unbestreitbar ist auch die immense Kosten- und Zeitersparnis, welche durch die Verwendung einer zentralen Datenbank erzielt werden kann, denn für die Recherche in vier Klosterarchiven sind bei herkömmlicher Arbeitsweise wohl einige Wochen bis Monate zu veranschlagen, sofern der Zutritt in diese Archive überhaupt gewährt werden würde.

Institutionsgeschichte

Naturgemäß sind die Urkundenbestände der Stifte und Klöster die Hauptquellen für deren eigene geschichtliche Entwicklung. Allerdings gewähren sie auch Einblick in die Abläufe von territorial übergeordneten Einrichtungen, wie Pfarren, Diözesen und Erzdiözesen.

Bi- und multilaterale Beziehungen im mitteleuropäischen Raum

Gerade die Klosterurkunden bieten ein reichhaltiges Betätigungsfeld bei der Erschließung von bilateralen bzw. multilateralen Beziehungen von Staaten, Ländern, Regionen und Institutionen in Mitteleuropa. Die Grenzen, welche heute die Landkarte dieses Raumes prägen, sind, historisch gesehen, entweder sehr neuen Datums (beispielsweise die Grenzen zwischen Ungarn und der Slowakei, zwischen Tschechien und der Slowakei oder Ungarn und Siebenbürgen) oder hatten ursprünglich nicht diese trennende Bedeutung, wie in der allerjüngsten Geschichte (Grenzen Österreichs zu den ehemals sozialistischen Nachbarstaaten). Geistliche Institutionen dokumentieren diesen Umstand sehr deutlich, da die einzelnen Klöster untereinander europaweit vernetzt waren und miteinander im regen kulturellen Informationsaustausch standen. Die Vernetzung manifestierte sich aber nicht nur innerhalb eines Ordens (die Verbindung der einzelnen Häuser war und ist besonders bei den Zisterziensern aufgrund ihrer Ordensverfassung sehr intensiv ausgeprägt), sondern lässt sich auch zwischen den Vertretern verschiedener Orden bzw. im Verhältnis zu weltlichen Persönlichkeiten oder Institutionen nachweisen.

Internationale Kontakte einzelner Institutionen lassen sich durch gezielte Abfragen ebenfalls in kürzester Zeit eruieren. Ein sehr plakatives Beispiel bietet die Überlieferung des Zisterzienserstifts Heiligenkreuz im Wienerwald, das in seinem Urkundenbestand für den Zeitraum zwischen 1208 und 1327 um die 50 ungarischen Königsurkunden aus der Arpaden- und Anjouzeit aufbewahrt. Einen ähnlich großen Bestand bilden die Urkunden des Bischofs und des Domkapitels von Györ/Raab (1203-1361). Abgesehen davon, dass diese Urkunden in Ungarn bis dato weitgehend unbekannt waren, zeigen sie eine starke besitzrechtliche Verflechtung von Heiligenkreuz im Herrschaftsbereich der Stephanskrone.

Von allergrößtem Interesse wäre es angesichts des bedeutenden ungarischen Bestandes in Heiligenkreuz, nach möglichen Spuren des Stiftes in ungarischen Archiven, in diesem speziellen Fall namentlich in der königlichen Kanzlei und im Diözesanarchiv von Györ/Raab zu suchen und damit die Beziehungen des Zisterzienserstiftes noch besser zu dokumentieren. Erklärte Absicht des Monasterium-Konsortiums ist es, eine solche, bislang noch nicht realisierbare Recherche zu ermöglichen, indem die Bestände auch der ungarischen Archive in die Monasterium-Datenbank integriert werden sollen.

Hilfswissenschaftlicher Bereich (Diplomatik, Paläografie, Sphragistik)

Bedingt durch die Tatsache, dass das Monasterium-Projekt die geistlichen Urkunden des Mittelalters mitteleuropaweit so gut wie flächendeckend zusammenzuführen beabsichtigt, können systematische Untersuchungen im Bereich der historischen Hilfswissenschaften durchgeführt werden. Besonders profitieren könnte davon die Lehre im Zusammenhang mit der archivwissenschaftlichen Ausbildung, speziell im Bereich der Paläografie, da, bedingt durch die flächendeckende Erfassung der Bestände, sowohl generelle Entwicklungen als auch regionale Besonderheiten in der Schriftentwicklung vom 9. bis zum 15. Jahrhundert nachvollziehbar und anschaulich gemacht werden können.

Weitere Disziplinen

Neben der Geschichtswissenschaft und den mit ihr assoziierten Disziplinen können auch weitere Fächer Nutzen aus der virtuellen Datenbank ziehen. Die elektronische Aufbereitung und Auszeichnung ermöglicht es der Germanistik und der Klassischen Philologie, unterschiedliche Schreibweisen und Formulierungen in deutschen und lateinischen Texten über die Jahrhunderte hinweg nachzuvollziehen. Ebenso kann das Eindringen bestimmter juristischer Normen in die geübte Rechtspraxis anhand der Urkundentexte geografisch und zeitlich abgestuft festgemacht werden und somit den Rechtswissenschaften eine Erkenntnismöglichkeit geboten werden.

Ausblick

Neben der oben skizzierten Bestandserweiterung im Rahmen des Monasterium-Konsortiums stellt die Entwicklung eines auf XML basierenden, kollaborativen Redaktionssystems (EditMOM) [4] , das eine umfassende Online-Bearbeitung ausgewählter Bestände ermöglichen soll, die vordringlichste Herausforderung der folgenden zwei Jahre dar. Dabei handelt es sich um ein System, das in der Lage sein soll, einem möglichst breiten Publikum über die Verwendung eines einfachen Webbrowsers die Mitarbeit am Monasterium-Projekt zu ermöglichen. Damit können bisher für die Datenerfassung nicht genutzte Kapazitäten außerhalb des eigentlichen Projektbereichs erschlossen werden. Voraussetzung für die kollaborative Mitarbeit ist nach der erfolgten Registrierung die Einhaltung der von der projektkoordinierenden Stelle vorgegebenen Editions- bzw. Auszeichnungsstandards. Die kollaborativen Betätigungsbereiche werden sich über die einfache Erstellung von Transkriptionen über die Indizierung bis hin zur diplomatisch-paläografischen Tiefenerschließung erstrecken. Die Ergebnisse der Mitarbeit werden zunächst durch ein Moderationssystem einer Qualitätsprüfung unterzogen und nach deren Freigabe in die Datenbank integriert und online gestellt. Potentielle Interessenten/innen sind in diesem Zusammenhang Studierende der Geschichte bzw. Archivare/innen in Ausbildungskursen (zum Beispiel des Instituts für Österreichische Geschichtsforschung) oder Heimatforscher/innen.

Bei der Auszeichnung der Urkundentexte lehnt sich das Projekt an die Vorgaben des an der Ludwig-Maximilian-Iniversität in München entwickelten Standards der Charters Encoding Initiative (CEI) an. [5]

Zusammenfassung

Zum Schluss seien an dieser Stelle nochmals die wesentlichsten Anliegen des Monasterium-Projekts zusammengefasst. Grundsätzliches Ziel des Projekts ist die Schaffung einer mitteleuropäischen Datenbank geistlicher Urkunden (und Handschriften) im Rahmen des Monasterium-Konsortiums unter Überwindung der räumlichen Zersplitterung vieler Bestände und der trennenden zwischenstaatlichen Grenzen. Der erfasste Urkundenbestand wird unter Verwendung des CEI Auszeichnungsstandards in hilfswissenschaftlicher und inhaltlicher Hinsicht möglichst tief erschlossen.

Der auf diese Art erschlossene Datenbestand soll einerseits für die Forschung, andererseits für möglichst breite Bevölkerungsschichten kostenlos bereitgestellt werden, die durch das Editionstool EditMOM zur aktiven Mitarbeit animiert werden sollen, wodurch nicht zuletzt die Urkunden als wichtige Grundlagen der Historiografie verstärkt im Bewusstsein der Bevölkerung verankert werden.

***

Dr. Karl Heinz, MAS, ist Geschäftsführer des Instituts zur Erschließung und Erforschung kirchlicher Quellen (IEEkQ) und in der Projektkoordination des Monasterium-Projekts tätig. E-Mail: karl.heinz@monasterium.net


[1] <http://www.monasterium.net>.

[2] <http://www.monasterium.net/at/ieekq.html>.

[3] <http://www.abbyy.com/finereader_ocr/>.

[4] <http://pcghw51.geschichte.uni-muenchen.de:8080/cocoon/EditMOM/index.html>.

[5] <http://www.cei.lmu.de/>.


Darstellung mehrschichtiger, komplex-strukturierter Quellen – Die computergestützte dynamische Edition

von Matthias P. Perstling

Die Darstellung komplexer Strukturen in historischen Quellen galt lange Zeit als eine der Hauptschwierigkeiten bei der Erstellung von kritischen Editionen. Besonders die Wiedergabe von mehrschichtigen und mehrdimensionalen Quellenstrukturen in einer traditionell gedruckten und somit zweidimensionalen Form konnte die Erwartungshaltung vieler Historiker/innen meist nicht befriedigen. Mit Hilfe eines elaborierten Informationssystems lässt sich ein Informationsgewinn bei der Repräsentation komplex-strukturierter Quellen durch die Überwindung der Linearität des gedruckten Textes erzielen, indem fortgeschrittene Datenbank- und Hypertext-Techniken zusammenwirken. Überdies wird den Benutzern/innen des Editionssystems neben den unterschiedlichsten Zugriffsmöglichkeiten zur schnelleren Auffindung der gewünschten Information auch die Möglichkeit zur Unterscheidung zwischen dem Inhalt der Quelle und dem Wissen des Editors bzw. der Editorin darüber geboten. Die methodischen Voraussetzungen und die funktionelle, sowie technische Umsetzung eines solchen Editionssystems sollen anhand eines Beispiels aufgezeigt werden.

***

Einleitung

Seit Karl Lachmann (1793-1851) seine Methode zur Erstellung einer kritischen Textedition präzisierte [1] , verfolgt die Editionswissenschaft den Zweck, einen Text in möglicher Reinheit und Vollständigkeit, übersichtlich und lesbar darzustellen. [2] Dies gilt sowohl für „philologische“ als auch für „historische“ Editionen [3] , wenn auch die unterschiedlichen Zielsetzungen der jeweiligen Disziplin zu leichten Abweichungen in den Darstellungen führen. Dementsprechend versucht eine historische Edition das Dokument so zu erschließen, dass es Auskunft über politische, soziale, kirchliche, geistige und andere Fragen zu geben vermag. Zudem bietet sie Information über die Rezeption des Textes, sowie über bestehende parallele Überlieferungen. Das ist auch der Unterschied zu den philologischen Editionen, die den verschiedenen Schreibvarianten, und somit auch dem kritischen Variantenapparat, mehr Bedeutung beimessen.

Ungeachtet dessen gelten bzw. galten die Methode sowie auch die Technik der kritischen Edition in beiden Fächern als ausgereift [4] , und so kam es in den letzten 150 Jahren kaum zu Veränderungen der Techniken. Umso mehr stimmt der Umstand traurig, dass eine Vielzahl an interessanten historischen Quellen noch nicht kritisch ediert wurde bzw. die Versuche dazu fehlschlugen. Es gibt viele verschiedene Gründe für ein solches Scheitern, wie zum Beispiel, dass die Finanzierung von Editionsprojekten ein oft unüberwindbares Hindernis darstellt oder dass manche Quellen für bestimmte Personengruppen als nicht edierungswürdig gelten. Ein Hauptgrund ist aber mit Sicherheit auch der, dass viele Quellen zu komplex sind, um sie mit Hilfe der traditionellen Methode zur Erstellung einer kritischen Textedition in Buchform zu edieren. In diesem Zusammenhang bedeutet komplex, dass mehrere „nicht-lineare“ Ebenen übereinander geschichtet sind. Im Gegensatz dazu gilt ein Text als linear, wenn er nur für sich selbst steht. Als idealen linearen Text müsste man sich somit einen Autografen vorstellen, der von einer Person geschrieben wurde, keine Verweise zu anderen Texten hat, in sich abgeschlossen ist und nicht nach außen auf andere Texte wirkte. Je weniger linear und somit komplexer ein Text ist, desto schwieriger ist natürlich auch seine Darstellung. [5]

Die Komplexität einer historischen Quelle kann sich aber auf verschiedenen Ebenen abspielen und ist auch vom Texttyp der Quelle geprägt. So wird zum einen eine Quelle als komplex zu bezeichnen sein, wenn viele unterschiedliche Überlieferungen daraus entstanden sind oder der Text aus mehreren, verschiedenen Werken zusammengesetzt wurde, auch wenn es sich dabei um den von nur einer Person geschriebenen Originaltext der Quelle handelt. [6] Zum anderen wird aber auch ein Autograf ohne Verweise zu anderen Texten, bzw. ohne weitere Rezeption als komplex gelten müssen, wenn die Quelle voll von Streichungen, Glossen und Nachträgen von verschiedenen Schreiberhänden ist, oder eine mehrschichtige innere Struktur besitzt. Als Exempel für diese Kategorie dienen Handschriften wie etwa Nekrologe, Verbrüderungsbücher oder spätmittelalterliche Urbare.

Neben dieser in unterschiedlicher Weise ausgeprägten Komplexität von historischen Quellen gibt es noch weitere Eigenheiten solcher Dokumente, die bei einer Edition zu berücksichtigen sind und zu Problemen führen können: Zum einen sind historische Informationen generell unscharf, das bedeutet, dass sie sich nicht ohne weiteres eindeutigen Kategorien zuordnen lassen. [7] Zum anderen sind historische Informationen kontextsensitiv, das heißt, dass historische Angaben in aller Regel nicht unabhängig voneinander interpretierbar sind. [8]

Methodische Überlegungen – Vom linearen zum dynamischen System

Muss sich die Wissenschaft also mit der Tatsache abfinden, dass es nie zu befriedigenden kritischen Editionen von historischen Quellen mit einer komplexeren Struktur kommen wird? Oder gibt es auch andere Möglichkeiten der Präsentation von Quellen, die über die traditionelle Methode der Wiedergabe in einem zweidimensionalen System – in Buchform – hinausgehen?

Um diese Fragen zu beantworten, sollte der eingangs erwähnte Zweck einer kritischen Textedition – den Text in möglicher Reinheit und Vollständigkeit übersichtlich und lesbar darzustellen – etwas genauer betrachtet werden. So bedeutet für Ingo H. Kropac eine Quelle zu edieren vielmehr „die Informationsstruktur, den Informationsgehalt, die Informationsdichte und die Überlieferungsstruktur einer Quelle auf eine Weise zugänglich zu machen, die so vollständig als möglich sein soll und den Benutzer einer Edition in die Lage versetzt, diese analytisch zu verwenden, ohne die eigentliche Quelle einsehen zu müssen.“ [9] In dieser bewusst allgemein gehaltenen Definition tritt zum ersten Mal der Begriff der Information in Erscheinung. Betrachtet man eine Edition informationswissenschaftlich und abstrahiert die durch sie entstehenden Prozesse, so stellt eine Edition im Grunde genommen nichts anderes als eine Transformation von Information von einem Medium in ein anderes dar. Dabei ergibt sich das Problem, dass eine Transformation immer zu einem Informationsverlust führt. Im speziellen Fall ist der Informationsverlust eine Verringerung der Authentizität der Quelle. [10] Die Editoren/innen versuchen freilich, den Informationsverlust auf ein Minimum zu reduzieren, aber sie werden definitiv daran scheitern, wenn ein komplex-strukturierter Text ohne eine adäquate Darstellung der internen Quellenstruktur ediert wird. Genau deshalb muss die Repräsentation einer mehrschichtigen Quelle das zweidimensionale System eines gedruckten Buches überwinden. Infolgedessen bietet ein computergestütztes Editionssystem [11] , das unterschiedliche Ebenen abbilden kann, die einzige Möglichkeit, die verschiedenen Schichten angemessen darzustellen.

Wenn zuvor konstatiert wurde, dass eine Edition immer zu einem Informationsverlust führt, dann wurde nur eine Seite berücksichtigt. Denn wenn eine Edition auch einen Informationsverlust bedeutet, so erhält man im Gegenzug dazu auch einen Informationsgewinn. Dieser Informationsgewinn entsteht, da in die Edition das Wissen des Editors bzw. der Editorin über die Quelle und seine bzw. ihre Interpretation einfließen. [12] Aber genau dieses Wissen stellt sich auch als nicht-linear heraus und muss noch zur Elementarinformation der Edition hinzugefügt werden. Folglich resultiert aus jedem Editionsversuch eine mehrdimensionale Repräsentation, auch wenn der Originaltext nahezu linear ist. Daraus ergibt sich, dass eine kritische Edition zugleich komplexer und weniger komplex als die Originalquelle ist sowie mehr und weniger Information in einem bietet. Das Ziel ist die exakte Information zu erhalten, welche die Benutzer/innen zu einem bestimmten Zeitpunkt für einen speziellen Zweck benötigen. Um dieses Ziel zu erreichen und befriedigende Ergebnisse zu erhalten, muss die Präsentationsform dynamisch sein und Hypermedia [13] im eigentlichen Sinn bieten.

Aus den oben genannten Anforderungen wird die Notwendigkeit eines Systems offenkundig, das den Text in einer auf Computern basierenden, dynamischen Form wiedergibt. [14] Da dies offensichtlich mehr beinhalten muss, als nur eine klassisch gedruckte Edition in das Internet zu stellen [15] und diese somit zu digitalisieren [16] , bedienen wir uns einer elaborierten Methode der digitalen Edition: der Methode der Integrierten Computergestützten Edition [17] , kurz ICE genannt. In diesem Kontext bedeutet „computergestützte Edition“, dass „der editorische Forschungsprozess zumindest teilweise auf formalen Verfahren beruht, das Ergebnis (die Publikation) mit formalen Methoden analysiert werden kann, und die Realisierung auf einem Informationssystem beruht, das ein verbessertes Verständnis der editorischen Entscheidungen sowie der edierten Entitäten gewährleistet.“ [18] Des Weiteren steht der Terminus „integriert“ in der Methode dafür, dass „durch iterative Forschungsprozesse folgende Ziele erreicht werden: Transparenz, Nachvollziehbarkeit und Korrekturmöglichkeit; Modularität in der Systemorganisation; verbesserte Verfügbarkeit und ‚Benutzbarkeit’ und offene Systemtechnologien [19] in typologischer und quantitativer Hinsicht.“ [20]

Diese ausgereifte Methode, die auf einem offenen und erweiterbaren Konzept aufbaut, wurde in den Fontes Civitatis Ratisponensis (FCR), einem Forschungsprojekt und Editionsunternehmen an der Karl-Franzens-Universität Graz [21] , in die Praxis umgesetzt und eingehend getestet. [22] Zur Wiedergabe komplex-strukturierter Quellen benötigt die Methode der ICE allerdings eine Erweiterung: Wie bereits oben erwähnt ist für die Darstellung von mehrschichtigen und mehrdimensionalen Quellen ein dynamisches System erforderlich, das auf die gestellten Anforderungen in unterschiedlicher Weise eingehen kann.

Computergestützte dynamische Edition: „ICE-dynamisch“

Um ein dynamisches System zu betreiben, ist eine Datenbasis, wie zum Beispiel eine Datenbank, unerlässlich. Die in dieser Datenbasis enthaltenen Daten müssen in einer gut strukturierten Form aufgenommen werden, damit die darin gespeicherte Information leicht verarbeitet werden kann. Dabei ist von immenser Wichtigkeit, dass sich die Datenstruktur möglichst nahe an die Quellenstruktur anlehnt und diese wiederzugeben versucht, ohne auf das Aussehen der späteren Edition Rücksicht zu nehmen. Mit anderen Worten: Es muss dadurch zu einer strikten Trennung von (Informations-)Inhalt und (Publikations-)Form der Daten kommen. [23] Auf dieselbe Art werden die unterschiedlichen Schichten oder Varianten einer komplex-strukturierten Quelle behandelt: Sie müssen inhaltlich getrennt und ausdrücklich gekennzeichnet werden.

Der dynamische Teil des Systems muss so gestaltet sein, dass die Benutzer/innen ihre „eigene“ Edition verfassen können. Die speziellen Anliegen der Benutzer/innen an die Quelle sollen erkannt und in eine nützliche Repräsentation umgesetzt werden. Diese Anforderungen verlangen eine ausgeklügelte Benutzeroberfläche mit unterschiedlichsten Zugriffsmöglichkeiten auf das System und die darin gespeicherten Daten. In diesem Zusammenhang müssen allerdings auch einige Gegebenheiten beachtet werden: Zuallererst muss sichergestellt sein, dass der edierte Text immer zitierbar bleibt, auch wenn die Textversion auf dynamische Weise erstellt wird. Zudem muss für die Benutzer/innen der Edition der Inhalt der Quelle immer so genau wie möglich vom Wissen des Editors bzw. der Editorin über die Quelle unterscheidbar bleiben.

Diese Erweiterung der Methode der ICE für komplex-strukturierte Quellen erscheint möglicherweise ein wenig abstrakt und nicht präzise definiert, doch das war vollends beabsichtigt (im vollen Bewusstsein über deren Ungenauigkeit). Patrick Sahle stellte in seinen Thesen über digitale Editionen fest, dass „unterschiedliche Quellen unterschiedliche Editionsverfahren erfordern“ [24] und der Autor stimmt mit ihm darin vollkommen überein. Genau deshalb wäre eine explizit ausgearbeitete Methode für alle Arten von komplex-strukturierten Quellen sinnlos. Je spezialisierter eine Methode ist, desto mehr Ausnahmen und Modifikationen werden für die verschiedenen Beispiele benötigt. Das oben beschriebene Modell soll vielmehr einen Rahmen bilden, in dem Editionen von vielen verschiedenartigen Quellen mit komplexer Struktur realisiert werden können, die diesen Grundvoraussetzungen entsprechen.

Die Methode der „computergestützten dynamischen Edition“ („ICE-dynamisch“) stellt somit eine Konzeption dar, die Manfred Thaller in seinen Thesen von 1988 [25] als Voraussetzung für eine dynamische Edition forderte. Seine damalige Vision, dass „Datenbanken [...] daher in mittlerer Zukunft eine Editionsform werden [können]“, die „auf Grund einer dynamischen und integrierten Darstellung sämtlicher Textüberlieferungen allmählich zu einem Instrument werden [... um eine dynamische Edition zu erzeugen]“ [26] , scheint auf diese Weise in Erfüllung gegangen zu sein.

Faksimile als Unterstützung

Eine weitere Möglichkeit im Zuge von digitalen Editionssystemen, auf die hier noch nicht eingegangen wurde, bietet die Darstellung von Faksimiles. Da jedoch ein Faksimile noch keine textkritische Leistung darstellt, kann eine reine Faksimile-Ausgabe niemals ein Editionsersatz sein. [27] Das Faksimile kann jedoch als unterstützendes Medium einer Edition dienen, wenn es dabei hilft, den Entstehungszusammenhang von Textfassungen auch in seiner optischen Dimension deutlicher hervorzuheben. [28] Immanenter wird die Notwendigkeit von zusätzlichen Faksimiles zum edierten Text noch bei den Fontes Civitatis Ratisponensis, bzw. bei der ICE-Methode: Ziel dabei ist es, „Texte mit wissenschaftlich nachprüfbaren Verfahren zu erstellen, sie zu präsentieren und zugänglich zu machen [..., wobei] als oberste Prämisse Transparenz [gilt], um den Benutzer in die Lage zu versetzen, alle Entscheidungen und Interpretationen des Bearbeiters rekonstruieren, überprüfen und gegebenenfalls auch korrigieren zu können.“ [29] Folglich kann durch die Präsentation von Faksimile und Text nebeneinander ein verbessertes Verständnis der editorischen Entscheidungen, sowie Nachvollziehbarkeit und eventuell auch Korrekturmöglichkeit gewährleistet werden. [30]

„ICE-dynamisch“ konkret: Das Editionssystem des „Marchfutterurbars“

Als Beispiel für ein digitales Editionssystem einer komplex-strukturierten Quelle basierend auf der vorgestellten Methode soll auf die Darstellung des „Steirisch-landesfürstlichen Marchfutterurbars von 1414/1426“ [31] (MFU) verwiesen werden. Diese spätmittelalterliche Handschrift aus dem Steiermärkischen Landesarchiv in Graz ist ein Urbar, in dem die Haferabgaben der Holden in der Mittelsteiermark an das landesfürstliche, berittene Heeresaufgebot über zwölf Jahre hinweg von verschiedenen Schreibern penibel verzeichnet wurden. Die besondere Bedeutung der Quelle für die Regionalgeschichte ergibt sich daraus, dass zum ersten Mal in der Geschichte eine so enorme Anzahl an Abgabepflichtigen [32] in einem großen Gebiet der Steiermark namentlich aufgenommen wurde. Der Umstand, dass die Quelle so viele Streichungen und Nachträge enthält – aufgrund der häufigen Wiederverwendung der Handschrift – führte zu ihrer mehrschichtigen Struktur und folglich auch zum Fehlen einer adäquaten Edition. [33] Nur ein Versuch, das Urbar zu edieren, „gelang“ im Jahr 1910 [34] jedoch in einer besonders unbefriedigenden Weise: Die „Edition“ erfolgte in Tabellenform, ohne auf die prosopografische Relevanz der Quelle einzugehen, indem einfach die Namen der Holden weggelassen wurden.

Funktionelle Aspekte des Editionssystems

Das Ziel einer zufrieden stellenden Edition des Marchfutterurbars wäre demnach, für jeden bestimmten Zeitpunkt den jeweils damals aktuellen Zustand der Quelle wiedergeben zu können und alle genannten Personen mit ihrer entsprechenden Abgabe in einer klar ersichtlichen und anschaulichen Form in die Repräsentation zu integrieren. Verbunden mit diesem Bestreben muss den Benutzern/innen die Möglichkeit gegeben werden, jede einzelne Schicht des Textes zu isolieren. Außerdem soll es ihnen möglich sein, die exakte Information, die sie für ihren expliziten Zweck benötigen, zu erhalten.

Mit diesem Editionssystem wird somit den Benutzern/innen ein Werkzeug in die Hand gegeben, mit dem sie ihre „eigene“ Edition zusammenstellen können. Der Output aus dem System ist infolgedessen variabel, dynamisch erzeugt und kann auf verschiedenartige Weise dargestellt werden. Um die Möglichkeiten des Systems auch nutzen zu können, ist eine ausgereifte Benutzeroberfläche essentiell, die eine Vielzahl an unterschiedlichen Optionen des Systemzugangs und -zugriffs auf die Datenbasis bietet. Den Kern des Systems bildet eine Datenbank, welche die Strukturdatenbank enthält und den Output erzeugt.

Wie bereits erwähnt, bietet eine digitale Edition die Möglichkeit, Faksimiles der Quelle zu zeigen. Selbst die beste kritische Textedition kann eine Handschrift nicht „visualisieren“, und der Informationsverlust in Bezug auf die Abnahme an Authentizität der Quelle kann durch die Abbildung der Digitalisate reduziert werden. Im Editionssystem des Marchfutterurbars sind unterschiedliche Darstellungsarten der Bilder enthalten: Zum einen sind die Faksimiles, die jeweils eine Seite des Urbars zeigen, als Thumbnails ersichtlich und die Benutzer/innen können so digital durch die Handschrift blättern. Die Größe der Bilder ist veränderbar und so kann eine wechselnde Anzahl an Thumbnails pro Bildschirmseite angezeigt werden. Durch Klick auf die Bilder können diese auch in einen Viewer geladen werden, in dem Vergrößerungen bis zur doppelten Originalgröße möglich sind (siehe Abbildung 1). Zusätzlich gibt es auch eine Ansicht, in der das Faksimile und der Editionstext nebeneinander am Bildschirm erscheinen, wodurch sie sehr leicht miteinander verglichen werden können. Dies ist zugleich auch die Standardeinstellung des Systems.

Abbildung 1: Textpassage aus dem MFU, fol. 17r (StLA)

Der gängigste Einstieg in eine Edition eines historischen Dokuments führt die Benutzer/innen auch in einem digitalen System zum eigentlichen Text, wobei dieser selten von Anfang bis Ende durchgelesen wird. Besonders Urbare wie das Marchfutterurbar, aber auch alle anderen wirtschaftsgeschichtlichen Quellen, werden konsultiert, um spezifische Informationen zu erhalten. Um das Information-Retrieval zu erleichtern, sind in diesem System zusätzliche Module wie Glossar, Personen- und Ortskatalog installiert, sowie einfache Volltextsuche und erweiterte Suchmöglichkeiten integriert. Somit kann die von Benutzern/innen aller Fachbereiche benötigte Information gefunden werden. Doch auf welche Weise wird sie dargestellt? Für die unterschiedlichen Arten der Repräsentation muss die traditionelle Form des edierten Texts als erstes erwähnt werden (siehe Abbildung 2). Diese Form ist für das Marchfutterurbar jedoch fast nicht benutzbar, da durch die mehrschichtige Struktur, als Folge der zahlreichen Streichungen und Nachträge, der dazugehörige kritische Anmerkungsapparat immens anwächst und sehr viel Information im Variantenapparat verschwindet. Dennoch wird diese Form (der Vollständigkeit wegen) im System angeboten und kann auf zwei unterschiedliche Weisen dargestellt werden: entweder als ein der Seitenmetapher folgender Text neben dem Faksimile, oder als allein stehender Text, der der internen Struktur des Marchfutterurbars – nach Pfarreien und Ortschaften geordnet – entspricht, ohne dabei Seitenumbrüche des Originals zu berücksichtigen.

Abbildung 2: Traditionelle Editionsform der oben gezeigten Textpassage (MFU, fol. 17r); die Unterstreichungen stehen für Rubrizierungen.

Eine Erleichterung und Hilfe zur Unterscheidung der diversen Varianten und Schichten wird den Benutzern/innen mit einer anderen Repräsentationsform geboten: Die verschiedenen Schreiberhände sind dabei ausgezeichnet und farblich hinterlegt, ebenso auch alle Arten von Streichungen und Nachträgen – jede Farbe steht für eine Hand und die Streichungen in der Handschrift werden auch im edierten Text ausgestrichen. Streng genommen handelt es sich bei dieser Form des Textes um eine Transkription und keine kritische Edition, doch dieser Zwischenschritt wird den Benutzern/innen aus genau einem Grund zugänglich gemacht: um die Transparenz und Nachvollziehbarkeit der Entscheidungen des Editors bzw. der Editorin zu gewährleisten.

Die eigentliche Innovation der computergestützten dynamischen Edition des Marchfutterurbars ist jedoch die Repräsentation der separierten Schichten, bei der es sich um eine kritische Edition im eigentlichen Sinn handelt, da bei dieser Darstellungsform bereits das Wissen des Editors bzw. der Editorin über die Quelle in die Texte eingearbeitet worden ist. In diesem Urbar lassen sich fünf chronologisch-unterscheidbare Ebenen finden:

  • Der Zustand von vor 1414 (auf einer verschollenen Vorlage basierend),
  • der Zustand von 1414 mit den jeweiligen Abgaben,
  • der Zustand zwischen den Jahren 1414 und 1426, einer Periode. in der etliche Änderungen vorgenommen wurden,
  • der Zustand von 1426 mit den damaligen Abgaben,
  • und schließlich der Zustand nach 1426 mit den abschließenden Modifikationen.

Diese fünf Schichten sind als Variante „a“, „b“, „b-1“, „b-2“ und „c“ bezeichnet und können entweder einzeln oder vergleichend untereinander ausgegeben werden (siehe Abbildung 3). Die Benutzer/innen können dadurch mühelos die unterschiedlichen Zustände und Veränderungen im Text wahrnehmen, sowie auch die entsprechende Abgabe eines Holdes zu einem bestimmten Zeitpunkt. Des Weiteren ist es natürlich auch möglich, zum Beispiel nur Variante „b“ und „c“ eines Eintrages zu vergleichen und sich diese neben dem Faksimile anzeigen zu lassen.

Abbildung 3: Repräsentation der separierten Schichten des oben genannten Textes (MFU, fol. 17r); die Unterstreichungen stehen für Rubrizierungen, Variante „a“, „b“, etc. für die verschiedenen Schichten.

Eine weitere Möglichkeit, die Linearität und Zweidimensionalität der gedruckten Edition zu durchbrechen und folglich eine neue Art des Zugriffs zu erstellen, bietet die erweiterte Suche. In diesem Kontext bedeutet diese Suchfunktion nicht nur die Verwendung Boolscher Operatoren, sondern sie beinhaltet vielmehr die Option unterschiedliche Einträge, die in einem Themengebiet zueinander in Beziehung stehen, auszugeben, ohne von der Seitenmetapher der Handschrift abhängig zu sein. So können sich die Benutzer/innen zum Beispiel alle Holden eines speziellen Grundherren, deren Einträge und Abgaben simultan anzeigen lassen, ohne darauf Rücksicht nehmen zu müssen, dass zwischen den Einträgen in der Originalquelle womöglich Dutzende Seiten liegen. Das erleichtert natürlich die Arbeit mit der Quelle und kommt den Historikern/innen zu Hilfe, deren Interessen in der Regionalgeschichte, Genealogie und Prosopografie liegen.

Jenen Benutzern/innen, die Informationen über eine bestimmte Region suchen, bietet das System einen zusätzlichen Zugang. Da ein sprachlich gestalteter Ortskatalog exakte Daten zu den Orts- und Flurnamen liefert, jedoch nur schwer einen Überblick über ein geografisches Gebiet geben kann, wird auch eine digitale Landkarte angeboten, in der alle Orte eingezeichnet und mit den betreffenden Textstellen in der Edition verlinkt sind. Somit können Zusammenhänge zwischen zwei benachbarten Orten viel leichter aufgedeckt werden, auch wenn deren Einträge in der Handschrift durch viele Seiten getrennt sind. Eine Anwendungsmöglichkeit dafür wäre zum Beispiel die viel einfachere und präzisere Lokalisierung einer Gegend, in der es Ernteausfälle gab, wenn dies in mehreren Textpassagen der Handschrift erwähnt wird. Das kann für Wirtschaftshistoriker/innen von großer Relevanz sein, aber es gibt in dem System noch andere speziell für sie geschaffene Repräsentationen der Quelle: Die Abgaben der einzelnen Holden können in Tabellenform dargestellt werden und es ist des Weiteren möglich, mit diesen Daten zu rechnen bzw. sie statistisch auszuwerten und zu analysieren. Auch für Spezialisten/innen der Paläografie und der Kodikologie wird ein eigener Zugang bereitgestellt. Sie können das System über den paläografischen und den kodikologischen Kommentar erreichen, in dem zum Beispiel die verschiedenen Schreiberhände, die Wasserzeichen oder die Lagenformel der Handschrift beschrieben sind. Natürlich gelangt man von den Beispielen immer via Hyperlink wahlweise zu dem Faksimile oder dem edierten Text.

Abbildung 4: Funktionalitätsschema des Gesamtsystems

Aus all den zuvor genannten Überlegungen ergibt sich ein Gesamtsystem für eine computergestütze dynamische Edition des Marchfutterurbars, das eine mehrdimensionale Quellenrepräsentation mit unterschiedlichen Zugriffsmöglichkeiten auf die Datenbasen beinhaltet und dessen Funktionalität in Abbildung 4 in abstrahierter Weise dargestellt ist.

Technische Aspekte des Editionssystems

Das Gesamtsystem ist als Client-Server-Lösung konzipiert und zielt darauf ab, dass zur Benutzung der digitalen Edition ein Standardbrowser [35] genügt. Um das zu gewährleisten, erhalten die Clients vom Server nur Dateien im XHTML-Format [36] und Bilder als JPEGs. [37] Die Dynamisierung des Systems entsteht dadurch, dass die auf dem Server enthaltenen XML-Datenbasen durch XSL-Transformationen [38] in die von den Benutzern/innen gewünschte Form verändert und spezifiziert werden. In Teilbereichen kommen auch php-Lösungen [39] mit MySQL-Datenbankanbindungen [40] zum Einsatz.

Im Inneren des Systems existieren Datenbasen, die Daten in unterschiedlichen Zuständen enthalten. Die transkribierten Rohtext-Daten werden – gemäß der Anforderung, offene Systemtechnologien zu verwenden, die internationalen Standards entsprechen – in der Extensible Markup Language (XML) [41] ausgezeichnet, deren Struktur mittels einer XML Schema-Datei [42] definiert ist. Diese Strukturierung folgt der Seitenmetapher und den einzelnen Einträgen, die jeweils eine eindeutige Identifikationsnummer erhalten. Zugleich wird der Text auch nach den verschiedenen Schreiberhänden, Nachträgen und Streichungen ausgezeichnet. [43] Aus diesen XML-Datenbasen werden mittels XSLT [44] neue XML-Dokumente generiert, die – wiederum auf eine XML Schema-Datei aufbauend – das Schichtenmodell der Handschrift darstellen. Diese Generierung erfolgt (fast) vollautomatisch den Transformationsroutinen des Editors bzw. der Editorin entsprechend. [45] Lediglich die Fußnoten müssen noch in den so entstandenen Editionstext eingefügt werden. Auf diese XML-Datenbasen, welche die Varianten des Editionstextes widerspiegeln, greifen die Benutzer/innen des Editionssystems zu und können sich ihre „eigene“ Edition zusammenstellen. Auch diese Modifikationen werden intern über XSLT verarbeitet und es entstehen dynamisch erzeugte XML-Dokumente. Diese Dokumente werden jedoch nicht im puren XML-Format vom Server an den Client geschickt, sondern zuvor noch über eine weitere XSL-Transformation in XHTML-Dateien umgewandelt.

Neben diesen Textdatenbasen und der Bilddatenbank ist im System noch eine weitere Datenbasis notwendig, welche die Verknüpfungen zwischen den unterschiedlichen Entitäten herstellt, aber auch als Schnittstelle zwischen den verschiedenen Zugriffsmöglichkeiten und den Primärdaten fungiert. In diese Strukturdatenbasis wird die gesamte abstrahierbare Information des Urbars eingetragen und mit XML ausgezeichnet. Dabei handelt es sich um alle in der Quelle genannten Orte, Personen, deren Abgaben und die dazugehörigen Grundherrschaften. [46] Die Strukturdatenbasis folgt im Gegensatz zur Textdatenbasis jedoch nicht der Seitenmetapher der Handschrift, sondern der logischen Struktur des Marchfutterurbars [47] , wodurch eine „Loslösung“ der einzelnen Entitäten von den Seiten möglich wird. Als Referenz zwischen den unterschiedlichen Datenbasen dienen immer die eindeutigen Identifikationsnummern der Einträge, die sich an der Gliederung der Strukturdatenbasis orientieren.

Um die in der Strukturdatenbasis gespeicherte Information in einer umfangreicheren und anspruchsvolleren Weise auswerten zu können ist eine Datenbank notwendig, die mit komplex-strukturierten Daten aus historischen Quellen umgehen kann, sowie die Verwendung von Ontologien und weitreichende statistische Analysen ermöglicht. Genau für diese Bedürfnisse wurde das Softwarepaket kleio [48] geschaffen, das auf diesem Gebiet seit Jahren zur Zufriedenheit vieler Historiker/innen arbeitet.

Im Editionssystem des Marchfutterurbars wird kleio eingesetzt, um mit den vielen unterschiedlichen, nichtdezimalen Maß- und Währungsangaben, die in der Quelle vorkommen, rechnen zu können. Außerdem wird dadurch auch eine Schnittstelle zum Statistikprogramm „SPSS“ [49] angeboten. Neben dieser Verwendung werden noch andere Eigenschaften des Softwarepakets zur Erstellung von topografischen und prosopografischen Katalogen genutzt: kleio unterstützt den „Ausgleich orthografischer Varianten“ und „definierbare Verbindungen zwischen Entitäten mehrerer Datenbanken (Record Linkage)“. [50] Die Generierung der Kataloge geht dabei so vor sich, dass die unterschiedlichen Schreibweisen von Orts- oder Personennennungen im Urbar mit Hilfe des leicht variierten Soundex-Algorithmus [51] , der in kleio implementiert ist, ausgeglichen und miteinander verglichen werden. Anschließend werden die identifizierten Individuen in normalisierter Schreibweise in eine sekundäre Datenbank aufgenommen und über Record Linkage [52] mit der Primärdatenbank, der Strukturdatenbank, verknüpft.

Abbildung 5: Technische Umsetzung des Gesamtsystems

Somit arbeitet das Gesamtsystem mit einer doppelt hybriden Form an Daten: Zum einen mit den XML-Daten in den Textdatenbasen und zum anderen mit der Strukturdatenbasis, in der XML-Daten und kleio-Datenbanken zusammenspielen. [53] Dabei werden die XML-Daten in die kleio-Datenbank eingelesen, wo sie analysiert, gespeichert und angereichert werden. Der von kleio generierte Output wird schließlich wieder in XML-(Meta-)Daten umgewandelt, die mit der Strukturdatenbasis und der Textdatenbasis verlinkt sind und über die verschiedenen Zugangsarten für die Benutzer/innen erreichbar sind. Mittels dieser Metadaten erfolgt die weitere Dynamisierung des Gesamtsystems, da sie das abstrakte Bindeglied unterschiedlicher Einträge auf einer Metaebene darstellen (siehe Abbildung 5).

Zusammenfassung

Ziel des Autors ist die kritische Edition eines speziellen Quellentypus, die aufgrund der Komplexität der Handschrift bisher noch nicht realisiert wurde. Vor allem das Abbilden der mehrschichtigen Struktur führte bis dato zum Scheitern einer gelungenen Edition. Der einzig brauchbare Weg, um die Informationsstruktur, den Informationsgehalt, die Informationsdichte und die Überlieferungsstruktur des Marchfutterurbars darzustellen, ist der Aufbau eines computergestützten dynamischen Editionssystems nach der Methode von „ICE-dynamisch“. Dieses System bietet verschiedene Zugriffe auf die Quelle, ermöglicht den Benutzern/innen leichter zwischen den unterschiedlichen Schichten der Quelle zu unterscheiden und befähigt sie, eine Repräsentation der Handschrift nach ihren eigenen Anforderungen zu erstellen. Die Einschränkungen einer kritischen Edition in gedruckter Form durch deren Linearität können so überwunden werden und die Mehrdimensionalität liefert einen Mehrwert an Information. Das Editionssystem des Marchfutterurbars offenbart sich daher als eine realisierbare Konzeption für eine dynamische Edition, wie sie Manfred Thaller [54] bereits 1988 angeregt und gefordert hatte.

***

Matthias P. Perstling arbeitet am Institut für Geschichte an der Karl-Franzens-Universität Graz. Er ist Forschungsassistent an dem vom österreichischen Wissenschaftsfond und der Stadt Regensburg finanzierten Projekt Fontes Civitatis Ratisponensis. E-Mail: matthias.perstling@uni-graz.at


[1] Vgl. Fuhrmann, Horst, Über Ziel und Aussehen von Texteditionen, in: Monumenta Germaniae Historica (Hg.), Mittelalterliche Textüberlieferungen und ihre kritische Aufarbeitung, München 1976, S. 12-27, hier S. 12f.; Stackmann, Karl, Mittelalterliche Texte als Aufgabe, in: Foerste, William; Borek, Karl-Heinz (Hgg.), Festschrift für Jost Trier, Köln 1964, S. 241-267, hier S. 243.

[2] Rehbein, Malte, Die digitale Textedition, in: Ebeling, Hans-Heinrich; Thaller, Manfred (Hgg.), Digitale Archive. Die Erschließung und Digitalisierung des Stadtarchivs Duderstadt, Göttingen 1999, S. 103-124, hier S. 103.

[3] Bei der Definition von Edition folgt der Autor der Meinung von Patrick Sahle: „Edition ist die erschließende Wiedergabe von historischen Dokumenten.“ Sahle, Patrick, Vom editorischen Fachwissen zur digitalen Edition: Der Editionsprozeß zwischen Quellenbeschreibung und Benutzeroberfläche, in: Thaller, Manfred (Hg.), Fundus – Forum für Geschichte und ihre Quellen, Beiheft 2: Quellen und Quelleneditionen im neuen Medienzeitalter, Göttingen 2003, S. 75-102, hier S. 76.

[4] Dem Autor ist die Diskussion um die Umsetzung der „New Philology“ durchaus bewusst, jedoch blieb diese stets eine Methodendebatte der Philologen, die sowohl Fürsprecher/innen als auch energische Gegner/innen hervorrief und bei der noch keine Richtungsentscheidung gefallen ist. Vgl. Stackmann, Karl, Die Edition – Königsweg der Philologie?, in: Bergmann, Rolf; Gärtner, Kurt (Hgg.), Methoden und Probleme der Edition mittelalterlicher deutscher Texte, Tübingen 1993, S. 1-18, bes. S. 4.

[5] Vgl. Rehbein, Textedition (wie Anm. 2), S. 104. Die Problematik linearer, komplexer Texte stellt auch Manfred Thaller dar und bietet eine technische Beschreibung. Vgl. Thaller, Manfred, A Draft Proposal for a Standard for the Coding of Machine Readable Sources, in: Greenstein, Daniel I. (Hg.), Modelling Historical Data: Towards a Standard for Encoding and Exchanging Machine-Readable Texts (Halbgraue Reihe zur Historischen Fachinformatik A 11), St. Katharinen 1991, S. 19-64.

[6] Es sei hier als Beispiel auf die kritische Edition des „liber pontificalis“ durch Theodor Mommsen (MGH Gesta Pontificum Romanorum 1,1, Berlin 1898.) bzw. auf die nie vollendete Edition der „Kapitulariensammlung des Benedictus Levita“ (Vgl. Schmitz, Gerhard, „Unvollendet“ – „Eingestampft“ – „Kassiert“. Nie Erschienenes und Missglücktes, in: Zur Geschichte und Arbeit der Monumenta Germaniae Historica, München 1996, S. 64-73) verwiesen.

[7] Vgl. Thaller, Manfred, Ungefähre Exaktheit. Theoretische Grundlagen und praktische Möglichkeiten einer Formulierung historischer Quellen als Produkte ‚unscharfer’ Systeme, in: Nagl-Docekal, Herta; Wimmer, Franz (Hgg.), Neue Ansätze in der Geschichtswissenschaft (Conceptus Studien 1), Wien 1984, S. 77-100, bes. S. 90–96.

[8] Vgl. Thaller, Manfred, Datenbasen als Editionformen?, in: Schwob, Anton; Kranich-Hofbauer, Karin; Suntinger, Diethard (Hgg.), Historische Edition und Computer. Möglichkeiten und Probleme interdisziplinärer Textverarbeitung und Textbearbeitung, Graz 1989, S. 215-241, bes. S. 230; Levermann, Wolfgang, Kontextsensitive Datenverwaltung (Halbgraue Reihe zur Historischen Fachinformatik B 8), St. Katharinen 1991; Thaller, Manfred, Gibt es eine fachspezifische Datenverarbeitung in den historischen Wissenschaften? Quellenbanken in der Geschichtswissenschaft, in: Kaufhold, Karl Heinrich; Schneider, Jürgen (Hgg.), Geschichtswissenschaft und elektronische Datenverarbeitung (Beiträge zur Wirtschafts- und Sozialgeschichte 36), Wiesbaden 1988, S. 45-83.

[9] Kropac, Ingo H., Theorien, Methoden und Strategien für multimediale Archive und Editionen, in: van Eickels, Klaus; Weichselbaumer, Ruth; Bennewitz, Ingrid (Hgg.), Mediävistik und Neue Medien, Ostfildern 2004, S. 306.

[10] Vgl. Kropac, Ingo H., Gain et perte d'information. Problèmes fondamentaux posés par l'édition informatisée de données historiques, in: Genet, Jean-Philippe (Hg.), Standardisation et échange des bases de données historiques. Actes de la troisième Table Ronde internationale tenue au L.I.S.H. (C.N.R.S.), Paris 1988, S. 49-57; Brunnhofer, Regina; Kropac, Ingo H., Digital Archives in a Virtual World, in: Royal Netherlands Academy of Arts and Sciences (Hg.), Humanities, Computers and Cultural Heritage. Proceedings of the XVI international conference of the Association for History and Computing, 14-17 September 2005, Amsterdam 2005, S. 83-89; Sahle, Patrick, Bemerkungen zur Edition historischer Quellen zwischen Informationsverlust und Informationsgewinn, vgl. <http://ba.tuxomania.net/kerpen/edition/infos/text-sahle.html> (13.02.2006).

[11] Der Begriff „computergestützt“ wird im Folgenden noch genauer spezifiziert und vom Autor im Sinne von Kropac (Vgl. Kropac, Theorien (wie Anm. 9), S. 307.) verwendet. „Computergestützte Edition“ bezeichnet somit einen Teilbereich der „digitalen Edition“, wie sie von Peter Robinson (Vgl. Robinson, Peter, What is a Critical Digital Edition?, in: Variants – Journal of the European Society for Textual Scholarship 1 (2002), S. 43-62, bes. S. 51-57.) und Patrick Sahle (Vgl. Sahle, Patrick, Digitales Archiv – Digitale Edition. Anmerkungen zur Begriffsklärung, vgl. <http://www.germanistik.ch/publikation.php?id=Digitales_Archiv_und_digitale Edition> [13.02.2006].) gesehen und definiert wird.

[12] Kropac, Gain (wie Anm. 10), S. 51f.; Sahle, Bemerkungen (wie Anm.10), S. 1.; Köhn, Tilo, Erfahrungen mit einer Digitalen Edition – am Beispiel des Traktats Heinrichs von Antwerpen, vgl. <http://golm.rz.uni-potsdam.de/hva/vortragn.htm> (13.02.2006).

[13] In diesem Zusammenhang zieht der Autor „Hypermedia“ dem Begriff „Hypertext“ vor, da es bei digitalen Editionssystemen auch zur Darstellung von Faksimiles in digitalen Formaten (Rastergrafik) kommt und somit der Übergang von logischen Verbindungen zwischen ausschließlich Textpassagen zu solchen zwischen unterschiedlichen Medien gelingt. Zur Grundidee des Hypertextes vgl. Nelson, Theodor H., Getting it Out of Our System, in: Schecter, George (Hg.), Information Retrieval. A Critical Review, Washington 1967, S. 191-210, sowie auch Freisler, Stefan, Hypertext – Eine Begriffsbestimmung, in: Deutsche Sprache 22 (1994), S. 19-49.

[14] Manfred Thaller hatte bereits 1988 die Vision, dass „Datenbanken [...] daher in mittlerer Zukunft eine Editionsform werden [können]“, die „auf Grund einer dynamischen und integrierten Darstellung sämtlicher Textüberlieferungen allmählich zu einem Instrument werden“, um eine dynamische Edition zu erzeugen. Thaller, Datenbasen (wie Anm. 8), S. 233f. Jedoch meint er dazu auch: „Diese Art einer dynamischen Edition setzt allerdings Konzeptionen voraus, die, insbesonders wegen der anzuwendenden internen Textdarstellung, den Stand derzeit in der Datentechnik üblicher Instrumente sprengen. Ihre Realisierung setzt daher eine bewusste Anstrengung zur Formulierung (und offensichtlich auch zur Realisierung) von Datenstrukturen voraus, die derartige mehrschichtige Textdarstellungen in einschlägige Datenbanksoftware integrierbar machen.“ Thaller, Datenbasen (wie Anm. 8), S. 234.

[15] Weder Editionstexte als PDF-Dateien, noch reine Transkriptionen im Web mit irgendeiner Auszeichnungssprache, sei es auch XML, gefertigt, genügen dem Anspruch, dass es sich dabei um eine computergestützte Edition handelt. Vgl. Kropac, Theorien (wie Anm. 9), S. 307.

[16] Vgl. Sahle, Archiv (wie Anm. 11), S. 6.

[17] Zu den Grundlagen der ICE-Methode vgl. Kropac, Ingo H., Ad fontes. Von Wesen und Bedeutung der Integrierten Maschinellen Edition, in: Ebner, Herwig; Haselsteiner, Horst; Wiesflecker-Friedhuber, Ingeborg (Hgg.), Geschichtsforschung in Graz, Graz 1990, S. 465-482; Kropac, Ingo H.; Botzem, Susanne, As You Like It. Archiving, Editing and Analysing Medieval Documents, in: Smets, Josef (Hg.), Histoire et Informatique. Ve Congrès “History & Computing”, 4.-7. 9. 1990 à Montpellier, Montpellier 1992, S. 301-313.; Kropac, Ingo H.; Botzem, Susanne; Kurschel, Henriette, Das ICE-Projekt, in: Informatik Forum 8,4 (1995), S. 159-164.; Kropac, Theorien (wie Anm. 9), S. 295-316.; vgl. dazu auch die Homepage der ICE: Kropac, Ingo H; Kropac, Susanne; Vasold, Gunter; Boshof, Heidrun, Integrierte Computergestützte Edition (ICE), vgl. <http://www.fcr-online.com/ice> (10.02.2006).

[18] Kropac, Theorien (wie Anm. 9), S. 308.

[19] Diese offenen Systemtechnologien müssen natürlich internationalen Standards entsprechen, sowie Unabhängigkeit, Erweiterbarkeit und Interoperationabilität der Daten garantieren.

[20] Kropac, Theorien (wie Anm. 9), S. 311.

[21] Die Fontes Civitates Ratisponensis (FCR) bestehen bereits seit 1990 an der Karl-Franzens-Universität Graz unter der Leitung von Ao. Univ.-Prof. Dr. Ingo H. Kropac. Nachdem das Forschungsprojekt ursprünglich am Forschungsinstitut für Historische Grundwissenschaften beheimatet war, ist es in der Zwischenzeit dem Fachbereich „Historische Fachinformatik und Dokumentation“ des Instituts für Geschichte eingegliedert worden.

[22] Vgl. dazu Kropac, Ingo H.; Kropac, Susanne, Prolegomena zu einer städtischen Diplomatik des Spätmittelalters, das Beispiel Regensburg, in: Prevenier, Walter; de Hemptinne, Thérès (Hgg.), La diplomatique urbaine en Europe au moyen âge. Actes du congrès de la Commission internationale de Diplomatique, Gand, 25.-29. 8. 1998 (Studies in Urban Social, Economic and Political History of Medieval and Early Modern Low Countries 9), Louvain 2000, S. 229-265.; Boshof, Heidrun, Die Fontes Civitatis Ratisponensis: Geschichtsquellen der Reichstadt Regensburg online, in: van Eickels, Klaus; Weichselbaumer, Ruth; Bennewitz, Ingrid (Hgg.), Mediävistik und Neue Medien, Ostfildern 2004, S. 279-294; Vasold, Gunter, Edition à la carte? Usability, Interfacing und Datenmigration für webbasierte Editionssysteme, in: van Eickels, Klaus; Weichselbaumer, Ruth; Bennewitz, Ingrid (Hgg.), Mediävistik und Neue Medien, Ostfildern 2004, S. 261-278. Die Seiten der FCR sind erreichbar unter <http://www.fcr-online.com> (11.02.2006).

[23] Sahle, Patrick, Digitale Editionstechniken und historische Quellen, in: Jenks, Stuard; Marra, Stephanie (Hgg.), Internet-Handbuch Geschichte, Köln 2001, S. 153-166, hier S. 163.; Sahle, Fachwissen (wie Anm. 3), S. 76f.

[24] Sahle, Patrick, Digitale Edition (Historischer Quellen) – Einige Thesen, vgl. <http://www.uni-koeln.de/~ahz26/dateien/thesen.htm> (10.2.2006), S. 3.

[25] Thaller, Datenbasen (wie Anm. 8), S. 234.

[26] Ebd., S. 233f.

[27] Plachta, Bodo, Editionswissenschaft. Eine Einführung in Methode und Praxis der Edition neuerer Texte, Stuttgart 1997.

[28] Ebd.

[29] Boshof, Fontes (wie Anm. 22), S. 279.

[30] Vgl. Kropac, Theorien (wie Anm. 9), S. 308, 311.

[31] Steirisch-landesfürstliches Marchfutterurbar von 1414/1426: Steiermärkisches Landesarchiv (StLA), Laa. A. Antiquum II, Stockurbar 43/64. Vgl. Perstling, Matthias P., Das steirisch-landesfürstliche Marchfutterurbar von 1414/1426. Teiledition und Interpretation, Dipl.-Arb., Graz 2003.

[32] Es sind darin über 10.000 Personen namentlich genannt.

[33] Vgl. Spreitzhofer, Karl, Steirische Quellen zur Geschichte des Marchfutters in der frühen Neuzeit, in: Mitteilungen des Steirermärkischen Landesarchivs 27 (1977), S. 51-65, hier S. 53.

[34] Dopsch, Alfons; Mell, Alfred (Hgg.), Die Landesfürstlichen Gesamturbare der Steiermark aus dem Mittelalter (Österreichische Urbare, I. Abt., Bd.2), Wien 1910, S. 311-590.

[35] Der Browser muss derzeit lediglich Java und JavaScript verarbeiten und mit Frames umgehen können.

[36] XHTML: eXtensible HyperText Markup Language, vgl. <http://www.w3.org/TR/xhtml1> (12.02.2006).

[37] JPEG: Joint Photographic Experts Group, vgl. <http://www.jpeg.org/index.html?langsel=de> (12.02.2006).

[38] XSL: eXtensible Stylesheet Language; XSL ist eine Familie von Sprachen zur Erzeugung von Stylesheets (Layouts) für XML-Dokumente und gliedert sich in zwei Untergruppen (Dialekte): XSL-FO (XSL Formatting Objects) und XSLT (XSL Transformation). XSLT ist eine in XML kodierte, deklarative Programmiersprache zur Transformation von XML-Dokumenten und wird gemeinsam mit XPath (XML Path Language) angewendet. XPath ist eine Pfadbeschreibungssprache, die zur Navigation innerhalb von XML-Dokumentenbäumen dient und die Teile eines Dokuments adressieren kann. Vgl. <http://www.w3.org/TR/xslt20> (13.02.2006); <http://www.w3.org/TR/xpath> (13.02.2006); Bogners, Frank, XSLT 2.0. Das umfassende Handbuch, Bonn 2005.

[39] php: Serverseitige Skriptsprache, die auf WWW-Servern zur Generierung von dynamischen Inhalten dient. Vgl. <http://www.php.net> (12.02.2006).

[40] MySQL ist ein SQL-Datenbankverwaltungssystem (SQL = Structured Query Language, strukturierte Abfrage-Sprache). Vgl. <http://www.mysql.com> (12.02.2006).

[41] XML: eXtensible Markup Language (erweiterbare Auszeichnungs-Sprache), vgl. <http://www.w3.org/xml> (12.02.2006).

[42] XML Schema ist eine komplexe Sprache zum Definieren von XML-Dokumentstrukturen, vgl. <http://www.w3.org/TR/xmlschema-0> (12.02.2006); Skulschus, Marco; Wiederstein, Marcus, XML Schema, Bonn 2004.

[43] Die spätere XML-Notation zur Unterscheidung der einzelnen Schreiberhände und Varianten wurde bereits 1987 von Manfred Thaller in einem seiner Aufsätze vorweg genommen: vgl. Thaller, Manfred, Secundum Manus. Zur Datenverarbeitung mehrschichtiger Editionen, in: Härtel, Reinhard (Hg.), Geschichte und ihre Quellen. Festschrift für Friedrich Hausmann zum 70. Geburtstag, Graz 1987, S. 629-637.

[44] Um XML Schema verarbeiten zu können, wird die relativ neue Version XSLT 2.0 verwendet.

[45] Somit ist auch die Bedingung erfüllt, dass es sich hierbei um eine computergestützte Edition handelt, da ein formales Verfahren zur Erzeugung des Editionstextes angewendet wird. Vgl. dazu Kropac, Theorien (wie Anm. 9), S. 308.

[46] Die Struktur dieser Datenbank wurde hier nur sehr rudimentär erläutert und vereinfacht dargestellt. In Wirklichkeit ist sie bedeutend umfangreicher und enthält 175 (!) unterschiedliche Felder, die durch 50 XML-Elemente aufgebaut werden, was aufgrund einer modularen Anordnung ermöglicht wird.

[47] Die logische Struktur des Marchfutterurbars ist in Pfarren, Ortschaften und „abgabepflichtige Immobilien“ gegliedert.

[48] Das Programmpaket kleio wurde von Manfred Thaller in Zusammenarbeit mit mehreren europäischen Forschungsinstitutionen entwickelt. Für die datenbankorientierten Komponenten von kleio wurde ein kontext-sensitives Datenmodell entwickelt, das seinerseits auf dem Konzept semantischer Netze basiert. Das Programm bietet (datentechnische) Hilfsmittel, der extremen Variabilität historischen Quellenmaterials und dessen inhärenten Unschärfen effizient zu begegnen. Da sich in historischen Quellen eine Reihe von Informationen, die durch die klassischen Datentypen nicht fassbar oder nicht unmittelbar interpretierbar sind, finden lassen, stellt kleio Mittel bereit, solche Informationen in ihren Merkmalen zu definieren und so neben den Quellen auch Wissen über sie in so genannten „logischen Objekten“ zu verwalten. Dazu zählen etwa Definitionsumgebungen für erweiterte Datentypkonzepte, der Ausgleich orthografischer Varianten, die Lemmatisierung des Lateinischen, numerische und nicht numerische Klassifikationssysteme, definierbare Verbindungen zwischen Entitäten mehrerer Datenbanken (Record Linkage), die Verwaltung nichtdezimaler Maß- und Währungsangaben, die auch temporären Schwankungen unterworfen sein können und auch die Interpretation historischer Datierungsangaben. Daneben enthält kleio auch hochspezialisierte Komponenten wie etwa Interfaces zu Statistikprogrammen, zum Satzprogramm "TeX" und zu HTML. Vgl. Thaller, Manfred, „kleio“. A Database System (Halbgraue Reihe zur Historischen Fachinformation B 11), St. Katharinen 1993; Vgl. dazu auch Kropac; Kropac, Prolegomena (wie Anm. 22), wo der Umfang von kleio zusammengefasst dargestellt wird.

[49] SPSS: Superior Performance Software System (früher stand SPSS für „Statistical Package for the Social Sciences“), vgl. < http://www.spss.com > (12.02.2006).

[50] Kropac; Kropac, Prolegomena (wie Anm. 22).

[51] „Soundex“ ist ein quasi-phonetischer Algorithmus zur Indizierung von Wörtern und Phrasen nach ihrem Klang. Vgl. <http://www.archives.gov/publications/general-info-leaflets/55.html> (12.02.2006).

[52] Zu Vorgehensweise und Einsatz von „kleio“ für Record Linkage-Prozeduren siehe beispielsweise Woollard, Matthew; Denley, Peter, Source-Oriented Data-Processing for Historians: a Tutorial for Kleio (Halbgraue Reihe zur Historischen Fachinformation A 1), St. Katharinen 1993, S. 217-264.

[53] Vgl. dazu Thaller, Manfred, Texts, Databases, „kleio“: a Note on the Architecture of Computer Systems for the Humanities, in: Buzzetti, Dino; Pancaldi, Giuliano; Short, Harold (Hgg.), Augmenting Comprehension. Digital Tools and the History of Ideas (Office for Humanities Communication Publication 17), London 2004, S. 49-76; Ders., Vom verschwindenden Unterschied zwischen Datenbanken und Texten: Konsequenzen neuerer www-Technologie am Beispiel von museumsnahen Datenbanken, 2000, <http://www.museumtheuern.de/edvtage/g_mat/g12_thal.pdf> (13.02.2006).

[54] Thaller, Datenbasen (wie Anm. 8), S. 233f.


Kognitive Karten des Mittelalters – Digitale Erschliessung mittelalterlicher Weltkarten

von Günther Görz

Mittelalterliche Weltkarten sind in erster Linie als kognitive Karten zu verstehen. Um den Bestand und das Veränderungspotential des Text-Bild-Materials zu erfassen und zu erschließen, wird im Rahmen eines interdisziplinären Projekts in Erlangen ein systematischer vergleichender Stellenkatalog mittelalterlicher und frühneuzeitlicher Weltkarten erarbeitet. In einem ersten Schritt wurde eine multimediale Datenbank aus hochaufgelösten digitalen Bildern circa 300 repräsentativer Weltkarten aufgebaut, die durch zugeordnete Metadaten erschlossen sind. Die Datenbank wird ergänzt durch spezielle Software-Werkzeuge zur Bildbearbeitung und zum Bildvergleich. Mit diesen Mitteln wird der Stellenkatalog erarbeitet, der alle Positionen umfassen soll, die auf den Mappaemundi des 13. bis 16. Jahrhunderts mit Bildern, Legenden und Bild-Text-Kombinationen verzeichnet sind. Als begriffliche Grundlage hierfür dient eine formale Ontologie, die zur Zeit in der beschreibungslogischen „Web Ontology Language“ OWL-DL formuliert wird; sie erweitert eine zunächst für den Behaim-Globus erstellte Konzepthierarchie und wird in das „Conceptual Reference Model“ der ICOM-CIDOC (International Committee for Documentation of the International Council of Museums) eingebettet. Diese Art der Formalisierung ermöglicht komplexe Anfragen, die weit über die Möglichkeiten herkömmlicher Datenbanken hinausgehen. Fernziel des Projekts ist die Ausarbeitung der in den Karten dargestellten kognitiven Beziehungen und deren Wandel auf der Grundlage des Stellenkatalogs.

***

Einleitung: Projektdefinition und Ziele

Unter dem Titel „Kognitive Karten des Mittelalters“ wurde ein langfristig angelegtes interdisziplinäres Forschungsvorhaben der Erlanger germanistischen Mediävistik und der Informatik in Zusammenarbeit mit dem Graduiertenkolleg 516 „Kulturtransfer im europäischen Mittelalter“ initiiert. Die Zielvorgabe des Projekts definierten Hartmut Kugler und der Autor:

Die kosmografische und universalkartografische Überlieferung des Spätmittelalters beansprucht zunächst keine auf exakte Messungen und empirische Nachweise gestützte Geltung. Sie zielt vielmehr auf Orientierung im Sinne einer „Weltanschauung“. Dabei dominiert die Autorität von Schriftzeugnissen. Auf ein stark normierendes Verteilungsschema, wie es zum Beispiel besonders wirksam die Imago mundi des Honorius Augustodunensis (12. Jahrhundert) etabliert hat, scheinen die Autoren des 13. bis 16. Jahrhunderts nicht verzichten zu können. Selbst in Texten, die sich dezidiert als Reiseberichte und Abenteuerfahrten (Marco Polo, Mandeville) präsentieren, bleibt offenbar ein von der christlichen Enzyklopädik präformiertes „Weltbild im Kopf“ vorgeordnet, eine kognitive Karte, die den linear fortschreitenden Erzähltext organisieren half. Ungeklärt ist bislang, welche Gestaltungsfreiheiten und Variationsbreiten dabei möglich waren. Konnte sich jeder Verfasser eines Reiseberichts oder eines in ferne Erdgegenden führenden Abenteuerromans seine eigene kognitive Karte zurechtmachen oder hielt er sich dabei an ein für „objektiv“ gültig gehaltenes Schema? Um diese Frage bearbeiten zu können, ist es hilfreich, die kartografischen Zeugnisse der Zeit systematisch heranzuziehen und auszuwerten. Die Mappaemundi, auch sie eine Frucht der christlichen Enzyklopädik, sind in erster Linie kognitive Karten. In ihnen wirken Parameter der Ars memorativa und der scholastischen Summenwerke. Ihre grafischen Muster und ihre Bild-Text-Kombinationen visualisieren die Handlungsräume narrativ dargestellter Geschichte und Geschichten. Eine géographie absolue, eine nur aus sich selbst heraus begründete Erdkunde, bieten sie nicht. Im Zeitraum zwischen dem ausgehenden 13. und der Wende zum 16. Jahrhundert (Herefordkarte circa 1290, Behaim-Globus 1492) ist aber die verbindliche Setzung und Zuordnung der einzelnen Positionen zu einem Problem geworden, dem die Hersteller von Weltkarten sich zu stellen versuchten. Der Kanon der topografischen Positionen blieb nicht unverändert, neue Positionen traten hinzu, die es im Kartenschema unterzubringen und mit den alten ins Verhältnis zu setzen galt und die auch zu Veränderungen des Schemas zwangen. Diese Veränderungen lassen sich nur zum Teil evolutiv „aus sich heraus“ erklären. Vielmehr ist es aussichtsreich, sie als Resultate von Transferprozessen zu begreifen und zu studieren. Zum Beispiel führt von der Herefordkarte (in England um 1290 angefertigt) zum sogenannten „Katalanischen Weltatlas“ (um 1375 wohl auf Mallorca angefertigt) keine lineare historische Entwicklung, obwohl viele Positionen auf beiden Karten verzeichnet sind. Ihre Differenz erklärt sich wesentlich aus dem Hinzutreten arabisch-jüdischer Konventionen des Kartografierens, von denen der Hersteller der Herefordkarte nichts wissen konnte. Damit läßt sich die Fragestellung präzisieren und ein konkretes Arbeitsvorhaben ableiten:

  • Welche Kontinuitäten, welche Varianten, welche Innovationen sind in der Universalkartografie des 13. bis 16. Jahrhunderts zu verzeichnen?
  • Wo sind Schemabrüche und Diskrepanzen festzustellen?
  • Wo ist mit der Fortschreibung einer Tradition, wo ist mit Transferprozessen zu rechnen?

Damit dem nachgegangen werden kann, wird ein vergleichender Stellenkatalog aller Positionen erarbeitet, die auf den Mappaemundi des 13. bis 16. Jahrhunderts (von der Hereford- und Ebstorfkarte bis zum Behaim-Globus) mit Bildern, Legenden und Bild-Text-Kombinationen verzeichnet sind. Der Stellenkatalog wird auch die kartografischen Schemata und damit die Position der einzelnen Bilder und Legenden sowie ihre kartenbildlichen Relationen zueinander über Bilddateien aufnehmen.

Parallel dazu werden spätmittelalterliche Sachtexte sowie Reise- und Abenteuerbücher auf die Positionen ihrer „erzählten Geografie“ durchzusehen sein und müssen daraufhin überprüft werden, wieweit sich ihre Positionierung mit dem aus den Mappaemundi gewonnen Stellenkatalog vereinbaren läßt oder signifikant davon abweicht.

Die neuen von der Informatik erarbeiteten Methoden der digitalen Bilderfassung, Bildbearbeitung, formalen Erschließung und mehrdimensional zugreifbaren Speicherung von Bildern bieten erstmals mit der Nutzung eines breitbandigen Netzes die Chance, bisher in der Regel schwierig zugängliche Originalkarten als digitale Reproduktionen in der für die Forschung erforderlichen Qualität an den Arbeitsplatz des Wissenschaftlers oder der Wissenschaftlerin zu bringen. Daher wird als zentrales Instrument der Forschung eine multimediale Datenbank repräsentativer mittelalterlicher und frühneuzeitlicher Weltkarten auf der Basis der einschlägigen Forschungsliteratur aufgebaut. [1] Sie besteht aus hochauflösenden digitalen Bildern, die durch zugeordnete Metadaten erschlossen sind, wodurch vielfältige Such- und Zugriffsmöglichkeiten eröffnet werden. Auf der Grundlage dieses Datenmaterials wird dann unter Zuhilfenahme einer Hierarchie einschlägiger Konzepte – das heißt komplexer Objekttypen, die in einer formalen Ontologie organisiert sind – der Stellenkatalog in der Form vernetzter Objektbeschreibungen ausgearbeitet. Über diesen Beschreibungen soll eine kognitiv orientierte Darstellungsebene eingerichtet werden, in der solche Beschreibungen nach visuellen, epistemischen, mnemotechnischen und narrativen Kriterien organisiert und unter Berücksichtigung der diachronen Dimension verknüpft werden können. Diese begriffshistorische Dimension wurde bisher in keinem der bekannten Wissensrepräsentationsschemata berücksichtigt.

Spezielle Benutzungsschnittstellen, wie sie zur Zeit im Kontext der digitalen Bibliotheken auf der Internet-Technologie basiert entwickelt werden, sollen das Hinzufügen beliebiger Annotationen und Dokumente und auch die direkte Einbeziehung der einschlägigen Sekundärliteratur gestatten. Den Mittelpunkt der verteilten Systemarchitekur bildet eine wissensbasierte Suchkomponente, die mit grafischer Unterstützung auch komplexe logische Anfragen über dem gesamten Datenbestand ausführen kann.

Die Weltkarten-Datenbank

Mit dem Entwurf und der Implementierung einer Datenbank für repräsentative mittelalterliche Weltkarten wurde im Wintersemester 2003/2004 der erste Schritt zur Realisierung des „mappae“-Projekts begonnen. Sie ist gegenwärtig der zentrale Teil einer dem Projekt gewidmeten Website, in der ein Katalog dieser Karten in der Form von Objekt- und Bildbeschreibungen mit zugeordneten Kartenbildern zugreifbar ist. Dieser Datenbestand wird ergänzt durch eine Forschungsbibliografie mit zurzeit mehr als 600 Einträgen sowie durch einschlägige Texte, die online in der Form einer „Digitalen Bibliothek“ vorgehalten werden.

Bei der Auswahl der in den Katalog aufgenommenen Karten wurden alle drei wesentlichen Typen von Weltkarten berücksichtigt – Mappaemundi, Ptolemäus Weltkarten und Portulane. [2] Dabei wurden Karten aus dem 9. bis 16. Jahrhundert mit einem Schwerpunkt auf dem 13. bis 16. Jahrhundert berücksichtigt. Maßgebend für die Auswahl war dabei die Verfügbarkeit von Daten, was die Beschreibungen und vor allem qualitativ hinreichende Bildvorlagen betrifft. Bisher wurden in den Katalog über 300 Karten aufgenommen, wobei für die weitaus überwiegende Zahl auch Bilder erfasst sind. Im Hinblick auf die Qualität der Bilder wurde, einer Einteilung der Reproduktionen von Thaller [3] in die vier Klassen „illustrierend“, „lesbar“, „paläografisch“ und „enhanceable“ entsprechend, vor allem auf Vorlagen aus den beiden letzten Klassen Wert gelegt, da sie als einzige für eine wissenschaftliche Bearbeitung hinreichende Detailtreue bieten. In einigen Fällen wurden vorläufig auch Bilder geringerer Qualität aufgenommen, die aber im Lauf der Zeit durch bessere Reproduktionen ersetzt werden sollen.

Für die Beschreibungen der Karten wurde ein Metadatenschema erarbeitet, wobei für die Auswahl der Attribute aus Kompatibilitätsgründen auf das sehr einfache Merkmalsystem des deutschen prometheus-Verbundprojekts [4] aufbauend Vorschläge der Visual Resources Association [5] und weitere aus dem Bereich der Kunstgeschichte und der Museen wie zum Beispiel AMICO (Art Museum Image Consortium) [6] berücksichtigt und um kartenspezifische Merkmale ergänzt wurden.

Auf dieser Grundlage wurde ein Datenbankschema definiert und in dem relationalen Datenbanksystem MySQL implementiert. Da üblicherweise nur eine Teilmenge aller Attribute für die Suche verwendet wird, wurde für die einfache Suche ein Satz von Suchattributen ausgezeichnet; daneben sollen aber wie bei den Online-Bibliothekskatalogen (OPAC) in einem Expertenmodus auch Suchanfragen über alle Attribute möglich sein. Eine wichtige Entwurfsentscheidung besteht in der Trennung der Metadaten für Originale, Faksimiles (Bildvorlagen) und Medienobjekte (digitale Bilder). Dadurch können Redundanzen in den Daten weitgehend vermieden werden. Um eine größtmögliche Vereinheitlichung der Attributwerte zu erreichen, wurden zum einen für viele Attribute Typbeschränkungen festgelegt – beispielsweise für Zeitangaben nach dem ISO-Standard –, und andererseits auch Terminologielisten integriert, die in der Benutzungsoberfläche als aufklappbare Menüs erscheinen. Dies soll künftig um direkte Zugriffsmöglichkeiten auf standardisierte Thesauri erweitert werden, zum Beispiel die Normdaten aus dem Bibliothekswesen für Personen und Körperschaften oder die Thesauri der Getty Foundation für Künstlernamen und geografische Bezeichnungen. Da die meisten Bilddaten urheberrechtlich geschützt sind, wurde für den Zugriff auf die Datenbank ein gestuftes System von Zugriffsrechten eingeführt. Auf ausgezeichneten Client-Rechnern im universitären Intranetz ist ein uneingeschränkter Zugriff möglich, der auf Antrag für Forschungszwecke auf registrierte externe Benutzer erweitert werden kann, wohingegen im Internet nur gemeinfreie Daten sichtbar sind. Es wird erwogen, mittelfristig die Bilder zusätzlich mit digitalen Wasserzeichen zu schützen.

Abbildung 1: Die Suchmaske

Des Weiteren wurden einige Software-Werkzeuge für die Eingabe, Korrektur und Suche implementiert. Da das gesamte System über jeden leistungsfähigen Web-Browser zu bedienen sein soll, wurden mittels PHP entsprechende Masken geschaffen, sodass Eingabe und Korrektur von Metadaten ohne weitere technische Vorkenntnisse möglich sind. Da bei der ersten Befüllung der Datenbank größere Datenmengen anfielen, wurde zusätzlich eine Schnittstelle zur Übernahme von Daten aus separat erstellten Excel-Tabellen und speziell für Bibliografien auch aus BibTeX-Dateien eingerichtet. Was die Bilddaten betrifft, musste zunächst eine Auswahl der am Besten erreichbaren Reproduktionen aus der Literatur vorgenommen werden, da nahezu keine frei zugänglichen digitalen Bilder in hinreichender Qualität verfügbar sind. Eine Ausnahme bilden die in Erlangen erstellten digitalen Bilder der Ebstorfer Weltkarte und die Bilder des Behaim-Globus, die in einem früheren Projekt von Groß-Diapositiven, die das Germanische Nationalmuseum Nürnberg dankenswerterweise für Forschungszwecke zur Verfügung gestellt hatte, digitalisiert worden waren. Die ausgewählten Vorlagen wurden mit einer Scan-Auflösung von 400 oder 600 dpi eingescannt, mit Photoshop farblich nachbearbeitet, gegebenenfalls aus Teilscans zusammengesetzt und dann als Masterdateien im TIFF-Format abgelegt. In die Datenbank werden für die Präsentation daraus erzeugte JPEG-Dateien in drei Auflösungen – volle Größe, Bildschirmgröße und „Thumbnail“ – aufgenommen. Für eine spätere Projektphase ist geplant, in einigen wenigen Fällen direkt von Originalen digitale Fotografien anzufertigen.

Suchanfragen können direkt in eine im Web-Browser aufrufbare Suchmaske eingegeben werden (Abbildung 1). Die Ergebnisse werden als „Thumbnails“ mit einer Kurzbezeichnung präsentiert und können dann in den beiden anderen Größen angezeigt werden, ebenso ihre Metadaten (Abbildung 2). Ist die Treffermenge zu groß, kann die Suche mit weiteren Angaben schrittweise eingeschränkt werden.

Abbildung 2: Suchmaske mit Ergebnisanzeige (Metadaten)

Für die Anzeige der Bilder in der höchsten Auflösungsstufe wird das in jedem modernen Web-Browser laufende Anzeigeprogramm DIGILIB benutzt, das am Max-Planck-Institut für Wissenschaftsgeschichte Berlin und der Universität Bern entwickelt wurde und als OpenSource-Software verfügbar ist. [7] Es bietet den Benutzern und Benutzerinnen eine Zoom-Funktion mit der Möglichkeit, einen Bildausschnitt anzuwählen. Bei jeder Suchanfrage liefert der Server immer nur den jeweils angesteuerten aus dem Gesamtbild errechneten Bildausschnitt, was der Performanz sehr zugute kommt. Große Bilder können auf dem Server auch gekachelt abgespeichert werden. Weiterhin besteht die Möglichkeit, im Bild Marken zu setzen und Bilder oder Bildausschnitte durch URLs zu referenzieren (Abbildung 3). Diese URLs können benutzerseitig gespeichert oder versandt und zu einem späteren Zeitpunkt wieder aufgerufen werden, was eine Neuberechnung des betreffenden modifizierten Bilds bewirkt.

Abbildung 3: DIGILIB-Anzeige mit Marken und generierter URL

Damit ist der status quo der Kartendatenbank skizziert. Künftige Erweiterungen sollen ermöglichen, zu den Marken in DIGILIB Annotationen anzulegen und einige Bildbearbeitungsfunktionen, zum Beispiel zur Manipulation von Helligkeit, Kontrast und Farben, bereitzustellen. Um Bilder in systematischer Weise statisch vergleichen zu können, wurde auf DIGILIB aufbauend das Werkzeug „COMPAGO“ [8] entwickelt, das unter anderem zwei Bilder in nebeneinander liegenden Fenstern anzeigen kann. In unserem Fall würde hiermit der Vergleich von Darstellungen gleicher oder ähnlicher Motive erheblich erleichtert – neben geografischen Objekten verschiedenste Miniaturen wie beispielsweise Stadtsilhouetten, Menschen, Tiere, Monster, spezifische Szenen und allgemein Darstellungen des Fremden oder von Elementen der Heilsgeschichte. Daher soll auch COMPAGO nach Möglichkeit verfügbar gemacht werden.

MapViewer: Dynamischer Vergleich und 3D-Darstellung von Karten

Zum dynamischen Vergleich und zur 3D-Darstellung von Karten wurde im Projekt das Programm MapViewer [9] implementiert, das als eigenständige Komponente auf dem lokalen Arbeitsplatzrechner oder aber auf dem Projektserver ausgeführt werden kann. Ihm liegt die Methode der Bildregistrierung zugrunde, ein Verfahren, um zwei Bilder, die analogen Inhalt in unterschiedlicher Darstellung abbilden, aneinander anzupassen. [10] Alle Registrierungsmethoden nutzen das folgende Schema: Zuerst müssen Merkmale im Ausgangs- und Vergleichsbild erkannt beziehungsweise festgelegt werden, die dann aneinander anzupassen sind (Abbildung 4). Dazu ist ein Transformationsmodell zu bestimmen, wofür globale oder lokale Abbildungsmodelle benutzt werden können. Mit seiner Hilfe wird das Ausgangsbild dann transformiert. In beiden Typen von Abbildungsmodellen werden Rotations-, Skalierungs- und Translationsoperationen benutzt, wobei im globalen Fall eine affine Transformation und im lokalen Fall verzerrende Komponenten mit sogenannten Radial Basis Functions eingesetzt werden. Neben der starren Registrierung durch affine Transformation ist auch eine flexible Form mithilfe von Thin-Plate-Splines möglich. Das Ergebnis kann Überlagerung des transformierten Ausgangsbilds mit dem Vergleichsbild („Alpha-Blending“, Abbildung 5) oder durch Verzerrungsgitter (Abbildung 6) veranschaulicht werden. Letztere sind ein Beiprodukt der Registrierung, wobei zwei Möglichkeiten bestehen: Entweder legt man ein gleichmäßiges Gitter über die Ausgangskarte oder man benutzt das Projektionsgitter der Vergleichskarte und verzerrt das Gitter dann entsprechend.

Abbildung 4: Bildregistrierung – gesetzte Passpunkte

Abbildung 5: Bildregistrierung – „Alpha-Blending“

Abbildung 6: Bildregistrierung – Verzerrungsgitter

Überraschende Einblicke können sich ergeben, wenn historische Karten auf eine Kugel projiziert werden: Simek [11] und andere haben darauf hingewiesen, dass etwa in mittelalterlichen Weltkarten, die nach dem T-O-Schema [12] konstruiert sind, durchaus bemerkenswerte geografische Aspekte deutlich werden, wenn man sie auf eine Kugelschale projiziert. Die Analogie zur Ansicht aus einem geostationären Satelliten über dem Mittelpunkt, zumeist Jerusalem, ist nicht von der Hand zu weisen. Auch die Abbildung von Ptolemäuskarten auf eine Kugel eröffnet interessante Gesichtspunkte (Abbildung 7).

Alle Kartenprojektionen bilden ein geografisches Koordinatensystem mit Längen- und Breitengraden in das kartesische der zweidimensionalen Karte ab. Zur 3D-Projektion müssen also unter Berücksichtigung der Grenzen für Länge und Breite die Koordinaten der ebenen Karte in Kugelkoordinaten umgerechnet werden, um diese dann als Textur auf die Kugel abzubilden. Die modernen mathematischen Projektionstypen werden in azimutale, konische und zylindrische eingeteilt. [13] Liegt eine Karte eines bekannten Projektionstyps vor, so werden ein Projektionsgitter über die Karte gelegt, die 3D-Geometrie der Gitterpunkte und deren Texturkoordinaten bestimmt und dann die 3D-Projektion mittels der Programmbibliothek OpenInventor [14] durchgeführt. Mittelalterliche Karten können keinem dieser Projektionstypen zugeordnet werden [15] ; daher ist zunächst die Registrierung mit einer Referenzkarte bekannter Projektion erforderlich und dann für die registrierte Karte die 3D-Projektion auszuführen.

Abbildung 7: 3D-Projektion einer Ptolemäuskarte

Besonders instruktiv ist die Animation derart erzeugter virtueller Globen, vor allem das interaktive Drehen und Zoomen. Hierfür ist ein Betrachter für VRML-Dateien erforderlich. [16] VRML, die Virtual Reality Modelling Language, ist eine Beschreibungssprache für 3D-Szenen sowie deren Geometrie, Ausleuchtungen und Animationen, die verschiedene Interaktionsmöglichkeiten bietet. Sie wurde ursprünglich als Erweiterung des OpenInventor-Formats eingeführt; da letzteres nicht von allen VRML-Viewern unterstützt wird, führen wir einen expliziten Export nach VRML durch.

Der Stellenkatalog

Konzeption des Stellenkatalogs

Für den Stellenkatalog muss zuerst eine Systematik für die in ihm abzulegenden Objektbeschreibungen, das heißt ein Klassifikationsschema für die Objekttypen und ihre Eigenschaften, erarbeitet werden. Diese Beschreibungen sind mit Positionen auf den zugehörigen Kartenbildern zu verankern. Hierfür wird von der Markierungstechnik in DIGILIB Gebrauch gemacht, sodass die betreffenden Bildausschnitte mit Marken durch Aufruf der generierten URLs angezeigt werden können. Der Zugriff auf die Einträge des Stellenkatalogs wird durch eine Anfragemaske erfolgen.

Eine derartige, allerdings vereinfachte Möglichkeit ist zum Beispiel in der CD-ROM „Mapamondi“ [17] (Katalanischer Weltatlas) der Bibliothèque Nationale de France realisiert; dort können mit diesen Links nur einfache Annotationen in der Form unstrukturierter Texte verbunden werden. Neben der Möglichkeit, benutzerseitig Marken und Annotationen einzutragen, sind vorgegebene Marken verzeichnet, die auf Tabellen mit geografischen Bezeichnungen von Orten in ihrem Umfeld und den Transkriptionen in die moderne Form verweisen (Abbildung 8).

Abbildung 8: CD-ROM „Mapamondi“ der BNF: Bildausschnitt mit Toponymen

Ein anders gearteter Ansatz wird in der von Kline und anderen entwickelten CD-ROM „A Wheel of Memory — The Hereford Mappamundi“ [18] verfolgt. Hier ist ein Stellenkatalog in einer relationalen Datenbank abgelegt. Der Datenbank liegt ein System von Kategorien und Subkategorien mittlerer Granularität zugrunde, das dem Benutzer über eine Suchmaske zugänglich ist, in der er entweder selbst eine Eingabe eintippen oder aus vorgegeben Listen, die als dynamische Menüs angeboten werden, jeweils einen Wert auswählen kann (Abbildung 9). Die Suchergebnisse werden in tabellarischer Form präsentiert und das Bildfenster über dem passenden Bildausschnitt positioniert. Darüber hinaus kann auch in einem Bild der Karte, das aber immer nur einen relativ kleinen Ausschnitt zeigt, grafisch navigiert werden. Es kann stets nur nach einzelnen Stellen oder dargestellten Objekten auf der Karte gesucht werden. Eine weitergehende Verknüpfung der Datenbankeinträge wurde nicht vorgesehen; vielmehr sind zu bestimmten Themen, beispielsweise zur Alexandersage, lediglich feste Bildfolgen vorgegeben, die nicht direkt mit der Datenbank verknüpft sind.

Abbildung 9: CD-ROM „A Wheel of Memory“: Datenbankabfrage

Formale Domänen-Ontologie und Referenzontologie

Im Unterschied zu den beiden genannten Beispielen werden die Einträge in unserem Stellenkatalog aus strukturierten Beschreibungen bestehen. Die grundsätzliche Vorgehensweise zur semantischen Erschließung wurde in einem vorangegangenen Projekt zum Behaim-Globus [19] entwickelt; dieser Ansatz wird in veränderter Form hier wieder aufgenommen.

Voraussetzung für die Erstellung strukturierter Beschreibungen ist der Entwurf eines objekt-zentrierten Konzeptmodells, das alle Typen von Objekten enthält, die im Stellenkatalog erfasst werden sollen. Dazu gehören geografische Darstellungen, zum Beispiel Inseln oder Stadtsilhouetten, ebenso wie Miniaturen nichtgeografischen Inhalts, zum Beispiel das Paradies oder Tiere, sowie Inschriften verschiedener Art. Von grundsätzlicher Relevanz ist dabei die Unterscheidung verschiedener Beschreibungsebenen: Wir gehen aus von der materiellen, grafischen (1) Darstellung bestimmter (2) konkreter oder abstrakter Gegenstände und Sachverhalte auf einem (3) materiellen Objekt – hier einer Karte –, das entweder (4) direkt digitalisiert oder von einer (5) analogen Reproduktion digital erfaßt wurde. Dies muss sich in verschiedenen Klassen deskriptiver Metadaten reflektieren, die im Konzeptmodell zu berücksichtigen sind: zum einen Metadaten für die Karten, ihre Reproduktionen und die davon angefertigten digitalen Bilder mit ihren jeweiligen bibliografischen und technischen Angaben, zum anderen dann für die dargestellten Gegenstände und Sachverhalte sowie ihre grafische und typografisch/textuelle Darstellung.

Dieses Konzeptmodell wird als taxonomische Hierarchie entworfen, das heißt, zu jedem Objekttyp („Konzept“) wird ein „Rahmen“ („Frame“) von Attributen (Merkmalen, Eigenschaften) festgelegt und die Konzepte selbst sowie gegebenenfalls die Attribute werden in einer Vererbungshierarchie angeordnet, mit anderen Worten in der Gestalt einer „formalen Ontologie“. Jede Objektbeschreibung ist nichts anderes als ein für den jeweiligen Objekttyp mit Werten für seine Attribute ausgefüllter Rahmen, eine „Instanz“ (siehe unten). Um möglichst flexible logische Verknüpfungen formulieren zu können, wird als Repräsentationssprache ein entscheidbares Fragment der Quantorenlogik erster Stufe, die sogenannte Beschreibungslogik, gewählt, die für derartige Repräsentationen besonders geeignete Sprachelemente bietet. Für Beschreibungslogiken stehen effiziente Inferenzalgorithmen bereit, die vollständige und korrekte Schlüsse aus komplexen, logisch zusammengesetzten Anfragen garantieren. [20] Für die Implementation der formalen Ontologie setzen wir die im Rahmen des „Semantic Web“ entwickelte „Web Ontology Language“ OWL-DL [21] ein, die eine der am weitesten entwickelten Beschreibungslogiken auf der syntaktischen Basis von XML darstellt.

Eine formale Ontologie definiert das terminologische System für einen Gegenstandsbereich und ist normalerweise an einschlägigen Theorien, durch die dieser erschlossen wird, orientiert. [22] Im Idealfall stützt sie sich auf den Begründungszusammenhang der jeweiligen Theorien ab und benutzt die diesen Theorien zugrundelegenden Abstraktionsverfahren. Sofern es sich um axiomatische Theorien handelt, wird die formale Ontologie auch die axiomatische Basis repräsentieren; ob und in welchem Umfang dies im konkreten Fall möglich ist, hängt von der Ausdruckskraft der gewählten Ontologiesprache ab.

Nun greift jede Domänen-Ontologie auf Allgemeinbegriffe für Zeit und Raum, Ereignisse, Aktoren, Prozesse und weitere zurück, die für die begriffliche Modellierung aller lebensweltlichen Gegenstandsbereiche von Nutzen sind. Darüber hinaus müssen auch die für derartige Modellierungen benutzten logisch-mathematischen Grundbegriffe wie Klasse, Relation, Zahl, aber auch Mereologie (Teil-Ganzes-Beziehungen) festgelegt werden, die üblicherweise auf einer Meta-Ebene vorgesehen sind. Zu diesem Zweck wurden formale Referenzontologien entwickelt, mit denen dann Domänen-Ontologien begrifflich zu verknüpfen sind, so dass sich die spezifischen Konzepte als Spezialisierungen von allgemeinen Konzepten ergeben. Aus technischer Sicht liegt die besondere Bedeutung von Referenzontologien darin, dass sie die Grundlage für semantische Interoperabilität bieten, zum Beispiel für übergreifende Recherchen.

Für den uns interessierenden Anwendungsbereich erscheint das vom Internationalen Komittee für die Dokumentation des „International Council of Museums“ (ICOM-CIDOC) entwickelte objektorientierte „Conceptual Reference Model“ (CRM) [23] besonders geeignet. Das CRM wurde inzwischen unter dem Titel „Information and documentation – A reference ontology for the interchange of cultural heritage information“ als ISO-Standard 21127 angemeldet. Es war zunächst entwickelt worden, um alle in der Museumsdokumentation relevanten Konzepte zu erfassen, ganz besonders die für den museumsübergreifenden Datenaustausch; es ist aber inzwischen weit darüber hinaus gediehen. Die wichtigsten Klassen des CRM sind in Abbildung 10 [24] wiedergegeben sowie einige wichtige Beziehungen zwischen Ereignissen (E5 Event), Personen (E39 Actor), Gegenständen (E18 Physical Stuff), Zeiten (E52 Time-Span) und Orten (E53 Place) angedeutet. Eine zentrale Rolle beim Modellierungsansatz spielen die Merkmale (Properties), über denen die Klassen abstrahiert werden, sowie die Beziehungen (134 bei 81 Klassen) zwischen den Klassen. Da an dieser Stelle nicht weiter auf das CRM eingegangen werden kann, sei abschließend hervorgehoben, dass das CRM die den verschiedenen Datenbank-Schemata für vorhandene Dokumentation zugrunde liegende Semantik und die Struktur von Dokumenten thematisiert. Die Terminologie, die in den Daten verwendet wird, ist selbst nicht Gegenstand des CRM; es werden aber Schnittstellen zu standardisierten Terminologien wie Thesauri zu Personen- und Ortsnamen empfohlen.

Abbildung 10: Wichtige Klassen (Entities) der CRM-Klassenhierarchie

Vorgehensweise zur Erstellung der formalen Domänen-Ontologie

Als Vorgehensweise zur Erstellung von Domänen-Ontologien hat es sich bewährt, zuerst einen Katalog charakteristischer Fragen aufzustellen. Dieser soll an typischen Beispielen zeigen, was in unserem Fall im Stellenkatalog dargestellt und damit Gegenstand späterer Anfragen werden kann. Die Fragenliste wird zunächst anhand einiger reichhaltig ausgestatter typischer Weltkarten sowie unter Berücksichtung der für den Behaim-Globus bereits vorhandenen Konzepthierarchie erstellt und kann später im Hinblick auf weitere Karten erweitert und modifiziert werden. Da der Behaim-Globus Elemente aus den drei wesentlichen Typen von Weltkarten – Mappaemundi, Ptolemäuskarten und Portulane – aufweist, bietet die für ihn erarbeitete Konzepthierarchie (Abbildung 11) einen guten Ausgangspunkt.

An erster Stelle stehen einfache Fragen, die wir „Navigations-Anfragen“ nennen wollen – sie fragen üblicherweise direkt nach einzelnen Objekten oder Mengen von solchen. Dies ist der einzige Fragetyp, der in Datenbankanwendungen wie der genannten zur Herefordkarte möglich ist. Solche Fragen können in der Praxis entweder durch Ausfüllen einer Suchmaske, die einen leeren Objektrahmen darstellt, oder durch grafische Navigation auf einem Kartenbild gestellt werden. Sie lassen sich typischerweise durch „Was ist ...? “ oder „Wo ist ...? “ wiedergeben. Ein Beispiel hierfür – das wie alle folgenden auf den Behaim-Globus bezogen ist – wäre: „Wo sind portugiesische Wappen dargestellt?“

Die zweite Klasse umfaßt begrifflich-deskriptiv zusammengesetzte Fragen, so nach Eigenschaften von Objekten (Welche Farben haben die Zelte in Afrika?), nach Objekten und einfachen Objektmengen (Wie sieht die portugiesische Fahne aus? Zu welcher Klasse gehört ...?) und nach Objektklassen (Welche Wappen gibt es? Wie viele Fahnen gibt es? Was sind die Tierkreiszeichen? Welche Tiere sind in Afrika dargestellt? In welcher Region ist ...?). Weiterhin gehören hierzu komplexe Fragen nach Objekten und Objektmengen (Wo sind Nürnberger Wappen? Welche Herrschaftszeichen sind benannt?), nach Topologie und Orientierung (Welche Regionen sind in ...enthalten? Welche Städte liegen östlich von ...?) und nach Erklärungen (Was ist die Ekliptik? Warum ist ...hier?). Während Erklärungsfragen an sich schon besondere Anforderungen stellen, denn zu ihrer Beantwortung sind neben den in der Konzepthierarchie festgelegten Beziehungen noch weitere Hintergrundinformationen erforderlich, setzen auch schon Fragen nach Topologie und Orientierung eine anspruchsvolle formale Repräsentation räumlicher Objekte bestimmter Granularität, ihrer Beziehungen untereinander samt dazugehörigen Schlussregeln voraus. Das läßt sich leicht vor Augen führen, wenn man überlegt, welche Schlüsse zur Beantwortung einer Frage wie „Wie heißt die größte Insel zwischen Griechenland und Afrika?“ notwendig sind.

Von einem solchen Fragenkatalog ausgehend kann die formale Ontologie für den Stellenkatalog schrittweise definiert werden: [25]

  • Aufzählung der Objekttypen (zum Beispiel „geografisches Objekt“);
  • Unterscheidung von Konzepten und Attributen (zum Beispiel „Insel“ und „geografischer Name“);
  • Anordnung der Objekttypen in einer Konzepthierarchie und, soweit sinnvoll, auch der Attribute in einer Rollenhierarchie;
  • Bestimmung der Instanzen (Individuenobjekte) für typische Beispiele (zum Beispiel „Island“);
  • Bestimmung zusammengesetzter Objekte und ihrer Teile;
  • Bestimmung von Eigenschaften und Beschränkungen für Attribute bezüglich Typ und Anzahl (zum Beispiel „Jahr“ ist eine natürliche Zahl zwischen 800 und 1550).

Für die Formulierung derartiger formaler Ontologien sind leistungsfähige Editoren mit grafischen Benutzungsoberflächen wie Protégé [26] verfügbar; im konkreten Fall wird Protégé mit einer Erweiterung für OWL eingesetzt (Abbildung 12). Dieser Editor bietet vielfältige Möglichkeiten, wozu unter anderem die Visualisierung des Konzeptgraphen als aktiver, navigierbarer Graph und Konsistenzprüfungen gehören. Letztere sind möglich durch die Kommunikation mit einer OWL-Inferenzmaschine, die als Server-Prozess gestartet werden kann; inkonsistente Eingaben können so festgestellt und in Protégé grafisch hervorgehoben werden.

Auch für die Erfassung der Einträge des Stellenkatalogs ist Protégé bestens geeignet: Es bietet ein eigenes Fenster für die Eingabe von Instanzen, deren Integrität dann gleichfalls in der genannten Weise sofort überprüft werden kann.

Abbildung 11: Oberer Teil der Konzepthierarchie für den Behaim-Globus

Abbildung 12: Protégé: Ansicht bei der Bearbeitung des CIDOC CRM

Einfache Anfragen

Um die Benutzung des künftigen Stellenkatalogs zu illustrieren, sei auf die im Behaim-Globus-Projekt erarbeitete Lösung verwiesen, die als Vorstufe für den neuen Entwurf dient. Die Konzepthierarchie mit Attributen und Vererbung sowie die Instanzen waren in einer objekt-orientierten Programmiersprache (CLOS in CommonLISP) implementiert worden, die allerdings über keine logische Inferenzkomponente verfügt. Daher waren nur einfache Anfragen nach Objektbeschreibungen im Stellenkatalog möglich, jedoch nicht solche, die die Auswertung logischer Verknüpfungen erfordern, die also über die einfache Navigation im Konzeptgrafen hinausgehen. Zur Formulierung der Anfragen stand eine Anfragemaske bereit, die neben den Feldern für einzutragende Attributwerte auch eine dynamische grafische Darstellung des Konzeptgrafen enthielt (Abbildung 13). Weiterhin konnte auch in den Bildern der Globussegmente navigiert werden. In den Objektbeschreibungen wird auf die bildliche Darstellung der jeweiligen Objekte – Miniaturen oder Textfelder – verwiesen; diese sind durch einen sie umschließenden Polygonzug im Bildkoordinatensystem dargestellt. Anfrageresultate sind Instanzenbeschreibungen, die in einem jeweils neu generierten Fenster in tabellarischer Form mit Attributnamen und -werten und dem dazugehörigen Bildausschnitt angezeigt werden. Um die Suche gegenüber Schreibvarianten, zum Beispiel bei Toponymen, tolerant zu machen, wurde ein Algorithmus zur approximativen Volltextsuche integriert, der nicht nur zur Analyse der eingegebenen Attributwerte, sondern auch bei der Volltextsuche in den zahlreichen in frühem Neuhochdeutsch formulierten Inschriften eingesetzt wurde.

Abbildung 13: Anfragemaske des Behaim-Globus-Systems und Suchergebnis

Beschreibungslogische Wissensrepräsentation und komplexe Anfragen

Als nächster wichtiger Schritt muss die Vernetzung der Objektbeschreibungen gemäss den noch zu erarbeitenden kognitiven Relationen erfolgen. Hierzu ist die Konzepthierarchie um eine weitere Schicht mit geeigneten Konzepten und Attributen zu erweitern. Auch hierfür wird zunächst eine Liste typischer komplexer Anfragen erstellt. Beispiele für solche Fragen wären

  • Was ist das Datum der frühesten Karte, auf der X vorkommt?
  • Was ist die chronologische Reihenfolge der Erwähnungen von X?
  • Welche Reproduktionen des Kartentyps Y gibt es wo?
  • In welchen Veröffentlichungen werden Beatus-Karten behandelt?
  • Nenne Beiträge über Portulane, die bei Mittelalter-Konferenzen vorgetragen wurden!

Derartige Anfragen erfordern zu ihrer Bearbeitung nicht nur eine Suche im Konzeptgrafen unter Einbezug von Oberbegriffen, sondern auch die Auswertung logischer Kombinationen. Mit der Einbettung der Domänen-Ontologie in das CIDOC CRM wird eine neue Dimension von Verknüpfungen und damit auch Anfragemöglichkeiten eröffnet: Da im CRM Ereignisse eine besondere Rolle spielen – denn Gegenstände und ihre Beziehungen untereinander können nur durch Ereignisse verändert werden – können auf diesem Weg übergreifende Verbindungen zwischen Einträgen des Stellenkatalogs hergestellt werden. „Ereignisse (E5 Event) verändern Gegenstände (E18 Physical Stuff) in vielfältiger Weise, Personen (E39 Actor) nehmen an Ereignissen in verschiedener Funktion teil, die Ereignisse finden an Orten (E53 Place) und in bestimmten Zeiträumen (E52 Time-Span) statt“. [27] Um grundsätzlich zu zeigen, dass eine beschreibungslogische Wissensrepräsentationssprache hinreichend ausdrucksstark ist, um die Anforderungen an die Realisierung des Stellenkatalogs zu erfüllen, wurde bereits im Behaim-Globus-Projekt ein erfolgreicher Versuch durchgeführt. Dazu war das Konzeptmodell in eine gegenüber OWL-DL wesentlich vereinfachte beschreibungslogische Sprache (CLASSIC) übertragen und eine Teilmenge der Objektbeschreibungen aus dem Stellenkatalog in entsprechende Instanzenbeschreibungen umgesetzt worden. In diesem Rahmen konnten komplexe Anfragen gestellt werden, zu deren Beantwortung logische Schlussfolgerungen erforderlich sind, hier allerdings auf räumliche Relationen fokussiert: Topologie, Orientierung und Skalen.

Für Anfragen an in der „Web Ontology Language“ OWL formulierte Wissensbasen wurde die Anfragesprache OWL-QL (OWL Query Language) [28] definiert. Da allerdings Eingaben in einer logischen Formelsprache einer fachwissenschaftlichen Öffentlichkeit nicht zumutbar sind, muss zur Erleichterung der Benutzung des Stellenkatalogs noch eine geeignete grafische Benutzungsoberfläche geschaffen werden.

Typische Folgerungen von Aussagen über Konzepte und Instanzen, die von einem beschreibungslogischen System ausgeführt werden können, sind aus formaler Sicht die folgenden:

  1. Gegeben sei eine Konzeptbeschreibung:
    • Ist sie konsistent mit der Terminologie?
    • Ist sie spezieller oder allgemeiner als eine andere Beschreibung (Subsumtion)?
    • Ist sie äquivalent (bedeutungsgleich) zu einer anderen Beschreibung?
    • Bezeichnen zwei Klassen dieselbe Menge von Individuen?
    • Was sind die speziellsten eingeführten Beschreibungen, mit denen man sie klassifizieren kann?
    • Auf diese Weise kann eine Strukturierung des Wissensbestands durch automatische Berechnung der Taxonomie erreicht werden.
  2. Gegeben sei eine Instanzenbeschreibung:
    • Ist es eine Instanz einer Klasse (Instantiierung) und wenn ja, welcher?
    • Welche sind die Instanzen einer Klasse?

Damit wird die Auswertung kontextsensitiver Beziehungen ermöglicht – also genau dasjenige Leistungsmerkmal, das von dem Stellenkatalog einschließlich der kognitiven Relationen erbracht werden soll. Unter Berücksichtigung der oben genannten Beschreibungsebenen können auch multiple Sichten beziehungsweise Perspektiven auf Objekte dargestellt und ausgewertet werden – etwa auf einen Text als physisches, logisches, rhetorisches oder linguistisches Objekt.

Die Vernetzung der Objektbeschreibungen unter kognitiven Aspekten kann auf diese Weise dynamisch erfolgen. Sind bestimmte Themen als Konzepte in der Hierarchie verankert, können dazu passende Beziehungen festgelegt werden, wobei die Inferenzmaschine die Aufgaben der Konsistenzprüfung und automatischen Klassifikation übernimmt. Dies würde beispielsweise für das Beispiel der Alexandersage auf der Hereford-Karte bedeuten, dass nicht eine separate, von der Datenbank getrennte und fest vorgegebene Folge statischer Bilder erstellt werden muss, sondern dass eine derartige „Themenreise“ anhand der gegebenen Merkmale aus der Datenbasis assoziativ generiert werden kann.

Textbearbeitung und Verwaltung von Links

Für die in den Karten enthaltenen Texte wurde schon beim Behaim-Globus eine Einteilung in drei Klassen vorgesehen: Eigennamen (Toponyme, Personennamen), Formulierungen vom Umfang eines Satzes oder Satzteils und längere kohärente Texte. Die formale Beschreibung der Texte mußte allerdings von Hand vorgenommen werden; außer der fehlertoleranten Zeichenkettensuche waren keinerlei linguistische Analyseverfahren vorgesehen. In die in Instanzen niedergelegten Texte konnten allerdings Hypertext-Links eingetragen werden, die jeweils in einem eigenen Attribut gesammelt und bei Anfragen ausgewertet werden konnten. Inzwischen sind im Hinblick auf komplexe Metadaten neue Darstellungsverfahren entwickelt worden, die davon ausgehen, dass zumindest die längeren Texte mittels einer XML-Sprache repräsentiert und ausgezeichnet sind, wie dies etwa die „Text Encoding Initiative“ (TEI) [29] vorschlägt. Derart codierte Texte könnten dann mit einem Schema nach dem „Metadata Encoding and Transmission Standard“ (METS) [30] verbunden werden, das unter anderem hinreichende Möglichkeiten zur Darstellung von Strukturinformation und Links bietet. Für die Bearbeitung von in XML codierten Texten und den inhalts-orientierten Zugriff soll der Arboreal XML-Browser [31] eingesetzt werden, den wir bereits in einem anderen Projekt benutzen. Dieses flexible OpenSource-Werkzeug ermöglicht verschiedene Formen der Suche in solchen Texten, unterstützt den Textvergleich – was von besonderem Interesse für die verschiedenen historischen Lesungen der Inschriften auf dem Behaim-Globus ist –, besitzt Schnittstellen zu Wörterbüchern und Thesauri und linguistischen Analysekomponenten (aktuell zur Wortmorphologie) für verschiedene Sprachen, erlaubt Annotationen und ermöglicht via DIGILIB den Zugriff auf verknüpfte Bilder.

Ausblick

Abschließend seien noch einige Fernziele des Projekts genannt. Hierzu gehören solche, die noch intensiver Grundlagenforschung bedürfen, aber auch Ziele, die eher die praktische Benutzbarkeit eines derartigen Systems thematisieren und daher Entwicklungscharakter haben.

Zur ersten Gruppe gehört zum Beispiel die wichtige Frage nach der Darstellung zeitveränderlicher Konzepte. Es steht außer Zweifel, dass in dem relativ großen Untersuchungszeitraum die Deutung vieler der dargestellten Objekte und Sachverhalte einem Wandel unterliegt. Dies betrifft neben der Darstellung geografischer Gegebenheiten auch viele Darstellungen enzyklopädischen und narrativen Charakters. Es ist eine bisher kaum untersuchte Frage, wie sich dies in einer formalen Sprache zur Wissensrepräsentation abbilden läßt. Auf jeden Fall wird mit der Darstellung der Konzepte auch eine interne Zeitrepräsentation zu verbinden sein. Auf lange Sicht ist es auch unbefriedigend, Einträge des Stellenkatalogs nur in tabellarischer Form zu präsentieren. Daher sollte untersucht werden, inwieweit sich Techniken der automatischen Textgenerierung auf solche Darstellungen anwenden lassen.

Auf der Seite der Benutzbarkeit steht ohne Zweifel die Umsetzung eines an die repräsentationssprachlichen Ausdrucksmöglichkeiten angepassten Navigationskonzepts. Bevor dessen technische Realisierung angegangen werden kann, ist eine Reihe eher grundsätzlicher Probleme zu lösen. Hierzu gehört etwa die Frage, was zu welchem Zeitpunkt und wie erreichbar sein soll, also die des Bezugs zum aktuellen Bearbeitungskontext. Verschiedene Benutzer und Benutzerinnen werden mit dem Stellenkatalog sehr verschiedene Forschungsfragen bearbeiten wollen; daher wird es notwendig sein, einen gewissen Grad an Personalisierung einzuführen, der unter anderem bestimmte Benutzerpräferenzen, etwa durch kontextsensitive und präferenzgesteuerte Anzeige, berücksichtigt. So sollte allen Benutzern und Benutzerinnen eine ihrem individuellen Interessenprofil angepasste Arbeitsumgebung zur Verfügung stehen, in der sie ihre eigenen assoziativen Verknüpfungen, Lesemarken und Arbeitsnotizen ablegen und bei wiederholten Sitzungen wieder aufrufen können. Unabhängig davon sollte die Anfrageschnittstelle auch einen Zugriff auf verschiedene Glossare und Indexlisten, zum Beispiel Toponyme, Personennamen, Themen und andere Schlüsselwörter bieten. Auch der Zugriff auf die Daten über eine Zeitachse ist ein unbestrittenes Desiderat. Weiterhin sollte den Benutzern und Benutzerinnen nicht nur ein freier Zugang auf alle bisherigen Bearbeitungsschritte mit dem System, das heißt ihre individuelle „Navigationsgeschichte“, möglich sein, sondern von jedem Bearbeitungsschritt ist zu fordern, dass er grundsätzlich umkehrbar ist, sodass jederzeit die Rückkehr in einen früheren Zustand der Bearbeitung möglich ist. Diese Elemente bilden nur den Anfang für eine übergreifende Konzeption von Assistenzfunktionen für die wissenschaftliche Arbeit mit einem solchen Stellenkatalog.

Diskussion: Forschungsfragen, digitale Präsentation und Erschließung

Bei Projekten zur Digitalisierung und formalen Erschließung historischer Quellen wie dem vorgestellten liegt es nahe, zu fragen, inwiefern die gewählte Vorgehensweise zu einer Konvergenz von zur Zeit getrennten Quellenangeboten aus Archiven, Bibliotheken und Wissenschaft führen kann. Dies ist grundsätzlich zu bejahen, auch wenn im aktuellen Fall der mittelalterlichen Weltkarten trotz zahlreicher Digitalisierungsprojekte in diesen Bereichen noch so gut wie keine geeigneten Ressourcen zur Verfügung stehen. Der Schlüssel zu einer Konvergenz liegt in der kompromisslosen Nutzung einschlägiger Standards, wie sie auch in unserem Projekt erfolgt. Die vor allem bei digitalen Bibliotheken und Archiven erfolgte Entwicklung hat zu Standardisierungsvorschlägen geführt, die wie METS in formaler [32] und das CIDOC CRM in inhaltlicher Hinsicht eine Integration heterogener Ressourcen in greifbare Nähe rücken lassen. Sind unter dieser Voraussetzung geeignete digitale Quellen erreichbar, so lassen sie sich ohne weiteres integrieren; allerdings sollte die Verfügbarkeit durch die Verwendung von persistenten URLs abgesichert sein. Auf diese kann eine Zusammenfassung der digitalen Quellen in virtueller Form, erfolgen, um sie dann jeweils an unterschiedlichen Orten unter bestimmten Gesichtspunkten zu erschließen. Um sie allerdings in den Stand einer verteilten erschlossenen „virtuellen Kollektion“ zu bringen, bedarf es noch weiterer Infrastrukturmaßnahmen, etwa in der Form von Servern, die einschlägige Linkfarmen allgemein verfügbar halten. Den jeweiligen Projekten fällt die Aufgabe zu, nicht nur ihre Ergebnisse über Links dort einzubringen, sondern auch Methoden zu entwickeln, um die auf diesem Wege erreichbaren Arbeitsergebnisse unterschiedlicher Partner mit den eigenen zu vergleichen sowie Ergänzungen und Kommentare hinzuzufügen. Dies würde langfristig zu einer neuen Ebene der wissenschaftlichen Kommunikation führen. Die Unterscheidung zwischen Archivierung, Erschließung, Edition und wissenschaftlicher Publikation wird dabei nicht verschwinden, aber die einzelnen Stufen könnten wesentlich dichter vernetzt werden, als es bislang möglich ist.

Das „mappae“-Projekt selbst ist offen angelegt und strebt keine umfassende digitale Edition mittelalterlicher Weltkarten an, aber die Modalitäten der tiefen Erschließung, auch wenn sie nur partiell ist, haben Charakteristika einer Edition. Von einer Edition könnte nur dann gesprochen werden, wenn „Vollständigkeit“ (in irgendeinem Sinn) angestrebt würde. Insofern können die Erschließungsaktivitäten des Projekts im Prinzip Bausteine für Editionen liefern; ihre besondere Leistung besteht in einer mehrdimensionalen Vernetzung sowie einer Systematisierung der Metadaten, gewissermaßen als Editions-Vorstufe.

Eine entscheidend weiter gehende Frage wäre, ob sich Forschungsfragen und Forschungsergebnisse durch digitale Quellenangebote ändern. Nun werden Digitalisierungstechniken als solche nicht unmittelbar zu besseren Ergebnissen führen. Zwar wird das Datenmaterial in neuer Qualität verfügbar, aber Forschungsfragen sind primär theoriegetrieben und wohl zunächst nur in geringem Maß, wenn überhaupt, abhängig vom Präsentationsmedium.

Allerdings eröffnen bildseitig die durch das digitale Medium erreichbare höhere Präzision und die Anwendung von Methoden der Bildverarbeitung neue Möglichkeiten zur Manipulation digitaler Bilder und der Visualisierung – beispielsweise durch Programme wie „COMPAGO“ und MapViewer –, so dass manche der bestehenden Forschungsfragen erst mit diesen Mitteln sinnvoll bearbeitet werden können. Dasselbe gilt für die nunmehr möglich gewordene Vernetzung und Aggregation der Daten, die einen quantitativen Sprung in neue Größenordnungen ermöglicht, zu deren Bearbeitung eine ganze Palette (semi-)automatischer mathematischer Auswertungsverfahren bereit steht. Über die bekannten statistischen Verfahren hinaus wurden in den letzten Jahren mehrfach auch Methoden der Bioinformatik mit großem Erfolg eingesetzt, so etwa Techniken der phylogenetischen Bäume zur Bestimmung von Stemmata für Handschriftenvarianten.

Im Hinblick auf die interaktive Bearbeitung von Texten ist neben Volltext- und linguistisch informierter Suche auch an Techniken des Text-Mining zu denken, um die textkritische philologische Arbeit zu unterstützen.

Die Nutzung all solcher Verfahren kann zu neuen Hypothesen führen, die ohne sie nicht möglich gewesen wären und damit auch zu neuen Forschungsfragen anregen.

Der entscheidende Schritt unseres Ansatzes liegt aber im Übergang von der bloßen Werkzeugnutzung zu neuen Strukturierungs- und Beschreibungsverfahren. Auch die theoriegeleitete semantische Erschließung geht von vorhandenen Forschungsfragen aus, doch die Notwendigkeit einer einheitlichen normierten Darstellung erbringt eine neue Qualitätsstufe in der systematischen Auswertung, die ohne sie nicht möglich ist. Die anfängliche Idee des Semantic Web, alle Webseiten mit Metadaten zu annotieren, um damit eine systematische Suche durchführen zu können, hat sich bekanntlich in einem derart verteilten System ohne zentrale Kontrollinstanz nicht durchsetzen können. Demgegenüber hat sich der Einsatz standardisierter formaler Beschreibungsverfahren innerhalb einzelner Projekte bewährt. Der damit verbundene zweifellos hohe Aufwand erbringt aber mit dem Einsatz der logischen Verknüpfung und des automatischen formalen Schließens einen erheblichen Mehrwert, denn dadurch werden Anfragen an den Datenbestand möglich, die mit traditionellen Erschließungstechniken überhaupt nicht oder zumindest nicht mit den üblicherweise verfügbaren Ressourcen sinnvoll bearbeitet werden konnten. Selbstverständlich werden eine systematische logische Erschließung und automatische Inferenzverfahren allein nicht die Lösung aller Forschungsfragen bescheren, aber sie erbringen eine neue Qualität bei der Unterstützung der Interpretation des Datenmaterials. Deduktive Methoden ersetzen nicht die ars inveniendi, sie können jedoch neue Bezüge aufzeigen und besitzen damit ein hohes Potential zur Induktion innovativer Forschungsfragen.

Danksagung

An erster Stelle gebührt Hartmut Kugler ein herzlicher Dank für die produktive und stets erfreuliche Zusammenarbeit. Weiterhin ist vielen Studierenden und studentischen Hilfskräften zu danken, insbesondere Andrea Hofmann für MapViewer und Barbara Ries, ohne deren engagierten Einsatz bei der Erfassung und Bearbeitung der Bilder und der Erstellung der Metadaten die Datenbank noch ziemlich leer wäre.

***

Professor Dr. Günther Görz, Professor für Informatik (Künstliche Intelligenz) an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Arbeitsgebiete: Maschinelle Sprachverarbeitung, insbesondere Dialogsysteme, angewandte Logik und Wissensrepräsentation, digitale Medien. Weitere Interessen: Wissenschaftsgeschichte, Logik und Sprachphilosophie mit Schwerpunkt in der Mediävistik. E-Mail: goerz@informatik.uni-erlangen.de


[1] U.a. Destombes, Marcel, Mappemondes A.D. 1200-1500, Monumenta Cartographica Vetustioris Aevi, Amsterdam 1964 und Harley, J.B.; Woodward, David (Hgg.), The History of Cartography, Bd. 1, Chicago 1987.

[2] Als Vorlage für die Auswahl dienten einschlägige Aufstellungen und Klassifikationsschemata bei Arentzen, Jörg-Geerd, Imago Mundi Cartographica – Studien zur Bildlichkeit mittelalterlicher Welt- und Ökumenekarten unter besonderer Berücksichtigung des Zusammenwirkens von Text und Bild (Münstersche Mittelalter-Schriften 53), München 1984; von den Brincken, Anna-Dorothee, Kartographische Quellen. Welt-, See- und Regionalkarten (Typologie des sources du moyen âge occidental 51) Turnhout, Belgium 1988; Destombes, Mappemondes (wie Anm. 1), Harley; Woodward, History (wie Anm. 1) und Uhden, Richard, Zur Herkunft und Systematik der mittelalterlichen Weltkarten, in: Geographische Zeitschrift 37 (1931), S. 321-340.

[3] Thaller, Manfred, From the Digitized to the Digital Library, in: DLib Magazine, Februar 2001.

[4] <http://www.prometheus.de> (15.02.2006).

[5] <http://www.vraweb.org/vracore3.htm> (15.02.2006).

[6] <http://www.amico.org/AMICOlibrary/dataspec.html> (15.02.2006).

[7] <http://digilib.berlios.de/> (15.02.2006).

[8] Graßhoff, Gerd; Liess, Hans-Christoph; Nickelsen, Kärin (Hgg.), COMPAGO – Der systematische Biodvergleich. Handbuch (Bern Studies in the History and Philosophy of Science. Educational materials 3), Bern 2001.

[9] Hofmann, Andrea, Vergleich und 3D-Darstellung von alten Landkarten durch Bildregistrierung (Diplomarbeit im Fach Informatik am Institut für Informatik 8, Universität Erlangen-Nürnberg), Erlangen 2005.

[10] Gottesfeld-Brown, Lisa, A Survey of Image Registration Techniques, in: ACM Computing Surveys 24 (1992), S. 325-376; Zitová, Barbara; Flusser, Jan, Image Registration Methods. A Survey, in: Image and Vision Computing 21 (2003), S. 977-1000.

[11] Simek, Rudolf, Erde und Kosmos im Mittelalter, München 1992.

[12] „Terrarum Orbis“, Bezeichnung für kreisförmige („O“) geostete Weltkarten, deren obere Hälfte vom asiatischen Kontinent eingenommen wird, die linke untere Hälfte von Europa und die rechte von Afrika. Getrennt werden die Kontinente durch „T“-förmig dargestellte Wassermassen, wobei Don und Nil den Querbalken und das Mittelmeer den Längsbalken bilden.

[13] Schröder, Eberhard (Hg.), Kartenentwürfe der Erde. Kartographische Abbildungsverfahren aus mathematischer und historischer Sicht (Mathematische Schülerbücherei 128), Leipzig 1988; Hoschek, Josef, Mathematische Grundlagen der Kartographie (BI-Hochschul-Taschenbücher 443/443a), Mannheim 1984; Spallek, Karlheinz, Kurven und Karten, Mannheim 1980.

[14] <http://www.sgi.com> (15.02.2006).

[15] Dies trifft auch auf die sogenannten Ptolemäischen Projektionen und Portulane zu; zu historischen Projektionen allgemein siehe: Keuning, Johannes, The History of Geographical Map Projections until 1600, in: Imago Mundi 12 (1955), S. 1–24.

[16] VRML-Viewer gibt es als Plugin für verschiedene Browser, zum Beispiel den Cortona VRML-Client von parallelgraphics.org, aber auch als separate Applikationen.

[17] Bibliothèque Nationale de France (Hg.), Mapamondi – une carte du monde au XIVe siècle (Atlas Catalan). CD-ROM, Paris 1998.

[18] Kline, Naomi Reed, A Wheel of Memory. The Hereford Mappamundi. CD-ROM, Ann Arbor 2001; Dies., Maps of Medieval Thought. The Hereford Paradigm, Woodbridge, Suffolk 2001.

[19] Görz, Günther; Holst, Norbert, The Digital Behaim Globe (1492), in: Bearman, David; Trant, Jennifer (Hgg.), Museum Interactive Multimedia 1997. Cultural Heritage Systems – Design and Interfaces. Selected Papers from ICHIM-97, The Fourth International Conference on Hypermedia and Interactivity in Museums, Archives & Museum Informatics and Louvre, Paris 1997, S. 157-173.

[20] Donini, Francesco; Lenzerini, Maurizio; Nardi, Daniele; Schaerf, Andrea, Reasoning in Description Logics, in Brewka, Gerhard (Hg.), Foundations of Knowledge Representation, Stanford 1996, S. 191-236.

[21] Smith, Michael K.; Welty, Chris; McGuinness, Deborah L., OWL Web Ontology Language Guide. W3C Recommendation 10 February 2004, W3C (World Wide Web Consortium), Geneva 2004.

[22] Zu den theoretischen Aspekten formaler Ontologien siehe unter anderem: Menzel, Chris, Ontology Theory, in: Euzenat, Jérome; Gomez-Perez, Asuncion; Guarino, Nicola; Stuckenschmidt, Heiner (Hgg.), Ontologies and Semantic Interoperability, Proc. ECAI-02 Workshop, (CEUR-WS 64), Lyon 2002, Guarino, Nicola, Formal Ontology and Information Systems, in: Ders. (Hg.), Formal Ontology in Information Systems. Proceedings of FOIS-98, Trento, Italy, 6-8 June 1998, IOS Press, Amsterdam 1998, S. 3-15, zu deren praktischen Aspekten zum Beispiel: Noy, Natalya, Ontologies, in: Farghaly, Ali (Hg.), Handbook for Language Engineers, Stanford 2003, S. 181-211.

[23] Siehe: Crofts, Nick; Doerr, Martin; Gill, Tony; Stephen Stead; Stiff, Matthew, Definition of the CIDOC Conceptual Reference Model. Version 4.2, The International Committee for Documentation of the International Council of Museums (ICOM-CIDOC), Paris, June 2005, Produced by the ICOM/CIDOC Documentation Standards Group, continued by the CIDOC CRM Special Interest Group; weitere detaillierte Informationen sind zu finden unter: <http://cidoc.ics.forth.gr/> (15.02.2006). Eine sehr lesenswerte Übersicht mit Beispielen bietet: Ermert, Axel u.a., Das CIDOC Conceptual Reference Model. Eine Hilfe für den Datenaustausch?, Berlin 2004.

[24] Ermert, CIDOC (wie Anm. 23).

[25] Siehe dazu für weitere Details: Noy, Ontologies (wie Anm. 22), S. 181-211 und Brachman, Ron J. u.a., Living with CLASSIC: When and How to Use a KL-ONE-like Language, in: Sowa, John (Hg.), Principles of Semantic Networks, Kap. 14, San Mateo 1991, S. 401-456.

[26] <http://protege.stanford.edu/> (15.02.2006).

[27] Ermert, CIDOC (wie Anm. 23).

[28] Fikes, Richard; Hayes, Pat; Horrocks, Ian, OWL-QL – A Language for Deductive Query Answering on the Semantic Web, KSL-TR-03-14, Knowledge Systems Laboratory, Stanford 2003.

[29] <http://www.tei-c.org/P4X/> (15.02.2006).

[30] <http://www.loc.gov/standards/mets/> (15.02.2006).

[31] <http://archimedes.fas.harvard.edu/arboreal/> (15.02.2006).

[32] Zur Anwendung des „Metadata Encoding and Transmission Standard“ METS siehe zum Beispiel Entwurf und Fallstudien der Oxford Digital Library: <http://www.odl.ox.ac.uk/projects/projects_mets.htm> (15.02.2006).


Historische Filmeditionen im Internet-Zeitalter

von Christopher N. Carlson

Die historische Filmeditionsarbeit steht mittlerweile im Spannungsverhältnis zwischen überlieferten Arbeitsweisen und den technischen Möglichkeiten von digitalen und nicht-linearen Bearbeitungsplattformen. Einerseits ist man weiterhin stark mit dem Filmischen (im ursprünglichen Sinne des Wortes) verbunden, was durchaus als limitierender Faktor angesehen werden muss. Andererseits hat man neue Arbeitswerkzeuge an die Hand bekommen, die manches an der historischen Filmeditionsarbeit erleichtern – und anderes überhaupt erst ermöglichen.

***

Einleitung

Schon seit geraumer Zeit gibt es unter Historikern/innen eine kontroverse Diskussion über den Quellenwert von Filmmaterial. Digitale und nicht-lineare Speicher- und Retrievaltechniken geben dieser Diskussion neue Impulse. Auf jeden Fall wird zu Recht gefordert, dass die Verwertbarkeit von audiovisuellen (AV) Medien in der geschichtlichen Forschung und Lehre durch eine umfassende quellenkritische Analyse mit entsprechender Dokumentation abgesichert werden muss. Auch sind bei AV-Medien besondere urheber- und persönlichkeitsrechtliche Gesichtspunkte zu berücksichtigen.

Die vorgreiflichen Aspekte der wissenschaftlichen Filmedition herkömmlicher Prägung bestehen unverändert fort. Weiterhin müssen filmische Quellen technisch und inhaltlich sorgsam ausgewählt, und es müssen Provenienz und Dignität überprüft und nachgewiesen werden. Mithilfe von Bewegtbilddatenbanken können jedoch Erschließungen und Annotationen sehr viel besser durchgeführt werden, als dies früher möglich gewesen wäre. Neben dem qualitativen Gesichtspunkt kommen auch neue quantitative Möglichkeiten auf: War man früher auf einen sehr überschaubaren „wissenschaftlichen Handapparat“ [1] beschränkt, um den Editionsnutzer/die Editionsnutzerin nicht mit papierenen Textdokumenten schier zu erschlagen, kann man in nicht-linearen Retrievalumgebungen deutlich mehr Textmaterial unterbringen, ohne die Nutzung weiter zu erschweren. Wenn das Mehr an Material nicht gebraucht wird, kann man es technisch ohne viel Aufwand ausblenden.

Des Weiteren kann man mit entsprechenden Online-Präsentationsmöglichkeiten die erzielten Ergebnisse facetten- und nuancenreicher nachvollziehen. So gibt es beispielsweise Systeme, die technisch imstande sind, nicht nur das digitalisierte Medium, sondern auch die Beschreibungselemente zu segmentieren bzw. zu sequenzieren. Damit können Metadaten wie Schlagwörter oder Klassifikationsstellen, aber auch originalsprachliche Texte oder der im Off gesprochene Kommentar passgenau der jeweiligen Sequenz zugeordnet werden. Die damit einhergehende vermehrte Trennschärfe der Beschreibung ermöglicht es ihrerseits, vergleichsweise komplexe Medienverbundpakete zu schaffen, die zumindest den bisherigen Editionsbegriff erheblich erweitern dürften.

Im Folgenden sollen exemplarisch die vorhandenen Möglichkeiten anhand verschiedener Beispiele aktueller Filmeditionsarbeit aufzeigt werden. Neuere technische Plattformen unterstützen dabei die Multimedialität der Wissensrepräsentation. Sicherlich ist es noch zu früh, um eine „goldene Epoche“ der historischen Filmeditionsarbeit auszurufen. Gleichwohl dürfte schon jetzt klar sein, dass die neuen Techniken dieser Arbeit sehr zugute kommen.

Ausgangssituation und Problemstellung

Am 10. Mai 2001 tagte der Arbeitskreis „Editionsprobleme des 20. Jahrhunderts“ der Arbeitsgemeinschaft historischer Forschungseinrichtungen (AHF) beim Südwestrundfunk in Stuttgart. Die Veranstaltung wurde von Archivdirektor Dr. Josef Henke, Bundesarchiv Koblenz, moderiert. In einer ersten Stellungnahme würdigte Dr. Edgar Lersch (Historisches Archiv des Südwestrundfunks, Stuttgart) den Stellenwert von Editionen audiovisueller Dokumente im Gesamtangebot vor allem der verschiedenen Text-Editionen. Lersch vertrat den Standpunkt, dass es zwar nennenswerte Mengen an audiovisuellen Materialien gibt, die für eine geschichtswissenschaftliche Nutzung in Betracht kommen, dass dies aber tendenziell eher selten geschieht. Angesichts dessen kann es nicht überraschen, dass es nur wenig Diskussion darüber gegeben hat, welche Anforderungen an die audiovisuell-medial basierte Editionsarbeit zu stellen sind. Die Probleme liegen nicht – wie häufig bei der Edition von Schriftgut – in der Transkription oder in der Übersetzungsqualität, sondern eher im Bereich der Überlieferungsgeschichte, zum Beispiel wenn man für ein und dasselbe Vervielfältigungsstück mehrere sekundäre Bezugsquellen hat. Auch gab es im Zeitalter der linearen Medien erhebliche ungelöste Probleme, audiovisuelle Dokumente mit entsprechenden Text-Annotationen zu versehen. Zugleich führte der relativ hohe Bearbeitungsaufwand angesichts der eher marginalen Rezeption solcher Editionen zwangsläufig zur Frage nach der Kosten-Nutzen-Relation. [2]

Man kann die entstehende Problematik von Filmeditionen exemplarisch auch anhand eines relativ jungen Falls bei einer Fotoedition beleuchten: der so genannten Wehrmachtausstellung. Zur Erinnerung: Die ursprüngliche Wehrmachtausstellung trug den Titel „Vernichtungskrieg. Verbrechen der Wehrmacht 1941-44“ und lief zwischen 1995 und 1999 als Wanderausstellung in 33 Städten in Deutschland. Aufgrund heftiger Kontroversen, bei denen es auch um die Frage ging, ob einige der in der Ausstellung verwendeten Fotos gefälscht worden seien, wurde die Ausstellung zunächst geschlossen. Sie wurde später unter neuer Leitung und mit einem neuen Titel wieder eröffnet.

1999 wurde das Bundesarchiv – nicht zuletzt auch, weil es selbst Lieferant einiger der in der Ausstellung benutzten Fotos war – um eine Stellungnahme in einem österreichischen Prozess gebeten. Der Leitende Archivdirektor des Bundesarchivs Koblenz Wolf Buchmann setzte sich mit dem Thema auseinander. Er stellte einen Mangel an hilfswissenschaftlicher Quellenkritik, in der Vergangenheit begangene archivfachliche Fehleinschätzungen sowie Fehler im archivischen Umgang mit der Fotoüberlieferung fest. Bis in die jüngste Vergangenheit wurden in den (Schriftgut-) Archiven mit ihren oftmals großen Fotobeständen noch immer die Provenienzen von Fotografien missachtet und die Einzelstücke in sachthematischen Zusammenhängen oder orts- oder personenbezogenen Betreffsammlungen untergebracht. Dies hat dazu geführt, dass der Entstehungszusammenhang und damit häufig auch die Überlieferungsgeschichte nicht mehr rekonstruiert werden konnten. Beide Aspekte sind jedoch sowohl für die Authentizitätssicherung als auch für ihre Interpretation und Auswertung unerlässlich. Diese Angaben müssen auch in jeder Edition aufscheinen.

Anhand der Rekonstruktion einer Fotoserie aus der Ausstellung zeigte Buchmann seinerzeit auf, dass es nur mit Hilfe des Entstehungszusammenhangs und der durch bzw. über ihn recherchierbaren Informationen möglich ist, die Echtheit der Fotos zu beweisen. Dadurch wurde es auch möglich, die ursprüngliche Funktion der Bildsequenz zu rekonstruieren. [3]

Anlässlich der Auseinandersetzung um die Echtheit von Exponaten der Ausstellung sowie um ihre richtige Interpretation bzw. historische Einordnung wurden 1999 auf einer Konferenz im Hamburger Institut für Sozialforschung zum Thema „Das Foto als historische Quelle“ einige Empfehlungen formuliert, die mutatis mutandis auch für historische Filmeditionen gelten können:

  • Herkunft, Entstehungszusammenhang, Überlieferungsgeschichte, Urheber/innen und Rechtsinhaber/innen sind zu dokumentieren.
  • Archivisches Ordnungsprinzip ist die Provenienz; von dieser Ordnung ist die Inhaltserschließung getrennt.
  • Wird Bildmaterial aus konservatorischen Gründen umkopiert, so wird die früheste überlieferte Fassung (idealiter das Negativ) aufbewahrt.
  • Restaurierungsmaßnahmen müssen sorgfältig dokumentiert werden; es muss jeweils erkennbar sein, inwieweit die restaurierte Fassung vom Original abweicht.
  • Bei der Veröffentlichung von Bildmaterial ist die früheste Überlieferungsform und Bildbeschriftung zu verwenden – oder zumindest als Verweis zu nennen.

Was ändert sich im Internet-Zeitalter, was bleibt sich gleich?

Etwas, das sich stark ändert, ist der Publizitäts- bzw. Verbreitungsgrad einer historischen Filmedition. Das heißt: Fehler fallen eher auf als früher. Dies ist in zweierlei Hinsicht günstig: Zum einen steigert es die ohnehin hohe Bearbeitungssorgfalt, zum anderen kann mit hilfreichem kritischen Input aus mehr Quellen gerechnet werden. Dies kann durchaus einen kontinuierlichen Optimierungsprozess anstoßen.

Zugleich muss man sehr vorsichtig sein, welches Filmmaterial man ins Internet stellt. Stark tendenziöse Filme, zum Beispiel Hasspropaganda oder gewaltverherrlichende Filme, können entweder gar nicht oder nur unter der Verwendung von mächtigen Authentifizierungsverfahren online gestellt werden. Die Gefahr, dass ein 16mm-Film in die falschen Hände geriete, war zwar vor der Veröffentlichungen der Filmeditionen im Internet nicht an sich geringer, aber die möglichen Folgen waren deutlich weniger dramatisch. Kopien waren nur mit hohem Kostenaufwand herstellbar, für die Vorführung benötigte man Geräte, die wenig verbreitet und auch nicht von jedermann bedienbar waren.

Zumindest in Deutschland muss man stark auf das Recht der im Film gezeigten Personen am eigenen Bild achten. Auch bei älteren Filmen ist nicht ausgeschlossen, dass hier Persönlichkeitsrechte noch lebender Personen tangiert sein könnten. Erst vor kurzem meldete sich jemand mit der Behauptung, er sei der Junge mit den erhobenen Händen auf dem sehr bekannten und weit verbreiteten Foto aus dem Warschauer Ghetto. [4] Unabhängig davon, ob diese Behauptung stimmt oder nicht, sie könnte stimmen und wenn sie stimmt, würde das deutsche Recht am eigenen Bild greifen. Selbst wenn man die vielen Fälle außer Betracht lässt, bei denen absolute oder relative Personen der Zeitgeschichte gezeigt werden, oder bei denen im Sinne des Kunsturheberrechtsgesetzes [5] Personen, die „in der Öffentlichkeit erschienen“ sind entweder als „Beiwerk“ [6] oder als Teil einer Versammlung [7] eingestuft werden können, verbleiben immer noch viele Möglichkeiten, wie Personen zufällig und ungewollt vor die Kameralinse gelaufen sein könnten. Diese Personen zumindest genießen weiterhin ihr Recht am eigenen Bild.

Caroline-Urteil

Mit ‚Caroline’ wird kurz der Fall Caroline von Hannover (früher von Monaco) gegen verschiedene deutsche Boulevardzeitungen bezeichnet. Die Klägerin hatte sich gerichtlich gegen die Veröffentlichung von Aufnahmen aus ihrem Alltag gewehrt. Die deutschen Gerichte sahen bei einem Teil der umstrittenen Aufnahmen (Caroline von Hannover beim Pferdesport, im Skiurlaub usw.) die Veröffentlichung durch Paragraf 23 KunstUrhG gedeckt, der die zustimmungsfreie Veröffentlichung bei Bildnissen aus dem Bereich der Zeitgeschichte zulässt. Der Europäische Menschensrechtsgerichtshof hat jedoch auf eine Beschwerde von Caroline von Hannover hin entschieden, dass Artikel 8 der europäischen Konvention zum Schutz der Menschenrechte das Privatleben auch dann schützt, wenn die Wechselbeziehungen in den öffentlichen Raum reichen. Die Veröffentlichung von Bildern ist nur dann zulässig, wenn die Bilder zu einer öffentlichen Diskussion über eine Frage allgemeinen Interesses beitragen und Personen des politischen Lebens betreffen. Die Bilder aus dem Privatleben von Caroline von Hannover genügten diesen Anforderungen nicht und durften daher nicht veröffentlicht werden.

Potentiell kann diese Rechtsprechung auch ähnliche Probleme bei zeitgeschichtlichen Filmdokumentationen verursachen. Würde Konrad Adenauer heute noch leben, so könnte er aufgrund des Caroline-Urteils die Verbreitung des berühmten Bildes unterdrücken, auf dem er beim Boccia-Spiel zu sehen ist. [8]

Abbildung 1: Konrad Adenauer beim Boccia-Spiel

Technische Fragen

Sieht man erst einmal von den Entwicklungs- bzw. Erwerbungskosten eines entsprechenden Systems ab, ist die Online-Veröffentlichung durchaus billiger als andere Verlagsplattformen. Außerdem kann man davon ausgehen, dass es künftig mehr Dienstleister geben wird, die gegen Entgelt ihre Systeme für Angebote Dritter öffnen werden.

Leider – und auch sehr zur Überraschung mancher technikgläubigen Menschen – hat das digitale Zeitalter das Problem der Filmkonservierung nicht zu lösen vermocht. Hießen die einschlägigen Probleme früher „Sprödigkeit der Farbemulsionsschicht“, „Essig-Syndrom“, „Pilzbefall“ oder „Entmagnetisierung“, so haben wir es inzwischen mit einem rasanten Wandel der technischen Formate zu tun, die gerade kleine, staatlich alimentierte Einrichtungen mit erheblichen Problemen der rechtzeitigen Datenmigration konfrontieren. Noch größer als das Kostenproblem ist hier möglicherweise sogar das Problem der fehlenden Personalkapazitäten. Innerhalb eines Zeitraums, der nach archivischem Verständnis geradezu grotesk kurz war, mussten Filmarchive ihre Bestände zunächst auf Video abtasten lassen. Wer das Pech hatte, auf das falsche Format – etwa U-matic – zu setzen, durfte diesen Vorgang sogar wiederholen. Kurz darauf kam schon der Generationswandel von den analogen zu den digitalen Videoformaten. Wer hier nicht mitmacht, hat kaum Aussichten, in der Online-Welt mitzuhalten. Anschließend müssen die Bänder jedoch in den diversen Datei-Formaten – etwa MPEG1, MPEG2, AVI, WMV, Real-Video, Quicktime usw. – ausgespielt werden. Die einzige belastbare Gewissheit, die wir in Bezug auf diese Datei-Formate haben, ist, dass es sie nicht sehr lange geben wird, und zwar weil sie technisch überaltert sind und von einer neuen Technikgenerationen abgelöst werden. Die digitalen Bandformate, die die Basis der Ausspielung sind, werden nur wenig länger existieren.

Beispielhafte Filmeditionen: Stadtgeschichte Hannovers im Film

Die Auseinandersetzung mit den Hannover-Filmen und die Bemühungen um ihre Rettung begannen bereits in den 1980er Jahren, denn das hannoversche Filmerbe war gefährdet. Bereits seit ihrer Gründung bemüht sich die Gesellschaft für Filmstudien e.V. (GFS) um die Rettung des hannoverschen Filmerbes.

Zunächst oftmals für rein aktuelle Zwecke produziert, wurden viele Filmkopien anschließend nicht unter dem Gesichtspunkt der nachhaltigen Quellensicherung behandelt, sondern eher lieblos verstaut. Als Folge der jahrelangen unsachgemäßen Lagerung erlitten sie unterschiedliche Schäden (Schrumpfung, Austrocknung, Farbverlust). Andere waren durch zahlreiche Vorführungen verschlissen. Von manchen Filmen existierte gar nur eine einzige Kopie, bei deren Verlust ein Stück bildhafter Stadtgeschichte unwiederbringlich verloren gegangen wäre. Zudem sind die filmaufbewahrenden Institutionen oft durch Umzüge, Zusammenlegungen, Sparmaßnahmen oder gar Auflösungen in ihrer Arbeit eingeschränkt oder in ihrer Existenz bedroht gewesen.

Oftmals waren es die städtischen Behörden selbst, die zur Image- oder Tourismusförderung Filme in Auftrag gegeben haben und so zur Entstehung eines Bestands von bewegten Bildern beigetragen haben. Diese Filme, aber auch andere, die stadtgeschichtliche Themen zum Inhalt haben, vermitteln wertvolle Einblicke in die jüngste Geschichte einer deutschen Stadt. [9] Es ist daher verdienstvoll, dass das Projekt Hannover-Filme unter der wissenschaftlichen Leitung von Dr. Peter Stettner sich die Sicherung, Dokumentation und Präsentation der Hannover-Filme auf die Fahne geschrieben hat. Bei der Sicherung wurden aus dem besten vorhandenen Filmmaterial neue Archiv- und Gebrauchskopien (in unterschiedlichen Formaten: Film zur Vorführung im Kino, Beta-SP zum Grabben von Klammerteilen für Fernsehproduktionen, VHS-Video für Sichtungszwecke) in einem professionellen Filmkopierwerk hergestellt. Dazu mussten vorher die einzelnen Kopien und eventuell vorhandenen sonstigen Materialien detailliert gesichtet, geprüft und verglichen werden. Kriterien waren dabei die Vollständigkeit von Bild und Ton sowie der Zustand des Materials. Sichtung und Prüfung des Materials wurden dokumentiert. Die Dokumentation erfolgte in Form von Einstellungs- und Sequenzprotokollen und in einer eigenen Datenbank.

Die Ergebnisse des Projekts Hannover-Filme [10] werden regelmäßig der Öffentlichkeit vorgestellt. Eine erste Präsentation fand am 4. November 2004 im Kino im Künstlerhaus in Hannover statt. Weitere sind ihr gefolgt, zuletzt im vorigen November. Begleitend wurde eine Datenbank erstellt, die erstmals einen zentralen Überblick über alle als solche identifizierten Hannover-Filme einschließlich der bekannten Kopien ermöglicht. [11]

Abbildung 2: Standfoto aus dem Film „Gesicht einer Stadt, Dachgiebel des Alten Rathauses“

Beispielhafte Filmeditionen: Der ewige Jude

„Der ewige Jude“ [12] – ein berüchtigter Propagandafilm aus dem Dritten Reich – wurde von einer Arbeitsgruppe unter der Leitung des dänischen Historikers Stig Hornshoj-Moller aus mehreren konkurrierenden Filmfassungen rekonstruiert und kritisch neu ediert. War der Film selbst relativ rasch rekonstruiert, so dauerte die Erstellung, Verifizierung und Veröffentlichung eines detaillierten Einstellungsprotokolls und einer quellenkritischen Analyse von 1975 bis in die 1990er Jahre hinein. Hauptfilmquelle war eine – allerdings lückenhafte – 16mm-Filmkopie des Bundesarchivs, die auf ein 35mm-Duplikatnegativ der Gaufilmstelle Hannover zurückging. Ergänzt wurde der Film unter anderem mit Material aus dem Filmmuseum Kopenhagen. [13]

Abbildung 3: Standfoto aus dem Film „Der ewige Jude“, aus dem Vorspann

Die Editionsarbeiten wurden zusätzlich durch die Existenz konkurrierender Kinofassungen erschwert. Am 28. November 1940 wurde „Der ewige Jude“ im Berliner „UFA-Palast“ am Zoo uraufgeführt. Nach einem Vorprogramm, das aus dem Kurzfilm „Ostraum – deutscher Raum“ bestand, wurden Jugendliche und Frauen um 16 Uhr zu einer für „empfindsame Gemüter“ gekürzten Fassung zugelassen, bei der die Schächtungsszenen durch eine Trickfilmsequenz ersetzt wurden. Die Vorführung für männliche Erwachsene fand in der vollen Langfassung mit kompletten Schächtausschnitten um 18.30 Uhr statt. Möglicherweise wurde auch eine andere Fassung in Österreich gezeigt.

Beispielhafte Filmeditionen: Bilder aus Ostpommern – Kreis und Stadt Bütow

Abbildung 4: Standbild: das alte Rathaus von Bütow

Begonnen hat es, wie schon oft in der Filmgeschichte, mit einem Dachbodenfund … Genauer gesagt, mit einem Kohlenkellerfund. Aufgenommen in den 1920er Jahren von dem Bütower Bürger Rudolf Steineck [14] , wurde der Film nach dessen Tod 1945 von Steinecks Witwe zur Sicherung an einen Freund der Familie verschenkt. Dieser versteckte den Film vor den sowjetischen Besatzern und von den späteren Machthabern der DDR in seinem Kohlenkeller – und zwar über vierzig Jahre lang. Dort wurde der Film von Herrn Gubes Erben/innen gefunden und sie schenkten ihn wiederum dem Heimatkreis Bütow, der sich der Pflege des Andenkens der ehemaligen Bütower an ihre alte Heimat verschrieben hat. Der Film war teilweise beschädigt, aber – wie durch ein Wunder – war der allgemeine Erhaltungszustand durchaus annehmbar. So war es möglich, den Film auf Digital Beta abzutasten und ihn online zu sequenzieren. Als weitere Arbeitsperspektive ist jetzt geplant, Zeitzeugen/innen für die Kommentierung der Filmszenen zu gewinnen. Der Film als solcher wird zwar voraussichtlich stumm bleiben müssen – im wesentlichen eine Kostenfrage –, aber die Kommentare könnten als Online-Beschreibung hinterlegt und somit durchsuchbar gemacht werden.

Damit wäre zugleich eine große Stärke des Internets als Veröffentlichungsmedium angesprochen: Man kann leichter neue Aggregatzustände herstellen, als es mit linearen Medien möglich wäre. Auch wenn der Film per se nicht leichter zu modifizieren ist, die Beigabe von Annotationen und anderen Begleitmaterialien wird leichter, weil man sowohl laufend neue solche hinzukommen lassen kann als auch vorhandene leichter redigieren kann. Müsste man bei einem gedruckten Band als kritischem Anmerkungsapparat die Kosten und Mühen einer Neuauflage auf sich nehmen, genügt es im Online-Betrieb, die entsprechenden Textdateien zu überarbeiten und sie erneut auf den Server hochzuladen.

Beispielhafte Filmeditionen: Panorama-Farb-Monatsschauen

Ein derzeit laufendes Projekt des IWF Wissen und Medien ist die Edition der vier Panorama-Farb-Monatsschauen aus der Zeit von circa November 1944 bis Januar 1945. Geplant sind folgende Arbeiten:

  • Vollständige Wiedergabe der vier „Panoramen“ nach dem Ausgangsmaterial im Bundesarchiv
  • Einstellungsprotokolle der vier „Panoramen“ nebst historischen und formalen Erläuterungen, gefertigt von Hans-Peter Fuhrmann
  • Ein Text, der das Unternehmen „Panorama“ erklärt, eventuell. der Text von Karl Stamm aus dem „Filmblatt“ 5. Jahrgang, Nummer 12, ergänzt durch eine chronologische Liste der aktenmäßigen Erwähnungen von „Panorama“
  • Die erhaltenen „Farbbriefe“ (Kopien von K. Stamm)
  • Die Filmographie von Jean-Paul Goergen aus dem „Filmblatt“
  • Ein Beitrag zur speziellen Farbfilm-Ästhetik der „Panoramen“ (möglicher Autor: Gert Koshofer)

Anhand dieses Editionsprojektes kann man sehr gut die Möglichkeiten einer Online-Datenbank mit der Funktionalität der Sequenzerschließung beleuchten. Besonders wichtig: Jede Sequenz kann individuell beschrieben werden; weitere Informationsressourcen können sequenzgenau zugeordnet werden.

Das folgende Schaubild ist ein Screenshot aus dem Redaktionssystem einer solchen Sequenzdatenbank. Zu sehen sind einzelne Sequenzannotationen aus der Panorama-Ausgabe Nummer 1. [15]

Mithilfe von definierten Keyframes werden Anfang und Ende einer Sequenz festgelegt. Sechzehn unterschiedliche Felder wurden für die sequenzweise Erschließung vorgesehen – andere Felder dienen zusätzlich dazu, eine bibliografische Werkstitelaufnahme herzustellen, um das AV-Medium insgesamt zu beschreiben. Die Sequenzerschließungsfelder können unterschiedlich sequenziert werden. Das ist zum Beispiel nützlich, wenn bestimmte Sequenzen zwar unterschiedliche Sachverhalte zeigen, aber dieselbe rechtliche Konstellation – etwa, weil sie in demselben Vertragswerk geregelt wurden – aufweisen. Dann werden die Felder für Inhaltsangaben entsprechend den gezeigten Bildinhalten feiner unterteilt als das Rechte-Feld. Ein anderer Anwendungsfall tritt dann auf, wenn ein Film sowohl gesprochenen Originalton als auch Untertitel hat. Da die Untertitel in aller Regel nur eine verkürzte Version des gesprochenen Textes darstellen, bietet es sich an, hierfür unterschiedliche Felder vorzusehen, die dann auch unterschiedlich nach Sequenzen aufgeteilt werden können.

Abbildung 5: Screenshot aus dem Sequenzerschließungsmodul des media archive-Systems

Fazit

Auch im Internet-Zeitalter bleibt die historische Filmeditionsarbeit schwierig und zeitaufwändig – schon deshalb, weil man nach wie vor das Problem der Konservierung und der Restaurierung des meist filmischen Originalmaterials hat. Außerdem müssen Zeitgeschichtler/innen immer wieder erleben, dass audiovisuelle Medien mit deutlich mehr Argwohn betrachtet werden als zum Beispiel vergleichbare schriftliche Quellen. Dennoch bieten nicht-lineare Online-Systeme für Annotation, Suche und Präsentation von AV-Medien bisher ungekannte Möglichkeiten für die Durchführung und Verbreitung von Editionsarbeiten. Insbesondere die damit einhergehende Möglichkeit, Bewegtbilder, Fotos, Ton- und Textmedien in einer einheitlichen Arbeitsumgebung ohne die früher unvermeidlichen Medienbrüche zusammenzuführen, stellt eine dramatische Verbesserung der entsprechenden Rahmenbedingungen für Arbeiten dieser Art dar. Trotz aller fortbestehenden Erschwernisse darf man hoffen, dass die neuen Arbeitsmöglichkeiten dazu beitragen, die historische Filmeditionsarbeit aus ihrer eher randständigen Nische herausholen.

***

Dr. Christopher N. Carlson ist Wissenschaftlicher Mitarbeiter für Geschichte und Informationswissenschaften bei der IWF Wissen und Medien gGmbH. E-Mail: christopher.carlson@iwf.de


[1] Terveen, Fritz, Vorschläge zur Archivierung und wissenschaftlichen Aufbereitung von historischen Filmdokumenten, in: Geschichte in Wissenschaft und Unterricht 6/3 (1955), S. 169-177.

[2] Protokoll über die Tagung des Arbeitskreises „Editionsprobleme des 20. Jahrhunderts“ der Arbeitsgemeinschaft außeruniversitärer historischer Forschungseinrichtungen in der Bundesrepublik Deutschland e.V. (AHF) am 10. Mai 2001 beim SWR in Stuttgart, Quelle: <http://ahf-muenchen.de/Arbeitskreise/ProbEdiAudioVisDok.shtml> (16.11.2005).

[3] Buchmann, Wolf, Bilder in Archiven. Empfehlungen für den Umgang mit historischen Fotografien, in: Müller, Gisela (Hg.), Ein Jahrhundert wird besichtigt. Momentaufnahmen aus Deutschland, Koblenz 2004, S. 27-41. <http://www. barch.bund.de/imperia/md/content/abteilungen/abtb/bildarchiv2/1.pdf> (13.04.2006).

[4] U.a. unter <http://www.auschwitz.dk/holocaust2.htm> (13.04.2006) zu sehen.

[5] Gesetz betreffend das Urheberrecht an Werken der bildenden Künste und der Photographie (Kunsturheberrechtsgesetz – KunstUrhG) vom 9. Januar 1907 (RGBl. S. 7, BGBl. III 440-3); Zuletzt geändert durch Gesetz vom 16. 02. 2001).

[6] Wie definiert in § 23 Abs. 1 Nr. 2 KunstUrhG.

[7] Wie definiert in § 23 Abs. 1 Nr. 3 KunstUrhG.

[8] Quelle: <http://www.mediaculture-online.de/> (13.04.2006).

[9] Stettner, Peter, Stadtportraits. Die Geschichte Hannovers im Dokumentar- und Kulturfilm, in: Lichtspielträume. Kino in Hannover 1896-1991, Hannover 1991; ders., Auf dem steinigen Weg zum Erfolg. Der Aufbau in den 50er Jahren im Spiegel der zeitgenössischen Informationsfilme der Stadt Hannover, in: von Saldern, Adelheid (Hg.), Bauen und Wohnen in Niedersachsen während der fünfziger Jahre, Hannover 1999.

[10] Eines dieser Ergebnisse ist der Film „Gesicht einer Stadt“ (Produzent: Döring-Film Hannover (1932); Bearbeitung (1981): Horst Latzke; Regie: August Koch; Fotografie: August Lutz; Wissenschaftliche Beratung: Dr. Bojunga, Dr. Langemann, Oberbaurat Meffert, Museumsdirektor Dr. Peßler, Vermessungsdirektor Siedentopf; Länge: 24:33 Minuten), unter: <http://www.hist.uni-hannover.de/kulturarchiv/h_film/filme/gesicht_standfotos.php> (13.04.2006), vgl. auch Abb. 2.

[11] <http://www.hist.uni-hannover.de/kulturarchiv/h_film/ausgangssituation.htm> (13.04.2006).

[12] Hippler, Fritz; Taubert, Eberhard, „Der ewige Jude“. Film, 16 mm, LT, 756 m; SW, 69 ½ min; Komm. de; Orig. <Signatur: G 171>, 1940 (Erstveröffentlichung); IWF (Göttingen), 1995 (kritische Edition).

[13] Hornshoj-Moller, Stig, „Der ewige Jude“. Quellenkritische Analyse eines antisemitischen Propagandafilms, Beiträge zu zeitgeschichtlichen Filmquellen, Band 2, Göttingen 1995.

[14] Quellennachweis für Abbildung 4: IWF Wissen und Medien gGmbH.

[15] Quelle: IWF Wissen und Medien gGmbH.


Zeithistorische Online-Editionen: „Die Kabinettsprotokolle der Bundesregierung“ und Retrodigitalisierung der Edition „Akten der Reichskanzlei – Weimarer Republik“

von Jörg Filthaut

Der Beitrag stellt Herausforderungen, Erfahrungen und Leistungen der Internetpräsentation zeitgeschichtlicher Quelleneditionen am Beispiel der Edition „Die Kabinettsprotokolle der Bundesregierung“ und der Edition „Akten der Reichskanzlei – Weimarer Republik“ dar und erläutert insbesondere den Mehrwert der Online-Edition der Kabinettsprotokolle, die durch vielfältige Navigations- und Recherchefunktionen einen multidimensionalen Zugriff auf die präsentierten Informationen ermöglicht. Der Mehrwert an Erschließungsinformationen und ihr möglicher Ausbau wird ebenso thematisiert wie die eingesetzte Software und deren Nachnutzung im Kooperationsprojekt des Bundesarchivs und der Historischen Kommission München mit dem Ziel der Retrodigitalisierung der Edition „Akten der Reichskanzlei – Weimarer Republik“.

***

Die Edition „Die Kabinettsprotokolle der Bundesregierung“

Mit Beschluss vom 20. Juni 1979 hatte die Bundesregierung das Bundesarchiv beauftragt, die Sitzungsniederschriften des Bundeskabinetts und seiner Ausschüsse nach einer Mindestfrist von 30 Jahren in wissenschaftlicher Form zu edieren. [1] Dieser Auftrag bedeutete für das Bundesarchiv, unter Wahrung der bestehenden Schutzvorschriften die bis dahin geheim gehaltenen Kabinettsprotokolle nach den allgemein üblichen textkritischen und wissenschaftlichen Kriterien zu bearbeiten und nach den etablierten Standards wissenschaftlicher Quelleneditionen zu veröffentlichen. Unter diesen Vorgaben und Ansprüchen nahm das Bundesarchiv 1980 die Arbeiten an der Editionsreihe der Kabinettsprotokolle der Bundesregierung auf. Einschließlich der Protokolle der Kabinettsausschüsse (für Wirtschaft und für die Sozialreform) umfasst die inzwischen auf 19 Bände angewachsene Reihe den Zeitraum von 1949 bis 1962. [2] Der Jahresband 1963 wird im Herbst dieses Jahres vorliegen.

Die Edition präsentiert den Text der Protokollausfertigungen in ungekürzter, aber für das Layout aufbereiteter Darstellung. Die Sitzungsniederschriften des Kabinetts und der Kabinettsausschüsse sind in der Regel in Form von zusammenfassenden Kurzprotokollen überliefert, Wortprotokolle zu einzelnen Sitzungen kommen bisweilen vor. Jede Sitzung ist in der Buchedition so aufbereitet, dass zunächst die Teilnehmer aufgelistet werden, danach Ort und Zeit der Kabinettssitzung. Es folgt die Tagesordnung, wie sie in der Serie der Ausfertigungen überliefert ist, angereichert mit den Angaben zu den Kabinettsvorlagen. Danach werden die Tagesordnungspunkte in der Reihenfolge ihrer Behandlung präsentiert und im Anmerkungsapparat kommentiert. Die Netzeditionsgrundsätze halten dazu fest: „Neben der textkritischen Beschreibung des Textkorpus dienen die Anmerkungen zunächst dazu, den Protokolltext verständlich zu machen und an den Beratungsgegenstand heranzuführen. Nicht allgemein bekannte Ereignisse und Institutionen sowie heute ungebräuchliche Begriffe werden bei ihrer ersten Erwähnung erläutert. Im Protokolltext erwähnte Besprechungen, Schreiben, Vermerke, Gesetzestexte, Drucksachen, Zeitungsartikel usw. werden verifiziert und deren Fundstellen dokumentiert. Insbesondere ist beabsichtigt, die zu den Beratungsgegenständen entstandene und im Bundesarchiv, aber auch in anderen Archiven verwahrte archivische Überlieferung so weit möglich nachzuweisen. Vor allem gilt das für die den Kabinettsberatungen zu Grunde liegenden Kabinettsvorlagen, die in den Beständen des jeweils federführenden Ressorts im Bundesarchiv oder im Politischen Archiv des Auswärtigen Amts bzw. auch im Bestand Bundeskanzleramt im Bundesarchiv überliefert sind. Darüber hinaus soll dem Benutzer der Edition durch die Bezeichnung weiterer Unterlagen der zuständigen und qualifiziert beteiligten Ressorts der gezielte Einstieg in die einschlägige Sachaktenüberlieferung ermöglicht werden. Auch auf Unterlagen in den verfügbaren Nachlässen von Kabinettsmitgliedern im Bundesarchiv und in den Parteiarchiven wird gegebenenfalls hingewiesen.

Die als Hyperlinks erkennbaren Rückverweise, Fortgänge und Querverweise lassen im Kommentar den Verlauf der Beratungen einer Angelegenheit sowohl im Kabinett als gegebenenfalls auch im Kabinettsausschuss für Wirtschaft bzw. im Ministerausschuss für die Sozialreform nachvollziehbar werden. Gleiches gilt für die Beratungen in den Ausschüssen“ [3] .

Jeder Band besteht des Weiteren aus einer Einleitung, welche in die Grundlinien und Hauptthemen der Politik der Bundesregierung für das betreffende Jahr einführt und die Zusammenhänge zu den entsprechenden Kabinettssitzungen herstellt; ein Abbildungsteil illustriert dies in optischer Hinsicht. Vor dem eigentlichen Protokolltext sind noch die Editionsgrundsätze und eine ausführliche Übersicht der Sitzungen und Tagesordnungspunkte vorgeschaltet. Der Anhang eines jeden Bandes führt die Geschäftsordnung der Bundesregierung auf sowie ein Quellen- und Literaturverzeichnis. Besonders interessant sind die Biogramme der regelmäßigen Sitzungsteilnehmer/innen, der sonstigen Teilnehmer/innen sowie anderer im Protokolltext genannter Personen, die insbesondere den beruflichen Werdegang in einer biografischen Skizze nachzeichnen. Eine Zeittafel ordnet die Kabinettsberatungen in die allgemeinen Ereignisse auf nationaler und internationaler Ebene des betreffenden Jahres ein. Schließlich runden ein Personen- sowie ein Sach- und Ortsindex den Jahresband ab, die das Auffinden bestimmter Inhalte erleichtern. Im Gegensatz zu den Jahresbänden der Kabinettsprotokolle enthalten die Bände der Kabinettsausschüsse zwecks Entlastung des Kommentars zusätzlich ausgewählte Schlüsseldokumente im Anhang.

Das Digitalisierungsprojekt

Die Bedeutung und Aussagekraft der Kabinettsprotokolle als historische Quelle [4] sowie die weiter zunehmende Informationsfülle legten es nahe, mit Hilfe der modernen Informationstechnik eine Internetversion der Kabinettsprotokolle herzustellen, mit dem Ziel, diese besser und mit einem höheren Nutzungskomfort zugänglich zu machen. In diesem Vorhaben wurde das Bundesarchiv von der Deutschen Forschungsgemeinschaft (DFG) finanziell unterstützt, die im Rahmen ihres Förderschwerpunkts „Retrospektive Digitalisierung von Bibliotheksbeständen“ bereits ähnliche große Projekte zur Digitalisierung forschungsrelevanter Quellen und Literatur gefördert hatte und auch weiterhin fördert. [5]

Im Rahmen des von der DFG geförderten Projektes standen dem Bundesarchiv Personalmittel für die zeitlich befristete Beschäftigung eines wissenschaftlichen Angestellten im Umfang von 24 Monaten und Sachmittel für die Systementwicklung in Höhe von 30.000 Euro zur Verfügung. Daneben hat das Bundesarchiv in erheblichem Umfang Eigenleistungen in das Vorhaben eingebracht. Das Projekt begann im Februar 2002, und bereits Ende Oktober 2003 konnten die ersten vier Bände [6] im Rahmen eines Pressetermins im Bundeskanzleramt freigeschaltet werden. [7] Nach der Retrodigitalisierung der nur in Buchform vorhandenen Bände 1949 bis 1956 sowie des Kabinettsausschusses für Wirtschaft 1951 bis 1953 sind seit September 2004 alle verfügbaren Bände eingestellt worden. [8]

Zu Beginn des Projekts stand die eingehende Analyse der Struktur der Kabinettsprotokolle und die Erarbeitung der Anforderungen an eine am Bedarf der Nutzer/innen orientierten Bereitstellung der Protokolle im Internet. Dazu wurden in- und ausländische Digitalisierungsprojekte ausgewertet und Befragungen bei potentiellen Nutzern/innen durchgeführt. In enger Zusammenarbeit mit dem IT-Dienstleister Startext Unternehmensberatung, Bonn, wurden die Anforderungen in einem Präsentationsmodell für das Internet umgesetzt.

Da es sich bei der Edition „Kabinettsprotokolle der Bundesregierung“ um eine laufende Edition handelt, lagen ab dem Jahresband 1957 Bände in der elektronischen Form vor, wie sie für die Buchausgabe benötigt wurde. Zielstellung war es daher, ein Software-Werkzeug zu erstellen, das es ermöglicht, die Druckausgangsdatei automatisch unter Einsatz herkömmlicher IT-Kenntnisse selbständig durch die Editoren in die Internetpräsentation zu konvertieren und dabei maximal eine Woche Zusatzarbeit zu erfordern.

Soweit von den vorhandenen Bänden keine maschinenlesbaren Texte vorlagen, wurden diese retrodigitalisiert. Dies geschah in Zusammenarbeit mit dem Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften an der Universität Trier im sogenannten „double-keying“-Verfahren, bei dem zwei Erfassungsgruppen getrennt voneinander den Text manuell eingeben. Anschließend protokolliert ein Computerprogramm die Abweichungen beider Versionen, die intellektuell korrigiert werden. Diese Methode ist mit 99,9975 Prozent Genauigkeit noch wesentlich genauer als das Scanverfahren mit anschließender OCR-Erkennung. Angesichts des Mehrwerts der Volltextsuche war die höhere Genauigkeit ausschlaggebend. [9]

Vom Mehrwert der Internetpräsentation

Die Bereitstellung der Kabinettsprotokolle im Internet [10] vereinigt mehrere Vorteile in sich: Die Kabinettsprotokolle stehen als zentrale Quelle für die Geschichte der Bundesrepublik Deutschland weltweit einem interessierten Publikum zur Verfügung. Die komfortable Navigation durch die Protokolle und das Angebot mehrdimensionaler Zugriffsmöglichkeiten beschleunigt und vereinfacht den Zugriff auf die Protokolle und die Recherchen erheblich. Dabei werden die Jahresgrenzen der Druckausgabe überwunden: Die Verknüpfung der einzelnen Bände untereinander eröffnet die Möglichkeit auch bandübergreifender Suchabfragen.

Der entscheidende Mehrwert der Internetversion ergibt sich aus der Mehrdimensionalität des Zugriffs. Neben der gezielten Suche und dem raschen Zugriff auch auf detaillierte Informationen ermöglicht die digitale Form der Bereitstellung der Protokolle mittels kombinierter Suchstrategien auch Abfragen komplexerer Sachverhalte sowie neue Methoden und Wege der Textauswertung. Die Volltextsuche erlaubt die Einschränkung der Suchabfrage, die wiederum mit Boolschen Operatoren versehen werden kann, nach Bandarten, Zeitraum und Suchbereichen (Einleitung, Protokolltext, Fußnoten, Tagesordnungspunkte, Teilnehmer). Gleichzeitig erleichtert die Online-Version durch den Navigationsbaum die Orientierung in einem immer umfangreicher werdenden Text. Darüber hinaus ist eine digitale Version besonders dazu geeignet, das im Editionskonzept enthaltene System von Vor- und Rückverweisen zu unterstützen. Eine Verlinkung der einzelnen Tagesordnungspunkte untereinander erlaubt es nunmehr, deren Beratungsverlauf im Kabinett und seinen Ausschüssen auch über die bisherigen Band- und Jahrgangsgrenzen hinaus im gesamten anwachsenden Corpus der Protokolltexte zu verfolgen.

Bestimmte Strukturbestandteile der Druckbände, wie zum Beispiel Editionsgrundsätze, Geleitwort, die Geschäftsordnung der Bundesregierung, werden zusammen mit Hilfefunktionen (Suchtipps, FAQ’s) auf der Startseite angeboten. Die Bildleiste am oberen rechten Bildschirmrand ist bandbezogen angelegt und mit einer Vergrößerungsfunktion versehen. Die vergrößerte Version ermöglicht nicht nur die genaue Betrachtung bzw. Lektüre, sondern gibt auch Bildunterschrift mit Signatur und Herkunftsarchiv wieder. Das Abkürzungsverzeichnis der Druckbände wurde ersetzt durch Auflösung der Abkürzungen im Text per Mouse-Over, das heißt bei Berührung mit dem Mauszeiger erfolgt die Auflösung. Da die Volltextsuche auch die Indices ersetzt, konnte auf diese verzichtet werden. Erhalten blieb aus dem Personenindex die Liste der im jeweiligen Band auf die eine oder andere Weise vorkommenden Personen, die mit der Suchfunktion verknüpft ist. Darüber hinaus wurde ein bandübergreifender navigierender Zugriff auf alle Kurzbiografien erstellt, der neben den bandbezogenen Angaben das rasche Auffinden von Teilnehmern, Gästen und sonstigen Personen in den Kabinettsitzungen gewährleistet. Damit liefert die Online-Edition einen weiteren Mehrwert durch konzentrierte Erschließung der Biogramme, zumal diese gerade mit Personen aus dem Bereich der Ministerialbürokratie zu den besonderen Vorzügen der Edition zählen. Optisch ist das Subsystem der Online-Edition über den einheitlichen Styleguide in den Gesamtauftritt des Bundesarchivs integriert.

Arbeitsabläufe

Die Editionsgruppe Kabinettsprotokolle im Bundesarchiv erarbeitet jeden Band in einem stark arbeitsteiligen Produktionsprozess, der die stabile jährliche Erscheinungsweise der laufenden Reihe gewährleistet. In diese Arbeitsabläufe galt es, die Internetedition möglichst effektiv und effizient zu integrieren, um Synergieeffekte zu nutzen.

Am Anfang stehen die Erfassung der Protokolltexte sowie die technische Einrichtung des Textes und seine inhaltliche Konstituierung. Nach einem ersten Korrekturgang erfolgt dann arbeitsteilig und selbständig durch jede/n Editor/in die Kommentierung der ihm zugeteilten Tagungsordnungspunkte. In der Regel ist ein/e Editor/in für mehrere Ressorts zuständig. Dadurch ist es möglich, sowohl der Struktur der Protokolltexte als auch der Aktenüberlieferung Rechnung zu tragen und einen bestimmten Sachverhalt über die Jahresgrenzen eines Bandes hinaus zu kommentieren und entsprechende Expertise in diesem Bereich zu sammeln. Die Kommentare werden wieder gebündelt, indem die beiden Hauptbearbeiter/innen das zu edierende Jahr chronologisch und quantitativ in überschaubare Tranchen unterteilen, die jeweils Gegenstand von Manuskriptbesprechungen aller Editoren/innen ist. Nach Abschluss der Kommentierung und eines zweiten Korrekturdurchlaufs verantworten die beiden Hauptbearbeiter/innen die Einleitung, Bilder, Zeittafel, Kurzbiografien und Register. Es entsteht eine finale Datei, die für den Buchdruck in eine Postscriptdatei überführt wird. Hier setzt das entwickelte Software-Werkzeug an: Bedingungen, welche die MS-Word-Datei ohnehin für den Buchdruck erfüllen muss, wie zum Beispiel Formatvorlagen und Formalia der Zitation, macht sich das Werkzeug zunutze, um in einem ersten Schritt die Word-Datei in eine XML-Datei zu überführen, die dann in jeweils eine XML-Datei pro Tagungsordnungspunkt zergliedert wird, für den jeweils auch eine rtf-Datei generiert wird. In einem dritten Schritt werden alle übrigen Dateien (Bilder, Startseiten, pdf) in eine WAR-Datei komprimiert, wobei auch der Navigationsbaum erzeugt, die Suche indiziert und die Softlinks der Querverweise hergestellt werden. Die WAR-Datei kann dann über den Application-Server Tomcat [11] im Internet gestartet werden. Auch die sehr leistungsfähige Suchmaschine Lucene [12] ist ein Open-Source Produkt auf Java-Basis, das für einige spezielle Suchabfragen modifiziert wurde. Mit Lucene fiel die Entscheidung für eine Volltextsuchmaschine, die nicht datenbankgestützt operiert, sondern den Text vollständig indiziert, was schnellere Zugriffszeiten im Internet gewährleistet.

Der effektive Aufwand, einen neuen Band zu konvertieren und in die Webpräsentation einzustellen, beträgt zwei Arbeitstage, womit die Vorgabe erreicht wurde. Die Editionsreihe wird zukünftig parallel in gedruckter und elektronischer Form weitergeführt. Damit bleibt für das sequentielle Lesen der Protokolle und für deren langfristige Sicherung weiterhin die bewährte Form erhalten. Den künftig erscheinenden Bänden wird – nicht zuletzt mit Rücksichtnahme auf Verlagsinteressen – in einem Abstand von eineinhalb Jahren die Bereitstellung des jeweiligen Jahresbandes im Internet folgen.

Barrierefreiheit

Der bestehende Internetauftritt der Kabinettsprotokolle ist zunächst für den Internet-Explorer 6 optimiert. Anfang 2007 wird die Kompatibilität mit älteren Versionen und anderen Browsern (Netscape, Opera, Mozilla und Derivate) hergestellt sowie insbesondere die Barrierefreiheit vollständig realisiert sein. Unter Barrierefreiheit versteht man die Zugänglichmachung von Webseiten für behinderte Mitmenschen, meistens mit Sehschwächen oder völligem Verlust des Augenlichts. Bundesbehörden sind nach dem Gesetz der Gleichstellung behinderter Menschen (BGG) vom 27. April 2002 [13] gehalten, ihre Angebote im Internet barrierefrei zu gestalten. Diesem Gesetz folgte 2003 die „Verordnung zur Schaffung barrierefreier Informationstechnik nach dem Behindertengleichstellungsgesetz“ (BITV) [14] , die sehr umfangreich und detailliert die Anforderungen an Barrierefreiheit definiert. Der Auftritt wird zur Zeit für Vorleseprogramme, sogenannte Screenreader optimiert. Auch wenn eine völlig deckungsgleiche Umsetzung nicht möglich ist, so wird der neue Auftritt weitestgehend die gleichen Funktionalitäten für beide Nutzergruppen bieten, sich aber dadurch optisch und technisch erheblich vom jetzigen Präsentationsmodell unterscheiden.

Das Folgeprojekt Retrodigitalisierung der Edition „Akten der Reichskanzlei. Weimarer Republik“

Die Edition „Akten der Reichskanzlei. Weimarer Republik“ wurde von 1968 bis 1990 gemeinsam von der Historischen Kommission bei der Bayerischen Akademie der Wissenschaften und dem Bundesarchiv in 23 Bänden herausgegeben. [15] Die Serie setzt mit der Berufung Philipp Scheidemanns zum Reichsministerpräsidenten im Februar 1919 ein und endet mit der Entlassung des Reichskanzlers Kurt von Schleicher und seines Kabinetts am 30. Januar 1933. Bei den Akten der Reichskanzlei handelt es sich um eine Auswahledition aus dem Aktenfonds der Reichskanzlei. Neben den Sitzungsprotokollen des Reichskabinetts, die den roten Faden der Edition bilden, enthält sie weitere Archivalien, insbesondere Besprechungs- und Konferenzprotokolle, ferner Vermerke und Korrespondenzen der Ressorts untereinander, mit den Länderregierungen, Parteien, Gewerkschaften usw. und gibt auf diese Weise Einblick in die zentralen politischen Vorgänge dieser Epoche. Ferner informiert sie über die Wirtschafts-, Sozial- und Verfassungsgeschichte der Weimarer Republik. Diese im Gegensatz zu den Kabinettsprotokollen der Bundesregierung abgeschlossene Edition wird seit Mai 2005 retrodigitalisiert [16] . Historische Kommission und Bundesarchiv warben erfolgreich Sach- und Personalmittel von der DFG ein, um in einem auf zwei Jahre terminierten Projekt diese Edition im Volltext ins Internet zu stellen. Dabei soll das für die Kabinettsprotokolle erstellte Software-Werkzeug nachgenutzt werden. Dies stellt einerseits sicher, dass verwandte Benutzer- und Präsentationsoberflächen zu einer gewissen Standardisierung im Bereich der elektronischen Quellenedition führen, andererseits soll das Software-Werkzeug in seiner Funktionalität optimiert werden. So ist daran gedacht, diejenigen Nachweise im Anmerkungsappart, die bereits digital vorliegen, zu verlinken. Dies gilt zum Beispiel für Referenzen auf die Stenografischen Berichte des Reichstages, die von der Bayerischen Staatsbibliothek digitalisiert wurden bzw. werden. [17] Zudem soll eine editionenübergreifende Suche den Mehrwert beider digitaler Quellenangebote beträchtlich erhöhen.

Rückwirkungen auf die historische Forschung

Welche Auswirkungen haben diese Online-Angebote für die geschichtswissenschaftliche Forschung? Oberflächlich betrachtet zunächst keine, denn beide Editionen sind in jeder wissenschaftlichen Bibliothek für den/die Forscher/in greifbar. Und doch ändern die ubiquitäre Verfügbarkeit und komfortable Recherche die Möglichkeiten, Forschungsfragen zu beantworten. Die Herangehensweise ändert sich und damit auch die Fragen, die gestellt werden können. Leichtere Verfahren erleichtern das Stellen von Fragen, die früher mühsamer zu beantworten gewesen wären, zum Beispiel quantifizierende Fragestellungen, aber auch Fragen entlang chronologischer Längsschnitte.

Es wird der Forschung in zunehmendem Maße möglich sein, große Mengen an Quellen auszuwerten. Zum einen, weil diese digital präsentiert und recherchierbar sind, zum anderen, weil der/die Forscher/in selbst seine Exzerpte elektronisch – etwa in Form einer Datenbank – organisiert. Dadurch können Aussagen auf tragfähigere Grundlagen gestellt, quantitative und qualitative Fragestellungen einfacher verfolgt werden. Durch die Möglichkeit, größere Materialmengen handhabbar organisieren zu können, werden die Ansprüche an das mengenmäßige Quellengerüst von wissenschaftlichen Arbeiten wachsen.

Dass das Online-Angebot der Kabinettsprotokolle angenommen wird, belegen die Nutzerzahlen: Durchschnittlich 500 verschiedene Besucher/innen, 1.000 Besuche und knapp 30.000 Zugriffe pro Monat verdeutlichen die hohe Akzeptanz bei den Nutzern/innen. Damit liegen die Kabinettsprotokolle als eine Form der Erschließung der Quellenbestände des Bundesarchivs nach den Sachthemen der Kabinettssitzungen auf der Rangliste der Webangebote des Bundesarchivs auf dem dritten Platz, da sie sich mit der Bundesrepublik auf nur eine Epoche der deutschen Geschichte beziehen. Die Spitzenreiter Beständeübersicht [18] mit Online-Findbüchern [19] sowie die zentrale Datenbank Nachlässe [20] umfassen alle Epochen der deutschen Geschichte, die sich in der Überlieferung des Bundesarchivs sowie im Falle der Nachlassdatenbank auch aller teilnehmenden Archive widerspiegeln.

Der Webauftritt der Kabinettsprotokolle nahm zweimal erfolgreich an E-Government-Wettbewerben teil [21] und wurde mittlerweile auch positiv rezensiert. [22]

Neben den beschriebenen Effekten nach außen auf die Benutzer/innen gibt es zudem eine Rückwirkung nach innen; denn die Online-Edition unterstützt auch die archivfachliche Arbeit der Archivarinnen und Archivare in der Beantwortung von Benutzeranfragen, deren sachlicher Kern im Kabinett behandelt wurde.

Perspektiven

Was die Weiterentwicklung der Online-Edition nach Abschluss der Barrierefreiheit und Herstellung der Browserkompatibilität angeht, so ist mittelfristig an die weitere Vernetzung mit internen Webangeboten des Bundesarchivs zu denken. Dies betrifft insbesondere die Verlinkung der Fundstellen des Kommentars mit dem entsprechenden Eintrag des Online-Findmittels. Langfristig ist die Verlinkung mit externen Angeboten in Erwägung zu ziehen, falls diese digital verfügbar sein werden. In Frage kommen etwa das Bundesgesetzblatt, die Drucksachen von Bundestag und Bundesrat oder auch die Urteilssammlungen des Bundesverfassungsgerichts. Desgleichen könnten Links zu den Fundstellen anderer Quelleneditionen hergestellt werden, deren digitale Ausgabe zum Teil realisiert ist, so etwa die Dokumente zur Deutschlandpolitik [23] oder die Foreign Relations of the United States. [24] Konsequent multimedial zu Ende gedacht, könnten Belegstellen aus Reden mit Audiodateien oder Filmdateien verknüpft werden; die Anbindung von Bilddateien wäre analog zu sehen. [25]

Hinsichtlich internationaler Standards für die Beschreibung und Strukturierung elektronischer Texte ist eine Anlehnung an das Modell der Text Encoding Initiative (TEI) erstrebenswert, wobei im Falle der Quellengattung Protokoll eine spezifische Weiterentwicklung vorstellbar ist, wie sie etwa für den Bereich der Edition der Quellengattung Urkunde schon vorangetrieben wird. [26]

Schließlich sollte auf einer Metaebene überlegt werden, wie die im Internet bereits verfügbaren digitalen Angebote besser nachgewiesen werden, da sie meistens nur von Spezialisten gefunden werden. Es wäre wünschenswert, wenn Findmittel, wie zum Beispiel der Karlsruher Virtuelle Katalog (KVK) [27] , beim Suchergebnis als erste Treffer die Verweise zu den digitalen Angeboten liefern, dann zu den Nachweisen der Buchform. Hierzu ist es erforderlich, sich auf Beschreibungsstandards zu verständigen, damit solche seriösen Nachweise funktionieren. Eine kommerzielle Suchmaschine kann hinsichtlich Authentizität und Vertrauenswürdigkeit den Ansprüchen der wissenschaftlichen Welt nicht genügen.

Abschließende Betrachtung

Editionen haben für die historische Forschung Rückgratfunktion. Im Unterschied zu Darstellungen veralten Quelleneditionen kaum, bieten vielmehr die Grundlage, neue Fragestellungen der Forschung anzuregen und zu überprüfen. Für die Zeitgeschichte bilden die „Akten der Reichskanzlei – Weimarer Republik“ und die „Kabinettsprotokolle der Bundesregierung“ solche Rückgratserien. Ihre Digitalisierung bietet in der Kombination von vielfältigen Navigations- und Recherchefunktionen in bandübergreifendem Rahmen einen erheblichen Mehrwert neben der zeitlich und räumlich unbegrenzten Verfügbarkeit.

Die Kabinettsprotokolle der Bundesregierung sind meines Wissens auch die erste umfassende Edition der Sitzungsniederschriften des höchsten exekutiven Gremiums eines kurrenten politisch-gesellschaftlichen Systems. [28] Damit wird auch die retrospektive Inspektion der Entscheidungsabläufe dieses Gremiums ermöglicht, „[…] den Bürgern bisher verschlossene Einblicke in die Arbeit der Bundesregierung […]“ eröffnet und „[…] das Verständnis für die Arbeitsweise einer Regierung in der parlamentarischen Demokratie […]“ [29] vertieft. Die Online-Edition erhöht dieses Gebot der Transparenz noch einmal in besonderem Maße und ist gleichfalls im Bereich der Zeitgeschichte international Vorreiter.

Schließlich sind die „Kabinettsprotokolle der Bundesregierung“ ein Beitrag des Bundesarchivs zur E-Government-Initiative der Bundesregierung „BundOnline 2005“, um eine moderne und dienstleistungsorientierte Verwaltung zu schaffen. [30] Zudem ist die Online-Edition auch Bestandteil der Strategie des Bundesarchivs, als Dienstleister für die Forschung, die Verwaltung und den Bürger den Zugang zu seinen Beständen offen, effektiv und komfortabel zu gestalten.

***

Jörg Filthaut arbeitet als Wissenschaftlicher Archivar am Bundesarchiv, Dienstort Koblenz, in der Abteilung „Bundesrepublik Deutschland“ und ist neben Fragen der Schriftgutverwaltung und Bewertung vor allem für die archivische Bearbeitung des Bestandes „Bundeskanzleramt“ zuständig. Zugleich ist er Projektverantwortlicher der Internetpräsentation der Edition „Die Kabinettsprotokolle der Bundesregierung“. E-Mail: j.filthaut@bundesarchiv.de


[1] Vgl. hierzu das Geleitwort von Bundeskanzler Helmut Schmidt in: Die Kabinettsprotokolle der Bundesregierung. Hg. für das Bundesarchiv von Hans Booms (bis 1989). Band 1: 1949. Bearb. von Ulrich Enders und Konrad Reiser, Boppard 1982, S. V.

[2] Vgl. Die Kabinettsprotokolle der Bundesregierung. Hg. für das Bundesarchiv von Hans Booms (bis 1989), Friedrich P. Kahlenberg (bis 1999) und Hartmut Weber (ab 2000).Band 1: 1949. Bearb. von Ulrich Enders und Konrad Reiser, Boppard 1982.Band 2: 1950. Bearb. von Ulrich Enders und Konrad Reiser, Boppard 1984.Band 3: 1950. Wortprotokolle. Bearb. von Ulrich Enders und Konrad Reiser, Boppard 1984.Band 4: 1951. Bearb. von Ursula Hüllbüsch, Boppard 1988.Band 5: 1952. Bearb. von Kai von Jena, Boppard 1989.Band 6: 1953. Bearb. von Ulrich Enders und Konrad Reiser, Boppard 1989.Band 7: 1954. Bearb. von Ursula Hüllbüsch und Thomas Trumpp, Boppard 1993.Band 8: 1955. Bearb. von Michael Hollmann und Kai von Jena, München 1997.Band 9: 1956. Bearb. von Ursula Hüllbüsch, München 1998.Band 10: 1957. Bearb. von Ulrich Enders und Josef Henke, München 2000.Band 11: 1958. Bearb. von Ulrich Enders und Christoph Schawe, München 2002.Band 12: 1959. Bearb. von Josef Henke und Uta Rössel, München 2002.Band 13: 1960. Bearb. von Ralf Behrendt und Christoph Seemann, München 2003.Band 14: 1961. Bearb. von Ulrich Enders und Jörg Filthaut, München 2004.Band 15: 1962. Bearb. von Uta Rössel und Christoph Seemann, München 2005.Band 16: 1963. Bearb. von Ulrich Enders und Christoph Seemann, München 2006.Kabinettsausschuß für Wirtschaft. Band 1: 1951-1953. Bearb. von Ulrich Enders, München 1999.Kabinettsausschuß für Wirtschaft. Band 2: 1954-1955. Bearb. von Michael Hollmann, München 2000.Kabinettsausschuß für Wirtschaft. Band 3: 1956-1957. Bearb. von Ralf Behrendt und Uta Rössel, München 2001.Ministerausschuß für die Sozialreform 1955-1960. Bearb. von Bettina Martin-Weber, München 1999.

[3] Vgl. Netzeditionsgrundsätze, unter: <http://www.bundesarchiv.de/kabinettsprotokolle/web/index.jsp> (31.03.2006) und Editionsgrundsätze, in: Die Kabinettsprotokolle der Bundesregierung, hg. für das Bundesarchiv von Hartmut Weber, Bd. 15: 1962, bearb. von Uta Rössel und Christoph Seemann, München 2005, S. 11 f.

[4] Vgl. hierzu etwa Kleßmann, Christoph, Der bleibende Wert von Quelleneditionen, in: Mitteilungen aus dem Bundesarchiv 3 (2003), S. 14-16.

[5] Vgl. die Übersichten zu den geförderten Projekten: <http://www.hki.uni-koeln.de/retrodig/> (31.03.2006) und <http://www.zvdd.de/sammlungen.html> (31.03.2006) sowie den Evaluationsbericht zum Förderschwerpunkt der DFG: Manfred Thaller u.a., Retrospektive Digitalisierung von Bibliotheksbeständen. Evaluationsbericht über einen Förderschwerpunkt der DFG, Köln 2005, <http://www.dfg.de/forschungsfoerderung/wissenschaftliche_infrastruktur/lis/download/retro_digitalisierung_eval_050406.pdf> (31.03.2006).

[6] Vgl. Die Kabinettsprotokolle der Bundesregierung, hg. für das Bundesarchiv von Friedrich P. Kahlenberg (bis 1999) und Hartmut Weber (ab 2000).Band 10: 1957. Bearb. von Ulrich Enders und Josef Henke, München 2000.Band 11: 1958. Bearb. von Ulrich Enders und Christoph Schawe, München 2002.Kabinettsausschuß für Wirtschaft. Band 3: 1956-1957. Bearb. von Ralf Behrendt und Uta Rössel, München 2001Ministerausschuß für die Sozialreform 1955-1960. Bearb. von Bettina Martin-Weber, München 1999.

[7] Zum Kontext dieser Veranstaltung sowie zu den Redebeiträgen vgl.: Die Kabinettsprotokolle online. Präsentation im Bundeskanzleramt in Berlin, in: Mitteilungen aus dem Bundesarchiv 3 (2003), S. 12-18.

[8] Dieser Umstand wurde mit einer eintägigen Tagung im Bundesarchiv am 27.09.2004 zum Thema „Digitale Erschließung und Edition: Archivische Dienstleistungen im Informationszeitalter“ gewürdigt. Die Beiträge können unter <http://www.bundesarchiv.de/aktuelles/projekte/00023/index.html> abgerufen werden. Tagungsbericht von Jörg Filthaut, Digitale Erschließung und Edition: Archivische Dienstleistungen im Informationszeitalter“, in: H-Soz-u-Kult, <http://hsozkult.geschichte.hu-berlin.de/tagungsberichte/id=585> (31.03.2006).

[9] Vgl. zum Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften an der Universität Trier <http://germazope.uni-trier.de/Projects/KoZe2> (31.03.2006).

[10] Vgl. <http://www.bundesarchiv.de/kabinettsprotokolle> (31.03.2006).

[11] Vgl. <http://tomcat.apache.org/> (31.03.2006).

[12] Vgl. <http://lucene.apache.org/java/docs/index.html> (31.03.2006).

[13] Vgl. Bundesgesetzblatt I, S. 1467.

[14] Vgl. hierzu die Hinweise auf der einschlägigen Seite für barrierefreies Webdesign <http://www.einfach-fuer-alle.de/artikel/bitv/> (31.03.2006).

[15] Vgl. Akten der Reichskanzlei. Hg. Von Karl Dietrich Erdmann und Wolfgang Mommsen (bis 1972) bzw. Hans Booms (ab 1972).Kabinett Scheidemann. Bearb. von Hagen Schulze, Boppard 1971Kabinett Bauer. Bearb. von Anton Golecki, Boppard 1980Kabinett Müller I. Bearb. von Martin Vogt, Boppard 1971Kabinett Fehrenbach. Bearb. von Peter Wulf, Boppard 1972Kabinette Wirth I und II. 2 Bde. Bearb. von Ingrid Schulze-Bidlingmaier, Boppard 1973Kabinett Cuno. Bearb. von Karl-Heinz Harbeck, Boppard 1968Kabinette Stresemann I und II. 2 Bde. Bearb. von Karl Dietrich Erdmann und Martin Vogt, Boppard 1978Kabinette Marx I und II. 2 Bde. Bearb. von Günter Abramowski, Boppard 1973Kabinette Luther I und II. 2 Bde. Bearb. von Karl-Heinz Minuth, Boppard 1977Kabinette Marx III und IV. 2 Bde. Bearb. von Günter Abramowski, Boppard 1988Kabinett Müller II. 2 Bde. Bearb. von Martin Vogt, Boppard 1970Kabinette Brüning I und II. 3 Bde. Bearb. von Tilman Koops, Boppard 1982, 1990Kabinett von Papen. 2 Bde. Bearb. von Karl Heinz Minuth, Boppard 1989Kabinett von Schleicher. Bearb. von Anton Golecki, Boppard 1986.

[16] Projektverantwortlicher Bearbeiter ist Matthias Reinert, Kontakt: m.reinert@bundesarchiv.de.

[17] Vgl. „Die Reichstagsprotokolle (1919-1939)“, unter: <http://mdz1.bib-bvb.de/cocoon/reichsblatt/start.html> (31.03.2006) sowie auch das Vorgängerprojekt „Protokolle des Reichstages (1867-1895)“, unter: <http://mdz.bib-bvb.de/digbib/reichstag> (31.03.2006).

[18] Vgl. <http://www.bundesarchiv.de/bestaende_findmittel/bestaendeuebersicht/index_frameset.html> (31.03.2006).

[19] Vgl. <http://www.bundesarchiv.de/bestaende_findmittel/findmittel_online/index.html> (31.03.2006).

[20] Vgl. <http://www.nachlassdatenbank.de/> (31.03.2006).

[21] Vgl. zum E-Government-Wettbewerb <http://www.egovernment-wettbewerb.de/site/front_content.php> (31.03.2006) und <http://www.bearingpoint.de/content/news/6_3410.htm> (31.03.2006) sowie zum Wettbewerb BundOnlineStar <http://www.wms.bundonline.bund.de/nn_1304/Content/99__shareddocs/Publikationen/Oeffentlichkeitsarbeit/BundOnlineStar/g2c__kabinettsprotokolle__online,templateId=raw,property=publicationFile.pdf/g2c_kabnettsprotokolle_online.pdf> (31.03.2006).

[22] Vgl. die Rezension von Stephan Scheiper, WWW: Kabinettsprotokolle, in: H-Soz-u-Kult, <http://hsozkult.geschichte.hu-berlin.de/rezensionen/id=73&type=rezwww> (31.03.2006).

[23] Vgl. die Bahr-Kohl-Gespräche der Dokumente zur Deutschlandpolitik in: <http://www.bundesarchiv.de/bestaende_findmittel/editionen/dzd/01077/index.html> (31.03.2006).

[24] Vgl. Foreign Relations of the United States online, unter: <http://www.state.gov/www/about_state/history/frusonline.html> (31.03.2006).

[25] Der Ansatz der Kabinettsprotokolle Nordrhein-Westfalen verfolgt diesen Weg, vgl. dazu Andreas Pilger, Stand und Perspektiven einer digitalen Edition der Kabinettsprotokolle der Landesregierung von Nordrhein-Westfalen (Legislaturperiode 1966-1970), unter: <http://www.bundesarchiv.de/imperia/md/content/abteilungen/abtb/48.pdf> (31.03.2006).

[26] Vgl. dazu die Charters Encoding Initiative (CEI), unter: <http://www.cei.lmu.de/> (31.03.2006).

[27] Vgl. <http://www.ubka.uni-karlsruhe.de/kvk.html> (31.03.2006).

[28] Vgl. auch den Überblick bei Karl-Ulrich Gelberg, Die Protokolle des Bayerischen Ministerrates 1945-1954. Ein Editionsprojekt der Historischen Kommission bei der Bayerischen Akademie der Wissenschaften und der Generaldirektion der Staatlichen Archive Bayerns, in: Arbeitsgemeinschaft außeruniversitärer historischer Forschungseinrichtungen in der Bundesrepublik Deutschland (Hg.), Jahrbuch der historischen Forschung in der Bundesrepublik Deutschland. Berichtsjahr 2003, München 2004, S. 75 f.

[29] Geleitwort von Bundeskanzler Helmut Schmidt in: Die Kabinettsprotokolle der Bundesregierung, hg. für das Bundesarchiv von Hans Booms (bis 1989), Band 1: 1949, bearb. von Ulrich Enders und Konrad Reiser, Boppard 1982, S. V.

[30] Vgl. <http://www.wms.bundonline.bund.de/> (31.03.2006).


Hinweis:

In den Texten der Artikel wird der Unicode-Zeichensatz verwendet. Falls Ihr Browser nicht automatisch die richtige Codierung einstellt, d.h. wenn die deutschen Extrazeichen nicht korrekt angezeigt werden, drücken Sie bitte den Reload-Knopf (Refresh oder Aktualisieren) oder ändern Sie die Zeichensatz-Einstellung selbst unter Ansicht -> Codierung -> Unicode (UTF-8).

 
 

Letzte Änderung: 21.06.2007, sh