Übersichten

Aktuelle Ausgabe
Archiv
Impressum
@Redaktion@
   

Band 7 • 2005 • Teilband I

ISBN 3-86004-198-3

Geschichte und Neue Medien in Forschung, Archiven, Bibliotheken und Museen

zur¨ck

Geschichte und Neue Medien: Überblicke

 

Geschichte und Neue Medien

Albrecht, Christoph

Die Philosophen haben die Welt nur verschieden interpretiert;
es kömmt aber darauf an, sie zu parsen.

Einleitung

Vertraute Bilder

Abbildung 1 zeigt Geschichte in einem alten Medium. Das sieht nicht schön aus, aber es entspringt direkt unseren Köpfen:

Wie sieht Geschichte im Naturzustand aus?

Abbildung 1 beschreibt die Lebenswelt der frühen Neuzeit. Der Kringel in der Mitte beispielsweise ist die Stadt. Dort herrscht große Vielfalt, doch nur wenige Menschen leben dort. In anderen Kringeln erfahren wir etwas über Handwerker und Zunftwesen, über Juden und wie sie behandelt wurden, über Patrizier, die herrschen, und am Beispiel der Stadt Köln erfährt man, dass manche Städte einem Bischof unterstanden.

Dies ist Geschichte im Kopf einer Zwölfjährigen. Meine Nichte Caroline hat sie in Gestalt eines semantischen Netzes im alten Medium Papier gezeichnet. Jedenfalls sieht man Knotenpunkte und irgendwelche Beziehungen. Die unterschiedlichen Strichstärken scheinen anzudeuten, dass es verschiedene Klassen von Beziehungen gibt, beispielsweise wichtige oder weniger wichtige.

Wenn wir dieses geschichtliche Wissen mit Hilfe der sogenannten „Neuen Medien“ darstellen, sieht das gegenwärtig wiederum so aus wie in Abbildung 2. [1]

Wie sieht Geschichte in „Neuen Medien“ aus?

Dies ist das „Wissensnetz“ im Brockhaus Multimedial. Es stellt Bezüge dar, die der Artikel „Stadt: Ihre Rolle in der europäischen Geschichte“ zu anderen Artikeln des Wörterbuchs unterhält. Diese Bezüge sind in konzentrischen Kreisen nach semantischer Nähe sortiert.
Die Illustrationen sollen zeigen, dass wir uns im Grunde auf ganz vertraute Vorstellungen hinbewegen, wenn wir über Geschichte und Neue Medien nachdenken.

Überblick

Auch wir gehen vom Vertrauten zum Neuen und vom Ungewohnten zurück zum Vertrauten. Im ersten Schritt werfen wir einen Blick auf das wissenschaftliche Publizieren und das Bibliothekswesen. Dieser Bereich ist uns allen geläufig. Schließlich schreiben wir ja seit vielen Jahren die Namen von Autoren und die Titel von Büchern von den Buchdeckeln ab – genau wie Bibliothekare, nur weniger standardisiert und weniger zuverlässig. Neue Medien antworten hier auf alte Bedürfnisse.

Im zweiten Schritt lassen wir die Neuen Medien ihr Eigenleben entwickeln. Hier werden wir uns eine neue wissenschaftliche Welt vorstellen. In ihr gibt es keine Autoren, Bücher und Dokumente mehr, sondern nur noch ein semantisches Pilzgeflecht. Schopenhauer hat die organische Welt als einen „Schimmelüberzug lebender und erkennender Wesen“ bezeichnet. Wir dagegen stellen uns die Wissenschaft wie in Abbildung 3 [2] als einen solchen Schimmelbezug vor.

Geschichte: ein semantischer Schimmelbezug der Welt

Diese Abbildung zeigt die sich selbst organisierende Visualisierung einer so genannten Topic Map, einer „Landkarte“ von Begriffen, die wir wegen des schönen optischen Effekts zitieren. Sind die Neuen Medien selbst die Krankheit, deren Heilmittel sie zu sein behaupten? Das sieht hier jedenfalls fast so aus. Die zum Vereinfachen geschaffene Komplexität wächst uns hier über den Kopf. Also müssen wir die selbstverschuldete Komplexität durch noch mehr Komplexität wieder reduzieren. Diesen Schritt betrachten wir im dritten Teil. Die Gestalten des wissenschaftlichen Geistes, die wir in den beiden ersten Schritten untergehen ließen – also Bibliothekare und Bücher, Wissenschaftler und ihre Werke – diese Gestalten lassen wir hier wiederauferstehen. Allerdings in einer Welt, die wir digital reorganisiert haben.

Am Schluss werden wir sehen, wie die pragmatischen Bedürfnisse, die aus der Syntax und Semantik der neuen Medien erwachsen, wiederum zur Erweiterung dieser Syntax und Semantik drängen. Und wir werden sehen, dass Historiker geradezu berufen sind, als Katalysator dieser technischen, aber vor allem geistigen und gesellschaftlichen Dialektik zu wirken.

Phänomenologie der Neuen Medien

Wir erlauben uns den Spaß, die Digitalisierung der wissenschaftlichen Kultur mit den Mitteln Hegelscher Dialektik zu denken. Es geht also um die „Gestalten“ des wissenschaftlichen Geistes, sofern sie uns „erscheinen“. Ähnlich wie Hegel lassen wir sie aus ihren inneren Widersprüchen nacheinander hervorgehen. Genau wie bei Hegel trifft das nicht immer ganz exakt die Realität. Aber dieses idealisierende Vorgehen mag trotz metaphorischer Eintrübungen geeignet sein, einige Begriffe und Unterscheidungen im Zusammenhang („Kontext“) und in ihrer – hegelisch gesprochen – „Bewegung“ zu sehen.

Die technische Syntax: Vom Komplexen zum Einfachen

Die vier Informationsklassen

In den Geisteswissenschaften sind uns vier verschiedene Medientypen vertraut:

  • erstens Quellen,
  • zweitens Bücher und Aufsätze über Quellen,
  • drittens Bibliografien
  • und schließlich viertens Bibliothekskataloge mit Standortnachweisen.

Das sind schon vier getrennte Systeme. Wir haben vier Medien und entsprechende Medienbrüche. An ihnen können wir uns den Weg vom Komplexen zum Einfachen verdeutlichen.

Dazu prüfen wir, wie sich die Systeme technisch verbinden lassen. Dazu müssen wir die Kategorien oder Klassen von Informationen unterscheiden.

Einige grundlegende Informationen sind hochgradig standardisiert: zum Beispiel die Stammdaten Autor, Titel, Erscheinungsjahr und -ort. Sie sind allen vier Medien gemeinsam. Jedes Medium fügt ihnen etwas hinzu, es schafft einen Mehrwert an Information:

  • Die Quelle fügt den Inhalt und den taktilen Informationsgehalt hinzu.
  • Die Sekundärliteratur fügt Informationen über den Inhalt einer Quelle hinzu, sowie Informationen über die Beziehungen der Quelle im semantischen Netz einer Kultur. Außerdem generiert sie neue Stammdaten: Autor, Titel und so weiter. Sie ist also selber wieder eine Quelle.
  • Die Bibliografie fügt eine Klassifikation hinzu, die den Inhalt von Quelle oder Sekundärquelle erschließt.
  • Der Katalog fügt den Stammdaten den Standortnachweis einer bestimmten Bibliothek hinzu.

Diese Trennung schreit geradezu nach einer Umsetzung in den Neuen Medien. Sie verlangt, dass wir die Schnittstellen standardisieren und zum Verschwinden bringen. Dies geht hinauf vom Katalog zur Quelle, vom Einfachen zum Komplexen. [3]

Die Vereinigung der uns vertrauten Systeme

Integration der Kataloge: Das Trivialste wäre die Integration aller lokalen und regionalen Kataloge einer Nation zu einem zentralen Nationalkatalog. [4] Jede Bibliothek sendet dann nur noch ihren Standortnachweis an die zentrale Instanz, die die Stammdaten verwaltet. Alle Daten zur formalen Erschließung werden nur ein einziges Mal erfasst (wenn die Titeldatensätze nicht ohnehin direkt vom Verlag übernommen werden). Und wir Nutzer können über eine einzige nationale Schnittstelle leicht den kürzesten geografischen Weg zur gewünschten Publikation finden.

Integration von Bibliografie und Katalog: Im zweiten Integrationsschritt vereinigen wir die beiden Medien Bibliografie und Katalog. Sie enthalten dieselben Stammdaten. Ein Katalog sortiert alphabetisch nach den Nachnamen der Verfasser. Die thematische Sortierung ist nur eine andere „Sicht“. Der Vorteil dieser Vereinfachung: wieder ein Umweg weniger. Um einen Katalog benutzen zu können, müssen wir ja ohnehin schon wissen, was wir suchen. Das sagt uns die Bibliografie. Haben wir in einer digitalen Bibliografie die Autoren ermittelt, wollen wir auch die Standortnachweise haben, ohne den Umweg über einen Katalog gehen zu müssen.

Integration von Bibliografie und Sekundärquellen: Im dritten Schritt stellen wir uns vor, unsere integrierte Bibliografie mit den Sekundärquellen zu einer Einheit zu verschmelzen. Auch das ist im Grunde eine triviale Vereinfachung. Voraussetzung wäre die konsequente Digitalisierung aller wissenschaftlichen Literatur – ein organisatorisches und urheberrechtliches Problem. Aus dem integrierten System von Bibliografie und Katalog gelangen wir dann per Mausklick zum Volltext der Sekundärquelle.

An der Grenze der digitalen Welt: Die (unmögliche) Integration der historischen Monumente

Die letzte Integrationsstufe dagegen ist spezifisch für die Geisteswissenschaften: die Integration der wissenschaftlichen Kommunikation mit den gedruckten oder sonst wie physischen Primärquellen, den historischen Monumenten.

Die totale Digitalisierung und Retrodigitalisierung ist schwer vorstellbar. Sie wäre nicht zu verwirklichen. Vielleicht wäre sie nicht einmal unbedingt wünschenswert. Denn als Historiker suchen wir ja instinktiv den Austausch mit Leuten, die sich für dieselben Quellen interessieren. Also reisen wir zu diesen Quellen. Wir müssen und wollen sie anfassen können. Archivalien und historische Bestände der Bibliotheken bleiben deshalb unsere Heiligtümer und Reliquien. Letztlich bezahlen wir die Priester der Klio ja nur dafür, die Fetische unserer materialistischen Kultur zu verwalten. Geschichte ist vielleicht nichts als ein säkularisierter Gottes- oder Götzendienst.

Aber wenn das so ist: Wie kann dann unser System der wissenschaftlichen Kommunikation mit den gedruckten oder geschriebenen oder gravierten oder gemeißelten Quellen verschmelzen? Das von der Firma IBM für den Kunsthistoriker Jack Wasserman erstellte dreidimensionales Modell der Pietà von Michelangelo ermöglicht Kennern sogar Ein- und Durchblicke, die bisher unmöglich waren. Sie stellen das geschichtliche Objekt in eine quasi göttliche Transparenz. [5] Trotzdem glauben wir zu Recht, die Skulptur mit eigenen Augen sehen und abtasten zu müssen, um sie begreifen zu können.

Die historische Semantik: Das Netzwerk der Kultur

Der Widerstand der Materie

Wir gehen damit über zum zweiten, dem nichttrivialen Teil unserer technischen Phantasie. Bis hierhin stoßen wir nur auf technische Herausforderungen und organisatorische oder rechtliche Widerstände. Das soll uns jetzt nicht beschäftigen. Unser Thema ist das semantische Netz unserer Kultur, in dem auch die irreduzibel materiellen Monumente aufgehoben sind.

Wir haben gesehen, wie der Bedarf dieser netzartigen Semantik aus dem verzweifelten Verlangen der technischen Syntax entsprang, nicht nur die symbolische Welt zu verschlingen und neu zu organisieren. Die neuen Medien möchten am liebsten nicht nur die vertraute Welt der Dokumente in sich aufsaugen (und der strukturierten Sacherschließung oder zumindest unstrukturierten Volltextrecherche zugänglich machen), sondern sie wollen auch die Symbolträger selbst sich einverleiben, die Monumente unserer Kultur.

Aber das geht natürlich nicht. Oder nur mit einer dialektischen Volte. Wir sind, mit Hegel gesprochen, an die „Grenze der Sache“ gestoßen. Jetzt müssen wir uns zu dem „Gedanken der Sache überhaupt“ hinaufarbeiten.

Und damit sind wir beim Kern der Neuen Medien: Interessant an ihnen ist nicht das Technische – etwa CD-ROMs, Server, Client-Rechner, das Internet und so weiter, also das ganze Gerümpel von Hard- und Software. Interessant ist das Logische, das Gedankliche in ihrem Innern. Und dieses Gedankliche schaffen wir mit standardisierten und generalisierten Beschreibungssprachen.

Wir übersetzen also nur das Akronym SGML: Standard Generalized Markup Language.

Mit SGML – oder seinem vereinfachten und erweiterten, aber noch nicht ISO-standardisierten Nachfolger XML – können wir verschiedene, mit mehr oder weniger Semantik angereicherte Ausprägungen bilden. Beispielsweise das vertraute HTML, mit dem wir das Layout von Web-Dokumenten beschreiben, oder den Dublin Core-Standard zur formalen Beschreibung von Bibliothekskatalogen, oder die DTD der Text Encoding Initiative (TEI), die uns Elemente zur inhaltlichen Beschreibung von Dokumenten in den Geistes- und Sozialwissenschaften bereitstellt.

Eine weitere Ausprägung ist der ISO-Standard „Topic Maps“, mit dem wir Objekte der realen oder begrifflichen Welt sowie die Beziehungen zwischen diesen Objekten modellieren können. Topic Maps sind eine Möglichkeit, semantische Netze in maschinenlesbarer Form zu knüpfen. Mit ihnen oder verwandten standardisierten Beschreibungsdialekten werden wir die historischen Fetische unserer Kultur umhüllen wie mit einem Verdauungssekret im Magen.

Diese Fetische sind, mit Hegel gesprochen, das „tote Sein“ der Kultur, ihr caput mortuum. Archive und Museen sind die Schädelstätten der Zivilisation. Der lebendige Kopf aber, das Selbstbewusstsein der Kultur, in das diese Fetische eingeschmolzen sind, hat in unserer Vision – technisch gesehen – die Gestalt von semantischem Markup.

Das sind formalisierte Beschreibungen:

  • Wir hüllen damit die Quellen ein,
  • wir beschreiben damit ihre Struktur und ihren Inhalt,
  • und wir stellen damit ihre Beziehungen zu anderen Quellen dar.

Das Ausformulieren und Standardisieren solcher Beschreibungssprachen bildet sicher eines der interessantesten und wichtigsten Themen der Workshops von „.hist 2003“.

An dieser Stelle bekommt der Prozess der wissenschaftlichen Kommunikation in den Geisteswissenschaften eine neue Qualität. Im Gegensatz zu dem bisher Skizzierten über die Vereinheitlichung der wissenschaftlichen Kommunikation, die ziemlich trivial war, ist diese neue Qualität für die meisten Leute vermutlich noch weniger vorstellbar.

Wir reden nämlich vom Verschwinden der Dokumente. Dokumente sind Knotenpunkte im wissenschaftlichen Zitierwesen. Sie haben formale Eigenschaften wie einen Autor oder eine Autorin, einen Titel, einen Publikationsort, ein Publikationsdatum, oft auch eine Identifikationsnummer. Dokumente mit solchen Eigenschaften wird es auch in einer total digitalisierten Zukunft geben. Auch Hypertexte sind Dokumente, nur sind ihre Elemente nicht mehr linear organisiert. Doch künftig wird man Dokumente als Sonderfälle der wissenschaftlichen Kommunikation erkennen.

Die Dekomposition der Dokumente

Die Dokumente verflüssigen sich in zwei Richtungen. Sie werden formal zerlegt in Elemente, die wir mit Hilfe formaler Beschreibungssprachen definieren. Die Hypertext Markup Language (HTML) ist nur die primitivste, formale Form. Diesem Ende des Spektrums ordnen wir in unserer Phänomenologie des wissenschaftlichen Geistes die Welt der Bibliotheken zu: die Syntax möglicher Beschreibungssprachen und eine abstrakte klassifikatorische Semantik. [6] Aus der Welt der Wissenschaft hingegen kommt der Reichtum historischer Semantik zum inhaltlichen Beschreiben und Verknüpfen von Objekten durch semantische, automatisierte und standardisierte Links im Gegensatz zu manuell gesetzten, „proprietären“, nicht von Maschinen interpretierbaren Links vertrauter „Hypertexte“. Die Synthese der beiden Welten ist das semantische Netz unserer Kultur. In ihm können wir die Relationen zwischen Objekten formalisieren und implementieren.

Solche Relationen enthalten jedoch inhaltlich nichts Neues. Sie sind das Allervertrauteste. Denn das semantische Netz ist ja die natürliche Organisationsform kulturellen Wissens. Wir erinnern uns an die kleine Caroline (Abbildung 4):

Wie sieht Geschichte im Naturzustand aus?

Typischerweise sind solche Relationen der Gegenstand geisteswissenschaftlicher Aufsätze und Monographien. Idealtypisch kommen sie in drei elementaren Gestalten vor:

  • Erstens: Eine neue Quelle wird in einer bestimmten Hinsicht einem bekannten Thema zugeordnet.
    Diesen Prozess kennen wir als Quellenkritik.
  • Zweitens: Eine Menge bekannter Quellen wird einem neu geschaffenen Thema, meistens einem neuen Gesichtspunkt eines vertrauten Gegenstandes zugeordnet.
  • Drittens: Eine bestehende Relation wird ihrerseits zum Objekt, das mit einem anderen Objekt in Beziehung gesetzt wird: beispielsweise ein Beleg für oder gegen eine behauptete Relation oder ein Erklärungsschema.

In der Praxis behandeln Publikationen immer komplexe Bündel solcher Relationen. Theoretisch könnte man die Publikationen jedoch entflechten und ihre elementaren Bestandteile getrennt voneinander ablegen: als Knotenpunkte im semantischen Netz, das beispielsweise einer objektorientierten Datenbank aufruht oder das rein virtuell irgendwo im Internet liegt, verknüpft über Uniform Resource Identifiers (URIs). Es gäbe dann keine „Dokumente“ mehr.

Dokumente gibt es nur noch außerhalb des Systems:

  • Einerseits wäre das die „immerwährende“ Quelle, unser angebeteter Fetisch, das heilige „Original“, das in einem Archiv, im Museum, irgendwo im Mausoleum der Kultur lagert.
  • Andererseits wäre das die temporäre Abfrage in Datenbanken oder im Web, die Forscher zu einem bestimmten Zeitpunkt machen. Sie (oder eher digitale „Agenten“) sammeln dabei nur diejenigen Informationen zusammen, die dem individuellen Profil ihrer aktuellen Fragestellung entsprechen.

Dokumente sind also nur noch Spezialfälle der Darstellung von Informationen für einen bestimmten Zweck mit einer bestimmten Gültigkeit.

Das Abstract eines Aufsatzes sollte diese grundlegenden Beziehungen darstellen. Der Index eines Buches, sein Literatur- und Inhaltsverzeichnis tun ebenfalls nichts anderes - nur jedoch in einer nicht formalisierten und daher nicht maschinenlesbaren Weise. Der Zettelkasten eines Forschers oder einer Forscherin enthält ebenfalls all diese Beziehungen – leider jedoch nicht in standardisierter Form.

Der standardisierte und generalisierte Zettelkasten

Der Zettelkasten ist uns allen vertraut. Er ist das Modell des digitalen semantischen Universums, das wir uns vorstellen.

Eine (beispielsweise hierarchische) Organisation von Begriffen könnte heute, also im „Neuen Medium“ des semantischen Schimmelbezugs, so aussehen wie in Abbildung 5: [7]

Zettels neuer Traum

Die bunten Sporen signalisieren die Vielfalt der „Sichten“, mit denen wir den Inhalt des Zettelkastens organisieren können. Trotzdem bleibt zunächst die Idee des Zettelkastens bestehen. Entscheidend ist nämlich etwas anderes.

Jemand hat gesagt: Die Henne ist ein Mittel des Eis, ein zweites Ei hervorzubringen. Analog könnte man sagen: Das Buch ist nur die Fortsetzung des Zettelkastens mit anderen Mitteln. Das Buch ist ein Mittel des Zettelkastens, einen zweiten Zettelkasten hervorzubringen.

Wenn jedoch alle Zettelkästen (zumindest innerhalb einer Schule eines Fachs) auf einem einheitlichen Standard zur Klassifikation und Beschreibung von Objekten und Relationen beruhen würden, wenn also alle Zettelkästen nur ein einziger Zettelkasten wären, dann wären – logisch gesehen – das Buch und der Aufsatz überflüssig.

Das ist einerseits eine verlockende Vorstellung. Doch unsere technische Phantasie treibt uns hier andererseits an einen absurden Punkt, den das Eier- und Hühnergleichnis illustriert: Es gibt am Ende nur noch Eier, also einzelne Zellen, die sich wieder auf dem Weg der Zellteilung vermehren, anstatt auf dem üblichen Weg der geschlechtlichen Fortpflanzung: also durch das Medium eitler Gockel und geiler Hennen, die mit buntem Gefieder und schrillem Gegacker gegenseitig auf sich aufmerksam machen.

In unserer Vision der wissenschaftlichen Kommunikation als Schimmelpilzbezug vergeht uns offenbar der Sexappeal der Wissenschaft. Wir sehen insbesondere Geisteswissenschaftler nur noch als anonyme Organismen, die klebrige Fäden spinnen, um das kulturelle Archiv, die Quellen und Monumente der Zivilisation, in einem enzyklopädischen Beziehungsgeflecht zu erschließen. Wir wären im Paradies des „Wissensmanagements“, in der allumfassenden Enzyklopädie, in der alle Dinge auf standardisierte Namen hören. Doch statt einer blühenden Landschaft von Orchideen hätten wir nur noch ein einziges pilziges Geflecht, das sich unterirdisch breit macht – übler noch als heutzutage das Geschwätz von „Interdisziplinarität“.

Tatsächlich jedoch kann das System der Wissenschaft die Vorteile der geschlechtlichen Fortpflanzung nicht preisgeben – also den, technisch gesehen, ineffizienten Umweg des Eis über die Henne.

Die syntaktische Einfachheit und semantische Komplexität unseres Systems sind also bis hierhin zwar logisch und technisch denkbar und wünschbar. Doch gibt es eine pragmatische Grenze, bis zu der sich unser semantischer Schimmelbezug nur ausbreiten kann. Wissenschaft ist jetzt nur noch die „Methode, allem Himmlischen und Irdischen, allen natürlichen und geistigen Gestalten die paar Bestimmungen des allgemeinen Schemas aufzukleben“. [8] Doch Wissenschaft ist natürlich nicht oder nur zum Teil einträchtige Zusammenarbeit für ein gemeinsames Ziel, sondern sie ist auch Kampf um Anerkennung.

Die wissenschaftliche Pragmatik: Die Reproduktion der Wissenschaft

Wir kommen deshalb im dritten Schritt zu den sozialen Triebkräften und Anreizen, die der Evolution der sogenannten „Neuen Medien“ eine Richtung vorgeben.

Der Wissenschaftsbetrieb muss sich ja irgendwie reproduzieren. Dazu braucht er Geld, neue Talente und gesellschaftliche Anerkennung.

Diese gesellschaftlichen Kapitalien lassen sich aber nur anlocken, wenn sie das Gefühl haben, effizient eingesetzt zu werden. Deshalb hat die wissenschaftliche Kommunikation bekanntlich nicht nur die beiden Funktionen, Information zu übertragen und zu speichern, sondern sie hat auch die dritte Funktion, sie zu bewerten wie Gurken auf dem Wochenmarkt oder Aktien an der Börse.

  • Drittmittelgeber wissen dann, wofür sie ihr Geld ausgeben.
  • Studierende müssen nicht befürchten, ihre Lebenszeit zu vergeuden.
  • Die Gesellschaft hat das Gefühl, etwas Sinnvolles zu finanzieren.
  • Und die Wissenschaft selbst kann einschätzen, ob es sich lohnen könnte, einen Aufsatz zu lesen oder einen Wissenschaftler bzw. eine Wissenschaftlerin auf einen Lehrstuhl zu berufen.

Das semantische Netz der wissenschaftlichen Kultur schafft auch hier neue Voraussetzungen.

These: Die Wiedergeburt des Bibliothekars als Szientometer

Als Wissenschaftler sichert man seinen Ruhm, indem man die Priorität auf eine Idee anmeldet, also etwa eine neue Quelle in Beziehung zu einem bestimmten Thema. Die Priorität, die einzelne Wissenschaftler auf ihre Entdeckungen anmelden, lässt sich in unserem gedachten Wissensnetz übersichtlich verwalten. Unsere Pilzstruktur kommt insofern zwei vertrauten Tendenzen der wissenschaftlichen Welt entgegen:

  • Erstens kommt es der Neigung entgegen, in „smallest publishable units“, kleinsten publikationsfähigen Einheiten, zu denken.
  • Zweitens kommt es der Neigung entgegen, wissenschaftliche Leistungen anhand quantifizierbarer Kriterien zu messen.

Im gegenwärtigen System ist es zumindest in den Naturwissenschaften wichtig, in Zeitschriften mit hohem impact-Faktor (also hoher Zitierhäufigkeit) zu veröffentlichen. Der Erfolg der Internetsuchmaschine „Google“ beruht darauf, dieses Prinzip auf die Ebene einzelner Web-Dokumente zu übertragen.

Das System der Wissenschaft, das wir uns vorzustellen versuchen, treibt diese Tendenzen in zwei Richtungen noch weiter:

  • Erstens auf die Ebene der Ideen, der zumindest theoretisch beliebig kleinen Knoten und Kanten unseres semantischen Netzes.
  • Zweitens in den Bereich der Geistes- oder Kulturwissenschaften hinein, in denen quantitative Methoden der Leistungsmessung bisher keine Rolle spielen.

Der Bibliothekar, der seit vierzig Jahren Bibliometrie betreibt, wird im semantischen Netz in der Gestalt des Szientometers wiedergeboren.

Antithese: Die Wiedergeburt des Autors als Sinnstifter

Ein Nebeneffekt der Quantifizierung besteht darin, dass die Wissenschaft noch abstrakter und lebensferner oder geradezu lebensfeindlicher erscheint. Man sieht nur noch das Spezialistentum. Alles scheint sich auf Schopenhauers Schimmelpilzbezug zu reduzieren.

Noch drohender als bisher wird deshalb die Sinnfrage ihr schreckliches Haupt erheben. Darin besteht aber quasi die Lebensversicherung der sogenannten Kulturwissenschaften.

Das wiederum heißt medientechnisch gesehen: Es muss neben der digitalisierten Fachkommunikation auch eine popularisierte, das heißt in der Regel gedruckte Darstellungsform geben. Dieser Teil der wissenschaftlichen Kommunikation fällt eigentlich in den Bereich der Unterhaltung, die uns Wissenschaft als Abenteuer verkauft.

Die Sonderstellung der Geisteswissenschaften besteht darin, dass sie einerseits Wissenschaft und andererseits sinnstiftende Unterhaltung sind, die alle Disziplinen umfasst. Naturwissenschaftler, die ihr Fach popularisierend beschreiben, werden quasi zu Geisteswissenschaftlern. Ihr Thema sind dann der Geist und die Kultur der Forschung, nicht mehr ein bestimmtes Objekt.

Das semantische Netz der Wissenschaft ist nur für die Fachöffentlichkeit zugänglich und lesbar. Also werden Forscher, Didaktiker und Popularisatoren Auszüge mit bestimmten Funktionen daraus anlegen und für Öffentlichkeiten außerhalb der Wissenschaft in Druck geben.

  • Forscher werden mit einem Kompendium ihrer stolzesten Forschungsleistungen Drittmittel und Talente einzuwerben suchen.
  • Didaktiker suchen sich Beispiele zusammen, die sich zur Schulung der Novizen besonders gut eignen.
  • Populärwissenschaftliche Autoren stellen die großen Errungenschaften einer Disziplin zusammen, und mehren damit ihre öffentliche Akzeptanz.

Alles, was überhaupt gedruckt wird, hat dann also mehr den Charakter von Hochglanzwerbebroschüren. Oder es wird „on-demand“ zum persönlichen Verbrauch gedruckt und wandert nach Gebrauch in die Altpapiertonne.

Unsere digitale Phantasie führt uns also an einen Punkt, an dem das Digitale und das Gedruckte nach funktionalen Kriterien voneinander geschieden sind. Als Triebkräfte erkennen wir außerwissenschaftliche, soziale Bedürfnisse. Und zwar will die Gesellschaft die Leistung einzelner Wissenschaftler genauer, das heißt möglichst quantitativ messen können. Und außerdem will sie, dass sich die Wissenschaft in ihrem unendlichen Hunger nach finanziellen und personellen Ressourcen rechtfertigt. Die Messung wissenschaftlicher Leistungskraft, die Szientometrie, ist die Domäne des Digitalen; das Produzieren von sogenanntem Sinn, das Schaffen von Akzeptanz bleibt die Domäne des Gedruckten. Geisteswissenschaftliche Autoren werden als Sinnstifter und Stilisten wiedergeboren – fast wie der Bürger als Edelmann, der schon immer Prosa gesprochen hat.

Synthese: Die Wiedergeburt des Gutachters als Wissenschaftler

Wir haben also in unserer kleinen Phänomenologie des wissenschaftlichen Geistes den „dialektischen Widerspruch“ von Digitalem und Gedrucktem herausgearbeitet. Szientometrie einerseits und „Scientainment“ oder Werbung andererseits sind uns als die extremsten Gestalten wissenschaftlicher Kommunikation auseinander- und entgegengetreten. Diesen Gegensatz heben wir gut hegelianisch in einer höheren Synthese wieder auf. Denn wir müssen schließlich auch noch einem anderen wichtigen Bestandteil des wissenschaftlichen Publikationssystems seine Stellung anweisen: dem Gutachterwesen.

In der Diskussion darüber, ob künftig noch Verlage gebraucht werden, lautet ja ein wichtiges Argument, dass die Verlage mit Hilfe von Gutachter Qualitätsinformation bereitstellen. Begutachtete Information aber sei viel wertvoller als der ganze Schrott, den „Google“ uns präsentiert. Also seien die Verlage auch in Zukunft unverzichtbar.

Und das ist natürlich zumindest auf den ersten Blick wahr.

Denn der Goldstandard wissenschaftlicher Reputation ist nicht ein szientometrischer Messwert oder das Expertengerede in Talkshows, sondern das qualitative Urteil von Fachkollegen. Hier geht es nicht nur um Geld und Akzeptanz. Sondern es geht darum, was und wer überhaupt zum System der Wissenschaft dazu gehört. Was überhaupt in den Zettelkasten hineingelangt und wer damit am Schimmelpilzbezug mitweben darf, hängt von Wertungen ab.

Wo entsteht die implizite wertende Information?

Wir können drei Stellen im Prozess der wissenschaftlichen Kommunikation ausmachen, an denen die wertende Information entsteht.

  • Erstens: In den Köpfen der publizierenden Wissenschaftler, die etwa eine Quelle überhaupt relevant finden und das entsprechend begründen.
  • Zweitens: In den Köpfen der begutachtenden Wissenschaftler, die entscheiden, ob ein Beitrag bestimmte formale und inhaltliche Standards erfüllt.
  • Schließlich in den Köpfen der lesenden Wissenschaftler, die prüfen, ob ein Beitrag eine Neuigkeit enthält, die für ihre Zettelkästen relevant ist.

Im Grunde ist wissenschaftliches Kommunizieren nichts als implizites Begutachten. Die implizite Information wird dabei jedoch nicht wiederverwendet, sondern immer neu generiert. Sie ist quasi gespeicherte, potentielle Energie, die sich im System der offiziell publizierten Informationen verkörpert hat.

Wo entsteht die explizite wertende Information?

Im Gegensatz dazu steht die gewissermaßen „kinetische Energie“, die von expliziten Wertungen freigesetzt wird. Solche Informationen bewegen etwas: Auf einer Tagung erhalte ich einen Hinweis auf eine wichtige Neuerscheinung, die ich dann lese. Ein Berufungsausschuss bewertet die Leistungen von Bewerbern, und am Ende wird einer der Kandidaten auf den vakanten Lehrstuhl berufen. DFG-Gutachter prüfen das Exposé für ein Forschungsprojekt, und die nötigen Drittmittel werden möglicherweise bewilligt.

Oder noch etwas anderes: Zeitschriften wie „Focus“ oder „Spiegel“ veranstalten ein Ranking von Hochschulen und Instituten, das sich darauf auswirkt, wo sich junge Talente verstärkt hinorientieren oder welche Universitäten die größten Aussichten haben, ministerielle Sonderzuwendungen zu erlangen.

Es gibt also eine zweite, explizite Klasse wertender Informationen. Diese Informationen entstehen ad hoc, sie sind situationsbedingt. Sie sind explizit, denn sie werden protokolliert und dokumentiert. Sie dienen wie szientometrische Daten oder populäre Darstellungen dazu, gesellschaftliche Ressourcen anzulocken: Geld, Personal, Legitimation.

Integration expliziter und impliziter Information

Diese beiden Klassen wertender Information – die implizite und die explizite – unterscheiden sich nur hinsichtlich der kommunikativen Form. Und es sind immer dieselben Leute, die sie generieren, nur in verschiedenen Rollen: mal als Forscher und Antragsteller, mal als Gutachter.

Also könnte man auch hier eine Integration der Systeme anstreben – genau wie wir am Anfang Kataloge, Bibliografien und wissenschaftliche Kommunikation durch standardisierte Schnittstellen verschmolzen haben.

Das hätte zwei Vorteile:

  • Wir optimieren erstens die Schnittstelle zur Gesellschaft.
  • Und wir optimieren zweitens die Informationsgewinnung und damit die Verwendung der gesellschaftlichen Ressourcen.

Damit wiederum bringen wir zwei bedeutende Interessen zum Ausgleich:

  • einerseits das Autonomiebedürfnis der Wissenschaft;
  • andererseits das Lenkungsbedürfnis der Gesellschaft.

Um beide Interessen zu befriedigen, muss das System der Wissenschaft erstens weiterhin und konsequenter als bisher selbstorganisiert sein. Und es muss zweitens transparent sein, damit seine Entscheidungen der Mittelverwendung gesellschaftlich akzeptiert bleiben.

Die Wissenschaft ist aber, von außen betrachtet, nicht besonders transparent. Man wittert vielmehr Postenschacher, Rezensionsseilschaften, Missbrauch von Gutachtermacht: kurz gesagt, die Feudalherrschaft akademischer Mandarine.

In dieses Vakuum selbstorganisierter Macht stößt zurzeit der Staat mit seinem unersättlichen Regulationsbedürfnis. Das führt zur Zentralisierung von Machtbefugnissen bei Dekanen, Rektoren oder Gutachterkommissionen oder, was ganz absurd ist, zur Diktatur der Unternehmensberater. Denn der Staat benötigt leicht identifizierbare Schnittstellen, grobe Stellschrauben, an denen er mit seinen plumpen Fingern drehen kann. Das ist verständlich, kann aber langfristig nicht gut gehen.

Aber wie sieht nun die wünschenswerte Integration der beiden Klassen wertender Informationen aus, der expliziten und der impliziten? Sie fällt zusammen mit der Demokratisierung und dem Durchsichtigmachen des Systems wissenschaftlicher Evaluation.

Dazu ist zweierlei zu tun:

  • Wir müssen erstens die implizite Information explizit machen, damit wir sie automatisiert verarbeiten und intern nutzen können.
  • Und wir müssen zweitens die Information in ein standardisiertes Format bringen, damit sie nach außen transparent ist.
Mechanismen

In Wirklichkeit ist Explizitmachen und Standardisieren dasselbe. Das „Format“ ist natürlich wieder unser semantisches Netz. Ihm müssen wir nur einige neue Klassen von Objekten und Relationen hinzufügen. Dazu brauchen wir unsere Phantasie nicht stark anzustrengen. Wir müssen lediglich die wesentlichen Elemente nachmodellieren, aus denen der Wissenschaftsbetrieb besteht.

Das sind zunächst die funktionsspezifischen Dokumentarten, etwa:

  • Lehrbücher
  • Einführungen
  • Monografien
  • Aufsätze
  • Projektanträge
  • Gutachten

All diese Dokumentarten spiegeln jeweils eine bestimmte Teilfunktion von Gelehrten wieder: sie machen praktische Übungen, halten überblicksartige Vorlesungen, forschen, werben Drittmittel ein oder begutachten selbst entsprechende Anträge und so weiter.

Dann müssen wir Mechanismen einbauen, mit denen wir die implizite Information in explizite verwandeln und sie speichern.

Ein einfaches Beispiel: Was Gelehrte an Literatur für ihre überblickshafte Vorlesung verwenden, versehen sie implizit mit einem positiven „Empfehlungsschreiben“. Wenn diese Gelehrten auf ihrer Homepage eine solche Liste empfohlener Literatur XML-kodiert ablegen, kann ein digitaler Agent diese Information einsammeln und in eine Datenbank einspeisen. Aus diesen Informationen ließe sich dann automatisch ein Ranking empfohlener Einführungsliteratur zu einem Thema und innerhalb eines Fachs generieren. Wir würden dann auf einen Blick sehen, wer die Koryphäen eines Fachs sind und welches die Klassiker sind, die man als Student gelesen haben muss, wenn man sich einer bestimmten Schule zurechnen oder eine gegnerische Schule bekämpfen will.

Analoges kann man auf andere Informationsklassen anwenden:

  • Ein Ranking empfohlener Lehrbücher oder Lehrmodule macht uns auf didaktische Talente aufmerksam.
  • Explizite Empfehlungen für Dissertationen oder elektronische pre-print-Aufsätze machen uns deutlich, wie die jungen Nachwuchstalente heißen und mit welchen Themen sie sich beschäftigen.
Funktionen

An dieser Stelle werden zwei Spezialfälle interessant.

  • Erstens der Fall des elektronischen Aufsatzes, der auf einem pre-print-Server liegt.
  • Zweitens die korrespondierenden Informationsklassen Projektantrag und Gutachten.

Am Beispiel des Aufsatzes merken wir, was Publizieren im digitalen Zeitalter heißt: Es bedeutet, unmittelbar wahrgenommen zu werden und ein implizites oder explizites Votum zu erhalten. Gutachter und Verleger einer Zeitschrift fallen dabei weg. Denn alle Wissenschaftler sind in dem Moment Gutachter, in dem sie das Risiko auf sich nehmen, ein Element unseres semantischen Netzes (welches das Verlagswesen ersetzt) zu benutzen. Aber alle Publizierenden könnten ihrerseits das Risiko auf sich nehmen, reputierte Gelehrte um „digitale Empfehlungsschreiben“ für ihre Beiträge zu bitten. Die müssen nicht notwendig positiv ausfallen. Ein solches explizites positives Votum würde indes die Wahrscheinlichkeit erhöhen, wahrgenommen und weiterempfohlen und zitiert zu werden. Ein negatives Votum dagegen ginge nicht verloren, wie es in der Welt gedruckter Zeitschriften der Fall ist: Ein abgelehnter Beitrag sinkt hier immer nur auf die jeweils nächste Qualitäts- oder „Impact“-Stufe ab und macht jedes Mal von neuem Gutachtern Arbeit.

Am Beispiel des Projektantrags merken wir zweitens, wie wissenschaftliche Innovation sich im digitalen Zeitalter organisieren könnte. Die Erfolgswahrscheinlichkeit eines Projektantrags hängt davon ab, dass die Hypothesen gut begründet sind. Um eine Hypothese gut zu begründen, muss man – überspitzt gesagt – bereits die Forschung leisten, für die man die Drittmittel erst einwerben will. Im Extremfall läuft das darauf hinaus, die Publikationen, in denen man die Ergebnisse bisheriger Forschung dokumentiert, in Anträge für künftige Forschung umzufrisieren.

Das System der reputationsgesteuerten Wissenschaft wird also gegenwärtig durch ein zweites Steuerungssystem überhöht und pervertiert. Das kommt aber nur dem staatlichen Regulierungsbedürfnis entgegen. In Wirklichkeit ist das natürlich ineffizient. Denn es ist erstens redundant und zweitens auf natürliche Weise korrupt, weil es Entscheidungsmacht in obskure Gutachtergremien überträgt. Und ein kleiner Club von Gutachtern weiß naturgemäß weniger als die wissenschaftliche Gemeinschaft als ganze.

Nur kommt es eben darauf an, dass diese Gemeinschaft mit einer einzigen Stimme sprechen kann. Diese Stimme muss unser System aufgrund quantitativer und qualitativer Bewertungen automatisch generieren.

Und diese Verschmelzung quantitativer und qualitativer Bewertungen könnte man sich vereinfacht und primitiv vorstellen als eine Kombination aus der Internetsuchmaschine „Google“ und dem Online-Buchhändler „Amazon“ mit seinen Leserrezensionen und Punkterankings. [9]

Ein System, das individuelle und explizite Bewertungen von Web-Dokumenten erfasst und automatisch auswertet, bietet heute bereits die Webseite Alexa (Abbildung 6). [10]

Clio-online bei alexa.com: “Be the first person to write a review!”

Konsequenz: Wissenschaft als Markt

In der Konsequenz dieses Modells läge es weiterhin, genauso automatisch die finanziellen Ressourcen im Verhältnis der gemessenen Reputation an Hochschulen, Forschungseinrichtungen, Fachbereiche und einzelne Forscher zu verteilen – also ohne dass irgendwelche staatlichen Instanzen dazwischengeschaltet sind.

Damit sich diese Ressourcen dann wieder zu sinnvollen Großprojekten wie Teilchenbeschleunigern, Quelleneditionen, Wörterbüchern oder Internetportalen für historische Fachinformation bündeln können, bräuchten wir einen digitalen Marktplatz. Eine Art Börse also, an der die Forscher in solche Projekte „investieren“ können, die ihnen aussichtsreich erscheinen und weiteren Reputationsgewinn versprechen.

Schluss

Dies waren mögliche pragmatische Konsequenzen, wenn wir Wissenschaft als semantisches Netz organisieren. In unserem dialektischen Fortschreiten kommen wir zum Schluss, indem wir auf zwei Folgeprobleme dieser möglichen Entwicklung eingehen. Schließlich werden wir uns an einem Beispiel verdeutlichen, warum gerade die Geschichtswissenschaft eine Vorreiterrolle bei der möglichen Umsetzung unserer Phantasie spielen könnte.

Globale Arbeitsteilung

Wir haben beim Nachdenken über das wissenschaftliche Publizieren einen Punkt erreicht, der die nicht nur nationale, sondern auch internationale Arbeitsteilung betrifft. Wissenschaft ist das Ausdifferenzieren in immer subtilere Disziplinen und Schulen. Je erfolgreicher Wissenschaft operiert, desto unwahrscheinlicher wird es, dass Wissenschaftler überhaupt noch Gesprächspartner finden. Daher auch der illusionäre Ruf nach dem sogenannten „Interdisziplinären“. [11]

Die Wissenschaft ist deshalb ein großer Motor der Globalisierung:

  • Erstens in den technischen und kulturellen Folgen, mit denen sie unser Leben auf der ganzen Welt revolutioniert.
  • Zweitens durch ihr gigantisches, selbsterzeugtes Kommunikationsbedürfnis.

Dieses Kommunikationsbedürfnis folgt aus der Notwendigkeit, eine globale Arbeitsteilung und Bündelung der Ressourcen zu erreichen.

Auch für diese globale Verteilung der Arbeit und Bündelung muss unser Netzwerk die „semantische“ Infrastruktur und die technische „Syntax“ bereitstellen. Es muss die personelle, institutionelle und thematische Verflechtung nachmodellieren.

Zwei der Komponenten haben wir bereits. Die Struktur der Themen ist in der Bibliografie enthalten. Auch die Namen von Autoren haben wir. Aber eben nur Namen, keine Identifier, wie wir sie für Bücher in Gestalt der ISBN haben. Aber wir brauchen natürlich ein System, in dem wir beispielsweise den Musiker Christoph Albrecht unterscheiden können von dem Theologen und von dem Zeitungsredakteur und ehemaligen Literaturhistoriker. Das semantische Netz müssen wir also erweitern um eine digitale Ausgabe von Kürschners Gelehrtenkalender. Solche Identitäten und „Ontologien“ zu modellieren ist die geradezu die klassische Aufgabe von Topic Maps und verwandten Beschreibungsstandards wie dem Resource Description Framework (RDF).

Personelle und institutionelle Verflechtungen

Personen und ihre Beziehungen sind also entscheidende Dinge im wissenschaftlichen Universum. Unser semantisches Netz hilft ihnen, sich global zu organisieren.

Aber die Ressourcen sind immer begrenzt und deshalb umkämpft. Da Informationen über ihre Verteilung entscheiden, müssen wir diese Informationen vor Korrumpierung schützen. Dazu müssen wir die Beziehungen zwischen den Beteiligten modellieren und damit transparenter machen. [12]

Dazu reicht es vielleicht schon, unsere bisher bekannten Objektklassen wie „Wissenschaftler“, „Institut“, „Universität“, „Disziplin“, „Thema“ und so weiter durch einige Relationen zu ergänzen. Dies sind beispielsweise: „wurde promoviert von“, „wurde habilitiert von“ „wurde promoviert/habilitiert am Institut/Universität xy“ und so weiter. [13]

Aus diesen sehr einfach zu erfassenden und zu verwaltenden Informationen ließen sich automatisch wichtige Schlüsse ziehen: Wir erkennen, von welchen persönlichen und institutionellen Beziehungen und Interessen eine bestimmte Semantik getragen wird. Das hilft mir, Wertungen kritisch einzuschätzen.

Und weiter können wir sehen: Welche Institute oder Universitäten bringen einen besonders hohen Anteil empfohlener Ideen hervor, und welchen Anteil haben formelle Beziehungen an den Empfehlungen? Das hilft mir als Student oder Drittmittelgeber, meine Lebenszeit oder mein Geld besonders gewinnversprechend zu investieren.

Mit welchen Themen befassen sich besonders viele Wissenschaftler, mit welchen nur wenige? Wissenslandkarten helfen mir als Wissenschaftler oder Universitätslenker, meine zeitlichen und finanziellen und personellen Ressourcen bei gewinnversprechenden Themen einzusetzen, wo gleichzeitig die Konkurrenz noch nicht so groß ist. [14] Es hilft mir, mein wissenschaftliches Profil besser zu definieren oder auch die Arbeitsteilung national und international besser zu organisieren. [15]

Geschichte und Wissenschaftsorganisation

Die Idee, die Verflechtung der Wissenschaftler eines Fachs zu modellieren und transparent zu machen, erscheint vielleicht unvertraut und sogar unangenehm. Deshalb wollen wir unsere Betrachtungen zum Schluss noch an vertrautere, historische Fragestellungen anschließen.

Der eine oder die andere kennt die Arbeit des Fachkollegen Wolfgang Weber: Sie heißt „Priester der Klio“. [16] Webers Dissertation ist im Grunde die Abfrage und Kommentierung einer Datenbank.

Sie enthält Daten über die Verflechtung der historischen Schule des Historismus von Mommsen, Ranke und Droysen bis in die siebziger Jahre des zwanzigsten Jahrhunderts. Weber kam zu dem Schluss, dass die Qualität der Schüler der Schule des Historismus nur die notwendige Bedingung ihrer Durchsetzung und ihrer Monopolstellung war. Die hinreichende dagegen waren soziale Beziehungen und wissenschaftspolitische Einflussnahme.

Diese Datenbank hat ein Schüler von Weber, Kurt Frech, um die Publikationen der Historiker ergänzt. Jetzt arbeitet Frech daran, sie in Gestalt eines semantischen Netzes zu implementieren – mit allen Möglichkeiten, implizite Informationen automatisch explizit zu machen und zu visualisieren.

Das ist schon wissenschaftsgeschichtlich und methodologisch interessant. Aber es ist auch wissenschaftsorganisatorisch bedeutsam.

Das Beispiel soll zeigen: Historiker beschäftigen sich von Natur aus mit semantischen Netzen, meistens implizit, in diesem Spezialfall aber auch explizit. Geschichte modelliert Schopenhauers Schimmelüberzug der Welt nach. Wenn sie das mit einer expliziten Semantik, digital und auf der Basis offener Standards tut, kann die Geschichte das Modell für die Organisation der Wissenschaft überhaupt schaffen. [17]

Vielleicht regt dieser Gedanke die Phantasie an. Dazu müssen wir nur für einen Moment die lähmende Schwerkraft persönlicher Eitelkeiten, der Gewohnheit, des Dienstrechts oder des Urheberrechts vergessen, die wir aus unserer Vision oder Phänomenologie der „Neuen Medien“ einfach ausgeblendet haben.

Dr. Christoph Albrecht ist Redakteur im Feuilleton der Frankfurter Allgemeinen Zeitung.


[1] Abbildungsnachweis: Brockhaus. Die Enzyklopädie digital, Mannheim 2003.

[2] Abbildungsnachweis: Le Grand, Bénédicte; Soto, Michel, Topic Maps Visualization, in: Geroimenko, Vladimir; Chen, Chaomei (Hgg.), Visualizing the Semantic Web. XML-based Internet and Information Visualization, Heidelberg 2003, S. 59.

[3] Im Sinne Hegelianischer Begriffswillkür bleiben wir bei den Katalogen stehen und blenden deren Weiterführung aus: Das Online-Retrieval ist die konsequente Fortsetzung der Kataloge (mit weiteren Mehrwerten wie beispielsweise Geschwindigkeit und Selektivität). Volltextretrievalsysteme leisten vielleicht bereits die Integration der genannten Informationsklassen, aber nur auf unstrukturierte und nicht standardisierte Weise. Wir wählen jedoch den Katalog als einfachste, prototypische Gestalt des strukturierten und standardisierten Wissens.

[4] Der Karlsruher Virtuelle Katalog könnte sich in diese Richtung bewegen. Man würde eine solche Institution jedoch eher bei der Deutschen Bibliothek suchen.

[5] Wasserman, Jack, Michelangelo's Florence Pietà. With contributions by Franca Trinchieri Camiz, Timothy Verdon, and Peter Rockwell. Technical studies by ENEA, Opificio delle Pietre Dure, and IBM. New Photography by Aurelio Amendola, Princeton 2002.

[6] Diese Idealisierung ist unserem phänomenologischen Ansatz geschuldet. Die Bibliothekare pflegen ihre fachspezifischen Standards, haben aber offenbar noch nicht viel Verständnis für den Sinn offener Standards, die einen Austausch mit anderen Institutionen erlauben würden. Sie glauben, eine XML-Schnittstelle für den Export von Daten sei genug. Sie stellen sich bibliografische Daten noch nicht als Knotenpunkte eines offenen Netzes vor, das außerdem aus bio- und prosopografischen, geografischen, lexikografischen usw. Daten besteht und sie integriert.

[7] Abbildungsnachweis: Kimani, Stephen; Catarci, Tiziana; Cruz, Isabel, Web Rendering Systems: Techniques, Classification Criteria and Challenges, in: Geroimenko; Chen (wie Anm. 2), S. 78.

[8] Hegel, G. W. F., Phänomenologie des Geistes, hg. v. Moldenhauer, Eva, Frankfurt am Main 1986, S. 50.

[9] Der Fachinformationsdienst H-Soz-u-Kult weist mit seinem jährlichen Buchpreis „Das historische Buch“ bereits in diese Richtung. Nur müsste die gesamte wissenschaftliche Community die „Jury“ bilden und laufend ihre Voten abgeben sowie die „Nominierungsliste“ erweitern. Auch Aufsätze und andere Dokumentarten verdienten irgendwann aufgenommen und bewertet zu werden.

[10] <www.alexa.com>. Die Selbstorganisation der Wissenschaft hat in unserer Vision die Gestalt anonymen, kollaborativen Arbeitens. Die Re-Individualisierung der Teilnehmer geschieht auf einem digitalen Marktplatz, auf dem der Kampf um Anerkennung und Aufmerksamkeit ausgetragen wird. Eine vielleicht prototypische Infrastruktur entwickelt Rainer Kuhlen in Konstanz mit seinem „K-3“-Projekt. Hier werden nicht feste Wissensstücke ins Netz gestellt, sondern erste Hypothesen, erste Ergebnisse, die dann im Prozess laufend kommentiert, bewertet, ergänzt, mit Referenzen versehen werden etc. All das wird mit „Credit Points“ bewertet, wodurch ein Ranking der Beiträge und der Personen selber entsteht – also für einen Link so und so viel Punkte, für einen Kommentar vielleicht mehr, für einen Kommentar zu einem Kommentar etwas weniger und so weiter. Kuhlen entwickelt das System für Ausbildungszwecke. Es soll darin keine Abschlussklausur oder das „große“ Dokument in Form einer Hausarbeit mehr geben. Vielmehr ist die Leistung die Summe der laufenden Beiträge im Kommunikationsforum eines Kurses, bewertet jeweils durch Feedback (beispielsweise „Responsegrad“), durch Ausmaß und Qualität der Referenzierung, aber auch durch direkte Bewertung der Kommilitionen und der Dozenten. Mit ähnlichen Funktionen ließe sich die Wissenschaft als ganze organisieren.

[11] Das sogenannte Interdisziplinäre ist, wieder mit Hegel gesprochen, das „unglückliche Bewusstsein“ des sich ausdifferenzierenden, doch stets seine „wahre Rückkehr in sich selbst oder seine Versöhnung mit sich“ suchenden Prozesses der Wissenschaft. Zum systemimmanenten „wissenschaftspolitischen Populismus“ vgl. Weingart, Peter, Die Stunde der Wahrheit? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft, Weilerswist 2001, S. 348-51.

[12] Das ist natürlich schwierig. Diese Beziehungen können auch falsche Schlüsse verursachen. Gelegentlich habilitieren sich Forscher aus zufälligen Gründen bei Professoren, ohne deren „Schüler“ zu sein.

[13] Elementare Strukturen der Wissenschaftswelt, die Beziehungen zwischen Personen, Themen und institutionalisierten Forschungsgebieten, ihre fachliche „Ontologie“, beschreibt etwa das „Semantische Portal“ des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) an der Universität Karlsruhe (Siehe die Fallstudie in dem Aufsatz von Angele, Jürgen u.a., OntoEdit: Collaborative Ontology Development for the Semantic Web, in: Horrocks, Ian; Hendler, James (Hgg.), The Semantic Web: Proceedings/ISWC 2002, First International Semantic Web Conference, Sardinia, Italy, June 9-12, 2002, Heidelberg 2002, S. 221ff.).

[14] Es wird künftig zur „computer literacy“ von Forschern gehören, sich ein detailliertes Bild von den verschiedenen Forschungsaktivitäten ihres Fachgebiets zu machen und „heiße Themen“ effizienter als bisher zu identifizieren (Vgl. Porter, Alan L. u. a., Research profiling: Improving the literature review, in: Scientometrics, 53 (2002), Heft 3).

[15] Um einen Ansatz, der über Hierarchisierung von Forschungsgebieten hinaus die „rhetorischen Beziehungen“ zwischen wissenschaftlichen Dokumenten beschreibt, geht es im Projekt „ClaiMaker“ von Forschern des Knowledge Media Institute in Milton Keynes, England. Das System soll es Forschern erlauben, ihre „Ansprüche“ (claims) hinsichtlich eines Dokuments abzustecken. So lässt sich etwa deutlich machen, inwiefern ein Dokument die These eines anderen Dokuments stützt oder zurückweist, sie anwendet oder erweitert. Diese Beziehungen, die Absichten und Interpretationen der Autoren repräsentieren, beschreibt die „Forschungs-Ontologie“ so formal, dass Gemeinschaften von Wissenschaftlern sie benutzen können, die verschiedene „Dialekte“ oder gar Sprachen benutzen: Man muss nur die Namen der Beziehungen ändern. Den Forschern wird es damit künftig leicht fallen, die Argumente gegen einen bestimmten Standpunkt zu finden oder den Einfluss einer Idee zu bestimmen – kein Vergleich zu den unqualifizierten Suchanfragen mit einer Suchmaschine oder sogar zu einer differenzierten Recherche mit Hilfe einer herkömmlichen gedruckten Fachbibliografie (Domingue, John u.a., ClaiMaker: Weaving a Semantic Web of Research Papers, in: Horrocks; Hendler (wie Anm. 13), S. 436ff.). Zur „Globalisierung der Wissenschaft“ in soziologischer Perspektive siehe Stichweh, Rudolf, Die Weltgesellschaft. Soziologische Analysen, Frankfurt am Main 2000.

[16] Weber, Wolfgang, Priester der Klio. Historisch-sozialwissenschaftliche Studien zur Herkunft und Karriere deutscher Historiker und zur Geschichte der Geschichtswissenschaft 1800-1970, Frankfurt am Main 1984.

[17] Webers Arbeit, die mitgeholfen hat, den Nimbus des Historismus zu zerstören, soll sich für ihren Autor nicht karrierefördernd ausgewirkt haben. Auf ähnliche Widerstände werden auch Versuche stoßen, das System der wissenschaftlichen Kommunikation und Organisation in der skizzierten Weise zu reorganisieren und damit transparent zu machen. Aber vielleicht müssen wir nur eine Generation von Wissenschaftlern abwarten.


"Historische Fachinformatik". Ein Kölner Modell

Thaller, Manfred

Hintergrund

Betrachtungen über das Verhältnis zwischen den Geisteswissenschaften und der Informatik beginnen fast unausweichlich mit Padre Roberto Busa und dessen Arbeiten am Index Thomisticus. [1] Für die historischen Disziplinen in einem engeren Sinne bietet sich als Ausgangspunkt eigentlich besser die "Wartenberg Konferenz" des Jahres 1962 an, deren Ergebnisse unter dem Titel "The use of Computers in Anthropology" 1965 veröffentlicht wurden [2] und damit gleichzeitig die erste Welle von einschlägigen Konferenzbänden einleiteten. Bereits damals wurde in 18 Beiträgen ein ziemlich breites Bild der Möglichkeiten des Rechnereinsatzes an Hand von zum Teil sehr ambitionierten Projekten aus nahezu allen Teilbereichen der Geschichtsforschung gezeichnet. Diese Konzentration auf die Details konkreter Projekte ist sicherlich eines der Probleme aller einschlägigen Publikationen, da die angestrebte Anschaulichkeit der technischen Beschreibungen zur raschen Obsoletheit führt. Zur Erheiterung sei einmal mehr darauf hingewiesen, dass der Herausgeber in seiner Einleitung argumentiert, mit den neuen Makroassemblern sei ein Grad an Benutzerfreundlichkeit in der Rechnerbenutzung erreicht, der völlig ausreiche und den höheren Komfort der freilich noch etwas einfacheren Höheren Programmiersprachen wie FORTRAN überflüssig mache. Das direkte Programmieren in Maschinensprache sei GeisteswissenschaftlerInnen dagegen eher nicht mehr zu empfehlen.

Diese Obsoletheit einiger Details der technischen Umsetzung verführt leider dazu, dass diese Bände seltener gelesen werden, als sie es verdienen würden, enthalten sie doch eine ganze Reihe von allgemeineren methodischen Aussagen, die einer von den Zufälligkeiten des jeweils gerade erreichten technischen Entwicklungsstandes abstrahierenden Diskussion über das langfristige Verhältnis zwischen den Geisteswissenschaften und der Informatik / dem Computer / der Softwaretechnologie / dem Rechnereinsatz / der Informationstechnologie, oder wie auch immer der angestrebte Partner gerade genannt wird, sehr zuträglich wären. Dies ist nicht der Ort diese überfällige langfristige, Diskussion nachzuholen: Auf eine Aussage der Einleitung von Dell Hymes möchte ich jedoch explizit hinweisen. Um ein geisteswissenschaftliches Problem zu lösen, sagt er, "... there are just two jobs required: (1) the formulation of the procedure in detail, and (2) the translation of this procedure into machine operations ... And of these two jobs, for most areas of anthropology, the second will be easier than the first."

Man kann ihm bei dieser Aussage, die so wohl von der Mehrzahl der rechneranwendenden GeisteswissenschaftlerInnen für ihre jeweiligen Fächer auch heute noch jederzeit akzeptiert würde, sicherlich zustimmen. Obwohl der Verfasser dieses Aufsatzes es mit einigem Zögern tut - schließlich gibt es nicht wenige Beispiele von IT-Projekten, die auf Grund der hohen Eloquenz der geisteswissenschaftlichen ProjektleiterInnen unglaublich viel zu versprechen schienen; auf Grund der Tatsache, dass für die "translation of this procedure into machine operations" aber leider nur eine überforderte studentische Hilfskraft zur Verfügung stand, deren schüchterne Hinweise auf die technische Realität die rhetorischen Höhenflüge der charismatisch-visionären ProjektleiterInnen aber nie behindern durften, jedoch leider nie ein akzeptables Ergebnis lieferten.

Doch auch durch diesen polemischen Hinweis soll zunächst nur konstatiert werden, dass die "richtige" Verteilung der Kompetenzen bei interdisziplinären Projekten keineswegs abschließend geklärt ist. Für die Lösung des zu Grunde liegenden Problems "Wie lösen die historischen Disziplinen ihre Softwareprobleme?" gibt es herkömmlicherweise vier Szenarien, die wir am Beispiel von Projekten erörtern wollen, bei denen historisches Material und oder historische Forschungsergebnisse im Internet in anspruchsvoller Weise interpretiert werden sollen.

Zunächst das "Einkaufsmodell":

  • Informationstechnologien setzen eine so intensive Beschäftigung mit deren konstitutiven Hintergrundkenntnissen voraus, dass sie nur den SpezialistInnen zugänglich sind.
  • GeisteswissenschaftlerInnen / HistorikerInnen sind "InhaltsspezialistInnen", die für die Präsentation der Inhalte "PräsentationsspezialistInnen" anheuern.
  • Interdisziplinarität besteht in der weisungsgebundenen Arbeit von TechnikerInnen, die die Wünsche der KonsumentInnen (= HistorikerInnen) umsetzen.

Der Vorteil aus der Sicht der HistorikerInnen ist offensichtlich: Das Fach entscheidet, was geschieht; technische Bedenken beeinflussen die Entscheidungen nicht. Ein Nachteil ist (fast) ebenso offensichtlich: Um derartige Projekte langfristig am Leben zu erhalten, müssen die Gehälter der TechnikerInnen langfristig garantiert werden. Nicht ganz so offensichtlich ist ein anderer Nachteil: De facto treffen hier die InhaltsspezialistInnen die technischen Grundsatzentscheidungen - was meist dazu führt, dass es gerade diese Projekte sind, die zu einer ständigen, extrem kostenintensiven Umarbeitung der Präsentationswerkzeuge führen, weil die technischen Konsequenzen inhaltlicher (im Falle der WWW Präsentationen meist eher: ästhetischer) Entscheidungen oft erst hinterher schmerzlich klar werden.

Diese Probleme sucht das "Kooperationsmodell" zu lösen:

  • Informationstechnologien setzen eine so intensive Beschäftigung mit deren konstitutiven Hintergrundkenntnissen voraus, dass sie nur den SpezialistInnen zugänglich sind.
  • GeisteswissenschaftlerInnen / HistorikerInnen sind "InhaltsspezialistInnen", die für die Präsentation der Inhalte mit "PräsentationsspezialistInnen" zusammenarbeiten.
  • Interdisziplinarität besteht in der gemeinsamen, prinzipiell gleichberechtigten, Arbeit von Personen mit unterschiedlichem Hintergrund.

Der Vorteil dieses Modells ist zweifach: Trivialerweise ist bei der derzeitigen Gewichtung der Förderpolitik ein Projekt, das von einem Informatiklehrstuhl mit beantragt wird, meist leichter durchzusetzen. Und: Mit einem Informatiker oder einer Informatikerin "im Boot" ist es prinzipiell leichter zu entdecken, dass die Umstellung eines kleinen Details auf den Mechanismus, der in einem anderen Projekt so bestechend aussieht, in Wirklichkeit bedeutet, dass die bisherige technische Lösung als Ganzes wegzuwerfen ist und die Arbeit von vorne beginnt. Nachteil: InformatikerInnen haben ein anderes Verhältnis zu Geld als GeisteswissenschaftlerInnen. Derartige Projekte führen nur sehr selten zu Lösungen, die für andere geisteswissenschaftliche Projekte erschwinglich sind. Und: InformatikerInnen beteiligen sich an derartigen Projekten, um über sie publizieren zu können; nicht, um sie nachhaltig am Leben zu erhalten, wenn die eingeworbene Förderung endet.

Dem begegnet das "Small is beautiful" Modell, indem es die allererste Voraussetzung der bisherigen beiden Modelle in Frage stellt:

  • Informationstechnologien sind in Wirklichkeit einfach zu handhaben.
  • Dies deshalb, weil "Information" ein von den einzelnen Wissensgebieten unabhängiges Phänomen darstellt.
  • GeisteswissenschaftlerInnen / HistorikerInnen können daher leicht die Handhabung von Präsentationswerkzeugen lernen, ohne dass sie deren technische Hintergründe kennen.
  • Interdisziplinarität ist überflüssig. Jeder inhaltliche Forscher (unter 30) kann den Umgang mit Standardwerkzeugen lernen; mehr braucht er nicht - und sie auch nicht.

Die Vorteile sind offensichtlich - so offensichtlich, dass dieses Modell jedesmal in den Vordergrund tritt, wenn es eine neue Generation von Standardanwendungen gibt. Es ist wahrscheinlich auch müßig, dagegen zu argumentieren: Natürlich ist es nach Ansicht des Verfassers völlig offensichtlich, dass die "ganz einfache Homepage", mit Frontpage in zehn Minuten erstellt, die der/m ErstellerIn die ganze Aufmerksamkeit des lokalen historischen Instituts sichert, eine Sackgasse ist. Es ist vorher zu sehen, dass gerade erfolgreiche Systeme dieser Art innerhalb kurzer Zeit entweder an der Notwendigkeit weiteren Wachstums scheitern - weil das "ganz einfache Werkzeug" entweder nicht mehr ganz so einfach bleibt, wenn man es anspruchsvoller einsetzt, oder weil es schlicht überfordert ist - oder daran, dass der Arbeitsaufwand für die weitere Pflege inhaltlich arbeitender ForscherInnen, die ja gerade die technische Spezialisierung vermeiden zu können glaubten, weiter und weiter von ihrer inhaltlichen Arbeit entfernen. Aber das ist eine Erfahrung, die jede Generation junger HistorikerInnen angesichts der jeweils neuesten Generation von "Killerapplikationen" offensichtlich selbst machen muss.

Der Verfasser selbst vertritt ein weiteres Modell der "Technologieversorgung" für die historischen Disziplinen, das "Fachinformatikmodell":

  • Was "Information" ist und wie sie gehandhabt wird, ist vom jeweiligen Fach abhängig.
  • Jede Gruppe von Disziplinen muss daher ihr eigenes Modell adäquater Informationstechnologie selbständig entwickeln und die benötigten SpezialistInnen selbst ausbilden.
  • Interdisziplinarität findet im Kopfe statt.

Als wesentlicher Vorteil daran scheint ihm, dass dadurch das Problem "wieviel Informatik dürfen HistorikerInnen treiben, ohne ihre Seele zu verlieren" verschwindet und berufliche Mischqualifikationen möglich werden. Der Nachteil ist offensichtlich: Wenn wir akzeptieren, dass auch in den Geisteswissenschaften die Informatik professionell betrieben werden sollte, verschwindet manche beliebte Entschuldigung für die Mängel rasch gestrickter Lösungen.

Das Kölner Modell: Lehre - Systematisches

Dieses Konzept einer "geisteswissenschaftlichen Fachinformatik" vertritt der Verfasser an der Universität zu Köln, wo er eine Professur für "Historisch-Kulturwissenschaftliche Informationsverarbeitung" [3] - im folgenden HKI - inne hat. (Eine zugegebenermaßen von ihm nicht sehr geliebte Bezeichnung.)

Die wesentlichen allgemeinen Charakteristika sind dabei:

  • Der Anspruch einer geisteswissenschaftlichen Fachinformatik wird bewusst und explizit vertreten. In Diskussionen mit "KerninformatikerInnen" fällt den naturwissenschaftlichen KollegInnen dabei störend auf, dass die mathematisch-theoretischen Grundlagen weitgehend fehlen; im Bereich der Softwaretechnologie und anderen Gebieten erheben wir jedoch explizit den Anspruch, mindestens so technikorientiert zu sein wie andere fachspezifische Formen der angewandten Informatik.
  • Dementsprechend legen wir Wert darauf, nicht dem Modell des "Humanities Computing" zugerechnet zu werden. (Dass es auch in diesem Bereich mittlerweile einzelne Einrichtungen, wie etwa das HATII in Glasgow [4] gibt, das nichttriviale Informatikkenntnisse zu vermitteln beginnt, kann nicht darüber hinwegtäuschen, dass die bei weitem überwiegende Mehrzahl der zahlreichen einschlägigen Studiengänge an angelsächsischen Universitäten nicht wirklich über "Computerführerscheine" für einfache Anwendungssoftware hinausgeht.)
  • Betont werden muss vor allem, dass die HKI in Köln ein vollausgebautes Studienfach ist, das von der Zwischenprüfung über den Magister zur Promotion führen kann und auch für ein Diplomstudium Medieninformatik im Rahmen eines Studienganges "Medienwissenschaften" verantwortlich ist. Es ist also ein völlig reguläres universitäres Studienfach, genauso wie Geschichte, Germanistik oder Archäologie – kein Aufbau-, Zusatz-, Umschulungsstudium oder sonst wie gearteter "universitärer Sonderfall".
  • Erwähnt werden sollte schließlich, dass wir eben streng genommen die Unwahrheit gesagt haben: Die HKI ist kein eigenes Fach, sondern eine Fachrichtung innerhalb eines Studienganges "Informationsverarbeitung", der in eine "sprachliche" und eben die "historisch-kulturwissenschaftliche" Informationsverarbeitung gegliedert ist. Das stellen wir hier aber zurück, weil Studiengänge der "Computerlinguistik", eine deren Implementationen die Kölner "sprachliche Informationsverarbeitung" eben ist, ja bekannt sind, während ein vollausgebautes Studium einer angewandten Informatik im nicht-linguistischen Bereich an einer philosophischen Fakultät in der Bundesrepublik bisher nur in Köln angeboten wird.

Der Anspruch, mit diesem Studiengang Neuland zu betreten, ist also nachdrücklich zu erheben. Andererseits sei darauf hingewiesen, dass es in der Zwischenzeit international eine ganze Reihe von Modellen dafür gibt, wie informatiknahe Studiengänge an geisteswissenschaftlich / historischen Fakultäten angeboten werden können, die über die zu Recht immer noch mit dem Geruch "akademischer MS Wordkurse" verbundene Konzeption des angloamerikanischen Humanities Computing weit hinausgehen. Zu verweisen wäre dabei etwa auf das Modell einer "Humanistisk Informatikk" an der Universität Bergen [5] , die explizit auch den Anspruch erhebt, sich mit der Frage der Beiträge der Geisteswissenschaften zur weiteren Entwicklung der Informationstechnologien zu beschäftigen, wenn die Ausrichtung der softwaretechnologischen Anteile auch auf eine andere Ebene abzielt als in Köln. Zu nennen wäre die "Alfa-Informatica" der Universität Groningen [6] , die freilich insgesamt sehr stark an Teilbereichen der computerlinguistischen bzw. sprachverarbeitenden Anwendungen orientiert ist und im historischen Bereich ein wenig "flach" bleibt. Zu nennen wären die Kurse des "Centre for Cultural Informatics" in Kreta [7] , wenn deren interdisziplinäre Integration im Vergleich zum Kölner Modell auch wesentlich loser bleibt.

Innerhalb des grundsätzlichen Anspruchs einer "geisteswissenschaftlichen Fachinformatik" liegen die Schwerpunkte der Forschung in Köln in den Bereichen nicht relationale Datenmodelle, verteilte und heterogene Datenbanken, Semantik geisteswissenschaftlicher Information und den Beziehungen zwischen den Datenmodellen der Datenbanktheorie und den Strukturen der Markupsprachen. Aus diesen Ansätzen wird die Vorstellung abgeleitet, dass, bei Verfügbarkeit entsprechend ausgebildeter Kräfte, große Informationssysteme für die historischen Fächer einfach, billig und zuverlässig zu realisieren sind und solche Systeme in absehbarer Zeit innerhalb des Arbeitsaufwandes normaler Qualifikationsarbeiten - Magisterarbeiten - realisiert werden können.

Die Ausbildung insgesamt bereitet freilich nicht nur auf die Realisierung von Informationsystemen - oder gar nur ihrer internetbasierenden Variante - vor, die oben als derzeit unmittelbar einleuchtendes Beispiel für die Softwarebedürfnisse der historischen Disziplinen gewählt wurden. Sie ist wesentlich breiter angelegt. Das Kölner Modell der "(Geisteswissenschaftlichen) Informationsverarbeitung / Fachrichtung Historisch-Kulturwissenschaftliche Fächer" - wie alle Informatikstudiengänge freilich immer in der "Gefahr" der Aktualisierung - sieht derzeit folgende Anforderungen vor.

Wir übergehen dabei die diversen Wahlpflicht und Wahlveranstaltungen, und konzentrieren uns auf die "kritischen" Veranstaltungen, die die Ausbildung prägen.

Hier sieht das Grundstudium vor:

Für die beiden Zweige der Informationsverarbeitung gemeinsam:

  • Einen zweisemestrigen Kurs zur "Basisinformationstechnologie" (Prinzipien von Hardware und Software).
  • Einen zweisemestrigen Kurs "Softwaretechnologie", C++ oder Java, mit relativ hohen Anforderungen bei der praktischen Programmierfähigkeit.

Speziell im Grundstudium des Historisch-Kulturwissenschaftlichen Zweiges zu ergänzen durch:

  • Ein zweisemestriges Proseminar, das Kurzeinführungen in 2 x 3 Anwendungsbereiche anbietet, wobei eine theoretische Prüfung über alle Bereiche stattfindet und Semesterprojekte in zwei der folgenden sechs Bereiche abzuliefern sind: (1) Dynamische WWW Programmierung (Javascript, Flash oder Äquivalentes) (2) XML Design und Anwendung (3) Relationale DBMS (4) Statistiksoftware (5) Bildverarbeitung (6) GIS Anwendungen.

Dasselbe Grundstudium führt für die StudentInnen der Medieninformatik, ergänzt durch eine Vorlesung "Medieninformatik", zum Vordiplom.

Im Hauptstudium der Informationsverarbeitung insgesamt wird diese Ausbildung fortgesetzt durch:

  • Einen zweisemestrigen Kurs "Softwaretechnologie" in einer nichtprozeduralen, KI-orientierten Sprache, derzeit Prolog.

Im historisch-kulturwissenschaftlichen Zweig durch zwei einsemestrige Hauptseminare :

  • Einem praktischen, mit einer Semesterarbeit wie zum Beispiel:
    Implementation des Prototyps eines Manuskriptsegmentierers in Java.
    Implementation eines Programms um die OCR Fassung des Texts einer wissenschaftlichen Edition samt kritischem Apparat in eine interne XML Struktur zu "parsen"
    .
  • Einem theoretischen, mit einer Semesterarbeit wie zum Beispiel:
    Literaturüberblick über derzeit bekannte Algorithmen für die automatische Handschriftenerkennung.
    Beziehungen zwischen "Hypertextstrukturen" und editorischen Prinzipien.

Als Magisterarbeitsthemen wurden bzw. werden zum Beispiel bearbeitet:

  • Data Mining in WWW-basierten Statistikarchiven auf der Basis einer Java Client-Server Architektur
  • Parallelisierung von Textwerkzeugen
  • Anwendbarkeit von XML Schema für Daten und Metadaten im Bereich digitaler Bibliotheken
  • Adäquate Markupsysteme für die digitale Behandlung demotischer Texte.

Im Diplomstudium "Medieninformatik" tritt das Hauptstudium - der Studiengang hat im Wintersemester 2002/03 begonnen - erst im Umrissen hervor. [8] Hier werden folgende Veranstaltungen prägend sein:

  • Ein zweisemestriger vierstündiger Kurs "Softwaretechnologie II", im Sinne eines "Laborgroßpraktikums" wie in naturwissenschaftlichen Studiengängen üblich.
  • Zwei einsemestrige Hauptseminare wie im Magisterstudiengang, aber beide "praktisch".
  • Eine "Starke Ermutigung", ein Praktikum in der Medienindustrie oder den Kulturerbeeinrichtungen (=Archive, Bibliotheken, Museen) zu absolvieren.
  • Derzeit laufen Diskussionen um eine "Modelldiplomarbeit": "Rekonstruktion von Eingeborenentänzen des frühen 20. Jahrhunderts aus historischen Aufnahmen und Filmen mit Hilfe einer Gameengine."

Das Kölner Modell: Forschung - Beispielsprojekte

Wie erwähnt, ist es ein erklärtes langfristiges Ziel, die Ausbildung so auszubauen, dass große Informationsysteme, wie im Bereich der historischen Fächer zunehmend üblich, innerhalb von Qualifikationsarbeiten realisiert werden können. Dies ist bisher erst in Grenzen realisiert: Einerseits ist eine Professur bei der Vergabe von Magisterarbeiten nach Ansicht des Verfassers auch den StudentInnen dahin gehend verpflichtet, dass die Themen so zu vergeben sind, dass aus den Arbeiten in Bewerbungen gut zitierbare Systeme entstehen und das bedeutet in einem Fach, dessen AbsolventInnen ihre berufliche Laufbahn häufiger im nichtakademischen Bereich als an der Universität fortsetzen, nun einmal Arbeiten, die relativ standardisierte Werkzeuge einsetzen. Andererseits sind die eigentlichen Forschungswerkzeuge, die an der Professur entstehen und in der Tat die Erstellung von digitalen Bibliotheken mittlerweile überraschend einfach gestalten, eben genau das, Forschungssoftware. An der Überwindung dieses Gegensatzes wird gearbeitet.

Am Beispiel einiger Informationssysteme seien einige der Arbeitsrichtungen, die derzeit in Köln verfolgt werden, illustriert. Dabei konzentrieren wir uns auf Anwendungen, die im Umfeld "Digitaler Bibliotheken" in den Einrichtungen des Kulturerbes von uns, sei es in eigenständigen, direkt von der Kölner Professur verantworteten Projekten, sei es in Kooperationen, wo wir nur für die technische Durchführung zuständig sind, betreut werden. In dieser Form sind wir derzeit für circa zehn bis zwanzig digitale Bibliotheken zuständig. [9] In diesem Kontext vertritt der Verfasser zunehmend nachdrücklicher die Auffassung, dass die Digitalisierungstechniken einen Grad an Reife erreicht haben, der ihren Einsatz jenseits von Pilotprojekten ermöglicht - weg von der Digitalisierung signifikanter Einzelwerke, hin zur systematischen Umsetzung digitaler Bestände - was übrigens auch der Linie der einschlägigen Gremien der DFG entspricht. [10] Da der Verfasser es immer als sehr schlechten Stil empfunden hat, wenn man sich zur objektivierenden Stützung persönlicher Standpunkte auf DFG-Richtlinien bezieht, die unter der eigenen Mitwirkung zu Stande gekommen sind, ohne dies offen zu legen, möchte er in diesem Fall explizit festhalten, dass er dem eben zitierten Ausschuss angehört.

Bei unserer Beschreibung der Projekte unterscheiden wir zwei Problemkomplexe: Einmal die adäquate Repräsentation einzelner Objekte der historischen Überlieferung - des "kulturellen Erbes" im in den letzten Jahren von der EU initiierten Sinn -, andererseits der Frage, durch welche Rahmensysteme derartige Einzelobjekte zu großen landes- oder europaweiten Informationsangeboten zusammengefasst werden können.

Getreu dem eben geschilderten Verständnis, dass wir uns im Bereich der historischen Quellen rasch von Projekten zur Digitalisierung von signifikanten Einzelwerken zur Digitalisierung von ganzen Sammlungen bewegen, hat die Kölner Professur zusammen mit der Diözesan- und Dombibliothek der Erzdiözese Köln ein Projekt zur Digitalisierung der vollständigen mittelaterlichen Manuskripte der Bibliothek realisiert. [11]

Komplexe WWW Quellen sollten im Internet kennen gelernt, nicht auf Papier beschrieben werden. Daher an dieser Stelle nur die wesentlichen Charakteristika des Systems.

  • Alle (ungefähr 420) Codices der Sammlung wurden digitalisiert. (65.000 Seiten sind derzeit verfügbar; insgesamt 130.000 mit Ende des Jahres 2004.)
  • Sie stehen im WWW ohne jede Beschränkung in einer Reihe von Auflösungen bis zu circa 4.000 mal 3.000 Pixel für gebräuchliche Formate und erheblich darüber für einige Codices mit sehr großen Formaten bereit. Diese Auflösung ist ausreichend, um die meisten üblichen paläografischen Fragen zu lösen, einschließlich der nach der Schreibrichtung des Schreibgeräts.
  • Die Seitenbilder sind mit Werkzeugen versehen, die es erlauben, durch das Manuskript zu blättern, wie in Büchern üblich.
  • Alle codicologischen Beschreibungen der Manuskripte seit dem 18. Jahrhundert wurden in eine genuine XML-Datenbank geladen, durch die sie verwaltet werden. Es gibt eine Reihe von Suchwerkzeugen, die auf diese Beschreibungen zugreifen - nicht sehr ausgebaut, da es sich letzten Endes um eine relativ kleine Anzahl von Codices handelt. Diese "Metadaten", die freilich für einige Codices fortlaufende Texte im Umfang von circa 50 Druckseiten bilden, werden jedoch vollständig dynamisch verwaltet. Das heißt, dass alle Verweise auf einzelne Seiten in den Beschreibungen "on the fly" zu Links umgesetzt werden - wenn die Seite in einem bestimmten Stadium des Projekts bereits digitalisiert ist. Es bedeutet aber vor allem, dass, selbst wenn die BenutzerInnen eine vielseitige Beschreibung vor sich sehen, die wie eine direkte Reproduktion eines gedruckten Verzeichnisses wirkt, sie das Ergebnis einer Datenbankabfrage sehen, die eine spezielle intellektuelle "Sicht" der Forschungstradition wiedergibt. Eine dieser "Sichten" richtet sich an AnfängerInnen der Manuskriptbearbeitung: In dieser Sicht wird für jedes Manuskript eine vereinheitlichte Zusammenfassung der gespeicherten Manuskripte angeboten. Wenn eine der codicologischen Studien - sagen wir "a" - eine Aussage zum Entstehungszeitpunkt des Manuskripts enthält, den Entstehungsort jedoch als "unbekannt" betrachtet, während eine Studie "b" sowohl Entstehungszeit und -ort enthält, wird den BenutzerInnen der Entstehungsort auf alle Fälle am Bildschirm angeboten werden. Ob die Entstehungszeit, die in den beiden Beschreibungen ja unterschiedlich sein kann, dabei aus "a" oder "b" gewählt wird, wird nach einer Präferenzordnung ausgewählt, die einzelnen Studien zugewiesen ist, entweder systemweit oder, für registrierte BenutzerInnen, auf der Basis eines persönlichen Profils. [12] Es gibt jedoch auch eine "Sicht", die sich an die fortgeschrittenen BenutzerInnen wendet, die die Meinungen aller vorangegangenen ForscherInnen einander gegenüberstellt. In unserem Beispiel gäbe es dementsprechend zwei Angaben zur Enstehungszeit.
  • Die Codices werden in einer Arbeitsumgebung angeboten, die auch digitalisierte Versionen der wichtigsten Literatur zur wissenschaftlichen Arbeit mit den Texten enthält, soweit sie ohne Copyrightbeschränkungen verwendet werden können, bzw. soweit wir die explizite Zustimmung der AutorInnen zur Reproduktion erhalten haben.
  • Die Arbeitsumgebung, in der die Codices repräsentiert werden, enthält zusätzlich Werkzeuge, die die Durchführung typischer paläografischer / codicologischer Aufgaben erlauben. BenutzerInnen können beispielsweise ein Werkzeug herunterladen, das es erlaubt, einzelne Zeichen zu vermessen und ein Repertoire der von einem bestimmten Schreiber verwendeten Formen anzulegen.

Nur wenn ganze Sammlungen, im Unterschied zu ausgesuchten Objekten, in solchen Arbeitsumgebungen bereitgestellt werden, glauben wir, gibt es eine realistische Chance, digitale Repräsentationen zum Standardmedium zu machen, das von ForscherInnen konsultiert wird. Im Falle der Kölner Manuskripte können wir nicht quantifizieren, wie weit das stattgefunden hat. Obwohl die Mehrzahl der Texte einfache handschriftliche mittelalterliche Texte enthält; obwohl es sich dabei um Texte handelt, die in Latein, nicht notwendigerweise dem einfachsten Latein, Detailfragen der Kanonistik und ähnliche Gegenstände diskutieren; obwohl das System sich explizit an voll qualifizierte akademische ForscherInnen wendet und wenig Konzessionen an interessierte Laien macht: Obwohl all dies so ist, gibt es so viele Zugriffe neugieriger Laien auf das Material, dass es extrem schwierig wird zu bewerten, wieweit die Texte wirklich von akademischen Einrichtungen benutzt werden.

Dass es durchaus realistisch ist anzunehmen, dass digitalisierte Versionen des Materials den Zugriff auf die Originale ersetzen können, wissen wir aus einem anderen Projekt. Im Falle der gedruckten Literatur zur deutschen rechtshistorischen Entwicklung im 19. Jahrhundert [13] haben wir sehr eindeutige Anzeichen dafür, dass LeserInnen aus einer Reihe akademischer Einrichtungen wiederholt vielstündige Sitzungen vor ihren Bildschirmen verbringen, in deren Verlauf sie Sequenzen von fünfzig oder mehr aufeinander folgenden Seiten in 30 bis 90 Sekundenintervallen anfordern, die schwer anders als Ergebnis des Versuches den Text aufmerksam zu lesen zu interpretieren sind.

Das Manuskriptprojekt versucht jedoch nicht nur eine kritische Masse von Texten anzubieten, um es für echte BenutzerInnen attraktiv zu machen, es versucht auch, sie in einer Qualität anzubieten, die für alle Formen der Forschung ausreicht. Die große Masse des Materials wird in einer Auflösung gespeichert, die circa 35 - 45 MB von Daten pro Manuskriptseite generiert. Für einige großformatige Codices speichern wir langfristig ungefähr 120 MB pro Seite. Dies erzeugt circa 3.5 - 4.5 TB Daten oder, intuitiver, einen Stapel von 6.000 bis 8.000 CD-ROMs. Das Projekt stellt also keine sehr bescheidenen Anforderungen an die Qualität; wir möchten jedoch betonen, dass, gutes Projektmanagement und Verständnis für die involvierten technischen Prozesse vorausgesetzt, derartige Projekte sehr wohl "routinehaft" durchgeführt werden können, wobei die Digitalisierungs- und Bereitstellungskosten bei knapp über einem Euro pro Seite liegen. (Wenn diese Voraussetzungen vorliegen. Aber zu zeigen, dass IT-Projekte in den historischen Fächern "routinehaft" abgewickelt werden können, ist ja auch eines der Ziele des "Kölner Modells".)

Der wichtigste Unterschied zwischen diesem Server und der großen Mehrheit der Kulturerbeserver liegt jedoch darin, dass er sich in einem sehr bedeutenden Aspekt als transparent versteht. Wer sich in den Handapparat des CEEC Servers bemüht, der Sammlung digitalisierter Literatur über die Manuskripte, wird als Titel zum Codex 124 einen Aufsatz von Gerhard Schmitz: Die Vier-Bücher-Sammlung des Cod. Köln, Diözesan- und Dombibl. 124 - Zur kirchenrechtlichen Kenntnis im 10. Jh. finden. Öffnet man diesen Text, wird man feststellen, dass einige der traditionellen Referenzen zu einzelnen Seiten des diskutierten Codex - in der Form "zum Beispiel fol. 25v, 26r" - als Links umgesetzt wurden, die die BenutzerInnen direkt zu eben jenen Seiten des Manuskripts bringen, deren Inhalt im Text diskutiert wird.

Diese modernisierte Variante einer Fußnote, die de facto zwei Diskurse miteinander verbindet - den interpretativen der modernen VerfasserInnen und denjenigen der von ihnen diskutierten ursprünglichen AutorInnen - ist heute noch nicht allzu verbreitet in einer elektronischen Publikation, aber auch nicht wirklich überraschend. Der Kölner Bibliotheksserver sticht jedoch in einem sehr wichtigen Aspekt hervor: Er ist wahrscheinlich der einzige derzeit existierende, der explizit die Möglichkeit bietet, jede einzelne von ihm angebotene Seite durch ein Link dieser Art von jedem beliebigen externen Dokument aus anzusprechen.

Der Grund für diese Politik muss etwas detaillierter dargestellt werden.

Digitale Bibliotheken, wie dies bei neuen Entwicklungen üblich ist, tun ihr Bestes, um eine digitale Version einer vertrauten Metapher zu realisieren: die der traditionellen Bibliothek. Nach dieser Metapher gibt es eine Bibliothek an einer bestimmten physischen Adresse, zu der man sich mit einem geeigneten Transportmittel begibt; diese Bibliothek ist unabhängig von allen anderen, deshalb durchquert man ihre Eingangshalle, bewegt sich zum Katalog dieser ganz speziellen Bibliothek mit seinen Eigenheiten, sucht nach seinem Buch, entscheidet nach den Informationen auf der Katalogkarte, ob man es wirklich sehen will, bestellt es aus dem am Ort vorhandenen Magazin und erhält es schließlich in den Benutzerraum. Ging es nicht um ein gedrucktes Buch, sondern um ein Manuskript oder ein anderes Objekt, bei dem das Stück selbst zitiert werden muss, so wird das ganz spezielle Signaturensystem dieser Bibliothek benutzt, um das Zitat zu formulieren: Schließlich muss jeder, der die Schlussfolgerungen nachvollziehen will, exakt denselben Weg beschreiten, um das Exemplar einzusehen.

Es fällt auf, dass wir in der Beschreibung dieser Metapher unverhältnismäßig mehr über die Bibliothek sagen als über das Buch; obwohl die meisten BenutzerInnen sich überhaupt nicht für diese Einrichtung interessieren und sie eigentlich nur aufsuchen, weil sie müssen, wenn sie den Codex ihres Interesses konsultieren wollen. Trotzdem wurde dieses Modell, das die Bibliothek viel stärker in den Vorderrund stellt als das einzelne Objekt, detailgetreu in die digitale Welt übertragen. Will man eine digitale Bibliothek konsultieren, braucht man ihre URL, erreicht ihre Homepage, gewöhnt sich an die Eigentümlichkeiten dieses spezifischen OPAC, sucht das Buch und liest es im Viewer dieser ganz speziellen Bibliothek.

Das Kölner System folgt einer anderen Logik – einer, die annimmt, dass die BenutzerInnen in Wirklichkeit ein ganz bestimmtes Manuskript ansprechen wollen, ohne sich weiter darum zu kümmern, wer es wo wie aufbewahrt, sei es physisch oder virtuell. Prinzipiell sollte so etwas ganz einfach sein, weil die Geisteswissenschaften seit Generationen eine Zitierweise für die einzelnen Objekte des Kulturerbes entwickelt haben, die für alle praktischen Zwecke "Permanent Universal Resource Identifiers" darstellen, die ganz einfach in maschinell verwaltbare "Permanent Universal Resource Locators" umgesetzt werden können, was die technische Voraussetzung dafür darstellt, dass sie direkt angesprochen werden können. In unserem Fall würde das traditionelle Zitat

"Folio 25v des Codex 124 der 'Kölner Diözesan- und Dombibliothek'" lauten. Formalisieren wir das zu "'Kölner Diözesan- und Dombibliothek': Codex 124; Folio 25v" haben wir eine etwas geordnetere, hierarchische Form; wenn wir den Bibliotheksnamen durch die Sigle in der Bibliothek im deutschen Bibliothekssystem ersetzen, haben wir eine weniger leicht lesbare, aber immer noch verständliche Version: "kn28- Codex 124; Folio 25v"; die Bezeichnung des Codex formalisieren wir leicht zu "kn28-0124_; Folio 25v" und die Seitenbezeichnung zu "kn28-0124_25v".

Dies erfordert einen bewussten Abstraktionsprozess und Werkzeuge, beispielsweise zur Umwandlung der Bibliotheksnamen zu Siglen, wären hilfreich. Aber zumindest für ForscherInnen, die sich regelmäßig mit Manuskripten beschäftigen, wäre das Zitat auch jetzt schon unmittelbar verständlich. Und wenn wir genau diese Bezeichnung auf der Adresszeile eines Browsers mit der technischen Zugangsinformation "http://www.ceec.uni-koeln.de/ceec-cgi/kleioc/0010KlCEEC/exec/pagemed/%22|kn28-0124_25v%22" umgeben (was wiederum leicht durch ein technisches Werkzeug als Bestandteil eines zentralen Manuskriptportals geleistet werden könnte), befinden wir uns damit direkt in der angegebenen Seite, so angeboten, dass wir im Codex insgesamt blättern können und den Zugriff auf alle Angebote der Manuskriptbibliothek haben - mit anderen Worten, mit all den Möglichkeiten, die wir gehabt hätten, hätten wir sie durch ihre Eingangstür, die Homepage, betreten.

Nachdem alle angebotenen Auflösungen und auch die angebotenen "Sichten" auf die Manuskriptbeschreibungen in dieser Weise direkt ansprechbar bereitgestellt werden, können wir sagen, dass unsere Manuskriptbibliothek nicht eine URL hat, sondern praktisch als eine Sammlung von 600.000 individuellen Referenzen zu jeweils einem Bestandteil des Materials erscheint, das sie verwaltet und das mit beliebigen anderen - in dieser Bibliothek oder in weiteren - verknüpft werden kann. Diese Form der Darstellung von historischen Objekten, die für die möglichst einfache Integration in umfassendere Systeme vorbereitet sind, nennen wir "Digital Autonomous Cultural Objects" (DACOs). Kurz gefasst folgen sie folgender Definition.

Ein DACO muss:

  • Funktional vollständig sein.

    Es muss alle Navigationsmittel "mitbringen", die notwendig sind, um sich zu seinen Nachbarn innerhalb des größeren Objekts zu bewegen, dessen Teil es ist. Bei Manuskripten sind das einfach Buttons wie "Nächste Seite", "Inhaltsverzeichnis" oder "Gehe zu einer spezifischen Seite". Das Prinzip ist jedoch sehr viel allgemeiner. Ein DACO, das einen Raum in der digitalen Repräsentation eines historischen Gebäudes wiedergibt, würde vermutlich mit Mitteln ausgestattet, um den Wunsch "Gehe zum Raum auf der linken Seite" auszudrücken.

  • Sich kooperativ verhalten.

    Wer auch immer es anspricht muss absolut sicher sein, dass es in keiner Weise versuchen wird, die Webseite, die es einbindet zu "übernehmen"; es muss also vorbereitet sein, um möglichst bruchlos in Frames und andere Konstruktionen integrierbar zu sein.

Unsere Vision besteht also darin, dass große Teile der historisch relevanten Information in der nicht allzu fernen Zukunft als zunächst Millionen, bald Milliarden von DACOS bereit stehen, die explizit dazu vorbereitet und bereitgestellt werden, so leicht als möglich in komplexe historische Informationssysteme integrierbar zu sein.

Millionen? Milliarden? Meere an Information, wie wirkliche Meere, sind verlockend; in beiden ist es jedoch auch einfach zu ertrinken. Um zu vermeiden, dass wir in einer ungeordneten Masse von unverbundenen Informationsblöcken untergehen, benötigen wir also auch technische Rahmenlösungen, die sie sinnvoll ordnen. Zwei Entwürfe dafür folgen.

Unter <http://www.prometheus-bildarchiv.de> finden sich die BenutzerInnen in einer Website wieder, die als "Prometheusprojekt" einen durch das Bundesministerium für Bildung und Forschung geförderten Bestandteil der kunsthistorischen Infrastruktur der deutschen Universitäten bildet. (Nachdem - ausschließlich aus Gründen der diversen Copyrightansprüche - diese Seite passwortgeschützt ist, halten wir die Beschreibung des daher für die meisten LeserInnen nicht nachvollziehbaren Verhaltens extrem kurz.)

Der Server bietet ein "verteiltes Diaarchiv" an, das Teil eines experimentellen Systems für die universitäre Lehre und Forschung im Bereich der Kunstgeschichte ist. Seine Grundidee ist äußerst einfach:

  • Derzeit beginnt eine große Anzahl von Instituten der Kunstgeschichte und der Klassischen Archäologie mit der Digitalisierung ihrer traditionellen Diaarchive, auf denen die Lehre in den beiden Disziplinen seit vielen Jahrzehnten aufbaut. Der Beamer ersetzt, vereinfachend gesagt, den Diaprojektor mit zusätzlichen didaktischen Möglichkeiten.
  • Eine Diasammlung, die groß genug ist, um die allgemeine Lehre plus diejenige im Spezialgebiet des jeweiligen Institutes zu unterstützen, wird von unterschiedlichen universitären LehrerInnen in der Größenordnung zwischen 100.000 und 200.000 Diapositiven beziffert. Eine Sammlung dieser Größe gezielt zu digitalisieren ist extrem kostspielig.
  • Die Sammlungen der einzelnen Institute überschneiden sich jedoch erheblich. Während es in den Sammlungen der meisten Institute Bereiche gibt, die die Forschungsthemen des Instituts betreffen und daher besonders gut vertreten sind, überlappen sich die allgemeinen Teile der Sammlungen der Institute stark.
  • Es wäre daher wesentlich effektiver, wenn zumindest innerhalb des bundesdeutschen Universitätssystems alle kunsthistorischen und archäologischen Institute jeweils nur jene Sammlungsteile digitalisieren, die sie besonders dringend benötigen, sagen wir 10.000 bis 20.000 pro Institut. Wenn dies von vierzig Instituten getan wird und es innerhalb des Landes möglich ist, diese 40 mal 10.000 bis 20.000 Diapositive als eine scheinbar homogene Sammlung anzusprechen, könnte der Umstiegsprozess auf die neue Technologie entscheidend beschleunigt werden.

Das einzige Problem bei der Umsetzung eines solchen Schemas ist, dass die einzelnen Institute traditionell stark unterschiedliche Lösungen vorziehen: Manche verwenden Macs, während andere PCs vorziehen. Die lokale IT Infrastruktur zieht unterschiedliche Softwareprodukte zur Verwaltung der lokalen Sammlungen vor. Und während man zumindest diskutieren könnte, ob die bisher angeführten Unterschiede durch mit Fördermitteln verbundene, aber bindende nationale Richtlinien beseitigt werden könnten, so bleiben immer noch die Unterschiede in der Beschreibung der Diapositive. Der Verfasser glaubt, dass jeder Versuch eines Universitätssystems der Größe dessen der Bundesrepublik, alle ForscherInnen einer Disziplin zur Verwendung derselben Hardware und Software zu zwingen, unweigerlich zur Stagnation führt. Aber selbst wenn dies nicht so wäre: Er ist absolut sicher, dass die Konzeption, alle KunsthistorikerInnen und / oder Klassischen ArchäologInnen eines Landes zur Verwendung derselben konzeptuellen Kategorien, derselben Felder und Schlüsselwörter bei der Beschreibung des Materials ihrer Disziplinen zu zwingen nicht weniger ist als ein Versuch, die grundlegenden Ideen geisteswissenschaftlicher Forschung zu vergewaltigen. Das Verständnis der Kunst und ihrer Entwicklung lebt von der intensiven Diskussion unterschiedlicher Interpretationsmodelle. Die Kontroverse darüber, ob ein Kunstobjekt so oder doch besser anders beschrieben werden sollte, ist keine Folge besser abzulegender persönlicher Eitelkeiten. Sie ist der Kern dessen, was Kunstgeschichte und Geisteswissenschaft ausmacht.

Prometheus brachte der Menscheit nicht nur das Feuer, sondern auch Werkzeuge und handwerkliches Geschick: Das Projekt gleichen Namens verspricht, die angeführten Probleme durch einen Satz von Werkzeugen zur Verwendung in der Lehre der genannten Disziplinen zu lösen. Der Verfasser legt Wert darauf, dass er ausschließlich für die im folgenden beschriebene technische Lösung zuständig ist. Für alle anderen Aspekte des Projekts ist er explizit nicht verantwortlich.

Die implementierte Lösung, wie die Beschreibung des Ausgangsproblems ist grundsätzlich sehr einfach. Den AnwenderInnen stellt sie sich folgendermaßen dar.

  • ForscherInnen oder StudentInnen, die sich bei Prometheus anmelden, haben Zugriff auf eine Suchmaschine, die es ihnen erlaubt, Diapositive im Internet zu sammeln, die zunächst als Thumbnails erscheinen, jedoch auch vergrößert und / oder durch erläuternde Informationen aus der sie beschreibenden Datenbank ergänzt werden können.
  • "Sammeln" bedeutet in diesem Kontext, dass die Bilder unter dem Namen der Angemeldeten in einer Arbeitsmappe abgelegt werden, die die Thumbnails zeigt und abermals erlaubt, sie zu vergrößern oder Informationen dazu abzurufen.
  • Das in diesen Arbeitsmappen gesammelte Material kann in "Diashows" geordnet werden, die ebenfalls unter dem Namen der betreffenden StudentInnen oder ForscherInnen abgelegt werden können.
  • Diese Diashows können schließlich in einen Satz von virtuellen Mehrfachdiaprojektoren geladen werden, die es erlauben, sie nach Art der traditionellen Mehrprojektorvorführungen per Beamer für die Vorträge von KunsthistorikerInnen, ArchäologInnen und ihrer StudentInnen zu verwenden. Tritt während des Vortrags eine Frage zu einem der Bilder auf, so können sie immer noch vergrößert werden und die erläuternde Information zu den Bildern aus der Datenbank steht den Vortragenden, deren Gedächtnis sie im Stich läßt, immer noch zur Verfügung.

So weit, so einfach. Der zentrale Punkt ist, dass auf Grund der hinter Prometheus stehenden data base engine allen beteiligten Instituten die Bilder aller am Projekt beteiligter Datenbanken so zur Verfügung stehen, als wäre es bloß eine. In der Praxis repräsentieren die zwanzig oder dreißig derzeit in Prometheus integrierten Bilddatenbanken drei abstrakte Datenmodelle (relational, objektorientiert, ein objektrelationaler oder hierarchischer Hybride), zwanzig oder dreißig konkrete Datenmodelle (jedes Institut benutzt seinen eigenen Satz von Feldern und Beschreibungsschemata), zahlreiche DBMS und unterschiedliche Hardwareplattformen. Nichtsdestoweniger: die BenutzerInnen haben den Eindruck, eine integrierte Diasammlung zu verwenden.

Die technischen Details sind hier nicht interessant: Allgemein gesprochen werden die Daten von den beteiligten Datenbanken derzeit in externe Speicherformate, von denen die meisten XML basiert sind, entladen und dann in einen sehr flexiblen zentralen Server geladen, der die einzelnen Datenbanken unabhängig voneinander bewahrt und auf sein abstraktes Datenmodell abbildet, vor der Weitergabe von Informationen an die BenutzerInnen jedoch als Broker zwischen den unterschiedlichen Strukturen und Semantiken tätig wird. Dieses Modell wird derzeit gerade so umgestellt, dass einige der Datenbanken nur mehr virtuell integriert werden. Zu diesem Zweck unterstützt der Server in Zukunft eine Reihe von remote access Protokollen und lädt die benötigten Daten aus den beitragenden Datenbanken. Die MySQL Anbindung steht vor der Freigabe; die Anbindungen via JDBC und Z39.50 sind vor Jahresende zu erwarten. Wichtiger als diese Details ist jedenfalls, dass diese Lösung möglich ist, realisiert wurde und in der tatsächlichen akademischen Lehre eingesetzt wird.

Eine Lösung, die wir prinzipiell für die beschriebene Situation sehr sinnvoll finden. Eine Gruppe von Instituten also, die einen ziemlich klar definierten Zweck mit dem Einsatz ihrer Bilddatenbanken verfolgen, gleichzeitig aber nur selten über die Infrastruktur verfügen, die einen 24/365 Zugriff auf die einzelnen Server garantiert.

Gelänge es freilich, die eben beschriebene Architektur zur Überwindung der Heterogenität mit dem einleitenden Konzept der DACOs zu verbinden, mit dem wir begannen, so wären noch weit flexiblere Architekturen möglich, bei denen ein Institut Diapositive beitrüge, ein anderes - nun zum Beispiel - Manuskripte, die auch von KunsthistorikerInnen für das Studium der enthaltenen Illuminationen verwenden.

Um solche Lösungen vorzubereiten, durch die Objekte die historische Information tragen und aus beliebig unterschiedlichen Wissensdomänen stammen, in ein Nachweissystem integriert werden können, wurde eine Pilotlösung durch die Kölner Professur in einem zwischenzeitlich beendeten Projekt der EU namens "e-CultureNet" realisiert. [14] Es sei betont, dass anders als Prometheus dieser ECNet Server nicht für die praktische Verwendung gedacht ist: Es ist ein Demonstrator, der zeigen soll, dass erheblich komplexere Objekte als Diapositive mittels des DACO Konzepts integriert werden können. Zu diesem Zweck integriert der Server bisher die anfangs erwähnten mittelalterlichen Manuskripte, verschiedene Formen von Druckwerken, Archivmaterialien und in absehbarer Zeit auch Kunstwerke. Diese entstammen jedoch aus so unterschiedlichen Perioden und Forschungsbereichen, dass ihre gemeinsame Verwendung inhaltlich wenig Sinn macht.

Für dieses Projekt wurde ein "DACO Protokoll" entwickelt, mittels dessen wir unsere Vorstellungen von der Zukunft historischer Informationssysteme im WWW testen können. Wir gehen davon aus, dass in der Zukunft viele Einrichtungen als Anbieter digitalisierter, historisch relevanter Information auftreten werden - jener Information, für die sie bereits jetzt in nicht digitaler Form verantwortlich sind. Wenn diese Informationen in Form von DACOs angeboten werden, nehmen wir an, dass sich zahlreiche WWW Dienste entwickeln, die diese historischen Informationen, bezogen von vielen unterschiedlichen Anbietern, in spezialisierte Interfaces integrieren, die ein bestimmtes Segment der an historischen Sachverhalten interessierten Öffentlichkeit bedienen, seien es Laien oder ForscherInnen. Zu diesem Zweck verlassen sich derartige Systeme - im Folgenden genannt "Broker" - darauf, dass die Anbieter - im Folgenden "DACO Server" - bereit sind, über ihren Inhalt nach bestimmten Regeln Auskunft zu erteilen.

Dieser Kommunikationsprozess verläuft im Wesentlichen etwa folgendermaßen, wobei wir abermals alle technischen Details ausklammern.

Ein Broker kann einen DACO Server dazu auffordern, sich selbst zu beschreiben; auf diese Aufforderung reagiert der Server mit einer Liste von "Zugriffswegen", die er bereit ist zu unterstützen. Derartige Zugriffswege sind etwa "Personennamen", "Topografische Angaben", "Werktitel" usw. Diese Beschreibungen von Zugriffswegen werden jedoch nicht durch solche intuitiven aber vagen Beschreibungen geliefert werden, wie im experimentellen System, sondern durch wesentlich stärker formalisierte Beschreibungen, die in XML oder RDF eingebettet sein werden und einige der Konzeptionen des Semantic Web [15] verfolgen. Ein gutes Beispiel der Art semantischer Beschreibungen, mit denen wir uns derzeit beschäftigen, ist das sogenannte Content Reference Model (CRM). [16]

Jeder dieser Zugriffswege kann vom Broker benutzt werden, entweder um einen Subset der Personen zu erhalten, die diesen Zugriffsweg definieren (zum Beispiel einen Satz Personennamen) oder um einen Teil einer darauf aufgebauten Suchmaske für eine Expertensuche anzufordern - die Bausteine, aus denen der Broker seine eigenen Suchinstrumente, die mehrere DACO Server integrieren, entwickeln kann, um den EndbenutzerInnen die Entscheidung darüber zu erlauben, auf welche der DACOs sie letzten Endes wirklich zugreifen wollen.

Nach einigen weiteren Zwischenschritten, die im Moment nicht interessant sind, transferiert ein DACO Server schließlich DACOs zum Broker, die dieser in seinem eigenen Präsentationssystem anbieten kann, nachdem er schon vorher darüber informiert wurde, ob diese als einfache HTML Seiten angeboten werden oder als XML Seiten, die einige Vorverarbeitung erfordern, bevor sie an die EndnutzerInnen weitergereicht werden, als SVG Konstrukte, VRML Objekte, Flash Movies oder welche anderen Formate auch immer die nächsten Jahrzehnte bringen.

Abschließende Provokationen

Wir sind im letzten Abschnitt immer stärker in technische Überlegungen gelangt, die zeigen sollten, dass und warum wir glauben, dass künftige Präsentationssysteme für historische Information eine wesentlich intensivere interdisziplinäre Ausrichtung von Projekten im Sinne des eingangs beschriebenen "Kölner Modells" in der Lehre erfordern werden. In vieler Hinsicht ist dies also eine Begründung des Kölner Ansatzes aus einer Erwartung heraus, welche Anforderungen sich in Zukunft aus der Weiterentwicklung historischer Informationssysteme für die Ausbildung einschlägiger geisteswissenschaftlich-interdisziplinärer SpezialistInnen ergeben werden.

Bevor wir schließen, möchten wir jedoch festhalten, dass es durchaus auch mindestens noch eine andere Betrachtungsweise gibt, die eine verstärkte interdisziplinäre Zusammenarbeit zwischen historisch-geisteswissenschaftlichen Disziplinen und der Informatik nahe legt; nicht oder nicht primär aus den Erfordernissen der Geisteswissenschaften heraus, sondern aus denen der Gesellschaft insgesamt. Diese Betrachtungsweise geht davon aus, dass die wesentlichste absehbare Herausforderung der "Informationsgesellschaft" der Umgang mit chaotischen, wenig strukturierten, nicht standardisierten Informationen ist. Dies ist eine genaue Zustandsbeschreibung des aktuellen Informationsangebotes im WWW; aber auch eine Zustandbeschreibung jedes offenen Informationssystems.

Die Handhabung genau dieser Art von Informationen prägt aber seit jeher in entscheidendem Masse das Berufsbild der HistorikerInnen. Sie sind daher für die Bewältigung der neu entstehenden Aufgaben in der Informationsgesellschaft wesentlich besser vorbereitet als Personen mit beispielsweise naturwissenschaftlichen Abschlüssen.

Freilich bleibt die Frage offen, ob es einer sich derzeit häufig wissenschaftspolitisch kleinlaut gebärdenden Geschichts- / Geisteswissenschaft gelingen wird, diese Chance zu nutzen, wenn gleichzeitig naturwissenschaftliche Disziplinen, die vager und widersprüchlicher Information an sich zunächst völlig hilflos gegenüberstehen, mit der impliziten Arroganz selbstbewusster Disziplinen auftreten.

In einer rationalen Welt, sollten die neuen Informationssysteme eigentlich unter zentraler Einbeziehung jener Disziplinen entworfen werden, die Erfahrungen mit der Art von Informationen haben, um die es geht. Das setzt allerdings den Mut voraus, sich mit den dazu notwendigen Techniken nicht nur konsumierend, sondern ihre Entwicklung aktiv mitgestaltend zu befassen.

Prof. Dr. Manfred Thaller ist Inhaber des Lehrstuhls für Historisch-Kulturwissenschaftliche Informationsverarbeitung an der Universität zu Köln.


[1] Vgl. dazu Busa, Roberto, The Annals of Humanities Computing: The Index Thomisticus, in: Computers and the Humanities 14 (1980), S. 83-90.

[2] Hymes, Dell (Hg.), The use of Computers in Anthropology, London 1965.

[3] Vgl. <http://www.hki.uni-koeln.de>.

[4] Vgl. <http://www.hatii.arts.gla.ac.uk/>.

[5] Vgl. <http://huminf.uib.no/>.

[6] Vgl. <http://odur.let.rug.nl/alfa/>.

[7] Vgl. <http://www.ics.forth.gr/isl/cci.html>.

[8] Stand des Aufsatzes: Frühjahr 2003.

[9] Abgesehen von den im Text in weiterer Folge im Detail diskutierten Systemen werden gute Beispiele für unsere Arbeit von folgenden Servern geliefert: <http://dlib-pr.mpier.mpg.de/> (Gedruckte Bücher: 1,4 Millionen Seitenobjekte; 19. Jahrhundert), <http://dlib-diss.mpier.mpg.de/> ("Signifikante Seiten" alter Drucke: circa 60.000 Seitenobjekte; 16. - 18. Jahrhundert), <http://luther.hki.uni-koeln.de/luther> (Heterogene Sammlung von gedruckten Büchern, Autografen und Museumsobjekten: circa 200.000 Objekte; 15. - 20. Jahrhundert); <http://dione.imareal.oeaw.ac.at/realonline/> (Bilder zum mittelalterlichen Alltagsleben mit forschungsorientierten "tiefen" Inhaltsbeschreibungen: circa 30.000 Objekte; 8. - 16. Jahrhundert). Stand: Fühjahr 2003.

[10] Vgl. <http://www.dfg.de/forschungsfoerderung/wissenschaftliche_infrastruktur/lis/aktuelles/download/konzept_digitale_drucke.pdf>.

[11] Vgl. <http://www.ceec.uni-koeln.de>.

[12] Persönliche Profile werden erst im Laufe des Herbst 2005 verfügbar.

[13] Vgl. Anm. 8.

[14] Zum Projekt vgl. <http://www.eculturenet.org/>; der im folgenden beschriebene Demonstrator unter <http://lehre.hki.uni-koeln.de/ECNet>.

[15] Das Semantic Web wirbelt derzeit fast so viel Staub auf, dass skeptische LeserInnen den Eindruck bekommen könnten, es könnte ein ähnliches Schicksal nehmen wie die Expertensysteme der frühen 90er Jahre, mit denen es auch in anderer Hinsicht viele Gemeinsamkeiten aufweist. Abgesehen vom den Namen populär machenden Artikel von Tim Berners Lee u.a., "The Semantic Web", Scientific American, May 2001, wird den ernsthaft Interessierten der Umweg über die zentrale Technologie der Topic Maps empfohlen. Eine seriöse Publikation dazu: Park, Jack (Hg.), XML Topic Maps. Creating and Using Topic Maps for the Web, Addison-Wesley, 2002.

[16] Vgl. <http://cidoc.ics.forth.gr/>.


Archive des Wissens
Neue Herausforderungen für ein altes Problem

Haber, Peter

„Nichts ist weniger sicher, nichts ist weniger eindeutig heute als das Wort Archiv“

Jacques Derrida in: Mal d’Archive

Im Traktat Nidda des Talmud heisst es, dass das Ungeborene im Mutterleib die ganze Thora auswendig kennt. Im Augenblick der Geburt aber kommt ein Engel und gibt dem Neugeborenen einen Kuss – das Kind vergisst alles und muss die Heilige Schrift von Anfang an neu lernen.

Die technischen Möglichkeiten des Computerzeitalters verlocken heute dazu, zu vergessen, wie wichtig das Vergessen ist. Eine Gesellschaft, die nicht vergessen kann, ist letztlich nicht überlebensfähig, und dieser Umstand war schon den Autoren des Talmud bewusst. Das World Wide Web zwingt HistorikerInnen, die doch SpezialistInnen sind im Nicht-Vergessen, verstärkt über das Vergessen – und damit auch über die Funktion des Archivs – nachzudenken.

Das Archiv ist die Institutionalisierung des Nicht-Vergessens und somit Teil des historischen Kerngeschäftes. Das World Wide Web und das fortwährende gesellschaftliche Reden über die Wissensgesellschaft haben dazu geführt, dass bisherige Randthemen in den Mittelpunkt unseres Interesses gerückt sind.

Im Jahre 1545 erschien in Zürich ein Buch, dessen Titel mit den Worten begann: Bibliotheca universalis sive catalogus omnium scriptorum locupletissimus – eine Universal-Bibliothek also oder eben ein „reichhaltigster Katalog aller Schriftsteller”. [1] Der Zürcher Arzt und Naturforscher Conrad Gesner hatte mit seiner Bibliotheca Universalis eine der ersten gedruckten internationalen Bibliografien vorgelegt. Das Buch bestand aus einer rund 3.000 Autoren umfassenden Bibliografie und listete insgesamt mehr als 10.000 Werke auf. Neu war, dass nicht nur Autor und Titel genannt wurden, sondern dass Gesner auch eine inhaltliche Beschreibung der zitierten Werke vornahm.

1548, also drei Jahre nach der Publikation des ersten Bandes, brachte Gesner einen zweiten Band auf den Markt. Dieser Band enthielt eine thematisch geordnete Liste mit Stichworten und stellte somit einen der frühesten Versuche dar, das Wissen der Welt zu ordnen und zu klassifizieren.

Heute sind Bibliografien zu einem selbstverständlichen Bestandteil des wissenschaftlichen Informationssystems geworden. Der Markt bietet zahlreiche elektronische Hilfsmittel an, um eigene Bibliografien mit dem Computer aufzubauen und zu verwalten. Gedruckt werden Bibliografien heute nur noch selten.

Das bibliografische Leitmedium war lange Jahre der Zettelkasten. Diese Zeit scheint vorbei zu sein: Braune Holzkästen mit abgegriffenen und vergilbten Karten und farbigen Reitern sind im Zeitalter von Online- und Offline-Datenbanken zu einem analogen Auslaufmodell geworden. Einen eindrücklichen Nachruf auf die Welt der Zettelkästen hat der amerikanische Autor Nicholson Baker vor einigen Jahren im The New Yorker veröffentlicht. [2] Darin beschreibt er den kulturellen Verlust, den wir durch die Vernichtung der Zettelkästen zu vergegenwärtigen haben.

Dem deutschen Kulturwissenschafter Markus Krajewski hingegen verdanken wir eine kürzlich erschienene wunderschöne Mediengeschichte des Zettelkastens: [3] Krajewski spürt in seiner Untersuchung zuerst der Arbeitsweise und den Intentionen von Conrad Gesner nach, den man gleichsam als den Schutzpatron des Zettelkastens bezeichnen könnte. Gesner beschränkte sich nämlich in seinen Aktivitäten nicht allein auf das Sammeln von bibliografischen Einträgen, sondern er widmete sich auch der medientheoretischen Reflexion seines Handelns. Genauestens beschrieb er, wie das Sammeln und Ordnen der Notizen zu erfolgen habe – nämlich indem zuerst alles von Wichtigkeit und was Verwendung verheißt, auf ein einseitig zu beschreibendes Blatt von guter Qualität zu übertragen sei. Anschließend soll man das Blatt mit einer Schere zerschneiden, um die Einträge „nach Belieben“ ordnen und gliedern zu können. Schliesslich soll man die Papierschnipsel auf großen Bögen arrangieren; aufgeklebte Papierstreifen ermöglichen es, die Reihenfolge der Zettel auch nachträglich zu verändern. [4]

Damit war eine prototypische Urform des Zettelkastens beschrieben, zu dessen wichtigsten Merkmalen es gehört, dass sich sein Inhalt beliebig oft und nach beliebigen Kriterien immer wieder neu gruppieren und ordnen lässt. Was indes noch fehlte, waren die einheitlichen Inhalte des Kastens: die Karteikarten. Es dauerte rund 250 Jahre, bis sich solche Karten wirklich durchzusetzen vermochten, wie Krajewski berichtet. Um das Jahr 1800 herum versuchte im postrevolutionären Frankreich das Bureau de Bibliographie, den Buchbestand des Landes zu registrieren und verwendete aus Kostengründen zur Erfassung der Informationen Spielkarten. Diese waren nicht nur billig, sondern auch einheitlich groß. Die geplante Bibliografie wurde zwar schlussendlich nie gedruckt, doch die Idee einer einheitlichen Karteigröße war geboren.

Karteikarte und Zettelkasten waren zunächst Instrumente der gelehrten Welt, waren integraler Bestandteil der abendländischen Buchkultur. Dies änderte sich indes Ende des 19. Jahrhunderts, als ein  gravierender Wandel eintrat: Der Zettelkasten – und damit verbunden die moderne Kulturtechnik des „Verzettelns” – begann, nach den Bibliotheken und Studierzimmern auch die Welt der Büros und Amtsstuben zu erobern, zuerst in den USA und später auch in Europa. Der Zettelkasten wurde nun nicht mehr ausschließlich zur Verwaltung von Wissen eingesetzt, sondern mutierte zum massenproduzierten Planungs- und Organisationsinstrument bürokratischer Arbeitsprozesse.

Die Faktoren, die zu diesem Wandel beigetragen haben, waren mannigfaltig – eine Person aber spielte in diesem ganzen Prozess eine zentrale Rolle: Melvil Dewey. Er wurde 1851 geboren und starb 1931. Dewey war Bibliothekar und ein fanatischer Kämpfer für mehr Effizienz, Systematik und Ordnung. Im Alter von 26 Jahren setzte er nicht nur die Gründung der American Library Association durch, sondern rief gleich auch noch das American Metric Bureau und die Spelling Reform Association ins Leben. Im amerikanischen Bibliotheksmarkt konnte sich Dewey damals mit kostengünstigen, einheitlichen Karten und Karteikästen durchsetzen und normbildend wirken.

Mit den Worten von Helmut Zedelmaier lässt sich der Zettelkasten als ein „Start-up moderner Wissensmaschinen“ bezeichnen. [5] Der Zettelkasten war aber nur eine von vielen Kulturtechniken, die im Laufe der Zeit entstanden waren, um Wissen zu verwalten. Eine ganz andere Art von Wissensmaschine stellt die Enzyklopädie dar. Die wohl berühmteste Enzyklopädie erschien Mitte des 18. Jahrhunderts und wurde von Denis Diderot und Jean Le Rond d'Alembert herausgegeben: Encyclopédie ou dictionnaire raisonné des sciences, des arts et des métiers. Das gigantische Werk verstand sich – im Unterschied zu seinen Vorläufern – nicht als reine Materialsammlung, sondern als ein vernetztes System von Wissen und Anwendung. So war die Enyclopédie als Ganzes mehr als nur die Summe ihrer Beiträge. Im Discours préliminaire schreibt d'Alembert, die Enzyklopädie solle „Aufbau und Zusammenhang der menschlichen Kenntnisse aufzeigen“. [6]

Das Wissen der Welt beschreibt er als eine Weltkarte, „auf der die wichtigsten Länder und ihre Abhängigkeit voneinander sowie die Verbindung zwischen ihnen in Luftlinie verzeichnet sind; diese Verbindung wird immer wieder durch unzählige Hindernisse unterbrochen, die nur den Bewohnern oder Reisenden des in Frage kommenden Landes bekannt sind und nur auf bestimmten Spezialkarten verzeichnet werden können.“ [7] Die einzelnen Artikel der Encyclopédie, so fährt er fort, seien die Spezialkarten. Der Stammbaum der Wissenschaften, den er im Anhang beifügt, sei die Weltkarte.

Auch die Navigation auf dieser Weltkarte des Wissens beschäftigte d’Alembert, und er entschied sich für ein Prinzip, das wir heute Hyperlink nennen würden: die „Verkettung“ der einzelnen Texte durch Verweise.

Dank diesen Verweisen sei es möglich, dass man „lückenlos von den ersten Prinzipien einer Wissenschaft oder Kunst bis zu ihren weitläufigen Konsequenzen vordringen und den umgekehrten Weg von den letzten Folgerungen bis zu den ursprünglichen Prinzipien wieder zurückverfolgen kann; mit deren Hilfe man unmerklich von einer Wissenschaft oder Kunst zur anderen gleitet und so, wenn der Ausdruck gestattet ist, eine literarische Weltreise ohne Verirrungsgefahr machen kann.“ [8]

Enzyklopädien sind Archive des Wissens, denn sie verwalten Wissen nicht nur, sondern sie erheben den Anspruch, im Sinne von Quellenkritik und Quellentransparanz die Herkunft des Wissens anzugeben.

Diese Definition impliziert zwei zentrale Funktionen, die dem Archiv zugeschrieben werden: die Verwaltung, also die Ordnung des Archivierten, und die Herkunftsangabe oder – mit einem anderen Wort – die Authentifizierung des Archivierten.

Die Aufgabe des Archivs ist es also zunächst, das zu Archivierende vor dem Verfall und dem Vergessen zu bewahren. Gleichzeitig ist der Vorgang des Archivierens immer auch ein Akt der Kontrolle und der Herrschaftsausübung. Neben Michel Foucault hat zum Beispiel auch Jacques Derrida in Mal d’archives eindrücklich auf diesen Aspekt des Archivs hingewiesen. [9] So gesehen ist es auch nicht weiter verwunderlich, dass das „Archiv“ wieder vermehrt in das Blickfeld intellektueller Debatten geraten ist. [10] Die postindustrielle Gesellschaft – ob sie sich nun Informationsgesellschaft oder neuerdings Wissensgesellschaft nennt – ist auf das Archiv als zentrale gesellschaftliche Instanz angewiesen.

Wenn wir heute von Wissensarchiven reden, so meinen wir ganz selbstverständlich sprachlich festgehaltenes Wissen, also Texte in Form von Büchern oder anderen Druckerzeugnissen. Die Industrienationen haben das sprachliche Wissen zum einzig glaubwürdigen Spiegel der Umwelt erklärt, schreibt Michael Giesecke in seiner umfassenden Abrechnung mit den „Mythen der Buchkultur“. [11] Ohne diese Buchkultur – und dadurch die Favorisierung der Schriftlichkeit – wären vermutlich weder die Aufklärung  noch die Einführung der allgemeinen Schulpflicht möglich gewesen.

Jetzt, wo ein „Ende der Gutenberg-Galaxis“ [12] sich abzuzeichnen scheint, erwacht in den Kulturwissenschaften erneut das Interesse an den Fragen der Medialität und den Strukturen von Wissen. Mit dem World Wide Web ist auch der alte Traum von der Bibliotheca Universalis, der allumfassenden Wissensmaschine, den schon Conrad Gesner und Jean Le Rond d’Alembert geträumt hatten, erneut auferstanden. [13]

Doch ist das Internet, ist das World Wide Web ein Archiv? Oder ein Teil unseres kollektiven Gedächtnisses? Oder ist das Internet gar die Verwirklichung der Bibliotheca universalis, wie ein Förderprogramm der G7-Staaten vor einigen Jahren suggeriert hat? [14]

Zunächst einmal ist das Internet kein Medium, sondern eine technische Infrastruktur – die Gesamtheit aller Computernetzwerke, die ein Protokoll namens TCP/IP zum Austausch von Daten verwenden. [15] Medientheoretisch gesehen aber ist das Internet durchaus hybrid: Es ist nämlich einerseits ein Netzwerk von Rechnern, also ein Transportmedium für verschiedene Dienste wie etwa E-Mail oder Chat. Zusammen mit den Festplatten der Rechner, die über dieses Netzwerk kommunizieren, ist das Internet aber gleichzeitig auch ein Speichermedium, das in der Lage ist, Daten zu archivieren. Wenn auf diesen Datenträgern Informationen gespeichert werden, dann lässt sich das Internet auch als Wissensspeicher nutzen.

Trotzdem macht es keinen Sinn, vom Internet als einem Archiv zu sprechen, denn das Internet als Ganzes kann die Aufbewahrung, Sammlung und Erschließung von elektronischen Dokumenten nicht leisten. Diese drei Funktionen – Aufbewahrung, Sammlung und Erschließung – sind aber die drei zentralen Funktionen des Archivs, wie es die Historischen Hilfswissenschaften definiert haben.

Zahlreiche technische Probleme schränken die Tauglichkeit des Internet als Archiv stark ein: Zum einen ist die Haltbarkeit der Datenträger äußerst beschränkt. Mit der Haltbarkeit von altbewährten Medien wie etwa Papyrus, Papier oder auch Film sind Computermedien nicht zu vergleichen. Man geht heute davon aus, dass magnetische und magneto-optische Datenträger alle paar Jahrzehnte auf neue Datenträger überspielt werden müssen. Noch schlimmer sieht es bei den Datenformaten aus. Die immer kürzeren Innovationszyklen im Computersektor führen dazu, dass man heute von einer mittleren Lebensdauer eines Dateiformates ausgehen muss, die im Bereich von fünf bis zehn Jahren liegt. [16]

Jacques Derrida hat es in Mal d’Archive so formuliert: „Die technische Struktur des archivierenden Archivs bestimmt auch die Struktur des archivierbaren Inhalts schon in seiner Entstehung und in seiner Beziehung zur Zukunft.“ [17]

Zudem ist das Internet ein Ort ohne Erschließung. Denn Archiv und Bibliothek funktionieren nur, wenn das, was in ihnen gespeichert wird, erschlossen und klassifiziert wird. Der Traum von einem alles umfassenden Klassifikationssystem, von einem Baum des Wissens, hat sich letztlich als unrealisierbar erwiesen. Einer der letzten großen Versuche, alles Wissen dieser Welt zu klassifizieren und die Metainformationen dieses Weltwissens in einem Gesamtsystem unterzukriegen, stammt von Melvil Dewey, der schon für einheitliche Karteikarten in den Zettelkästen dieser Welt gesorgt hat. Das nach ihm benannte Dezimalklassifikationssystem ist ein Zahlenssystem, mit dem er das gesamte Wissen der Menschheit in zehn Kategorien und jeweils entsprechende Unterkategorien einteilen und klassifizieren wollte. Allen Unzulänglichkeiten und Anachronismen zum Trotz wird dieses Klassifikationssystem auch heute noch in vielen großen Bibliotheken weltweit eingesetzt. [18]

Dieses strenge System von Zahlen, Punkten und Dezimalstellen ist gleichsam das Gegenmodell zur Utopie des kalabresischen Dominikaners Tommaso Campanella, der Ende des 16., anfangs des 17. Jahrhunderts lebte. Im Buch La Città del Sole, der Sonnenstaat, das Campanella 1623 publizierte, besitzen die Menschen „nur ein einziges Buch, das sie ‚Die Weisheit’ nennen, in dem alle Wissenschaften bewundernswert leicht und fasslich dargestellt sind.“ [19]

Heute verteilt sich diese Weisheit auf rund eine Million Bücher, die jedes Jahr neu erscheinen. Und ein Ende ist nicht absehbar: Wir müssen davon ausgehen, dass in den kommenden zehn Jahren vermutlich gleich viele Buchtitel erscheinen werden, wie in den ersten 550 Jahren nach der Einführung des Buchdruckes durch Johannes Gutenberg. Oder ganz konkret: Die Deutsche Bibliothek in Frankfurt erhält rund 1.000 neue Bücher – jeden Tag! [20]

Wie kann eine Gesellschaft mit dieser Menge von Wissen – wenn es sich denn wirklich um Wissen handelt – umgehen? Zwei Aspekte werden die Diskussionen zu diesem Thema in Zukunft prägen: Zum einen werden bei der Informationsbeschaffung und -authentifizierung neue Kompetenzen nötig sein. Zum anderen wird die Wissensgesellschaft neu lernen müssen, zu vergessen.

Zu den wichtigsten Fertigkeiten, über die HistorikerInnen heute verfügen müssen, gehört es, die richtigen Informationen zu finden, einzuordnen und zu interpretieren. Natürlich gehörte die Quellenkritik schon immer zu den Grundkompetenzen, auf denen die historiografische Arbeitsweise aufbaut, doch mit dem Aufkommen neuer, digitaler Informationsquellen hat sich das Anforderungsprofil grundlegend verändert. Die klassischen hilfswissenschaftlichen Disziplinen wie zum Beispiel Schriftkunde und Archivkunde reichen heute nicht mehr aus. In jedem geistes- und kulturwissenschaftlichen Curriculum müsste heute die Vermittlung von Medienkompetenz und Orientierungswissen im Bereich der Neuen Medien eigentlich eine Selbstverständlichkeit sein. Bekanntlich sieht die Realität anders aus.

Gerade bei der Verwendung des Internet als Recherchierinstrument – und auf diesen Aspekt beschränke ich mich hier – zeigen sich die spezifischen Probleme der Kulturwissenschaften. Im Unterschied zu Fächern mit einem kanonisierten Wissensbestand wie zum Beispiel die technischen Wissenschaften sind die Grenzen des diskursiven Feldes respektive des Wissensraumes in unseren Fächern nicht klar abgesteckt. Es gibt keine scharfe Trennlinie zwischen „wissenschaftlich“ und „unwissenschaftlich“. Beispielsweise gibt es unzählige regionalgeschichtliche Vereine, die einen wichtigen Beitrag zur Erforschung ihrer jeweiligen Regionalgeschichten leisten. Es sind selten professionelle HistorikerInnen, die in diesen Vereinen arbeiten, und ebenso selten partizipieren sie am wissenschaftlichen Methodendiskurs. Doch mit ihrer kontinuierlichen Arbeit, der großen Detailkenntnis und der lokalen Verwurzelung sind sie wichtige BewahrerInnen des historischen Gedächtnisses einer bestimmten Region. Die moderne Geschichtsschreibung kann auf die Quellen, die von solchen Vereinen erschlossen und zugänglich gemacht werden, kaum verzichten. Um diese Quellen mit den eigenen Fragen konfrontieren zu können, muss die Forschung den Zugriff auf dieses Material haben.

Wer nun mit Hilfe des Internet an diesen Rändern forscht, sieht sich mit besonders heiklen Problemen konfrontiert. Denn was findet man im Internet überhaupt? In erster Linie Verweise auf Material, das im Bereich der „realen Welt“ existiert, also Bücher, Aufsätze, Artikel, Quellensammlungen etc. Dann natürlich Verweise auf andere Verweise im Internet, Linksammlungen zum Beispiel. Das World Wide Web als gigantischer Hypertext ist bekanntlich hochgradig selbstreferenziell.

Auf Material, das es ausschließlich im Internet gibt, wird man in den Kulturwissenschaften nur in ziemlich seltenen Fällen stoßen; elektronische Zeitschriften oder Editionen, die lediglich online publiziert werden, sind auch heute noch selten. Da besteht ein gewichtiger Unterschied zu den naturwissenschaftlichen und technischen Disziplinen. Netzperiodika wie etwa „sehepunkte“ [21] oder – das zwischenzeitlich wieder aus dem Internet genommene – „Zäsuren“ stellen immer noch Ausnahmen dar.

Diese disparate Menge an Material, die für die kulturwissenschaftliche Internet-Recherche potentiell von Interesse sein könnte, macht die Navigation im Internet so schwierig. Diese Navigation basiert heute nämlich auf zwei Suchtechniken: es gibt die Volltextsuche mit Hilfe von Suchmaschinen und es gibt die systematische Suche mit Verzeichnisdiensten. Gerade qualitativ hoch stehende Verzeichnisdienste wie zum Beispiel der HistoryGuide in Göttingen [22] , wo die Informationen mit zahlreichen Metadaten erschlossen werden, hätten das konzeptionelle Potential, zum Leitmedium der neuen Wissensorganisation zu werden, ähnlich wie es der Zettelkasten im 19. Jahrhundert gewesen ist.

Bisher waren es die Bibliotheken, die als Gatekeeper zu den Wissensbeständen figurierten. Als öffentliches gut sind die Bibliotheken zumindest bisher noch Teil des Service public. Service public umfasst die Grundversorgung mit Infrastrukturgütern und -dienstleistungen, welche für alle Bevölkerungsschichten und Regionen eines Landes zu gleichen Bedingungen und in guter Qualität zur Verfügung stehen sollen. [23] Auf dieser Basis leisten die Bibliotheken die intellektuelle Strukturierungsarbeit bei Büchern und anderen gedruckten Materialien. Eine ähnliche gesellschaftliche Aufgabe übernehmen die Archive. Beide Institutionen stellen ihr Material der interessierten Öffentlichkeit mehr oder weniger umfassend und mehr oder weniger unentgeltlich zur Verfügung.

Und das Internet? Es ist schon seit Jahren nicht nur Teil der wissenschaftlichen Kommunikationsinfrastruktur, sondern es ist auch ein kommerzielles Massenmedium. Damit ist es nicht mehr Teil des Service Public und auch die Erschließung kann nicht primär durch die öffentliche Hand geleistet werden.

Trotzdem sind wir in der universitären Lehre und in der Forschung auf diese Dienste dringend angewiesen. In der Bücherwelt nämlich, im Typographeum, hat sich seit der Einführung des Buchdruckes vor über 500 Jahren ein Subtext etabliert, der zur qualitativen Beurteilung eines Buches hinzu gezogen werden kann: Der Verlag, bei dem das Buch erschienen ist, die Art und Weise der Buchausstattung, das Vorwort, die Gliederung des Textes und viele andere para- und subtextuelle Elemente erzählen uns über das Buch und seinen Hintergrund. Zu den kulturwissenschaftlichen Grundkompetenzen gehört es ganz selbstverständlich, diesen Code interpretieren zu können. [24]

Für den, der im World Wide Web mit Suchmaschinen arbeitet, sind wirre Pamphlete und lückenhafte Proseminararbeiten oft nur einen Mausklick von aktuellen Forschungsberichten und höchst relevanten Expertendebatten entfernt. Bei der Navigation im Internet gibt es keine para- und subtextuellen Elemente. Es gibt zwar andere Orientierungshilfen, wie zum Beispiel die Netzadresse, die visuelle Sprache einer Website oder die Klarheit der Navigationslogik, doch das Medium World Wide Web ist noch zu jung, um schon einen eigenen, konsistenten Code entwickelt zu haben.

Die Vermittlung entsprechender Kompetenzen zur Suche und Authentifizierung von elektronischen Quellen und Materialien muss in die kulturwissenschaftlichen Curricula integriert werden. Das wird Geld kosten und es zeichnet sich ab, dass es in der gegenwärtigen Finanzlage auch zu Umschichtungen kommen wird. Konflikte sind vorprogrammiert. Die zuständigen Planungsbürokratien haben über diese neue Herausforderung noch nicht einmal nachgedacht – geschweige denn, dass zusätzliche Mittel dafür bereitgestellt worden wären.

Der digital turn, also die technologischen und medialen Umbrüche, die wir gegenwärtig beobachten können, wird für die Geistes- und Kulturwissenschaften aber vermutlich noch tiefer greifende Auswirkungen haben, als nur die Anpassung der Curricula.

In seiner Erzählung Die Bibliothek von Babel hat Jorge Luis Borges das Universum als eine Büchersammlung beschrieben: Diese Bibliothek umfasst alles, was sich irgend ausdrücken lässt, und zwar in sämtlichen Sprachen. Sie ist mit anderen Worten  total, denn „in der ungeheuer weiträumigen Bibliothek gibt es nicht zwei identische Bücher.“ [25] Diese totale Bibliothek ist der verzerrte Widerschein all dessen, was durch Bildung und Kultur als Zivilisation konfiguriert wurde. Es ist die nackte Aneinanderreihung von „überhaupt allem“ und nicht das Ergebnis eines Prozesses, das unter anderem aus „Aufbewahrung, Sammlung und Erschließung“ besteht.

Letztlich wird es nach dem digital turn um die gesellschaftliche Definition neuer Organisationsmechanismen des Erinnerns und des Vergessens gehen. Die schier unendlichen Speicherkapazitäten des Internet haben die Vision des totalen Archivs wieder aufleben lassen. Auch wenn es ein totales Archiv von „überhaupt allem“ nie geben wird: alleine schon die Aktualität dieser Vision wird Konsequenzen sowohl für die Selbstwahrnehmung als auch für die gesellschaftliche Rolle der Geschichtswissenschaften haben.

Als AuthentifikatorInnen des Vergangenen werden HistorikerInnen mehr denn je an der Schnittstelle von Kultur und Technik die Regeln von Aufbewahrung, Sammlung und Erschließung mitdefinieren müssen. Dabei werden uns die sozialen Regeln des Vergessens, wie es Elena Esposito kürzlich genannt hat [26] , noch intensiv beschäftigen.

Denn eines ist gewiss: Der Engel, der uns bei der Geburt mit einem Kuss alles vergessen lässt, dieser Engel wird den „digital turn“ ganz bestimmt überleben.

Dr. des. Peter Haber ist Historiker und Lehrbeauftragter für Neue Medien in den Geschichtswissenschaften am Historischen Seminar der Universität Basel. Im Internet ist er unter <http://hist.net/haber> zu finden.


[1] Gesner [Gessner], Conrad, Bibliotheca Universalis, sive Catalogus omnium scriptorum locupletissimus, in tribus linguis, Latina, Graeca & Hebraica, Zürich 1545.

[2] Baker, Nicholson, Discards, in: The New Yorker, 4. April 1994, S. 64-86; deutsch: Verzettelt, in: Ders., U & I. Wie groß sind die Gedanken?, Reinbek 1999, S. 353-429.

[3] Krajewski, Markus, Zettelwirtschaft. Die Geburt der Kartei aus dem Geiste der Bibliothek, Berlin 2002.

[4] Nach: Krajewski (wie Anm. 3), S. 20.

[5] Zedelmaier, Helmut, Buch, Exzerpt, Zettelschrank, Zettelkasten, in: Pompe, Hedwig; Scholz, Leander (Hgg.), Archivprozesse. Die Kommunikation der Aufbewahrung (Mediologie 5), Köln 2002, S. 38-53, bes. S. 38.

[6] Alembert, Jean le Rond d', Einleitung zur Enzyklopädie. Durchgesehen und mit einer Einleitung herausgegeben von Günther Mensching (Philosophische Bibliothek 473), Hamburg 1997, S. 8.

[7] Ebd., S. 42.

[8] Ebd., S. 93f.

[9] Siehe: Foucault, Michel, Archäologie des Wissens, Frankfurt am Main 1981; Derrida, Jacques, Dem Archiv verschrieben. Eine Freudsche Interpretation, Berlin 1997.

[10] Siehe: Raulff, Ulrich, Ein so leidenschaftliches Wissen. Theoretiker am Rande der Erschöpfung: Über die jüngste Konjunktur von Archiv und Sammlung, in: Süddeutsche Zeitung, 16. Mai 2002, S. 16.

[11] Giesecke, Michael, Von den Mythen der Buchkultur zu den Visionen der Informationsgesellschaft. Trendforschungen zur kulturellen Medienökologie, Frankfurt am Main 2002.

[12] Bolz, Norbert, Am Ende der Gutenberg-Galaxis. Die neuen Kommunikationsverhältnisse, 2. Aufl. München 1995.

[13] Siehe: Haber, Peter, Der wiedererwachte Traum von der «Bibliotheca Universalis». Das totale Wissen im digitalen Zeitalter, in: Neue Zürcher Zeitung, 24. Januar 2000.

[14] Bibliotheca universalis <http://www.culture.fr/culture/bibliuni/engbu1.htm> [12. Mai 2003].

[15] Siehe <http://www.ietf.org/rfc/rfc0793.txt?number=793> [12. Mai 2003].

[16] Warnke, Martin, Digitale Archive, in: Pompe; Scholz (wie Anm. 5), S. 269-281, bes. S. 274.

[17] Derrida (wie Anm. 9), S. 35.

[18] Siehe: Dewey Decimal Classification Home Page <http://www.oclc.org/dewey> [12. Mai 2003].

[19] Campanella, Tommaso, Sonnenstaat, in: Heinisch, Klaus J. (Hg.), Der utopische Staat (Philosophie des Humanismus und der Renaissance 3), Reinbek 1962, S. 111-170, bes. S. 120.

[20] Wegmann, Nikolaus, Bücherlabyrinthe. Suchen und Finden im alexandrinischen Zeitalter, Köln und Weimar 2000, S. 51.

[21] <www.sehepunkte.historicum.net/>.

[22] <www.historyguide.org>.

[23] Siehe: ‚Prinzipien des Service public’ <http://www.uvek.admin.ch/dokumentation/serpub/00242/index.html> [30.09.2005].

[24] Siehe: Genette, Gérard, Paratexte. Das Buch vom Beiwerk des Buches, Frankfurt am Main 2001.

[25] Borges, Jorge Luis, Die Bibliothek von Babel. Erzählungen, Stuttgart 1996, S. 51.

[26] Esposito, Elena, Soziales Vergessen. Formen und Medien des Gedächtnisses der Gesellschaft, Frankfurt am Main 2002.


Wissenschaftliche Kommunikation und Bibliotheken im Wandel
Sammeln und Ordnen, Bereitstellen und Vermitteln in diversen medialen Kontexten und Kulturen

Rösch, Hermann

Während in vergangenen Jahrhunderten Bibliotheken mindestens in ihrer Speicherfunktion als unverzichtbare Bestandteile der wissenschaftlichen Kommunikation galten, mehren sich Prognosen, die von einer baldigen Marginalisierung wissenschaftlicher Bibliotheken ausgehen. Oft wird in den verschiedenen Szenarien davon ausgegangen, dass Bibliotheken als wohl erprobte Speicher- und Dienstleistungsinstitutionen der Gutenberg-Ära in der von digitalen Medien und weltweiter Vernetzung geprägten Informationsgesellschaft allenfalls museale Aufgaben erfüllen. Diese Aussage ist der näheren Betrachtung und Prüfung wert.

Mit den folgenden Überlegungen soll zunächst untersucht werden, welche Rolle Bibliotheken im Kontext wissenschaftlicher Kommunikation seit der Neuzeit gespielt haben. Besonderes Augenmerk gilt dabei den kommunikativen Leitmedien und ihrer Rolle für die jeweils dominierende Kommunikationskultur [1] der Scientific Community. [2] Kulturelle und soziale Praxis werden dabei nicht im Sinne eines Technikdeterminismus als bloße Derivate der medialen Kontexte verstanden; statt solch einseitiger Abhängigkeit wird von wechselseitiger Beeinflussung ausgegangen: demnach verfügen Medien über ein je spezifisches Potenzial und je spezifische Grenzen, soziale Praxis entscheidet über Umfang sowie Art und Weise der Aktualisierung des Potentials.

Die diachrone Betrachtung hat nicht nur zum Ziel, diese wechselseitige Abhängigkeit zu belegen, sondern darüber hinaus die konkreten Modifikationen bibliothekarischer Funktionalität unter dem Einfluss medialer Technik, steigenden Informationsvolumens und sich beschleunigender Kommunikation und Produktion zu beleuchten. Anschließend werden eingedenk der Vorgeschichte mögliche Entwicklungslinien wissenschaftlicher Kommunikation in der Informationsgesellschaft skizziert.

Zu fragen ist, welche Anforderungen unter dem Vorzeichen digitaler Medien und telekommunikativer Vernetzung an informationsspeichernde und -vermittelnde Institutionen gestellt werden. Zu fragen ist ferner, ob Bibliotheken zukünftig im Kontext der wissenschaftlichen Kommunikation eine nennenswerte Rolle spielen und welche Aufgaben und Funktionalitäten dann zusätzlich zu den gegenwärtigen bibliothekarischen Angeboten zu erbringen sein werden. [3] Dabei ist einzuräumen, dass der von digitalen Medien und dem Internet ausgelöste Innovationsschub in vollem Gange, der Wandel medialer Praxis und kultureller Bewältigung daher allerhöchstens in Ansätzen erkennbar ist.

Zunächst sollen einige grundsätzliche Überlegungen zu den Eigenschaften und der Bedeutung wissenschaftlicher Kommunikation einerseits und den Kernfunktionalitäten von Bibliotheken andererseits angestellt werden. [4] Wissenschaftliche Kommunikation ist sowohl Voraussetzung als auch Folge wissenschaftlicher Tätigkeit. Deren Produkt, das Wissen, kann nicht mehr als festgefügt und ultimativ gelten, sondern als sozial konstruiert, kommunikativ konventionalisiert, daher auch revidierbar. Wissen stützt sich immer auf Vorwissen, ist beeinflusst von Kontexten. Die Produktion neuen Wissens erfordert den Rückbezug auf und die Einbettung in vorhandenes Wissen sowie ferner die Präsentation der Ergebnisse vor der wissenschaftlichen Öffentlichkeit zum Zweck der kritischen Diskussion. Wissenselemente können verworfen, bestätigt oder modifiziert werden und so, in bestehendes Vorwissen integriert, zur abermaligen Produktion neuen Wissens beitragen. Kommunikation erweist sich damit als elementarer Bestandteil des Wissenschaftsprozesses. [5]

Bibliothek wird oft - und nicht selten stillschweigend - gleichgesetzt mit Speichermedium und zudem allein bezogen auf die Printwelt. In beiden Annahmen liegt eine unzulässige Verkürzung. Die Bibliothek als Institution lässt sich schon bei Hethitern, Assyrern und erst recht in der griechischen Antike nachweisen. Gespeichert, erschlossen und bereitgestellt werden Informationsträger unterschiedlichster Art: Tontafeln, Papyrusrollen, Pergamentcodizes usw. Allein gedruckte Bücher finden sich in diesen Bibliotheken nachvollziehbarerweise nicht. Auch nach der Erfindung des Buchdrucks sammeln Bibliotheken neben den gedruckten weitere Medien wie Handschriften, Münzen, Globen, Bilder, Karten, Naturalien usw. Damit ist eindeutig: Bibliotheken waren in der Vergangenheit Institutionen des Informationsmanagements, und zwar unabhängig von den jeweiligen Leitmedien. Ein exklusiver Bezug von Bibliothek auf Druckmedien ist daher unhistorisch.

Der zweite Aspekt betrifft die Kernfunktionalitäten der Institution Bibliothek. Diese bestehen in der Speicherfunktion und der Dienstleistungsfunktion. Indem Bibliotheken Medien gezielt sammeln, ordnen, aufbewahren und bereitstellen, konstituieren sie sich über die Speicherfunktion. Aber schon die Art der Erschließung und die Modi der Bereitstellung verweisen auf die Funktion der Bibliothek als Dienstleistungseinrichtung. Bibliothek dient also zum einen als Speicher- oder Archivbibliothek dem kulturellen Langzeitgedächtnis. Zum anderen erbringt sie als Gebrauchsbibliothek Dienstleistungen mit dem Ziel, die Informationsversorgung ihrer Benutzer [6] zu gewährleisten und bei tendenziell steigender informationeller Unübersichtlichkeit effiziente Angebote zur Komplexitätsreduktion zu machen. Dieser doppelte Zweck von Bibliothek ist je nach Bibliothekstyp unterschiedlich gewichtet. Historisch wurde die Speicherfunktion erst um die Dienstleistungsfunktion ergänzt, nachdem die Medienbestände so stark angewachsen waren, dass Erschließungsinstrumente wie systematische Aufstellung oder Kataloge notwendig wurden, um Orientierung zu erleichtern oder überhaupt zu ermöglichen.

Skeptiker befürchten in der gegenwärtigen Auseinandersetzung, dass allzu stark ausgeprägte Dienstleistungsbereitschaft die wissenschaftlichen Bibliotheken zu reinen Informationsbörsen degradiere, der allgemeine Kulturauftrag der Speicherinstitution Schaden nehme, wenn nicht verloren gehe. [7] Dem halten innovationsfreundliche Stimmen entgegen, dass im Zuge fortschreitender Digitalisierung und Virtualisierung das kulturelle Langzeitgedächtnis von einer zentralen Instanz gepflegt werden könne, während die lokalen Informationseinrichtungen keine eigenen Bestände mehr aufzubauen und zu pflegen hätten, sondern ihren Kunden vorwiegend komfortable Zugänge zur weiten Welt der digital gespeicherten, wissenschaftlich relevanten Informationen zu bereiten hätten. [8] Auf diese diametralen Einschätzungen wird später zurückzukommen sein. Wichtig war an dieser Stelle, mit Speicher- und Dienstleistungsfunktionalität auf die doppelte Zweckbestimmung von Bibliothek zu verweisen.

Wissenschaftliche Kommunikation und ihre Leitmedien im historischen Längsschnitt

Medien und ihre kulturelle Bewältigung sind konstitutiv für Kommunikation. [9] Diese wiederum ist elementar für den Wissenschaftsprozess. Daraus folgt, dass veränderte mediale Kontexte über die Veränderung der Kommunikationsbedingungen Rückwirkungen auf die Entwicklung der Wissenschaften haben. Medienanalytisch orientierte Wissenschaftsgeschichte trägt diesem Umstand Rechnung. [10]

1. Phase: Anfänge neuzeitlicher Wissenschaft im Zeichen der wissenschaftlichen Monografie und des brieflichen Austausches

(16. Jahrhundert und erste Hälfte des 17. Jahrhunderts)

Die Anfänge neuzeitlicher Wissenschaft sind bereits bestimmt von synchronen und asynchronen Kommunikationsformen. Erfahrungs- und Erkenntnisaustausch erfolgen mittels gesprochener und verschriftlichter Sprache. Zunächst steht allerdings der mündliche Austausch zwischen Lehrer und Schüler, der direkte Dialog zwischen den Gelehrten im Vordergrund. Die asynchrone Kommunikation stützt sich neben dem ursprünglich bilateralen brieflichen Austausch seit der Erfindung des Buchdrucks mit beweglichen Lettern auf wissenschaftliche Monografien. Auf die spannende Frage, welchen Einfluss der Gebrauch von Sprache und Schrift auf den Kommunikationsinhalt und den Kommunikationsablauf haben, kann an dieser Stelle leider nicht eingegangen werden; ebenso wenig auf die Tatsache, dass die Scientific Community offenbar über sämtliche medialen Umbrüche hinweg trotz der immer komfortableren und leistungsfähigeren asynchronen Formen glaubte, auf synchrone sprachliche Kommunikation zum Beispiel in Form von Konferenzen nicht verzichten zu können. Dies, nebenbei bemerkt, bietet ein anschauliches Beispiel für das Riepl’sche Komplementaritätsgesetz. Wolfgang Riepl hatte bereits 1913 darauf hingewiesen, dass neue Medien die alten nicht ersetzen, sondern ergänzen. Die alten Medien positionieren sich neu im Kommunikationsgefüge, es erwachsen ihnen neu zugeschnittene Funktionsprofile.

Die Wissenschaftskommunikation der Frühen Neuzeit ist also noch stark geprägt von mündlichen Formen des Austausches. Schriftliche Fixierung bietet sich zwar an als primäres Medium, kann ihre Vorzüge jedoch umfassend erst zur Geltung bringen, nachdem sich der Buchdruck technisch und ökonomisch etabliert hat. [11] Die Möglichkeit, ein räumlich verstreutes Publikum mit identischen Texten zu beliefern, verändert die Struktur des Wissenschaftsprozesses und die wissenschaftliche Produktivität enorm. Der Typus der gedruckten wissenschaftlichen Monografie wird neben dem Brief im 16. und frühen 17. Jahrhundert zum zentralen Medium asynchroner wissenschaftlicher Kommunikation. Mittels solch singulärer Werke wissenschaftlicher Einzelautoren können Ideen und Erkenntnisse schneller verbreitet und der wissenschaftliche Fortschritt beschleunigt werden. Schon Mitte des 16. Jahrhunderts ist die Buchproduktion so stark angestiegen, dass der Bedarf nach einem Orientierungsinstrument in einem Buch der Bücher, einer Bibliografie also, entsteht. Zu den ersten Druckschriftenverzeichnissen zählt Conrad Gesners Bibliotheca Universalis (Zürich 1545-1555), in der in einer Art Bestandsaufnahme nach 100 Jahren Buchdruck alle gedruckten wissenschaftlichen Werke aller Länder verzeichnet werden sollen. Gesner verfolgt ein doppeltes Ziel. Zum einen liefert er einen Beitrag zur Komplexitätsreduktion für die Gelehrten selbst, die seine Bibliografie zur individuellen Orientierung nutzen. Zum anderen ist die auf Vollständigkeit zielende Zusammenstellung gedacht als Informationsgrundlage für den Aufbau physischer Bibliotheken. Die Bibliotheca Universalis kann damit gleichsam betrachtet werden als Urtyp der virtuellen Bibliothek. [12]

Mit Bibliothek und Bibliografie sind zwei Phänomene in den Blick geraten, die im Kontext wissenschaftlicher Kommunikation auftauchen, sobald die Buchproduktion in einem Maße zugenommen hat, dass Institutionen oder Meta-Bücher zur Orientierung benötigt werden. Der Typus der wissenschaftlichen Bibliothek in der Neuzeit ist also zurückzuführen auf den Buchdruck und die damit verbundene Kommunikationsverdichtung. Die tatsächliche Ausprägung der wissenschaftlichen Universalbibliothek vollzieht sich allerdings erst im Verlauf des 18. und 19. Jahrhunderts. Bis dahin fungiert die Bibliografie als virtuelle Bibliothek. Im 16. und 17. Jahrhundert sind die Gelehrten zumeist noch in der Lage, sich umfangreiche Privatbibliotheken anzulegen und ihren Literaturbedarf weitgehend darüber zu decken.

Mit dem durch die wissenschaftliche Monografie erweiterten Kommunikationspotential wächst zugleich der Kommunikationsbedarf. Bei allen Vorteilen erfordert das gedruckte Buch einen zeitaufwändigen Herstellungsprozess, ist teuer und meist einem zusammenhängenden Thema gewidmet. Für den Austausch aktueller Informationen und die Behandlung von Einzelfragen erweist es sich als ungeeignet. Zu diesem Zweck unterhalten die Gelehrten seit der Renaissance anhaltende und umfangreiche briefliche Korrespondenz, mit der sie zugleich die während des Studiums und anschließender Bildungsreisen geknüpften Kontakte fortsetzen. [13] Diesen gelehrten Briefen fehlen private Mitteilungen; sie enthalten ausschließlich wissenschaftliche Nachrichten, Bemerkungen über Bücher und Abhandlungen kürzerer Themen, mit denen man kein eigenes Buch füllen kann. Die Korrespondenz dient ursprünglich dem bilateralen Austausch; nicht selten lesen die Adressaten wichtige Briefe aber auch im Kreise von Schülern oder Kollegen vor. Manche Gelehrte lassen ihre Briefe oder Briefwechsel drucken und vervielfältigen. Publizierte Abhandlungsbriefe werden im 17. Jahrhundert zum Ausdrucksmittel polyhistorischer Gelehrsamkeit.

Bis Mitte des 18. Jahrhunderts behaupten Briefe und ihre gedruckten Editionen einen festen Platz in der wissenschaftlichen Kommunikation. In den Bibliotheken werden Briefeditionen nicht etwa den Werkausgaben oder dem übrigen biografischen Schrifttum zugeordnet, sondern erhalten eine eigene Systemstelle innerhalb der Aufstellungssystematik – wie später etwa die Zeitschriften. 1746 ist die Zahl der Briefeditionen so stark angeschwollen, dass eine erste Bibliografie der Briefdrucke erscheint. Spätestens Ende des 18. Jahrhunderts haben Briefausgaben dieses Gewicht verloren: die eigenen Epistolae-Abteilungen werden aufgelöst (zum Beispiel in Wolfenbüttel) und dem übrigen biografischen Schrifttum zugeordnet.

Als zentrale Kommunikationskanäle erweisen sich zu Beginn der Frühen Neuzeit also die wissenschaftlichen Monografien und die briefliche Korrespondenz, die gedruckt einer breiteren Öffentlichkeit zugänglich gemacht wird. Die relevante Literatur kann von den Gelehrten zumeist noch selbst erworben und in der Privatbibliothek verwaltet werden, zur Erleichterung der Auswahl können Bibliografien als Hilfsmittel herangezogen werden.

2. Phase: Die wissenschaftliche Zeitschrift (seit Ende des 17. Jahrhunderts)

Im 17. Jahrhundert nehmen die Wissenschaften einen bis dahin ungeahnten Aufschwung. Diese Intensivierung führt bald zu einer Kommunikationskrise, weil die zur Verfügung stehenden Formen des Informationsaustausches völlig überfordert sind. In den gedruckten Briefwechseln aber hatten sich publizistische Funktionen vorgebildet, die später vom Zeitschriftenwesen übernommen wurden. In der Tat entwickelt sich nach dem Vorbild der politischen Zeitung die periodisch erscheinende wissenschaftliche Zeitschrift. Das neue periodische Medium wird dem veränderten Kommunikationsbedarf in mehrfacher Hinsicht gerecht: Es beschleunigt den Informationsaustausch, schafft eine größere Öffentlichkeit, bietet durch Periodizität eine Plattform für den kontinuierlichen schriftlichen Diskurs und erlaubt die Mitteilung von kürzeren Texten, Teilergebnissen und vorläufigen Erkenntnissen. Aus der persönlichen Korrespondenz hat sich damit ein institutionalisierter wissenschaftlicher Austausch entwickelt.

Als Prototyp der wissenschaftlichen Zeitschrift erscheint 1665 das Journal des Sçavants in Paris. [14] Wie wenige Jahre später bei den italienischen Giornali de Letterati (Rom, ab 1668) oder den deutschen Acta Eruditorum (Leipzig, ab 1682) handelt es sich beim Journal des Sçavants um eine Universalzeitschrift. Diese frühen Periodika entsprechen damit dem Renaissanceideal des homo universalis. Sie umfassen im Wesentlichen Forschungsbeiträge, Rezensionen, Nachrichten und Nekrologe.

Vor allem die naturwissenschaftlichen Disziplinen profitieren von der Beschleunigung wissenschaftlicher Kommunikation durch die Zeitschriften. Die Vielzahl der dank neuer empirisch-experimenteller Methoden erzielten Erkenntnisse und Entdeckungen macht eine immer schnellere Verständigung der Forscher untereinander notwendig. Neben die universalwissenschaftlichen Zeitschriften treten gegen Ende des 18. Jahrhunderts die ersten Fachzeitschriften für einzelne Wissenschaftsbereiche. Die Ausdifferenzierung der Wissenschaften vor allem im 19. Jahrhundert führt zur Ablösung auch der wissenschaftlichen Universalzeitschrift durch die wissenschaftliche Fachzeitschrift.

3. Phase: Die wissenschaftliche Universalbibliothek als Instrument zur Bewältigung der Literaturflut (18. und 19. Jahrhundert)

Mit der Monografie seit dem 16. Jahrhundert und der Zeitschrift seit Ende des 17. Jahrhunderts standen der asynchronen wissenschaftlichen Kommunikation Medien zur Verfügung, die den Anforderungen in geradezu idealer Weise gerecht wurden. Die Wissenschaften nahmen einen Aufschwung wie in keiner Zeit zuvor, die neuen Entdeckungen der empirisch-experimentell arbeitenden Naturforschung wurden schnell in Umlauf gebracht und stimulierten weitere Erkenntnisfortschritte. Die gedruckte wissenschaftliche Literatur wuchs lawinenartig an. Klagen über die Literaturflut sind schon von Leibniz und Kant überliefert. Die Phase, in der Gelehrte ihre wissenschaftliche Kommunikation weitgehend autonom organisieren konnten, näherte sich Mitte des 18. Jahrhunderts dem Ende. Benötigt werden nunmehr wissenschaftliche Bibliotheken, die als überindividuelle Gedächtnisinstitutionen wissenschaftliche Literatur aller Art sammeln, auf Dauer speichern, erschließen und den Forschern zur Benutzung bereitstellen.

Leibniz formulierte als einer der Ersten den Bedarf der Gelehrten und entwarf das Konzept einer wissenschaftlichen Universal- und Gebrauchsbibliothek. Hochschulbibliotheken fristeten bis dahin ein kümmerliches Schattendasein, da Universitäten noch nicht Träger wissenschaftlicher Forschung waren. Allein die größeren Hofbibliotheken und mit deutlichem Abstand die Ratsbibliotheken reicher Städte konnten sich aufgrund der finanziellen Ressourcen und der Aufgeschlossenheit ihrer Träger zu wissenschaftlichen Universalbibliotheken entwickeln, ohne allerdings die von Leibniz geforderte und für Wissenschaftler natürlich zwingend erforderliche freie Zugänglichkeit zu garantieren. Mit der Gründung der Universitätsbibliothek Göttingen 1735 jedoch wird der Prototyp einer wissenschaftlichen Universal- und Gebrauchsbibliothek geschaffen, der weltweit und auf lange Sicht Vorbildcharakter erhalten sollte. [15]

Die damals noch gültigen musealen Paradigmen des Bibliothekswesens werden auf Druck der veränderten Wissenschaftsmentalität abgelöst. An die Stelle der Repräsentation und der Kumulation von Herrschaftswissen treten neue Leitideen, die darauf zielen, wissenschaftliche Forschung zu erleichtern. Aus der bis dahin primär bestandsorientierten Institution Bibliothek wird jetzt eine Einrichtung, die zusätzlich Dienstleistungen erbringt. Diese Dienstleistungen bestimmen – zunächst mindestens in Göttingen – alle bibliothekarischen Aktivitäten. Auch die Speicherfunktion wird über den Bestandsaufbau der Dienstleistungsorientierung untergeordnet. Als Richtschnur für die Erwerbung gelten wissenschaftliche Qualität und Aktualität.

Neuerscheinungen, die diese Kriterien erfüllen, werden systematisch erworben und auf Dauer gespeichert. Zu den bibliothekarischen Dienstleistungen gehören neben Sammlung und Archivierung die Erschließung durch Aufstellung und Bibliothekskataloge sowie die Bereitstellung der Materialien zu liberalen Benutzungsbedingungen.

Die Bibliothek als wissenschaftliche Universalbibliothek wird zum unverzichtbaren Arbeitsinstrument der Wissenschaftler, die hier die Literatur finden, die sie benötigen. Als Speicher, Filter, Bereitsteller und Vermittler älterer wie aktueller Literatur wird die Gebrauchsbibliothek fester Bestandteil des wissenschaftlichen Kommunikationsprozesses und löst funktional die privaten Büchersammlungen der Gelehrten ab. Die weiter stetig wachsende Menge wissenschaftlicher Monografien, die zunehmende Zahl der wissenschaftlichen Zeitschriften lässt sich nur in institutionalisierter Form sinnvoll organisieren. Unter diesen Voraussetzungen übernimmt die Bibliothek im Zuge fortschreitender funktionaler Differenzierung wesentliche Aufgaben des Literatur- und Informationsmanagements der asynchronen wissenschaftlichen Kommunikation.

Im 18. und 19. Jahrhundert etablieren sich die Wissenschaften in Staat und Gesellschaft. Diese Institutionalisierung wird begleitet von progredierender Spezialisierung der Wissenschaften. Das seit der Renaissance gepflegte Ideal der Universalgelehrten weicht dem des Spezialisten. Immer mehr Wissenschaftsfächer verselbständigen sich. Die Informations- und Erkenntnisproduktion in den divergierenden Einzeldisziplinen steigt ständig, so dass die Integrationsleistung nicht mehr von einzelnen Individuen erbracht werden kann. Als Träger des kollektiven Gedächtnisses werden die Universalgelehrten von der Universalbibliothek abgelöst. [16]

4. Phase: Abschied von der wissenschaftlichen Universalbibliothek: Systembildung und Kooperation (circa 1890 – Ende des 20. Jahrhunderts)

Nach dem Göttinger Vorbild hatte sich der Typus der wissenschaftlichen Universalbibliothek seit Mitte des 18. Jahrhunderts entfaltet. Für mehr als einhundert Jahre reichte dessen Leistungsfähigkeit aus, um den Anforderungen gerecht zu werden. Die Spezialisierung und die Institutionalisierung der Wissenschaften aber setzte sich fort, und auch die wissenschaftliche Kommunikation und Produktion steigerte sich weiter immens. Gegen Ende des 19. Jahrhunderts waren die Grenzen der wissenschaftlichen Universalbibliothek unverkennbar erreicht. Eine einzelne Bibliothek war außerstande, das Informationsmanagement für alle wissenschaftlichen Disziplinen an einem Ort zu leisten. Es erschienen mittlerweile derart viele wissenschaftliche Publikationen sowohl in monografischer als auch in periodischer Form, dass sich der Anspruch nicht mehr erfüllen ließ, alle relevanten Neuerscheinungen in allen Hochschulbibliotheken bereit zu halten. Aus Enttäuschung darüber erweiterten die Lehrstuhlinhaber ihre Handapparate um hochspezielle Forschungsliteratur, die ihrer Meinung nach über die zentrale Universitätsbibliothek nicht zu beschaffen war.

Im Laufe der Zeit entstanden so an den Universitäten die dezentralen Instituts- oder Seminarbibliotheken, die von Dozenten und ihren Hilfskräften betreut wurden. Damit war als weiterer Bibliothekstyp im Kontext der wissenschaftlichen Kommunikation die wissenschaftliche Spezialbibliothek entstanden. Die Institutsbibliotheken verfügten jedoch über ein gravierendes Manko: Sie waren ausschließlich auf den spezifischen lokalen Bedarf ausgerichtet und kooperierten weder mit der zugehörigen Universitätsbibliothek noch mit vergleichbaren Spezialbibliotheken anderer Universitäten. Spezialisierung und Arbeitsteilung jedoch führen zu Fragmentierung und Dekomposition, wenn die sich verselbständigenden Teile nicht durch Kooperation und Koordination in systematische Zusammenhänge eingebunden werden.

Aber auch die Universitätsbibliotheken selbst mussten sich mit der Tatsache auseinandersetzen, dass ihre konzeptionelle Grundlage offenbar nicht mehr zeitgemäß war. Auf Initiative der Ministerialbürokratie begann zunächst in Preußen Ende des 19. Jahrhunderts ein langwieriger Prozess der Systembildung. [17] Durch Koordination und Kooperation wurden die bis dahin unverbunden operierenden Universalbibliotheken zu einem bibliothekarischen System der Literaturversorgung verknüpft. Dazu gehörte zunächst die Vereinheitlichung der Erschließungstechniken, damit die Teile des Systems untereinander kompatibel wurden; ferner mussten Absprachen hinsichtlich des Bestandsaufbaus getroffen, Regelungen zur Literaturausleihe von Bibliothek zu Bibliothek gefunden und ein zentraler Nachweis der dem System angehörenden Bibliotheksbestände in einem Gesamtkatalog erbracht werden. Bis heute bestehen die Kernelemente regionaler, nationaler oder auch internationaler Bibliothekssysteme aus Regelwerken, Sondersammelgebieten, dem Literaturaustausch via Leihverkehr bzw. Dokumentlieferung und einem Gesamtkatalog.

Die Funktionalität des kollektiven Gedächtnisses wird damit ein weiteres Mal verlagert. Zunächst ging sie von besonders geeigneten menschlichen Individuen, den Universalgelehrten, auf die Institution Bibliothek über. Nun sind auch die einzelnen Universalbibliotheken infolge wachsender Komplexität überfordert. Durch arbeitsteilige Kooperation entsteht aus dem isolierten Nebeneinander der Universalbibliotheken ein Bibliothekssystem, das gewissermaßen als virtuelle Universalbibliothek fungiert und derart das kollektive Gedächtnis der Scientific Community organisiert.

5. Phase: Dokumentation als Ergänzung und Erweiterung bibliothekarischen Informationsmanagements (circa 1930 – Ende des 20. Jahrhunderts)

Um asynchrone wissenschaftliche Kommunikation ordnen und organisieren zu können, standen frühzeitig zwei Techniken zur Verfügung: die bibliografische Verzeichnung und die Sammlung der Werke selbst. Seit Mitte des 16. Jahrhunderts begann man, die erschienenen Werke systematisch in Universalbibliografien zu verzeichnen. Erst als die Gelehrten aufgrund der ständig wachsenden Zahl der Publikationen nicht mehr in der Lage waren, die für ihre Zwecke benötigten Werke selbst zu erwerben und in ihren Privatbibliotheken bereit zu halten, entstand im 18. und 19. Jahrhundert die Universalbibliothek als Institution. In der Zwischenzeit machte die erdrückende Materialfülle vollständige bibliografische Verzeichnung unrealistisch. Zudem stieg der Bedarf an Ergänzung der bloßen Verzeichnung um bewertende Elemente. Fachlich spezialisierte Bibliografien entstanden ebenso wie Fach- und Literaturzeitschriften, in denen über die reine Anzeige hinaus der Inhalt der Bücher referiert und rezensiert wurde. Zu den frühesten Beispielen zählt das Referateblatt „Medizinische Bibliothek“, das ab 1751 erschien. Mit dem im Titel enthaltenen Begriff „Bibliothek“ wird ein weiteres Mal darauf verwiesen, dass es sich bei referenzierenden Bibliografien im Grunde um „virtuelle Bibliotheken“ handelt. Sinnvoll sind bibliografische Angaben nur unter der Voraussetzung, dass die verzeichneten Werke in einer Universal- oder später einer Spezialbibliothek zugänglich sind.

Die bei den Bibliografien bereits seit dem 18. Jahrhundert zu beobachtende Tendenz, durch fachliche Beschränkung auf die Spezialisierung der Wissenschaften zu reagieren, vollzieht sich seitens der Bibliotheken mit dem Abschied von der Universalbibliothek erst ab Ende des 19. Jahrhunderts. Offenbar werden die für die bibliografische Verzeichnung beobachtbaren Entwicklungsstadien mit zeitlicher Verzögerung auf der Ebene der institutionalisierten Bibliotheken nachvollzogen.

Im 20. Jahrhundert beschleunigte sich die Informationszirkulation durch den Aufstieg der technischen und naturwissenschaftlichen Disziplinen. Immer häufiger wurden Forschungsergebnisse in Zeitschriften und nicht mehr in Monografien publiziert. Referateblätter und Fachbibliografien hatten schon im 19. Jahrhundert unselbständig erschienene Publikationen verzeichnet, das heißt Aufsätze und Artikel aus Zeitschriften und Sammelwerken. Bibliotheken aber betrieben ihr Informationsmanagement weiter auf der Ebene der bibliografischen Einheit. Formal und sachlich erschlossen wurden in den Katalogen Monografien und Zeitschrifttitel, keineswegs die einzelnen Aufsätze. Zur Befriedigung des zusätzlichen Bedarfes an Komplexitätsreduktion durch auswählende, referierende und bewertende Verzeichnung vor allem in den naturwissenschaftlichen und technischen Disziplinen entstand die Dokumentation als eigenständige Sparte. [18]

Dokumentation entwickelt sich auf der Grundlage bibliothekarischer und bibliografischer Techniken, die medial und funktional in mehrfacher Hinsicht erweitert werden. Der fachlich-thematische Verzeichnungsbereich allerdings ist zumeist viel enger begrenzt als selbst in Spezialbibliotheken. Unter Dokumentation ist sowohl die Versorgung mit speziell aufbereiteten Informationen zum Beispiel durch periodisch erscheinende Dienste (zunächst in Kartei oder Heftform) zu verstehen, als auch die Einrichtung selbst, in der die erschlossenen Materialien zumindest für eine Übergangsphase gespeichert und bereitgehalten werden. Die Berichterstattung erfolgt in kleinsten Zeitstufen, um damit der Beschleunigung der wissenschaftlichen Kommunikation insgesamt Rechnung tragen zu können. Dokumentation umfasst auch ephemere Schriftengattungen, die von Bibliotheken unter Qualitätsgesichtspunkten meist nicht gesammelt werden. Dazu gehört die klassische Graue Literatur wie zum Beispiel Produktkataloge, Firmenschriften, Plakate, Preprints usw., aber auch Abbildungen, Fotos oder museale Objekte, die im Bedarfsfall erfasst werden. Schließlich werden Publikationen mit dokumentarischen Methoden erheblich tiefer erschlossen als mit bibliothekarischen. Grundsätzlich orientiert sich die Erschließung an Sinneinheiten und nicht an dem formalen Kriterium der bibliografischen Einheit. Verzeichnet, referiert und bewertet werden also einzelne Zeitungsartikel und Zeitschriftenaufsätze, aber auch spezielle Sinneinheiten aus Monografien.

Im 20. Jahrhundert stützt sich die wissenschaftliche Kommunikation weiterhin auf bibliografische und bibliothekarische Formen des Informationsmanagements. Dokumentarische Techniken treten allerdings ergänzend hinzu. Da Schnelligkeit und Nutzerorientierung in der Dokumentation einen höheren Stellenwert besitzen, werden EDV, Computer und Netzwerke dort sehr viel früher erprobt und eingesetzt als im Bibliothekswesen.

6. Phase: Digitalisierung und telekommunikative Vernetzung (seit Ende des 20. Jahrhunderts)

Mit digitalen Medien und telekommunikativer Vernetzung beginnt auch für die wissenschaftliche Kommunikation ein völlig neues Kapitel. [19] Der damit verbundene Umbruch wird nicht selten verglichen mit der Revolution, die von der Erfindung des Buchdrucks ausgegangen ist. [20]

Die Entwicklung der Wissenschaften und der Erkenntnisproduktion führte in der zweiten Hälfte des 20. Jahrhunderts zu einer neuerlichen Kommunikationskrise. [21] Der Publikationsausstoß stieg inflationär, die Umschlaggeschwindigkeit der Forschungsergebnisse wuchs entsprechend. Diese noch vor der eigentlichen digitalen Revolution konstatierbaren Phänomene steigerten sich in den digitalen medialen Kontexten erneut um ein Vielfaches. Digitale Medien und das Internet erleichtern die Produktion und Distribution wissenschaftlicher Texte in bis dahin unvorstellbarer Weise. Für die Langzeitspeicherung, die Erschließung, Aufbereitung und Nutzung entstehen durch das Mengenwachstum und die spezifischen Eigenschaften der digitalen Medien selbst völlig neue Herausforderungen.

Die damit veränderten Parameter wissenschaftlicher Kommunikation können hier nur angedeutet werden. Das multimediale Potential digitaler Medien stärkt die Einsatzmöglichkeiten ikonischer und auditiver Medien. Die prinzipielle Vernetzung wissenschaftlicher Publikationen untereinander, die in der Printära meist durch Fußnoten und Literaturverzeichnisse angezeigt wurde, kommt durch interne und externe Verlinkung in radikalisierter Form zum Vorschein. [22] Von besonderer Qualität ist die Tatsache, dass digitale Publikationen leicht in die eigene Arbeitsumgebung importiert und ohne Medienbruch weiterverarbeitet werden können. Gefördert werden dadurch auch Formen der Kooperation über regionale und institutionelle Grenzen hinweg. Eigene oder fremde Texte können problemlos überarbeitet, gegengelesen, ergänzt oder aktualisiert werden.

Digitale Speicherung und Publikation im Netz haben neue Medientypen hervorgebracht. Zu nennen sind im Zusammenhang mit wissenschaftlicher Kommunikation zum Beispiel Volltextdatenbanken (dazu zählen etwa auch Preprintserver), Elektronische Zeitschriften (E-Journals), Diskussionslisten (E-Mail-basierte Kommunikationsforen), Weblogs (Nachrichtenbörsen), Homepages usw. Hervorzuheben ist darüber hinaus die gegenüber den Printmedien exorbitant verbesserte Retrievalfähigkeit im digitalen Kontext.

Digitale Medien und Internet erweitern und verändern die Art und Weise, wie Wissenschaftler miteinander kommunizieren. Aber mit den Leitmedien verändert sich auch die Kommunikationskultur. Wenngleich – wie bereits angedeutet – diese Modifikationen vermutlich erst in Ansätzen erkennbar sind, soll und muss aktuell nach Methoden und Techniken gesucht werden, die den neuen Anforderungen gerecht werden können.

Infrastrukturen und Institutionen, die zur Optimierung der wissenschaftlichen Kommunikation in der Informationsgesellschaft geeignet sind, müssen nach dem gegenwärtigen Erkenntnisstand über mindestens vier Kernmerkmale verfügen. Sie müssen

  1. hybride Einrichtungen sein
  2. Aufgaben des Informationsmanagements übernehmen
  3. Aufgaben des Wissensmanagements erfüllen
  4. ein funktional differenziertes und geografisch segmentiertes System bilden.
a. Hybrideinrichtungen

Wissenschaftliche Kommunikation wird sich auf unabsehbare Zeit sowohl der digitalen als auch der gedruckten Medien bedienen. Zum einen ist eine vollständige Retrodigitalisierung sämtlicher überlieferter und damit potentiell relevanter Publikationen illusorisch. Zum anderen werden auch in Zukunft weiterhin gedruckte wissenschaftliche Publikationen erscheinen (Lehrbücher, lange Abhandlungen usw.). Unter diesem Aspekt also werden Bibliotheken auf jeden Fall auch in Zukunft an der Informationsversorgung der Scientific Community mittels gedruckter Publikationen beteiligt. In Großbritannien hat man dieser Einsicht frühzeitig Rechnung getragen und das Konzept der Hybrid Library entwickelt.

b. Informationsmanagement

Wissenschaftler werden auch weiterhin angewiesen sein auf Institutionen, die ein effizientes Informationsmanagement garantieren. Dazu gehört, dass die in der Printumgebung von der Universalbibliothek und später von den in einem arbeitsteiligen System kooperierenden Bibliotheken ausgeübten Funktionalitäten auf digitale Medien und das Internet ausgedehnt werden. [23] Relevante Publikationen und Informationen müssen unabhängig vom Trägermedium gesichtet, gesammelt, gespeichert, erschlossen und bereitgestellt werden. Vor allem die Netzpublikationen stellen spezifische und neue Anforderungen an das Informationsmanagement. Gleichzeitig bietet das Internet jedoch erheblich verbesserte Möglichkeiten, Informationsdienstleistungen zu erbringen und zu verbreiten.

Im Bibliothekswesen ist der damit verbundene Paradigmenwechsel auf die Formel from ownership to access gebracht worden. Dabei wird verkannt, dass im digitalen Umfeld Speicherinstitutionen noch stärker benötigt werden als zuvor. Das Internet selbst ist kein verlässlicher Speicher. Gerade wissenschaftliche Kommunikation aber ist darauf angewiesen, dass eine Speicherinstitution diejenigen Publikationen und Informationen des Internet auswählt, auf Dauer speichert, erschließt und bereitstellt, die für wissenschaftliche Zwecke von Belang sind. Diese Aufgaben können unter den je spezifischen fachlichen Gesichtspunkten nur arbeitsteilig erledigt werden. Statt from ownership to access muss es also richtig heißen ownership and access. Dabei reicht es nicht, externe Informationen lediglich in Form schlichter Linklisten, die irreführenderweise allzu oft als „Portal“ bezeichnet werden, zugänglich zu machen. Gefordert ist die kooperative sachliche Erschließung nach vereinbarten übergreifenden Standards und unter Umständen eine zusätzliche Erschließung nach lokalem Bedarf. Da Netzpublikationen prinzipiell dynamisch und zudem anfällig sind für unbeabsichtigte Veränderungen oder gar Verfälschungen, muss im Rahmen des Informationsmanagements auch die Authentizität der Dokumente unter Angabe des Speicherzeitpunktes garantiert werden. Das Informationsmanagement wissenschaftlicher Netzpublikationen zielt also idealerweise auf Qualitätsgarantie durch Auswahl, kooperative Langzeitarchivierung, differenzierte Erschließung unter fachlichen Gesichtspunkten, komfortablen Zugang und Authentizitätsgarantie. Die in Großbritannien entwickelten Subject Gateways wie auch die in Deutschland begründeten Virtuellen Fachbibliotheken sehen manche dieser Funktionalitäten vor.

c. Wissensmanagement

Das inflationäre Wachstum sowohl der insgesamt verfügbaren als auch der für die Wissensproduktion in der Informationsgesellschaft benötigten Informationen überfordert das bloße Informationsmanagement. Hinzutreten müssen Aufgaben des Wissensmanagements, die Mitte des 20. Jahrhunderts im Rahmen dokumentarischer Tätigkeiten ansatzweise ausgeprägt worden waren. [24] Wissensmanagement setzt die dokumentarische Perspektive insofern fort, als ebenfalls eine erweiterte Materialbasis zugrunde gelegt und tiefer erschlossen wird als früher in bibliothekarischen Kontexten. Im ökonomischen Sektor wird Wissensmanagement auf der Organisationsebene, das heißt im Unternehmen betrieben. Im Wissenschaftssektor ist der Bezugsbereich entweder eine Disziplin bzw. Teildisziplin oder aber eine Hochschul- bzw. Forschungseinrichtung. Während beim Informationsmanagement das Sammeln, Ordnen, Aufbewahren und Bereitstellen im Vordergrund steht, liegt der Akzent des Wissensmanagements auf dem Aufbereiten und Vermitteln von Informationen sowie der Organisation und Betreuung von Bearbeitungs-, Bewertungs- und Publikationsforen. Diese neuen Aspekte werden präziser bezeichnet als Personalisierung, Kollaboration und Validierung.

Personalisierung [25] setzt voraus, dass Nutzer ihr individuelles Interessenprofil zum Beispiel anhand vorgegebenen kontrollierten Vokabulars definieren und jederzeit modifizieren können.

Auf dieser Grundlage kann die Informationseinrichtung individuell zugeschnittene Informationsprodukte und Mehrwertdienstleistungen anbieten und in einer intelligenten Kombination von Push- und Pulldiensten einen wirksamen Filter zur Vermeidung des berüchtigten information overload bilden. Personalisierungsoptionen werden zum Beispiel eingesetzt bei individualisierten Current-Contents-Diensten, SDI-Produkten (Selective Dissemination of Information) und bei so genannten Intelligenten Agenten. Unternehmen des E-Commerce und wirkliche Internetportale (z.B. MyYahoo! [26] ) bieten Personalisierungstools schon seit Jahren an.

Kollaboration umfasst mehrere Aspekte: die Standardisierungsfunktion, die Verlagsfunktion und so genannte Community Building Services.

  • Damit Zusammenarbeit und Austausch verbessert werden, sollten Standards entwickelt und verbreitet werden. Die Informationseinrichtung bietet dafür Downloadformulare an, die eine einheitliche und mit den Anwendern abgestimmte Generierung zum Beispiel von Homepages erlauben; ferner stehen den Autoren so genannte Autorentools zur Erzeugung von Metadaten zur Verfügung. Letztere werden im Bedarfsfall von den Informationsspezialisten ergänzt oder korrigiert.
  • Informationseinrichtungen können im digitalen Umfeld auch verlegerische Funktionen übernehmen. Uploadformulare animieren die Autoren, ihre Preprints, Projektberichte, Vorträge, Vorlesungsskripten oder sonstigen Hochschulschriften über die Informationseinrichtung zu publizieren. Dort werden sie in Volltextdatenbanken zur Benutzung und Bewertung bereitgestellt. Hinsichtlich digitaler Dissertationen haben viele Hochschulbibliotheken eine derartige verlegerische Funktion bereits übernommen.
  • Zu den Community Building Services gehört ein umfassendes Angebot an aufbereiteten Informationen, die kommunikationsfördernd sind. Dazu zählen zum Beispiel eine Expertendatenbank, eine Projektdatenbank, eine Konferenzdatenbank, eine Datenbank zu Fachbereichen, Instituten und sonstigen Forschungsstätten einer Disziplin mit Links zu den jeweiligen möglichst normierten Homepages, eine Aus- und Weiterbildungsdatenbank, eine fachliche Suchmaschine, in der die Websites der Wissenschaftler, der Institutionen und zum Beispiel der relevanten Zeitschriften und Verlage so intensiv wie möglich indexiert sind. Wissenschaftler, Fachbereiche, Fachgesellschaften, Verlage und sonstige Angehörige der Scientific Community sollen an der Erhebung dieser Informationen beteiligt werden. Die Informationseinrichtungen müssen natürlich dafür Sorge tragen, dass die Daten zuverlässig, möglichst aktuell und vollständig sind. Damit diese Angebote wirklich kollaborativen Charakter erhalten, muss die Informationseinrichtung ferner Foren anbieten, die alle Beteiligten zur themenzentrierten Kommunikation stimuliert. Über den thematischen Bezug und die Moderation dieser disziplin- bzw. profilspezifische Diskussionslisten bestimmen natürlich die Teilnehmer selbst. Entscheidend ist allein, dass diese Kommunikationskanäle über die Informationseinrichtung angeboten, erschlossen und langfristig archiviert werden.

Validierung ergibt sich unmittelbar aus den kollaborativen Angeboten. In den über die Informationseinrichtung zugänglichen Foren können und sollen Bewertungen vorgenommen werden. So kann etwa über die Aufnahme von Materialien aller Art in den Quellenpool der Informationseinrichtung befunden werden. Die Diskussion und Bewertung durch die definierte Öffentlichkeit kann unter Umständen etwa dazu führen, dass ein Informationsangebot entfernt, hinzugefügt, ergänzt oder korrigiert wird. Bewertungskriterien und –verfahren müssen transparent und kontrollierbar sein. Das für das Qualitätsmanagement wissenschaftlicher Kommunikation so wichtige Verfahren des Peer-Review wird so auf eine breitere Basis gestellt und kann gleichwohl schneller vonstatten gehen.

d. Systembildung

Angemessene Infrastrukturen zur optimalen Unterstützung wissenschaftlicher Kommunikation in der Informationsgesellschaft können weder lokaler noch zentraler Natur sein. Erst im Zusammenspiel lokalen und überregionalen Informations- und Wissensmanagements, in der Koordinierung disziplinspezifischer und interdisziplinär verkoppelnder Informationseinrichtungen lässt sich ein akzeptables Niveau erreichen. Das Informationssystem muss polyhierarchisch organisiert sein. Hierarchiebildend sind sowohl wissenschaftssystematische, institutionelle als auch geografische Aspekte.

Die historische und soziologische Analyse wissenschaftlicher Kommunikation legt nahe, dass sich der Prozess funktionaler Differenzierung auch in der Informationsgesellschaft fortsetzt. Techniken und Methoden zur Unterstützung wissenschaftlicher Kommunikation werden immer komplizierter, differenzierter, spezialisierter und leistungsfähiger.

Die oben skizzierten Leistungsmerkmale entsprechen nach dem gegenwärtig möglichen Erkenntnisstand den Anforderungen, die wissenschaftliche Kommunikation in der Informationsgesellschaft an effiziente Informationsinfrastrukturen richtet. Informationseinrichtungen mit diesen Funktionalitäten können in Anlehnung an angloamerikanische Ansätze als Wissenschaftsportale [27] bezeichnet werden. Abzugrenzen ist dieses Portalkonzept allerdings von dem inflationären Wortgebrauch, der die ursprüngliche Bedeutung aus Gründen des Marketings oder der Ignoranz verfälscht. Portal meint mehr und anderes als Webkatalog oder Website. [28]

Zu unterscheiden sind horizontale und vertikale sowie Meta-Portale. Während horizontale Portale thematisch nicht spezialisiert sind, beschränken sich vertikale Portale auf Fächer, Disziplinen oder Teilaspekte. Über Meta-Portale werden einzelne horizontale oder vertikale Portale miteinander vernetzt. Bei den hier behandelten Wissenschaftsportalen handelt es sich also um vertikale Portale, die sich auf einzelne Disziplinen oder deren Teilaspekte richten, und die selbst etwa die Portale von Verbänden, Institutionen oder Firmen einbinden. Über interdisziplinäre Meta-Portale müssen die vertikalen Wissenschaftsportale zusammengeführt werden. Betreiber von Wissenschaftsportalen können sein Bibliotheken, Wissenschaftliche Fachgesellschaften, Verlage, Online-Archive, Verbände usw.

Wenn Bibliotheken bereit sind, vertraute Paradigmen auf den Prüfstand zu stellen, sich auf den neuen Bedarf einzustellen, neuartige Aufgaben zu übernehmen und bislang ungewohnte Dienstleistungen anzubieten, die Kooperation mit Wissenschaftlern und ihren Fachgesellschaften zu verstärken, könnten bibliothekarische Wissenschaftsportale die Infrastruktur für die wissenschaftliche Kommunikation der Zukunft werden. [29] Diese Entwicklung wird begleitet werden müssen von grundsätzlichen organisatorischen Veränderungen. Hochschulintern etwa müssen Bibliotheken mit Rechenzentren und Medienzentren verschmolzen werden. Institutsbibliotheken und zentrale Universitätsbibliotheken müssen durch funktionale Einschichtigkeit zusammengeführt werden, damit Redundanzen beseitigt werden können. Engere Kooperation und Verzahnung müssen Bibliotheken ferner suchen mit weiteren Einrichtungen des Informationssektors wie Archiven, Museen oder kommerziellen Anbietern. Wenn Bibliotheken allerdings nicht die nötige Dynamik und die erforderliche Anpassungsfähigkeit an den Tag legen, werden Wissenschaftsportale von anderen Betreibern entwickelt und angeboten werden. Infrage kämen dafür etwa Verbundzentralen oder sonstige Dienstleister, wissenschaftliche Fachgesellschaften, Interessenverbände, Verlage, Hosts oder weitere kommerzielle Träger.

Zusammenfassung

Als bestimmende Faktoren für die Geschichte der wissenschaftlichen Kommunikation erweisen sich die kontinuierliche Beschleunigung der Erkenntnisproduktion, das Wachstum der verfügbaren Informationen und der Anstieg der Publikationen. Die reale Entwicklung dieser Phänomene hängt wesentlich ab von den zur Verfügung stehenden Medien und ihrer kulturellen Bewältigung.

Informationsorganisation und –aufbereitung wird ursprünglich von den Wissenschaftlern individuell geleistet. Aufgrund steigenden Volumens müssen diese Aufgaben an dafür geeignete Institutionen delegiert werden. Bibliotheken sind seither integrale Bestandteile wissenschaftlicher Kommunikation. Wissenschaftliche Gebrauchsbibliotheken haben als Speicher- und Dienstleistungseinrichtungen von Beginn an zwei Funktionen, die nicht voneinander zu trennen sind und nicht etwa in Opposition zueinander stehen. Insofern erweist sich die Gegenüberstellung von Bestandsorientierung und Benutzer- oder Dienstleistungsorientierung als Scheinalternative. Ohne geeigneten Bestand, der im Hinblick auf seine spätere Nutzung aufgebaut und erschlossen wird, können keine seriösen Informationsdienstleistungen für die Wissenschaften erbracht werden. Dies gilt in der Printwelt ebenso wie im Kontext digitaler und vernetzter Medien.

Die Geschichte der Wissenschaften ist geprägt von zwar nicht linear, aber doch kontinuierlich wachsender Spezialisierung und Arbeitsteilung. Diese Entwicklung spiegelt sich in der Entfaltung eines arbeitsteilig organisierten Systems des bibliothekarischen Informationsmanagements. Der in der Informationsgesellschaft abermals vervielfachten Komplexität kann nur entsprochen werden, wenn die Kommunikationsinfrastruktur eine adäquate systematische Ausdifferenzierung aufweist. Informationseinrichtungen werden also auch in der Informationsgesellschaft lokal speichern, erschließen usw. und ihre Angebote in ein arbeitsteilig organisiertes System einbinden. Auch der riesige Bedarf an personalisierten Informationsdienstleistungen kann eher dann befriedigt werden, wenn die fachliche Spezialisierung es den Anbietern erleichtert, sich auf die individuellen und fachlichen Kontexte der Nutzer einzustellen.

Wissenschaftliche Kommunikation im digitalen und telekommunikativ vernetzten Umfeld ist auf spezifische und leistungsfähige Formen des Informations- und Wissensmanagements angewiesen. Mit der Konzeption des Wissenschaftsportals und dem Entwurf eines funktional differenzierten und geografisch segmentierten Systems von Portalen kann dem deutlich gestiegenen und qualitativ veränderten Bedarf der Wissenschaftler begegnet werden. Die Entwicklung neuer Speichermedien, neuer Kommunikationskanäle und die Entfaltung veränderter Kommunikationskulturen haben Bibliotheken und ihre konzeptionellen Grundlagen schon immer verändert. Bibliotheken bieten auch deshalb gute Voraussetzungen, um in Kooperation mit Wissenschaftlern und ihren Organisationen sowie Verbänden zu Trägern und Betreibern der Wissenschaftsportale zu werden.

Prof. Dr. H ermann Rösch lehrt am Institut für Informationswissenschaft der Fachhochschule zu Köln.


[1] Zur Kommunikationskultur vgl. u.a. Liessmann, Konrad Paul, Verbinden, Verstehen, Verstören. Über einige Aporien der Kommunikation im Zeitalter der Mitteilungstechnologien, in: Maier-Rabler, Ursula; Latzer, Michael (Hgg.), Kommunikationskulturen zwischen Kontinuität und Wandel. Universelle Netzwerke für die Zivilgesellschaft, Konstanz 2001, S. 15-27.

[2] Vgl. dazu u.a. Frühwald, Wolfgang, Das Ende der Gutenberg-Galaxis. Über den Einfluß des Mediums auf den Inhalt wissenschaftlicher Publikationen, in: Leviathan 26,3 (1998), S. 305-318; Kytzler, Bernhard, Scriptura Europaea Antiquissima. Tradition und Schrift im frühen Europa, in: Koch, Hans-Albrecht (Hg.), Welt der Information. Wissen und Wissensvermittlung in Geschichte und Gegenwart, Stuttgart 1990, S. 1-13; Poser, Hans, Geisteswissenschaften und neue Medien. Eine wissenschaftsphilosophische Perspektive, in: Gesellschaft für das Buch e.V. (Hg.), Wissenschaftspublikation im digitalen Zeitalter. Verlage, Buchhandlungen und Bibliotheken in der Informationsgesellschaft. Vorträge eines Symposiums am 8. und 9. Februar 2001 in Berlin, Wiesbaden 2001, S. 55-72; Krup-Ebert, Agnes, Geschichte und Perspektiven der Information. Zum Stand einer Diskussion, in: Koch (wie Anm. 2), S. 212-216.

[3] Vgl. Mittelstraß, Jürgen, Der Bibliothekar als Partner der Wissenschaft, in: Zeitschrift für Bibliothekswesen und Bibliographie 47,3 (2000), S. 243-253.

[4] Vgl. dazu grundlegend Timm, Albrecht, Einführung in die Wissenschaftsgeschichte, München 1973; Mittelstraß, Jürgen, Der wissenschaftliche Verstand und seine Arbeits- und Informationsformen, in: Die unendliche Bibliothek. Digitale Information in Wissenschaft, Verlag und Bibliothek, Wiesbaden 1996, S. 25-29; Hömberg, Walter, Glashaus oder Elfenbeinturm? Zur Entwicklung und zur Lage der Wissenschaftskommunikation, in: Aus Politik und Zeitgeschichte. B 28, 1980, S. 37-46; Grötschel, Martin; Lügger, Joachim, Wissenschaftliche Kommunikation am Wendepunkt, in: Zeitschrift für Bibliothekswesen und Bibliographie. 42,3 (1995), S. 287-312; Hagner, Michael, Ansichten der Wissenschaftsgeschichte, in: Hagner, Michael (Hg.), Ansichten der Wissenschaftsgeschichte, Frankfurt am Main 2001, S. 7-39.

[5] Vgl. Frühwald, Wolfgang, Gutenberg Galaxis im 21. Jahrhundert. Die wissenschaftliche Bibliothek im Spannungsfeld von Kulturauftrag und Informations-Management: Plenarvortrag beim 92. Deutschen Bibliothekartag am 9. April 2002 in Augsburg, in: Zeitschrift für Bibliothekswesen und Bibliographie, 49,4 (2002), S. 187-194.

[6] Ausschließlich aus Gründen des größeren Lesekomforts wird im Folgenden das generische Maskulinum verwendet.

[7] Vgl. etwa Schmidt, Siegfried, Kulturgutbibliotheken – wissenschaftliche Bibliotheken im Spannungsfeld zwischen Benutzung und Bewahrung des kulturellen Erbes, in: Analecta Coloniensa. 2 (2002), S. 35-64.

[8] Vgl. etwa Kuhlen, Rainer, Wie viel Virtualität soll es denn sein? Zu einigen Konsequenzen der fortschreitenden Telemediatisierung und Kommodifizierung der Wissensmärkte für die Bereitstellung von Wissen und Information durch Bibliotheken. Teil I, in: Buch und Bibliothek. 54,10/11 (2002), S. 621-632; Teil II, in: Buch und Bibliothek. 54,12 (2002), S. 719-724.

[9] Vgl. Zimmerli, Walther Christoph, Auf dem Weg zur mediengesteuerten Gesellschaft. Die Zukunft von Kommunikation und Informationsverarbeitung, in: Koch (wie Anm. 2), S. 204-211.

[10] Vgl. Cahn, Michael, Der Druck des Wissens. Geschichte und Medium der wissenschaftlichen Publikation ; Ausstellung vom 16. Juli bis 31. August 1991 / Staatsbibliothek Preußischer Kulturbesitz, Wiesbaden 1991.

[11] Vgl. Giesecke, Michael, Der Buchdruck in der frühen Neuzeit. Eine historische Fallstudie über die Durchsetzung neuer Informations- und Kommunikationstechnologien, Frankfurt am Main 1991; vgl. Eisenstein, Elizabeth, The Printing Press as an Agent of Change. Communications and Cultural Transformations in Early Modern Europe. 2 Bde, Cambridge 1979.

[12] Vgl. Müller, Jan-Dirk, Universalbibliothek und Gedächtnis. Aporien frühneuzeitlicher Wissenskodifikation bei Conrad Gesner. Mit einem Ausblick auf Antonio Possevino, Theodor Zwinger und Johann Fischart, in: Pfeil, Dietmar; Schilling, Michael; Strohschneider, Peter; in Verbindung mit Frühwald, Wolfgang (Hgg.), Erkennen und Erinnern in Kunst und Literatur, Tübingen 1998, S. 285-309.

[13] Vgl. Ammermann, Monika, Gelehrten-Briefe des 17. und frühen 18. Jahrhunderts, in: Fabian, Bernhard; Raabe, Paul (Hgg.), Gelehrte Bücher vom Humanismus bis zur Gegenwart, Wiesbaden 1983, S. 81-96.

[14] Vgl. Dann, Otto, Vom Journal des Sçavants zur wissenschaftlichen Zeitschrift, in: Fabian; Raabe (wie Anm. 13), S. 63-80.

[15] Vgl. Fabian, Bernhard, Göttingen als Forschungsbibliothek im achtzehnten Jahrhundert. Plädoyer für eine neue Bibliotheksgeschichte, in: Raabe, Paul (Hg.), Öffentliche und private Bibliotheken im 17. und 18. Jahrhundert, Raritätenkammern, Forschungsinstrumente oder Bildungsstätten? (Wolfenbütteler Forschungen 2), Bremen 1977, S. 209-239.

[16] Vgl. dazu etwa Strohschneider, Peter, Über das Gedächtnis der Bibliothek, in: Zeitschrift für Bibliothekswesen und Bibliographie 44,4 (1997), S. 346-357.

[17] Vgl. dazu in kontroverser Bewertung u.a. Fabian, Bernhard, Zur Reform des preußisch-deutschen Bibliothekswesens in der Ära Althoff, in: Ders. (Hg.), Der Gelehrte als Leser. Hildesheim 1998, S. 149-174; Schmitz, Wolfgang, Deutsche Bibliotheksgeschichte (Germanistische Lehrbuchsammlung 52), Bern 1984, Jochum, Uwe, Kleine Bibliotheksgeschichte, 2. Aufl. Stuttgart 1999.

[18] Vgl. dazu Richards, Pamela Spence, Die historische Rolle von Bibliotheken in der wissenschaftlichen Kommunikation, in: Bibliothek, Forschung und Praxis, 11,1 (1987), S. 3-7.

[19] Vgl. Füssel, Stephan, Geisteswissenschaften und digitale Medien. Von der Medienkonkurrenz zur Mediensymbiose, in: Wissenschaftspublikation im digitalen Zeitalter (wie Anm. 2), S. 19-41.

[20] Vgl. z.B. de Kerckhove; Derrick; Medien des Wissens. Wissensherstellung auf Papier, auf dem Bildschirm und Online; In: Maar; Christa; Obrist, Hans Ulrich; Pöppel, Ernst (Hgg.), Weltwissen, Wissenswelt, Köln 2000, S. 49-65.

[21] Vgl. etwa Raberger, Reinhard, Die Zähmung der Informationsflut. Strategien und Methoden bei der Orientierung im Datendschungel, in: Kommunikationskulturen zwischen Kontinuität und Wandel, Konstanz 2001, S. 299-315.

[22] Vgl. Neverla, Irene, Das Netz. Eine Herausforderung für die Kommunikationswissenschaft, in: Kommunikationskulturen zwischen Kontinuität und Wandel, Konstanz 2001, S. 29-46.

[23] Vgl. dazu etwa Ball, Rafael, Bibliothek und Wissenschaft im Zeichen der Wertschöpfung, in: BIT-online 5,3 (2002), S. 203-212; Bilo, Albert, Szenario 2010. Bibliothekarische Relationen, in: Wissenschaftspublikation im digitalen Zeitalter (wie Anm. 2), S. 165-190; Raffelt, Albert; Sühl-Strohmenger, Wilfried, Neue Informationsstruktur an den Universitäten?, in: BIT-online 5,3 (2002), S. 233-244.

[24] Zum Wissensmanagement vgl. vor allem Willke, Helmut, Systemisches Wissensmanagement. Mit Fallstudien von Carsten Krück, Susanne Mingers, Konstanze Piel, Torsten Strulik und Oliver Vogel, 2. neubearb. Aufl. Stuttgart 2001; Nassehi, Armin, Von der Wissensarbeit zum Wissensmanagement. Die Geschichte des Wissens ist die Erfolgsgeschichte der Moderne, in: Maar (wie Anm. 20), S. 97-106.

[25] Vgl. Perrott, Michelle; Ramsden, Anne, Personalising the Digital Library, in: Ariadne 34, December 2002/January 2003, siehe <http://www.ariadne.ac.uk/issue34/>; Gibbons, Susan, Building Upon the MyLibrary Concept to Better Meet the Information Needs of College Students, in: D-Lib Magazine, 9,3, March 2003, siehe <http://webdoc.sub.gwdg.de/edoc/aw/d-lib/dlib/march03/gibbons/03gibbons.html>.

[26] Vgl. <http://my.yahoo.com/>.

[27] Vgl. Rösch, Hermann, Funktionalität und Typologie von Portalen. Infrastruktur für E-Commerce, Wissensmanagement und wissenschaftliche Kommunikation, in: Schmidt, Ralph (Hg.), Information Research Content Management. Orientierung, Ordnung und Organisation im Wissensmarkt. 23. Online-Tagung der DGI und 53. Jahrestagung der DGI. Proceedings, Frankfurt am Main 2001, S. 142-154; vgl. Dolphin, Ian; Miller, Paul; Sherratt, Robert, Portals, Portals Everywhere, in: Ariadne 33, September/October 2002, siehe <http://www.ariadne.ac.uk/issue33/>; vgl. Miller, Paul, Interested in Institutional Web Portals?, in: D-Lib Magazine, 8,12, December 2002, siehe: <http://webdoc.sub.gwdg.de/edoc/aw/d-lib/dlib/december02/12inbrief.html#MILLER>.

[28] Vgl. Rösch, Hermann, Internetportale – Entwicklung, Funktionalität und Typologie, in: Password, 3 (2001), S. 18-25, 4, S. 26-35.

[29] Vgl. Rösch, Hermann, Wissenschaftsportal - bibliothekarische Konzeption in der Informationsgesellschaft, siehe: <http://bt2000.univie.ac.at/index-x.html>.


Literale Organisation von Wissen
Kanäle durch Bibliotheken

Scharbert, Gerhard

Edgar Allan Poe hat in seinem Gedicht The Raven [1] einmal einen ganz spezifischen, man möchte sagen medialen, Horror inszeniert: Zwischen den Bänden seiner Bibliothek wird einem Leser, der aus alten Quellen Rat für die Sorgen um die Transzendenz des Einzelnen sucht, mit einemmal eine Stimme laut, nichtmenschlich, ungerührt, außerhalb, die radikal und einfach auf diese und alle anderen Fragen antwortet – immer aufs Neue: Nevermore.

Daß jenes Verdikt ausgerechnet vom Haupt der Athene, wenn auch nicht direkt von ihrem Mund, ausgeht, läßt das Sinnbild trauervoller und nie endender Erinnerung [2] , als das Poe selbst dies Nevermore in seinem Essay Die Methode der Komposition verstanden wissen wollte, in einem gewissen Zwielicht der Abschaffung erscheinen. Perfektion von Erinnerung, als die sich selbst die kleine Bibliothek in dem berühmtem Gedicht präsentiert, trägt gleichsam ihr Anderes bereits so weit in sich, daß Poes unglücklich und hoffnungslos Liebender seine Verzweiflung nur aus den Zeilen zu ziehen vermag, in einem älteren Sinne bereits on line. Dies Unbehagen, das das Nevermore im Schatten der Gelehrsamkeit so unerbittlich einsagt, spricht dem Subjekt aus, daß es von der Schrift sich nährt, daß seine Belesenheit ein Lebensideal, seine Liebe Literatur sei, und umgekehrt. Es konnte seitdem nur noch darum gehen, selbst dort noch Reden zu halluzinieren, wo Augen sehen und Ohren – vielleicht – anderes als Sprache hören.

Was Poe in seinem Gedicht beschreibt, ist ein Bibliothekseffekt im direktesten Sinne des Wortes - der Gegensatz von Natur und Kultur, den manche Interpreten darin entdecken wollten, ist selbst nur dessen Reflex – eine Stillstellung von Zeit nicht in der Erinnerung ihrer Vergangenheit, sondern in der Dauer ihres Gedächtnisses.

Noch sind wir, mag sein, nicht bis an jene Grenze gelangt, jenseits derer Der Mensch im Rauschen endloser Datenströme erlischt; vielleicht ist aber eine solche Frage einfach nur falsch gestellt, weil er es unter solchem Blickwinkel schon gar nicht mehr nötig hätte. Das zentrale Thema dieser Tagung Geschichte und neue Medien sollte vielmehr die gegenseitige Ersetzung und Erweiterung von Techniken abseits vorschneller Kategorien des Defizitären in den Horizont von Geschichts- und Kulturwissenschaft einblenden.

Gottfried Wilhelm Leibniz hat in einer postum veröffentlichten lateinischen Skizze, die vermutlich in den Achtziger Jahren des 17. Jahrhunderts entstanden ist, einem altehrwürdigen Medium der Geschichte selbst den endgültigen Limes gesetzt.

Der kurze Text behandelt die Buchstaben des Alphabets als kombinatorische Grundlage sowohl von Universal- wie auch Individualgeschichte, und es wird sich gleich zeigen, daß sein Titel apokrástasis (pánton), "Die Wiederherstellung des Ganzen", nicht ganz grundlos auf die Apokalypse verweist.

„Die Zahl aller möglichen Bücher begrenzten Umfangs, die aus bezeichnenden und nicht bezeichnenden Worten zusammengesetzt sind, kann fest umschrieben werden und in dieser Zahl sind dann also alle sinnvollen Bücher eingeschlossen.

Ein Buch begrenzten Umfangs nenne ich ein solches, das eine bestimmte Anzahl von Buchstaben nicht überschreitet. [...]

Somit ist die Zahl der möglichen Bücher eines so begrenzten Umfangs von höchstens hundert Millionen Buchstaben ihrerseits eine endliche.

Aber diese Zahl ist nicht nur endlich, sondern es kann auch durch Kombinationsrechnung ermittelt werden, wie viel Bücher möglich sind, die unter sich nur ein Geringes verschieden zu sein brauchen und die vorbesagte Buchstabenzahl nicht überschreiten [...].

Machen wir ferner die Annahme, daß die öffentliche Geschichte des Erdkreises annalistisch in einem Buche solchen Umfangs [...] hinreichend niedergeschrieben werden kann, so folgert, daß auch die Zahl der möglichen unter sich verschiedenen, öffentlichen Geschichten des Erdkreises eine endliche ist [...].“ [3]

Gleiches nimmt Leibniz auch für die genaue Einzelbeschreibung der sämtlichen Lebensjahre eines jeden beliebigen Menschen an.

„Daher würde für ein Werk, welches die annalistische Geschichte des ganzen Menschengeschlechts bis in alle Einzelheiten enthält, eine Anzahl Buchstaben nicht überschritten zu werden brauchen, welche sich auf hunderttausend Millionen Millionen [...] beliefen.“ [4]

So weit, so gut. Doch wo aus begrenzten Elementen zusammengesetzte Endlichkeiten walten, tritt - auch wenn sie der Unendlichkeit noch so ähnlich sehen mögen - etwas ein, was man als Poincaré-Wiederkehr bezeichnet - die einzelnen Zeichen geraten in die Nähe oder an den Ort ihrer Anfangsposition - hier also: Die Wiederkehr der Geschichten. Die aus Buchstaben gefügte Welt bringt Doppelgänger und Parodien hervor, bis sie letztendlich in der Wiederholung des Dargestellten erstarrt.

„Denn sobald wir die Zahl der Jahre etwas größer als [...] die Zahl der untereinander etlichermaßen verschiedenen Werke, in welchen die Buchstabenzahl hunderttausend Millionen Millionen nicht überschreitet, [...] nehmen, muß es notwendig eintreten, daß irgend einmal ein Jahr in der Geschichte der Menschheit genauso wiederkehrt, wie es schon einmal verlaufen ist, mit seinen sämtlichen Umständen.

Und gleichermaßen kann bewiesen werden, daß einmal eine Zeit eintritt, wo ein ganzes Jahrhundert unverändert wiederkehrt, ja sogar ein Jahrtausend und schließlich eine Jahrmillion oder -Millionen.“ [5]

Geschichte und ihre Geschichten, Politikon und Logos erweisen sich so - zumindest in ihrem traditionellen Medium - als finites, jedenfalls mathematisch berechenbares Projekt. Die Gutenberg-Galaxis verkommt zu einer Hölle von Redundanzen, in der zwei aristotelisch-anthropologische Konstanten ausglühen. Leibniz schrieb weiter:

„Nun können die Wahrheiten der Sinneswahrnehmung, welche nicht aus reiner Vernunft, sondern ganz oder teilweise aus Erfahrung gelten, ins Unendliche variiert werden, auch wenn sie nicht zu zahlreich werden. Und so können sie neuen und immer wieder neuen Stoff beibringen für die Wissenschaft oder die an Umfang wachsenden Theoreme.“ [6]

Also: Die Welt der reinen Verstandesbegriffe ist im Wortsinne begrenzt, die der Experimente nicht. Hier wird deutlich, daß unterhalb einer wohldefinierten Formation sich etwas abzuzeichnen beginnt, was diese nicht verdoppelt, sondern durchkreuzt. Leibniz hatte als Beispiel für einen Gegenstand der Erfahrungswissenschaften, wie er sie in dem eben zitierten Text der Universalgeschichte aus Buchstaben gegenüberstellte, bezeichnenderweise ein Beispiel aus der belebten Natur gewählt, was der philosophischen Reflexion als besonders unbedeutend und nichtig erscheinen mußte, nämlich eine Stubenfliege. Dies kann hier nicht weiter ausgeführt werden [7] , doch interessiert gleichwohl die Frage, wie es so weit kam, daß erst das Paradigma einer alphabetischen Geschichte mathematisch-kombinatorisch abgeschlossen werden mußte, um überhaupt den Erfahrungswissenschaften [8] Raum geben zu können. Ich denke, daß es das bewundernswerte System des phonetischen Alphabets selbst ist, welches eine solche Identifikation hervorgerufen hat. Ein sagenhafter König, Palamedes mit Namen, soll den Griechen nicht nur den gespielten Wahnsinn des Odysseus’, sondern auch Buchstaben und Zahlen entdeckt haben und damit eine kulturelle Macht, die noch in ihrer Wandlung zu Information spürbar bleibt. Worin besteht diese Macht? Es ist im Wesentlichen die zwingende Gewalt einer weitreichenden Abstraktion, die durch die Fixierung von Einzellauten ohne syllabische Abhängigkeit eine fortschreitende Befreiung von kulturellen und kultischen Konnotationen ermöglichte.

„[...] aus Symbolen mit dehnbaren Implikationen wurden Zeichen, wirkliche Werkzeuge im Dienste eines Gedächtnisses, in das die Strenge des Rechnens Eingang fand“ [9] ,

wie der Palaianthropologe André Leroi-Gourhan mit hörbarer Bewunderung feststellte.

Durch das griechische Alphabet wird alles schreibbar und unabhängig vom jeweiligen – auch schriftlichen – Kontext unmittelbar, die Kenntnis des Lautwertes vorausgesetzt, zu entziffern. Die Zeichen stehen nur noch in einem kombinatorischen Verhältnis zueinander, das prinzipiell jede, nicht nur die dem Griechischen angemessene Anordnung erlaubt. Damit wird die Schrift nicht mehr nur die Bekräftigung herrschaftlicher und sozialer Verhältnisse, als die sich die voralphabetischen Zeichensysteme überwiegend darstellen, sondern sie ist plötzlich fähig, einen Inhalt zu vermitteln, der ohne sie nicht gedacht werden muss. Diese weitreichenden Konsequenzen haben schon auf das griechische Denken selbst eingewirkt, aber ihren wirksamsten Ausdruck fanden sie in der Erfindung der Lateinischen Literatur aus griechischen Lettern. Die Griechen besaßen eine Literatur, beinahe bevor sie schreiben konnten [10] , bemerkte einst mit deutlichem Blick auf das Ereignis Homer der französische Latinist Jules Marouzeau. Entgegen der zurückhaltenden Literalität der Griechen erscheint die römische Literatur sofort als eine solche, die diesen Titel schon im heutigen Sinne vollständig verdient. Ihre Form wie ihre Stoffe gehen unbezweifelbar aus dem Kontakt mit schriftlich überlieferten Vorlagen hervor. In die römische Beredsamkeit, deren bescheidene Blüte wir bei Cato Censorius noch nachlesen können, drang durch diese die Faszination und Macht der Schrift. Der Gelehrtenfleiß römischer, sich den olympischen Vorbildern aneignend nahender Poeten, hat aus der griechisch-vornehmen Distanz gegenüber der Möglichkeit optischer Fixierung der Rede [11] eine ganze Literatur, eine Ordnung des Wissens, eine Technologie des Intellekts hervorgehen lassen.

Die besonderen Bedingungen dieser Erfindung der Lateinischen Literatur lassen deren geborgte und modifizierte Werkzeuge als eine spezielle Funktion des Wissens in neuer Form anwendbar werden, sie verknüpfen Zeichen mit den menschenleeren Hallen der ars memoriæ, machen sie "innerlich" erfahrbar und damit brauchbar zu einer Wahrnehmung der Welt überhaupt. Das ließ die ehedem in Rom wenig angesehene Tätigkeit des Dichtens mit dem Prestige des Redners zusammenfallen. Vergil, der eigens deswegen auf eine Ämterlaufbahn verzichtet hatte, schloß die Position des politischen Redners unter Zuhilfenahme einer Reihe von griechischen Manuskripten mit dem homerischen Sänger kurz, um so einen veritablen Macht- und Gewaltdiskurs zu begründen, der fortan jede mythische Erinnerung einem imperialen Gedächtnis einschreibt. In der unnachahmlich konzisen römischen Formel arma uirumque cano [12] .

In der That, man eroberte damals, wenn man übersetzte,- [13] wie Nietzsche despektierlich anmerkte.

Von außen kommendes Alphabet, ein vorliegender literarischer Formenkanon Stützung der Texte durch alltägliche Autornamen [14] verbinden sich mit einer römischen Tradition kulturellen Gedächtnisses zu jener Einheit der Lateinischen Literatur, die die Versuchung nahelegt, sie als eine Kontinuität zu begreifen, die unseren Begriff von der Antike geprägt hat. Doch die Überlagerung jeglicher geschichtlichen Tradition durch Texte, die eigene Traditionen schon der späten römischen Republik hatte rätselhaft werden lassen, und die gerade auch die lateinische Rhetorik kennzeichnet, bereitete den Boden vor, auf dem das Hinzutreten eines Konzeptes Heiliger Schriften diesem Begriff des literarischen Wissens die Aspekte der Kanonizität und Totalität beinahe bruchlos einfügen konnte, obwohl diese Tendenzen der älteren, griechischen Überlieferung fehlten.

Diese Transformation der Erinnerung ermöglichte mit dem Zerfall des imperiums selbst jene wohlbekannte Konfiguration, in der die Bewahrer und Ausleger der Schrift zu mächtigen Statthaltern eines jenseitigen, immerwährenden Reiches werden sollten. Das frühe Christentum hatte eine große Menge verschiedenartigsten Materials zu sichten und seinem Kontext einzugliedern; dadurch werden mediale Beschleunigungen notwendig, die Einfluß auf die Überlieferung hatten. Der Medienkrieg vom 3. bis zum 4. Jahrhundert endete mit einem Sieg der christlichen Maschine zum Lesen. Was in dieser Zeit nicht in Codices übertragen wurde, ging wegen geringerer Haltbarkeit des Papyrus' verloren.

Das Christentum legt nun den Rahmen des Literarischen endgültig und verbindlich fest; nur in immer subtilerer Interpretation des Heilsplans kann sich bewegen, was als copia-commentarius, als spezifisch römische Übertragungs- und Aneignungstechnik, schon Variation eines noch rätselhaften Ursprungs war. So siegt mit der abgeschlossenen Offenbarung die lectio über die Reste von actio der klassischen Rhetorik. Tertullian hält ihr im Apologeticum die lateinische Leichenrede zum Jüngsten Gericht. Der Raum eines medialen Gedächtnisses weitet sich zum Abbild einer göttlichen Ordnung, deren Geheimnisse entschlüsselbar in den Zeichen verborgen liegen, und als dessen Emanation jede äußere Wirklichkeit gilt. Die Welt wird zwar -noch- nicht lesbar, doch was von ihr wegfällt, wenn man die Folie der Schrift darüberlegt, verflüchtigt sich wie ein Gespenst.

Die Form des Codex, die eng mit der Christianisierung verknüpft ist, erleichterte zudem wesentlich das Wiederauffinden einzelner Abschnitte – im Gegensatz zu der mehr „privaten“, für die durchgehende Lektüre bestimmten Schriftrolle. Der bücherkundige, seine Vorlagen schnell und ökonomisch handhabende Kleriker löst also den aristokratisch gebildeten, aus seiner durch Rhetorik und Dialog geschulten Erinnerung schöpfenden antiken Leser nicht nur zeitlich, sondern auch in der Form seiner Lektüre ab.

Mit der Entstehung des abendländischen Mönchtums beginnt die Kommunikation und Tradition von Texten sich auf die klösterlichen Bibliotheken zu verlagern, die damit eine topographische Basis für die Verbreitung, aber auch für die Form des kanonisierten Wissens bereitstellen. Der mittelalterliche Schriftbetrieb schafft sich ein Netz von Korrespondenzen, die trotz aller relativen Mühseligkeit der Beschaffung und Einsichtnahme in der Lage waren, eine weitgehend einheitliche Auswertung und Diskussion des Kanons zu gewährleisten. Das Heilige Buch enthält zwar alle Aspekte der vergangenen, gegenwärtigen und zukünftigen Welt, doch steht dem nicht entgegen, daß dies wechselseitig auch für alle anderen Bücher, die Das Buch in nuce enthält, zutrifft. Sie entfalten, einer allgemeinen Tendenz literaler Tradition folgend, im Detail die rätselhaft angedeuteten Koordinaten eines neuen Himmels und einer neuen Erde. Deshalb ist die mittelalterliche Verehrung des Buches auf die Form, nicht auf den Inhalt ausgerichtet. Eine Mutter des Buches wie eine Ur-Tora [15] liegen außerhalb der Notwendigkeit einer Überlieferung, deren Gott kein Schreiber ist; wohl aber seine Apostel und Evangelisten. Die Kontextunabhängigkeit einer alphabetischen Schrift erwies sich so als eine technologische Voraussetzung der Multiplikation von Wissen. Prägnanten Ausdruck findet diese literarische Legitimation in der Formel des berühmten scholastischen Gelehrten Hugo von St. Victor, nihil esse superfluum [16] , daß nichts überflüssig sei.

Durch den Buchdruck wird diese Organisation von Wissen auch technisch universal. So erscheint es wenig überraschend, wenn Galileo Galilei in seinem Dialog über die beiden hauptsächlichsten Weltsysteme 1632 seinem bloß aristotelischen Gegenüber klarmacht, daß im System des Alphabets noch ganz andere Möglichkeiten stecken, als die der Alten:

„Doch wozu brauche ich Vergil oder einen anderen Dichter? Ich besitze ein weit kürzeres Büchlein als den Aristoteles und den Ovid, worin alle Wissenschaften enthalten sind und wovon man mit geringster Mühe die vollkommenste Übersicht erlangen kann; es ist das Alphabet. Kein Zweifel, durch richtige Anordnung und Verbindung dieses und jenes Vokals mit dem und jenem Konsonanten kann man die zuverlässigste Auskunft über jeden Zweifel erhalten, kann die Lehren aller Wissenschaften, die Regeln aller Künste gewinnen;“ [17]

Damit ist unter der ernüchternden Druckerpresse auch des Naturwissenschaftlers alles ausgebreitet, was sich im Universum umtreibt; die Bahnen der Gestirne und Planeten, die Neuausgaben des Vergil oder Aristoteles, all dies bezeichnet nur noch Aspekte desselben Kontinuums. Novalis wird später begeistert von der [...] Entdeckung dieser mächtigen Minen [...], die mehr als Potosi und Brasilien sind [...] [18] sprechen. Sie erwiesen sich nach einem Wort Marshall McLuhans als [...] neue Rohstoffquelle, die uns zugleich zeigte, wie alle anderen Arten von Rohstoffquellen, uns eingeschlossen, auszubeuten sind. [19] Francis Bacon kondensiert in einer berühmten Stelle seines Novum Organum, wo das Unendliche abgeschnitten zu werden verspricht, die Augenbewegung des Lesens beinahe schon in einen Algorithmus:

„Aus dieser Gruppe von drei Fällen, nämlich der Ordnung, der Orte des künstlichen Memorierens und der Reihe, bildet sich eine Art von Hilfe für das Gedächtnis. Man könnte diese Art mit Recht Abschneidung des Unendlichen [abcissio infiniti] nennen. Will nämlich einer sich auf etwas besinnen und es sich ins Gedächtnis zurückrufen und hat er keinerlei Vorbegriff und Vorstellung von dem zu Suchenden, so wird er gewiß suchen, sich anstrengen und sich ins Endlose verlieren. Hat er aber einen bestimmten Vorbegriff, so wird sogleich das Endlose abgeschnitten, und der Weg des Gedächtnisses führt mehr in die Nähe.“ [20]

Dies ist eine ziemlich genaue Methode der Adressierung, auch wenn sie sich noch an den Gegebenheiten eines Buches mit Register, lebenden Titeln und Zeilen orientiert.

Dieses Material zu bearbeiten wird zur eigentlichen Aufgabe einer Aufklärung, die beherrscht ist vom Gedanken der Totalität als Enzyklopädie. Leibniz versteht, ganz im Sinne von Galilei, diese Totalität als Kombinatorik:

„In Philosophia habe ich ein Mittel funden, dasjenige was Cartesius und andere per Algebram et Analysin in Arithmetica et Geometria gethan, in allen scientien zuwege zu bringen per Artem Combinatoriam, welche Lullius und P Kircher zwar excolirt, bey weitem in solche deren intima nicht gesehen. Dadurch alle Notiones compositae der ganzen welt in wenig simplices als deren Alphabet reduciret, und aus solches alphabets combination wiederumb alle dinge samt ihren theoremâtibus, und was nur von ihnen zu inventiren müglich, ordinata methodo, mit der zeit zu finden, ein weg gebahnet wird. Welche invention, dafern sie wils Gott zu werck gerichtet, als mater aller inventionen von mir vor das importanteste gehalten wird, ob sie gleich das ansehen noch zur zeit nicht haben mag.“ [21]

Die Leibnizsche Papiermaschine mußte noch ein wenig warten; doch erfaßte dieser Gedanke, der in gewisser Weise die Mikrostruktur einer Enzyklopädie, verstanden als ein parzelliertes alphabetisches Gedächtnis abbildet, zunächst das, was seit Aristoteles für den Ausweis des Humanum schlechthin galt, die biologische Fähigkeit des Sprechens selbst. Condillac erwähnt in seinem Essai sur l’origine des connaissances humaines [22] von 1746 bereits die merkwürdige Gewohnheit der Menschen, irgendwelche Vorstellungen an zufällige Zeichen zu knüpfen, l’habitude de lier quelques idées à des signes arbitraires. [23] Eine Voraussetzung, die fundamental für die Sprachwissenschaft geworden ist. Die Überlegung, daß die Sprache als geregelter Ablauf von Lauten und Zeichen - oder schlicht Struktur – der Überlegung selbst, ja der Vernunft vorgängig sei, daß sich aus diesen zufälligen Elementen [24] erst die Ordnung der langue entwickle - von der Semantik zu schweigen - wie sehr ein solcher Gedanke in der Logik des Wissens lag, zeigen die Konsequenzen, die nicht viel später aus diesen Vorgaben gezogen wurden, realistische Träume der Romantik, hier einer des Novalis:

„...MATH[EMATIK]. Am Ende ist die ganze Mathemat[ik] gar keine besondre Wissenschaft – sondern nur ein allgem[ein] wissenschaftliches Werckzeug – ein schönes Werckzeug ist eine Contradictio in adjecto. Sie ist vielleicht nichts, als die exoterisierte, zu einem äußern Object und Organ, gemachte Seelenkraft des Verstandes – ein realisirter und objectivirter Verstand. Sollte dieses vielleicht mit mehreren und vielleicht allen Seelenkräften der Fall seyn – daß sie durch unsere Bemühungen, äußerliche Werckzeuge werden sollen? – unsre Seele soll repräsentabel werden – Das System der Wissenschaften soll symbolischer Körper (Organsystem) unsers Innern werden – nicht in uns, aber außer uns.“ [25]

Das ist einigermaßen Klartext, doch just, als den frisch massenalphabetisierten Subjekten aus dem Kelche dieses Geisterreiches ihre Unendlichkeit zu schäumen scheint, beginnen Teile jenes Codes, der bis dato zumindest in der Gelehrtenwelt noch als Einheit firmiert, auszuwandern. Im 19. Jahrhundert werden die von Leibniz angemahnten Redundanzen der reinen Verstandesbegriffe in ihrem Medium unübersehbar. Mit dem numerischen Auseinanderfallen von Wissen und subjektiver Erinnerung schreibt sich diese Gespaltenheit über die Romantik der beginnenden Moderne ein. Ein jahrtausendealter Umgang mit der Schrift beginnt seinen von der zeitgenössischen Neurologie und Psychiatrie neugierig beobachteten und experimentell gestützten Weg in die Abseitigkeit. Die ästhetischen Abenteuer der Moderne werden erst vor diesem Hintergrund erfahrbar; Baudelaire, Rimbaud, Mallarmé verkörpern exemplarisch strahlend jenen désastre. Währenddessen stellen in Paris die Bibliothèque Ste. Geneviève und kurz darauf die Bibliothèque Nationale das Zusammentreten von Wissen, Politik und Gedächtnis in einer neuen Form technischer Repräsentanz material vor. Neue Werkstoffe wie Eisen und später Beton machen aus dem Architekten einen weiteren Ingenieur. An einem solchen Ort muß die Suche nach einer Materialität von Geschichte später scheitern, wenn sie wie im Falle Walter Benjamins materialistisch am eigenen Ort vorbeisieht. Diese Architektur illustriert immer deutlicher ein Inneres ohne Außen, genau das, was Benjamin so exakt am bürgerlichen Interieur des 19. Jahrhunderts erfaßt hat, doch in den Maschinenhallen des Geistes nicht wiedererkennt. Das Element des Architektonischen hat hier seit der Mitte des 19. Jahrhundert seinen Höhepunkt überschritten, das, was statt dessen von den stolzen Ingenieuren einer staunenden Öffentlichkeit präsentiert wird, enthält sein Neues unsichtbar als Technik im Innern – noch ist Paris ohne Eiffelturm. Ästhetische Moderne setzt an den Orten ein, in denen solche Tendenzen nicht mehr zu übersehen sind, und folgerichtig teilt Baudelaire in der Widmung seiner kleinen Prosagedichte Le spleen de Paris an Arsène Houssaye mit, seine Dichtung folge hier einem Prinzip des Diskreten, einer modularen Konstruktion:

„Nehmen Sie einen Wirbelknochen weg, und die beiden Glieder dieses [...] Gebildes fügen sich mühelos wieder zusammen. Zerlegen Sie es in verschiedene Teile, und Sie werden sehen, daß jedes für sich bestehen kann. [26]

Ungefähr gleichzeitig, das heißt um 1860, entwickelt der britische Ingenieur Robert Lipman ein solches modulares System für den Bibliotheksbau, das einen wichtigen Aspekt dieser Bauten in den Vordergrund rückt, nämlich die mögliche und möglichst unkomplizierte Anpassung und Erweiterbarkeit ihrer Speicher. [27]

Lipmans System für den Bibliotheksbau

Es bedurfte nur noch der Imaginationskraft eines britischen Mathematikers, der sich unter den Druck des Zweiten großen Krieges mit Leibniz’ Problem der Berechenbarkeit technisch auseinandersetzte, um auch den letzten unruhigen Geist aus den riesigen, aber abzählbaren Kolonnen der Universalbibliothek auszutreiben. Er stellte am 20. Februar 1947 in seinem Vortrag The State of the Art vor der altehrwürdigen London Mathematical Society fest:

„Wenn wir deshalb eine wirklich schnelle Maschine haben wollen, müssen wir unsere Information, oder jedenfalls einen Teil davon, in einer zugänglicheren Form besitzen, als durch Bücher erreicht werden kann.“ [28]

Damit schließt man die Bücher.

Gerhard Scharbert ist Kulturwissenschaftler und lebt in Berlin. Nach dem Studium von Linguistik, Literaturwissenschaft, Philosophie und Wissenschaftsgeschichte in Freiburg i. Br. und an der Humboldt-Universität arbeitet er zur Zeit als wissenschaftlicher Koordinator eines europäischen neurowissenschaftlichen Projektes.


[1] Poe, E. A., Gesammelte Werke in 5 Bänden, Band V: Der Rabe. Gedichte & Essays Zürich 1994, S.136-147.

[2] Ibid. S. 211.

[3] Leibniz, G. W., Apokrástasis (pánton), in: Ettlinger, Max, Leibniz als Geschichtsphilosoph. Mit Beigabe eines bisher unveröffentlichten Leibnizfragmentes über "Die Wiederherstellung aller Dinge" Apokrástasis (pánton), München 1921, S. 27-34, S. 27f.

[4] Ibid., S. 29.

[5] Ibid., S. 30f.

[6] Ibid., S. 34.

[7] In einer noch unpublizierten Arbeit wird der Verfasser diesen Zusammenhang eingehender beleuchten.

[8] ...veritates sensibiles, sed quae non pura ratione, sed in totum vel pro parte experientia constant, wie Leibniz sich ausdrückt. Id. op. cit.

[9] Leroi-Gourhan, André, Hand und Wort. Die Evolution von Technik, Sprache und Kunst, 3. Aufl. Frankfurt am Main 1984, S. 253.

[10] Marouzeau, Jules, Das Latein. Gestalt und Geschichte einer Weltsprache, 2. Aufl. München 1970, S. 53.

[11] Platon dürfte in der vielzitierten Stelle aus Phaidros [274c-287b], eher als in der pointierteren im Siebenten Brief [341c-344d], die Meinung eines gebildeten, aristokratischen Hellenen seiner Zeit im allgemeinen wiedergeben. Diese Kritikpunkte aus Phaidros, die im wesentlichen eine Schwächung der Mnemotechnik prognostizieren, werden im Siebenten Brief jedoch um ein gewichtiges eigenes metaphysisch-dialektisches Argument bereichert.

[12] Vergil, Aeneis I,1 zit. n.: R. A. B. Mynors (Hg.), Vergili opera, 3. Aufl. Oxford 1977, S. 103.

[13] Nietzsche, Friedrich, Die fröhliche Wissenschaft, 2,84; KSA Bd. 3, S. 439.

[14] Und nicht Ehrennamen wie z.B. Platon.

[15] Sowohl im Judentum wie im Islam ist die Gottheit der erste und einzige Schreiber des allheiligen Schrift-Vorbildes. Das Christentum, dessen Gottessohn nur einmal schrieb, jedoch kryptisch und nicht hebräisch oder aramäisch (schon gar nicht griechisch oder Latein), erkannte dahingegen einen Gott, der in allen bekannten wie unbekannten Zungen reden und schreiben kann.

[16] Hugonis de S. Victore Eruditio didascalia VII,I, in: Opera omnia II. Editio nova. (Patrologiae Latinae Tomus CLXXVI ed. J.-P. Migne) Turnholti [o.J.], S. 811.

[17] Galilei, Galileo, Schriften, Briefe, Dokumente, Hg. v. Anna Mudry, Bd. 1: Schriften, Berlin 1987, S. 208.

[18] Novalis (Friedrich v. Hardenberg), Dialogen und Monolog, in: Novalis Schriften. Zweiter Band, Das philosophische Werk I, Hg. v. R. Samuel et al., Stuttgart 1960ff., S. 661.

[19] McLuhan, Marshall, Die Gutenberg-Galaxis, Düsseldorf-Wien 1967, S. 224.

[20] Bacon, Francis, Novum Organum, hg. v. W. Krohn, Hamburg 1974, S. [394] 395.

[21] Leibniz, Gottfried Wilhelm, Die philosophischen Schriften, hg. v. C. J. Gerhardt, Erster Band, Hildesheim 1965, S. 57f.

[22] Condillac, Etienne B. de, Essai sur l’origine des connaissances humaines. Éd. établie par R. Lenoir, Paris 1924.

[23] Ibid., S. 114.

[24] cris naturels, wie Condillac eindringlich formuliert. Ibid.

[25] Novalis (Friedrich v. Hardenberg), Das Allgemeine Brouillon, in: Schriften Bd. 3, Das philosophische Werk II, hg. v. Richard Samuel et al., Stuttgart 1960ff., S. 251f.

[26] Baudelaire, Charles, À Arsène Houssaye, in: Oeuvres complètes I (BdP) Paris 2004, S. 275. Übersetzung des Verfassers.

[27] Lipman, Robert, Eisenkonstruktion zum Bibliotheksbau „System Robert Lipman“ (um 1860), in: Gestapeltes Wissen Mannesmann-Stahlblechbau, Düsseldorf 1966, S. 45.

[28] Turing, Alan Mathison, Intelligence Service. Schriften, hg. v. Bernhard Dotzler u. Friedrich Kittler, Berlin 1987, S. 187.


Wissenschaftliche Information im historischen Wandel

Ernst, Wolfgang

In Zusammenarbeit mit einem an der Humboldt-Universität zu Berlin laufenden Pilotprojekt in Kooperation mit Content TV geschieht die Übertragung und Speicherung unserer Sektion per Video-Streaming ins Internet. Jedes unserer Worte wird damit, in Echtzeit, potentiell Teil jenes semantischen Netzes, das Christoph Albrecht in seinem Beitrag zu diesem Band als die natürliche und ideale Organisationsform kulturellen Wissens gepriesen hat. Womit wir aber gleichzeitig schon daran erinnert sind, dass das Reich des kulturellen Wissens (und damit, nach Giambattista Vico, von Geschichte) nicht nur an den Begriff der kulturellen Semantik gekoppelt ist, sondern ebenso an das technische Dispositiv von Kultur: ihrer Übertragungskanäle und Speichermedien als Bedingung dafür, dass Kultur überhaupt erinnert werden kann. Zunächst erfolgt also eine Übertragung live per Video-Streaming ins Internet und später werden diese Aufzeichnungen als Quicktime Stream auf dem Multimedia Server der Humboldt-Universität gespeichert und über das Web zugänglich bleiben; damit haben wir auch schon einen sehr konkreten, uns hier und jetzt betreffenden Bezug zum Thema (Medien-)Archivierung. Beauftragt mit der Gründung des Seminars für Medienwissenschaft hier an der Humboldt-Universität zu Berlin, möchte ich uns die Kooperation mit HistorikerInnen auf die Fahne schreiben. Denn da ich von der Ausbildung her Historiker bin, inzwischen aber das Fach Medienwissenschaft vertrete und mich selbst als Medienarchäologe verstehe, ist mir an Brückenschlägen zwischen der Medienwissenschaft und den HistorikerInnen (und jenseits) sehr gelegen. Speziell erforsche ich (und fordere auch bildungspolitisch) die Verfügbarkeit von audiovisuellen Archiven online.

Ich selbst würde lieber von Medienarchäologie des Informationsbegriffs sprechen als von „Geschichte“, denn das bedeutet bereits eine Formatierung. In Anlehnung an die Einleitung zu Michel Foucaults Archäologie des Wissens [1] unterscheidet der medienarchäologische Blick zwischen kleinsten monumentalen (diskreten) Einheiten der Kommunikation (Daten) und ihrer dokumentarischen (kontextualisierenden) Deutung als Information. Der medienarchäologische Blick auf Vergangenheit als technisches Gedächtnis verhandelt Daten (kleinste Monumente), nicht dokumentarische Erzählungen. Der disziplinäre Bezugsrahmen dieser Tagung, die Geschichtswissenschaft, wird hier also in eine medienarchäologische Perspektive gerückt. Dies meint ebenso schlicht, dass Medien selbst zu Förderern des Wissens werden können, zu einem aktiven Faktor(,) der Wissen(-)schaft - ein Wortspiel, das nur schriftlich einsichtig ist. So fiel beispielsweise auf der hiesigen Tagung öfters das Stichwort Retrodigitalisierung etwa historischer Urkunden- und Buchbestände. Aber ich könnte auch den sogenannten archäologischen Wiederaufbau der Frauenkirche in Dresden nennen, der nur mit Unterstützung von IBM realisierbar war, also der digitalen Zusammenrechnung der Trümmersteine, was jede menschliche Vorstellungskraft übersteigt. Es geht also um das kritische Bewusstsein dessen, dass die mediale Kodierung, sprich: Informatisierung der Vergangenheit auf Ebene der Archive den Modus der Vergangenheit selbst umkodiert.

Und ein Workshop des Washington, DC Area Forum on Technology and the Humanities fragte am 19. Februar 2003 an der Georgetown University unter dem Titel Making Digital Narratives: Archive and Story in New Media: “How do we connect narratives to archives in digital spaces? How do the presentations of digital collections change narrative possibilities or even challenge the idea of narrative and authority?” An die Stelle der narrativen Ästhetik, der wir verschrieben sind, solange wir Geschichte im Medium literarischer Texte schreiben, tritt eine Info-Ästhetik im Umgang mit den Daten der Vergangenheit, die selbst eine Alternative zum historischen Diskurs als dem Master-Diskurs darstellt und eher wieder an die Praxis der Antiquare des 17. und 18. Jahrhunderts anknüpft, die bekanntlich Vergangenheit nicht historiografisch elegant, sondern datenasketisch prozessierten.

Medien sind nicht nur Prothesen des anthropologischen Gedächtnisses, sondern in hohem Maße auch deren Kondition; von daher gilt es, das Gesetz der Information in seiner kultur-, aber auch technikhistorischen Genese aufzuspüren. Die Beiträge in der Sektion analysieren die Transformation „alter Medien“ (Archive, Bibliotheken, Museen) in die neuen, von digitaler Standardisierung geprägten Kontexte und widmen sich dem massiven Einbruch analoger Übertragungsmedien wie Film, Radio und Fernsehen in den bislang von einer Buchkultur geprägten Informationsraum. Zwangsläufig kulminiert dies in Beobachtungen zu Konsequenzen der digitalen Wende für die (nicht nur abendländische) Wissenstradition, die im Zeichen virtueller Welten massiv zum Nachdenken, aber auch zum Beschleunigen liebgewonnener Praktiken der kulturellen Speicherung und Übertragung herausgefordert ist.

Zu Beginn des 21. Jahrhundert schauen wir - im Unterschied zu 4000 Jahren schriftbasierter Geschichte des Abendlandes - auf neue Formen der kulturellen Bewahrung und Überlieferung zurück: das audiovisuelle Gedächtnis, das im Zuge der Medien Fotografie, Grammophon, Film, Radio, Fernsehen und schließlich Computer (im Verbund mit dem Internet) etwas fixiert, das vorher undenkbar war: die Bewegungen des Lebens selbst. Die traditionellen Dokumentationsdisziplinen haben sich erst zögernd dieses neuartigen Erbes angenommen; die medienwissenschaftlich informierten Kulturwissenschaften ihrerseits widmen ihre Aufmerksamkeit zunehmend den sogenannten Kulturtechniken. Die technischen Medien erweitern nicht nur den Raum des kulturellen Archivs, sondern generieren ganz und gar neue Typen des Gedächtnisses, die sich vielleicht nur noch metaphorisch unter dem text- und metadatenfixierten Begriff "Archiv" fassen lassen - zumal die Informatik auch für das Internet einen iconic turn verheißt. Es scheint, dass mit den elektronischen Medien eine Akzentverschiebung von der okzidentalen Privilegierung von Kultur als Funktion seiner Speicher (Orte, Denkmäler, Institutionen) hin zum dynamischen Recycling von Kultur stattfindet; oder um es zusammenzufassen: von der Speicherung zur Übertragung. Die Konsequenzen daraus für die Medienkultur zu analysieren und einen aktiven Beitrag zum Umdenken vertrauter Kategorien des kulturellen Gedächtnisses zu leisten steht (nicht nur für HistorikerInnen) an.

Kulturwissenschaft als Gedächtniswissenschaft der Datenspeicherung und -übertragung, welche die Epoche des Historismus zugleich hervorgebracht und zu Gunsten des historischen Diskurses als Basis Großer Erzählungen (Nation etwa) an den Rand gedrängt hat, bedarf der medienarchäologischen Perspektive, um für die Wissensgenealogie der Gegenwart wiederentdeckbar zu werden. Und dies als Beihilfe zur Verabschiedung, denn unter dem Druck der Revolution der Kommunikationsmittel löst sich das Wissen aus den Organisationsformen, die ihm das 19. Jahrhundert gegeben hat (Ulrich Raulff). [2] Museen, Bibliotheken und Archive hören auf, sich primär als Stätten des Sammelns, Bewahrens und Zurschaustellens eines als gegeben unterstellten Wissens zu begreifen und beginnen, als Labor der Wissensproduktion eine aktivere Rolle zu spielen - wobei selbst noch das Internet insofern einer klassischen Gedächtnis-Infrastruktur folgt, als dass die user vorfabrizierte Texte aus dem Speicher aufrufen und einem zuvor konstruierten System von Verknüpfungen folgen.

Versuchen wir, den Nachweis jener Mnemotechniken zu führen, die im Namen des Diskurses Geschichte tatsächlich deren non-narrative Kehrseite und Alternativen darstellen. Der Ort dieser Tagung, die Humboldt-Universität Unter den Linden, erinnert selbst daran. Nach der militärischen Niederlage gegenüber Napoleon weiß Preußen, dass neben Heeres- und Verwaltungreform auch das Gedächtnis des Staates medial mobilisiert werden muss, um Ressourcen im Imaginären der Historie zu organisieren. Staatskanzler Hardenberg macht die Durchsetzung des Netzes preußischer Staatsarchive zur Chefsache, und der Freiherr vom Stein initiiert daher nicht nur die preußischen Reformen, sondern folglich auch die Monumenta Germaniae historica, die Edition deutscher Geschichtsquellen des Mittelalters. Wenn es der Geschichte bedarf, um die deutsche Nation als Raum mit zeitlicher Tiefe zu behaupten, muss ein Dispositiv in Form von Datenbanken gesetzt werden. Das Phantom einer Reichsbibliothek als weitere Komponente im Verbund der Speichermedien (Editionen, Archive, Museen, Bibliotheken, Inventare) hört derweil nicht auf, den Ruin der Frankfurter Paulskirchen-Parlamentsbibliothek (1848/49) fortzuschreiben, bis dass die Leipziger Deutsche Bücherei als ausdrückliches Archiv deutschen Schriftguts genau in jenem Jahr 1913 gegründet wird, das die Leipziger Völkerschlacht nach hundert Jahren durch die Einweihung seines Denkmals reklamiert. Die buchstäbliche Nachbarschaft von Deutscher Bücherei und Völkerschlachtdenkmal macht eine Aussage über die Organisation nationalen Gedächtnisses im Symbolischen der Lettern, im Imaginären der Monumente und im Realen der Leichen. Zwischenzeitlich aber lagerte der Bestand der Paulskirchenbibliothek als wissensarchäologisches Monument und historisches Dokument katechontisch und gesondert jahrzehntelang in den Depots eines Ortes, der seinerseits gegenüber der politischen (und auch nach 1870/71 noch kulturhoheitlichen) Partikulation Deutschlands einen anderen Raum, eine Heterotopie, ein Widerlager darstellt: das durch den Freiherrn von Aufseß 1852 begründete Germanische Nationalmuseum in Nürnberg. Hier ist es nicht so sehr die Versammlung realer Artefakte, sondern das Unternehmen eines General-Repertoriums deutscher Archivalien, Bücher und Musealien bis 1650, das die kognitiven Karten deutscher Vergangenheit vermisst und inventarisiert. Der bemerkenswerte Versuch, aufgrund der logistischen Unmöglichkeit der Institution eines vollständigen Nationalmuseums die deutsche Kulturgeschichte als Information zu koordinieren, stellt einen Paradigmenwechsel medial induzierter Gedächtnisstrategien dar. Unter dem Mantel allegorischer und ideologischer Zurschaustellung bricht sich also ein pragmatisches Wissen um Gedächtnis- als Informations- und Dokumentationswissenschaft Bahn, nach dessen Vorbild nicht nur Text-, sondern auch Bildquellen organisiert werden. Der Historiker Paul Kehr empfiehlt 1893 in seinem Entwurf für das Seminar für Historische Hilfswissenschaften (Marburg) die Anschaffung eines photographischen Apparats; aus diesen Aufnahmen, so seine Prognose, "werden mit der Zeit ganz von selbst die ersehnten Monumenta Germaniae graphica hervorgehen.“ [3] Nationales Gedächtnis als Reich(s)weite von Datenerfassung wird als non-diskursives Dispositiv organisiert, um Schnittstellen zum Diskurs des Nationalen bilden zu können. Dispositive aber tendieren zur Technik, und in dem Moment, wo sich die Verfahren der Datenerfassung vom Subjekt lösen (Albrecht Meydenbauers photogrammetrische Inventarisierung deutscher Baudenkmäler) [4] ist auch das, was einmal im Blick auf das Imaginäre eines Nationalkultur Deutsches Denkmälerarchiv heißen sollte, tatsächlich um 1900 prosaisch zur Preußischen Meßbildanstalt geworden. Instrumente aber kennen keine nationalen Grenzen mehr. In dem Moment, wo Daten nicht mehr als nationale Information kodiert, sondern als Wissen gerechnet, gespeichert und weitergegeben werden, sind nationale Archive, Bibliotheken, Museen sowie Editions- und Inventarisierungsunternehmen nicht mehr Zentren eines territorial und politisch definierten Gedächtnisses, sondern Knotenpunkte einer Wissensvernetzung, die - nachdem Projekte wie das Nürnberger General-Repertorium zunächst eben nicht nur an politischen und epistemologischen, sondern auch an medialen Grenzen scheitern - world wide auf den Begriff, das heißt auf Programme, Kabel und Rechner gebracht worden ist. Eine Medienarchäologie des kulturellen Gedächtnisses schaut nicht nur auf Archivalien, Musealien und Bücher, sondern auch auf die Fächer der Speicherorte, deren Variablen sie sind. Sie versteht unter arché nicht nur die Anfänge nationaler Gedächtnisagenturen, sondern das, was dieses Wort auch sagt: das System der Befehle, die diskurstaktisch jene Gedächtnistechniken in Gang setzen, deren Sinneffekte im historischen und kulturwissenschaftlichen Diskurs dann als quasi metaphysische Gegebenheiten dissimulieren, was Gegebenheiten doch zunächst einmal sind: Daten, gespeichert. Die am Beispiel des deutschen Gedächtnisses beschriebenen Prozesse der medialen Verknüpfung von Staat, Archiv, Bibliothek, Wissen und Macht lenken den Blick auf zentrale Fragen der Zugangsbedingungen von Information; Gedächtnis muss adressierbar sein, um operabel zu werden. Die Entscheidung, welches Wissen exklusiv des Staates oder der Forschung ist und welche Wissensverpflichtung eine diskursive Schnittstelle gegenüber der Öffentlichkeit als public domain bildet, das Spiel zwischen klassifizierten und deklassifizierten Speicherdaten in Archiven und Bibliotheken, die Ästhetik der Information zwischen Geheimnis und Imperativ der Gedächtnisbanken, das Auseinandertreten von diskretem Wissensmonument und narrativer Dokumentation, von symbolischem Namen und verborgener Praktiken der Gedächtnisinstitutionen - all diese Konstellationen sind Funktionen medialer Operationen.

Vielleicht waren - einem Buchtitel Wolfgang Webers zufolge - die HistorikerInnen einmal die Priester der Klio. [5] Heute nehmen diejenigen, welche die Information verteilen, ein herrschendes Priesteramt in der Wissenschaft der Zukunft ein, so wie die Schleusenwärter in den ersten Staaten jenes Vorderen Orients, der heute Kriegsschauplatz ist, Könige wurden.

Aber ich habe versprochen, mich kurz zu fassen; mehr dazu in meiner Publikation unter dem Titel Im Namen von Geschichte. Sammeln, Speichern, (Er)Zählen. Infrastrukturelle Konfigurationen des deutschen Gedächtnisses (zur Infrastruktur non-diskursiver Agenturen der Prozessierung von Daten über Vergangenheit). [6]

Prof. Dr. Wolfgang Ernst ist Inhaber der Professur für Medientheorien und Geschäftsführender Direktor des Instituts für Medienwissenschaft an der Humboldt-Universität zu Berlin.


[1] Foucault, Michel, Archäologie des Wissens (stw 356), Frankfurt am Main 2002.

[2] Raulff, Ulrich, Der unsichtbare Augenblick. Zeitkonzepte in der Geschichte, Göttingen 1999.

[3] Berlin, 29. Oktober 1893, zitiert nach: Johannes Burkardt, Die Historischen Hilfswissenschaften in Marburg (17.-19. Jahrhundert), Marburg/Lahn (Institut für Historische Hilfswissenschaften) 1997 (= elementa diplomatica; 7), S. 132f. Siehe auch Theodor von Sickel, Monumenta Graphica medii aevi ex archivis et bibliothecis imperii Austriaci collecta edita jussu atque auspiciis ministerii cultus et publicae instructionis caes. reg. Vindobonae, 1859-1882; ferner August Essenwein, Reliquiae medii aevi. Eine Denkschrift, Nürnberg (Literarisch-artistische Anstalt des germanischen Museums) 1884.

[4] Siehe Albrecht Meydenbauer, Ein deutches Denkmäler-Archiv. Ein Abschlusswort zum zwanzigjährigen Bestehen der königlichen Messbild-Anstalt in Berlin, Berlin 1905.

[5] Weber, Wolfgang, Priester der Klio. Historisch-sozialwissenschaftliche Studien zur Herkunft und Karriere deutscher Historiker und zur Geschichte der Geschichtswissenschaft 1800-1970, Frankfurt am Main 1984.

[6] Ernst, Wolfgang, Im Namen der Geschichte. Sammeln – Speichern – Er / Zählen. Infrastrukturelle Konfigurationen des deutschen Gedächtnisses, Paderborn 2003.


Digitale Fachinformation für die Geschichtswissenschaften
Förderkonzepte der Deutschen Forschungsgemeinschaft

Goebel, Ralf

Die Deutsche Forschungsgemeinschaft (DFG) ist die zentrale Selbstverwaltungsorganisation der deutschen Wissenschaft. Ihre Mitglieder sind wissenschaftliche Hochschulen, die Akademien der Wissenschaften, größere Forschungseinrichtungen sowie wissenschaftliche Gesellschaften und Verbände. Als gemeinnützige und politisch unabhängige Organisation unterstützt die DFG alle Bereiche der Wissenschaft durch die Finanzierung von Forschungsprojekten und Kongressen, durch den Aufbau kooperativer Strukturen und durch die Förderung des wissenschaftlichen Nachwuchses. Die Förderung erfolgt mit Mitteln des Bundes und der Länder sowie weiterer Zuwendungsgeber wie dem Stifterverband für die Deutsche Wissenschaft – gegenwärtig umfasst das Budget etwa 1,3 Milliarden Euro. Die Verteilung dieser Mittel wird dabei von der Wissenschaft im Rahmen eines bewährten Begutachtungssystems mit gestaltet.

Satzungsgemäße Aufgabe der DFG ist es unter anderem, die Verbindungen der deutschen Forschung zur ausländischen Wissenschaft zu pflegen und zu intensivieren. Die DFG hat deshalb ihre Förderprogramme für internationale Kooperationen geöffnet. Im Bereich „digital libraries“ wurde beispielweise zusammen mit der US-amerikanischen Förderorganisation National Science Foundation (NSF) ein gemeinsames Förderprogramm initiiert. [1]

Mit vielen europäischen Fördereinrichtungen bestehen zudem bilaterale Vereinbarungen, die es ermöglichen, dass WissenschaftlerInnen ihre Projekte unter Mitnahme der bewilligten Fördermittel an verschiedenen Orten Europas durchführen können.

Zur weiteren Stärkung der internationalen Kontakte ist die DFG auch außerhalb Deutschlands präsent. Gemeinsam mit unseren Verbindungsbüros in Washington und Moskau sowie dem Chinesisch-Deutschen Zentrum für Wissenschaftsförderung in Peking informieren wir auch international über Förder- und Kooperationsmöglichkeiten mit dem Ziel, die Zusammenarbeit deutscher WissenschaftlerInnen mit der internationalen wissenschaftlichen Community zu stärken und auszubauen.

Zwei Aspekte dürften für die Mehrzahl der WissenschaftlerInnen bei der Förderung durch die DFG von Bedeutung sein. Zum einen die klassische Forschungsförderung in unserem „Normalprogramm“. In diesem Bereich geht es um die Finanzierung wissenschaftlich ausgerichteter Projekte – antragsberechtigt sind alle deutschen WissenschaftlerInnen mit akademischem Abschluss. Zum anderen gibt es die separate Konstruktion des ehemaligen „Bibliotheksprogramms“, heute geläufig unter dem Namen „Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS)“. [2] In der Namensgebung wird der Unterschied bereits deutlich: im Bereich LIS geht es primär um die Bereitstellung und Erschließung forschungsrelevanter Materialien und Inhalte, also um die Bereitstellung von Informationsressourcen und -systemen im weitesten Sinne. Und es geht darum, bereits im Rahmen der Antragsberatung Tendenzen und Anliegen der Wissenschaft zu bündeln und zu koordinieren. Zurzeit werden um die 28 Millionen Euro im Bereich LIS umgesetzt. Aus Sicht dieses Bereichs möchte ich heute einige Gedankenspiele zur Infrastrukturlandschaft von morgen darstellen.

Allgemeine Förderkonzepte und Ideen

Die zurzeit zu beobachtende Etablierung neuer Informations- und Kommunikationstechniken hat natürlich Auswirkungen auf die Förderkonzepte der DFG. Denn die digitalen Strukturen durchdringen inzwischen den gesamten wissenschaftlichen Arbeitsprozess. Auch deshalb überarbeiten wir momentan unsere Förderprogramme mit dem Ziel, unser Angebot in vier Hauptbereiche zu bündeln, in denen printorientierte und digital ausgerichtete Informationsanliegen gleichermaßen berücksichtigt werden. Die neue Struktur besteht aus vier großen Bereichen:

  1. Überregionale Literaturversorgung / Virtuelle Fachbibliotheken,
  2. Neue Publikationsformen und -verfahren,
  3. Informationsmanagement,
  4. Kulturelle Überlieferung in hybriden Informationssystemen.

Für den Bereich der „Kulturellen Überlieferung“ bedeutet die Neustrukturierung, dass die ehemals in diesem Bereich angesiedelten Einzelprogramme aufgelöst und in einem einzigen großen Förderbereich zusammengeführt werden. So können bei der Antragstellung von vorneherein unterschiedliche Aspekte mit einbezogen werden (bestandserhaltende Maßnahmen, Erschließungs- und Digitalisierungsprojekte, elektronisches Publizieren usw.).

Die Virtuelle Fachbibliothek

Die Virtuelle Fachbibliothek soll für das jeweilige Fachgebiet einen zentralen Zugriffspunkt auf die für Forschung und Lehre wesentlichen Literatur-, Quellen- und Informationsbestände zur Verfügung stellen. Sie ist eine hybride Bibliothek, das heißt sie umfasst sowohl die papiergebundenen als auch die digitalen Informationsquellen. Und sie ist eine virtuelle Bibliothek, das heißt neben die Sammlung von Dokumenten an einem definierten Standort tritt die standortunabhängige Verknüpfung und Vernetzung dezentraler Informationssammlungen sowie die Ad-hoc-Beschaffung von Informationen im Bedarfsfall, beispielsweise über den SUBITO-Dokumentenlieferdienst [3] oder perspektivisch als Digitalisierung on Demand.

In den vergangenen Jahren wurden durch die DFG fachlich verwandte Projekte durchaus bewusst gefördert. Ohne Vielfalt und Pluralität gibt es keine Innovation. Andererseits gibt es ohne Bündelung der Informationsangebote auch kein greifbares Angebotsprofil, ohne Profil und Identität keine Akzeptanz bei den final users. Um zwischen den Polen von Pluralität und Identität einen von Forschung und Wissenschaft akzeptierten Mittelweg zu finden, brauchen wir pragmatische und konsensfähige Lösungen. Deshalb entwickelt die DFG zurzeit Mechanismen zur Evaluierung ihrer Programmbereiche, zunächst als Pilotphase im Bereich der „Retrospektiven Digitalisierung“ sowie im Bereich des „Systems der überregionalen Literatur- und Informationsversorgung“. Neben der als in hohem Maße unbefriedigend zu charakterisierenden Nutzung singulärer Sondersammelgebietsbestände zeichnet sich als erster wichtiger Hauptaspekt das Problem des information overload ab: Informationen mit unterschiedlichem wissenschaftlichem Niveau werden in unterschiedlichen Informationssystemen mit unterschiedlichen Retrievalmöglichkeiten gehalten, und dies führt zu einem hohen Aufwand bei der Recherche und der Informationsselektion durch die EndnutzerInnen, im Extremfall sogar zum Nutzungsverzicht. Die traditionelle Organisationsstruktur aus Bibliotheken, Fachinformationszentren, Archiven usw. muss deshalb langfristig in leistungsfähige vernetzte Organisationssysteme transformiert werden, die den NutzerInnen eine Vielzahl von Dienstleistungen unter einer einheitlichen Oberfläche und nach einem einheitlichen Prinzip anbieten (one-stop-shop). Dabei wird nicht nur die enge Zusammenarbeit zwischen Fachwissenschaft und Informationsprovidern, sondern auch das Kriterium der sofortigen elektronischen Verfügbarkeit am Arbeitsplatz für die Akzeptanz eine tragende Rolle spielen.

Angesichts der neuen Möglichkeiten werden in Zukunft verteilt gehaltene Informationsdienstleitungen in den Kontexten verschiedenster Informationsdienste zugreif- und abrufbar sein. Voraussetzung für die Offenheit und Durchlässigkeit der Systeme sind technische und verfahrensmäßige Standards. Um diesen Prozess zu unterstützen, werden zurzeit mit Förderung der DFG entsprechende Kompetenzzentren etabliert.

Zudem benötigen wir sogenannte trusted server und stabile Linking- bzw. Identifizierungssysteme für elektronische Ressourcen – auch sollten elektronische Daten mit eindeutigen Erzeugerhinweisen versehen werden. Das Prinzip ist unter anderem im History Guide und in Clio-Online bereits verwirklicht. [4] Datenlieferer müssen dabei nicht unbedingt Institutionen sein: wissenschaftliche RedakteurInnen könnten ebenfalls dezentral wichtige Daten einbringen und pflegen. Das Prinzip ist aus dem Bereich der historischen Rezensionsorgane bekannt. Neben all den großen Visionen sollten wir aber auch das Naheliegende nicht vergessen, beispielsweise die Einbindung von bereits vorhandenen Aufsatzdaten in die lokalen OPACs. [5]

Für die Bereiche „Erschließung elektronischer Ressourcen“, „Digitalisierung“, „Elektronisches Publizieren“ und „Themenorientierte Netzwerke“ lässt sich das bisher Gesagte folgendermaßen konkretisieren.

Erschliessung elekronischer Ressourcen am Beispiel von „Subject Gateways

Immer wieder wird im Zusammenhang mit dem Konzept der Virtuellen Fachbibliothek die Form des Informationsangebots diskutiert. Bietet man potentiellen NutzerInnen primär (Meta-)Suchmaschinen nach dem Vorbild des Karlsruher Virtuellen Katalogs (KVK) [6] oder dem Vorbild Googles, oder sollte der Sucheinstieg besser systematisch erfolgen? Bleibt die Suche auf den Bereich der Metadaten beschränkt, oder nimmt man auch Fachdatenbanken, Volltexte, Rezensionen oder auch multimediale Inhalte in die Suche mit auf? Wie verankert man die eigene Virtuelle Fachbibliothek in vascoda, dem neuen fachübergreifenden Informationsportal? Welche Fachcluster sollte man bilden, und wie viele? Soll man eine gemeinsame Datenbank aufbauen oder die Daten verteilt vorhalten?

Die Antworten auf diese Fragen werden die einzelnen Projektpartner selbst finden. Ich möchte stattdessen ein konkretes Beispiel heranziehen, nämlich die Erschließung klassischer Webpages in „Subject Gateways“. Zwei Prinzipien sind hier von Bedeutung, nämlich das Prinzip des Browsing und das Prinzip des Searching.

Das Browsen im Freihandregal des Virtuellen gelingt in der Regel nur auf der Basis einer einheitlichen Systematik bzw. unter Zuhilfenahme verlässlicher Konkordanzen. Angesichts der stetig zunehmenden Masse an Internetquellen gestalten sich die Pflege und die Anwendung einer einheitlich feingliedrigen Systematik durchaus schwierig. Vielleicht werden in einigen Jahren automatisierte Verfahren den nötigen Arbeitsaufwand reduzieren helfen.

Einen zweiten Weg der Informationsrecherche bildet das Searching. Einerseits ist die Methode des Searchings in der Tat direkt, schnell und intuitiv nutzbar. Andererseits verlagert das Searching die Bewertung der gefundenen Informationen – und es handelt sich hier durchaus um ein Massenproblem – in den alleinigen Zuständigkeitsbereich des Informationssuchenden. Die bei der Bewertung dieser Informationsmassen auftretenden Probleme lassen sich im Bereich der Bibliothek-OPACs und ihrer Nutzung täglich studieren.

Subject Gateways verbinden nun Browsing und Searching unter dem Aspekt der qualifizierenden Auswahl von Websites. Vier kritische Punkte möchte ich in diesem Zusammenhang kurz ansprechen:

  • Der spezifische Vorsprung gegenüber allgemeinen Linklisten und Suchmaschinen liegt in der Zusammenführung von digitalen und konventionellen Informationsressourcen. Dieser Vorsprung wurde im Bereich der Subject Gateways bisher nur bedingt realisiert.
  • In die angebotenen Datenpools werden häufig auch institutionelle Websites und Übersichtsseiten aufgenommen. Diese lassen sich aber auch mit allgemeinen Suchmaschinen relativ leicht auffinden.
  • Die Vernetzung und Zusammenführung unterschiedlicher Datenquellen gestaltet sich nach wie vor schwierig.
  • Die im Internet in großer Zahl vorhandenen Primärinformationen wie Einzeldokumente, Aufsätze, digitalisierte Texte, Statistiken usw. werden nur selten berücksichtigt. [7] Gerade die schon zu Beginn des World Wide Web gestartete Initiative der Virtual Library hat hier ihre Stärken. [8]

Ein Beispiel: In Clio-online suche ich unter der Rubrik „Institutionen – Museen“ den Begriff „Schulmuseum“ und erhalte eine Trefferliste von einem Dutzend Titeln – allerdings ohne erkennbares Ranking. Zur Sicherheit suche ich noch einmal in Google, und ich finde dort sofort den Link auf „Schulmuseum.net“ [9] , einem Server für Schulmuseen und schulgeschichtliche Sammlungen mit über 100 nachgewiesenen Links, einem Forum, einer Mailingliste sowie mit Webspace für die Internet-Präsenz des eigenen Schulmuseums und mit Hinweisen auf Ausstellungen. „Schulmuseum.net“ ist innerhalb der von mir benutzen Rubrik „Museen“ leider nicht nachgewiesen – in der Rubrik „Fachportale“ dagegen schon. A posteriori macht diese Aufteilung freilich Sinn: die Zuweisung einzelner Museen zur Rubrik „Museen“ ist wie die Zuweisung des Schulmuseum-Portals zu „Portale“ systematisch begründbar. Vielleicht zu systematisch und zu logisch für potentielle BenutzerInnen, die über dieses Wissen a priori nicht immer verfügen. [10]

Als pragmatische Hilfskonstruktion könnte man über die Implementierung einer thematischen Suchmaschine nachdenken, die sozusagen den Mittelweg darstellt zwischen der wissenschaftlich fundierten Auswahl und Klassifizierung (Browsing) und den großen, häufig wenig relevanten Treffermengen der Suchmaschinentechnologie (Searching). Die Idee ist einfach: ausgehend von einer geringen Anzahl fachlich geprüfter Links wird nach bestimmten Vorgaben die virtuelle Welt google-like durchsucht. So erhält man auf einfache Weise kleinere und relevantere Treffermengen. Im Bereich der Archäologie gibt es bereits ein derartiges Suchmaschinenprojekt. [11]

Digitalisierung der Kulturellen Überlieferung

Ein zweiter Kernbereich unseres Förderkonzepts für digitale Informationsinfrastruk­turen ist die Einbindung der kulturellen Überlieferung in die digitalen Informations­systeme. Dabei sollen nicht nur die seltenen und schwer zugänglichen Originale aus Bibliotheken und Archiven, sondern auch die besonders häufig genutzten Quellbestände als digitale Faksimiles direkt am Arbeitsplatz der wissenschaftlichen NutzerInnen zugänglich gemacht werden.

Nach der bisherigen eher auf Experiment und Erprobung ausgerichteten Förderung stehen wir nunmehr an einem Wendepunkt. In kritischer Auseinandersetzung mit dem Gallica-Projekt der Bibliothèque Nationale de France [12] und dem American Memory Projekt [13] ist auch bei uns ein Gesamtkonzept zur Digitalisierung überlieferter Sammlungsbestände angedacht. Der Bibliotheksausschuss der DFG hat deshalb nicht nur eine Ausschreibung zur Gründung eines fachübergreifenden Portals „Sammlung Digitalisierter Drucke“ [14] initiiert, sondern auch die Ausarbeitung eines Konzepts für eine Prioritätensetzung und Kriterien guter Praxis bei Digitalisierungsmaßnahmen beschlossen.

In Deutschland könnten wir auf langjährige Bemühungen bei der Erschließung historischer Quellenmaterialien aufbauen und die vorhandenen Metadaten zum Ausgangspunkt für das Anreichern mit digitalen Faksimiles verwenden. Im Einzelnen sind dies:

  • Für mittelalterliche Handschriften das Portal Manuscripta Mediaevalia, das auf dem Handschriftenprogramm der DFG aufsetzt. [15]
  • Eine Sammlung für digitalisierte Inkunabelbestände könnte auf dem Gesamtkatalog der Wiegendrucke [16] , dem ISTC [17] bzw. dem Inkunabelzensus aufbauen. [18]
  • Für die Druckschriften nach 1500 sind bereits eine Reihe von Digitalisierungsprojekten gefördert worden. Ich nenne die Verzeichnisse der deutschen Drucke des 16. und 17. Jahrhunderts [19] sowie die DFG-geförderte maschinenlesbare Konversion der Altbestandskataloge, oder auch stellvertretend das Projekt „Preußische Rechtsquellen“ mit der prototypisch realisierten Verlinkung in das Deutsche Rechtswörterbuch. [20]
  • Für neuzeitliche Nachlässe und Autografen steht bereits das Portal Kalliope zur Verfügung, das zu einem Verbundsystem für Nachlassbestände ausgebaut wird. [21]
  • Handlungsbedarf besteht noch im Bereich der Archivüberlieferung. Hier steht zunächst die Konversion der Inventare im Vordergrund.
  • Das Bildarchiv zur Kunst und Architektur in Deutschland wäre als Zugangsportal für die bildliche Überlieferung zu nennen. Es ist bereits kostenfrei im Netz verfügbar. [22]
  • Schließlich gibt es auch Vorarbeiten im Bereich der historischen Karten durch den Aufbau der Katalogdatenbank IKAR. [23]

Neue Publikationskulturen

Die neuen elektronischen Publikationsverfahren verändern die traditionellen, auf der wissenschaftlichen Zeitschrift und der wissenschaftlichen Monographie gründenden Formen des wissenschaftlichen Publizierens fundamental.

Die möglichen Vorteile sind allgemein bekannt: die Vereinfachung des Publikationsprozesses, die Beschleunigung bei der Verbreitung, der schnelle zeit- und ortsunabhängige Zugriff. Aber auch die Probleme sind bekannt: die Sicherung der Authentizität der Publikationen, die Qualitätsbewertung (also auch die Frage nach dem wissenschaftlichen Renommee des Veröffentlichungsorgans), die langfristige Sicherung der Daten und vieles mehr.

Im Bereich des elektronischen Publizierens förderte die DFG auch elektronische Rezensionsjournale. Vom Grundkonzept stand hierbei die weitgehend analoge Übertragung der gedruckten Publikationsform auf das elektronische Medium im Vordergrund. Nach dem Erproben von Ansätzen und Konzepten in diesem Bereich wird die zukünftige Aufgabe darin bestehen, auf stärkere Durchlässigkeit und Vernetzung mit anderen Informationssystemen hinzuarbeiten.

Ein Beispiel: Bei Amazon.de finde ich ein Buch aus dem Bereich der Geschichtswissenschaft zur „jüdischen Geschichte und Kultur in Museen“. [24] Da ich nicht warten kann, bis der Titel in meiner lokalen Bibliothek katalogisiert und verfügbar ist, will ich das Buch sofort online bestellen. Zuvor möchte ich aber gerne wissen, ob sich die Anschaffung auch lohnt. Nach einer Recherche im KVK finde ich eine Bibliothek, die das Buch bereits katalogisiert hat. Ein digitaler Klappentext oder Content wird mir aber nicht geboten. Also sehe ich noch einmal bei Amazon nach, aber auch hier steht noch keine Rezension zur Verfügung. Und so recherchiere ich weiter und stoße auf das elektronische Rezensionsjournal Sehepunkte. [25] Dort ist mein Buch bereits ausführlich rezensiert. Gut so, und ich freue mich darüber, aber warum ist der Hinweis auf diese Rezension nicht in den von mir befragten OPACs oder auch bei Amazon verankert?

Eine zweite grundsätzliche Zielrichtung der DFG-Förderung besteht darin, der bekannten Krise des kommerziellen Publikationsmarktes zu begegnen. Eine mögliche Lösungsstrategie könnte darin bestehen, dass WissenschaftlerInnen die Bedingungen des wissenschaftlichen Publizierens wieder stärker in die eigene Hand nehmen. Die Initiative Scholarly Publishing and Academic Resources Coalition (SPARC) führt in diese Richtung bereits aktive Kampagnen und Maßnahmen durch. [26] Eines unserer Kernprojekte in diesem Bereich ist die Initiative Dissertationen Online [27] , in der eine bundesweite Infrastruktur für das elektronische Publizieren von Dissertationen aufgebaut worden ist. Bereits zwei Drittel aller deutschen Hochschulen mit Promotionsrecht haben sich hieran angeschlossen. Auf die Initiative German Academic Publishers (GAP) möchte ich an dieser Stelle ebenfalls hinweisen. Es handelt sich um einen Verbund deutscher Universitäts- und mittelständischer Verlage. [28] GAP will allen, die im Wissenschaftsbereich elektronisch publizieren, eine organisatorische und technische Infrastruktur anbieten. In bewusster Konkurrenz zu marktbeherrschenden Großverlagen verfolgt GAP das Ziel, die beteiligten Universitäten beim Aufbau von elektronischen Zeitschriften und beim Workflow für sonstige elektronische Publikationen zu unterstützen.

Themenorientierte Informationsnetze

Bei den themenorientierten Netzwerken geht es darum, Infrastrukturen für spezifisch definierte Forschungsthemen aufzubauen, die erforderlichen Informationsressourcen bzw. Quellen- und Datenbestände digital zur Verfügung zu stellen und innovative Kommunikations- und Publikationsinfrastrukturen für den kooperativen Forschungsprozess anzubieten. Im Bereich der Geschichtswissenschaften wurde beispielsweise das „Informationsnetzwerk zur Geschichte des Rhein-Maas-Raums“ als themenorientiert gefördert (RM.net). [29] Ein Modell, das sich vielleicht auch an anderer Stelle anbieten könnte. Auch das 6. Europäische Rahmenprogramm [30] zielt teilweise in diese Richtung, indem es den Einzelinitiativen der Mitgliedsländer durch EU-Unterstützung ermöglicht, Networks of Excellence aufzubauen.

Perspektiven

In der Rückschau haben sich im vergangenen Jahrzehnt dramatische Änderungen im Informationssektor vollzogen. Viel wurde bisher erreicht. Auch die DFG hat an diesen Erfolgen ihren eigenen Anteil. Über den richtigen Weg in die Zukunft entscheiden jedoch letztlich diejenigen, die als WissenschafterInnen, BibliothekarInnen oder ArchivarInnen an Universitäten, Forschungs-, Informations- und Dokumentationseinrichtungen tätig sind. Die DFG bietet sich als Partner an, um sie auf diesem Weg zu begleiten; um ihre Aufgabe erfüllen zu können, ist sie auf Anträge und Ideen, auch im Vorfeld von Projektideen, angewiesen.

Dr. Ralf Goebel ist Leiter des Bereichs Wissenschaftliche Informationssysteme 2 bei der Deutschen Forschungsgemeinschaft.


[1] Vgl. <http://www.nsf.gov>.

[2] Vgl. <http://www.dfg.de/lis>.

[3] Vgl. <http://www.subito-doc.de>.

[4] Vgl. den „Informationsweiser Geschichte“ unter der memotechnisch anspruchsvollen URL <http://mdz2.bib-bvb.de/hist>, den „History Guide“ unter der URL <http://www.historyguide.de> sowie Clio-online unter der URL <http://www.clio-online.de>.

[5] Vgl. als Beispiel u.a. die „Aufsatzdatenbank zur Geschichte der Frühen Neuzeit“ (<http://mdz2.bib-bvb.de/~zs/aufsaetze>), die über den BSB-OPAC aber leider nicht abfragbar ist.

[6] Vgl. <http://www.ubka.uni-karlsruhe.de/kvk.html>.

[7] Vgl. u.a.: Das „Zeitschriftenfreihandmagazin“ zur Geschichte (<http://www.phil.uni-erlangen.de/~p1ges/zfhm/zfhm.html>), das „open directory project“ (<http://ch.dmoz.org>), den Nachrichtendienst für Historiker (<http://www.historiker.de>) etc. Aber auch die unter „Wissen24“ angebotenen universitären Seminararbeiten könnten unter Umständen von Interesse sein (<http://www.wissen24.de>) – genauso wie vielleicht die von Blackwell angebotenen Probekapitel (<http://www.blackwellpublishing.com/eurohistory>).

[8] <http://vlib.org> sowie <http://www.rz.uni-karlsruhe.de/Outerspace/VirtualLibrary>. Vgl. auch das „open directory project“ (<http://ch.dmoz.org>).

[9] Vgl. <http://www.schulmuseum.net>.

[10] Freilich erhält man über die Website-Suche von Clio-online ebenfalls den entsprechenden Treffer, aber nur in der Pluralform „Schulmuseen“, nicht im Singular „Schulmuseum“.

[11] Vgl. <http://www.ufg.uni-freiburg.de/digger.html>.

[12] Vgl. <http://gallica.bnf.fr>.

[13] Vgl. <http://memory.loc.gov> sowie <http://sunsite.berkeley.edu/amher>.

[14] Vgl. <http://www.digitalisiertedrucke.de/info>.

[15] Vgl. <http://www.manuscripta-mediaevalia.de>.

[16] Vgl. <http://handschriften.staatsbibliothek-berlin.de/de/inkunabeln_wiegendrucke>.

[17] Vgl. <http://www.bl.uk/collections/hoinc.html>.

[18] Vgl. <http://www.bsb-muenchen.de/dfg/proj_hs.htm>. Vgl. auch den Inkunabel-Katalog deutscher Bibliotheken (INKA) unter <http://www.uni-tuebingen.de/ub/kata/inkunabeln.htm>.

[19] Vgl. <http://www.vd17.de>.

[20] Vgl. <http://altedrucke.staatsbibliothek-berlin.de/Rechtsquellen> (Großschreibung beachten!) bzw. <http://www.rzuser.uni-heidelberg.de/~cd2/drw>.

[21] Vgl. <http://kalliope.staatsbibliothek-berlin.de>.

[22] Vgl. <http://www.fotomarburg.de>.

[23] Vgl. <http://ikar.sbb-spk-berlin.de>.

[24] Hoppe, Jens, Jüdische Geschichte und Kultur in Museen, Münster 2002. Rezensiert in „Sehepunkte“ von Tobias Arand (<http://www.sehepunkte.historicum.net/2003/03/3830911785.html>).

[25] Vgl. <http://www.sehepunkte.de>.

[26] Vgl. <http://www.sparceurope.org>.

[27] Vgl. <http://www.dissonline.de/>.

[28] Vgl. <http://www.gap-c.de>.

[29] Vgl. <http://www.rmnet.uni-trier.de>.

[30] Vgl. <http://www.rp6.de>.


Hinweis:

In den Texten der Artikel wird der Unicode-Zeichensatz verwendet. Falls Ihr Browser nicht automatisch die richtige Codierung einstellt, d.h. wenn die deutschen Extrazeichen nicht korrekt angezeigt werden, drücken Sie bitte den Reload-Knopf (Refresh oder Aktualisieren) oder ändern Sie die Zeichensatz-Einstellung selbst unter Ansicht -> Codierung -> Unicode (UTF-8).