Logo der Humboldt-Universität
 
edocSucheAutorenhinweiseProjekteRechte/Info/HilfeRSS
 
         
 

Übersichten

Aktuelle Ausgabe
Archiv
Impressum
@Redaktion@
   

Band 10 • 2007 • Teilband I

ISBN 978-3-86004-205-2

Geschichte im Netz: Praxis, Chancen, Visionen

zur¨ck

Elektronisches Publizieren in den Geisteswissenschaften

 

Elektronisches Publizieren – Einleitung

von Gudrun Gersmann

„Elektronisches Publizieren“? Vor einigen Jahren noch reagierten viele Historiker/innen geradezu verschreckt, wenn über Online-Publikationen gesprochen wurde. Zu exotisch schien damals diese Form der Veröffentlichung, zu weit entfernt von prestigeträchtigen klassischen Publikations-orten, zu fragil, um als wirkliche Alternative gelten zu dürfen. Selbst diejenigen, die grundsätzlich den „Neuen Medien“ gegenüber aufgeschlossen waren, legten oftmals Skepsis an den Tag: Würde es nicht so aussehen, als habe man keinen „vernünftigen“ Verlag für seine Dissertation finden können, wenn man das Manuskript einem Hochschulserver überantwortete? Würde man sich damit nicht in Fachkreisen disqualifizieren? Würde man sich denn überhaupt auf die Stabilität der Systeme verlassen können? Müsste man nicht von vornherein einkalkulieren, eines Morgens statt seines eigenen Textes auf dem Bildschirm eine schlichte Fehlermeldung („Server not found“) vorzufinden? Würde man mit der leicht kopierbaren elektronischen Fassung nicht zum Plagiieren geradezu einladen? So lauteten die Argumente, die „in jenen Zeiten“ immer wieder fast litaneihaft gegen das elektronische Publizieren vorgebracht wurden.

Wie gut, dass sich die Dinge geändert haben – oder zu ändern beginnen. Obwohl das eine oder andere Schreckgespenst („Langzeitarchivierung“) nach wie vor im Hintergrund herumgeistert und neue Formen der Wissenschaftskommunikation wie Weblogs oder Wikis vorerst nur zögerlich Eingang in die „Community“ finden, kann an der zunehmenden Bedeutung elektronischer Publikationsformen auch und gerade in den Geisteswissenschaften kein Zweifel mehr bestehen.

Auf welche Erfahrungen mit dem elektronischen Publizieren können wir Geisteswissenschaftler/innen mittlerweile zurückblicken? Wo existieren nach wie vor Berührungsängste? Wie kann das elektronische Publizieren stärker als bisher in den Geisteswissenschaften verankert werden? Da der in den vergangenen Jahren erfolgte Umbruchs- und Aufbruchsprozess hier nicht im Detail nachvollzogen werden kann, seien zum Auftakt nur einige wenige grundsätzliche Beobachtungen formuliert:

Erstens haben wir in der jüngsten Vergangenheit ein deutliches Wachstum der fachwissenschaftlichen Online-Journale, Repositorien und Plattformen erleben können, bedingt nicht zuletzt durch umfangreiche Fördermaßnahmen von Wissenschaftsorganisationen [1] und Ministerien: Im Rahmen der nordrhein-westfälischen Initiative „Digital Peer Publishing“ [2] konnten seit 2004 beispielsweise zehn neue Online-Journale aus unterschiedlichen Fachbereichen ins Leben gerufen werden, weitere Zeitschriften werden folgen.

Zweitens hat die auf unterschiedlichen Ebenen geführte Debatte über die Realisierung von Open Access-Modellen im Bereich des geisteswissenschaftlichen Publizierens inzwischen erfreulich weite Kreise gezogen: Ungeachtet mancher Rückstände und hartnäckiger (Verlags)Widerstände konnten auf unterschiedlichen Ebenen wichtige Fortschritte erzielt werden. Nicht unterschätzen sollte man die Aufmerksamkeit, die die einschlägigen Fachgesellschaften inzwischen dem elektronischen Publizieren widmen: So hat etwa der Verband der Historiker und Historikerinnen Deutschlands auf dem Konstanzer Historikertag vom September 2006 einen eigenen Unterausschuss für den Bereich „Elektronisches Publizieren und Fachinformation in den Geschichtswissenschaften“ eingesetzt, der sich explizit um eine künftig stärkere Integration der neuen Publikationsformen in die Fachwissenschaft kümmern soll.

Drittens haben sich im Feld des elektronischen Publizierens fruchtbare neue Kooperationen zwischen Bibliotheken, Rechenzentren und Autoren/innen herausgebildet, die zu neuen Rollenverteilungen geführt haben: Wissenschaftler/innen agieren nunmehr auch schon als ihre eigenen Verleger, während auch auf Seiten der Verlage selbst teilweise zumindest ein Prozess des Nachdenkens und des Reflektierens über die eigene Aufgabe in Gang gekommen ist.

Viertens hat die Einsicht, dass die Vorzüge elektronischer Publikationsformen über die bloße Faksimilierung einer gedruckten Vorlage oder die schnelle Veröffentlichung eines Beitrags weit hinausreichen, die Attraktivität des E-Publishing in den Augen vieler Autoren/innen maßgeblich erhöht. Ob es sich um die Anreicherung mit Bild- und Tonbeispielen handelt, um die Möglichkeit von Verlinkungen, die direkte „Anklickbarkeit“ in Bibliotheks-Opacs oder die Präsenz im „Google-Universum“ – jedes elektronisch vervielfältigte Manuskript zieht per se eine höhere „Visibilität“ nach sich als ein klassisch gedruckter und in Sammelbänden mit Kleinstauflagen auf ewig begrabener und verstaubender Artikel. Nicht das schlechteste Format also auch und gerade für Nachwuchswissenschaftler/innen, die mit ihren Forschungen weltweit bekannt werden – oder mit ihren Lesern/innen in Kontakt treten wollen.

Außerordentlich spannend dürfte es darüber hinaus sein, unter dem Stichwort Weblogs oder Wikis fünftens längerfristig die Entwicklung der neuen informellen Kommunikations- und Publikationsformen zu verfolgen, die experimentell etwa das kollaborative Schreiben praktizieren. Das Netzwerk „Knowlege Exchange“ belegt das internationale Interesse am Aufbau von „Virtual Research Environments“ (VRE), von „Umgebungen“ mithin, in denen Wissenschaftler/innen mit digitalisierten Quellen arbeiten, die im Netz verfügbaren Hilfsmittel nutzen und die Resultate ihrer Forschungen schließlich auch online veröffentlichen. Auch wenn auf Seiten der Wissenschaftler/innen häufig noch ein gewisser Hang zum gemütlichen Konsum vorherrscht und die Bereitschaft zum Engagement in Netzforen und Mailinglisten – aus welchen Gründen auch immer – durchaus noch gesteigert werden könnte, sind die Tendenzen in dieser Richtung doch unübersehbar. Es bleibt also spannend, und man darf hoffen, dass manche der noch existierenden Mängel und Kinderkrankheiten – angefangen beim unattraktiven „Gemischtwarencharakter“ vieler Hochschulschriftenserver bis hin zu ungelösten technischen Problemen – in absehbarer Zeit beseitigt werden können.

Viele der eingangs skizzierten Fragen konnten in der gut besuchten Sektion „Elektronisches Publizieren“ der Berliner .hist 2006-Tagung wenn auch nicht erschöpfend beantwortet, so doch wenigstens angerissen und mit einem engagierten Publikum diskutiert werden. Der Bogen der Fragestellungen war weit gespannt: Aus unterschiedlichen Perspektiven versuchten Johannes Fournier (DFG) und Karsten Borgmann (HU Berlin) den derzeitigen Standort der „Neuen Medien“ in der Wissenschaftskommunikation zu bestimmen. Ausgehend von den Ergebnissen einer von der Deutschen Forschungsgemeinschaft (DFG) Ende 2004 in Auftrag gegebenen Studie über die Akzeptanz des elektronischen Publizierens in der Fachwissenschaft lieferte Johannes Fournier einen gesamteuropäisch angelegten Überblick über aktuelle Entwicklungen im Bereich des elektronischen Publizierens. [3] Zu Recht wies er dabei auf die Langsamkeiten des Rezeptionsprozesses hin: Obwohl sich elektronische Zeitungen, Preprints, Wikis und Weblogs einer stetig wachsenden Lesergemeinde erfreuen, müssen diese Formen des Publizierens und Kommunizierens noch an Renommee gewinnen, um mit den etablierten Printproduktionen „mitziehen“ zu können. Diesen Befund bestätigte auch Karsten Borgmann vor dem Hintergrund einer im Januar 2006 abgeschlossenen, von den Projekten Clio-online [4] , H-Soz-u-Kult [5] und Zeitgeschichte-online [6] initiierten Umfrage über die Nutzung von Online-Angeboten in den Geschichtswissenschaften. [7] So selektiv und vorläufig die Resultate solcher Umfragen sein mögen, liefern sie doch anregende Aufschlüsse über derzeitige Rezeptionsgewohnheiten und –erwartungen. Die Selbstverständlichkeit und Unbefangenheit, mit der Historiker/innen die fachwissenschaftlichen Netzangebote von Clio-online und H-Soz-u-Kult bis hin zu historicum.net [8] in ihren Arbeitsalltag integriert haben, steht demnach – noch – in eklatantem Widerspruch zur Bereitschaft, eigene Texte online verfügbar zu machen: Zweifellos ist hier noch einiges an Arbeit zu tun.

Steckten die beiden erwähnten Beiträge den allgemeinen wissenschaftsimmanenten und wissenschaftspolitischen Rahmen des elektronischen Publizierens in den Geisteswissenschaften ab, so berichteten Michael Kaiser (Universität zu Köln) [9] und Jan-Holger Kirsch (Zentrum für Zeithistorische Forschung, Potsdam) [10] aus der Redakteurspraxis über ihre Erfahrungen mit dem Aufbau und der Gestaltung der Online-Fachjournale sehepunkte [11] , zeitenblicke [12] und Zeithistorische Forschungen. [13] Obwohl die drei Journale auf unterschiedlichen Publikationsgewohnheiten beruhen – bei den sehepunkten und zeitenblicken handelt es sich um reine Online-Journale, die Zeithistorischen Forschungen hingegen werden in Hybridform veröffentlicht –, ist das Fazit der Macher/innen letztlich ähnlich: Die hohen Zugriffszahlen sprechen einerseits für die hohe Popularität der Journale, die von der vielfach konservativen Wunschklientel mittlerweile offenbar ähnlich hochrangig eingeschätzt werden wie die klassischen Fachzeitschriften. Trotz der wachsenden Reputation kann keines der drei Journale freilich als gesichert gelten: Da der redaktionelle und personelle Aufwand bei der Einwerbung und Begutachtung von Artikeln bei einem Online-Journal ebenso hoch ist wie bei einem klassischen Journal, kann der Betrieb solcher Zeitschriften auf Dauer allein durch Anschubfinanzierungen nicht geleistet werden.

Solche Kosten sind nicht das einzige Problem, wie der Beitrag des Medienrechtlers Karl-Nikolaus Peifer (Universität zu Köln) [14] anschaulich dokumentierte, der nicht nur höchst pointiert auf die Problematik des Urheberrechts und lizenzrechtlicher Klärungen verwies, sondern allen allzu euphorischen Publikationsvisionen in Bezug auf die Verwendung von Bild- und Tonquellen einen Dämpfer versetzte. Thomas Wolf-Klostermann (Bayerische Staatsbibliothek, München) [15] ergänzte schließlich das Spektrum der Vorträge durch Bemerkungen zum Thema aus bibliothekarischer Sicht mit einem tröstlichen Fazit: Ungeachtet aller Kassandrarufe haben die Bibliotheken das digitale Zeitalter bisher nicht nur überlebt, sondern als Reaktion auf die tiefgreifenden Veränderungen im Kommuniksations- und Publikationssystem neue dezentrale Organisationsformen und -strukturen entwickelt. Inwieweit es den Bibliotheken gelingen wird, als professionelle Informationsmanager zu agieren, wird die Zukunft zeigen.

***

Prof. Dr. Gudrun Gersmann ist Professorin für die Geschichte der Frühen Neuzeit an der Universität zu Köln, Begründerin des Internetportals historicum.net und Mitherausgeberin der E-Journale <http://www.sehepunkte.de/>; <http://www.zeitenblicke.de/>; <http://www.lesepunkte.de/>. E-Mail: gudrun.gersmann@uni-koeln.de


[1] Wie zum Beispiel der DFG, vgl. <http://www.dfg.de>.

[2] Vgl. <http://www.dipp.nrw.de/journals/>.

[3] Vgl. dazu den Beitrag in diesem Band.

[4] <http://www.clio-online.de/>.

[5] <http://hsozkult.geschichte.hu-berlin.de/>.

[6] <http://www.zeitgeschichte-online.de>.

[7] Vgl. dazu den Beitrag in diesem Band.

[8] <http://www.historicum.net>.

[9] Vgl. dazu den Beitrag in diesem Band.

[10] Vgl. dazu den Beitrag in diesem Band.

[11] <http://www.sehepunkte.de>.

[12] <http://www.zeitenblicke.de>.

[13] <http://www.zeithistorische-forschungen.de/>.

[14] Vgl. dazu den Beitrag in diesem Band.

[15] Vgl. dazu den Beitrag in diesem Band.


Sehepunkte und Zeitenblicke – Entwicklungslinien nach einem halben Jahrzehnt des elektronischen Publizierens

von Michael Kaiser

Mittlerweile erscheinen die sehepunkte im sechsten Jahrgang, die zeitenblicke in ihrem fünften Jahr. Absolut gesehen ist dies keine lange Zeit-spanne, für Internetprojekte allerdings stellt es durchaus eine beachtliche Kontinuität dar.

Für beide OnlineFormate lohnt es sich, einen Blick zurück zu werfen und zu rekapitulieren, von welchen Anfängen aus sie gestartet und wo sie heute in der Fachwelt zu verorten sind. Dies soll weniger chronologisch geschehen als vielmehr nach Sachpunkten geordnet, die helfen sollen, die Entwicklung der sehepunkte und der zeitenblicke einzuordnen und zu verstehen. Auf eine Kurzvorstellung der Journale folgt eine Skizze der Startschwierigkeiten, danach werden die Punkte beleuchtet, die zur erfolgreichen Etablierung der Journale beitrugen. Dabei spielen konzeptionelle Elemente der Online-Formate selbst eine Rolle, aber auch spezifische Eigenheiten des Mediums und das Verhältnis zu den Adressaten/innen. Abschließend werden vor allem mit den Rechtefragen und den Finanzierungsproblemen Aspekte thematisiert, die die weitere Entwicklung der sehepunkte und der zeitenblicke mitprägen dürften.

***

Eine Idee – zwei Projekte

Wie für viele andere Online-Publikationen stand auch für die sehepunkte [1] und zeitenblicke [2] am Anfang die Grundidee, die Möglichkeiten des elektronischen Publizierens für die Geschichtswissenschaften nutzbar zu machen. Zwei Kriterien waren (und sind nach wie vor) handlungsleitend für die beiden Online-Projekte:

Zum einen ist dies die enorme Schnelligkeit des Mediums, die die Aktualität der publizierten wissenschaftlichen Inhalte merklich steigert. Dies gilt in ganz besonderem Maße für die Buchbesprechungen, die bedeutend schneller als in jedem anderen wissenschaftlichen Printmedium verfügbar sind und damit eine rasche Orientierung über aktuelle Neuerscheinungen ermöglichen. Zum anderen spielt die nahezu unbegrenzte Verfügbarkeit der Publikationen eine wichtige Rolle. Dass man bei Online-Publikationen nicht mehr von Bibliotheken und damit von Magazinaushubzeiten und Lesesaalöffnungszeiten abhängig ist, dass Online-Publikationen nie „ausgeliehen“ sind und damit nur einem Benutzer bzw. einer Benutzerin exklusiv, sondern für unbegrenzt viele Leser/innen gleichzeitig verfügbar sind, stellt den anderen unbestrittenen Vorteil dar. Beide Formate waren auch von Beginn an, das heißt auch schon lange vor der Berliner Erklärung, dem Prinzip des Open Access verpflichtet. Diese Vorteile des Online-Publizierens galt es nun zu verknüpfen mit den traditionellen wissenschaftlichen Standards. Fachwissenschaftliche Seriosität war die Voraussetzung, um die Gleichwertigkeit von Online-Formaten neben herkömmlichen Printjournalen zu erweisen. Mit diesem Anspruch sind die beiden Projekte sehepunkte und zeitenblicke angetreten.

Als erstes erblickte das Rezensionsjournal sehepunkte das Licht der virtuellen Welt. Seine Geschichte begann im Jahr 2000 unter dem Namen PERFORM. Anfangs beschränkte sich PERFORM auf Publikationen aus dem Bereich der frühneuzeitlichen Geschichte. Doch rasch wurde hier die Öffnung zu allen anderen Teilepochen der Geschichte vollzogen, als Ende 2001 die sehepunkte das Erbe von PERFORM antraten. Erschien PERFORM anfangs nur alle zwei Monate, wurde mit dem Wechsel zu den sehepunkten auch ein einmonatiger Erscheinungszyklus eingeführt, der sich bis jetzt bewährt hat. Die sehepunkte bieten heute thematisch ein Komplettangebot an, indem die Epochengliederung das Altertum, das Mittelalter, die Frühe Neuzeit, das 19. Jahrhundert und die Zeitgeschichte umfasst – ergänzt durch eine allgemeine Rubrik für übergreifende Literatur. KUNSTFORM, die kunstgeschichtliche Sektion der sehepunkte, besitzt zwar nicht diese explizite Substruktur, deckt aber prinzipiell ebenfalls den historischen Gesamtrahmen ab. Eine zusätzliche Möglichkeit, einen thematischen Schwerpunkt in einer Ausgabe zu setzen, bietet das Forum, das Publikationen zu einem bestimmten Themenkreis versammelt und mit einer knappen Einleitung versehen gebündelt präsentiert. Das mag mal die Stadtkultur in der Spätantike sein oder auch die kontroverse Diskussion über ein aktuelles Buch, wie sie sich in Mehrfach-Besprechungen durch Rezensenten unterschiedlicher Couleur und Standpunkte widerspiegelt – so etwa im Falle von Götz Alys Buch „Hitlers Volksstaat“.

Pro Ausgabe werden in den sehepunkten ungefähr 80 bis 100 Rezensionen publiziert. Bis dato sind über 3.000 Buchbesprechungen erschienen. Sie sind überwiegend in deutscher Sprache geschrieben, es gibt aber auch einige Rezensionen in Englisch, Italienisch, Französisch und Spanisch.

Etwas jünger sind die zeitenblicke, ein Journal für die Geschichtswissenschaften, das 2002 erstmalig online gestellt wurde. Formal ist hier offenkundig die größte Konstanz zu beobachten, da keine Umbenennungen und damit einhergehende Neukonzipierungen vorgenommen wurden. Eine thematische Schwerpunktsetzung zeichnet sich insofern ab, als in den aktuellen Ausgaben verstärkt frühneuzeitliche Themen aufgegriffen werden, während in früheren Nummern auch andere Epochen vertreten waren. Die positive Entwicklung der zeitenblicke ist ablesbar an der erhöhten Frequenz: Erschienen 2002 nur zwei Ausgaben, sind in allen folgenden Jahren stets drei Ausgaben realisiert worden. Momentan gibt es für jede Ausgabe ein festes historisches Thema. Hierbei kann es sich um Sujets handeln, die aktuelle Forschungstrends spiegeln wie es etwa die Ausgabe zu den Ego-Dokumenten „Das Ich in der Frühen Neuzeit“ [3] tut oder auch die Ausgabe zu „Raub und Wiedergutmachung“. [4] Thematisiert wird aber auch die Situation des elektronischen Publizierens oder der aktuelle Stand der Diskussion zu den Studienreformen in Europa. In der Binnenstruktur gibt es mit den „Analysen und Beiträgen“ das typische Genre für ein Fachjournal; Gleiches gilt für die Berichte aus der Forschung, während sich die Verlinkungen auf externe Netzangebote die Chancen des neuen Mediums zunutze machen. Neu und durchaus ungewöhnlich für ein wissenschaftliches Fachorgan ist das Interview, das an der Spitze einer jeden Ausgabe steht und meist herausragendene Fachvertreter/innen und sonst thematisch ausgewiesene Gesprächspartner/innen zu Wort kommen lässt.

Die zeitenblicke veröffentlichen überwiegend Originalbeiträge; nur zu ungefähr zehn Prozent der Aufsätze gibt es Post- oder Pre-Prints. Die Aufsätze selbst erscheinen meist in deutscher Sprache, doch ist es möglich, dass Artikel auch in einer gängigen anderen Sprache publiziert werden. Bislang sind Beiträge in englischer und italienischer Sprache erschienen. Insgesamt sind seit 2002 über 200 Artikel veröffentlicht worden.

Auch wenn es sich um zwei separate Journale handelt, die jeweils eine eigene Geschichte haben und auch je für sich als Publikation existieren, bilden die sehepunkte und die zeitenblicke ein konzeptionelles Tandem, was in der Geschichtswissenschaft und in den angrenzenden Fachdisziplinen auch so wahrgenommen wird. Deutlich wird dies durch die komplementären Inhalte beider Formate, hinzu kommt die große strukturelle Ähnlichkeit. Beide Journale sind stark an traditionellen Lesegewohnheiten orientiert, verzichten etwa auf ein Day-By-Day-Publishing, wie es bei vielen anderen Online-Formaten praktiziert wird. Stattdessen gibt es eine feste Ausgabenstruktur mit festen Erscheinungsterminen. Überhaupt finden sich nur wenig dynamisierende Elemente, vielmehr handelt es sich um mehr oder weniger statische Online-Publikationen. Dabei stellt es durchaus einen bewussten Verzicht auf Möglichkeiten dar, die das Online-Publizieren ansonsten offeriert. Entscheidend aber ist hier gewesen, das Publikum mit seinen Gewohnheiten ernst zu nehmen und somit das neue Medium eines Online-Journals in weitgehend vertrauten Formen darzubieten.

Anfangsschwierigkeiten

Die Startphase der Projekte war von Problemen gekennzeichnet. Die typische Anfangseuphorie, die es auf Seiten der Projektinitiatoren gab, war durchaus notwendig, um der Skepsis und den Bedenken im Umfeld und bei potenziellen Kooperationspartnern zu begegnen. Das Rezensionsjournal musste in zwei Richtungen um Vertrauen werben: Da waren zunächst die Verlage zur Zusammenarbeit zu bewegen, dass sie den sehepunkten von ihren Verlagsprodukten Rezensionsexemplare zur Verfügung stellten. Es gab zu Beginn ein uneinheitliches Bild, da einige Verlagshäuser die sehepunkte von vornherein unterstützten, während andere Verlage zunächst deutlich distanziert reagierten und erst später ihre Bücher zur Rezension offerierten oder auf Anfrage der Redaktion zusandten. Die Kooperationsbereitschaft der Verlage hing verständlicherweise vom Erfolg der sehepunkte ab, der an den tatsächlich publizierten Besprechungen messbar war. Es ging also gerade in der kritischen Anfangsphase darum, auch Autoren/innen zu finden, die ihrerseits zuverlässig rezensierten, so dass damit Vorbehalte und Zweifel auf Seiten der Verlage zerstreut werden konnten. Bei den Wissenschaftlern/innen gab es ebenfalls Skepsis, ob die geschriebenen Besprechungen dann auch veröffentlicht und wahrgenommen, die Leistungen der Rezensenten/innen also auch in der Scientific Community sichtbar werden würden.

Die sehr kurze Frist von der Einreichung einer Besprechung bis zur Publikation bot kaum Anlass für die Bedenken der Rezensenten/innen. Der Vorteil der Schnelligkeit einer Online-Veröffentlichung, die eben verhinderte, dass der eingereichte Text über Monate, wenn nicht Jahre in der Redaktion lag, wurde hier sehr schnell deutlich. Auch die Reaktionen der besprochenen Autoren/innen, die sich durchweg sehr angetan zeigten, dass ihre Publikation derart schnell Resonanz gefunden hatte, bestätigten den positiven Eindruck und trugen ihren Teil zur guten Reputation des Rezensionsjournals bei. Der gute Name der sehepunkte bewirkte auch, dass diese in erstaunlich kurzer Zeit nicht nur ein Journal für junge Wissenschaftler/innen wurden, sondern ebenso von etablierten Fachvertretern/innen genutzt wurden, die ihrerseits keine Scheu zeigten, für die sehepunkte zu schreiben. Der Erfolg der sehepunkte half zweifelsohne, den Start der zeitenblicke zu befördern, die sowohl organisatorisch, als auch im Erscheinungsbild gleichsam als Schwesterprojekt der sehepunkte auftraten. Auch hier gab es Bedenken gegenüber dem Medium. Deutlich stärker als die sehepunkte waren die zeitenblicke mit Fragen nach der Nachhaltigkeit des Formats konfrontiert – ein Punkt, der für die Buchbesprechungen, die doch eher als Tagesgeschäft wahrgenommen werden, sehr viel weniger relevant war. Ob aber ein Aufsatz auch in den kommenden Monaten und Jahren noch recherchierbar sein wird, ist wesentlich für die Bereitschaft der Wissenschaftler/innen, ihre Ergebnisse einer Online-Zeitschrift anzuvertrauen. Große Offenheit in dieser Frage seitens der Herausgeber/innen und der Redaktion sowie letztlich die Beständigkeit im Publikationsprozess selbst halfen hier ganz wesentlich, die Bedenken zu zerstreuen.

Gründe für den Erfolg

Beide Formate haben unbestritten großen Erfolg und können mittlerweile als im Fach etabliert gelten. Die Gründe dafür lassen sich auf ganz wenige Kernpunkte zurückführen. Beide Journale haben sich das Vertrauen der Autoren/innen und Leser/innen erarbeiten müssen. Wichtig war es deswegen von Anfang an, dass die Journale mit großer Zuverlässigkeit erschienen. Besonders die monatliche Erscheinungsweise der sehepunkte ist ein solches Kriterium, mit dem sich alle vier Wochen neu die Beständigkeit des Projekts bestätigt: Dass der 15. eines jeden Monats sehepunkte-Tag ist, ist gleichwohl nicht nur ein stets aktueller Erweis der Zuverlässigkeit, sondern umgekehrt auch Verpflichtung der sehepunkte selbst. Die zeitenblicke, die nicht in dem strengen Sinne auf ein Tagesdatum als Erscheinungstermin festgelegt sind, haben diesen Druck nicht, müssen gleichwohl in einer Taktung von jeweils ungefähr vier Monaten erscheinen.

Die Schnelligkeit des Mediums hat stets auch eine Schattenseite gehabt, mochte die Geschwindigkeit im Publikationsprozess doch auch implizieren, dass der Zeitvorteil mit einem Mangel an Qualität erkauft sei. Um diesen Verdacht von vornherein zu entkräften, haben beide Journale von Beginn an auf die strikte Einhaltung von wissenschaftlichen Standards gesetzt. Bei den sehepunkten durchlaufen die Besprechungen ein elaboriertes Begutachtungsverfahren, das im Wesentlichen zweistufig funktioniert. Zunächst bearbeiten die Fachredakteure/innen den Text, wobei hier auch inhaltlich-konzeptionelle Fragen im Vordergrund stehen. Dieses spielt aber auch noch einmal im internen Begutachtungsverfahren durch die Redaktion und vor allem seitens der Herausgeber/innen eine wichtige Rolle, so dass auf diese Weise ein hoher wissenschaftlicher Standard gewährleistet ist. Ebenso wird redaktionell auf die Beachtung der Formalia großer Wert gelegt, um das einheitliche Erscheinungsbild der sehepunkte zu wahren.

Um die fachwissenschaftliche Kompetenz in der redaktionellen Betreuung sicherzustellen, ist eine ganze Reihe von Wissenschaftlern/innen als Fachredakteure/innen tätig, die hier ihre eigenen besonderen Qualifikationen einbringen können und auch in diversen Spezialgebieten der historischen Forschung für hohe Standards bürgen. So ist auch die starke Verwurzelung der sehepunkte in der Wissenschaft selbst hergestellt, da die wissenschaftlichen Rezensenten/innen von Wissenschaftskollegen/innen betreut werden.

Das hier entstehende Vertrauen wird auch durch den Umstand befördert, dass beide Formate starke Partner-Institutionen haben, die ihrerseits Fachkompetenz für die Online-Formate einbringen. Dies ist das Herder-Institut in Marburg, das besonders für den weiten Bereich der osteuropäischen Geschichte zuständig ist, und auch das Institut für Zeitgeschichte in München, das weite Teile der Publikationen der Neuesten Geschichte mitbetreut. Zu erwähnen ist auch der wissenschaftliche Beirat, der aus renommierten Vertretern/innen der historischen Wissenschaften aller Teilepochen besteht, und auf seine Weise die Seriosität der Projekte gewährleistet. Gleiches gilt auch für die zeitenblicke, wobei das „nur“ dreimalige Erscheinen pro Jahr die Verwurzelung in der Fachwelt im Alltag nicht so augenfällig werden lässt wie bei den sehepunkten.

Neben diesen Faktoren spielt auch die bereits oben erwähnte Nachhaltigkeit der Online-Projekte eine große Rolle. Die Seriosität beider Journale schlägt sich auch im Umstand nieder, dass beide jeweils eine eigene ISSN (International Standard Serial Number) haben. Die Frage der Archivierung ist zweifelsohne ein Punkt, der immer noch einer wirklich abschließenden Antwort bedarf. Doch dürfen sich die zeitenblicke und sehepunkte etwa durch Kooperationen mit der Bayerischen Staatsbibliothek in München und dem Hochschulbibliothekszentrum für Nordrhein-Westfalen in Köln einigermaßen sicher fühlen, was die Dauerhaftigkeit im Netz angeht – ganz abgesehen vom Umstand, dass die Deutsche Bibliothek in Leipzig die Texte der zeitenblicke sichert und die Projekte ihrerseits nochmals eigene Archiv- und Sicherungsfunktionen aufgebaut haben. Im Falle von technischen Schwierigkeiten ist daher auch gewährleistet, dass ein Rund-um-die-Uhr-Service für die permanente Sichtbarkeit der publizierten Inhalte im Netz sorgt. Neben der Nachhaltigkeit nicht minder wichtig ist das Prinzip der Unveränderlichkeit einer Online-Publikation. Hier gilt von Beginn an der Grundsatz, dass ein ins Netz gestellter Text als „gedruckt“ und damit nicht mehr korrigierbar galt – ein ganz entscheidender Satz, der in der Scientific Community als Ausweis von Seriosität wahrgenommen wird. Darin äußert sich weniger ein Konservatismus als vielmehr das Bedürfnis, Texte zu publizieren, die auch wissenschaftlich zitierfähig sind. Auf diese Weise ist auch für alle Wissenschaftler/innen, die für die sehepunkte und die zeitenblicke arbeiten, sichergestellt, dass diese Texte auch in die eigene Publikationsliste aufgenommen werden können. An dem Punkt kommen nicht zuletzt die durchaus starren Publikationsstrukturen ins Spiel, dass eben beide Journale in festen Ausgaben zu festen Terminen erscheinen. Hier wird die Zitierfähigkeit auch ohne Angabe der URL deutlich und unterscheidet sich praktisch nicht von den Zitierkonventionen, wie sie bei gewöhnlichen Printmedien angewandt werden. Die Wissenschaftler/innen, auch wenn sie zunächst dem neuen Medium mit Skepsis, Argwohn, vielleicht auch mit einigen Berührungsängsten begegneten, fanden hier Strukturen vor, die vertraut waren und damit Vertrauen schafften.

Neues Medium – neue Wissenschaft?

Nicht alles bei den Online-Projekten ist so vertraut wie die Publikationsweise. Das neue Medium wirkt auf seine Nutzer/innen in besonderer Art zurück – sowohl auf diejenigen, die für das Internet schreiben, als auch auf diejenigen, die die dort präsentierten Inhalte lesen. Dabei geht es weniger um Geschmacksfragen, die das Design der Homepages und das Layout einzelner Seiten prägen; vielmehr geht es um Formen des (wissenschaftlichen) Schreibens im und für das Netz. So besteht Konsens darüber, dass sich die kleine Form als adäquat für die Präsentation eben auch wissenschaftlicher Inhalte bewährt hat. Gerade Verknüpfungsmöglichkeiten, die einzelne, auch vom Umfang her überschaubare Texte in immer neue Zusammenhänge mit anderen Informationen stellen und sich damit dem Begriff des Hypertextes nähern, sind vielfach der einleuchtende Beleg dafür. Dass das Lesen am Bildschirm von kürzeren, gut strukturierten Texten angenehmer ist, steht zudem außer Frage. Gegen diese Tendenz kleinerer Texte – wobei die Kleinheit ein relativer Begriff ist, zumal die zeitenblicke mitunter Aufsätze publizieren, die im Umfang traditionellen Veröffentlichungen in nichts nachstehen, ohne deswegen für das Netz ungeeignet zu sein – hat sich immer wieder Widerstand geregt. Die Forderung nach kurzen Texten gerät leicht in Verdacht, journalistische Gepflogenheiten zu adaptieren – für Autoren/innen mit wissenschaftlichem Anspruch ein tödliches Argument. Sicherlich ist die Gleichsetzung von kurzen Texten als unwissenschaftliche, ja sogar unseriöse Publikationsform auch ein „deutsches“ Problem, das sich umgekehrt immer wieder in Klagen über die Unlesbarkeit wissenschaftlicher Publikationen, speziell von wissenschaftlichen Qualifikationsarbeiten, niederschlägt. Dass aber im besten Sinne einfaches, prägnantes Schreiben vor allem eine stilistische Anforderung ist, die keineswegs mit Qualitätsverlusten und Einbußen an intellektueller Brillanz verbunden sein muss, ist eine Einsicht, die vielleicht weiter verbreitet ist als man denkt – zumal die konsequente Umsetzung dieser Einsicht eben einfach schwierig ist.

Ein anderes Argument, das besonders von Autoren/innen immer wieder für längere Texte ins Feld geführt wird, ist das der unbegrenzten Kapazität des Netzes: Anders als Bücher und Zeitschriften, die schon aus Kostengründen auf eine bestimmte Bogenzahl festgelegt sind, fällt diese Beschränkung für Online-Formate weg. Gerade auch das Kostenargument ist zweifelsohne richtig. Speziell bei den sehepunkten ist der Streit um den anzustrebenden Umfang einer Buchbesprechung die beständige Begleitmusik der alltäglichen Redaktionsroutine. Keineswegs Prinzipienreiterei, sondern vielmehr der konkrete und oft bestätigte Erfahrungswert, dass Besprechungen für die Masse der Leser/innen eine rasche Orientierung auf dem Buchmarkt bieten und daher auch im Umfang überschaubare Textgrößen sein sollten, lässt daher den Richtwert von 7.500 Zeichen für Rezension als angemessen erscheinen (was je nach Seitenlayout zwei bis drei Druckseiten entspricht). Fraglos sind hier kulturelle Entwicklungen im Gange, die keineswegs abgeschlossen sind, sondern vielmehr erst an ihrem Anfang stehen. Klar dürfte lediglich die Tendenz sein, wobei die Neuen Medien stets bewiesen haben, dass sie immer gut sind, um überraschende Wendungen auszulösen. Bislang wird man aber festhalten können, dass vor dem Neuen Lesen zunächst das Neue Schreiben kommt. Den Herausgebern/innen von Online-Publikationen wächst somit nolens volens die Aufgabe zu, ihre Autorenschaft zu angemessenem Schreiben zu „erziehen“. Dies hört sich paternalistischer an, als es gemeint ist und als es sich in der Realität vollzieht. Vielmehr handelt es sich um einen interaktiven Prozess zwischen den Autoren/innen und Redakteuren/innen (die ja selbst auch als wissenschaftliche Autoren/innen tätig sind), der ein gemeinsames Lernen und Entwickeln von adäquaten Möglichkeiten des Schreibens für das Internet darstellt.

Es mag sein, dass andere Online-Projekte, die ihren Formaten eine andere, offenere Struktur gegeben haben, diese Entwicklung schneller vorantreiben. Doch auch die sehepunkte und die zeitenblicke partizipieren, wenn auch unmerklich, an diesen Tendenzen. Wichtiger als das Prädikat, Schrittmacher einer neuen Schreib- und Lesekultur zu sein, bleibt für beide Online-Journale daher der Ansatz, die hohe Akzeptanz in der Fachwissenschaft zu erhalten. Auf ihre eigene, ja durchaus erfolgreiche Weise sind auch die sehepunkte und die zeitenblicke Teil der sich neu entwickelnden Kommunikationsformen im Netz.

Rechtsprobleme

Die geradezu universelle Verfügbarkeit hat beiden Online-Projekten sehr geholfen, ihren Platz in der Fachwelt zu finden. Hier zeigte sich die große Berechtigung des Open Access-Prinzips. Allerdings zeigte sich auch, dass Open Access vielfach dahingehend missverstanden wurde, alles im Netz sei frei, alles sei möglich. Tatsächlich sind die technischen Spielräume immens, doch werden viele Ideen von rechtlichen Beschränkungen eingeholt – oder zumindest von juristischen Bedenken, die erkennen lassen, dass sich Betreiber/innen wie Nutzer/innen der Online-Projekte aufgrund einer unscharfen Rechtssituation auf juristisch unsicherem Terrain bewegen. Es war teilweise einer im besten Sinne naiven Euphorie des Anfangs geschuldet, mitunter aber auch eines schlichtweg fehlenden Bewusstseins in den Fachwissenschaften selbst, dass diese Aspekte allzu lange ausgeblendet blieben. Nicht nur, dass einzelne Projekte dadurch Schaden nehmen könnten, auch eine Idee wie die des Open Access kann auf diese Weise ungerechtfertigterweise in Misskredit geraten.

Die Zeit der Unschuld ist jedenfalls längst vorbei; Herausgeber/innen und Redaktion beider Online-Formate sind sich dessen sehr bewusst. Damit sind zwei Konsequenzen verbunden. Zum einen müssen die Journale selbst auf eine juristisch sichere Basis gestellt werden. Dazu gehören klare Lizenzen, die die Rechte der Journalbetreiber/innen wie der Autoren/innen klar definieren. Für die zeitenblicke reguliert zum Beispiel die DiPP-Lizenz (Digital Peer Publishing) diese Fragen. [5]

Zum anderen geht es darum, auf Seiten der Autoren/innen das Bewusstsein für die juristische Problematik zu wecken – allerdings ohne eine Panik dahingehend auszulösen, dass das Online-Publizieren ein rechtlich fragwürdiges Unternehmen sei: mühsam erworbenes Vertrauen wäre hier schnell verspielt. Es gibt jedoch genügend Beispiele aus der Praxis der Redaktion, die die Relevanz der juristischen Problematik erkennen lassen. Gerade für die zeitenblicke spielt dies eine Rolle, da hier die Möglichkeit der Publikation von Abbildungen eine große Rolle und auch einen großen Anreiz für die Autoren/innen darstellt. Dass die Rechte von Quellenmaterial bei Online-Publikationen eigens zu klären sind, gehört somit zu den alltäglichen redaktionellen Routinen – ebenso dass im Extremfall Autoren/innen einsehen müssen, dass nicht alle multimedialen Möglichkeiten rechtlich abgedeckt sind. Man muss sich wohl mit dem Gedanken vertraut machen, dass die Rechteproblematik noch viel weniger als das Bemühen um Vertrauen für die Online-Journale und das Streben nach Seriosität kaum in eine Phase fallen, die in absehbarer Zeit vorbei sein wird. Die Klärung der jeweils rechtlich verbindlichen Normen für verschiedene Features wird auch angesichts der weiter voranschreitenden technischen Möglichkeiten höchstwahrscheinlich eine bleibende Aufgabe für die Betreiber/innen der Online-Journale bleiben. Allerdings werden sich auch die Autoren/innen, die online publizieren, zumindest teilweise diesem Problemkomplex zuwenden müssen.

Pecunia nervus rerum – auch im Internet

Geld ist der Maßstab aller Dinge. Und auch Online-Publikationen kosten Geld – die Banalität dieser Tatsache muss vor den Hoffnungen gesehen werden, die man hegte, als das Publizieren im Netz eine deutlich kostengünstigere Variante zu Hardcopy-Publikationen zu sein versprach. Heute wird immer deutlicher, dass auch im World Wide Web angesiedelte Projekte ihren Preis haben. Dies gilt umso mehr, wenn sie auf Qualität setzen, ja ein wissenschaftliches Niveau anstreben. Es gilt also, sowohl für das Personal als auch die technischen Standards, eine Finanzierung sicherzustellen.

Beide Projekte sind derzeit noch im Genuss einer öffentlichen Förderung, doch völlig unklar ist die zukünftige Finanzierung. Ob die sehepunkte und die zeitenblicke stets mit öffentlichen Geldern rechnen können, ist nicht sicher. Es gilt daher, neue Finanzierungsmöglichkeiten auszuloten, allerdings unter größtmöglicher Wahrung des Open Access-Prinzips. Festzuhalten ist, dass der freie Zugang zur Online-Version eine Gebührenerhebung für gegenständliche Publikationsformen nicht grundsätzlich ausschließt. Infrage kämen etwa CDs der zeitenblicke-Ausgaben, zu denken wäre auch an Print-On-Demand-Funktionen für beide Online-Formate. Selbst die PDF-Version, die derzeit zu jedem Text der sehepunkte und der zeitenblicke frei verfügbar ist, könnte hier einbezogen werden. Sehr viel weiter als die Finanzierung von Post-Prints und Hybridversionen gehen Gedankenspiele, das komplette Angebot über Campus- und/oder Nationallizenzen zu verkaufen, so dass die einzelnen Wissenschaftler/innen und Interessenten/innen immer noch einen freien Zugang zu den Online-Inhalten haben.

Bei allen Überlegungen in diese Richtung darf gleichwohl nicht außer Acht gelassen werden, dass solche Finanzierungsmodelle in der Scientific Community akzeptiert werden müssen. Es ist ja weder der Wissenschaft allgemein noch den Online-Projekten konkret geholfen, ein Finanzierungsschema zu entwickeln, das in keiner Weise von den potenziellen Nutzern/innen angenommen wird. Damit dürften auch für die Geschichts-, aber sicher auch für die Geisteswissenschaften insgesamt Überlegungen hinfällig sein, die Autoren/innen für das Publizieren in den Online-Formaten zur Kasse zu bitten. Derartige in den Naturwissenschaften übliche Verfahren sind in den Geisteswissenschaften nicht realistisch. Schließlich gebietet aber der Realitätssinn einzugestehen, dass momentan unabhängig von gängigen Finanzierungsmöglichkeiten kaum ein Geschäftsmodell vorhanden ist, das eine völlig eigenständige Kostendeckung für die Online-Projekte gewährleisten kann. Auch wenn zumindest ein Teil der Unkosten aufgefangen werden könnte, wird eine Grundförderung oder zumindest eine solide Grundausstattung der Projekte mit Stellen und Finanzmodellen aller Voraussicht nach unvermeidbar sein. Unbestritten ist jedenfalls, dass ähnlich wie die Rechteproblematik auch die Finanzierungsfragen schon in naher und mittelfristiger Zukunft an Bedeutung für die Online-Journale gewinnen werden.

Fazit

Beide Online-Journale können zum jetzigen Zeitpunkt eine durchweg positive Bilanz ziehen. Sie haben aus schwierigen Anfängen heraus ihren Weg gemacht und sind zu etablierten und renommierten Publikationsorganen ihrer Fachwissenschaft geworden. Entscheidend dafür war sicher die spezifische Konzeption beider Journale, die die Vorteile des neuen Mediums mit vertrauten Elementen der gewohnten Publikationskultur kombinierte. Abzuwarten ist, inwieweit das Online-Publizieren auch die Wissenschaftskultur, konkret das Lesen und vor allem das wissenschaftliche Schreiben, verändern wird. Daneben wird aber auch immer deutlicher, dass eine ganze Reihe von Fragen ungelöst ist und die zukünftige Arbeit mitprägen wird: der weite juristische Bereich sowie die Finanzierungsproblematik stellen Herausforderungen dar, denen sich die Online-Projekte verstärkt werden zuwenden müssen. Die Kunst wird darin bestehen, die Rechte- und Finanzierungsfragen in einer Weise zu klären, die das Renommee der Online-Journale keinen Schaden nehmen lässt und das Online-Publizieren an sich nicht diskreditiert.

***

Dr. Michael Kaiser ist als Wissenschaftlicher Mitarbeiter am Historischen Seminar der Universität zu Köln, Mitherausgeber der zeitenblicke und Redakteur bei den sehepunkten tätig. Forschungsschwerpunkte: Politische Kultur der Landstände in der Frühen Neuzeit, der Dreißigjährige Krieg, Geschichte der Gewalt, Militärgeschichte. E-Mail: michael.kaiser@uni-koeln.de


[1] Vgl. <http://www.sehepunkte.de>.

[2] Vgl. <http://www.zeitenblicke.de>.

[3] zeitenblicke 1 (2002), Nr. 2.

[4] zeitenblicke 3 (2004), Nr. 3.

[5] Vgl. <http://www.dipp.nrw.de/lizenzen/dppl/dppl/DPPL_v2_de_06-2004.html>.


« Zeithistorische Forschungen / Studies in Contemporary History » – Erfahrungen mit hybriden Publikationskonzepten

von Jan-Holger Kirsch

Der Beitrag stellt das Konzept der 2004 gegründeten Zeitschrift „Zeithistorische Forschungen/Studies in Contemporary History“ vor, die dreimal jährlich sowohl online als auch gedruckt (im Verlag Vandenhoeck & Ruprecht) erscheint. Der Grundgedanke dieser „hybriden“ Publikationsform ist es, die spezifischen Vorteile beider Medien zu nutzen. Die (frei zugängliche) Online-Version ist dabei keine bloße Wiedergabe der (kostenpflichtigen) Druckausgabe im Internet, sondern nutzt die medialen Möglichkeiten, die gerade für die Zeitgeschichtsforschung attraktiv sind (Integration visueller und audiovisueller Quellen, interne und externe Verlinkung, Aktualisierung und Kommentierung). Neben den Vorteilen nennt der Beitrag auch die Probleme dieses Publikationsmodells: sehr geringe Abonnentenzahl der Druckausgabe, sehr hoher Redaktionsaufwand, erhebliche Kosten für Nutzungsrechte (audio)visuellen Materials. Vorerst ist offen, wie tragfähig ein solches Modell ist.

***

In einem „Zwischenbericht“ zur Nutzung der Neuen Medien in der Geschichtswissenschaft nannte Gudrun Gersmann 1999 drei Hauptprobleme: „Mangel an Beständigkeit, Mangel an inhaltlicher Qualität und schließlich Mangel an methodischem Know-how“. Sie plädierte für „ein verstärktes Bemühen um Qualitätssicherung“. [1] Noch vier Jahre später meinten Fabio Crivellari und Marcus Sandl: „Ein relevanter Fachdiskurs über die Relevanz, Qualität und Standards der Kommunikation wissenschaftlicher Inhalte mit und in den Neuen Medien ist derzeit nicht auszumachen.“ [2] Inzwischen ist manches in Bewegung gekommen, wie auch die Konferenz .hist 2006 belegt. Weiterhin ist aber Skepsis angebracht, ob der fachspezifische professionelle Umgang mit elektronischen Medien schon jenes Maß an Selbstverständlichkeit erreicht hat, das möglich und wünschenswert wäre.

Dafür ist wohl weniger ein abstrakter „Fachdiskurs“ entscheidend als die überzeugende forschungspraktische Umsetzung. Neue Medien im allgemeinen und Internet-Zeitschriften im besonderen werden den Mainstream der Geschichtswissenschaft nur dann erreichen und mittelfristig verändern können, wenn auch die arrivierten Fachvertreter/innen erkennen, dass die kompetente Nutzung neuer medialer Möglichkeiten ihnen signifikante Vorteile bringt. Dabei dürfte es sinnvoll sein, bewährte Forschungs- und Publikationspraktiken nicht einfach durch neue zu ersetzen, sondern Altes und Neues zu kombinieren. Das E-Journal zeitenblicke [3] und das elektronische Rezensionsorgan sehepunkte [4] , die Michael Kaiser in dieser Sektion vorgestellt hat [5] , sind zwei Aktivitäten in dieser Richtung; die hybride Zeitschrift Zeithistorische Forschungen / Studies in Contemporary History [6] , deren Konzept ich im Folgenden erläutern möchte, ist ein in ähnlicher Absicht, aber mit etwas anderen Mitteln und Schwerpunkten gestaltetes Projekt. Dem Untertitel der Sektion „Elektronisches Publizieren in den Geisteswissenschaften“ folgend, werde ich Erfahrungen, Probleme und Perspektiven skizzieren.

Abbildung 1: Startseite von Zeithistorische Forschungen

Erfahrungen

Ähnlich wie zeitenblicke und sehepunkte ist Zeithistorische Forschungen/Studies in Contemporary History (im Folgenden: ZF/SCH) eine Neugründung, bei der die Rahmenbedingungen von den Initiatoren/innen relativ eigenständig festgelegt werden konnten. (Mit welchen Strategien etablierte geschichtswissenschaftliche [Print-]Zeitschriften sich den Herausforderungen des elektronischen Publizierens stellen können, wäre ein eigenes, hier nicht zu untersuchendes Thema.) Natürlich erfolgte die Zeitschriftengründung nicht in einem Vakuum, sondern innerhalb des vorhandenen akademischen Feldes und auf der Basis einer Marktanalyse der vorhandenen Angebote.

Unabhängig von der Publikationsform sind Fachzeitschriften ein Mittel, bestimmten Vorverständnissen und Akzentsetzungen innerhalb der jeweiligen Disziplin – hier der Zeitgeschichte – Geltung zu verschaffen. Ähnlich wie wissenschaftliche Tagungen und Institute dienen sie nicht nur dazu, neue Forschungsergebnisse zu produzieren und zu distribuieren, sondern erfüllen auch den Zweck der Ein- und Abgrenzung dessen, was man als „relevant“ und „innovativ“ verstanden wissen möchte. [7] So erhofft sich das Zentrum für Zeithistorische Forschung (ZZF) [8] von der Gründung einer eigenen Zeitschrift zweierlei (wobei dies eher intuitiv als explizit und intentional eine Rolle spielte): erstens die Bestimmung und Verbreitung eines erweiterten Verständnisses von Zeitgeschichte, das neben der herkömmlichen Forschung auch die Rolle von Zeitgeschichte in der Öffentlichkeit sowie ihre visuellen und audiovisuellen Dimensionen berücksichtigen soll; zweitens Mithilfe bei der Festigung des eigenen Renommees und der langfristigen institutionellen Verstetigung des Zentrums. Zeitschriften erzeugen eine regelmäßigere und oftmals stärkere Aufmerksamkeit als Monografien – insofern sind sie ein Mittel, bestimmte Forschungsinteressen und -schwerpunkte in den Vordergrund zu rücken.

Es ist indes allgemein bekannt, dass an geschichtswissenschaftlichen Zeitschriften nicht gerade ein Mangel herrscht. Bibliotheken leiden unter der Last der stetig steigenden Anschaffungskosten, Forscher/innen unter der oft erdrückenden Literaturmenge. So bedarf die Neugründung einer Zeitschrift nicht nur verlegerischer Risikobereitschaft, sondern auch starker inhaltlicher Argumente. Bei Beginn der Planungen für ZF/SCH war unser Eindruck, dass auf dem Markt für geschichtswissenschaftliche Journale durchaus noch eine Leerstelle war. Neben den allgemeinhistorischen Zeitschriften wie Historische Zeitschrift oder Geschichte in Wissenschaft und Unterricht gab und gibt es in Deutschland zahllose Spezial- und Richtungszeitschriften, zum Teil auch mit ausdrücklich zeithistorischem Schwerpunkt. Es fehlte jedoch ein Organ, das das erwähnte breite Verständnis von Zeitgeschichte hinreichend repräsentieren würde. Dabei ist es keineswegs unsere Absicht, die traditionsreichen und verdienstvollen Vierteljahrshefte für Zeitgeschichte (VfZ) zu verdrängen; dies wäre abwegig und für die Zeitgeschichte als wissenschaftliche Disziplin schädlich. Eine wechselseitige Ergänzung und partielle Konkurrenz kann dagegen nur förderlich sein.

Im ursprünglichen DFG-Antrag für ZF/SCH war lediglich von einer „elektronischen Zeitschrift“ die Rede. Frühzeitig gab es beim Verlag Vandenhoeck & Ruprecht [9] aber Interesse, parallel dazu eine gedruckte Version zu publizieren. Die Entscheidung zwischen einer reinen Online-Zeitschrift und einer „hybriden“ Erscheinungsweise wurde institutsintern und im Verbund Clio-online eingehend diskutiert. Letztlich haben wir uns für die hybride Option entschieden, um die Vorteile beider Formate nutzen und kombinieren zu können. Anzunehmen war auch – und dies hat sich in der Praxis bestätigt –, dass potentielle Leser/innen und Autoren/innen auf diesem doppelten Weg noch besser erreicht werden können.

Winfried Schulze hat mit Recht geschrieben: „Wer die Papierzeitschrift einmal kennen gelernt hat und mit ihr groß geworden ist, und wenn auch nur in der Form der preiswerten Kopie, ist vermutlich nicht zum sofortigen Totalumstieg auf die Online-Version zu bewegen. Hinzu kommt, dass die Materialität des gedruckten Buches und der gedruckten Zeitschrift einen eigentümlichen Reiz ausmacht, der nicht außer Acht gelassen werden darf.“ [10] Wenn Schulze allerdings hinzufügt, „dass wir gerade im Bereich der Geisteswissenschaften noch eine Epoche des doppelten Mediums werden genießen können oder ertragen müssen“ [11] , dann klingt es so, als handle es sich dabei um ein vorübergehendes, zeitlich begrenztes Phänomen, das zur reinen Online-Zeitschrift als eigentlichem Zukunftsmodell hinführe. Dies ist jedoch offen, zumal nicht nur die Rezeptionsgewohnheiten der Historiker/innen, sondern auch die Verlagsstrategien im Wandel begriffen sind. Aus mediengeschichtlicher Sicht ist zudem seit langem bekannt, dass neue Medien die alten nicht einfach verdrängen, sondern sie ergänzen und mit ihnen neue Konstellationen eingehen. [12] Insofern könnte das hybride Konzept von ZF/SCH durchaus eine längere Zukunft haben.

Doch was ist mit „hybriden Publikationskonzepten“ eigentlich gemeint? Wie unterscheiden sich die gedruckte und die elektronische Version? Unter einer „elektronischen Zeitschrift“ im engeren Sinne soll hier ausdrücklich nicht verstanden werden, dass PDF-Dateien der gedruckten Hefte bzw. einzelner Artikel unverändert ins Internet gestellt werden und dort abrufbar sind, sei es kostenfrei oder gegen Gebühr. Dies ist bei den meisten internationalen Fachzeitschriften längst gängige Praxis (und wurde kürzlich beispielsweise auch bei den VfZ eingeführt [13] ). Dabei handelt es sich lediglich um „digitale Replikate“ [14] , während die medienspezifischen Möglichkeiten der Internet-Publikation verschenkt werden und der Primat der Druckausgabe erhalten bleibt. Mit ZF/SCH bemühen wir uns demgegenüber, die Druck- und die Internetausgabe als eigenständige und gleichwertige Angebote zu profilieren. Im Folgenden erläutere ich primär die Online-Version, weil im vorliegenden Kontext ja das elektronische Publizieren diskutiert werden soll.

Geht man auf die Startseite der Zeitschrift [15] , so findet man das Titelbild der aktuellen Ausgabe. Von dort aus gelangt man zum Inhaltsverzeichnis dieses Heftes oder aber zu den anderen Bereichen der Hauptnavigation: Archiv, Impressum, Suche, Autorenhinweise. Steuern wir hier einmal die Inhaltsübersicht von Heft 3/2005 zum Leitthema „Migration“ an. [16] Nach der Einführung zum Heftthema gibt es vier Rubriken, die in unterschiedlichen Besetzungen in jedem Heft wiederkehren: Aufsätze, Debattenbeiträge, Quelleninterpretationen und Besprechungen. Die Aufsatzrubrik bedarf keiner Erläuterung; dort werden ausführlichere Beiträge mit neuen Forschungsergebnissen zur Zeitgeschichte veröffentlicht. Die Debattenrubrik ist für eher essayistische Formate bestimmt, die sich mit aktuellen Fragen der öffentlichen und/oder wissenschaftlichen Diskussion beschäftigen (zum Beispiel mit dem Streit um die RAF-Ausstellung in Heft 2/2004 oder mit dem Verhältnis von Zeitgeschichte und Geschichtsdidaktik in Heft 2/2005).

Die Rubrik „Quellen“ folgt der Überlegung, dass wir es gerade in der Zeitgeschichte mit einer enormen Menge und Bandbreite von Quellen zu tun haben, die je nach Gattung und Überlieferungssituation nähere methodische Reflexionen erfordern. Die Quellenrubrik präsentiert gleichsam Fingerübungen in zeithistorischer Dokumenteninterpretation, wobei „Dokumente“ je nach Fragestellung vieles umfassen können – Akten, Reden, Fotos und Fotoreportagen, Filme, Bau- und Kunstwerke usw. Diese Beiträge sollen sowohl interessante Themen vorstellen als auch anhand von Beispielen methodische Standards entwickeln. So hat ein Beitrag in Heft 1/2004 Robert Lebecks Fotoreportagen für den stern in die Geschichte der Fotografie und zugleich in die Geschichte des Magazinjournalismus eingeordnet. [17]

Die Rubrik „Besprechungen“ geht insofern über das Spektrum der meisten anderen geschichtswissenschaftlichen Zeitschriften hinaus, als hier bewusst keine neuen Bücher rezensiert, sondern andere Medien unter die Lupe genommen werden – aktuelle Ausstellungen, Websites, DVDs, CD-ROMs, Filme usw. Unser besonderes Steckenpferd ist die in jedem Heft auftauchende und anderswo inzwischen aufgegriffene Unterrubrik „Neu gelesen“: Ältere Bücher – seien es viel zitierte oder in Vergessenheit geratene – werden aus heutiger Sicht neu betrachtet, was oft zu überraschenden Entdeckungen führt. [18] Den Abschluss jedes Hefts bildet ein redaktionell zusammengestellter Digest von Buchrezensionen, der auf Angebote von H-Soz-u-Kult verweist – zum einen zum jeweiligen Heftthema, zum anderen zu wichtigen Neuerscheinungen der letzten Monate. [19]

Ich könnte nun näher ausführen, mit welchen Themen, die in anderen Fachzeitschriften so nicht vertreten sind, wir das Profil von ZF/SCH zu prägen versuchen. Im vorliegenden Diskussionszusammenhang ist es allerdings entscheidender, die Besonderheiten, Vorteile und Probleme des „hybriden“ Modells zu erläutern. Die kurz beschriebenen Rubriken sind ja erst einmal unabhängig davon, ob die Beiträge nun gedruckt oder im Internet veröffentlicht werden. Dies erleichtert auch die Produktionsabläufe: Für die Druck- und die Internetausgabe werden exakt dieselben Texte verwendet. Wo liegt dann der „Mehrwert“ oder, neutraler formuliert, das Proprium der Internetversion? Zum einen ist die interne und externe Verlinkung zu nennen. Mit einfachem Mausklick gelangt man zu den im Text erwähnten weiterführenden Informationen, beispielsweise zu den Websites von Museen und Archiven [20] oder auch zu Bild- und Tondokumenten, die aus urheberrechtlichen Gründen nicht für die eigene Website übernommen werden dürfen.

Solche Links, unter anderem auch zu den persönlichen Websites der Autoren/innen, sind wichtig, aber weder spektakulär noch besonders neuartig. Gestalterisch und konzeptionell zentraler ist die Möglichkeit, inhaltlich bedeutsame visuelle und audiovisuelle Medienelemente direkt in die Texte zu integrieren. Zwei Beispiele seien genannt: Auszüge aus einer Rede Willy Brandts in einem Aufsatz über Brandts Bedeutung als Medienkanzler [21] ; und eine Kamerafahrt durch die rezensierte Ausstellung „John F. Kennedy“ des Deutschen Historischen Museums von 2003. [22] Durch solche erweiterten Darstellungsformen wird gerade für die Zeitgeschichte eine neue Ebene der Interpretation und der Überprüfbarkeit möglich. Wenn etwa Politikerreden nicht allein als geschriebene Texte verwendet, sondern als performative Akte erschlossen und nachvollzogen werden können, lässt sich ihre Wirkung viel besser abschätzen. Die Internet-Präsentation ist also keine technische Spielerei, die man mitmachen oder auch lassen kann; sie kann vielmehr die Wissenschaftlichkeit der Zeitgeschichtsforschung maßgeblich unterstützen. [23]

Zwei weitere Gestaltungselemente seien genannt, die die Internetausgabe bietet: Erstens ist es unabhängig vom periodischen Erscheinungsrhythmus (drei Ausgaben pro Jahr) jederzeit möglich, Aktualisierungen vorzunehmen und Kommentare einzufügen. Die Autorentexte bleiben unangetastet, doch können weiterführende Informationen nach Redaktionsschluss eines Hefts ohne weiteres nachgetragen werden – so etwa zusätzliche Rezensionen zu Band 4 von Hans-Ulrich Wehlers „Deutscher Gesellschaftsgeschichte“, der in Heft 1/2004 diskutiert wurde. [24] Auch kritische Stellungnahmen etwa zu den Essays im Debattenteil können mit vergleichsweise geringem Aufwand ergänzt werden. [25] Zweitens eignet sich die Website von ZF/SCH als Plattform, um bereits anderswo veröffentlichte Aufsätze zu den jeweiligen Heftthemen als digitale Reprints zugänglich zu machen. [26] Ein solcher Service dürfte gerade für Zwecke der Lehre nützlich sein. Viele Verlage sind in der Frage der Abdruckrechte (noch) entgegenkommend, zumal der Ort der Erstveröffentlichung natürlich genannt ist. Allerdings haben größere Verlage die Vermarktung einzelner Aufsätze inzwischen als Einnahmequelle entdeckt, so dass digitale Reprints vielleicht nicht mehr lange möglich sein werden.

Nach dem bisher Gesagten könnte man meinen, dass die Druckausgabe von ZF/SCH nur eine Schwundstufe und eine Konzession an die vermutlich sehr geringe Zahl von Historikern/innen ohne Internetanschluss sei; die Links und multimedialen Elemente fallen in der Papierversion ja weg. Dem ist entgegenzuhalten, dass die Druckausgabe eine eigene Funktion und Dignität besitzt – zum einen wegen der bisher nicht völlig verlässlichen Langzeitarchivierung von Internetpublikationen, zum anderen wegen der bequemen Möglichkeit, längere Texte und gerade Themenhefte unabhängig vom Rechnerzugang lesen zu können, ohne sich mit ausgedruckten Einzelblättern herumärgern zu müssen (bei unseren Diskussionen im Vorfeld der Zeitschriftengründung machte dies als „S-Bahn-Argument“ die Runde). Darüber hinaus ist die Kooperation mit dem Verlag Vandenhoeck & Ruprecht gegenüber Lesern/innen und Autoren/innen ein weiterer Seriositätsindikator. Verlag und Redaktion achten auch besonders auf eine ansprechende, mit den Inhalten korrespondierende Gestaltung der Druckausgabe – durch ein übersichtliches Layout, moderne Schriften, neugierig machende Coverfotos usw. soll sich die Zeitschrift vom oft monotonen Erscheinungsbild anderer Fachzeitschriften abheben.

„Hybrid“ ist ZF/SCH schließlich noch in einer weiteren Hinsicht, die die Zeitschrift von anderen Fachorganen unterscheidet: Die enge Verbindung mit Clio-online [27] und speziell mit Zeitgeschichte-online [28] hat sowohl für die redaktionellen Arbeitsabläufe als auch für die Nutzer/innen viele Vorteile. Der oben erwähnte Rezensionsdigest ist ein Beispiel; ein anderes Beispiel ist die Möglichkeit, in der Zeitschrift begonnene Diskussionen im Portal Zeitgeschichte-online fortzuführen oder umgekehrt. So hat sich aus zwei Zeitschriftenbeiträgen zur RAF-Ausstellung [29] später ein eigener Themenschwerpunkt bei Zeitgeschichte-online entwickelt [30] ; beide Angebote verweisen wechselseitig aufeinander. Dadurch, dass im größeren Zusammenhang von Clio-online mehrere Publikationswege zur Verfügung stehen (zu nennen ist hier auch die Reihe Historisches Forum [31] ), ist trotz des begrenzten Umfangs der einzelnen Segmente auch eine größere Aktualität möglich als bei herkömmlichen Zeitschriften.

Probleme

Die praktischen Schwierigkeiten des geschilderten Publikationsmodells seien ebenso offen angesprochen wie die Vorteile. Das Hauptproblem, mit dem sich alle Redaktionen herumschlagen, ist ganz unabhängig vom gewählten Publikationskonzept: säumige Autoren/innen, inhaltlich und sprachlich mangelhafte Texte, überlastete Gutachter/innen. Der Produktionsdruck, unter dem Historiker/innen stehen oder zu stehen meinen, hat in den letzten Jahren weiter zugenommen, und die Zahl der Publikationen verhält sich mitunter umgekehrt proportional zu ihrer Qualität. Umso wichtiger werden Redaktionen als Vermittlungs- und Beratungsinstanzen, die bei der Textoptimierung helfen, manche von den Autoren/innen gewünschten Publikationen aber auch schlicht verhindern müssen, um die Scientific Community vor „Datenmüll und Infosmog“ zu schützen. [32]

Ein Problem, das sich dagegen speziell bei unserer Hybridpublikation stellt, ist der geringe Kaufanreiz für die Druckausgabe. Es ist kein Geheimnis, dass die Abonnentenzahlen bislang weder befriedigend noch für den Verlag kostendeckend sind. Zwar haben nahezu alle einschlägigen Institute und auch etliche Privatleute ZF/SCH in gedruckter Form abonniert, aber solange sämtliche Inhalte kostenfrei im Netz abrufbar sind, sehen viele Bibliotheken angesichts knapper Etats keine wirkliche Notwendigkeit für ein Abonnement. Dies hatten wir zumindest für die ersten Jahre auch nicht anders vermutet, und man wird sehen müssen, wie sich die Nachfrage weiter entwickelt. Erfreulicherweise hat der Verlag Vandenhoeck & Ruprecht stets signalisiert, dass er von diesem Projekt keine kurzfristige Rendite erwartet, sondern es als Zukunftsinvestition und lohnendes Experiment betrachtet.

Schwierigkeiten bringt die Druckausgabe auch insofern mit sich, als der Umfang aus verlegerischen Gründen auf 480 Seiten pro Jahrgang limitiert ist. Dies ist trotz aller Umfangskalkulationen im Vorfeld sehr schwer abzuschätzen, da einzelne Beiträge aus guten inhaltlichen Gründen länger geraten oder aber kurzfristig ganz ausfallen können. Für die Internetausgabe ist dies kein prinzipielles Hindernis, für die textidentische Druckausgabe dagegen sehr. Mit Hilfe von mehr oder weniger Bildmaterial muss versucht werden, den Umfang der Vorgabe anzupassen. Die Beschränkung ist andererseits ein Vorteil, da die Autoren/innen bestimmte Zeichengrenzen beachten müssen, was der Prägnanz der Texte durchaus zugute kommt. Heikler als die Umfangsbegrenzung ist es, dass die Vorbereitung der Druckausgabe – die Redaktion liefert eine komplette PDF-Datei des Heftes als Druckvorstufe an den Verlag – einen erheblichen Teil der Arbeitskraft bindet, so dass die Internetausgabe mitunter nicht so detailliert mit Zusatzangeboten bestückt werden kann, wie es inhaltlich sinnvoll und technisch möglich wäre.

Ein anderes, sowohl arbeitsökonomisches als auch finanzielles Problem sind die Nutzungsrechte für visuelles und audiovisuelles Material, das für das Konzept der Zeitschrift ja sehr zentral ist. Die Recherche nach geeigneten Dokumenten ist eigentlich Aufgabe der Autoren/innen, bleibt aus verschiedenen Gründen aber nicht selten an der Redaktion hängen. Hinzu kommt, dass die Kosten etwa für „Ikonen der Zeitgeschichte“, also für sehr bekannte und historisch aufschlussreiche Fotos, oft immens sind, zumal die Nutzung bei Bildagenturen sowohl für den Druck als auch für das Netz ausgehandelt werden muss. Wenn es gelingt, einen akzeptablen Paketpreis zu erzielen, stellt sich als nächstes Problem die zeitliche Befristung der Internetrechte. Etliche Dokumente müssen nach ein bis fünf Jahren von der Website entfernt oder aber nachvergütet werden – ein noch kaum abschätzbares finanzielles Risiko. Bei Quellen der Rundfunk- und Fernsehgeschichte haben die bisherigen Erfahrungen zudem gezeigt, dass die Sender bzw. Archive der Internetpublikation meist ablehnend gegenüberstehen, weil sie eine unkontrollierbare Weiterverteilung ihres auch kommerziell interessanten Materials befürchten. Hier ist noch viel Überzeugungsarbeit zu leisten und eine spezielle Vereinbarung für Forschungszwecke auf möglichst hoher Entscheidungsebene anzustreben.

Ein eher technisches Problem ist zumindest derzeit noch die Aktualität und Aktualisierung der externen Links. Bekanntlich ändern sich viele Internetadressen in sehr kurzen Rhythmen oder verschwinden ganz. In dem Maße, wie unser Archiv [33] weiter anwächst, erhöht sich auch die Gefahr, dass Links ins Leere bzw. zu Fehlermeldungen führen. Wir hoffen aber, dass sich dies in absehbarer Zeit durch einen automatisierten URL-Check vermeiden lässt. Inhaltlich bedeutsamer ist natürlich die Ausgestaltung der einzelnen Rubriken und Beitragsformate. Hier besteht das Problem, dass vielen Autoren/innen die hybride Publikationsweise noch nicht vertraut ist; die Erstfassungen der Manuskripte entsprechen meist den Konventionen, die die Autoren/innen aus dem Bereich der reinen Printmedien kennen. Die parallele Internetpublikation erfordert aber teilweise eine andere Textorganisation und vor allem das Mitbedenken der audiovisuellen Möglichkeiten. Auch wenn darauf in unseren Richtlinien zur Manuskriptgestaltung stets hingewiesen wird, bedarf es meist zusätzlicher Absprachen und redaktioneller Recherchen, um die Ausgangstexte für das Internet medienadäquat aufzubereiten. Zudem sind Beitragsformate wie Essays, Quelleninterpretationen, Ausstellungsbesprechungen etc. für viele Autoren/innen ungewohnt, selbst wenn sie Experten/innen für das jeweilige inhaltliche Thema sind. Um die Autoren/innen für die Pragmatik der genannten Textgattungen zu sensibilisieren, ist eine erhebliche Menge an Korrespondenz erforderlich, die über das sonst übliche Maß an redaktioneller Betreuung hinausgeht. Dies wird von den Autoren/innen aber durchaus honoriert, und auf lange Sicht wird sich die Forschung selbst durch die neuartigen Publikationsmöglichkeiten verändern – darauf hat Wolfgang Schmale zur Eröffnung der Konferenz .hist 2006 mit Recht hingewiesen. [34] Damit komme ich abschließend zu den Perspektiven.

Perspektiven

„Die Wissenschaftler trauen der Online-Publikation nicht“, meinte der Wissenschaftsjournalist Dieter E. Zimmer im Jahr 2001. Er fügte hinzu, das Internet sei „der richtige Ort für die fluide Phase der wissenschaftlichen Information, nicht für die kristallisierte“. [35] Das Misstrauen ist zumindest unter Historikern/innen geringer geworden, nicht zuletzt deshalb, weil die Betreiber von Internetportalen und -journalen inzwischen überwiegend etablierte Forschungsinstitutionen sind, die die Bedeutung und den Nutzen des Internet für geschichtswissenschaftliche Zwecke erkannt haben. Zimmers zweite These ist ebenfalls überholt, und zwar in doppelter Hinsicht: Zum einen erweist sich das Internet durchaus als ein geeigneter Ort für „kristallisierte“, also fachlich begutachtete und sedimentierte Information. Zum anderen ist die Abgrenzung zwischen der „fluiden“ und der „kristallisierten“ Phase so nicht mehr haltbar; wie ich anhand der Aktualisierungen und Kommentare zu unserer Zeitschrift gezeigt habe, ist es gerade ein Vorteil des Internet, dass gefestigtes Wissen nicht starr bleiben muss, sondern fortgeschrieben und fluide gehalten werden kann – offen für Bestätigung, Korrektur oder Ergänzung. (Allerdings stellt sich eine solche Interaktivität nicht von selbst ein, sondern muss ebenso organisiert und moderiert werden wie die Ausgangsbeiträge.) Fragt man nun nach den Perspektiven speziell für das hybride Publikationskonzept von ZF/SCH – ein Konzept, für das es zumindest in der Geschichtswissenschaft keine unmittelbaren Vergleichsbeispiele gibt –, so sind idealtypisch drei Optionen zu nennen:

  1. Verzicht auf die Internetausgabe, Beschränkung auf die Druckausgabe. Dies würde den Arbeitsaufwand deutlich reduzieren, ist aber keine ernsthaft zu erwägende Option, weil dann alle oben genannten Vorteile der Online-Publikation und ihre Auswirkungen für ein zeitgemäßes Verständnis von Zeitgeschichte wegfallen würden. Selbst die Abonnentenzahl der Druckausgabe würde wahrscheinlich nicht signifikant steigen.
  2. Verzicht auf die Druckausgabe, Beschränkung auf die Internetausgabe. Dies würde bedeuten, dem Publikationsmodell der zeitenblicke zu folgen und ganz konsequent medienadäquate Beiträge veröffentlichen zu können. Die Beachtung innerhalb der Zeitgeschichtsforschung wäre vermutlich aber geringer, und man würde die Vorteile der Druckausgabe verschenken.
  3. Fortsetzung der Hybridpublikation. Das analoge und das digitale System haben einen je eigenen Mehrwert [36] , und derzeit scheint es uns die beste Option zu sein, dieses Experiment fortzuführen. Dabei wird allerdings zu prüfen sein, ob die Devise des Open Access für die Internetausgabe weiter tragfähig ist. Gewiss sprechen gute Argumente für das Prinzip der freien Zugänglichkeit, aber es ist eine offene Frage, ob es sinnvoll und machbar ist, hochwertige Inhalte ohne Refinanzierung zu verbreiten, obwohl es bei den Nutzern/innen möglicherweise eine Zahlungsbereitschaft gibt. Würde man den Weg einer Teilkommerzialisierung beschreiten, ergeben sich daraus andererseits viele Folgeprobleme – besonders für öffentlich finanzierte Institute wie das ZZF. Dieser Diskussion werden sich die Geisteswissenschaften in den nächsten Jahren verstärkt stellen müssen. Publikationsmodelle der STM-Disziplinen (Science, Technology, Medicine) dürften dabei kaum übertragbar sein, weil die fachspezifischen Anforderungen und Möglichkeiten der Geisteswissenschaften deutlich anders gelagert sind.

Sicher ist indes, dass die personellen und technischen Fixkosten weder über Abonnements noch über Bezahlfunktionen im Internet, sondern nur durch institutionelle Förderung gedeckt werden können – dies verbindet fast alle geisteswissenschaftlichen Fachzeitschriften unabhängig von ihrer Veröffentlichungsform. Im Übrigen ist dies nicht Ausdruck einer „Krise“ des wissenschaftlichen Publizierens, sondern eher der Normalzustand. Nach einer Vielzahl von Zeitschriftenneugründungen der letzten Jahre und Jahrzehnte ist in Zukunft mit einem gewissen Konzentrationsprozess zu rechnen, zumal es sich als Irrtum erwiesen hat, dass qualitativ hochwertige Internetzeitschriften per se kostengünstiger seien als gedruckte Journale.

***

Dr. Jan-Holger Kirsch ist Wissenschaftlicher Mitarbeiter am Zentrum für Zeithistorische Forschung, verantwortlicher Redakteur von „Zeithistorische Forschungen/Studies in Contemporary History“ und in der Redaktion von „Zeitgeschichte-online“ tätig. Interessenschwerpunkte: Geschichte des 20./21. Jahrhunderts, Erinnerung an den Nationalsozialismus, Geschichte in der Öffentlichkeit, Geschichtstheorie und -didaktik. E-Mail: kirsch@zeitgeschichte-online.de


[1] Gersmann, Gudrun, Neue Medien und Geschichtswissenschaft. Ein Zwischenbericht, in: Geschichte in Wissenschaft und Unterricht 50 (1999), S. 239-249, hier S. 245, 247.

[2] Crivellari, Fabio; Sandl, Marcus, Die Medialität der Geschichte. Forschungsstand und Perspektiven einer interdisziplinären Zusammenarbeit von Geschichts- und Medienwissenschaften, in: Historische Zeitschrift 277 (2003), S. 619-654, hier S. 621 Anm. 5.

[3] Vgl. <http://www.zeitenblicke.de/>.

[4] Vgl. <http://www.sehepunkte.de/>.

[5] Vgl. Kaiser, Michael, Sehepunkte und Zeitenblicke – Entwicklungslinien nach einem halben Jahrzehnt des elektronischen Publizierens, in diesem Band. <http://edoc.hu-berlin.de/histfor/10_I/>

[6] Vgl. <http://www.zeithistorische-forschungen.de/>.

[7] Vgl. Middell, Matthias, Vom allgemeinhistorischen Journal zur spezialisierten Liste im H-Net. Gedanken zur Geschichte der Zeitschriften als Elementen der Institutionalisierung moderner Geschichtswissenschaft, in: Ders. (Hg.), Historische Zeitschriften im internationalen Vergleich (Geschichtswissenschaft und Geschichtskultur im 20. Jahrhundert 2), Leipzig 1999, S. 7-31; Raphael, Lutz, Geschichtswissenschaft im Zeitalter der Extreme. Theorien, Methoden, Tendenzen von 1900 bis zur Gegenwart, München 2003, S. 36-40.

[8] Vgl. <http://www.zzf-pdm.de/>.

[9] Vgl. <http://www.v-r.de/>.

[10] Schulze, Winfried, Zur Geschichte der Fachzeitschriften. Von der „Historischen Zeitschrift“ zu den „zeitenblicken“, in: Historical Social Research/Historische Sozialforschung 29 (2004), Sonderheft: Neue Medien in den Sozial- und Geisteswissenschaften. Elektronisches Publizieren und Open Access: Stand und Perspek-tiven, hg. von Katja Mruck und Gudrun Gersmann, S. 123-137, hier S. 135.

[11] Ebd. (meine Hervorhebung).

[12] Vgl. Schildt, Axel, Das Jahrhundert der Massenmedien. Ansichten zu einer künftigen Geschichte der Öffentlichkeit, in: Geschichte und Gesellschaft 27 (2001), S. 177-206, hier S. 200.

[13] Vgl. <http://www.atypon-link.com/OLD/loi/vfzg?cookieSet=1>.

[14] Vgl. Keller, Alice, Elektronische Zeitschriften. Eine Einführung (Bibliotheksarbeit 9), Wiesbaden 2001, S. 24, 51.

[15] Vgl. <http://www.zeithistorische-forschungen.de/>.

[16] Vgl. <http://www.zeithistorische-forschungen.de/16126041-Inhalt-3-2005>.

[17] Siebeneicker, Arnulf, „Ich fixiere, was ist“. Robert Lebecks Fotoreportagen für den stern, in: ZF/SCH 1 (2004), S. 111-121. Vgl. unter <http://www.zeithistorische-forschungen.de/16126041-Siebeneicker-1-2004>.

[18] Beispiel: <http://www.zeithistorische-forschungen.de/16126041-Schloegel-3-2005>.

[19] Beispiel: <http://www.zeithistorische-forschungen.de/portal/alias__zeithistorische-forschungen/lang__de/tabID__40208478/DesktopDefault.aspx>.

[20] Vgl. etwa die Links in <http://www.zeithistorische-forschungen.de/16126041-Baur-3-2005>.

[21] Vgl. <http://www.zeithistorische-forschungen.de/16126041-Muenkel-2-2004>, Abschnitt 8.

[22] Vgl. <http://www.zeithistorische-forschungen.de/16126041-Patel-1-2004>.

[23] Vgl. dazu auch Lindenberger, Thomas, Vergangenes Hören und Sehen. Zeitgeschichte und ihre Herausforderung durch die audiovisuellen Medien, in: ZF/SCH 1 (2004), S. 72-85. Vgl. <http://www.zeithistorische-forschungen.de/16126041-Lindenberger-1-2004>.

[24] Vgl. <http://www.zeithistorische-forschungen.de/portal/alias__zeithistorische-forschungen/lang__de/tabid__40208402/Default.aspx>.

[25] Beispiel: <http://www.zeithistorische-forschungen.de/portal/alias__zeithistorische-forschungen/lang__de/tabid__40208485/Default.aspx>.

[26] Beispiel: <http://www.zeithistorische-forschungen.de/16126041-Material-Debatte-1-2005>.

[27] Vgl. <http://www.clio-online.de/>.

[28] Vgl. <http://www.zeitgeschichte-online.de/>.

[29] Vgl. <http://www.zeithistorische-forschungen.de/16126041-Kirsch-2-2004> und <http://www.zeithistorische-forschungen.de/16126041-Kraushaar-2-2004>.

[30] Vgl. <http://www.zeitgeschichte-online.de/md=RAF-Inhalt>.

[31] Vgl. <http://edoc.hu-berlin.de/histfor/impressum.php>.

[32] Vgl. Kirsch, Jan-Holger, Datenmüll und Infosmog. Über einige Hindernisse (kultur)wissenschaftlichen Erkenntnisgewinns heute, in: Potsdamer Bulletin für Zeithistorische Studien Nr. 32/33 (Nov./Dez. 2004), S. 9-18. Vgl. <http://www.zzf-pdm.de/bull/pdf/b3233/3233_kirsch.pdf>.

[33] Vgl. <http://www.zeithistorische-forschungen.de/site/40208121/default.aspx>.

[34] Schmale, Wolfgang, Geschichte im Netz – Praxis, Chancen, Visionen, in Teilband 1: <http://edoc.hu-berlin.de/histfor/10_I/>. Ein Beispiel für veränderte Forschungsstrategien ist der Aufsatz von Paul, Gerhard, Die Geschichte hinter dem Foto. Authentizität, Ikonisierung und Überschreibung eines Bildes aus dem Vietnamkrieg, in: ZF/SCH 2 (2005), S. 224-245. Vgl. <http://www.zeithistorische-forschungen.de/16126041-Paul-2-2005>. Der Text beruht zu einem erheblichen Teil auf Bildrecherchen im Internet und macht diese durch Angabe der relevanten URLs auch nachvollziehbar.

[35] Zimmer, Dieter E., Analoge und digitale Informationsmedien, in: Ansorge, Kathrin (Red.), Wissenschaftspublikation im digitalen Zeitalter. Verlage, Buchhandlungen und Bibliotheken in der Informationsgesellschaft. Vorträge eines Symposiums am 8. und 9. Februar 2001 in Berlin (Gesellschaft für das Buch 7), Wiesbaden 2001, S. 129-136, hier S. 133, 135.

[36] So auch Schmale, Geschichte im Netz (wie Anm. 34).


Zur Akzeptanz des elektronischen Publizierens in den Geisteswissenschaften – Ergebnisse und Folgen der DFG-Studie „Publikationsstrategien im Wandel“

von Johannes Fournier

Die an jegliche Veröffentlichung gebundene Funktion der Zuteilung wissenschaftlichen Renommees ist für elektronische Publikationen vor allem in den Geistes- und Sozialwissenschaften noch nicht selbstverständlich. Daten zur Akzeptanz elektronischer, insbesondere entgeltfrei über das Internet zugänglicher Publikationen (Open Access) hat die Deutsche Forschungsgemeinschaft (DFG) Ende 2004 in einer Umfrage erheben lassen, in der auch die von der DFG geförderten Fachgebiete der Geistes- und Sozialwissenschaften gut vertreten waren. Die Analyse dieser Daten lässt erkennen, welche Faktoren für Zuspruch oder Kritik an elektronischen Publikationen ausschlaggebend sind.

***

Zur Akzeptanz elektronischer Publikationen

Das Internet ist aus dem Alltag auch der Geisteswissenschaften heute nicht mehr wegzudenken. Die Suche nach einschlägiger Literatur, die Fachkommunikation mit den Kollegen/innen, die Lektüre von Tagesankündigungen, selbst die Rezeption von Literatur finden zunehmend häufiger in virtuellen Welten statt. Den Schritt von der Rezeption elektronischer Inhalte zum elektronischen Publizieren gehen viele Geisteswissenschaftler/innen hingegen noch zögernd, obwohl die Distribution von Forschungsergebnissen über das Internet einen weltweiten Leserkreis und damit höchste Sichtbarkeit für die Autoren/innen verspricht. Dass elektronische Publikationen derzeit nicht in allen Fächern unbeschränkte Anerkennung finden und dass manche Disziplinen heute noch eine gewisse Zurückhaltung üben, was die völlige Akzeptanz elektronischer Publikationen angeht, ist nur zu verstehen, wenn man sich vergegenwärtigt, dass jeder Publikation mindestens vier verschiedene Funktionen – Verbreitung von Information, Qualitätskontrolle, Kanonbildung und Zuweisung von Reputation – zukommen; darunter dürfte die Zuweisung von Renommee die für Autoren/innen wichtigste Funktion sein. [1] Nur ist die an jegliche Publikation geknüpfte Funktion der Zuteilung wissenschaftlichen Renommees für elektronische Publikationen noch nicht selbstverständlich. Andererseits lässt sich bereits heute absehen, dass die vielfältigen Transformationen im Prozess des wissenschaftlichen Arbeitens – die Kommunikation per E-Mail, der Rückgriff auf digitale Quellen, die Möglichkeit der unmittelbaren Einbindung auch multimedialer Komponenten in Publikationen – auf längere Sicht deutliche Auswirkungen auf die Publikationskultur haben werden: Dass kommunikative Prozesse, die im Vorfeld jeglicher wissenschaftlicher Publikation stattfinden, zunehmend stärker über elektronische Medien abgewickelt werden, führt zu einer zunehmend größeren Vertrautheit mit dem Internet, aus der wiederum eine zunehmende Akzeptanz auch elektronisch publizierter Forschungsergebnisse resultiert. Damit wird sich die elektronische Publikation à la longue auch in den Bereichen der Geisteswissenschaften, die Netz-Veröffentlichungen heute noch überwiegend kritisch sehen, völlig etablieren.

Als Organisation der Forschungsförderung unterstützt die Deutsche Forschungsgemeinschaft (DFG) satzungsgemäß auch den Austausch wissenschaftlicher Erkenntnisse. Daher liegt der DFG daran, den eingangs in aller Kürze charakterisierten Transformationsprozess zu unterstützen, zu begleiten und aktiv zu gestalten. Folglich hatte die DFG schon vor der Unterzeichnung der „Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen“ im Herbst 2003 eine Reihe von Projekten gefördert [2] , in denen sowohl Quellen als auch aktuelle Forschungsliteratur über das Internet für den freien Zugriff verfügbar gemacht wurden. Mit der Unterschrift unter die „Berliner Erklärung“ jedoch stand die Frage, in welcher Weise die DFG das Prinzip des Open Access unterstützen sollte, erneut zur Diskussion. Um sich Klarheit darüber zu verschaffen, wie auf dem Weg zu einer Kultur möglichst entgeltfrei zugänglicher Publikationen voranzuschreiten sei, hatte die DFG sich entschlossen, zunächst mit einer Umfrage unter DFG-geförderten Wissenschaftlern/innen zu ermitteln, welche Bedeutung elektronischen Publikationen, insbesondere im Open Access, in den verschiedenen Wissenschaftsfeldern zukommt. [3] Bevor die Ergebnisse dieser Umfrage im Folgenden mit einem speziellen Blick auf den Rücklauf aus den Geisteswissenschaften vorgetragen werden, möchte ich jedoch zunächst einen Blick auf einige aktuelle Entwicklungen lenken, um den Kontext aufzuzeigen, in dem die Frage nach der – womöglich stärkeren – Akzeptanz elektronischer Publikationen meines Erachtens heute verortet werden muss. Abschließend sollen einige Maßnahmen skizziert werden, mit denen die DFG versucht, die Akzeptanz elektronischer Publikationen überhaupt und insbesondere in den Geisteswissenschaften aktiv zu fördern.

Kommunikation und Publikation

Die Zeiten, in denen Netz-Publikationen als „wissenschaftliche Eintagsfliegen“ galten, haben wir inzwischen wohl hinter uns gelassen. Die Bedeutung elektronischer Publikationen für ein großes geisteswissenschaftliches Fachgebiet wie die Geschichte wird schon durch die schiere Zahl der Teilnehmer/innen an der Tagung .hist 2006 unterstrichen. Darüber hinaus scheint mir klar, dass die Bereitschaft, elektronische Publikationen für die eigene Forschung heranzuziehen oder auch selbst elektronisch zu publizieren, keine Frage allein der Generation ist. Doch ist man gut beraten, deutlich zwischen virtueller Kommunikation und elektronischer Publikation zu unterscheiden, da beide Phänomene sich mit unterschiedlicher Geschwindigkeit entwickeln: Während die Kommunikation über das Internet sich in rasantem Tempo ausbreitet, nimmt die Zahl wissenschaftlicher elektronischer Publikationen hingegen langsamer zu. Im Folgenden möchte ich mit wenigen Beispielen illustrieren, wie selbstverständlich der Umgang mit dem Medium Internet vielfach bereits wurde; dabei soll der Weg von der Diskussion zur Publikation nachgezeichnet werden, um die Beispiele beiden Sphären der „elektronischen Wissenschaft“ – der Kommunikation und der Publikation – zu entnehmen.

Vielfach dienen Seminare dazu, wissenschaftliche Arbeiten zu einem bestimmten Thema zu vertiefen und eigene Thesen vor der Veröffentlichung zu verifizieren. Heute bieten zudem Wikis und vor allem Weblogs als eine Art „virtueller Teeküchen“ die Möglichkeit, Ideen gleich weltweit hinterfragen und diskutieren zu lassen. [4] Daher ist es nur konsequent, wenn Weblogs als neue Form der Kommunikation Einzug in die Wissenschaft halten. [5] Als Autoren/innen von Weblogs nutzen Wissenschaftler/innen konsequent die (Rück-)Entwicklung des Internet zu einem „social web“ und adaptieren neue Technologien, um ihre Thesen weltweit diskutieren zu lassen. Im deutschsprachigen Raum scheint diese Entwicklung allerdings noch am Anfang zu stehen. Eine über das Wissenschaftsportal vascoda ausgeführte Suche nach dem Suchwort „Blog“ im Fach „Geschichte“ führt zu dem über Clio-online nachgewiesenen, von Klaus Graf gepflegten Weblog „Archivalia“; bei zwölf weiteren, über chronicon ermittelten Treffern war mir meist nicht unmittelbar klar, ob und wie sie das Fach betreffen. [6] Und offenbar misstraut die Zunft der als wenig seriös empfundenen Kommunikation im Blog: In Jan Hodels „Hist.net.blog“ ist nachzulesen, wie Fachvertreter/innen, als er unter anderem Weblogs und Wikis im Rahmen einer fachdidaktischen Tagung als Instrumente kollaborativen geschichtswissenschaftlichen Arbeitens präsentierte, den Autor mahnten, wieder ‚mehr Bodenhaftung’ zu erlangen. [7] Ich gehe dennoch davon aus, dass Weblogs, obwohl sie bislang keine signifikante Verbreitung in der deutschen akademischen Welt gefunden haben, in Zukunft verstärkt zum Einsatz kommen werden, da sie kollaboratives Arbeiten optimal unterstützen können. Dabei dürften sich genauere Funktionsbereiche herausschälen, die diesen Instrumenten ihre Rolle neben anderen, längst etablierten Formen der Wissenschaftskommunikation zuweisen.

Während Beiträge in Wikis und Weblogs dem Bereich der informellen akademischen Kommunikation zugerechnet werden müssen, der insbesondere unter dem wichtigen Aspekt des Erwerbs von Renommee solange keine große Rolle spielen wird, bis auch hier gewisse Standards für die Qualitätssicherung etabliert werden, kann die Vorabveröffentlichung wissenschaftlicher Forschungsergebnisse in Form von – wiederum nicht qualitätsgeprüften – Preprints bereits als unmittelbare Publikationsform gelten. Wie inzwischen weit bekannt ist, spielt diese Publikationsform insbesondere in der Physik und Mathematik eine große, aber auch in den Wirtschaftswissenschaften (in der Form sogenannter „working papers“) eine nicht unbedeutende Rolle. Demgegenüber wird die Praxis, Forschungsergebnisse vor der eigentlichen Publikation über das Datennetz zu verbreiten, in den Geisteswissenschaften nur sehr zurückhaltend geübt. Doch mag hier ein Prozess des Umdenkens in Gang sein. Ende des Jahres 2005 annoncierten die Universitäten Princeton und Stanford, dass sie unter dem Namen „Princeton/Stanford Working Papers in Classics“ ein gemeinsames Preprint-Archiv für die Altertumswissenschaftler/innen dieser Universitäten eröffnet haben [8] ; in diesem Archiv werden Publikationen gezielt veröffentlicht, um einen Diskussionsprozess in Gang zu bringen, dessen Ergebnisse nach Möglichkeit vor der endgültigen Publikation altertumswissenschaftlicher Arbeiten berücksichtigt werden sollen. Es scheint, als ob die Publikationskultur insbesondere der Physiker/innen in diesem Fall die der Geisteswissenschaftler/innen beeinflusst hat.

Für die „eigentliche“ Publikation, also die unmittelbare Veröffentlichung von Forschungsergebnissen in referierten Zeitschriften, spielen elektronische Open Access Zeitschriften wohl gerade in den Geschichtswissenschaften eine Rolle: „Among the humanities, history is at the forefront when it comes to electronic full text journals, based in particular in the US and the UK“, heißt es bei Michael Nentwich. [9] Das inzwischen wohl etwas bekanntere, an der Universität Lund gepflegte Directory of Open Access Journals (DOAJ) weist unter der Rubrik „Geschichts- und Altertumswissenschaften“ elf Open Access Zeitschriften aus der Archäologie, 76 aus den Geschichtswissenschaften und einen Titel aus der Diplomatik im engeren Sinne nach. [10] Lediglich acht der dort verzeichneten geschichtswissenschaftlichen Zeitschriften sind deutschsprachig. Dieses Bild ändert sich allerdings beträchtlich, wenn zur Analyse geschichtswissenschaftlicher Open Access Zeitschriften nicht das DOAJ, sondern die Elektronische Zeitschriftenbibliothek (EZB) der Universität Regensburg herangezogen wird. [11] Insgesamt weist die EZB ein Vielfaches der über DOAJ verfügbaren Open Access Zeitschriften nach. Circa 40 Prozent der in der EZB verzeichneten 25.302 Titel sind über das Internet entgeltfrei zugänglich. Von den 1.048 für die Geschichtswissenschaft nachgewiesenen Zeitschriften sind 479 entgeltfrei über das Netz verfügbar, darunter 78 deutschsprachige Titel.

Eine gewisse Zurückhaltung dem Internet gegenüber deutet sich schließlich hinsichtlich so genannter Sekundärpublikationen an, also wenn untersucht wird, wie viele der bereits auf herkömmliche Weise publizierten Arbeiten von ihren Autoren/innen zusätzlich zur Verlagsveröffentlichung im Internet bereitgestellt werden. Eine vergleichende Untersuchung zu so genannten „institutionellen Repositorien“ hat zu dem interessanten Ergebnis geführt, dass die Repositorien australischer oder italienischer Universitäten fast zur Hälfte mit geistes- und sozialwissenschaftlichen Arbeiten bestückt sind, während vergleichbare Inhalte in Repositorien deutscher Universitäten einen verschwindend geringen Prozentsatz ausmachen. [12]

Nimmt man die Indizien, die sich aus dem Umgang mit Weblogs, Preprints, Open Access Zeitschriften und Repositorien ergeben, zusammen, liegt die Vermutung nahe, dass elektronisches Publizieren in den Geisteswissenschaften gerade in Deutschland noch an einem Anfang steht. Die damit einhergehende Vermutung, dass das Internet für die fachliche Arbeit bislang als wenig relevant angesehen wird, bestätigt sich nicht nur durch die offenbar geringe Akzeptanz elektronischer Veröffentlichungen, sie zeigt sich nicht nur in der aktiven Publikationstätigkeit, sondern wird auch im Rezeptionsverhalten der Geisteswissenschaftler/innen gespiegelt. Im Rahmen des DFG-Förderinstruments Kulturelle Überlieferung wurden zahlreiche für Geisteswissenschaftler/innen relevante Quellen in (retro-) digitalisierter Form zugänglich gemacht [13] ; ebenso konnte der orts- und zeitunabhängige Zugriff auf für die Geisteswissenschaften relevante digitale Text- und Werkausgaben in den Jahren 2004 und 2005 durch den Erwerb von Nationallizenzen begünstigt werden. [14] Die faktische Nutzung dieser im Internet frei verfügbaren Materialien lässt jedoch Rückschlüsse auf ihren derzeit noch geringen Bekanntheitsgrad zu. [15] Hier liegt deshalb der Schluss nahe, dass elektronisches Publizieren wohl erst dann zur geläufigen Praxis im Wissenschaftsfeld werden kann, wenn es auch für die dem Publizieren vorausliegenden Arbeitsschritte der Quellenlektüre, des Bibliografierens, der Rezeption von Sekundärliteratur viel alltäglicher geworden ist, auf die im Internet nachgewiesene, leicht zu findende und verlässlich qualitätsgesicherte, fachspezifische Information zurückzugreifen.

DFG-Umfrage zum Publikationsverhalten

Da Konzeption, Methodik und Durchführung der Umfrage bereits anderweitig publiziert wurden, sollen diese Aspekte hier in aller Kürze behandelt werden. [16] Befragt wurden 1.023 DFG-geförderte Wissenschaftler/innen aus den vier großen Wissenschaftsbereichen (Geistes- und Sozialwissenschaften, Lebenswissenschaften, Naturwissenschaften und Ingenieurwissenschaften), die je zu circa einem Viertel vertreten waren. Innerhalb jedes Wissenschaftsbereichs wurden zudem circa zehn Prozent Nachwuchswissenschaftler/innen befragt. Um den Rücklauf fachspezifisch auswerten zu können, wurde schließlich die Zuordnung zu einem Wissenschaftsfeld nach der Systematik der DFG-Fachkollegien abgefragt. Das Hauptergebnis der Auswertung lässt sich rasch zusammenfassen: Quer durch alle Wissenschaftsbereiche haben sich die Befragten mit deutlicher Mehrheit dafür ausgesprochen, dass die DFG entgeltfrei zugängliche elektronische Publikationen stärker fördern sollte. Auffällig war, dass – wenn auch mit nur kleinen prozentualen Verschiebungen – sich der Nachwuchs gerade der Geisteswissenschaften weniger stark als die etablierten Professoren/innen für deren verstärkte Förderung ausgesprochen hat. Dies kann nur daraus erklärt werden, dass – anders als etwa in den Naturwissenschaften – die Zahl der Angebote, in denen junge aufstrebende Akademiker/innen elektronisch publizieren und so ihre Reputation beachtlich steigern können, in den Geisteswissenschaften noch relativ gering ist. Schließlich ist zu bedenken, dass die Habilitation bzw. das so genannte „Zweite Buch“, dessen Online-Publikation als eher nachrangig betrachtet wird, nach wie vor eine bedeutsame Rolle spielt.

Wenn ich im Folgenden den Versuch unternehme, einzelne Fragen gezielt im Hinblick auf die Antworten vorzustellen, die von Vertretern/innen geisteswissenschaftlicher Fächer vorgebracht wurden, ist höchste Vorsicht angebracht. Die Zahl der Antworten, die den DFG-Fachkollegien „Alte Kulturen“, „Geschichtswissenschaften“, „Kunstwissenschaften“, „Sprachwissenschaften“, „Literatur-, Theater-, Medienwissenschaften“, „Ethnologie, Außereuropäische Kulturen, Religionswissenschaften“, „Theologie“ und „Philosophie“ zuzuordnen sind, war vielfach so klein, dass sie nicht signifikant und damit statistisch eigentlich nicht verwertbar sind. Die folgenden Ausführungen können daher nur als Momentaufnahmen betrachtet werden, die allenfalls Tendenzen erkennen lassen, die erst auf dem Hintergrund der auf Ebene der Fachgebiete bzw. der Wissenschaftsbereiche erzielten Gesamtergebnisse der DFG-Umfrage bzw. auf der Basis auch anderer Analysen und Studien zum Thema [17] zu werten sind. Zudem muss an dieser Stelle einschränkend darauf hingewiesen werden, dass sich die Fragen gezielt auf entgeltfrei zugängliche elektronische Publikationen (Open Access) bezogen haben und das Spektrum der Umfrage damit von vornherein nicht elektronischen Publikationen generell galt. Allerdings beziehen sich insbesondere die Themen, die mit Frage Nr. 20 („Hier haben wir eine Reihe von Aussagen zum Thema Open Access zusammengestellt, die in der gegenwärtigen Diskussion wiederholt genannt werden. Welche halten Sie für zutreffend, welche nicht?“) abgedeckt werden sollten, auf Problembereiche, die nicht allein Open Access Publikationen, sondern elektronische Veröffentlichungen im Allgemeinen betreffen. Daher sollen zunächst Auswertungen zu diesem Fragekomplex vorgestellt werden.

Die Langfristverfügbarkeit von Publikationen ist bereits ein wichtiges Kriterium, wenn Geisteswissenschaftler/innen entscheiden, welchen Zeitschriften sie ihre Arbeiten zur Veröffentlichung anbieten sollen (so zeigen es auch die Antworten auf Frage Nr. 6 „Wenn Sie selbst eine Arbeit in einer wissenschaftlichen Zeitschrift veröffentlichen wollen: Wie wichtig sind Ihnen die folgenden Aspekte?“). [18] Auch wenn sich circa ein Drittel der befragten Geisteswissenschaftler/innen außer Stande sieht, die Frage zu beantworten, ob die langfristige Verfügbarkeit elektronischer Publikationen gewährleistet werden kann, überwiegt auf Seite derjenigen, die die Frage dezidiert beantwortet haben, eine deutliche Skepsis. [19] Ein durchaus vorsichtiges, etwas größeres Zutrauen, elektronische Publikationen auch längerfristig verfügbar zu halten, deutet sich allenfalls in der Geschichts- und in der Sprachwissenschaft an.

Geschichte und Sprachwissenschaft: Dies ist eine Konstellation, die noch häufiger anzutreffen ist und die in gewissem Sinne bestätigt, was auch die Auswertung quer durch die Fächer bestätigt hat: Der – auch in diesen beiden Fächern – intensivere Umgang mit elektronischen Publikationen [20] führt offenbar dazu, dass das Vertrauen in die Langfristverfügbarkeit, in die Qualitätssicherung auch elektronischer Veröffentlichungen, in deren gesicherten Nachweis oder die häufigere Zitation steigt. [21]

Die Qualität der Begutachtung (Frage Nr. 6), die ebenfalls überaus wichtig für die Wahl eines Publikationsortes ist, wird im Falle elektronischer Publikationen fast ebenso oft bezweifelt wie bestätigt. Besonders häufig werden Zweifel an der Qualitätssicherung in der Theologie und Philosophie artikuliert. Neben der hohen Zahl der Befragten, die sich nicht im Stande sahen, die Frage „Ist die Qualitätssicherung bei elektronischen Publikationen ebenso sichergestellt wie bei konventionellen?“ verlässlich zu beantworten, muss auf diejenigen Wissenschaftler/innen hingewiesen werden, die offenbar sowohl bei gedruckten als auch bei elektronischen Publikationen die unterschiedlichsten Erfahrungen im Begutachtungsprozess machen konnten. Dabei fällt ins Auge, dass wiederum in den Geschichts- und in den Sprachwissenschaften fast ebenso viele Befragte die Qualitätssicherung elektronischer Publikationen bestätigen wie bezweifeln. [22]

Ein weiterer, wichtiger Aspekt war die Frage nach der Zitationshäufigkeit. Die Sichtbarkeit von Publikationen spielt ja insbesondere für den wissenschaftlichen Nachwuchs eine große Rolle. Quer durch alle geisteswissenschaftlichen Fächer allerdings wird die Frage, ob elektronische seltener als gedruckte Publikationen zitiert werden, eher bestätigt – auch das gewiss ein Grund dafür, dass eigene Arbeiten eher in konventionellen Druckzeitschriften veröffentlicht werden. Falls diese Annahme zutrifft, wäre die einleuchtende Erklärung wohl darin zu suchen, dass elektronische Publikationen bibliografisch seltener nachgewiesen werden als konventionelle. Die Einschätzung der Befragten hierzu scheint dies zu bestätigen [23] ; zugleich wäre das eine Bestätigung dafür, dass die Literaturrecherche in den geisteswissenschaftlichen Disziplinen noch oft auf traditionelle bibliografische Hilfsmittel zurückgreift, während der Zugriff auf Publikationen über Suchmaschinen demgegenüber weniger prominent ist.

Erfreulich für die DFG war der Umstand, dass bei der Frage nach den wichtigsten wissenschaftlichen Open Access Zeitschriften im eigenen Forschungsfeld nicht nur H-Soz-u-Kult (7x) und Zeithistorische Forschungen. Studies in Contemporary History (4x), sondern auch die sehepunkte (5x), zeitenblicke (3x) und Forum Qualitative Sozialforschung (4x) genannt wurden; auch die übrigen „häufigeren“ Nennungen – öfter als zweimal wurde kein anderer Titel angeführt –, kommen eher aus dem Bereich der Geschichts- und Altertumswissenschaften als aus anderen Disziplinen: The Bryn Mawr Classical Review (3x), The British Museum Studies in Ancient Egypt and Sudan (2x), Göttinger Forum für Altertumswissenschaft (2x) und Forum historiae iuris (2x). [24]

Rückschlüsse auf die Akzeptanz des elektronischen Publizierens lassen sich nicht zuletzt aus den Angaben ziehen, mit der die eigene Publikationspraxis der Befragten untersucht wurde. Im Folgenden ist daher noch kurz darauf einzugehen, wie die Disziplinen sich – immer unter Hinweis auf die kaum gegebene statistische Signifikanz – zu wissenschaftlichen Erstveröffentlichungen in Open Access Zeitschriften, zur Vorabveröffentlichung von Forschungsergebnissen oder auch zum so genannten self-archiving verhalten.

Die Publikation in Open Access Zeitschriften spielt, den Angaben der Befragten zufolge, offenbar keine Rolle. [25] Dieses Bild entspricht der Tendenz, die sich generell erwiesen hat. [26] Auffällig ist im Bereich der Geisteswissenschaften höchstens – wobei wiederum die geringe Fallzahl gerade der befragten Nachwuchswissenschaftler/innen zu bedenken ist –, dass, mit Ausnahme des Fachgebiets „Alte Kulturen“, nur etablierte Wissenschaftler/innen bekundet haben, bereits in einer Open Access Zeitschrift veröffentlicht zu haben, während der wissenschaftliche Nachwuchs dies bislang nicht getan hat.

Gänzlich unüblich scheint die – aus dem Bereich besonders der Physik bekannte – Praxis zu sein, Vorabveröffentlichungen wissenschaftlicher Arbeiten über das Internet bereitzustellen (Frage Nr. 19). Die verschwindend geringe Zahl derjenigen Befragten, die hier überhaupt Auskunft gaben, könnte zugleich darauf hindeuten, dass die Frage im geisteswissenschaftlichen Feld nicht richtig zu verstehen war, da die entsprechende Publikationspraxis nicht geübt wird. [27]

Demgegenüber ist es offenbar in manchen Fällen durchaus gängig, dass Wissenschaftler/innen ihre bereits publizierten Arbeiten selbst im Internet bereitstellen (Frage Nr. 16), um so den kostenfreien Zugriff auf diese zu ermöglichen. Auf diese Weise bereitgestellt werden naturgemäß neben Zeitschriftenaufsätzen vor allem Beiträge aus Tagungsbänden. [28] In den Sprachwissenschaften, in denen Sekundärpublikationen offenbar gängiger sind als in anderen Forschungsfeldern, finden sich sogar zusätzlich elektronisch publizierte Monografien wieder. Die Tendenz, in erster Linie bereits anderweitig veröffentlichte Beiträge über das Internet entgeltfrei verfügbar zu machen, entspricht dem Verhalten auch anderer Wissenschaftsbereiche. [29]

Die Praxis der Sekundärpublikation bietet den Vorteil, dass Arbeiten im Internet publiziert werden können, die bereits das „Gütesigel“ einer anerkannten Fachzeitschrift tragen. Insofern bietet die Unterstützung des so genannten self-archiving derzeit den vielleicht vielversprechendsten Ansatz, zur Akzeptanz elektronischer Publikationen beitragen zu können. Allerdings muss auch klar sein, dass Wissenschaftler/innen sich durch erst nachträgliche elektronische Publikation ihrer Forschungsergebnisse mancher medienspezifischer Vorteile, die die direkte Publikation in Open Access Zeitschriften bieten könnte – etwa die unmittelbare Verknüpfung zu Quellen, Karten, Statistiken – begeben bzw. mit hohem Aufwand rechnen müssten, um diese nachträglich zu integrieren.

Im Folgenden soll dargestellt werden, mit welchen Aktivitäten, die teilweise auf Basis der Umfrageergebnisse, die zuvor nur in einem sehr begrenzten Ausschnitt referiert werden konnten, die DFG versuchen möchte, zur Akzeptanz von elektronischen Publikationen beizutragen.

Förderaktivitäten zur Unterstützung der Akzeptanz von E-Journals

Nur in aller Kürze sei darauf hingewiesen, dass im Rahmen des Förderinstruments Elektronisches Publizieren sowohl die Entwicklung von Publikationstools als auch die Gründung innovativer elektronischer Zeitschriften unterstützt werden können; diese Aktivitäten der DFG sind weithin bekannt. [30] Etwas ausführlicher soll beschrieben werden, welche Aktivitäten derzeit geplant sind, um verstärkt zur Akzeptanz elektronischer Publikationen beizutragen.

  1. Im Januar 2006 haben sich Senat und Hauptausschuss der DFG dafür ausgesprochen, alle DFG-geförderten Wissenschaftler/innen aufzufordern, ihre Publikationen nach Möglichkeit im Open Access verfügbar zu machen. Der zu diesem Zweck eigens in die Verwendungsrichtlinien eingearbeitete Text weist explizit darauf hin, dass damit nicht allein die zusätzliche Veröffentlichung bereits anderweitig publizierter Forschungsergebnisse gemeint ist, sondern dass Wissenschaftler/innen in Open Access Journals publizieren sollten, sofern für das jeweilige Fach entsprechend renommierte Zeitschriften existieren.
  2. Zugleich arbeitet die Geschäftsstelle derzeit intensiv an einer Neugestaltung des Förderinstruments Publikationsbeihilfe für Zeitschriften. In diesem Programm können, sofern ein Zuschussbedarf besteht, die Herstellungskosten wissenschaftlich exzellenter Zeitschriften unter bestimmten Voraussetzungen mitfinanziert werden. Im Rahmen des bestehenden Programms werden 36 geistes- und sozialwissenschaftliche Printzeitschriften, doch keine elektronische Zeitschrift gefördert. Ein neues Programm zur Zeitschriftenförderung soll dagegen auch das Ziel verfolgen, den Prozess hin zur zunehmenden Akzeptanz elektronischer Publikationen zu unterstützen, indem die Konditionen der Förderung bewusst im Hinblick auf die bei Redaktion und Herstellung elektronischer Zeitschriften anfallenden Arbeiten und Kosten ausgerichtet werden. Insbesondere die Möglichkeit einer Beihilfe, mit der die Transformation gedruckter in elektronische Zeitschriften unterstützt werden soll, dürfte attraktiv sein, um den Prozess zur Umstellung einer Druckkultur auf eine Kultur elektronischer Zeitschriften zu fördern. Die Vorschläge mit den Grundzügen für das neue Förderprogramm lagen im Frühjahr 2006 dem Ausschuss für wissenschaftliche Bibliotheken und Informationssysteme sowie den geistes- und sozialwissenschaftlichen Fachkollegien vor, um deren Rückmeldungen zum neuen Konzept berücksichtigen und einarbeiten zu können, bevor die Entscheidungsgremien der DFG mit dem neuen Vorschlag konfrontiert werden sollen.
  3. Schließlich soll die Struktur für wissenschaftliche Sekundärpublikationen möglichst attraktiv gestaltet werden. Hier müssen vor allem Aspekte der Qualitätssicherung in Repositorien in den Blick genommen und umgesetzt werden, um das Vertrauen in die Qualität der über Repositorien verfügbaren Inhalte als Voraussetzung ihrer Akzeptanz zu steigern. Gleichzeitig müssen Dienstleistungen entwickelt werden, die es Wissenschaftlern/innen attraktiv erscheinen lassen, ihre besten Arbeiten auch über qualitativ hochwertige Hochschulschriftenserver anzubieten. Hierzu wurden Mitte Februar 2006 auf einem zusammen mit der Deutschen Initiative für Netzwerkinformation (DINI e.V.) ausgerichteten Symposium Vorschläge entwickelt, wie Repositorien durch Etablierung von Statistik- und Zitationsdiensten für Autoren/innen attraktiver gestaltet werden können. Die unseres Erachtens vordringlich zu lösende Aufgabe wird darin bestehen, Hochschulschriftenserver so zu vernetzen, dass sie auch über Ländergrenzen hinweg interoperabel sind und dass deren Inhalte über alle Suchinstrumente – vom elektronischen Bibliothekskatalog über Virtuelle Fachbibliotheken bis hin zu allgemeinen Suchmaschinen wie Google – nachgewiesen und für das wissenschaftliche Arbeiten rezipiert werden können.
  4. Einen wesentlichen Schub könnte die Akzeptanz elektronischer Publikationen auch in den Geisteswissenschaften erhalten, wenn renommierte Wissenschaftler/innen mit einer langen Liste reputierlicher Veröffentlichungen dafür gewonnen werden könnten, diese in einer konzertierten Aktion entgeltfrei verfügbar zu machen. Die Idealvorstellung wäre die Auflage eines nach dem niederländischen Vorbild des Cream of Science [31] gestrickten Projekts, mit dem sämtliche Publikationen deutscher Spitzenwissenschaftler/innen digital nachgewiesen und möglichst vollständig entgeltfrei verfügbar gemacht würden. Dies hätte Vorbildfunktion für viele andere Forscher/innen. Zur Umsetzung entsprechender Pläne müssen jedoch eine stattliche Zahl organisatorischer, administrativer, finanzieller und insbesondere rechtlicher Fragen und Probleme geklärt werden. Als langfristiges Ziel bleibt eine Art deutsches Cream of Science-Vorhaben jedoch Aufgabe der DFG.

Gerade für die Geisteswissenschaften stellt die langfristige Verfügbarkeit ihrer Texte eine besondere Notwendigkeit dar. Vielfach ist die noch geringe Akzeptanz elektronischer Publikationen darauf zurückzuführen, dass die langfristige Archivierung wissenschaftlicher Dokumente letztlich nicht geklärt ist. Die Vielzahl der hier zu lösenden Probleme wird insbesondere über die vom Bundesministerium für Bildung und Forschung geförderten Projekte kopal – Kooperativer Aufbau eines Langzeitarchivs digitaler Informationen – und nestor – Kompetenznetzwerk Langzeitarchivierung – gebündelt [32] , wo Problemlösungsstrategien entwickelt und umgesetzt werden. Gezielte Einzelprojekte, die dem Problem der Archivierung von Netzpublikationen gewidmet sind, werden auch von der DFG gefördert.

Fazit

Das Spannungsfeld zwischen der zunehmenden Akzeptanz elektronischer Publikationen einerseits und einer gewissen Zurückhaltung diesen gegenüber andererseits tritt insbesondere im Verhältnis sekundär publizierter wissenschaftlicher Artikel zu Originalbeiträgen in Open Access Zeitschriften zutage. Das für geisteswissenschaftliche Autoren/innen erforderliche Renommee ist in vielen Fällen vorerst nur durch Publikationen in Druckzeitschriften und Buchreihen, die als besondere Gütesigel angesehen werden, zu erwerben. Man darf jedoch zurecht davon ausgehen, dass bestehende und auch neue elektronische Zeitschriften sich im Laufe der Zeit als diesen gleichberechtigte ‚Marken’ etablieren, sofern die durch Wissenschaftler/innen, Verlage und – insbesondere, doch nicht nur im Falle von Sekundärpublikationen – Bibliotheken vorgenommene Qualitätskontrolle auch elektronischer Publikationen höchsten Ansprüchen genügt.

***

Dr. Johannes Fournier ist bei der Deutschen Forschungsgemeinschaft als Programmdirektor für den Förderbereich „Elektronisches Publizieren“ verantwortlich. E-Mail: johannes.fournier@dfg.de


[1] Vgl. Rowland, Fytton, Print Journals: Fit for the Future?, in: Ariadne 7 (1997); <http://www.ariadne.ac.uk/issue7/fytton/>: “The fourth function mentioned above (recognition of authors) should be seen by researchers as the most important function of academic journals“.

[2] Vgl. den Text der Erklärung unter <http://www.zim.mpg.de/openaccess-berlin/berlindeclaration.html>. – Mit ihrem Förderinstrument „Retrospektive Digitalisierung von Bibliotheksbeständen“ hat die DFG bereits seit 1997 in großem Stil dazu beigetragen, insbesondere für die Geistes- und Sozialwissenschaften relevante Quellen entgeltfrei über das Internet verfügbar zu machen (eine Liste der geförderten Projekte findet sich unter <http://www.hki.uni-koeln.de/retrodig/index.html>). Mit Projekten wie „Dissertationen Online“ (<http://www.dissonline.de>), „German Academic Publishers“ (<http://www.gap-c.de>) oder „SCOPE – Service Core for Open Publishing Environments“ (<http://edoc.hu-berlin.de/e_projekte/scope/kontakt.php>) wurden Infrastrukturen und Werkzeuge für das elektronische Publizieren aufgebaut. Schließlich wurden z.B. für „German Medical Science“ (<http://www.egms.de>), „Forum Qualitative Sozialforschung“ <http://www.qualitative-research.net/fqs/fqs.htm>) oder „sehepunkte. Rezensionsjournal für die Geschichtswissenschaft“ (<http://www.sehepunkte.historicum.net/>) Starthilfen zum Etablieren elektronischer Zeitschriften gewährt.

[3] Deutsche Forschungsgemeinschaft, Publikationsstrategien im Wandel? Ergebnisse einer Umfrage zum Publikations- und Rezeptionsverhalten unter besonderer Berücksichtigung von Open Access, Bonn 2005. – Diese Publikation ist online zugänglich unter <http://www.dfg.de/lis/openaccess>.

[4] Vgl. Butler, Declan, Science in the web age: Joint Efforts, in: Nature 438 (1.12.2005), S. 548f. – Wie auch andere Formen der elektronischen Publikation können Weblogs zudem zu einer gesteigerten Sichtbarkeit ihrer Autoren/innen und auf diese Weise zu deren größerem Renommee beitragen.

[5] Die dem Seminar ähnliche Funktion scheint mir dadurch bestätigt, dass, soweit ich sehe, Weblogs ebenso wie (geschichtswissenschaftliche) Wikis in erster Linie zur Unterstützung der akademischen Lehre eingesetzt werden, vgl. etwa die unter „Earthshine“ (<http://www.earthshine.org/>) zugänglichen Seiten.

[6] Vgl. <http://www.vascoda.de>.

[7] Vgl. <http://hodel-histnet.blogspot.com/2006/01/hok-lesenschreiben-einstieg.html>. „Zurecht mahnte mich die Runde [i.e. die Teilnehmer/innen einer Tagung „Geschichte lehren an der Hochschule“, Universität Paderborn, 8./9.09.2005] an die Praxistauglichkeit der Vorschläge“ (<http://hodel-histnet.blogspot.com/2005/09/bloggen-und-geschichte-oder-warum.html>).

[8] Princeton/Stanford Working Papers in Classics, vgl. <http://www.princeton.edu/~pswpc/>.

[9] Nentwich, Michael, Cyberscience. Research in the Age of the Internet, Wien 2003, S. 115.

[10] Vgl. <http://www.doaj.org>.

[11] Vgl. <http://rzblx1.uni-regensburg.de/ezeit/>.

[12] Vgl. van Westrienen, Gerard, Completed Questionnaires. Country Update on Academic Institutional Repositories, <http://www.surf.nl/download/country-update2005.pdf>, S. 14f. – Hier wäre jedoch weiter zu fragen, inwieweit neben wissenschaftlichen Publikationen in engerem Sinne auch Lehrmaterialien usw. in den Repositorien verfügbar gemacht werden.

[13] Vgl. <http://www.hki.uni-koeln.de/retrodig/index.html>.

[14] Eine Liste der erworbenen Datenbanken findet sich unter <http://www.nationallizenzen.de>.

[15] Mit dem Aufbau des Portals digitalisierter Drucke <http://www.zvdd.de>) und einer Seite für alle über Nationallizenzen verfügbare Text- und Datensammlungen <http://www.nationallizenzen.de>) wird der Zugriff auf die jeweils zentral nachgewiesenen Materialien bequem möglich sein; daher bleibt zu hoffen, dass die Angebote auch bekannter und besser genutzt werden.

[16] Ausführlicher dazu Fournier, Johannes, Zur Bedeutung von Open Access für das Publikationsverhalten DFG-geförderter Wissenschaftler. Bericht über die Ergebnisse einer Umfrage im Auftrag der Deutschen Forschungsgemeinschaft, in: Zeitschrift für Bibliographie und Bibliothekswesen 52 (2005), S. 235-244; Ders., In die Zukunft publizieren. Positionen und Reflexionen, in: Stempfhuber, Maximilian (Hg.), In die Zukunft publizieren. Herausforderungen an das Publizieren und an die Informationsversorgung in den Wissenschaften, Bonn 2006, S. 279-293.

[17] Zum Beispiel Nentwich, Cyberscience (wie Anm. 9).

[18] Vgl. den so genannten „Tabellenband“ zur Umfrage unter <http://www.dfg.de/dfg_im_profil/zahlen_und_fakten/statistisches_berichtswesen/open_access/download/oa_tabband.pdf>, S. 38.

[19] Die Auffassung, dass die langfristige Verfügbarkeit elektronischer Publikationen nicht ebenso gesichert werden kann wie die gedruckter Veröffentlichungen vertreten 60% (9 von 15) der Befragten aus den „Alten Kulturen“, 42% (13 von 31) aus den Geschichtswissenschaften, 88% (7 von 8) aus den Kunstwissenschaften, 33% (7 von 21) aus den Sprachwissenschaften, 58% (11 von 19) aus den Literaturwissenschaften, 50% (3 von 6) aus der Ethnologie, 56% (5 von 9) aus der Theologie und 63% (5 von 8) aus der Philosophie.

[20] Vgl. dazu Nentwich, Cyberscience (wie Anm. 9), S. 112 (Sprachwissenschaften) und S. 114-116 (Geschichtswissenschaften).

[21] Vgl. DFG, Publikationsstrategien im Wandel (wie Anm. 3), S. 48-52.

[22] 22% der Geschichts- und 19% der Sprachwissenschaftler/innen gehen davon aus, dass die Qualitätssicherung elektronischer Publikationen ebenso sichergestellt ist wie die gedruckter; das Gegenteil nehmen 26% der Geschichts- und wiederum 19% der Sprachwissenschaftler/innen an. 16% (Geschichte) bzw. 9% (Sprachwissenschaft) der Befragten sind unentschieden in ihrer Bewertung; 35% (Geschichte) bzw. 52% (Sprachwissenschaft) geben an, die Frage nicht beantworten zu können.

[23] Dass elektronische Publikationen bibliografisch seltener nachgewiesen werden als konventionelle, nehmen 53% (8 von 15) der Befragten aus den „Alten Kulturen“, 68% (21 von 31) aus den Geschichtswissenschaften, 63% (5 von 8) aus den Kunstwissenschaften, 43% (9 von 21) aus den Sprachwissenschaften, 74% (14 von 19) aus den Literaturwissenschaften, 33% (2 von 6) aus der Ethnologie, 33% (3 von 9) aus der Theologie und 75% (6 von 8) aus der Philosophie an.

[24] Vgl. DFG, Publikationsstrategien im Wandel (wie Anm. 3), S. 42.

[25] Nach einer Berechnung des Mittelwerts wurden 0,08 Publikationen aus den „Alten Kulturen“, 0,22 aus den Geschichtswissenschaften, 0,13 aus den Kunstwissenschaften, 0,4 aus den Sprachwissenschaften, 0,22 aus den Literaturwissenschaften, 0,17 aus der Ethnologie und keine aus der Theologie und der Philosophie in Open Access Journals veröffentlicht.

[26] Vgl. DFG, Tabellenband (wie Anm. 18), S. 46.

[27] Vgl. DFG, Tabellenband (wie Anm. 18), S. 51f.

[28] Der Mittelwert für Postpublikationen von Zeitschriftenaufsätzen beträgt in den „Alten Kulturen“ 1, in den Geschichtswissenschaften 1,47 in den Kunstwissenschaften 0,37, in den Sprachwissenschaften 7, in den Literaturwissenschaften 4,01, in der Ethnologie 5,24, in der Theologie 3,17 und in der Philosophie 3,57. Die Mittelwerte für zusätzlich veröffentlichte Beiträge aus Tagungsbänden sind in den „Alten Kulturen“ 5,56, in den Geschichtswissenschaften 5,42, in den Kunstwissenschaften 3,33, in den Sprachwissenschaften 14,03, in den Literaturwissenschaften 5, in der Ethnologie 3,7, in der Theologie 0 und in der Philosophie 10,71. In den meisten Fächern ist es somit eher üblich, Beiträge aus Tagungsbänden entgeltfrei verfügbar zu machen, als Zeitschriftenbeiträge sekundär zu publizieren.

[29] Vgl. DFG, Tabellenband (wie Anm. 18), S. 48f.

[30] Vgl. auch <http://www.dfg.de/lis>, insbesondere unter <http://www.dfg.de/lis/openaccess>.

[31] Vgl. <http://www.creamofscience.org/en/page/language.view/keur.page>.

[32] Vgl. <http://kopal.langzeitarchivierung.de/>; <http://www.langzeitarchivierung.de/index.php>.


Elektronisches Publizieren – Die Nutzerperspektive

von Karsten Borgmann

Der Beitrag untersucht die Charakteristik einer geschichtswissenschaftlichen Publikationskultur vor dem Hintergrund einer zunehmenden Verfügbarkeit elektronischer Fachpublikationen. Bisherige Untersuchungen haben sich in diesem Zusammenhang vor allem mit den Ansprüchen und Bedürfnissen von geschichtswissenschaftlichen Autoren/innen beschäftigt, deren Skepsis gegenüber elektronischen Veröffentlichungsorten nach wie vor groß ist. Der Beitrag stellt diesen, aus der Autorenperspektive verständlichen Einstellungen, dezidiert die Perspektive von Wissenschaftlern/innen als geschichtswissenschaftlichen Nutzern/innen und Rezipienten/innen von elektronischen Fachpublikationen gegenüber. Daten für diese Analyse liefert die erste Sichtung einer Befragung über die Nutzung geschichtswissenschaftlicher Online-Angebote, die Ende 2005 und Anfang 2006 durchgeführt wurde. Eine genauere Analyse der Umfragedaten wird im Zuge der Publikation der Umfragergebnisse erfolgen.

***

Aktuelle Untersuchungen zur Nutzung des Internets als Medium wissenschaftlicher Kommunikation zeigen eine offenbar quer durch alle Wissenschaftsbereiche gehende Diskrepanz bei der Nutzung des Internets, einerseits als Publikationsort eigener Veröffentlichungen, andererseits als Medium, über das auf Informationen und Publikationen zugegriffen werden kann. [1] So gaben in einer Umfrage der Deutschen Forschungsgemeinschaft (DFG) 83 Prozent der befragten Wissenschaftler/innen in Natur-, Lebens- und Geisteswissenschaften an, mehr oder weniger häufig Fachpublikationen zu nutzen, die im Open Access [2] zur Verfügung stehen. [3] Über 80 Prozent sind zudem der Meinung, dass die freie Zugänglichkeit zu elektronischen Publikationen öffentlich gefördert werden sollte. Demgegenüber wurde das Internet als Ort zur Veröffentlichung eigener Open Access-Publikationen bislang nur von rund zwölf Prozent der befragten Wissenschaftler/innen genutzt. [4] Eine deutliche Mehrheit der Befragten äußerte sich zudem skeptisch, was Qualität, Renommee, langfristige Zitierfähigkeit und, ganz allgemein, die fachliche Bedeutung von Open Access-Publikationen angeht. [5]

Vieles spricht dafür, dass diese Diskrepanz sich im Blick auf die Geschichtswissenschaften noch verschärft. Zwar sind Open Access-Zeitschriften in den Geisteswissenschaften allgemein wenig etabliert, was auch mit der bleibenden Bedeutung von Monografien und Sammelbänden als typischen Publikationsformaten dieser Fächergruppe zu tun hat. [6] In anderer Hinsicht lässt sich jedoch vermuten, dass innerhalb der Geisteswissenschaften besonders Historiker/innen als potenzielle „Power User“ von Online-Informationen aller Art in Frage kommen. So zeigte eine bereits 2003 ebenfalls von der DFG in Auftrag gegebene Studie zur Nutzung des Systems der überregionalen Literaturversorgung in Deutschland, dass insbesondere die Geschichtswissenschaften sich in ihrer Arbeit besonders vielfältiger Informationsmöglichkeiten bedienen. [7] So nehmen Historiker/innen eher als Vertreter/innen anderer Disziplinen Informationen auch aus anderen Bereichen als ihrem eigenen Fachgebiet wahr, sie interessieren sich mehr als andere Fächer für Forschungsprojekte, also für Informationen rund um den Forschungsbetrieb. Ferner kalkulieren sie einen verhältnismäßig hohen Zeitaufwand für Informationsbeschaffung ein und sie sichten Informationen lieber selber, als sich auf Bewertungen und Klassifikationen anderer zu verlassen. [8] So könnte man annehmen, dass mit Blick auf dieses wenig selektive Rezeptionsverhalten Geschichtswissenschaft und Internet wie für einander geschaffen sind. Allerdings steht dieser vermeintlich harmonischen Beziehung eine ebenso signifikant hohe Ablehnung des Internets als geeignetem Ort für eigene Veröffentlichungen gegenüber.

Gründe für diese Skepsis können in der geringen Bekanntheit und der fehlenden Vertrautheit mit den gegebenen Möglichkeiten für eigene Open Access-Veröffentlichungen vermutet werden, dem durch geeignete Öffentlichkeitsarbeit und gezielte Fördermaßnahmen gegenzusteuern wäre. [9] Zugleich wird jedoch auch deutlich, dass solche Einstellungen als Teil einer fachspezifischen Publikationskultur offenbar langfristig recht stabil sind [10] , eine schnelle Änderung grundlegender Einstellungen lediglich durch verstärkte Werbung für elektronische Veröffentlichungswege also nicht unbedingt zu erwarten ist. Da in den Geschichtswissenschaften, im Verhältnis zu anderen Wissenschaftsbereichen, sehr lange an Publikationen gearbeitet wird, ist es verständlich, wenn Autoren/innen für ihre Werke auch eine „aufwändige“ Veröffentlichungsform wünschen. Die Publikation soll herausragen aus der Masse anderer, sie soll an einem renommierten Ort erscheinen, durch Aufnahme in eine Bibliothek langfristig verfügbar sein und vor allem wissenschaftliche Aufmerksamkeit finden. Einer der deutlichsten Kritikpunkte an der Präsenz von Werken im Internet, den wissenschaftliche Autoren/innen in diesem Zusammenhang äußern, ist, dass gegenüber konventionellen Publikationswesen im Netz keine ausreichenden Qualitätsprüfungen existieren. [11] Demgegenüber werden die aufwändigeren Produktionsverfahren des „klassischen“ Publikationsbetriebs als natürlicher „Filter“ angesehen, der nur in Inhalt und Form hochwertige Publikationen passieren lässt. An dieser Stelle wird der Konflikt zwischen dem Anliegen nach singulärer Veröffentlichung und der Praxis einer breiten, umfassenden Nutzung besonders offenkundig.

Folgt man nun in diesem Dilemma, das, wie ich behaupten möchte, zur Gesamtcharakteristik der spezifisch geschichtswissenschaftlichen Publikationskultur dazugehört, vor allem der Perspektive der Autoren/innen, hängt die Entscheidung für Open Access mit dem Vorhandensein von hochwertigen Veröffentlichungsorten im Netz zusammen. Durch ein vermehrtes Angebot von redaktionell selektiven und aufwändig produzierten Open Access-Zeitschriften soll den Autoren/innen der Wechsel zur Publikation in einem neuen Medium erleichtert werden. Der Schwerpunkt dieses Ansatzes besteht in der Verbesserung der Präsentation sowie in einer größeren Selektivität bei den Inhalten.

Eine andere Herangehensweise könnte jedoch auch darin bestehen, die Nutzerperspektive einzunehmen und zu fragen, wie im Prozess der Nutzung von Online-Publikationen die Qualität einer Arbeit erkannt werden kann. Welche qualitativen Auszeichnungsmechanismen hält das Internet bereit, bzw. welche Möglichkeiten beginnen sich herauszubilden, die den Nutzern/innen erlauben, die Spreu vom Weizen zu trennen? Die Kenntnis dieser Zusammenhänge könnte Befürchtungen von Seiten der Autoren/innen abbauen, mitsamt ihren aufwändig produzierten Werken in der Masse des Internets unterzugehen. Was lässt sich aus der genaueren Analyse der Nutzung lernen, das hilft, Internet-Publikationen so zu optimieren, dass Autoren- und Nutzerinteressen zumindest in gewissem Maße versöhnt werden können?

Ich möchte im Folgenden zu diesem Problem einige recht vorläufige Überlegungen anführen, die auf der ersten Sichtung von Ergebnissen einer Online-Umfrage beruhen, die von den Projekten Clio-online, H-Soz-u-Kult und Zeitgeschichte-online Ende 2005 und Anfang 2006 durchgeführt wurde. [12] Die Befragung hatte nicht in erster Linie das Ziel, das Akzeptanzproblem elektronischer Fachpublikationen zu klären. Sie sollte vor allem einen Eindruck von der Nutzung verschiedener existierender Fachangebote erlauben, also neben elektronischen Publikationen auch von Recherchetechniken, der Verwendung von Suchmaschinen und dem Bedarf an weiteren Informationsdiensten. Mit der Umfrage sollte den Nutzern/innen eine Möglichkeit zum Feedback eingeräumt werden, das wiederum als Ansatzpunkt zur Verbesserung der Projektangebote dienen sollte. Einige Fragen und Antworten lieferten jedoch auch einen Eindruck von der Nutzung des Internets als Teil des geschichtswissenschaftlichen Publikationswesens, der zeigt, wo aus Nutzerperspektive Stärken und Schwächen gesehen werden.

Im Kreis der geschichtswissenschaftlichen Internet-Nutzer/innen, der mit der Umfrage angesprochen wurde, waren zunächst keine generellen Vorbehalte gegenüber dem Internet als Plattform für Fachpublikationen festzustellen. Dies ist zum einen sicherlich der Internet-Affinität der Teilnehmer/innen einer Online-Umfrage zuzuschreiben, zum anderen aber vermutlich auch auf die in den letzten Jahren stark fortgeschrittene Integration von Netztechnik in den geschichtswissenschaftlichen Arbeitsplatz zurückzuführen. Nicht nur die offensichtlichen technischen Vorzüge wie Schnelligkeit und Zugänglichkeit werden an Internet-Angeboten geschätzt, auch die Qualität und Zuverlässigkeit von Internet-Informationen allgemein beurteilt eine sehr deutliche Mehrheit der Befragten positiv. [13]

Dieser erste Eindruck wird bestätigt durch eine Frage, die auf verschiedene, alternative Formen möglicher Qualitätssicherung von Angeboten zielte. So entscheidet sich nur eine Minderheit für aufwändigere inhaltliche Prüfverfahren (Peer Review). Eine deutliche Mehrheit akzeptiert auch Veröffentlichungen, die lediglich formalen Kriterien (wie zum Beispiel Vollständigkeit, klare Urheberschaft usw.) genügen. Diese Form der Veröffentlichung wird normalerweise von Fachportalen oder auch Dokumentenservern der Hochschulen gepflegt (Abbildung 1).

Es bestätigt sich die bereits genannte Beobachtung, dass das Internet aus Nutzersicht eher wegen der darüber zugänglichen Breite von Informationen und nicht aufgrund der qualitativen Vorauswahl der Angebote geschätzt wird. Die genannten Veröffentlichungsformen stellen in der Realität natürlich keine Alternativen dar, sondern ergänzen sich, wie weiter untern noch ausgeführt wird. Dass die Frage diese Optionen alternativ darstellte erhöhte jedoch die Aussagekraft, da die Probanden/innen an dieser Stelle eine deutlichere Präferenz zeigen mussten.

Abbildung 1: Notwendige Qualitätskontrolle für die Veröffentlichung von Fachartikeln

Die Umfrage berührte die Frage nach stärkerer inhaltlicher Vorauswahl von Angeboten auch noch in einem anderen Zusammenhang. Gefragt nach Möglichkeiten der Vor-Selektion im Rahmen eines E-Mail-Abonnements entscheiden sich deutlich weniger Nutzer/innen für eine inhaltliche Vorauswahl gegenüber lediglich formalen Ordnungsprinzipien der Angebote. Vor-Selektionen, sei es durch Fachredakteure/innen, Fachbibliothekare/innen oder eine automatische Klassifikation nach Stichwörtern rufen die Skepsis der Nutzer/innen hervor. In der befragten Gruppe lässt sich eine Präferenz beobachten, E-Mail-Abonnements nach funktionalen Eigenschaften (Rubriken) zu ordnen, auch wenn dabei unvermeidlich auch Mailings im Postfach landen, die außerhalb des eigenen inhaltlichen Interessengebiets liegen (Abbildung 2).

Fasst man diese Beobachtungen zusammen, ließe sich hypothetisch äußern, dass aus der Nutzerperspektive nicht unbedingt die unter hohem redaktionellen Aufwand erstellte E-Zeitschrift, sondern das nach formalen Kriterien arbeitende Fachportal, bzw. im Falle der Veröffentlichung von Forschungsarbeiten der universitäre Dokumentenserver die effizienteste Variante der Online-Publikation ist. Aber bestätigen sich damit nicht alle Befürchtungen, die Autoren/innen in Bezug auf das Verschwinden ihrer Werke in der Masse formal ähnlicher, aber möglicherweise qualitativ schlechterer Veröffentlichungen hegen? Zwei Antworten lassen sich aus der Perspektive der Nutzer/innen geben.

Abbildung 2: Präferenz bei der Vor-Selektion von E-Mail-Abonnements

Zum einen ist nicht anzunehmen, dass sich die große Bandbreite von Publikationsformen und -orten unterschiedlicher Qualität, die das „klassische“ Publikationswesen hervorgebracht hat, in Zukunft reduziert. Im Gegenteil, große Digitalisierungsinitiativen, die von privater wie öffentlicher Seite vorangetrieben werden, sorgen dafür, dass vergangene wie zukünftige Publikationen, ob in Buchform oder als Zeitschrift, elektronisch abrufbar sein werden. [14] Damit wird die gesamte redaktionelle Kompetenz etablierter Titel, Reihen, Verlage und Herausgeberkollektive ins digitale Zeitalter transferiert – und damit auch alle Höhen und Tiefen des „klassischen“ Publikationswesens, deren Kenntnis ein wichtiger Teil der working knowledge von Historikern/innen ist. Experimente mit ausschließlich elektronisch herausgegebenen Fachzeitschriften haben angesichts dieses in großem Umfang laufenden Prozesses der Digitalisierung nie eine große Rolle gespielt. [15] Auch die Monopolisierung elektronischer Vertriebswege durch einige Großverlage, wie sie international in Bereichen der Natur- und Lebenswissenschaften zu beobachten ist [16] , ist in einem durch viele kleine und mittelgroße Unternehmen geprägten, deutschen Verlagswesen auch mittelfristig eher unwahrscheinlich. [17] Wissenschaftlichen Autoren/innen bleibt somit weiterhin eine große Auswahl an distinktiven Offline-Veröffentlichungsorten erhalten, allerdings ist mit digitalen Parallelpublikationen und -verwertungen durch die Verlage zu rechnen, sofern sich Autoren/innen nicht eigene Nutzungsrechte vorbehalten.

Zum anderen werden über das Netz in vielfacher Weise zusätzliche Informationen und Bewertungen über Publikationen verfügbar, die den Nutzern/innen eine schnelle Einschätzung der Qualität eines Werks erlauben. Über einen Dienst wie die Rezensionssuche „Historische Rezensionen Online“ werden im einfachen Zugriff alle wichtigen Anbieter elektronischer Buchbesprechungen erschlossen, die zuvor an unterschiedlicher Stelle im Netz aufgesucht werden mussten. [18] Es spricht vieles dafür, dass neben der Erschließung eines wachsenden Bestandes digitalisierter Publikationen selbst, das Internet vor allem als Speicher solcher „Meta-Informationen“ über den primären wissenschaftlichen Content genutzt wird. So geben Befragte an, am häufigsten Rezensionen über wissenschaftliche Neuerscheinungen im Internet zu suchen. Die zweithäufigste Kategorie stellen Literaturübersichten und Bibliografien dar, also ebenfalls ein Genre, in dem bibliografische Information fachlich evaluiert und zusammengestellt wurde (Abbildung 3). [19]

Abbildung 3: Wissenschaftliche Publikationen, nach denen im Internet gesucht wird

Wie in einem enorm erweiterten sozialen Netz [20] werden so über die bislang verfügbaren Kontakte der Wissenschaftler/innen hinaus, Wissen und Kenntnisse anderer Wissenschaftler/innen sichtbar, die eine schnelle Einschätzung der fachlichen Relevanz von Informationen verschiedenster Art ermöglichen. Zum zentralen Instrument des Zugriffs auf diese verstreuten Informationseinheiten entwickeln sich die großen Suchmaschinen. Ihre Bedeutung als universeller Zugang zu Inhalten wächst. [21] Nutzer/innen erhalten hier nicht nur Informationen über den Ort einer Veröffentlichung im Netz, sondern auch eine automatisierte Bewertung des Dokuments selbst, die, ähnlich dem Ranking in den etablierten „Citation Indexes“, durch die Anzahl von Referenzen auf den Text gebildet wird. Texte und Dokumente, die in dieser Hinsicht eine große Zahl von Bezügen aufweisen können, erlangen durch bessere Platzierung leichter Bekanntheit und Aufmerksamkeit. Dass die Suchmaschine Google inzwischen auch bei der Frage nach den bevorzugten Wegen speziell bibliografischer Recherchen unmittelbar hinter den primären Bibliothekskatalogen rangiert, zeigt Abbildung 4.

Abbildung 4: Suchmaschinennutzung bei bibliografischen Recherchen

Damit relativiert sich zunehmend die Bedeutung des Veröffentlichungsortes zugunsten einer durch die Menge der im Internet zur Verfügung stehenden Referenzen erzeugten Prominenz des einzelnen Textes. So entscheidet nicht mehr allein die Veröffentlichung in einer renommierten Schriftenreihe, sondern auch das Vorhandensein von ausreichenden Meta-Informationen und Rückbezügen im Netz über die Sichtbarkeit einer Veröffentlichung. Wissenschaftliche Autoren/innen sind also gut beraten, auf leichte Zugänglichkeit ihres veröffentlichten Werkes zu achten, was eine Veröffentlichung im Open Access voraussetzt. Sie sollten zudem dafür Sorge tragen, dass weitere Referenzen, Hinweise und Erwähnungen über Autor/in und Werk im Internet zu finden sind. Dies geschieht fast automatisch, sobald Autoren/innen eine aktive Veröffentlichungstätigkeit im Netz pflegen, zum Beispiel als Beiträger/innen für Mailinglisten, als Mitarbeiter/innen an Artikeln von Online-Wörterbüchern wie Wikipedia oder indem sie ihr professionelles Profil, inklusive der zugehörigen Publikationen und Referenzen, veröffentlichen. [22] Die eingangs festgestellte Diskrepanz zwischen Autorschaft und Nutzung von Web-Publikationen wird in dieser Form des „gebenden und nehmenden“ Internet-Gebrauchs um einiges relativiert.

Aber, und das wird deutlich, wenn man sich noch einmal Abbildung 1 vor Augen führt: Stabilität und transparente Kontextinformationen, die die „Zitierfähigkeit“ von elektronischen Publikationen für den wissenschaftlichen Gebrauch herstellen, sind über die Sicherstellung von Open Access hinaus zentrale Voraussetzungen für die Nutzung von Online-Publikationen. Nicht institutionell gesicherte Inhalte (Wikis) oder formal nicht standardisierte Eigenveröffentlichungen stoßen auf Vorbehalte im wissenschaftlichen Gebrauch. Allein wenn Autorschaft, Entstehungszeitpunkt und Entstehungskontext eines Textes gesichert sind, lässt sich dieser in wissenschaftlichen Argumentationen verwenden.

Als ein vorläufiges Fazit ließe sich festhalten: Zur Einschätzung der gesamten Publikationskultur in einem Fach gehört die Beachtung sowohl der Produktion wie auch der Nutzung elektronischer Veröffentlichungen. Aus den vorhandenen Bedenken von Autoren/innen hinsichtlich einer Publikation im Netz sollte nicht zu schnell auf die tatsächliche Bedeutung von elektronischen Publikationen in der Praxis wissenschaftlicher Nutzung geschlossen werden. Auch wenn Veröffentlichungen standardisiert in Fachportalen oder Dokumentenservern erfolgen, führt ihre erleichterte Nutzung zu neuen qualitativen Auszeichnungen in Form von Referenzen. Trotz standardisierter Präsentationsverfahren, die auf so manchem Universitäts-Dokumentenserver noch sehr schlicht wirken, können Veröffentlichungen sich so leicht von der Masse anderer Inhalte abheben. Neben einer weiter bestehenden Qualifizierung eines Werks durch etablierte redaktionelle Verfahren im Sinne des „klassischen“ Publikationswesens entstehen im Netz neue Informationsbestände, die den Nutzern/innen die schnelle Einschätzung des Gebrauchswerts von Publikationen erlauben. Freier Zugang zum Werk und eine aktive Nutzung des Internets als Publikationsmedium unterstützen die Entstehung dieser „Meta“-Informationen und fördern damit die Sichtbarkeit und Bekanntheit eigener elektronischer Veröffentlichungen

Systematische Untersuchungen zur Nutzung von fachwissenschaftlichen Internet-Angeboten stehen noch weitgehend am Anfang, auch die hier vorgetragenen Überlegungen stellen noch nicht den letzten Stand der Auswertung der genannten Umfragedaten dar. Aber für die Gesamtbewertung einer fachlichen Publikationskultur und die Begründung förderpolitischer Maßnahmen sollte das Rezeptionsverhalten von Wissenschaftlern/innen genauso viel Beachtung finden, wie ihre Präferenzen bei der Veröffentlichung ihrer Werke. Der Blick auf die Geschichte von Marketing und Marktforschung zeigt, dass Studien des tatsächlichen Nachfrageverhaltens von Kunden/innen überwiegend der von der Produktionslogik bestimmten Unternehmenspraxis nachfolgten. [23] Viele Anbieter einer expandierenden New Economy am Ende des letzten Jahrhunderts überschätzten die tatsächliche Nachfrage für ihre Angebote. Angesichts der extremen Knappheit von öffentlichen Ressourcen für die Informationsinfrastruktur sollten auch im Rahmen von steuerfinanzierten Angeboten Nutzungsstudien vermehrt zur Steuerung von Fördermaßnahmen eingesetzt werden, die dann umso näher am wissenschaftlichen Bedarf liegen.

***

Karsten Borgmann ist Wissenschaftlicher Mitarbeiter im Projekt Clio-online an der Humboldt-Universität zu Berlin sowie langjähriger Redakteur von H-Soz-u-Kult. E-Mail: borgmannk@geschichte.hu-berlin.de


[1] Hier ist vor allem die von der Deutschen Forschungsgemeinschaft im Jahr 2004 in Auftrag gegebene Studie: Publikationsstrategien im Wandel? Ergebnisse einer Umfrage zum Publikations- und Rezeptionsverhalten unter besonderer Berücksichtigung von Open Access, Bonn 2005 (im Weiteren zitiert als „DFG [2005]“), vgl. <http://www.dfg.de/dfg_im_profil/zahlen_und_fakten/statistisches_berichtswesen/open_access/index.html> (28.02.2006) zu nennen, die ausführlicher im Beitrag von Johannes Fournier in diesem Band vorgestellt wird.

[2] Mit dem Prädikat Open Access werden im Folgenden Publikationen und Informationsangebote bezeichnet, die Nutzern/innen im Internet weitgehend barrierefrei und kostenlos zur Verfügung stehen und deren Autoren/innen bzw. weitere Inhaber/innen von Nutzungsrechten dieser Nutzung zugestimmt haben. Diese Definition enthält noch keine Aussage über Mechanismen der Qualitätssicherung einer Publikation, wie sie in anderen Vorschlägen zu Open Access ausgeführt wird, vgl.: Harnad, Stevan; Brody, Tim; Vallières, François u.a. (Hgg.), The Access/Impact Problem and the Green and Gold Road to Open Access, Wizards of OS 3 Konferenz 9.-14. Juni 2004, vgl. <http://wizards-of-os.org/index.php?id=1773 > (20.04.2006) sowie DFG (2005), S. 40f.

[3] DFG (2005), S. 51f.

[4] DFG (2005), S. 43f.

[5] DFG (2005), S. 48-50, zusammengefasst in: Mugabushaka, Alexis-Michel; Fournier, Johannes, Offener Zugang zu wissenschaftlichem Wissen: Erfahrungen und Ansichten DFG-geförderter Wissenschaftler, DFG infobrief (2005), 1, S. 3., vgl. <http://www.dfg.de/dfg_im_profil/zahlen_und_fakten/statistisches_berichtswesen/ib/download/ib01_2005.pdf > (24.03.2006); auch in einer 2004 mit 145 Teilnehmern/innen durchgeführten Umfrage der Online-Rezensionszeitschrift Querelles- Net, schätzte ein bemerkenswert deutlicher Prozentsatz der Befragten Prestige und Vertrauenswürdigkeit von elektronischen Publikationen negativ ein, vgl.: Elektronisches Publizieren. Ergebnisse unserer Umfrage vom Dezember 2004. Zusammengestellt von Rochus Wolff, in: <http://www.querelles-net.de/umfrage/index.shtml > (20.04.2006).

[6] DFG (2005), S. 22.

[7] Universitäts- und Landesbibliothek Münster; Infas (Hgg.), Nutzungsanalyse des Systems der überregionalen Literatur- und Informationsversorgung: Teil I: Informationsverhalten und Informationsbedarf der Wissenschaft, o.O., 2003 (im Weiteren zitiert als: „ULM / Infas [2003]“). Befragt wurden in dieser Studie 1.581 Personen, davon 142 aus den Geschichtswissenschaften, vgl. <http://www.dfg.de/forschungsfoerderung/wissenschaftliche_infrastruktur/lis/download/ssg_bericht_teil_1.pdf> (17.03.2006).

[8] ULM / Infas (2003), S. 57-74, besonders S. 59, 62.

[9] Vgl. Fournier, Johannes, Wege zum Wissen. Aktionsfelder zur Förderung des Open Access durch die DFG, o.O., o.J., <http://www.dfg.de/dfg_im_profil/zahlen_und_fakten/statistisches_berichtswesen/open_access/download/oa_stellungnahme.pdf>.

[10] Mugabushaka; Fournier, Offener Zugang (wie Anm. 5), S. 2.

[11] DFG (2005), S. 50.

[12] An der Online-Umfrage beteiligten sich 2.215 Personen, die den 18-seitigen Fragebogen beantworteten. 1.581-mal wurde er komplett ausgefüllt. Fast 60 Prozent aller Befragten arbeiten an einer Universität oder Forschungseinrichtung, ein beachtliches Drittel ist jedoch an nicht-akademischen Institutionen tätig oder arbeitet freiberuflich. Insgesamt dominiert unter den Teilnehmern/innen der Umfrage das wissenschaftliche Interesse an Geschichte im universitären Kontext, andere berufliche Arbeitsfelder, z.B. als Dozent/in oder Lehrer/in, im Museum, als Bibliothekar/in, Archivar/in, Autor/in oder Publizist/in treten dagegen zurück. Die Ergebnisse werden in Kürze unter der Adresse <http://www.clio-online.de/umfrage> publiziert.

[13] Eine ausführliche Analyse der Antworten, aufgeschlüsselt nach Alters-, Qualifikations- und Berufsgruppen, wird im Zuge der Publikation der Umfrageergebnisse erfolgen.

[14] Vgl. Lewandowski, Dirk, Google Scholar. Aufbau und strategische Ausrichtung des Angebots sowie Auswirkungen auf andere Angebote im Bereich der wissenschaftlichen Suchmaschinen. Expertise im Auftrag des Hochschulbibliothekszentrums Nordrhein-Westfalen, Düsseldorf 2005, vgl. <http://www.dl-forum.de/dateien/Expertise_Google-Scholar.pdf>.

[15] Keller, Alice, Elektronische Zeitschriften. Entwicklungen in den verschiedenen Wissenschaftszweigen, in: zeitenblicke 2 (2003), 2, Absatz 28, vgl. <http://www.zeitenblicke.historicum.net/2003/02/keller.html> (24.03.2006) weist auf den sinkenden Anteil reiner Online-Zeitschriften gegenüber dem bei über 80 Prozent liegenden Anteil digialisierter Print-Zeitschriften hin.

[16] Zum Einstieg in diese Problematik vgl. den Artikel Zeitschriftenkrise, in: Wikipedia, <http://de.wikipedia.org/wiki/Zeitschriftenkrise > (20.04.2006).

[17] Vgl. den interessanten Diskussionsbeitrag: Steinhauer, Eric, Wissenschaftliche Verlage und open access, in: InetBib, 09.03.2006, vgl. <http://www.ub.uni-dortmund.de/listen/inetbib/msg29889.html > (20.04.2006).

[18] Vgl. <http://www.clio-online.de/rezensionen > (24.03.2006).

[19] Dieses Ergebnis wird durch die Analyse von Zugriffen auf verschiedene Rubriken des H-Soz-u-Kult Webservers gestützt. Die am häufigsten aufgerufenen Rubriken sind die Rezensionen, die mit deutlichem Abstand führen. Es folgen Berichte über Konferenzen, Stellenausschreibungen, Konferenzankündigungen und Zeitschrifteninhaltsverzeichnisse. Die von der Redaktion verantworteten Primärtexte, Artikel, Themenschwerpunkte und Diskussionen liegen erst im hinteren Teil der Zugriffe. Vgl. H-Soz-u-Kult „Mediadaten“ jeweils aktuell unter: <http://hsozkult.geschichte.hu-berlin.de/index.asp?pn=mediadaten>.

[20] ULM / Infas (2003), S. 2-3 beschreibt das informelle Netz von Kollegen/innen, mit denen man beruflich verkehrt, als wichtiges Informationsreservoir der professionellen Arbeit. Anschaulich wird die elektronische Form des Networkings anhand von rund 10.000 H-Soz-u-Kult-Beiträgen, die in circa drei Jahren von Nutzern/innen an andere Nutzer/innen über die Funktion „Beitrag versenden“ der Website verschickt wurden.

[21] So erfolgen über 60 Prozent der Zugriffe auf einzelne Inhaltsseiten der H-Soz-u-Kult-Homepage direkt über die Suchmaschine Google. Da H-Soz-u-Kult per Mail Adressen zum Aufruf von Beiträgen auf dem Server verschickt, dürfte dieser Prozentsatz im Vergleich zu anderen Angeboten noch relativ niedrig sein, da viele Beiträge direkt aufgerufen werden.

[22] Möglich ist dies beispielsweise an zentraler Stelle im Clio-online Forscher/innen Verzeichnis für die Geschichtswissenschaften, vgl. <http://www.clio-online.de/forscherinnen> (25.03.2006).

[23] Zum Einstieg: Engel, Alexander, Tagungsbericht: Grundzüge der Marketinggeschichte. Vom betrieblichen Absatzinstrument zur universellen Sozialtechnik, in: H-Soz-u-Kult, 24.03.2006, vgl. <http://hsozkult.geschichte.hu-berlin.de/tagungsberichte/id=1084 > (20.04.2006).


Zur rechtlichen Problematik des elektronischen Publizierens

von Karl-Nikolaus Peifer

Die technischen Möglichkeiten zur elektronischen Publikation durch Universitäten sind heute gegeben. Auch zur Umsetzung des Prinzips des offenen Zugangs nach der „Berliner Erklärung“ benötigt man das Urheberrecht, denn der Raum des urheberrechtlich Ungeschützten ist mittlerweile sehr klein geworden; auch Open Access-Publikationen sind letztlich Lizenzproduktionen. Das Hauptproblem wird darin bestehen, nicht verlagsgebundene Wissenschaftler/innen zu Open Access-Publikationen zu bewegen. Gelingt dies, so ist ein Lizenzvertrag mit den Autoren/innen zu schließen, für die die Creative Commons-Lizenz eine erste Annäherung erlaubt. Sie ist allerdings auf das US-amerikanische Urheberrecht zugeschnitten und daher nur eingeschränkt importfähig. Bei verlagsgebundenen Autoren/innen wird man die Verlage zur Kooperation bewegen müssen. Die Bereitschaft hierzu besteht eventuell, wenn ansonsten eine Abwanderung insbesondere jüngerer Autoren/innen in die Open Access-Szene droht. Die dienst- und urhebervertragsrechtlichen Bedingungen für Open Access sind dürftig. Weder können Universitäten derzeit ihre Wissenschaftler/innen zwingen, die Formulierung von Forschungsergebnissen in Universitätsforen einzustellen, noch können Verlage rechtlich gezwungen werden, den Autoren/innen „Repository Rights“ zu belassen. Beides erforderte Rechtsänderungen, deren Realisierbarkeit gering ist.

***

Einleitung

Die Verteuerung von Zeitschriftenabonnements, die elektronische Absicherung elektronischer Verlagsprodukte und die immer noch massive Bezuschussung der Produktion, Distribution und Anschaffung wissenschaftlicher Literatur haben in den Natur- und Geisteswissenschaften den Ruf nach neuen Publikationsformen laut werden lassen. „Offener Zugang zu Wissen“ lautet die Forderung der Stunde. Die elektronische Publikation und das elektronische Universitätsarchiv werden aus vielen öffentlichen Töpfen gefördert. Braucht das elektronische Publizieren rechtliche Begleitung oder ist das Urheberrecht ein Hindernis auf dem Weg zu modernen Formen der Wissensverbreitung? Die Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen [1] geht davon aus, dass sich die praktischen und wirtschaftlichen Bedingungen für die Verbreitung von wissenschaftlichen Inhalten „grundlegend verändert“ haben. In der Tat haben sich Publikationswege verbessert und verbilligt, sofern eine Publikation nicht auf dem Papier-, sondern auf elektronischem Wege erfolgt. Elektronische Publikationen lassen sich zwar durch kommerziell tätige Unternehmen, aber auch im Selbstverlag realisieren. Die bloße Veröffentlichung eines Inhaltes ist jedermann möglich, der über einen technischen Zugang zu einem Server und ausreichend Speicherraum verfügt. Die Knappheiten der Papierwelt spielen dabei kaum noch eine Rolle. Ebenso sieht es auf der Nutzerseite aus. Der Traum vom jederzeitigen schnellen Zugang zum Wissen der Welt ist technisch realisierbar. Die an den Juristen gestellte Frage lautet, ob der Zugang auch rechtlich ohne weiteres realisierbar ist. Urheberrechtler/innen müssen sich der Frage stellen, ob es einen Paradigmenwechsel im Recht des Geistigen Eigentums vom Eigentums- zum Freiheitsideal gibt oder ob man nach wie vor das Recht des Geistigen Eigentums benötigt, um die Ziele der Berliner Erklärung umzusetzen? Die Antwort darauf kann kurz ausfallen: Auch für die Umsetzung der Berliner Erklärung benötigt man das Urheberrecht. Allerdings ändert dieses Instrumentarium seine Funktion, wenn und solange es in der Hand der Kreativen verbleibt und von diesen im Sinne der Berliner Erklärung eingesetzt wird. Es ist dann nicht mehr ein Instrument der Zugangskontrolle, sondern ein Mittel, um die an der Quelle gewährten Zugangserleichterungen auch in der Verwertungskette einer Publikation zu sichern. Seine klassische Bedeutung wird das Urheberrecht behalten, wenn es darum geht sicherzustellen, dass das offen zugängliche Werk weiter mit dem Namen seines Autors / seiner Autorin verbunden und unverändert in der Form verbleibt, in der es vom Schöpfer / von der Schöpferin autorisiert wurde.

Elektronisches Publizieren als Rechtsproblem

Wer seine Gedanken in eine individuelle, also durch seinen persönlichen Stil geprägte sprachliche, grafische oder bildliche Form bringt, um sie der Öffentlichkeit oder den Fachkollegen/innen mitzuteilen, schafft regelmäßig ein urheberrechtlich geschütztes Werk, sei es ein Sprachwerk, ein Werk der Bildenden Kunst, des angewandten Grafikdesign oder aber eine wissenschaftliche Darstellung in Form eines Modells, einer Zeichnung oder eines komplexen Diagramms. [2] Der urheberrechtliche Schutz hieran entsteht allein durch den Akt der Schöpfung, also eine Realhandlung, die unabhängig vom Willen der Schöpfer/innen ist. Ist das Werk einmal geschaffen, so ist der urheberrechtliche Schutz hieran unverzichtbar und unveräußerlich (Paragraf 29 Absatz 1 Urheberrechtsgesetz – UrhG). Das ist eine Besonderheit des deutschen Rechts, die allerdings in vielen weiteren kontinentaleuropäischen Urheberrechtssystemen geteilt wird.

Soll das Werk auf einem elektronischen Server gespeichert und zum Abruf bereitgestellt werden, so erfordert dies Nutzungshandlungen derjenigen, die die elektronische Publikation verantworten. Diese Nutzungshandlungen können Urheber/innen zwar dulden; um aber Herausgebern/innen oder Betreibern/innen einer elektronischen Plattform Rechtssicherheit zu verschaffen, müssen Urheber/innen sie jedoch lizenzieren, sie müssen also Nutzungsrechte bezüglich all derjenigen Handlungen einräumen, die erforderlich sind, um die Publikation zu fixieren, sie gegebenenfalls als elektronische Datei im PDF- oder HTML-Format zu versenden oder aber auf einem Server so bereit zu halten, dass sie durch Nutzer/innen zu Zeiten und von Orten ihrer Wahl abgerufen werden können. Mit den drei erwähnten Handlungen sind Verwertungsrechte der Urheber/innen genannt, die als Vervielfältigungs-, Verbreitungs- und als Recht der öffentlichen Zugänglichmachung den Urhebern/innen des Werkes als ausschließliche Befugnisse gesetzlich zugewiesen sind (Paragrafen 16, 17, 19a UrhG). Damit ist der Prozess der Verbreitung von Werken, die urheberrechtlich geschützt sind, lückenlos erfasst. Das Urheberrecht als gesetzliches Instrumentarium hat seit den 1990er Jahren sukzessive sämtliche Handlungen einbezogen, die als Besonderheiten nur in der elektronischen, nicht aber in der gedruckten Welt anfallen. Dazu gehört insbesondere die Befugnis, temporäre Vervielfältigungen den Urhebern/innen zuzuweisen (Paragraf 16 UrhG), soweit diese nicht allein den Zweck verfolgen, eine Übertragung von Daten in elektronischen Netzen oder die rechtmäßige Nutzung von Werken zu ermöglichen (Paragraf 44a UrhG). Zwar darf das Browsen im Internet zustimmungsfrei von jedermann vorgenommen werden, das Lesen eines elektronischen Buches und das Laden eines Computerprogramms fallen jedoch unter die Ausschließlichkeitsrechte der Urheber/innen oder der sonstigen Rechtsinhaber/innen (zum Beispiel Verleger/innen). Wer eine elektronische Publikation verantwortet, benötigt mithin eine Reihe von Nutzungsrechten, die er sich von den Urhebern/innen als ersten und originären Inhabern/innen dieser Befugnisse einräumen lassen muss.

Das Urheberrecht als Zugangs- und Verbreitungskontrollinstrument

In der Welt der „alten Medien“ werden die Ausschließlichkeitsrechte nicht von den Werkschöpfern/innen selbst, sondern von den Zugangsvermittlern, also Verlagen und Medienunternehmen geltend gemacht. Sie sind zwar auch darauf angewiesen, sich diese Rechte von den Urhebern/innen einräumen zu lassen, doch erfolgt dies üblicherweise bei Verlagsproduktionen über die Einräumung umfassender Nutzungsrechte, die sowohl die Print- als auch die elektronische Publikation umfassen (Buy-Out). Urheber/innen können sich in deutschen und in vielen kontinentaleuropäischen Rechtsordnungen ihrer Verwertungs- und Persönlichkeitsrechte an dem von ihnen geschaffenen Werk gleichwohl nicht gänzlich entäußern. Stets behalten sie das Recht, gegen Plagiate oder Entstellungen ihrer Werke vorzugehen (Paragrafen 13, 14 UrhG). Allerdings können sie nicht mehr allein eine elektronische Publikation autorisieren, sofern sie die Rechte an ihrem Werk einem Verleger eingeräumt haben. Die Verleger/innen behalten dann eine Kontrollposition, die sie selbständig, also ohne Abstimmung mit den Kreativen, ausüben können. In dieser Funktion kann das durch das Urheberrecht gewährte Ausschließlichkeitsrecht auch dazu verwendet werden, das Werk und seine Bestandteile umfassend zu kontrollieren. Das umfasst die Befugnis, Nutzer/innen von den meisten Nutzungsarten auszuschließen bzw. die Gestattung von Nutzungshandlungen von der Zahlung einer angemessenen Lizenzgebühr abhängig zu machen. Das Instrumentarium wurde in der Vergangenheit stetig rechtlich fortentwickelt, wenn die technischen Möglichkeiten zur einfachen Vervielfältigung und Verbreitung von Inhalten faktische Kontrollbefugnisse behinderten. Interessanterweise fanden diese Fortentwicklungen statt, wann immer die technischen Möglichkeiten zur Verbreitung von Werken derart erleichtert wurden, dass die Kontrollbefugnisse desjenigen, der in die Verwertung des Manuskripts investiert hatte, zurückgingen (Napsterproblematik). Die Entwicklung des Urheberrechts ist daher stets maßgeblich auf die Initiative der Werkverwerter/innen, nicht aber auf die Initiative der Kreativen zurückzuführen. Das lässt sich anhand der Entwicklung vom Buchdruck bis zur Möglichkeit der Rundfunksendung, Digitalisierung und Internetverbreitung von Werken nachvollziehen. [3] Um das Werk zur handelsfähigen Ware zu machen, bedarf es nämlich eines starken und umfassenden Urheberrechts.

In der Hand der Verleger/innen, die ihre Nutzungsbefugnisse von den Urhebern/innen ableiten, wird das Urheberrecht zum Zugangs- und Nutzerkontrollinstrument. Es kontrolliert den Weg des Werkes über die Einräumung von Lizenzen (Nutzungsrechten, Paragraf 31 UrhG). Lizenzen können dazu verwendet werden, Nutzerhandlungen in zeitlicher, räumlicher und inhaltlicher Hinsicht einzuschränken (Paragraf 31 Absatz 1 Satz 2 UrhG). Die Lizenzen können ihrerseits weiter übertragen (Paragraf 34 UrhG) oder durch abhängige Sublizenzen weiter aufgefächert werden (Paragraf 35 UrhG). Dieser Prozess der Aufspaltung und Weitergabe von Nutzungsrechten ist grundsätzlich nur mit Zustimmung der Urheber/innen zulässig (Paragrafen 34 Absatz 1 Satz 1, 35 Absatz 1 Satz 1 UrhG). In der Logik der Lizenzeinräumung liegt es, dass im Zweifel, das heißt bei Fehlen von ausdrücklichen Vereinbarungen, eine Befugnis als nicht eingeräumt gilt, also bei den Rechtsinhabern/innen zurückbleibt. Doch werden Verleger/innen ihren Vermarktungsbeitrag in der Regel davon abhängig machen, dass die Urheber/innen ihnen die benötigten Befugnisse umfassend einräumen. Zweifel über den Umfang der eingeräumten Befugnisse werden sie nicht aufkommen lassen. Das Lizenzrecht ist daher maßgebliches Kontrollinstrument auch bei der kommerziellen Verbreitung elektronischer Publikationen im Verlagsgewerbe. Es sorgt auf der Nutzerseite dafür, dass Zugangsrechte typischerweise an Lizenzzahlungen geknüpft werden. Für Verleger/innen stellt die Lizenzmöglichkeit das nachvollziehbare Mittel dar, ihre Investitionen in die Produktion und Distribution der Werkstücke amortisierbar zu machen.

Open Access und Creative Commons als Grundlage freien und erweiterten Zugangs bei elektronischen Publikationen

Open Access beschreibt schlagwortartig das Interesse daran, dass im Bereich kreativer Schaffensprozesse Nutzer/innen in weitgehendem Maße Zugang zu Werken erhalten. Gedacht ist vor allem, aber nicht nur, an den Zugang durch Nutzer/innen aus den Bereichen Wissenschaft und Forschung. Die Umsetzung der Idee setzt voraus, dass diejenigen Personen, die Urheberrechte an den Werken halten, der Nutzung zustimmen. Bei verlagsgebundenen Produktionen erfordert dies die Zustimmung nicht nur der Kreativen, also der Urheber/innen, sondern auch derjenigen, die als Verleger/innen ausschließliche Nutzungsrechte an den betreffenden Werken haben.

Die in den USA und in Großbritannien praktizierte Lösung eines wissenschaftlichen Gemeinschaftseigentums (Creative Commons) ist hierzulande rechtlich nicht umsetzbar. Creative Commons (Science Commons) geht davon aus, dass jedenfalls die durch staatliche Finanzierung entstandenen Forschungsergebnisse in einen Pool der Gemeinfreiheit Eingang finden können, aus dem jede/r frei schöpfen kann. [4] Creative Commons hat im Softwarebereich eine Parallele im Bereich der Public Domain-Software. [5] Im deutschen Urheberrecht fehlt es an einer rechtlichen Grundlage für Creative Commons-Überlegungen, weil der urheberrechtliche Schutz – anders als im US-amerikanischen Recht – unverzichtbar ist. [6] Creative Commons im Sinne von Gemeinfreiheit entsteht daher frühestens nach Ablauf der Schutzfrist eines Werkes (in der Regel 70 Jahre nach dem Tod des Urhebers / der Urheberin, Paragraf 64 UrhG). Open Access-Modelle müssen daher im Rahmen von Lizenzvereinbarungen realisiert werden, sofern urheberrechtlich geschützte Inhalte dabei Verwendung finden.

Ausschließlichkeit und Freiheit: Was ist geschützt?

Grundsätzlich schützt das Urheberrecht nur verkörperte und persönlich individuell geformte Gedanken. Es gilt der Grundsatz, dass der (ungeformte) Inhalt selbst frei bleibt und nur die konkrete Form der Gedankenäußerung Schutz genießt (Idea-Expression). Gesetze und Gerichtsurteile, abstrakte Ideen, Theorien, Methoden, Entdeckungen, Stilrichtungen und Alltagsäußerungen, wie Briefe und gewöhnliche Kommunikationsbeiträge stellen keine persönlich-geistigen Schöpfungen im Sinne des Urheberrechts dar und dürfen daher grundsätzlich von jedermann frei verwertet werden. Das betrifft auch einige der in der Berliner Erklärung erwähnten Gegenstände, wie Rohmaterialen und Metadaten. Auch Quellenmaterial ist in der Regel urheberrechtsfrei, weil vielfach die Schutzfristen abgelaufen sein werden. Die Verwertungsfreiheit endet allerdings, wenn die Gedanken ihrerseits in eine organisierte Informationssammlung (Datenbank, Paragraf 87a UrhG) eingebettet sind und der Zugang zu dieser Informationssammlung faktisch kontrollierbar ist. Ebenso ist es, wenn Quellenmaterial „remonopolisiert“ wird, etwa dadurch, dass Archiv- oder Museumsfotografen/innen die Bestände ablichten. An solchen Ablichtungen entsteht wiederum ein eigener Lichtbildschutz (Paragraf 72 UrhG), der zwar eine kürzere Schutzfrist von „nur“ 50 Jahren ab erstem Erscheinen hat (Paragraf 72 Abs. 2 UrhG), allerdings für diesen Zeitraum dafür sorgt, dass Vervielfältigung, Verbreitung und öffentliche Zugänglichmachung erlaubnispflichtig werden. [7] Die Freiheit von Verwertungshandlungen ist daher in der elektronischen Welt der Ausnahmefall. In der Regel wird man die Handlung lizenzieren lassen müssen.

Ausgenommen von der Zustimmungspflicht sind Handlungen, die unter urheberrechtliche Schrankenbestimmungen fallen (Paragrafen 44a bis 63a UrhG). Im Bereich der wissenschaftlichen Nutzung zählen hierunter die Befugnisse zum wissenschaftlichen Zitat (Paragraf 51 UrhG), zur Vervielfältigung von Werken zu Zwecken des persönlichen (auch wissenschaftlichen) oder Archivgebrauchs (Paragraf 53 UrhG), zur Versendung von Kopien durch öffentliche Bibliotheken (künftig Paragraf 53a UrhG-Entwurfsfassung), zur Anzeige von Inhalten an Leseplätzen in Bibliotheken, Museen und Archiven (künftig: Paragraf 52b UrhG-Entwurfsfassung), zur öffentlichen Wiedergabe im Hörsaal (Paragraf 52 UrhG) und zur öffentlichen Zugänglichmachung in internen Forschernetzen (Paragraf 52a UrhG). Sämtliche genannten Befugnisse – mit Ausnahme der Zitatschranke – sind zwar zustimmungs-, nicht aber vergütungsfrei. Daran zeigt sich, dass Zugangsfreiheit nicht identisch ist mit Gratiszugang.

Hinzu kommt, dass die urheberrechtlichen Schranken nur die Rezipienten/innen privilegieren, nicht jedoch auch die Plattformbetreiber/innen, also die Verwerter/innen, zum Beispiel die Herausgeber/innen einer elektronischen Zeitschrift. Das lässt fragen, unter welchen Umständen die Wissensproduzenten/innen dafür sorgen können, dass die von ihnen öffentlich zugänglich gemachten Inhalte auch frei zugänglich bleiben. Dies ist wiederum die Aufgabe des Lizenzrechts, also der Ausgestaltung von Nutzungsbedingungen. Bevor auf deren Inhalt eingegangen wird (Kapitel 7), ist zu fragen, wer befugt ist, Lizenzen zu erteilen.

Lizenzierungsbefugnisse: Wer darf Lizenzen erteilen?

Forschungsergebnisse werden überwiegend im Rahmen von arbeits- oder beamtenrechtlichen Beschäftigungsverhältnissen erbracht. Der allgemeine arbeitsrechtliche Grundsatz, wonach das Arbeitsergebnis den Arbeitgebern/innen zusteht, gilt nicht einschränkungslos für urheberrechtlich geschützte Werke, jedenfalls nicht im Hinblick auf Hochschullehrer/innen. [8] Als Urheber/in gilt stets der (menschliche) Schöpfer. Arbeitgeber erhalten je nach Ausgestaltung des Arbeitsverhältnisses nur Nutzungsrechte an den „in Erfüllung der Dienstpflicht“ geschaffenen Werken. Das setzt voraus, dass die Publikation Gegenstand des Arbeitsverhältnisses ist. Das wiederum wird man bei Wissenschaftlern/innen nur sehr eingeschränkt annehmen können, da zur Wissenschaftsfreiheit auch die Freiheit gehört, Erkenntnisse unveröffentlicht zu lassen. Nicht einmal eine Pflicht zur Publikation ist daher ohne weiteres vertraglich oder dienstrechtlich geschuldet.

In der rechtswissenschaftlichen Literatur wird überwiegend angenommen, dass auch Forscher/innen, die sich zur Publikation entschließen, keine Pflicht aus dem Anstellungs- oder Beamtenverhältnis haben, ihre Publikation der Hochschule zur Verwertung anzudienen. [9] Stets haben Forscher/innen das Recht, selbst über das „Ob“ und „Wie“ einer Erstveröffentlichung ihrer Ergebnisse zu entscheiden. [10] Die Frage wird nur im Arbeitnehmererfindungsrecht nach Abschaffung des so genannten „Hochschullehrerprivilegs“ anders gesehen. [11] Im Urheberrecht ist eine Lösung, welche eine Andienungspflicht der Forscher/innen gegenüber ihrer Universität oder einem Projektförderer vorsieht, konzeptionell zwar nicht vollständig ausgeschlossen, sie wird aber erheblichen Widerstand der Betroffenen auslösen, sofern es keine Kompensationen für die Andienung (wie im Arbeitnehmererfindungsrecht) gibt. Zudem wird sie eine wissenschaftspolitische Debatte darüber auslösen, ob und inwieweit die Forschungsfreiheit Menschen oder den sie anstellenden Institutionen zusteht. [12] Im Ergebnis würde zumindest eine Gesetzesänderung erforderlich, um dem öffentlichen Dienstherrn die Möglichkeiten zu verschaffen, auf die Publikationsbefugnis der selbständig in der Universität tätigen Wissenschaftler/innen einzuwirken. [13] Angesichts der erbitterten Kämpfe, die seit 2003 um die Anpassung des Urheberrechts an die Erfordernisse der Informationsgesellschaft geführt werden, erscheint die Durchsetzung einer solchen Änderung nicht sehr wahrscheinlich.

In der Regel wird es also dabei bleiben, dass Wissenschaftler/innen selbst zunächst originär berechtigt sind, ihre Werke zu verwerten. Im Hinblick auf neu geschaffene Werke sind die Ziele der Berliner Erklärung realistischer, weil diese Werke den Urhebern/innen selbst zustehen und sie diesbezüglich lizenzbefugt und möglicherweise auch lizenzbereit sind. Die Situation ändert sich, sobald Wissenschaftler/innen in Verlagsprojekte eingebunden werden. Sofern Urheber/innen Verlagsverträge abschließen, werden sie den Verlegern/innen genau bezeichnete Nutzungsrechte einräumen, die im Ergebnis die umfassende wirtschaftliche Verwertung durch die Verleger/innen ermöglichen. Dann verschiebt sich die Lizenzbefugnis auf die Verwerter/innen. Open Access wird es hier nur geben, wenn die Verleger/innen kooperieren.

Eine Lücke für Altvorgänge gilt in Grenzen für diejenigen Nutzungsarten, die zum Zeitpunkt der Einräumung von Verlagsrechten noch nicht als wirtschaftlich eigenständig und technisch realisierbar bekannt waren, so etwa die Rechte zur elektronischen Nutzung im Internet. [14] Solche unbekannten Nutzungsarten können nach noch (7/2006) geltender Rechtslage nicht wirksam eingeräumt werden (Paragraf 31 Absatz 4 UrhG), sie verbleiben also bei den Urhebern/innen. Haben Urheber/innen in Altverträgen ausschließliche Vervielfältigungs-, Verbreitungs- und Wiedergaberechte einem Verlag oder Medienunternehmen eingeräumt, so fällt die Nutzung des Werkes im Internet nicht darunter. Sofern Verleger/innen diese Verwertungsform nutzen möchten, müssen sie die Rechte hierfür nachlizenzieren. Das gilt übrigens auch für Verwertungsgesellschaften, die mit den betreffenden Urhebern/innen Wahrnehmungsverträge geschlossen haben. [15] In der zurzeit anhängigen Urheberrechtsreform (so genannter Zweiter Korb) soll die hier erörterte Regelung allerdings aufgehoben werden. [16] Für Altverträge sieht das Gesetz vor, dass Verwerter/innen, denen umfassende ausschließliche Rechte eingeräumt wurden, künftig auch unbekannte Nutzungsarten ausüben dürfen, sofern die Urheber/innen dem nicht binnen eines Jahres widersprechen. [17] Diese Regelung wird im Ergebnis dazu führen, dass auch voll amortisierte Repertoires, die in den Archiven der Verwerter/innen lagern, von diesen zunächst allein ausgewertet werden. Die Vision, die Archive für die Öffentlichkeit frei nutzbar zu gestalten, bleibt insoweit ein Traum.

Die Möglichkeit, Rechte für elektronische Plattformen zurückzuhalten, sehen Verlagsverträge typischerweise nicht vor. Sie müsste gesondert ausgehandelt werden. Das wird nur in Kooperation mit den Wissenschaftsverlagen und mit Unterstützung durch Wissenschaftsorganisationen gelingen. Zwar könnte man sich auch vorstellen, im Urhebervertragsrecht eine Bestimmung vorzusehen, wonach Urheber/innen stets das Recht behalten, ihr verlagsgebundenes Werk etwa nach einer gewissen Karenzzeit auf elektronischen Datenbanken zu hinterlegen (Repository Right) [18] , doch würde auch eine solche Regelung eine Gesetzesänderung erfordern, für die im Moment der politische Handlungsspielraum fehlt. Jedenfalls würde ein zwingendes Repository Right einen erheblichen Widerstand der Verlage erzeugen. Dass dieser Widerstand erfolgreich praktiziert werden kann, zeigte die Debatte um die Einführung einer Vorschrift, welche die Zugänglichmachung von Werken in Intranets von Universitäten beabsichtigte. Die nach dem erbitterten Widerstand der Verlage Gesetz gewordene Fassung (Paragraf 52a UrhG) wird nach den derzeitigen Plänen das Jahr 2006 nicht überleben. [19]

Um Open Access-Modelle zu ermöglichen, wird man bezüglich verlagsgebundener Werke mithin die Kooperation der Verlage künftig auch in Bezug auf Altproduktionen benötigen. Man wird mit den Verlagen gemeinsame Vermarktungsmodelle entwickeln müssen, die es ermöglichen, den Zielen der Berliner Erklärung nahe zu kommen. Das kann etwa bedeuten, dass nur Auszüge aus Verlagsproduktionen elektronisch zugänglich gemacht werden. Volltexte könnten in einer Weise zugänglich gemacht werden, welche die Seitenzahlen des Printprodukts unterschlagen, das heißt in nur eingeschränkt dauerhaft zitierfähiger Form erscheinen. Auch eine Verlinkung mit Verlagsservern dürfte eine Option sein. Die Verlage müssen an dieser Stelle sehen, dass Aufmerksamkeit durch Blick- und Abrufkontakte auch die Bereitschaft erhöht, das Printprodukt zu erwerben, elektronische Server können so zu Marketing-Tools für die Verlage werden. Letztlich muss den Verlagen klar sein, dass bei mangelnder Kooperationsbereitschaft möglicherweise ein Teil ihres angestammten Geschäfts wegbricht. Diese Gefahr besteht, wenn Wissenschaftlicher/innen freiwillig für künftige Produktionen elektronisch offen zugängliche Server benutzen.

Lizenzierungspraxis bei Open Access-Modellen

Offener Zugang bedeutet, dass mit öffentlichen Mitteln elektronische Plattformen errichtet werden, auf denen Wissenschaftler/innen publizieren können. Der Preis für die Einstellung der Publikation liegt darin, dass die dort zur Verfügung gestellten Werke zur freien Nutzung durch andere offen stehen müssen. Das entlastet die Etats der Bibliotheken und Nutzer/innen. Bei intelligenten Suchmaschinen findet man die Inhalte schnell, kostengünstig und von jedem Ort aus. Ein entscheidender Vorteil liegt darin, dass Inhalte sofort abrufbar sind, das Wissen also nicht bereits in der Publikationsphase veraltet. Nicht unwichtig ist, dass die digital eingestellten Publikationen auf einfache Weise zählbar sind. Derzeit zögern Wissenschaftler/innen allerdings noch, diesen Weg zu gehen, weil die klassische Veröffentlichung mehr Reputation und nicht zuletzt auch einen Zusatzverdienst erbringt. [20]

Sofern sich Wissenschaftler/innen dazu entschließen, Open Access-Server zu nutzen, sollen die dort platzierten Beiträge nach der Berliner Erklärung das „freie, unwiderrufliche und weltweite Zugangsrecht und die Erlaubnis, die Veröffentlichung für jeden verantwortlichen Zweck zu kopieren, zu benutzen, zu verteilen, zu übertragen und abzubilden unter der Bedingung der korrekten Nennung der Urheberschaft“ nach sich ziehen. Urheberrechtlich übersetzt bedeutet dies, dass Wissenschaftler/innen den Betreibern/innen der Plattform ein einfaches Nutzungsrecht dahingehend einräumen, dass das Werk öffentlich zugänglich gemacht („übertragen“, Paragraf 19a UrhG) und für Zwecke der Zurverfügungstellung vervielfältigt werden darf („kopieren“, Paragraf 16 UrhG). Sofern über den Server auch elektronische Kopien versendet werden sollen („verteilen“), ist ein Verbreitungsrecht (Paragraf 17 UrhG) einzuräumen. Nicht ganz klar sind die Formulierungen „abbilden“ und „benutzen“. Die Abbildung erfordert nicht mehr als das Vervielfältigungs- und elektronische Wiedergaberecht („Zugänglichmachen“, Paragraf 19a UrhG), ist also an sich bereits durch die vorhergehenden Formulierungen umfasst. Ein denkbarer, darüber hinausgehender Sinn kann darin gesehen werden, dass Grafiken oder Abbildungen in einem wissenschaftlichen Beitrag mittels dieser Lizenz auch in einen anderen Zusammenhang gestellt, also „zitiert“ werden dürfen. An sich ist die Zitatbefugnis allerdings bereits per urheberrechtlicher Schrankenbestimmung erlaubt (Paragraf 51 UrhG), also ohnehin zustimmungsfrei. Doch erlaubt das Zitatrecht nicht die Verwendung einer Abbildung zur bloßen Illustrierung eines Zusammenhangs. Zitieren dürfen Nutzer/innen nur in dem Umfang, in dem das Zitat erforderlich ist, um einen eigenen Gedanken wissenschaftlich zu erläutern. In den meisten Fällen geht dies auch ohne Zitat. Doch sagt ein Bild nicht nur sprichwörtlich mehr als tausend Worte, es erklärt einen Vorgang auch eingängig und somit in einer auch für die Lehre im Hörsaal vor einem Massenpublikum zeitgemäßen Weise. [21] Die Illustrierung der Lehre im Präsenzunterricht oder in Systemen des „Blended Learning“ durch vorlesungsbegleitende Materialien geht häufig über das hinaus, was das Zitatrecht erlaubt. [22] Gemeint sein kann also ein „Illustrationsrecht“.

Problematisch kann ein freies Benutzungsrecht sein. Die im US-amerikanischen Recht gebräuchliche Creative Commons-Musterlizenz [23] spricht hier klarer von einem Bearbeitungsrecht. Gegen die generelle Wirksamkeit solcher Bearbeitungs- oder Umarbeitungsrechte sprechen nicht nur wissenschaftsethische Bedenken, sondern vor allem die Unverzichtbarkeit der urheberrechtlichen Befugnis auf Schutz der Integrität des Werkes in der von den Urhebern/innen geschaffenen Form (Paragraf 14 UrhG). Das Benutzungsrecht ist also entweder zu weitgehend oder aber nutzlos, weil es bereits in der Befugnis zur Vervielfältigung, Verbreitung und Wiedergabe enthalten ist.

Rechtliches Instrument für die Verwirklichung von Open Access-Publikationen ist das Lizenzrecht. Open Access-Modelle setzen die Existenz des Urheberrechts voraus, weil nur ein rechtlicher Schutz die Lizenzierung von Einzelnutzungen zulässt. Sie finden eine Parallele in der Free Software- oder Open Source-Bewegung bei Computerprogrammen. [24] In beiden Anwendungsfeldern kehrt man die Logik des Lizenzrechts um. Während Lizenzen von Verwertern/innen klassischerweise dazu benutzt werden, Nutzerbefugnisse eng und passgenau zu begrenzen, wird im Free Software-Bereich die Lizenz dazu genutzt, umfassend Befugnisse einzuräumen, die das Kopieren und die Weiterverbreitung von Software gestatten.

Damit der offen zugängliche Inhalt auch weiterhin offen bleibt, also nicht in proprietäre Systeme eingebunden wird, ferner die Befugnisse der Urheber/innen auf Anerkennung ihrer Urheberschaft beachtet werden, schließen die Lizenzgeber/innen (die Kreativen) mit den Nutzern/innen einen Lizenzvertrag, der durch die Vornahme einer Nutzungshandlung zustande kommt. Voraussetzung für die wirksame Einbeziehung der Lizenzbedingungen ist, dass die Geltung der Lizenz deutlich sichtbar für die Nutzer/innen angekündigt wird, der Lizenztext selbst auf einfache Weise abrufbar ist (Paragraf 305 Absatz 2 BGB). Die Lizenzerteilung kann inhaltlich beschränkt eingeräumt werden (zum Beispiel auf Vervielfältigung, Verbreitung, Bearbeitung, kommerzielle/nicht kommerzielle Nutzung). Sie kann zudem unter die Bedingung gestellt werden, dass die Weitergabe des Inhalts zu den gleichen Konditionen erfolgen muss wie die Ursprungsnutzung, also der Inhalt offen bleiben muss. Im Ergebnis führt eine Verletzung dieser Bedingungen dazu, dass die Lizenz erlischt, die Nutzungshandlung mithin zur Urheberrechtsverletzung wird (Paragraf 158 Absatz 2 BGB). Auf diese Weise wird das ursprünglich Ausschließlichkeit ermöglichende Lizenzrecht zur wertvollen Waffe bei der Verteidigung des freien Zugangs auch über mehrere Nutzergruppen hinweg.

Die Erteilung entgeltfreier Jedermann-Lizenzen ist mittlerweile im Urhebervertragsrecht ausdrücklich vorgesehen (Paragraf 32 Absatz 3 Satz 2 UrhG). Dies war nötig, weil Urheber/innen grundsätzlich nicht pauschal auf jede Form der Vergütung verzichten können.

Ergebnisse

Open Access-Modelle sollten für die Wissensproduzenten/innen so attraktiv sein, dass deren Mitwirkung freiwillig erfolgen kann. Insbesondere langjährig tätige Wissenschaftler/innen, die in Verlagsprodukte eingebunden sind, können auf diese Weise gewonnen werden. Eine dienstrechtliche Verpflichtung zur Open Access-Publikation ist auch bei Projektförderungen fragwürdig im Hinblick auf ihre Vereinbarkeit mit der (negativen) Wissenschaftsfreiheit der Forscher/innen. Bei noch „freien Werken“ ist dagegen eine (freiwillige) Open Access-Mitwirkung von Wissenschaftlern/innen weitergehend unproblematisch. Das Urheberrecht kann mit seinen Lizenzregelungen dafür sorgen, dass frei zur Verfügung gestellte Werke nicht ohne Genehmigung verändert werden oder die Urheberschaft an ihnen unterdrückt wird. Eine schnelle Vertragshilfe sind hierzu die im Netz erhältlichen Creative-Commons-Lizenzen, sofern sie auf das deutsche Urheberrecht abgestimmt wurden.

Open Access-Modelle bei gebundenen Autoren/innen müssen auf die Kooperation der Wissenschaftsverlage setzen. Eine Verpflichtung von Wissenschaftlern/innen zur Veröffentlichung von Forschungsergebnissen auf einem Online-Server setzt voraus, dass diese Befugnis den Wissenschaftlern/innen noch zusteht. Den Vorbehalt an eine Projektförderung zu knüpfen, bringt die Betroffenen in ein Dilemma, wenn sie die betreffenden Rechte schon Verlagen eingeräumt haben. Wissenschaftlern/innen aufzugeben, Rechte für Online-Server im Rahmen von Open Access-Projekten vorzubehalten, setzt voraus, dass diese eine Unterstützung bei der Vertragsgestaltung erhalten. Die gängigen Creative Commons-Lizenzen, die im Netz erhältlich sind, sind dafür keine Hilfe, denn es geht weniger darum, die richtige Formulierung zu finden, als darum, den Rechtevorbehalt gegenüber dem strukturell stärkeren Vertragspartner durchzusetzen.

Viele Open Access-Modelle sind vor dem Hintergrund eines verwerterfreundlichen Urheberrechtssystems konzipiert, das weitgehende Verzichtsmöglichkeiten der Urheber/innen vorsieht. Diese Modelle können nicht vollständig auf das kontinentaleuropäische Urheberrecht übertragen werden. Auch international-privatrechtlich eignen sich vor dem Hintergrund einer ausländischen Rechtsordnung konzipierte Modelle nicht notwendig für einen weltweiten Einsatz.

Schluss

Die Zukunft von Open Access liegt entweder in der Kooperation zwischen Verlegern/innen und Wissenschaftlern/innen oder der Ablösung bestimmter Publikationsformen durch Wissenschaftler/innen, die zunehmend selbst Verleger/innen werden. Wissenschaftler/innen als Autoren/innen müssen dazu bewegt werden, Open Access als seriöse und reputationsträchtige Publikationsform zu akzeptieren. Dann werden sie auch die Bereitschaft finden, diesen Weg zu gehen. Die Zugangsfreiheit kann über Lizenzregelungen auch in der Verwerterkette abgesichert werden. Kooperation ist auch im Verhältnis zu den Verlagen erforderlich. Kooperationsunwillige Verlage riskieren, den Wissenschaftsmarkt zu verlieren. Kooperationsunwillige Herausgeber/innen von Open Access-Publikationen riskieren, zum Urheberrechtsverletzer zu werden, wenn nämlich die von ihnen publizierten Inhalte bereits in Verlagsproduktionen eingebunden sind und die publizierenden Urheber/innen über die betreffenden Rechte selbst nicht mehr verfügen. Das Urheberrecht kann und muss Open Access begleiten. Allerdings befindet es sich damit historisch gesehen noch in einer durchaus ungewohnten Rolle, die mancherorts noch etwas Starrsinn erzeugt.

***

Prof. Dr. Karl-Nikolaus Peifer hat einen Lehrstuhl an der Universität zu Köln inne und ist dort Direktor des Instituts für Medienrecht und Kommunikationsrecht sowie Direktor des Instituts für Rundfunkrecht. Im Nebenamt ist er Richter am Oberlandesgericht Hamm. Er befasst sich unter anderem mit Fragen des Persönlichkeits- und Unternehmensschutzes in den Medien sowie mit Fragen des Geistigen Eigentums. E-Mail: medienrecht@uni-koeln.de


[1] Die Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen vom 23.10.2003, abrufbar unter <http://www.zim.mpg.de/openaccess-berlin/berlin_declaration.pdf> (07.02.2006); weitere Nachweise zum Fragenkreis bei Dreier, Thomas, Creative Commons, Science Commons. Ein Paradigmenwechsel im Urheberrecht?, in: Ohly, Ansgar; Bodewig, Theo; Dreier, Thomas u.a. (Hgg.), Perspektiven des Geistigen Eigentums und Wettbewerbsrechts (Festschrift für Gerhard Schricker), München 2005, S. 283-298, 291.

[2] Nach verbreiteter Auffassung genügt dazu auch eine geringe Kreativität, vgl. Heermann, Peter W., Der Schutzumfang von Sprachwerken der Wissenschaft und die urheberrechtliche Stellung von Hochschulangehörigen, Gewerblicher Rechtsschutz und Urheberrecht (GRUR), 1999, S. 468-476, 469.

[3] Peifer, Karl-Nikolaus, Individualität im Zivilrecht, Tübingen 2001, S. 61; Woodmansee, Martha, The Genius and the Copyright. Economic and Legal Conditions of the Emergence of the ‘Author’, in: 17 Eighteenth Century Studies. (1983/84), S. 425-448. Daher ist für die ökonomische Analyse des Verbreitungsprozesses allein die Angebotsfunktion der Verleger maßgeblich, vgl. Giesecke, Michael, Der Buchdruck in der frühen Neuzeit, Frankfurt am Main 1998, S. 642.

[4] Vgl. <http://sciencecommons.org/> (07.02.2006); zu den dahinter stehenden Ideen vgl. aus urheberrechtlicher Sicht Lessig, Lawrence, Free Culture, New York 2004, S. 282. In Großbritannien: <http://creativearchive.bbc.co.uk/> (07.02.2006).

[5] Der Begriff ist mit „gemeinfreie Software“ zu übersetzen, im Einzelnen kann Public Domain-Software allerdings auch für Software verwendet werden, die lediglich eine gewisse Zeit frei benutzt werden kann (Shareware), vgl. im Einzelnen Jaeger, Till; Metzger, Axel, Open Source Software. Rechtliche Rahmenbedingungen der Freien Software, München 2002, S. 1.

[6] Der Grundsatz wird aus § 29 Abs. 1 UrhG abgeleitet, wonach das Urheberrecht als Ganzes oder in seinen Bestandteilen nicht übertragen werden kann, vgl. Schricker, Gerhard, Die Einwilligung des Urhebers in entstellende Änderungen des Werkes, in: Forkel, Hans; Kraft, Alfons (Hgg.), Beiträge zum Schutz der Persönlichkeit und ihrer schöpferischen Leistung, Frankfurt am Main 1985, S. 409-419, 413; zur früheren Rechtslage ebenso Gierke, Otto von, Deutsches Privatrecht Band I, Leipzig 1895, S. 702ff.

[7] Vgl. Bundesgerichtshof (BGH), in: Gewerblicher Rechtsschutz und Urheberrecht (GRUR) 1990, S. 669, 673 – Bibelreproduktion.

[8] Zentral hierzu ist der 112. Band, S. 243 der amtlichen Sammlung des Bundesgerichtshofs vom 27.09.1990. Dort ging es um die Frage, ob die Erben eines verstorbenen Hochschullehrers Anspruch auf Herausgabe von Aufzeichnungen über archäologische Grabungsaufzeichnungen und wissenschaftliche Korrespondenz haben. Der BGH nahm an, dass die Arbeitsergebnisse originär dem Wissenschaftler selbst zustünden und er allenfalls eine Pflicht zur Andienung gegenüber dem Dienstherrn habe. Vgl. im Übrigen OLG Karlsruhe,in: Gewerblicher Rechtsschutz und Urheberrecht (GRUR) (1988), S. 536, 540; GRUR (1991), S. 523, 525 – Grabungsmaterialien; Ullmann, Eike, Das urheberrechtlich geschützte Arbeitsergebnis. Verwertungsrecht und Vergütungspflicht, in: GRUR (1987), S. 6, 8; Ulmer, Eugen, Urheber- und Verlagsrecht, 3. Aufl. Berlin 1980, S. 403; a.A. Verwaltungsgericht Berlin,in: Neue Juristische Wochenschrift (1978), S. 848.

[9] Leuze, Dieter, Kritische Anmerkungen zu § 42 Arbeitnehmererfindungsgesetz,in: Gewerblicher Rechtsschutz und Urheberrecht (2005), S. 27-33, 28; Schack, Haimo, Urheber- und Urhebervertragsrecht,Tübingen 2005, Randnummer 982 mit weiteren Nachweisen; kritisch neuerdings aber Pflüger, Thomas; Ertmann, Dieter, E-Publishing und Open Access – Konsequenzen für das Urheberrecht im Hochschulbereich, in: Zeitschrift für Urheber- und Medienrecht (ZUM), Heft 6 (2004), S. 436-443, 441.

[10] Vgl. hierzu Hansen, Gerd, Zugang zu wissenschaftlicher Information – alternative urheberrechtliche Ansätze, in: Gewerblicher Rechtsschutz und Urheberrecht – Internationaler Teil (2005), S. 378, 380.

[11] Zu der Neuregelung Bartenbach, Kurt; Volz, Franz-Eugen, Erfindungen an Hochschulen. Zur Neufassung des § 42 Arbeitnehmererfindungsgesetz, in: Gewerblicher Rechtsschutz und Urheberrecht (2002), S. 743-758.

[12] Das Grundrecht der Wissenschaftsfreiheit nach Art. 5 Abs. 3 GG steht sowohl den in der Universität tätigen Wissenschaftlern/innen als Individuen als auch der Universität als Einrichtung selbst zu, so Bundesverfassungsgericht in der amtlichen Entscheidungssammlung des Gerichts Band 68, S. 193, 267 und Band 75, S. 192, 196.

[13] Ein Gesetzgebungsvorschlag hierzu findet sich bei Pflüger; Ertmann, ZUM, Heft 6 (2004), S. 436, 441 (wie Anm. 9).

[14] Das Internet mit seinen Möglichkeiten des elektronischen Abrufs gilt als bekannte Nutzungsart frühestens seit Mitte der 1990er Jahre, OLG Hamburg, in: Zeitschrift für Urheber- und Medienrecht (ZUM) (2000), S. 870, 872. Die Digitalisierung von Werken war im Bereich der CD-Produktion seit 1979 möglich und ab 1983 marktreif, vgl. OLG Düsseldorf, in: ZUM (2001), S. 164, 165; Kammergericht Berlin (KG),in: MultiMedia und Recht (MMR) (1999), S. 727, 725.

[15] Dreier, Thomas;Schulze, Gernot, Urheberrechtsgesetz. Kommentar, München 2006, Kommentierung Nr. 83 zu § 31 UrhG; OLG Hamburg, ZUM (Fußn. 4) 2002, S. 480, 481 (Handy-Klingeltöne). Die Einzelheiten sind verzwickt. So gilt der vorbeschriebene Grundsatz erst seit Inkrafttreten des Urheberrechtsgesetzes 1965, nicht aber für Altverträge, die vorher geschlossen wurden, Dreier; Schulze, Kommentierung Nr. 86 zu § 31 UrhG (wie oben).

[16] Art. 1 Nr. 3 des Entwurfs eines Zweiten Gesetzes zur Regelung des Urheberechts in der Informationsgesellschaft vom 26. 02 2006, abrufbar unter <http://www.bmj.bund.de/media/archive/1122.pdf> (07.02.2006).

[17] § 137l des Entwurfes vom 26.01.2006 (wie Anm. 16). Die Jahresfrist beginnt voraussichtlich mit dem Inkrafttreten des Gesetzes zu laufen.

[18] Ein entsprechender Regelungsvorschlag findet sich bei Hansen, Gerd, Zugang zu wissenschaftlicher Information. Alternative urheberrechtliche Ansätze, in: Gewerblicher Rechtsschutz und Urheberrecht (GRUR) – Internationales (2005), S. 378, 386 (wie Anm. 10).

[19] Die durchaus enge Vorschrift des § 52a UrhG ist nach § 137k UrhG „mit Ablauf des 31. Dezember 2006 nicht mehr anzuwenden“. Eine Streichung der Norm sieht der Regierungsentwurf vom 26.01.2006 (vgl. Anm. 16) nicht vor.

[20] In diesem Zusammenhang kommt es auf die Äußerungen zur Unterstützung des Prinzips des offenen Zugangs in der Berliner Erklärung an. Vgl. auch den Beitrag von Fournier, Johannes, Zur Akzeptanz des elektronischen Publizierens in den Geisteswissenschaften. Ergebnisse und Folgen der DFG- Studie „Publikationsstrategien im Wandel“, in diesem Band.

[21] Vgl. Weidenmann, Bernd (Hg.), Wissenserwerb mit Bildern. Instruktionale Bilder in Printmedien, Film/Video und Computerprogrammen, Bern 1994; speziell zur Anwendung in der juristischen Kommunikation Ulbrich, Stefan, Visuelle Rechtskommunikation, Diss. Bochum 2004, S. 46.

[22] Peifer, Karl-Nikolaus, Medienrecht, Urheberrecht und die Wissensgesellschaft. Stimmen die rechtlichen Rahmenregeln für die Zukunft von Forschung und Lehre?, demnächst in: Verein zur Förderung der Rechtswissenschaft e.V., Fakultätsspiegel Wintersemester 2005/2006 (Antrittsvorlesung an der Universität zu Köln vom 16.12.2006, als PDF-Datei vom Verfasser zu beziehen über medienrecht@uni-koeln.de.

[23] Auch in deutscher Übersetzung und für den deutschen Lizenzmarkt bestimmt, abrufbar unter <http://creativecommons.org/> (07.02.2006).

[24] Dazu ausführlich Jaeger; Metzger, Open Source (wie Anm. 5); Spindler, Gerald (Hg.), Rechtsfragen bei Open Source, Köln 2004, S. 9.


Langzeitarchivierung elektronischer Publikationen im Dienste der Wissenschaft – Eine neue Aufgabe der Bibliotheken

von Thomas Wolf-Klostermann

Die Bayerische Staatsbibliothek (BSB) trägt als wissenschaftliche Universalbibliothek die Verantwortung für einen steigenden Anteil von elektronischen Publikationen. Sie kauft, sammelt oder digitalisiert, erschließt, stellt bereit und archiviert unterschiedlichste Dokumente. Mit rund zehn Millionen elektronisch vorliegenden Seiten allein aus Retrodigitalisaten verwaltet sie bereits heute eine der größten und am schnellsten wachsenden digitalen Sammlungen im deutschsprachigen Raum. Monatlich kommen mehrere zehntausend neue Seiten hinzu. Neben der Erschließung und Bereitstellung gehört es zu den Aufgaben der Bibliothek, diese Daten auch langfristig zu erhalten. Sie ist außerdem dabei, das elektronische Archiv um wissenschaftlich relevante Netzpublikationen der Sondersammelgebiete und amtliche sowie kommerzielle Publikationen auszuweiten. Dieser Artikel berichtet aus der Praxis der Langzeitarchivierung an der BSB und stellt aktuelle Zukunftskonzepte vor.

***

Elektronische Publikationen an der Bayerischen Staatsbibliothek

Die BSB ist eine der größten wissenschaftlichen Universalbibliotheken in Deutschland und verfügt über einen bedeutenden Altbestand und eine Reihe von umfangreichen Sondersammlungen. Neben ihrer Rolle als lokale und regionale Informationsversorgerin fungiert die BSB als zentrale bayerische Landes- und Archivbibliothek mit Pflichtexemplarrecht für Bayern. Zusätzlich nimmt die BSB mit einer Reihe von geisteswissenschaftlichen Fächern am deutschlandweiten Sondersammelgebietsplan der Deutschen Forschungsgemeinschaft (DFG) teil. Weil elektronische Publikationen im Wissenschaftsbetrieb und im öffentlichen Leben einen immer größeren Stellenwert einnehmen, sieht sich auch die BSB mit einer jährlich wachsenden Zahl von digitalen Objekten konfrontiert, für die sich, analog zum konventionellen Bestand, ein bibliothekarischer Archivierungsauftrag ableiten lässt. Doch anders als bei gedruckten Medien, die einfach katalogisiert und ins Regal gestellt werden können, sind bei elektronischen Dokumenten ganz andere Anstrengungen nötig um die langfristige Verfügbarkeit zu erhalten.

Die elektronischen Dokumente in der BSB lassen sich in vier Gruppen einteilen: Den größten Anteil stellen derzeit die (1) eigenen Retrodigitalisate. Die zweitgrößte Gruppe bilden die (2) lizenzpflichtigen E-Medien. Einen verhältnismäßig geringen Anteil haben im Augenblick noch die (3) freiwilligen Ablieferungen von Verlagen, Ämtern und anderen Institutionen. Schließlich (4) gibt es noch die wissenschaftlich relevanten Internet Quellen in den Sondersammelgebieten, die zwar in der Bibliothek erschlossen und präsentiert werden, jedoch derzeit dort noch nicht gehostet bzw. als Kopie aufbewahrt werden.

Eigene Retrodigitalisate

Seit 1997, als mit Unterstützung der DFG das Münchener Digitalisierungszentrum gegründet wurde, wird in der BSB auch digitalisiert. Heute ist das Referat Digitale Bibliothek integraler Bestandteil der BSB. Technische Ausstattung und Know-how wurden seit 1997 sukzessive erweitert, zuletzt 2004-2005, als im Zuge der Konzeption des „retrodigitalen Bestandsaufbaus“ mit Hilfe der Förderung des Bayerischen Staatsministeriums für Wissenschaft, Forschung und Kunst eine moderne „Digitalisierungsstraße“ eingerichtet wurde. Die aktuelle Ausstattung mit acht Scannern für unterschiedliche Anwendungszwecke ermöglicht eine professionelle und qualitativ hochwertige Digitalisierung von allen gängigen Medientypen und Formaten. Mittelalterliche Handschriften, Alte Drucke und historische Landkarten bilden den Schwerpunkt eines breiten Spektrums an Medien. Zusätzlich wird ein Teil der Digitalisierungsaufträge durch externe Dienstleister abgewickelt. Die Digitalisierung erfolgt auch im Rahmen von Kooperationsprojekten. Durch den Service Digitization On Demand steht es den Benutzern/innen offen, digitale Kopien aus nahezu dem gesamten Bestand der Bibliothek zu erwerben. Seit ihrem Bestehen hat die Digitale Bibliothek rund zehn Millionen Digitalisate mit einer Gesamtmenge von mehr als zehn Terabyte erstellt.

Lizenzpflichtige E-Medien

Die Bibliothek bietet Zugriffsmöglichkeiten auf eine große Zahl von lizenz- und gebührenpflichtigen elektronischen Informationsquellen. Dies geschieht im Rahmen des Erwerbungs- und Sammelprofils der Bibliothek und auch im Auftrag der bayerischen Hochschulbibliotheken, für die Konsortialabkommen über elektronische Zeitschriften und Datenbanken abgeschlossen werden. Bei Netzpublikationen werden für die lokal lizenzierten Medien und für die im Rahmen des Bayern-Konsortiums erworbenen digitalen Materialien nach Möglichkeit Vereinbarungen über die Langzeitverfügbarkeit der lizenzierten Periodika und Datenbanken getroffen.

Pflichtablieferung und Amtliche Veröffentlichungen

Im Rahmen des gültigen Landesgesetzes über die Pflichtablieferung erhält die BSB als regionale Pflichtexemplarbibliothek für Bayern im Rahmen bereits heute von den Produzenten freiwillig bereitgestellte elektronische Medien auf physischen Datenträgern, was einen Archivierungsauftrag impliziert. Für die Pflichtablieferung elektronischer Publikationen sind gesetzliche Regelungen auf nationaler Ebene in Vorbereitung.

Über die Pflichtablieferung im engeren Sinne hinaus hat die BSB auch bei amtlichen Veröffentlichungen von Regional- und Bundesbehörden sowie Gebietskörperschaften einen Sammelauftrag. Gerade Ämter und Behörden verlegen aus Kostengründen einen immer größeren Anteil ihrer Publikationen ausschließlich in elektronischer Form. Eine Verlinkung auf die Seiten des Amtes ermöglicht zwar kurzfristig den Zugriff auf diese Dateien, die Langzeitverfügbarkeit, auch von veralteten Publikationen, ist aber nur dann gewährleistet, wenn es der BSB möglich ist, eine Kopie dauerhaft einzulagern.

Elektronische Medien in den Sondersammelgebieten

Im Rahmen der Sondersammelgebiete (SSG) ist die BSB für die Fächer Geschichte, Osteuropa, Klassische Altertumswissenschaften und Musikwissenschaft verantwortlich. Dies gilt auch für die zahlreichen Internet-Ressourcen zu diesen Fachgebieten. Wissenschaftlich relevante Internetquellen zu den Sondersammelgebietsfächern werden systematisch gesammelt und erschlossen, bis dato aber nicht an der BSB gespeichert. Zumindest für einen Teil dieser Quellen, deren dauerhafte Zugänglichkeit auf den Seiten der Urheber/innen nicht gesichert ist, sieht sich die BSB als zuständige SSG-Bibliothek im Einvernehmen mit den Rechteinhabern/innen in der Archivierungspflicht.

Kernaufgaben der Langzeitarchivierung

Der Begriff Langzeitarchivierung (LZA) steht für alle Aktivitäten, die dem Erhalt der Verfügbarkeit der Dokumente über die Lebensdauer der Trägermedien und die Grenzen des technologischen Wandels hinweg dienen. Er entstammt dem anglo-amerikanischen Ausdruck „Long-Term Digital Preservation“. Dort ist mit Preservation eher „beschützen“ und „bewahren“ gemeint, weniger „archivieren“. „Langzeit-“ bezieht sich dabei auf eine unbegrenzt in die Zukunft reichende Zeitspanne mit tiefgreifenden technologischen Veränderungen und einem sich wandelnden Nutzungsverhalten. Die LZA-Aktivitäten lassen sich in zwei Gruppen einteilen: Die physische und die logische Langzeitarchivierung. Die physische LZA (Bitstream Preservation) umfasst Aktivitäten, die dem rein physischen Erhalt der Daten dienen, also zum Beispiel der Betrieb geeigneter Speichersysteme samt aller Maßnahmen der Systemsicherheit und Prävention von Datenverlusten, zum Beispiel Notfallvorkehrungen. Zur physischen LZA gehört auch das in der Fachsprache Refreshing genannte regelmäßige Umkopieren der Daten auf neue Speichersysteme.

Der rein physische Erhalt der Daten ist zwecklos, wenn diese zu einem späteren Zeitpunkt nicht mehr gelesen werden können. Das zu verhindern, ist Aufgabe der logischen LZA. Sie stellt mit einer Reihe von Maßnahmen die spätere Nutzbarkeit der erhaltenen Datenströme sicher. Dazu gehört die rechtzeitige und verlustfreie Migration in neue zeitgemäße Dateiformate. Zusätzlich kann die Emulation der alten Betriebsumgebung auf neuen Computersystemen angestrebt werden. Der Erhalt von zeitgenössischer Hard- und Software kann dagegen lediglich als Zwischenlösung gelten, bietet aber keine ausreichende Sicherheit.

Durch bibliografische, strukturelle, technisch-administrative und rechtliche Metadaten lassen sich die zu archivierenden Daten beschreiben, in Ordnungssysteme integrieren und Erhaltungsmaßnahmen zuführen. Die bibliografischen Daten ermöglichen die Identifizierung des Werkes. Strukturdaten vermitteln die ursprüngliche Einteilung in Bände und Kapitel. Technisch-administrative Daten wie zum Beispiel Angaben zu Dateiformaten und -größen erleichtern die physische Langzeitarchivierung und dokumentieren Erhaltungsmaßnahmen, zum Beispiel vergangene Migrationsschritte. Durch rechtliche Informationen werden zum Beispiel Copyright-Informationen und Zugriffsberechtigungen definiert.

Erfolgreich in der Praxis – Digitalisierung und Langzeitarchivierung an der BSB

An der BSB ist die Langzeitarchivierung Aufgabe des Referats Digitale Bibliothek. Hier wurde man sich frühzeitig der Problematik einer wachsenden Menge erhaltenswerter digitaler Dokumente bewusst. Bereits 1999-2001 wurden deshalb erste strategische Konzepte entwickelt und im Rahmen eines ersten DFG-Projektes zum Thema Langzeitarchivierung zusammen mit dem Institut für Softwaretechnologie der Universität der Bundeswehr eine Bestandsaufnahme gemacht und die Migration von erhaltenswerten Altdaten durchgeführt. Seit 2003 engagiert sich die BSB im nationalen Kompetenznetzwerk nestor. [1] Neben der Beteiligung an allen gemeinschaftlichen Aufgaben liegt der inhaltliche Schwerpunkt der Mitarbeit der BSB auf der Entwicklung eines Kriterienkatalogs für vertrauenswürdige digitale Langzeitarchive. Um die Vertrauenswürdigkeit der Archive nachzuweisen, sollen jene Aspekte ihres organisatorischen Aufbaus und der verwendeten technischen Verfahren geprüft und bewertet werden, die für die Langzeitarchivierung relevant sind. Die Kriterien und deren Bewertungen dienen als Grundlage für die Entwicklung eines Zertifizierungsverfahrens digitaler Langzeitarchive. Zusammen mit der Humboldt-Universität zu Berlin hat die BSB die Federführung der nestor-Arbeitsgruppe „Vertrauenswürdige Archive – Zertifizierung“ übernommen, die sich dieses Themas annimmt und Experten/innen aus allen Lebenszyklen digitaler Objekte von der Produktion über die Bereitstellung und Nutzung bis zur Archivierung einbezieht. Dabei baut sie auf Vorarbeiten der international besetzten RLG/OCLC Working Group on Digital Archive Attributes [2] auf, an der auch die BSB beteiligt war.

Das Sachgebiet Digitalisierung hat sich seit dem ersten Retrodigitalisierungsprojekt, den Reichstagsprotokollen (1867 bis 1895), an Verfahren guter Praxis orientiert und diese zum Teil mitgestaltet. [3] In der konsequenten Anwendung offener und offen gelegter Standards für die Bilddigitalisierung und Erschließung liegt die Voraussetzung für eine langfristige Archivierung des Materials.

Ursprünglich wurden die bei der Digitalisierung entstandenen Daten auf archivtauglichen CD-ROMs gespeichert und im Magazin abgestellt. Schon nach kurzer Zeit erwies sich diese Methode aufgrund steigender Datenmengen und der Unsicherheit des Speichermediums als nicht mehr praktikabel. Deshalb wurde 2004 – die gesamte Datenmenge betrug damals circa 0,8 Terabyte – eine Zusammenarbeit mit dem Leibniz-Rechen-zentrum (LRZ) begonnen. Das CD-ROM-Archiv wurde aufgelöst, sämtliche Daten wurden ausgelesen und konnten verlustfrei in das Archiv- und Backupystem des LRZ überführt werden. Die Digitale Bibliothek baute von Anfang an auf selbst entwickelte Lösungen auf Open Source-Basis. Rückgrat der Digitalisierung ist seit 2004 die „Zentrale Erfassungs- und Nachweisdatenbank für Digitalisate“ (ZEND), die den gesamten Workflow von der Vorbereitung über die Digitalisierung bis zur Bereitstellung und Archivierung mit maßgeschneiderten Funktionen unterstützt und die Verarbeitung der Daten weitgehend automatisiert, andererseits die bibliografischen, strukturellen, technischen und administrativen Metadaten verwaltet.

Die Einrichtung der Digitalisierungsstraße mit mehreren neuen Großscannern 2004-2005 ließ stark steigende Datenmengen erwarten, so dass eine grundlegende Umstellung der Workflows erforderlich wurde. Eine manuelle Archivierung der Daten wäre auf Dauer nicht praktikabel gewesen, so dass bei der Weiterentwicklung der ZEND verstärkt auf automatisierte Verarbeitungsschritte gesetzt wurde. Es wurde geplant, den Archivierungsprozess vollständig in den Produktionsprozess zu integrieren und die Überspielung der Dateien ins Archiv weitgehend zu automatisieren. Dieses Ziel wurde 2005 erreicht. Die einzelnen Etappen dieses Workflow seien im Folgenden kurz beschrieben:

Vor Beginn der eigentlichen Produktion steht die Auswahl des Werkes. Motivation für ein Digitalisierungsprojekt ist entweder der Bestandsschutz (Schonung bzw. Sicherheitsverfilmung eines wertvollen Werkes), der retrodigitale Bestandsaufbau (Bereitstellung von häufig nachgefragten Werken aus dem Altbestand der BSB) oder die Nachfrage von Bibliotheksnutzern/innen nach einem einzelnen Werk, sei es aus wissenschaftlichen oder kommerziellen Erwägungen (Faksimile-Produktion).

Bevor ein Werk auf den Scanner kommt, werden zunächst alle wesentlichen Parameter definiert und die nachfolgenden Arbeitsschritte festgelegt. Ausgangsbasis für alle Verarbeitungsschritte ist eine von der ZEND erzeugte unveränderliche numerische ID. Sie dient als Namensbasis für alle zugehörigen Images und für das Server-Verzeichnis, in dem diese abgelegt werden. Außerdem bildet sie den buchspezifischen Kern der National Bibliography Number (NBN), eines persistenten Identifikators, der über die Deutsche Bibliothek (DDB) in Frankfurt am Main verwaltet wird und die dauerhafte Ansprechbarkeit des Titels im Internet garantiert. Über die ID werden gleichzeitig die Digitalisierungsaufträge und die technischen Metadaten verwaltet. Über eine Z39.50-Schnittstelle werden die bibliografischen Daten aus dem lokalen Katalogsystem der BSB in die ZEND übernommen.

Mit der Erfassung eines Titels in der ZEND sind unmittelbar alle endgültigen und unveränderlichen Identifikatoren vergeben. Über ein elektronisches Auftragsformular wird der Digitalisierungsauftrag erzeugt. Beim Absenden wird überprüft, ob die eingegebenen Parameter plausibel sind, die technischen und administrativen Metadaten werden abgespeichert. Zu diesen gehören etwa Angaben zur Objektart (zum Beispiel Karte, Zeitschrift), zur geforderten Bildauflösung und Farbtiefe oder besondere Hinweise für die Einstellung der Scanner, wie sie beispielsweise beim Digitalisieren von gold- oder silberfarbigen Abbildungen notwendig sind. Mitgeführt werden darüber hinaus das Bestelldatum, der Name und die Abteilung des Auftraggebers / der Auftraggeberin sowie der Ausführenden bzw. die Anschrift des externen Dienstleisters.

Die Digitalisierung wird hausintern oder vom externen Dienstleister nach den im Auftrag vorgegebenen Parametern durchgeführt. Der digitale Master entsteht immer im TIFF- Format (Tagged Image File Format), welches höchste Qualität und verlustfreie Speicherung der Bilddaten garantiert. Daraus werden je nach Bedarf Derivate für die Web-Präsentation (JPGs, GIFs, PDFs), Druckvorstufen für die Faksimileproduktion, aber auch analoge Mikroformen zum Zwecke der Sicherheitsverfilmung erstellt. Nach dem Digitalisieren werden die Images – ohne Bildung von Zwischenverzeichnissen – in einem Sammelverzeichnis auf dem FTP-Server der BSB abgelegt. Dieses Sammelverzeichnis wird mit Hilfe von zeitgesteuerten Verfahren überwacht. Immer dann, wenn Bilddaten zur Weiterverarbeitung dort vorhanden sind, wird das Bereitstellungsverfahren gestartet. Zunächst wird die Datenbank anhand der Dateinamenbezeichnung abgefragt, ob Titeldaten erfasst sind. Ist das der Fall, wird automatisch im Bereitstellungsbereich auf dem öffentlich zugänglichen Server ein Verzeichnis unter dem Namen der ID des Digitalisats eingerichtet. In dieses Verzeichnis werden alle zusammengehörenden Images kopiert. Die Dateien werden geordnet und ihre Namen in der richtigen Reihenfolge in die XML-Strukturdatei geschrieben. Die BSB bezieht sich beim Erstellen der XML-Dateien auf die Richtlinien und Standards der Text Encoding Initiative (TEI). [4] Die XML-Datei enthält im so genannten TEI-Header die bibliografischen Daten des Objekts. Bei Bedarf kann die XML-Datei die tiefere Erschließung des Buches, etwa das Inhaltsverzeichnis, und gegebenenfalls den Volltext in maschinenlesbarer Form aufnehmen. In der einfachsten Form enthält sie neben den bibliografischen Angaben nur die Bezeichnung der Images in der Digitalisierungsreihenfolge. Dies ist die Voraussetzung dafür, dass die Digitalisate zu einem elektronischen Buch zusammengefügt werden können und eine Navigation auf dem Bildschirm möglich wird. Durch die Wahl des XML-Formates und des TEI-Standards sind diese Dateien ebenfalls für die Archivierung und Migration geeignet. Sie werden mit den Images gemeinsam und gleichzeitig archiviert.

Über die Datenbankabfrage werden die Titelangaben ausgelesen und im TEI-Header-Format ebenfalls in die XML-Datei eingefügt. Die ZEND steuert darüber hinaus die Programme, die die automatisierte Anfertigung von browserkompatiblen Derivaten (JPG, GIF und PDF) durchführen, sowie die Tools für die Strukturdatenbearbeitung und die Bildnachbearbeitung. Aus den TIFF-Dateien werden Derivate in zwei Vergrößerungsstufen hergestellt. Dafür wird der TIFF-Header mit den Angaben zu Größe, Auflösung, Ausrichtung usw. ausgelesen. Nach dem Schreiben der XML-Strukturdatei und der Bildherstellung für das Web ist eine einfach durchzublätternde digitale Ausgabe des Buches fertig und benutzbar. Vom Ablegen der digitalen Master im Sammelverzeichnis bis zur Fertigstellung dieser einfachen Webversion sind keine manuellen Tätigkeiten erforderlich. Für die Produktion eines 200 Seiten umfassenden Buches benötigt ein leistungsstarker Rechner zurzeit etwa eine Stunde. Die fertig gestellte digitale Ausgabe kann jederzeit tiefer erschlossen und gegebenenfalls auch korrigiert werden. Dafür stehen eine ganze Reihe von Tools zur Verfügung, wovon als wichtigster der XML-Editor zu nennen ist, der von jedem Ort innerhalb der Staatsbibliothek webgestützt aufrufbar ist und es erlaubt, Kapitelüberschriften zuzuweisen und Seitenzählungen (arabisch, römisch, blatt-, spalten- und seitenweise) halbautomatisch einzufügen. Komplexere Zählungen können auch per Hand bei jeder Seite eingefügt werden. Vom XML-Editor aus lässt sich auch eine Bildkorrektur – etwa durch Drehen einzelner Seiten – anstoßen. Eine tiefere Erschließung des Inhalts wird insbesondere bei den großen Digitalisierungsprojekten, wie der Digitalisierung ganzer Zeitschriften oder vielbändiger Werke, durchgeführt. Hier werden Aufsatztitel, Register, Lemmata usw. erfasst und vielfach auch der Volltext über OCR gewonnen.

Mit der Freigabe für die Benutzung im Internet werden NBN und momentane URL über eine OAI-Schnittstelle der ZEND dem Frankfurter NBN-Management übermittelt, das dafür sorgt, dass die dem Digitalisat zugewiesene NBN im Internet aufrufbar wird. Die NBN wird auf Verbundebene und im lokalen Katalogsystem der BSB nachgewiesen, so dass Benutzer/innen, die den Titel recherchieren, direkt auf das Digitalisat hingewiesen werden. Die Archivierung wird nach Beendigung aller Arbeitsschritte automatisch gestartet. Der Produktionsserver der Digitalen Bibliothek ist über einen Client des Archiv- und Backup-Systems Tivoli Storage Manager von IBM mit dem Leibniz-Rechenzentrum verbunden. Im Archivsystem des Rechenzentrums werden die Daten in eine Verzeichnisstruktur gelegt, die nach der ID des Digitalisats benannt wird. Anfänglich wurden die Daten nur zur Nachtzeit transferiert, um das Münchner Wissenschaftsnetz nicht unnötig zu belasten. Seit dem Ausbau der Datenleitung auf Gigabit-Geschwindigkeit im Herbst 2005 kann der Datentransfer unterbrechungsfrei rund um die Uhr laufen.

Im Archivsystem werden alle zum Objekt gehörenden Daten abgespeichert, also sämtliche Images im TIFF-Format und die zugehörigen XML-Strukturdaten. Die zusätzliche Archivierung der Bildderivate erfüllt eine Backup-Funktion für den Fall eines Datenverlustes auf dem Bereitstellungsserver. Für die Langzeitarchivierung kommt dabei den XML- und den TIFF-Dateien die größte Bedeutung zu. Das Leibniz-Rechenzentrum selbst speichert die zu archivierenden Daten mehrfach auf verschiedenen Speichermedien. Nach abgeschlossenem Archivierungsvorgang erfolgt eine Rückmeldung an die ZEND, in der dieser Arbeitsschritt – wie alle anderen auch – in den administrativen Metadaten dokumentiert wird. Bei Bedarf können die Daten innerhalb kürzester Zeit aus dem Langzeitarchiv zurückgeholt werden. Dieser Prozess wird durch eine E-Mail-Funktion an den Archivserver angestoßen. Aufgrund der ID wird das gesamte Verzeichnis eines Objektes zurückgeholt. Ein manueller Zugriff auf einzelne Dateien ist ebenfalls möglich.

Insgesamt handelt es sich bei der ZEND um ein mit der Zeit und an den Aufgaben gewachsenes Instrument, das mit maßgeschneiderten Funktionen die Aufgaben erfüllt. Die Verwendung von offenen und offen gelegten Standards (Datenformate TIFF, XML/TEI) stellt einerseits die Langlebigkeit der durch Digitalisierung erzeugten Daten sicher, ermöglicht andererseits die Migration zu neueren Bereitstellungssystemen. Die Automatisierung aller Arbeitsschritte von der Auftragsvergabe bis zur Archivierung sichert zudem die hohe Qualität der Objekte. Die Vorhaltung bibliografischer, struktureller, technischer sowie administrativer Metadaten ermöglicht zukünftig die gezielte Anwendung von Langzeiterhaltungsstrategien. Die leistungsfähige Infrastruktur des Leibniz-Rechenzentrums garantiert den langfristigen Erhalt der Daten. Damit ist die BSB für die Anforderungen der Zukunft gerüstet.

Weitere Schritte – das Pilotprojekt zur Langzeitarchivierung von Netzpublikationen

Die Aufgabe der Archivierung der Retrodigitalisate konnte durch Aufbau der ZEND zufrieden stellend gelöst werden. Wie bereits zu Beginn dargestellt, trägt die BSB als Universal- und Landesbibliothek Verantwortung für ein viel breiteres Spektrum an digitalen Objekten, für die es bislang noch kein konkretes Verfahren der Langzeitarchivierung gab. Deshalb wurde an der BSB im Juli 2005 ein von der DFG gefördertes zweijähriges Pilotprojekt begonnen, das die Langzeitarchivierung dieses breiten Spektrums an elektronischen Medien vorbereiten soll. Der Fokus richtet sich sowohl auf die Sammlung, Verwaltung und Speicherung von elektronischen Ressourcen im Langzeitarchiv, als auch auf deren Bereitstellung zur Nutzung im Kontext der Bibliothek. Kooperationspartner in diesem Projekt ist das Leibniz-Rechenzentrum. Ziel ist der Aufbau eines Bibliothekarischen Archivierungs- und Bereitstellungssystems (BABS), die Ausarbeitung von Workflows und Kooperationsmodellen und die Archivierung und (partielle) Bereitstellung von wissenschaftlichen Netzpublikationen aus unterschiedlichen Quellen. Um die Medienvielfalt der BSB möglichst umfassend zu repräsentieren, sollen Medien verschiedener Provenienz in das Projekt einbezogen werden. Darunter fallen:

  • Veröffentlichungen von potentiellen Pflichtverlagen,
  • im Bayernkonsortium lizenzierte E-Zeitschriften und Datenbanken,
  • amtliche Veröffentlichungen von Regional- und Bundesbehörden sowie Gebietskörperschaften,
  • wissenschaftlich relevante Literatur aus der nationalen und internationalen Produktion in den SSG-Fächern Geschichte, Altertumswissenschaften, Osteuropa und Musikwissenschaft,
  • in den Fachportalen zusammengestellte und erschlossene Netzpublikationen,
  • eigene und in Kooperationsprojekten erstellte Retrodigitalisate.

Ähnlich wie schon bei der ZEND soll das Datenmanagement von der Sammlung über die Erschließung bis zur Nutzung in der Bibliothek angesiedelt sein und in die bestehenden Bibliothekssysteme integriert werden. Die Aufbewahrung der Daten erfolgt, wie schon bei den Digitalisaten, am Leibniz-Rechenzentrum.

Solange grundlegende rechtliche Fragen bei der Langzeitarchivierung (zum Beispiel die Pflichtablieferung, das Anfertigen mehrfacher Kopien, verändernde Eingriffe bei der Konvertierung bzw. Migration, Bereitstellung über Netze) noch nicht allgemein geregelt sind, können die einzelnen Arbeitsschritte bei der Langzeitarchivierung nur in Absprache mit den Eigentümern/innen bzw. Produzenten/innen der Daten modelliert und realisiert werden. In den Gesprächen mit den Produzenten/innen – Verlage, Regional- und Bundesbehörden, Wissenschaftler/innen, Bibliotheken – liegt einer der Schwerpunkte des Projektes. Speziell in Bezug auf urheberrechtlich geschützte digitale Medien ist mit den Anbietern/innen bzw. Produzenten/innen weiterführend die Frage nach möglichen Geschäfts- und Nutzungsmodellen zu diskutieren. Die BSB hat für lizenzpflichtige E-Medien ein dreistufiges Zugriffskonzept entwickelt, das von der lokalen Nutzung in den Räumen der Bibliothek, über den externen Zugriff für registrierte BSB-Benutzer/innen bis hin zu speziell vereinbarten Pay-Per-Use-Modellen für die überregionale Literaturversorgung reicht. In welcher Weise sich diese Modelle etwa auf den Bereich der Pflichtablieferung digitaler Medien übertragen lassen bzw. welche Art von Modifikation erforderlich ist, wird im Projekt geprüft.

Ein weiterer Schwerpunkt des Projektes ist die Entwicklung neuer bzw. die weitere Ausgestaltung existierender Workflows in der Bibliothek und im Rechenzentrum. Die enge Verzahnung mit den bewährten Arbeitsabläufen garantiert den nahtlosen Übergang zur Routine und damit die Nachhaltigkeit der hier zu entwickelnden Modelle. Vorgesehen ist ferner die Erprobung von Methoden der Langzeitarchivierung, die sowohl den physischen Erhalt der Daten als auch den Erhalt der Verfügbarkeit betreffen. Eine durch den Umzug des Leibniz-Rechenzentrums an einen neuen Standort und der damit verbundenen Einführung neuer Hard- und Software erforderlich gewordene Migration des kompletten Archivspeichersystems wurde bereits erfolgreich durchgeführt. Die technische Umsetzung erfolgt weitgehend unter Nachnutzung der vorhandenen Infrastruktur, die überwiegend aus Eigenentwicklungen auf Open Source-Basis besteht. Neben der bereits bewährten ZEND kommen die verschiedenen vorhandenen Präsentationslösungen ebenso zum Tragen wie die bereits im Umfeld der elektronischen Zeitschriften und Online-Datenbanken der BSB erfolgreich eingesetzten Authentifizierungsmodule. Ein wichtiges Fundament für die Organisation der Langzeitarchivierung wird die kommerzielle Repository-Software DigiTool bilden, die vom Bibliotheksverbund Bayern beschafft wurde und derzeit in Betrieb genommen wird. DigiTool ist bedarfsgerecht konfigurierbar, fügt sich optimal in die vorhandene bibliothekarische Systemumgebung ein und bringt wesentliche technische Voraussetzungen für die Langzeitarchivierung mit, so zum Beispiel Möglichkeiten einer Objektmodellierung mit feiner Granularität bis auf Dateiebene, die flexible Verwaltung von Metadaten und eine Web-Präsentation des archivierten Materials. Die Anbindung des bibliothekarischen Bereitstellungssystems an das Archivsystem des Rechenzentrums wird, in Erweiterung der aktuellen Lösung, über eine leistungsfähige File- System-Schnittstelle realisiert werden.

Zusammenfassung

Mit ihrem 1997 gegründeten Digitalisierungszentrum gehört die BSB zu den Pionieren der Digitalisierung in Deutschland. Entsprechend früh setzte man sich hier mit der Problematik der Langzeitarchivierung auseinander und begann, am eigenen Bedarf orientierte Lösungen zu erarbeiten. Die Digitalisierung hat sich als Geschäftsgang etabliert und ist mit dem eigenständigen Referat Digitale Bibliothek integraler Bestandteil der BSB. Dank der massiven Erweiterung der Scanner-Ausstattung konnte die Digitalisierungsproduktion seit Mitte 2005 signifikant gesteigert werden. Mit der Zentralen Erfassungs- und Nachweisdatenbank für Digitalisate ist seit 2004 ein leistungsfähiges Arbeitsinstrument erfolgreich in Betrieb, das auch die Langzeitarchivierungsaufgaben weitgehend automatisiert. Bis 2007 wird im Rahmen des vorgestellten DFG-Projektes die vorhandene Infrastruktur um Module und Workflows zur Langzeitarchivierung von Netzpublikationen erweitert. Auch zukünftig wird durch die Mitarbeit bei nestor auf nationaler und internationaler Ebene der Austausch von Know-how und Erfahrungen mit anderen Gedächtnisorganisationen weiter vertieft werden.

Durch die Zusammenarbeit mit dem Leibniz-Rechenzentrum als kompetentem und erfahrenem Partner steht ein zuverlässiges, sicheres Speichersystem mit hoher Kapazität zur Verfügung. Unter diesen Voraussetzungen sieht sich die BSB in einer günstigen Startposition für kommende Aufgaben auf dem Gebiet der Langzeitarchivierung.

***

Dr. Thomas Wolf-Klostermann ist im Referat „Digitale Bibliothek“ der Bayerischen Staatsbibliothek tätig. Aufgabenschwerpunkte: Erschließung und Web-Bereitstellung von Digitalisaten, technische Betreuung der Produktion, Langzeitarchivierung. E-Mail: thomas.wolf-klostermann@bsb-muenchen.de


[1] Das Gemeinschaftsprojekt nestor (Network of Expertise in long-term Storage and availability of digital Resources in Germany), das die Bayerische Staatsbibliothek zusammen mit anderen Gedächtnisorganisationen initiiert hat, ist aus der Überzeugung heraus entstanden, dass der Erhalt des kulturellen Erbes nur gemeinschaftlich gelingen kann und soll, und diente dem Aufbau eines Kompetenznetzwerkes zur Langzeitarchivierung. Nestor ist es gelungen, das Bewusstsein für die Probleme der LZA in Deutschland zu wecken, das Wissen und die Kompetenzen in diesem Bereich zu mehren und zu verbreiten, eine kooperative Lösung für Deutschland vorzubereiten und diese in den internationalen Kontext einzubinden. Eine ausführliche Beschreibung des Projektes nestor und des Arbeitsschwerpunktes der BSB findet sich auf den Webseiten des Projektes, vgl. <http://www.langzeitarchivierung.de/> (11.10.2006).

[2] RLG/OCLC Working Group on Digital Archive Attributes, Trusted Digital Repositories: Attributes and Responsibilities. An RLG-OCLC Report, Mountain View, CA: RLG, 2002, <http://www.rlg.org/en/pdfs/repositories.pdf> (11.10.2006).

[3] Vgl. Deutsche Forschungsgemeinschaft, Bericht der Arbeitsgruppe Technik zur Vorbereitung des Programms Retrospektive Digitalisierung von Bibliotheksbeständen im Förderbereich Verteilte Digitale Forschungsbibliothek, <http://www.sub.uni-goettingen.de/ebene_2/vdf/endfas1.htm> (11.10.2006); Deutsche Forschungsgemeinschaft, Die Erschließung und Bereitstellung digitalisierter Drucke. Vorschläge des Unterausschusses für Kulturelle Überlieferung, <http://www.dfg.de/forschungsfoerderung/wissenschaftliche_infrastruktur/lis/download/konzept_digitale_drucke.pdf> (11.10.2006) sowie Deutsche Forschungsgemeinschaft, Praxisregeln in Förderprogramm Kulturelle Überlieferung, <http://www.dfg.de/forschungsfoerderung/formulare/download/12_151.pdf> (11.10.2006). Siehe auch: Boudrez, Filip; Dekeyser, Hannelore, DAVID – Digitaal archiveren in de praktijk. Handboek, <http://www.antwerpen.be/david/index.htm> und Dörr, Marianne, Retrodigitalisierung in Bibliotheken und wissenschaftlichen Einrichtungen, <http://computerphilologie.uni-muenchen.de/jg01/doerr.html> (11.10.2006).

[4] Zur Text Encoding Initiative vgl. <http://www.tei-c.org/> (11.10.2006).


Hinweis:

In den Texten der Artikel wird der Unicode-Zeichensatz verwendet. Falls Ihr Browser nicht automatisch die richtige Codierung einstellt, d.h. wenn die deutschen Extrazeichen nicht korrekt angezeigt werden, drücken Sie bitte den Reload-Knopf (Refresh oder Aktualisieren) oder ändern Sie die Zeichensatz-Einstellung selbst unter Ansicht -> Codierung -> Unicode (UTF-8).

 
 

Letzte Änderung: 21.06.2007, sh