[Seite 231↓]

Die Dimension des Raums:
Die Vernetzung des Raums

Kulturelle Paradigmen ordnen Diskurse, das gilt für die Paradigmen des Ökologischen, des Individuellen oder des Technischen ebenso wie für das der Vernetzung. Eine Erweiterung dieser These, welche ich in diesem Kapitel vorstellen möchte, besagt, dass kulturelle Paradigmen auch kulturelle Praktiken strukturieren, wovon Diskursproduktion einen, wenn auch bedeutenden, Teil darstellt. Es geht hierbei weder um Absolutismus noch um Reduktionismus; kulturelle Paradigmen bestimmen nicht allein die Produktion von Diskursen, auch lässt sich nicht jede kulturelle Dynamik auf die ordnende Wirkung kultureller Paradigmen zurückführen. Dennoch können sie als kulturtheoretischer Topos in vielen Fällen zur Beschreibung kulturelle Dynamik hinzugezogen werden. Denn mit der Strukturierung der Diskursproduktion kanalisieren sie Wahrnehmung und wirken damit unmittelbar auf Mentalitäten, verstanden als inhaltliche Ausprägungen von Perspektiven, innerhalb eines durch Wahrnehmungsdimensionen aufgespannten Horizontes. Die Wechselwirkung der Dimension der Vernetzung mit etablierten Perspektiven soll in diesem Kapitel exemplarisch untersucht werden, wobei der Schwerpunkt im Gegensatz zum vorangegangenen Kapitel weniger auf Diskursproduktion sondern auf kulturelle Praktiken gelegt werden soll.

Aus der Vielzahl sich anbietender Dimensionen – z.B. Raum und Zeit, Gesundheit und Krankheit, Recht und Gesetz, Familie, Individualität, Sexualität, Freizeit, Arbeit etc. – spielt die des Raums und der Zeit eine herausragende Rolle. Untrennbar miteinander verknüpft bilden Raum und Zeit so etwas wie ein mentalitätstheoretisches Fundament, die sine qua non eines jeden Horizontes.

Raumzeit als epistemologische Kategorie ist Gegenstand zahlreicher medientheoretischer Untersuchungen. Viele der Metaphern zur Beschreibung des Internet sind räumlich, von McLuhans „Global Village“ über Gibsons „Cyberspace“ und Rushkoffs „Cyberia“ bis zu Gores „Datenautobahn“ oder Rötzers „Telepolis“, um lediglich die Populärsten zu nennen.1 Der Forschungsstand zum Zusammenwirken von Netzen und Raumzeit lässt sich grob um zwei Schwerpunkte gliedern: Untersuchungen zur Netzbinnendynamik bemühen sich, soziokulturelle Interaktionen, Schnittstellenimmersionen und Zeichenflüsse im Netz als Raum zu begreifen. Inspirierend ist hier Gibsons „Neuromancer“-Trilogie, auf theoretischer Ebene wegweisend ist Michael Benedikts Anthologie „Cyberspace: First Steps“. Zentrale Frage der Virtual Reality -Forschung ist die Konstruktion geeigneter Schnittstellen, um das Eintauchen in einen interaktiven [Seite 232↓] symbolischen Raum möglichst perfekt zu inszenieren. Der digitale Raum begünstigt als Begegnungsstätte die Bildung virtueller Gemeinschaften, welche sich ihrerseits ohne gemeinsamen Bezugsraum organisieren.

Der zweite Schwerpunkt betont die Frage, wie sich Raumzeitwahrnehmung außerhalb des Netzes im Medienwandel verhält. Hier möchte ich mich auf jene Diskurse konzentrieren, welche den Topos der Auflösung des Raums, der „Neutralisierung von Raum und Zeit“2 betonen, eine These, die im weiteren Verlauf einer kritischen Überprüfung unterzogen werden soll.

Die Wahrnehmung von Raum und Zeit verändern sich vor allem durch Medienrezeption und verschiebt die gewohnten raumzeitlichen Kategorien von Entfernung oder Distanz:

Dieser kommunikativ-symbolische Distanzschwund kehrt auf der semantischen Ebene wieder als Aufzehrung der Ferne, des Außen: des Außenraums, des Fremdraums, der Ferne auch der Zeit: des Vergangenen und des noch Kommenden. Alles wird tendenziell zum Jetzt und Hier.3

Die Annahme der Vernichtung oder der Kontraktion des Raums auf einen Punkt begleitet die Geschichte der Netze, ob Transport- oder Kommunikationsnetze. Die Eisenbahn verbindet entfernte Orte und verändert so die Wahrnehmung von Ferne und Nähe. Heinrich Heine fasste diesen mentalitätshistorischen Einschnitt zusammen:

Welche Veränderungen müssen jetzt eintreten in unsrer Anschauungsweise und in unsern Vorstellungen! Sogar die Elementarbegriffe von Zeit und Raum sind schwankend geworden. Durch die Eisenbahn wird der Raum getötet, und es bleibt uns nur noch die Zeit übrig.4

Begleitet wird der Ausbau des Eisenbahnnetzes vom Telegraphen, der den Raum noch stärker unter Druck setzt. „Le télégraphe abrège les distances et réunit en quelque sorte une immense population sur un seul point.“5 Der Raum zieht sich zu einem Punkt zusammen oder umgekehrt, jeder Punkt kann sich beliebig weit ausdehnen:

Was jetzt und hier geschieht, vermag auch jetzt und anderswo geschehen – und weil dies möglich ist, kann dieses Anderswo , prinzipiell zumindest, zu einem Jetzt und Überall sich vergrößern.6

Räumliche Kategorien wie ‚Hier’, ‚Anderswo’, ‚nah’ oder ‚fern’ verlieren in Netzen ihre Bedeutung, mit ihnen werde aber auch, so von Barloewen, die physikalische Existenz marginalisiert, der Begriff der ‚Realität’ verliere alle Bedeutung. „Die Revolution des Cyberspace hingegen ist darauf ausgerichtet, die Welt, wie wir sie kennen, auszulöschen. Wir stehen vor einem ethischen Vakuum. [Seite 233↓]Computer stellen das Tor zu einer neuen himmlischen Stadt dar.“7

Urbane Metaphern zur Beschreibung elektronischer Räume finden sich in vielen Kontexten. McLuhans Schlagwort des „Globalen Dorfes“ bezog sich zunächst auf die Wirkungen des Fernsehens und wurde erst viel später auf ein Computernetz übertragen. Florian Rötzer erweiterte die Metapher auf die virtuelle Stadt, die ‚Telepolis’: „Und wir haben sie vor allem Stadt genannt, weil sie nicht mehr dem alten Bild eines Dorfes, des global village entspricht. Dazu ist sie zu komplex, zu vielgestaltig, zu groß und zu unübersichtlich.“8

Der Auszug aus der „wirklichen Welt“ und das Einrichten von Wohnraum im Virtuellen lässt den Raum der Welt zunehmend verschwinden oder zur Bedeutungslosigkeit herabsinken:

Dementsprechend korrespondiert dem Akt der Raumschrumpfung (oder, an der Gestalt des Menschen entlang gedacht, korrespondiert seinem Verschwinden aus der „wirklichen Welt“) ein Zugewinn an symbolischer Weltbeherrschung, wächst dem Einzelnen im Innern der Maschine ein Maß an Welt zu, das in der Realität keinerlei Deckung mehr hat.9

Doch der Zugewinn an Symbolischem wird auch als Verlust des Außenraums beklagt, einhergehend mit dem Verlust der Leiblichkeit. Die Engführung des Diskurses des Raumverlusts und des Diskurses der Virtualisierung der Leiblichkeit ist notwendig: Der Raum kann nämlich nur dann aufgelöst werden, wenn angenommen wird, der Geist könne sich vom Körper lösen und in die semiotische Welt des Cyberspace eintauchen. Der Netzdiskurs erhält eine transzendente Wendung, die weit über das Technische hinausweist:

In der Tat fällt es nicht sonderlich schwer, das „transzendente“ Moment zu orten, hat es sich doch in der Logik des Netzes materialisiert. Denn das auf die Reise geschickte Symbol erlaubt dem Teilhaber des Netzwerks, aus der Haut zu fahren, sich im Wortsinn zu transzendieren. Der Leib hört auf, die Grenze der Anwesenheit zu bezeichnen.10

Parallelen des Umgangs mit dem symbolischen Raums zu spirituellen Erfahrungen wurden bereits in Kapitel 3 angesprochen. Problematisch wird diese Argumentation erst, wenn kein struktureller Unterschied mehr angenommen wird zwischen der außermedialen, „wirklichen“ Welt und der Spielwelt eines symbolischen Raums. Wer diesen Unterschied fortargumentiert, nimmt sich freilich davon aus, nur von dieser Warte aus kann die gesamtgesellschaftliche Diagnose getroffen werden, der Mensch verliere sich hilflos im Netz der Symbole und der Raum (der Anderen) transformiere sich zur Stelle und ziehe sich zu einem Punkt zusammen. Es ist die Ambiguität zwischen Selbstbild und Fremdbild, welche manchen Verlust-Diskursen ihre unangenehme Larmoyanz verleiht. Jean [Seite 234↓] Baudrillard klagt darüber, dass es „kein Jenseits der Simulakren“11 mehr gäbe. Für Paul Virilio bedeutet die Transformation den totalen Verlust sinnlicher Erfahrung:

Das Auslöschen des unmittelbar Gegenwärtigen setzt damit notwendig die Beseitigung der Mobilität des Fernsehzuschauers im Raum zugunsten einer schlichten Motilität auf der Stelle voraus, die weniger einen „Präsenten“ als einen „Patienten“ isoliert: er wird von der aktiven sinnlichen Erfahrung des ihn umgebenden Raums endgültig abgeschottet und stattdessen allein auf die wiederkehrenden Bildwelten verwiesen 12

Doch die Kontraktion des Raums wirkt sich darüber hinaus unmittelbar auf das soziale Leben des Einzelnen aus, wie Bernd Guggenberger resümiert:

Enträumlichung, Delokalisierung, Transterritorialität, das Ende also der Bedeutsamkeit räumlicher Unterschiede – das bedeutet vor allem, daß der relevante Lebensraum des einzelnen sich immer mehr im sozialen Nirwana zwischen Wohnzimmer und Welt verliert.13

Das „digitale Nirwana“ ist der Un-Ort der Vereinzelung, der „Verstummung“, „sozialer Unverbindlichkeit und „Gleichgültigkeit.“14

Nicholas Negroponte sieht die virtuelle Nachbarschaft freilich deutlich positiver:

Je mehr wir uns vernetzen, desto mehr werden die Wertvorstellungen eines Staates oder einer Nation den Werten größerer und kleinerer elektronischer Gemeinschaften weichen. Wir werden uns in digitalen Nachbarschaften zusammenfinden, in denen der physikalische Raum keine Rolle mehr spielt und in denen Zeit eine ganz neue Bedeutung bekommen hat.15

Deutlich differenzierter als die kulturpessimistischen Untergangspropheten beschreibt Manuel Castells die Transformation des Raums von einem space of places zu einem space of flows . Raum als soziale Konstruktion ist laut Castells „the material support of time-sharing social practices. “16 Gesellschaft definiert sich zunehmend um Flüsse in Netzen, „flows of capital, flows of information, flows of technology, flows of organizational interaction, flows of images, sounds and symbols.“17 Der „space of flows“ konstituiert sich demnach als

the material organisation of time-sharing social practices that work through flows.18

Ähnlich argumentiert auch die Soziologin Martina Löw:


[Seite 235↓]

Auf eine Kurzformel gebracht, kann man sagen, die Konstitution von Räumen geschieht durch (strukturierte) (An)Ordnungen von sozialen Gütern und Menschen an Orten. Räume werden im Handeln geschaffen, indem Objekte und Menschen synthetisiert und relational angeordnet werden.19

Raum ist demnach von sozialen bzw. kulturellen Praktiken abhängig und wird von ihnen hervorgebracht. Eine Untersuchung zu Auswirkungen des kulturellen Paradigmas der Vernetzung auf die Wahrnehmung von Raum kann daher nicht abstrakt das Verschwinden des Raums aufgrund übermäßiger Telepräsenz und anhaltendem Medienkonsums proklamieren, sondern muss in Auseinandersetzung mit diesen Praktiken erfolgen.

In diesem Kapitel untersuche ich, welche konkreten Änderungen die Dimension der Vernetzung für die Raumwahrnehmung und -konstruktion hat und wie sie kulturelle Praktiken verstehen helfen kann. Zu diesem Zweck argumentiere ich in vier Schritten:

Obwohl es übertrieben ist, (erneut) vom Verschwinden des Raums und der Zeit zu reden, lässt sich dennoch etwas pathetisch sagen, dass in dem kulturhistorisch nachweislichen Kampf des Menschen gegen die Einschränkungen der Raumzeit ein weiterer Etappensieg errungen wurde, indem Informationen von ihrem materiellen und das heißt immer raumzeitlich gebundenen Träger befreit wurden. Genauso pathetisch ließe sich aber auch feststellen, dass der Mensch sich zusehends von einem natürlichen Raumzugang entfernt, indem er sich zunehmend tiefer in technische Zusammenhänge einbindet, aus welchen sich der Einzelne immer weniger entziehen kann.

Zur Kulturgeschichte der Raumzeit

Zwar kann man davon ausgehen, dass sich die physiologischen Voraussetzungen der [Seite 237↓] Raumwahrnehmung im Laufe der Zeit wenig geändert haben, dennoch unterlagen die Vorstellungen des Raums und die damit verbundenen Konnotationen tiefgreifenden Veränderungen, von denen ich einige im Folgenden nachzeichnen werde.23

Aristoteles und das Ptolomäische Weltbild

Aristoteles war vor allem ein systematischer Philosoph, dem es darum ging, die Gesamtheit seiner Beobachtungen unter einheitlichen Prinzipien zu ordnen. In seinem Interesse für Bewegung ging er davon aus, dass alle Dinge sich normalerweise in Ruhe befinden und einen äußeren Anstoß brauchen, um sich überhaupt zu bewegen. Fällt die Anregung weg, streben sie dem Mittelpunkt des Kosmos entgegen, wobei die Fallgeschwindigkeit mit der Masse des Objektes steigt. Die schwere Erde setzte Aristoteles daher in den Mittelpunkt des Kosmos, obwohl ihm andere Kosmologien bekannt waren. E. Dijksterhuis schreibt dazu:„Er hat sicher das Weltbild des Philolaos gekannt, in welchem die Erde um ein zentrales Feuer rotierend gedacht wurde, und möglicherweise auch das des Herakleides von Pontos, in welchem ihr wahrscheinlich sowohl eine Rotation um die Achse als auch eine Bewegung in einem Kreis zuerkannt wurde. “24 Diese Vorstellungen aber ließen sich nicht in Übereinstimmung mit Aristoteles’ systematischer Naturphilosophie bringen, so dass er sich für ein geozentrisches Weltbild entschied. Die Idee, jedes Objekt befinde sich normalerweise in Ruhe, solange es nicht durch eine äußere Anregung bewegt wird, bedingt die Existenz eines ersten Bewegers, der sich selber nicht bewegt, für die Bewegung aller anderen aber direkt oder indirekt verantwortlich ist.

In eine modernere Sprache übersetzt bedeutet dies, dass Aristoteles die Raumzeit wie folgt interpretierte:25


[Seite 238↓]

Abb. 23 : Das aristotelische Raummodell.

Der Kubus in Abb. 23 repräsentiert die vierdimensionale Raumzeit. Ereignisse auf jeder horizontalen Ebene finden gleichzeitig statt; der zeitliche Abstand zweier Ereignisse A und B ist der Abstand der Projektion von A und B auf eine vertikale Zeitachse, der räumliche Abstand ist der Abstand der Projektionen von A und B auf eine gemeinsame horizontale Ebene. Die Weltlinie des ersten Bewegers ist eine senkrechte Gerade, weil dieser in absoluter Ruhe ist. Alle Personen sind sich über diese Ruhe einig, Geschwindigkeit ist laut Aristoteles absolut, weil es einen sicheren Ruhepunkt gibt. Ebenso ist die Zeit absolut, weil die Dauer zwischen je zwei beliebigen Ereignissen messbar und die Messung überall gleich ist.

Ptolomäus formte im 2. Jahrhundert n. Chr. das Aristotelische Weltbild aus, begrenzte das Universum auf die Erde im Zentrum und verteilte die Sonne, den Mond, die fünf bekannten Planeten und die Fixsterne auf acht Sphären, die an die Atmosphäre anschlossen und sich kreisförmig um die Erde drehten. Um die komplizierten Bahnen der Planeten zu erklären, führte Ptolomäus kleinere Kreise ein, die Epizyklen, auf denen sich die Planeten in ihren Sphären drehten. Was jenseits der äußersten Sphäre lag, blieb ungeklärt, auf jeden Fall war es für Menschen unergründlich. Die aufstrebende christliche Kirche akzeptierte das Ptolomäische Weltbild, ließ es sich doch einfach mit der Bibel in Übereinstimmung bringen: Die Vorstellung eines ersten Bewegers passte gut zum christlichen Monotheismus. Die Unbestimmtheit jenseits der äußeren Sphären ließ genügend Platz für den spirituellen Raum.

Das mittelalterliche Raumverständnis war zutiefst dualistisch: Die griechische Trennung von soma und pneuma verband sich mit jüdischer Spiritualität zu der Trennung von Körper und Seele. Beide hatten ihre Sphären, es gab den Raum des Körperlichen und den Raum des Seelischen. Bedingt durch die Vergänglichkeit des Körpers und die Unsterblichkeit der Seele lag der Schwerpunkt des mittelalterlichen Interesses klar auf dem spirituellen Raum, dessen Hierarchien und Ordnungen in der Kunst dargestellt wurden. Die aus heutiger Sicht oft merkwürdige Raumlosigkeit mittelalterlicher und byzantinischer Malerei begründet sich nicht durch eine andere Wahrnehmung des physikalischen Raumes, sondern durch eine kulturelle Entscheidung, den für die Menschen [Seite 239↓] wichtigeren Raum des Spirituellen nachzubilden, die mittelalterliche Malerei ist symbolisch. Die Bedeutung einer Person wurde durch ihre Größe symbolisiert, eine goldene Aura deutete die Anwesenheit Gottes an, individuelle Gesichtszüge, wie sie beispielsweise die Portraitmalerei bestimmt, spielten noch keine Rolle etc. Es herrschte eine starke Einteilung des Raumes in verschiedene Zonen unterschiedlicher emotionaler Qualitäten, vor allem gab es noch kein Verständnis eines einheitlichen Raums, wie wir es heute kennen. In der Kunstgeschichte wird dies in der Regel an dem Übergang zur Perspektive gezeigt.

Giottos Fresken über das Leben des hl. Franziskus in Assisi und das Leben Christi in der Arena-Kapelle in Padua müssen auf seine Zeitgenossen revolutionär gewirkt haben, bemühten sie sich doch zum ersten Mal um eine realistische Darstellung des physikalischen Raums.26 Giotto malte so, wie er die Dinge sah und nicht so, wie er sie interpretierte, der Betrachter erlebte die Heilsgeschichte realistisch mit, eine erste Form der Virtual Reality, wie Margaret Wertheim betont.27 Dem perspektivisch geschulten Blick fällt bei seinen Bildern aber ein Bruch innerhalb der räumlichen Darstellung auf: Während z.B. in dem Bild „Die Vertreibung der Dämonen aus Arezzo“ jedes Gebäude in sich räumlich stimmig ist, zerbricht die Konsistenz untereinander. Der Gesamtraum hängt nicht zusammen, ein Problem, das erst durch die Einführung eines einheitlichen Fluchtpunktes in der Perspektive Albertis gelöst wurde. Auch wirken die Zwischenräume flach und gotisch, was mit Augustinus zusammenhängen kann, der den Blick in den Raum als sündhafte Anmaßung ansah, einen Blick, der nur Gott vorbehalten war. Wolfgang Kemp betont, dass die räumliche Tiefe erst ab dem 15. Jahrhundert als Erzähldimension genutzt wurde, was eine weitere Säkularisierung des Raumes mit sich führte.28

Giottos Vermischung des physikalischen und spirituellen Raums zeigt sich besonders deutlich an seiner Darstellung des Jüngsten Gerichts, wo wieder die mittelalterlichen Darstellungsformen vorherrschen. Die letztendlich wahre Ordnung ist auch bei Giotto der spirituelle Raum. Dennoch legte er die Grundlage für die visuelle Vereinheitlichung des Raums, die auch vorangetrieben wurde durch technische Entwicklungen, Entdeckungsfahrten und zunehmende Perfektionierung der Kartographie. Ebenfalls als weniger sündhaft empfunden wurde der schweifende Blick in den Raum und auf Landschaften, eine Schwelle, die kulturhistorisch durch Petrarcas Brief beim Besteigen des Mount Ventoux markiert wird.29


[Seite 240↓]

Die schwindende Autorität des Aristotelischen Weltbildes paarte sich mit dem wachsenden Selbstbewusstsein der Naturforscher, welche die Fehler der Ptolomäischen Planetenbewegung zu korrigieren hofften. Lieferte dessen Modell auch gute Annährungen, so verschwanden nicht wenige Schiffe mit Ladung bei dem Versuch, nach den Planetenbewegungen zu navigieren. Nikolaus Kopernikus versuchte, ein heliozentrisches Weltbild zu entwerfen, er behielt jedoch die Kreisbewegung der Planeten bei, die er auf geeignete Weise verknüpfte. Seine Kosmologie war nicht weniger kompliziert als die ptolomäische, ermöglichte aber eine erste mathematische Formulierung der Heliozentrik durch Johannes Kepler. Dieser verwarf die Kreisbahn und beschrieb die Planetenbewegung als elliptisch. Doch sollte die Umstürzung des mittelalterlichen Weltbildes mit dem Namen jenes Mannes verknüpft werden, dem mit dem Teleskop ein astronomisches Instrument zur Verfügung stand, mit dem er die theoretischen Berechnungen visuell überprüfen konnte: Galileo Galilei.

Kepler, Galileo, Newton und der Prä-Relativismus

Galileos Untersuchung zum freien Fall führten ihn zu der Annahme, dass die mechanischen Gesetze für jeden Beobachter, der sich mit konstanter Geschwindigkeit auf einer geraden Linie bewegt, gleich bleiben. Galileo bestätigte Keplers Vermutungen bezüglich der Planetenbewegungen durch seine Beobachtung der Jupitermonde, die durch das neue Modell elliptischer Bahnen wesentlich einfacher zu erklären waren als in der Geozentrik. Während Galileo die Kraft, welche die Planeten auf ihren Bahnen hält, noch im Magnetismus vermutete, führte Isaac Newton die Bewegung auf Gravitation zurück und stellte die Kosmologien von Kopernikus, Kepler, Brahe und Galileo auf ein einheitliches mathematische Fundament. Die Bündelung der verschiedenen theoretischen Ansätze wird in der Geschichte der Physik unter der Überschrift „Klassische Mechanik“ zusammen gefasst. Deren Entwicklung war kompliziert und verschlungen, sie ließ sich erst im 19. Jahrhundert einheitlich formulieren.

Newton ging nämlich weiterhin von einem entfernten absoluten Ruhepunkt aus, was ihm die Kritik von Leibniz eintrug, der dafür argumentierte, dass es (in modernen Worten) keine Weltlinie gäbe, die vor anderen ausgezeichnet wäre. Nach Leibniz ist die Wahl eines Koordinatensystems lediglich eine Frage der Einfachheit. Es ist demnach egal, ob sich die Sonne um die Erde dreht oder umgekehrt, die Heliozentrik sei allein deshalb die bessere Wahl, weil sie sich besser berechnen ließe. Die Probleme, die sich aus der Einordnung des Trägheitsgesetzes ergab, wurden 1885 von L. Lange durch die Einführung der Inertialsysteme gelöst, in welchen die Trägheit erhalten bleibt. Verschiedene Inertialsysteme können über die sog. Galileotransformationen ineinander überführt werden, wenn [Seite 241↓] man ohne Beschränkung der Allgemeinheit von einer gleichförmigen Bewegung des Inertialsystems S‘ bezüglich des Inertialsystems S in x-Richtung mit der Geschwindigkeit u ausgeht:

Gleichung 1 : Die Galileo-Transformationen

x‘=x – ut; y‘=y, z‘=z; t‘=t

Die Newtonsche Bewegungsgleichung F = m*a , Kraft ist gleich Masse mal Beschleunigung, Grundlage der klassischen Konzeption von Raum und Zeit, bleibt bei Anwendung der Galileotransformation unverändert, Beschleunigung wird als absolut interpretiert.

Das letztendlich auf Galileo zurückgehendes Prinzip der Relativität von Bewegung beendete die aristotelische Vorstellung des absoluten Raums, weil kein Inertialsystem mehr für sich absolute Ruhe beanspruchen kann. Zeit aber blieb absolut: Die Gleichzeitigkeit zweier Ereignisse wird aus jedem Inertialsystem heraus erkannt, auch der zeitliche Abstand zweier verschiedener Ereignisse ist in jedem Inertialsystem identisch.

Dies gilt auch für die räumliche Entfernung zweier gleichzeitiger Ereignisse zueinander. Die Setzung der absoluten Zeit bei gleichzeitiger Relativierung des Raums kennzeichnet den Prä-Relativismus der klassischen Mechanik.

Der Übergang der Geo- zur Heliozentrik wird oft als traumatisches Erlebnis, als narzisstische Kränkung des Menschen charakterisiert, der sich aus dem Zentrum der Schöpfung verschoben sah. Diese Dezentrierung, wenn auch von der Kirche als Widerspruch gegen traditionelle Überzeugungen als häretisch bewertet, bedeutete allerdings mehr einen Aufstieg als eine Degradierung, denn im aristotelischen und somit im mittelalterlichen Weltbild fiel das Schwere zum Zentrum, während das Leichte nach oben stieg. Die Sünde als Gewicht der Seele drängte die Seele des Sünders nach unten in die Hölle, während die des Bußfertigen aufstieg in die himmlischen Sphären. Das materielle, schwere Zentrum kennzeichnet den spirituell minderwertigsten Ort im Kosmos, so dass die Menschen in der neuen kosmischen Hierarchie besser dastanden als zuvor. Das entscheidende Problem des neuen Kosmos war seine prinzipielle Unendlichkeit: Wenn die physikalischen Gesetze überall gleich sind, gibt es keinen Grund mehr, das Universum als begrenzt anzunehmen. Die Fixsterne füllten den Weltenraum, der physikalische Raum dehnte sich und entzog damit der spirituellen Welt im wörtlichen Sinne den Raum. Der Himmel, Gott und die Engel wurden förmlich aus dem Universum gedrängt.

Newton versuchte, das Problem zu umgehen und rettete seine Religiosität in die neuen Raumverhältnisse, indem er das Universum zum sensorium dei erklärte. Der Philosoph Berkeley verdächtigte Newton daraufhin des Pantheismus, in welchem Gott mit Natur identifiziert wird. Raum, so Berkely, dürfe nur relativ gedacht werden „oder es gäbe andernfalls etwas von Gott [Seite 242↓]verschiedenes, das ewig, ungeschaffen, unendlich, unteilbar und unveränderlich sei. “30 Darüber hinaus beruhte das Postulat eines unendlichen Raumes auf keiner empirischen Tatsache und setze einen quasi-religiösen Glauben in die Naturwissenschaft voraus, eine Tendenz, die sich im 20. Jahrhundert noch erheblich verstärken sollte.

Descartes Versuch, die Seele in säkularisierter Form als res extensa in den Humanismus zu übersetzen, konnte die Auflösung des spirituellen Raums nicht verhindern und gerann im aufstrebenden Empirismus schnell zur Leerformel, zusammen mit der alten spirituellen Ordnung. Das Abendland sah sich im 18. Jahrhundert mit der bis dahin undenkbaren Situation konfrontiert, ein kulturell fest verankertes dualistisches Weltbild einer monistischen, empirischen Weltordnung gegenüberzustellen, „For the first time in history, humanity had produced a purely physical world picture, one in which mind/spirit/soul had no place at all. “31 Eine wesentliche Ursache dieser Krise lag darin begründet, dass die spirituelle Welt jenseits der Sterne im physikalischen Raum angesiedelt wurde. Mit seiner Ausdehnung blieb für den Himmel kein Raum mehr. Robert Romansyshyn verweist in diesem Zusammenhang darauf, dass erst mit der Absolutsetzung des physikalischen, perspektivischen Raums die Entwicklungsbedingungen für die Psychologie gegeben war.32 Die Geister, Engel und Dämonen, denen im neuen Weltbild der Raum entzogen war, wurden in den Menschen hinein verlagert. In Giottos Bild „Die Vertreibung der Dämonen aus Arezzo“ belagern Dämonen die Stadt Arezzo und können von dem heiligen Franziskus an jenen Ort zurückgetrieben werden, wo sie herkommen. In Goyas „Der Schlaf der Vernunft produziert Monster“ sind die Dämonen nach Innen verlegt, wo sie als Alpträume den Schlaf des Vernünftigen heimsuchen. Erst diese Bewegung ermöglicht und erfordert die Ausprägung einer neuen Wissens-Disziplin, um die Heimsuchungen begrifflich und methodisch zu fassen: die Psychologie, welche z.B. an der Humboldt-Universität zu Berlin noch heute zur mathematisch-naturwissenschaftlichen Fakultät gerechnet wird.

Dennoch hat die Wissenschaft es bis heute nicht geschafft, die spirituelle Leere auszufüllen, die sie hinterlassen hat, weswegen viele Menschen sich von ihr abkehren und ihre Wahrheiten woanders suchen, z.B. im Cyberspace.33

Einstein und die Relativität

Im Jahr 1864 vereinte J. C. Maxwell die elektromagnetisch-optischen Entdeckungen der [Seite 243↓] vorangegangenen Jahrhunderte und erforschte das Licht als elektromagnetische Welle. Schon bald stellte sich heraus, dass die Maxwellschen Gleichungen der Elektrodynamik mit der Newtonschen Mechanik in ihrer Formulierung der Galileo-Transformationen unvereinbar waren. Zur Rettung beider Theorien führte man als ad hoc-Hypothese die Vorstellung eines Äthers ein, der als ruhendes Bezugssystem den materiellen Träger der Lichtwellen darstellt. Dieses seit 1881 regelmäßig durchgeführte Experiment von Michelson und Morley sollte die Existenz des Äthers in Bezug auf die Erdbewegung nachweisen: Ein Lichtstrahl wird an einem Halbspiegel geteilt, in Richtung des angenommen Äthers sowie rechtwinklig dazu abgestrahlt. Zwei Spiegel in gleicher Entfernung vom Teilungspunkt reflektieren beide Lichtstrahlen, so dass nach ihrem erneuten Zusammentreffen aus Interferenzmustern auf die Geschwindigkeit der Messapparatur und mit ihr auf die der Erde relativ zum Äther geschlossen werden sollte.

Die erwarteten Interferenzen zeigten sich jedoch nicht, was H. A. Lorentz zu der Vermutung veranlasste, bei hohen Geschwindigkeiten komme es zu einer Längenkontraktion des Messstabs relativ zum Äther um den Faktor

Diese Annahme löste das Problem zwar mathematisch, stützte sich dabei aber auf das Einwirken von Kräften auf den Messstab, die nicht erklärbar waren.

A. Einstein hingegen setzte sich für ein gemeinsames Relativitätsprinzip von Mechanik und Elek­trodynamik ein und weigerte sich, das ausgezeichnete Inertialsystem des Äthers anzunehmen. Vielmehr postulierte er die absolute Konstanz der Lichtgeschwindigkeit in allen Trägheitssystemen. Die Schlussfolgerungen aus dieser Annahme waren radikal: Wird aus einem fahrenden Zug in Fahrtrichtung ein Lichtstrahl abgeschickt, so addiert sich die Fahrtgeschwindigkeit des Zugs nicht zur Geschwindigkeit des Lichtstrahls. Ist die Geschwindigkeit des Lichtstrahls in beiden Bezugssystemen die gleiche, so bedeutet dies, dass die Uhr im Zug, mit der die Geschwindigkeit gemessen wird, langsamer laufen muss als die Uhr auf dem Boden. Mit anderen Worten: Zeit verläuft relativ zum Bezugssystem, sie ist keine konstante Größe. Die von Lorentz gesetzte Transformation beschreibt damit nicht eine unbegründbare Längenkontraktion bezüglich eines ruhenden Äthers, sondern die Struktur der Raumzeit. Ähnlich wie mechanische Inertialsysteme durch die Galileo-Transformation ineinander überführt werden konnten, stellten sich die Maxwell-Gleichungen als forminvariant heraus gegenüber der Lorentz-Transformation:

Gleichung 2 : Die Lorentz-Transformation


[Seite 244↓]

Ist die Geschwindigkeit v deutlich kleiner als c , so geht die Lorentz-Transformation in die oben angeführte Galileo-Transformation über. Die klassische Mechanik erweist sich somit als angenäherter Spezialfall der Lorentz-Transformationen für kleine Relativgeschwindigkeiten. Diese sauber formulierbare Theoriegeschichte, in der zwei widersprüchliche Theorien in einer dritten aufgehoben werden, also bewahrt, aufgelöst und in abstraktere Höhen erhoben, ist ein viel zitiertes Musterbeispiel für Thomas Kuhns Konzept des Paradigmawechsels, das die Struktur wissenschaftlicher Entwicklungen als Serie revolutionärer Umbrüche zeichnet.34

Die Vorstellung eines absoluten Raumes und einer getrennten Zeit, die den Weltlinien bislang zugrunde lag, wurde in der erweiterten Theorie aufgegeben und zu einer vierdimensionalen Raumzeit zusammen gefasst, eine Leistung, die auf H. Minkowski zurückgeht: “Von Stund an sollen Raum für sich und Zeit für sich völlig zu Schatten herabsinken, und nur noch eine Art Union der beiden soll Selbständigkeit bewahren. “35 Mit der Lichtgeschwindigkeit als absolute Grenze ist die Weltlinie, also Zukunft und Vergangenheit, eines Ereignisses E nur noch innerhalb eines Kegels zu suchen, den ein von E ausgehender Lichtstrahl in der Raumzeit aufspannt. Es gibt Ereignisse, die weder zur Vergangenheit noch zur Zukunft von E gehören. Kausalität wirkt nicht mehr von einer beliebigen Vergangenheit in jede Zukunft, sondern ist ebenfalls in den Lichtkegel gebunden. Die Gleichzeitigkeit zweier Ereignisse ist nur noch relativ zu einem Beobachter festzustellen.

Eine direkte Konsequenz der neuen Raumzeit ist das Zwillingsparadoxon:

Abb. 24 : Das Zwillingsparadoxon

Fliegt von einem Zwillingspaar einer der beiden mit einem Raumschiff nahe der Lichtgeschwindigkeit geradlinig in eine Richtung SR und kehrt danach zum Ausgangspunkt zurück, ist sein am Ausgangspunkt verbliebener Bruder älter als er. Die Verbindung der Weltlinien von S nach P dauert in der 4-dimensionalen Raumzeit länger als die Wege SR und RP , was darin begründet ist, dass die Zeit mit wachsender Geschwindigkeit langsamer läuft. Diese Folgerung wird experimentell durch die Lebensdauer von Myonen bestätigt, die sich relativ zur Erde nahe der Lichtgeschwindigkeit bewegen und somit deutlich länger stabil bleiben, als im Ruhezustand (relativ zur Erde).


[Seite 245↓]

Einsteins spezielle Relativitätstheorie bricht mit der Anschauung und trennt die mathematische Physik endgültig vom interessierten Laien, der ihre Ergebnisse nur noch mit Erstaunen nachvollziehen kann. Die vierdimensionale Struktur der Raumzeit, in der Raum und Zeit untrennbar verknüpft sind, ist mathematisch zwar beschreibbar, aber nur noch in Analogien zu veranschaulichen. Dies ist auch der Weg, den ich im Folgenden beschreiten werde, wenn ich lediglich Veranschaulichungen anführe, mit denen die Physik des 20. Jahrhunderts dem populärwissenschaftliche Bedürfnis nach Erklärung entgegenkommt.36

Die abstrakte Raumzeit der speziellen und der allgemeinen Relativitätstheorie stieß zunächst noch auf Widerstand und löste eine heftige Weltanschauungsdiskussion aus, an der sich neben Albert Einstein u.a. Henri Bergson, Werner Heisenberg, Moritz Schlick, Hermann Weyl, Hans Reichenbach und Ernst Cassirer beteiligten. Der französische Philosoph Henri Bergson kritisierte in seinem 1922 veröffentlichten Buch „Durée et Simultanéité“ Einsteins neue Raumzeit mit dem Selbstverständnis des Philosophen als letzte naturphilosophische Begründungsinstanz. Er wies auf zeitliche Strukturen hin, die Einstein übersehen hätte. Doch die Physik hatte den Kampf um die Definitionsmacht der physikalischen Struktur des Raumzeit gewonnen, Bergson musste mit dem Vorwurf leben, die Relativitätstheorie nicht hinreichend verstanden zu haben.37

Ernst Cassirer diskutierte den Konflikt um das Erkenntnisprimat zwischen Philosophie und Physik in seinem Aufsatz „Zur Einsteinschen Relativitätstheorie“. Er kommt dabei zu dem (di­plomatischen) Schluss, keine symbolische Form könne vollständige Erkenntnis für sich beanspruchen:

Die Frage aber, welche von beiden Raum- und Zeitformen, die psychologische oder die physikalische, die Raum- und Zeitform des unmittelbaren Erlebens oder die des mittelbaren Begreifens und Erkennens, denn nun die wahre Wirklichkeit ausdrückt und in sich fasst, hat für uns im Grunde jeden bestimmten Sinn verloren.38

Eine „kritische Erkenntnistheorie “39 kann zwischen Physik und Bergsons Philosophie keine normative Entscheidung treffen, „beide Gesichtspunkte lassen sich im idealistischen Sinne und in ihrer Notwendigkeit verstehen: – keiner reicht für sich aus, das tatsächliche Ganze des Seins im idealistischen Sinne, als ‚Sein für uns‘ zu umfassen. “40

Die Relativitätstheorie traf einen Nerv der Zeit:


[Seite 246↓]

In der Tat wurde Einsteins relativistische Revision der klassischen Raum-Zeit Auffassung von vielen Menschen nach dem 1. Weltkrieg als Zusammenbruch einer alten Welt mit absoluten Maßstäben empfunden: ‚Alles ist relativ‘ war ein beliebtes Schlagwort in einer Epoche sich auflösender Wertvorstellungen und mag ideologisch für eine größere Akzeptanz der Einsteinschen Theorie bei den einen oder gesteigerte Reserve und Ablehnung bei den anderen gesorgt haben.41

Die Kernaussage der Relativitätstheorie wurde in verschiedene Diskurse übersetzt und eingegliedert, so gut es möglich war. Der Theologe H. Vortisch schrieb: „Naturgesetze sind uns nicht von Gott geoffenbart; sie haben keinen absoluten Wert, sondern sind der Relativität unterworfen, so gut wie die anderen irdischen Dinge. “42

Die spezielle Relativitätstheorie legte die Grundlage für immer abenteuerlichere Vorstellungen über Entstehung und Beschaffenheit des Kosmos. In der allgemeinen Relativitätstheorie formulierte Einstein die Idee eines in der 4-dimensionalen Raumzeit gekrümmten Universums. Der Astronom Edwin Hubble schloss 1929 aus der Rotverschiebung beobachteter Sonnensysteme auf ein expandierendes Universum, das notwendigerweise auch einen Anfang hatte, den Urknall oder Big-Bang , wie ihn der Nuklearphysiker George Gamow 1946 bezeichnete. Wechselweise ging man von einem expandierenden, zyklisch kontraktierenden oder stabilen Universum aus. Die Berechnung seines Alters hängt mit der angenommenen Expansionsgeschwindigkeit zusammen, der Hubble-Konstante H0 . Verschiedene Forscher nehmen Werte für H0 zwischen 50 und 80 an, wodurch der Big Bang auf 10 Mrd. bis 16 Mrd. Jahre zurückgeschätzt wird.

Die Raumzeit ist durchsetzt mit Gravitationssingularitäten, den Schwarzen Löchern. Aus der mathematischen Lösung der Einsteinschen Feldgleichung der Gravitation zeigte Roger Penrose 1965, dass ein Stern, der unter der eigenen Masse kollabiert, zu einem Punkt mit unendlicher Dichte und unendlicher Krümmung der Raumzeit zusammenfällt. Raumzeitsingularitäten können untereinander durch Wurmlöcher verbunden sein, welche 1935 von Albert Einstein und Nathan Rosen vorgeschlagen wurden und als Einstein-Rosen-Brücken berechenbar sind. Sie sind extrem instabil, doch sollen in ihnen auch Zeitreisen möglich sein.

Ein weiteres Abenteuer der modernen Physik ist die seit Ende der sechziger Jahre entwickelte String-Theorie. Sie geht von 7- bis 11-dimensionalen Grundbausteinen der Materie aus, deren Extradimensionen in der Größenordnung 10-33 zusammengerollt sind.43 Die Stringtheorie verspricht, die Relativitätstheorie mit der Quantenmechanik zu vereinen und die von der Physik wie die blaue Blume ersehnte Weltformel zu liefern, aus der alle Naturgesetze ableitbar sein sollen.

Schon an diesem kurzen Marsch durch die Kulturgeschichte des Raums, seiner Beschreibung und [Seite 247↓] Wahrnehmung wird deutlich, dass die wissenschaftliche Beschreibung des Raums mit der Stringtheorie einen bisher unerreichten Abstraktionsgrad erreicht hat.

Mit der Mathematisierung des Raumes geht einher die Trennung des erlebten vom erklärten Raum, die Physik trennt die Modelle der Welt von subjektiver Erfahrung. Spätestens die Relativitätstheorie stellt sich mit ihren berühmten Paradoxien explizit gegen die Anschauung, beansprucht aber das Erklärungsmonopol für die Erschließung der Raumzeit in technischen Zusammenhängen. Beispielsweise rechnet das Satellitennavigationssystem Global Positioning System (GPS) zur Positionsbestimmung mit Modellen der allgemeinen Relativitätstheorie und kommt auf Messgenauigkeiten von wenigen Metern.

Mit dem alltäglichen Raumempfinden des Menschen hat die naturwissenschaftliche Beschreibung nichts mehr gemeinsam. Dennoch oder gerade wegen der kontraintuitiven Modelle moderner Physik ist es hier notwendig, auf ein alternatives Raumkonzept auszuweichen, das der mentalitätshistorischen Zielsetzung dieser Arbeit stärker entgegenkommt. Cassirer war sicherlich nicht der Erste, der angesichts des wissenschaftlichen Materialismus zur Aufmerksamkeit aufrief, wichtige Aspekte des Seins nicht aus den Augen zu verlieren. Wie alle naturwissenschaftlichen Theorien sind auch die physikalischen Modelle der Raumzeit in ihr kulturelles Umfeld eingebettet, und auch die seit den siebziger Jahren entwickelte Theorie eines durch Wurmlöcher in sich vernetzten Raumes ließe sich zwanglos der Entfaltung eines kulturellen Paradigmas der Vernetzung zurechnen und zur Stärkung meiner Argumentation hinzuziehen. Doch würde mich eine detaillierte Untersuchung zeitgenössischer physikalischer Theorien zu weit vom Weg abbringen, so das an dieser Stelle darauf verzichtet werden muss.

Für die Beschreibung subjektiver, und das heißt immer auch kulturell geprägter Raumwahrnehmung erscheint die Physik ungeeigneter denn je. Wenn im Weiteren also von der Transformation des Raums die Rede ist, bezieht es sich nicht auf den „erzstabilen Raumkoffer “, wie Bloch die letztlich auf Galileo und Newton zurückgehende Vorstellung bezeichnete, Raum sei lediglich Behältnis für Gegenstände. Vielmehr geht es um eine Wahrnehmung des Raums in seinen unterschiedlichen Qualitäten als Hindernis oder Verbindung, mit räumlichen Elementarkategorien wie ‚Nähe’, ‚Distanz’, ‚Zentrum’, ‚Peripherie’, ‚Entfernung’ sowie Raumunterteilungen unterschiedlicher Qualität wie ‚Ort’, ‚Platz’, ‚Nutzung’, ‚Funktion’ etc.

Zur Phänomenologie des Raumes

Ohne auf eine weitschweifende Diskussion über Grundlagen, Methodik und Wesen der Phänomenologie eingehen zu wollen, lässt diese sich umschreiben als „Methode, die die Lebenswelt [Seite 248↓]des Menschen unmittelbar durch ‚ganzheitliche’ Interpretation alltäglicher Situationen versteht. “44 Der französische Existenzialphänomenologe Maurice Merlau-Ponty versteht Phänomenologie als „Versuch einer direkten Beschreibung aller Erfahrung, so wie sie ist, ohne Rücksicht auf Probleme genetischer Psychologie oder Kausalerklärungen, wie sie Naturwissenschaft, Geschichte oder Soziologie zu bieten vermögen. “45

Phänomenologie ist somit eine Methode, welche individuelle Erfahrung ernst nimmt und Erkenntnis nicht mehr mit naturwissenschaftlich-objektivierbarer Erkenntnis gleichzusetzen versucht: Ich kann meine Erfahrung in gewissem Grad verallgemeinern, wenn ich individuelle Randbedingungen und Voraussetzungen einzuklammern bereit bin. Selbst wenn man Husserls Anspruch nicht folgt, mit Hilfe der Phänomenologie zum Wesen der Dinge vorzudringen, bleibt eine Methode, mit deren Hilfe Gewinn bringende Beschreibungen von Phänomenen erreichbar sind, weil sie das Subjekt und dessen Erfahrungen in den Mittelpunkt stellen. Denn schon von Beginn an versteht die Phänomenologie sich als deskriptiv „Es gilt zu beschreiben, nicht zu analysieren und zu erklären. “46 Der Preis, den man beim Verzicht auf einen Essentialismus zu zahlen bereit sein muss, ist die Eindeutigkeit, die intersubjektive Verbindlichkeit der Beschreibung. Das heißt auch, dass unter möglichen Varianten diejenige auszuwählen ist, welche aufgrund des verwendeten Vokabulars für den jeweilige Ansatz opportun erscheint. Eine phänomenologische Beschreibung berücksichtigt damit den historischen und ideologischen Kontext, in dem sie entworfen wird, sie beansprucht keine zeitlose Gültigkeit, sondern setzt vom Adressaten das Grundverständnis eines gemeinsamen Verständnishorizont voraus. Für meine Frage nach Zusammenhängen von Raumerlebnis und Internetnutzung muss ich daher technische Infrastrukturen und Netze bereits in der phänomenologischen Beschreibung berücksichtigen. Zunächst gilt es aber, Raum als erlebten Raum in den Blick zu nehmen.

Eine phänomenologische Annäherung versteht Raum als Möglichkeitsbedingung von Bewegung:

In almost all instances, and perhaps most irreducibly, space presents itself to us in the freedom of move, a freedom we „know“ from the moment of birth.47

Dieser Bestimmung enthält noch eine weitere wichtige Beobachtung, die Tatsache nämlich, dass das Erlebnis von Raum an Leiblichkeit gebunden ist. Die Erfahrung des Raums ist nicht die eines Subjekts, das zunächst raumlos dem Raum als objektiver Tatsache gegenübertritt und sich dazu verhält. Den phänomenologischen Raum gibt es nur,


[Seite 249↓]

insofern der Mensch ein räumliches, d.h. Raum bildendes und gleichsam um sich aufspannendes Wesen ist. [...] Als dieses Raum bildende und Raum aufspannende Wesen ist der Mensch aber notwendig nicht nur der Ursprung sondern zugleich die bleibende Mitte seines Raums.48

Der Mensch gliedert als Urheber und Mittelpunkt seines Raumes diesen in Orte und Plätze unterschiedlicher Qualität und Beziehung. Über die Erfahrung der Bewegung lassen sich räumliche Kategorien begreifen, wie ‚Entfernung’, ‚Nähe’, ‚offen’, ‚geschlossen’, ‚oben’, ‚unten’, ‚Zentrum’, ‚Peripherie’ etc.

Eine vollständige Untersuchung der Raum schaffenden und modifizierenden Kraft eines Kommunikationsnetzes müsste ihre Fragen an alle Kategorien und Aspekte des räumlichen Lebens und Erlebens richten, eine Aufgabe, die an dieser Stelle nicht geleistet werden kann. Vielmehr greife ich exemplarisch die Dichotomie von ‚Zentrum’ und ‚Peripherie’ heraus. Hierzu werden im folgenden Abschnitt die Begriffe eingeführt, die zur anschließenden Beschreibung nötig sind.

Ein Medium verbindet disparate Orte zu einem gemeinsamen Raum, die trennende Funktion der Entfernung zwischen den Orten wird zumindest partiell außer Kraft gesetzt. Was vorher getrennt war, rückt für die Dauer der Kommunikation zusammen. Es ist diese Verbindung, die als Überwindung oder Vernichtung des Raums erlebt wird. McLuhans Metapher des „global village“ greift den Eindruck des Zusammenziehens von disparaten Orten zu einem gemeinsamen Raum auf. Vernichtet wird der Raum insofern, als dass Entfernungen nicht länger als Hindernis empfunden werden, weil raumzeitliche Einschränkungen entfallen.

Doch ist der Abbau dieser Hindernisse immer nur partiell, was an der multifunktionalen Nutzungsmöglichkeit des Raums liegt. Der wahrgenommene Raum, wie ihn die Phänomenologie beschreibt, ist nicht Raum an sich, sondern immer Raum bezüglich einer Intention. Jede Handlung, jede Bewegung wird in Raum und Zeit verrichtet. Bezüglich zweier unterschiedlicher Handlungen stellt die Raumzeit sich unterschiedlich dar, je nachdem, wie stark sie dem Handelnden z.B. als Hindernis entgegensteht. Die erwähnten raumzeitlichen Einschränkungen bestehen darin, dass der Handelnde für die Dauer der Handlung an dem Ort anwesend sein muss, an dem er sie ausführen möchte. Ist dies aus irgendwelchen Gründen nicht möglich, wird der Raum als Hindernis empfunden, welches die Handlungsintention von ihrer Konkretisierung abhält.

Die Geschichte der Netze dokumentiert auch die Geschichte des Versuchs, raumzeitliche Einschränkungen zu überwinden, um Handlungen von den Einschränkungen der Anwesenheit zu befreien. Dazu wird entweder das Handlungssubjekt an den Ort seiner Handlungsobjekte transportiert (Transportnetze), die Handlungsobjekte zum Handlungssubjekt befördert (Versorgungsnetze) oder die Handlungsintention von ihrer Manifestation, der Handelnde räumlich [Seite 250↓] und zeitlich von seiner Handlungen getrennt (z.B. bei der Delegation von Handlung mit Hilfe eines Kommunikationsnetzes). Jedes Netz wurde als Überwinder oder Vernichter des Raums begrüßt oder bedauert. Wenngleich ‚Vernichtung’ als Term zu stark ist, lässt sich doch von ‚Transformation’ sprechen, phänomenologisch wird der Transport durch die Raumzeit mit Hilfe von Energie in einen Transport durch die Zeit umgewandelt. Energie ist erforderlich, um das Transportmittel zu bewegen, welches seinerseits das Transportgut befördert. Wenn ich mit dem Zug von Berlin nach München fahre, kaufe ich Energie, welche den Zug bewegt, der mich transportiert. Obwohl mir die Tatsache meines Transports bewusst ist, spüre ich nichts von den Anstrengungen, die mit der Fortbewegung aus eigener Kraft verbunden wären. Der Zug ist ein Inertialsystem, in dem ich mich, außer beim Ein- und Aussteigen im Bahnhof, als sein Insasse in Ruhe befinde. Bewegung wird zu einem kognitiven Prozess, ich weiß, dass ich Raum überwinde, erlebe es aber nicht am eigenen Leib. Die notwendigen Anstrengungen, welche die Bewegung und damit den Raum körperlich erfahrbar machen, entfallen bzw. werden von der Transportmaschine übernommen. Raum als erlebter und gelebter Raum (Bollnow) konstituiert sich nicht beim Transport. Aus meiner Sicht gehe ich von einem Ort durch eine Tür in den Raum des Abteils, warte dort eine bestimmte Zeit, die ich mit Lesen, Schlafen oder Gesprächen verbringen kann, um im Anschluss durch die gleiche Tür an einen völlig anderen Ort zu gelangen. Der Raum, den ich ohne technische Hilfe hätte durchschreiten müssen, wird zu dem Raum des Abteils zusammengezogen, in dem meine Bewegungen nur noch sehr eingeschränkt möglich sind. Der Sinn dieser Kontraktion ist der Gewinn von Zeit und persönlicher Energie durch höheren Einsatz von technischer Energie.

Zeit und Energie verhalten sich dabei gegenproportional, je schneller der Transport, desto mehr Energie ist erforderlich, die ihrerseits monetär gemessen wird. Die Entfernung zwischen zwei Orten errechnet sich daher nicht mehr in Metern sondern in Minuten und Kosten. Je mehr Geld ich auszugeben bereit bin, desto schneller ist der Transport.

Transport- und Versorgungsnetze transformieren Raumzeit in Energie und Zeit unter Kontraktion des erlebten Raums. Raum wird transformiert, nicht vernichtet. Der Unterschied hat zumindest drei Konsequenzen. Da erstens die Transformation Energie und damit Geld kostet, ist sie vom Zugang zu monetären Ressourcen abhängig. Nicht jeder kann sich einen Flug von Berlin nach München leisten. Zweitens ist der Transformationsaufwand häufig größer als der Handlungsnutzen, so dass der Transport der Handlungssubjekte oder -objekte nicht in Kauf genommen wird. Nur wenige würden von Berlin nach München fahren, um z.B. einkaufen zu gehen. Zum dritten setzt die Nutzung eines Transportnetzes die Kenntnis des Ziels voraus, es kann die Einschränkungen räumlicher Trennung also nur für die Handlungen umgehen, welche an einen bestimmten Ort gebunden sind, der dem Handlungssubjekt darüber hinaus bekannt ist.

Eine Transformation kommt also nur für Handlungen in Frage, wenn das nötige Geld vorhanden [Seite 251↓] ist, der Aufwand sich lohnt und die Handlungsorte bekannt sind. Diese Bedingungen sind längst nicht für alle Handlungen erfüllt. Insbesondere für kommunikative Handlungen ist ein Transport der Kommunikationspartner an einen gemeinsamen Ort häufig zu aufwändig. Kommunikationsnetze helfen zwar auch hier, raumzeitliche Trennung zu überwinden. Doch für viele Handlungen ist ein Transport zum Handlungsort auch weiterhin unerlässlich. Orte, die häufig aufgesucht werden, bekommen so eine besondere Bedeutung und entwickeln sich zu Zentren. Der zentrierte Raum organisiert sich um zentrale Orte herum und so wie Raum immer Raum für bestimmte Handlungen ist, so sind die Zentren immer zentral für einen bestimmten Zweck.

Raumtopologie: Zentrale Orte

Bevor leichtfertig die gesamten kulturhistorisch gewachsenen Raumvorstellungen über Bord geworfen werden und der Raum für obsolet erklärt wird, sollte die Frage beantwortet werden, wie der Raum konkret von der Vernetzung betroffen ist, wo er sich als resistent erweist und welche neuen Strukturen sich herausbilden. Dabei wird deutlich, dass eine vernetzte Raumzeit, wie sie als Gegenpol zur hierarchischen vorgestellt wird, vorhandene Raumvorstellungen nicht einfach ablöst, sondern ergänzt und verschiebt.

Vernetzte Raumzeit bedeutet zunächst die Vernetzung von Räumen, eine Aufgabe, für die seit tausenden von Jahren Transport-, Versorgungs- und Kommunikationsnetze gebaut, erweitert, verbessert, aber auch angegriffen, besetzt und zerstört werden. In diesen Netzen bilden sich zentrale Orte heraus.

Die innerhalb der Sozialgeographie angesiedelte Zentralitätsforschung untersucht Entstehung und Funktion dieser zentralen Orte. Ihr Begründer, Walter Christaller, veröffentlichte 1933 sein Hauptwerk, „Die zentralen Orte in Süddeutschland. Eine ökonomisch-geographische Untersuchung über die Gesetzmäßigkeiten der Verbreitung und Entwicklung der Siedlungen mit städtischen Funktionen. “, worin er eine deduktiv-quantitative Methode zur begrifflichen und empirischen Bestimmung zentraler Orte vorstellte. Seine Theorie ist bis heute wegweisend, wenngleich ihre Voraussetzungen zu restriktiv sind. Christaller geht davon aus, dass Zentren sich allein aufgrund des marktökonomischen Prinzips von Angebot und Nachfrage bilden. Jeder Anbieter kann die Nachfrage eines kreisförmigen Einzugsgebietes abdecken. Der Radius des Kreises ist gegenproportional zur Stärke der Nachfrage. Christallers Voraussetzungen bezüglich der Homogenität der Waren und dem ökonomischen Verhalten der Beteiligten lauten:49

Um Angebotsüberlappungen zu vermeiden, die Nachfrage aber optimal zu decken, siedeln sich Anbieter in der Ebene gleichmäßig an, wobei hexagonale Ergänzungsgebiete gleicher Größe entstehen. Je größer das Ergänzungsgebiet, d.h. der Marktbereich eines zentralen Ortes, desto höher die Zentralität des Ortes. Aufgrund unterschiedlicher Bedarfslagen bildet sich so ein überlagertes Netz von Orten unterschiedlicher Zentralitätsstufen. Abb. 25 erläutert den Sachverhalt:50

Abb. 25 : Zentrale Orte.

„Jedes Gut (hier A, B, C) hat seine eigene Reichweite Je größer die notwendige Nachfrage nach einem Gut ist, und umso größer die untere Grenze der Reichweite diese [sic.] Gutes ist, desto höher ist die Zentralität diese [sic.] Gutes. So hat ein Fahrradgeschäft (z.B. A) eine höhere Zentralität als eine Bäckerei (z.B. C). Die Dienstleistung einer Hochschule (z.B. A) eine höhere Zentralität als die Dienstleistung einer Berufsschule (z.B. B) die wiederum eine höhere Zentralität wie Poststellen (z.B. C) aufweist.“

Zentrale Orte stufen sich in geordneten Größenklassen ab, den Zentralitätsstufen. Neben der Standortfrage von Dienstleistungsbetrieben, also des tertiären Marktsektors, versuchte Christaller, die Verteilung unterschiedlich großer Siedlungen zu erklären und regelmäßige Strukturen zu [Seite 253↓] entdecken.

Er unterschied in seiner Untersuchung über Süddeutschland sieben Zentralitätsstufen von Städten. Die Einwohnerzahlen lagen zwischen 800 Einwohner für Marktorte (M) bis 500.000 Einwohnern für Landstädte (L). Die so gezeichnete Karte (Abb. 26 ), bestehend aus überlagerten hexagonalen Netzen, lässt sich gut mit seinen theoretischen Annahmen in Übereinstimmung bringen.

Abb. 26 : Zentrale Orte in Süddeutschland.
Quelle (Stand: 8.7.2002): http://userpage.fu-berlin.de/~bressler/geoskript/lanu2.htm

Zusammenfassend lassen sich laut Christaller folgende Merkmale zentraler Orte formulieren:

Christallers Theorie wurde vor allem in den 50er und 60er Jahren bei strukturpolitischen Entscheidungen eingesetzt. Doch auch Kritik wurde früh geäußert: Die Homogenitätsannahme ist ebenso wie die eines homo oeconomicus als handelnde Wirtschaftssubjekte zu restriktiv. Über die Ansiedlung von Anbietern entscheiden nicht ausschließlich die Nachfrage, sondern auch andere Faktoren, wie die Nähe zu Produktionsfaktoren oder Standortvorteile (z.B. Steuereinsparungen).


[Seite 254↓]

Dennoch kann das theoretische Gerüst eingeschränkt für meine Zwecke fruchtbar gemacht werden, hierbei beschränke ich mich auf die erste Funktion der Theorie, welche die Standortverteilung von Dienstleistungsbetrieben modelliert. Der Fokus des Interesses liegt also nicht auf der Makroebene der Stadtplanung, sondern auf der Ebene der Standortaufteilung für bestimmte Dienstleistungsunternehmen.

In vergleichender Betrachtung mit dem Internet als Informations- und Kommunikationsmedium interessieren mich hier vor allem die räumliche Verteilung von Daten-, Informations- und Wissensdienstleistern, wobei sich eine Strukturierung in Standorte unterschiedlicher Zentralität anbietet. Zunächst aber müssen weitere Begriffe vorgestellt werden.

Raumordnung und Handlung

Raum und Handlungen prägen sich wechselseitig. Handlungen werden durch Raumzeit insofern strukturiert, als dass sie an bestimmte Orte und Zeiten gebunden sind. Zur Produktion von Halbleiterchips sind hoch spezialisierte Fabriken erforderlich. Messungen bedürfen Instrumente, Messpunkte und -zeiten; für die Recherche in einem Bibliothekskatalog muss die Bibliothek zu festen Öffnungszeiten aufgesucht werden, in welcher der Katalog steht; um eine Fahrkarte zu kaufen, muss eine Bahnhofsschalter oder ein Reisebüro konsultiert werden etc. Die Kernaktivitäten eines Ortes, d.h. alle Aktivitäten, die an einem Ort möglich sind bzw. für die er konstruiert wird, strukturieren ihrerseits Raum und Zeit, sie definieren Zentrum und Peripherie. Nach der Zentralitätsforschung haben die Orte der Aktivitäten eine bestimmte Reichweite, ein Ergänzungsgebiet, aus welchem Menschen bereit sind, den Transport zu dem Ort auf sich zu nehmen, um die geplante Handlung auszuführen. Der Ort selber ist bezüglich seiner Kernaktivitäten zentral und definiert seine Peripherie in Abhängigkeit des Radius der Entfernung. Wichtig ist dabei die Anmerkung, dass ein Ort niemals Zentrum an sich ist, sondern zentral lediglich für seine Kernaktivitäten. Für andere Tätigkeiten mag er peripher sein. Zwar versuchen Stadtzentren, möglichst viele zentrale Orte zu bündeln, um somit selber an Zentralität zu gewinnen, dennoch bedürfen räumliche Kategorien wie ‚nah’, ‚fern’, ‚zentral’ oder ‚peripher’ die Angabe eines Zweckes: nah, fern, zentral oder peripher für welche Tätigkeit, für welchen Zweck? Die Struktur des Raums ist ebenso wenig zweckfrei wie die Überwindung räumlicher Entfernungen durch Transport.

Netze verschieben diese Struktur, indem sie die Entfernungen nicht mehr durch Strecken, gemessen in Metern, sondern durch ihre Flussstärke definieren. Wolfgang Schivelbusch hat in seiner „Geschichte der Eisenbahnreise“ gezeigt, wie ein Transportnetz das Verhältnis der Reisenden zu Raum und Zeit neu definiert hat:

Vernichtung von Raum und Zeit, so lautete der Topos, mit dem das frühe 19. Jahrhundert die Wirkung der Eisenbahn beschreibt. Diese Vorstellung basiert auf der Geschwindigkeit, die das neue Verkehrsmittel erreicht. Eine gegebene räumliche [Seite 255↓] Entfernung, für deren Überwindung traditionell ein bestimmtes Maß an Reise- oder Transportzeit aufzuwenden war, ist mit einemmal in einem Bruchteil dieser Zeit zu bewältigen, oder anders ausgedrückt, in derselben Zeit kann nun ein Mehrfaches der alten räumlichen Entfernung zurückgelegt werden. Verkehrsökonomisch bedeutet dies eine Verkleinerung des Raumes.51

Der Topos der Raumzeitvernichtung begleitete auch die Entwicklung des Internet spätestens seit den neunziger Jahren. Doch wie bei jedem Netz bezieht sich der Sieg über Raumzeit nur auf bestimmte Aspekte, die mit den Netznutzungsmöglichkeiten zusammenhängen. Ein Transportnetz befördert Menschen und Güter, die an den Netzknoten in Handlungszusammenhänge, z.B. in Produktionsprozesse oder Dienstleistungen, eingebunden werden können. Die Verringerung von Transportzeit durch die Eisenbahn und, noch extremer, durch Personenflugverkehr, lässt wichtige Verkehrsknotenpunkte zu Zentren erblühen, weil sie ihr Ergänzungsgebiet entsprechend vergrößern. Unzureichend oder überhaupt nicht angeschlossene Orte sinken dagegen zu bedeutungsloser Peripherie herab.

Die historisch-geographische Geschichte der Stadtentwicklung zeigt, dass Siedlungen immer an Knoten von Transport- und Versorgungsnetzen gegründet wurden und mit der Bedeutung des Netzes und des Knoten wuchsen.52 Die römische Stadt in Mitteleuropa entwickelte sich aus militärischen Siedlungen und lag daher an wichtigen römischen Heerstrassen, in Deutschland entlang des Rhein- und Donaulaufs. Frühmittelalterliche Städte entwickelten sich entweder aus befestigten Königshöfen, aus Dom- und Klosterburgen oder aus kaufmännischen Siedlungen ebenfalls entlang der Heer- und Handelsstrassen. Die Einführung des Marktrechts ließ Städte zu ökonomischen Zentren erblühen, mit dem Markt im Stadtmittelpunkt. Klein- und Zwergstädten (mit einer Fläche unter 20 ha) dienten territorialer Grenzsicherung, konnten aufgrund ihrer Lage abseits der Verkehrsnetze aber keine Bedeutung entfalten. Die Industriestädte deckten mit Arbeitersiedlungen ihren Bedarf an Arbeitskräften in der Nähe der Produktionsstätten.

Der Zusammenhang von Netz- und Raumentwicklung ergibt sich aus der Bedeutung ökonomischen Wachstums, das an Produktion gebunden ist. Je einfacher der Zugriff auf Produktionsstätten und Produktionsfaktoren, desto größer das Wachstumspotential und umgekehrt. Ausbau und Entwicklung der Transport- und Versorgungsnetze bestimmten in den auf landwirtschaftlicher und industrieller Produktion basierenden Gesellschaftsformen die Unterteilung des Raums in zentrale und periphere Orte, immer in Bezug auf die Kerntätigkeiten der Verarbeitung von Rohstoffen durch Menschen.

Die Bedeutung der Kommunikationsnetze in Produktionsprozessen wächst mit der Trennung von Produzent und Produktionsstätte sowie der Verlagerung von materieller zu immaterieller [Seite 256↓] Produktion. Nicholas Negroponte nennt dies den „Wechsel von Atomen zu Bits. “53 Ein digitales Informationsnetz wie das Internet transportiert keine Atome in Form von Waren, sonder Bits. Die Umstrukturierung der Raumzeit durch dieses Netz bezieht sich daher nicht auf den simplifizierten oder modifizierten Zugang von Menschen zu Produktionsstätten und -faktoren, sondern auf den Zugang zu Daten-, Informations- und Wissensaktivitäten. Eine weitere wichtige Nutzungsgruppe des Internet sind Kommunikationsaktivitäten, die weniger auf Daten, Informationen oder Wissen zielen, sondern mehr den sozialen und Identität stiftenden Charakter von Kommunikation zum Schwerpunkt haben. Stichworte sind hier die Bildung virtueller Gemeinschaften und Gruppierungen, die nur durch vernetzte Kommunikation ermöglicht werden. Eine detaillierte Untersuchung zur sozialen Dynamik der Vernetzung am Beispiel der digitalen Szene der Hacker war Gegenstand des dritten Kapitels.

Im Folgenden beschränken ich mich auf exemplarische Untersuchungen über den Umgang mit Daten, Informationen und Wissen. Obwohl oder gerade weil jeder dieser Begriffe Gegenstand heftiger Definitionsstreitigkeiten ist, kommen ich nicht umhin, sie für meine Zwecke zu bestimmen, nicht ohne den erneuten Hinweis, keineswegs verbindliche Definitionen anzustreben, sondern lediglich meinen weiteren Gebrauchszusammenhang umreißen zu wollen.

Daten-, Informations- und Wissensaktivitäten

Daten sind das Rohmaterial, aus dem Informationen gewonnen werden können. Die Grundlage von Daten sind Messungen: Die Anzahl Kunden in einem Supermarkt zu einer bestimmten Stunde, die Temperatur in Potsdam am Neujahrstag 2000 oder die Beteiligung an der letzten Bundestagswahl sind Daten, die quantitativ bestimmbar sind. Der Begriff ‚Daten’ lässt sich daher pragmatisch definieren: Daten sind Ergebnisse von Messungen . Eine Messung liefert Daten, welche mit Hilfe eines Mediums aufgezeichnet werden können. Zur Verwaltung umfangreicher Datenbestände haben sich Computer als zweckmäßig erwiesen. Eine der ersten Aufgaben elektronischer Rechenmaschinen war die Datenverarbeitung.54 In Datenbanken werden Daten in Tabellen abgelegt, deren Felder durch bestimmte Datentypen spezifiziert werden: Zahlen, Zeichen, Zeichenketten, Boolsche Werte (die Unterscheidung zwischen wahr und falsch), Uhr- und Kalenderzeiten. Daten können automatisch erfasst und gespeichert werden, aber erst durch eine konkrete Anfrage werden sie zu Informationen.

Information. In meiner Arbeit über subjektive Informationstheorie habe ich den Vorschlag untersucht, Information pragmatisch zu definieren als „Antwort auf eine Frage “, wobei die Frage zu einem bestimmten Typ gehören muss. Nicht jede Frage eignet sich als Informationen [Seite 257↓] konstituierend, sondern ausschließlich solche, „die nur eine endliche Zahl verschiedener Antworten zulassen, die dem fragestellenden Subjekt [...] alle bekannt sind. “55 Mit Hilfe der Frage versucht der Fragesteller zu ermitteln, welche der möglichen Antworten zutrifft. Information liefert z. B. die Frage: „Wird um diese Zeit noch ein Bus fahren?“ mit den möglichen Antworten „Ja“ oder „Nein“, die Frage „Wie viele Aufrufe hatte meine Homepage im letzten Monat?“ mit einer natürlichen Zahl als Antwort oder die Frage „Wie spät ist es?“. Die Bedingung an die Endlichkeit der Antwortmenge ist notwendig, um den Informationsgehalt der Antwort mathematisch messen zu können. Die letztgenannte Frage scheint eine unendliche Zahl möglicher Antworten zuzulassen, dennoch wird die Antwortmenge im konkreten Fall in eine endliche Zahl von Intervallen unterteilt, wodurch die Antwort „Es ist 17:23:45.“ i. d. R. die gleiche Information liefert wie „Es ist 17:23:46.“ Information ist eine subjektive Größe, abhängig vom Vorwissen und von den Erwartungshaltung des Fragestellers. Die gleiche Antwort kann für verschiedene Personen unterschiedliche Information liefern, je nach Größe der angenommenen Antwortmenge und der Wahrscheinlichkeit der erhaltenen Antwort. Shannons Informationstheorie kann mit diesem Informationsbegriff umformuliert werden zu einem Frage/Antwort-Spiel zwischen einem Zeichensender und einem Zeichenempfänger. Ein empfangenes Zeichen beantwortet die Frage „Welches ist das nächste gesendete Zeichen?“. Um nicht zu sehr vom Weg abzuweichen, soll die Beziehungen zwischen dem subjektiv-pragmatischen Informationsbegriff und der technischen Informationstheorie im Weiteren nicht behandelt werden.

Nicht alle Fragen zielen auf Informationsgewinn, ihre Beantwortung bedient sich nicht aus einer Menge möglicher Antworten, sondern fällt deutlich komplexer aus: „Wie funktioniert das Internet?“ , „Warum müssen Kinder in die Schule?“ oder „Was heißt Information ?“. Diese Fragen zielen auf den Erwerb von Wissen.

Wissen : Lässt sich der Begriff der „Information“ pragmatisch noch kohärent fassen, so entzieht sich „Wissen“ hartnäckig jedem Zugriff. Wissen verbindet Informationen zu Zusammenhängen. Der pragmatischen Linie treu bleibend und für meine Zwecke völlig ausreichend ist die Feststellung, dass Wissen befähigt, Fragen im Allgemeinen zu beantworten. Wissen kann somit in neue Kontexte gestellt werden, bekannte Zusammenhänge reflektieren und neue Bezüge herstellen.

Die vorgestellten Bestimmungen erweisen sich als fruchtbar, um kulturelle Praktiken in Anlehnung an Helmut Spinners Begriff der ‚Wissensarbeitsteilung’56 als ‚Daten-’, ‚Informations-’ oder ‚Wissensaktivitäten’ zu charakterisieren.

Eine Datenaktivität generiert, speichert, verbreitet, verarbeitet, nutzt oder entsorgt Daten, d.h. [Seite 258↓] Messgrößen. Datenaktivitäten begleiten den Lebenszyklus eines Datums: Ein Thermometer wird abgelesen, die Temperatur in eine Tabelle eingetragen, diese zur statistischen Auswertung mit der Post versendet, in eine Datenbank eingetragen, die Tabelle in einen Ordner geheftet oder als Altpapier entsorgt. Messinstrumente und -daten können von Computern schneller, exakter und fehlerfreier verarbeitet werden als von Menschen, weswegen Datenaktivitäten zunehmend maschinell erledigt werden, von Steuerdaten für Navigationssysteme bis zu Registerkassen in Kaufhäusern. Der menschliche Anteil bei Datenaktivitäten beschränkt sich in der Regel auf die Wartung der Messinstrumente sowie ihre Ausrichtung auf den zu messenden Gegenstandsbereich. Bei der Auswertung der Daten und ihrer Verdichtung zu Informationen oder gar Wissen sind Menschen allerdings weiterhin unabdingbar.

Informationsaktivitäten generieren, speichern, verbreiten, verarbeiten, nutzen oder entsorgen Informationen, d.h. stellen im weitesten Sinne Fragen. Informationsaktivitäten sind, z.B. Signatur und Standort eines Buches in einer Bibliothek zu recherchieren sowie das Buch zu bestellen, ein Überweisungsformular in einer Bank auszufüllen und am Schalter abgeben, eine Zugverbindung suchen zu lassen etc. Fragen können an einen Auskunftsdienst gerichtet sein, persönlich oder über Medien vermittelt. Ist eine Frage im zwischenmenschlicher Kontakt kommunikatives Handeln, so muss die interrogative Interaktionsform bei der Mensch-Maschine-Kommunikation entsprechend nachgebildet werden.

Die Structured English Query Language (SEQUEL) wurde Mitte der siebziger Jahre als Benutzerschnittstelle für IBMs Datenbanksystem System/R entwickelt.57 System/R wurde 1979 eingestellt, die Abfragesprache wurden unter dem Namen Structured Query Language (SQL) darüber hinaus weiter entwickelt und 1986 und 1987 zum ANSI und ISO-Standard erhoben.58

SQL definiert ein Standardinterface zur Informationsrecherche in Datenbanken. Queries , d.h. Suchanfragen werden in der an die englische Sprache angelehnten Syntax von SQL formuliert. Um beispielsweise alle Tage des Jahres 2000 mit einer Durchschnittstemperatur zu finden, die größer ist als 14 Grad, müsste die Anfrage lauten:

FIND * IN Wetterdaten_2000 WHERE Durchschnittstemperatur >= 14.

Die Anfrage setzt eine Tabelle mit Namen ‚Wetterdaten_2000 voraus, in der ein Feld ‚Durchschnittstemperatur definiert ist, in welches für jeden Tag die Durchschnittstemperatur eingetragen wurde. Die Grammatik und Syntax von SQL ist derart gestaltet, dass der Informationen gewinnende Umgang mit Datenmengen ein interrogativer ist, dass Informationen durch gezielte [Seite 259↓] Fragen aus Daten gewonnen werden.59

Wissensaktivitäten zielen auf den Erwerb, die Verarbeitung, Verbreitung oder Anwendung von Wissen. Beispiele sind Lehren und Lernen in Schulen, Bildungseinrichtungen, Selbststudium etc. Glänzen Computer noch durch Geschwindigkeit und Präzision bei Datenaktivitäten, beeindrucken sie bei Informationsaktivitäten bereits deutlich weniger. Wissen ist wegen der hohen Kontextabhängigkeit nicht nur begrifflich schwer einzugrenzen, Wissen generierende oder verarbeitende Tätigkeiten können im Computer bislang gar nicht oder nur unzureichend nachgebildet werden. Selbst wenn Deep Blue gegen den Schachweltmeister Gary Kasparov gewinnt, so resultiert das Ergebnis nicht auf Wissen, sondern auf Rechenleistung und der Möglichkeit, 108 Mio. bis 109 Positionen pro Sekunde zu berechnen.60 Das Ergebnis ist weniger Indiz für erfolgreiche simulierte Wissensaktivität, sondern zeigt vielmehr, dass Schach auch ohne positionellen Instinkt, Gefühl für Stellungen oder Intuition spielbar ist, welches typisch menschliche Formen der Wissensverarbeitung sind.

Fallbeispiele

Zunächst betrachte ich individuelles Informationsmanagement ohne Einsatz von Kommunikationsnetzen. Um eine gewünschte Information zu erlangen, ist Transport im Raum notwendig. Je wichtiger die Information für mich ist, desto größere Entfernungen bin ich bereit zurückzulegen. Raum trennt mich von der Information, ein Hindernis, das es zu überwinden gilt. Informationsmanagement ist Raummanagement. Der Zugang zum Transportnetz muss garantiert sein bzw. ein Dienstleister übernimmt den Transport für mich.

Vor dem Transport müssen der Standort und die Zeiten möglicher Kontaktaufnahme des Informationsanbieters bekannt sein. Information bekommt damit einen Raumzeitindex, eine Weltkoordinate. Weitere Indizes von Informationen sind die Zugangsberechtigung, der Eigentümer der Information und ihr Preis. Informationen zu diesen Indizes sind Informationen zweiter Ordnung, Informationen über Information. Die Beschaffung von Informationen zweiter Ordnung kann vergleichbaren Aufwand erfordern, wie die der eigentlichen Information selber. Unter Umständen muss ich zusätzlich Informationen dritter oder vierter Ordnung einholen (s. Beispiele). Der Einsatz von Kommunikationsnetzen kann die räumlichen Einschränkungen erheblich reduzieren, vorausgesetzt, die gesuchte Information ist medial verfügbar. Ein Anruf, ein Brief oder die Beauftragung einer weiteren Person kann meinen Transport durch den Raum überflüssig [Seite 260↓] machen. Ähnlich wie im Falle der Transportnetze transformieren auch Kommunikationsnetze Raum unter Einsatz von Energie in Zeit.

Die folgenden Beispiele sind so gewählt, dass die logistische und organisatorische Komplexität dieser Transformation von Daten- über Informations- zu Wissensaktivitäten zunimmt. Um es pointiert zu formulieren: Das Übertragen einer Messgröße ist deutlich einfacher als die mediale Vermittlung von Wissen.

Der vernetzte Raum setzt sich ab vom zentrierten, hierarchisierten Raum. Um die Unterschiede zwischen beiden Raumtopologien genauer herauszuarbeiten, untersuche ich im folgenden fünf konkrete Beispiele alltäglicher Praktiken. Neben der bereits erwähnten Transformationskomplexität ist ihnen gemeinsam, dass sie durch mediale Verfügbarkeit im Internet fundamental verändert wurden.

Bibliothekskataloge sind Datenspeicher. Sie speichern die Standortdaten der Dokumente einer Bibliothek. Will ich in einer mir fremden Stadt einen bestimmten Artikel aus einer bestimmten Zeitschrift einsehen, muss ich wissen, (i) wo die Bibliothek ist, welche die betreffende Zeitschrift aboniert hat, (ii) wo sich dort der Katalog befindet, um (iii) den Standort der Zeitschrift zu erfahren. Wichtige, d.h. stark gefragte Zeitschriften werden in vielen Bibliotheken angeboten, seltene nur an wenigen. Das Ergänzungsgebiet und damit die Zentralität von Bibliotheken mit seltenen Zeitschriften, z.B. Landesbibliotheken, ist somit größer als das von Bibliotheken mit Publikumszeitschriften, z.B. Stadtteilbibliotheken.

Fahrscheine sind Informationsgüter. Nicht der Informationsträger, das Stück Papier, ist wichtig, sondern die enthaltene Information, der abgeschlossene Vertrag. Der Käufer bezahlt für das Anrecht auf Beförderung. Diese Information ist für das Transportunternehmen entscheidend und muss im Zweifelsfall überprüfbar sein. Um das Fälschungsrisiko zu verringern, sind glaubwürdige Dokumente nur an Netzknoten des jeweiligen Verkehrsnetzes sowie bei ausgewählten Händlern erhältlich. Vor der Beschaffung eines Fahrscheins muss daher der Standort der nächstgelegenen Verkaufsstelle bekannt sein. Das Netz der Verkaufsstellen strukturiert Raum in zentrale und periphere Orte bezüglich der Möglichkeit, das Informationsgut Fahrschein zu erhalten.

Bankfilialen sind Informationsdienstleistungsunternehmen, Bankgeschäfte sind Informationsgeschäfte. Ein Überweisungsformular ist ein Vertrag, dessen Echtheit durch die Unterschrift garantiert werden soll. Die Umsetzung von Vertragsvereinbarungen in Transaktionen im monetären Netz erfolgt an den Knoten dieses Netzes, in Filialbanken, die für Publikumsverkehr geöffnet sind. Möchte ich eine Überweisung tätigen, muss ich mich an eine Filiale der Bank wenden, welche mein Konto verwaltet. Dazu benötige ich zunächst das Wissen um den Standort der nächstgelegenen Filiale. Da Kundennähe das Hauptkriterium für die Standortwahl einer Bankfiliale ist, sind sie ein Musterbeispiel für Christallers Theorie zentraler Orte, sie bilden einen zentrierten [Seite 261↓] Raum.

Eine akademische Ausbildung zielt im Wesentlichen auf Informations- und Wissensvermittlung. Universitäten und ihre Lehrveranstaltungen haben ein hohes Maß an Zentralität. Sie finden zu einer bestimmten Zeit an einem bestimmten Ort statt und decken ein überregionales Ergänzungsgebiet ab. Universitäten strukturieren Raum und Zeit der Lehrenden und Studierenden.

Ein Unternehmen gilt in der klassischen Betriebswirtschaftslehre als „materielles Transformationssystem“,61 es transformiert Stoffe unter Einsatz der Produktionsfaktoren Arbeitkräfte, maschineller Anlagen und Energie. Die Beschaffungsmarktfaktoren, d.h. die Zugangsmöglichkeiten zu diesen Ressourcen, entscheiden zusammen mit Absatzmarktfaktoren, staatlichen Rahmenbedingungen und natürlichen Bedingungen über die Standortwahl eines Unternehmens.62 Dadurch strukturieren sie den Raum der Arbeit in zentrale und periphere Orte . Doch Arbeit wird zunehmend auch Produktion, Speicherung, Darstellung, Verteilung, Anwendung und Entsorgung von Daten, Information und Wissen. Da sie im Gegensatz zu materiellen Produktionsfaktoren ohne raumzeitliche Einschränkungen vervielfältigt und verteilt werden können, spielen sie bei der Standortwahl und damit bei der Strukturierung der Raumzeit keine Rolle mehr.

Die Beispiele sind typische Daten-, Informations- und Wissensaktivitäten. Vor ihrer medialen Erweiterung durch die Möglichkeiten des Internet waren sie mit bestimmten Räumen und Zeiten und deren Topologie verbunden. Die netztypische Transformation von Raum in Zeit ändert die Bedeutung und Gewichtung der Aktivitäten, indem sie den Trasnport zu den jeweils definierten räumlichen Zentren überflüssig macht und damit die Unterscheidung zwischen Zentrum und Peripherie bezüglich einer Handlung aufhebt.

Datenaktivitäten

Die Produktion und Generierung von Daten kann inzwischen zu einem hohen Grad automatisiert werden; Daten stehen massenhaft zur Verfügung. Typische Speicherorte von Daten sind Listen, Register, Tabellen elektronischer Datenbanken oder Kataloge. Wird ein Katalog an mehreren Standorten geführt, entsteht das Problem seiner räumlichen Synchronisierung: Änderungen an einem Ort müssen mit den anderen abgeglichen werden, um an allen Standorten den gleichen Informationsstand gewährleisten zu können. Eine Möglichkeit der Synchronisierung bietet eine hierarchische Katalogstruktur. In einen Zentralkatalog werden alle Änderungen eingetragen, eine Liste der Änderungen wird in regelmäßigen Abständen an die nächste Hierarchieebene weitergereicht. Die Baumstruktur ist dem Aufwand geschuldet, materielle Informationsträger zu [Seite 262↓] duplizieren, in diesem Fall Katalogkarten und Änderungslisten. Richtet sich der Katalog an eine homogen verteilte Zielgruppe, so folgt die Streuung der Teilkataloge im Raum im Idealfall Christallers Theorie, sie werden gleichmäßig im Raum verteilt. Der Raum wird in Bezug auf die Daten eines Kataloges hierarchisch gegliedert in Nähe und Ferne.

Vernetzte Datenbanken umgehen die raumzeitliche Einschränkung, indem Änderungen des Datenbestandes jedem Netzknoten in Echtzeit zugänglich gemacht werden kann. Eine Anfrage verläuft dabei nach dem Client/Server-Modell, das Rechnersystem, auf dem der Katalog verwaltet wird, übernimmt die Rolle des Servers, der Anfragen des Clients beantwortet. Für die Gestaltung des Rechnersystems bieten sich zwei Entwurfsmöglichkeiten an: Die zentralisierte Datenbank mit einem Server oder die verteilte Datenbank ohne Zentralserver. Beide Möglichkeiten haben Vor- und Nachteile.

Zentralserver I : Die ersten Online Public Access Catalog (OPAC)-Systeme wurden ab Mitte der siebziger Jahre entwickelt,63 um Informationen über den Buchbestand elektronisch zugänglich zu machen. Inzwischen sind die Medienbestände aller großen Bibliotheken online verfügbar, von der amerikanischen Library of Congress bis zur Berliner Staatsbibliothek. OPAC-Systeme trennen aus Sicherheitsgründen zwischen Daten-Eingabe und Retrieval-Funktionen. Zunächst behandle ich die Datenaktivitäten, im nächsten Beispiel untersuche ich den Gebrauch des OPAC in Informationskontexten.

Der Datenbestand wird von Bibliotheksmitarbeitern gepflegt und zentral verwaltet. Die Einschränkungen eines zentralen Datenbankservers werden deutlich, wenn dieser durch zu viele Anfragen überlastet oder defekt ist. Der gesamte Dienst kann dann nicht mehr zur Verfügung gestellt werden.

Die Generierung von Informationen für Benutzer erfolgt über Suchmasken, deren Funktionalität weiter unten besprochen wird.

Zentralserver II: Auch die Firma Napster ist (bzw. war) ein gutes Beispiel einer vernetzten Datenbank mit Zentralknoten. Napster stellte eine Software zum Tausch von Musikdateien zur Verfügung. Alle angeschlossenen Teilnehmer wurden von einem zentralen Server katalogisiert, entsprechende Anfragen auf die Datenbestände über diesen Server weitergeleitet. Mit dem räumlichen und administrativen Zentrum hatten die Anwälte der Recording Industry Association of America (RIAA) einen Verantwortlichen im juristischen Sinne und konnten erhebliche Einschränkungen der über Napster angebotenen Dateien gerichtlich erzwingen. Der Zugriff auf den durch die Napster -Software verwalteten Datenbestand hängt an einem einzelnen Knoten, die Napster -Datenbank ist sternförmig [Seite 263↓] organisiert.

Netztheoretisch stellt ein Zentralknoten eine geringere Belastung dar, weil jede Verbindung optimal und effizient über ihn abgewickelt werden kann, was jedoch seine überdurchschnittliche Belastbarkeit erfordert. Auch gefährdet die Ausfallwahrscheinlichkeit des Zentralknoten die Stabilität des gesamten Netzes. Beide Nachteile werden im dezentralen Netz verteilt, zu Lasten der Effizienz.

Dezentraler Server I: Umfangreiche Datenbanken erlauben nicht nur vernetzten Zugriff, sondern sind selber dezentral organisiert. Jeder Katalogteil enthält lediglich einen Ausschnitt des gesamten Datenbestandes und eine Liste der anderen Kataloge.

Eine dezentral vernetzte Datenbank ist der bereits in Kapitel 2 erwähnte Domain Name Service (DNS) des Internet, welcher Adressen in IP-Nummern abbildet. Bis 1984 wurden die Adresszuordnung in eine zentralen Tabelle im Stanford Research Institute's Network Information Center (SRI-NIC) eingetragen. Netzadministratoren konnten sich die aktuelle Liste via FTP auf ihren lokalen Server laden, mussten sich aber selber um die Aktualität kümmern. Die Größe der Tabelle veranlasste Paul Mockapetris, die Adressinformationen von einer verteilten Datenbank verwalten zu lassen. Eine Adressanfrage (z.B. www.hu-berlin.de ) wird seitdem an einen root name server gesandt, der sie je nach Top-Level-Domain (im Beispiel: .de ) an einen master name server weiter reicht. Dieser wiederum sendet die Frage an den name server der angesprochenen Domain (im Beispiel: hu-berlin ). Durch dieses Verfahren wird nicht nur die Informationsmenge aufgeteilt, neue Hosts können auch dezentral in das Internet eingebunden werden, weil lediglich der domain name server über den Neuzugang informiert sein muss. Die DNS-Datenbank ist als dezentraler hierarchischer Baum organisiert. Dezentral deshalb, weil jede Hierarchieebene von mehreren Anbietern bearbeitet wird, die sich gegebenenfalls untereinander synchronisieren müssen und Anfragen weiterreichen. Die Baumstruktur sorgt dafür, dass eine Anfrage mit möglichst geringem Aufwand beantwortet wird, weil jedem Knoten die Information zweiter Ordnung bekannt ist, die Adresse des Hosts, an den die Frage weitergereicht werden kann. Fehlt diese Struktur, erhöht sich die Redundanz der Frage erheblich, wie der folgende Fall verdeutlicht.

Dezentraler Server II : Nach den juristischen Problemen der Firma Napster , die letztendlich auf eine zentrale Verwaltung zurückzuführen ist, traten dezentrale Filesharing-Protokolle wie Gnutella das Erbe von Napster an.64 Ursprünglich vom Nullsoft -Mitarbeiter Justin Frankel initiiert, wird es seit dem offiziellen Entwicklungsstopp durch die Mutterfirma AOL im Frühjar 2000 weltweit als Open-Source-Projekt weiter entwickelt. Jede Suchanfrage wird im Gnutella -Netz an eine zufällige Auswahl anderer Hosts geschickt, deren IP-Adressen über einen Host-Cache vermittelt werden. Die Host-[Seite 264↓] Caches kennen lediglich die Adressen der Anbieter, nicht aber ihren Inhalt. Aus diesem Grund sind sie, im Gegensatz zum Napster -Zentralserver, juristisch kaum zu belangen. Auch kann es beliebig viele Host-Caches geben, weil ihr Datenbestand weder vollständig noch untereinander übereinstimmend sein muss. Sie müssen lediglich einige Adressen vorhandener Hosts bereit stellen, die zu virtuellen Nachbarn des Suchhosts werden, geographisch aber beliebig weit auseinander liegen können. Die Suchanfrage wird von ihnen an ihre Nachbarn weitergereicht, wobei der Time-To-Live- Wert (TTL) der Frage reduziert wird, damit sie nicht beliebig lange im Netz kreist. Bei positiver Antwort geht eine Bestätigung an den fragenden Host, der daraufhin direkten Kontakt herstellen kann. Dieses Verfahren garantiert nicht nur die Anonymität der Nutzer des Gnutella -Netzes, sondern auch dessen Unzerstörbarkeit gegenüber einem juristischem oder einem militärischen Angriff:

Gnutella can withstand a band of hungry lawyers. How many realtime search technologies can claim that? Not Napster, that's for sure. Just to emphasize how revolutionary this is: hungry lawyers are probably more destructive than nuclear weapons.65

Netztheoretisch ist der Preis für Stabilität des dezentralen Netzes eine deutlich höhere Redundanz bei der Bearbeitung einer Suche, die an eine exponentiell mit dem TTL-Wert wachsende Zahl Hosts gesandt wird. Wird diese nicht durch eine logische Hierarchie zumindest teilweise kompensiert, z. B. durch Aussortieren von Doubletten, so kann eine große Zahl Nutzer schnell zur Belastungsgrenze des Netzes führen.

Informationsaktivitäten

Das international standardisierte i weist auf Orte hin, an denen Informationen zentral gesammelt und verteilt werden, auf Informationszentren, wie sie in Kaufhäusern, Hotels, Messegeländen, Flughäfen oder Bahnhöfen eingerichtet sind. Der Preis dieser Zentren für die Suche nach Informationen ist die Notwendigkeit raumzeitlicher Koordinierung: Denn das beste Informationsangebot kann nur genutzt werden, wenn sein Standort dem Fragesteller bekannt ist und der Wert der Information den Aufwand des räumlichen Transports überwiegt. Vergleichbare Angebote im Internet können diese raumzeitlichen Einschränkungen in dem Maß aufheben, wie sich die gewünschte Dienstleistung auf eine reine Informationsaktivität beschränken lässt.

Beispiel: OPAC

Der Informationszugriff der ersten OPAC-Generation erfolgte über die Suche vollständiger Sätze, vergleichbar mit Katalogkarten oder Computer Output Microform (COM)-Katalogen.

OPAC-Systeme der zweiten Generation erlaubten bereits einfache Information Retrieval Techniken wie Schlüsselwortsuche im Titel, Autor, Verlag, Erscheinungsort, Verleger etc. sowie die Verknüpfung mittels einfacher Boolscher Operatoren (AND, OR, NOT). OPAC-Systeme der [Seite 265↓] dritten Generation sollen zumindest die folgenden Anforderungen erfüllen:

non-boolean retrieval techniques (perhaps based on „best match“);
enhanced records by including additional controlled und uncontrolled access points (such as chapter titles in books);
acceptance of search expression in ordinary language [...];
provision of context-dependent automatic help;
using terms from relevant records retrieved to enhance the search strategy;
displaying the most relevant records retrieved first.“66

Hinzu kommen verschiedene Abfragemasken je nach Benutzererfahrung, Expertensysteme zur Erhöhung der Benutzerfreundlichkeit oder die Möglichkeit, komplexe Suchanfragen zu speichern und zu verknüpfen.

Bei der Vielzahl angebotener Funktionalitäten überrascht es wenig, wenn Gabriele Dreis bei einer Untersuchung des Nutzerverhaltens des Düsseldorfer OPAC-Systems feststellt, dass die Möglichkeiten elektronischer Literaturrecherche nicht ausgeschöpft werden:

Der Durchschnittsbenutzer stellt nicht den Anspruch, „Informationen zu verarbeiten, zu manipulieren, zu kombinieren und zu ordnen, sie so umzuformen und zu ordnen, daß sie den jeweiligen Erfordernissen besser genügen und dadurch weit nützlicher werden“. Er stellt diesen Anspruch nicht, weil er ihn noch nicht zu stellen vermag. Im Prinzip ist er damit zufrieden, daß seine Literaturermittlung auf elektronischem Weg überhaupt in einer Erfolgsquote aufgehen.67

Der Preis des technischen Komforts, Informationstätigkeiten technisch zu unterstützen, ist die Notwendigkeit, die technischen Werkzeuge auch adäquat bedienen zu können. Dennoch werden der Bedienkomfort und die Suchmöglichkeit des Zettel- oder Mikrofichekatalogs bereits mit elementarsten Kenntnissen des OPAC überschritten.

Seit Mitte der neunziger Jahre bieten viele OPACs ihre Dienste auch im Internet an, was erhebliche Auswirkungen auf die räumliche Bedeutung der Bibliothek hat:

Die OPACs sind in zunehmendem Maße auch online zugänglich, von jedem Computer mit Web-Anschluss aus. Damit verflüchtigt sich die Geographie. Was irgendwo „im Netz“ ist, kann von jedem anderen Ort aus gesichtet werden.68

Der tendenziellen Entwertung des Ortes einer Bibliothek als Zentrum des Informations- und Wissensaustauschs kann beispielsweise durch eine Neuinszenierung des Ortes begegnet werden:

Häufig wird in letzter Zeit die Ansicht vertreten, daß sich Bibliotheken zukünftig über sog. Mehrwertdienste, also Dienstleistungen wie antizipierende Informationsvermittlung und Strukturierung von Informationen aus verschiedensten Quellen profilieren müßten.69


[Seite 266↓]

Diese Dienstleistungen gehen über reine Informationstätigkeiten hinaus und sichern den Wettbewerbsvorteil gegenüber elektronischen Systemen, die zwar schnell große Datenmengen durchsuchen können, die Verknüpfung von Informationen zu Wissen aber höchstens ansatzweise anbieten können. Die Entwicklung der Bibliotheken von Informations- zu Wissensdienstleistern könnte ihrer Zentralität bewahren helfen.

Beispiel: Fahrkarten

Eine Zugfahrkarte ist aus juristischer Sicht ein Vertrag zwischen dem Käufer und dem Bahnunternehmen. Der Vertrag schafft Verbindlichkeit zwischen individuellen und juristischen Personen. Dennoch liegt seine Bedeutung in seinem Informations- und nicht in seinem Materialwert. Der einfache Kauf einer Fahrkarte („einmal Frankfurt hin und zurück für eine Person, morgen ab 8:00 Uhr vom Hauptbahnhof“) ist ein Handel mit Information. Ich erwerbe das Recht, transportiert zu werden. Das Zertifikat bestätigt im Falle der Überprüfung dieses Anrecht, eine Bestätigung, welche nicht an einen bestimmte materiellen Träger gekoppelt ist. Der Erwerb des Informationsträgers kann daher von vorgegebenen Raumzeitpunkten losgelöst werden, solange die Rechtsgültigkeit des Handels garantiert bleibt. Seit 1996 bietet die Deutsche Bahn AG ihren Kunden die Möglichkeit, Zugverbindungen über eine Internetschnittstelle zu recherchieren und Fahrkarten auf dem eigenen Drucker auszudrucken. Die Datenbank der Zugverbindungen wurde unter dem Namen HAFAS vom Hannoverschen Ingenieurbüro HaCon entwickelt:

HAFAS ermittelt Routenvorschläge und Fahrplanauskünfte auf Basis aktueller Liniennetz- und Fahrplandaten. Über eine Anfrage mit Eingabe des Start- und Zielpunktes (wahlweise Haltestelle oder Adresse) unter Angabe von Wochentag und Tageszeit berechnet HAFAS die optimalen Fahrverbindungen. Das Ergebnis ist eine maßgeschneiderte Fahrplanauskunft vom Start- zum Zielpunkt mit ausführlichen Informationen über Fahrtroute und Fahrzeiten. Weitere Optionen ermöglichen die Berücksichtigung individueller Anforderungen des Kunden z.B. hinsichtlich Umsteigehäufigkeit oder Verkehrsmittelwahl.70

Das von der Firma TLC71 entwickelte Netz-Angebot Surf&Rail 72 der Bahn AG ersetzt Routineanfragen am Fahrkartenschalter in Reisezentren der Bahnhöfe. Der Benutzer kann sich zu ausgewählten Verbindung eine Fahrkarte bestellen, mit Kreditkarte zahlen und am eigenen Drucker ausdrucken. Diese Fahrkarte wird später in Verbindung mit einem Lichtbild-Ausweis im Zug manuell mit einer Liste der über Surf&Rail erworbenen Fahrscheine verglichen. Der Kunde spart sich somit den Gang zu einem Ort, an dem die autorisierte Ausgabe von Fahrkarten erfolgt.

Die De-Zentrierung der Reisezentren im Netz verändert deren zentrierende, Raum ordnende [Seite 267↓] Funktion. Das Aufsuchen des Ortes des Fahrkartenschalters wird transformiert in den Zeitaufwand und die Kosten der Online-Verbindung.

Doch weder der Informationsdienst noch die an Raum gebundenen Fahrkartenautomaten können den menschlichen Schalterangestellten vollständig ersetzen. Seine Aufgaben verschieben sich vom Imformationsdienstleister zum Berater für individuelle Kundenprobleme. Diese Tätigkeiten zielen auf Verwertung von Wissen und gehen damit weit über die Verwaltung von Informationen hinaus. Voraussetzung ist dabei eine entsprechende Schulung des Personals zu Wissensdienstleistern. Enträumlichung und die mit ihr verbundene Entpersonalisierung von Informationsdiensten ersetzen den zwischenmenschlichen Kontakt nicht, sondern setzen ihn wieder in ein persönlicheres Licht: Das Aufsuchen des Schalterangestellten bedeutet eine bewusste Entscheidung für eine auf Wissen basierende Dienstleistung. Produktion, Verarbeitung und Verwertung von Wissen ist auf absehbare Zeit das Privileg des Menschen. Die Produktion von Information aus Daten, ihre Weiterleitung in Netzen zu jeder Zeit an jeden Ort ist eine Tätigkeit, die ohne Sorge und Bedauern an Computer weitergereicht werden kann.

Beispiel: Homebanking

Die Kunden in der Warteschlange einer Bankfiliale sind lediglich Informationsübermittler, sie bilden aus Sicht der Bank die physikalische Schicht eines Informationsnetzes. Es wird im Netzwerkjargon ironisch ‚Turnschuhnetz’ genannt, weil die Informationsübermittlung auf dem Fußweg erfolgt. Diese Form der Übermittlung ist langsam, sichert aber zwei wichtige Anforderungen: Indem Kunden sich persönlich am Schalter präsentieren, garantieren sie durch ihre Anwesenheit zum einen die Authentizität des Absenders, bisweilen unter Vorlage eines Ausweises. Zum anderen bemühen sie sich aus Eigeninteresse um den sicheren Transport der Informationen.

Der Gang zur Bank ist die Überwindung des Zwischenraums, des Raums zwischen Wertschöpfung, Wertspeicherung und Werttransformation, z.B. zwischen Arbeitsplatz, Bankkonto und Geschäft. Die Beziehung zwischen der Bank und ihren Kunden ist in hohem Maße protokolliert, standardisiert, mechanisiert und unpersönlich. Der Ort der Bank ist keineswegs ein Raum zwischenmenschlicher Begegnung, sondern die Schnittstelle eines Informationsnetzes und des monetären Netzes finanzieller Transaktionen, Aufenthaltsort für wartende Kunden und Arbeitsplatz der Bankschalterangestellten. Bankgeschäfte sind prototypisch für die Abkopplung eines Informationstransfers vom Informationsträger. Aus diesem Grund sind sie aber auch so lästig.

Viele Kunden empfinden die persönliche Informationsübermittlung als zeitaufwändig und ineffizient. Im Zuge der Rationalisierung und Optimierung von Lebensprozessen gelten Zwischenräume zunehmend als Hindernis, dessen Überwindung entweder möglichst schnell und reibungslos erfolgen oder gänzlich entfallen sollte. Interessant für meine Fragestellung ist die Funktion des Raums sowohl als Zwischenraum als auch als Ort der Informationsübermittlung.


[Seite 268↓]

Das Netz der Filialbank formt einen zentrierten Raum, ein Bankgebäude ist ein raumzeitliches Zentrum. Meine relative Entfernung dazu, die Größe des zu überwindenden Zwischenraums, bestimmt meine Position im Filialnetz. Ist es in Städten noch relativ dicht, so gibt es in ländlichen Gegenden häufig nur eine Filiale, deren Lage und Zugänglichkeit ihren raumzeitlich-zentralisierenden Charakter prägnanter hervortreten lässt:

Die Inszenierung des Raum, in dem der Informationstransfer stattfindet, sowie die an ihr beteiligten Personen garantieren Integrität, Sicherheit, Nichtwiederholbarkeit, Nichtbestreitbarkeit und Vertraulichkeit der Transaktionen. Beratung erfordert darüber hinaus Individualität, Persönlichkeit, Respekt, Raum und Zeit für den Kunden.

Fällt der Geschäftsraum als physikalischer Ort weg und wird durch einen virtuellen Raum ersetzt, so muss dieser die genannten Funktionen zumindest ansatzweise übernehmen. Dabei interessiert die Frage, welche Bankgeschäfte in einen virtuellen Raum ausgelagert werden können und für welche Dienstleistungen Bankkunden noch einen realen räumlichen Kontakt suchen. Daraus lassen sich Rückschlüsse auf Funktionsverlagerungen vom realen in den virtuellen Raum ziehen.

Das Home Banking Computer Interface (HBCI) wurde 1996 vom Zentralen Kreditausschuss (ZKA) als Datenschnittstelle definiert zwischen Homebanking Programmen der Kunden und dem Rechner des Geldinstituts.73 Es soll den Screen-Dialog, den noch für das BTX-System ausgelege ZKA-Standard von 1987 sowie das PIN/TAN-Verfahren ablösen ablösen.74

HBCI ist unabhängig von der Plattform, von der Bank und vom zugrunde liegende [Seite 269↓] Kommunikationsnetz, es stellt somit eine Schnittstelle der Anwendungsschicht dar. Die Sicherheit soll durch verschiedene Verschlüsselungsverfahren (RSA und triple-DES) garantiert werden, ist im Einzelfall aber immer von der Wartung durch die Bank und der Aufmerksamkeit des Kunden abhängig:

HBCI enthält die neusten kryptographischen Sicherheitsfunktionen zur Gewährleistung von Integrität, Nichtwiederholbarkeit, Nichtbestreitbarkeit und Vertraulichkeit. Integrität, Nichtwiederholbarkeit und Nichtbestreitbarkeit werden durch eine elektronische Signatur sichergestellt. Die Vertraulichkeit erreichen wir durch Verschlüsselung.75

Als Geschäftsvorfälle standardisiert das HBCI: Kontoauszüge für Girokonten und Kreditkartenkonten, Einzelüberweisungen in In- und Ausland, Sammelüberweisungen, terminierte Überweisungen, Daueraufträge, Scheckbestellungen, Mitteilungen an die Bank, Euroüberweisungen, Finanzstatus, Wertpapierinfos, Depotauszug, Wertpapiertransaktionen oder Kreditrechnungen.76

Transaktionen dieser Art sind reine Informationsübermittlungen. Kein Bargeld wird ein- oder ausgezahlt. Vor allem findet keine Beratung statt, die über konkrete Hilfestellungen zum Ausfüllen von Formularfeldern hinausgeht und von der Hilfe-Funktion der HBCI-Software abgedeckt wird. Dadurch sind sie relativ einfach in ein Informationsnetz übertragbar. Dienstleistungen, die darüber hinaus persönliche Beratung des Kunden erfordern, werden im HBCI weder spezifiziert noch ist die Einrichtung einer Kommunikations-Schnittstelle vorgesehen. Teilweise wird sie von Call-Centern,77 zum Teil von bankexternen Dienstleistungsunternehmen übernommen, Bankfilialen und mit ihnen auch der durch sie strukturierte Raum sind nicht beliebig virtualisierbar, selbst nicht durch die individualisierten Internetangebote beim „one-to-one-Banking“:

„One-to-One-Banking“ im Internet kann nicht die stationäre Filiale ersetzen, sondern ist als Ergänzung zum persönlichen Beratungsgespräch zu sehen. Befragungen belegen eindeutig, dass 80 % aller Kunden zukünftig verschiedene Zugangswege zu ihrer Bank wünschen. Nur 10 % wollen ausschließlich online mit ihrem Kreditinstitut kommunizieren und komplette Geschäfte – vom Angebot bis zum Abschluss – über das Netz tätigen. Begründet wird dieses Meinungsbild vor allem damit, dass es umso schwieriger ist, das persönliche Beratungsgespräch zu ersetzen, je umfangreicher der Erläuterungsbedarf eines angebotenen Produkts ist.78

Ein erhöhter Erläuterungsbedarf markiert den Übergang von Informations- zu Wissensaktivitäten.

Wissensaktivität:

Es mag zunächst überraschen, Teleteaching als Beispiel anzuführen, wenn möglichst breite Wirkungen des Internet auf kulturelle Praktiken untersucht werden sollen. Tatsächlich ist die Zahl [Seite 270↓] der Netznutzer, welche in Teleteaching-Umgebungen ausgebildet werden oder ausbilden, sehr klein. Dennoch gibt es einen paradigmatischen und einen pragmatischen Grund, weswegen ich in diesem Kapitel eine Untersuchung zu verteilter Lehre anführe:

Die Tätigkeit des Unterrichtens ist eine kulturelle Praxis par excellence . Die Sozialisation im Unterricht bereitet den Auszubildenden auf eine Rolle im gesellschaftlichen und kulturellen Kontext vor und ist immer mehr als bloße Vermittlung von Informationen oder Wissen. Die Möglichkeit des Fernstudium gehört bereits lange vor dem Internet zum Ausbildungsrepertoire. Telekolleg in Funk- und Fernsehen ermöglichen medial vermittelten Wissenserwerb, welcher durch Kursunterlagen ergänzt und durch Prüfungen verifiziert und bestätigt werden kann. Dennoch ist es erst mit dem Netz möglich, interaktive Lehrformen in Echtzeit zu übertragen, die Lehre also im Raum zu verteilen. Diese Teilung des Raums ist die Konstruktion eines vernetzten Raums. Die dabei zu bewältigenden Konstruktionsprobleme hängen mit der Komplexität und Kontextsensitivität von Wissensaktivitäten zusammen. Der Raum des Wissenserwerbs ist klassischerweise um den Wissensvermittler, den Lehrer, zentriert und kann nur unter großem Aufwand und Einsatz aller Beteiligten als vernetzer Raum inszeniert werden.

Die Auswahl des folgenden Beispiels für ein Teleteaching-Projekt hat den pragmatischen Hintergrund, dass ich mehrere Semester an einem Forschungsprojekt zur verteilten Lehre beteiligt war und so die Konstruktionsbedingungen eines vernetzten Raums untersuchen konnte.

OZ-Virtueller Übungsraum

Das Projekt OZ, o rtsverteilte und z eitversetzte Lehre im Vorlesungs- und Übungsbetrieb, begann Ende 1998 für die Dauer von 24 Monaten.79 Ausgangsproblem war die Tatsache, dass das Institut für Informatik der Humboldt-Universität zu Berlin (HUB) 1998 in den neu eingerichteten Wissenschafts- und Wirtschaftsstandort Adlershof (WISTA) im Stadtteil Berlin-Treptow umzog. Der WISTA ist 23 km oder eine Stunde Fahrtzeit von Berlin Mitte entfernt, wo die geistes- und gesellschaftswissenschaftlichen Institute der HUB angesiedelt sind. Viele Studierende, vor allem im Magister- und Lehramtsstudiengang, müssen teilweise erhebliche Pendelzeiten auf sich nehmen, um ihren Stundenplan zwischen beiden Standorten zu koordinieren. Unumgehbare Studienbedingung war bislang, dass die Studierenden am Ort der Veranstaltung, Berlin-Mitte oder Adlershof, anwesend sein mussten. Vorlesung und Übung waren auf einen zusammenhängenden Raum, einen Ort, begrenzt. Das Projekt OZ wurde eingerichtet, um die Voraussetzungen zu schaffen, die informatischen Kernveranstaltungen „Informationsgesellschaft“ und „Digitale Medien“ verteilt durchzuführen. An den Standorten Adlershof und Mitte wurden zwei Räume innerhalb der Universität mit Beamern, Projektionsflächen, Videokameras, Tischmikrophonen und [Seite 271↓] Steuerungsrechnern ausgestattet, um eine symmetrische Übertragungsumgebung zu gestalten. Dozenten, Übungsleiter und Studierende können in jedem der Räume an der Lehrveranstaltung teilnehmen, Vorlesungs- und Übungsunterlagen verfolgen, Fragen stellen und beantworten.80

Die verteilten Lehrveranstaltungen finden an zwei Orten statt, dennoch war es Projektziel, einen gemeinsamen Raum zu schaffen, in dem die Veranstaltungen eingebettet sind. Neben dem Aufbau einer technischen Infrastruktur, die eine Übertragung und Veranstaltungsdurchführung erst ermöglicht, gilt daher besondere Aufmerksamkeit der Konstruktion eines virtuellen Raums. Wenn das Wort virtuell in diesem Zusammenhang benutzt wird, dann bezieht es sich nicht auf die technische Modellierung eines Raumes, wie es die Verfahren der virtuellen Realität versuchen. Die Virtualität unseres Raumes liegt in der Tatsache, dass er nicht an einem Ort lokalisierbar ist. Zusammenhang ist eine der klassischen topologischen Eigenschaften von Räumen, der für einen virtuellen Raum keine Gültigkeit mehr hat. Mit dem Verlust der Eigenschaft des Zusammenhangs ändert sich aber auch der Zentralitätscharakter eines Ortes.

Universitäre Lehrveranstaltungen wie Seminare, Übungen und Vorlesungen bedürfen der physischen Präsenz aller Teilnehmer an einem Ort, sollen Interaktionen, wie z.B. Fragen, Kommentare oder Diskussionen möglich sein. Diese Notwendigkeit für ein Handlungssubjekts, zum Durchführen einer Handlung an einem bestimmten Ort zu sein, habe ich weiter oben als Kennzeichen des zentrierten Raumes angeführt.

Eine verteilte Übung findet an zwei Orten, aber dennoch in einem Raum statt, der nicht zusammenhängend ist. Alle Teilnehmer können sich aussuchen, an welchem der beiden Orte sie sich aufhalten wollen. Bei Veranstaltungen mit sozialer Hierarchie innerhalb der Teilnehmer, z.B. einer Vorlesung mit einem Dozenten, Übungen mit Übungsbetreuern, einem Seminar mit Seminarleitung, d.h. bei jeder Form von Lehrveranstaltung unterscheidet sich die Atmosphäre an beiden Orten erheblich, was sich im Verhalten der Anwesenden widerspiegelt. Der Standort, an dem sich der Veranstaltungsleitende aufhält, wird als zentraler Veranstaltungsort wahrgenommen. Selbst bei Übertragungsstörungen kann an diesem Standort an der Veranstaltung erfolgreich teilgenommen werden, was am entfernten Ort nicht mehr möglich ist.

Diese Hierarchie steht nicht im Widerspruch zu dem Konzept des vernetzten Raumes, der sich weiterhin vom zentrierten Raum durch fehlenden physikalischen Zusammenhang bei gleichzeitiger Interaktionsmöglichkeit unterscheidet. Der Unterschied zu einer Live-Übertragung im Fernsehen besteht gerade in der Möglichkeit zur Interaktion, wodurch ein Raum erst geschaffen wird, im phänomenologischen Sinn als Möglichkeitsbedingung von Bewegung.

Auch kann der Schwerpunkt während einer Veranstaltung wechseln, z.B. bei Übungen mit [Seite 272↓] wechselnden Aufgabenpräsentationen und -besprechungen von beiden Seiten. In diesem Fall sind beide Standorte gleich berechtigt.

Einem virtuellen Übungsraums liegt eine technische Infrastruktur notwendig zu Grunde. Deren Details sollen im Folgenden nicht weiter erläutert werden. Die Erzeugung eines Raums folgt aus dieser Infrastruktur nicht automatisch, weil dazu die aktive Beteiligung aller Teilnehmer erforderlich ist. Um deren Bereitschaft zu erhöhen und die Qualität der Stimmung zu heben, müssen beide Standorte inszeniert werden. Im Verlauf des OZ-Projekts wurden einige Rahmenbedingungen zur Inszenierung verteilter Veranstaltung erarbeitet, welche kurz vorgestellt und diskutiert werden sollen.

Sie teilen sich in zwei Gruppen: Die Inszenierung der Veranstaltungsorte bezieht sich auf den Aufbau des technischen Rahmens – Platzierung von Kamera, Beamer, Beleuchtung, Sitzplatz, Einrichtung des Desktops etc. – der vor der Veranstaltung eingerichtet wird. Hinweise zur Inszenierung der Veranstaltung beziehen sich auf den Ablauf und richten sich an alle Beteiligten. Jede Entscheidung vor und während der Veranstaltung ist zugleich eine Designentscheidung und hat Einfluss auf das Gesamtbild und die Atmosphäre. Der virtuelle Übungsraum ist eine Konstruktionsleistung aller Beteiligten und wird ausschließlich durch ihre konzentrierte Mitarbeit aufrecht erhalten. Die fehlende physikalische Präsenz des Gegenüber – in unilokalen Räumen eine Selbstverständlichkeit – muss durch die imaginierte Präsenz kompensiert werden: Nicht der andere stellt sich mir gegenüber, sondern ich stelle ihn mir als gegenüber vor. Virtuelle Präsenz speist sich aus der angenommenen Anwesenheit des Abwesenden, ohne eine symbolische Verdopplung in simulierten Welten, wie sie in grafischen Multi Duser Domains (MUDs) oder VR-Umgebungen erzeugt wird.

Inszenierung der Veranstaltungsorte 81


[Seite 274↓]

Inszenierung der Veranstaltung

Der Inszenierungsrahmen wurde so ausführlich diskutiert, weil sich an dem Beispiel des virtuellen Übungsraums alle Merkmale eines vernetzten Raums aufzeigen lassen. Diese Raumform wird erst durch eine mediale Verbindung ermöglicht und unterscheidet sich vom zentrierten Raum durch den fehlenden topologischen Zusammenhang. Die physikalische Verbindung beider Standorte besteht in einer Glasfaserverbindung, ist also im wörtlichen Sinn haarklein. Das physikalische Verbindungsnetz [Seite 275↓] wird durch Router und Gateways angesteuert, welche über Fiberglasleitungen ein Kommunikationsnetz bilden. Die Netzknoten werden ihrerseits durch Software gesteuert, welche die Vermittlung der Daten garantiert. Daten, die von Videokonferenz- und Screensharing-Software geliefert werden, digitalisieren Ausschnitte eines Standortes.

Doch der virtuelle Raum entsteht erst durch die Verbindung symbolischer Repräsentationen beider (oder mehrerer, wie in anderen Projekten) Standorte in einem Inszenierungsrahmen und ist eine Konstruktionsleistung aller beteiligten Personen. Wie jedes Netz setzt sich auch ein vernetzter Raum aus zahlreichen Schichten zusammen, wobei nicht jede Schicht ein dezentrales Netz sein muss. Die untersten, elementarsten Schichten bildet die technische Infrastruktur. Ohne sie wäre die Konstruktion eines vernetzten Raums unmöglich. Diese Konstruktion aber, welche die Delokalisierung von Wissensaktivitäten ermöglicht, bedarf permanenter und umfangreicher Inszenierungen, und selbst in diesem Rahmen machen sich die qualitativen Verluste fehlender Präsenz bemerkbar als Kontextverluste, Zerstreuung von Aufmerksamkeit und insgesamt höherem Konzentrationsbedarf aller Beteiligten. Da dies kein primär technisches Problem ist, sondern vielmehr ein soziokulturelles, werden sich Wissensaktivitäten noch für lange Zeit gegen ihre Virtualisierung sperren und höchstens punktuell eingesetzt.

Tele-Working: Das Human Genomprojekt

Aus den vorangegangenen Beispielen kann geschlossen werden, dass die Auflösung zentrierter Räume im Internet vor allem bei Daten- und Informationsaktivitäten erfolgversprechend ist. Komplexere Tätigkeiten wie Wissensaktivitäten, die bislang an räumliche Zentren gebunden waren, können nur unter erheblichem Aufwand und mit zahlreichen Abstrichen in einen vernetzten Raum übertragen werden. Die wenigsten Verrichtungen aber sind reine Daten-, Informations- oder Wissensaktivitäten, sondern vielfach eine Kombination dieser und anderer Formen, die zusätzlich materieller Ressourcen bedürfen. Eine vollständige Virtualisierung kultureller Praktiken ist daher nicht zu erwarten, die Gesellschaft kann nicht alle räumlichen Zentren in Netzen auflösen.

Vielmehr können neue Mischungsformen beobachtet werden. Komplexe Tätigkeiten werden modularisiert, ihr Anteil an Daten- und Informationsaktivitäten wird virtualisiert, die übrigen Funktionen bleiben umso stärker in Zentren gebündelt. Die Forderung der Entwicklung von Bibliotheken oder Fahrkartenschaltern von Informations- zu Wissensdienstleistern unterstreicht die Entwicklung. Als Beispiel eines gelungenen Mischraums sei das Humangenom-Projekt (HGP) gewählt, ein weltweit verteiltes Arbeitsprojekts, welches über das Internet die Topologie eines zentrierten mit der eines vernetzten Raums verbindet, um Vorteile beider zu nutzen und Nachteile auszugleichen.

Das HGP ist ein auf Daten- und Informationsaktivitäten basierendes internationales Projekt ohne räumliches Zentrum des Datenbestandes. Die Standorte der beteiligten Labors sind für die Datenverarbeitung unerheblich. Die erarbeiteten Ergebnisse sind weltweit jederzeit einsehbar und [Seite 276↓] können als Grundlage weiterer Arbeiten ohne raumzeitliche Einschränkungen genutzt werden

Das HGP begann offiziell 1990 und hat zum Ziel,

das komplette „genetische Buch“, also alle 3 Milliarden „Buchstaben“ mit denen dieser Grundplan geschrieben ist, bis zum Jahr 2005 zu entschlüsseln und alle ca. 100.000 menschlichen Gene (die „Blaupausen“ für unsere stoffliche Grundlage) zu identifizieren. Seit 1995 beteiligt sich auch Deutschland mit jährlich ca. 40 Millionen DM an diesem Unternehmen.82

Zum besseren Verständnis der Aufgaben der am HGP beteiligten Labors skizziere ich kurz den molekularbiologischen Hintergrund der Gensequenzierung: Auf die 23 menschlichen Chromosome verteilen sich die inzwischen 30.000 identifizierten Gene, welche sich ihrerseits aus den vier Basen Adenin (A), Guanin (G), Cytosin (C) sowie Thymin (T) zusammensetzen. Insgesamt sind es 3 Milliarden Basen, welche das menschliche Erbgut formen. Basen verbinden sich über Zucker- und Phosphormoleküle zu der bekannten Doppelhelix, der DNA. Die in den Genen gespeicherten Informationen werden von Enzymen zur Produktion von Proteinen herangezogen, welche sowohl als Stütz- und Baumaterial für Gewebe als auch für den Stoffwechsel benötigt werden. Grundlage des genetischen Codes sind Dreier-Kombinationen der vier Basen. 61 der 43 = 64 möglichen Dreier-Kombinationen definiert eine von 20 Aminosäuren, wobei jede Aminosäure mehrfach codiert ist. Sie bilden die Grundbausteine der Proteine. Eine bestimmte Abfolge der vier Basen stellt eine Bauanleitung für ein bestimmtes Protein dar. Drei der 64 Triplets bilden die STOP-Sequenz, welche die Codefolge für ein Protein abschließt.

Bei der Sequenzierung der genetischen Information wird zunächst die Basenfolge eines DNA-Segments ermittelt, erst in einem weiteren Schritt wird die Funktion des sequenzierten Gens im Organismus bestimmt. In der Terminologie dieses Kapitels sind die Ergebnisse der Sequenzierung Daten. Die Funktionen des Gens sind Information, Antworten auf die Frage „Welche Proteine werden mit Hilfe dieses Gens erzeugt?“ bzw. „Welche Funktion übernimmt das erzeugte Protein im Körper?“. Gensequenzierung, die erste Phase des HGP, ist die groß angelegte Produktion von Daten, welche in der medizinisch-biologischen Forschung ausgewertet und in Informationen umgewandelt werden können. Die Datenproduktion, d.h. Durchführung und Protokollierung von Messungen, ist nicht nur hochgradig automatisierbar, die Datenspeicherung und -distribution bedarf auch keines raumgebundenen Speichers. Das HGP ist damit ein Beispiel räumlicher Dezentrierung von Datenaktivitäten. Grundsätzlich kann sich weltweit jedes Labor an der Sequenzierung beteiligen. Die Abbildung zeigt die Verteilung deutscher Labors, die am HGP beteiligt sind. Die Bildung von Schwerpunkten dient der Bündelung materieller und personeller Ressourcen, ein Vorteil zentrierter Räume. Der Zugang zu den Daten kooperierender Einrichtungen wird über das Internet, insbesondere die Genom-Datenbank (s.u.) garantiert und spielt bei der Standortwahl keine Rolle. [Seite 277↓] Delokalisierung von Datenaktivitäten bedeutet also keineswegs die vollständige Auflösung räumlicher Grundbeziehungen. Auch das HGP hat Schwerpunkte, Zentren und Peripherien, was Laborausstattung, Mitarbeiter-Know-how oder finanzielle Zuwendungen betrifft (Abb. 27).

Abb. 27. Quelle: BmBF, Genomforschung in Deutschland, S. 21.

Der Datenbestand aber ist an jedem Standort derselbe, jeder weiß über den Stand des Projekts soviel wie die Anderen. Aufgrund des Daten- und Informationsmanagements des HGP können sich keine Datenzentren herausbilden, was erst die Bedingung für die weltweite Aufteilung des Genoms ist.

Datenproduktion: Sequenzierung 83

Zur Bestimmung der Basenfolge eines Chromosoms, das sich aus 50 bis 250 Millionen Basen zusammensetzt, wird dieses in sehr viele Stücke unterteilt (subcloning ). Jedes dieser kurzen Stücke dient als Vorlage für eine Folge kurzer Fragmente, welche schwach radioaktiv markiert werden und sich in der Länge unterscheiden. Diese Fragmentierung wird viermal durchgeführt, einmal für jeden Basentyp. Die vier Ergebnisflüssigkeiten enthalten Fragmente unterschiedlicher Länge, deren Spitze jeweils identisch ist. Die vier Lösungen werden in einem Gel mit Hilfe einer elektrischen Spannung separiert. Die Fragmente wandern von der negativen zu der positiven Elektrode, wobei die zurückgelegte Wegstrecke proportional zum log 10 der Fragmentlänge (und damit des Fragmentgewichts) ist. Sobald das erste Fragment an der positiven Elektrode angelangt ist, wird die [Seite 278↓] Separation abgeschlossen und das Gel getrocknet. Die radioaktiven Markierungen belichten einen Röntgenfilm. Aus dem Autoradiogramm lässt sich die ursprüngliche Basenfolge als Buchstabencode ablesen (TGCAGGTCGATGTGTTGACAGCTCCATT...). Diese so genannte Gelelektrophoresis beschränkt einen Sequenzierungsvorgang auf 500-700 Basen pro Durchgang. Im Anschluss werden die Sequenzen im Computer weiter verarbeitet:

After the bases are "read," computers are used to assemble the short sequences (in blocks of about 500 bases each, called the read length) into long continuous stretches that are analyzed for errors, gene-coding regions, and other characteristics.84

Datenspeicherung und -distribution: GenBase

Gensequenzen werden in einer öffentlich zugänglichen Datenbank gespeichert:

Finished sequence is submitted to major public sequence databases, such as GenBank. Human Genome Project sequence data are thus made freely available to anyone around the world.85

Zwar ist die Eingabe neuer Sequenzen an Schreibrechte, d.h. die Anmeldung bei der Genbank gebunden, Leserecht aber hat weltweit jeder Interessierte. Die Ergebnisse der aus öffentlichen Mitteln finanzierte Forschung stehen der Öffentlichkeit zur Verfügung.

Durch die Vernetzung von Datenaktivitäten schwindet der räumlich zentrierende Einfluss von Datenzentren. Keineswegs bedeutet es die Auflösung der Kategorien Zentrum und Peripherie als Ganzes. Ausdrücklich wird die Bildung von Forschungsclustern angestrebt:

Die Erfahrung in den Vereinigten Staaten und in Großbritannien zeigt, dass es dabei erforderlich sein wird, eine lokale Konzentration und kritische Masse an interdisziplinär vernetzter Spitzenforschung zu schaffen, die geeignet ist, Ergebnis- und Technologiecluster zu bilden. Eine solche Clusterbildung ist einerseits für den weiteren wissenschaftlichen Fortschritt unabdingbar und bildet andererseits die Voraussetzung für die Gründung und Ansiedlung von Unternehmen, welche eine Schlüsselposition bei der dynamischen wirtschaftlichen Umsetzung der Forschungsergebnisse einnehmen.86

Die erwähnten Zusammenarbeiten aber lassen sich nicht als Datenaktivitäten verstehen, wie es z.B. Verwaltungszentren in Großstädten mit gemeinsamem Aktenbestand auszeichnet.

Auch das HGP hat eine klare Standort-Hierarchie, personell, finanziell und materiell, aber nicht informationell. Bei der Entscheidung für oder gegen die Allokation eines Standortes, für oder gegen einen bestimmen Arbeits-Platz spielt der Zugang zu Daten keine Rolle. Je mehr eine Arbeit sich mit der Produktion, Speicherung, Verteilung oder Nutzung von Daten beschäftigt, desto unabhängiger ist sie von der Lage im Raum, andere Kriterien können bei der Auswahl in den Fordergrund treten.


[Seite 279↓]

Zusammenfassung

Diskurse innerhalb einer Kulturgemeinschaft arrangieren sich um thematische Zentren, welche ich als „kulturelle Paradigmen“ oder „kollektive Wahrnehmungsdimensionen“ bezeichnet habe. Die Dimensionen des Technischen konnten bereits mit technischen Apparaten starke Geltung entfalten, sie halten das Technische im Blick, indem sie Handlungen in mechanische und elektrische Manipulationen umformen. Computer schaffen erstmals die Möglichkeit, im symbolischen Raum zu agieren, ein Handlungsmodus, der sich als strukturell verwandt mit der Tätigkeit des Spielens zeigt. Das Medium, oder besser der Medienverbund Internet, ermöglicht darüber hinaus, beliebig viele dieser Spielräume miteinander zu verknüpfen und einen dezentral organisierten symbolischen Raum zu schaffen.

Das Internet ist die technische Umsetzung der Idee dezentraler Kommunikation, eine Idee, die es mit ihrer Implementierung unabhängig von den jeweiligen Inhalten transportiert. In Anlehnung an Marshall McLuhans berühmten Satz ist die Botschaft, welche im Medium Internet eingeschrieben ist, der dezentral vernetzte symbolische Raum . Am Beispiel digitaler Teilkulturen zeigt sich, wie diese Botschaft als Perspektive die Konstitution und Reproduktion von Gruppen beeinflusst. Gruppen beziehen ihre Identität nicht mehr aus räumlicher Verbundenheit, weder territorial durch eine gemeinsame Umwelt noch lokal durch Konstruktion eines gemeinsamen Treffpunktes. Die Kommmutation und Kommunikation eines gemeinsamen Weltbildes, und das heißt die Partizipation einer bestimmten Perspektive innerhalb gemeinsamer Wahrnehmungsdimensionen, entscheidet über die Zugehörigkeit zu einer bestimmten Gruppe.

Die Dimension der Vernetzung etablierte sich ab Mitte der neunziger Jahre als kulturelles Paradigma, sichtbar an der Erhöhung ihrer Umlaufgeltung. Sie restrukturierte, modifizierte und generierte Diskurse, allen voran die Voraussagen und Prognosen, welche den tatsächlichen Entwicklungen nicht nur vorauseilen, sondern aktiv an ihrer Gestaltung mitwirken.

Das Internet verändert Daten-, Informations- und Wissensaktivitäten. Waren diese bislang vielfach an raumzeitliche Zentren gebunden, so ergibt sich im Netz die Möglichkeit, räumlich und zeitlich dezentral zu handeln. Das bedeutet keineswegs den Wegfall jeglicher Form der Hierarchie oder Zentrierung. Der Internetdienst World Wide Web ist bekannt und berüchtigt für seinen Mangel an Struktur. Wie in Kapitel 2 beschrieben, hat Tim Berners-Lee aufgrund der besonderen Anforderungen bei CERN bewusst auf Werkzeuge verzichtet, welche Archivierung, Sicherung und Hierarchisierung des Web garantieren. Mehrere tausend Suchmaschinen, die ihrerseits von Meta-Suchmaschinen und Suchmaschinen-Suchmaschinen katalogisiert werden, verdeutlichen das Problem, zielsicher Antworten auf eine gestellte Frage zu bekommen. Die Suche gestaltet sich teilweise schwieriger als in einer Bibliothek und verlangt eine umfassendere Medienkompetenz: Nicht nur Suchmaschinen wollen richtig befragt, auch zusätzliche Informationsquellen wie Usenet, [Seite 280↓] Newsletter, Web-Ringe, Mailinglisten, Datenbanken, File-Transfer oder remote access (telnet) können konsultiert werden. Der Gebrauch eines Lexikons, einer Enzyklopädie, eines Katalogs ist überschaubar, enthalten sie die gewünschte Information nicht, ist die Suche beendet. Im Internet bleibt das ungute Gefühl, nicht richtig gesucht zu haben, die entscheidende URL nicht zu kennen und am Misserfolg der Suche die Verantwortung zu tragen. Umfangreiche Anleitungen versuchen, das Angebot an Suchmöglichkeiten zu strukturieren und helfen, geeignete Suchstrategien zu entwerfen.87

Dennoch, und hieraruf richte ich das Augenmerk, findet diese Suche nicht mehr im Raum statt, sondern in der Zeit. Der Ort eines Netzknotens, an dem die Suche durchgeführt wird, ist unerheblich.

Die Möglichkeit bibliographischer Standortrecherche lässt sich gut im WWW anbieten, weil es eine reine Informationsaktivität ist und damit an keinen bestimmten Ort gebunden. Ähnliches gilt für Recherchen nach Öffnungszeiten, Fahrplänen, Telefonnummern, Adressen, Veranstaltungszeiten, für die meisten Banktransaktionen, etc. Je stärker der Informations- oder Datencharakter einer Handlung ist, desto leichter lässt er sich enträumlichen, desto breiter ist die Akzeptanz auf Seiten der Nutzer. Die Enträumlichung von Daten und Informationen wird als Gewinn wahrgenommen, als Einsparung von Transportaufwand.

Auf der anderen Seite sperren sich die Aktivitäten gegen ihre Delokalisierung, welche über reine Informationsproduktion oder -distribution hinausgehen. Tele-Teaching- und Videokonferenzsysteme vermitteln nicht die Atmosphäre direkter Präsenz, vieles geht bei der Digitalisierung und Übertragung verloren, was als wichtig empfunden wird: Der soziale und kulturelle Raum, welcher durch direkte Interaktionsmöglichkeiten aufgespannt wird, kann durch Technik nur in Ausschnitten übermittelt werden und verlangt darüber hinaus aktive Konstruktionsleistungen. Die Entscheidung, bei einer verteilten Vorlesung auf der Seite zu sein, an welcher der Dozent sich nicht aufhält, ist ein Abwägen zwischen Transportaufwand und atmosphärischem Verlust.

Ebenso wenig ist Wareneinkauf eine reine Informationsaktivität. Nicht nur Name und Preis einer Ware entscheiden, sondern der sinnliche Eindruck, die Atmosphäre des Geschäftes und z.B. im Fall des Kleidungskaufs die Frage, ob die Ware überhaupt passt, sich gut anfühlt und gefällt. Trotz erheblichem Aufwand lassen sich diese Aspekte im Computer bislang nur sehr unzureichend abbilden, was nach Unsicherheiten beim Bezahlen der Grund für die schwache Entwicklung des E-Commerce in diesem Marktsegment ist. Anders verhält es sich bei standardisierten Marktbedingungen, z.B. beschaffungsmärkten (E-procurement).


[Seite 281↓]

Jedes Netz strukturiert die Raumzeit in zentrale und periphere Orte. Diese Struktur bezieht sich auf den durch das Netz definierten Fluss. Als Ergebnis der vorangegangen Abschnitte bleibt festzuhalten:

Das Internet verringert die Strukturierung der Raumzeit in zentrale und periphere Orte bezüglich Daten-, Informations- und Wissensaktivitäten.

Der geographisch lokalisierbare Ort der genannten Aktivitäten verliert an Bedeutung, die sich ihrerseits auf Netzknoten verlagern. Mit deren Ausbreitung verliert die Raumzeit aus phänomenologischer Sicht an Struktur und Kontur. Mit der Unterscheidung zwischen Zentrum und Peripherie schwinden auch verwandte räumliche Unterscheidungsmerkmale, z.B. zwischen Nähe und Ferne oder zwischen Innen und Aussen , immer in Hinblick auf den Fluss des betrachteten Netzes. Globale Transport-, Versorgungs- oder Kommunikationsnetze haben keine Grenzen oder Ränder im herkömmlichen topologischen Sinn einer Begrenzung. Das unterscheidet sie von ihren etymologischen Wurzeln, den Fangnetzen, die einen begrenzten Raum umschließen und beherrschbar machen sollten.

Im globalen Netz gilt: drin ist, wer Zugang zu einem Knoten hat; draußen bleibt, wem dies verwehrt ist. Der Zugang zu Internetknoten hängt ab von finanziellen Mitteln, in manchen Ländern auch von politischen Entscheidungen, geographische Hindernisse aber spielen keine Rolle mehr.

Was sind nun die Ränder eines Netzes? Was verhindert ihre Ausdehnung ins Unendliche? Nach Daniel Parrochia gibt es drei Kriterien, welche die Grenzen eines Netzes bestimmen:88

Die Begrenzungen des Internets sind also technisch-operationell und nicht topologisch-geographisch. Dementsprechend verschieben sich räumliche Kategorien auf technische. Das Zentrum und die Ränder des Netzes definieren sich durch Medienkompetenz, sowohl technisch als auch operationell. Wer die neusten Entwicklungen aufmerksam verfolgt, über die aktuellste Hard- und Software verfügt und sie zusätzlich bedienen kann, darf sich zum Internet-Zentrum zählen, selbst wenn er in Alaska wohnt. Der Preis ist ein erheblicher Einsatz privater oder beruflicher Zeit, lebenslanges Lernen, um mit der Entwicklung Schritt zu halten. Je stärker Computer und ihre Vernetzung Zentrum der eigenen Lebenswelt werden, und das bedeutet auch, je mehr Zeit (und Geld) der Einzelne in ihre Beherrschung zu investieren bereit ist, desto zentraler ist sein Stand im Netz. Auch das Internet transformiert damit, wie alle anderen Netze, Raum in Zeit. Das gilt sowohl für (einige) raumgebundene kulturelle und soziale Praktiken, die sich in zeitgebundene umwandeln, als auch für räumliche Kategorien bezüglich dieser Praktiken. Darin besteht der weitere Sieg oder Verlust des Menschen in seiner Auseinandersetzung mit dem Raum.


Fußnoten und Endnoten

1  Eine Kategorisierung populärer Metaphern findet sich bei Gramelsberger, Konzeptuelle Aneignungsstrategien und derern Metaphern um Umgang mit dem Internet .

2  Mc Luhan, Die magischen Kanäle , S. 15.

3  Großklaus, Medien-Zeit, Medien-Raum, S. 97.

4  Heine, zitiert in: Großklaus, Medien-Zeit, Medien-Raum, S. 78 f.

5  Zitiert aus: Flichy, Une histoire de la communication moderne, p. 21.

6  Burckhardt, Metamorphosen von Raum und Zeit , S. 300.

7  Barloewen, Der Mensch im Cybersp@ce , S. 52.

8  Rötzer, Telepolis, S. 9.

9  Burckhardt, Metamorphosen von Raum und Zeit , S. 312 f.

10  Burckhardt, Metamorphosen von Raum und Zeit , S. 298 f.

11  Zitiert aus: Münker, Was heißt eigentlich: “Virtuelle Realität“? , S. 117

12  Virilio Revolution der Geschwindigkeit , S. 58.

13  Guggenberger, Das digitale Nirwana , S. 48.

14  Vgl. Guggenberger, Das digitale Nirwana , S. 183.

15  Negroponte, Total Digital, S. 13 f.

16  Castells, The Rise of the Network Society, p. 411.

17  Castells, The Rise of the Network Society, p. 412.

18  Castells, The Rise of the Network Society, p. 412.

19  Löw, Raumsoziologie , S. 204.

20  Cassirer, Zur Einsteinschen Relativitätstheorie S. 117

21  Löw, Raumsoziologie, S. 13.

22  Vgl. Fröhlich, Netz-Euphorien .

23  Dieser Abschnitt ist mit wenigen Änderungen übernommen aus: Koubek, Zur Kulturgeschichte des physikalischen Raums . Er ist zwar in diesem Umfang für die weitere Argumentation nicht notwendig aber in sich interessant, so dass ich ihn in voller Länge anführe.

24  Dijkserhuis, Die Mechanisierung des Weltbildes, S. 36

25  Nach Salgado, The Light Cone, Aristotle’s Spacetime.

26  Reproduktioinen von Giottos Bilder sind online einsehbar in der Web Galery of Art: http://gallery.euroweb.hu/html/g/giotto/padova/index.html (Stand: 8.7.2002).

27  Wertheim, The Pearly Gates of Cyberspace.

28  Kemp, Die Räume der Maler.

29  Petrarca, Die Besteigung des Mount Ventoux , insbesondere das Nachwort von Kurt Steinmann, in dem die Bedeutung des Textes relativiert wird. Dennoch bleibt er ein historischer Markierungspunkt.

30  Berkeley in: Mainzer, Philosophie und Physik der Raumzeit, S. 25.

31  Wertheim, The Pearly Gates of Cyberspace, p. 152.

32  Romanyshyn, Technology as Symptom and Dream.

33 Laut Margaret Wertheim ist Cyberspace ein moderner Versuch, einen Ort für die Seele zu finden, den sie in der Aufklärung verloren hat. S. auch Böhme, Zur Theologie der Telepräsenz.

34  Kuhn, Die Struktur wissenschaftlicher Revolution. Vgl. Kapitel 1 der vorliegenden Arbeit.

35  H. Minkowski, Raum und Zeit.

36  Eine Einführung mit dem essentiellen Formalismus bietet Schmutzer, Relativitätstheorie aktuell.

37  Eine Darstellung Bergsons inhaltlicher Fehler findet sich bei Sokal, eleganter Unsinn.

38  Cassirer, Zur Einsteinschen Relativitätstheorie, S. 117.

39  Cassirer, Zur Einsteinschen Relativitätstheorie , S. 116.

40  Cassirer, Zur Einsteinschen Relativitätstheorie, S. 118.

41  Mainzer, Philosophie und Physik der Raumzeit, S. 45.

42  Vortisch, Die Relativitätstheorie, S. 55.

43  Davies; Brown, Superstrings.

44  Seiffert, Einführung in die Wissenschaftstheorie, Bd. 2 , S. 41.

45  Merlau-Ponty, Phänomenologie der Erkenntnis , S. 3.

46  Merlau-Ponty, Phänomenologie der Erkenntnis , S. 4.

47  Benedikt, Cyberspace, p. 126.

48  Bollnow, Mensch und Raum, S. 24.

49  Nach: Christian Breßler, Martin Harsche, Einführung in die Kultur- und Sozialgeographie.

50  Abbildung und Zitat aus: Bick, Humangeographie .

51  Schivelbusch, Geschichte der Eisenbahnreise, S. 35.

52  z.B. Heineberg, Stadtgeographie , S. 191 ff.

53  Negroponte, Total Digital, S. 11.

54  Ceruzzi, A History of Modern Computing

55  Koubek, Subjetive Informationstheorie, S. 16.

56  Spinner, Die Architektur der Informationsgesellschaft.S. 125 ff.

57  McJones, The 1995 SQL Reunion.

58  Anderson, A Brief History of SQL.

59  Näheres zu SQL unter http://www.sql.org/ (Stand: 8.7.2002).

60  Technische Details zu Deep Blue unter http://www.research.ibm.com/deepblue/home/html/b.html (Stand: 8.7.2002).

61  Ulrich, Die Unternehmung als produktives System. Zitiert in: Specht, Einführung in die Betriebswirtschaftslehre. S. 43.

62  Vgl. Specht, Einführung in die Betriebswirtschaftslehre. S. 103 f.

63  Zur Geschichte elektronischer Bibliothekssyteme s. Reynolds, Library Automation ; zur Geschichte des OPAC, S. 91 ff.

64  Vgl. Möller, Kopieren ohne Grenzen.

65  Gnutellium LLC.: What is gnutella?

66  Tedd, An Introduction to Computer-based Library Systems, p. 141 f.

67  Dreis, Benutzerverhalten an einem Online-Publikumskatalog für wissenschaftliche Bibliotheken , S. 138

68  Zimmer, Die Bibliothek der Zukunft , S. 90.

69  Oechtering, Wo bleibt das Buch? Internet und die Zukunft des Bibliothekswesens . In: Arbeitskreis kritischer BibliothekarInnen (Akribie), Wo bleibt das Buch? , S. 6.

70  HaCon, Der HAFAS-Algorithmus und das Konzept.

71  http://www.tlc.de (Stand: 8.7.2002).

72  https://surfandrail.bahn.de/ (Stand: 8.7.2002).

73  BDB et al., HBCI – Homebanking Computer Interface.

74  Vgl. Meyke, Tele-Banking mit dem Home Banking Computer Interface.

75  Meyke, Tele-Banking mit dem Home Banking Computer Interface.

76  BDB et al., HBCI – Homebanking Computer Interface, Kapitel VII.

77  Vgl. Tschugg, Call Center in Banken.

78  BDB, Banken 2000 , S. 42.

79  Zum Projektrahmen, s.Coy; Pirr, Wizards of OZ . Change in Teaching and Learning.

80  Details unter http://waste.informatik.hu-berlin.de/forschung/oz (Stand: 8.7.2002).

81  Vgl. Günther, Videokonferenz in der Lehre , S. 133 ff.

82  Maurer, Das Humangenomprojekt .

83  Zum Hintergrund dieses Abschnittes s. Nicholl, Gentechnische Methoden , S. 29 ff.

84  HGP, Facts About Genome Sequencing.

85  HGP, Facts About Genome Sequencing.

86  BmBF, Genomforschung in Deutschland , S. 5.

87  Z.B. Steinhaus, Recherche im Internet.

88  Vgl. Parrochia, Philosophie des Réseaux, p. 273 ff.



© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.
DiML DTD Version 3.0Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML-Version erstellt am:
08.01.2004