Die historisch-technische Dimension:
Die Vernetzung der Welt

Dominant functions and processes in the information age are increasingly organised around networks. Networks constitute the new social morphology of our societies and the diffusion of networking logic substantially modifies the operation and outcomes in the processes of production, experience, power and culture.
Manuel Castells

Die Kernthese meiner Arbeit ist, dass zusammen mit der Verbreitung des Internet die Wahrnehmungsdimension der Vernetzung sich in die unterschiedlichsten Weltbilder integriert und dabei massiv kulturelle Praktiken angeregt, beeinflusst und umgestaltet, was sich sowohl in Diskursproduktionen und -neuordnungen, als auch im individuellen Verhältnis zur Alltagswelt niederschlägt. Diese Ausbreitungsbewegung habe ich als kulturelles Paradigma bezeichnet. Vor der konkreten Diskursanalyse soll zunächst eine historische Besinnung den Eindruck eines simplen Technikdeterminismus vermeiden helfen, der Kultur- in Technikgeschichte umzuschreiben versucht. Eine solche Argumentation stünde auf dem Kopf und es gälte, sie wieder auf die Füße zu stellen: Kulturelle Paradigmen werden, so sie durch Technik katalysiert sind, durch diese nicht hervorgebracht, sondern sind umgekehrt notwendige Voraussetzungen für Technikgestaltung, ‑ent­wicklung und -implementierung. In ihrer präparadigmatischen Phase, d.h. vor ihrer Breitenwirkung und ubiquitären diskursiven Präsenz, bestimmen sie das Weltbild weniger, welche hinterher, nach erfolgreicher Durchsetzung, als Visionäre gelobt werden.

Bei näherer Betrachtung findet sich ein fruchtbarer akademischer Diskurs zu Netzen und Vernetzung bereits in den sechziger Jahren, u.a. im ethnologischen Strukturalismus von Levi-Strauss, in der rhizomatischen Philosophie von Deleuze und Guattari, den soziologischen Systemtheorien von Talcott Parsons oder Niclas Luhmann, der Kybernetik von Norbert Wiener, der systemischen Interaktion der Palo Alto-Schule, der physikalischen Stringtheorie, dem Konnektionismus der Kognitionswissenschaften und nicht zuletzt im Zusammenhang mit der Entwicklung technischer Netze. Es versteht sich von selbst, dass ich im Rahmen der vorliegenden Arbeit diese Theo­rien nicht einmal im Ansatz würdigen, geschweige denn für meine Argumentation fruchtbar machen kann.

Um dennoch ein historisches Fundament zu legen und die Wechselwirkungen von Technik und Wahrnehmung zu beleuchten, beschränke ich mich im Folgenden auf die Diskurse, welche die Entwicklung des Internet begleitet haben. Schwerpunkt wird hierbei die Frage nach dem kulturellen Einfluss sein, nach impliziten und expliziten Voraussetzungen, welche Entwicklung und Design [Seite 56↓] wichtiger Etappen zu Grunde gelegt wurden und werden (Abschnitt I).

Die zentralen Konzepte der Computernetztechnik werden im Anschluss abstrahiert, um auf die Beschreibung von Netzen im Allgemeinen anwendbar zu werden und die Frage vorzubereiten, wieso das Internet zum Musterbeispiel eines selbst organisierten und dezentralen Netzes werden konnte (Abschnitt II).

Vom ARPANET zum Internet

Wenn im Folgenden die Geschichte des Internet und seine Verwurzelung im ARPA-Projekt nachgezeichnet wird, so geht es keineswegs um den Versuch historischer Vollständigkeit. Dies ist an anderer Stelle quellenreich und ausführlich geschehen.1 Es geht vielmehr um die Frage nach den grundlegenden Entscheidungen, welche dem Entwurf, der Topologie und letztendlich der technischen Ausarbeitung des ARPANET zugrunde lagen. Denn in zwei Punkten unterscheidete es sich von allen bis dahin bestehenden Kommunikationsnetzen und hat diese Eigenschaften an das Internet vererbt: Eine dezentrale Topologie und paketorientierte Datenübertragung.2 Beides war nur mit Hilfe digitaler Maschinen realisierbar und machte das ARPANET als erstes digitales Netz zum direkten Vorgänger aller Computernetze. Die Engführung zur Computergeschichte ist der technische Grund, warum dieses Kommunikationsmedium erst im 20. Jahrhundert entwickelt werden konnte. Dezentralität und gleichmäßige Belastung bedeuten technisch zahlreiche Vorteile gegenüber Analogmedien:

key characteristics of the new digital networks that break the old molds include: variable bandwidth demands; increasing economies of scope defining interconnectivity; and channel diversity, symmetry, flexibility, and extensibility.3

Dezentralität und gleichmäßige Belastungsverteilung sind aber auch für die Frage nach Genese und Ausbreitung der Idee der Vernetzung als ein Diskurse ordnendes Paradigma von fundamentaler Bedeutung. Sie stehen organisationstheoretisch in direktem Kontrast zu hierarchischen Baumstrukturen mit pyramidenförmiger Belastung. Jede Organisation kann unter dem Aspekt der Vernetzung völlig neu gedacht werden, wobei das Internet als Beispiel funktionierender Dezentralität die Neuordnung des Blicks katalysiert. Die Möglichkeit, Organisationsstrukturen von einem anderen Standpunkt neu zu sehen, schafft Spielraum, der den bisherigen Wahrnehmungsraum erweitert. Dezentralität ist nicht an eine bestimmte Institution mit speziellen Zielvorstellungen gebunden. Weder Wissenschaft noch das Militär noch anarchische Graswurzelbewegungen können die [Seite 57↓] Urheberschaft des Topos für sich verbuchen, ebenso wenig gilt dies für die Erfindung des Internet. Ganz im Gegenteil kann Vernetzung als Wahrnehmungsdimension nur deswegen ihre breite Geltung entfalten, weil sie sich unabhängig vom Kontext in ganz unterschiedliche Weltbilder einbinden lässt. Darin liegt die paradigmatische Kraft einer Wahrnehmungsdimension, die sie von konkreten Perspektiven unterscheidet.

Die Feststellung, dass die Welt immer schon vernetzt war oder dass auch Hierarchien eine Form der Vernetzung seien, ist ein Merkmal der diskursiven Dynamik eines kulturellen Paradigmas: Eine Selbstverständlichkeit tritt in den Vordergrund der Wahrnehmung. Es ist zu erwarten, dass das Thema der dezentralen Vernetzung auch in den Diskursen gefunden werden kann, die für die Entwicklung des Internet eine Rolle spielten. Denn erst im Zusammenspiel zahlreicher Argumente und Entscheidungen entstand die dezentrale Struktur des heutigen Internet.

Das visionäre Argument: Kommunikation und Synergie

In ihren Anfangzeiten waren Computer so selten wie teuer, aufgrund der Energie- und Personalkosten durfte Prozessorzeit nicht ungenutzt bleiben. Eine Möglichkeit, den Prozessor möglichst permanent zu beschäftigen, war der Batch-Betrieb. Dabei wurden die Aufträge mehrere Benutzer gesammelt, auf Lochkarten gestanzt, in den Rechner eingelesen und nacheinander abgearbeitet. Dieses Verfahren war insofern unpraktisch, als daß die Nutzer teilweise lange auf das Ergebnis ihrer Aufträge warten mußten, wobei ein Fehler bedeutete, den Auftrag erneut in die Warteschlange schieben zu müssen. Beim time-sharing-Verfahren hingegen wurde jedem Benutzer reihum eine kleine Zeitscheibe zur Verfügung gestellt, in welcher der Computer jeweils einen Auftrag ein Stück weiter bearbeitete. Zwar mußte jetzt zusätzliche Ressourcen für die Verwaltung der Aufträge, des Speichers, des Prozessors etc. aufgewandt werden, der Vorteil für die Nutzer überwog jedoch diesen Aufwand, der mit steigender Prozessorleistung zunehmend vernachlässigbar wurde.4 Jeder Computer stand mit Hilfe der time-sharing Technologie einer Gemeinschaft von Nutzern zur Verfügung.

Als J. C. R. Licklider 1962 als Projektleiter zur ARPA gerufen wurde, hatte er bereits einige Erfahrung mit interaktiven Systemen. Die meisten Computerwissenschaftler zu dieser Zeit empfanden time-sharing als ineffiziente Verschwendung von Computerressourcen, Zeit und Geld, schließlich musste der Computer mit der Verwaltung der verschiedenen Prozesse belastet werden, Prozessorzeit, welche für die eigentlichen Anwendungen verloren ging. Das Interesse, Rechnerkapazitäten anderer zu nutzen, kollidierte mit dem Wunsch, die eigenen für sich zu behalten.

Noch unglaublicher als time-sharing aber erschien Lickliders Idee, Computer könnten menschliche [Seite 58↓] Kommunikation fördern:

Creative, interactive communication requires a plastic or moldable medium that can be modeled, a dynamic medium in which premises will flow into consequences, and above all a common medium that can be contributed to and experimented with by all.5

Ein solches Medium war für Licklider der Computer. Zusammen mit Robert Taylor veröffentlichte er in dem Artikel „The Computer as Communication Device“6 grundlegende Ideen für das spätere ARPANET-Projekt. Um die von Licklider beobachteten halbes Dutzend time-sharing-systeme hatte sich bereits früh eine community gruppiert, welche über die gemeinsame Ressourcennutzung in Kontakt stand:

In the half-dozen communities, the computer systems research and development and the development of substantive applications mutually support each other. They are producing large and growing resources of programs, data, and know-how. (p. 31)

Lickliders Vision bestand darin, diese Gruppen über räumliche Grenzen zusammenzuführen, damit sie ihr Wissen und ihre Kenntnisse miteinander teilen können:

To appreciate the import ante the new computer-aided communication can have, one must consider the dynamics of “critical mass,“ as it applies to cooperation in creative endeavor. Take any problem worthy of the name, and you find only a few people who can contribute effectively to its solution. Those people must be brought into close intellectual partnership so that their ideas can come into contact with one another. (p. 29)

Jede community würde einen Knoten in einem großen Netz bilden (Abb .15):

The collection of people, hardware, and software-the multiaccess computer together with its local community of users — will become a node in a geographically distributed computer network. (p. 32)

Technisch sollten die Knoten mit Hilfe von „message-processors“ zu einem „experimental network of multiaccess computers“ (p. 30) verbunden werden, welche die Hard- und Softwaredifferenzen verschiedener Rechnersysteme umgeht (Abb. 16).

Ein Computernetz sollte den Aufbau von „interactive communities of geographically separated “ fördern, die sich durch gemeinsame Interessen definieren:

What will on-line interactive communities be like? In most fields they will consist of geographically separated members, some-times grouped in small clusters and sometimes working individually. They will be communities not of common location, but of common interest. (p. 37)

[Seite 59↓]

Abb. 15 : Knoten

Abb. 16 : Netz

Die Vernetzung der „distributed intellectual resources“ nannte Licklider sein „intergalactical network“. Dessen Teilnehmer teilten „raw data, digested data, data about the location of data – and documents – and most especially models “ (p. 29), eben alles, was über ein Terminal eingegeben und verarbeitet werden kann.

Lickliders intergalaktisches Netzwerk der Daten und Ideen nimmt aus heutiger Sicht die Entwicklung der Online-Communities vorweg. Es hatte weder ein kommunikatives noch ein technisches Zentrum. Jeder konnte seine Ressourcen mit den anderen teilen. Robert Taylor erinnert sich an ein Gespräch mit Licklider über dessen Ausdruck „intergalactical network“:

In fact I said, ‘did You have a networtk of the ARPANET when you used that phrase?’ He said, “No, I was thinking about a single time-sharing system that was intergalactic…“7

Die physikalische Basis des Netzes blieb ungeklärt. Aus ökonomischen Gründen kam ein zentraler Rechner mit individuellen Kanälen zu den übrigen Terminals nicht in Betracht, weil Telefonleitungen für die Dauer einer Verbindung bezahlt werden mussten und nicht für übertragene Daten, was unnötige Kosten produzieren würde. Eine sternförmige Netztopologie benötigt zu viele lange und teure Telefonleitungen. Die ideale Lösung wäre ein experimentelles store-and-forward-network, ohne dass dessen Aufbau näher beschrieben werden konnte.


[Seite 60↓]

Diese Möglichkeit einer dezentralen Netzstruktur auch auf physikalischer Ebene konkretisierte sich erst später.

Das militärische Argument: Robustheit

Während des 2.Weltkrieges hatte das amerikanische Militär beträchtliches wissenschaftliches Know-how erworben, das es nach Kriegsende bewahren und verbessern wollte. Der von Kriegsplanern berechnete taktische, strategische, logistische, personelle und finanzielle Zusammenhang verschiedener Kriegsszenarien – Bombereinsatz, Hafenverminung, Flugzeugbewaffnung etc. – wurde als Optimierungsproblem behandelt und sollte bei der Planung zukünftiger militärischer Einsätze helfen.

Zu diesem Zweck wurde 1946 von der Air Force zusammen mit Douglas Aircraft die Research and Development (RAND)-Corporation gegründet, deren Schwerpunkt Operation Research, die mathematische Modellierung und Optimierung von Konfliktsituationen, war, eine Aufgabe, die mit dem beginnenden kalten Krieg an Bedeutung und somit an Fördermitteln gewann.

Der Elektrotechniker Paul Baran begann 1959 seine Arbeit in der computerwissenschaftliche Sektion der mathematischen Abteilung von RAND ein, wo er sich mit der Frage beschäftigte, wie ein Kommunikationssystem gestaltet sein müsste, um eine partielle Zerstörung im Falle eines Nuklearangriffs zu überstehen. Überlebensfähigkeit oder Robustheit (survivability ) waren wesentliches Kriterium beim Entwurf eines Systems, das Kommunikation selbst nach einem Angriff ermöglichen sollte. RAND hatte genügend Sondermittel für Grundlagenforschung zur Verfügung, welche der Verteidigung der USA nützen könnten, so dass Baran mehrere Jahre ungestört an dem System arbeiten konnte, selbst gegen die Missachtung seiner Kollegen, die seinen Ideen wenig Sympathie entgegenbrachten. 1964 stellte Baran seine Ideen in einem 11-bändigen Memorandum unter dem Titel „On Distributed Communications“ den Verantwortlichen vor.8 Im ersten Memorandum „RM-3420-PR“ begründet er grundlegende Designentscheidungen über die Netztopologie, die er in den folgenden Bänden detaillierte, zusammen mit Kostenrechnungen, einer FORTRAN-Simulation, Überlegungen zur Sicherheit, einer historischen Darstellung konkurrierender Ansätze etc.

Ein Angriff auf ein Netz kann sich sowohl gegen Netzknoten als auch gegen die Verbindungen zwischen den Knoten richten. Damit eine Kommunikation zwischen den Punkten A und B auch nach einer partiellen Zerstörung des Netzes möglich ist, müssen sowohl A als auch B weiterhin operationell sein und es muss eine Verbindung zwischen ihnen bestehen. In einem zentralisierten Netz, bei dem alle Verbindungen über eine gemeinsamen Vermittlungsstelle laufen, genügt es, den zentralen Knoten zu zerstören, um das gesamte Netz auszuschalten. Selbst wenn alle übrigen Knoten noch intakt sind, können sie nicht mehr miteinander Kontakt aufnehmen. Baran überlegte, wie ein Netz beschaffen [Seite 61↓] sein muss, das sich als hinreichend robust gegenüber einer partiellen Zerstörung der Knoten und Verbindungen erweist. Er diskutierte mit Warren McCulloch, einem Neurowissenschaftler am MIT, über Aufbau und Funktionsweise neuronaler Netze, welche diese Robustheit realisieren. Wird z. B. durch einen Schlaganfall oder eine Operation ein Teil des Gehirns zerstört, so sind andere Teile bis zu einem gewissen Umfang in der Lage, die Funktion der ausgefallenen Partie zu übernehmen. Ermöglicht wird dies durch einen hohen Vernetzungsgrad: jedes Neuron ist über Axone mit bis zu 2000 weiteren Neuronen verbunden, ein zentrales Neuron oder eine zentrale Gruppe von Neuronen gibt es nicht. Zwischen je zwei Neuronen ergibt sich damit eine Vielzahl möglicher Verbindungswege, selbst bei Teilausfall können sie aufeinander einwirken. Die Robustheit eines neuronalen Netzes ist also direkte Folge der überzähligen Verbindungen, der Redundanz. Mit diesen Überlegungen konnte Baran über allgemeine Eigenschaften dezentraler Netztopologien nachdenken. Diese liegen zwischen zentralisierter und verteilter Struktur, sie haben einen dezentralen Aufbau, mit einer Mischung von Stern und Gitterkomponenten (Abb. 17 ).

Abb. 17 : Baran RM 3420 Chapter I.

Graphentheoretisch ist ein zentralisiertes Netz ein Baum, der dadurch definiert ist, dass zwischen zwei Knoten genau ein Weg existiert. Der zentrale Knoten wird Wurzel genannt. Ein Baum hat notwendigerweise keinen Kreis, d.h. es gibt keinen Weg eines Knotens zu sich selbst, weil es ansonsten zwischen je zwei Knoten auf dem Kreis zwei Wege gäbe. Ein Baum hat von allen Netzen mit derselben Kontenmenge die minimale Verbindungszahl, wird eine Verbindung entfernt, so ist der Baum nicht mehr zusammenhängend, mindestens ein Knoten ist isoliert.9


[Seite 62↓]

Selbst wenn die Leitungszahl in einem zentralisierten Netz im Vergleich zu dezentralen Netzen minimal ist, genügt seine Robustheit nicht den militärischen Ansprüchen. Jede zerstörte Verbindung legt einen Knoten lahm, die Zerstörung des Zentrumsknoten vernichtet das gesamte Netz. Ein robustes Kommunikationsnetz muss also dezentral organisiert sein. Aber auch ein dezentralisiertes Netz kann durch Zerstörung einiger weniger Knoten ausgeschaltet werden. Wichtig wird damit die Frage, wie groß der Grad der Dezentralisierung zu sein hat, um die Ausfallwahrscheinlichkeit gering zu halten.

Baran bestimmte ein mathematisches Maß für die Dezentralität eines Netzes als Verhältnis von Verbindungs- zu Knotenzahl und berechnete die erforderliche Redundanz R, die bei vorgegebener Ausfallwahrscheinlichkeit sowohl der Knoten als auch der Verbindungen mit hoher Wahrscheinlichkeit eine Verbindung zwischen zwei Stationen aufrecht erhalten lassen.

Abb. 18 : Baran RM 3420 Chapter II.


Aufgrund von Simulationen von Knotenausfällen kam Baran zu zwei Schlussfolgerungen:
Schon wenn jeder Knoten mit drei oder vier weiteren verbunden wird, ist das Netz hinreichend stabil; Erhöhung der Redundanz hat einen nur wenig grösseren Mehrwert:

First, extremely survivable networks can be built using a moderately low redundancy of connectivity level. Redundancy levels on the order of only three permit withstanding extremely heavy level attacks with negligible additional loss to communications. Secondly, the [Seite 63↓]survivability curves have sharp break-points. A network of this type will withstand an increasing attack level until a certain point is reached, beyond which the network rapidly deteriorates. Thus, the optimum degree of redundancy can be chosen as a function of the expected level of attack. Further redundancy buys little. The redundancy level required to survive even very heavy attacks is not great--on the order of only three or four times that of the minimum span network.10

Die Untersuchung der Verbindungsausfälle (Link Destruction ) sowie kombinierter Ausfälle von Verbindungen und Knoten (Combination Link and Node Destruction ) führten zu einem ähnlichen Ergebnis. Ein Kommunikationsnetz muss somit dezentral organisiert sein mit einer Verbindungsredundanz von drei oder vier, d.h. jeder Knoten muss mit drei oder vier weiteren verbunden sein, um mit hoher Wahrscheinlichkeit selbst einem Nuklearangriff standhalten zu können (Abb. 18 ).

Bestehende Kommunikationsnetze wie das Telefon- oder Telegraphennetz nutzten Frequenzmultiplexing, um mehrere Verbindungen gleichzeitig herstellen zu können. Baran schlug einen anderen Weg vor: Zeitmultiplexing. Dies bedeutete, jede Nachricht in Blöcke (standardized message block ) aufzuteilen, sie mit einem Stempel zu versehen und in Stücken über das Netz zu schicken:

Present common carrier communications networks, used for digital transmission, use links and concepts originally designed for another purpose--voice. These systems are built around a frequency division multiplexing link-to-link interface standard. The standard between links is that of data rate. Time division multiplexing appears so natural to data transmission that we might wish to consider an alternative approach--a standardized message block as a network interface standard.11

Jede Station musste selbständig den Weg zur Zielstation lernen und bei einem Ausfall der Nachbarstation einen Alternativweg finden. Damit auch bei hohem Datenverkehr die Blöcke an einer Station nicht zu einem Rückstau führen, müssen sie wie eine heiße Kartoffel so schnell wie möglich weitergeleitet werden (Hot-Potato Heuristic Routing Doctrine ). Als Blocklänge legte Baran 1024 (=210 ) Bit fest, in der Adresse, Absender, Übergabenummer und Text gespeichert werden.

Auch wenn Baran verschiedene Medien zum Transport der Blöcke vorschlug – Telefonkabel, Mikrowellenfunk, Fernsehstationen und Satelliten – erschien die Nutzung des Telefonnetzes die kostengünstigste Möglichkeit. Doch AT&T war als Verwalter des Telefonnetzes keineswegs einverstanden mit Barans Ideen, die Analogtechniker hielten den Aufbau eines blockorientierten, digitalen Kommunikationsnetzes für technisch undurchführbar und verweigerten ihre Mitarbeit. Nicht zuletzt aufgrund dieses Widerstandes wurde Barans Entwurf 1965 zu den Akten gelegt, sollte aber erheblichen Einfluss auf die weitere Netzforschung ausüben.


[Seite 64↓]

Das ergonomische Argument: Benutzerfreundlichkeit

Während in den USA vor allem der kalte Krieg, die nukleare Bedrohung der Sowjetunion und der Sputnik-Schock zur Gründung der ARPA führte, wurde die Forschung in Großbritannien von dem Versuch angetrieben, den wissenschaftlichen Vorsprung der USA nicht zu verpassen. Der Vorsitzende der Labour-Partei Harold Wilson fürchtete eine ökonomische Krise und versuchte mit der Gründung des Technikministeriums Mintech ab 1964, den brain drain aufzuhalten, wobei vor allem die britische Computertechnik vor der amerikanischen Konkurrenz gerettet werden sollte. Im National Physical Laboratory (NPL) bemühte sich Donald W. Davies darum, Computer benutzerfreundlicher zu gestalten, indem Kapazitäten mehreren Nutzern zur Verfügung gestellt werden. Vorbild war das 1959 entwickelte time-sharing-Verfahren.

Davies informierte sich 1965 bei einer Reise durch die USA am MIT bei John McCarthy über das neue Verfahren und plante daraufhin, das Konzept auf ein Rechnernetz zu übertragen. Er hoffte so, die im Land verstreuten Computer zu verbinden, ihre Ressourcen gegenseitig verfügbar zu machen und die Effizienz der Forschung und Entwicklung zu erhöhen. Die Technik der Verbindung, die Davies vorschlug ähnelte der Paul Barans, ohne dass Davies Kenntnis von seinen Arbeiten hatte. Wie Baran schlug Davies vor, Nachrichten in kleine Einheiten zu zerschneiden, in Analogie zu den Zeitscheiben des time-sharing. Die Einheiten nannte er ‚Pakete’, ein Begriff, der später von Planungsleiter des ARPANET, Larry Roberts, übernommen wurde. Zufällig wählte er die gleiche Paketgröße und Datenübertragungsrate wie Baran, von dessen Arbeit er erst 1966 nach einem Vortrag erfuhr, in dem er seine Ideen einem Publikum aus Computerexperten, Telekommunikationstechnikern und Mitarbeitern des Verteidigungsministeriums vorstellte. Davies hatte weniger Redundanzberechnungen aufgestellt, welche Barans Antrieb war, sondern sich mehr mit dem Aufbau der Pakete beschäftigt.


[Seite 65↓]

Abb. 19 : Davies Vorschlag für ein Kommunikations-Netzwerk in England

Nach der Durchsicht der Arbeiten Barans bemerkte er, dass „the highly connected networks there considered were not needed in a civil environment“.12 Im Gegensatz zu Barans Netztopologie war Davies hypothetisches Kommunikationsnetz aus seinem 1966 vorgelegten “Proposal for a Digital Communication Network“13 deutlich weniger stark vernetzt. Dennoch war auch Davies Netz dezentral organisiert (Abb. 19 ), was eine direkte Folge paketorientierter Nachrichtenübermittlung ist, sollen die bestehenden Verbindungen optimal genutzt werden.

Das technische Argument: Ressourcenknappheit

Neben dem militärischen Argument der Robustheit und dem ergonomischen der Benutzerfreundlichkeit gibt es einen mathematisch-technischen Grund, Nachrichten in Paketen über ein Netzwerk zu verschicken. Leonard Kleinrock studierte seit seinem Ph.D.-Antrag 1959 am MIT die Eigenschaften von Datennetzen. Bereits 1961 veröffentlichte er in dem Artikel „Information Flow in Large Communication Nets“14 die Grundlagen paketorientierter Datenvermittlung. Seine 1962 veröffentlichte Doktorarbeit erschien 1964 bei McGrawHill unter dem Titel „Communication Nets; Stochastic Message Flow and Delay“. Das Ziel seiner Arbeit war:

to investigate the problmes associated with information flow in large communication nets.. The nets under consideration consist of nodes, connected to each other by links. The nodes receive, sort, store, and transmit messages that enter and leave via the links. The [Seite 66↓]links consist of one-way channels, with fixed capacities. Among the typical systems which fit this description are the Post Office System, telegraph system, and satellite communication systems.15

Kleinrock interessierte sich im speziellen für die Fragen nach der Verteilungsfunktion der Nachrichten an einzelnen Knoten, nach der Kapazität der Verbindungen, der Weitervermittlung von Nachrichten und den Grenzen der Belastbarkeit des Netzes.

Die Grundidee paketorientierter Vermittlung ist einfach: Grundsätzlich gibt es drei Netzwerkformen: verbindungsorientiert , nachrichtenorientiert oder paketorientiert .

In verbindungsorientierten Kommunikationsnetzen wie dem klassischen Telefonnetz wird eine Verbindung zwischen den Kommunikationspartnern A und B für die Dauer der Kommunikation aufrecht gehalten, alle benötigten Leitungen zwischen A und B werden exklusiv für diese Verbindung reserviert, selbst wenn keine Daten transportiert werden. Ein solches Netz erreicht schnell seine Kapazitätsgrenzen, was z. B. in den Anfangszeiten des Telefons häufig zu Wartezeiten führte, vor allem bei Ferngesprächen.

Nachrichtenorientierte Netze verschicken jeweils nur eine Nachricht von Knoten zu Knoten, wobei die Verbindung zwischen zwei Knoten lediglich für die Dauer der Übermittlung geöffnet wird. Es ist nicht nötig, die Verbindung zwischen A und B zu reservieren, jede Nachricht sucht sich selbständig ihren Weg durch das Netz. Wenngleich diese Methode aus Sicht des Ressourcenverbrauchs deutlich effizienter ist als die verbindungsorientierte Variante, können immer noch erhebliche Wartezeiten auftreten. Ein Knoten wird von einer Nachricht für die Dauer der Weiterleitung vollständig blockiert. Eine lange Nachricht blockiert einen Knoten für lange Zeit und erzeugt eine Warteschlange für alle übrigen Nachrichten, die über diesen Knoten geleitet werden müssen, wie beispielsweise bei einem Bahnübergang, an dem viele Autos auf einen passierenden Zug warten müssen. Wartezeiten verschwenden die Ressourcen benachbarter Knoten, welche bis zum Ende des Transports untätig sind. Zusätzlich muss der Knoten im Falle eines Übertragungsfehlers die gesamte Nachricht erneut anfordern, was die Übertragungs- und Wartezeit verdoppelt. Ressourcen sind teuer und waren 1960 noch sehr viel teurer, so dass eine ökonomischere Methode der Datenübertragung gefunden werden musste.

Paketorientierte Datenübertragung trennt, wie bereits ausgeführt, die Nachricht in kleine, gleich große Segmente, die nummeriert über das Netz verschickt werden. Eine lange Nachricht wird in entsprechend mehr Pakete zerlegt als eine kurze. Ein Knoten reicht die Pakete in der Reihenfolge ihres Eintreffens weiter. Die Transportzeit jeder Nachricht verlängert sich entsprechend, weil sie die Ressourcen jedes Knotens mit den anderen Nachrichten teilt. In der Summe allerdings wird die Gesamtwartezeit minimiert, was das wesentliche Argument für paketorientierte Datenübermittlung [Seite 67↓] darstellt.

Die Weiterleitung einer Nachricht über mehrere Knoten kann lediglich von Digitalcomputern übernommen werden, weil Analogsignale bei jeder Kopie an einem Knoten mit Störungen und Verzerrungen überlagert werden, so dass die Nachricht bereits nach wenigen Knoten unbrauchbar würde. Nicht zuletzt aus diesem Grund wurde das analoge Telefonnetz um wenige Verteilerstellen herum organisiert, während ein digitales Datennetz mit einer dezentralen Verknüpfungsstruktur aufgebaut werden kann. Pakete können bei hoher Belastung oder vollständigem Ausfall bestimmter Netzabschnitte über alternative Routen gesendet werden und somit die zur Verfügung stehenden Ressourcen bedeutend besser nutzen als in einem zentralisierten Netz, wo im wesentlichen der zentrale Knoten belastet ist und die Summe der Verbindungsdauer aller Nachrichten unvorteilhaft bleibt.

Kleinrock konnte mit Hilfe der Paketvermittlungstechnik die Komplexität des Warteschlangenproblems der Knoten reduzieren und eine mathematische Formulierung der Kanalkapazität angeben, welche dem Netzwerkdesign zugrunde lag:

I assumed that every time a message hit a node, its length was randomly reselected, guaranteeing that its length was independent of its arrival time. Sounds like a bold assumption but it turns out to be fine. The reason is that it's not only my stuff moving down the line, but other people's traffic is also joining the fray. In addition, my messages go out to different places-one goes here, one goes there-so it busts up that dependence very effectively from an engineering point of view.16

Nachdem er das Problem mathematisch in den Griff bekommen hatte, konnte er ein Datennetz modellieren, wurde zum einem führenden Experten digitaler Netzwerktechnik und war erster Ansprechpartner für Larry Roberts, als dieser beauftragt wurde, das ARPANET aufzubauen.

Das ARPANET

1957 wurde die russische Sputnik ins All geschossen und verbreitete in Amerika die Angst, der Sowjetunion technisch unterlegen zu sein. Die amerikanische Regierung fürchtete, den sich abzeichnenden kalten Krieg zu verlieren. Eisenhower gründete die Advanced Research Project Agency (ARPA), um wissenschaftliches Know-how zu bündeln und Raum für Grundlagenforschung zu geben. Auch wenn die ARPA unter Roy Johnston 1958 mit einem Jahresetat von 520 Millionen Dollar die Arbeit aufnahm, gliederte sich bald die National Aeronautics and Space Administration (NASA) aus und nahm den größten Teil des Budgets mit. 1962 übernahm J. C. R. Licklider die Abteilung Command and Control , deren Schwerpunkt militärische Grundlagenforschung war. Als Psychologe und Experte für Mensch-Computer-Schnittstellen hatte Licklider sehr viel weitergehende Visionen und er war vermutlich der Erste, der ein Computernetz für die Verbesserung der Kommunikation verschiedener Forschungszentren vorschlug. Die ARPA ließ ihren Abteilungsleitern weit gehend freie [Seite 68↓] Hand, so dass Licklider die Aufgaben seiner Abteilung neu definieren konnte und sie zum Information Processing Technique Office (IPTO) mit den Schwerpunkten Computergraphik und Time-Sharing-Systemen formte. Er pflegte engen Kontakte mit dem MIT, der UCLA und der University of Berkeley, seinem „intergalactical network“.

1965 begann Robert Taylor in der ARPA zu arbeiten und wurde 1966 als Nachfolger Lickliders zum Leiter der IPTO ernannt, wo er vor allem das Multi Access Computer (MAC)-Projekt am MIT und das Lincoln Lab in Utah förderte. Computerressourcen waren zu diesem Zeitpunkt extrem teuer, die Maschinen hoch spezialisiert und Taylor hoffte, durch eine Vernetzung Ressourcen sparender und effizienter arbeiten zu können. Dennoch war noch völlig unklar, wie ein solches Netz konkret gestaltet werden müsste, um die drei vordringlichsten technischen Probleme zu lösen:

Verschiedene time-sharing Systeme mussten vernetzt werden. Die Lösung, jeden Rechner mit jedem anderen zu verbinden, war zu teuer, benötigten n Rechnern bereits n(n-1)/2 Leitungen. Eine Möglichkeit, die diskutiert wurde, bestand darin, alle Rechner über einen zentralen Knoten in Omaha zu verbinden, der im geographischen Zentrum von Amerika liegt und bereits zentrale Schaltstelle für Telefonverbindungen war. Doch der Leitungspreis war auch in diesem Modell zu hoch.

Räumlich weit entfernte Rechner konnten nur mit Fernmeldeleitungen verbunden werden. Es erschien ausgeschlossen, die normale Telefondienstleistung in Anspruch zu nehmen, weil ein Großteil der Verbindungszeit mit Warten auf Benutzereingaben verschwendet würde. Angesichts der Fernmeldepreise war ein solches Netz nicht finanzierbar.

Die Rechnerarchitekturen der einzelnen Großrechner waren monolithisch und nicht untereinander kompatibel. Die Notwendigkeit, ein neues, einheitliches Betriebsystem schreiben zu müssen, erschien angesichts der Softwarekrise als nicht durchführbar.

Vom Lincoln Lab engagierte Taylor Larry Roberts als Projektleiter für ein Computernetz, der seinerseits Leonhard Kleinrock hinzuzog.

Die Idee, ein Universitäten verbindendes Kommunikationsnetz zu bauen, nahm konkrete Gestalt an, als Taylor 1967 eine Konferenz in Ann Arbor/Michigan organisierte, wo Wes Clark die Idee äußerte, die verschiedenen Rechner über Zwischenrechner, so genannte Interface Message Processors (IMPs) zu verbinden. Die IMPs wären untereinander kompatibel und jeder kann mit seinem angebundenen Großrechner kommunizieren. Sie stellen eine einheitliche Zwischenschicht in der Rechnerkommunikation dar.

Die anderen Probleme wurden im Oktober 1967 auf einer Tagung in Gatlinburg/Tennessee geklärt, wo Roger Scantlebury, ein Mitarbeiter von Donald Davies am NPL, über Davies und Barans Arbeiten berichtete. Roberts sagte in einem Interveiw über den Vortrag „suddenly I learned how to route [Seite 69↓] packets“17 und er besuchte im folgenden Jahr Paul Baran bei RAND, um über die Möglichkeiten der Paketvermittlung zu diskutieren. Er übernahm Davies Vorschlag, Hochgeschwindigkeitsleitungen einzusetzen und übernahm das Wort ‚packet’, weitergehende Einflüsse insbesondere der Arbeiten Barans bestreitet er jedoch, sowohl für die Vorarbeit:

Mar-64 First Paper on Secure Packetized Voice, Paul Baran, "On Distributed Communications Networks", IEEE Transactions on Systems. It is from this paper that the rumor was started that the Internet was created by the military to withstand nuclear war. This is totally false. Even though this Rand work was based on this premise, the ARPANET and the Internet stemmed from the MIT work of Licklider, Kleinrock and Roberts, and had no relation to Baran's work.18

als auch für die konkrete Planung:

Oct-67 The 3 Independent Packet Research Efforts (MIT, Rand, NPL) Meet, Roberts and Scantlebury meet. Scantelbury tells Roberts about Baran and the Rand work. After the Gatlinberg meeting, Roberts read the Rand work and met with Baran. Although the UK work convinced Roberts to use higher speed lines (50 KB) and to use the word packet, the Rand work had no significant impact on the ARPANET plans and Internet history.19

Ende Juli stand die Anforderung an die IMPs fest und das Projekt konnte ausgeschrieben werden. Ende des Jahres 1968 erhielt überraschend die ostamerikanische Firma von Bolt Beranek und Newman (BBN) den Zuschlag und Bob Kahn wurde Projektleiter für die Konstruktion der IMPs, für welche sein Team den neuen Minicomputer Honeywell 516 vorschlug.

Auch Frank Heart, Projektmitarbeiter bei BBN, bezweifelt den militärischen Einfluss im ARPANET-Projekt, der über die generelle Finanzierung der ARPA aus dem Militäretat hinausging:

I think the influence was close to zero. I really do. I believe that ARPA was supporting computer research in the United States for the general benefit of the military, and for the general benefit of the country; and that the people at ARPA saw those two things as almost synonymous. My understanding of the original basis for [ARPA program manager Robert] Taylor and others' interest was that they wanted to consider how to tie together their research sites, which were mostly at universities, partly to do resource sharing, partly to avoid buying a new computer for every university.20

Die Arbeiten Paul Barans und natürlich auch die Donald Davies seien der ARPA zu Beginn der Arbeit nicht bekannt gewesen

At the very beginning I don't think the ARPA people knew Baran existed. When they began to talk about a network for resources sharing, and Taylor began becoming interested in not having 3 [disconnected] terminals in his office, I don't think those people knew Baran existed at that time.21


[Seite 70↓]

Zwar lässt sich der Einfluss des Militärs nicht mehr genau bestimmen, es scheint aber, dass seine Rolle häufig überbewertet wird, zu Lasten technischer Argumente, Warteschlangenmodelle und Effizienzrechnungen. Militärische Interessen sollten erst bei der späteren Entwicklung und der Transformation des ARPANET zum Internet stärker berücksichtigt werden.

Abb. 20 : Die ersten ARPANET Knoten Ende September 1969.
Quelle: http://www.computerhistory.org/exhibits/internet_history

Einer der Berater bei BBN war der Franzose Louis Pouzin, der seine Erfahrung ab 1972 bei der Entwicklung des französischen Cyclade-Netzes am Recherche d’Informatique et d’Automatique (IRIA, heute INRIA) verwenden konnte.22 Zunächst vom französischen Staat gefördert, war es deutlich stärker als das ARPANET auf eigenständige Hosts ausgelegt, welche für den Pakettransport verantwortlich sein sollten. Damit stand es auch im Gegensatz zum französischen Telefonnetz, bei welchem das Vertrauen stärker in das Netz und weniger in die Knoten gelegt wurde.23 Der Entwurf des Cyclade-Protokolls prägte die spätere Entwicklung des IP-Protokolls.

Nicht zuletzt wegen der Dezentralität wurde Cyclade nach dem Abschluss der Forschungs- und Entwicklungsarbeiten nicht weiter unterstützt und die Regierung konzentrierte sich auf das Transpac-Netz, aus dem schließlich das Minitel-System hervorging. Der Grund für diese Forschungspolitik waren staatliche Eigeninteressen:

Transpac, bien que dédié aux échanges de données, ressemblait beaucoup plus que Cyclades ou Arpanet à un réseau téléphonique classique : il était beaucoup plus facile d’y prélever de taxes. En conséquence, toute recherche tendant à développer une autre technologie était considérée inopportune.24


[Seite 71↓]

Wenngleich der Bau der IMPs eine bemerkenswerte Leistung des BBN-Teams war, so wurde über die Anforderungen, dezentrale Netztopologie und die paketorientierte Verbindung zu nutzen, bereits vorher von Taylor als Hauptverantwortlichem entschieden, wobei seine Entscheidung auf eine bunte Mischung externer Einflüsse zurückgeht. Lickliders kühne Vision eines globalen Computernetzes ermöglichte die Forschung, die Bereitstellung von Projektmitteln und die Zusammenstellung der Mitarbeiter. Die Idee der Paketorientierung und dezentralen Vernetzung steuerte Len Kleinrock und über Roger Scantlebury auch Paul Baran bei, der sich seinerseits auf Warren McCulloch beruft. Robustheit und Überlebensfähigkeit im Falle eines nuklearen Angriffs interessierten Taylor weniger, so dass er die Kenntnis über die Arbeiten Barans nur bekam über den Versuch von Davies, Computer benutzerfreundlicher zu gestalten. Auch wurde dessen Wort ‚Packet’ für die Dateneinheiten übernommen. Die Idee, verschiedene Rechner über Zwischenrechner zu verbinden, findet sich bereits in Davies Arbeit, sie kam faktisch aber von Wes Clark.

Internetworking: TCP/IP

Nach der erfolgreichen Demonstration des ARPANET auf der International Conference on Computer Communications (ICCC) im Oktober 1972 in Washington wechselte Robert Kahn, Projektleiter bei BBN, als Programmmanager zur IPTO. Kahn entwickelte bald neue Netzprojekte: Das um die Bucht von San Francisco angelegte Packet Radio Net (PRNET) basierte auf einer Kontrollstation, mehreren Funkantennen sowie mobilen Empfangs-/Sendeeinheiten. Es ging 1975 zum ersten Mal in Betrieb. Wie das ARPANET war es dezentral organisiert, um den Ausfall einzelner Antennen zu überleben. Obwohl für den militärischen Einsatz im Feld konzipiert und gebaut, wurde es nie soweit entwickelt, dass es tatsächlich einsetzbar gewesen wäre. Paketorientierte Funknetze blieben lange Zeit im Experimentierstadium.

Das 1975 begonnene SATNET war ein satellitenbasiertes Netz, das seismische Daten zu militärischen Zwecken senden sollte und von ARPA, der British Telecom und der Norwegian Telecommunications Authority gefördert wurde.

Jedes der Netze war für einen spezifischen militärischen Einsatz entwickelt. Wenngleich alle drei paketorientiert arbeiteten, konnten sie untereinander keine Daten austauschen. Kahn plante zunächst, das PRNET mit dem ARPANET zu verbinden. Zu diesem Zweck engagierte er 1976 Vinton Cerf, mit dem er bereits im ARPANET-Projekt zusammengearbeitet hatte und der seit 1973 am Konzept der Kommunikation zwischen Rechnernetzen arbeitete.

Das ARPANET war ein einziges Netzwerk, das verschiedene Hosts miteinander verknüpfte. Cerf und Kahn planten nun ein Internet, das verschiedene Netze miteinander verbinden sollte. Zusammen mit Vertretern des britischen NPL und des französischen Cyclade-Netzes planten sie ein Netz, das flexibel militärischen Ansprüchen genügen konnte.

Bereits im Juni 1973 veranstaltete Cerf ein Seminar in der Stanford University, um die Spezifikation [Seite 72↓] des Transport Control Protocol (TCP) zu diskutieren. Die physikalische Verbindung der Netze erfolgte über Gateways, jedes Netzwerk war über mindestens einen dieser Computer mit einem anderen Netz verbunden, wodurch eine Übersetzung der netzwerkspezifischen Protokolle unterbleiben konnte:

So it was a problem of interconnecting two different kinds of packet networks, and eventually three because of the packet satellite system, and later four with the ETHERNET showing up as another kind of network that had different internal characteristics. But somehow machines had to communicate across all of these different kinds of nets successfully We wanted to have a common protocol and a common address base so that you couldn't tell, to first order, that you were actually talking through all these different kinds of nets. That was the principal target of the INTERNET protocols.25

Der gemeinsame Adressraum wurde als hierarchischer Baum angelegt, wobei ein Teil die Adresse des Netzes, der andere Teil die Adresse des einzelnen Computers innerhalb des Netzes beinhaltet. Zur Verwaltung des Adressraums wurde das Internet Protocol (IP) vom Transport Protokoll TCP getrennt, so dass die Gateways lediglich das IP ausführen mussten. Die Implementierung erwies sich als schwierig, die ersten Tests begannen 1975 bei BBN, 1977 wurden die ersten Pakete erfolgreich durch das PRNET, das ARPANET und das SATNET geleitet. Nach dem Test traten zahlreiche Verteidigungs- und Forschungsnetze dem Internet bei, was durch sein spezielle Design vereinfacht wurde: Netzwerke konnten ihre technische Autonomie bewahren und dennoch im Internet verbunden sein. Um die Verbreitung von TCP/IP zu unterstützen, förderte die ARPA seine Einbindung in verschiedene Betriebssysteme, darunter in das Berkeley System Distribution (BSD) UNIX durch Bill Joy, wodurch die meisten amerikanischen Universitätsnetze problemlos ins Internet einbezogen wurden.

Das ARPANET migrierte erst auf militärischen Druck zum Internet. Nach der erfolgreichen Demonstration 1972 suchte die ARPA einen kommerziellen Betreiber für die Hard- und Softwarepflege des ARPANET. Nachdem AT&T ablehnte, engagierte sich ab 1975 das Verteidigungsministerium (Department of Defense , DoD), zunächst für drei Jahre. Die ursprüngliche Ausrichtung als experimentelles Forschungsnetz änderte sich mit dem Einfluss der auf Command and Control basierenden militärischen Werte auf die Verwaltung des Netzes. Unter dem neuen IPTO-Direktor Colonel David Russell wurden die Zugangsbedingungen erschwert, unautorisierte Nutzung verboten und die Sicherheit verschärft. Knoten, welche über Modem anwählbar waren, galten als Sicherheitsrisiko und wurden über logins und Passwörter geschützt. Doch die Verbindung des ARPANET mit dem Militärnetz AUTODIN II konnte lediglich mit Hilfe der Internetprotokolle erfolgen, so dass sich das ARPANET ab 1981 aus pragmatischen Gründen zum Internet öffnete.

Bereits Ende der 70er Jahre gab es Bestrebungen, das ARPANET mit dem CSNET der National Science Foundation (NSF) zu verbinden. 1982 wurde die Anbindung des CSNET an das Internet [Seite 73↓] vollzogen, mit einem Schlag hatten alle amerikanischen Universitäten die Möglichkeit, sich über das CSNET dem Internet anzuschließen und internationale Mailgateways einzurichten. Lickliders Idee einer online-community begann sich durch die Arbeiten von Cerf/Kahn im akademischen Kontext weltweit durchzusetzen.

Weil das ARPANET nicht ausreichend kontrollierbar war, spaltete sich im April 1983 aus Sicherheitsgründen das militärische MILNET ab. Jeder IMP wurde entweder dem MILNET oder dem ARPANET zugeordnet, wobei nur wenige kontrollierbare Gateways die Kommunikation zwischen beiden Netzen sichern sollten. Das Wachstum des Internet wurde von der ARPA gefördert: Jedes Netz musste TCP/IP installieren und zumindest ein Gateway zum ARPANET aufbauen. ARPA förderte die Portierung der Protokolle für verschiedene Computersysteme. Waren 1982 noch 15 Netzwerke über das Internet verbunden, betrug diese Zahl 1986 bereits 4.000. Das Internet wuchs exponentiell. Das Wachstum des ARPANET war von der ARPA geplant, gefördert und geleitet. Der Zugang zum Internet konnte noch unterstützt werden, hing aber von der individuellen Entscheidung der jeweiligen Netzbetreiber ab und verlief überwiegend dezentral. Die Vorteile, in einem wachsenden Netz Wissen und Ressourcen teilen zu können, überwog bei weitem den Aufwand, Hard- und Software umstellen zu müssen.

Während das Militär bei der Entwicklung des ARPANET noch eine untergeordnete Rolle spielte und letztendlich nur als Geldgeber fungierte während das Know-how aus den Universitäten kam, war das INTERNET von Anfang an für die Koordination militärischer Netze ausgelegt. Die Basistechnologie wurde jedoch vom ARPANET übernommen – Dezentralität, Heterogenität und Paketvermittlung – um Robustheit und Erweiterbarkeit zu garantieren. Als das Militär 1975 die Verwaltung des ARPANET übernahm, prallten zwei Wertesysteme aufeinander, die in ihrer Implementierung unvereinbar waren: Flexibilität durch Dezentralisierung und Kontrolle durch zentrale Entscheidungsgewalt. In der militärischen Ausbildung werden beide Ziele durch Disziplinierung und Drill verschmolzen, um Soldaten zu formen, die als Kampfeinheiten auch dann die Ziele der Vorgesetzten verfolgen, wenn zentrale Überwachung und Bestrafung unmöglich ist. Die amerikanische Armee fasst diese Internalisierung unter den militärischen Wert „Loyalty“:

Take responsibility for difficult tasks or missions that your unit must accomplish. Pass along orders or guidance as if they were your own. Never try to persuade or inform people by saying, “ well, I don’t like it either, but we got to do it because that’s what the old man wants.” Never belittle plans, orders, or guidance from a higher headquarters.26

In den schlecht kontrollierbaren Zeiten der Auftragserfüllung soll der Soldat auch bei Ausfall äußerer Führungsstrukturen so weit diszipliniert sein, die Befehlskette selbständig zu ersetzen.

Die Verinnerlichung zentralistischer Hierarchien in dezentralen Strukturen erfordert [Seite 74↓] außerordentliche Maßnahmen: Kasernierung, Uniformierung, Schulung und tägliches Training: „A loyal individual [...] puts obligations in correct order: the Constitution, the Army, the unit, and finally, self “27

Unter diesen Voraussetzungen ist es wenig verwunderlich, dass die Erziehung der Netzknotenbetreiber zur inneren Führung nicht gelingen konnte, zu sehr waren sie an der Verfolgung eigener Interessen interessiert, die z. B. bei der Behandlung von Informationsfreiheit mit militärischen Zielen kollidierten. Aus der vorhandenen Infrastruktur musste ein neues Netz gebildet werden, in welchem das Verhältnis von Zentralität und Dezentralität dem militärischen Anspruch genügte. Es wäre also übereilt, in der Entwicklung des Internet eine Verwirklichung rein militärischer Werte zu sehen, wie Abbate es versucht:

My account of the origins of the network demonstrates that the design of both the ARPANET and the Internet favored military values, such as survivability, flexibility, and high performance, over commercial goals, such as low cost, simplicity, or consumer appeal. These values have, in turn, affected how the network has been managed and used.28

Die Werte „survivability, flexibility, and high performance “ haben nicht spezifisch militärischen Charakter wie z. B. „Loyalty, Honor, Selfless Service, Personal Courage“29 , sondern gelten auch für zivile, ökonomische, wissenschaftliche und generell alle technischen Projekte. In bestimmter Form gelten sie natürlich auch für das Militär. Die Probleme, mit denen sich Colonel David Russell bei der ARPA auseinander zu setzen hatte, zeigen gerade die inhärenten Gegensätze militärischer Ziele, welche nur durch intensive Konditionierung der Soldaten angeglichen werden können, mit der Kommunikationswirklichkeit des Netzes. Die große Chance des ARPANET war die Tatsache, dass das Militär erst zu einem Zeitpunkt den Wert eines robusten Kommunikationsnetzes erkannte, als eine Einbindung in militärische Strukturen nicht mehr nahtlos möglich war. Dezentralität ist gerade kein militärischer Wert und kann im militärischen Kontext nur zusammen mit aufwändigen Kontrollstrukturen verwirklicht werden. Das Internet wurde als technische Implementierung einer dezentralen Struktur zum Selbstläufer, der sich vom militärischen Kontext befreien konnte, welcher der Entwicklung zu Grunde lag.

Das soziale Argument: Grassroot Bewegungen

Das frühe ARPANET war zwar bereits dezentral organisiert, hatte aber immer noch enorme Zugangsbarrieren. Rechnerressourcen waren ein knappes Gut, welches sich wenige hoch ausgebildete Spezialisten teilten. Der abgegrenzte Raum des Rechenzentrums und damit der Zugang zum Netz war [Seite 75↓] untergraduierten Studenten nur in Ausnahmefällen möglich. Aus diesem Grund schrieben Tom Truscott, Jim Ellis und Steve Bellowin einige Unix-Skripte, mit denen sie mit Hilfe automatischer Modems und dem damals neu eingeführten Unix-to-Unix-Copy-Programm (UUCP) ein einfaches Nachrichtentauschprogramm aufbauten. Die Skripte wählten sich automatisch in den Universitäts-Server ein und überprüften, ob sich das Änderungsdatum einer Datei verändert hat. In diesem Fall kopierten sie die Datei auf den lokalen Rechner. Ausgehende Nachrichten wurden gleichzeitig auf dem Server abgelegt. Die Uni-Rechner glichen sich ihrerseits regelmäßig mit anderen Servern ab, so dass eine Nachricht innerhalb weniger Stunden im gesamten Netz verteilt werden konnte. Was noch besser war: das Mailboxsystem war unabhängig vom ARPANET und seinen restriktiven Zugangsbedingungen. An die ersten beiden Sites an der Duke-University (duke) und der University of North Carolina (unc) schlossen sich bald mehrere Fakultäten und Universitäten an. Abb. 21 zeigt eine Karte des UseNet im Juni 1981 im ASCII-Format (Quelle: http://www.cybergeography.org/atlas/historical.html).

Abb. 21 : USENET am 1. Juni 1981.

Ab 1986 wurde das auf Modems basierte UUCP-Newssystem um das auf TCP/IP aufsitzende Network News Transfer Protocol (NNTP) ergänzt. Zahlreiche Newsclients wurden im Laufe der Zeit [Seite 76↓] geschrieben, um Überblick und Teilnahme an der konstant wachsenden Zahl der Newsgroups zu ermöglichen.

Usenet oder NetNews gilt als Paradebeispiel für Computer Mediated Communication (CMC)30 und zahllose Publikationen über die Kultur im Internet, Online-Communities, soziale und kulturelle Auswirkungen beziehen sich auf die selbst organisierende Entwicklung des Usenet, insbesondere die Netiquette.31 Besonders hervorzuheben ist die Möglichkeit, eigene Diskussionsforen zu öffnen und somit die Grundlage für Online-Communities zu schaffen. Usenet-Foren sind seit 1987 baumförmig über sieben Hauptkategorien angeordnet: comp, misc, sci, soc, talk, news und rec. Die Einführung der Kategorien sind in die Geschichte des Usent als „The Great Renaming“ eingegangen.32 Neue Foren in einer dieser Kategorien müssen in der Newsgroup news.announce.newsgroup beantragt und über die Einrichtung mindestens 30 Tage diskutiert werden. Entschieden wird dabei auch, ob die Gruppe moderiert oder unmoderiert ist und wer gegebenenfalls der Moderator sein wird. Im Anschluss wir in einer Wahl über die Einrichtung der Newsgroup entschieden. Um diese Prozedur zu umgehen, wurde 1987 von Brian Reid, John Gilmore und Gordon Moffett die Kategorie alt eingeführt, in der jeder sofort eine Newsgroup einrichten kann. Als die Einrichtung der Newsgroup soc.sex von Gene Spafford abgelehnt wurde, wurde sie in die Kategorie alt aufgenommen. Brian Reid schrieb das historische posting:

From: reid@decwrl.dec.com (Brian Reid) Message-Id: 8804040154.AA01236@woodpecker.dec.com Date: 3 Apr 1988 1754-PST (Sunday) To: backbone@purdue.edu, chiefdan@vax1.acs.udel.edu, mejac!hoptoad!gnu@decwrl.dec.com Subject: Re: soc.sex final results In-Reply-To: Gene Spafford <spaf@purdue.edu> / Sun, 03 Apr 88 18:22:36 EST.8804032322.AA15650@arthur.cs.purdue.edu To end the suspense, I have just created alt.sex. That meant that the alt network now carried alt.sex and alt.drugs. It was therefore artistically necessary to create alt.rock-n-roll, which I have also done. I have no idea what sort of traffic it will carry. If the bizzarroids take it over I will rmgroup it or moderate it; otherwise I will let [Seite 77↓] it be. Brian Reid 33

Reid bemerkte später dazu:

At the time I sent that message I didn't yet realize that alt groups were immortal and couldn't be killed by anyone. In retrospect, this is the joy of the alt network: you create a group, and nobody can kill it. It can only die, when people stop reading it. No artificial death, only natural death. I don't wish to offer an opinion about how the net should be run; that's like offering an opinion about how salamanders should grow: nobody has any control over it, regardless of what opinions they might have.34

Mit der Einführung der Newsgroups alt öffnete sich das Usenet als Medium für jede Interessengruppe, auch die bizzarste. Das neue Medium wurde vollständig nachfrageorientiert und richtete sich im Gegensatz zu allen anderen Massenmedien weder nach den Kriterien und Einschränkungen eines Programmkomitees oder einer Redaktionsleitung noch nach der inhaltlichen Zustimmung der Geldgeber und Werbekunden.

Das Informationsmanagement-Argument: World Wide Web

1991 wurden im Internet zwei Dienstleistungen eingerichtet, um sich in der wachsenden Fülle an Dokumenten zurechtzufinden: Gopher und Wide Area Information Service (WAIS).

Gopher wurde an der University of Minnesota entwickelt und benannt nach den Grabeaktivitäten des Schulmaskottchens, der Taschenratte. Alternativ steht gopher auch für go for . Die durch das gopher-Protokoll erreichbaren Dokumente waren als Baum angeordnet, damit der Nutzer sich von allgemeinen Oberbegriffen zu konkreten Dokumenten navigieren konnte. Diese hierarchische, baumartige Form der Wissensrepräsentation geht historisch bis auf Aristoteles zurück, Bibliotheken organisieren ihren Dokumentbestand noch heute in einer baumartigen Systematik mit Haupt- und Untergruppen.35 Das Problematische an dieser Form der Wissensordnung ist zum einen die Wahl der Oberbegriffe, zum anderen die Einordnung bestehender Dokumente in die Hierarchie.

WAIS war als Datenbank organisiert. Jeder WAIS-Client konnte Anfragen an Datenbanken schicken, die ihm bekannt waren. Eine Liste verfügbarer Datenbanken wurde zentral unter dem Titel directory-of-servers geführt. Da der gesamte Informationsbestand aller Datenbanken nicht auf einmal befragt werden konnte, musste zunächst eine Anfrage an die Zentralstelle erfolgen, welche mögliche Informationsquellen zurück gab. Der directory-of-servers erfüllte in etwa die Funktion der Gelben Seiten beim Telefon und da lag sein Problem. Die Wahl der Stichworte wurde zentral festgelegt und eine diesbezüglich schlecht gestellte Frage führte zu leeren Ergebnissen. Die Schwierigkeit, eine geeignete [Seite 78↓] Frage zu stellen, wiederholte sich bei den gefundenen Datenbanken, welche ihre Informationen ihrerseits nach je eigenen Schlüsseln ablegten.

Tim Berners-Lee arbeitete 1990 im Kernforschungszentrum CERN und hatte beim Entwurf des World Wide Web (WWW) das konkrete Problem vor Augen, in umfangreichen Projekten gewonnenes Know-how in Form von Dokumenten zugänglich zu halten. Mitarbeiter blieben bei CERN nur wenige Jahre für die Dauer eines Projektes, wobei Informationen verloren gingen:

A problem, however, is the high turnover of people. When two years is a typical length of stay, information is constantly being lost. The introduction of the new people demands a fair amount of their time and that of others before they have any idea of what goes on. The technical details of past projects are sometimes lost forever, or only recovered after a detective investigation in an emergency. Often, the information has been recorded, it just cannot be found.36

Die üblichen Organisationsform von Wissen in Form von Bäumen oder der Zugriff über Schlüsselworte ist problematisch:

The usual problem with keywords, however, is that two people never chose the same keywords. The keywords then become useful only to people who already know the application well.37

Berners-Lee hatte bereits 1980 Erfahrungen mit dem von ihm entworfenen Hypertextsystemen Enquire gewonnen und schlug daher 1989 eine Variante vor, welche den CERN-spezifischen Anforderungen genügen sollte:

Remote access across networks.
CERN is distributed, and access from remote machines is essential.
HeterogeneityAccess is required to the same data from different types of system (VM/CMS, Macintosh, VAX/VMS, Unix)
Non-CentralisationInformation systems start small and grow. They also start isolated and then merge. A new system must allow existing systems to be linked together without requiring any central control or coordination.
[…]
Private linksOne must be able to add one's own private links to and from public information. One must also be able to annotate links, as well as nodes, privately.
Bells and WhistlesStorage of ASCII text, and display on 24x80 screens, is in the short term sufficient, and essential. Addition of graphics would be an optional extra with very much less penetration for the moment.
[…]38

Zwei der aktuellen Kernprobleme des WWW, Urheberrechtsfragen und Sicherheit, stellten sich [Seite 79↓] beim Design nicht, wenngleich er Kenntnisse der Probleme hatte:

Non requirementsDiscussions on Hypertext have sometimes tackled the problem of copyright enforcement and data security. These are of secondary importance at CERN, where information exchange is still more important than secrecy. Authorisation and accounting systems for hypertext could conceivably be designed which are very sophisticated, but they are not proposed here.39

Die Hoffnung, Wissen in großem Umfang verfügbar zu machen ist alt und geht zumindest bis auf Diderots und D’Alamberts Projekt einer Enzyklopädie zurück, freilich für das Medium Buch ausgelegt. Der britische Autor H. G. Wells warb in den dreißiger Jahren für seine Idee einer „World Encyclopedia“, die sich nicht notwendig an einem zentralen Ort befinden müsse. In seinem 1937 gehaltenen Vortrag „The Brain Organization of the Modern World“ schlug er als Ordnungsprinzip die Vernetzung vor, ohne allerdings eine technische Umsetzung zu konkretisieren:

This Encyclopedia organization need not be concentrated now in one place; it might have the form of a network [that] would constitute the material beginning of a real World Brain.40

Das erste ausformulierte Konzept für ein Hypertextsystem wird üblicherweise Vannevar Bush zugeschrieben,41 welcher in seinem Artikel „As we may think“42 für die vernetzte Struktur individueller Wissensorganisation eine technische Umsetzung mit Namen „Memex“ vorschlug. Memex basierte auf einem Archiv an Mikrofilmen, die durch einen Verweismechanismus untereinander verknüpft werden konnten. Obwohl nie gebaut, inspirierte Memex zahlreiche Arbeiten und Projekte zum Hypertext, darunter das ebenfalls nie umgesetzte Xanadoo Projekt von Teodor Holm Nelson. Wie in vielen Fällen war der Einfluß dieser Arbeiten auf Berners-Lee Entwurf des WWW nicht ein direkter, z. B. als Versuch, die Ideen anderer umzusetzen, sondern ein konzeptueller:

There wasn't a direct line. I did come across Ted's work while I was working on the WWW -- after my "Enquire" program (1980) but during my reading up on hypertext - probably between March 89 and September 1990. Not sure.. Of course by 1989 there was hypertext as a common word, hypertext help everywhere, so Ted's basic idea had been (sort of) implemented and I came across it though many indirect routes.43

Zusammen mit Robert Cailliau entschied er sich für den Namen World Wide Web (WWW) gegen Information Mesh, Mine of Information oder The Information Mine 44 und begann 1990 die Entwicklung der ersten Server-Client Umgebung auf einem NeXT-Rechner. Für die Erstellung von Hypertext-[Seite 80↓] Dokumenten wurde die Hypertext Markup Language (HTML) entwickelt, die Dokumente selber mit Hilfe des auf TCP/IP aufsitzenden Hypertext Transfer Protocol (HTTP) übertragen. Sehr bald wurde die Anwendbarkeit dezentralisierter Wissensorganisation auch außerhalb von CERN deutlich, am 23. Januar 1993 stellte Mark Andreessen den grafischen Browser X-Mosaic 0.5 vor, welcher einfachen Zugriff auf das WWW ermöglichte. Vergleichbar mit dem Wachstum des Internet stieg die Zahl der http-Server und Web-Seiten exponentiell. Das bebilderte WWW war zweifellos die Killer-Applikation des Internet und die Initialzündung für seine Popularisierung ab 1995, wie bereits im ersten Kapitel diskutiert. Die Internetdienste gopher und WAIS sind inzwischen vollständig in das WWW integriert und sind nur noch von historischem Interesse, bis auf eine kleine Gruppe freilich, für die das gopher - Protokoll immer noch das „ideal hypertext interface“ bleibt.45

Netzkonzepte

Aus den Untersuchungen des ersten Abschnitts wird deutlich, dass seit den fünfziger Jahren die Idee der Vernetzung aus ganz unterschiedlichen Gründen in technische Projekte implementiert wurde. Die Tatsache, dass Computer eine zentrale Rolle in diesen Netzen einnehmen, ist eher als notwendige denn als hinreichende Bedingung zu werten: Ohne Computer gäbe es keine paketorientierten, dezentralen Kommunikationsnetze, sie alleine reichen aber nicht, um ein solches Konzept zu entwickeln.

Technisch liegt dies darin begründet, dass Analoginformationen weder verlustfrei kopierbar sind, noch eine mehrfache Verstärkung beim Durchlauf durch Netzknoten überstehen. Erst die Möglichkeit, digitale Informationen verlustfrei zu speichern, zu kopieren und weiterzureichen (store and forward ) ermöglichen Dezentralität und Paketorientierung. Technologie als notwendige Bedingung ist aber als Erklärung nicht hinreichend, weil Technik nicht von selber entsteht sondern immer Produkt eines intensiven Einsatzes personeller, materieller und finanzieller Mittel ist.

Die Geschichte des Internet zeigt ähnlich der des Computers, dass in Technik Vorstellungen, Visionen und Ideen materialisiert werden, die nichttechnischen Ursprungs sind. Technische Artefakte werden ihrerseits zum Medium dieser Ideen. Ohne Technikdeterminismus kann man sagen, dass der Einsatz von Maschinen und Geräten in alltäglichen Handlungszusammenhängen Spuren beim Benutzer hinterlässt, indem sie Handlungsräume eröffnen. Diese Spuren wiederum schlagen sich in Form von Handlungen und Diskursen nieder.

Ein dezentrales Kommunikationsnetz propagiert die Idee dezentrales Vernetzung als grundlegender Organisationsstruktur. Die Bedeutung dieser Idee wird erst verständlich, wenn sie im Gegensatz erscheint zu zentralistischen Organisationsformen, wenn sie verglichen wird mit bestehenden [Seite 81↓] Ordnungsstrukturen. Diskussion um dezentrale Verwaltung, dezentrale Unternehmensstruktur, verteiltes Lehren und Lernen etc. deuten das Potenzial an, welches in der Änderung alltäglicher Strukturen liegt. Hierarchien als Selbstverständlichkeit werden erst bei ihrem Wegfall sichtbar, bei einer Erweiterung des Horizontes.

Allerdings ist der Begriff ‚Dezentralität’ weiterhin unscharf, auch der Unterschied des Internet zu anderen Massenmedien scheint an dieser Stelle noch nicht befriedigend geklärt. Bevor ich also die Frage nach konkreten Folgen eines dezentralen digitalen Netzes auf Diskurse und kulturelle Praktiken stelle, werfe ich einen systematischen Blicks auf das Konzept der ‚Dezentralität’, welches seinerseits einen netztheoretischen Rahmen voraussetzt.

Ein Blick in die Kulturgeschichte des Netzes ist wenig ergiebig, eine kulturhistorische Aufarbeitung steht noch aus. Das Deutsche Wörterbuch von Jacob und Wilhelm Grimm fasst die Begriffsgeschichte zusammen:

I. ein aus weiten maschen bestehendes gestrick
II. das gewebe der spinnen (der netzspinnen)
III. ein netzartiges, wie ein netz ausgebreitetes oder umschlieszendes gebilde
IV. ein webernest
V. ein netz oder garnstern
VI. der gelbe gitterfalter46

Diese Netzbegriffe sind von der Vorstellungswelt einer Agrargesellschaft geprägt:

Netze sind also, so können wir ihre Antike und über Jahrhunderte gebräuchliche Bedeutung zusammenfassen, ambivalent: Zum einen lebensdienlich, zum anderen umschlingend und tödlich. Die Spinnkunst ist, neben der Töpfermetapher, die klassische Leitmetapher für menschliches Denken und Handeln.47

Der Gebrauch der Netzmetapher hat sich mit der Industrialisierung zu seiner technischen Bedeutung verschoben, hier allerdings von Fangnetzen zu Transport- und Versorgungsnetzen, Straßen- und Schienennetze, Strom-, Gas- und Wassernetze, Telegraphie- und Telefonnetze.

Diese Netze hatten ein Zentrum, um das sie sich spannten:

The model for infrastructure in the industrializing nineteenth century was to improve the agora, the central physical marketplace. The key architectural principles were centralization and hierarchy, moving form the hub, that is, a central regiaonal trading center such as Chicago or St.Louis, down radiating spokes to subsidary marketplaces of decreasing size.48

Netze bilden die Infrastruktur einer hierarchisch organisierten Gesellschaft, woran ihre Ausfälle durch Unglücke und Pannen oder Streiks der Netzbetreiber von Zeit zu Zeit schmerzhaft erinnern. [Seite 82↓] Die positive Konnotation des Netzbegriffs ist ein Grund für die hohen Erwartungen, die an ein globales Computernetz herangetragen werden. Gerhard Fröhlich kritisierte 1996 die Bedeutungsverschiebung als zu einseitig:

Die neuen Netzbegriffe (welche die Bedeutung des Fangnetzes weitgehend verloren haben) unterstellen Flachheit, gleich starke Fäden, gleichmäßig gestrickte Maschen, Egalität der Knoten, vermitteln zugleich auch ein Gefühl der (nicht allzu einengenden) Zusammengehörigkeit. Das Netz ist eine Metapher für (mühe-)lose, jederzeit reversible Vergesellschaftung; „Vernetzung“ steht für Vergesellschaftung „light“.49

Inzwischen haben sich die kritischen Stimmen vermehrt und das Netz gewinnt seine ursprüngliche doppelbödige Ambivalenz sowohl der Lebensdienlichkeit als auch der umschlingend tödlichen Bedrohung zurück. Detailliert werde ich die Erwartungshaltungen und Befürchtungen im Zusammenhang mit den neuen Vernetzungsverhältnissen in Kapitel 4 untersuchen.

Zuvor jedoch bedarf es einer Betrachtung von Computernetzen, will man das strukturell Neue des Internet und dessen widersprüchlichen Bewertungen verstehen. Die technische Beschreibung des Internet ist in zahllosen RFCs, Publikationen, Tutorials, Manuals und Handbüchern ausführlich dokumentiert50 und soll hier nur wiederholt werden, wo es notwendig erscheint. Dabei verzichte ich überall, wo es möglich ist, auf technische Details, welche die Einführung einer umfangreichen Terminologie erforderlich machen würde, die für die weiteren Zwecke überflüssig wäre.

Vielmehr leite ich aus den technischen Darstellungen einige netztheoretische Konzepte ab, welche zur Beschreibung der Funktion von Computernetzen im Speziellen angewendet werden, sich aber ohne Schwierigkeiten auf Netze im Allgemeinen generalisieren lassen. Im Folgenden werden ich diese Konzepte am Beispiel des ARPANET sowie des Internet behandeln, immer in Hinblick auf die abstrakten Funktionen, die sie für Netze als Organisationsstruktur erfüllen.

Knoten und Verbindungen

Ein Netz ist zunächst eine Menge an Knoten und eine Menge von Verbindungen der Knoten untereinander. Die Beschaffendheit der Knoten und der Verbindungen hängt ab vom Netztyp, ob es sich um materielle oder immaterielle Netze handelt, ob der Zweck z. B. der Transport von Waren oder von Informationen ist.

Das ARPANET wurde ursprünglich von den bei BBN entwickelten IMPs gebildet, welche ihrerseits mit monolithischen Mainframes verbunden waren. Die IMPs konnten sowohl untereinander als auch mit den angeschlossenen Computern über spezielle Hochgeschwindigkeitsleitungen kommunizieren. Bereits Paul Baran schlug verschiedene Träger vor: Mikrowellen, Funk, Satellit etc. Im Internet kann jeder Computer Netzknoten sein, sofern er den Datenfluss verarbeiten kann. Barans Idee einer [Seite 83↓] Vielzahl von Verbindungstypen ist technisch umgesetzt durch den Zusammenschluss heterogener Netzwerke, basierend auf elektrischen Leitungen, Glasfaser und Fiberoptik oder Funk- und Satellitenverbindungen.

Fluss

Ein Netz definiert sich neben seiner physikalischen Beschaffendheit über die Art des Flusses, welcher in den Verbindungen fließt. Jeder Netzknoten muss in der Lage sein, das netztypische Gut entweder zu erzeugen und abzugeben, weiterzuleiten oder anzunehmen und zu verbrauchen. Die Güte eines Netzes hängt ab von der Quantität und Qualität des Flusses.

Über die long-distance Telefonleitungen des ARPANET wurden Daten in Form von elektrischen Impulsen gesendet. Zu einem gegebenen Zeitpunkt können mehr als ein Bit gesendet und Empfangen werden, so werden z. B. beim Frequenz-Multiplexing mehrere Bits auf verschiedene Frequenzen eines Trägersignals moduliert. Daten werden zu logischen Einheiten zusammen gefasst, Datagramme, Pakete etc. Die Qualität einer Leitung wird als Bandbreite in übertragenen Bit/s angegeben. Die Beschaffendheit des Flusses wird in Protokollen definiert.

Protokolle

Auf Rechnerkommunikation lässt sich, im Gegensatz zur zwischenmenschlicher Verständigung, das Sender/Empfänger -Modell der Informationstheorie von Shannon und Weaver, problemlos anwenden. Bei zwei über einen festgelegten Kanal miteinander verbundenen Computern übernimmt zu jedem Zeitpunkt einer die Rolle des Senders, der andere die des Empfängers, wobei die Rollen im Laufe der Kommunikation vertauscht werden können. Um kanaltypische Störungen zu kompensieren, wird die übertragende Nachricht redundant kodiert, einfache Fehler können somit bei der Decodierung heraus gerechnet werden. Zusätzlich zur eigentlichen Botschaft müssen Transportinformationen der Nachricht angehängt werden: Absender, Adresse, Paketnummer, um den Datenfluss im Netz sicherzustellen. Der Ablauf der Kommunikation muss von beiden Seiten genau festgelegt sein, d.h. jeder Rechner muss jedes gesendete und empfangene Bit genau zuordnen können, um Transport- von Nachrichteninformationen unterscheiden und zuordnen zu können. Die Regelungen der Kommunikation werden in Protokollen festgelegt. Der genaue Aufbau der Protokolle ist für die weitere Darstellung ebenso unerheblich wie die Festlegung auf das lediglich für technische Netze anwendbare Sender/Empfänger-Modell. Wichtig für meinen Zusammenhang sind zwei Punkte:

Protokolle regeln den Fluss innerhalb des Netzes. Bei aller Heterogenität der Netzknoten und Verbindungstypen garantieren die Protokolle die Einheit des Netzes.

Protokolle werden geschichtet.


[Seite 84↓]

Schichten

Der Aufbau des ARPANET und später der des Internets war und ist zum guten Teil Standardisierungsarbeit sowie technische Umsetzung der Standards (oder umgekehrt: eine technisch funktionierende Lösung setzt sich durch und wird nachträglich zum Standard erklärt) in Form der Protokolle. Die Protokollarchitektur des Internet setzt sich aus vier Schichten zusammen, die auf der physikalischen Struktur des Netzes aufsetzen. Auf jeder Protokollschicht werden bestimmte Aufgaben der Kommunikation bewältigt. Dazu wird den zu übertragenden Daten ein protokollspezifischer Kopf angefügt, der auf der Empfängerseite ausgewertet wird. Jedes Protokoll kümmert sich ausschließlich um die Informationen der eigenen Schicht. Exemplarisch für die Arbeitsteilung von Protokollen sei hier die Architektur des Internet dargestellt.51 Dabei interessiert lediglich die Tatsache, dass das Internet, Kommunikationsnetze und – so die These – Netze im Allgemeinen aus Schichten bestehen, die unterschiedliche Funktionen, Strukturen und Verwaltungsmodalitäten verarbeiten.

Teilnetze

Teilnetze werden gebildet aus einer Teilmenge der Knoten und Verbindungen des Gesamtnetzes. Innerhalb eines Teilnetzes können zusätzliche Protokolle implementiert sein, welche auf der gleichen physikalischen Netzschicht alternative Flüsse definieren.

Das Internet ist kein eigenständiges Netz, sondern setzt sich aus vielen Netzen unterschiedlicher Größe zusammen. Wird ein Datenpaket in einem Netz abgeschickt, so wird es durch verschiedene Teilnetze geschickt, bis es im Verwaltungsrechner (gateway ) des Zielnetzes ankommt. Dort wird es in die Protokolle des lokalen Netzes, z. B. Ethernet, übersetzt und an den adressierten Rechner weitergeleitet.

Die Teilnetze sind über Router miteinander verbunden und bilden zusammen die Topologie des Internet. Die flussstärksten Teilnetze bilden das Rückgrat (backbone ) des Internet und werden aus historischen Gründen überwiegend von Forschungseinrichtungen wie der National Science Foundation of America (NSFA) oder in Deutschland vom Wissenschaftsnetz (WiN), gepflegt. Hinzu kommen verstärkt kommerzielle Provider, wie in Deutschland t-online , UUnet , Xlink , IS, Nacamar sowie der AOL-Backbone Mediaways .

Interfaces und Gateways

Sollen verschiedene Teilnetze verbunden werden, bedarf es eines Vermittlers zwischen den [Seite 86↓] Protokollen beider Netze, eines Interfaces. Dieses vermittelt zwischen zwei Netzen, die heterogen sein können, d.h. unterschiedliche Flüsse definieren. Ein Modem (Kurzform für Modulator/Demodulator) vermittelt zwischen den digitalen Daten der Computer und den Signalen analoger Telefonleitungen.

Das Internet besteht aus technischer Sicht aus allen Teilnetzen, welche das IP und das TCP implementiert haben. Im Schichtenmodell liegen unterhalb dieser internetspezifischen Protokolle jeweils netzspezifische Protokolle, um z. B. Modem-, Ethernet- oder Funknetzverbindungen zu regeln. Um zwischen zwei verschiedenen Netzen Daten auszutauschen, bedarf es eines Rechners, der in beide Netzen eingebunden ist, der also beide Protokolle der Netzzugangsschicht verarbeiten kann und in der Lage ist, Daten des einen Protokollstacks in den anderen zu übersetzen. Diese Rechner dienen als Brücke oder Verbindung zwischen beiden Netzen und werden aus diesem Grund ‚Gateway’ genannt. Ein Gateway kann in mindestens zwei Netzen kommunizieren. Der in Frankfurt vom 1995 electronic commerce forum (eco) gegründete Deutsche Commercial Internet Exchange (DE-CIX) ist der grösste Kommerzielle Netzknoten in Deutschland, an den fast alle kommerziellen Provider angebunden sind und über den nahezu 85 % des innerdeutschen Internet-Verkehrs abgewickelt werden.52

Das Internet als Medienverbund

Um die Unterschiede des Internet zu anderen Medien zu beschreiben, gehe ich von Lasswells berühmter Frage aus, „Who says what in which channel to whom with what effect? “53 Unter Vernachlässigung des Effekts werden die Kommunikationspartner in Sender (Who ) und Empfänger (Whom ) unterteilt. Die Nachricht (What ) wird mit Hilfe eines Trägers in einem Kanal übermittelt (Channel ). Das an Shannon/Weaver angelehnte Modell der Nachrichtenübertragung ist keineswegs geeignet, kommunikative Wirklichkeit hinreichend abzubilden, was auch nicht Ziel der folgenden Einteilung ist. Sie dient einzig dem Zweck, qualitative Neuerungen des Internet herauszustellen. Aus diesem Grund werden andere Medien lediglich beispielhaft und stichwortartig behandelt.

Die beiden Gruppen potenzieller Sender und Empfänger von Nachrichten gliedern sich unter dem quantitativen Aspekt, wie viele Sender und wie viele Empfänger ein gegebenes Medium nutzen können. Drei Klassen bieten sich an, orientiert an den Kategorien privat , halböffentlich und öffentlich : Eine Einzelperson (one ), eine räumlich und zahlenmäßig begrenzte Gruppe (few ) sowie eine beliebige Anzahl (many ).

Auf Senderseite bedeutet die Klasse die Zahl möglicher Nutzer des Mediums. Die quantitativ grössere Gruppe schliesst dabei die kleinere ein, ein Medium, das von allen genutzt werden kann, [Seite 87↓] steht natürlich auch einer kleinen Gruppe und einer Einzelperson zur Verfügung.

Auf Empfängerseite bedeutet die Klasse die Anzahl potenzieller Empfänger für eine gegebene Nachricht. Die quantitativ grössere Gruppe schliesst die kleinere nicht ein, ein öffentliches Massenmedium wie Fernsehen, Radio oder Zeitung lässt sich nicht oder nur mit erheblichem Aufwand auf eine kleine Gruppe einschränken.

Aus drei Möglichkeiten auf beiden Seiten ergeben sich neun Kombinationen, welche alle medialen Beziehungen abdecken und eine Typologie aller Medienformen aufmachen:

one-to-one

one-to-few

one-to-many

few-to-one

few-to-few

few-to-many

many-to-one

many-to-few

many-to-many

one-to- x

Individual-Medien, welche nur von einer Person genutzt werden können (one-to-x ), müssen durch strenge Zugangskontrollen gesichert werden. Das Privileg des Senders auf exklusive Nutzungsrechte ist mit einer entsprechenden sozialen Machtposition gekoppelt, weswegen sie monarchischen oder totalitären Charakter haben. Es sind die Medien der Päpste, Kaiser und Könige. Im Mittelalter war die Metapher des Flusses für Informationsübertragung verbreitet:

Demnach stellte man sich – so kann man vermuten – die Informationsvermittlung wie einen Wasserstrom vor, der ausgehend von einem „Brunnen“ oder einem anderen Reservoir über sich verzweigende Kanäle zu den potentiellen Empfängern fließt.54

Der Ausgangspunkt der Quelle war Gott: „Er erscheint in dieser Konzeption als Ursprung des Wassers, als Quelle. “55 Insofern wurden Gebete, Offenbarungen und göttliche Überlieferungen als Medium verstanden.

Betrachtet man Regierungen als juristische Einzelpersonen, dehnt sich die Klasse der exklusiv-Medien entsprechend aus.

one-to-one
Ein Medium, zu welchem nur eine Person Zugang hat, um sich privat mit jeweils einer anderen Person zu unterhalten, ist nur schwer vorstellbar. Göttliche Offenbarungen zu auserwählten Propheten fallen in diese Klasse.

one-to-few
[Seite 88↓] Hierunter fallen Königliche Anweisungen an seinen Hof oder Päpstliche Weisungen an seine Kardinäle. Die Bibel kann ebenfalls als solches Medium interpretiert werden, ehe sie durch Übersetzungen und industrielle Vervielfältigungen der breiten Öffentlichkeit zugänglich gemacht wurde.56

one-to-many
In dieser Kategorie finden sich kaiserliche Erlässe, gerichtet an alle Untertanen oder päpstliche Bullen.

Few-to- x

Medien, welche nur von einem eingeschränkten Personenkreis auf Senderseite eingesetzt werden können (few-to-x), stellen hohe Anforderungen an die mediale Kompetenz des Senders oder sind im Gebrauch zu kostenintensiv, um jedermann zugänglich zu sein. Bei Medien mit materiellem Träger steigen die Kosten mit der Zahl möglicher Empfänger.

few-to-one
Staatliche oder private Nachrichtendienste liefern ihre Informationen an eine Person.

few-to-few
Auch wenn theoretisch jeder ein Flugblatt entwerfen, vervielfältigen und verteilen kann, sind die finanziellen und materiellen Anforderung so hoch, daß es als Medium nur von Wenigen genutzt wird. Der Nutzung von Privatfunk bedarf einer speziellen Funklizenz.

few-to-many
Massenmedien wie Zeitungen, Film oder Fernsehen sind aufgrund ihrer hohen Produktions- und Verfielfältigungskosten auf Senderseite nur von einem kleinen Personenkreis zugänglich. Empfänger gibt es beliebig viele, bei Printmedien kann die Auflagezahl entsprechend angehoben werden. Ähnliches gilt auch für Tonaufnahmen, Schallplatten, Tonbänder, CDs.

Many-to- x

Medien, welche jedem zugänglich sind, müssen einfach in der Bedienung und billig in der Produktion der Nachrichten sein. Wie für alle Medien so gilt auch hier, dass bei materiellem Träger die Produktionskosten und der Aufwand der Verteilung mit der Zahl der Adressaten steigt.

many-to-one
Typische Medien in dieser Klasse sind Brief, Telegramm, Fax oder Telefon. Beliebig viele Personen können mit jeweils einer anderern kommunizieren.

many-to-few
Aushänge an schwarzen Brettern nur für den Personenkreis bestimmt, welcher sich räumlich im Einzugsgebiet befinden. Fotographie ist zwar ein populäres Medium, die abgezogenen Bilder aber sind jeweils nur einem begrenzten Personenkreis zugänglich. Um sie der Öffentlichkeit zu [Seite 89↓] präsentieren, müssen sie in ein anderes Medium transformiert werden.

many-to-many
Bei diesem Medientyp kann jeder senden und eine Nachricht kann von beliebig vielen empfangen werden. Vor dem Internet gab es keine Medien, welche in diese Klasse fielen. Der Grund liegt im hohen finanziellen und logistischen Aufwand bei der Vervielfältigung analoger Nachrichten. Entweder kostet es viel Material, wie im Fall der Printmedien, oder viel Energie in Form von Sendeleistung bei Rundfunkmedien. Der Preis für Analognachrichten steigt mit der Grösse der Zielgruppe, analoge Massenmedien sind teuer und können nur von einem grossen Publikum finanziert werden. Die Medientheorie seit McLuhan betont, dass Massen erst durch Massenmedien entstehen. Insofern erfüllen Massenmedien auch eine gesellschaftsstabilisierende Funktion, welche mit ihrem sinkenden Einfluss nicht mehr eingelöst werden kann.57

Die wesentliche Eigenschaft eines digitalen Mediums liegt in der verlustfreien Kopierbarkeit digitaler Nachrichten, was letztendlich daran liegt, dass durch Digitalisierung die Nachricht völlig unabhängig vom Träger und vom Kanal ist. Ein Bit kann durch elektrische Spannung, eine Funkfrequenz, eine Gruppe ferromagnetischer Moleküle, einen gedruckten Punkt etc. repräsentiert werden. Dadurch kann es an einem Netzknoten nicht nur ohne Qualitätseinbusse weitergeleitet, sondern darüber hinaus beliebig vervielfältigt werden.

Neben der Möglichkeit, jedem Nutzer die Kommunikation mit einer beliebig grossen Zielgruppe zu ermöglichen, umfasst das Internet auch die Einschränkungen auf eine kleinere Zahl. Mailinglisten richten sich an einen beliebig einschränkbaren Empfängerkreis. Emails ergänzen die many-to-one Medien. Aufgrund der verschiedenen Protokolle der Nutzerschicht, HTTP, SMTP, NNTP, IRC, FTP etc. ist das Internet kein Einzelmedium, sondern Oberbegriff für einen Medienverbund . So uneinheitlich wie die Bedienelemente der Empfangsgeräte der alten Medien, Fernsehapparat, Telefon, Handy, Radio, Videorekorder, Faxgerät etc., so verschieden ist die Benutzeroberfläche der Programme, welche die Internetdienste implementieren: Web-Browser, Mail-, News- oder Chatclient etc. Der Computer als universelle Maschine wird durch ein ablaufendes Programm zu einer konkrete Maschine, durch eine Protokollimplementation zu einem konkreten Medium.

Diese stellen medienhistorisch insofern eine radikale Innovation dar, als dass jeder Nutzer die Möglichkeit hat, durch Auswahl des geeigneten Mediums innerhalb des Verbunds eine beliebig kleine oder große Zielgruppe zu erreichen. Seit der Entwicklung des World Wide Web, des Usenet oder der Mailinglisten kann jede Nachricht beliebig vervielfältigt werden. Aus diesem Grund wurde vor allem das WWW seit Beginn von der Phantasie begleitet, medialer Machtausgleich zu sein und die kleinste Website auf gleicher Ebene zu präsentieren, wie die eines grossen Konzerns. Alte Zentren würden [Seite 90↓] durch das Internet aufgelöst, einem Medium bzw. Medienverbund, welches jede Zentrumsbildung und jede Machtkonzentration unterläuft, um auch der kleinsten Stimme soviel Raum zu geben, wie sie einfordert.

Diese Ideen sind sicherlich nicht substanzlos, doch wie immer erweisen sich die Zustände bei näherem Hinsehen als deutlich komplizierter. Es gilt daher, den für Netze so fundamentalen Begriff der Dezentralität genauer zu betrachten, um die darum sich entspinnenden Diskurse verstehen und bewerten zu können.

Zentralität und Dezentralität

Auf jeder Protokollschicht wird das Internet unterschiedlich verwaltet. Der dezentrale, verteilte Charakter, der dem Internet häufig zugesprochen wird, bildet sich auf den unteren Schichten nicht ab. Lediglich für die äusseren Schichten, die physikalische Schicht, d.h. die Struktur der Datenleitungen, sowie für die Anwendungsschicht, d.h. die Nutzung der Internetdienste durch Anwender, läßt sich eine dezentrale Struktur feststellen.

Zum Begriff der Dezentralität hilft ein erneuter Blick in die mathematische Graphentheorie. Ein Graph G, d.h. das Modell eines Netzes, besteht aus einer Knotenmenge K und einer Menge V von Verbindungen zwischen den Knoten aus K. Jedes Element v aus V hat die Form v = {k1 ,k2 }, wobei k1 der Startknoten und k2 der Zielknoten der Verbindung v ist.

Eine Folge von Verbindungen der Form {k1,k2}{k2,k3}...{km-1,km}heißt Weg zwischen den Knoten k1 und km . Der Graph G heißt zusammenhängend , wenn je zwei Knoten durch einen Weg verbunden sind, wenn man, bildlich gesprochen, von jedem Knoten zu jedem anderen Knoten gelangen kann. G besteht damit aus nur einer Zusammenhangskomponente . Eine Teilmenge der Knotenmenge, nach deren Streichung G in zwei getrennte Zusammenhangskomponenten, d.h. zwei Teilnetze zerfällt, heisst trennende Knotenmenge . Analog heisst eine Teilmenge der Verbindungsmenge, nach deren Entfernung G in zwei Teilnetze zerfällt, trennende Verbindungsmenge . Der Grad der Dezentralität eines Netzes bestimmt sich aus der kleinsten trennenden Knoten- oder Verbindungsmenge. Je mehr defekte Knoten und Verbindungen ein Netz verkraftet, ohne den Zusammenhang zu verlieren, desto robuster und dezentraler ist es. Paul Baran konnte zeigen, dass eine Verbindungsredundanz von drei bis vier für ein hinreichend robustes Netz ausreicht. Wie stellt sich die Dezentralität des Internet dar, wenn man die verschiedenen Topologien der einzelnen Schichten berücksichtigt? Zunächst betrachte ich die technischen Randbedingungen, ehe ich mich im nächsten Abschnitt mit der tatsächlichen Topologie beschäftige.

Physikalische Schicht

Aus rein netztopologischer Perspektive ist das physikalische Netz, das als Träger für den Datentransport dient, dezentral organisiert. Kein Knoten oder Subnetz ist notwendiger Abschnitt für die Route aller Datenpakete. Flexible Routingtabellen garantieren die Übermittlung der Datenpakete [Seite 91↓] selbst bei Teilausfällen. Eine direkte Konsequenz davon ist, daß das Internet nicht kontrolliert und physikalisch nicht abgeschaltet werden kann, keine Regierung und kein Unternehmen könnte den Stecker ziehen. Dennoch gibt es mit den Backbones stark ausgelastete Verbindungen, auf welchen ein großer Teil des Datenverkehrs ruht.

Netzzugangsschicht

Für jede Form einer physikalischen Verbindung gibt es ein Protokoll, welches die verwendeten Stecker, die notwendige Übertragungsleitung, die Synchronisierung von Sender und Empfänger etc., verwaltet. Weil jede Implementation dieser Protokolle lediglich einen Leitungstyp überwacht, also die Verbindgung zwischen je zwei Punkten, zwischen einem Computer und seinen direkten Nachbarn, spielt die Topologie des Gesamtnetzes für sie keine Rolle. Aus der Sicht der Netzzugangsprotokolle ist das Internet sternförmig.

Verbindungsschicht
Das Internet-Protokoll IP verwaltet Routing-Listen, um zu einer Netz-Adresse die richtige Leitung auszuwählen, auf der die Datenpakete zu verschicken sind. Die IP-Adressen sind nicht nur weltweit eindeutig, sondern auch nach Ländercodes geordnet. Deutlicher wird die Struktur der Verbindungsschicht am Domain Name Service (DNS), welcher Domainnamen auf IP-Adressen abbildet.

Jede Webseite (z. B. http://www.zdwebopedia.com/TERM/I/IP_address.html ) muss weltweit eindeutig identifizierbar sein, um eine Verdopplung von Domainnamen und IP-Adressen auszuschliessen. Diese Anforderung kann optimal von einer eindeutigen und klaren Hierarchie bewältigt werden, weswegen die IP-Schicht als Baum organisiert ist. Jeder Computer ist über die Topleveledomain (z. B. .com ), über die Domain (z. B. zdwebopedia ) und den Rechnernamen (z. B. www ) erreichbar, die einzelnen Seiten werden auf dem Dateisystem des Rechners in einem Verzeichnisbaum (z. B. /TERM/I/IP_address.html ) eingegliedert. Die Verwaltung des IP und DNS-Baums ist physikalisch als verteilte Datenbank organisiert, um die Informationsmenge aufzuschlüsseln und Ausfallsicherheit zu gewährleisten. Ihr logischer Aufbau ist jedoch strengstmöglich hierarchisch. Jede Adressverdopplung führt zu Datenverlusten, was bedeuten würde, dass beide Adressaten nicht ansprechbar wären. Aus der Sicht des IP ist das Internet ein Baum.

Transportschicht

Das TCP unterteilt zu übermittelnde Daten in Pakete, die sequentiell durchnummeriert und verschickt werden. Für die Transportschicht sind die darunterliegenden Strukturen völlig transparent, Daten werden hintereinander verschickt, bzw. die angekommenen Pakete in der richtigen Reihenfolge zusammengefügt. Die Belange, um die sich das TCP kümmert, sind sequentieller Natur, aus der Sicht des TCP ist das Internet linear.

Anwendungsschicht

Neben dem physikalischen Netz spannen erst die Protokolle der Anwendungsschicht wieder [Seite 92↓] dezentrale Netze auf. Die Betrachtungen seien hier auf die beiden populärsten Protokolle beschränkt: HTTP und SMTP.

HTTP

Populärstes, weil medienwirksamstes Protokoll ist das Hypertext Transfer Protocol (HTTP) , welches zusammen mit der Markierungssprache, der Hypertext Markup Language (HTML) die Grundlage des World Wide Web bildet. In einer Markierungssprache werden bestimmte Teile eines Dokumentes mit speziellen Klammern (Tags ) eingerahmt oder markiert, welche die Eigenschaft und Funktion der ausgewählten Stelle beschreibt. Jede Klammer besteht aus einem öffnenden (<xyz> ) Tag, einem Inhalt (im Weiteren markiert durch [...] ) und einem schließenden (</xyz> ) Tag. Die Klammer <h1>[…]</h1> z. B. bestimmt, daß der in ihm enthaltene Text eine Überschrift (h1 wie headline der Gliederungsebene eins) ist. Ebenso gibt es Tags für Tabellen, Aufzählungen oder Grafiken. HTML wurde als reine Formatierungssprache konzipiert, die Interpretation und graphische Darstellung des Textes im Sinne der Formatierungstags übernimmt ein Programm, der Browser, das als Schnittstelle zum Benutzer dient. Der erste Browser war das 1993 von Mark Andreessen entwickelte Programm X-Mosaic , der das World Wide Web und damit das Internet populär machte.

Jedes Dokument im WWW hat eine Adresse, den Uniform Resource Locator (URL), der sich u. a. aus dem benötigten Protokoll, aus der weltweit eindeutigen IP-Adresse des Rechners, sowie dem Pfad des Dokuments auf diesem Rechner zusammensetzt. Die IP-Adresse wird i. d. R. durch einen symbolischen Namen ersetzt, für dessen eindeutige Abbildung auf die IP-Adresse der Domain Name Service (DNS) und damit letztendlich die ICANN (s. u.) verantwortlich ist.

Der für die Struktur des WWW entscheidende HTML-Tag ist <a href = ”URL”>[…]</a> , durch welchen der enthaltende Text zu einem Hyperlink (a wie Anchor ) wird. Das zu dem Anchor-Tag gehörende Attribut href (HyperReference ) verweist über die URL auf ein anderes Dokument. Jedes Dokument kann grundsätzlich auf beliebige andere verweisen, wodurch das WWW zu einem verteilten, zentrumslosen Netz wird. Das Neue an diesem Netz ist weniger die Tatsache, dass Dokumente aufeinander verweisen können, was in Enzyklopädien oder mit Fußnoten gängige Praxis ist, sondern daß der Zugriff auf die verwiesenen Dokumente ohne räumliche Hindernisse und praktisch ohne zeitliche Verzögerung erfolgen kann.

SMTP

Das Simple Mail Transfer Protocol definiert den Dienst Email , welcher zwar deutlich weniger Neztbandbreite verbraucht als das WWW, dennoch der beliebteste Internetdienst ist.58 SMTP wird in verschiedenen Programmen, Mail-Clients wie Eudora, Outlook oder Netscape Messenger implementiert. Eine Email besteht aus dem vom Benutzer eingegebenen Brieftext sowie einem SMTP-spezifischen [Seite 93↓] Header. Jede Mail kann an eine beliebige gültige Adresse verschickt werden, wobei es kein zentrales Hauptpostamt gibt, über das Mails verschickt werden müssen. Das Mailnetz ist folglich ebenso dezentral wie das WWW.

Nutzer

Neben der physikalischen Schicht und der Anwendungsschicht bildet die soziale Struktur der Internetnutzer ein dezentrales Netz. Das ist medienhistorisch keineswegs neu und findet sich z. B. beim Medium Brief oder Telefon, wo prinzipiell jeder mit jedem in Kontakt treten kann. Betrachtet man diese Medien unter dem erarbeiteten netztheoretischen Vokabular als Schichtung unterscheidbarer Netze, dann ergeben sich zahlreiche Parallelen zur Schichtenstruktur des Internet. Das Straßennetz als physikalischer Träger des Postnetzes ist dezentral, eine gesperrte Strasse kann umfahren werden. Die Postämter leeren sternförmig ihre Briefkästen und verteilen die Post zu benachbarten Ämtern. Der Adressraum ist weltweit als Baum organisiert, jede Adresse ist eindeutig. Der Transport selber ist linear, jedes Postauto hat ein eindeutiges Ziel. Die Nutzer ihrerseits bilden ein dezentrales Netz. Rein organisatorisch ähnelt der Internetdienst Email dem Briefpostnetz. Ein entscheidender Unterschied liegt in der Tatsache, dass zumindest in Deutschland das Postnetz auf vielen Schichten noch immer ein Monopol ist, mithin durch zentrale Entscheidungen gelenkt werden kann, das Internet aber nur die standardisierte Verbindung von Netzen ist, welche in unterschiedliche Besitzverhältnisse eingegliedert ist. Diese Feststellung verlässt die Beschreibung netztopologischer Eigenschaften und leitet über zu Fragen der Machtverteilung in Netzen.

Netze und Macht

Das Internet wurde lange Zeit als anarchistisches, sich selbst organisierendes Medium beschrieben, als neuer Raum jenseits weltlicher Einflusssphären. Texte wie die „Declaration of Independence“ oder Müller-Maguhns „Regierungserklärung“, die im nächsten Kapitel diskutiert werden, unterstreichen diesen Gedanken. Wenngleich seit einigen Jahren eine große Zahl von Gerichtsurteilen bezüglich Urheber- und Markenrechtsverletzungen, Raubkopien, ‚indezente’59 Inhalte, Nutzerkontrolle und Datenschutz die rechtlichen Grauzonen zunehmend abtragen, war das Internet nie ein reines Produkt der Selbstorganisation, sondern immer schon den Mechanismen von Lobbyismus und Begünstigung unterworfen. Auf der anderen Seite setzt das Internet bestehende Machtkonstellationen unter Druck, was auf eine neuartige Verteilungsstruktur von Einflüssen hinweist. Um zu dem Neuen zu gelangen, müssen wir uns jedoch zunächst buchstäblich durch die [Seite 94↓] Schichten des Netzes arbeiten, um auf jeder Ebene nach Einflüssen jener Hierarchien zu fahnden, wie sie in jeder Organisation, jedem Medium und jedem Netz anzutreffen sind.

Dabei sind zumindest zwei Aspekte zu berücksichtigen: Zum einen sind die materiellen Träger des Netzes, die Knoten-Computer und Verbindungs-Leitungen in ökonomische Systeme eingebunden, haben Eigentümer und Besitzer. Die Eigentumsverhältnisse sind zwar verteilt, niemandem gehört das gesamte Internet, dennoch ergeben sich aus Eigentumskartellen und den Zugriffsbedingungen Möglichkeiten der direkten und indirekten Einflussnahme auf die Dynamik des Netzes.

Zum anderen müssen in einem Netzwerk zahlreiche Normen eingehalten werden, alle Knoten müssen die gleichen Protokolle verstehen u. ä. Es wird sich also in jeder Schicht zumindest ein Normierungszentrum finden, welches die Grundbedingungen für den Netzfluss entwickelt und bewahrt. In den Vorhallen dieser Zentren, den Lobbies, werden erwartungsgemäß zahlreiche Bemühungen um Einflussnahme auf den Normierungsprozess unternommen, weil die Macht über Normen immer auch politische, ökonomische, technische Macht bedeutet. Vertreter ähnlicher Ziele schließen sich zusammen, um ihren Einfluss zu vergrößern und die Konkurrenz zu schwächen; es bilden sich Hierarchien aus. Die Interessengruppen haben erheblich mehr Macht als die einzelnen Nutzer.

Eigentum und Besitz

Physikalische Schicht

Im Sinne von Barans Terminologie ist die Verteilung der Kabel und Verbindungen dezentral. Weder gibt es ein Zentrum, über das alle Verbindungen geführt werden, noch ein vollständiges Eigentumsmonopol. Dennoch führt noch für die meisten Privatnutzer der Weg zum nächsten Netzknoten über die Telefonleitung, für welche in europäischen Städten die ehemals staatlichen Telekoms ihre Monopolstellung behaupten. Internationale Verbindungen werden an International Exchange Points (IXP) gebündelt, die dadurch zu anfälligen Zentren der physikalischen Netztopologie werden. Am 17.09.1999 legte der Hurrikan Floyd den Metropolitan Acess Exchange (MAE) East von PSINet an der Ostküste der USA lahm, über den ein Großteil des Datenaustauschs mit Europa läuft.60 Datenpakete aus europäischen Ländern mussten über Afrika und Südamerika oder Asien und den Westen der USA geleitet werden, was zu erheblich Verzögerungen führte. Der redundante Aufbau des Netzes hat sich zwar praktisch bewährt, dabei waren die Wartezeiten jedoch so hoch, dass weite Teile des amerikanischen Netzes praktisch unerreichbar blieben. Am 20. November 2000 wurde das Unterseekabel South East Asia – Middle East – West Europe 3 Fiber Optic Cable Network (SEA-ME-WE 3) vor der Küste Singapurs durch einen Schiffsanker beschädigt, wodurch Australien vom Internet abgetrennt wurden, weil der Internet-Provider Telstra 60 Prozent seines internationalen [Seite 95↓] Internetverkehrs über dieses Kabel abwickelte. Betroffen waren zum Teil auch Japan, Indonesiens und Honkong.61 Über SEA-ME-WE 1, 2 und 3 wird ein Grossteil des eurasischen Datenaufkommen abgewickelt. Um so erstaunlicher ist die Tatsache, dass alle drei Kabel, zusammen mit dem Konkurrenzanbieter Fiberoptic Link Around the Globe (FLAG) und dem afrikanischen Kabel Africa 1 durch das selbe Gebäude in Alexandrien geleitet werden:

I didn't know the exact route of SEA-ME-WE 3 and was intrigued to learn that it will be passing through the same building in Alexandria as SEA-ME-WE 1 and 2, which is also the same building that will be used by FLAG. In addition, there is a new submarine cable called Africa 1 that is going to completely encircle that continent, it being much easier to circumnavigate Africa with a cable-laying ship than to run ducts and cables across it (though I would like to see Alan Wall have a go at it). Africa 1 will also pass through Engineer Musalam's building in Alexandria, which will therefore serve as the cross-connect among essentially all the traffic of Africa, Europe, and Asia.62

Die physikalische Schicht ist nicht so dezentralisiert wie die Ingenieure des Internet es geplant hatten. Obwohl eine beliebige hohe Redundanz technisch möglich wäre, wird sie faktisch nicht umgesetzt. Alternative Wege der Bereitstellung einer physikalischen Netzverbindung, z. B. über Kabel, Satellit oder das Stromnetz, sind in den meisten Ländern noch im Experimentierstadium. Auf lange Sicht zeichnet sich aber eine stärkere Dezentralisierung der Besitzverhältnisse der physikalischen Netze durch Alternativanbieter ab.

Netzzugangsschicht

Das für den Privatandwender vorrangigste Problem bei einem Internetzugang ist die Frage nach einem geeigneten Internet Service Provider (ISP). Während es zahlreiche lokale Nischenanbieter gibt, wird der Markt in Deutschland im wesentlichen von der Telekom-Tochter t-online und der amerikanischen Firma AOL beherrscht.63 Sie besitzen die notwendige Infrastruktur, um Privatnutzern einen Zugang via Modem zu ermöglichen. Der ISP ist darüber hinaus als zentraler Knoten des Netzzugangs Ansatzpunkt für staatliche Zugangskontrollen. Die Deutsche Telekommunikations-Überwachungsverordnung (TKÜV) sieht eine lückenlose Überwachung dieser Knoten zur Verbrechensvorbeugung und -bekämpfung vor.64 Andere Länder, wie China oder Nordkorea filtern über staatliche ISPs den gesamten nationalen Internetverkehr.

Verbindungs-, Transportschicht

Die Protokolle IP und TCP sind öffentliche Standards, d.h., obwohl sie von der IETF und der ISOC verwaltet werden, gehören sie niemandem im juristischen Sinne. Der Besitz von Domainnamen [Seite 96↓] ist seit einigen Jahren Inhalt zahlreicher juristischer Auseinandersetzungen bzgl. des Markenrechts.65

Anwendungsschicht

Zwar kann prinzipiell jeder Programmierer eine Software entwickeln, welche die in den RFC festgehaltenen Anforderungen der Protokolle der Anwendungsschicht erfüllt, de facto haben sich aber nur wenige Programme als quasi-Standard durchsetzen können. Größtes Gewicht muß hier dem Browserkrieg gegeben werden, welchen die Firmen Netscape und Microsoft zwischen 1996 und 1999 austrugen und der letztendlich von Microsofts Internet Explorer entschieden wurde.66 Netscape flüchtete unter den Schutz von AOL, so daß die beiden wichtigsten Browser in den Händen monopolähnlicher Konzerne sind. Das ist insofern bedenklich, weil sie den primären Zugang zum WWW darstellen, womit ihre Eigentümer erhebliche Definitionsmacht über die Weiterentwicklung der offenen Standards erlangen, der die Internetprotokolle bislang auszeichneten. Ähnlich dramatisch wäre die Situation auf Serverseite, wo bislang das Open-Source-Projekt Apache den höchsten Marktanteil behaupten kann.67

Nutzer

Das WWW wurde zentrumslos konzipiert, jeder Nutzer kann seine Inhalte allen anderen zur Verfügung stellen. Dennoch haben sich im Laufe der Zeit bestimmte Angebote als zentrale Einstiegspunkte herausgestellt. Die 1999 von IBM, Compaq und Altavista durchgeführte Studie „Graph structure in the web“ zeigt auf Grundlage von 200 Mio. Webseiten und 1,5 Mrd. Hyperlinks, dass das WWW keineswegs ein engmaschiges Netz ist.68 Vielmehr besteht es aus einem stark vernetztes Zentrum, dem Strong Connected Core (SCC), zu dem 30 % der Webseiten gehört. 24 % haben Links zu diesem Zentrum, aber es gibt keinen Weg zurück, ebenso viele können vom Zentrum erreicht werden, ohne dorthin zu verweisen. Das WWW ist nicht so stark vernetzt, dass man von jeder Seite zu jeder anderen gelangen könnte. Bei zwei willkürlich ausgewählten Seiten würde man laut der Studie in 75 % der Fälle keinen gerichteten Pfad finden. Dabei wurde lediglich die Linkstruktur unabhängig von Inhalten untersucht. Es ist daher nicht sicher, ob die Seiten des SCC auch diejenigen mit dem größten Verkehr sind. Dennoch haben kommerzielle Anbieter natürlich großes Interesse daran, zum SCC zu gehören.

Normierungen

Netzzugang


[Seite 97↓]

Der physikalische Netzzugang erfolgt über Harware-Verbindungen, Stecker und Kabel. Für jede Verbindungsart, Ethernet, Funk, Fiberglas, Modem, Satellit etc. muß eine physikalische Lösung existieren. Die zugehörigen Stecker werden international normiert, wobei wenige Standardisierungsinstitute die Definitionsmacht über technische Normen haben. Alle sind über das WSSN zusammengeschlossen.

WSSN69

Das World Standards Services Network (WSSN) vereinfacht den Zugang zu internationalen, nationalen und regionalen Standardisierungsorganisationen. Kernmitglieder sind die ISO, das IEC sowie die ITU, drei internationale Dachverbände für nationale Standardisierungsorganisationen. Weitere Mitglieder des WSSN sind regionale Verbände, die von ISO, IEC und ITU anerkannt sind, internationale Standardisierungskörperschaften sowie verwandte Organisationen.

ISO70

Die Internationel Organiziaton for Standardization (Der Name ISO ist abgeleitet aus der griechischen Silbe iso- : gleich ) wurde 1947 gegründet. Sie zählt heute als Mitglieder jeweils eine Standardisierungsorganisationen aus 135 Ländern, darunter das Deutsche Institut für Normung (DIN) und das American National Standards Institute (ANSI). Hauptziel der ISO ist der Abbau wirtschaftlicher Handelseinschränkungen aufgrund unterschiedlicher technischer Standards, z. B. Stromstecker oder Telefonbuchsen, welche Im- und Export elektronischer Geräte erschweren. Die Normen werden in einer von über 2867 technischen Kommittees, Untergruppen und ad-hoc-Gruppen als Vorschlag vorbereitet, ehe sie von 2/3-Mehrheit der an der Ausarbeitung beteiligten Mitglieder zum Standard erhoben werden können und von der ISO publiziert werden. Alle technischen Felder werden bei der Normierung abgedeckt, außer Elektrotechnik als Aufgabengebiet der IEC. Normen für Informationstechnik werden von einem aus ISO und IEC gebildeten Joint Technical Committee Number 1 (JTC1) verwaltet.

IEC71

Die 1906 gegründete International Electrotechnical Commission (IEC) verwaltet internationale Standards für elektrische und elektronische Technologien. Ihr gehören mehr als 60 Mitgliedsstaaten an, die in der IEC durch National Commitees (NC) vertreten sind. Nur diese haben Stimmrecht bei der [Seite 98↓] Abstimmung für einen Standard. Jeder Standard durchläuft die Etappen Preliminary, Proposal, Preparatory, Committee, Enquiry, Approval und Enquiry.72 An der Spitze der Verwaltung der IEC steht das aus den NCs gebildete Council, das mindestens einmal im Jahr zusammentritt.

ITU73

Die International Telecommunication Union wurde 1865 unter dem Namen International Telegraph Union gegründet und dient seit 1947 als Normierungsinstitution der UN. Sie gliedert sich seit 1993 in drei Sektoren: Den Radiocommunication Sector (ITU-R), Telecommunication Development Sector (ITU-D) sowie den Telecommunication Standardization Sector (ITU-T), gebildet aus dem International Telephone and Telegraph Consultative Committee (CCITT). Das Telecommunication Standardization Bureau (ITU-TSB) hat seinen Stammsitz in Genf, 16 Study Groups werden von dort verwaltet. Die ITU-T verwaltet über 2.500 Standards, welche den Charakter von Vorschlägen haben, auf Grund der internationalen Beteiligung jedoch von den meisten Mitgliedern akzeptiert werden. Lag der Schwerpunkt der ITU lange Zeit auf der Netzwerkebene, so versucht sie seit 1998 zusammen mit der IETF, Standards für IP-Netze zu definieren.74

IEEE75

Das Institute of Electrical and Electronics Engineers (IEEE) ist ein nicht an Gewinn orientierter Zusammenschluss von Ingenieuren in elektrotechnischen Berufen. Die IEEE Standard Association (IEEE-SA) verwaltet die technischen Standards des IEEE, u. a. für Busarchitekturen von Mikrocomputern, Local Area und Metropolitan Area Networks. An den Standardisierungsgruppen der IEEE-SA können sich Individuen oder Gesellschaften beteiligen, sofern sie Mitgliedstatus haben: „Member and Senior Member grades recognize those who have achieved professional proficiency, as demonstrated by degrees received and/or work experience.“76Der Standardisierungsprozess umfasst die Etappen Request, Project Approval, Formation of a Working Group, Draft, Public Comment, Consideration of Comments,. Final approval, Publication.77

Verbindungsschicht


[Seite 99↓]

Die Protokolle der Verbindungsschicht sind seit ihrer Einführung durch Cerf und Kahn offene Standards. Die Dachorganisation für Internetstandards ist die ISOC.

ISOC78

Die Internet Society wurde 1991 auf einer internationalen Netzwerk-Konferenz in Kopenhagen gegründet und nahm 1992 ihre Arbeit auf. Hauptsitz ist Reston, VA, USA aber wie alle internationalen Standardisierungskörperschaften gliedert sich die ISOC in zahlreiche Sektionen und Projektgruppen.

IETF79

Die Internet Engineering Task Force wurde von der ARPA, NSF, NASA und DOE gegründet. Die IETF verwaltet die Internet Standards in den Request for Comments (RFC).80 Die RFCs decken allgemeine Informationen bis zur Spezifikation von Protokollen ab. Der Standardisierungsprozess ist in RFC 2026 festgehalten und verläuft in sechs Schritten: Experimental, Proposed Standard, Draft Standard, Standard, Informational, Historical.81 Zu den Standards der IETF gehören Assigned Numbers (RFC 1700), die Definition der IP-Nummern, IP (RFC950), TCP (RFC 793) und SMTP (RFC 821). Die Arbeitsgruppen der IETF sind grundsätzlich personell offen, setzen sich aber überwiegend aus Elektrotechnikern, Ingenieuren und Computerfachleuten zusammen. Der Versuch, Standards für das WWW, insbesondere für die Sprache HTML, zu definieren, scheiterte an der Weigerung der Industrie, die Bemühungen der IETF überhaupt zur Kenntnis zu nehmen. Das führte 1994 zur Gründung des W3C (s. u.). Mit dem Wachstum des Internet wuchs auch seine wirtschaftliche Bedeutung, inzwischen beteiligen sich viele Interessengruppen an der offenen IETF, die nicht selten Firmeninteressen vor allgemeinen technischen Nutzen stellen. Die Standardisierungsarbeit wird dabei merklich verzögert, was z.B am jahrelangen Ringen um den Nachfolger des Internet Protokolls, IPv6 deutlich wird.

IANA und ICANN82

Die Entwicklung des Personal Computers vereinfachte zu Beginn der 80er Jahre die Ausdehnung des ARPANET und führte zu einem Problem: Neben der Verwaltung der IP-Nummern konnte jeder [Seite 100↓] Host einen Namen führen „und alle wollten Frodo heißen. “83 Jon Postel, Paul Mockapetris und Craig Partridge führten 1983 den Domain Name Service (DNS) ein, der als verteilte Datenbank die Adressierung der Rechner in einer am Unix-File-System orientierten Baum vereinfachen sollte. Die Top-Level-Domains wurden von Postel im RFC 1591 vorgestellt und später in der ISO Norm 1366-1 übernommen. Die Verwaltung der Domain Names sowie der IP-Nummern wurde der Internet Assigned Number Autohority (IANA) übertragen. Jede Top Level Domain (TLD) wurde ihrerseits von einem Manager verwaltet: „TLD managers are trustees for the delegated domain, and have a duty to serve the community.“84 Die IP-Adressen werden weltweit von drei Regional Internet Registries (RIRs) verwaltet: American Registry for Internet Numbers (ARIN) für den amerikanischen Raum, Reseaux IP Europeens Network Coordination Centre (RIPE NCC) für Europa und die Asia Pacific Network Information Centre (APNIC) für Asien.

1998 übernahm die Internet Corporation for Assigned Names and Numbers (ICANN) die Aufgaben der IANA. Die ICANN ist in ihrem Selbstverständnis „a non-profit, private sector corporation formed by a broad coalition of the Internet's business, technical, academic, and user communities.“85

Im Jahr 1999 beantragten die drei RIRs bei der ICANN die Gründung der Adress Supporting Organisation (ASO), um weltweite IP-Initiativen zwischen Internet Service Providern (ISP), Industrie und ICANN zu koordinieren.

Anwendungsschicht

Die meisten Protokolle der Anwendungsschicht sind offene Standards und werden von der IETF verwaltet. Eine Ausnahme bilden die Standards um das WWW, die hinreichend öffentliches und wirtschaftliches Interesse anzogen, was zur Gründung einer eigenen Verwaltung führte.

W3C86

Das World Wide Web-Consortium (W3C) wurde 1994 gegründet und ist personell wesentlich restriktiver als die IETF. Ist diese offen für die Beteiligung beliebiger Einzelpersonen, so können im W3C ausschließlich Firmen und Organisationen vertreten sein. Die Mitgliedschaft kostet $50.000 pro Jahr ($5.000 für nonprofits) bei einer Mindestdauer von drei Jahren. Der Lebenszyklus eines W3C-Standards ähnelt dem der IETF-Standards, wird aber in letzter Instanz von einer Einzelperson, [Seite 101↓] WWW-Entwickler und W3C-Direktor Tim Berners-Lee geprüft und genehmigt. Durch die strenge Organisation ist das W3C deutlich effizienter als die IETF, welche zwar über tausend proposed und draft standards hervorgebracht hat, aber nur einige Dutzend RFCs den Status standard haben. Dafür konzentriert sich eine große Definitionsmacht in der Hand einer einzelnen Person.

Nutzer

Die Grundregeln des Umgangs mit dem Medienverbund Internet lassen sich einteilen in offizielle Gesetze und die inoffizielle Netiquette.87 Beide Themen können in der vorliegenden Arbeit nur am Rande gestreift werden.

Gesetze

Obwohl viel über die anarchische Organisation der Internetnutzer geschrieben wurde, ist das Internet kein rechtsfreier Raum. Seit seiner Popularisierung ist es zum bestkontrollierten und überwachten öffentlichen Raum geworden. Das Hauptproblem ist nicht das Fehlen von Vorschriften oder rechtsverbindlichen Normen, sondern vielmehr die Möglichkeit, national geltende Gesetze im Ausland durchzusetzen. Das Bonmot von EFF-Mitgründer John Gilmore bringt es auf den Punkt: „The Internet treats censorship as a malfunction and re-routes proscribed ideas around it.“88 Doch nicht nur indezente, pornographische oder radikale Inhalte werden als störend empfunden. Nachrichtendienste haben große Sorge, verschlüsselte Kommunikation nicht mehr protokollieren zu können und versuchen, öffentlich zugängliche Kryptographie zu verhindern, einzuschränken oder erzwingen die nachträgliche Einführung eines Nachschlüssels. Der Fiskus sieht sich um Einkünfte, Steuern und Zölle betrogen, wenn über das Netz Waren erworben werden. Neben der Kontrolle von Inhalten und des e-commerce liegt ein Schwerpunkt internationaler Gesetzgebung in der Regelung des Markenrechts, des Schutzes geistigen Eigentums sowie des Urheberrechts und des Copyrights.

Netiquette

Die Regeln des kommunikativen Umgangs mit anderen Netznutzern haben sich im Laufe der Zeit im operativen Verlauf gebildet. Sie beziehen sich auf das Verhalten in Newsgroups oder Chaträumen. Obwohl ihre Einhaltung nicht durch eine exekutive Gewalt garantiert werden kann, werden sie von den meisten Teilnehmern respektiert und ihre Verletzung sanktioniert. Die Netiquette ist eine Art Protokoll auf Benutzerebene, wobei das Wort Protokoll in seiner ursprünglichen Kontext verstanden [Seite 102↓] ist als Regelung der Kommunikation in diplomatischen Verhandlungen.89

Fazit

Das kulturelle Paradigma der Vernetzung ist in seiner Breitenwirkung zwar eine Entwicklung der neunziger Jahre, seine Wurzeln aber reichen weit zurück. Die Entwicklung des ARPANET und die des aus dem ARPANET hervorgegangenen Internet wurde von Anfang an unter dem Gesichtspunkt dezentraler Vernetzung betrieben, aus Motiven, die in den seltensten Fällen rein technische waren. Technologie ist kein autonomer Bereich, der sich aus sich selbst nährt und seine Erfindungen danach in die Gesellschaft entlässt. Vielmehr steht er in komplexem Wechselspiel mit gesellschaftlichen, kulturellen und individuellen Faktoren, welche sich in ihrer Wirkung nicht auseinander dividieren lassen.

In technische Entwicklungen werden ideologische Voraussetzungen implementiert. Technik soll eine Situation oder einen Handlungsablauf verbessern helfen, deren Probleme i. d. R. nichttechnischer Natur sind: Kommunikation verbessern, Ideen teilen, Datenaustausch auch bei Teilausfällen sichern, Benutzerfreundlichkeit erhöhen. Forschungs- und Entwicklungsaufwand wird betrieben, um diese Ideen technisch umzusetzen, die ihrerseits aus vielfältigen Einflüssen entstehen. Das Internet wäre ohne die kühnen Visionen seiner Vordenker nicht in der Form entstanden wie wir es heute kennen, würde vielleicht zentral geleitet oder weiterhin nur wenigen zur Verfügung stehen.

Ein digitales, dezentrales Kommunikationsnetz wie das Internet ermöglicht die verlustfreie Vervielfältigung digitaler Nachrichten. Dadurch entsteht die Möglichkeit für jeden Teilnehmer, seine Nachrichten an eine beliebig große Zielgruppe zu adressieren, was in der Geschichte der Medien bislang nicht möglich war. Die damit verbundene Erwartung vollständiger Dezentralität und Gleichberechtigung aller Sender und Empfänger stellt sich aus näherer Sicht jedoch als zu stark vereinfacht heraus. Denn wie jedes Netz setzt sich auch das Internet aus verschiedenen Schichten zusammen, die durch Protokolle definiert werden. Auf jeder Schicht ist das Internet anders organisiert, was sowohl technische als auch organisatorische Konsequenzen hat. Lediglich die beiden äußersten Schichten sind als dezentral konzipiert. Zwar bilden sich gerade beim physikalischen Netz zentrale Knoten heraus, über die ein Grossteil des nationalen und internationalen Datenverkehrs geleitet wird, dennoch könnte dieser auch über alternative Strecken fließen. Ebenso wird ein Grossteil des Datenaufkommens im WWW von wenigen Anbietern erzeugt, die damit eine zentrale Position einnehmen. Aber auch hier gilt, dass prinzipiell alle Anbieter gleich berechtigt sind und die Größe der errichten Zielgruppe vom Inhalt der Seiten und weniger von technischen Randbedingungen abhängen.


[Seite 103↓]

Um ein Netz als homogene Infrastruktur zu erhalten, sind Normierungen, Konventionen, Protokolle und Regelungen notwendig. Die Beeinflussungsmöglichkeiten dieser Standards sind Fragen von Macht und Einfluss, sie werden von einer verhältnismäßig kleinen Zahl internationaler Institutionen verwaltet. Die technischen Standards der unteren Schichten des Internet sind halböffentlich: Prinzipiell jedes Land kann sich mit eigenen Experten beteiligen, Privatpersonen sind von der Diskussion ausgeschlossen. Faktisch liegen die Standardisierungen in der Hand weniger Industrienationen. Ähnliches gilt für die Standards der mittleren und oberen Schichten, die längst nicht mehr öffentlich diskutiert werden, sondern in der Hand kleiner Expertengruppen liegen.

Nicht zuletzt auf Grund des Schichtenaufbaus von Netzen gibt es eine Vielzahl möglicher Perspektiven auf Einsatz und Wirkung. Auf jeder Schicht stellt ein Netz sich unterschiedlich dar, was sowohl die theoretische Konzeption als auch die faktische Umsetzung angeht. Die dezentrale Planung eines Netzes kann die Hoffnung auf Gleichberechtigung der Mediennutzer und Emanzipation der Empfänger von den Sendern fördern. Die sich herauskristallisierenden zentralisierten Strukturen unterstützen die Annahme, dass die dominierenden Kräfte sich durchsetzen und ihre Macht lediglich in einer veränderten Umgebung stabilisieren werden. Diese ganz verschiedenen Perspektiven eines Netzes erleichtern wiederum die Integration von Vernetzung als Dimension der Wahrnehmung in verschiedene Lebenswelten.


[Seite 104↓]


Fußnoten und Endnoten

1  Z. B. bei Salus, Casting the Net; Hafner; Lyon, Arpa Kadabra; Abbate, Inventing the Internet. Auf diesen Texten beruhen die nicht extra gekennzeichneten historischen Darstellungen dieses Kapitels.

2  Vgl. Pujolle, Les Réseax, p. 49 ff.

3  Neumann; McKnight; Solomon, The Gordian Knot, p. 65 f.

4  Über die Geschichte der Betriebssysteme z. B. Silberschatz; Galvin, Operating System Concepts, Chapter 1.

5 Licklider; Taylor, The Computer as a Communication Device, p. 22.

6  Die folgenden Seitenangaben beziehen sich auf diesen Artikel.

7  Taylor in Hauben, Netizens, p. 72.

8  Baran, On Distributed Communications.

9  Diese und weitere grundlegenden Eigenschaften von Bäumen im Sinne der Graphentheorie finden sich z. B. bei Wilson, Einführung in die Graphentheorie, S. 49 ff.

10  Baran, On Distributed Communications, RM 3420, Chapter II.

11  Baran, On Distributed Communications, RM 3420, Chapter III.

12  Davies zitiert in: Abbate, Inventing the Internet, p. 27.

13  Davies, Proposal for a Digital Communication Network.

14  Kleinrock, Information Flow in Large Communication Nets.

15  Kleinrock, Proposal for a Ph.D. Thesis, p. 2.

16  Kleinrock, This is login.

17  Zitiert in Abbate, Inventing the Internet, p. 38.

18  Roberts, Internet Chronology.

19  Roberts, Internet Chronology.

20  Heart, Interview with D. Gates.

21  Heart, Interview with D. Gates.

22  Pouzin, Interview with Alain Simeray.

23  Vgl. Abbate, Building the Internet, p. 125, besonders Fußnote 10, p. 233.

24  Huitema, Et Dieu créa l’Internet..., p. 2.

25  Cerf, Interview with Judy O’Neill.

26  CAL, The Army Leadership Development Handbook, p. 7.

27  CAL, The Army Leadership Development Handbook, p. 6.

28  Abbate, Inventing the Internet, p. 5.

29  CAL, The Army Leadership Development Handbook, p. 5, ff.

30  Das internationale Forschungsinteresse an CMC hat seit einigen Jahren stark nachgelassen. John December pflegt noch eine Seite mit Bookmarks unter http://www.december.com/cmc/info/ (Stand: 8.7.2002).

31  Näheres s. Rinaldi, The Net: User Guidelines and Netiquette.

32  Vgl. Bumgarner, Usenet: The Great Renaming.

33  Reid, zitiert in: Hardy, The History of the Net.

34  Reid, zitiert in: Hardy, The History of the Net.

35  Vgl. Hacker, Bibliothekarisches Grundwissen , S. 223 ff.

36  Berners-Lee, Information Management: A Proposal.

37  Berners-Lee, Information Management: A Proposal.

38  Berners-Lee, Information Management: A Proposal.

39  Berners-Lee, Information Management: A Proposal.

40  Wells, zitiert aus: Campbell-Kelly; Aspray, Computer , p. 285.

41  Cicconi, Hypertextuality.

42  Bush, As we may think.

43  Berners-Lee, Press FAQ.

44  Gillies; Cailliau, How the Web was Born, p. 199.

45  Karger, The Gopher Manifesto .

46  Grimm, Deutsches Wörterbuch , S. 636 ff.

47  Capurro, Ich bin ein Weltbürger aus Sinope.

48  Neumann; McKnight; Solomon, The Gordian Knot, p. 58 f.

49  Fröhlich, Netz-Euphorien, S. 303.

50  Z. B. bei Krol, The Whole Internet Users’s Guide & Catalog oder Hunt, TCP/IP.

51  Die bekannteste Protokollschichtung, das OSI-Refernzmodell, wird im Weiteren nicht berücksichtigt, weil ihr bei der Entwicklung des Internet nur eine untergeordnete Rolle zukommt und sie mehr ein theoretisches Modell ist.

52  http://www.de-cix.net/ (Stand: 8.7.2002).

53  Laswell, The structure and function of communication in society.

54  Giesecke, Der Buchdruck in der frühen Neuzeit , S. 157.

55  Giesecke, Der Buchdruck in der frühen Neuzeit , S. 159.

56  Vgl. Giesecke, Der Buchdruck in der frühen Neuzeit , S. 244 ff.

57  Wehner, Das Ende der Massenkultur.

58  http://www.iconocast.com/dotcom/marketing/email.html (Stand: 8.7.2002).

59  Der im Februar 1996 vom amerikanischen Senat eingebrachte Communication Decency Act (CDA) zur inhaltlichen Kontrolle des Internet benutzte den Ausdruck „indezent“, ohne das Prädikat inhaltlich genau einzugrenzen. Der CDA wurde am 12.6.2001 für verfassungswidrig erklärt. Näheres s. Druckrey, Der Communication Decency Act wurde aufgehoben.

60  http://www.heise.de/newsticker/data/jk-17.09.99-001/ (Stand: 8.7.2002).

61  http://www.heise.de/newsticker/data/jk-21.11.00-000/ (Stand: 8.7.2002).

62  Stephenson, Mother Earth Mother Board.

63  Zur Marktaufteilung deutscher Provider:. http://www.focus.de/D/DD/DD36/DD36F/dd36f.htm (Stand: 8.7.2002).

64  http://www.heise.de/newsticker/data/fr-18.02.01-000/ (Stand: 8.7.2002).

65  Einen guten Überblick gibt http://www.online-recht.de/ (Stand: 8.7.2002).

66  Eine Statistik der Browser-Marktanteile findet sich unter http://www.w3.org/WAI/GL/2001/01/22-stats.html (Stand: 8.7.2002).

67  http://www.netcraft.com/survey/ (Stand: 8.7.2002).

68  Brodar; Kumar, Graph structure in the web.

69  http://www.wssn.net/WSSN/ (Stand: 8.7.2002).

70  http://www.iso.ch (Stand: 8.7.2002).

71  http://www.iec.ch (Stand: 8.7.2002).

72  IEC, Inside the IEC, p. 14 ff. Ebenso ISO; IEC, ISO/IEC Directives. Part 1, p. 19 ff.

73  http://www.itu.int (Stand: 8.7.2002).

74  ITU, INTERNET PROTOCOL (IP)-BASED NETWORKS.

75  http://www.ieee.org/ (Stand: 8.7.2002).

76  IEEE, Joining IEEE - Frequently Asked Questions (FAQs).

77  http://standards.ieee.org/announcements/program.html (Stand: 8.7.2002).

78  http://www.isoc.org/ (Stand: 8.7.2002).

79  http://www.ietf.org/ (Stand: 8.7.2002).

80  Vgl. Bradner, The Internet Engineering Task Force.

81  Bradner, RFC 2600 .

82  http://www.icann.org/ (Stand: 8.7.2002).; http://www.iana.org/ (Stand: 8.7.2002).

83  Partridge, zitiert in: Hafner; Lyon, Arpa Kadabra, S. 299.

84  ICANN, ICP-1: Internet Domain Name System Structure and Delegation (ccTLD Administration and Delegation).

85  ICANN, The Internet Corporation for Assigned Names and Numbers.

86  http://www.w3.org/ (Stand: 8.7.2002).

87  Eine Gliederung der Netiquette unter Rückgriff auf religiöse Metaphorik (vgl. Kapitel 3) findet sich bei Mandel; Van der Leun, Die zwölf Gebote des Cyberspace.

88  Vgl. Barlow, The Economy of Ideas. Selling Wine Without Bottles on the Global Net.

89  Ein gute Einführung gibt Hambridge, RFC 1855 . Netiquette Guideline.



© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.
DiML DTD Version 3.0Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML-Version erstellt am:
08.01.2004