[Seite 135↓]

8.  Generierung versus Skripte

Die vorangegangenen Kapitel widmeten sich einem grundsätzlichen Konzept des maschinellen Umgangs mit Text. Der menschliche Geist wird als Mechanismus verstanden, der aus dem Kopf herausgesetzt und auf einer Universalen Maschine, die alle anderen immer schon enthält, emuliert werden soll. Die Ansätze lassen sich auf den Glauben der formallogischen Tradition zurückführen, Sprache und das in ihr repräsentierte Wissen von Welt stellten vollständig explizierbare und sogar formalisierbare Sachverhalte dar, wie er in Wittgensteins Tractatus kulminiert.

Betrachtet man die Algorithmen der Systeme, fällt eine Dominanz von Bäumen ins Auge, die als Anordnung von optionalen Elementen dazu dienen, Varianz zu erzeugen oder umgekehrt, sie zu reduzieren. Der Zugang zu Unterzweigen ist meist bedingt und gewichtet. Die Struktur generalisiert sich im Laufe der Entwicklung zu einem allgemeinen Graphen, dessen Kanten zudem mit Paßworten versehen sein können, wie in den Adventures.

In den besprochenen Programmen sind alle Daten und Operationen hart kodiert, das heißt, explizit festgelegt. Zwar ist es möglich, beliebig viele Elizas zu implementieren, jede einzelne aber ist vollständig determiniert und verhält sich unter identischen Bedingungen gleich. Die Fixiertheit der Ansätze auf unerschöpfliche Varianz durch rekombinatorische Techniken hat ihren Grund wahrscheinlich in der Erfahrung dieser Endlichkeit. Sie können als „Skripte“ bezeichnet werden, weil hier der Versuch noch nicht aufgegeben ist, das, was die Maschine äußert, eigentlich selbst zu verfassen. Der Autor schreibt seinen Text auf die Festplatte eines Computers statt auf Papier. Es werden sowohl die Daten kontrolliert als auch die Operationen, die darauf ausgeführt werden. Bei Parry, den Adventures und SHRDLU zeigte sich die Strategie der Inklusion, die Abgrenzung eines besonderen Ortes innerhalb der endlichen Szene, der nur Eingeweihten zugänglich ist, als Versuch der Öffnung nach innen, wo die nach außen nicht möglich ist.


[Seite 136↓]

Im wissenschaftlichen Kontext der Kognitionswissenschaft besteht die leitende Plausibilisierungsstrategie der Systeme in der funktionellen Analogie, der Annahme, daß im Sinne des Turing-Tests identisches Verhalten vergleichbare Tiefenstrukturen nahelege.

Grundsätzlich lassen sich variable, interaktive und spontane Skripte unterscheiden. Diese keineswegs euphorisch gemeinte Terminologie folgt weitgehend der üblichen, von den Hoffnungen der 1960er Jahre geprägten Ausdrucksweise, die bereits sehr kleine Fortschritte als revolutionäre Durchbrüche feierte und sich wohl am ehesten erledigt, wenn man sie weiter überstrapaziert.

Variabel können Programme genannt werden, die - wie Romance Writer oder Cent mille milliard des poèmes - eine Auswahl unter optionalen Elementen treffen und in dieser Weise Varianz auf Zeit produzieren. Das Verfahren stellt eine kontrollierte Collagierung vorgeschriebener Elemente dar. Variabel sind sie in dem mathematischen Sinne, verschiedene Werte annehmen zu können.

Interaktiv dagegen sind Algorithmen, die in mehr als allgemeinster Weise, bestimmter als ein Lichtschalter, auf die Eingabe des Benutzers reagieren. Das gilt für Eliza und die folgenden Ansätze. Da sie jedoch, wenn sie Aleatorik integrieren, mit absolutem Zufall operieren und dieser darüberhinaus typischerweise lediglich die Stellen einer feststehenden Zahlenkette ausgibt, arbeiten sie nicht nur mit einem beschränkten Satz von Elementen, sondern verhalten sich zudem unter identischen Bedingungen gleich.

Als spontan kann schließlich Software gelten, die über diesen Determinismus hinausgeht und auf gleiche Eingabereize in der Zeit verschieden reagieren kann. Parry versuchte das durch das Anlegen interner Zustände. So ist es möglich, daß das Programm in zwei Unterhaltungen auf dieselben Äußerungen unterschiedlich antwortet. In identischen Dialogen verhält es sich jedoch gleich. Auch die herumwandernden Wesen in den Adventures zielen auf diese Unvorhersehbarkeit. Das wirklich Neue, nicht nur einem Benutzer, sondern sogar dem Autor Unbekannte, liegt aber außerhalb des Wirkungsbereiches [Seite 137↓]dieser Algorithmen, die lediglich in der Lage sind, die in ihnen hartkodierten Daten zu reproduzieren. Ängstlich bemühen sie sich, den aus den Texten von Menschen bekannten Sinn durch geschickte Bestimmung von Optionen und Operationen zu retten. Diese Intention widerspricht scharf ihrer ursprünglichen, Varianz zu erzeugen und engt den Bereich des Möglichen, kaum daß er eröffnet ist, schon wieder ein. Die flache Vielfalt der Variablenskripte kann deshalb in ihrer Paradoxie als typisch für das gesamte Feld gelten. Ihre ästhetische Qualität steht in keinem Verhältnis zu der von in traditioneller Manier verfaßten Texten.

Zu beobachten war in den betrachteten Ansätzen eine Tendenz zur Dynamisierung. Bereits bei Eliza wurde eine komplexe Operation unter dem Titel „Transformationsregel“ vorgetäuscht. Während die Algorithmen kaum über die Variablenskripte hinausgehen, scheint in Benennungen und Kommentierungen immer wieder die Sehnsucht auf, an flexiblen Routinen und nicht an harten Daten zu arbeiten. Mit der Verfügbarkeit größerer Arbeitsspeicher ist es zunächst möglich, einen Teil der Informationen im mechanischen Gedächtnis zu behalten und jederzeit zu manipulieren. Dem verdanken sich die Zustände Parrys. SHRDLU geht schließlich noch einen Schritt weiter, da bei diesem Programm lediglich Prozeduren festgelegt werden. Tatsächlich aber sind die Daten in den Funktionen verborgen. Es handelt sich also um einen reinen Oberflächeneffekt, der an der Arbeitsweise der Software ebenso wenig ändert wie die Benennung eines inneren Zustandes als „Angst“ bei Parry. Erst aber, wenn die Daten wegfallen und nur noch die Verfahrensweisen spezifiziert werden, entsteht ein wirklich neuer Ansatz.

Diese Traditionslinie (deren ausführliche Darstellung den Rahmen der Arbeit sprengen würde) betrachtet den menschlichen Geist ebenfalls als Maschine. Es soll aber nicht sein normales Funktionieren außerhalb des Körpers re-implementiert, sondern dieses durch externe Beeinflussung erweitert oder transzendiert werden. Zu erwähnen sind hier Drogenversuche seit Baudelaires Les Paradis artificiels und die Karriere der durch Brian Gysin erfundenen Flickering Machine in Hirnforschung, Malerei, Literatur und Musik, die erstmals [Seite 138↓]die Eigenschwingung des Gehirns per Stroboskop rückkoppelt und verblüffende Effekte erzielt. 307 Entsprechend interessiert hier nicht die Simulation der normalen Texterzeugung von Individuen durch das Experimentieren mit verschiedenen „inneren“ Produktionsregeln, sondern die Kreation neuer Zeicheneffekte durch Prozessierung bereits vorhandenen Materials. Die Dichotomie einer offenbaren Äußerung und vermuteter innerer Zustände entfällt. Es stehen lediglich die Routinen fest, nicht mehr die Daten, auf denen sie operieren. Die Verfahren behaupten nicht mehr, denen des menschlichen Geistes zu entsprechen, sondern allenfalls, seinem eingespielten Funktionieren entgegenzuwirken. 308 Die Textgeneratoren dieser Tradition heben 1920 mit folgenden Worten des Dadaisten Tristan Tzara 1920 an:

Pour faire un poème dadaïste

Prenez un journal.

Prenez les ciseaux.

Choisissez dans le journal un article ayant la longeur que vous comptez donner à votre poème.

Découpez l'article.

Découpez ensuite avec soin chacun de mots qui forment cet article et mettez-les dans un sac.

Agitez doucement.

Sortez ensuite chaque coupière l'une après l'autre.

Copiez consciencieusement dans l'ordre où elles ont quitté le sac.

Le poème vous resemblera.


[Seite 139↓]

Et vous voilà un écrivain infiniment original et d'une sensibilité charmante, encore qu'incomprise du vulgaire. 309

Der Entwurf, annähernd zeitgleich zu Wittgensteins Tractatus geschrieben, geht von einem Sinnverlust aus. Ob kulturkritisch-ironisch gemeint oder nicht, die beschriebene Technik besteht in einer vollkommen und dadurch, daß sie analog ist, wirklich aleatorischen Rekombination von vorhandenem Material (Zeitungsartikel), und zwar auf Wortebene. Wo die hartkodierten Systeme den Zufall durch sorgfältige Auswahl und Abstimmung mühsam gegen das einfallende Rauschen zu retten versuchten, überführt das Verfahren Texte einfach in Entropie, indem es kombinatorisch alle möglichen erzeugt. In der produzierten Summe folgen schließlich alle Elemente mit der gleichen Wahrscheinlichkeit aufeinander. Die Differenz zwischen Information und Rauschen, die sich an ihren Extrempunkten ohnehin berühren und ineinander übergehen, bricht zusammen. Zurück bleibt ein völlig offenes Feld, in dem alle Texte gleich gültig sind. Ebensogut könnte man die Produktionen der Borel’schen Affen lesen, wenn sich auf ihren Tasten nicht Buchstaben, sondern Worte befänden. 310


[Seite 140↓]

Die Schreibmaschine tritt um 1900 in das Reich des Textes ein und verändert es nachhaltig. 311 Der Zugriffsmodus des Gerätes auf sein Medium, das Papier, ist, in UNIX Kürzeln gesprochen, 222 312 : Jeder kann auf ihm schreiben, aber auch nur das. In einer ersten Rückkopplungsschleife kann eine Sekretärin das Dokument lesen und gegebenenfalls korrigieren: „read and write“ - 666. Sie exekutiert die Stimme des Autors, indem sie sie niederlegt. Die Konstellation verändert sich durch die Einführung des Computers in den Büroalltag in den 1970er und in die Privathaushalte in den 1980er Jahren radikal. Text ist in dieser Maschine gleichzeitig lesbar, schreibbar und ausführbar. Die Zahl des Tieres ist 777. 313 Auf dem Band der Turing-Maschine sind prozessierte Zeichen (Daten) und die Symbole, die die Verarbeitung steuern (das Programm), ununterscheidbar. Erst wenn sich die Festigkeit des Buchstabens dadurch auflöst, daß er nicht länger nur als Niederschrift, sondern ebensosehr als Aufforderung zu ihrer Manipulation verstanden wird, ist der Mechanismus eines ewig suspendierten, völlig flüssigen Textes denkbar, der sich und seine Anweisungen in jedem Moment selbst modifiziert: die Turing-Maschine. Die bloße Möglichkeit, einen Algorithmus zu schreiben, der exekutiert selbst Schriftstücke verfaßt, unterhöhlt das Aufschreibesystem. Paradigmatisch wird das deutlich an Weizenbaums Eliza, die als Text nicht zu denen anderer Verfasser in Konkurrenz tritt, sondern die textuell-erotische Beziehung zwischen dem Autor und seinen Leserinnen 314 dahingehend konkretisiert, daß er als leibhaftige Person auf den Plan tritt und seinem Herrn Konkurrenz macht. Die Relation zwischen der Rezipientin und dem Schriftstück gerät unversehens [Seite 141↓]intimer als die zu seinem Verfasser. Der Text exekutiert seinen eigenen Autor. Die Hinrichtung vollzieht sich aus mehreren Gründen.

Im klassischen Dispositiv ergießt sich die genialische Individualität des Schriftstellers in die Sprache der Allgemeinheit. Er hat dabei die Wahl zwischen verschiedenen auktorialen Perspektiven. Er kann im Namen des Ich oder des Er, in erster oder dritter Person, von sich oder von anderen erzählen. Seine natürliche Position ist das Ich. Verschiebt sich seine Arbeit nun darauf, einen Darsteller zu schreiben, der das vermag, was früher seine Aufgabe war: Texte zu verfassen und auf sie zu reagieren, muß er mit anderer Zunge sprechen. Die auktoriale Perspektive bleibt zwar das Ich, sie schildert aber eine dritte Person. Im Zentrum steht nicht mehr das genialische Individuum, sondern das möglichst allgemeine, normale des von ihm geschaffenen Helden, der nun seinerseits von sich berichtet. Der Autor entsendet einen Delegierten. 315 Bereits das Ich der Erzählung ist ein vom Schriftsteller unterschiedener Stellvertreter. Es wird jedoch lediglich geschrieben - er legt ihm die Worte in den Mund - und gelesen. Es exekutiert nicht. Soll es selbständig agieren können, wandelt es sich vom Delegierten zum möglichen Konkurrenten des Autors. Er muß zunächst Texte verfassen, die möglichst große Segmente üblicher Gesprächssituationen abdecken. Der Modus des Schriftstückes verschiebt sich von Individualität auf maximale Allgemeinheit. Noch genereller ist notwendigerweise das Dokument, das dafür sorgt, daß die Daten an den Benutzer ausgegeben werden. In menschennaher Ansicht erscheint es als das Allgemeine der Sprache - die Logik. Im Grunde aber läßt sich jeder Ausdruck einer Programmierung zurückführen auf die vollkommene Allgemeinheit der reinen und bedeutungslosen Differenz von 0 und 1, Sein und Nichts. Je mehr sich die Arbeit des Autors von der Statik der [Seite 142↓]Daten ab- und der Dynamik der auf ihnen operierenden Algorithmen zuwendet, desto stärker emigriert er aus dem Feld des Symbolischen und damit des Subjektes. Wie vorher das Individuum als Oberflächeneffekt der Sprache begriffen werden konnte 316 , erscheinen jetzt die Buchstaben selbst als nur eine mögliche Erscheinungsform der blinden Symbole, mit denen die Maschine operiert.

Die Aufgabe besteht im Folgenden darin, den verlorenen Sinn, ohne ihn vorauszusetzen oder hart zu kodieren, gleichsam auf der anderen Seite des Spiegels, jenseits des Rauschens wiederzufinden.

Einen ersten Schritt in dieser Richtung unternimmt William S. Burroughs, Sohn eines Schreibmaschinenfabrikanten und Pioniers in der Entwicklung von Computern, mit seinen von Brian Gysin inspirierten Cutups, Foldins und anderen Collagierungstechniken ab 1960. 317 Sie werden von ihm gleich den Funktionen von Computerprogrammen als „Routinen“ bezeichnet. Er zerschneidet die Seite einer Tageszeitung in schmale vertikale Streifen, mischt sie und versucht, das Ergebnis zu lesen und wieder in einen tendenziell sinnvollen Text zu verwandeln. Der Nonsens zufälliger Rekombination wird durch die Selektion und Halluzination des Autors in Sinn überführt. Die nachträgliche Rückgewinnung liegt völlig in den Händen des Schriftstellers, der sich am Zufall inspiriert, ohne ihn walten zu lassen.

Einen anderen Weg geht zehn Jahre früher Shannon, der im Rückgriff auf Markovs Untersuchungen 318 eine stochastische Sprachanalyse vornimmt, die auch dazu verwendet werden kann, Text zu erzeugen. Die als „Markovketten“ bezeichneten Übergangswahrscheinlichkeiten können von unterschiedlicher Länge sein und analysieren, wie oft ein bestimmter Buchstabe auf ein, zwei oder mehr andere folgt. Shannon zeigt Beispiele für Generierungen in erster, zweiter [Seite 143↓]und dritter Ordnung, wechselt dann aber („It is easier and better“ 319 ) zu solchen auf Wortebene. Tatsächlich scheiterte die Kalkulation umfangreicherer Ketten schlicht an der zu dieser Zeit verfügbaren Rechenkapazität und eröffnete so die seit den 1950er Jahren gehegte Hoffnung, durch ihre Verlängerung eine Art Algorithmus des Sinns erreichen zu können. 320 Sie wird eingeleitet durch folgende Passage aus der Mathematical Theory of Communication, die die frontale Attacke auf einen Autor schildert und von einer anderen Buchstabenmethode träumt, zumindest wenn man den Text in Burroughs'scher Manier zu entziffern versucht.

THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER THAT THE CHARACTER OF THIS POINT IS THEREFORE ANOTHER METHOD FOR THE LETTERS THAT THE TIME OF WHO EVER TOLD THE PROBLEM FOR AN UNEXPECTED. 321

Shannon selbst schließt den semantischen Aspekt von Sprache allerdings gleich zu Anfang kategorisch aus seinen Überlegungen aus: „Frequently the messages have meaning [...]. These semantic aspects of communication are irrelevant to the engineering problem.“ 322 Noch 1976 schreibt William Bennett, daß die Berechnung von Markovketten der Länge 4 „an die Grenzen dessen stößt, was mit den größten Computern, an die man derzeit leicht herankommt, machbar ist.“ 323 Seit sie möglich sind, hat sich gezeigt, daß die Textgenerierung [Seite 144↓]entgegen der Erwartung im Übergang von der sechsten zur siebten Ordnung von offenkundigem und syntaktisch falschem Unsinn in Collagen des Originaltextes umschlägt. 324 Markov-Modellierungen können als Cutups betrachtet werden, bei denen die Schnittbreite des Streifens dynamisch verändert werden kann. Ein Sinn-Algorithmus steht hier kaum in Aussicht.

Die Skripte waren substantiell in dem Sinne, daß das Gewicht bei der Analyse der Ein- und Generierung der Ausgabe auf den Worten lag und ihre Verbindung nur nachträglich als Problem zutagetrat. Einer der entscheidenden Fortschritte von Shannons Ansatz besteht darin, daß er sich nicht länger mit den Knoten des Graphen Sprache beschäftigt, sondern sich seinen Kanten zuwendet und versucht, sie zu berechnen. Da sich der Wert der einzelnen Elemente lediglich aus dem Unterschied von und der Beziehung zu anderen ergibt, ist er im Saussure‘schen Sinne differentiell. Der weist in seinen Grundfragen der Allgemeinen Sprachwissenschaft von 1916 darauf hin, „daß es in der Sprache nur Verschiedenheiten gibt. Mehr noch: eine Verschiedenheit setzt im allgemeinen positive Einzelglieder voraus, zwischen denen sie besteht; in der Sprache aber gibt es nur Verschiedenheiten ohne positive Einzelglieder.“ 325

Mit Saussure läßt sich eine erste Schwäche des Shannon‘schen Ansatzes zeigen:

Man sieht, daß diese Zusammenordnungen [die assoziativen im Gegensatz zu den syntagmatischen der bloßen Abfolge] von ganz anderer Art sind als die ersteren; sie sind nicht von der Zeiterstreckung getragen; ihr Sitz ist im Gehirn; sie sind Teile jenes inneren Schatzes, der bei jedem Individuum die Sprache [la langue] bildet. 326


[Seite 145↓]

Weil sie sich streng an der Linearität der Schrift orientieren, erfassen die Übergangswahrscheinlichkeiten nur die syntagmatische Abfolge der Worte. Auch nehmen sie keine Unterscheidung zwischen sinntragenden und rein syntaktischen Elementen vor. Die wichtigeren assoziativen Verbindungen, die der Zeichenkette vorhergehen und sie bestimmen, entgehen deshalb der Analyse. Die Theorie war jedoch auch nie als Sinn-Algorithmus gemeint. Sie sollte lediglich die statistischen Eigenarten von Sprache simulieren (Kapitel 1: „Discrete Noiseless Systems“), um die Sicherung der Übertragung im Fall von Störgeräuschen berechnen zu können (Kapitel 2: „The Discrete Channel with Noise“). 327

Ein solcher Algorithmus ist aus prinzipiellen Gründen nicht möglich, weil der Computer nur mit Zeichen allgemein operiert. Er liegt windschief zur Sprache. Die Bedeutungsdimension entgeht ihm wie der Shannon‘schen Kommunikationstheorie. Beide erfassen höchstens numerische Aspekte des Symbolgebrauchs. Verdeutlichen läßt sich das durch einen Blick auf die Funktionen von C, die auf Worten operieren. Die entsprechende Header-Datei der ANSI C Standardbibliothek, <string.h>, enthält lediglich Funktionen, um Daten ineinander zu kopieren („strcpy“, „strncpy“, „strxfrm“, „memcpy“, „memmove“), sie miteinander zu vereinigen („strcat“, „strncat“), sie zu vergleichen („strcmp“, „strncmp“, „strcoll“, „memcmp“), einzelne Zeichen oder Sequenzen in ihnen aufzufinden („strchr“, „strrchr“, „strspn“, „strcspn“, „strpbrk“, „strstr“, „strtok“, „memchr“), sie durch andere zu ersetzen („memset“) und ihre Länge festzustellen („strlen“). 328 Keine der Routinen bezieht sich explizit auch nur auf Eigenschaften von Buchstaben. Behandelt werden hier Daten, unabhängig davon, was sie repräsentieren. Die Hoffnung auf einen Sinn-Algorithmus ist deshalb einzig dann einzulösen, wenn sich zeigen läßt, daß die Sprachgenerierung beim Menschen eindeutig durch eine nicht nur physikalische, sondern auch berechenbare Grundlage bestimmt wird, gleich welcher Art. Da [Seite 146↓]bereits die Mikroebene der Quanten der Mathematisierbarkeit entgeht, kann dies auch aus materialistischer Perspektive als unwahrscheinlich gelten.

Die entscheidendere Schwäche des Shannon‘schen Konzeptes besteht darin, daß er Information umso höher bewertet, je seltener sie ist. Aufgrund seiner Ausrichtung auf die Optimierung von Datenübertragung fällt sein Redundanzbegriff durchgängig negativ aus. „If it were missing the message would still be essentially complete, or at least could be completed.“ 329 Wiederholung gilt als bloße Verschwendung. Ihr einziger Nutzen ist die erhöhte Möglichkeit, Übertragungsfehler zu korrigieren. Ein Textausschnitt mit vollkommen gleichmäßig verteilten Übergangswahrscheinlichkeiten, in dem also zu jedem Zeitpunkt die Erwartung für ein bestimmtes Zeichen nicht höher ist als die für alle anderen, hat nach seiner Meinung den größten Informationsgehalt: „For a given n [number of probabilities], H [entropy or information] is a maximum and equal to log n when all the pi [probabilities] are equal, i.e., 1/n.“ 330 Der Theorie zufolge ist Rauschen, der Datenmüll, den eine Million Schreibmaschine schreibender Affen produziert, die intensivste Information. 331 Shannons Ansatz ist deshalb für semantische Belange ungeeignet.


Fußnoten und Endnoten

307 Vgl. Baudelaire 1860, zum Komplex der Beat-Experimente: Flickers of the dreamachine 1996, zur Flickering Machine im Kontext der Hirnforschung Walter 1953.

308 Vgl. Burroughs 1970(E), Z38ff.: “I consider the potential of thousands of people with recorders, portable and stationary, messages passed along like signal drums, a parody of the President's speech up and down the balconies, in and out open windows, through walls, over courtyards, taken up by barking dogs, muttering bums, music, traffic down windy streets, across parks and soccer fields. Illusion is a revolutionary weapon.”

309 Tzara 1920, S. 382.

310 Vgl. Borel 1913; S. 189ff.: “Concevons qu'on ait dressé un million de singes à frapper au hasard sur les touches d'une machine à écrire et que, sous la surveillance de contremaîtres illettrés, ces singes dactylographes travaillent avec ardeur dix heures par jour avec un million de machines à écrire de types variés. Les contremaîtres illettrés rassembleraient les feuilles noircies et les relieraient en volumes. Et au bout d'un an, ces volumes se trouveraient renfermer la copie exacte des livres de toute nature et de toutes langues conservés dans les plus riches bibliothèques du monde.” Die Textgenese mit Schreibmaschine schreibenden Affen ist sogar im Rahmen einer nicht ganz ernstgemeinten RFC (Request for Comment) implementiert worden: “RFC2759: [...] The Infinite Monkey Protocol Suite (IMPS)”, vgl. Christey 2000(E), Z38ff.: “This memo describes a protocol suite which supports an infinite number of monkeys that sit at an infinite number of typewriters in order to determine when they have either produced the entire works of William Shakespeare or a good television show. The suite includes communications and control protocols for monkeys and the organizations that interact with them.”

311 Vgl. Kittler 1985, S. 200ff.: “Räumlich bezeichnete und diskrete Zeichen - das ist über alle Temposteigerung hinaus die Innovation der Schreibmaschine.”

312 Vgl. Kap. 6, Anm. 26.

313 Die Bibel, Offenbarung 13,18: “Hier ist Weisheit! Wer Verstand hat, der überlege die Zahl des Tieres; denn es ist die Zahl eines Menschen, und seine Zahl ist sechshundertundsechsundsechzig.”

314 Vgl. Kittler 1985, S. 136ff.: “Der Autor wird Gott, weil die Lust der Frauen ihn trägt. [...] Leserinnen und Autor umfängt ein hermeneutisch-erotischer Zirkel, der Lektüre und Liebe gleichermaßen regelt.”

315 Vgl. Genet 1954, S. 34f.: “Das Harmloseste, das der Päderast machen kann, wenn er einen Freund wählt, besteht es nicht darin, [...] sich einen Reflex zu wählen - oder einen Repräsentanten auf der Erde - oder Deligierten - den man in die Welt projiziert, wenn man selbst ihn denkt, aber, unterstützt von irgendeiner Seelengröße, muß der Päderast, je mehr der Freund erwacht, leidet, auf der Erde lebt, ernsthaft versuchen, sich zu vernichten, bis er nur noch ein Strahl ist, der seinen Delegierten führt, ein Windhauch, der ihn inspiriert.”

316 Vgl. Lacan 1960/61, S. 201: “Par rapport à la chaîne signifiante inconsciente comme constitutive du sujet qui parle, le désir se présente comme tel dans une position qui ne peut se concevoir que sur la base de la métonymie déterminée par l’existence de la chaîne signifiante.”

317 Vgl. Beiles;Burroughs;Corso;Gysin 1960.

318 Vgl. Markov 1913 und Appendix A.

319 Shannon, Weaver 1948, S. 43.

320 Vgl. hier als typisch bspweise Bense 1954-60, S. 336, der verschiedene durch Markovketten generierte Texte anführt, um dann zu resümmieren: “Offenbar erreicht damit also die statistische Annäherung eines ‘wirklichen’ Textes durch stochastische Selektion aus vorgegebenem Repertoire nicht nur eine semantische, sondern auch eine ästhetische Identifizierbarkeit, wenn natürlich auch untersten Grades. Jedenfalls handelt es sich hier um einen künstlich erzeugten Text in ästhetischem Zustand, also um ein Erzeugnis generativer Ästhetik.”

321 Shannon, Weaver a. a. O., S. 44.

322 Shannon, Weaver a. a. O., S. 31.

323 Bennett 1976, zit. n. Hayes 1988.

324 Vgl. Hayes 1988, S. 106: “Ab der sechsten oder siebten Ordnung büßt der Zufallstext dann wieder an Reiz ein - in erster Linie, weil er immer weniger zufällig wird. [...] Folglich spuckt das Programm anstelle eines Zufallstextes nur mehr Brocken des Originals selbst aus.”

325 Saussure 1916, S. 143.

326 Saussure a. a. O., S. 147f. Anm. D. L.

327 Vgl. die Kapitelüberschriften Shannon, Weaver a. a. O., S. 36 und S. 65.

328 The C Standard Library 1999(E), Z. 104.

329 Shannon, Weaver a. a. O., S. 13.

330 Shannon, Weaver a. a. O., S. 51, Anm. D. L.

331 Vgl. Shannon, Weaver a. a. O., S. 19: “It is generally true that when there is noise, the received signal exhibits greater information.”



© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.
XDiML DTD Version 4.0Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML-Version erstellt am:
15.04.2005