[Seite 40↓]

3  Das Problem der universellen Realisierbarkeit

Searle und Putnam argumentieren unterschiedlich für das Problem der universellen Re­alisierbarkeit. Die beiden Darstellungen ergänzen sich eigentlich sehr gut. Searles Form ist etwas breiter angelegt, bleibt aber an einigen für die Anschaulichkeit wichtigen Stellen etwas in Andeutungen stecken. Putnams Beweis ist kurz, von formaler Strenge und sehr konkret. Über die Analyse der Ursache des Problems schweigt Putnam beinahe vollstän­dig; Searle dagegen bietet eine Erklärung an. Die Reihenfolge des Referates hier, Searles Version des Problems, 3.1, Putnams Version des Problems, 3.2, Searles Analyse des Problems, 3.3, ergibt sich daraus.

3.1 Searle: Symbolmanipulationen sind universell realisierbar

Wie in Abschnitt 2.1.1 dargestellt wurde, wendet sich Searle mit dem Argument der uni­versellen Realisierbarkeit gegen eine Forschungsrichtung innerhalb der Kognitionswissen­schaft, der er den Namen Kognitivismus gibt. Hinter dem Kognitivismus stecke die Annah­me, „dass das Hirn ein Computer ist und geistige Prozesse computa­tional sind.“ (Searle 1993: 219) Um die Grundannahme „Das Gehirn ist ein Compu­ter“ zu testen, fasst Searle sie als empirische Hypothese auf und stellt sich, im für ihn charakteristischen Gestus des philosophischen Gedankenexperiments, vor, was man tun würde, um herauszufinden, ob etwas ein Computer ist. Das ist für ihn gleichbedeutend mit der Frage: Was würde man tun, um herauszufinden, ob etwas eine Computation1 durchführt? Für diese empiristische Untersuchung vom Schreibtisch aus sucht Searle zuallererst, so wie ein Lehrbuch des Empirismus es empfehlen würde, nach einer brauchbaren Definition des Computers. Doch wiederum, wie schon bei den Grundannahmen, kann er in der kognitionswissen­schaftlichen Literatur keine Übereinstimmung in den fundamentalen Fragen finden und entschließt sich, zu der ursprünglichen Definition zurückzukehren, zu der von Alan Turing:

According to Turing, a Turing machine can carry out certain elementary operations: It can rewrite a 0 on its tape as a 1, it can rewrite a 1 on its tape as a 0, it can shift the tape 1 square to the left, or it can shift the tape 1 square to the right. It is controlled by a program of instructions and each instruction specifies a condition and an action to be carried out if the condition is satisfied. (Searle 1992: 205)

Das ist alles, was Searle zur Turingmaschine sagt. Das Zitat ist vollständig, und es gibt in seinem Text keine weitere Passage dazu. Bei dem argumentativen Gewicht, das er im [Seite 41↓] Folgenden auf diese Definition stützt, dürfte ihm eine bloße ungenaue Beschreibung des­sen, was die Turingmaschine tut, nicht genügen. Wenn man das mit dem vergleicht, was in Abschnitt 2.2 zur Turingmaschine gesagt wurde, ist es nicht schwierig zu sehen, dass damit eine grob verkürzte, wenn nicht gar eine falsche Version der Turingmaschine und dessen, was sie tut, vorgestellt wurde. Searle unterschlägt oder verkürzt darin mindestens vier essenziell wichtige Punkte. Erstens er­wähnt er mit keinem Wort, dass die Turingma­schine ein unendliches Band haben muss. Zweitens verschweigt er, dass es sich bei der Turingmaschine um einen Endlichen Automaten handelt, d. h. dass es bei der compu­tationalen Beschreibung mit Hilfe einer Turingmaschine um eine Beschreibung mit Hilfe einer endlichen Menge von Zuständen geht. Drittens legt er den In- und Output der Tu­ringmaschine sofort auf Einsen und Nullen fest, obwohl nach Turing jedes beliebige Zei­chen auf dem Band stehen kann, sofern es bei der Definition des Eingabealphabets be­rücksichtigt wurde. Und viertens tut Searle so, als würde die Turingmaschine schon einen Mechanismus beinhalten, der das Programm selbsteigen umsetzt; als wäre das Symbol­lesen und Symbolschreiben des Turing-Scanners eine durch die Definition geklärte Ange­legenheit. Dabei sind gerade dies die wesentlichen Punkte, die deutlich machen, dass die Turingmaschine eine abstrakte Maschine ist mit Komponenten, die sich nicht bauen las­sen und deren Mechanismus für das, was das Modell leisten soll, keine Rolle spielt.

All diese Verkürzungen suggerieren, dass mit dem Wort „Turingmaschine“ dasselbe ge­meint sei wie mit dem Wort „Computer“ 9Dieser Eindruck wird noch dadurch außerordentlich verstärkt, dass Searle zwischen den Wörtern „Turing machine“ und „digital computer“ abwechselt, als seien sie synonym. So schreibt er an einer Stelle: „Well, what made it shivers up and down the spines of a whole generation of young workers in artificial intelligence was the following thought: Suppose the brain is a universal Turing machine.“ (Searle 1992: 202) Und wenige Seiten weiter schreibt er: „But now if we are trying to take seriously the idea that the brain is a digital computer, we get the uncomfortable result that we could make a system that does just what the brain does out of pretty everything.“ (Searle 1992: 207) Interes­santerweise übersetzt Gavagai diese Passage so: „Wenn wir jedoch die Idee ernstzunehmen ver­suchen, das Hirn sei eine Turingmaschine, dann gelangen wir zu dem unbequemen Resultat, wir könnten aus so gut wie allem ein System bauen, das genau das tut, was das Hirn tut.“ (Searle 1993: 228) Wenn man das einen Übersetzungsfehler nennen möchte, dann ist es einer, den Searle mit seinem synonymen Gebrauch dieser Wörter und seiner wirklich sehr suggestiven Schreibweise mit zu verantworten hat. (Kursive Hervorhebungen TG) . Mit dem, was man heute im Allgemeinen über derzeitig handelsübliche Computer 10In den folgenden Abschnitten ist mit „Computer“ ein derzeit handelsüblicher PC gemeint. Etwa ein Pentium IV mit zwanzig GB Festplatte, 256 MB RAM, 17 Zoll Flachbildschirm, Infrarottastatur/ -maus und Windows XP. weiß, und mit ein bisschen Phantasie lässt sich der Computer mit Searles Version der Turingmaschine problemlos eins zu eins in Deckungs­gleichheit bringen. Mit dem Band könnte vielleicht die Festplatte gemeint sein, man weiß ja, dass sich irgendwie Einsen und Nullen darauf befinden, und man weiß auch, dass diese Einsen und Nullen irgendwie von einem Lese/Schreibekopf gelesen und überschrie­ben werden. Bei dem Programm, das Searles Turingmaschine steuert, denkt man viel­leicht an Pascal- oder C++ oder Java-Programme, von denen man auch weiß, dass sie irgendwie in Einsen und Nullen übersetzt, in dieser Form auf der Festplatte gespeichert und von dort aus bei Bedarf irgendwie aufgerufen werden usw. Leider ist diese Übertra­gung aus vielen Gründen absolut unzulässig und führt in große begriffliche Schwierig­keiten. Die Gründe dafür wurden in Abschnitt 2.2 bereits erwähnt. Hier sollen sie, um Searles Argumentation zu folgen, noch einmal in Kürze dargestellt und direkt auf diese Übertragung bezogen werden:


[Seite 42↓]

Das Band der Turingmaschine trägt den In- und Output, und der Mensch, der „Benutzer“ der Turingmaschine, muss den Input auf das Band schreiben und den Output vom Band ablesen; die Turingmaschine hat, bildlich gesprochen, eine flache Architektur, alles Not­wendige zwischen In- und Output liegt offen; der verborgene Mechanismus ist irrelevant. Die Turingmaschine besitzt kein Analogon zur Festplatte. Die Festplatte ist ein internes Modul des Computers, worauf der Mensch, der Benutzer des Computers, nichts lesen und schreiben muss und normalerweise auch nichts lesen und schreiben kann. Der Com­puter hat eine hierarchische Architektur, zwischen In- und Output spielt sich einiges Rele­vantes im Verborgenen ab: Speicher – Datenbus – Prozessor. Der Lese/Schreibe­kopf des Computers liest und schreibt Einsen und Nullen nur in der Weise und auf der Beschrei­bungsebene, in der Tonköpfe von Kassettenrekordern Noten lesen und schreiben, Ziga­rettenautomaten einen Euro erkennen, Strom den geringsten Weg des Widerstands sucht und Sehzellen die Information des Lichtes interpretieren (vgl. Czihak/Langer/Ziegler 1992: 112, „Licht als Informationsträger“). Es handelt sich um etwas, das Searle selbst Als-ob-Intentionalität (vgl. Searle 1993: 176) nennen würde; man könnte das Lesen des Compu­ters von der Festplatte auch eine Als-ob-Interpretation nennen, der ein vollständig homun­culusfrei beschreibbarer und gar nicht geheimnisvoller elektro-mechanischer Prozess zu­grunde liegt. Die Als-ob-Interpretation ist eine Redeweise, die sich für manche Prozessbe­schreibungen in Naturwissenschaft und Technik – wie auch in der Alltagssprache – einge­bürgert hat und dort im Normalfall keine Schwierigkeiten macht. Es ist nicht leicht einzu­sehen, weshalb sie auf einmal bei Computern oder Gehirnen problematisch werden sollte. Der abstrakte Lese- und Schreibevorgang des abstrakten Lese/Schreibekopfes einer Tu­ringmaschine ist nicht näher bestimmt. Der Einfachheit halber wird bei ihm häufig etwas angenommen, das Searle eine bewusste, intrinsische Intentionalität (vgl. Searle 1993: 177) nennen würde. Es würde dem Bild nicht widersprechen, zu sagen, die Turingma­schine könne Einsen und Nullen so lesen, wie ein Mensch Einsen und Nullen liest. Man könnte es intrinsische Interpretation nennen. Da es sich um eine Papiermaschine handelt, die sowieso als ganze auf diese Weise vom Menschen gelesen wird, ist das auch nicht weiter überraschend. In vielen Illustrationen der Turingmaschine sitzt ein Homunculus. In handelsüblichen Computern dagegen sitzt garantiert kein Homunculus. Wenn, dann sitzt ein ausgewachsener Homunculus davor, schaut auf den Bildschirm und tippt auf die Tas­ten. Aber er interpretiert normalerweise keine Vorgänge im Computer computational; das ist nicht nötig, der innere Mechanismus des Computers funktioniert von ganz allein, ohne interne Interpretation.

Pascal-, C++ oder Java-Programme beinhalten Konzepte, die für Programme der Turing­[Seite 43↓]maschine nicht vorgesehen sind: WHILE-Schleifen, bedingte Sprungbefehle, Zwischen­speicherung in einem Stack, Rekursivität und vieles mehr. Anders als Programme für Turingmaschinen machen sie keine Aussagen über Zustände. Zwar sind die Konzepte gängiger Programmiersprachen ins Konzept der Turingmaschine übersetzbar – das sagt die Church/Turing-Hypothese – aber diese Übersetzbarkeit liegt auf einer Ebene, die man nicht direkt mit der Festplatte eines Computers in Verbindung bringen sollte.

Das wäre ungefähr so, wie das Wissen, dass man jede natürliche Sprache in jede andere natürliche Sprache übersetzen kann, direkt mit Büchern in Verbindung zu bringen. Wenn man ein chinesisches Buch vor sich hat, sollte man nicht versuchen, einen deutschen Text darin zu finden, indem man auf den Seiten, auf denen chinesische Schriftzeichen stehen, die Struktur lateinischer Schriftzeichen sucht, – und das mit der Begründung, dass dieses Buch ins Deutsche übersetzbar ist. Um ein chinesisches Buch lesen zu können, muss man zunächst einmal chinesische Zeichen identifizieren können, und auf dieser Ebene helfen einem Deutschkenntnisse wenig.

Computerprogramme, die z. B. in C++ geschrieben worden sind – vielleicht ist z. B. das Wordstar-Programm in C++ geschrieben worden –, werden tatsächlich in eine Struktur übersetzt 11Auf ganz ähnliche Weise wie für das Musikprogramm eines mechanischen Klaviers, das auf einem gelochten Band ist, Noten in eine Struktur aus Loch und Nicht-Loch übersetzt wurden. Von diesem Band muss der Mensch keine Noten lesen; er muss die Löcher nicht als Noten interpretie­ren, damit das Klavier Musik macht. Die ersten Computer der Welt speicherten ihre Programme auch als Struktur von Loch und Nicht-Loch auf einem Fotofilm. Im Prinzip hat sich daran nicht viel geändert, nur die Materialien sind verschieden. und auf der Festplatte gespeichert. Die Festplatte ist Träger der Steuerungs­information; – und zwar in der gleichen Art und Weise, wie ein gelochtes Band oder eine Audiokassette Träger von Musik oder Gene die Träger der Erbinformation sind (vgl. Czi­hak/Langer/Ziegler 1992: 179, „Nucleinsäuren als Träger der Erbinformation“). Kein Mensch muss diese Informationen lesen, damit sie wirksam sind. Es ist, mit Searles Be­grifflichkeiten ausgedrückt, eine Als-ob-Information für die Als-ob-Interpretation. Das Pro­gramm der Turingmaschine hat keinen definierten Speicherort. Wenn man die Illustration in Abb. 2.4 zum Beispiel nimmt und einen Homunkulus in den Kasten, auf dem „Endlicher Automat“ steht, hineinsetzt, so wäre es mit dieser Illustration vereinbar, dass der Homun­kulus einen Zettel hat, auf dem das Programm in Form einer Tabelle wie in Abb. 2.5 oder eines Transitionsgraphen wie in Abb. 2.7 geschrieben steht. Das Programm der Turing­maschine ist so gespeichert wie ein Text, vielleicht ein Kochrezept oder ein Gesetzestext, in einem Buch gespeichert ist. Ein Mensch muss es lesen und verstehen und anwenden, damit es wirksam wird. Es ist eine Information für die intrinsische Interpretation.

Mit diesen Unterscheidungen im Hintergrund lassen sich Searles ontologische Vermi­schung von Turingmaschine und Computer und die Folgerungen, die er daraus zieht, gut [Seite 44↓]nachvollziehen: Searle sucht nach einer Definition für Computer und liefert stattdessen ei­ne (verkürzte bis falsche) Definition der Turingmaschine. Allem Anschein nach macht er für die Verbindung von Turingmaschine und Computer die Hilfsannahme, dass alles, was man irgendwie computational, d. h. für ihn mit Hilfe einer Turingmaschine, beschreiben kann, ein Computer ist. Unglücklicherweise verschwimmen in Searles Text an dieser Stelle die Markierungen von Kognitivismus-Referat und Darstellung der eigenen Meinung. Man weiß nicht genau, ob Searle sagen will, dass der Kognitivismus diese falschen Annahmen über die Turingmaschine vertritt und auch notwendig vertreten muss, oder ob Searle selbst das tut. Man sollte vermutlich Ersteres annehmen.

Unmittelbar nach seiner oben zitierten Darstellung der Turingmaschine fährt Searle fol­gendermaßen fort:

That is the standard definition of computation, but, taken literally, it is at least a bit misleading. If you open up your home computer, you are most unlikely to find any 0's and 1's or even a tape. But this does not really matter for the definition. To find out if an object is really a digital computer, it turns out that we do not actually have to look for 0's and 1's, etc.; rather we just have to look for something that we could treat as or count as or that could be used to function as a 0's and 1's. (Searle 1992: 206)

Hier macht Searle also seiner Suggestion gemäß den Vorschlag, den Computer, den wir zu Hause haben, aufzuschrauben und nachzusehen, ob er eine Turingmaschine ist. Die Überraschung, dass man keine Einsen und Nullen auf der Festplatte – oder sonst wo da­rin – findet, irritiert ihn nicht, denn er weiß, dass wir nach etwas suchen müssen, das wir wie eine Eins oder eine Null behandeln können. Searle meint an dieser Stelle aber nicht, dass wir nach etwas suchen müssen, das der Lese/Schreibekopf auf der Festplatte in der Art einer Als-ob-Interpretation als Einsen und Nullen auffasst, sondern er meint, dass wir nach Einsen und Nullen suchen müssen, wie sie auf dem Band einer Turingmaschine ste­hen könnten und die von uns in der Art einer intrinsischen Interpretation gelesen werden. Er legt also recht deutlich die eins zu eins Übertragung Festplatte - Turingband nahe. Die­se Übertragung legt er auch einigen Kognitionswissenschaftlern in den Mund, indem er ihre Argumentation für die multiple Realisierbarkeit zitiert und sie in diese Richtung deutet:

Furthermore, to make the matter more puzzling, it turns out that this machine could be made out of just about anything. As Johnson-Laird says, "It could be made out of cogs and levers like an old fashioned mechanical calculator; it could be made out of a hydraulic system through which water flows; it could be made out of transistors etched into a silicon [Seite 45↓]chip through which electric current flows; it could even be carried out by the brain. Each of these machines uses a different medium to represent binary symbols. The positions of cogs, the presence or absence of water, the level of the voltage and perhaps nerve im­pulses" (Johnson-Laird 1988, p. 39). Similar remarks are made by most of the people who write on this topic. For example, Ned Block (1990) shows how we can have electrical gates where the 1's and 0's are assigned to voltage levels of 4 volts and 7 volts respec­tively. So we might think that we should go and look for voltage levels. But Block tells us that 1 is only "conventionally" assigned to a certain voltage level. The situation grows more puzzling when he informs us further that we need not use electricity at all, but we can use an elaborate system of cats and mice and cheese and make our gates in such as way that the cat will strain at the leash and pull open a gate that we can also treat as if it were a 0 or a 1. The point, as Block is anxious to insist, is "the irrelevance of hardware realization to computational description. These gates work in different ways but they are nonetheless computationally equivalent" (p. 260). In the same vein, Pylyshyn says that a computational sequence could be realized by "a group of pigeons trained to peck as a Turing machine!" (1984, p. 57) (Searle 1992: 206)

Bei genauer Analyse dieser Zitate zeigt sich, dass keiner der obigen Autoren die Einsen und Nullen einer Turingmaschine unbedingt auf eine verborgene Ebene verlegt. Zwar könnte man Pylyshyn so lesen, dass er sagt, man könne eine Turingmaschine aus Tau­ben bauen, aber diese philosophisch irreführende rhetorische Verkürzung passiert schnell, – die Fachbücher für Theoretische Informatik sind voll davon. Sie ist an sich harmlos, es wird erst gefährlich, wenn man die falschen Schlüsse daraus zieht. Pylyshyns Aussage kann genau so gut und viel richtiger wiedergegeben werden als: „Man kann Tauben so dressieren, dass ihr Pickverhalten einem Algorithmus entspricht, der zuvor mit Hilfe einer Turingmaschine entworfen wurde.“ Nichts von dem, was er behaupten will, geht dabei verloren.

Um die Taubenkonstruktion Pylyshyns etwas besser zu verstehen, könnte man noch ein­mal zu Abb. 2.6 zurückkehren und sich vorstellen, dass diese Kästchen in den Sand ge­malt sind und überall dort, wo ein Strich ist, ein Korn liegt, und überall dort, wo das Käst­chen frei ist, kein Korn liegt. Angenommen, eine Taube verschiebe immer, wenn sie solch einer Situation ausgesetzt ist, pickend die Körner auf genau die Art, wie es in Tabelle 2.5 vorgeschrieben ist. Da es zugegebenermaßen unrealistisch ist, dass eine Taube solche Leistungen vollbringen kann, sei weiterhin angenommen, dass die Taube den Algorithmus nur unvollkommen umsetzt und manchmal, sagen wir bei circa jedem fünften Durchlauf, einen Fehler macht. Es dürfte keine gute Idee sein, eine Repräsentation der Tabelle 2.5 [Seite 46↓]im Kopf der Taube zu suchen, denn die Taube interpretiert die Körner nicht als Einsen und Nullen, sie pickt einfach. Für die computationale Beschreibung des Verhaltens der Taube ist, so wie das Beispiel gemeint ist, das Gehirn der Taube nicht relevant. Die Situ­ation eines Forschers, der das Verhalten der Taube beschreiben möchte, wäre ganz ähn­lich wie die des Ethnologen mit dem Mann/Wolf/Ziege/Kohl-Problem aus dem Beispiel 2.2.1.

Searle findet die Tatsache, dass man unter gewissen begrenzten – zudem meist hochgra­dig konstruierten – Umständen das Verhalten von Tauben, Männern, Wölfen, Ziegen, Kat­zen, Hunden, Mäusen, Wasser, Holz und vielem anderen mehr mit Hilfe einer Turingma­schine angemessen beschreiben kann, hoch problematisch:

Computationally speaking, on this view, you can make a "brain" that functions just like yours and mine out of cats and mice and cheese or levers or water pipes or pigeons or anything else provided the two systems are, in Block's sense, "computationally equi­valent." You would just need an awful lot of cats, or pigeons or water pipes, or whatever it might be. The proponents of cognitivism report this result with sheer and unconcealed delight. (Searle 1992: 207)

In der Hinsicht der multiplen Realisierbarkeit, schreibt Searle weiter, seien Computer scheinbar mit Thermostaten oder Vergasern vergleichbar. Vergaser könne man auch aus verschiedenen Materialien herstellen. Es gibt welche aus Kupfer, es gibt welche aus Stahl.

But there is a difference: The classes of carburetors and thermostats are defined in terms of the production of certain physical effects. That is why, for example, nobody says you can make carburetors out of pigeons. But the class of computers is defined syntactically in terms of the assignment of 0's and 1's. The multiple realizability is a consequence not of the fact that the same physical effect can be achieved in different physical substances, but that the relevant properties are purely syntactical. The physics is irrelevant except in so far as it admits of the assignments of 0's and 1's and of state transitions between them12Nebenbei bemerkt ist es seltsam, wo Searle hier plötzlich die Zustandswechsel hernimmt. In seiner am Anfang des Abschnittes zitierten Definition der Turingmaschine kommen sie nicht vor.. (Searle 1992: 207)

Anders als Thermostate oder Vergaser sind Computer für Searle rein syntaktisch definiert. Und aus dem Umstand, dass wir keine Einsen und Nullen als Ziffern im Inneren von Com­putern finden können, sondern diese erst – z. B. der Festplatte – zuschreiben müssen, fol­gert Searle weiterhin, dass Computation durch die Zuschreibung von Einsen und Nullen [Seite 47↓]definiert sei. Die physische Ebene müsse eine solche syntaktische Zuschreibung von Ein­sen und Nullen bloß zulassen, ansonsten sei sie irrelevant. Diese Folgerungen scheinen ihm recht absurde Konsequenzen zu haben: die universelle Realisierbarkeit, die Searle, gleichfalls mit nicht wenig „sheer and unconcealed delight“, in zwei verschiedenen, sich ergänzenden Versionen vorträgt:

  1. The same principle that implies multiple realizability would seem to imply universal realizability. If computation is defined in terms of the assignment of syntax, then everything would be a digital computer, because any object whatever could have syntactical ascriptions made to it. You could describe anything in terms of 0's and 1's.
  2. Worse yet, syntax is not intrinsic to physics. The ascription of syntactical proper­ties is always relative to an agent or observer who treats certain physical pheno­mena as syntactical. (Searle 1992: 207f.)

  1. For any object there is some description of that object such that under that description the object is a digital computer.
  2. For any program and for any sufficiently complex object, there is some description of the object under which it is implementing the program. Thus for example the wall behind my back is right now implementing the Wordstar program, because there is some pattern of molecule movements that is isomorphic with the formal structure of Wordstar. But if the wall is implementing Wordstar, then if it is a big enough wall it is implementing any pro­gram, including any program implemented in the brain. (Searle 1992: 208f.)

An dieser Stelle beendet Searle seine empiristische Untersuchung „Was tut man, um he­rauszufinden, dass etwas ein digitaler Computer ist?“ und stellt fest, dass diese Frage sinnlos ist, weil man bei jedem beliebigen Gegenstand feststellen könne, dass er ein digi­taler Computer ist. Mehr noch: Jeder beliebige Gegenstand ist jeder beliebige Computer. Denn jedes denkbare Programm läuft auf jedem beliebigen Gegenstand, der für eine Zu­schreibung hinreichend groß ist. Das hat die seltsame Konsequenz, dass jedes beliebige Programm in jedem beliebigen handelsüblichen PC implementiert ist. Jedes ohne Unter­schied, auch alle, die im Moment nicht vom Benutzer oder vom Hersteller installiert wur­den. Wenn jemand, ein schreibfauler Grafiker vielleicht, nur das Bildbearbeitungspro­gramm Photoshop benutzt, und nur dieses Programm als einziges bewusst auf seinem Computer installiert hat, läuft auf seinem Computer dennoch gleichzeitig genau im glei­chen Sinne das Textverarbeitungsprogramm Wordstar – und alle anderen denkbaren Pro­[Seite 48↓]gramme, für die seine Festplatte groß genug ist, um ihr ihre formale Struktur zuzuordnen. Er wird es nicht verhindern können. Er wird noch nicht einmal ein Kriterium angeben kön­nen, nach dem er entscheiden könnte, welches Programm auf seinem Computer installiert ist und welches nicht. Alle sind sie installiert. Irgendetwas scheint daran seltsam zu sein. Wie kann man herausfinden, welche Konfiguration ein Computer wirklich im Augenblick besitzt? Searles Analyse gibt keinen Hinweis darauf, wie man diese Seltsamkeit aufklären könnte. Zwar schreibt er:

I do not think that the problem of universal realizability is a serious one. I think it is possible to block the result of universal realizability by tightening up our definition of computation. Certainly we ought to respect the fact that programmers and engineers regard it as a quirk of Turing's original definitions and not as a real feature of computation. Unpublished works by Brian Smith, Vinod Goel, and John Batali all suggest that a more realistic definition of computation will emphasize such features as the causal relations among program states, programmability and controllability of the mechanism, and si­tuatedness in the real world. (Searle 1992: 209)

Doch scheint ihm dieser Ansatz, den Begriff der Computation so zu verschärfen, wie Smith, Goel und Batali es vorschlagen, keine Lösung für sein Problem und damit auch eigentlich keine Lösung für die universelle Realisierbarkeit und für die oben angesproch­ene Seltsamkeit zu sein, denn:

[T]hese further restrictions on the definition of computation are no help in the present discussion because the really deep problem is that syntax is essentially an observer-relative notion. The multiple realizability of computationally equivalent processes in different physical media is not just a sign that the processes are abstract, but that they are not intrinsic to the system at all. They depend on an interpretation from outside. (Searle: 1992: 209)

Ein Versuch, das aufzuklären, ohne Turings Definitionen einzuschränken oder anderswie zu verändern, wird hier in Abschnitt 3.3 angeboten, worin Searles Vermutung, dass das tiefe Problem der universellen Realisierbarkeit daher komme, dass die Syntax der Physik nicht intrinsisch ist, genauer betrachtet wird.

Zuvor sei das Problem der universellen Realisierbarkeit aber noch mit Hilfe eines Bewei­ses von Putnam etwas genauer präzisiert. Searles Argumentation bleibt an einigen Stell­en etwas abstrakt, an anderen ist sie unklar oder verwirrend. Er spricht oft von der Zuord­[Seite 49↓]nung von Zeichen. Syntax sei die Zuordnung von Zeichen. Zustände und Zeichen würden der physischen Beschaffenheit nur zugeordnet, sie seien ihr nicht intrinsisch usw. Aber wenn er schreibt, dass man ein Muster von Molekülbewegungen in der Wand hinter ihm finden könne, das der formalen Struktur des Wordstar-Programms isomorph ist, wie meint er das genau? Wie soll man diese Isomorphie in der Wand suchen, ohne dabei wieder zum Physikalisten zu werden? Wie sieht die formale Struktur des Wordstar-Programms überhaupt aus? Welchen Formalismus und welches Suchverfahren schlägt er vor? Searle gibt auf diese Fragen keine Antwort. Er führt der Leserin und dem Leser keine beliebige Suche nach einer beliebigen Computation in einem beliebigen physischen Ding in dieser Welt anschaulich vor. Putnam tut das wohl.

3.2 Putnam: Jedes beliebige physikalische System ist eine Realisierung jedes beliebigen Endlichen Automaten (EA)

Putnams Beweis zur universellen Realisierbarkeit, in dem er in drei Schritten beliebige Endliche Automaten auf beliebige physikalische Systeme bezieht, befindet sich im Appen­dix seines Buches Repräsentation und Realität (Putnam 1999: 213-218) bzw. Represen­tation and Reality (Putnam 1998: 121-125). Er ist sehr kurz, aber äußerst vielschichtig, so­dass aufgrund des Rahmens und der Richtung dieser Arbeit nicht alle Aspekte des Bewei­ses zitiert und diskutiert werden können. Im ersten Schritt erläutert Putnam die für seinen Beweis relevanten Grundannahmen über die Eigenschaften von physikalischen Syste­men, von denen er sagt, dass es anerkannte Grundannahmen der Physik seien, und be­weist ein Lemma, einen Hilfssatz. Das Lemma und sein Beweis können hier ausgeklam­mert werden2. Im zweiten Schritt beweist Putnam, dass man einen Endlichen Automaten mit zwei Zuständen und ohne In- und Output mit einem beliebigen physikalischen System so identifizieren kann, dass man darüber sagen kann, das System realisiert diesen EA. Im dritten Schritt, Diskussion, überträgt Putnam das Ergebnis seines Beweises auf beliebige Endliche Automaten mit In- und Output. Das Problem der universellen Realisierbarkeit lautet in Putnams Formulierung:

Theorem. Every ordinary open system is a realization of every abstract finite automaton.
(Putnam 1998: 121)

Die Grundannahmen, die Putnam im ersten Schritt zum Beweis seines Theorems einführt, sind das Kontinuitätsprinzip – Principle of Continuity:


[Seite 50↓]

The electromagnetic and gravitational fields are continuous, except possibly at a finite or denumerably infinite set of points. (Putnam 1998: 121)

Und das Prinzip des nichtzyklischen Verhaltens – Principle of Noncyclical Behavior:

The system S is in different maximal states at different times. This principle will hold true of all systems that can "see" (are not shielded from electromagnetic and gravitational signals from) a clock. Since there are natural clocks from which no ordinary open system is shielded, all such systems satisfy this principle. (Putnam 1998: 121)

Es sei darauf hingewiesen, beim Lesen des Folgenden bitte genau darauf zu achten, wie Putnam seinen in- und outputlosen EA immer stärker an die von ihm durch sein Prinzip des nichtzyklischen Verhaltens in die physikalischen Systeme selbst verlegte Uhr bindet, denn um diesen Trick Putnams kümmert sich die weitere Argumentation in diesem Text am meisten. Putnams Beweis des Theorems:

(I have stated the theorem in terms of finite automata, but the technique is easily adapted to other formalisms.) A finite automaton is characterized by a table which specifies the states and the required state-transitions. Without loss of generality, let us suppose the table calls for the automaton to go through the following sequence of states in the interval (in terms of "machine time") that we wish to simulate in real time: ABABABA . Let us sup­pose we are given a physical system S whose spatial boundary we have exactly defined, at least during the real-time interval we are interested in (say, a given 7-minute interval, e.g., from 12:00 to 12:07). We wish to find physical states A and B such that during the time interval we are interested in the system S "obeys" this table by going through the sequence of states ABABABA , and such that given just the laws of physics (including the Principle of Continuity) and the boundary conditions of S , aLaplacian supermind could predict the next state of the system (e.g., that S will be in state B from 12:03 to 12:04) given the previous state (given that S was in state A from 12:02 to 12:03). This will show that S "realizes" the given table during the interval specified. Since the technique of proof applies to any such table, we will have proved that S can be ascribed any machine table at all, and the description will be a "correct" one, in the sense that there really are physical states with respect to which S is a realization of the table ascribed. (Putnam 1998: 122) 14Putnams Abkürzungen sind leider im Vergleich zu den hier sonst benutzten etwas verwirrend. S bedeutet bei Putnam System während es sonst immer Zustand bedeutet (State). Für Zustand be­nutzt Putnam die Abkürzung St und die Zustände selbst werden von Putnam mit A und B bezeich­net. Für den Putnam-Abschnitt, 3.3, geht dieser Text mit Putnams Konventionen mit.

Man könnte Putnam an dieser Stelle schon vorwerfen, dass Endliche Automaten ohne In- und Output in der Theoretischen Informatik eigentlich nicht definiert sind. Der einfachste EA, der definiert ist, hat wenigstens Input (vgl. Definition 2.2.2). Sein EA nur mit den Zu­ständen A und B ist also streng genommen sinnlos (Chalmers erhebt diesen Vorwurf in [Seite 51↓]etwas schwächerer Form auch. Vgl. Chalmers 1996). Aber vielleicht ist es trotzdem in­teressant, was Putnam aus seinem eigentlich sinnlosen Beispiel-EA macht:

I shall use the symbolic expression St(S, t) to denote the maximal state of S at t (in classi­cal physics this would be the value of all the field parameters at all the points inside the boundary of S at t). Let the beginnings of the intervals during which S is to be in one of its stages A or B be t 1 ,t 2 , . . . , t n (in the example given, n = 7, and the times in question are t 1 = 12:00, t 2 = 12:01, t 3 = 12:02, t 4 = 12:03, t 5 = 12:04, t 6 = 12:05, t 7 = 12:06). The end of the real-time interval during which we wish S to "obey" this table we call t n+1 (= t 8 = 12:07, in our example). For each of the intervals t i to t i+1 , i = 1,2, . . . ,n, define a (nonmaximal) in­terval state s i which is the "region" in phase space consisting of all the maximal states St(S, t) with t it < t i+1 . (I.e., S is in s i just in case S is in one of the maximal states in this "region.") Note that the system S is in s 1 from t n to t n+1 , in s 2 from t 2 to t 3 , . . . , in s n from t n to t n+1 . (Left endpoint included in all cases but not the right – this is a convention to ensure the "machine" is in exactly one of the s i at a given time.) The disjointness of the states s i is guaranteed by the Principle of Noncyclical Behavior.
Define A = s 1 v s 3 v s 5 v s 7; B = s 2 v s 4 v s 6.
Then, as is easily checked, S is in state A from t 1 to t 2 , from t 3 to t 4, from t 5 to t 6 , and from t 7 to t 8, and in state B at all other times between t 1 and t 8 . So S "has" the table we speci­fied, with the states A, B we just defined as the "realizations" of the states A, B described by the table. (Putnam 1998: 122f.)

Das ist, die Betrachtung über kausale Verursachung ausgelassen, Putnams Beweis der universellen Realisierbarkeit. Seine spätere Übertragung auf Endliche Automaten mit In- und Output hat nicht mehr den Charakter eines Beweises, sie gehört zum dritten Schritt Diskussion. Zunächst zum Beweis, zu dem vorweg zu sagen ist, dass er formal durchaus korrekt ist. Es ist nur die Frage, ob er das beweist, was er beweisen soll:

Putnams Kritiker David Chalmers (Chalmers 1996) und Ronald L. Chrisley (Chrisley 1994) werfen ihm hauptsächlich vor, erstens zu wenige Voraussetzungen von den betrachteten physikalischen Systemen zu verlangen und zweitens zu einfache Endliche Automaten zu betrachten. Chalmers führt, um das Problem der universellen Realisierbarkeit los zu wer­den, noch eine weitere Bedingung ein, die ein physikalisches System erfüllen muss, damit es für eine bewusstseinsphilosophisch relevante Beschreibung mit Hilfe eines Endlichen Automaten in Frage kommt. Das System solle neben einer Uhr – clock – auch ein Ziffer­blatt – dial – enthalten, auf dem sich die Zustandswechsel abbilden lassen. Der Endliche Automat, den er zur angemessenen Beschreibung des Bewusstseins für angemessen [Seite 52↓]hält, nennt er Kombinatorischen Endlichen Automaten – Combinatorial State Automata (CSA). Der CSA ist hinsichtlich seiner formalen Mächtigkeit äquivalent mit dem EA, eine Folge der Church/Turing-Hypothese, aber die Bedingungen für seine Implementation sind weitaus eingeschränkter. Nach einer Reihe äußerst komplizierter formaler Betrachtungen über Systeme mit Uhr und Zifferblatt, die mit Hilfe von CSAs beschrieben werden, kommt er zu dem Schluss, dass er bestimmt immer noch zu viele Systeme in seine Betrachtung eingeschlossen hat, gleichzeitig aber bestimmt auch schon zu viele ausgeschlossen. Und mit diesem unbefriedigenden, zwischen Chauvinismus und Liberalismus schwankenden Ergebnis bricht er seine Untersuchung ab (vgl. Chalmers 1996). Chalmers’ Analyse ist insofern auf dem richtigen Weg, als er auf der Suche nach angemesseneren computatio­nalen Beschreibungsarten als denen des klassischen EA ist. Aber mit seinen funktio­nalistischen Abbildungen mit Hilfe eines CSA, die abhängig sind von einem inneren Takt des Systems, wird er sein für funktionalistische Theorien charakteristisches Schwanken zwischen Chauvinismus und Liberalismus nicht los. Der Endliche Automat scheint auch in seiner kombinatorischen Variante nicht die richtigen Beschreibungsebenen zu treffen, auf denen sinnvolle empirische Arbeit möglich ist. Möglicherweise krankt der Funktionalismus als empirische Wissenschaft an der von Putnam schon 1968 festgestellten Utopie, die aus dem EA-Formalismus resultiert (vgl. Abschnitt 2.1.2).

Hier, für diese Argumentation, interessieren vor allem die Beschreibungsmöglichkeiten, die Putnam in seinem Beweis bereits durch die Bindung an das Prinzip des nichtzykli­schen Verhaltens ausschließt. Es scheint, dass Putnam mit der Annahme einer Uhr im System und der Bindung seines EA an den Takt dieser Uhr schon alle Beschreibungs­ebenen, die seinen Funktionalismus ursprünglich interessierten, von vornherein ausge­schlossen hat. Putnams Funktionalismus – in der in Abschnitt 2.1.2 gegebenen Darstel­lung von Block – interessierte sich für kausale Relationen zwischen sensorischen Inputs und behavioralen Outputs. Solche In- und Outputs sind nicht unbedingt an den Takt einer internen Uhr gebunden. Man betrachte noch einmal das Mann/Wolf/Ziege/Kohl-Szenario: Es ist für die Beschreibung mit Hilfe des EA gleichgültig, ob der Mann irgendwann einmal eine Pause macht. Die Beschreibung ist nicht an einen internen Taktgeber gebunden. Ge­nau so scheint es, dass ein Schmerzzustand nicht unbedingt von einer inneren Uhr ab­hängt, man kann eine Tablette nehmen, und er ist früher zu Ende als ohne. Das abstrakte Konzept des EA verlangt keinen Takt, es spielt keine Rolle, ob das Männchen in der Kiste der Turingmaschine ab und zu einmal eine Pause macht. Es scheint, dass Putnam hier eine Art physikalistischen EA-Funktionalismus kritisieren will und nicht mehr seinen ur­sprünglichen, der dezidiert auf das Sprechen über physische Eigenschaften verzichtet. [Seite 53↓]Unterstellt man bei seiner Betrachtung eine im physischen System enthaltene Uhr, die z. B. durch seine Molekülbewegungen gegeben ist, beginnt man wieder über physische Eigenschaften zu reden. Gerade das wollte Putnams Funktionalismus ursprünglich ver­meiden. Auch bei Searles nicht ausformulierter Suche nach der Isomorphie der Wand mit der formalen Struktur des Wordstar-Programms könnte er wieder versehentlich eine klas­sische physikalistische Identifikation im Sinne gehabt haben. Aber die klassischen Identi­tätstheoretiker sind bekanntlich Chauvinisten und interessieren sich deshalb prinzipiell nicht für die Struktur von Wänden.

Zum Schluss noch etwas zu Putnams Diskussion, in der er seinen Beweis auf einen ein­fachen EA mit In- und Output überträgt:

Imagine, however, that an object S which takes strings of "1"s as inputs and prints such strings as outputs behaves from 12:00 to 12:07 exactly as if it had a certain description D. That is, S receives a certain string, say "111111", at 12:00 and prints a certain string, say "11", at 12:07, and there "exists" (mathematically speaking) a machine with description D which does this (by being in the appropriate state at each of the specified intervals, say 12:00 to 12:01, 12:01 to 12:02 …, and printing or erasing what it is supposed to print or erase when it is in a given state and scanning a given symbol). In this case, S too can be interpreted as being in these same logical states A,B,C, ... at the very same times and following the very same transition rules; that is to say, we can find physical states A,B,C, . . . which S possesses at the appropriate times and which stand in the appropriate causal relations to one another and to the inputs and the outputs. The method of proof is exactly the same as in the theorem just proved (the unconstrained case). Thus we obtain that the assumption that something is a "realization" of a given automaton description (possesses a specified "functional organization") is equivalent to the statement that it behaves as if it had that description . (Putnam 1998: 124)

Hier begegnet der Leserin und dem Leser wiederum eine Argumentation mit einem Als-ob. Diesmal ist das Als-ob auf der Seite des Beobachters. Der Beobachter tut so, als ob das System eine funktionalistische computationale Beschreibung hätte, und weil es kein Kriterium gibt, das diese Als-ob-Beschreibung von einer objektiven Beschreibung – bzw. einer Beschreibung von intrinsischen Prozessen – unterscheidbar macht, sind diese bei­den Beschreibungen äquivalent. An diesem Punkt kann man nicht mehr umhin, Putnam vorzuwerfen, dass er es sich etwas zu einfach macht. Sein EA mit In- und Output ist denk­bar simpel, und wie die Beschreibung D aussehen soll, das sagt er nicht. Er betont aber ausführlich, dass diese Übertragung für alle Systeme mit funktioniere, auch für solche mit [Seite 54↓]Mund, Nase, Augen und Ohren als In- und Output-System, die ab und zu Fehler machen.

Leider gibt Putnam, genau so wie Searle, nicht die empiristischen Methoden an, die man benutzen soll, um die Als-ob-Beschreibung von einer objektiven Beschreibung zu unter­scheiden. Da beide jedoch dezidiert empirische Theorien kritisieren wollen, wäre dieser Punkt ein interessanter. Es ist zum Beispiel ein Grundsatz der empirischen Forschung, dass man bei der Formulierung einer Hypothese immer die Bedingungen mit angeben muss, unter denen sie falsifiziert ist. Weder Putnam noch Searle machen eine Aussage dazu, wie das bei ihren Argumentationen berücksichtigt werden könnte. Auch gibt es kei­ne Aussagen zu den üblichen Minimalforderungen wie Gebundenheit an eine akzeptierte Theorie und Wiederholbarkeit der Untersuchung. Putnam und Searle gehen beide von einem passiven Beobachter aus, der das zu betrachtende System bei seiner Untersuch­ung nicht beeinflussen darf. Auch das ist eine relativ überholte Vorstellung von der empiri­schen Wissenschaft. Die heutige empirische Wissenschaft hat vielmehr einen Benutzer der Dinge zum Ideal, einen Labormenschen, der systematisch testet oder simuliert, wie die Dinge funktionieren.

3.3 Searle: Die Syntax ist der Physik nicht intrinsisch

So wie Searle das Problem der universellen Realisierbarkeit analysiert, liegt der tiefe Grund dafür in falschen Annahmen über das Verhältnis zwischen Syntax und Physik. Die Syntax sei kein intrinsisches3 Merkmal der Physik, aber Kognitivisten würden sie für ein solches halten.

The aim of natural science is to discover and characterize features that are intrinsic to the natural world. By its own definitions of computation and cognition, there is no way that computational cognitive science could ever be a natural science, because computation is not an intrinsic feature of the world. It is assigned relative to observers. (Searle 1992: 212)

Intrinsische Merkmale der Physik sind für Searle alle Merkmale, die noch da sind, wenn der Beobachter verschwunden ist. Eine Pflanze, sagt er, macht intrinsischermaßen Pho­tosynthese, ein Herz pumpt intrinsischermaßen Blut, „Masse“, „Schwerkraft“ und „Molekül“ bezeichnen intrinsische Eigenschaften der Welt. Wenn alle menschlichen Beobachter auf einmal verschwinden, gibt es immer noch Masse, Schwerkraft, Moleküle, Photosynthese und Herzen, die Blut pumpen. „Stuhl“, „Badewanne“ und „ein hübscher Tag für ein Pick­[Seite 55↓]nick“ sind Searles Beispiele für Bezeichnungen nichtintrinsischer Merkmale. Eine Bade­wanne ist nur relativ zu ihrem Benutzer eine Badewanne; wenn dieser Bezugspunkt ver­schwindet, jemand, der einen so und so geformten Gegenstand als Badewanne auffasst und als Badewanne benutzt, verschwinden mit ihm auch die Badewannen. Wenn alle Menschen auf einmal aus der Welt verschwinden, dann verschwinden damit auch die Badewannen aus der Welt.

Searles empiristische Frage „Wie findet man heraus, dass etwas ein Computer ist?“ – vollständig zu lesen als „Wie findet man heraus, dass etwas intrinsischermaßen ein Com­puter ist?“ – führte für ihn deshalb ins Absurde, zur universellen Realisierbarkeit, weil „Computer“, neben „Badewanne“ und „Stuhl“, in die Reihe der Wörter gehört, die keine in­trinsischen Merkmale bezeichnen, sondern eine beobachterrelative Zuschreibung vorneh­men.

Nun ist diese Frage aber in einer bestimmten Hinsicht den Kognitivisten gegenüber unfair gestellt. Kognitivisten haben, Searles eigener Definition zufolge, die Auffassung „Das Ge­hirn ist ein Computer“ als eine ihrer Grundannahmen gewählt, und es ist eine gängige Praxis der empirischen Wissenschaften, dass Grundannahmen selbst nicht zum Gegen­stand der Forschung werden. Es ist selbstverständlich legitim, die Grundannahmen zu hinterfragen, aber Searle tut in seiner reductio ad absurdum Argumentation so, als sei es das Forschungsprojekt des Kognitivismus selbst, herauszu­finden, ob das Hirn ein Compu­ter ist:

Wir wollten wissen, ob das Hirn nicht in irgendeinem Sinn an sich, intrinsischermaßen, ein digitaler Computer ist – so, wie ein grünes Blatt intrinsischermaßen Photosynthese voll­zieht und ein Herz intrinsischermaßen Blut pumpt. (Searle 1993: 230)

Wenn Searle aber das Forschungsprojekt des Kognitivismus ad absurdum führen will, täte er vielleicht besser daran, auch eine Frage ad absurdum zu führen, die sich der Kogniti­vismus wirklich stellt. Der Kognitivismus stellt sich eher, wenn man Searles Urgeschichte (vgl. Abschnitt 2.1.1) folgt, die Fragen: „Vollzieht das Hirn intrinsischermaßen einen Sprachalgorithmus?“ oder „Vollzieht das Hirn unter den und den Bedingungen intrin­sischermaßen einen Schmerzalgorithmus?“ Und diese Fragen sind, wiederum nach Searles eigener Darstellung des Kognitivismus, gleichbedeu­tend mit den Fragen: „Sind Schmerzen computational?“ oder „Sind Sprachproduktion und Sprachverstehen compu­tational?“ Diese Fragen haben eine andere Analogie zu Fragen wie „Vollzieht das grüne [Seite 56↓]Blatt intrinsischermaßen Photosynthese?“ als die Frage „Ist das Hirn intrinsischermaßen ein digitaler Computer?“ Es sind nämlich ebenfalls Fragen nach bestimmten Prozessen in bestimmten physikalischen Systemen und nach ihrer angemessenen Beschreibung.

Wie in Abschnitt 3.1 gezeigt wurde, folgert Searle die universelle Realisierbarkeit aus der Vorstellung, dass die Turingmaschine und der Computer ein und dasselbe sei. Sie impli­ziert seiner Analyse zufolge, dass die Syntax der Physik intrinsisch ist: Endliche Automa­ten sind rein syntaktisch definiert (vgl. Definition und Beispiel 2.2.2: Das ist ein Endlicher Automat in formal lupenreiner Gestalt. Zeichen auf Papier – mehr wird es nicht.) Wenn Computer nichts weiter als Endliche Automaten sind, so Searles Argumentation, dann sind auch sie rein syntaktisch definiert. Da sie aber seltsamerweise auch noch physische Eigenschaften haben, müssten Kognitivisten behaupten, die den Computer konstituieren­de Syntax sei ihrer physischen Beschaffenheit intrinsisch.

Es könnte vielleicht hilfreich sein, probehalber zu versuchen, diese falsche Vorstellung, der Computer sei eine Turingmaschine, zu korrigieren und zu untersuchen, welche Kon­sequenzen eine solche Korrektur für die Fragestellungen des Kognitivismus hat:

Hier wurde schon mehrfach betont, dass der Computer kein Endlicher Automat und also auch keine Turingmaschine ist, sondern, dass das Verhältnis zwischen Computer und Turingmaschine – auf einer sehr abstrakten Ebene – ungefähr so ist wie das zwischen Maschine und Schaltplan allgemein. Eine Maschine verhält sich so, wie ihr Schaltplan es vorschreibt. Maschinen sind nicht ihr Schaltplan. Alan Turing, dessen Definition Searle zur Grundlage genommen hat, sagt zum Verhältnis zwischen Computer und Turingmaschine, die von ihm natürlich noch nicht Turingmaschine, sondern discrete state machine – Endlicher Automat – genannt wurde:

This special property of digital computers, that they can mimic any discrete state machine, is described by saying that they are universal machines. (Turing 1950: 441)

Computer können dazu gebracht werden, sich so zu verhalten, wie eine Turingmaschine es vorschreibt. Sie können Turingmaschinen nachahmen, wie Turing sich ausdrückt. Der Unterschied zwischen einer herkömmlichen Maschine, die ihren Schaltplan nachahmt, und einem Computer scheint nach Turing der zu sein, dass man ein und den selben Computer dazu bringen kann, die Vorschriften jeder beliebigen Turingmaschine zu [Seite 57↓]befolgen (natürlich unter einer Beschreibung als Als-ob-Intentionalität). Was Turing damit, seinem Bild der discrete state machine folgend, nur gemeint haben kann, ist die Program­mierbarkeit des Computers. Er meinte damit also nicht, dass ein Computer jede Turing­maschine gleichzeitig nachahmen kann, sondern immer nur diejenige, zu deren Nach­ahmung er im Augenblick programmiert wurde. Eine herkömmliche Maschine baut man einmal nach einem bestimmten Schaltplan und diesem entspricht sie dann, herkömmliche Maschinen sind starr. Einen Computer kann man gewissermaßen immer wieder nach im­mer wieder neuen Schaltplänen umbauen, Computer sind flexibler.

Ansonsten haben Computer keinen ontologischen Sonderstatus unter den Apparaten; – ebenso wie die computationale Beschreibung keinen semiotischen Sonderstatus unter den Beschreibungen hat. Das lässt sich gut an Searles Begriff des Intrinsischen verdeut­lichen: Ein mechanisches Klavier zum Beispiel spielt eine Zeit lang selbständig Musik. Wenn man annimmt, dass alle Beobachter auf einmal verschwinden, während ein mecha­nisches Klavier spielt, was tut es dann, nach diesem plötzlichen Verschwinden, immer noch? Es spielt Searle zufolge keine Musik mehr, weil niemand mehr die Geräusche, die es macht, als Musik auffasst und genießt. Musik ist der Physik nicht intrinsisch. Aber es macht dennoch immer noch die und die Geräusche. Das mechanische Klavier hört, wenn alle Zuhörer auf einmal verschwinden, sofort damit auf Musik zu spielen, aber es hört nicht sofort damit auf Geräusche zu machen4. Das mechanische Klavier vollzieht also intrinsischermaßen einen Prozess, der die und die Geräusche hervorbringt, denn dazu braucht es den Beobachter nicht. Genau so wie ein Thermostat intrinsischermaßen die Heizung anschaltet, wenn die Raumtemperatur sinkt. Und genau so wie ein grünes Blatt intrinsischermaßen bei Helligkeit einen Prozess vollzieht, der das und das Gas hervor­bringt. Wenn der Betrachter verschwindet, so ist auch hierbei niemand mehr da, der die­ses Gas als O2 auffasst. Die „O2“-Zuschreibung ist ebenfalls eine Zuschreibung von außen. Aber mit Hilfe der Zuschreibung dieser Zeichen – und noch einiger anderer Zei­chen mehr – wird ein Prozess beschrieben, der intrinsisch ist.

Mit dem handelsüblichen Computer lässt sich eine recht deutliche Analogie zu dem me­chanischen Klavier herstellen: Angenommen, ein modernes Laptop mit großartigen Aktiv­boxen und Hochleistungsakkus spiele ein mp3-Klavierstück5 in Endlosschleife. Bei ei­nem plötzlichen Verschwinden aller Beobachter ist es auch bei diesem Computer so, dass er zwar keine Musik mehr spielt, aber immer noch, so lange bis seine Akkus leer sind, die und die Geräusche macht. Der Prozess, der diese Geräusche hervorbringt, ist dem [Seite 58↓]Computer also intrinsisch. Menschen können Systemen Prozesse installieren, die diesen Systemen intrinsisch sind.

Dass dieser intrinsische Geräuscherzeugungsprozess namens mp3-Musikabspielen an­gemessen computational beschreibbar ist, wissen wir, denn wir haben ihn selbst nach einem computationalen Schaltplan gebaut. Dass auch die Photosynthese angemessen computational beschreibbar ist, hat Searle selbst bei seiner Argumentation für die Schwache KI schon zugestanden, indem er bestätigte, dass man sie auf einem Computer simulieren kann (vgl. Abschnitt 2.1.1). Man kann auch relativ leicht einen Endlichen Au­tomaten zur Beschreibung der Photosynthese konstruieren. Ein – nicht sehr subtiler – Photosynthese-EA könnte wie folgt aussehen:

 

H

D

Zustand S 1

„O2

Bleibe in S 1

Wechsle zu S 2

Zustand S 2

Wechsle zu S 1

„CO2

Bleibe in S 2

Abb. 3.1: Transitionstabelle für den Photosynthese-EA

Mit obigem EA ist eine grobe diskrete Darstellung des Tag- und Nachtzyklus der Photo­synthese gegeben. Input „H“ ist zu lesen als Helligkeit und „D“ als Dunkelheit. Output „O2“ bezeichnet den Sauerstoff der Lichtreaktion der Photosynthese und Output „CO2“ das Kohlendioxid der Dunkelreaktion. In Zustand S 1, dem Tageszustand, liefert das mit dem obigen EA beschriebene System so lange „O2“, wie es den Input „H“ erhält. Erhält es den Input „D“, wechselt es über in den Zustand S 2 , den Nachtzustand, und liefert „CO2“. Dieser EA kann für einige Zwecke, in der Schule zum Beispiel, eine hinreichend genaue und brauchbare Beschreibung der Photosynthese sein, für andere Zwecke, im Laborkontext, ist er es wahrscheinlich nicht. (Genaueres zur Photosynthese vgl. Czihak/Langer/Ziegler 1992:112ff.) Es ist also möglich und sinnvoll, intrinsische Prozesse in Systemen com­putational zu beschreiben, obwohl diese Systeme selbst kein Computer sind.

Die Church/Turing-Hypothese legt den folgenden Begriff der computationalen Beschrei­bung nahe: Jede Beschreibung mit Hilfe einer Turingmaschine oder mit Hilfe von Konzep­[Seite 59↓]ten, die denen der Turingmaschine im Sinne der Church/Turing-Hypothese äquivalent sind, ist eine computationale Beschreibung.

Am Beispiel des unsubtilen Photosynthese-EA wird spürbar, dass das Problem einer com­putationalen Beschreibung, wie das Problem jeder anderen Beschreibung auch, ein Pro­blem der angemessenen Beschreibung ist. Es gibt sehr viele verschiedene Konzepte für die computationale Beschreibung (vgl. Abschnitt 2.2.3). Welcher computationale Formalis­mus wäre für den und den Zweck der angemessenste? Wäre vielleicht eine nicht-compu­tationale Beschreibung angemessener, um den Sachverhalt für die gewünschten Zwecke bestmöglich wiederzugeben? Jeder Sachverhalt lässt sich auf verschiedene Art und Weise beschreiben, doch wenn sich die Beschreibenden auf bestimmte grundlegende Dinge geeinigt haben – z. B. dass sie zur Bezeichnung eines so und so gearteten Gases die Zeichenkette „O2“ wählen – sind die Beschreibungsmöglichkeiten nicht mehr beliebig, ähnlich wie bei der Situation des Ethnologen, in Beispiel 2.2.1, der einem anderen Ethnologen seinen EA und was er damit beschreibt, erklären will.

Um es noch einmal auf den Begriff des Computers zugespitzt zusammenzufassen: Tu­rings Unterscheidung zwischen Computer und Turingmaschine so gelesen, wie es oben geschehen ist, ergibt, dass der Computer sich dadurch von herkömmlichen Maschinen unterscheidet, dass er programmierbar ist – im praktisch bisher nie erreichten Idealfall, der Turing vorschwebte, universell programmierbar. Wenn eine herkömmliche Maschine für ihre gesamte Existenz einem einzigen herkömmlichen Schaltplan entspricht, so kann ein Computer im Laufe seiner Existenz vielen verschiedenen einer Turingmaschine äqui­valenten Schaltplänen entsprechen; aber zu genau einem Zeitpunkt immer nur einem. Darüber hinaus gibt es keine ontologische Besonderheit des Computers.

Man könnte also mit Turing sagen: Innerhalb der Klasse der Maschinen gibt es konven­tionelle Maschinen und Computer. Computer unterscheiden sich von den konventionellen Maschinen dadurch, dass sie (universal) programmierbar sind. Die Klasse der Maschinen insgesamt ist ebenfalls nur durch syntaktische Kategorien bestimmbar. Alle Maschinen entsprechen mit Hilfe von Zeichen und Regeln zur Produktion von Zeichenketten erstell­ten Schaltplänen. Erst wenn man eine konkrete Maschine oder auch eine Klasse von kon­kreten Maschinen definiert, erhalten sie eine Definition über gewisse physische Effekte. Ein Vergaser soll die physischen Effekte hervorbringen, die hervorzubringen ihm sein Schaltplan vorschreibt. Daher sollte man, um keinen Kategorienfehler zu begehen, wenn [Seite 60↓]man eine Klasse von konkreten Maschinen mit Computern vergleichen möchte, sie mit ei­ner Klasse von konkreten Computern vergleichen. Tut man dies, stellt sich heraus, dass eine Klasse von konkreten Computern, Computer mit einer konkreten Programmierung zu einem festgelegten Zeitpunkt, ebenfalls durch die Hervorbringung gewisser physischer Ef­fekte definiert ist. Die Klasse der mp3-Player soll diejenigen physischen Effekte hervor­bringen, die hervorzubringen ihm der mp3-Algorithmus vorschreibt.

In seinem in Abschnitt 3.1 schon einmal zitierten Einwand:

The classes of carburetors and thermostats are defined in terms of the production of cer­tain physical effects. That is why, for example, nobody says you can make carburetors out of pigeons. But the class of computers is defined syntactically in terms of the assignment of 0's and 1's. (Searle 1992: 207)

beachtet Searle diesen Punkt nicht. Ersetzt man im obigen Zitat „die Klasse der Compu­ter“ durch „die Klasse der mp3-Player“, so würde man nicht mehr in der Lage sein, viele vernünftige lebende Menschen zu benennen, die behaupten, man könne einen mp3-Play­er aus Tauben machen, da der mp3-Player durch die Zuschreibung von Einsen und Null­en definiert sei. Ersetzt man anders herum „die Klasse der Vergaser und Thermostate“ durch „die Klasse der herkömmlichen Maschinen“ so ergibt sich anders herum das gleiche Problem, denn bestimmt kann man Tauben auch so dressieren, dass ihr Verhalten im Ab­strakten dem Schaltplan irgendeiner beliebigen konventionellen Maschine entspricht. Dressiert man eine Taube zum Beispiel so, dass sie ein Häuflein Körner vom Boden ihres Käfigs auf eine höhere Etage ihres Käfigs transportiert, könnte man sagen, dass sie damit im Abstrakten der (Entwurfs-) Beschreibung eines Warenaufzugs entspricht. Hier zeigt sich ebenfalls, dass es bei der Beschreibung von Prozessen um ein Problem der ange­messenen Beschreibung geht. Auf diese Weise lässt sich auch ein konkreter handels­üblicher Computer, auf dem im Augenblick nur Photoshop installiert ist, von einem konkre­ten handelsüblichen Computer unterscheiden, auf dem im Augenblick nur das Wordstar-Programm läuft. Der Photoshop-Computer bringt diejenigen physischen Effekte hervor, die der Photoshop-Algorithmus vorschreibt, etwa die Benutzeroberfläche von Photoshop, und der Wordstar-Computer bringt diejenigen physischen Effekte hervor, die der Word­star-Algorithmus vorschreibt.

Computationale Beschreibungen sind – wie jede andere Beschreibungsart auch – rein syntaktisch, wenn man mit Hilfe dieser Beschreibungsart einen handelsüblichen Com­[Seite 61↓]puter beschreibt, so beschreibt man, wenn man es richtig macht, damit einen physischen Prozess, der dem Computer intrinsisch ist. Wenn jemand dem Bildschirm des Photoshop-Computers mit Hilfe einer computationalen Beschreibung die Benutzeroberfläche des Wordstar-Programms zuschreibt, dann hat er etwas falsch gemacht. Und dieser Fehler würde sich bei einer unabhängigen empirischen Überprüfung dieser Beschreibung fest­stellen lassen. Ein anderer würde diese Struktur bei Wiederholung des Vorgangs unter ansonsten gleichen Bedingungen auf diesem Bildschirm nicht noch einmal wiederfinden.

Die Korrektur der Vorstellung, dass die Wörter „Turingmaschine“ und „Computer“ ein und dasselbe bedeuten, hatte also zusammengefasst die folgenden für diese Diskussion relevanten Konsequenzen:

  1. Es gibt Prozesse, die einem physikalischen System intrinsisch sind und die für viele Zwecke angemessen computational beschreibbar sind.
  2. Nicht jedes physikalische System, das einen intrinsischen Prozess vollzieht, der angemessen computational beschreibbar ist, ist ein Computer.
  3. Dass die Syntax der Physik nicht intrinsisch ist, kann zugestanden werden. Aber mit Hilfe von Syntax können Prozesse beschrieben werden, die der Physik intrin­sisch sind.
  4. Das Problem der universellen Realisierbarkeit ist nicht mehr in der von Searle in­tendierten Form formulierbar. Falsche oder unangemessene computationale Be­schreibungen sind genau so identifizierbar wie jede andere falsche oder unan­gemessene Beschreibung auch.

Bei einer Anwendung dieser Ergebnisse auf die Fragestellungen des Kognitivismus lässt sich bemerken, dass sie durch die Korrektur des Verhältnisses zwischen Turingmaschine und Computer keineswegs völlig sinnlos geworden sind. Sie erfahren lediglich eine leichte Bedeutungsverschiebung. Die Frage: „Sind Sprachproduktion und Sprachverstehen com­putational?“ kann jetzt heißen: „Lassen sich Sprachproduktion und Sprachverstehen an­gemessen computational beschreiben?“ Und die Grundannahme „Das Gehirn ist ein Computer“ müsste etwas anders verstanden werden, als Searle das tut. Nicht ganz so wörtlich, vielmehr metaphorisch. Searle hat nämlich sehr Recht damit, wenn er sagt, dass der Computer, wie alle Maschinen, Eigenschaften hat, die nicht der Physik intrinsisch sind. Wenn alle menschlichen Beobachter verschwinden, ist niemand mehr da, der Com­puter als Computer auffasst und benutzt. Aber die Prozesse, auf die es den Kognitions­wissenschaftlern mit ihrer Computer – Gehirn Analogie anscheinend eigentlich ankommt, [Seite 62↓]sind ihm immer noch intrinsisch.

Vielleicht ist es ein Prinzip der Metaphernbildung durch Analogien, dass man mit der Übertragung eines Wortes die intrinsischen Eigenschaften von beobachterrelativen Ge­genständen und nicht-beobachterrelativen Gegenständen miteinander vergleicht. Unge­fähr so wie bei „Italien ist ein Stiefel.“ oder „Der Gardasee ist eine Badewanne.“ Wenn der Beobachter verschwindet, gibt es keine Stiefel und keine Badewannen mehr, aber die Ei­genschaften, die Italien zu einem Stiefel und den Gardasee zu einer Badewanne gemacht hätten, die gibt es nach wie vor. Die Eigenschaft des Gehirns, die eine Computer-Gehirn Analogie für Kognitionswissenschaftler besonders reizvoll machen könnte, ist das Faktum, dass die physischen Effekte, von denen wir zur Zeit annehmen, dass das Gehirn sie ver­ursache, auch in gewissem Sinne und in gewissem Maße veränderlich zu sein scheinen.

Diese Bedeutungsveränderungen rücken den Standpunkt des korrigierten Kognitivismus nah an den Standpunkt der von Searle selbst für vertretbar gehaltenen Schwachen KI, denn die Fragestellungen „Lassen sich Sprachproduktion und Sprachverstehen angemes­sen computational beschreiben?“ und „Sind Sprachproduktion und Sprachverstehen an­gemessen auf einem Computer simulierbar?“ kommen sich bedeutungsmäßig sehr nahe, und das Letztere ist eine Frage der Schwachen KI. Der einzige Unterschied zwischen Schwacher KI und Kognitivismus lag, wie in Abschnitt 2.1.1 gezeigt, in einer unterschied­lichen Formulierung der Church/Turing-Hypothese. Searles Kognitivismus formuliert die Church/Turing-Hypothese in den Begriffen der Turingmaschine und interpretiert die Tu­ringmaschine falsch. Searles Schwache KI formuliert die Church/Turing-Hypothese in den Begriffen des Computers und interpretiert den Computer richtig.

Searles Kognitivismus scheint also nichts anderes zu sein als eine Schwache KI mit ei­nem falschen Begriff der Turingmaschine und des Computers. Korrigiert man diese fal­schen Begriffe, dann verschwindet der Unterschied auch. Es kann an dieser Stelle natür­lich nicht ausgeschlossen werden, dass dieser Fehler tatsächlich mitunter in der Literatur bewusst oder unbewusst mit den beschriebenen fatalen Folgen gemacht wird. Aber da Searle selbst in der kognitionswissenschaftlichen Literatur keine Übereinstimmung bei den Definitionen finden konnte, ist es fraglich, warum er ihr ausgerechnet pauschal eine falsche Interpretation Turings klassischer Definition zuschreibt und damit pauschal der ge­samten computationalen Kognitionswissenschaft den naturwissenschaftlichen Status ab­erkennt.


[Seite 63↓]

3.4  Fazit: Das Problem der universellen Realisierbarkeit ist kein spezielles Problem der Kognitionswissenschaft

Searle und Putnam haben mit ihrem Vorwurf, dass der Kognitivismus und der Funktio­nalismus ein unlösbares Problem mit der universellen Realisierbarkeit haben, versucht herauszustellen, dass dieses Problem ein spezielles Problem dieser beiden Ansätze sei. Es lohne sich deswegen nicht, sie wissenschaftlich ernsthaft zu vertreten und ihre For­schungsprojekte weiter zu verfolgen.

Wenn die Analysen dieser Arbeit stimmen, dann bleibt von den Argumentationen von Put­nam und Searle dennoch etwas Positives zurück. Beide Argumentationen sind nicht völlig falsch. Bei Searle stimmt die Analyse, dass die Syntax der Physik nicht intrinsisch ist. Aus Putnams Beweis folgt immer noch für die Wissenschaft, dass es, wenn ein Forschungs­ansatz keine Hypothesen aufstellt, von denen sie die Bedingungen ihrer Falsifikation nen­nen kann, kein Kriterium liefert, eine Als-ob-Beschreibung von einer wirklichen, objektiven Beschreibung zu unterscheiden. Möglicherweise hat Putnam damit tatsächlich, bewusst oder unbewusst, einige im Sinne des Empirismus nicht ganz exakt wissenschaftliche An­sätze in Schwierigkeiten gebracht – vielleicht sind unter ihnen sogar einige Varianten des Funktionalismus.

Die Version des Problems der universellen Realisierbarkeit, die nach der vorliegenden Diskussion dieser beiden Argumentationen auf jeden Fall bestehen bleibt, ist ein altes universelles Problem der empirischen Wissenschaft. Man hatte immer schon die Schwie­rigkeit, dass Zeichen und ihre Syntax (als Regeln zur Produktion wohlgeformter Zeichen­ketten) nicht der Physik intrinsisch sind, sondern damit immer eine Zuschreibung von außen vorgenommen wird. Es passiert vermutlich immer wieder, dass Wissenschaftler Fehler bei der Zuschreibung von Strukturen machen, egal, ob sie eine computationale Beschreibungsmethode wählen oder nicht. Aber oft werden diese Fehler bei einer Über­prüfung der Ergebnisse gefunden, und das ist, wenn die empirische Wissenschaft über­haupt funktioniert, prinzipiell möglich.

Ein schönes Beispiel dafür, dass man mit jeder beliebigen Beschreibungsmethode jede beliebige Struktur, die mit dieser Beschreibungsmethode erfassbar ist, den Dingen zu­schreiben kann, es aber gleichzeitig auch lange schon Kriterien dafür gibt, ob damit eine intrinsische Struktur beschrieben wurde oder nicht, ist das vor etwas über hundert Jahren [Seite 64↓]erschienene Buch Mars des amerikanischen Astronomen Percival Lowell (Lowell 1985).

Darin beschreibt Lowell in liebevoller kartografischer Kleinarbeit „Kanäle“, die er durch jahrelange Beobachtung durch sein Fernrohr auf der Oberfläche des Mars „gefunden“ hat­te. Seine Karten zeigen merkwürdige, beinahe unheimliche Muster (aus: Lowell 1895):

Abb. 3.2: Dem Mars von außen zugeschriebene Strukturen

Die aufwendige Gestaltung seiner Karten und das umfängliche Buch, das er dazu ge­schrieben hat, lassen ahnen, dass Lowell, der ein angesehener Astronom seiner Zeit ge­wesen ist, es sehr ernst damit meinte.

Lowell hat daran geglaubt, dass die Strukturen, die er auf dem Mars gesehen hatte, auch wirklich existieren. Er muss es sehr bedauert haben, dass niemand seine Forschungser­gebnisse jemals bestätigen konnte. Niemand anderes außer Lowell war in der Lage, ebenfalls diese Muster auf dem Mars zu sehen. Damit waren seine Ergebnisse empirisch zweifelhaft. Mit dem Wissen, dass man jede beliebige Struktur auf ein Bild des Mars zeichnen kann, wurden Lowells Kollegen zu Recht skeptisch.

Erst heute, hundert Jahre später, hat sich der Grund für Lowells Zuschreibungen aufge­klärt6. Er hatte sein Fernglas, mit dem er die Planeten beobachtete, umkonstruiert, um sie besser sehen zu können. Er verengte den Durchmesser der Linse von 60 auf 7,5 cm. Wodurch sich ungewollt ein damals nicht bekannter Schatteneffekt ergab. Beim Blick [Seite 65↓]durch Lowells Fernglas sah man die Strukturen seines Auges, die Regenbogenhaut der Iris, die Blutadern der Retina als schattenhafte Projektion auf dem beobachteten Gegen­stand. Es ist klar, dass ein anderer, der durch Lowells Fernglas sah, andere Strukturen auf dem Mars zu sehen bekam, denn er schaute nicht mit Lowells Augen. Mit einem an­deren nicht auf diese Weise manipulierten Fernglas war der gesamte Effekt, auf dem Lowells empirischer Fehler beruht, natürlich nicht zu erzielen.

Ein aktuellerer Hinweis dafür, dass es sich bei der universellen Realisierbarkeit als univer­seller Zuschreibbarkeit von Zeichen um ein altes allgemeines Problem der empirischen Wissenschaft handelt, das sie mit Hilfe von Forschungsmethoden schon seit längerem in den Griff zu bekommen versucht und meist in den Griff bekommt, könnte ein Dialog in PSYCHE-B sein, in dem praktizierende Kognitionswissenschaftler relativ gelassen rea­gierten, als sie darauf angesprochen wurden.

PSYCHE-B ist ein e-Mail orientiertes Diskussionsforum mit öffentlichem Internetarchiv an der Universität von Houston (USA), in dem sich internationale Kognitionswissenschaftler aus dem Kernbereich und verschiedenen Grenzregionen der Disziplin sowie einige ihrer Gegner über Ergebnisse und Probleme der biologisch/psychologisch orientierten For­schungen über Geist und Gehirn auseinandersetzen. Als es darin im Jahr 2000 kurzzeitig um den Begriff der Computation ging, stellte der Philosoph Michael Schmitz eher neben­bei die folgenden Fragen:

It seems to me that in Eric Thomson's usage, the notion of computation has already evol­ved so far that it has lost a very distinct meaning. If any "transformation of a set of inputs to a set of outputs", that is the mediation of a response to a stimulus, is to be called a "computation", what is distinctive about a computational approach to neuroscience? Doesn't this turn any approach to cognitive neuroscience into a computational approach by definition? And why would, given this interpretation of computation, not also carbu­retors or trees or indeed, most or even all objects be carrying out computations? What are the constraints on the notions of "input", "output" and "transformation" that are supposed to prevent this? (Schmitz 2000)

Schmitz fragt nach Constraints – Einschränkungen – des Begriffs der Computation, die dazu geeignet sein könnten, das Problem der universellen Realisierbarkeit zu verhindern. Der angesprochene Eric Thompson, ein Vertreter der computationalen Neurowissen­schaft, antwortet:


[Seite 66↓]

There are none, but this isn't a problem unique to my definition, but a classical problem which traditional computational views are also stuck with. There is a paper by Chalmers (I think) called, "Does a rock implement every computation?" [Gemeint ist Chalmers 1996, TG] which tries to address this problem. I think it's best to ignore the "problem" and focus on specific types of computations that interest us as neuroscientists. As a computational neuroscientist, I think that understanding the computations being performed by brains are especially interesting as they are what ultimately cause behavior (ceteris paribus). I am quite interested in explaining behavior of animals with nervous systems, so I find this particular class of computations fun to study. (Thompson 2000)

Thompson bestreitet zu Recht, dass er Constraints für seinen Begriff der Computation braucht. Das Problem, dass man jedem beliebigen Gegenstand auf der Zeichenebene jede beliebige Computation zuschreiben kann, sei ein allgemeines Problem von compu­tationalen Ansätzen und nicht ein spezielles seines Ansatzes. Man könnte genau so sa­gen, dass das Problem, dass man jede beliebige Struktur auf jeden beliebigen Gegen­stand zeichnen kann, der dafür groß genug ist, kein spezielles Problem von Lowells An­satz war; jeder Wissenschaftler, der mit Karten arbeitetet, hat es. Thompson insistiert da­rauf, dass er präzise Vorstellungen davon hat, welche Strukturen er in welchen Systemen mit seinen computationalen Mitteln beschreiben will, und man darf annehmen, dass er auch die Umstände angeben kann, in denen eine von ihm gelieferte Beschreibung falsi­fiziert ist. Thompson vertraut seinen empirischen Methoden derart, dass er der Meinung ist, dieses allgemeine philosophische Problem ignorieren zu können.

Eine zweite Antwort auf Schmitz’ Frage kam von dem Wissenschaftstheoretiker Alfredo Pereira und zielte auf einen Aspekt , der auch hier angesprochen wurde: dass es bei der Wahl der Beschreibungsmethoden um die Angemessenheit geht. (vgl. Abschnitt 3.3) Es scheint einen Pluralismus der Methoden zu geben, es gibt nicht die eine alleingültige Be­schreibung, und je nach Zweck ist die eine oder die andere die angemessenere:

Many informational processes in nature can surely be well described by functionals, however it is possible that other processes are better described as non-functional relations. In this case there would be room in nature for both computationalism and non-computational dynamicism. The problem with non-functional relations is the difficulty to describe such processes mathematically, since so many useful tools are based on the notion of a functional relation. (Pereira 2000)

Computationale Beschreibungen sind für Pereira, in Übereinstimmung mit dem in dieser [Seite 67↓]Arbeit vorgeschlagenen Begriff, alle Beschreibungen mit Hilfe von Funktionen (und mit Funktionalen = Funktionen von Funktionen). Und Pereira, der anscheinend auch mehr der computationalen Methode zugeneigt ist, räumt ein, dass er sich Forschungsgegenstände, vielleicht sogar innerhalb der Kognitionswissenschaft, vorstellen könnte, die nicht mit com­putationalen Mitteln angemessen zu bearbeiten sind. Dass man mit seiner Beschreibung, egal welche Methode man gewählt hat, manchmal einer identifizierbaren Projektion aufge­sessen sein könnte, ist universelles Problem der empirischen Wissenschaften, und so alt und bekannt, dass man heute offensichtlich wenige praktische Forscher oder Forscher­innen der empirischen Einzelwissenschaften aus der Ruhe bringt, wenn man es im Allge­meinen anspricht.


Fußnoten und Endnoten

1 Die eigens für diese philosophische Debatte ins Deutsche eingeführten Anglizismen „Computa­tion“ und „computational“ sind für den Zusammenhang dieser Arbeit sehr ungünstig. Die ontolo­gische Vermischung von Computation und Computer passiert leicht, wenn sich schon die ent­sprechenden Wörter lautlich so sehr nahe kommen. Weil hier aber der Entschluss gefasst wurde, keine eigenen Übersetzungen der englischen Texte anzubieten, sondern sich an die Begriffe zu halten, die es in der deutschen Literatur nun einmal gibt, sei eine Erklärung des Übersetzers von Searles Rediscovery of the Mind (Searle 1992) für seine Entscheidung, Anglizismen zu prägen, zitiert: „Die englischen Termini ,computation’ und ,computational’ werden hier und im folgenden mit ,Computation’ bzw. ,computational’ wiedergegeben. Dieser häßliche Neologismus sei kurz gerechtfertigt. Er ist deshalb so schwer vermeidbar, weil dieser angelsächsische Fach terminus in den Diskussionen der Philosophen, Psychologen, Linguisten usw. sehr schillernd verwandt wird. Ursprünglich heißt ,computation’ natürlich nichts anderes als ,Rechnung’ oder ,Berechnung’; schon dazu gibt es übrigens im Deutschen kein gebräuchliches Adjek tiv. Nun ist es aber ein sehr besonderer Sinn von Rechnen, um den es da geht, wenn von ,computational’ die Rede ist, denn um das Addieren, Subtrahieren, Multiplizieren und dergleichen geht es dabei nicht. Vielmehr geht es ganz allgemein um das Operieren mit Symbolen in der Manier eines Computers. Dafür ist aber im Deutschen kein Wort verfügbar. Darüber hinaus haben sich im angelsächsischen Fachjargon [Seite 70↓] auch noch viele Zusammensetzungen mit dem Adjektiv ,computational’ eingebürgert, für die es im Deutschen keine sprachlich einheitliche Übersetzung gibt; manchmal würde ,symbolmani­pulativ’ ganz gut passen, manchmal ,algorithmisch’, manchmal ,computerwissen schaftlich’, manchmal ,computerartig’ und manchmal noch anderes. Tauchte in der deutschen Übersetzung jedes Mal ein anderes Wort auf, wo im amerikanischen Text immer dasselbe Wort steht, dann wäre so mancher Argumentationsschritt, der sich im Original sehr glatt und suggestiv ausnimmt, in der Übersetzung holprig und dubios. Deshalb also der neologistische Notbehelf ,Computa­tion’/,computational’.“ (H. P. Gavagai in Searle 1993: 275) Eigentlich ist nichts daran auszu­setzen, wenn holprige und dubiose Argumentationen auch holprig und dubios klingen, aber na­türlich hat Gavagai Recht, wenn er versucht, Searles Text so glatt wie möglich ins Deutsche zu bringen. Für den vorliegenden Text aber gilt grundsätzlich, dass, wenn kein Zitat oder Referat vorliegt, mit „Computation“ das Operieren mit Symbolen in der Manier eines Endlichen Automaten gemeint ist und niemals, an keiner Stelle, in der Manier eines Computers, denn genau das ist die Verwirrung, die aufgelöst werden soll.

2 Das Lemma besagt, dass es dem Prinzip der Kontinuität widerspricht, wenn ein gleichgroßes System S’ innerhalb eines Systems S definierbar ist, das immer den Zustand annimmt, den S eine Zeiteinheit vorher hatte. Dieses Lemma braucht Putnam in seinem Beweis um zu zeigen, dass Zustand A den Übergang zu Zustand B tatsächlich kausal verursacht. Nur wenn ausgeschlossen ist, dass das System S gleichzeitig als S’ wieder den Zustand realisiert, den es eigentlich gerade verlassen haben sollte, ist seine Behauptung über kausale Verursachung möglich. Denn andern­falls hätte man nutzlose Aussagen der Form: „S geht von Zustand A über in Zustand B und bleibt in Zustand A “. In Chrisleys Aufsatz zum Problem der universellen Realisierbarkeit (Chrisley 1994) finden sich einige plausible Gedanken darüber, weshalb Putnams Begriff der Kausalität ohnehin ein zu schwacher ist.

3 Diese seltsame Terminologie mit „intrinsisch“ und „Als-ob“, die in dieser Arbeit von Putnam und Searle übernommen wurde, um eine halbwegs immanente Darstellung und Kritik zu erreichen, ist bestimmt nicht die optimalste und wünschenswerteste. Man könnte statt „intrinsisch“ auch einfach „objektiv“ oder „real“ sagen.

4 Sollte das Wort „Geräusch“ noch immer als zu beobachterrelativ erscheinen, wäre das Gemeinte noch deutlicher wiedergegeben mit dem Satz: „Das mechanische Klavier hört, wenn alle Zuhörer auf einmal verschwinden, sofort damit auf Musik zu spielen, aber es hört nicht sofort damit auf, die und die Schwingungen zu erzeugen.“ Eine Argumentation, worin unterschiedliche Beschreibungen eine ähnlich gelagerte wichtige Rolle spielen, findet sich im Übrigen schon seit längerem in der Handlungstheorie. Zum Beispiel, wenn es um die Beschreibung einer Handlung als absichtlich oder unabsichtlich geht, in G.E.M. Anscobes Absicht (Anscobe 1986) und in D. Davidsons Hand­lungen, Ursachen, Gründe (Davidson 1990), der schreibt: „Ich knipse den Schalter an, mache das Licht an und beleuchte das Zimmer. Ohne es zu wissen, alarmiere ich einen Einbrecher, der merkt, daß ich zu Hause bin. Hier brauche ich keine vier Dinge getan zu haben, sondern nur eines, von [Seite 72↓]dem vier Beschreibungen gegeben worden sind.“ (Davidson 1990: 21) Und nicht unter jeder dieser Beschreibungen ist die Handlung absichtlich.

5 mp3 ist zurzeit eines der gebräuchlichsten Formate für Audio-, insbes. Musikdateien. mp3 ist die Abkürzung für MPEG Audio Layer-3. MPEG steht für Moving Picture Experts Group. Diese Organisation entwickelt Standards, um Töne und bewegte Bilder und deren Kombination zu berechnen, zu komprimieren und sie zu codieren bzw. zu decodieren. Layer-3 ist die Bezeichnung für die Audio-Komponente dieser Verschlüsselung.

6 In der Frankfurter Allgemeinen Zeitung vom 02. 10. 2002 fand sich die folgende Notiz: „Für eine merkwürdige Struktur auf der Oberfläche der Venus, über die der amerikanische Astronom Percival Lowell vor hundert Jahren berichtet hat, scheint jetzt eine Erklärung gefunden worden zu sein. Lowell, der damals viele Jahre damit zubrachte, mit seinem 60-Zentimeter-Teleskop bei Flag­staff/Arizona die angeblichen Kanäle auf dem Mars zu kartieren, hatte auch auf der Venus ein Sys­tem dünner, dunkler Linien beobachtet. Das Muster scheint seinen Aussagen zufolge den Spei­chen eines Rades geähnelt zu haben, dessen Nabe immer zur Erde wies. Außer ihm hat es nie­mand gesehen. Der Grund dürfte in einer „Manipulation“ seines Fernrohrs zu finden sein. Lowell hat die Öffnung des Instruments für seine Beobachtungen wegen der Helligkeit der Venus künstlich von 60 auf 7,5 Zentimeter oder weniger verkleinert, wobei die Brennweite erhalten blieb. Das Ver­fahren regte Augenspezialisten, die eine entsprechende Darstellung in der Zeitschrift „Sky and Te­lescope“ lasen, zum Nachdenken an. Dabei fanden sie die wahrscheinlichste Lösung des Rätsels. Die Venus, die Lowell sah, ähnelt einer hellen Strahlungsquelle, die man durch das enge Loch in einer dicht vor dem Auge gehaltenen Platte sieht. Vermutlich hat der Astronom deshalb wie beim Blick durch ein Ophthalmoskop die Schatten der Blutadern und anderer Strukturen seiner Retina wahrgenommen und sie für ein Muster auf der Oberfläche des Planeten gehalten.“ Da sich Lowells Skizzen von Venus, Merkur und Mars sehr auffällig ähneln, liegt es nahe, dass ihm dieser Fehler auch schon bei der Kartografie des Mars unterlaufen ist.



© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.
DiML DTD Version 3.0Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML-Version erstellt am:
24.11.2003