[Seite 8↓]

2  Grundlagen

Das Problem der universellen Realisierbarkeit steckt tief in einer voraussetzungsreichen philosophischen Debatte. Besonders zwei theoretische Stränge laufen hier zusammen. Zum einen ein interdisziplinärer Forschungsansatz namens Kognitionswissenschaft und zum anderen ein abstraktes Konzept aus der Theorie der formalen Sprachen und Berech­enbarkeit, der Endliche Automat (EA). Man kann die philosophische Problematik der De­batte in erster Annäherung so umreißen: Die Kognitionswissenschaft hat das Konzept des Endlichen Automaten als zentrales Axiom ihrer Grundannahmen importiert, und ihre Kriti­ker, Putnam und Searle, behaupten nun, dass sie sich damit das Problem der univer­sellen Realisierbarkeit eingehandelt hat. Es wird hier also zuerst zu untersuchen sein, was es bedeutet, das Konzept des EA in die Kognitionswissenschaft zu importieren. In den fol­genden beiden Abschnitten, 2.1 und 2.2, werden die Kognitionswissenschaft und das Konzept des Endlichen Automaten – mit Blick auf die spätere Analyse der Argumentation­en bei Putnam und Searle saparat besprochen

2.1 Kognitionswissenschaft

Searle richtet sich mit seinem Argument der universellen Realisierbarkeit ausdrücklich gegen das Forschungsprogramm der Kognitionswissenschaft – cognitive science. Er schreibt in einem Kapitel in Die Wiederentdeckung des Geistes, das er programmatisch Die Kritik der kognitiven Vernunft (Searle 1993: 218-249)1 nennt:

Über mehr als ein Jahrzehnt hinweg [...] war ich ein praktizierender »Kognitionswissen­schaftler«. Während dieser Zeit habe ich viele Fortschritte und wertvolle Arbeit auf diesem Gebiet gesehen. Als Disziplin leidet die Kognitionswissenschaft jedoch daran, daß einige ihrer hochgeschätzten Grundannahmen falsch sind. (Searle 1993: 218)

Auch bei Putnam schwingt die Vermutung etwas zurückhaltender mit, dass seine Argu­mentation die gesamte Kognitionswissenschaft betreffen könnte. Er schreibt im Vorwort zu Repräsentation und Realität (Putnam 1999):

In diesem Buch werde ich zu zeigen versuchen, daß die Computeranalogie – man mag sie die »Computeranalogie des Geistes«, die »kalkülmäßige Auffassung des Geistes«, »Funktionalismus« oder sonst wie nennen – eben doch nicht die Frage beantwortet, die wir Philosophen (ebenso wie viele Kognitionswissenschaftler) eigentlich beantworten [Seite 9↓]wollen, nämlich die Frage: »Was ist das Wesen der mentalen Zustände?«
(Putnam 1999: 11)

Es geht beiden Autoren um die Grundannahmen der Kognitionswissenschaften. Wenn man allerdings aktuelle Einführungen in die Kognitionswissenschaft liest, zum Beispiel Max Urchs’ Maschine, Körper, Geist (Urchs 2002), erfährt man, dass dieser junge For­schungsansatz noch einigermaßen weit davon entfernt ist, überhaupt eine allgemein ak­zeptierte Beschreibung seiner Grundannahmen oder Ziele zu besitzen. Man stößt auf ab­sichtlich vorsichtig formulierte, allgemein gehaltene Explikationsversuche wie:

Ziel der Kognitionswissenschaft ist es, die intelligentem Handeln zugrunde liegenden Me­chanismen zu verstehen. (Urchs 2002: 9)

Kognitionswissenschaft ist die interdisziplinäre Wissenschaftsdisziplin, die den Geist als ein informationsverarbeitendes System untersucht. (Urchs 2002: 14)

Allein eine Liste der an der Kognitionswissenschaft beteiligten wissenschaftlichen Diszipli­nen lässt vermuten, dass eine einfache, klare und widerspruchsfreie begriffliche Bestim­mung des Faches überhaupt schwierig werden könnte. Urchs zählt die untenstehenden zehn Disziplinen auf, wobei er die ersten fünf zu Kernbereichen und die anderen zu Rand­gebieten erklärt (vgl. Urchs 2002: 10f.):


[Seite 10↓]

Und noch immer, sagt Urchs, sei kein Ende dieser Liste in Sicht. Ein Forschungsprojekt, das derartig viele Disziplinen in sich vereinen will, dürfte gut daran tun, bei seiner Begriffs­bestimmung einiges in der Schwebe zu lassen, um das gesamte Projekt nicht von vorn­herein in einem einzigen Metadiskurs um eindeutig explizierte gemeinsame Grundannah­men aufzureiben. Die beteiligten Betrachtungsebenen, Methoden und Begrifflichkeiten sind zu unterschiedlich. Es hat sich für die Kognitionswissenschaft schließlich als frucht­bar herausgestellt, mit einem Minimum an gemeinsamer Zielsetzung und vielleicht höchs­tens einigen Familienähnlichkeiten in den Grundannahmen zu arbeiten.

Searle ist offensichtlich selbst von den vielen Erfolgen angetan, die er bisher auf diesem Gebiet beobachten konnte. Aber leider scheinen ihm einige ihrer impliziten Grundannah­men falsch zu sein – für das weitere Vorwärtskommen der Sache hinderlich. Er beschwert sich in einigermaßen polemischem Ton darüber, dass in kognitionswissenschaftlichen Publikationen kein Versuch gemacht würde, die gemeinsamen Grundannahmen endlich, nachträglich, auf den Tisch zu legen und eine fächerübergreifende Diskussion darüber zu beginnen.

Die übliche Vorgehensweise in diesen Büchern und Artikeln besteht darin, ein paar Be­merkungen über Einsen und Nullen zu machen, die Church-Turing-These populärwissen­schaftlich zusammenzufassen und sich dann faszinierenderen Dingen (wie den Erfolgen und Fehlschlägen mit Computern) zuzuwenden. (Searle 1993: 226)

Also benennt Searle die Grundannahmen der, wie er sie nennt, Standard-Kognitions­wissenschaft – mainstream cognitive science – kurzerhand selbst, um sie hinterher zu kritisieren. Mit dem Argument der universellen Realisierbarkeit hat er es dabei speziell auf einen Standpunkt abgesehen, den er Kognitivismus – cognitivism – nennt. In Abschnitt 2.1.1 werden Searles Herleitung des Kognitivismus und die von ihm explizierten Grund­annahmen dieser Disziplin besprochen.

Bei Putnam zielt das Argument der universellen Realisierbarkeit in eine ähnliche Rich­tung, aber er hat damit, präziser, einen bestimmten Ansatz innerhalb der Kognitions­wissenschaften im Auge, den er einige Jahre vorher selbst mit entwickelt hatte: den Funktionalismus. Dieser Ansatz hat verschiedene real existierende Vertreter, die seine Grundannahmen explizit ausgearbeitet haben, sodass man die Darstellung des von Put­nam kritisierten Standpunkts nicht ausschließlich Putnam selbst überlassen muss. Der grundlegende Überblick über Putnams, und nicht nur Putnams, Funktionalismus in Ab­[Seite 11↓]schnitt 2.1.2 folgt neben Putnam (Putnam 1975a-e und 1982) im Wesentlichen Ned Block (Block 1980a, 1980b, 1990, 1995 und 2001) sowie den Arbeiten von David Armstrong, Jaegwon Kim und David Lewis (Armstrong 1980, Kim 1980, Lewis 1980).

2.1.1 Searles Kognitivismus

Das Herz der Kognitionswissenschaften ist nach Searle die so genannte Künstliche Intelli­genz (KI) – Artificial Intelligence (AI). Und das Kritisieren von Ansätzen der KI hat bei Searle eine längere Tradition. Um bei seinen KI-skeptischen Argumentationen den be­grifflichen Überblick zu behalten, teilt er die Sichtweisen der KI in drei Bereiche ein:

I call the view that all there is to having a mind is having a program, Strong AI, the view that brain processes (and mental processes) can be simulated computationally, Weak AI, and the view that the brain is a digital computer, cognitivism. (Searle 1992: 201f.)

Diese Unterscheidung in a) Schwache KI, b) Starke KI und c) Kognitivismus lässt sich am besten im Hinblick auf die Unterschiede in Searles Argumentation für bzw. gegen diese Standpunkte verstehen:

a)Schwache KI
Den Standpunkt der Schwachen KI, die mentalen Prozesse, und zwar tatsächlich sämt­liche mentalen Prozesse, könne man auf einem digitalen Computer simulieren, findet Searle vertretbar. Die Church/Turing-Hypothese, die er hier Churchs These nennt, be­stätigt Searle, dass man alles auf einem digitalen Computer simulie­ren kann, was sich als präzise Abfolge von Schritten charakterisieren lässt:

[G]iven Church’s thesis that anything that can be given a precise enough characterization as a set of steps can be simulated on a digital computer, it follows trivially that the question [“Can the operations of the brain be simulated on a digital computer?”] has an affirmative answer. (vgl. Searle 1992: 200)

Mentale Prozesse ließen sich in diesem Sinne genau in der gleichen Weise auf einem digitalen Computer simulieren, wie sich darauf Wetterlagen, Erdbeben, Börsenbewe­gungen, Photosynthese, die Prozesse am synaptischen Spalt oder ähnliche präzise Ab­folgen von Schritten simulieren lassen. Diese Art von Simulation empfindet Searle als be­wusstseinsphilosophisch harmlos. Niemand, schreibt er, käme auf die Idee zu sagen, [Seite 12↓]allein schon weil man die Photosynthese auf einem digitalen Computer simulieren kann, ist die Photosynthese ein Computerprogramm und ein Blatt ein Computer, oder allein schon weil man Erdbeben auf einem Computer simulieren kann, sind Erdbeben ein Com­puterprogramm und die Erde ein Computer usw. Die Photosynthese eines Blattes ließe sich leicht von einer Computer-Photosynthese unterscheiden. Zum Beispiel so: Die Photo­synthese des Blattes produziert Sauerstoff als Output, die des Computers produziert die Formel für Sauerstoff, die Zeichenkette „O2“, als Output. (Dies ist nur die nicht sehr subtile Andeutung einer Möglichkeit von vielen, Photosynthese auf einem digitalen Computer zu simulieren.) Der Stoff der Photosynthese im Blatt ist grün und heißt Chlorophyll, der Stoff der Photosynthese im Computer hat keine besondere Farbe und heißt Eingabealphabet und Überführungsfunktion. Es gibt Kriterien, mit denen man die Photosynthese im Blatt von dieser Photosynthesesimulation im Computer unterscheiden kann. Simulation (Com­puter-Photosynthese) und Simuliertes (Blatt-Photosynthese) sind verschieden. Das ist für Searle auch bei der Simulation von mentalen Prozessen auf einem digitalen Computer der Fall.

Man könnte hier u. a. einwenden, dass es durchaus Fälle von Simulation gibt, bei denen es schwer fällt, ein sinnvolles Kriterium anzugeben, das sie vom Simulierten unterscheid­bar macht. Wie simuliert man beispielsweise eine Pantomime, ohne Pantomime zu ma­chen? (vgl. Urchs 2002: 82) Wie simuliert man Träumen auf einem digitalen Computer, ohne dass der digitale Computer träumt? Sind die Sätze: „Der Computer macht keine Photosynthese, er simuliert sie nur“ und „Der Computer träumt nicht, er simuliert es nur“ gleichermaßen sinnvoll? Um diesen Einwand zu entkräften und die letzte Frage mit Ja zu beantworten, braucht Searle ein Argument, das zeigt, weshalb die Simulation von menta­len Prozessen nicht eine Simulation der Pantomimesorte ist. Ein reductio ad absurdum Argument, das man aus seinem Text herauslesen kann und das für diese Arbeit relevant ist, lautet: Es muss einen Unterschied zwischen dem mentalen Prozess und seiner Simu­lation auf einem digitalen Computer geben, denn die Ansicht, dass es keinen gibt, führt zur Starken KI, wenn nicht gar zum Kognitivismus; – und diese beiden Standpunkte hält Searle für falsch bzw. im Fall des Kognitivismus tatsächlich für absurd.

b)Starke KI
Bei seiner Argumentation gegen das, was er Starke KI nennt, hat Searle das Verhältnis zwischen Semantik und Syntax im Auge. Starke KI sei die Ansicht: „Einen Geist haben heißt ein Programm zu haben, und mehr ist am Geist nicht dran.“ (Searle 1993: 223) Um [Seite 13↓]Geist zu haben, reicht es für Searle aber nicht aus, ein Programm zu haben. Programme, sagt er, sind rein syntaktischer Natur, und das Semantische ist dem Syntaktischen nicht intrinsisch. Um Geist zu haben, braucht es aber ein Verständnis der Semantik, d. h. der Bedeutung dessen, was mit den Zeichen transportiert wird.

Das Argument, mit dem er zu beweisen versucht, dass die Semantik nicht der Syntax intrinsisch sei, ist das inzwischen sehr berühmte Chinese-Room-Argument. Wenn je­mand, der kein Chinesisch versteht, so das Argument, auf rein syntaktischer Ebene chine­sische Zeichen so verarbeitet, dass man diesen Prozess nicht vom normalen Sprachge­brauch eines chinesischen Muttersprachlers unterscheiden kann – was anscheinend funk­tioniert, und sei es nur ‚for the sake of the argument’ –, wird er dennoch nie zu einem be­wussten Verständnis dieser Zeichen gelangen. Zur Illustration dieses Arguments stellt Searle ein Gedankenexperiment an: Ein Mann, sagen wir ein Deutscher, der kein einziges chinesisches Zeichen versteht, es auch nicht von den Zeichen anderer ostasiatischer Sprachen unterscheiden kann, befindet sich allein in einem Zimmer. Durch eine Klappe erhält er als Input einen Zettel mit für ihn unverständlichen, chinesisch anmutenden, ost­asiatischen Zeichen darauf. Er hat in seinem Zimmer nur ein syntaktisches Wörterbuch, worin in seiner Muttersprache Regeln stehen, die ihm vorschreiben, wie er die Zeichen auf dem Zettel mit anderen Zeichen in Beziehung setzen soll, etwa so2:

Wenn Sie

lesen, dann schreiben Sie bitte

Das Ergebnis gibt er auf einem anderen Zettel als Output wieder durch die Klappe aus dem Zimmer heraus. Wenn man annimmt, so Searle, dass auf dem ersten Zettel, dem Input, „Fragen“ und auf dem zweiten Zettel, dem Output, „Antworten“ stehen, dann wäre leicht einzusehen, dass jeder, der diese Zeichen lesen und verstehen kann, die Antworten, die aus diesem Mann-im-Zimmer-System herauskommen, als korrekte Antworten einer existierenden natürlichen Spra­che erkennen würde. Gleichzeitig sei aber völlig klar, dass der Deutsche in dem Zim­mer auf diese Weise nie ein Wort dieser Sprache zu verstehen lernt, wie viele solcher formalen Operationen er auch durchführen mag. (vgl. hierzu Searle 1980. Einen recht guten, im Internet zugänglichen Überblick über die Debatte rund um das Chinese-Room-Argument liefert Hauser 1993.)


[Seite 14↓]

Das Chinese-Room-Argument ist nicht das Thema dieser Arbeit und kann hier nicht um­fassend besprochen werden, es sei aber darauf hingewiesen, dass einige Gegenargu­mente, die in der Fachliteratur diskutiert werden, sehr plausibel zu sein scheinen. Beson­ders sei der so genannte System-Einwand genannt, der besagt, dass Searle die Aufmerk­samkeit des Lesers zu stark auf den Mann im Zimmer lenkt, sodass dabei leicht überseh­en wird, dass sich das Mann-im-Zimmer-System als Ganzes doch frappant so verhält, wie etwas, dem man ein normales Sprachverstehen und Sprachbenutzen zuschreiben sollte. Und diese Übertragungsebene wäre einer Computeranalogie zudem die angemessenere. Man könnte nun, dem Bild schlicht folgend, in einer Art Chinese-Head-Argument das ge­samte Searle’sche Chinesisch-Zimmer in den Kopf eines Menschen verlegen – im Rah­men solcher leicht verstiegenen Gedankenexperimente dürfte so etwas gestattet sein – und nach diesem Schritt, wenn man ihn mitgeht, hätte man es sehr schwer abzustreiten, dass der Mensch mit dem Chinesisch-Zimmer im Kopf in ganz normalem Sinn Chinesisch kann. (vgl. hierzu auch Block 1995: Abschnitt 4, und Urchs 2002: 125f.) Hier läuft wie in a) die Schwierigkeit darauf hinaus, ein Kriterium anzugeben, das die Simulation vom Simu­lierten unterscheidet.

c)Kognitivismus
Bei seiner Argumentation gegen das, was er Kognitivismus nennt, geht es Searle um das Verhältnis zwischen Syntax und Physik. Die Argumentationsebene ist gegenüber b) ge­wissermaßen um eine Stufe der Hierarchie Semantisches → Syntaktisches → Physisches tiefer gelegt worden. Kognitivismus ist nach Searle „die Auffassung, das Gehirn sei ein digitaler Computer“ (Searle 1993: 223), und sein Vorwurf gegen diese Auffassung ist formal ganz ähnlich, wie der, den er der Starken KI macht. Das Syntaktische, argumen­tiert Searle, ist dem Physischen nicht intrinsisch. Computer seien nun aber per definition­em syntaktische, symbolverarbeitende Maschinen und Gehirne demgegenüber rein physi­sche Objekte in der Welt. Unternimmt man den Versuch, Gehirne ebenfalls als syntakti­sche, symbolverarbeitende Maschinen aufzufassen, und zwar im absolut wörtlichen Sinne, dann führt das für Searle zu absurden Konsequenzen: Man könne dann mit genau dem gleichen Recht jedes beliebige andere Objekt in der Welt als syntaktische, symbol­verarbeitende Maschine auffassen. Wände, Tische, Steine, Blumentöpfe und immer so weiter, jedes beliebige materielle Ding. Die Information, dass das Gehirn ein digitaler Computer ist, würde damit nutzlos, ohne interessante Aussage, da auf einmal schlicht und einfach alles ein digitaler Computer wäre. Die Ansicht, dass das Gehirn syntaktische Sym­bolmanipulation realisiert – um es noch einmal prozessual zu fassen –, führt für Searle dazu, zu behaupten, dass jedes beliebige Objekt in der Welt jede beliebige syntaktische [Seite 15↓]Symbolverarbeitung realisiert. Symbolverarbeitung ist nichts intrinsisch Physisches, son­dern immer eine – beliebige – Zuordnung von außerhalb; – universell realisierbar im dem Sinne, dass sie jedem beliebigen Gegenstand beliebig zuzuordnen sei.

Das Argument, mit dem Searle begründet, warum Computer per definitionem syntak­tische, symbolverarbeitende Maschinen und syntaktische Symbolmanipulation universell realisierbar seien, ist Gegenstand der vorliegenden Arbeit. Es wird in Abschnitt 3 detailliert behandelt. Zuvor sollte allerdings noch geklärt werden, was genau – nach Searle – die Annahmen des Kognitivismus sind, die zum Problem der universellen Realisierbarkeit füh­ren. Er fasst sie in einem zentralen Abschnitt von The Rediscovery of the Mind (Searle 1992) wie folgt zusammen, wobei zu beachten ist, dass er hier aus dem Mund der Kogniti­visten spricht, um ihren Standpunkt zunächst so stark wie möglich zu begründen. Im Ori­ginaltext ist diese Passage ein wenig eingerückt gesetzt, damit auch grafisch deutlich wird, dass hier nicht Searle, sondern sein hypothetischer Gegner im Plural spricht. Er nennt sie The Primal Story of Cognitivism, Die Urgeschichte des Kognitivismus :

We begin with two results in mathematical logic, the Church-Turing thesis and Turing's theorem. For our purposes, the Church-Turing thesis states that for any algorithm there is some Turing machine that can implement that algorithm. Turing's thesis says that there is a universal Turing machine that can simulate any Turing machine. Now if we put these two together, we have the result that a universal Turing machine can implement any algorithm whatever. […] It is clear that at least some human mental abilities are algo­rithmic. For example, I can consciously do long division by going through the steps of an algorithm for solving long-division problems. It is furthermore a consequence of the Church-Turing thesis and Turing's theorem that anything a human can do algorithmically can be done on a universal Turing machine. I can implement, for example, the very same algorithm that I use for long division on a digital computer. In such a case, as described by Turing (1950), both I, the human computer, and the mechanical computer are imple­menting the same algorithm. I am doing it consciously, the mechanical computer noncon­sciously. Now it seems reasonable to suppose that there might be a whole lot of other mental processes going on in my brain nonconsciously that are also computational. And if so, we could find out how the brain works by simulating these very processes on a digital computer. Just as we got a computer simulation of the processes for doing long division, so we could get a computer simulation of the processes for understanding language, visu­al perception, categorization, etc. (Searle 1992: 202f.)

Diese Urgeschichte führt laut Searle unmittelbar zum Problem der universellen Realisier­barkeit. Was, zumindest hier in diesem Text, in dem die beiden Darstellungen von [Seite 16↓] Schwacher KI und Kognitivismus so dicht beieinander stehen, eine einigermaßen ver­wirrende Feststellung sein dürfte. Um es noch einmal zu rekapitulieren: Bei seiner Argu­mentation für die Schwache KI sagt Searle, die Church/Turing-Hypothese, die er dort Churchs These nennt, bestätige harmloserweise nur, dass man jeden beliebigen menta­len Prozess auf einem digitalen Computer simulieren kann; – und nichts weiter. Bei seiner Argumentation gegen den Kognitivismus führt die Church/Turing-Hypothese, die er dann Church-Turing These nennt, im Gegenteil fatalerweise zu der Annahme, dass das Gehirn selbst, wie jeder andere Gegenstand, im wörtlichen Sinne ein digitaler Computer sei.

Man könnte annehmen, dass Searle glaubt, Churchs These, die er bei der Schwachen KI anführt und die Church-Turing These, die er dem Kognitivismus zuschreibt, seien zwei verschiedene Thesen. Es handelt sich dabei aber nur um zwei Namen für dieselbe Sache, was man zum Beispiel sehr unterhaltsam in Douglas Hofstadters’ Gödel, Escher, Bach (vgl. Hofstadter 1992: 598) nachlesen kann. Hofstadter unterscheidet darin elf verschie­dene Lesarten dieser Hypothese; und man sollte daher fairerweise vermu­ten, dass Searle den Unterschied zwischen Schwacher KI und Kognitivismus in verschiedenen Interpreta­tion der Church/Turing-Hypothese sieht: Kognitivisten inte­pretierten demnach die Hypo­these so, dass daraus folgt, das Gehirn sei ein digitaler Computer; für Vertreter der Schwachen KI folgt diese Annahme nicht. Worin besteht aber – laut Searle – der Unter­schied zwischen den beiden Lesarten, die zu diesen sehr unterschiedlichen Sichtweisen führen?

Leider ist Searles Text an dieser Stelle sehr dunkel. Er führt zwei verschiedene Namen für die selbe Hypothese ein, ohne je darauf hinzuweisen, dass es sich um dieselbe handelt, und den Grund für diesen sprachlichen Griff verschweigt er. Zudem stellt sich Searle, der sich darüber beschwert, dass die Church/Turing-Hypothese in der Philosophie immer nur populärwissenschaftlich abgehandelt würde, nicht besser, wenn er selbst einfach keine Abhandlung der Church/Turing-Hypothese bringt und nur zwei verschiedene Interpretatio­nen vorträgt. Hier noch einmal die beiden Interpretationsvarianten Searles gegenüberge­stellt:

Schwache-KI-Variante:

Church’s thesis [states] that anything that can be given a precise enough characterization as a set of steps can be simulated on a digital computer. (vgl. Searle 1992: 200)


[Seite 17↓]

Kognitivismus-Variante:

The Church-Turing thesis states that for any algo­rithm there is some Turing machine that can implement that algorithm. (Searle 1992: 202)

Der große Unterschied dieser beiden Varianten dürfte darin bestehen, dass Searle die Kognitivismus-Variante mit den (Fach-)Begriffen „Algorithmus“ und „Turingmaschine“ for­muliert und die Schwache-KI-Variante dagegen eher allgemein verständlich in Begriffe des normalen Wortschatzes fasst: „Abfolge von Schritten“ und „digitaler Computer“. Die Kognitivismus-Formulierung führt nach Searle zum Problem der universellen Realisierbar­keit, die der Schwachen KI hingegen nicht. Und dies liegt, wie später in den Abschnitten 3.1 und 3.3 gezeigt wird, genau an dem Begriff der Turingmaschine, den Searle den Kog­nitivisten zuschreibt, und der für Searle bei der Schwachen KI, so scheint es, entweder keine oder eine andere, harmlose Rolle spielt.

Um Searles Kognitivismus-Verwendung des Begriffs der Turingmaschine, und was dabei schief läuft, genauer fassen zu können, muss ein von Searles Darstellung unabhängiger Blick auf den Endlichen Automaten und die Turingmaschine, die eine Spezialform des Endlichen Automaten ist, geworfen werden. Abschnitt 2.2 liefert deshalb eine detaillierte Darstellung des Endlichen Automaten, sowie eine hoffentlich nicht populärwissenschaft­liche Zusammenfassung der Church/Turing-Hypothese.

2.1.2 Putnams Funktionalismus

Der Funktionalismus ist von Putnam als Gegenvorschlag zu der so genannten klassi­schen Identitätstheorie des Geistes entworfen worden. Wobei der Funktionalismus im Bereich der Identitätstheorien bleibt; es wird nur etwas anderes als in den klassischen identifiziert. In der klassischen Identitätstheorie, die hauptsächlich von H. Feigl, U. T. Place und J. J. C. Smart um 1960 in die philosophische Debatte gebracht wurde (vgl. hierzu Borst 1970), ging es darum, Zustände des Geistes mit Zuständen des Gehirns zu identifizieren. Diese Theorie wird in der Literatur auch unter dem Namen Gehirnzustands­theorie – brain-state theory – diskutiert. Thomas Nagel unterscheidet in seinem Aufsatz Physikalismus (Nagel 1993) vier Arten, wie in verschiedenen Gehirnzustandstheorien eine Identifikation von Zuständen des Geistes (zum Beispiel Schmerzen) und Zuständen des Gehirns (zum Beispiel Feuern der C-Fasern3) versucht wird (vgl. Nagel 1993: 56). Sämt­liche Versionen der Gehirnzustandstheorie haben dabei – wie es der Titel Physikalismus [Seite 18↓]von Nagels Aufsatz andeutet – gemeinsam, dass sie versuchen, physikalische Zu­stände des Gehirns mit mentalen Zuständen zu identifizieren.

An diesem Punkt setzt Putnams Kritik an. Er sagt, dass er mit dieser Fixierung auf das Physische des Gehirns in der Gehirnzustandstheorie nicht zufrieden sei. Sie würde zu ei­nem extrem exklusiven Chauvinismus führen. Es könne immerhin sein, dass es irgendwo im Weltall Bewohner eines fremden Planeten gebe, deren Gehirne, oder besser deren Gehirnentsprechungen, aus einem ganz anderen Material bestünden als unsere, die aber genau die gleichen mentalen Zustände haben wie wir. Mentale Zustände, so Putnams Argument, sind multipel realisierbar. Sie sind nicht notwendigerweise an irgendeinen phy­sischen Stoff gebunden, deshalb darf man die Untersuchung des Wesens des Geistes nicht von vornherein an die zufällige materielle Beschaffenheit unserer Gehirne binden. Man müsse viel liberaler an die Sache herangehen.

Das Problem der multiplen Realisierbarkeit, das die Gehirnzustandstheorie in arge Be­drängnis gebracht hat4 (vgl. z. B. Kim 1980), ist nicht zu verwechseln mit dem Problem der universellen Realisierbarkeit, das in dieser Arbeit hauptsächlich behandelt wird. Das Pro­blem der universellen Realisierbarkeit hat sich Putnam erst eingehandelt, als er ver­suchte, das Problem der multiplen Realisierbarkeit los zu werden. Bei dem Versuch, die Philosophie des Geistes vom extremen Chauvinismus zu befreien, führte er sie in einen extremen Liberalismus hinein. So würden die Kritiker – unter ihnen ein späterer Putnam – sagen, die ihm das Problem der universellen Realisierbarkeit vorwerfen. Zuerst einmal aber noch etwas mehr zum Versuch des jüngeren Putnam, die Philosophie des Geistes aus dem Problem der multiplen Realisierbarkeit herauszuführen:

Im Ansatz, sagt Putnam, sei es schon richtig, Zustände des Geistes mit Zuständen des Materials zu identifizieren, die mit ihnen korrespondieren. Nur die Art der Zustände sei falsch gewählt. Es ginge vielmehr um nichtphysikalische Zustände des Gehirns, die das Wesentliche des Geistes ausmachen. Und eben weil die Philosophie sich prinzipiell mit den wesentlichen und nicht mit den zufälligen Eigenschaften eines Phänomens be­schäftigt, sollten von Philosophen auch für eine Identifikation der Zustände des Geistes nichtphysikalische Zustände des Gehirns genommen werden. Wie man sich solche nicht­physikalischen Zustände vorzustellen hat, darüber schreibt Putnam:


[Seite 19↓]

Nun, was meine ich mit der Aussage, daß das Gehirn nichtphysikalische Eigenschaften hat? Ich meine Eigenschaften, die in Begriffen, die den physikalischen oder chemischen Aufbau des Gehirns unerwähnt lassen, definiert werden können. Falls es seltsam scheint, daß ein physikalisches System nichtphysikalische Eigenschaften hat, denke man an eine Rechenmaschine. Eine Rechenmaschine hat viele physikalische Eigenschaften. Sie hat z. B. ein bestimmtes Gewicht, und sie hat eine bestimmte Anzahl von Schaltelementen o. dgl. Sie hat ökonomische Eigenschaften, wie z. B. einen bestimmten Preis, und sie besitzt auch funktionale Eigenschaften, wie z. B. ein bestimmtes Programm. Diese letztere Art von Eigenschaften ist nichtphysikalisch in dem Sinne, daß ein System sie unabhängig von seiner sozusagen metaphysischen oder ontologischen Zusammensetzung zeitigen kann. Es könnte sein, daß ein körperloser Geist, ein Gehirn und eine Maschine je ein bestimm­tes Programm aufweisen und daß der funktionale Aufbau dieser drei Programme – des körperlosen Geistes, des Gehirns und der Maschine – genau gleich wären, obwohl ihre Materie – ihr Stoff – völlig verschieden ist. (Putnam 1982: 111)

Es sind, wie Putnam hier darlegt, funktionale Zustände des Gehirns, die ihm beson­ders für die Identifikation mit Zuständen des Geistes geeignet zu sein scheinen. Er ver­gleicht das Gehirn, einen körperlosen Geist und eine Rechenmaschine und stellt fest, dass der funktionale Aufbau der drei in gewissem Sinne gleich sein könne. Um diesen funktionalen Aufbau näher zu explizieren, benutzt er die Begrifflichkeiten des Konzepts der Endlichen Automaten bzw. der Turingmaschine; in seinen Texten nennt er sie auch Probabilistische Automaten – Probabilistic Automata:

Natürlich ist eine Turingmaschine einfach eine besondere Art eines Probabilistischen Automaten, eine mit Übergangswahrscheinlichkeiten 1,0. (Putnam 1993: 127)

Dass es bei dieser Übertragung – dem Import, wie oben einleitend gesagt – der Begriffe des Endlichen Automaten aus der Theorie der formalen Sprachen und Berechenbarkeit in die Philosophie des Geistes zu einem Vorwurf in Richtung universelle Realisierbarkeit kommen könnte, schien Putnam auch 1968 schon zu ahnen, als er seinen ersten Aufsatz zu diesem Thema schrieb5. Und wie um sich präventiv davor zu schützen, führte er den Begriff der Beschreibung eines Systems ein:

Since an empirically given system can simultaneously be “a physical realisation“ of many different Probabilistic Automata, I introduce the notion of a Description of a system. A Description of S where S is a system, is any true statement to the effect that S possesses distinct states S 1 , S 2 ..., S n which are related to one another and to the motor outputs and sensory inputs by the transition probabilities given in such-and-such a Machine Table. [Seite 20↓]The Machine Table mentioned in the Description will then be called the Functional Organi­zation of S relative to that Description. (Putnam 1975e: 434)

1968 brauchte Putnam den Begriff der Beschreibung, um seine Hypothese „Schmerz zu haben ist ein funktionaler Zustand des Organismus“ (Putnam 1993: 128) präzise zu for­mulieren und das Konzept des Probabilistischen Automaten theoretisch mit Organismus und mentalem Zustand in einen Zusammenhang bringen zu können:

  1. All organisms capable of feeling pain are Probabilistic Automata.
  2. Every organism capable of feeling pain possesses at least one Description of a certain kind (i.e. being capable of feeling pain is possessing an appropriate kind of Functional Organisation).
  3. No organism capable of feeling pain possesses a decomposition into parts which separately possesses Descriptions of the kind referred in (2).
  4. For every Description of the kind referred in (2), there exists a subset of sensory inputs such that an organism with that Description is in pain when and only when some of its sensory inputs are in that subset. (Putnam 1975e: 434)

Diese Hypothese und ihre Ausformulierung in den Begriffen des Endlichen Automaten dürfte hier für die allermeisten philosophischen Leserinnen und Leser trotz aller Bemüh­ung Putnams um analytische Präzision durchaus noch immer schwer zu greifen sein. Das liegt an dem außerphilosophischen Voraussetzungsreichtum, den diese Begriffe mit sich bringen und dem hohen Grad an Abstraktion, den Putnam hier vorlegt, und von dem er an keiner Stelle seiner Texte bereit ist hinabzusteigen. Zwar führt er in verschiedenen Texten den Endlichen Automaten und die Turingmaschine ein (vgl. Putnam 1975c und 1975d), doch tut er das in einer derartigen Kürze und Dichte, dass man, wie in einem hermeneu­tischen Zirkel, die Turingmaschine immer schon verstanden haben muss, um sie in Put­nams Texten zu verstehen.

Der einzige philosophische Autor, bei dem sich etwas Konkreteres dazu finden lässt, wie man sich einen Endlichen Automaten als Modell für Schmerzzustände vorstellen kann, ist Ned Block. In seinen verschiedenen, immer wieder überarbeiteten Einführungsaufsätzen zum Funktionalismus (erstmals Block 1980a, aktuell Block 2001)6 führt Block zunächst einen Endlichen Automaten (EA) für irgendein einfaches mathematisches Problem ein und führt danach im Groben vor, wie man dieses Modell für die funktionalistische Be­schreibung des Zustandes „Schmerzen haben“ benutzen könnte. In seinem aktuellsten Aufsatz Functionalism (Block 2001) nimmt er einen EA für den Ungerade-Gerade-Test [Seite 21↓]und stellt ihn für den Anfang in Form einer Transitionstabelle – auch, wie bei Putnam oben, Machine Table genannt – vor:

 

S 1

S 2

1

Odd

S 2

“Even”

S 1

Abb. 2.1: Transitionstabelle für den Ungerade-Gerade-EA

Dieser EA hat zwei Zustände, S 1 und S 2 , ein Zeichen als Input, „1“, das beliebig oft hinter­einander eingegeben werden kann, und zwei Outputs, „Odd“ – „Ungerade“ und „Even“ – „Gerade“. Der EA ermittelt, ob eine gerade oder ungerade Anzahl von Einsen eingegeben wurde. Die Tabelle ist wie folgt zu lesen: In der ersten Spalte steht der Input, der einen Zustandswechsel auslöst. Spalte zwei besagt, dass der EA, wenn er sich in Zustand S 1 befindet, „Odd“ ausgibt und in Zustand S 2 überwechselt, Spalte drei besagt, dass der EA, wenn er sich in Zustand S 2 befindet, „Even“ ausgibt und in Zustand S 1 überwechselt. Der EA wird in Zustand S 1 anhalten, wenn eine ungerade Anzahl von Einsen eingegeben wur­de, andernfalls in Zustand S 2. (Genaueres zum Konzept des EA in Abschnitt 2.2.) In ein formelähnliches Format gebracht und vom Standpunkt „in Zustand S 1 sein, heißt ...“ aus betrachtet, könnte der Sachverhalt so ausgedrückt werden:

Being in S 1 = being in the first of two states that are related to one another and to inputs and outputs as follows: being in one of the states and getting a ‘1’ input results in going into the second state and emitting "Odd"; and being in the second of the two states and getting a ‘1’ input results in going into the first and emitting "Even". (Block 2001)

Um die Quantifikation über Zustände besser herauszustellen, gibt Block noch eine zweite Formulierung mit den entsprechenden Existenzquantoren an:

Being in S 1 = Being an x such that $P$Q [If x is in P and gets a ‘1’ input, then it goes into Q and emits "Odd"; if x is in Q and gets a ‘1’ input it goes into P and emits "Even" & x is in P] (Note: read ‘$P’ as There is a property P.) (Block 2001)

Damit zeigt sich deutlicher, wie es gemeint ist, dass über die Zustände eines Systems geredet werden kann, ohne dessen physikalische Beschaffenheit zu erwähnen. Obiger [Seite 22↓]Ungerade-Gerade-EA könnte das Verhalten eines gängigen elektronischen PC aus Si­lizium beschreiben, man könnte sich aber durchaus genauso gut eine mechanische Kon­struktion aus Holz oder eine mit fließendem Wasser aus kleinen Schläuchen und Ventilen vorstellen, auf die diese Beschreibung passt, man könnte sogar ein ausgetüfteltes System als Labyrinth aus Gängen und Türchen bauen, mit dressierten Mäusen darin, das sich ge­mäß des EA verhält (vgl. dazu auch Block 1995, insbesondere das UND-Gatter aus Kat­zen und Mäusen in Abb. 5). Blocks Transitionstabelle und Formeln lassen das Material außer Acht und sprechen nur darüber, was all diesen multiplen physikalischen „Realisier­ungen“ des Ungerade-Gerade-EA wesentlich gemeinsam zu sein hat: die funktionalen Zu­stände S 1 und S 2.

Angenommen, schreibt Block weiter und setzt damit zur philosophischen Pointe an, wir hätten eine Theorie, die mentale Zustände ganz genau so spezifiziert wie die obigen For­meln die Zustände des Ungerade-Gerade-EA: als kausale Relationen über Zustände, sensorische Inputs und behaviorale Outputs. Eine solche Theorie würde dann die Rela­tion zwischen dem mentalen Zustand „Schmerzen haben“, dem sensorischen Input „Auf einer Reißzwecke sitzen“ und dem behavioralen Output „’Autsch’ rufen“ wie folgt auf eine Formel bringen:

Being in pain = Being an x such that $P$Q[sitting on a tack causes P & P causes both Q and emitting ‘ouch’ & x is in P]

More generally, if T is a psychological theory with n mental terms of which the 17th is ‘pain’, we can define ‘pain’ relative to T as follows (the ‘F1’... ‘Fn’ are variables that replace the n mental terms, and i1, etc. and o1, etc. indicates):

Being in pain = Being an x such that $F1...$Fn [T(F1...Fn, i1, etc, o1, etc ) & x is in F17]
(Block 2001)

Über diese funktionalistische psychologische Theorie T, die er hier hypothetisch einführt, schreibt Block ausdrücklich, dass es sich dabei um eine empirisch erforschte Theorie oder um eine common sense Volkspsychologie handeln könne, die natürlich ebenfalls einer empirischen Überprüfung standhalten müsste. Man befindet sich demnach beim Projekt des Funktionalismus voll und ganz auf der Ebene der Formulierung empirischer Hypo­thesen. Putnam sah das 1965 genau so. Er schrieb:


[Seite 23↓]

Ich werde mich nicht dafür entschuldigen, daß ich eine empirische Hypothese vorbringe. [...] Die detaillierte Entwicklung und Verifikation meiner Hypothese wäre eine genau so utopische Aufgabe wie die detaillierte Entwicklung und Verifikation der Gehirnzustandshypothese. Aber das Aufstellen nicht von detaillierten und wissenschaftlich „fertigen“ Hypothesen, sondern von Schemata für Hypothesen, ist schon seit langem eine Funktion der Philosophie. (Putnam 1993: 127)

Man muss dem nicht zustimmen, dass es tatsächlich eine Aufgabe der Philosophie ist, ei­ner anderen Disziplin utopische Projekte vorzuschlagen, aber es ist nicht von der Hand zu weisen, dass so etwas ab und zu passiert.

2.2 Zum Konzept des Endlichen Automaten (EA)

Der Endliche Automat (EA) – finite/discrete state automaton – ist ein abstraktes ma­thematisches Modell für ein System mit einer endlichen Anzahl interner Zustände und diskreten Ein- und Ausgaben. Ein Zustand dieses Systems wird als die Menge der Aktio­nen beschrieben, die das System in diesem Zustand ausführt sowie als die Information, die sich aus ihm ablesen lässt. Als Eingabe für den EA wird eine Zeichenkette aus einem vorgegebenen Eingabealphabet angesehen. Die Aktionen, die der Endliche Automat in einem Zustand maximal ausführen kann, sind: Ein Symbol aus der Menge der Eingabe­symbole lesen, ein Symbol aus der Menge der Eingabesymbole (über)schreiben, den Zu­stand wechseln oder nichts tun (= anhalten). Nicht jede dieser Aktionen muss notwendig in jedem Zustand vorgeschrieben sein. Der Endliche Automat besitzt genau einen Start­zustand; eine Teilmenge aus der Menge seiner Zustände wird als Menge der Endzustän­de bezeichnet. Ein Endlicher Automat beschreibt (erkennt, akzeptiert) eine Zeichenkette aus dem Eingabealphabet genau dann, wenn die Eingabe dieser Zeichenkette dazu führt, dass der EA einen Endzustand erreicht und dort anhält.

2.2.1 Beispiel: Ein EA Für das Mann/Wolf/Ziege/Kohl-Problem

Das Mann/Wolf/Ziege/Kohl-Problem besteht aus der folgenden Situation: Ein Mann steht mit einem Wolf, einer Ziege und einem Kohlkopf an einem Flussufer und will den Fluss gern zusammen mit seinen drei Besitztümern überqueren. Leider hat er dazu bloß ein sehr kleines Ruderboot zur Verfügung, in dem er nur jeweils eines der drei mitnehmen kann. Er muss daher mehrmals fahren, um seine Tiere und seinen Kohlkopf einzeln über den Fluss zu bringen. Dabei kommt komplizierend hinzu, dass er weder die Ziege mit dem [Seite 24↓]Kohlkopf zusammen an einem Ort allein lassen kann, weil die Ziege den Kohlkopf dann auffressen würde, noch den Wolf mit der Ziege, denn in diesem Fall wäre die Ziege, wenn er zurückkommt, nicht mehr da.

Um einen EA zu konstruieren, mit dessen Hilfe der Mann eine Lösung für sein Dilemma finden kann, muss man seine Situation und das, was er in dieser Situation tun kann, zu­erst irgendwie als System mit einer endlichen Menge von Zuständen be­schreiben. Eine Möglichkeit wäre, die denkbaren Kombinationen von Mann (M), Wolf (W), Ziege (Z) und Kohlkopf (K) an den beiden Ufern des Flusses als Zu­standsmenge eines Systems anzu­sehen. Diese Menge ist klarerweise endlich. Einer der so beschriebenen Zustände wäre z. B. MZ – WK; zu lesen als: Der Mann steht jetzt mit der Ziege am linken Ufer, der Wolf mit dem Kohlkopf am rechten. Ein Zustand wie ZK – MW wäre fatal und dürfte von einem EA, der zu einer Lösung des Problems kommen soll, nicht angenommen werden. Die Zu­standswechsel können bei diesem Ansatz mit der Bootsfahrt assoziiert werden. Wenn der Mann etwa bei Zustand MWK – Z zusammen mit dem Kohlkopf ans rechte Flussufer fährt, dann ergibt sich daraus der Zustand W – MZK. Zustandswechsel kommen bei Endlichen Automaten normalerweise in Reaktion auf eine Eingabe zustande, deshalb ist es in die­sem Mann/Wolf/Ziege/Kohl-Fall hier sinnvoll, die Aktionen des Mannes als Eingaben auf­zufassen, verkürzt geschrieben als: Fluss allein überqueren: Eingabe m, Fluss zusammen mit dem Wolf überqueren: Eingabe w, Fluss zusammen mit der Ziege überqueren: Einga­be z und Fluss zusammen mit dem Kohlkopf überqueren: Eingabe k. Das gültige Eingabe­alphabet dieses EA besteht damit aus der Menge {m, w, z, k}.

Als anschauliche formale Darstellung der Zustände und Zustandswechsel eines EA bietet sich u. a. der so genannte Transitionsgraph an. Dabei werden die Zustände als Kreise, in der Fachsprache Knoten genannt, dargestellt und die Zustandswechsel als Pfeile, wobei das Eingabesymbol jeweils an den Pfeil herangeschrieben wird. Endzustände werden doppelt eingekreist. Im hier besprochenen Beispiel gibt es nur einen Endzustand.

Ein Transitionsgraph zur Lösung des Problems, einen Wolf, eine Ziege und einen Kohl­kopf unter beengten logistischen Bedingungen über einen Fluss zu bringen, sähe dann so aus (Hopcroft/Ullman 1990: 15):


[Seite 25↓]

Abb. 2.2: Transitionsgraph für den Mann/Wolf/Ziege/Kohl-EA

Etwas in dieser Art muss zum Beispiel Ned Block gemeint haben, als er sagte, man könne auch ein ausgefuchstes System aus Katzen, Mäusen und Käse als Endlichen Automaten auffassen (vgl. Block 1990 und Block 1995). Hier wird das Ganze zufällig an einem aus­gefuchsten System aus einem Mann, einem Wolf, einer Ziege und einem Kohlkopf durch­gespielt.

Abstrakt gesprochen, sozusagen in der Sprache der Endlichen Automaten, akzeptiert ein EA, der gemäß dem obigen Transitionsgraph funktioniert, die beiden Zeichenketten zmwzkmz und zmkzwmz des Eingabealphabets. Denn nur unter Eingabe einer dieser Zei­chenketten erreicht der EA, vom Startzustand aus gesehen, seinen Endzustand. Dass dieser EA auch rückwärts läuft, liegt in der symmetrischen Natur des Problems; das muss nicht immer der Fall sein, es ist keine notwendige Eigenschaft eines EA. Versuchte man, eine andere Zeichenkette aus dem Eingabealphabet an diesem EA auszuprobieren, dann würde er nicht bis zu seinem Endzustand kommen. Gäbe man zum Beispiel zmwm ... ein, dann käme der EA nur bis zu Knoten K – MWZ und müsste dort anhalten, weil es für die Eingabe m an dieser Stelle keine Aktion gibt, die er auszuführen hat.

Im konkreten Fall der Mann/Wolf/Ziege/Kohl-Situation, für die der EA entworfen wurde, bedeutet sein Ergebnis, dass der Mann zwei Möglichkeiten hat, das ihm vorliegende lo­gistische Problem zu lösen. Nämlich entsprechend einer der Anweisungen, die sich hinter einer der beiden Zeichenketten zmwzkmz und zmkzwmz verbergen, zu handeln. Das heißt z. B., gemäß zmwzkmz , zuerst die Ziege hinüberbringen, allein zurückfahren, den [Seite 26↓]Wolf mitnehmen, danach zusammen mit der Ziege zurückfahren, um den Kohl mitzuneh­men und danach noch ein Mal alleine zurück, um die Ziege abzuholen. Handelt er nicht gemäß einer der beiden Ergebnisse, dann hat das zur Folge, dass ihm entweder sein Kohlkopf oder seine Ziege abhanden kommt. Bei einer Entscheidung, entsprechend zmwm zu handeln, würde ihm hinterher die Ziege fehlen.

Zum Vergleich mit der in 2.2 genannten allgemeinen Beschreibung des EA: Der hier vor­gestellte EA hat eine endliche Menge von möglichen Zuständen, nämlich genau zehn; sie entspricht der Anzahl der Knoten im Transitionsgraphen aus Abb. 2.2. Er hat, da er so konstruiert wurde, einen Input, der durch das Eingabealphabet vorgegeben ist, und er lie­fert Ergebnisse: Zwei Zeichenketten aus dem Eingabealphabet, die dadurch abzulesen sind, dass der EA bei ihrer Eingabe und nur bei ihrer Eingabe den Endzustand erreicht. Dieser EA hat keinen Output, denn er verändert die Zeichen seiner Eingabe während des Durchlaufs seiner Prozedur nicht.

Oben wurde zuerst das zu lösende Problem als System mit endlich vielen Zuständen be­schrieben. Man entwarf also ein System, das noch gar nicht arbeitete, man beschrieb eine Menge möglicher zukünftiger Prozesse. Danach wurde ein EA konstruiert, der die ge­wünschte prozessuale Lösung herausbrachte, und zuletzt konnte einer der beiden (Hand­lungs-)Abläufe, die zum Ziel führen, umgesetzt werden. Man kann sich aber auch anders­herum vorstellen, dass ein Wissenschaftler, eine Art Quinescher Ethnologe beispielshal­ber, einen Mann beobachtet, wie er im Augenblick dabei ist, in beschriebener Manier mit Hilfe eines kleinen Ruderbootes einen Wolf, eine Ziege und einen Kohlkopf über einen Fluss zu transportieren. Und dieser Ethnologe könnte auf die Idee kommen, die Szene, die er im Moment beobachtet, mit Hilfe eines EA zu beschreiben. Es ist denkbar, dass er die Szene genau auf die gleiche Weise wie oben als ein System mit endlichen Zuständen beschreibt und in seinem Notizbuch Sätze wie: „Jetzt ist die Situation KW – MZ eingetre­ten“, „Jetzt geschieht z“ usw. notiert. Möglicherweise zeichnet er auch gleich Pfeile und Kreise wie in Abb. 2.2 hinein. Und es ist denkbar, dass der Wissenschaftler hinterher ei­nen erfolgreichen Pfad, das heißt einen der möglichen Verbindungen zwischen Start- und Endknoten des obigen Graphen, in seinem Notizbuch stehen hat.

Dies ist, zumindest wenn man Putnam und Searle folgt, eine erste Annäherung an die Idee, die dem Forschungsprogramm kognitionswissenschaftlicher Ansätze zugrunde liegt. Es wird etwas in Echtzeit mit Hilfe eines EA beschrieben. Einem System, das läuft, wird [Seite 27↓]gleichzeitig aus einer passiven Beobachterposition heraus sein funktionaler Schaltplan abgeschaut. Oder, wie die Kritiker der Kognitionswissenschaft Putnam und Searle sagen, er wird ihm angedichtet; allein schon die Zustände werden, den Kritikern zufolge, dem System willkürlich von außen als reine Projektion übergestülpt.

Eine Schwierigkeit beim Konzept des EA, die für das Problem der universellen Realisier­barkeit, vor allem bei Searle, eine zentrale Rolle spielt, lässt sich an dieser Stelle beson­ders gut veranschaulichen. Es scheint, dass die Modellierung eines Systems durch End­liche Automaten zu der Annahme verführt, das System selbst würde, und zwar in der glei­chen Weise wie der EA, Symbole verarbeiten. Hier hat es den Anschein, als sei der Mann so etwas wie das symbolverarbeitende Modul des Mann/Wolf/Ziege/Kohl-Systems. Bei genauer Betrachtung des theoretischen Status des EA dürfte aber deutlich werden, dass dieses Konzept so nicht gemeint sein kann und dass nur die naheliegenden Beispiele, wie das obige hier, und die Illustrationen zum EA (siehe Abb. 2.4 weiter unten) zu dieser fal­schen Vermutung führen. Wahrscheinlich trägt auch das Wort „Automat“ in Namen dieses Konzepts und die mechanistische Redeweise von „Zuständen“, die „durchlaufen“ werden, einiges zu dem Missverständnis bei, ein EA könne tatsächlich gebaut werden. Das ist falsch und irreführend. Der EA ist ein abstraktes Modell, und wenn man im Zusammen­hang mit Endlichen Automaten von „konstruieren“ spricht, dann meint man damit eine Tätigkeit, die normalerweise mittels Strichen auf einem Blatt Papier stattfindet. Bauen, simulieren oder nachstellen kann man nur den Prozess innerhalb eines Systems, den der EA beschreibt oder vorschreibt. Das Verhältnis ist ähnlich, wie das des Wortes „Badewan­ne“ zu dem Gegenstand, den es bezeichnet. Das Wort „Badewanne“ kann man nicht bau­en, man kann nur eine Badewanne bauen.

Wahrscheinlich trägt darüber hinaus die ein erkennendes Bewusstsein implizierende Re­deweise, der EA „erkennt“ eine Zeichenkette, er „liest“ ein Zeichen etc., zu dem weiteren Missverständnis bei, das vom EA beschriebene System würde Symbole verarbeiten. Bei Schöning (zum Beispiel Schöning 1992: 28), einem theoretischen Informatiker, kann man deutlich ein leichtes Unwohlsein beim Gebrauch dieser Begriffe spüren, er setzt sie ab und zu in Anführungsstriche; denn diesem theoretischen Modell „lesen“ zuzugestehen, kann nicht 100%ig im gleichen Sinne gemeint sein, wie einem wirklichen Automaten – wie einem Zigarettenautomaten oder einem Barcodescanner – oder einem Menschen lesen zuzugestehen. Der Sinn „lesen“ wurde in der theoretischen Schwebe gelassen.


[Seite 28↓]

Im ersten Fall, in dem der Mann den EA entwirft, um eine Lösung für sein Problem zu finden, ist das Verhältnis zwischen Papier und Wölfen/Ziegen etc. allein durch den zeit­lichen Abstand leicht zu verdeutlichen. Der EA, der vor der eigentlichen Szene da ist, er­hält in Zustand MWZK - die Eingabe z und verarbeitet dieses Symbol, indem er darauf­hin in den Zustand WK – MZ überwechselt. Dies alles wird auf einem Blatt Papier darge­stellt und vollzieht sich in der Vorstellung des Mannes. Falls er ein versierter EA-Anwen­der ist, benötigt er unter Umständen noch nicht einmal ein Blatt Papier zu seiner Hilfe. Wenn er aber hinterher die Lösung umsetzt, die der EA ergeben hat, dann rudert er ein­fach zuerst zusammen mit seiner Ziege über den Fluss und steht danach mit der Ziege am anderen Flussufer. Dem Mann wird dabei kein Symbol z eingegeben und er befindet sich dabei niemals in einem Zustand MWZK - . Das Verhältnis zwischen EA und der Szene, die er modelliert, ist das Verhältnis zwischen Beschreibung und Beschriebenem oder zwischen einem Plan und seiner Umsetzung. Mit Hilfe des EA modelliert man ein System auf der Ebene der Zeichen. Das System verarbeitet keine Symbole, sondern es durchläuft einen Prozess. In einem Fall wie hier, in dem jemand den Prozess Schritt für Schritt bewusst durchführt, könnte man sagen, dass der EA eine Art normative Wirkung hat. Der EA schreibt mit Hilfe von Symbolen vor, wie der Prozess auf der Ebene von Menschen, Wölfen, Ziegen und Kohlköpfen abzulaufen hat. Der EA normiert damit ge­wissermaßen einen Handlungsablauf. (Als erstes Beispiel für Algorithmen werden Infor­matikstudenten im ersten Semester häufig Kochrezepte genannt. Kochrezepte geben auch einen normierten Handlungsablauf vor, den man – schon sehr umständlich – mit Hilfe eines EA beschreiben könnte.)

Auch aus dem zweiten Fall, in dem der Ethnologe die vor ihm ablaufende Szene mit Hilfe des EA beschreibt, dürfte deutlich hervorgehen, dass der Beschreibende mit „Jetzt ge­schieht z“ nicht meinen kann, dass dem Mann jetzt ein z eingegeben wird und er dieses z jetzt verarbeitet. Auch hier geschieht die Verarbeitung des Zeichens z auf der Beschrei­bungsebene. Der Mann bringt eine Ziege über den Fluss und der Ethnologe bezeichnet dies als Eingabe z für den Endlichen Automaten, den er soeben in sein Notizbuch zeich­net.

Im Hinblick auf das Problem der universellen Realisierbarkeit sind an dieser Stelle zwei Zwischenbeobachtungen angebracht. Zum einen lässt sich feststellen, dass es durchaus alternative Endliche Automaten zur Beschreibung des Mann/Wolf/Ziege/Kohl - Ablaufs gibt. Man könnte alternativ beispielsweise die Besatzung des Bootes als Zustand des [Seite 29↓]Systems annehmen. Zustand 1: Jetzt ist das Boot leer. Zustand 2: Jetzt ist der Mann zu­sammen mit der Ziege im Boot usw. Wenn man diese Version als Transitionsgraphen no­tieren wollte, müsste man nur die Bezeichnungen der Knoten mit denen der Pfeile vertau­schen und in den Start und den Endknoten jeweils eine 0 für Jetzt ist das Boot leer hinein­schreiben. So hätte man einen alternativen EA zur Beschreibung des Ablaufs.

Andererseits wird hier schon deutlich, dass es, wenn man die vorgeschlagene Einteilung der Situation in Zustände und die Menge des Eingabealphabets als angemessen akzep­tiert, ziemlich viele Endliche Automaten gibt, die als Beschreibung des Lösungsalgorith­mus des Mann/ Wolf/Ziege/Kohl-Problems nicht gültig sind. Ein EA etwa, der einen Zu­stand WZ – KM als Endzustand annehmen kann, „realisiert“ die Lösung nicht. Das Pro­blem der universellen Realisierbarkeit muss also vor einer solchen Vereinbarung auf Zu­stände und Eingabealphabete liegen.

2.2.2 Die Rolle des EA in der Theoretischen Informatik

Ursprünglich waren Endliche Automaten dafür gedacht, Zeichenketten auf ihre Gültigkeit innerhalb eines formalen Systems zu testen. Das Ergebnis eines solchen Testvorgangs wird daraus abgelesen, ob der EA, dem die zu testende Zeichenkette eingegeben wird, bei ihrer Bearbeitung einen Endzustand erreicht (positives Ergebnis), an einem Nicht-Endzustand anhält oder ob er in einen zirkulären Zustandswechsel gerät (negative Ergeb­nisse).

In der Theoretischen Informatik, der Wissenschaft, aus der das Konzept des EA als An­satz für den Computerfunktionalismus übernommen wurde, wird der EA formal wie folgt definiert (Definition und Beispiel vgl. Schöning 1992: 27ff.):

Definition 2.2.2
Ein Endlicher Automat EA wird spezifiziert durch ein 5-Tupel

EA = (Z, å, , z0, E).
Hierbei bezeichnet Z die Menge der Zustände und å ist das Eingabealphabet, ZÇå = Æ. Z und å müssen endliche Mengen sein. z0 ЄZ ist der Startzustand, EÍZ ist die Menge der Endzustände und : Z xåZ heißt die Überführungsfunktion.


[Seite 30↓]

Beispiel 2.2.2
EA = (Z, å, , z0, E), mit
Z ={z0, z1, z2, z3}
å = {a, b}
E = {z3}
( z0 , a ) = z1 ( z0 , b ) = z3 ( z1 , a ) = z2 ( z1 , b ) = z0 ( z2 , a ) = z3 ( z2 , b ) = z1 ( z3 , a ) = z0 ( z3 , b )= z2

und dem entsprechenden Transitionsgraphen (aus Schöning 1992: 28):

Abb. 2.3: Transitionsgraph für den EA aus Beispiel 2.2.2

Dieser Beispielautomat beschreibt (erkennt, akzeptiert) u. a. alle Zeichenketten (Zk) der Art:

Zk = { x Єå * | ((Anzahl a’s in x) – (Anzahl b’s in x)) MOD 4 = 3}


[Seite 31↓]

Das Summenzeichen mit dem Sternchen bedeutet eine beliebige Zeichenkette zusam­mengesetzt aus dem Eingabealphabet å = {a , b}. MOD ist die Bezeichnung für die Re­chenart modulo.

In der Theoretischen Informatik hat der Endliche Automat einen sehr hohen Stellenwert. Er ist letztendlich das geeignete Konzept, mit dem bestimmte Aussagen über die Möglich­keiten und Grenzen eines formalen Systems gemacht werden können. Über das obige Eingabealphabet kann man zum Beispiel jetzt behaupten, dass man aus seinen Zeichen nur Reihenfolgen herstellen kann, zu denen sich auch ein EA ähnlich dem aus Beispiel 2.2.2 konstruieren lässt, der sie akzeptiert. Für durchaus irgendwie formulierbare Reihen­folgen, die aber unmöglich konkret hinzuschreiben sind, lässt sich auch kein solcher EA konstruieren. Zum Beispiel wird es niemandem gelingen, für Zeichenketten der Art:

Zk = { xЄå* | ((Anzahl a’s in x) + (Anzahl b’s in x)) = -1}

einen EA zu konstruieren.

Es kursieren diverse bildliche Darstellungen des Endlichen Automaten in der informati­schen Literatur. Eine typische wäre die folgende (aus Schöning 1992: 29):

Abb. 2.4: Typische Illustration zum EA

Solche Illustrationen sind im philosophischen Zusammenhang aber viel eher hinderlich als hilfreich, denn sie legen die Vermutung nahe, ein Endlicher Automat sei eine reale Ma­schine in der wirklichen Welt der konkreten Dinge, an der man herumschalten kann. So ist diese Illustration aber nicht gemeint. Sie veranschaulicht nur die Bedeutung dessen, was Mathematiker mechanische Lösungen von Problemen nennen: einen Ablauf von Symbol­veränderungen, der vollkommen planmäßig, Schritt für Schritt, algorithmisch abläuft. Es [Seite 32↓]gibt zwei wesentliche Gründe, weshalb man einen Endlichen Automaten nicht in der Welt der Dinge antreffen kann. Erstens wird das Eingabeband in einigen Versionen des EA als unendlich gedacht, und Unendliches kann man nicht bauen. Zweitens ist in dieser Illustra­tion überhaupt nichts darüber ausgesagt, wie dieser kleine Kasten, auf dem vielverspre­chend die Wörter „Endlicher Automat“ und „Lesekopf“ stehen, das Programm, das durch so etwas wie den Transitionsgraphen gegeben ist, überhaupt umsetzt. Es müssten ir­gendwelche kleinen Mechaniken oder Organe angenommen werden, die mit der notwen­digen, minimalen Beschreibung des einzelnen Zustands nichts zu tun haben. Um dieses Problem zu umgehen, setzen viele Autoren einfach ein kleines, gerne schwachsinniges Männchen in diesen Kasten hinein, das die einzelnen Befehle, lies, schreibe, gehe links, gehe rechts, ausführt, der EA und der Lesekopf werden also der Anschaulichkeit halber einfach personifiziert:

We are not concerned with the mechanics or the electronics of the matter. Perhaps the simplest way to picture the thing is quite crudely: Inside the box there is a man, who does all the reading and writing and erasing and moving. (Boolos/Jeffrey 1989: 21)

Es wird ein Homunkulus in die Maschine gesetzt. Bei einem theoretischen, abstrakten Modell für mechanische Algorithmen ist das kein Problem. Man darf nur nicht den Fehler machen, das Modell eins zu eins ins Praktische, Konkrete zu übertragen.

Autoren zur Theoretischen Informatik wie John Hopcroft und Jeffrey Ullman sind sich weit­gehend darüber einig, dass der Computer kein Endlicher Automat ist, sondern auf einer anderen ontologischen Ebene liegt. Aussagen der folgenden Art lassen sich recht häufig finden:

Obwohl die Spannung an den Gattern jeden aus einer unendlichen Menge an Werten annehmen kann, ist der elektronische Schaltkreis so konzipiert, dass nur die Spannun­gen, die 1 und 0 entsprechen, stabil sind und sich alle anderen Spannungen fast augen­blicklich auf diese Spannungen einstellen. Schaltkreise werden absichtlich so entwickelt, dass sie als Systeme mit endlichen Zustandsmengen angesehen werden können. Da­durch wird der logische Entwurf eines Computers von der elektronischen Implementation getrennt. (Hopcroft/Ullman 1990: 13)

Hier wird die Trennung mit den Worten „logischer Entwurf“ versus „elektronische Imple­mentation“ deutlich gemacht. Den logischen Entwurf kann man zum Beispiel mit Hilfe ei­nes Endlichen Automaten anfertigen, er befindet sich auf der Ebene der Zeichen und [Seite 33↓]Symbole. Bei der elektronischen Implementation hat man es dagegen mit fließendem Strom zu tun, dessen Spannungen erst als „1“ oder „0“ aufgefasst werden müssen, und die mit Absicht so konstruiert wurden, dass diese externe Lesart auf der Entwurfs- und Beschreibungsebene leicht ist. Diese Spannungen selbst sind keine Einsen und Nullen, und es gibt in den Schaltkreisen kein Bewusstsein oder kleines Männchen, das diese Spannungen als solche auffasst. Auf der Ebene der elektronischen Implementation befin­det sich pure Mechanik/Elektronik. Insofern muss man im philosophischen Kontext sehr vorsichtig damit sein, wenn man den Computer eine symbolverarbeitende Maschine nennt. Genaugenommen ist nur das Modell des Computers, der Endliche Automat, eine symbolverarbeitende Maschine, und damit verarbeitet letztlich derjenige Symbole, der sich den EA vorstellt oder ihn auf dem Papier nachvollzieht. Der reale Computer verar­beitet auf der Hardwareebene keine Symbole, sondern dort knistert, klackert und surrt er allenfalls. Er befindet sich in einem Prozess, der mit Hilfe eines EA beschrieben, entwor­fen oder nachvollzogen werden kann. Genau so wie der Mann in Beispiel 2.2.1 sich in ei­nem Prozess, in diesem Fall in einem Handlungsablauf, befindet, der als EA entworfen, beschrieben oder nachvollzogen werden kann. Symbolverarbeitung findet beim Computer erst auf der Ebene der Interpretation statt. Der Benutzer instrumentalisiert den Computer zur Symbolverarbeitung. Inzwischen instrumentalisiert er ihn aber auch schon für viele an­dere Dinge; zum Musik hören oder zum Bilder betrachten beispielsweise.

Für die abstrakte theoretische Analyse der Eigenschaften von formalen Systemen hat sich der EA sehr bewährt. Für die Praxis der Computerwissenschaften dagegen, wenn es um konkrete Computer und deren Programmierung geht, erwies sich der EA eher als unergie­big. Zwar findet er dort Einsatz bei sehr begrenzten Problemen wie dem Entwurf von lexi­kalischen Analysern (das sind kleine Programm-Module, die Wörter erkennen müssen) oder bei der Beschreibung kleinster Schaltkreise, üblicherweise für die Grundrechenarten. Für den Entwurf oder die Betrachtung großer Computer oder Computerprogramme wird er aber nicht herangezogen. Auch über die Brauchbarkeit des Konzepts für Untersuchungen über existierende Systeme in der Welt – Pflanzen, Wetterlagen oder Gehirne – äußern sich Hopcroft und Ullman skeptisch:

Es ist verführerisch, das menschliche Gehirn als System mit einer endlichen Zustands­menge anzusehen. Die Zahl der Gehirnzellen oder Neuronen ist begrenzt – wahrschein­lich höchstens 235. Es ist vorstellbar – obwohl es Anhaltspunkte dafür gibt, dass dies nicht der Fall ist – dass der Zustand jedes Neurons mit einer kleinen Anzahl Bits beschrieben werden kann. Wäre dies der Fall, so ließe sich die Theorie der endlichen Zustandsmen­[Seite 34↓]gen auf das Gehirn anwenden. Die Zahl der Zustände wäre jedoch so groß, dass es un­wahrscheinlich ist, dass dieser Ansatz zu nützlichen Beobachtungen über das mensch­liche Gehirn führen könnte, ebenso wenig, wie Annahmen über endliche Zustandsmengen uns helfen, große, aber endliche Computersysteme zu verstehen.
(Hopcroft/Ullman 1990: 14)

2.2.3 Turingmaschinen und die Church/Turing-Hypothese

Um diese Zurückhaltung und Skepsis besser nachvollziehen zu können, ist es am besten, sich die elaborierteste Version des Endlichen Automaten, die so genannte Turingma­schine vor Augen zu führen. Bisher wurden nur begrenzte Endliche Automaten (nur Input) mit einem relativ wenig aussagekräftigen Eingabealphabet betrachtet. Bei der Turing­maschine sieht man den Bruch zwischen theoretischer Beweiskraft und praktischer An­wendbarkeit am deutlichsten. Das Konzept Turingmaschine macht Aussagen über die Be­rechenbarkeit von Funktionen in den formal mächtigsten Systemen überhaupt, z. B. der klassischen Arithmetik, möglich. Aber schon bei der konkreten algorithmischen Darstel­lung sehr einfacher arithmetischer Funktionen wird der Einsatz der Turingmaschine sehr schnell sehr mühsam, wenn nicht lebenszeitverbrauchend aussichtslos.

Die Turingmaschine wurde in den Jahren 1935 bis 1936 von dem englischen Mathemati­ker Alan Mathison Turing entwickelt, um das so genannte Entscheidungsproblem zu lö­sen: die damals in der theoretischen Mathematik virulente Frage, ob es unberechenbare Funktionen gibt, und wenn ja, wie man entscheiden kann, ob man eine solche vor sich hat.

Üblicherweise (nicht notwendigerweise) besteht das Eingabealphabet basaler Beispiel-Turingmaschinen in der Literatur nur aus der Eins. Zahlen werden durch Reihen von Ein­sen dargestellt, die sich auf einem unendlichen, in kleine Kästchen eingeteilten Band be­finden, pro Kästchen ein Zeichen, und die durch so genannte Blanks, Leerstellen, vonein­ander getrennt sind. Die Zahlendarstellung erfolgt dabei nach der so genannten monadi­schen Notation: 1 = 1, 11 = 2, 111 = 3, 1111 = 4 usw. Die Blanks, die man natürlich auch als Zeichen betrachten kann, werden nicht zum Eingabealphabet gezählt. Der Schreibe­kopf – alternativ „Lese/Schreibe-Kopf“, „Scanner“ oder „kleines Männchen in der Kiste“ – kann pro Zustand und pro Kästchen ein Zeichen lesen, schreiben oder löschen, ein Käst­chen nach rechts oder links gehen oder anhalten sowie den Zustand wechseln oder bei­behalten.


[Seite 35↓]

Als einfaches Beispiel hier, auch um noch eine zum Transitionsgraphen alternative Dar­stellung für Endliche Automaten vorzuführen, eine Transitionstabelle für eine Turingma­schine, die Additionen durchführt. Oder, in der funktionalen Redeweise gesagt, die eine Funktion der Form f(x,y) = x+y berechnet, wobei x und y aus der Menge der Natürlichen Zahlen stammen (vgl. Hodges 1994: 116):

 

Gelesenes Zeichen: Blank

Gelesenes Zeichen: ,1’

Zustand 1

Gehe nach rechts.

Bleibe in Zustand 1.

Gehe nach rechts.

Wechsle zu Zustand 2.

Zustand 2

Schreibe ‚1’.

Gehe nach rechts.

Wechsle zu Zustand 3.

Gehe nach rechts.

Wechsle zu Zustand 2.

Zustand 3

Gehe nach links.

Wechsle zu Zustand 4.

Gehe nach rechts.

Bleibe in Zustand 3.

Zustand 4

Endzustand

Halte an.

Bleibe in Zustand 4.

Lösche die ‚1’.

Halte an.

Bleibe in Zustand 4.

Die Aussage der Tabelle 2.5 kann man auch mit einem Transitionsgraphen machen. Die beiden Darstellungsweisen sind äquivalent.

Das für Turings Intention interessante Ergebnis dieser Turingmaschine ist eigentlich das Faktum, dass sie, auf eine Funktion der Form f(x,y) = x +y angesetzt, irgendwann, und zwar korrekt beim Endzustand, anhält. Damit wurde gezeigt, dass diese Funktion berech­enbar ist. Dass sie auch das Ergebnis der Addition als Zeichenkette auf ihrem Band als Output liefert, ist für Turings Zwecke nur ein Nebenprodukt gewesen.

Unten ist ein Beispiel des Outputs der obigen Additions-Turingmaschine zu sehen, für die Funktion f(4,5) = 4+5. Der erste Ausriss zeigt einen interessanten Teil des unendlichen Bandes und die Position des Scanners am Anfang der Prozedur, die Turingmaschine be­findet sich dabei in Zustand 1. Der zweite zeigt den gleichen Teil des Bandes und die Po­sition des Scanners nach Ablauf der Prozedur, die Turingma­schine befindet sich dabei in Zustand 4, dem Endzustand (vgl. Hodges 1994: 117).


[Seite 36↓]

Abb. 2.6: Erster und letzter Output der obigen Addtions-Turingmaschine

Eine Turingmaschine für die Addition ist noch überschaubar, und auf diesem Niveau ist es auch sinnvoll, wissenschaftlich und technisch hilfreich, mit Tabellen oder Graphen für Endliche Automaten zu arbeiten. Selten – und wenn, dann auch nur zum Zweck der höh­eren Fingerübung – findet man in der Literatur Beispiele, die komplexere Funktionen als die Addition behandeln. Eines dieser Fundstücke ist das Buch Computabiltity and Logic von George S. Boolos und Richard C. Jeffrey (Boolos/Jeffrey 1989), in dem eine Turing­maschine für die Multiplikation positiver ganzer Zahlen, also Funktionen der Form f(x,y) = x * y, wiederum mit x und y aus der Menge der Natürlichen Zahlen, vorgestellt wird

Das Beispiel soll hier vor allem zeigen, wie schnell es geht, dass die Transitionsgraphen von Endlichen Automaten als Darstellungswerkzeug für Algorithmen unübersichtlich wer­den. Der Graph für die Multiplikation ist ein hoher Genuss der theoretischen Spielerei im Abstrakten und dürfte schon kurz hinter der oberen Grenze des praktisch Sinnvollen lie­gen. Die Multiplikation beim gängigen PC funktioniert völlig anders, und es würde wahr­scheinlich niemand unter kommerziellen Bedingungen auf die Idee kommen, eine Re­chenmaschine zu bauen, die nach dem untigen Turingmaschinen-Schema arbeitet.

In der Darstellung in Abb. 2.7 unten wird wie bei der Additions-Turingmaschine (Abb. 2.6) die monadische Notation verwendet. Knoten 1 bezeichnet den Startzustand, Knoten 18 den Endzustand. An den Pfeilen steht auf der linken Seite des Doppelpunktes jeweils das gelesene Zeichen und auf der rechten die auszuführende Aktion. Demnach ist 1:R zu lesen als der Befehl für den Scanner wenn du eine Eins liest, gehe ein Kästchen nach rechts, B:1 als wenn du ein Blank liest, überschreibe es mit ‚1’ usw. Die Zustandswechsel sind durch die Pfeile angegeben (Boolos/Jeffrey 1989: 31):


[Seite 37↓]

Abb. 2.7: Transitionsgraph für die Multiplikations-Turingmaschine

Im Vergleich zu den Funktionen, die man bräuchte, um die Vorgänge in so komplexen Systemen wie einem handelsüblichen PC oder sogar dem menschlichen Gehirn ange­messen zu beschreiben, ist die Multiplikation vergleichsweise simpel, sie mutet in diesem Kontext geradezu atomar an. Es ist nur noch schwer vorstellbar, dass jemand ernsthaft den Versuch unternehmen würde, einen Transitionsgraphen für eine Turingmaschine aufzuzeichnen, die alle relevanten Prozesse detailliert beschreibt, die sich auf der Hard­[Seite 38↓]wareebene eines PC abspielen, wenn das Wordstar-Programm läuft. Die notwendige Menge der anzunehmenden Zustände nur zu schätzen, dürfte ausgesprochen schwierig sein. Wenn man sich das vor Augen führt, kann man sehr gut nachvollziehen, weshalb Putnam seinen Vorschlag, die Zustände des Geistes mit Turingmaschinen zu beschrei­ben, schon 1968 utopisch fand.

Für die Theorie der Berechenbarkeit, die Turing im Sinne hatte, war es nicht nötig, den Lösungsalgorithmus für komplexere Funktionen tatsächlich als Transitionsgraph für Tu­ringmaschinen hinzuschreiben. Es genügten auch für diese Zwecke einfache Beispiele völlig. Der Rest der Theorie der Berechenbarkeit wurde in Form von formalen Betrach­tungen über die Eigenschaften der Turingmaschine formuliert. Eines der wichtigsten Er­gebnisse dieser Betrachtungen war, dass jede beliebige Art, eine Funktion zu berechnen, etwa mit Hilfe von WHILE-Schleifen oder GOTO-Anweisungen, genauso viel leisten kann, wie die Art, Funktionen zu berechnen, die das Konzept der Turingmaschine anbietet. Die­se Erkenntnis ist in der berühmten Church/Turing-Hypothese folgendermaßen formuliert (vgl. Schöning, 1992: 88):

Church/Turing-Hypothese
Die durch die formale Definition der Turing-Berechenbarkeit erfasste Klasse von Funktionen stimmt genau mit der Klasse der intuitiv berechenbaren Funktionen überein.

Die Church/Turing-Hypothese lässt sich nicht beweisen, aber sie ist „allgemein akzeptiert“ (Schöning 1992: 88). Aus ihr folgt, dass jede Funktion, die nicht turingbe­rechenbar ist, überhaupt nicht berechenbar ist sowie selbstverständlich umgekehrt, dass jede Funktion, die irgendwie berechenbar ist, auch turingberechenbar ist.

Der oben angedeutete große Bruch zwischen theoretischer Mächtigkeit und praktischer Anwendbarkeit ist der, dass in Praxis schnell effektivere Verfahren zur Berechnung von Funktionen benutzt werden als das minimalistische, aber auch aufwendige der Turing­maschine. Man könnte jedes Mal, das behauptet die Church/Turing-Hypothese, einen Transitionsgraphen für eine Turingmaschine entwerfen, die den gleichen Output liefert. Andere Arten, Funktionen zu berechnen, WHILE-Programme, rekursive Programme und viele andere mehr, beinhalten nicht unbedingt Annahmen über endliche Zustandsmengen. Wenn sie es doch tun, so sehen diese Zustände völlig anders aus als die der äquivalen­ten Turingmaschine. Die in Abb. 2.7 vorgestellte Multiplikations-Turingmaschine ist in [Seite 39↓]keiner Weise eine angemessene Beschreibung dessen, was derzeit auf der Hardware­ebene eines handelsüblichen Computers geschieht, wenn er einen Multiplikationsalgo­rithmus durchläuft.


Fußnoten und Endnoten

1 Dieses Kapitel wurde nahezu wortgleich schon 1990 als Aufsatz unter dem Titel Is the Brain a Digital Computer? (Searle 1990) veröffentlicht.

2 Das Beispiel ist auf Japanisch. Da Searle betont, dass sein Mann im Zimmer – er nimmt sich selbst als Beispiel – nicht in der Lage ist, chinesische Zeichen von koreanischen oder japanischen Zeichen zu unterscheiden, könnte er also in einem Japanisch-Zimmer sein und es irrtümlich für ein Chinesisch-Zimmer halten usw. Auch diesen Irrtum würde er, solange er in dem Zimmer ist, nicht aufklären können.


bedeutet „Wie geht es Ihnen?“, und
[Seite 69↓]


wäre mit „Danke, mir geht es gut.“ zu übersetzen.

3 Unmyelinisierte afferente Nervenfasern, die bis zur Haut reichen. Diese sind angeblich für Schmerzreize zuständig. „Schmerz“ wird in der philosophischen Diskussion immer wieder mit dem Feuern von C-Fasern identifiziert. Aus neurophysiologischer Sicht ist das nicht gerechtfertigt (vgl. Urchs 2002: 150). Es gibt verschiedene Sorten von Schmerzfasern, C-Fasern sind eine davon, und nicht jede muss an jedem Schmerz beteiligt sein. Umgekehrt gibt es nicht bei jeder C-Faser-Aktivi­tät gleich eine Schmerzsensation (vgl. Thompson 1994: 186ff.).

4 Das führte so weit, dass die Gehirnzustandstheorie so gut wie überhaupt nicht mehr vertreten wurde. So etwas ist in der Philosophie ausgesprochen selten. Inzwischen gibt es aber Stimmen, die erklären, dass damit ein Standpunkt vorschnell aufgegeben wurde (vgl. Churchland 1997).

5 Der Aufsatz The Nature of Mental States (Putnam 1975e), aus dem hier hauptsächlich zitiert wird, ist erstmals 1968 unter dem Titel Psychological Predicates (Putnam 1968) erschienen.

6 Die jüngste Aktualisierung des Aufsatzes Functionalism (Block 2001) ist nur als HTML-Datei im Internet publiziert; daher die Zitate ohne Angabe von Seitenzahlen.



© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.
DiML DTD Version 3.0Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML-Version erstellt am:
24.11.2003