Siebert, Carsten: Qualia Das Phänomenale als Problem philosophischer und empirischer Bewußtseinstheorien

87

Zweiter Teil: Strukturen des phänomenalen Bewußtseins

Kapitel 5. Die Verheißungen des Konnektionismus

In den letzten Jahren haben verschiedene eher reduktionistisch eingestellte Philosophen eine neue Strategie vorgeschlagen, um die Probleme und Rätsel, in die uns das phänomenale Bewußtsein zu stürzen scheint, zu lösen bzw. gar nicht erst aufkommen zu lassen. Sie berufen sich dabei auf neuere Ansätze in der an Computermodellen orientierten Kognitionsforschung, die die Schwierigkeiten der GOFAI (good old-fashioned artificial intelligence; Haugeland 1987) vermeiden soll: Den Konnektionismus. Die grundlegende Strategie ist dabei, zu zeigen, daß alle vermeintlich philosophischen Probleme als empirische Fragen erwiesen werden können, die sich mittels einer mitgelieferten Theorie über unsere Hirnfunktionen lösen lassen. Diese Theorie selbst wiederum versteht sich als empirisch überprüfbar.

5.1. Die wunderbare Welt der Vektorcodierung: Paul Churchland

Ein besonders interessanter Ansatz in dieser Richtung ist der von Paul Churchland. Im Gegensatz zu seinen radikalen Thesen in früheren Veröffentlichungen ist der Ton in seinem letzten Buch The Engine of Reason, The Seat of the Soul zwar moderater (”I am uncertain of my position here, and it is not the primary purpose of this book to urge or establish any particular philosophical doctrine“, Churchland 1995: 19); letztlich wird durch Churchlands Argumentation aber deutlich, daß er deshalb keine explizit philosophische Theorie zu vertreten braucht, weil sich die Probleme der Bewußtseinstheorie seiner Meinung nach ohnehin empirisch lösen lassen, und zwar innerhalb des Paradigmas von neuronalen Netzen und deren spezifischen Eigenschaften. Dabei gelingt ihm eine ebenso faszinierende wie klare Exposition dieses Theoriezweiges, der wir einen Moment lang nachgehen sollten, um selbst beurteilen zu können, ob und inwieweit hier tatsächlich eine Erklärung für die Phänomene gegeben wird, die uns im Rahmen dieser Arbeit interessieren.

Churchlands Ausgangspunkt in dem Kapitel ‘Sensory Representation: The Incredible Power of Vector Coding’ ist die Kluft zwischen der Fähigkeit unserer Sinnesorgane, eine unüberschaubare Zahl von Zuständen zu unterscheiden und die damit verglichen geringe Fähigkeit, diese Eigenschaften in Worte zu fassen. Kurz gesagt, ist es seine These, daß diese Kluft durch die spezifischen Arbeitsweise des Gehirns erklärt werden kann:

Language employs a set of discrete names, decidedly finite in number, and it falls back on metaphor when the subtlety of the sensory situation outruns the standard names, which regularly it does. By contrast, the nervous system employs a combinatorial system of representation, one that permits a fine-grained analysis of each of the sensory subtleties it encounters. This allows us to discriminate and recognize far more than we can typically express in words. (Churchland 1995: 21)

Am deutlichsten wird die Vorstellung, die dieser Erklärungsstrategie zugrundeliegt, wenn wir uns über den relativ einfachen Fall der Geschmackswahrnehmung in die Materie einarbeiten.

5.1.1. Geschmack

Nach den gängigen sinnesphysiologischen Theorien haben Menschen vier verschiedene Geschmacksrezeptoren in der Zunge, die häufig als Süß-, Sauer-, Salzig-, und Bitter-Rezeptoren bezeichnet werden. Das ist zwar streng genommen nicht ganz richtig, denn alle Arten von Geschmack bestehen in einem bestimmten Aktivierungsmuster aller dieser Rezeptoren. Aber ganz falsch ist die Bezeichnung insofern nicht, als daß z.B. ein süßer Geschmack mit einer starken Aktivierung des entsprechenden Rezeptors bei schwächerer Aktivierung der anderen einhergeht.

Fast alle Geschmacksrichtungen stellen sich uns als Komplex dar. Man braucht gar nicht bis zu so subtilen Differenzierungen zu gehen, wie man sie oft in der Weinliteratur findet. Ein Keks mit


88

Orangenschalenaroma aktiviert alle Rezeptoren: Er ist süß, der Teig enthält aber auch Salz, und die Orangenschale sorgt für einen säuerlichen Ton, dem ein leicht bitterer Nachgeschmack anhängt. Ungefähr in dieser Reihenfolge nimmt auch die Aktivierung der Rezeptoren ab. Ein ganz ähnliches Muster würde etwa ein Keks mit Zitronenschalenaroma liefern, mit leichten Änderungen in der Erregung vor allem der Sauer- und Bitter-Rezeptoren. Churchlands Beispiel ist der Geschmack eines Pfirsichs und der einer Aprikose: Phänomenal sind sie nur durch eine Nuance voneinander getrennt, sie sind offensichtlich ähnlich. Diese Ähnlichkeit aber genau zu beschreiben, ist sehr schwer; es scheint, als würde unsere Beschreibung das Phänomen nicht erschöpfen können.

Um diesen Eindruck zu erklären, weist Churchland darauf hin, daß die unterschiedlichen Aktivierungsgrade der einzelnen Kanäle mathematisch als Vektoren darstellbar sind, d.h. als n-Tupel, die als Koordinatenangaben innerhalb eines n-dimensionalen ”Geschmacksraumes“ dienen. Das stößt zwar schnell an die Grenzen der graphischen Darstellbarkeit, weil mehr als drei Dimensionen in der Ebene nur mit Hilfskonstruktionen einzufangen sind, ist aber prinzipiell in beliebig vielen Dimensionen möglich. Die Achsen des Koordinatensystems stehen für Aktivierungen je eines Kanals, wobei der Abstand vom Ursprung die Intensität der Erregung repräsentiert.

Wie groß die Erklärungsleistung der Annahme der Vektorcodierung in konkreten empirischen Zusammenhängen ist, zeigt sich daran, daß sie als abstraktes Prinzip auf die verschiedensten Bereiche der Sinneswahrnehmung angewendet werden kann. Zum einen ist der anatomische Aufbau des Kortex über alle Felder mit unterschiedlichen Spezialisierungen hinweg erstaunlich einheitlich, es liegt schon deshalb nahe, den verschiedenen Leistungen ein einheitliches Verarbeitungsprinzip zugrunde zu legen. John Hopfield (1997) hat zudem ein Modell vorgeschlagen, das erlaubt, die Erkennung des Klangs eines Wortes auf genau dieselbe Weise zu erklären wie die Erkennung eines spezifischen Geruchs. Er zeigt in einem mathematischen Modell, wie die Lauterkennung von solchen neuronalen Prozessoren übernommen werden kann, die normalerweise für die Geruchserkennung zuständig sind. Der zeitabhängige akustische Reiz wird in einem transducer in einen raumabhängigen olfaktorischen Reiz umgewandelt und quasi als ‘Geruchssignal’ weiterverarbeitet. Genau wie jeder Geruchswahrnehmung ein bestimmtes Erregungsmuster der Rezeptoren entspricht, die mit den (als relativ leicht zu aktivierende neuronale Verknüpfungen abgelegte) bereits bekannten Mustern verglichen werden können, entspricht jeder Lautfolge eine ganz bestimmtes Erregungsmuster. Das ist ein besonders für Linguisten wie Steven Pinker interessantes Ergebnis, erlaubt es doch, die Entwicklung der menschlichen Sprachzentren (des language organs) als Umwidmung schon vorhandener kortikaler Netze zu begreifen (vgl. Pinker 1994).

Der große Vorteil einer Theorie, die die gewaltige Unterscheidungsfähigkeit des sinnlichen Apparats auf diskrete Vektorcodierung zurückführt, liegt in der Einfachheit der benötigten hardware und der kombinatorischen Explosion der Anzahl von Zuständen, die das System einnehmen kann. Es müssen nicht mehr einzelne Geschmacksrichtungen oder auch nur Typen möglicher Nuancen unterschieden werden. Wenn jeder der vier Rezeptortypen nur je 10 verschiedene Zustände einnehmen kann, kann das System 10 mal 10 mal 10 mal 10 = 10 000 verschiedene Aktivierungen unterscheiden, also 10 000 verschiedene Geschmacksrichtungen repräsentieren:

Vast representational power thus results from very modest resources; that is the first payoff we derive from coding sensory inputs with a pattern of activation levels across a population of neurons. The combinatorics of the situation are here working for the brain, rather than against it, as was often the case in classical approaches to AI. (Churchland 1995: 23f.)<75>


89

Dies ist übrigens eine der vielen Stellen, in denen Churchland eine interessante Revision einiger seiner früheren Überzeugungen vorzunehmen scheint: War sein Ansatz in A Neurocomputational Perspective (1989) eher der, das Gehirn als eine Art von Computer zu verstehen, scheint ihn jetzt die tatsächliche hardware des Gehirns (als Engine of the Soul) stärker zu interessieren. Dahinter steckt das Eingeständnis, daß Gehirne eben doch anders arbeiten als Computer, obwohl man bestimmte Hirnfunktionen natürlich auf dem Rechner simulieren kann und diese Modelle für den Forschungserfolg durchaus von entscheidender Bedeutung sein können.

5.1.2. Farbensehen

Das gleiche Prinzip läßt sich hervorragend auf die anderen Sinnesorgane übertragen. Beim visuellen System paßt die Vektorcodierung in besonders guter Weise zu den empirischen Daten über seine Funktionsweise. Auch wenn die Frage, was z.B. Farben wirklich sind, eine kontrovers geführte, ausufernde philosophische Debatte angestoßen hat, die weiter offen zu sein scheint, gibt es einen Konsens darüber, wie die physiologischen Prozesse aussehen, die unser Farbensehen ermöglichen.

In der Retina gibt es drei verschiedene Arten von Detektoren, die auf die Wellenlänge der elektromagnetischen Strahlung reagieren, die das Auge erreicht. Jeder dieser drei Typen von Stäbchen, wie diese Sinneszellen aufgrund ihrer länglichen Form heißen, ist besonders empfindlich für einen bestimmten Bereich von Wellenlängen. Die Aktivierungen der Detektoren werden an eine tiefere neuronale Ebene weitergeleitet, die noch innerhalb der Retina liegt und dort die einströmenden Daten gemäß dieser drei Dimensionen anordnen. Die Ordnung innerhalb der Daten ist für uns so interpretierbar, als handle es sich dabei um einen dreidimensionalen Farbraum, wobei die Aktivierungen eines Typs von Stäbchen als eine Achse des Koordinatensystems verstanden werden kann. Das ist natürlich eine metaphorische Redeweise, die nicht implizieren soll, daß es irgendwo in der neuronalen Struktur ein Bild eines cartesischen Koordinatensystems gibt. Es gibt nur bestimmte neuronale Verschaltungen, die genügend diskrete Zustände einnehmen können, um sie so zu interpretieren, als enthielten sie die Vektoren, die wir zur besseren Erklärung als Koordinatensystem behandeln können. Nur in diesem Sinne bilden die Neuronen der ersten Verarbeitungsstufen den ”Farbraum“. Eine Achse ist dabei das Ergebnis eines Gegensatzes zwischen Rot und Grün. Dieser Kanal ist stark bei Wellenlängen im Bereich dessen aktiviert, was wir als Rot empfinden, reagiert aber nur schwach auf Wellenlängen im grünen Bereich. Eine zweite Achse ist das Ergebnis eines ähnlichen Gegensatzes zwischen Gelb und Blau, und die dritte Achse repräsentiert die lokale relative Helligkeit, die über alle drei Rezeptortypen einfällt. Das ist der Grundgedanke der empirisch gut bestätigten Gegenfarbtheorie (color opponency theory). Diese Theorie läßt sich zwanglos schon in ihrer Grundvoraussetzung an unsere über die Sensorik erworbenen Meinungen über Farben anbinden, denn schon lange bevor diese Theorie formuliert wurde, gab es die bekannten Versuche, Farben kreisförmig anzuordnen und so in Beziehungen zu setzen, bei denen die Paare Rot und Grün bzw. Gelb und Blau Komplementärfarben bildeten. Aber die Gegenfarbtheorie läßt sich auch noch in Hinsicht auf andere systematische Zusammenhänge der Farben aubeuten:

Such a coding strategy locates all of the familiar colors or hues in a continuous circle around a central vertical Axis. Their vividness is represented by their horizontal distance from the central axis: as they get closer to that axis, the hues fade into a colorless gray. As one moves upward in this space from any point, the lighter or more pastel the color of that point becomes. Moving downward makes it steadily darker, heading toward black. (Churchland 1995: 25)

Es ist aus offensichtlichen empirischen Gründen nicht ganz einfach, festzustellen, wieviele Farbtöne wir genau unterscheiden können, aber schon ca. 20 Aktivierungsstufen je Kanal bringen uns auf 10 000 verschiedene Vektoren (bei drei Kanälen als 3Ö10 000), welche Zahl als ungefähre Angabe der Größenordnung durch die Literatur geistert.

Dieses elegante Modell, das Farben als Tripel der Aktivierungswerte der Sensorzellen faßt, erklärt nicht nur unsere Urteile über phänomenale Ähnlichkeit von Farben, so etwa, daß Gelb eher Grün ähnelt als Blau: Gelb und Blau entsprechen entgegengesetzten Aktivierungen eines einzigen Kanals; die Vektoren, die Gelb und Grün codieren sind hingegen im Farbraum direkt benachbart.


90

Die Gegenfarbentheorie erklärt auch weitergehende Relationen, etwa die, welche Farbe genau zwischen zwei anderen liegt (Orange etwa zwischen Rot und Gelb): Die Theorie kann so unsere Intuitionen über die Struktur des Farbraums berücksichtigen.<76>

5.2. Vektorcodierung in neuronalen Netzen: Gesichtererkennung

Man mag einwenden, daß Vektorcodierung für so grundlegende Eigenschaften unserer visuellen Umwelt wie Farben vielleicht geeignet sei, höherstufige Wahrnehmungen aber nicht erklären könne. Um zu zeigen, daß dem nicht so ist, erläutert Churchland detailliert Modelle für weniger basale Unterscheidungsfähigkeiten des visuellen Systems. Eine wichtige Fähigkeit, die zudem extrem schnell und zuverlässig arbeitet, ist die Gesichtererkennung. Es mag verblüffend erscheinen, zur Lösung des Qualia-Problems ausführlich auf dieses Phänomen einzugehen, bei dem es vielen nicht unmittelbar einleuchtet, inwieweit es überhaupt in Verbindung mit dem phänomenalen Bewußtsein steht, aber Churchland bietet die Vektorcodierung als eine Art Allzweckstrategie, als Grundprinzip jeglicher Leistung des Gehirns an, und so ist eine recht ausführliche Darstellung seines Vorschlages unumgänglich, will man dessen Erklärungswert für die uns interessierenden Fragen


91

angemessen beurteilen.

Ein so komplexes Gebilde wie ein bekanntes menschliches Gesicht wird normalerweise aus fast beliebigen Blickwinkeln in weniger als einer Viertelsekunde identifiziert. Wenn man einen so komplizierten Fall mithilfe der Vektorcodierung in den Griff bekäme, wäre die Vermutung nicht unberechtigt, eine Art von Allzweckerklärung für die Unterscheidungs- und Wiedererkennungsfähigkeiten unserer Sinnesorgane gefunden zu haben. Zwar gibt es eine wesentliche Disanalogie zwischen der Objekterkennung (und dadurch natürlich auch der Wiedererkennung einer bestimmten Objektklasse wie Gesichtern) und den Fällen der Basissensorik wie Schmecken, Hören, Sehen, Riechen und Tasten. In den letzteren nämlich können wir immer davon ausgehen, daß es eine bestimmte Sorte von Sensoren ist, die die Reize aufnimmt, nach deren Eigenschaften sich die Dimensionalität des Vektorraumes bestimmt. Diese Sensoren sind empfindlich für ganz bestimmte Substanzen oder Ereignisse in der Umwelt - die Sinneszellen des Auges für elektromagnetische Strahlung bestimmter Wellenlängen, die des Ohres für Schallwellen, die der Nase und der Zunge für bestimmte Moleküle, etc. Es ist nun offenkundig absurd, die Gesichtererkennung analog an eine bestimmte Art von Sinnesreiz zu binden, denn offenkundig bedienen wir uns hierbei normalerweise des Auges, und das ist nur allgemein für bestimmte Wellen empfänglich. In viel ausgeprägterer Weise als bei der Basissensorik geht es hier um die Codierung höherstufiger Parameter, die zusammengenommen dazu geeignet sind, Gesichter hinreichend genau zu spezifizieren wie Nasenlänge, Breite des Mundes, Augenabstand, Gesichtsform, etc.

Bevor wir aber Churchlands Antwort auf diese Frage skizzieren, ist es vielleicht hilfreich, zu verdeutlichen, wie prinzipiell die Vektorcodierung auf das Problem der Gesichtererkennung anwendbar sein könnte. Dazu sollte man eher die Analogien zwischen diesem Problem und dem der Basissensorik hervorheben. So dürfte jedem aus der eigenen Erfahrung die Schwierigkeit bekannt sein, eine angemessene Beschreibung eines Gesichtes zu geben, die genau genug wäre, um es objektiv zu identifizieren, obwohl man keine Schwierigkeit dabei hätte, es wiederzuerkennen. Man hat oft das Gefühl, daß das Gesicht einem detailliert vor dem ‘inneren Auge’ präsent ist, so ungenügend die sprachliche Beschreibung auch ist. Die kriminalistische Praxis von Phantombildern und Gegenüberstellungen liefert hier zahllose Beispiele. Das Problem, eine sinnliche Mannigfaltigkeit verbal angemessen umzusetzen, verbindet also basale Sensorik und die Gesichtererkennung. Eine weitere Analogie ist, daß beide Fähigkeiten weitgehend automatisiert in relativ niedrigen neuronalen Schichten verankert sein müssen. Dafür spricht nicht nur die hohe Geschwindigkeit und Akkuratesse, sondern auch der Umstand, daß kleine Kinder schon sehr bald nach der Geburt offenbar Gesichter wiedererkennen (und selbst stilisierte Gesichter von anderen, ähnlichen Bildern unterscheiden) können. Diese Überlegungen bringen Churchland zu folgender Vermutung:

This capacity reflects another instance of vector coding. The brain seems to represent faces with a pattern of activation in a special cortical area somewhat farther along in the visual system (the parietal-temporal region), a pattern whose elements correspond to various canonical features or abstract ‘dimensions’ of observed faces. (Churchland 1995: 8f.)

Zwar weiß man nicht genau, welche Eigenschaften von Gesichtern als kanonisch gelten, d.h. die Kanäle definieren, auf denen Gesichter repräsentiert werden. Aus Experimenten ist aber bekannt, daß die Relationen in der Augenpartie besonders wichtig sind, auch Mund und Gesichtsform scheinen entscheidende Rollen zu spielen.<77> Klar ist jedenfalls, daß auch hier die kombinatorische Explosion zu einem höchst differenzierten ‘Gesichtsraum’ führt, besonders wenn man mit in Betracht zieht, daß eventuell sehr viele verschiedene Kanäle (also kanonische Eigenschaften) beteiligt sind. Man sollte allerdings kritisch anmerken, daß Churchland von der -in der Sache unstrittigen- Eleganz seines Erklärungsmusters mitgerissen wird. Seine quantifizierten Schätzungen klingen häufig nach just-so-stories, nach ‘Ergebnissen’, die sehr stark vom Wissen darüber geprägt sind, was herauskommen muß, damit der Ansatz funktionieren kann. Ein Beispiel ist seine Abschätzung der zu bewältigenden Größenordnungen:


92

If humans represent faces with a ten-dimensional vector, with only five increments of discrimination along each of its ten dimensions, then we should be able to discriminate 510, or roughly 10 million different faces. And so, it seems, we can. (Churchland 1995: 29)

Da hätte man doch gern einen Hinweis auf eine empirische Studie - obwohl es schwer vorstellbar ist, wie man experimentell die Behauptung ”Menschen können 10 Millionen Gesichter unterscheiden“ überprüfen können sollte; bei derlei Zahlen handelt es sich meist um grobe Überschlagswerte.<78> Churchland neigt dazu, den völlig spekulativen Charakter seiner quantitativen Aussagen unter den Teppich zu kehren. Wichtiger als von einer wie auch immer abgeschätzten Größenordnung auf die Anzahl der dafür benötigten Kanäle zurückzuschließen, wäre es, festzustellen, womit das visuelle System tatsächlich arbeitet.

Andererseits ist der Konnektionismus derzeit noch nicht imstande, konkrete Modelle für die neurophysiologische Ebene vorzuschlagen, und es ist eine unbillige Forderung, deshalb auf alle Spekulationen zu verzichten, solange diese für die Phänomene erhellend sind. Es ist auch schwer, sich Churchlands Enthusiasmus ganz zu entziehen, löst der von ihm dargelegte Ansatz doch eine Menge theoretischer Probleme und ist an Ergebnisse aus benachbarten Wissenschaften problemlos anschlußfähig. So läßt sich die in der Kognitionspsychologie und Linguistik sehr erfolgreiche Prototypentheorie ohne Zwang in dieses Bild einfügen: So, wie in der Mitte des Farbraums ein Grau steht, dessen Position durch die Werte bestimmt ist, die sich genau in der Mitte der Aktivierung aller drei Kanäle befindet, gibt es auch ein ”prototypisches Gesicht“, das sozusagen den mittleren Ausprägungen aller Merkmale besteht, die die Dimensionen des ‘Gesichtsraums’ bilden. Unter der Annahme eines prototypischen Gesichts kann man erklären, warum z.B. Karikaturen, obwohl sie charakteristischerweise so überzeichnet sind, daß die Relationen zwischen einzelnen Elementen sehr weit von den tatsächlichen Verhältnissen entfernt sind, sofort wiedererkannt werden: Sie liegen auf einer Achse im Gesichtsraum, die vom prototypischen Gesicht durch das tatsächliche Gesicht der karikierten Person hinweg immer stärker übertreibend fortgeführt werden. Zur Illustration der Strategie kann man sich auch die Technik der inkrementalen Veränderung von einem Gesicht zu einem anderen, das sogenannte ‘Morphing’, vor Augen führen, dem man in der Werbung oder auch in Musikvideos kaum noch entfliehen kann:

We start by vector-coding the two objects to be morphed. We then construct the straight line between these two points in vector space. We finish by converting the sequence of points along that line back into a sequence of corresponding faces [...]. For graphic artists, the technique of vector coding is new, and filled with interesting possibilities. For the biological brain, however, the technique is old. (Churchland 1995: 34)

Das sind alles bislang nur Postulate, die der empirischen Erhärtung bedürfen, um theoretisch ernst genommen werden zu können. Vor allem muß die oben schon aufgeworfene Frage geklärt werden, wie denn ein ”Gesichtssensor“ faktisch aussehen könnte. Anders gefragt: Welche Art von Verarbeitung der Farb- und Kontrastunterschiede, die uns die Augen geben, ist nötig, um diejenigen Merkmale herauszufiltern, die nach Churchland die Dimensionen des Gesichtsraumes ausmachen? Churchlands Antwort, die es wert ist, hier kurz skizziert zu werden, weil er meint, damit das Qualia-Problem lösen zu können, besteht in einer Strategie, die derjenigen David Marrs ähnelt, die wir oben bereits kurz kennengelernt haben. Churchland postuliert einen transducer, einen Datenwandler, der als neuronales Netz im Gehirn realisiert ist und der mittels verschiedener Filter unterschiedlicher Bandbreite aus den Kontrastunterschieden der Retina diejenigen lokalen Gruppierungen von Reizen aussortiert, die mehr oder weniger gut (je nach Bandbreite des Filters) dem prototypischen Gesicht entsprechen. Das ist deshalb eine Fortschreibung Marrs, weil sich das ‘Gesichtserkennungssystem’ der verschiedenen sketches im Marrschen Sinn bedienen kann, innerhalb dieser einfachen Elemente aber größere Strukturzusammenhänge zu Tage fördert. Churchland beruft sich dabei sowohl auf neurophysiologische Befunde (vgl. 27 f.) wie auf


93

praktische Versuche, neuronale Netze zu bauen, die in der Gesichtererkennung Ähnliches leisten wie unsere Wahrnehmung, d.h., die grob unsere Diskriminierungsleistungen erbringen.

Auch hier kann man den Vorwurf erheben, daß alle diese Modelle in ihrer Anwendung auf das biologische Gehirn extrem spekulativ sind, was Churchland durchaus zugibt, wenn auch eher widerwillig:

There exists a general technique for finding synaptic solutions to transformational problems, a technique widely used by neuromodellers. It is biologically realistic in the single respect that it involves the steady adjustment of the network’s synapses in response to the pressures of experience. Sadly, it is biologically unrealistic in just about every other respect. (Churchland 1995: 42)

Die Theorie und Praxis neuronaler Netze ist ungemein kompliziert. Trotzdem lohnt es sich, ihre Funktionsweise, so wie Churchland sie darstellt, wenigstens im Prinzip nachzuvollziehen, damit wir beurteilen können, welche Erklärungsansprüche durch den Verweis auf solche Netze gedeckt sind und welche nicht. Als Motivation, den folgenden Exkurs mitzumachen kann ich neben der Faszination der Sache selbst an dieser Stelle nur versprechen, daß, gesetzt den Fall, Churchland hätte Recht und unser Gehirn funktionierte im Prinzip genauso, wie die Modelle in den Labors der Kognitionswissenschaftler, sich schon daraus schwerwiegende Argumente gegen die gängigen reduktionistischen Strategien inbezug auf bewußte Prozesse im allgemeinen und phänomenales Bewußtsein im besonderen ableiten ließen. Der Ehrgeiz ist es, zu zeigen, daß gerade, wenn die Kognitionswissenschaftler mit ihren Theorien recht behalten, genau das ein Indiz dafür ist, daß sie nicht dasjenige am Bewußtsein erklären, worum es in der einschlägigen philosophischen Debatte geht. Anders gesagt sind sie zwar gegebenenfalls in der Lage, bestimmte Korrelationen zu liefern: Immer, wenn neuronale Netze einer bestimmten Struktur im Gehirn einer Versuchsperson gegeben sind, berichtet erfahrungsgemäß diese Person, in einem bestimmten phänomenalen Zustand zu sein. Für eine strikte Reduktion reicht es aber nicht aus, empirisch zuverlässig die Kovarianz des zu reduzierenden Phänomens und der Struktur, auf die es reduziert werden soll, zu behaupten. Insbesondere scheinen sich mir bestimmte methodologische Folgerungen bezüglich des Zugangs zu phänomenalen Zuständen zu ergeben, die in der Summe geeignet sind, die Intuition der eigenartigen subjektiven Bezogenheit besonders der phänomenalen Zustände zu untermauern. Das wären sicher interessante Ergebnisse, und um zu ihnen gelangen zu können, bitte ich um Geduld für die nötigen eher technischen Ausführungen.

Wir haben bereits gesehen, wie man Gesichter anhand bestimmter Kriterien als Vektoren in einem n-dimensionalen ‘Gesichtsraum’ darstellen kann. Welche Kriterien als Dimensionen in diese Darstellung eingehen sollen und wie das geht, blieb aber unerläutert. Eine Arbeitsgruppe um Garrison Cottrell an der University of California in San Diego hat dazu ein Modell vorgeschlagen, demzufolge zunächst das Bild eines Gesichts als input für ein neuronales Netz definiert wird (zu den Details des Netzaufbaus komme ich sofort). Man sollte sich auf dieser Stufe nicht unnötig an dem ungeklärten Bildbegriff reiben, der hier verwendet wird, in der Art etwa, in der Gibson sich darüber ereifert, daß es keine Retinabilder gebe. Gemeint ist hier nur eine räumlich diskrete Kontrastverteilung, wie sie als kausale Folge von Lichteinfall auf eine Anordnung von Lichtrezeptoren entsteht. Aus praktische Gründen verwendet Cottrell ein Raster mit der recht geringen Auflösung von 64 mal 64 Bildpunkten, deren jeder 265 verschiedene mögliche Aktivierungen hat, d.h. unterschiedlich auf 265 Helligkeitsstufen reagiert. Dieser Teil des Modells simuliert quasi die Kontrastverteilung auf der Retina und bildet die erste Verarbeitungsschicht.

Jede der 4096 (64 mal 64) Zellen der ersten Schicht projiziert zu allen 80 Zellen einer zweiten Ebene, die somit einen 80-dimensionalen Gesichtsraum darstellen;<79> von diesen Zellen führen


94

weitere synaptische Verbindungen zu den 8 Zellen der dritten und letzten Ebene, deren Zustände den output des neuronalen Netzes bilden. Der output einer dieser Zellen repräsentiert, ob es sich beim input um ein Gesicht handelt oder nicht, der einer zweiten und dritten ob das Gesicht männlich oder weiblich ist, die restlichen fünf repräsentieren einen zufällig generierten, aber konstanten ‘Namen’ für jedes der Gesichter, die in der Trainingsphase als inputs gegeben wurden.

Es erscheint zunächst wie Magie, daß ein input durch irgendwelche Transformationen in 4184 (4096+80+8) Zellen auf drei Ebenen in einen output verwandelt wird, der von einem beliebigen Bild aussagt, ob es (1) ein Gesicht, (2) männlich oder weiblich und (3) schon einmal präsentiert worden ist, vor allem, wenn man bedenkt, daß alle diese Leistungen nur durch die Aktivierungsintensität der einzelnen Zellen und ihrer Verknüpfungen (der ‘synaptischen Gewichtung’) zustande kommt. Gerade weil die Leistungsfähigkeit neuronaler Netze so phantastisch anmutet, unterschätzen viele Philosophen, wie weit man mit solchen Erklärungen bei bestimmten Problemen kommt. Ein einfaches Beispiel für ein System, das schon durch synaptische Gewichtung von Retinazellen einfache Strukturen erkennt, haben wir oben im Rahmen der Diskussion der Thesen David Marrs schon kennengelernt. Hier liegt der Fall ähnlich, nur sind die beteiligten Strukturen komplexer. Es ist nicht schwer, sich vorzustellen, wie aus geeigneten Verbänden solcher Zellen, deren output entsprechend gewichtet wird, Detektoren für einfache geometrische Strukturen gebaut werden können. Verwendet man diese Strukturen ihrerseits als input für höhere Ebenen eines neuronalen Netzes, kommt man letztlich zu so komplexen Leistungen wie der Codierung von Gesichtern.

Das Problem allerdings ist, daß Cottrells Gesichtsdetektor, so einfach er auch strukturiert ist, bereits 328 320 synaptische Verbindungen hat, und man zu Anfang keine Vorstellung davon hat, wie die jeweiligen Gewichtungen aussehen müssen, um die erwünschte Leistung zu erbringen. Bei einer so großen Zahl möglicher Verbindungen, die alle auch noch eine Bandbreite unterschiedlicher Werte einnehmen können, ist klar, daß unspezifisches Herumprobieren keine erfolgversprechende Strategie ist. Es gibt aber eine Technik, die zumindest bei kleineren neuronalen Netzen die geeigneten synaptischen Gewichtungen herausfindet, solange man weiß, welcher output relativ zu einem bekannten input als Erfolg gewertet werden soll. Diese sogenannte backpropagation besteht in einer vom Ergebnis rückwärtsgerichteten Veränderung der Aktivierung einzelner Zellen in Hinsicht auf das gewünschte Ergebnis.

Um diese Vorgehensweise zu erhellen, fragen wir uns noch einmal: Was ist das Ziel? Wir wollen die synaptischen Verbindungen unseres Netzes so konfigurieren, daß sie insgesamt auf beliebige inputs mit einem adäquaten output reagieren, d.h. mit einem output, der richtig aussagt, ob der input ein Gesicht ist, welches Geschlecht dieses hat und ob ihm das Gesicht schon einmal gezeigt wurde. Um das System dahingehend ‘abzurichten’, setzt man alle synaptischen Verbindungen auf Zufallswerte fest, die sowohl positiv wie auch negativ sein können. Im ersten Fall ahmen sie exzitatorische, im letzteren inhibitorische Zellen nach, wie es sie auch im Gehirn gibt. Wie wissen ja nicht, welche Werte die Verbindungen tatsächlich haben müssen, daher ist ein Wert so gut wie jeder andere. Dann geben wir dem System einen input, von dem wir wissen, wie der ‘richtige’ output aussähe, also z.B. ein Photo des Gesichts der Versuchsperson Janet. Wir haben arbiträrerweise Janets Namen als den Quintupel {0,5/1/0.5/0/0} festgelegt. Als output-Vektor des Systems hätten wir dann gern {1/0/1/0,5/1/0,5/0/0}: Die erste ‘1’ besagt, daß es sich um ein Gesicht handelt (‘0’ hätte das Gegenteil bedeutet), die folgende Kobination ‘0/1’ codiert ‘Nein’ für ‘männlich’ und ‘Ja’ für ‘weiblich’, und die letzten fünf Stellen identifizieren dieses spezielle weibliche Gesicht als das von Janet.

Nun wäre es ein ausgesprochen unwahrscheinlicher Zufall, wenn wir mit den arbiträren Gewichtungen des Ausgangssystems diesen output erhielten. Wir werden vielmehr einen output-Vektor erhalten, der sehr weit von unserem Wunschergebnis entfernt ist, z.B. {0,23/0,8/0,39/0,2/0,03/0,19/0,66/0,96}. Das ist falsch, aber wenigstens wissen wir, wie falsch es ist. Denn jetzt können wir das Ergebnis mit dem Wunschvektor vergleichen. Genauer gesagt, ziehen wir jedes Element des tatsächlichen Vektors von dem entsprechenden Element des Wunschvektors ab. Wir erhalten dann einen dritten Vektor, der den Fehler repräsentiert, den das Netz hinsichtlich


95

dieses spezifischen inputs begeht. Mit den Zahlen des Beispiels:

{ 1/ 0/ 1/ 0,5/ 1/ 0,5/ 0/ 0}

(gewünschter Vektor)

-

{0,23/ 0,8/0,39/0,2/0,03/0,19/ 0,66/ 0,96}

(tatsächlicher Vektor)

=

{0,77/-0,8/0,61/0,3/0,97/0,31/-0,66/-0,96}

(Fehlervektor)

In einem weiteren Schritt werden die Elemente des Fehlervektors quadriert, um die relativ höhere Bedeutsamkeit der größeren Fehler gegenüber den kleineren Fehlern hervorzuheben - wir wollen die Fehler ja verringern, müssen folglich die größeren Fehler stärker verändern als die kleineren. Gerundet erhalten wir dann folgenden Quadratfehlervektor:

  {0,59/0,64/0,37/0,09/0,94/0,09/0,44/0,94} (Quadratfehlervektor)

Wenn wir die Werte des Quadratfehlervektors mitteln, erhalten wie einen mittleren Quadratfehlervektor von 0,5125. Dieser Wert ist nicht sonderlich bedeutsam, dient uns aber als Meßgröße dafür, ob eine Veränderung in den synaptischen Gewichtungen uns hilft, den tatsächlichen Vektor an den Wunschvektor anzunähern - wir müssen nur versuchen, diesen Wert möglichst klein zu bekommen. Wir halten also den input gleich, verändern eine der synaptischen Gewichtungen um einen geringen Wert und schauen nach, wie sich der Quadratfehlervektor verhält. Verschlechtert er sich, machen wir die Veränderung rückgängig, verbessert er sich, verändern wir ein bißchen mehr in der selben Richtung. Früher oder später erreichen wir einen optimalen Wert, d.h. jede Veränderung führt nur noch zu einer Verschlechterung. Dann lassen wir diesen Wert so, wie er ist, und verändern die nächstbenachbarte Verbindung in analoger Weise. Wenn wir uns so Schritt für Schritt durch jede einzelne Verbindung des Netzwerkes hindurcharbeiten, erhalten wir ein neues Netz, eines, das im Vergleich zum Ausgangszustand eine etwas andere Verbindungskonfigurierung hat und zudem einen output-Vektor erzeugt, der etwas näher am erwünschten Ergebnis liegt. Diese aufwendige Prozedur wiederholt man dann mit einem zweiten Paar von Eingangs- und Ausgangswerten, dann mit einem dritten, und immer so fort.

Jetzt wird deutlich, warum backpropagation nur für relativ kleine Netze praktikabel ist, denn jeder synaptische Verbindung wird mehrmals revidiert werden müssen, weil ihr optimaler Wert von den benachbarten Verbindungen abhängt. Auch leistungsfähige Computer rechnen an so einer Aufgabe lange herum, besonders, weil die Trainingsphase normalerweise mit einer Menge von inputs durchgeführt wird und jeder ein erneutes Durchlaufen aller Gewichtungen verlangt.

Dieser lange Prozeß wurde für Cottrells Netzwerk inbezug auf 64 Photos von insgesamt 11 verschiedenen Gesichtern und 13 Photos, die keine Gesichter zeigten durchgeführt. Man spricht von ‘lernfähigen Netzen’, weil das Netz durch ‘Übung’ an diesem Satz Photos die Gesichtererkennung überhaupt lernen sollte. Tatsächlich leistet das Netz Erstaunliches: Bezüglich des Übungssatzes gab es nach Abschluß der Trainingsphase in 100 % der Fälle den ‘richtigen’ output-Vektor für alle drei Kriterien (Gesicht/Geschlecht/Name). Das wäre dann nicht überraschend, wenn es in der Übungsphase nur bestimmte inputs mechanisch mit einem output verbunden hätte. Tatsächlich aber identifizierte das Netz auch neue Photos der Gesichter des Trainingssatzes, die es noch nie vorher gesehen hatte, mit immerhin 98 % Genauigkeit. Mehr noch, auch bei neuen Photos mit unbekannten Gegenständen lag die Genauigkeit der Auskunft, ab es sich um ein Gesicht handelte, bei 100 %, und in immerhin 81 % identifizierte es das Geschlecht korrekt. Selbst zu ca. einem Fünftel teilverdeckte Gesichter wurden mit hoher Genauigkeit identifiziert, Schwierigkeiten gab es nur dann, wenn die Stirnpartie verdeckt wurde. In diesen Fällen fiel die korrekte Zuordnung auf 71 %, was darauf hinzudeuten scheint, daß die Chrakteristika der Stirnpartie wie der genaue Verlauf des Haaransatzes eine überproportional wichtige, aber nicht allein schon hinreichende Bedingung für die Erkennung eines spezifischen Gesichts ist.

Dieser Umstand ist in unserem Zusammenhang besonders interessant, besagt er doch, daß nicht einmal die Konstrukteure eines lernfähigen neuronalen Netzes genau wissen, wie es die Leistung erbringt, die man experimentell abrufen kann. Warum ausgerechnet diese Gewichtung der synaptischen Verbindung diese Diskriminierungsleistung ermöglicht, ist unbekannt, obwohl es keine ‘versteckten’ mysteriösen Wirkzusammenhänge zwischen den Zellen jenseits dieser Gewichtungen


96

gibt. Um zu wissen, was ein unbekanntes neuronales Netz tut, hilft es wenig, sich die synaptischen Verbindungen und Aktivierungszustände seiner Zellen anzuschauen. Vielmehr muß man es mit bestimmten inputs füttern und schauen, ob diese in irgendeiner sinnvollen Weise mit den outputs zusammenhängen. Kurz: Man muß sich auf die ‘Aussage’ des Systems über seinen eigenen Status verlassen. Das gilt bereits für so einfache Systeme wie das hier betrachtete; ein biologisches Gehirn ist um mehrere Größenordnungen komplexer. Doch wie realistisch ist dieser Ansatz in Hinsicht auf die Weise, in der unser Gehirn arbeitet? Churchland schränkt die Übertragbarkeit ein:

On the anatomical issue, it must be said that the face-coding region in the human brain is at least five synaptic steps and five neuronal populations downstream from the retina, not one step, as with the crucial eighty-cell layer two in the artificial network. However, this need not be a significant contrast between reality and the model. The human visual system is concerned with many cognitive tasks in its first several layers, not just facial recognition. It must discriminate borders, shapes, typical objects, three-dimensional spatial relations, changes over time, physical movements, object trajectories, and more, all of it based on input vectors of the retina. (Churchland 1995: 51)

Churchland meint, es sei eine empirische Frage, inwieweit das Modell wirklich realistisch sei, weist aber auf einige Analogien hin, um seine Intuitionen zu stützen, die Aussichten hierfür seien gut. Das erscheint mir zu wenig, und weiterführende Argumente bringt er an keiner Stelle.

Eine dieser Analogien läßt mich besonders aufhorchen: Churchland meint, daß das beschriebene Netz sich für wichtige Schritte auf induktive Schlüsse verläßt. Wir erinnern uns: Das System leistete gute Arbeit auch bei ‘verrauschten’ inputs wie den teilverdeckten Gesichtern. Churchlands Erklärung ist, daß das Netz sich quasi ‘vorstellt’, wie das unverdeckte Gesicht aussehen würde. Es ist nicht ganz klar, inwieweit das metaphorisch gemeint ist, aber die Textevidenz spricht eher für eine wörtliche Lesart, wenn er etwa davon spricht, daß das Netz die fehlenden Gesichtspartien dadurch ‘rekonstruiert’, daß es Leerstellen ‘auffüllt’, und damit auch bestimmte Phänomene des menschlichen Sehens wie das Auffüllen von Mustern an der Stelle, wo sich im Gesichtsfeld der blinde Fleck befindet:

What we are observing here, in the phenomenon of vector completion at layers two and three is a primitive form of inductive inference. Indeed, it may be that vector completion is the basic form that inductive inference takes in living creatures generally. (Churchland 1995: 54)

Hier können wir noch einmal klärend die Taxonomie des Inferenzbegriffes in Anschlag bringen, die ich oben entwickelt habe: Von den fünf unterschiedenen Bedeutungen (Inferenz als (1) Übergang von Sensation zu Perzeption, (2) Lernprozeß, (3) Ergänzung verarmter Reize, (4) mentale oder psychische Operationen, (5) epistemologische These) scheint Churchland die zweite, dritte und vierte in Anspruch zu nehmen: Ihm zufolge ist das, was neuronale Netze in der Trainingsphase tun, eine Art von Lernen, genauer gesagt lernt das Netz, wie sinnvollerweise unvollständige inputs zu ergänzen sind, und dieser Lernprozeß ist ausdrücklich als zwar primitive, aber doch mentale Operation gekennzeichnet, denn letztlich sind genau solche und ähnliche Operationen die Grundlage unserer Psychologie. Ich habe anläßlich der Analysen, die mit der Aufstellung dieser Taxonomie verbunden war, schon gesagt, daß prinzipiell kein Problem darin besteht, sich innerhalb einer bestimmten empirischen Fragestellung auf diese drei Bedeutungen zu berufen. Es geht also nicht darum, Churchland verbieten zu wollen, seinen Lernbegriff so zu definieren, wie er es tut. Ähnlich verhält es sich auch bei anderen Begriffen, bei denen Philosophen meist geneigt sind, ein denkerisches Foul zu vermuten, wenn sie innerhalb der Kognitionsforschung verwendet werden, um bewußte Prozesse zu erklären. Andere Beispiele, die sich auch bei Churchland zuhauf finden lassen, sind die dem Netz zugeschriebenen Fähigkeiten etwas zu erkennen, sich nach dem Training nur noch selten zu täuschen oder (ein besonders heiß umkämpfter Fall, wenn man annimmt, daß repräsentieren ein dreistelliges Prädikat ist) bestimmte Dinge zu repräsentieren. Solange die Bedeutung, in der innerhalb eines theoretischen Rahmens diese Wörter quasi als termini technici verwendet werden, hinreichend klar ist, möge jeder nach seiner façon selig werden. Der Fall liegt aber anders, wenn man den Eindruck der Plausibilität der eigenen Theorie dadurch zu erhöhen versucht, daß man von der technischen Bedeutung ohne Kommentar zu der normalen, alltagssprachlichen Verwendung übergeht. Es ist eine Eigenschaft vieler sogenannter Intuitionspumpen, diesen Trick anzuwenden, und mein Eindruck ist, daß Churchland in seinem Buch ein ähnliches Scheinargument liefert. Man kann diesen Vorgang, denke ich, in einem


97

längeren Absatz geradezu schrittweise verfolgen, weswegen ich ihn ganz zitieren möchte. Die Passage findet sich gegen Ende von Churchlands Erläuterungen zur vielfältigen Nutzbarkeit der Vektorcodierungsstrategie als Grundprinzip zur Klärung verschiedener Probleme der Kognitionswissenschaften, etwa des stereoskopischen Sehens, der Spracherkennung und der sensomotorischen Koordination. Churchlands Idee ist, daß sich nicht nur diese relativ basalen Probleme solcherart in den Griff bekommen lassen, sondern daß letztlich alle kognitiven Prozesse durch die Anwendung der Vektorcodierung gekennzeichnet sind, auch wenn ihre Anwendung auf hochstufige kognitive Prozesse derzeit nur ein Postulat darstellt:

Some of the most sophisticated of our intellectual achievements [involve] the very same activities of vector processing, recurrent manipulation, prototype activation, and prototype evaluation which can be found in some of the simplest of our cognitive activities, such as recognizing a dog in a low-grade photograph. What distinguishes scientific cognition is just the unusual ambition of its interpretive enterprise, the sophistication of many of the prototypes deployed, and the institutional procedures that govern the evaluation of the competing interpretations proposed. At its core, scientific cognition involves the very same cognitive mechanisms as define cognition generally. And those mechanisms [...] are precisely the mechanisms embodied in a large and highly trained recurrent neural network. (Churchland 1995: 121)

Gehen wir diese Aussagen der Reihe nach durch. Schon im ersten Satz mischt sich das Offensichtliche mit weitergehenden, hier aber völlig unbegründeten Behauptungen. Es ist sehr plausibel, daß Vektorcodierung eine Strategie ist, die sich auch in den natürlichen neuronalen Netzen unseres Gehirns finden läßt; dafür hat Churchland auch empirische Hinweise geliefert. Daß er diesen Mechanismen, z.B. dem oben beschriebenen, von Marr postulierten Nulldurchgangsdetektor, bereits kognitive Funktionen zuschreibt, ist ebenfalls sein gutes Recht. Aber dann wechselt er die Ebene von derlei basalen Detektoren zu höheren, bewußten kognitiven Leistungen, in diesem Fall der Wiedererkennung eines Hundes auf einem grobgerasterten Bild, ohne daß er für diesen Schritt auch nur den Hauch eines Arguments hätte. Die Strategie ist, empirisch bestätigte basale Mechanismen vorzuweisen, die sehr spezielle input-Transformationen durchführen und dann einfach zu behaupten, daß all unser Denken und Fühlen im Prinzip nichts anderes sei - obwohl für diesen Schritt außer einer vagen Verheißung (”Die beste aller zukünftigen Neurowissenschaften wird’s schon richten!“) nichts Unterstützendes vorgebracht werden kann. Um es in einer Terminologie zu formulieren, die uns aus der Debatte zwischen Gibson und Pylyshyn bekannt ist, möchte ich nicht bestreiten, daß unsere Wahrnehmungsleistungen allesamt auf transducern aufbauen, auf Wandlern, die nach bestimmten Regeln input in output verwandeln. Wir denken alle mit unseren Gehirnen, soweit mir bekannt ist, und diese funktionieren sicher auf eine Weise, die sehr viel mit der Modulation von elektrophysiologischen Impulsen zu tun hat, wofür wiederum neuronale Netze nach dem derzeitigen Stand der Forschung eine gute Annäherung sind. Churchland scheint sich aber an keiner Stelle darüber im Klaren zu sein, daß es eine zusätzliche und sehr starke Behauptung ist, daß es eben auch nichts anderes gäbe als diese transducer, während man normalerweise eher annehmen würde, daß diese das Ausgangsmaterial für unsere höherstufigen, bewußten kognitiven Prozesse zur Verfügung stellen. Warum das eher ein Themenwechsel als die Erklärung dessen ist, was uns am Bewußtsein interessiert, wird vielleicht deutlicher, wenn wir uns anhand des Beispiels der Verarbeitung von Farben vergegenwärtigen, inwieweit Churchland meint, durch den Verweis auf Vektorcodierung das Qualia-Problem gelöst zu haben: Er sammelt zunächst einige Wahrnehmungsleistungen und Phänomenzusammenhänge, die erklärt werden müssen, zeigt, wie man Systeme konstruieren könnte, die ähnlich viele Zustände voneinander unterscheiden können und innerhalb dieser Unterscheidungen eine ähnliche Systematik solcher Zusammenhänge wie Ähnlichkeit aufweisen. Dann behauptet er, bei uns läge der Fall eigentlich genauso, wie bei dem einfachen Modell, nur, daß vielleicht weitere, aber prinzipiell nach dem selben Muster gebaute Systeme darübergestuft sein könnten. Das ist aber question begging: Die interessante Frage ist doch die, wie ich z.B. Cottrells Gesichtererkennungsprogramm aufrüsten müßte, damit es beim Anblick eines Photos meiner neugeborenen Nichte auch, unter anderem, eine ähnliche emotionale Reaktion hätte, wie ich sie habe, das Rot ihres Strampelanzugs ihm so vorkäme, wie es mir vorkommt etc. Und diesbezüglich erscheint die einzige Auskunft, die Churchland im zweiten Satz des Zitats gibt, nämlich ”Nun, immer


98

komplexere Systeme der gleichen Art“, nicht als besonders zwingend.<80> Was das wissenschaftliche Denken von der Art von Aktivität unterscheidet, wie sie in den ersten Stufen des visuellen Systems, also etwa von der Retina bis in die Area V4 des Hinterhauptlappens stattfindet, ist zum Beispiel, daß es darum geht, bestimmte Phänomene zu begreifen und aus vielen möglichen Erklärungshypothesen die zutreffendste herauszufinden. Das scheint prima facie doch etwas sehr anderes zu sein, als die Funktion des neuronalen Mechanismus; bestreitet Churchland dies, so liegt die Beweislast bei ihm. Der offenkundige Unterschied zwischen Cottrells neuronalem Netz und meinem ‘natürlichen’, menschlichen Gesichtererkennungssystem ist doch, daß es für mich phänomenal irgendwie ist, das Gesicht meiner Nichte zu sehen. Man wüßte gern, woran das liegt, und soweit ich sehen kann, liefert Churchland nicht einmal einen Ansatzpunkt für eine solche Erklärung. Es ist sicher nicht unwichtig, zu erklären, wie genau der Apparat gebaut ist, durch den bewußte Wesen in der Lage sind, verschiedene Zustände in der Umwelt als verschiedene Wahrnehmungszustände zu repräsentieren. Diese Erklärung macht für sich genommen aber noch keine Theorie darüber überflüssig, wie solche unterschiedlichen Zustände in der basalen Sensorik zu bewußten Zuständen werden. Und der bloße Verweis darauf, daß sich das Gehirn auf allen Stufen der Verarbeitung, also auch auf denen, die sich mit der emotionalen Bewertung beschäftigen, mit den gleichen neuronalen Codierungsstrategien arbeitet, erklärt gar nichts.<81> Deswegen leistet der Verweis Churchlands in dritten und vierten Satz des Zitats in unserem Zusammenhang nichts. Zu klären wäre, wie es kommt, daß in einem Gehirn, das global dieselben Verarbeitungsprozesse anwendet, einige Prozesse bewußt sind und andere nicht.

Neben diesem grundsätzlichen Verdacht, daß Churchlands Strategie auf einen Themenwechsel hinausläuft, gibt es ein weiteres, theorieinternes Problem damit, seine Darstellung der Vektorcodierung tatsächlich als die Erklärung mentaler Phänomene anzusehen, als die sie sich ausgibt. Ich habe schon darauf hingewiesen, daß der Verweis auf neuronale Netze inbezug auf unsere mentalen Zustände nur wenig erklärt, selbst wenn sich herausstellen sollte, daß unser Gehirn in allen Details genau so funktioniert. Man weiß im Einzelnen nicht, warum ein bestimmtes neuronales Netz den richtigen output gibt, auch wenn dieses Faktum in der Struktur der synaptischen Verknüpfungen gründet.<82> Das liegt daran, daß solche Systeme nichtlinear sind, mit allen Folgen, die das für ihre Vorhersagbarkeit hat. Das erkennt Churchland auch durchaus an:

A nonlinear system is one in which, at least occasionally, even the tiniest differences in its current states will quickly be magnified into very large differences in its subsequent state. Since we can never have infinitely accurate information about the current state of any physical system, let alone a system of the complexity of a living brain, we are doomed to be forever limited in what we can predict about such a system’s unfolding behavior, even if there are, and even if we happen to know, the invariable laws that govern the system’s behavior. Such systems are strictly deterministic in the sense of being law governed, but they are

99

nevertheless unpredictable, beyond their statistical regularities, by any cognitive system within the same physical universe. (Churchland 1995: 121)

Aber Churchland scheint sich der Auswirkungen dieses Faktums auf seinen Anspruch, eine Erklärung der mentalen Phänomene zu geben, nicht bewußt zu sein.<83> Denn wenn die Neurophysiologie im besten Fall die Existenz neuronaler Netze und das Prinzip ihrer Funktionsweise im Gehirn bestätigt, darüber hinaus aber auch aus intimer Kenntnis der neuronalen Zustände keine Prognosen über das zukünftige Verhalten machen kann, ist das Projekt erledigt, mentale Zustände allgemein und phänomenale Zustände im besonderen neurophysiologisch erschöpfend zu erklären. Auch bezüglich der schrittweisen Ersetzung unserer Alltagspsychologie durch die Neurowissenschaften sähe es düster aus, denn aus dem neuronalen Netz selbst kann ich nicht ableiten, wozu es dient, auch wenn mir seine prinzipielle Funktionsweise bekannt ist. Man muß sich vielmehr auf den output des Gesamtsystems verlassen, und da es sich bei diesem meist um einen Menschen handeln wird, wenn wir bewußte mentale Zustände untersuchen, kommen wir um die Selbstaussagen unserer Versuchsperson nicht herum. Diese Selbstaussagen aber können gar nicht anders als im Vokabular der Alltagspsychologie abgefaßt sein, welches zwar alles andere als immun gegenüber Veränderungen (also auch gegenüber Einflüssen aus der Wissenschaftssprache) ist, aber nie identisch sein wird mit dem Vokabular der bestmöglichen Neurowissenschaft.<84> Ein Beispiel für eine solche Beeinflussung wäre zum Beispiel der Gebrauch, den wir in der westlichen Kultursphäre seit Jahrzehnten in unseren Selbstauslegungen von den Begriffen der Psychoanalyse machen. Spätestens seit dem Selbstmord von Kurt Cobain, der ein Ereignis der Popkultur geworden ist, ist es nicht mehr absurd, statt von ‘Depression’ von ‘Störung des Lithium-Haushalts’ zu sprechen, was ein Schritt in Richtung einer neurophysiologischen Theorie zu sein scheint. Aber es handelt sich in solchen Sprachregelungen eher um leichtere begriffliche Revisionen der folk psychology als um ihre Ersetzung durch eine Fachwissenschaft. Denn die neuen ‘wissenschaftlicheren’ Begriffe übernehmen ganz ähnliche Rollen in der


100

Interpretation selbst erlebter oder an anderen beobachteter mentaler Zustände. Pointiert könnte man sagen, daß man Personen befragen muß, um Aufschluß über personale Zustände wie das bewußte Erleben zu erhalten, nicht Gehirne. Gehirne nämlich antworten nicht.

Wenn ich mich aber immer auf die Aussagen von Versuchspersonen verlassen muß, gelange ich höchstens zu einer Kovarianztheorie. Als Neurowissenschaftler kann ich bestenfalls sagen, daß mit bestimmten Aktivierungsmustern typischerweise gewisse Selbstaussagen einhergehen, oder aber, daß z.B. bei Versuchen, die konzentrierte Aufmerksamkeit verlangen, lokal eine erhöhte Aktivität im Präfrontallappen zu beobachten ist. Eine Reduktion wie ”Also ist Aufmerksamkeit nichts anderes als hohe lokale präfrontale Aktivität“ ist dadurch nicht gedeckt.

5.3. Die ‘Theorie der Selektion neuronaler Gruppen’: Gerald Edelman

Es ist, so hoffe ich, deutlich geworden, in welcher Hinsicht Churchlands Ansprüche an die Erklärungsleistung des Verweises auf die Vektorcodierungsstrategie inbezug auf das phänomenale Erleben selbst dann überzogen sind, wenn sich die Funktionsweise des Gehirns tatsächlich empirisch so erklären läßt. Philosophen neigen besonders in der analytischen Debatte um das Bewußtsein oft dazu, empirische Theorien so zu interpretieren, als stellten sie eine Rechtfertigung der von ihnen philosophisch bevorzugten Theorie dar. Vielleicht ist es daher nicht unbillig, einen der Empiriker zu Wort kommen zu lassen, auf den sich Churchland für das grundlegende Modell seiner Spielart des Konnektionismus beruft.

Gerald Edelman (1989; 1992) versucht seit vielen Jahren, eine ‘biologische Theorie des Bewußtseins’ (so der Untertitel eines seiner Bücher) zu entwickeln. Edelmans Position ist in unserem Zusammenhang gleich aus mehreren Gründen besonders einschlägig: Erstens betont er, daß jede interessante Theorie des Bewußtseins eine Teiltheorie über erlebtes Bewußtsein enthalten muß, und zwar in den beiden Bedeutungen von den in der Wahrnehmung als Objekt wahrgenommenen Dingen und deren jeweiligen phänomenalen Qualitäten. Mit der Betonung der Verbindung von phänomenalem Gehalt und intentionalem Gehalt vertritt er implizit die These, daß phänomenale Gehalte nicht erklärt werden können, ohne zu berücksichtigen, daß sie im Regelfall auf etwas gerichtet sind. Auch Edelman geht so das Qualia-Problem über den scheinbaren Umweg der Wahrnehmungstheorie an. Zweitens geht Edelman davon aus, daß Bewußtsein ein Prozeß ist, der sich in der Interaktion zwischen Organismus und Umwelt herausbildet und nur aus diesem Wechselspiel heraus verständlich gemacht werden kann.<85> Drittens beschreibt er, wie ein neuronales Netz sich so selbst organisieren kann, daß es die Leistungen erbringt, die wir empirisch an Gehirnen beobachten können und leitet aus dieser Beschreibung ein anti-funktionalistisches Argument ab. Viertens unterscheidet Edelman zwischen primären und höherstufigen Bewußtsein. Damit steht er im Widerspruch zu Churchlands These, alle Formen von Bewußtsein seien auf eine einzige mehr oder minder kompliziert aufgestufte Grundstruktur zurückführbar:

Higher-order consciousness is based on direct awareness in a human being having language and a reportable subjective life. The more basic primary consciousness is present in all humans and is perhaps also present in some animals as biological individuals. Primary consciousness may be considered to be composed of certain phenomenal experiences such as mental images, but in contrast to higher-order consciousness, it is supposed to be bound to a time around the measurable present, to lack a concept of self and a concept of past and future, and to be beyond direct individual report. (Edelman 1989: 24)

Mit der etwas rätselhaften These, daß das phänomenale Bewußtsein der direkten individuellen Verbalisierung nicht zugänglich sei, ist in diesem Zusammenhang nicht mehr gemeint, als daß man sehr wohl ‘direkt’ angeben kann, daß man sich in einem bestimmten phänomenalen Zustand befindet, das physiologische Substrat dieses Zustandes aber nicht aus der Innenperspektive direkt erfahrbar ist. Zudem neigt man zu der Überzeugung, dieses Erlebnis nur inadäquat in Worte fassen zu können.


101

Die theoretische Grundeinsicht Edelmans ist es, die Organisation und Funktion des Gehirns sowohl aus der Phylogenese der Organismen, die über ein Zentralnervensystem verfügen, wie aus der Ontogenese der Individuen zu erklären. Dabei kommen nach Edelman in beiden Fällen ähnliche Mechanismen zum Tragen: Eine biologische Theorie ist seine Theorie des Bewußtseins vor allem deshalb, weil er versucht, alle Probleme im Kontext der Evolutionstheorie zu lösen. Das wichtigste Prinzip der Evolution (neben der Variation) ist die Selektion, die umweltgeleitete Auswahl bestimmter Merkmale eines Organismus.<86> Selektiert werden Merkmale (egal ob es sich um Adaptionen oder Exaptionen handelt), die innerhalb einer Population in verschiedener Ausprägung vorhanden sind. Inbezug auf die Bewußtseinstheorie sind die relevanten Populationen diejenigen Bestandteile des Gehirns, die sich auf unterschiedlichen Ebenen entweder funktional oder anatomisch als zusammengehörig ausweisen lassen. Ein Selektionsprozess, der auf Merkmalsvarianten innerhalb dieser Populationen wirkt, führt zu einer differentiellen Modifikation bestimmter synaptischer Verbindungen und dadurch zur Formierung spezifischer neuronaler Gruppen, d.h. von Teilmengen von Neuronen, die sich durch die gleichgerichtete Reaktion auf bestimmte Reize als funktional zusammengehörig erweisen. Solche neuronalen Gruppen bilden Karten (maps), d.h. eine ‘Abbildung’ bestimmter anderer Neuronen derart, daß innerhalb einer Karte die einzelnen Neuronen systematisch zu Rezeptorzellen oder anderen Neuronen verbunden sind. Zwischen den Varianten der Reaktionen solcher neuronaler Gruppen wirkt ebenfalls ein Selektionsprozeß, der durch die individuelle Erfahrung gesteuert ist. Die individuelle Erfahrung ist dabei an den unbegrenzt variablen Erfahrungsinput rückgekoppelt, den der Organismus aus seiner Umwelt erhält. Daher spricht Edelman von einer erfahrungsbasierten Theorie der Selektion neuronaler Gruppen (theory of neuronal group selection):

Selective systems such as those embodied in the theory of neuronal group selection involve two different domains of stochastic variation (world and neural repertoires). The domains map onto each other in an individual historical manner. Neural systems capable of this mapping can deal with novelty and generalize upon the results of categorization. (Edelman 1989: 32)

Kategorisierung heißt hier (anders als bei Churchland) etwas relativ Harmloses, nämlich schlicht die ähnliche neuronale Reaktion auf ähnliche Reize. Was die relevanten Ähnlichkeitsbeziehungen sind, wird dabei von dem neuronalen Verband bestimmt, der aus der Unzahl von anderen Verbänden, die auch irgendeine Reaktion auf Eingangsreize zeigten, selektiert wurde, weil er besonders stabile und zuverlässige Reaktionen zeigte. Ein solches System instantiiert ein neuronales Netz der Art, wie es uns schon in Churchlands Beispiel der Gesichteridentifizierung begegnet ist: Eine ganz bestimmte Verteilung der synaptischen Gewichtungen innerhalb eines Neuronenverbandes legt ein ‘prototypisches Gesicht’ fest; mehr oder weniger starke Abweichungen von diesem Prototyp entlang der Dimensionen des Gesichtsraumes identifizieren einzelne Gesichter, die wiederum nach Ähnlichkeitskriterien (möglichst geringe Abweichung der Vektoren) kategorisiert werden können. Kategorisierung ist hier also nicht ein Anheften von Namen an zuvor wahrgenommene Objekte, sondern ein Produkt der Selbstorganisation eines neuronalen Netzes, die sich unter ständiger Einbeziehung neuer Umweltreize vollzieht. Sie ist deshalb nicht statisch, sondern der kontinuierlichen Revidierung unterworfen, die der Selektionsdruck in Form neuer Umweltreize erforderlich macht:


102

[The theory of neuronal group selection] owns that the ability of richly endowed organisms to categorize an unlabeled world in an adaptive fashion arises from two interactive processes, the first as a result of selection during ontogeny at the level of anatomical variance to form networks, and the second at the level of selection of variant populations of synapses to form functioning circuits in maps. In other words, the world becomes ‘labeled’ as a consequence of behavior that leads to particular selective events within such neural structures in each animal. (Edelman 1989: 41)

Die drei Mechanismen, die das neuronale System zu seiner Selbstorganisation benötigt, sind Entwicklungsselektion (developmental selection), Erfahrungsselektion (experiential selection) und wiedereinspeisende Kartierung (reentrant mapping).

Im ersten dieser Mechanismen bildet sich die neuroanatomische Verfaßtheit eines Organismus heraus. Dieser Teil der Theorie ist am wenigsten spekulativ; Edelman erhielt den Nobelpreis für seine bahnbrechenden Arbeiten bezüglich der genauen biochemischen Vorgänge, die zur Ausbildung von Nervennetzen führen. Eine der überraschendsten Ergebnisse seiner Studien war die relativ untergeordnete Rolle, die der genetische Code für die Ausprägung der Details des Nervensystems spielt. Es ist nicht so, daß sich die Nervenbahnen nach einem genetischen Programm für die Verschaltungen zwischen Neuronen entwickeln; vielmehr bilden sich bestimmte ‘Verdrahtungen’ in einem Selektionsprozeß aus, der auf Populationen von Neuronen wirkt, die untereinander in topobiologischer Konkurrenz stehen.<87> Der genetische Code legt nur die Rahmenbedingungen fest, unter denen dieser Selektionsprozeß abläuft. Auf diese Weise entsteht das sogenannte primäre Repertoire, d.h. ein neuronales Netz, dessen synaptische Gewichtungen zunächst rein stochastisch verteilt sind. Auch hier können wir den Vergleich mit Cottrells Gesichtererkennungsnetz bemühen: Das primäre Repertoire entspricht dem Netz, bevor das erste Photo präsentiert wurde und der Prozeß in Gang gesetzt wurde, mittels dessen der Quadratfehlervektor reduziert wird. Edelmans Theorie kann in diesem Sinne die besprochenen Versuche untermauern, Leistungen des Gehirns als eine spezielle Art der Codierung in neuronalen Netzen zu verstehen, weil sie eine Erklärung bietet, wie Organismen unter den tatsächlichen Bedingungen genau solche Systeme herausbilden können. Wie aber kann man bei natürlichen neuronalen Netzen den Programmierer loswerden? In Cottrells Experiment muß der faktische output immer mit einem bekannten erwünschten output verglichen und die synaptischen Gewichtungen entsprechend geändert werden. Wie lassen sich äquivalente Eingriffe als Bestandteil der Selbstorganisation des neuronalen Systems erklären?

Eine Annäherung an die Lösung dieses Problems bietet der zweite von Edelman postulierte Mechanismus. In der Regel ändert sich hier nichts mehr an der Neuroanatomie. Vielmehr wird hier eine Auswahl aus den unzähligen Verknüpfungsmöglichkeiten der Nervenzellen getroffen. Der Selektionsdruck, der die Konkurrenz zwischen den Verknüpfungsvarianten erzeugt, besteht darin, auf Umweltreize mit ‘überlebensdienlichen’ Reaktionen zu antworten. Auch hier sind die biochemischen Vorgänge gut erforscht, die zur selektiven Stärkung oder Schwächung bestimmter synaptischer Verbindungen führen. In Cottrells Modell entspricht dieser Schritt der Veränderung der synaptischen Gewichtungen, nur daß diese in biologischen Systemen nicht mehr als Eingriff von außen erfolgt. Die funktionalen Schaltkreise, die sich so bilden, bezeichnet Edelman als das sekundäre Repertoire. Primäres und sekundäres Repertoire sind nicht strikt voneinander getrennt, man weiß vielmehr, daß in einigen Fällen wie der Entwicklung von Vogelrufen Verhalten und anatomische Veränderung sehr eng miteinander verzahnt sind.<88>

Der kontroverseste Teil von Edelmans Theorie ist das Gewicht, das er auf die wiedereinspeisende


103

Kartierung legt. Es ist seit längerem bekannt, daß die aus den verschiedenen Sinnesrezeptoren kommenden, afferenten Nervenbahnen gezielt in spezifische Gebiete des Kortex projizieren und dort Erregungsmuster erzeugen, die von den Merkmalen des Eingangsreizes abhängen. Diese Muster werden als mental maps, als mentale Karten bezeichnet. Das wohl bekannteste Beispiel einer solchen Karte ist der ‘Penfield-Homunculus’, der, auf die zentrale Großhirnfurche (sulcus centralis) projiziert, die taktile Empfindlichkeit der verschiedenen Regionen der Körperoberfläche wiedergibt. Uns ist in Zusammenhang mit den Arbeiten David Marrs bereits der Umstand begegnet, daß das visuelle System mit einer großen Zahl (beim derzeitigen Stand der Forschung über dreißig) von Karten arbeitet, in denen z.B. Farbe, Bewegung, Orientierung im Raum, relative Position auf der Retina etc. verarbeitet werden. So weit, so unkontrovers. Spekulativ ist der Mechanismus des reentry, den Edelman postuliert, um die Verbindung der mentalen Karten untereinander zu erklären. Eine Reizung schon einer der Karten, die untereinander alle rückgekoppelt sind, führt zu einer Aktivierung der anderen, auch wenn zunächst der für sie spezifische Reiz nicht vorliegt:

As groups of neurons are selected in a map, other groups in reentrantly connected but different maps may also be selected at the same time. Correlation and coordination of such selection events are achieved by reentrant signaling and by the strengthening of interconnections between the maps within a segment of time. (Edelman 1992: 85)

Interessant wird das immer dann, wenn die Aktivität in funktional verschiedenen mentalen Karten, die miteinander verbunden sind, aufeinander abgebildet werden kann. Obwohl jede Karte unabhängig von der anderen Reize aus den Sinnesrezeptoren oder anderen Hirnarealen erhalten kann, wird das Reizmuster der einen Karte via Rückkoppelungsschleifen mit dem Reizmuster der anderen verbunden. Die Funktionen und Aktivitäten der beteiligten Karten sind dann korreliert oder strukturell gekoppelt, obwohl die Reizquellen je unterschiedlich sind. Für solche Verknüpfungen hat Edelman auch mathematische Modelle vorgeschlagen, mithilfe derer man etwa Synästhesieeffekte elegant beschreiben kann, nämlich als reentry zwischen den mentalen Karten der beteiligten sensorischen Felder, etwa des Gesichts- und des Tastsinns.

Dieses Resultat paßt sehr gut zu der oben formulierten, grob gibsonianischen Kritik an Berkeleys Vorstellung, daß der Raumeindruck in einem solchen Modell für beide Modalitäten unabhängig erstellt wird. Demnach gewinnen wir nicht aus jedem Sinn eine andere Art von Dimensionalität, die dann erst durch Assoziation oder Inferenz miteinander verbunden werden, wie Berkeley annahm. Räumlichkeit konstituiert sich vielmehr von Anfang an durch ein integriertes System verschiedener mentaler Karten:

If the maps in question are topographically connected, they correlate happenings at one spatial location in the world without a higher-order supervisor. (By ‘topographic’, I refer to the situation in which a sensory receptor sheet receiving signals from the world connects to its recipient map in such a way that neighboring locations in the sensory sheet are also neighboring relations in the recipient map.) (Edelman 1992: 87)

Da das Verfahren immer rekursiv ist und die integrierten Signale neben den weiter bestehenden Reizen aus dem Sensorium ihrerseits wieder als Eingangssignale fungieren, ist das System imstande, ohne externe Eingriffe auch auf kompliziertere Merkmale wie ‘Dreidimensionalität’ hin zu selektieren. Solche Merkmale können deshalb auch direkt wahrgenommen werden. Edelman definiert Wahrnehmung als die adaptive Unterscheidung eines Objekts oder Ereignisses vor dem Hintergrund anderer Objekte oder Ereignisse. Bei geeigneter Vernetzung der mentalen Karten ist Dimensionalität aber schon eines der objektkonstituierenden Merkmale. Es ist auch leicht zu sehen, wie ein solches Rückkoppelungssystem zur gezielten motorischen Steuerung eingesetzt werden kann: Man muß nur die afferenten und efferenten Reizleitungen der Sensomotorik an die mentalen Karten anbinden und mit den Teilen des Gehirns in Verbindung bringen, die keine mentalen Karten enthalten (etwa den Basalganglien, dem Hippocampus oder dem Kleinhirn).<89> In solchen ‘globalen


104

Karten’ findet nach Edelman eine erste Art von Kategorisierung statt, indem sensorische inputs in unterschiedlichen, aber strukturell gekoppelten mentalen Karten ähnliche Aktivitäten hervorrufen:

Such a global mapping ensures the creation of a dynamic loop that continually matches an animal’s gestures and posture to the independent sampling of several kinds of sensory signals. Selection of neuronal groups within the local maps of a global mapping then results in particular categorical responses. Categorization does not occur according to a computerlike program in a sensory area which then executes a program to give a particular motor output. Instead, sensorimotor activity over the whole mapping selects neuronal groups that give the appropriate output or behavior, resulting in categorization. Decisions in such systems are based on the statistics of signal correlation. Notice the contrast with computers; these changes occur within a selectional system rather than depending on the carriage of coded messages in a process of instruction. (Edelman 1992: 89f.)

Ein Computerprogramm ist statisch: Es führt die seinem Algorithmus entsprechenden Schritte immer gleich aus. Globale Karten hingegen sind, das sieht Edelman selbst als den größten Vorteil seiner Theorie, dynamische Strukturen, die sich ständig in Abhängigkeit von Zeit und Verhalten des Organismus verändert. Störungen innerhalb aller beteiligten mentalen Karten können dazu führen, daß eine andere Verschaltung des Gesamtsystems sich plötzlich als geeigneter erweist, um die Reaktionen des Organismus auf seine Umwelt abzustimmen. Treten verschiedene Verschaltungsvarianten auf diese Weise miteinander in Konkurrenz, greifen die Selektionsmechanismen.

5.4. Konnektionismus versus Funktionalismus

Es ist der klare Vorteil der Vorgehensweise Edelmans und Churchlands gegenüber verschiedenen Versionen des Computerfunktionalismus, der Umweltreize quasi als Dateninput für die Turing-Maschine des kognitiven Systems betrachtet, auch auf radikal sich ändernde Umweltbedingungen reagieren zu können. Das System ist in relevanter Hinsicht für die verschiedensten Umweltbedingungen offen. Im Funktionalismus muß man zunächst die Aufgaben spezifizieren, für die ein gegebenes System gebaut ist - darauf hat Marr, wie wir gesehen haben, so deutlich hingewiesen. In der biologischen Evolution gab es aber nie eine derartige Spezifikation von Funktionen, vielmehr müssen sich biologische Systeme auf jeweils die Anforderungen einstellen, die sich in einem bestimmten Moment stellen. Von diesen sind aber ein großer Teil für die Ausprägung der Reaktionsmechanismen nicht wichtig gewesen, einfach weil sie im bisherigen Ausleseprozeß nicht vorkamen. In Edelmans Theorie ist eine solche Spezifizierung nicht nötig, obwohl man die Ergebnisse des Selektionsprozesses post factum so beschreiben kann, als wären sie in Hinsicht auf bestimmte Funktionen, auf die Ausfüllung bestimmter kausaler Rollen konstruiert. Edelman scheint auch die neuroanatomischen Forschungsergebnisse auf seiner Seite zu haben, denn die verschiedenen kognitiven Leistungen werden nicht von klar voneinander isolierten Modulen erbracht, die einem bestimmten Kästchen eines algorithmischen Flußdiagramms entsprechen. Vielmehr können sowohl einzelne Neuronen je nach Reizintensität zu verschiedenen neuronalen Gruppen gehören als auch eine neuronale Gruppe je nach den Umständen an verschiedenen globalen Karten teilhaben. Es gibt keine eindeutig definierbare Struktur im Gehirn, die immer gegeben sein muß, um einen bestimmten output zu zeitigen. Diese Eigenschaft läßt sich hervorragend mit den empirischen Ergebnissen z.B. in den Versuchen zur Aufklärung der


105

erstaunlichen Plastizität des Gehirns in Einklang bringen. Ohne Zuweisung einer festgelegten Aufgabenverteilung an bestimmte Module im Gehirn begibt man sich auch der Versuchung, komplizierte kognitive Leistungen als das Ergebnis immer dümmerer Homunkuli erklären zu wollen, wie Edelman feststellt:

Neural systems capable of this mapping can deal with novelty and generalize upon the results of categorization. Because they do not depend upon specific programming, they are self-organizing and do not invoke homunculi. Unlike functional systems, they can take account of our open-ended environment. (Edelman 1989: 31)<90>

Neben diesen Argumenten gegen den Funktionalismus, die ihre Überzeugungskraft eher aus neurowissenschaftlichen Überlegungen gewinnen, teilt Edelman zudem die Meinung, daß der Funktionalismus mit dem Qualia-Problem nicht fertig werden kann. Seine Argumentation ist dabei von der Blocks in seinem Chinese-Nation-Argument kaum zu unterscheiden. Interessanter ist seine Diagnose, warum der Funktionalismus an dieser Aufgabe scheitert: Anders als Block führt er diesen Umstand auf die zu große Entfernung des Funktionalismus von den Details der an bewußten Prozessen beteiligten Biologie zurück. In diesem Zusammenhang macht Edelman zwei Bemerkungen, die von sehr unterschiedlicher Überzeugungskraft sind.

Zum einen besteht er auf der oben schon angeführten methodischen Beschränkung der biologischen Beschäftigung mit Qualia, die immer auf die Selbstaussage der Probanden eines entsprechenden Experiments angewiesen ist. Edelman sagt leider sehr wenig darüber, warum das so ist. Es fällt aber nicht schwer, seine Darstellung in dieser Hinsicht sinnvoll zu ergänzen, indem man darauf hinweist, daß nur Menschen (als einzige uns bekannte Wesen, die über Sprache im relevanten Sinn verfügen) imstande sind, solche Selbstaussagen zu treffen. Deswegen muß jede Beschäftigung mit Qualia von menschlichen Qualia ausgehen, nicht, weil z.B. im Fall von Tieren bestritten werden soll, daß sie Qualia haben können, sondern weil wir bei ihnen nicht auf verläßliche Selbstaussagen zurückgreifen können. Es wäre vorschnell, aus dieser methodischen Verbindung zum propositional verfaßten Zugriff zu schließen, daß Qualia selbst notwendig an die Möglichkeit ihres propositionalen Ausdrucks geknüpft sind. Ausgehend von den Verbindungen, die ein Neurowissenschaftler zwischen regelmäßig gemeinsam auftretenden Selbstaussagen über phänomenale Zustände und neuronalen Stukturen (die gegebenenfalls sehr komplex sein können, etwa als strukturell gekoppelte mentale Karten), ist dann ein Rückschluß auf das qualitative Erleben von Tieren möglich: Wenn eine hinreichend ähnliche hirnphysiologische Struktur sich bei Tieren findet, kann das nach Edelman als Hinweis auf das Vorliegen von Qualia gelten. Als wissenschaftlicher Beweis dafür reicht das für ihn dennoch nicht aus:

Since we have taken the human to be our only sensible referent, we cannot be sure [whether biological theory is sufficient to account for qualia] unless we can use the theory to design an artifact capable of the same reliability of report as a human. If we could design such an artifact, it might report qualia and we would, of course, then have to confront a number of problems related to the isomorphism of its structure with the human. (Edelman 1989: 32)

Man mag, wenn man nicht einem grenzenlosen Wissenschaftsoptimismus frönt, einwenden, daß, wenn es zum Zwecke der Beweisführung unbedingt nötig ist, ein künstliches System mit allen Fähigkeiten des menschlichen Gehirns zu bauen, ein solcher Beweis vermutlich nie geführt werden wird.

Aber selbst, wenn man sich an dieser Unwahrscheinlichkeit nicht stößt, bleibt die Frage, was auf diese Weise bewiesen werden soll. Gesetzt den Fall, ein genialer Biologe schafft es tatsächlich, im Labor eine Molekül-für-Molekül-Kopie von mir herzustellen. Es ist in der Tat zu vermuten, daß er


106

dadurch ein Wesen erzeugt hätte, das dieselben Laute ausstößt, dasselbe Verhalten zeigt etc., wie ich es unter denselben Bedingungen täte. Unser Neurophysiologe hätte notwendigerweise ein weitgehendes Wissen über meine Hirnstrukturen, sonst hätte er sie nicht duplizieren können. Würden wir ihm aber glauben, wenn er behauptete, er hätte die Funktionsweise des Gehirns entschlüsselt und könne nun erklären, warum sich ein Stich mit einer Nadel in den Daumen für mich so anfühlt, wie er es eben tut, indem er darauf verweist, mein Duplikat fluche auf ganz ähnliche Weise, beschreibe den Schmerz in denselben Worten wie ich und zeige überhaupt ein ununterscheidbares Verhalten? Es ist auffällig, daß auch in diesem Szenario der Verweis auf alltagspsychologische Termini zu Erklärungszwecken unverzichtbar bleibt. Ich zumindest wäre nicht überzeugt, denn daß meine Hirnphysiologie irgendwie für meine Erlebnisse verantwortlich ist, wußte ich schon, bevor es das Duplikat gab. Es überrascht mich nicht, daß ein getreues Duplikat meiner selbst sich so verhält wie ich, vielleicht wäre ich auch durchaus überzeugt, daß sich für das Duplikat der Nadelstich so anfühlt wie für mich. Aber ich würde sofort zurückfragen: ”Warum fühlt es sich denn für Wesen mit einer solchen Art von Hirnstruktur so an, sich mit einer Nadel zu stechen?“

Anstatt innerhalb einer biologischen Theorie zu erklären, wie ein phänomenaler Zustand in einer bestimmten Hirnstruktur besteht, liefert Edelman maximal eine Kovarianztheorie, die zuverlässig via Berichte von Versuchspersonen phänomenale Zustände und Hirnzustände korreliert. Das wäre, sollte es ihm im Detail gelingen, ein grandioser Fortschritt innerhalb der Neurowissenschaften; das Qualia-Problem wäre dadurch aber keinesfalls erledigt. Das Aufweisen von Isomorphien zwischen verschiedenen Strukturen bietet keine Gewähr dafür, daß sie tatsächlich mit demselben phänomenalen Zustand verbunden sind, weswegen der Rückschluß auf Organismen, die nicht über die Fähigkeit zum verbalen Bericht verfügen, nicht zwingend ist.

Die zweite Lehre, die Edelman aus der Relevanz biologischer Theorien für die Bewußtseinstheorie zieht, ist demgegenüber interessanter. Denn wenn man den Funktionalismus als Erklärung für Bewußtsein zurückweist und damit bestreitet, daß es ein Prinzip der bloß strukturellen Organisation ist, welches hier einschlägig ist, muß man irgendetwas anderes anbieten, das erklärt, warum bestimmte Systeme bewußt sind und andere nicht. Es liegt nahe, das entscheidende Charakteristikum in der hardware zu vermuten, wenn man eine im weitesten Sinne biologische Theorie des Bewußtseins verfolgt. Denn alle uns bekannten Organismen basieren auf der Kohlenstoffchemie, was also liegt näher, dasjenige, was Bewußtsein verursacht, nicht wie der Funktionalismus in den kausalen Rollen der Organisation, sondern in der speziellen kausalen Rolle biochemischer, kohlenstoffbasierter Prozesse zu suchen, die maßgeblich an allen uns bekannten bewußten Systemen beteiligt sind? Das klingt zunächst nicht besonders plausibel, vor allem, weil man sich dabei auf die spezielle kausale Rolle der Kohlenstoffchemie als ein factum brutum berufen muß, ohne eine weitere Erklärung geben zu können, welche Eigenschaften des Kohlenstoffs es denn genau sind, die Bewußtsein ermöglichen. Es scheint auch seltsam, daß die speziellen Eigenschaften eines chemischen Elements bereits entscheidend am Zustandekommen von Bewußtsein beteiligt sein sollen. Hinter diesem Unbehagen steht die Skepsis, eine zufällige Eigenschaft eines Elements, also der niedrigsten biologischen Organisationsstufe, verantwortlich zu machen für Merkmale, die erst auf sehr hohen biologischen Organisationsstufen auftreten. Vielleicht spielt auch die Furcht davor eine Rolle, in so etwas wie einen ”Kohlenstoffpanpsychismus“ abzurutschen.

Edelman vertritt hier eine eminent vernünftige, zurückhaltende Position:

While we cannot completely dismiss a particular material basis for consciousness in the liberal fashion of functionalism, it is probable that there will be severe (but not unique) constraints on the design of any artifact that is supposed to acquire conscious behavior. Such constraints are likely to exist because there is every indication that an intricate, stochastically variant anatomy and synaptic chemistry underlie brain function and because consciousness is definitely a process based on such intricate and unusual morphology. (Edelman 1989: 32)

Der Grund, weswegen ausgerechnet Kohlenstoff das Element ist, das mit der Entstehung von Bewußtsein in besonderer Weise verbunden ist, liegt nicht in irgendeiner besonders ‘bewußtseinsermöglichenden’ Eigenschaft von Kohlenstoff an sich, sondern an dem factum brutum, daß er aufgrund seiner Wertigkeit und anderer Bindungseigenschaften als einziges Element


107

zufälligerweise imstande ist, langkettige Moleküle der Art zu bilden, wie sie zum Aufbau eines so komplexen Systems, wie es ein Organismus darstellt, unbedingt erforderlich ist. Das ist kein philosophischer Punkt, sondern liegt im Bereich der Biochemie, die schlicht die faktische Basis für das Auftreten von Bewußtsein bildet, wenn es sich als wahr herausstellen sollte, daß tatsächlich alle bewußten Systeme auf Kohlenstoff basieren. Das ist eine rein empirische Frage und nicht rätselhafter als der Umstand, daß auch ein ganz bestimmter Temperaturbereich gegeben sein mußte, um die Entwicklung von Organismen und letztlich von Bewußtsein zu ermöglichen. Das Faktum, daß dies sicher so ist, heißt nicht, daß irgendetwas an der Temperatur von ca. 300º K in besonderer, intrinsischer Weise mit dem Bewußtsein zusammenhängt. All diese Umstände sind, wenn sie sich empirisch als richtig herausstellen sollten, Bedingungen, unter denen Bewußtsein entstehen konnte. Sie können aber selbst noch keine befriedigende Erklärung von Bewußtsein bieten. Es gibt nur sehr wenige Philosophen, die bestreiten würden, daß Bewußtsein in Strukturen realisiert ist, die auf irgendeine Weise mit dem Vokabular der Physik beschrieben werden können. In diesem Sinne ist fast jeder Materialist, wenn denn auch fürderhin ‘Materie’ ein Zentralbegriff der Physik bleiben sollte (was alles andere als ausgemacht ist). Ob aber diese Beschreibung uns das erklärt, was uns am Bewußtsein eigentlich interessiert, kann sehr wohl mit guten Gründen bestritten werden. Wie wenig hilfreich die physikalische Beschreibung schon für basale Wahrnehmungsleistungen ist, ganz zu schweigen von den darauf aufbauenden bewußten Zuständen, habe ich am Beispiel Gibsons deutlich zu machen versucht.

Churchland greift aus ähnlichen Überlegungen wie Edelman heraus den Funktionalismus an.<91> Er stimmt Blocks Folgerungen aus dem Chinese-Nation-Gedankenexperiment zumindest soweit zu, daß der Funktionalismus tatsächlich etwas Wesentliches am Bewußtsein nicht berücksichtigen kann. Was der Funktionalismus nicht liefert, ist eine adäquate Darstellung dessen, was im Detail in einem kognitiven System vor sich geht. Anders gesagt: Was nach Churchland am Funktionalismus falsch ist, ist die Grundannahme, daß alle mentalen Prozesse zufriedenstellend erklärt sind, wenn der Algorithmus angegegeben werden kann, nach dem das Programm abläuft, welches sie instantiieren, was zur völligen Ablösung der Funktion von seiner physikalischen Materialisierung führt - nichts anderes behauptet das Argument der multiplen Realisierbarkeit. Churchland setzt dem einen nicht-funktionalistischen Materialismus entgegen:

Most of the major features of human and animal cognition arise not because of any program we are running. They arise because of the peculiar physical organization of the nervous system, because of the peculiar way in which information is physically coded, and because of the physically distributed means by which that information gets transformed. (Churchland 1995: 251)

Selbst aber, wenn man Churchland hierin folgt -und das scheint vernünftig- ist völlig unklar, warum ihn das des Qualia-Problems entledigt. Denn diese Thesen werden als Antwort auf die von Churchland selbst aufgeworfene Frage vorgebracht, wie man für Qualia eine plausible Heimat innerhalb eines rein physikalistischen Rahmens finden könne. Churchland scheint in der Gleichsetzung von Physikalismus und Materialismus hinter schon erreichte eigene Einsichten zurückzufallen: Wenn es wirklich die Art der Codierung in neuronalen Netzen ist, die Bewußtsein erklärt, sind die interessanten Versionen des Physikalismus hinfällig, denn dann können die relevanten Ereignisse, in denen mentale Zustände physikalisch realisiert sind, nicht mehr aus ihrer physikalistischen Beschreibung abgelesen werden. Schließlich benutzt Churchland gerade den Verweis auf die Möglichkeit, neuronale Netze auf Rechnern zu implementieren, die sich derselben Codierungsstrategie bedienen wie menschliche Gehirne, als Argument für die Möglichkeit, bewußte Systeme künstlich zu erzeugen. Die physikalische Beschreibungen eines Gehirns und eines massiv parallelen Computers wären aber so verschieden, daß aus ihnen nicht hervorginge, daß es sich um in Hinsicht auf Bewußtsein identische Systeme handelt. Selbst wenn Churchlands Theorie sich empirisch bestätigen lassen sollte, erklärt sie nicht, was sie erklären soll.


108

5.5. Die Algorithmisierung funktionaler Rollen

Nicht alle Funktionalisten zeigen sich von den vorgebrachten Argumenten überzeugt. Die Reaktion eines der hervorstechendsten Befürworters des Funktionalismus ist vielmehr, die These in interessanter Weise zu radikalisieren. Dennett (1991, 1995) behauptet nicht nur, daß alle mentalen Prozesse nichts anderes sind als auf einer universalen Turing-Maschine implementierte Algorithmen, sondern daß letztlich alle Prozesse algorithmisch beschreibbar sind. Das bedarf der Erläuterung.

Dennett definiert einen Algorithmus als eine Art formalen Prozeß, der logisch verläßlich ein bestimmtes Resultat liefert, wann immer er ausgeführt wird. Drei Charakteristika hebt er dabei besonders hervor: (1) Da der Prozeß formal ist, ist er substratneutral gegenüber der hardware, in der er realisiert ist. Die Prozedur bezieht ihre Eigenschaften aus ihrer logischen Struktur, nicht aus den kausalen Rollen des Materials, in dem diese Struktur realisiert ist. (2) Die Ausführung der einzelnen Schritte der Prozedur ist rein mechanisch, d.h. sie erfordert kein intelligentes Verhalten. (3) Wenn die Schritte des Algorithmus ausgeführt werden, d.h. wenn es keine Fehlfunktionen aufgrund des Substrats gibt, steht am Ende des Prozesses immer dasselbe Ergebnis; in diesem Sinne ist ein Algorithmus unfehlbar. In Darwin’s Dangerous Idea (1995) versucht Dennett, die Evolutionstheorie ausschließlich im Sinne dieser Definition von ‘Algorithmus’ zu interpretieren.<92> Für Dennett ist Darwins Grundthese die folgende:

Life on Earth has been generated over billions of years in a single branching tree -the Tree of Life- by one algorithmic process or another. (Dennett 1995: 51)<93>

Das ist aber noch nicht alles: Auch basalere physikalische Prozesse können nach Dennett algorithmisch beschrieben werden. Sein Beispiel ist das Tempern von Metallen, d.h. das Veredeln eines Werkstücks durch wechselndes Erhitzen und Abkühlen. Die richtige Erklärung hierfür, so Dennett, ist die algorithmische: Wenn geschmolzenes Metall sich abkühlt, bilden sich an vielen verschiedenen Stellen Kristalle, die solange zusammenwachsen, bis alles Metall erhärtet ist. Die Verteilung der individuellen Kristallstrukturen ist aber nicht optimal, zwischen einzelnen Kristallisationspunkten gibt es Spannungen und mehr oder weniger starke Verbindungen. Erhitzt man das Metall zum zweiten Mal, und zwar so, daß nur die von den ursprünglichen Kristallisationspunkten entfernteren Zonen angeschmolzen werden, bilden sich immer gleichmäßigere Kristallgitter, die entsprechend widerstandsfähiger sind:

The explanation of annealing can be put in a substrate-neutral terminology: we should expect optimization of a certain sort to occur in any ‘material’ that has components that get put together by a certain sort of building process and that can be disassembled in a sequenced way by changing a single global parameter, etc. That is what is common to the processes going on in the glowing steel bar and the humming supercomputer. (Dennett 1995: 58)

Jeder Prozeß kann als algorithmischer Prozeß verstanden werden, und das macht für Dennett den Computer zu einer so interessanten Maschine, denn Computer sind nichts anderes als in einer hardware implementierte Algorithmen. Alle Prozesse lassen sich also in relevanter Weise in einem Computer, einer universellen Turing-Maschine abbilden. Das Grundprinzip für Erklärungen aller Art


109

ist das schrittweise, serielle Umformen von inputs in outputs. Der Einwand der Konnektionisten, daß neuronale Netze gerade nicht seriell irgendwelche inputs abarbeiten, wischt Dennett vom Tisch, indem er auf die verbreitete Praxis hinweist, Parallelrechner, die vom Standpunkt des Ingenieurs schwer zu bauen sind, auf klassischen, seriellen Computern zu simulieren. Man programmiert auf einem seriellen Rechner einen virtuellen parallelen Rechner, der dann zwar viel langsamer ist, als es eine tatsächlich parallel arbeitende Maschine wäre, aber doch letztlich zum selben output kommt.

Diese Art der Simulation eines Typs von Rechner auf einem anderen funktioniert auch in der umgekehrten Richtung. In ähnlicher Weise kann eine hochgradig paralleles neuronales Netz die Verarbeitungsfähigkeiten eines digitalen, seriellen Computers mit diskreten Systemzuständen simulieren, wenn man die synaptischen Gewichtungen entsprechend festlegt. Nichts anderes, so Dennett, findet in unserem Gehirn statt, zumindest in den Arealen, die in irgendeiner Weise mit Sprache zu tun haben, und das schließt in Dennetts Theorie, der Bewußtsein auf Sprache zurückführt, quasi den gesamten Neocortex ein:

Human consciousness is itself a huge complex of memes (or, more exactly, meme-effects in brains) that can best be understood as the operation of a ‘von Neumannesque’ virtual machine implemented in the parallel architecture of a brain that was not designed for any such activities. The powers of this virtual machine vastly enhance the underlying powers of the organic hardware on which it runs, but at the same time many of its most curious features, and especially its limitations, ca be explained as the byproducts of the kludges that make possible this curious but effective reuse of an existing organ for model purposes. (Dennett 1991: 210)

Diese extrem kontraintuitive These plausibilisiert Dennett durch den Verweis auf die Rolle, die die Möglichkeit zur Versprachlichung bewußter Erlebnisse auch für unser eigenes Erleben spielt. Bewußtsein ist nach Dennett an das Bestehen propositionaler, sprachähnlicher Zustände geknüpft: Was uns bewußt ist, ist diejenige Aktivität aller verschiedener Subsysteme des Gehirns, die als eine der vielen möglichen Versionen (der multiple drafts) dessen, was gerade den Zustand des Gesamtsystems ausmacht, Eingang in unseren ‘inneren Pressesprecher’ finden. Den Mechanismus, nach dem sich eine bestimmte Version dabei gegen Konkurrenten durchsetzt, stellt sich Dennett dabei analog zur seiner algorithmischen Version der Evolutionstheorie vor:

At any point in time there are multiple drafts of narrative fragments at various stages of editing in various places in the brain. While some of the contents in these drafts will make their brief contributions and fade without further effect -and some will make no contribution at all- others will persist to play a variety of roles in the further modulation of internal state and behavior and a few will even persist to the point of making their presence known through press releases issued in the form of verbal behavior. (Dennett 1991: 135)

Diese Theorie der vielfältigen Entwürfe sieht Dennett im Gegensatz zu dem, was er die Auffassung von Bewußtsein als dem ‘Cartesischen Theater’ nennt. Diese Auffassung läßt sich mit drei Hauptthesen charakterisieren, die, nach Dennett, in die Probleme der neueren Bewußtseinstheorien geführt haben: (1) Es gibt einen Ort im Gehirn, an dem alle bewußten Ereignisse stattfinden. (2) Zu jedem einheitlichen Bewußtsein von etwas gibt es einen Ort im Gehirn, an dem alle Elemente zusammenlaufen. (3) Zu jedem einheitlichen Bewußtsein gibt es einen Zeitpunkt t, zu dem die Elemente gemeinsam auftreten. Dieses Modell des Bewußtseins ist in der Tat nicht nur aufgrund seines theoretischen Aufwandes höchst unplausibel, sondern mittlerweile auch empirisch widerlegt - es gibt nachweislich keinen Ort im Gehirn, in dem Informationen auf die geforderte Weise zusammenlaufen. Auf so einfache, quasi anatomische Weise läßt sich das Bindungsproblem nicht lösen. Dagegen lassen sich die Vorteile des Modells der vielfältigen Entwürfe, wie Dennett sie sieht, in den folgenden Punkten kurz charakterisieren: (1) Einzelne Elemente eines (vermeintlich) einheitlichen Bewußtseins müssen nur einmal und gegebenenfalls lokal diskriminiert werden. (2) Die objektiven Zeiteigenschaften der Elementdiskriminierung müssen nicht mit der ‘erlebten Zeit’ übereinstimmen, in denen die entsprechenden Reize tatsächlich in der Sensorik eintreffen. (3) Es gibt keinen einheitlichen Bewußtseinsstrom, sondern nur eine Vielzahl paralleler, unverbundener informationsverarbeitender Prozesse. (4) Das Auftreten der informationsverarbeitenden Prozesse legt nichts über das Auftreten von Bewußtsein fest. (5) Vielmehr ist Bewußtsein der fiktionale Gegenstand von ‘Erzählungen’, die ein Subjekt unter


110

geeigneten Bedingungen äußert. (6) Dadurch gibt es ein funktionales Kriterium dafür, ob ein bestimmter Zustand bewußt ist: Bewußtsein besteht in potentieller Verbalisierung.

Das, was man für eine Sprache benötigt, für ein System mit propositionalen Strukturen also, läßt sich hervorragend auf seriellen Rechnern implementieren. Dennett verweist auf Programme der theoretischen Linguistik wie die generative Grammatik Chomskys und bemerkt, daß diese sich für eine Erklärung im Sinne seiner algorithmischen Deutung der Evolutionstheorie geradezu anbieten.<94> Unser output-Modul für sprachliches Verhalten ist offenbar seriell, während empirisch feststeht, daß unser Gehirn im Allgemeinen parallel arbeitet - was also liegt näher, als anzunehmen, daß der (sprachliche) Bewußtseinsstrom eine virtuelle serielle Maschine auf der parallelen hardware des Neocortex ist.

Aber wie überzeugend ist Dennetts Darstellung wirklich? Das Paradigma von Bewußtsein als primär sprachlicher Leistung ist falsch, wenn der Konnektionismus recht hat; die Annahme einer virtuellen seriellen ‘Joyce-Maschine’ wird schlicht überflüssig, wenn man z.B. die Prototypentheorie der Vektorcodierung als Modell für das Zustandekommen sprachlicher Leistungen akzeptiert. Es gibt, worauf besonders Churchland immer wieder hinweist, eine große Zahl von Versuchen, die Modelle etwa der generativen Grammatik direkt in neuronalen Netzen zu implementieren.<95> Dennetts Position erweckt den Anschein eines letzten Aufbäumens der klassischen KI: Früher meinte man, das Gehirn arbeite im Prinzip genauso wie ein digitaler Computer. Das hat sich jetzt zwar als empirisch falsch herausgestellt, aber ganz umsonst kann die Arbeit all der Jahrzehnte doch nicht gewesen sein. Also muß wenigstens das Sprachmodul doch noch seriell funktionieren. Ausgerechnet zu einem Zeitpunkt, an dem das überholte Paradigma der klassischen Kognitionswissenschaften durch das neue und in vieler Hinsicht überzeugendere des Konnektionismus abgelöst wird, versucht Dennett zum einen, dieses überholte Modell wieder ins Zentrum seiner Theorie zu stellen, macht es dann zu seinem Modell für Bewußtsein überhaupt, lobt drittens die parallel distribuierte Verarbeitung in neuronalen Netzen ausgerechnet für ihre Fähigkeit, das abgelöste Paradigma simulieren zu können und zieht viertens aus dem Unvermögen seiner Theorie, nicht-sprachliches Bewußtsein zu erklären, den Schluß, daß Wesen, die nicht über Sprache im menschlichen Sinne verfügen, eben auch keinerlei Bewußtsein haben. An eben dieser Stelle wird deutlich, daß Dennett seinen anderslautenden Beteuerungen zum Trotz letztlich doch einen Eliminativismus bezüglich des phänomenalen Erlebens vertritt. Er bestreitet explizit, daß es ein Empfinden eines Sinnesreizes (sentience) über die sensorische Registrierung (sensitivity) hinaus gibt.<96> Plausibel wird das nur durch die Abgrenzung gegen das Zerrbild des Bewußtseins als ‘Cartesianischem Theater’, wobei aber völlig unklar ist, ob je ein ernstzunehmender Theoretiker dieses offensichtlich unplausible Modell vertreten hat - Descartes zumindest ist in seinen Darstellungen erheblich subtiler, als diese Karikatur erahnen läßt.

Dennetts Insistieren auf der seriellen Verarbeitung beruht auf der Überzeugung, daß die geordneten input-output-Sequenzen, die in ganz verschiedenen Hirnfunktionen anzutreffen sind, von uns in unserem Selbstverständnis als seriell interpretiert werden. Die Sprache ist dafür nur ein Beispiel, das von Dennett wegen seiner Wichtigkeit für das Bewußtsein in den Vordergrund gestellt wird; andere Beispiele, auf die Dennett detailliert eingeht, sind verschiedene Experimente, in denen im Gehirn fälschlich bestimmte sensorische Reize zeitlich kontinuierlich geordnet werden.<97> Das ist


111

aber nicht mehr als ein Vorurteil. Churchland z.B. glaubt (wie viele andere Kognitionswissenschaftler auch), dazu eine Alternative zu haben, und darin zumindest ist ihm recht zu geben:

The alternative lies in the dynamical behavior of real (not virtual) recurrent networks, with their dramatic ability to generate complex representations with a continuously unfolding temporal dimension. We don’t need to import classical serial procedures to address the problems at hand. [...] Temporally structured activity is the natural signature of any recurrent network, independently of whatever linguistic skills it may or may not have learned. Moreover, that capacitiy for weaving temporal structure promises a unitary account of consciousness in all of the higher animals, whether or not they use language. (Churchland 1995: 267f.)

Vielleicht aber bedarf es dieser empirischen Argumente nicht, um Dennetts Projekt als fehlgeleitet zu erweisen. Schon seine Grundannahme, daß alle Prozesse sinnvoll als algorithmische Prozesse beschrieben werden können, scheint mir fragwürdig.<98> Hier trifft derselbe Vorbehalt zu, den Churchland gegenüber dem Funktionalismus im Allgemeinen hat: Es ist nicht einmal falsch, Prozesse so zu beschreiben, als verliefen sie nach einem bestimmten Algorithmus, vielmehr kann die mathematische Modellierung für Phänomene wie die Entstehung von Sanddünen sehr aufschlußreich sein. Aber um das Phänomen wirklich zu verstehen, kommt man um die Betrachtung der materiellen Basis nicht herum, um im Bild zu bleiben, braucht man alle möglichen Angaben über die Größe, das Gewicht und die Form der Sandkörner, die Boden- und Windverhältnisse etc., um überhaupt abschätzen zu können, welche Art von Algorithmus sinnvoll angewendet werden kann. Man müßte, bezogen auf das Bewußtsein, eine gute Theorie darüber haben, welche Parameter für das Bewußtsein wesentlich sind. Eine solche allgemein akzeptierte Theorie liegt für das Bewußtsein aber nicht vor. Um sich davon einen Begriff zu machen, muß man nur in die KI-Forschung schauen, wo selbst für Teile von kognitiven Systemen nur sehr unzureichende Modelle vorliegen (was selbst Optimisten einräumen). Das macht Dennetts Reduktion von Bewußtsein auf die richtige Art von Algorithmus zumindest vorschnell, auch wenn man die Argumente der Vertreter der Erklärungslücke (explanatory gap) oder der kognitiven Undurchdringlichkeit (cognitive closure) ignoriert, die behaupten, eine solche Theorie könne es aus prinzipiellen Gründen nicht geben. Es mag sogar zutreffen, daß man die input-output-Transformationen einer bestimmten funktionalen Einheit innerhalb des Gehirns so beschreiben kann, als liefe sie nach einem bestimmten Algorithmus ab. Wenn aber empirisch erwiesen werden kann, daß das neuronale Netz, das dieses Areal bildet, einkommende Signale gerade nicht schrittweise in einem Programmverlauf in den output umwandelt, stellt sich die Frage, wie hoch der Erklärungswert des Verweises auf einen algorithmischen Prozeß ist, den man hervorragend auf einer seriellen Maschine implementieren könnte. Den Vorgang im Gehirn erhellt er jedenfalls nicht.

Selbst jemand wie David Marr (1977), der mit so großem Erfolg die Arbeitsweise von Teilen des Gehirns mittels bestimmter Algorithmen zu erklären versucht hat, ist bezüglich des Anspruchs, diese Strategie tout court anzuwenden, eher skeptisch. Er unterscheidet zwischen zwei verschiedenen Arten von Theorien. Typ-1-Theorien sind solche, die sich in erhellender Weise einer algorithmischen Darstellung bedienen, also diejenigen, für die sich das Problem, das es zu lösen gilt, so darstellen läßt, daß man gute Algorithmen für seine Lösung finden kann. Ein Beispiel für eine Typ-1-Theorie wäre Marrs eigene Erklärung, wie das visuelle System aus Kontrastunterschieden Konturen berechnen kann. Ein anderes Beispiel, das Marr anführt, ist Chomskys Kompetenztheorie der englischen Syntax. Es ist aber alles andere als sicher, daß alle Probleme, die in den Kognitionswissenschaften gelöst werden müssen, über eine Typ-1-Theorie gelöst werden können. Wenn ein Problem biologisch durch die gleichzeitige Anwendung einer großen Anzahl von Prozessen gelöst wird, deren Interaktion ihre eigene einfachste Beschreibung bildet, spricht Marr von einer Typ-2-Theorie. Ein Beispiel für einen Prozeß, der keine Typ-1-Beschreibung hat, ist die Voraussage der Faltungsstruktur eines Proteins: Auf ein langkettiges


112

Polypeptid wirken in einem Medium eine unübersehbare Menge von chemischen wie mechanischen Einflüssen, die sich zudem auch noch gegenseitig beeinflussen. Versuche, diesen Prozeß in Form von diskreten, nacheinander ablaufenden Schritten darzustellen, werden der Komplexität des Prozesses nicht gerecht. Genau diese Art von Prozessen ist es aber, die für die Entwicklung des Gehirns von entscheidender Bedeutung sind - das ist ein gut belegtes Resultat der Arbeiten, für die Edelman mit dem Nobelpreis ausgezeichnet wurde. Schon für so relativ basale Fähigkeiten innerhalb des visuellen Systems wie die Gruppierung von identifizierten Konturen zu einer Figur-Hintergrund-Unterscheidung ist es unmöglich, eine Typ-1-Theorie zu formulieren (vgl. Marr 1977: 136). Die Hoffnung, eine Typ-1-Theorie für das weitaus komplexere Zusammenspiel der verschiedenen Hirnareale aufzustellen, die an der Hervorbringung von Bewußtsein beteiligt sind, darf man daher getrost skeptisch bewerten. Dieses Scheitern stellt nicht nur ein Problem für den Funktionalismus dar, sondern gibt auch zu der Vermutung Anlaß, daß die traditionellen Versuche, das Bewußtsein zu erklären, nicht hinreichend auf die Integration der verschiedenen Fähigkeiten einzelner Gehirnareale geachtet haben.

Fußnoten:
<75>

Flanagan (1992: 37) gibt eine beeindruckende Vorstellung von den Größenordnungen, um die es hier geht: Setzt man die Zahl der Neuronen eines durchnittlichen menschlichen Gehirns auf 1011 an (Roth [1994: 110] legt eine Zehnerpotenz drauf, Silbernagel und Despopoulos [1988: 22] ziehen eine ab) und geht man weiter davon aus, daß im Schnitt jedes Neuron synaptischen Input von ca. 3 000 (= 103) anderen Neuronen bekommt und 10 verschiedene Aktivierungsniveaus annehmen kann, liegt die Zahl der möglichen distinkten Systemzustände bei 101014 oder 10100 000 000 000 000. Wenn nur ein Promill davon funktional interessante Zustände sind, haben wir immer noch 1099 999 999 999 997 Zustände. Zum Vergleich: Eine häufig genannte Größenordnung für die Gesamtzahl aller Elementarteilchen im Universum liegt bei 1087.

<76>

Eine in vieler Hinsicht Churchland sehr ähnliche Theorie entwickelt Austen Clark (1993) sehr detailliert. Clark glaubt, durch Verweis auf empirische Ergebnisse zeigen zu können, daß wenn zwei distale (also außerhalb der sensorischen Oberfläche gelegene) Reize dieselben Effekte in bestimmten Sinneszellen hervorrufen, und diese Effekte die Ausgangsbasis für spätere Verarbeitungsstufen sind, die Objekte, von denen die distalen Reize stammen, unabhängig von ihrer tatsächlichen physikalischen Struktur voneinander ununterscheidbar sind. Da identische inputs auch identische Folgen in der globalen neurophysiologischen Organisation des Gehirns zeitigen müssen, reiche die globale Ununterscheidbarkeit zweier Stimuli aus, um zu zeigen, daß die neurophysiologische Repräsentation des einen qualitativ ununterscheidbar von der des anderen sein müssen oder daß, genauer gesagt, diese beiden Reize dieselbe Repräsentation haben, die dann auch qualitativ identisch ist. Die empfundene Qualität eines sensorischen Eindrucks besteht ihm zufolge nicht in der absoluten Position im Vektorraum, sondern ergibt sich durch differenzierende Absetzungen von anderen Positionen. Das Qualitative hieran sind die Eigenschaften der so strukturierten neurophysiologischen Zustände, die Informationen über die Differenzierungsmöglichkeiten innerhalb des Sinnessystems sind. Im Unterschied zu Churchland meint Clark, daß die erlebte Binnenstruktur der einzelnen Modalitäten, also der einzelnen 'sensorischen Räume', sich durch Ähnlichkeitsbeziehungen konstituieren. Die hier relevante relative Ähnlichkeit will Clark ausdrücklich als dreistellige Beziehung der Art "x ist ähnlicher zu y als zu z" verstanden wissen, da so der Farbraum quasi überlappend geordnet werden kann. Das ist im Vergleich zu Churchland eine Verfeinerung des Modells, die mir intuitiv einleuchten will, da durch die Gruppierung von zwei Elementen gegenüber einem dritten die einzelnen auszufüllenden Leerstellen des Farbraums untereinander an Zusammenhalt gewinnen. Es ist damit aber nichts gesagt, was mit Churchlands Thesen im Widerspruch steht; er könnte diese Spezifizierung ohne Probleme in sein Modell übernehmen.

Es ist interessant, zu beobachten, wie hier eines der produktivsten, ursprünglich sprachwissenschaftlichen Paradigmata des zwanzigsten Jahrhunderts zur Klärung einer Frage aus einem ganz anderen Bereich herangezogen wird. Clark erklärt Qualia dadurch, daß er sie in ihrer Empfindungsqualität als Knotenpunkte eines Netzwerks kennzeichnet, innerhalb dessen sie mittels eines Differenzprinzips relativ zu allen anderen möglichen Knotenpunkten abgegrenzt sind. Das ist dasselbe Theorieschema, wie es von Saussure zu Beginn des Jahrhunderts in die Linguistik eingeführt wurde und seitdem in vielen strukturalistischen Versionen und Revisionen breite Anwendung gefunden hat. Auch terminologisch nähert sich Clark einem strukturalistischen Holismus, wenn er die Qualität als Ergebnis einer bestimmten Struktur deutet: "In some modalities the structure of the quality space can be explained (or partially explained) neurophysiologically. In effect, one provides a neurophysiological 'interpretation' of the sensory order, identifying the neuronal mechanisms subserving discriminations in a particular dimension of variation. We identify particular neurophysiologically privileged 'axes' through the quality space: the ones in terms of which discriminations are actually made." (Clark 1993: 197). Eine bestimmte Qualität, Rot etwa, besteht in einer Menge von Punkten, die im Farbraum durch selektive Reizung der einzelnen Kanäle als Vektoren codiert werden. Das Kriterium für die Mengenzugehörigkeit ist die globale Ununterscheidbarkeit innerhalb des neuronalen Netzes, in dem diese Vektoren codiert sind. Gerade aufgrund des Ununterscheidbarkeitskriteriums kann nicht vom gleichen Reiz auf gleiche Qualia geschlossen werden, denn Qualia können nicht mit konkreten Eigenschaften der Außenwelt identifiziert werden; sie sind vielmehr abstrakte Entitäten (Clark 1993: 198). Die Struktur des sensorischen Raumes wird bei verschiedenen Individuen der gleichen Gattung hinreichend ähnlich sein, schon weil die Sensitivität ihrer Sinnesorgane und die Art der Weiterverarbeitung aufgrund der genetischen Grundlagen sehr ähnlich sein werden (Clark 1992: 199).

<77>

Für einen geradezu unheimlichen Effekt, der die Augen- und Mundpartie betrifft, vgl. im Selbstversuch die Illustrationen in Rock 1984: 130.

<78>

Nicht einmal als Schätzung ist diese Zahl sonderlich erhellend, weil unklar ist, wie hier 'Unterscheidungsmöglichkeit' verstanden wird: Soll es (im Sinne einer vergleichenden Unterscheidung) heißen, daß ich die Weltbevölkerung nur in ca. 600 Gruppen mit je 10 Millionen Individuen einteilen kann, wobei alle Mitglieder einer Gruppe für mich völlig gleich aussähen? Das mag ich kaum glauben. Wenn es aber heißen soll, daß ich mir (im Sinne einer totalen Unterscheidung) von 10 Millionen Menschen merken können soll, ob ich sie schon einmal gesehen habe, ist die Zahl zumindest für mich zu hoch gegriffen.

<79>

Hier sollte ich darauf hinweisen, daß ich auch in der Folge mit einer wesentlichen Vereinfachung arbeiten werde: Die Dimensionen von Cottrells Gesichtererkennungsnetz werden faktisch nicht durch verschiedene lokale Merkmale von Gesichtern (wie die erwähnte Nasenlänge) eröffnet. Jede der 80 Zellen der zweiten Ebene hat leicht unterschiedliche bevorzugte inputs (also solche, auf die hin sie maximal feuert), die jeweils in einem bestimmten Muster aller 4096 Pixel der ersten Ebene bestehen. Jede dieser Dimensionen besteht also in einer spezifischen Darstellung des ganzen Gesichts, einem sogenannten holon (vgl. Churchland 1995: 47ff.) Das ist ein überraschendes Ergebnis, das die Lage nicht unerheblich verkompliziert, denn sonst könnte man versuchen, aus nur einigen Zellen gebaute Detektoren zu finden, deren konkrete Verschaltungen leichter aufzuklären wären. Für unsere Zwecke ist das aber kein bedeutsamer Unterschied, denn das Prinzip der Vektorcodierung bleibt gleich.

<80>

Ein ähnlicher Einwand findet sich in einer Fußnote bei Galen Strawson 1996: 82f: Churchlands programmatische Neurowissenschaft hätte nur geringen Erklärungswert, "because it would merely study what one might call the abstract morphology of sensory modalities, like hearing and smell, in giving an account of how certain complex physical structures are implicated in our capacity to make the range of sensory discriminations that we can make within a given sensory modality. It would say nothing at all about the intrinsic phenomenal character of the particular experiences delivered by the sensory modalities, but only something about their relational or positional properties in the sensory 'space' in question."

<81>

In einem neuen Aufsatz radikalisiert Churchland diese These sogar noch: "What we are pleased to call a perceptual quale is simpy the activtion of a conceptual category embodied in a hidden layer that is maximally close to the sensory transducer end of the process hierarchy. What we are usually pleased to call our abstract concepts (including our concepts of such qualia, should we happen to have developed any) are just categories embodied in some hidden layer rather higher up the same hierarchy" (Churchland 1998: 32). Die Ähnlichkeit zu Clarks 'abstrakten Beziehungen' wird hier noch klarer. Aber die konnektionistische Unart, schon einfachste transducer als Träger kategorialer (und damit semantischer) Gehalte zu verstehen, wird dadurch nicht plausibler.

<82>

Chalmers (1996: 111ff.) generalisiert einen ähnlichen Einwand gegen die Idee der kognitiven Modellierung: "Even if we had (per impossibile) an 'experience meter' that could peek in and tell us whether an instatiation was conscious, this would only establish a correlation" (112). Sein Hauptopponent ist Dennett (1991); er nennt aber auch Churchland 1995, Baars (1988) und andere. Wie ein strukturell ähnlicher Einwand auch gegen Chalmers' eigenen Funktionalismus formulierbar ist, werden wir unten sehen.

<83>

Damit ist Churchland nicht allein. Auch Owen Flanagan entwickelt eine Theorie der Vektorcodierung und schreibt: "The vector-coding story of sensory qualia is credible. Its credibility undermines the claim that qualia are inherently mysterious and that nothing, at least nothing scientific, can be said about them" (Flanagan 1992: 53). Aber wer hätte auch bestritten, daß sich interessante wissenschaftliche Einsichten über die wahrscheinliche materielle Realisierung der Prozesse sagen läßt, die bei uns zu einem phänomenalen Erlebnis führen. Aber das reicht noch nicht, um sagen zu können: "Sensory qualia, according to the proposal being offered, are just the characteristic spiking frequencies or activation patterns in the relevant neural pathways" (54). In bestimmter Hinsicht ist es noch viel erstaunlicher, daß diese neurobiologischen Prozesse offenbar hervorragend mit bestimmten bewußten Erlebnissen korrelierbar sind. Denn warum sich das dann so anfühlt, ist durch das Aufzeigen von Korrelationen nicht erklärt.

<84>

Aus eben diesem Grund ist auch Churchlands eliminativistische Hoffnung illusorisch. Er meint (wie viele andere), daß die folk psychology (1) sententielle, deklarative Zustände im Gehirn postulieren muß, die (2) unsere Handlungen verursachen. Stich, der seine Meinung inzwischen revidiert hat, formulierte das Potential des Konnektionismus gegen die folk psychology anhand eines konkreten semantischen Netzes A einmal wie folgt: "The information encoded in network A is stored holistically and distributed throughout the network. Whenever information is extracted from network A, by giving it an input string and seeing whether it computes a high or low value for the output unit, many connection strengths, many biases, and many hidden units play a role in the computation. And any particular weight or unit or bias will help to encode information about many different propositions. It simply makes no sense to ask whether or not the representation of a particular proposition plays a causal role in the network's computation" (Stich 1996: 105f). Daraus allein folgt aber noch kein Eliminativismus, wie Stich selbst mittlerweile betont, zusätzlich benötigt man Zusatzannahmen über eine Theorie der Referenz, denn es soll ja gezeigt werden, daß die Begriffe der folk psychology nichts in der Welt bezeichnen. Es gibt aber gute (von Stich 1996, Kapitel 1 detailliert aufgezeigte) Argumente dafür, daß eine Theorie der Referenz nicht der beste Ort ist, um ontologische Fragen lösen zu wollen. Zudem: Wenn die einzigen Begriffe, in denen wir unser Denken und Verhalten erklären können, in der Neurobiologie nicht mehr auftauchen, umso schlimmer für den Erklärungsanspruch der Neurobiologie! Ein solches Ergebnis stützt eher die These einer Erklärungslücke als einen Eliminativismus. Übrigens zeigt das auch, daß der Vorwurf eines anderen Eliminativisten, Richard Rortys, die Rede von mentalen Zuständen sei "a certain technical vocabulary - one which has no use outside of philosophy books an which links up with no issues in daily life, empirical science, morals, or religion" (Rorty 1980: 22) eine völlige Fehleinschätzung darstellt. Auch seine Erwiderung auf die Mühlenmetapher von Leibniz ist dann zu verwerfen: "If we know enough neural correlations, we shall indeed see thoughts - in the sense that our vision will reveal to us what thought the possessor of the brain is having" (Rorty 1980: 26). Neurale Korrelationen helfen uns nicht weiter, wenn wir mentale Zustände (und nicht nur ihre Konstitutionsbedingungen) erklären wollen.

<85>

Diese ersten beiden Punkte lassen sich ganz natürlich als hirnphysiologische Untermauerung der Thesen von Gibson lesen, die uns im letzten Kapitel beschäftigten.

<86>

Hier ist nicht der Ort, in die Debatte um den Status von Adaption und Selektion innerhalb der Evolutionstheorie aufzugreifen. Erlaubt sei nur ein Wort, um eventuellen Interpretationsschwierigkeiten vorzugreifen: Es wird derzeit lebhaft diskutiert, ob Adaption und Selektion die einzigen relevanten Mechanismen sind, die die Evolution vorantreiben (vgl. die Arbeiten der 'Fundamentalisten': Maynard Smith 1958; Dawkins 1986; Dennett 1995), oder ob andere Faktoren, etwa Exaption oder der schlichte Zufall, nicht im ungünstigen Moment etwa von einem Meteoriten erschlagen worden zu sein, ebenfalls als Mechanismen der Evolution bezeichnet werden müssen (vgl. die Arbeiten der 'New Synthesists', besonders: Gould 1980; 1989). Obwohl Edelman den Aspekt der Selektion in seiner Theorie besonders hervorhebt, hängt hier nichts vom Ausgang dieser Debatte ab. Für Edelman ist nur wichtig, daß Adaption und Selektion zwei der Hauptmechanismen der Evolution sind, und das wird von keiner Seite bestritten. Eine 'Katastrophentheorie', die z.B. die weitreichenden Wirkungen von Gewebeverletzungen während der Ontogenese in Rechnung stellte, ließe sich problemlos integrieren. Für einen Überblick über zunehmenden Schulterschluß von Evolutionstheorie und Entwicklungsbiologie vgl. Pennisi und Roush 1997.

<87>

Für die technischen Details vgl. Edelman 1988.

<88>

Was die Annahme, evolutionäre Prozesse seien wesentlich für die Ausprägung individueller Hirnstrukturen verantwortlich, für die Identitätstheorie bedeutet, faßt Churchland an einer Stelle, an der er sich offensichtlich auf Edelman bezieht, wie folgt zusammen: "There is a relentless internal competition taking place within any normal brain, both during its purely developmental phase in the womb and early childhood, and in the processes of learning throughout one's adult life. [...] Even if the brain's development is perfectly healthy, therefore, both in the total number of its neurons and in the richness of their connectivity, the natural ebb and flow of neuronal competition guarantees considerable variation across people in the profile of cognitive abilities that result. No one's brain turns out exactly like anyone else's", Churchland 1995: 254f.

<89>

Für die Details der Modelle sensomotorischer Steuerung vgl. die ausführliche Darstellung in Edelman 1989. Eine kürzer Darstellung des Prinzips gibt Churchland 1986. Etwas weniger technisch ist die Darstellung in Churchland 1995. - Für die Kritik an Edelman, auf die ich hier nicht näher eingehen möchte, vgl. besonders Crick (1989) der sowohl die Existenz neuronaler Gruppen bestreitet (die durch neuere Arbeiten aber mittlerweile gut bestätigt ist) als auch die Anwendbarkeit evolutionstheoretischer Ansätze auf die Strukturierung des Gehirns. Für meine Zwecke reicht es, die Verweise auf die Evolutionstheorie nur als Metaphern zu verstehen, daher geht von Crick keine allzugroße Gefahr aus. Interessant ist hingegen, daß Edelman die von Rudolfo Llinas und Wolf Singer unabhängig voneinander aufgewiesenen 40-hz-Oszillationen, die räumlich durchaus weit voneinander entfernte Hirnareale bei bestimmten Leistungen quasi zu takten scheinen, als einen der Übertragungsmechanismen für das reentry postuliert. Das scheint mir, solange harte empirische Fakten noch ausstehen, eine weit überzeugendere (und wohl auch weniger ehrgeizige) These zu sein als die Cricks, der diese Oszillationen für die Lösung des Bindungsproblems in Anspruch nehmen will. Neueste empirische Bestätigung erfährt die These, die zeitliche Koordination via Oszillation stelle eine zusätzliche Dimension dar, in der Sinneseindrücke vektoriell codiert werden, durch Stopfer et al. (1997), denen zufolge zumindest bei Bienen und Heuschrecken die Identifizierung molekular ähnlicher (nicht aber die verschiedener) Substanzen gestört wird, wenn man die mit der Reizung einhergehenden Oszillationen chemisch desynchronisiert.

<90>

Der Seitenhieb richtet sich hier wohl, auch wenn Edelman keine Namen nennt, gegen Marvin Minsky (1990), Daniel Dennett (1991) und William Lycan (1987), die alle sehr einflußreiche Theorien entwickelt haben, nach denen eine große Zahl sehr einfach strukturierter Homunkuli arbeitsteilig sehr komplexe Aufgaben zu lösen imstande sein sollen: Fortschreitend 'dümmere' Homunkuli erzeugen gemeinsam eine Gesamtintelligenz. Dabei ist allerdings sehr fraglich, ob der hier benutzte Begriff von Intelligenz sinnvoll ist, worauf Scholz (1995) hingewiesen hat: Intelligenz ist definiert durch Abweichungen von einem Durchschnittswert von 100 Punkten. Es ist definitorisch ausgeschlossen, daß der Wert schrittweise auf Null sinkt, wie hier vorausgesetzt wird.

<91>

Churchlands Verwendung des Begriffs 'Funktionalismus' ist allerdings insofern problematisch, daß er ihn für den Computerfunktionalismus der klassischen Kognitionsforschung zu reservieren scheint. An anderen Stellen scheint Churchland durchaus einer Art 'konnektionistischem Funktionalismus' das Wort zu reden, so in (1998), wo er versucht, zu formulieren, wie identische Zustände auch in unterschiedlich organisierten neuronalen Netzen als abstrakte Beziehung zwischen Vektoren (mithin also funktionalistisch) beschrieben werden können.

<92>

Daß das eine in unserem Zusammenhang wichtige These ist, ergibt sich daraus, daß unsere mentalen Zustände ein Resultat eben dieser Evolution sind. Eine befriedigende Theorie des Bewußtseins muß auch erklären können, wie es zur Ausbildung von Bewußtsein hat kommen können, andernfalls wäre sie in derselben Situation wie eine Theorie z.B. der Sprache, innerhalb der Spracherwerb nicht erklärt werden kann.

<93>

Es dürfte klar sein, daß diese Darstellung der angeblich zentralen These Darwins bereits eine weitreichende Interpretation darstellt. Darwin selbst gebraucht weder den Begriff des Algorithmus noch die Analogie zu Programmabläufen. Uns kann es hier aber relativ gleichgültig sein, ob Dennetts These historisch richtig ist, interessanter ist es, zu sehen, inwieweit sie produktiv ist. - Übrigens ist das Wort etymologisch nicht durch einen Sprachfehler aus der lateinischen Version (algorisme) des Namens des persischen Mathematikers al-Khowarizm zum englischen algorithm geworden, wie Dennett an der genannten Stelle annimmt, es handelt sich vielmehr um eine Anlehnung an das griechische arithmós (Zahl), zumindest wenn ich meinem etymologischen Wörterbuch (Kluge) glauben darf.

<94>

Dennett hält es hier mit Chomsky-Schülern wie Steven Pinker, die gegen die erklärte Auffassung ihres Lehrers evolutionäre Modelle einführen; vgl. Dennett 1995, vor allem Kapitel 13.

<95>

Neben den Hinweisen in Churchland 1995 vgl. hier besonders Pinker 1994: 297-331. Eine kürzere, allgemeinverständliche Darstellung eines semantischen Netzes findet sich in Stich 1996: 99-112.

<96>

vgl. Dennett 1996:64: "What does sentience amount to, above and beyond sensitivity? This is a question that is seldom asked and has never been properly answered. We shouldn't assume that there's a good answer. We shouldn't assume, in other words, that it's a good question." Es ist schon verwunderlich, wie Dennett offenkundig wider besseres Wissen die Bibliotheken füllenden Debatten um eben diesen Punkt ignoriert. Die Literatur ist voll von Versuchen, zu definieren, was genau Empfindung und bloße sensorische Registrierung unterscheidet; ich habe in dieser Arbeit bereits eine Menge solcher Antworten referiert, weitere werden folgen. Die Frage nach dem Status von Qualia ohne Argumente als Unsinn abzutun, ist ein wesentliches Manko von Dennetts Theorie, was übrigens auch Anhänger Dennetts konstatieren (vgl. Humphrey 1997).

<97>

vgl. Dennett 1991: 139-169; auch Dennett und Kinsbourne 1992.

<98>

Daß die Überzeugung der generellen Erklärungskraft von Algorithmen unausgesprochen seinen früheren Arbeiten bereits zugrundelag, konstatiert Dennett selbst so: "[T]he field of Artificial Intelligence is a quite direct descendant of Darwin's ideas. Its birth, which was all but prophesied by Darwin himself, was attended by one of the first truly impressive demonstrations of the formal power of natural selection" (Dennett 1995: 27).


[Titelseite] [Einleitung] [1] [2] [3] [4] [5] [6] [7] [8] [9] [Bibliographie] [Anhang] [Lebenslauf] [Selbständigkeitserklärung]

© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.

DiDi DTD Version 1.1
a subset from ETD-ML Version 1.1
Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML - Version erstellt am:
Tue Jun 8 19:04:33 1999