Siebert, Carsten: Qualia Das Phänomenale als Problem philosophischer und empirischer Bewußtseinstheorien

57

Kapitel 4. Direkte Theorie

4.1. Eine Alternative: Gibsons ‘ökologische Theorie der Wahrnehmung’

Wenn es problematisch ist, die visuelle Wahrnehmung so zu beschreiben, als involviere sie inferentielle Prozesse, die von irgendwelchen ‘Sinnesdaten’ auf unsere Wahrnehmungsurteile schließen, stellt sich die Frage nach einer besseren Beschreibung. Noch die Gestaltpsychologie, die zumindest eine wichtige Motivation darin hatte, sich gegen die inferentialistischen Modelle von Helmholtz und seinen Anhängern abzugrenzen, bewegte sich in einer Hinsicht innerhalb des traditionellen Paradigmas der physiologisch orientierten Wahrnehmungswissenschaften. Zwar verwehrte sie sich gegen die These vom inferentiellen Charakter unserer Wahrnehmungen als zu kognitivistisch und setzte dagegen direkte Gestaltmechanismen, die man sich als relativ niedrigstufige, physiologisch realisierte (und idealiter auch rein physiologisch beschreibbare) Prozesse vorstellen muß. Aber diese Prozesse werden herangezogen, um die folgende, als zentral betrachtete Frage jeder Wahrnehmungstheorie zu beantworten: ”Warum sehen die Dinge so aus, wie sie es tun?“<47> Auf die offenkundigen Analogien einer solchen Frage zu dem oben kritisierten Typus wie ‘Warum sieht die runde Öffnung des Glases von der Seite betrachtet elliptisch aus?’ brauche ich wohl kaum hinzuweisen. Das Problem ist nicht, daß die Frage als solche falsch oder sinnlos wäre. Sie schillert aber in so vielen Farben, daß sie ohne einen mitgelieferten Theoriekontext wenig erhellend ist. Ein Theoriekontext, der in dieser Hinsicht ebenso vielversprechend wie umstritten ist, steht uns in James J. Gibsons ‘ökologischer Wahrnehmungstheorie’ (ecological theory of perception) zur Verfügung. Gibson stellt eine andere Frage an den Anfang seiner Überlegungen. Es geht nicht darum, zu erklären, wie es dazu kommt, daß unser Sinnesapparat uns bestimmte visuelle Eindrücke zur Verfügung stellt - der Zweck des Sehens ist es nicht, uns interessante phänomenale Qualitäten haben zu lassen. Vielmehr ist es die Aufgabe aller Wahrnehmungen, uns zuverlässige, überlebensrelevante Informationen über unsere Umgebung zu vermitteln. In gewisser Hinsicht weigert sich dieser Ansatz schlicht, sich auf das traditionelle Dilemma einzulassen, wie es denn möglich sei, von der ‘Wahrnehmung in meinem Geist’ zur ‘Welt da draußen’ zu gelangen, indem er behauptet, daß das, was gesehen wird, immer schon die Dinge sind, die uns in der Umwelt begegnen. Hingegen ist es irreführend, davon zu reden, daß irgendwelche Zwischenstufen (seien sie organisch oder wie auch immer anders verstanden) gesehen werden.<48> Die naive common-sense-Überzeugung, daß das, was wir wahrnehmen, die Gegenstände der uns umgebenden Welt sind und nicht irgendwelche vermittelnden Entitäten wie Eindrücke (impressions) oder Sinnesdaten führt, zusammen mit dem Ziel, eine Theorie zu formulieren, die dem radikalen Skeptiker inbezug auf die Außenwelt weniger Ansatzpunkte bietet, führt bei Gibson zu einem neuen Ansatz, der die Reichweite der zu erklärenden Probleme von solipsistisch verstandenen mentalen Phänomenen eines cartesischen, isolierten Bewußtseins auf die Interaktion eines Individuums mit seiner jeweiligen Umwelt erweitert.

4.1.1. Die visuelle Welt

In seinem einflußreichen ersten Buch The Perception of the Visual World unterscheidet Gibson zwischen unserer Erfahrung des ‘visuellen Feldes’ und unserer Erfahrung der ‘visuellen Welt’. Das visuelle Feld ist dabei die Gesamtheit der Eigenschaften des Retinabildes, oder vorsichtiger gesagt, der Projektionsverhältnisse des Lichts auf der Retina. Das ist in vieler Hinsicht das, was traditionellerweise als ‘Empfindung’ bezeichnet wurde. Demgegenüber ist die visuelle Welt identisch mit dem Gehalt unserer visuellen Wahrnehmung, beschrieben als ein Herausfinden von relevanten


58

Zusammenhängen in der objektiven Welt vermittelt durch das Sehen. Gibson bestreitet, daß unser Erleben der visuellen Welt auf zwischen Welt und Erleben geschalteten Zwischenschritten beruht. Ebensowenig ist es ein Resultat irgendeiner mentalen Aktivität. Sowohl das visuelle Feld wie die visuelle Welt müssen vielmehr so erklärt werden, wie Empfindungen traditionellerweise gefaßt wurden, nämlich als nicht-kognitives Reagieren des visuellen Systems auf bestimmte Eigenschaften des Reizes. Folgerichtig vermeidet es Gibson, unsere Kontakt mit der visuellen Welt in Begriffen wie ‘Meinung’, ‘Urteil’ oder ‘Hypothese’ zu charakterisieren, legt eine solche Begrifflichkeit doch intellektuelle oder mentale Prozesse nahe.<49> Die Ausgangsfrage ‘Warum sehen die Dinge so aus, wie sie es tun?’ ist relevant nur als Frage bezüglich der visuellen Welt, nicht des visuellen Felds. Das veranlaßt Gibson zu seiner Generalkritik auch und gerade der experimentellen Wahrnehmungspsychologie, die sich nicht auf die Erforschung der Wahrnehmung der visuelle Welt in einer realistischen Umwelteinbettung konzentriert, sondern isoliert bestimmte Leistungen des visuellen Systems bezüglich in einer Laborsituation künstlich erzeugter Reize untersucht. Aber natürlich ist nach Gibson eine Erkenntnistheorie, die auf in dieser Weise gewonnenen Daten aufbaut, keinesfalls besser dran. Die richtige Erklärung dafür, daß die Dinge für uns so aussehen, wie sie es tun, ist nach Gibson eine Version der Konstanzhypothese. Hier argumentiert Gibson ganz nah an der Gestalttheorie, die auch einen Mechanismus annimmt (wahrscheinlich im Gehirn festverdrahtet), der dafür sorgt, daß einmal identifizierte geometrische Formen (etwa die kreisförmige Öffnung der Kaffeetasse) auch dann als rund (und nicht als elliptisch) gesehen werden, wenn sie perspektivisch verzerrt sind. Ähnliche Mechanismen sorgen auch für die Wahrnehmung einer absoluten Größe von Gegenständen, die uns relativ zum Abstand als verschieden groß projiziert werden, für die Fortsetzung starker Umrißlinien als Scheinkonturen und ähnliche Effekte mehr.

Der für unsere Diskussion wesentliche Fortschritt, der in der Berufung auf die Konstanzhypothese liegt, ist, daß es sich dabei um einen psychologischen, nicht etwa um einen physiologischen Mechanismus handelt. Natürlich gibt es eine sinnes- und neurophysiologische Erklärung - man kann schließlich genauer spezifizieren, wie genau ein solcher Mechanismus in den entsprechenden Zellstrukturen implementiert ist. Im Rahmen einer epistemologischen Theorie bringt es keinerlei Fortschritt, sich auf diese Ebene zu berufen. Es reicht, daß es irgendeine biologische Realisierung der für die Konstanzhypothese wichtigen Mechanismen gibt; welche es im Einzelnen sind ist ein hochinteressantes, aber für die psychologische Theorie marginales Problem. Diese prinzipielle Ebenenunterscheidung hat forschungsstrategisch einen guten Sinn, auch wenn sie dadurch nicht motiviert ist: Wir müssen nicht das letzte Wort aus der Neurophysiologie abwarten, um sinnvolle Theorien über unsere Erkenntnismöglichkeiten aufzustellen. Wir können dort beginnen, wo uns die Daten schon zur Verfügung stehen.

Ein zweiter Fortschritt zur Überwindung der unfruchtbaren Debatte zwischen direkten Theorien und dem Inferentialismus besteht in Gibsons Betonung der Umwelteingebundenheit jedes Wahrnehmungsvorgangs und damit seiner Verbindung zum handelnden Umgang mit der Welt. Die Wahrnehmung der Welt ist signifikant für unser Verhalten - es ist diese an sich triviale Einsicht, die Gibson dazu führt, die Untrennbarkeit von Sehen und Handeln zu betonen. Gibson selbst hat dieser Betonung etwas unglücklich in seinem Begriff der affordance zum Ausdruck gebracht - unglücklich deshalb, weil er diesen zentralen Begriff selbst nie hinreichend definiert hat, bzw. ihn mit einer so weiten Bedeutungsstreuung verwendet, daß man manchmal den Eindruck hat, die Grenzen dieses Begriffs seien überhaupt nicht scharf gezogen, sondern kennzeichneten eher so etwas wie einen Assoziationshof. Eine der kanonischen Einführungen des Begriffs lautet wie folgt:

The theory of affordance implies that to see things is to see how to get about them and what to do with them. If this is true, visual perception serves behavior, and behavior is controlled by perception. The observer who does not move but only stands and looks is not behaving at the moment, it is true, but he cannot help seeing the affordances for behavior in whatever he looks at. (Gibson 1979: 223)

Dasjenige, was wir sehen, ist das, was für unsere Handlungen relevant ist bzw. das, was uns überhaupt Handlungsräume eröffnet.<50> Dabei ist die Rede von der Räumlichkeit des Sehens


59

keineswegs bloß metaphorisch gemeint. Gibson ist der Ansicht, daß wir auch Distanz so direkt wahrnehmen wie alles andere und stellt sich damit gegen die gesamte Tradition. Für Berkeley war die Entfernung eines Objekts gerade das Paradigma für eine Information, die nur durch Inferenzen aus dem sinnlich Gegebenen zu erhalten sei, da die Rückprojektion jedes einzelnen Punktes des Netzhautbildes in die Umgebung eine unendliche Anzahl von Interpretationen zuläßt.<51> Auch so eminente Wahrnehmungspsychologen wie der schon erwähnte Richard Gregory oder Irving Rock behandeln die dritte Dimension als etwas, das erst aus einer Reihe verschiedener cues, aus Hinweisen oder Indizien also, erschlossen werden muß.<52> Dieser Tradition von Wahrnehmungstheorien ist zu eigen, den Reiz, aus dem das ‘Bild der Welt’ rekonstruiert werden muß, punktuell aufzufassen. Das Problem ist, daß es eine Menge von isoliert betrachteten Bildpunkten auf der Retina gibt, die durch strahlförmige Projektion von Außenweltpunkten entstanden sind. Das Verhältnis der Projektionspunkte zueinander ist durch die Projektion selbst unterbestimmt. Daher erklärt sich die als zwingend empfundene Notwendigkeit eines Inferenzprozesses. Dazu schreibt der Entwicklungspsychologe T.G.R. Bower:

Although this view is still encountered [...], it should not have survived the clarifying analysis of Gibson. [...] Gibson pointed out that there are many stimuli that specify distance. Once projected on the two-dimensional retina the stimuli are not themselves three-dimensional. However, variations within these stimuli specify variations in distance to a degree of accuracy limited only by the resolving power of the optical system of the eye. We thus see distance as directly as we see color. (Bower 1974: 66)

Das Problem entsteht hier nur, so Gibson, weil die Wahrnehmungstheoretiker spätestens seit Berkeleys New Theory of Vision sich zu sehr an der Metapher des Auges als camera obscura haben leiten lassen. Dabei läßt sich für das menschliche Auge sogar experimentell nachweisen, daß es im Gegensatz zu dieser Metapher nicht die punktuelle Reizung der Retina durch das Licht ist, die uns etwas sehen lassen. Reizt man die Retina einer Versuchsperson nur durch gleichmäßiges, diffuses Licht, sieht sie überhaupt nichts.

Was sind aber genau die Reize, die uns eine direkte Aufnahme von Umweltinformationen ermöglichen? Außerhalb der Labors der Wahrnehmungspsychologen besteht die Aufgabe des visuellen Systems so gut wie nie darin, abstrakte geometrische Formen zu identifizieren und ihre relativen Entfernungen anhand der Perspektivengesetze zu bestimmen. Wahrnehmung ist vielmehr eine Funktion von Organismen, die in einer bestimmten natürlichen Umwelt leben, auf die ihr visuelles System abgestimmt ist und in der das Licht, das die Augen erreicht, schon in höchst informativer Weise strukturiert ist. Daher treten in einer adäquaten Erklärung der Wahrnehmungsleistung neue Begriffe auf: Wir müssen, um zu erklären, was ein Lebewesen sieht, bestimmen, in welcher Umwelt es sich normalerweise bewegt, d.h. wir müssen in unsere Überlegungen mit einbeziehen, auf was für einem Untergrund und in was für einem Medium es sich bewegt, was für Typen von Formen ihm normalerweise begegnen (z.B. Felsen oder Pflanzen), wie groß typische Objekte sind, etc. Vor diesem Hintergrund stellt sich dann die Frage unter anderem nach der Wahrnehmbarkeit von Entfernungen in anderer Weise. Gibson selbst beschreibt seine Position so:

Distance may be thought of [...] as extending along the ground instead of through the air, and then it is not invisible. It is projected as a gradient of the decreasing optical size and increasing optical density of the features of the ground [...] Distance therefore is not a line endwise to the eye as Bishop Berkeley thought. To think so is to confuse abstract geometrical space with the living space of the environment. It is to confuse the Z-axis of a Cartesian coordinate system with the number of paces along the ground to a fixed object. (Gibson 1979: 117)

Gibsons Vorwurf hier ist, daß die Geometrisierung, die dem Sehstrahlmodell Berkeleys zugrunde


60

liegt, eine Art der Mathematisierung ist, die dem Phänomen nicht gerecht wird. Man geht sicher nicht fehl, wenn man auf die großen Parallelen zu Husserls Rede von der ‘Substruktion der Lebenswelt’ hinweist.<53> Gibsons Auflistung der Unterschiede zwischen der Lebenswelt und ihren geometrischen Einschreibungen liest sich geradezu wie eine Erläuterung des Husserlschen Limes-Begriffs, also den in das Wahrgenommene idealiter als Grenzwertfiguren Hineinkonstruierte:

A surface is substantial; a plane is not. A surface is textured; a plane is not. A surface is never perfectly transparent; a plane is. A surface can be seen; a plane can only be visualized. (Gibson 1979: 35)

Es ist vielleicht hilfreich, sich genau vor Augen zu führen, was kritisiert wird. Natürlich behauptet Gibson nicht, daß geometrischen Modelle falsch sind. Tatsächlich kann man den Wahrnehmungsprozeß so beschreiben, daß bestimmte Wellen von bestimmten Punkten eines Objekts zu den entsprechenden Punkten der Retina reflektiert werden, denn selbstverständlich unterliegt alles an diesem Vorgang den Gesetzen der physikalischen Optik. Die Frage ist vielmehr, ob eine solche Beschreibung erhellend ist inbezug auf die erkenntnistheoretischen Fragen, die sich stellen. Kurz, ist es ein Schritt im Erkenntnisprozeß, der auf diese Weise beschrieben wird, oder ist es eine Beschreibung der unsere Erkenntnis ermöglichenden physikalischen Basis? Inwieweit ist es überhaupt sinnvoll, statische Retinabilder als erkenntnistheoretisch relevanten Zwischenschritt anzunehmen? Gibsons These ist, daß der Reiz nicht das Punkt-für-Punkt-Abbild der Umwelt auf der Retina ist, sondern vielmehr die gesamte Verteilung von Kontrasten auf der Retina zusammengenommen als array (also als Kontrastmuster) den proximalen Reiz bildet. Das erklärt, warum wir diffuses Licht gemäß des oben angeführten Experiments überhaupt nicht sehen: Es stellt für unser visuelles System keinen geeigneten Reiz dar. Diffuses Licht enthält keine Information für das visuelle System, es ist nicht in angemessener Weise strukturiert. Das ist allerdings noch nicht ganz exakt, denn auch in einem solchen Gesamtmuster kann es immer noch Ambiguitäten in Hinblick auf die Zuordnung von array und visueller Welt geben. Daher betont Gibson, daß das array unter Normalbedingungen nie statisch ist. Der Ausgangsreiz für unsere Wahrnehmung ist daher immer das bewegte Bild, das array, das sich im optische Fluß (optical flow) bewegt. Ein ständig sich bewegendes Bild enthält Informationen z.B. auch über sich verändernde Verhältnisse von Gradienten und läßt daher einen direkten Zugriff auf Entfernungsinformationen zu (‘Information’ figuriert bei Gibson als Synonym zu ‘Strukturkonstanz’). Für bodenbewohnende Lebewesen zum Beispiel gibt es oberhalb der Horizontlinie einen relativ kleinen Winkel, aus dem das direkte Sonnenlicht empfangen wird und einen großen Winkel, aus dem uns von der Atmosphäre gestreutes Licht erreicht. Unterhalb der Horizontlinie erreicht das von den Objekten reflektierte Licht die Augen in vielen verschiedenen, durchweg tendenziell weiten Winkeln. Für Meeresbewohner ändert sich die Situation aufgrund des unterschiedlichen Brechungsindices des umgebenden Mediums, wieder anders stellt sich die Situation für Süßwasserbewohner dar.

All diese spezifischen Muster, in denen das Licht unter Normalbedingungen die Augen erreicht, sind dem visuellen System quasi eingeschrieben; das Gesamtmuster der Kontrastunterschiede, das die Augen erreicht enthält relativ zum visuellen System bereits eine Menge von wichtigen Informationen relativ zum Medium:


61

The spatial and temporal pattern of light converging on a point in a land or water environment provides information about the structure of the environment and events occurring in it.(Bruce/Green 1990: 225)<54>

Die Feinstruktur jedes Sehwinkels im visuellen Feld entspricht der Oberflächenstruktur der Objekte, von denen das Licht reflektiert wurde. Das totale array des Lichts, das das Auge eines Beobachters erreicht, besteht aus allen individuellen Segmenten des Gesichtsfeldes, die in ihrer Struktur direkte Informationen über die Umgebung enthalten, von der sie selbst strukturiert wurden.

In diesem Zusammenhang kann man die Rolle der zeitlichen Variation im optischen array kaum genug betonen, um Gibsons Opposition zur Kamera-Metapher klar herauszuarbeiten: Anders als in der klassischen Wahrnehmungspsychologie wird nicht ein statisches Bild auf der Retina wahrgenommen, sondern relative Bewegung und Position von Objekten, die direkt als Invarianten im optischen Strom (flow) aufgenommen werden. Gibson behauptet, daß hierin schon genügend Information enthalten sei, um bezogen auf eine bestimmte Umwelt die Anordnung der Objekte eindeutig zu bestimmen. Daher erklärt sich seine Betonung des dynamischen Charakters des optischen array. Beobachter sind nie wirklich statisch; selbst wenn sie sich nicht zu bewegen scheinen, gibt es immer eine Reihe von unwillkürlichen Augenbewegungen. Das ist ein weiterer Aspekt, der in typischen Laborexperimenten, in denen den Testpersonen fixierte, unbewegte Stimuli gegeben werden, nicht berücksichtigt wird, wie Gibson meint:

What is clear to me now is that structure as such, frozen structure, is a myth or at least a limiting case. Invariants of structure do not exist except in relation to variants. (Gibson 1979: 87)

Als dasjenige, was Veränderungen im optischen Strom hervorruft, ist Bewegung essentiell dafür, daß es zu dreidimensionaler Wahrnehmung kommen kann.<55> Die Transformation des gesamten optischen arrays durch konsekutive Bewegungen führt zu Mustern des optischen Stromes, die der Bewegung in eine bestimmte Richtung relativ zum Beobachter intrinsisch sind.<56> Diese Darstellung erklärt gewöhnliche Phänomene wie die Bewegungsillusion, die man manchmal hat, wenn man in einem stehenden Zug sitzt und aus dem Fenster auf einen langsam beschleunigenden Zug schaut: In Abwesenheit anderer Indizien (da der Blick auf die Umwelt begrenzt ist auf die Seite des abfahrenden Zugs) ist die einzig sichere Information die, daß das optische array sich verändert. Es ist dadurch noch nicht ausgemacht, ob sich das meiner Bewegung oder der Bewegung aller Punkte des optischen arrays verdankt, die in der Umwelt jenseits des Zugfensters liegen.

Obwohl aber das optische array charakteristischerweise dynamisch ist, enthält es gleichwohl invariante Informationen in Form von Variablen höherer Ordnung, wo der Inferenztheoretiker nur ambivalente Information sieht, die theoretisch auf den verschiedensten Wegen weiterverarbeitet werden kann. Wieder sind die wichtigen Begriffe Oberfläche (surface) und Oberflächenstruktur (texture):

Pebbles, grains of sand, or blades of grass are all elements of texture which, while not identical, possess statistical regularity - the average size and spacing of elements of the same kind of

62

texture will remain roughly constant for different samples.(Bruce/Green 1990: 225)

Mit der Rede von Invarianten ist das Verhältnis eines Objekts zu den Strukturen des Hintergrunds gemeint, auf dem es gesehen wird. Es ist leicht nachzuvollziehen, daß dieses Verhältnis konstant ist. Wenn ich einen Mann neben einem Baum stehen sehe, gibt es eine invariante Beziehung der Größe des Mannes zu der Höhe des Baumes, die unabhängig von meiner Entfernung zu beiden ist. Gibson bezeichnet die Variablen, in die wir die Werte von Objekt/Hintergrund-Relationen einsetzen können deshalb als Variablen ‘höherer Ordnung’, weil sie eine entsprechende Strukturierung des arrays bereits voraussetzen. Auf diese Weise stellt die Anordnung und relative Größe statistisch regelmäßiger Gegenstände, so wie sie sich in den Oberflächengradienten darstellen, einen direkt wahrnehmbaren Maßstab für die absolute Größe entfernter Gegenstände zur Verfügung:

Surfaces which are flat and receding, or which are curved, are characterised by a number of texture gradients. One is the density of texture elements; in a receding surface, the number of elements per unit of solid visual angle increases with distance. Others are the perspective and compression gradients, defined by changes in the width and height respectively of the projections of texture elements in an image plane. In a receding surface, these both decrease with distance. (Bruce/Green 1990: 227)

Oberflächenstrukturgradienten können nicht nur dazu benutzt werden, um die Eigenbewegung des Beobachters aufzunehmen, auch die Bewegung von Objekten innerhalb seines Gesichtsfeldes können so wahrgenommen werden. Bewegungen des Beobachters selbst führen zu Veränderungen des gesamten optischen arrays, während Objektbewegungen das array nur lokal verändern. Ein weiterer wichtiger Unterschied ist, daß bewegte Objekte konsekutiv verschiedene Teile der Oberflächenstruktur des Hintergrundes im Gesichtsfeld verdecken. Selbst wenn wir eine Szene als statisch wahrnehmen, können wir das nur aufgrund der Möglichkeit der, wie er es nennt, reversiblen Verdeckung (reversible occlusion) des Hintergrundes. Auf diese Weise kann es nie echte Ambiguitäten darüber geben, ob sich der Beobachter oder nur ein Objekt in seinem Gesichtsfeld bewegt. Um bei dem Beispiel zweier Züge im Bahnhof zu bleiben: Sobald ich die Lücke zwischen zwei Wagons des anfahrenden Zuges sehe und bemerke, daß der andere Zug nur für einen Moment den gegenüberliegenden Bahnsteig verdeckt, habe ich sofort eine eindeutige Bewegungsinformation.

Ein offensichtlicher Vorteil einer Theorie, die Entfernungen als direkt wahrnehmbar versteht ist, daß sie eine einfache und elegante Lösung für das Problem der Größenkonstanz bietet. Das Problem, wie wir Objekte relativ zuverlässig als gleich groß erkennen, obwohl sie unterschiedlich weit von uns entfernt sind und daher sehr unterschiedliche Winkel im visuellen Feld einnehmen, stellt sich erst dann, wenn man das Faktum ignoriert, daß in der natürlichen Umwelt mit der Oberflächenstruktur immer schon ein Maßstab zur Größeneinschätzung zur Verfügung steht und versucht, die Größenkonstanz nach Berkeleys Vorbild rein aus den Gesetzen der physikalischen Optik abzuleiten. Inferentialisten haben Probleme, den Umstand zu erklären, daß es nicht so aussieht, als würden Objekte schrumpfen, wenn sie sich von uns entfernen. Vielmehr ist es jedem sofort klar, daß sie sich bei gleicher Größe in einem weiteren Abstand befinden, und daß, obwohl sie exponentiell weniger Platz auf unserer Retina einnehmen, da ja nach den Regeln der Optik das Abbild im Entfernungsquadrat kleiner wird. Bruce und Green haben darauf hingewiesen, daß eine Erklärung im Sinne der Inferentialisten, die darauf aufbaut, daß dem visuellen System verschiedene Indizien für die tatsächlichen Verhältnisse gegeben sind, mit denen es den in der Tat zunächst falschen Eindruck auf der Retina korrigieren kann, in eine Paradoxie führt:

The traditional view of this phenomenon is that the brain must take account of the perceived distance of objects (as given by various cues) and scale perceptual size up accordingly. The consequence of this is paradioxical. While relative image size may act as a cue to distance, the distance thus assessed is then used to judge the apparent size of the viewed object. (Bruce/Green 1979: 235)

Ein solches Vorgehen ist offensichtlicherweise zirkulär. Gibson hat kein vergleichbares Problem, denn der Oberflächenstrukturgradient (texture gradient) bildet eine Meßlatte für alle Punkte des optischen arrays. Auch andere Konstanzphänomene wie das der Formkonstanz finden eine natürliche Erklärung. Die Öffnung eines Glases, das ich von der Seite sehe, sieht für mich


63

tatsächlich nicht oval aus, vielmehr sieht es wie eine runde Öffnung aus, die von der Seite gesehen wird, und zwar sieht sie direkt so aus, ohne den Umweg über irgendwelche geometrischen Ableitungen. Denn im optischen array ist die Information bereits enthalten, daß ein Rand des Glases mir näher ist als der andere. Der Effekt der Beobachterperspektive, die relevanten Verzerrungen, sind nicht etwas, was ich aus dem Datenmaterial erst herausrechnen muß, vielmehr sind sie die normalen Effekte direkt gesehener Entfernung. Was durch Gibsons Erklärung nahegelegt wird ist, daß wir in normalen, umwelteingebetteten Wahrnehmungssituationen Entfernungen direkt als Proportionalität (eben als Strukturkonstanz) von Vordergrundfiguren und dem Hintergrund wahrnehmen.

4.2. Die Kritik der Kognitionswissenschaften

Man könnte meinen, daß, wenn man einen Ansatz wie den Gibsons im Detail ausbuchstabierte, man gezeigt habe, daß die Entfernungswahrnehmung tatsächlich direkt oder unmittelbar ist. Ich selbst war ursprünglich geneigt, diese These zu vertreten, bin mir aber jetzt nicht mehr sicher, ob sich diese Frage so allgemein überhaupt befriedigend beantworten läßt. Denn auch diese Frage ist, für sich genommen, vage und kann auf ganz verschiedene Arten interpretiert werden. Je nach dem Zusammenhang kann es sich bei den verschiedenen Interpretationen um empirisch gehaltvolle Thesen oder auch nur um einen Terminologiestreit handeln. Strukturell verhält es sich hiermit wie mit der Frage, ob die Wahrnehmung auf Inferenzen zurückgreifen muß. Dieselben oben angeführten Schwierigkeiten ergeben sich in ganz ähnlicher Form auch hier. Um wenigstens kurz anzudeuten, worin die von mir vermutete Ähnlichkeit der Fragestellungen besteht, möchte ich kurz auf den bekanntesten Angriff auf Gibson aus einem kognitionswissenschaftlichen Paradigma heraus eingehen.

4.2.1. Fodor und Pylyshyn

Jerry Fodor und Zenon Pylyshyn (1981) fragen ‘How direct is visual perception?’ und beantworten ihre Frage wenig überraschend gleich dahingehend, daß sie in Wahrheit ein höchst vermittelter Vorgang sei. Ihr Argument in drei Schritten verläuft nach folgendem Schema: (1) Zunächst verweisen sie auf die offenkundigen Asymmetrien zwischen den Eigenschaften des Lichts und den Eigenschaften des layout, der visuellen Anordnung der Objekte in der Umwelt. (2) Welche dieser Eigenschaften von uns aufgenommen werden können, scheint ihnen ebenfalls klar: Allein schon aufgrund unserer organischen Ausstattung sind es natürlich die Eigenschaften des Lichts. Denn unser visuelles Sensorium ist ja gerade für einen bestimmten Ausschnitt des elektromagnetischen Spektrums empfindlich. (3) Wenn aber Lichteigenschaften das sind, was wir zunächst wahrnehmen, ist klar, daß es einer ganzen Reihe von Schritten bedarf, um zu dem zu gelangen, was wir als Wahrnehmungserlebnis erfahren. Es scheint hier klarerweise eine kausale Abhängigkeit der Eigenschaften des layouts von den Eigenschaften des Lichts zu geben, denn letztere sind ersteren vorgängig. Etwas brutal könnte man sagen: Wenn das Licht aus ist, können noch so viele layout-Eigenschaften vorhanden sein, wir werden sie kaum sehen. Umgekehrt gilt das Gleiche: Wenn wir die Netzhaut einer Probandin durch entsprechende Lichtsignale reizen, wird sie ein räumliches layout sehen, auch wenn dieser Reiz hinterhältigerweise von uns im Labor erzeugt wurde und es tatsächlich keine Umwelt gibt, die als Quelle dieses Reizes dient. Und wenn wir das Licht, das von einem tatsächlichen layout ausgeht, in geeigneter Weise verzerren, wird die Probandin etwas anderes als die Umweltverhältnisse sehen. Fodor und Pylyshyn benutzen die Argumente von Sinnestäuschung und Halluzination, um zu zeigen, daß die visuelle Wahrnehmung so direkt nicht sein könne.<57>


64

Ein exakt analoges Argument ließe sich aber auch für die These vorbringen, nicht die Eigenschaften des Lichtes seien das Entscheidende, sondern die Eigenschaften der neuronalen Impulse, die die Retina verlassen. Schließlich bilden Netzhautreize den Anfang einer Kette neuronaler Ereignisse, die ein gleichermaßen asymmetrisches Verhältnis zu den Eigenschaften der Lichtmuster haben. Wenn man im Labor dieselben neuronalen Impulse direkt ein kleines Stück hinter der Retina erzeugt, wird unsere arme Probandin wieder etwas sehen, diesmal sogar, ohne je einem Lichtstrahl ausgesetzt gewesen zu sein. Und dieses Spiel läßt sich fast beliebig weit in die Neurophysiologie weitertreiben: Vielleicht kommen die in der philosophischen Literatur so häufigen evil scientists auch auf die Idee, die neuronalen Reize erst nach dem optischen Chiasmus zu erzeugen. Vielleicht reizen sie sogar alle Sehzentren direkt. Wenn man dem Gedanken Fodors und Pylyshyns folgt, verlegt man so dasjenige, was wirklich gesehen wird, d.h. dasjenige, was die kausale Priorität gegenüber unserem Seherlebnis hat, immer tiefer in die Gehirnstrukturen, ohne daß je ein bestimmter Reiz auf einer dieser Strukturebenen als ‘das wirklich Gesehene’ festzumachen wäre. Allein darin schon scheint eine reductio zu liegen. Anders formuliert, scheint die Frage nach dem, was direkt gesehen wird, von der Antwort abzuhängen, die man geneigt ist, auf die Frage zu geben, welche Teile des Sinnesapparats mehr oder weniger mechanisch im Sinne einer Reizumsetzung und Reizweiterleitung funktionieren und in welchen man demgegenüber höhere Prozesse ansetzen muß. Für den Teil des Sinnesapparats, der rein organisch-physiologisch funktioniert, hat sich in der Debatte der aus den Kognitionswissenschaften der Begriff des transducers eingebürgert. Die Intuition von Fodor und Pylyshyn ist, daß die Funktionen von transducern keine mentalen oder psychologischen Operationen sind, während dies sehr wohl für die auf ihnen aufbauenden Verarbeitungsprozesse gilt:

Like all primitive operations of the functional architecture, the transducer fundamentally is a physical process; that is, its behavior is explainable (its regularities can be captured) in terms of its intrinsic properties - physical, chemical, biological, and so on. (Pylyshyn 1984: 148)

Die Stichhaltigkeit dieser Behauptung hängt davon ab, ob Fodor und Pylyshyn den signifikanten Unterschied zwischen rein physiologischer Verarbeitung und dem Bereich dessen, was psychisch oder kognitiv ist, in brauchbarer Weise ausbuchstabieren können. Aus den oben bereits ausgeführten Gründen bin ich diesbezüglich eher skeptisch. Denn wenn wir uns anschauen, wie Fodor und Pylyshyn den Begriff ‘visuelle Inferenz’ verwenden, fällt auf, daß er vorwiegend negativ charakterisiert wird: Inferenz ist alles, was nicht Transduktion ist. Wenn erst einmal etwas vermittels eines Transduktionsprozesses als Informationsdatum vorliegt, sind alle späteren Prozesse, die dieses Datum durchläuft, per definitionem Inferenzen. Das ist eine Sprachregelung, bei der man befürchten muß, daß der spezifische Unterscheidungswert des Begriffs auf der Strecke bleibt, denn so gefaßt scheint es, als sei die These, das Sehen sei inferentiell, mit einem enorm großen Spektrum im Einzelnen durchaus konfligierender Theorien der Raumwahrnehmung. ”Wenn Du alles, was nicht Transduktion ist, als Inferenz bezeichnest, dann ist klar, daß das Sehen inferentiell ist“, könnte ein Gibsonianer sagen. ”Ich habe keine Lust, mich um Worte zu streiten - alles, was ich sage ist, daß in Deinem Sinn der Transduktionsprozeß so umfangreich ist, daß nach seinem Ende keine weitere Verarbeitung mehr stehen muß, um zu unseren Sinneserlebnissen zu kommen. Wir haben eben alle einen thick transducer. Denn natürlich habe ich nie bestritten, daß in unseren Nervenbahnen irgendetwas vorgeht (transducing nämlich), was die Grundlage unserer


65

Wahrnehmung bildet.“<58>

In gewisser Hinsicht ist sich Pylyshyn dieser Schwierigkeit bewußt. Er gesteht zu, daß ein Kognitionsforscher eine recht große Freiheit (considerable latitude) dabei hat, welche Funktionen innerhalb seiner Architektur er den transducern zuordnet und welche bereits in den Bereich der Symbolverarbeitung fallen (vgl. Pylyshyn 1984: 148). Pylyshyns Abwehrreaktion gegen Gibson speist sich aber noch aus einer zweiten Quelle: Er befürchtet, daß die Einheit, die Kohärenz der Wissenschaften überhaupt ins Wanken gerät, wenn man in einem Teilbereich wie der ‘ökologischen Optik’ den physikalischen Diskurs einem anderen unterordnet. Es sind also nicht so sehr die Feinheiten der Einschätzung des Status bestimmter Teile der funktionalen Architektur, die Pylyshyns Protest hervorrufen, sondern die Befürchtung daß, wenn man Gibson folgt, man das physikalistische Weltbild aufgeben muß. Nach Pylyshyn ist die Physik die Basiswissenschaft (basic science), weil sie die allgemeinsten und erfolgreichsten Begriffe zur Beschreibung der physikalischen Welt bereithält. Nur in diesen Kategorien lassen sich so erfolgreiche Gesetze formulieren, jedes Abweichen von diesen Kategorien bringt notwendigerweise den Mißerfolg der Theorie mit sich:

It is the vocabulary of contemporary physics that makes it possible to capture the natural laws we know. If we ignore the vocabulary of physics, and describe the physical events that cause cognitive state changes using some other set of terms, say only terms that refer to perceived properties such as Gibson’s ”affordances“, we would lose the only coherent way we have of talking about all aspects of the physical world. (Pylyshyn 1984: 169)

Ich sehe nicht, warum diese in der Tat triste Konklusion notwendig folgen sollte. Gibson muß nicht behaupten, daß die Wahrnehmungsvorgänge, die er in seiner Terminologie beschreibt, aus dem Bereich der physikalischen Gesetze herausfallen. Im Gegenteil würde er sicher behaupten, daß sie, wie alles andere auch, in irgendeiner Weise physikalisch realisiert sind. Die Frage ist eher die, ob die physikalischen Gesetze, denen auch diese Vorgänge unterliegen, die geeignete Beschreibung sind, um uns bestimmte Aspekte deutlich werden zu lassen. In allen anderen Wissenschaften bezieht man sich selbstverständlich auf eigene, nicht direkt in die Physik übersetzbare Gesetze, um die spezifischen Phänomene in den Griff zu bekommen. In der Biologie etwa hat man keine Probleme, von genetischen Gesetzmäßigkeiten zu reden, ohne daß damit die Physik infrage gestellt würde. Die biologisch relevanten Gemeinsamkeiten zwischen funktional ähnlichen Genen zweier stammesgeschichtlich weit entfernter Organismen käme eventuell in einer auch noch so genauen physikalischen Beschreibung nicht mehr zum Ausdruck, weil es sich um physikalisch durchaus verschiedene Objekte handelt. Warum sollte das in der Wahrnehmungspsychologie anders sein? Man findet bei Pylyshyn eine Definition von transducer, in der sein physikalistisches Vorurteil besonders gut zum Ausdruck kommt:

I have characterized a transducer as a function instantiated in the functional architecture, whose purpose it is to map physical events into cognitive, or computational, events. Roughly speaking, a transducer produces a code, C, of bounded size -say, an n-tuple of symbols- whenever it is stimulated by an event that is a member of a class of events that can be given a finite physical description, D, cast in terms of the primitive vocabulary of physics. (Pylyshyn 1984: 178)

Wenn man sich für den Moment nicht an der Gleichsetzung von kognitven und komputationalen Ereignissen stört, habe ich an dieser Formulierung nichts auszusetzen. Aber der Umstand, daß ich von den Ereignissen, die für diesen speziellen transducer als input dienen, eine physikalische Beschreibung D geben kann, ist im Zusammenhang der Wahrnehmungstheorie gegebenenfalls nicht besonders interessant. Um die Klasse von Ereignissen festzulegen, für die ich eine physikalische Beschreibung geben können muß, brauche ich vielleicht Ordnungskriterien, die ich nicht selbst aus der Physik entnehmen kann. Ich muß zu ihrer Identifizierung eine Vorstellung davon haben, was genau dieser transducer im Zusammenhang des Systems leisten können muß, und diese Fähigkeit muß nicht in Begriffen der Physik beschreibbar sein. Pylyshyn selbst nennt als konkrete Beispiele für transducer die basalen Funktionen des optischen Systems, wie sie David Marr postuliert hat (vgl. Pylyshyn 1984: 164, FN 3). Wie wir sehen werden, ist sich Marr aber


66

darüber im klaren, daß die Zuschreibung von Funktionen über die rein physikalische Beschreibungsebene hinausgeht.

Vielleicht ist einer der Ausgangspunkte für die Unübersichtlichkeit dieser Streitereien, daß die Opponenten sich um einen von beiden Seiten fälschlich als zentral angesehenen Begriff streiten. Der Inferentialismus behauptet, daß die Information, die uns über das visuelle System erreicht, nicht ausreicht, um unseren Seheindruck zu spezifizieren. Gibson will zeigen, daß, betrachtet man das Gesamt-array, sehr wohl genügend Information vorhanden ist, und schließlich versuchen Kognitionswissenschaftler wie Fodor und Pylyshyn zu zeigen, daß auch solche arrays nicht genügend Information enthalten. In gewisser Hinsicht scheint diese Debatte ihr Thema zu verfehlen. Denn wie wir gesehen haben, könnten die vermittelnden Prozesse rein physiologischer Natur sein. Aber andererseits bringt diese Einsicht auch für den Vertreter einer direkten Theorie keinen Argumentationsvorteil:

A constructivist might well argue that no matter how much ‘information’ is available in the optical array, it is of no consequence unless the organism can respond to it. Moreover, the fact that an organism does respond to a given pattern of stimulation cannot settle the question of whether this response is ‘direct’ (cognitively unmediated) or not. (Hatfield 1988: 183)

Die Überbewertung des Informationsbegriffes führt höchstens zu einem Remis. Die wirklich entscheidende Frage ist die, wie man die Beziehung zwischen dem reichen Reiz-array und der Wahrnehmungsreaktion des Organismus am besten beschreiben kann. Pylyshyn gesteht zu, daß ein transducer physiologisch durchaus sehr komplex gebaut sein kann und daß ein solchen komplexer transducer auch sehr komplexe inputs haben kann (vgl. Pylyshyn 1984: 179). Dann aber hängt empirisch nicht mehr viel daran, ob man wie Gibson sagt, der Prozess der Transduktion sei wahrnehmungstheoretisch irrelevant und deswegen sähe man direkt das Objekt, oder ob man wie Pylyshyn den Umstand betont, daß in jedem Wahrnehmungsprozess ein transducer zwischen Welt und Gehirn geschaltet ist und wir deshalb immer auf den tatsächlichen Weltzustand zurückschließen müssen.<59> Empirische, nicht philosophische Fragen sind hier interessant.

4.2.2. David Marrs Theorie des ”frühen Sehens“ (early vision)

Um den Unterschied zwischen philosophischen und empirischen Fragestellungen in der Wahrnehmungstheorie klarer herauszuarbeiten, ist ein Blick auf die ‘Theorie des Sehens’ von David Marr besonders hilfreich, weil es sich dabei um ein besonders weit entwickeltes Forschungsprogramm handelt. Ein anderer guter Grund, detaillierter auf Marr einzugehen, ist, daß seine Theorie von vielen Philosophen als anschlußfähig für konkrete Theorien über visuelle Qualia betrachtet werden; jenseits der engeren wahrnehmungstheoretischen Debatte legen wir hier also das Fundament für Ansätze, die uns im zweiten Teil dieser Arbeit eingehend beschäftigen werden.

Wenn geklärt werden soll, was es heißen soll, etwas zu sehen, ist es zunächst erforderlich, das zu erklärende Phänomen einzugrenzen: ”Vision is a process that produces from images of the external world a description that is useful to the viewer and not cluttered with irrelevant information“ (Marr 1982: 31). Das klingt zwar zunächst inferenzialistisch, die Betonung dessen, daß es für einen Organismus nur darum gehen kann, aus seiner Umwelt relevante Informationen herauszufiltern, scheint mir aber eher auf einer Linie mit den Leitideen der ökologischen Wahrnehmungstheorien zu


67

liegen. Was als relevant bzw. irrelevant gilt, hängt davon ab, wer etwas sieht.

Diese Definition deutet schon an, von welcher Grundposition aus Marr seine Theorie konzipiert: Zum einen setzt er voraus, daß wir images von der Welt haben, die diese Welt in einem Sinn zuverlässig repräsentieren, er bezieht mithin eine realistische Position (vgl. Marr 1982: 6). Zum anderen ist die Erklärung des Sehens eine Aufgabe der Kognitionswissenschaft. Es geht um die Aufklärung von Prozessen, die algorithmisch beschreibbar und deshalb auf Computern modellierbar sind. Innerhalb der Kognitionsforschung neigt Marr eher zur schwachen denn zur starken KI, wenn man (mit Searle und anderen) letztere als die Auffassung begreift, das Gehirn sei letztlich nichts anderes als ein digitaler Computer, wobei sich mentale Phänomene zum Gehirn so verhalten wie hardware zu software und erstere als die weniger wagemutige Position, daß Computer hilfreiche Werkzeuge für die Simulation neuronaler Prozesse sind, genauso, wie sie hilfreich zur Simulation anderer Phänomene sind, etwa von Wetterlagen oder dem Verhalten von Wirtschaftssystemen. So ist es zum Beispiel zum Verständnis eines Reservierungssystems im Flugnetz nicht nur erforderlich, zu wissen, welche Programme auf welcher hardware ablaufen,

one also has to understand a little about what aircraft are and what they do; about geography, time zones, fares, exchange rates, and connections; and something about politics, diets, and the various other aspects of human nature that happen to be relevant to this particular task. (Marr 1982: 5)

Ohne diesen Rahmen von Beschreibungen dessen, wozu ein bestimmtes System taugen soll, würde die Aussage, daß es mittels eines Algorithmus spezifische Probleme löst, leer werden, denn in diesem Sinne ließe sich etwa auch vom Sonnensystem sagen, daß es ein informationsverarbeitendes System ist: Wenn das Gewicht und die Distanz der Planeten zur Sonne gegeben ist, kann man ihre Umlaufbahnen so verstehen, als berechneten sie die Gravitationskraft der Sonne. Um solche Trivialisierungen zu vermeiden, ist es nötig, genauer einzugrenzen, was denn als die Aufgabe gelten soll, die algorithmisch zu lösen ist.<60>

Der Auslöser für die Betonung verschiedener Erklärungsebenen ist Marrs Unzufriedenheit mit rein funktionalen Versuchen, Licht in die Arbeitsweise des neuronalen Systems zu bringen. Man kann in der Hirnarchitektur schon seit langem funktional eng eingegrenzte Module lokalisieren, sog. feature detectors. Das allein erklärt aber nicht viel:

Suppose, for example, that one actually found the apocryphal grandmother cell. Would that really tell us anything much at all? It would tell us that it existed - Gross’s hand-detectors tell us almost that - but not why or even how such a thing may be constructed from the outputs of previously discovered cells. (Marr 1982: 15)<61>

Diese Schwierigkeiten zwischen der Erklärung der zellulären Ebene und der Leistung, die damit erklärt werden soll, führt Marr dazu, eine zusätzliche Verständnisebene einzuführen, in der die Eigenarten der Verarbeitung visueller Reize unabhängig von ihrer tatsächlichen Implementierung thematisiert wird. Es geht also um die Analyse des Problems als Informationsverarbeitungsaufgabe. Diese Aufgabe hat zwei Teilaspekte: Wie erstelle ich eine Repräsentation der in Images gegebenen Information, die eine Beschreibung des Repräsentierten enthält, wobei ‘Repräsentation’ wie folgt definiert ist: ”A representation is a formal system for making explicit certain entities or types of information, together with a specification of how the system does this“? (Marr 1982: 20). Und, zum anderen, wie ist die Art der Verarbeitung im Detail zu spezifizieren?

Zur Beantwortung dieser Fragen postuliert Marr drei Ebenen, die alle zufriedenstellend erklärt werden müssen: computational theory, representation and algorithm und hardware implementation.

Auf der abstraktesten Ebene geht es, erstens, darum, die Aufgabe einer


68

informationsverarbeitenden Maschine oder eines organischen Systems zu formulieren, Marrs Verwendung von computational ist etwas unglücklich und kann leicht zu Verwechslungen mit seiner zweiten Ebene führen, weswegen es sinnvoll ist, stattdessen von der funktionalen Ebene zu sprechen. Eines der Problem, die das visuelle System zu lösen hat, ist etwa die Erkennung von Kanten.

Zweitens muß geklärt werden, wie diese Aufgabe in bestimmten Repräsentationen für inputs und outputs und einem Algorithmus für die Überführung ersterer in letztere übersetzt werden kann.

Schließlich gilt es, drittens, auch zu zeigen, daß diese abstrakteren Beschreibungen tatsächlich materiell in dem infrage stehenden System implementiert sind, daß die postulierten logischen Strukturen auch tatsächlich physisch lokalisierbar sind. Das ist wichtig, um den Irrtum der starken KI zu vermeiden, mit der algorithmischen Modellierung sei bereits alles erklärt.

Dabei betont Marr, daß die oberste Erklärungsebene entscheidend ist, obwohl man ihrer empirisch am schlechtesten habhaft wird:

The reason for this is that the nature of the computations that underlie perception depends more upon the computational problems that have to be solved than upon the particular hardware in which their solutions are implemented. (Marr 1982: 27)

Bevor die oberste Ebene nicht aufgeklärt ist, ist der Rückschluß aus empirischen Daten riskant:

One has to exercise extreme caution in making inferences from neurophysiological findings about the algorithms and representations being used, particularly until one has a clear idea about what information needs to be represented and what processes need to be implemented. (Marr 1982: 26)

Wir haben bereits gesehen, daß Marr Sehen als explizite algorithmische Verarbeitung symbolischer Beschreibungen eines Objektes versteht. Der funktionalen Ebene entsprechen dabei jeweils feinere Unterteilungen des Gesamtprozesses in verschiedene Repräsentationsebenen, von denen jede eine symbolische Beschreibung eines bestimmten Aspektes der im Retinabild enthaltenen Information ist. Ich erläutere kurz den wichtigen Begriff des Retinabildes (retinal image) und gehe dann auf die drei Hauptebenen symbolischer Verarbeitung ein, also auf primal sketch, 2 ½ D sketch und 3D model representation.

Der input für das visuelle System besteht in der Repräsentation neuronaler Netzhautreize in einem array, also einer strukturierten Anordnung, verschiedener lokalisierter Intensitätsunterschiede. Dieses array kommt durch die Weise zustande, in der vom Beobachter fokussierte Objekte Licht auf die Retina werfen. Dieses image ist zwar strukturiert, aber nicht so, daß es im strikten Sinn ein Retinabild von Objekten ist. Die Beschreibung der Strukturen, die das array verursachen, ist vielmehr gerade die Aufgabe einer Theorie des ”frühen Sehens“.

Die Beschreibung von Objekten ist gebunden an ein für die jeweilige Ebene spezifisches Repräsentationssystem - eine bestimmte physikalische Realisierung (3) ist Symbol nur inbezug auf einen Algorithmus (2), der der Lösung einer bestimmten Aufgabe dient (1). Wichtig ist dabei der anti-reduktionistische Impetus.

(1) Der Einfachheit halber spielen wir Marrs Modell nur am Sehen von Formen durch. Dann steht am Anfang des Sehens ein array verschiedener Intensitäten oder Graustufen, aus denen es als erste Struktur den primal sketch zurückzugewinnen gilt, was in zwei Schritten geschieht: erstens einem ‘Angleichen’ (smoothing) der Daten jeweils benachbarter Neuronen oder Neuronenkomplexe durch Filter verschiedener Bandbreite, zweitens in einem Aufspüren von Nulldurchgängen (zero-crossings) in diesen so vorverarbeiteten Daten. Das smoothing ist wichtig, um etwaige zufällige Störungen aus dem array zu entfernen, die z.B. durch Spontanfeuerung einzelner Neuronen entstehen können. Es geht ja nicht darum, alle Intensitätsveränderungen aufzuspüren, sondern nur die relevanten, auf Umweltmerkmale verweisende. Folglich werden die Werte einzelner Neuronen (oder Neuronengruppen) mit denen ihrer Umgebung durch einen Filter gemittelt. Dieser Filter kann nun verschiedene Bandbreiten haben - je nachdem, von wievielen Einheiten der Durchschnitt berechnet wird. Die resultierende Reihe von Intensitätsangaben kann man mitteln, indem man jeden Wert auf den Durchschnitt seiner und der jeweils benachbarten Werte festsetzt und ganzzahlig rundet. Mit dem jeweils auf diese Weise erhaltenen Wert fährt man in der Mittelung fort und erhält so als Resultat aus der ersten Zahlenreihe die zweite Folge (Die Punkte zu Beginn und Ende sollen andeuten, daß es sich nur um einen Ausschnitt einer sehr viel längeren Folge handelt; zur Berechnung habe ich angenommen, daß die Zahlen links und rechts der Folge die gleichen sind wie die jeweils erste und letzte):

...5 5 4 5 6 8 7 9 8 8 9 8... wird zu

...5 5 5 5 6 7 8 8 8 8 8 8...

Wie leicht zu sehen ist, sind die so aufbereiteten Daten eindeutiger geordnet und erleichtern das Auffinden von regelmäßigen Änderungen. Dabei ist der tatsächliche Prozeß natürlich weit komplexer, nicht nur, weil mehr Daten gefiltert werden, sondern auch, weil die Werte unterschiedlich gewichtet werden (je näher am zu ändernden Wert, desto stärker geht ein anderer Wert in die Mittelung ein) und weil nicht nur in einer imension liegende Werte gemittelt werden. Diese starke lokale Kontraständerung ist für uns das wichtigste


69

Merkmal der Intensitätsverteilung auf der Retina.

Es steht zu erwarten, daß Umrisse aller Art (Kanten, Schatten, unterschiedlich beschaffene Flächen, etc.) sich durch solche Intensitätsveränderungen bemerkbar machen. Die Frage ist nun also, wie wir diese aus den gefilterten Daten herausholen können. Das geschieht im zweiten Schritt: Um die Konstanten zu erhalten, differenzieren wir den Wert einer Intensität mit dem eines seiner Nachbarn und erhalten so die Veränderungsrate. Die so erhaltene Ableitung kann selbst noch einmal abgeleitet werden (was für den von Marr postulierten Algorithmus aus rechenökonomischen Gründen nötig ist). Tragen wir diese Veränderungen in einem Koordinatensystem ein, erhalten wir eine Kurve, die (beim oben genannten Beispiel) scharf ansteigt; die erste Ableitung dieser Kurve hat ein deutliches Maximum, bevor sie ebenso deutlich wieder abfällt; die Werte der zweiten Ableitung dieses Graphs ändern ihr Vorzeichen von positiv zu negativ, wenn sie an einem Punkt die x-Achse schneiden. Diese Punkte sind die Nulldurchgangspunkte oder zero-crossings.<62>

Die Anzahl und der Ort von zero-crossings hängt von den Parametern der Filter ab. Marrs These ist, daß immer verschiedene Filter gleichzeitig eingesetzt werden, deren Ergebnisse miteinander verrechnet werden. So erhalten wir den raw primal sketch, in dem sich folgende Strukturen finden:


70

Wherever zero-crossing segments from filters of adjacent width match, an edge-segment is put in the sketch. In some situations, a zero-crossing segment in a wide channel may be matched by two parallel ones in a narrow channel; this situation is represented in the raw primal sketch by a bar. The ends of bars are represented by terminations, and closed loops of edge-segments are represented by blobs.(Bruce/Green 1990: 91)

In dieser groben ‘Skizze’ gibt es noch keine Objekte; zwischen allen möglichen Intensitätsveränderungen wird noch nicht unterschieden.

Das Schöne an diesem Modell ist, daß es sich bestens implementiert in einfachen kortikalen Zellen im lateralen Kniehöcker (corpus geniculatum laterale), einem neuronalen Kern in der Sehbahn, vorfinden läßt: dort gibt es Neuronen, die geradezu geschaffen sind für die Auffindung von zero-crossings (vgl. Bruce/Green 1990: 83).

(2) Bislang haben wir nur eine Beschreibung von Intensitätsveränderungen auf einer idealisierten ‘Sehoberfläche’. Im nächsten Schritt geht es darum, Oberflächeneigenschaften von Raumorientierungen zu unterscheiden. Das geschieht, indem die einzelnen Punkte im primal sketch nach bestimmten Prinzipien (räumliche Nähe, Ähnlichkeit) zu Aggregationen zusammengefaßt werden. Dabei werden aber noch immer keine ‘Objekte’ konstruiert:

The goal of early vision is not to recover the ‘objects’ present within a scene - for the division of a scene into components is an arbitrary and ambiguous affair. Which should we regard as the ‘objects’ to be recovered - a crowd of people, each individual person, or the eyes, ears, and noses of each? Such consideration depends on the use to which the information is to be put. (Marr 1982: 139)

Was stattdessen beschrieben wird, sind die im Image enthaltenen Oberflächen. Die relative Lokalisierung von Oberflächen zueinander geschieht im 2 ½ D sketch, der noch immer nicht dreidimensional ist, weil er bestimmte Eigenschaften, z.B. die Orientierung von Oberflächen, sehr viel besser wiedergibt als die tatsächliche Tiefendimension, d.h. lokale Orientierung besser wiedergibt als globale. Er entsteht, indem zum primal sketch andere Informationen (stereopsis, Bewegung, etc.) hinzutreten. So wird jeder Punkt im sketch als Vektor mit einer bestimmten Orientierung repräsentiert, der die Neigung aller Oberflächen zu Beobachter codiert. Diese Relativität zum Beobachter ist der Grund, warum die Szene hier noch nicht in Objekte segmentiert werden kann: Der 2 ½ D sketch verändert sich mit jeder Bewegung.

(3) Daher müssen aus ihm erst einmal invariante Strukturen herausgeholt werden, d.h., beobachterstandpunktunabhängige Repräsentationen der Form des gesehenen Objekts. Das geschieht in der 3-D model representation.

Objekte müssen innerhalb eines Referenzrahmens beschrieben werden, der bereits da ist, bevor auch nur ein Objekt gesehen wurde (dem Algorithmus zur Objekterkennung müssen bestimmte Parameter vorgegeben werden). Die zentrale Vorgabe ist hier, daß wir die Objekte sozusagen aufbauen aus generalized cones, d.h. aus Oberflächeneinheiten, die dadurch entstehen, daß eine konstante Form um eine Achse rotiert wird. Unter bestimmten Annahmen kann mit ihrer Hilfe aus einer Silhouette oder einem Umriß ein dreidimensionaler Körper abgeleitet werden (vgl. Bruce/Green 1990: 193-195). Die so konstruierten Achsen der Kegel des gesehenen Objekts sind aber immer noch standpunktabhängig. Sie müssen durch einen postulierten image-space processor in objektzentrierte Achsen verwandelt werden. Dieser setzt die Achsen im Umriß in dreidimensionale Beziehungen zueinander, was aber nur möglich ist, wenn bestimmte (höherstufige) Annahmen über das Objekt auf die Repräsentationsebene (vgl. Marr 1982: 266) zurückwirken.

Spätestens hier wird deutlich, warum Marrs Theorie in unserem Zusammenhang eines Versuchs der Explikation von Gibsons ‘ökologischer Optik’ einschlägig ist: Marr wie Gibson halten es für einen Fehler, einen Prozeß wie das Sehen, der einem Organismus bestimmte Eigenschaften seiner Umgebung zugänglich macht und folglich in einer Interaktion zwischen Organismus und Umgebung besteht, von nur einer Seite dieser Interaktion her erklären zu wollen. Dem computational level Marrs entspricht dabei die Ebene der affordances bei Gibson: auf dieser Ebene werden die


71

invarianten Strukturen definiert, deren Vorliegen das visuelle System aus den Umweltreizen herauslesen müssen. Marr meint, daß, um die tatsächlich vom optischen System benutzten Algorithmen von den nur möglichen abzugrenzen, eine Theorie des Sehens auf die ‘statistischen Strukturen’ (Marr 1982: 266) der gesehenen Welt eingehen muß, denn nur so kann aus der Unzahl möglicher räumlicher Deutungen der anfänglichen Kontrastunterschiede eine bestimmte, den tatsächlichen Umweltumständen am besten entsprechende herausgefiltert werden. Schon rein terminologisch fällt die Ähnlichkeit zu den von Gibson geforderten ‘strukturellen Invarianten’ sofort ins Auge. In der Sache stehen sie für die gleiche Eigenschaft. Ein aufschlußreiches Beispiel dafür, wie Marr Umweltinvarianten als Teil der Handlungsregulierung versteht, bietet seine Beschreibung dessen, was eine Hausfliege tut, wenn sie abfliegt. Fliegen wissen nicht, daß sie mit den Flügeln schlagen müssen, um abzuheben. Das würde auch nichts nützen, denn die Flügelmuskulatur ist nicht mit dem Gehirn verschaltet. Vielmehr gibt es einen direkten Regelkreis zwischen den Füßen und den Flügeln derart, daß der Flügelschlag automatisch einsetzt, wenn die Füße keinen Kontakt mehr zu einer Oberfläche haben. Um abzuheben, macht die Fliege einen kleinen Sprung (die Beine werden im Gegensatz zu den Flügeln über das Gehirn gesteuert (vgl. Marr 1982: 32-33). McClamrock kommentiert das so:

Flight control depends not on signals from the brain to the wings. Instead, the fly exploits the environmental regularity provided by the surface (as well as its own sensory capacities) to run a part of its control loop outside its body and through its immediate surroundings. (Mc Clamrock 1995: 85)

Bestimmte Systeme in der Fliege sprechen direkt, ohne Umwege über eine gegebenenfalls inferentialistisch oder kognitiv zu verstehende Verarbeitung, auf Umweltgegebenheiten an; die Umwelt ist in entscheidender Hinsicht Teil des Kontrollsystems, nicht dessen Objekt.

Wenn Marrs Theorie auch nur dem Ansatz nach richtig ist, hat das interessante Folgen auch für die Art von naturalistischen Projekt, das man verfolgen sollte. Verschiedene reduktive Ansätze, die auf der These der ‘Hegemonie der Neurophysiologie’<63> aufbauen, wären dann aus dem Rennen. Denn die Neurophysiologie kann keine erschöpfende Erklärung des Sehens bieten, wenn sie sich auf die Beschäftigung mit neurophysiologisch greifbaren Entitäten beschränkt, weil die gesehene Welt sicher keine solche Entität ist, ohne explizite Referenz auf diese Welt aber keine im Sinne Marrs computationale Theorie möglich ist.

4.3. Noch einmal Gibson - Ein Vermittlungsvorschlag

4.3.1. Organismus und Umwelt

Es ist eine zu einfache Strategie, Gibson durch den Hinweis darauf widerlegen zu wollen, daß wir über die Umwelt nur durch kausale Vermittlungsprozesse informiert sind und daraus abzuleiten, daß unsere Wahrnehmung nicht direkt sein kann. Gibsons Anspruch, eine direkte Wahrnehmungstheorie entwickelt zu haben, beruft sich wesentlich auf die naturgesetzliche Korrelation zwischen Eigenschaften des arrays und Eigenschaften der Umwelt. Allerdings sind diese Gesetze nur als Rahmenbedingungen wahrnehmungstheoretisch relevant. Gibson meint auch, mit dieser Theorie ein wichtiges Argument gegen die These in der Hand zu haben, nach der zur Erklärung unserer Wahrnehmungsleistungen eine Verarbeitung von Symbolen oder Repräsentationen angesetzt wird. Die universelle Verbindung von Invarianten im array und den mit diesen Invarianten naturgesetzlich zusammenhängenden räumlichen Eigenschaften der Umwelt haben keinen Zeichencharakter, sodaß wir erst einmal lernen müßten, sie zu interpretieren. Als originär in eine Umwelt eingebettete Wesen sind wir immer schon bei den Dingen und den Handlungsmöglichkeiten, den affordances, die sie uns bieten.


72

Ohne hier eine Zusammenfassung von Gibsons einschlägigen Auffassungen geben zu wollen, mag es an dieser Stelle dennoch hilfreich sein, darauf hinzuweisen, wie zentral für ihn die Vorstellung von der Umwelteinbettung jeglicher Wahrnehmungsleistungen eines Organismus’ sind - nicht umsonst kennzeichnet er sein Projekt als ökologische Theorie der Wahrnehmung. Man spricht durchaus in Gibsons Sinn, wenn man sagt, daß auf der ökologischen Erklärungsebene die Rolle, die neuronale Prozesse bei der Entstehung von Wahrnehmungen haben, durch die Neuroethologie zufriedenstellend aufgeklärt wird, nicht allein durch Neuropsychologie. Das soll nur so viel besagen, als daß der Anspruch an jede Theorie, die behauptet, visuelle Wahrnehmung bezogen auf die normalen Umweltbedingungen erklären zu können, der ist, die Wahrnehmung nicht vom handelnden Umgang mit der Welt zu trennen. In diesem Sinne sind auch die Angriffe vieler Gibsonianer auf kognitionswissenschaftlich orientierte Theorien zu verstehen. So schreibt etwa Thompson über die Informationsverarbeitungstheorien:

According to this contemporary theory of representationism, the internal representations mediating visual perception are not the immediate object of perception; rather, the object of perception is the distal physical world. Internal representations are what enable the perceptual state to be directed to the world - they represent the world to the perceiver in a certain manner. Thus it is often said that we do not see our representations; rather, we ‘see right through them’, as it were, to the distal world. (Thompson 1995: 221)<64>

Diese Ansätze sind insofern irreführend, so die Argumentation Thompsons und anderer Gibsonianer, als daß sie die die Weise vernachlässigen, in der Organismus und Umwelt stets aufeinander verwiesen sind. Es wird etwa so geredet, als sei die ‘distale Welt’ schon vor jeder Wahrnehmung spezifiziert und müsse nur noch in ihren Auswirkungen auf das jeweilige Sinnesorgan untersucht werden. Gibsonianer vertreten demgegenüber die radikalere These, daß diejenigen Objekte, die in unserer Wahrnehmung figurieren und die somit unsere distale Umwelt überhaupt erst konstituieren, nicht unabhängig vom wahrnehmenden Umgang mit Welt spezifiziert werden können.<65> ‘Die Welt’ ist immer Umwelt für wahrnehmende Organismen. Mit dieser Figur versucht Gibson, dem Hauptproblem des Repräsentationalismus aus dem Weg zu gehen, das darin besteht, wie man vom verarmten physikalischen Reiz zu den für ein Individuum bedeutsamen und subjektiv als reichhaltig erlebten Wahrnehmungen kommt: Er argumentiert, daß auf der ökologischen Ebene die Umwelt als handlungsermöglichender Raum direkt bedeutsam ist. Tatsächlich impliziert die Beschreibung der Welt schon den Organismus, für den sie Umwelt ist, sie ist, will man nicht nur Physik treiben, sondern die Wahrnehmungsleistungen von Organismen aufklären, keine indifferent physikalisch spezifizierte Welt. Als Umwelt besteht die visuelle Welt nicht aus geometrischen Punkten und Flächen, sondern die Oberflächen sind der Boden auf dem, bzw. begrenzen den Raum in dem, der Organismus lebt und sich bewegt. Deswegen trägt die Umwelt die nur in Bezug auf den Organismus spezifizierbaren Eigenschaften, die eine physikalische Beschreibung nicht sichtbar macht und die Gibson, wie bereits erwähnt, als affordances bezeichnet. Affordances sind also relationale Eigenschaften, die Dinge in der Umwelt in Hinsicht auf den Organismus haben, der in dieser Umwelt lebt (für den diese Welt Umwelt ist).

4.3.2. Affordance und direkte Informationsaufnahme

Die von Gibson häufig behauptete Zeichenhaftigkeit der Umwelt, ihre Lesbarkeit für den Organismus, erklärt sich aus dem Umstand, daß Wahrnehmung immer mit der Manipulation von Gegenständen einhergeht. Wahrnehmung vollzieht sich in Handlung. Die Welt ist für einen Organismus bedeutsam, weil sie Handlungen ermöglicht. Mit der These der direkten Wahrnehmung


73

bedeutsamer Umwelteigenschaften stellt Gibson also nicht die These auf, daß in der Welt sozusagen objektiv bestimmte Eigenschaften vorhanden sind, die wir dann nur noch mittels geeigneter Organe wahrnehmen müssen.<66> Ebensowenig ist die Zeichenhaftigkeit eines Objekts auf die physikalischen Stimuli eingrenzbar, die wir von ihm erhalten. Man kann kaum genug betonen, daß für Gibson die gesetzesartigen Korrelationen, die unsere Wahrnehmung mit der Welt verbinden, nicht für Eigenschaften des Lichts gelten, das lokal von einem Ausschnitt der gesehenen Szene reflektiert wird. Vielmehr ist das gesamte ambient optic array, also das Muster, das durch die Gesamtheit des von allen Punkten der Umgebung reflektierten Lichts zusammen mit dem optical flow field, also der relativen Veränderung des optic array durch Eigen- oder Fremdbewegung das gesuchte Korrelat. So enthält die Menge allen uns aus der Umwelt erreichenden Lichts durchaus genügend Informationen, um unsere Wahrnehmungen erklären zu können. Es entfällt der Zwang, Inferenzen zu postulieren, die aus punktuellen Lichtintensitäten ein globales Bild zusammensetzen, weil die Informationen eben nie so distribuiert gegeben sind, d.h. nie schon auf lokaler Ebene angegeben werden kann. Wir nehmen nicht einzelne ‘Intensitätspunkte’ wahr, die sozusagen die Pixel des Netzhautbildes wären, sondern entnehmen die relevanten Informationen aus globalen Zustandsveränderungen. Gibson spricht davon, daß unsere Wahrnehmungsorgane so beschaffen sind, daß sie selektiv mit bestimmten solchen globalen Veränderungen ‘mitschwingen’ (resonate):

In the case of the persisting thing, I suggest, the perceptual system simply extracts the invariants from the flowing array; it resonates to the invariant structure or is attuned to it. (Gibson 1979: 249)

Man kann sich diese Metapher in einem konkreten Bild verdeutlichen: Wenn ich einen Detektor für 440 Hertz-Schwingungen bauen will, kann ich auf verschiedene Weise vorgehen. Ich kann einen Informationsverarbeitungsansatz wählen und Signale mittels eines Mikrophons in einen Computer einspeisen, den ich gemäß eines bestimmten Algorithmus’ so programmiert habe, daß er das Signal digital kodiert und einzelne Schwingungen zählt. Immer wenn das interne Zählwerk genau 440 Hz zählt, gibt es eine Subroutine, die eine festgelegte Ausgabe verursacht. Das ist ungefähr das Bild, das die meisten Inferentialisten vertreten würden: Bestimmte Eigenschaften des Signals werden getrennt voneinander kodiert und in einem weiteren Verarbeitungschritt wieder zu einer Repräsentation des Ausgangsreizes zusammengesetzt (etwa auf dem Schirm eines Oszilloskops). Die radikal andere Lösung wäre es, ein einfaches System mit genau den hardware-Eigenschaften auszustatten, die es ihm ermöglichen, auf einen globalen Reiz wie eine Schwingung von 440 Hz direkt, ohne algorithmische Verarbeitungsschritte zu reagieren. Eine Möglichkeit wäre es, ein auf 440 Hz gestimmtes Monochord in die Nähe des Signals zu bringen. Wenn die Saite zu schwingen beginnt, liegt ein 440 HZ-Signal vor, sonst nicht. Wir haben hier eine ebenso einfache wie elegante Lösung unserer Aufgabe, die bestimmte Umweltinformationen direkt aufzunehmen imstande ist. Ungefähr so stellt sich Gibson auch unsere Wahrnehmungsleistungen vor. In dem neuronal konstituierten dynamischen elektrochemischen System, das unser Gehirn ist, gibt es Schwingkreise, die in ähnlich direkter Weise auf bestimmte Umweltmuster ansprechen - das ist, in Gibsons Terminologie, der ‘direct pick-up of information’.<67>

Eine Frage, die sich sofort stellt, ist, was der ontologische Status der affordances ist, die das


74

visuelle System zum ‘Mitschwingen’ bringen sollen. Im Gefolge seiner starken Betonung der gegenseitigen Verwiesenheit von Organismus und Umwelt sollte man erwarten, daß Gibson affordances überhaupt nicht als Entitäten betrachten kann. Tatsächlich sagt er, daß affordances relationale Eigenschaften der ‘animal-environment mutuality’ seien:

The perceiving of an affordance is not a process of perceiving a value-free physical object to which meaning is somehow added in a way that no one has been able to agree upon; it is a process of perceiving a value-rich ecological object. Any substance, any surface, any layout has some affordance for benefit or injury to someone. Physics may be value-free, but ecology is not. (Gibson 1979: 140)

Immer zugestanden, daß die Rede von ‘Werten’ und ‘Bedeutungen’ nicht hinreichend klar gemacht wird, kann man doch vielleicht soviel sagen, daß sich hier eine Lesart von affordances als dispositionale Eigenschaften anbietet, wie die Gibson-Schule um Turvey behauptet (vgl. z.B. Turvey et al. 1981, besonders 263). Gibson macht ein Zugeständnis an den Realismus, wenn er sagt, daß es natürlich eine Welt auch jenseits unserer Wahrnehmungsmöglichkeiten und unsere evolutionären Interessen gibt. Nur ist das nicht die Welt, die wir direkt sehen (wenn wir sie auch gegebenenfalls erschließen können), es ist nicht unsere Umwelt. Trotzdem supervenieren die Eigenschaften der Umwelt auf denen der physikalischen Welt. Es wäre ein Mißverständnis, ihn so zu verstehen, als behaupte er, daß es nur dasjenige gibt, was uns als affordance direkt perzeptuell zugänglich ist. Im Rahmen seines Projekts einer neuen Fundierung der Wahrnehmungstheorie allerdings interessiert er sich ausschließlich für letzteres.

Gibson setzt sich aber nicht nur gegen den Physikalismus ab. Er hat in seiner Formulierung des affordance-Begriffs ebenso diejenigen Ansätze aus den Kognitionswissenschaften im Blick, die die Wahrnehmung als Verarbeitung von Informationen verstehen wollen. Verarbeitet das visuelle System Umweltreize in Information für den Organismus, d.h. enthält das visuelle System Information, oder ist Information etwas, das der Organismus aus der Umwelt bezieht, wobei dem visuellen System nur die Rolle der kausalen Übermittlung dieser Information bleibt? Gibson vertritt vehement die zweite Option:

Adherents to the traditional theories of perception have recently been making the claim that what they assume is the processing of information in a modern sense of the term, not sensations, and that therefore they are not bound by the traditional theories of perception. But it seems to me that all they are doing is climbing on the latest bandwagon, the computer bandwagon, without reappraising the traditional assumption that perceiving is the processing of inputs. I refuse to let them pre-empt the term information. As I use the term, it is not something that has to be processed. The inputs of the receptors have to be processed, of course, because they in themselves do not specify anything more than the anatomical units that are triggered. (Gibson 1979: 251)

Das Problem, so wie Gibson es sieht, ist, daß die Information, deren Träger angeblich das visuelle System sein soll, ohne die ökologische Einbettung nicht einmal spezifiziert werden kann. Das automatisch verlaufende Weiterleiten von sensorischen Reizungen kann für sich genommen nicht inhaltlich bestimmt werden - es bleibt ein organischer Prozeß wie alle anderen organischen Prozesse: ”The qualities of objects are specified by information; the qualities of receptors and nerves are specified by sensations“ (Gibson 1979: 242).

Inferentielle Theorien orientieren sich zu sehr an der Physiologie der Sinnesorgane, wenn sie sich mit epistemologischen Fragen beschäftigen. Bei genauerer Überlegung ist nicht klar, warum eine Theorie plausibel sein soll, die erst jedes Auge einzeln untersucht und aus den zwei zweidimensionalen, verzerrten Bildern, die sie dort vorfindet, das dreidimensionale gesehene Bild zusammensetzt. Es scheint weit plausibler, mit Gibson anzunehmen, daß die Augen bloß Teil eines umfänglichen visuellen Systems sind, das beide Augen, alle neuronalen Strukturen, in die die Sehnerven projizieren sowie die mit diesem neuronalen Teilsystem verkoppelten Muskeln umfaßt. Nur dieses System als Ganzes nimmt Veränderungen im optischen array als Ganzem war, und nur auf dieser Ebene liegt etwas vor, was mit einiger Berechtigung ein ‘Bild’ der Umgebung genannt zu werden verdient. Und es ist alles andere als sicher, daß inferentielle Prozesse auf dieser Ebene


75

relevant sind.<68>

4.3.3. Affordance - eine undogmatische Exegese

Wie wir bereits gesehen haben, versucht Gibson die Frage, wie die Beziehung zwischen Reiz-array und der Wahrnehmungsreaktion des Organismus’ sich am besten beschreiben läßt, dadurch zu beantworten, daß er die normale Lebensumwelt des Organismus’ berücksichtigt. Dessen Anpassung an seine Umwelt kann in der Terminologie der Evolutionsbiologie erklärt werden (was, nebenbei bemerkt, zufällige Randbedingungen ins Spiel bringt und damit noch ein weiteres Argument gegen die Möglichkeit der Reduktion von Psychologie auf irgendeine basalere Wissenschaft wie die Physik liefert).<69> Das halte ich prinzipiell für eine gute Strategie. Aber Gibson geht zu weit, wenn er die psychophysischen Rahmenbedingungen, die an der Entstehung einer visuellen Wahrnehmung beteiligt sind, in seinem affordance-Begriff völlig beiseite schiebt. Zu dieser unplausiblen Position gelangt er durch eine Überspitzung seiner Behauptungen über die gegenseitige Verwiesenheit zwischen einem wahrnehmenden System und seiner Umwelt. Das Endprodukt der Wahrnehmung versteht Gibson nicht als eine innere Representation der visuellen Welt, nicht als ein percept, wie er sagt. Was ein Tier in seiner Umwelt wahrnimmt oder aufspürt ist vielmehr eine bestimmte Handlungsmöglichkeit, die durch die Konstellation der Außenweltgegenstände ermöglicht wird, eine affordance. Die affordance einer gesehenen Oberfläche oder eines gesehenen Objekts in der Umgebung ist dasjenige, was es dem Tier als Handlungsmöglichkeit anbietet - ob man es greifen oder essen kann, oder ob es darauf laufen oder sitzen kann. Gibsons vielleicht revolutionärste Idee ist, daß es eben nicht darum geht, schlicht Gegenstände zu erkennen, sondern daß der Gegenstand der Wahrnehmung potentielle Handlungsabläufe sind. Nun ist das für viele einfache Handlungsabläufe sicher nicht unplausibel. Wenn eine Kröte eine Fliege fängt, muß man wohl keine höheren Identifikationsleistungen in Anschlag bringen als die, daß aufgrund eines Mechanismus, der sich evolutionär bewährt hat, eine bestimmte Situation eine bestimmte Möglichkeit zur Verfügung stellt (nämlich das Erbeuten einer Mahlzeit), auf die die Kröte je nach ihrer inneren Verfassung (hungrig oder nicht) in angemessener Weise reagieren kann, und zwar, ohne auf irgendwelche kognitiven Prozesse zurückgreifen zu müssen. So umgeht man auch den Rattenschwanz von Problemen, die sich stellen, läßt man sich darauf ein, die Reaktion der Kröte in einer Weise zu beschreiben, die innere Repräsentationen postuliert. Dann nämlich müßte man angeben, was denn genau der Inhalt einer solchen Repräsentation ist - ‘Fliege’, ‘schwarzer Fleck’, ‘Nahrung’?<70>

Je höher aber phylogenetisch die infrage stehenden Organismen entwickelt sind, desto seltsamer wird dieses Bild. Nicht, daß sich nicht vielleicht auch bei uns so einfache Mechanismen finden ließen, aber daß mit einem so simplen Bild alle Wahrnehmungsleistungen zu erklären sein sollen, scheint absurd. Gibsons Versicherung, daß auch Werte und Bedeutungen auf diese Weise wahrgenommen werden, hat nicht viel für sich. Auch im intelligenten Umgang mit Artefakten scheint notwendigerweise eine kognitive Ebene im Spiel zu sein. Man sollte erwarten, daß auf dieser Ebene doch ein Mindestmaß an begrifflicher Durchdringung notwendig ist, was wiederum Gedächtnis und zumindest rudimentäre linguistische Fähigkeiten voraussetzt. Das ist es aber genau, was Gibson ausschließen möchte, wenn er behauptet, daß Wahrnehmung nur eine


76

Funktion perzeptueller Systeme ist, die sich evolutionär entwickelt haben, um beim Auftreten bestimmter Umweltkonstellationen einfach ‘mitzuschwingen’. Gibsons Anti-Kognitivismus schüttet hier das Kind mit dem Bade aus.

Eine der attraktiven Eigenschaften des affordance-Begriffs ist, daß er es ermöglicht, die Lücke zwischen Wahrnehmung und Handlung zu schließen. Das wird aber mit einem Bild der Wahrnehmung als quasi automatischem Prozeß erkauft, das keinen Raum mehr für unsere unbestreitbare Fähigkeit läßt, nicht nur wahrzunehmen, sondern auch zu verstehen, was wir wahrnehmen. Es gibt kognitive Momente in solchen Fähigkeiten wie der bewußten Wiedererkennung. Eine Theorie, die das nicht berücksichtigen kann, verliert viel von ihrer Überzeugungskraft.

Glücklicherweise folgen Gibsons überspitzte Deutungen des affordance-Begriffs nicht zwingend aus seiner ansonsten hilfreichen Theorie bezüglich der direkten Wahrnehmung des optischen array. Man muß nicht die Existenz höherstufiger, explit kognitiver Verarbeitungsstufen innerhalb des Wahrnehmungsprozesses verneinen, um dennoch darauf beharren zu können, daß das Material, das so verarbeitet wird, selbst nichtinferentiell zustande gekommen ist. Wie Hatfield sagt: ”Perhaps the direct theorist allows for a noncognitive account of the intervening processes in perception simply by treating a large chunk of the visual system as a transducer“ (Hatfield 1988: 185). Eine der Lehren, die man aus den oben kurz vorgestellten Arbeiten von David Marr ziehen sollte, ist die Einsicht, daß derart komplexe Prozesse wie die Wahrnehmung nicht auf einer einzigen Erklärungsebene verhandelt werden können. Das ist in gewisser Weise ein Aufruf zur Mäßigung sowohl an Neurophysiologen wie an Kognitionswissenschaftler und Philosophen: Ein vollständiges Bild kann nur von allen beteiligten Disziplinen gemeinsam erstellt werden. Unterschiedliche Erklärungsebenen dienen unterschiedlichen, wiewohl gleich gut legitimierten Zwecken. Gibson ergeht es in seinen extremsten Momenten nicht anders als den Vertretern der reinen physiologischen Lehre, die er attackiert: Beide verfallen in einen Reduktionismus, allerdings unter umgekehrten Vorzeichen, wenn sie meinen, eine Beschreibungsebene als die einzig legitime auszuzeichnen.

Es ist sicher fruchtbarer, eine Interpretation des affordance-Begriffes auszuarbeiten, die seine heuristischen Vorteile nutzt, ohne sich in die übertriebene Liste der Dinge zu verlieren, die nach Gibson direkt wahrnehmbar sein sollen. Richtig an der affordance-Theorie ist ihr anti-kognitiver und anti-reflektiver Impetus bezogen auf die alltägliche Interaktion zwischen Organismus und Umwelt. Viele Ansätze in der modernen philosophischen Debatte, besonders aber in der analytischen Philosophie leiden an einem übertriebenen Intellektualismus, der, so will es zumindest manchmal scheinen, bestimmte Begrenzungen der eigenen Methode mit Begrenzungen im untersuchten Objektbereich verwechselt. Die philosophische Debatte ist in noch stärkerem Maße als andere wissenschaftliche Disziplinen auf die begriffliche Durchdringung dessen angewiesen, was sie untersucht. Eine nicht-begriffliche Philosophie ist ein Oxymoron. Zu einem philosophischen Vorurteil wird diese Tatsache aber dadurch, daß man meint, daß auch die (gegebenenfalls physiologischen) Prozesse, die uns dazu in die Lage versetzen, zu solchen und ähnlichen Einsichten zu gelangen, selbst begriffsanalog verfaßt sein müssen. Es sind aber zweierlei Dinge, für einen bestimmten Prozeß einen Algorithmus zu finden, mit dem man erklären kann, was dieser Prozeß leistet, und herauszufinden, ob dieser Prozeß tatsächlich nach dem angegebenen Algorithmus funktioniert oder vielleicht rein mechanisch implementiert ist.

Konkret auf unsere Debatte bezogen ist die Frage, ob so einfache Fähigkeiten wie das Schnappen nach Nahrung oder das Greifen nach bekannten Gegenständen immer einer kognitivistischen Analyse bedürfen. Meine Intuition ist hier, daß mein Umgang mit Gegenständen in der Regel weit weniger reflexiv ist, als die kognitivistischen Modelle vorauszusetzen scheinen. Ich muß einen Gegenstand nicht erst begrifflich (oder auch nur ‘proto-propositional’, wie manche Philosophen sagen) identifizieren, um nach ihm greifen zu können. Wenn ich etwa einen Dielenboden verlege, greife ich schlicht nach dem Hammer, wenn ich Nägel einschlagen muß, ohne darüber nachdenken zu müssen, daß ich jetzt einen Hammer brauche und mit einem internen scanner die Repräsentationen in meinem Gesichtsfeld abtaste, bis es zu einer Objektidentifikation nach bestimmten algorithmisierbaren Kriterien kommt. Gesetzt den Fall, ich bin gut eingeübt in den Gebrauch von Werkzeugen, greife ich ohne jedes Nachdenken nach dem Hammer und versenke die Nägel. In dieser speziellen Wahrnehmungssituation scheint es nicht einmal so zu sein, als


77

müsse ich den Hammer erst einmal als Hammer wahrnehmen, um etwas mit ihm machen zu können. Vielmehr bietet sich eine Beschreibung in Gibsons Terminologie an, nach der der Hammer in dieser Situation ein Gegenstand ist, der mir ganz bestimmte Handlungsspielräume eröffnet - ich sehe ihn nicht explizit als Hammer, was implizit immer heißen muß, daß ich ihn nicht als Zange, Schraubenzieher, Stechbeitel etc. sehe, denn semantische Gehalte sind nur in Abgrenzung zu anderen Gehalten, d.h. als Differenzierungsleistung möglich. Vielmehr sehe ich den Hammer direkt als Teil eines Szenarios, in dem mir bestimmte Handlungsmöglichkeiten offenstehen - in diesem Fall unter anderem das Versenken von Dielennägeln. Natürlich kann ich mich auch explizit mit dem Hammer als Hammer beschäftigen, z.B. indem ich mich frage, was der Hammerkopf wohl wiegt oder aus was für einer Legierung er besteht. Ich kann mich auch fragen, welcher Hammer von fünf ähnlichen, die zufällig nebeneinander liegen, mein Hammer ist. In solchen Fällen sind klarerweise alle möglichen mentalen und zumindest teilweise hochkognitive Prozesse involviert. Es ist aber unplausibel, zu behaupten, daß das für alle Wahrnehmungssituationen tout court gelten soll.

Philosophen, die wissen, wo der Hammer hängt, habe natürlich schon gemerkt, daß ich mit dem Hammer Heideggers bekanntes Beispiel aus Sein und Zeit variiert habe, an dem er den Unterschied zwischen zwei ‘Seinsweisen’, wie er es nennt, verdeutlichen will, nämlich zwischen Zuhandenheit und Vorhandenheit. In dem Sinn, in dem der geübte Handwerker präreflektiv und präkognitiv nach dem Werkzeug greift, ohne es dabei als Werkzeug in den Blick zu nehmen, ist es ‘zuhanden’; betrachte ich den Hammer jenseits des normalen Handlungsvollzuges und thematisiere ihn eigens, ist er ‘vorhanden’. Ich denke, aus dieser Grundidee lassen sich wichtige Gemeinsamkeiten zum affordance-Begriff Gibsons destillieren.

Das ist auch weniger überraschend, als es zunächst scheinen mag. Zwar habe ich bei Gibson keinen einzigen Hinweis darauf gefunden, daß er mit dem Werk Heideggers vertraut war oder daß er es auch nur zur Kenntnis genommen hätte. Gibson arbeitete seit den vierziger Jahren in Cornell, dessen philosophisches Institut damals durch den Wittgenstein-Schüler Norman Malcolm und Max Black eine Hochburg der analytischen Sprachphilosophie war. Aber auch sonst wurde Heidegger aus verständlichen Gründen in den USA der Nachkriegszeit kaum rezipiert. Überhaupt darf man nicht vergessen, daß Gibson Experimentalpsychologe war und sich nicht besonders für die philosophische Diskussion interessiert zu haben scheint. Seine Verweise auf einzelne Autoren bewegen sich daher auch im Rahmen der größtenteils angelsächsischen Klassiker: Neben Locke, Berkeley, Hume und Mill finden sich Descartes und, selten, Kant. Neuere Autoren finden Erwähnung nur dann, wenn ihre Arbeiten sich im psychologischen Umfeld bewegen, etwa im Fall von James. Wittgenstein taucht an einer einzigen Stelle der Schriften auf (soweit sie indexikalisiert sind), und zwar als jemand, der durch seinen Begriff der Familienähnlichkeit als Wegbereiter der Prototypentheorie der Begriffsbildung gelten kann.<71>

Trotzdem gibt es eine Verbindungslinie. Gibsons theoretischer Haupteinfluß war die Gestaltpsychologie, die er über seinem akademischen Lehrer Kurt Koffka in den 30er Jahren kennenlernte. Der für den affordance-Begriff zentrale Begriff der wiederaufhebbaren Verdeckung (reversible occlusion), als die sich affordances im array bemerkbar machen, hängt direkt von der Problematik der Vordergrund-Hintergrund-Unterscheidung ab, die die Gestaltpsychologen detailliert diskutiert haben.<72> Die Gestaltpsychologie wiederum bildete sich vor ihrer Exilierung durch den Nationalsozialismus in Deutschland in direktem Kontakt zur Phänomenologie aus, sodaß Heidegger und Gibson zumindest in der indirekten Beziehung einer teilweise gemeinsamen Tradition stehen. Vielleicht ist es gerade ein Vorteil, daß Heidegger wie Gibson einen gemeinsamen Grundgedanken in vollständig anderen Zusammenhängen und mit anderen Erkenntnisinteressen weiterentwickeln, denn so wird deutlich, in welchem Sinne sich ihre Theorien ergänzen bzw. begrenzen. Meine Hoffnung ist es, Heideggers subtileren philosophischen Apparat auf einige Aspekte von Gibsons Theorie anwenden zu können. Ich gedenke nicht, hier eine ausführliche Heidegger-Exegese zu versuchen; dazu sähe ich mich auch kaum imstande. Es geht mir nur darum, einen speziellen


78

Aspekt der Erkenntnistheorie, nämlich die Frage nach dem Verhältnis von erkennendem Subjekt und Umwelt, durch die Reflektion auf einige Thesen Heideggers in interessanter Weise zu beleuchten, die dem Werkzusammenhang durchaus eklektisch entrissen sind.

Heideggers Ausgangspunkt für die Überlegungen in Sein und Zeit ist der Versuch, die klassische ontologische Unterteilung in selbstgenügsame Objekte und ebenso selbstgenügsame Subjekte zu überwinden, um gar nicht erst in die philosophische Verlegenheit zu geraten, erklären zu müssen, wie sich denn ein quasi cartesisches Selbst aus seiner Isolation heraus auf die Welt beziehen kann. Für Heidegger ist allein schon diese Frage ein Hindernis auf dem Weg zur Erkenntnis dessen, was es gibt. Die zentrale Frage der Ontologie, die nach dem, was es gibt, steht im Horizont der Frage nach dem Sein als der Frage, was es ist, was alle individuellen Dinge, alle ‘Seienden’ verbindet (was sich von allen Individuen gleichermaßen aussagen läßt). Demzufolge ist in der Tradition, wie Heidegger sie darstellt, ‘Sein’ der allgemeinste Begriff. Aus der höchsten Allgemeinheit scheint aber notwendig zu folgen, daß der Begriff des ‘Seins’ nicht mehr definierbar ist, denn wenn es wahr ist, daß Definitionen sowohl auf dem Genus als auch auf der differentia specifica aufbauen, ist klar, daß es für das Sein keine Definition geben kann - was sollte, wenn es sich wirklich um den allgemeinsten Begriff handelt, die Rolle des spezifischen, die Definition festlegenden Unterschied spielen, der ‘Sein’ von anderen Begriffen abgrenzt. Wenn man vom zentralen Begriff der Ontologie aber sagen müssen sollte, daß er gar nicht definierbar sei, will es scheinen, als hätte man ein großes Problem, vor allem, wenn es sich dabei um den Begriff handelt, den man als selbstverständlich jeder Beschäftigung mit der Ontologie voraussetzen muß. Diese Schwierigkeiten bringen Heidegger zu der Überzeugung, daß es nicht darum gehen kann, eine Antwort auf die Frage zu geben, um was es sich beim Sein handelt; zuvor muß vielmehr die Frage genauer ausgearbeitet werden. Dies hofft Heidegger durch die, wie er es nennt, Fundamentalanalyse des Daseins leisten zu können. An diesem zentralen Begriff des Daseins hängt letztlich Heideggers gesamte Kritik an der historisch so einflußreichen Trennung von Subjekt und Objekt; für uns ist hier besonders wichtig, daß Heidegger einige epistemologische Überlegungen in das Fundament seiner ontologischen Untersuchung einläßt, was seinen Lösungsansatz übertragbar macht auf das Problem, in welcher Weise das wahrnehmende Subjekt mit der wahrgenommenen Welt in Verbindung steht. Daher halte ich es nicht für eine überflüssige Abschweifung, die explizit ontologische Fragestellung Heideggers wenigstens kurz aufzunehmen.

Die Fundamentalanalyse des Daseins bildet für Heidegger deshalb den Leitfaden seiner Untersuchung, weil er meint, daß das Dasein in besonderer Weise vor allen anderen Seienden ausgezeichnet ist:

Der erste Vorrang ist ein ontischer: Dieses Seiende ist in seinem Sein durch Existenz bestimmt. der zweite Vorrang ist ein ontologischer: Dasein ist auf dem Grunde seiner Existenzbestimmtheit an ihm selbst ”ontologisch“. Dem Dasein gehört nun aber gleichursprünglich - als Konstituens des Existenzverständnisses - zu: ein Verstehen des Seins alles nicht-daseinsmäßigen Seienden. Das Dasein hat daher den dritten Vorrang als ontisch-ontologische Bedingung der Möglichkeit aller Ontologien. (Heidegger 1927: 13)

Ohne hier auf die Details eingehen zu können, kann man den wesentlichen Punkt vielleicht am besten so beschreiben: Dasein ist dasjenige Seiende, das ‘existiert’, d.h. das die Möglichkeit hat, sich zu seinem eigenen Sein in irgendeiner Weise zu verhalten (der ontische Vorrang). Die ontologische Frage, die fragt, was das Dasein ist, kann aber ohne die Frage danach, auf welche Weise es existiert (die ontische Frage) nicht gestellt werden (der ontisch-ontologische Vorrang). Und schließlich kann sich das Dasein nicht nur das eigene Sein, sondern auch dasjenige von anderen Seienden zur Frage werden lassen (der ontologische Vorrang). Kurz gesagt, ist das Dasein dasjenige Seiende, das sich selbst frei zur Welt verhalten und in diesem Weltverhältnis sowohl den eigenen Status wie den anderer Entitäten untersuchen kann. Wichtig für die Überlegungen bezüglich der ökologischen Wahrnehmungstheorie ist die Betonung, daß Existenz der Essenz vorausgeht, was soviel besagen soll, daß die Frage danach, was ein bestimmtes Ding ist, immer schon auf dem Hintergrund einer Einbettung in eine bestimmte Umwelt mit bestimmten Lebensvollzügen stattfindet. Das Dasein findet sich immer schon in einer Welt, oder, wie man zugespitzt sagen könnte, nur auf dem Hintergrund einer immer schon gegebenen Umwelt kann das Dasein überhaupt beginnen, seine Weltbezüge zu thematisieren. Was das Dasein ist, wird auch für es selbst erst im Zusammenspiel mit seiner Umwelt beantwortbar. Gegen Theorien, die vom


79

Subjekt ausgehend versuchen, die Objektwelt zu erkennen, setzt Heidegger die ursprüngliche Verwiesenheit von Dasein und Welt. In seiner ebenso fruchtbaren wie unorthodoxen Heidegger-Interpretation schreibt Dreyfus:

Heidegger seeks to supplant the tradition by showing that the ways of being of equipment and substances, and of actors and of contemplators, presuppose a background understanding of being - originary transcendence or being-in-the-world. (Dreyfus 1991: 61)

Unsere grundlegende Seinsweise, qua Dasein, liegt in unserem alltäglichen Umgang mit der Welt: ”Die nächste Art des Umganges ist, wie gezeigt wurde, aber nicht das nur noch vernehmende Erkennen, sondern das hantierende, gebrauchende Besorgen, das seine eigene ‘Erkenntnis’ hat“ (Heidegger 1927: 67). Die Betonung liegt hier darauf, daß der ‘normale’ Umgang mit der Welt nicht kognitiv ist, sondern im vorreflexiven Wahrnehmen von Handlungsmöglichkeiten liegt, die die Welt eröffnet.<73> Heideggers Begrifflichkeit spricht hier vom ‘Zeug’ (Dreyfus übersetzt es als ‘equipment’), aber schon in seiner eigenen Explikation dieses Begriffes betont er den handlungseröffnenden Charakter, weswegen mir diese Deutung durchaus in seinem Sinne zu sein scheint. Heidegger schreibt: ”Die Griechen hatten einen angemessenen Terminus für die ‘Dinge’: pragmata, d.i. das, womit man es im besorgenden Umgang (praxiV) zu tun hat“ (Heidegger 1927: 68). Ein Zeug ist also etwas, was den Horizont eines bestimmten Handelns eröffnet. Damit befinden wir uns bereits in unmittelbarer Nähe dessen, was Gibson mit seiner Rede von affordance zu treffen versuchte. Aber noch bemerkenswerter ist die Parallele, die sich dadurch ergibt, daß auch Heidegger versucht, gegen eine Konzeption der bloßen Wahrnehmungen von Dingen in der Welt zu zeigen, wie Umwelt und Organismus immer schon eine Einheit bilden. In seiner 1926/27 gehaltenen Vorlesung über Die Grundprobleme der Phänomenologie, die eine Art Kommentar zu Sein und Zeit bilden, erläutert er:

Es ist daher grundsätzlich festzuhalten, daß der übliche Ansatz der Erkenntnistheorie, wonach uns gleichmäßig eine Mannigfaltigkeit beliebig vorkommender Dinge bzw. Objekte gegeben sei, den primären Tatbeständen nicht gerecht wird und deshalb die erkenntnistheoretische Fragestellung von vornherein zu einer gekünstelten macht. Die ursprüngliche Vertrautheit mit dem Seienden liegt in dem ihm angemessenen Umgang. (Heidegger 1975: 432)

Denn das Zeug, das uns solcherart im ‘Besorgen’, d.h. in unserer Interaktion mit der Umwelt begegnet, ist in unseren Handlungsparadigmata von bestimmten Zwecken bestimmt, von Anforderungen, die sich aus den Zwängen der jeweiligen Handlung her stellen. Und dabei ist nicht nur ein bestimmter Handlungsablauf richtungsweisend, sondern die Gesamtheit aller Möglichkeiten, sich zur Umwelt zu verhalten: ”Ein Zeug ‘ist’ strenggenommen nie. Zum Sein von Zeug gehört je immer ein Zeugganzes, darin es dieses Zeug sein kann, das es ist. Zeug ist wesenhaft ‘etwas, um


80

zu...’“ (Heidegger 1927: 68). Ein einzelnes Zeug kann nur im Kontext einer bestimmten Praxis individuiert werden; es verweist auf alle anderen ‘Zeuge’ und damit auf die Lebensumwelt des Handelnden. Die Analogie zu Gibsons affordance zeigt sich so am stärksten in der Weise, in der uns das Zeug normalerweise begegnet: Es ist ‘zuhanden’, d.h. es fügt sich ohne Schwierigkeiten in bestimmte Handlungsabläufe ein, wir können mit ihm hantieren. Soweit in diesem Vorgang Wahrnehmung involviert ist, ist sie präreflektiv:

Das Seiende, das im alltäglichen Umgang begegnet, hat in vorzüglicher Weise den Charakter der Unauffälligkeit. Wir nehmen die Dinge um uns innerhalb einer vertrauten Umwelt nicht jeweils und ständig ausdrücklich wahr, gar in der Weise, daß wir sie als zuhandene eigens konstatierten. (Heidegger 1927: 68)

Das heißt nicht, daß wir, wenn wir einen Nagel einschlagen, nicht auf den Hammer bezogen wären. Aber Heidegger postuliert, wie man sagen könnte, den Vorrang einer Art von absorbierter Intentionalität über ihre explizit repräsentationalen Formen. Wenn wir ein bestimmtes Ziel erreichen wollen, etwa einen neuen Dielenboden zu verlegen, haben wir keine konkreten, isolierbaren Absichten, jeden einzelnen Nagel einzuschlagen, und zwar mithilfe dieses und keines anderen Hammers. Im Gegenteil, wenn alles gut geht, sind die Werkzeuge, die wir benutzen, nicht Teil unserer primären Absicht - wir gebrauchen sie schlicht. Innerhalb dieser Konzeption der Zuhandenheit ist es möglich, einen eigenartigen Aspekt des affordance-Begriffes zu korrigieren. Bei Gibson stellt es sich so dar, als richte sich eigentlich gar nicht mehr der Handelnde auf ein Objekt in der Umwelt, sondern vielmehr ermöglicht umgekehrt ein Objekt eine Handlung - der Handelnde selbst nimmt diese Möglichkeit dann nur noch wahr oder läßt es. Intentionalität, so sieht es aus, inhäriert auf geheimnisvolle Weise in den Dingen selbst; man könnte sagen, daß dadurch Handlungen eine seltsame Art von Eigenschaften von Objekten sind, was intuitiv eine wenig attraktive Theorie ist. Zuhandenheit behauptet demgegenüber weniger: Ein Objekt begegnet uns dann im Modus der Zuhandenheit, wenn es für eine bestimmte unserer Absichten geeignet ist. Intentionalität ist so ein Charakteristikum der Handelnden, gleichzeitig aber immer schon verwiesen auf bestimmte Aspekte des Gegenstandes, mit dem die Handlung vollzogen wird. Heidegger läßt Raum für traditionelle Vorstellungen von Intentionalität, aber er behandelt diese als abgeleitet aus der eingebetteten, absorbierten Intentionalität unseres alltäglichen Umgangs mit der Welt, solange er unproblematisch ist. Wenn allerdings diese unproblematische Einbettung zusammenbricht, greift sofort der ganze intentionale Apparat der traditionellen Theorie: Wenn eine Tür sich nicht öffnen läßt, versuchen wir noch einmal ganz bewußt die Klinke zu drücken; wir können den expliziten Wunsch äußern, sie möge sich öffnen, irrationalen Haß auf sie entwickeln, kurz: uns in verschiedener Weise explizit auf sie beziehen:

Das Dasein versteht sich aus dem Seinkönnen, das durch das Gelingen und Mißlingen, durch die Tunlichkeit und Untunlichkeit seines Umgangs mit den Dingen bestimmt ist. Das Dasein kommt so aus den Dingen her auf sich zu. (Heidegger 1975: 410)

Im Mißlingen eines Handlungsvollzuges erst beginnt die Ebene kognitiver Prozesse, zu denen auch die bewußte Wahrnehmung gehört. Im alltäglichen Umgang brauchen wir keine konkreten Repräsentationen der Dinge, mit denen wir umgehen. Wir sind daher auch nicht in der Verlegenheit, den Hirnzuständen, in denen wir uns dabei selbstverständlich befinden, konkrete, d.h. propositional individuierte Gehalte zuzuweisen, nicht, weil es keine neuronalen Zustände gäbe, die an solchen Situationen beteiligt sind, sondern vielmehr, gerade weil sie nur beteiligt sind an einer komplexeren Situation. Nur aus der Gesamtsituation heraus aber ergeben sich die gesuchten Gehalte; nur aus dem Verweisungszusammenhang von Organismus und Objekt innerhalb einer spezifischen Handlungssituation ergibt sich, was der Gehalt eines Hirnzustandes ist. Content ist immer wide content; narrow content gibt nicht mehr an als die konkrete physiologische Basis in einem der am Zustandekommen von Gehalten beteiligten Teilsystem. Das mag man dann noch Repräsentation nennen, aber es sollte immer mitgedacht werden, daß es sich dabei nicht mehr um isolierte Einheiten handelt. In einer Interpretation des Heideggerschen Begriffes der Zuhandenheit schreibt Dreyfus:

To what extent then are representations involved when we run into a disturbance? Some sort of mental content is surely invoked, we do have belief and desires and experience effort - but these need not involve the sort of self-sufficient mental entities philosophers since Descartes have supposed. (Dreyfus 1990: 74)


81

Selbst wenn wir zugeben, daß mentale Zustände wie Meinungen oder Wünsche aufkommen, wenn die Dinge ‘aufsässig’ werden, und daß diese Zustände sicher nur über die Zuschreibung von Gehalten individuierbar sind, können sie nicht als abgeschlossene Repräsentationen analysiert werden, die man in Cartesianischen Egos einfach vorfindet. Absichtsvolles, gerichtetes Handeln beruht auf der vorgängigen Einbettung des Daseins in einen Hintergrund von Fähigkeiten inbezug auf den Umgang mit der Welt. In Heideggers Worten:

Selbst und Welt gehören in dem einen Seienden, dem Dasein, zusammen. Selbst und Welt sind nicht zwei Seiende, wie Subjekt und Objekt [...], sondern Selbst und Welt sind in der Einheit der Struktur des In-der-Welt-Seins die Grundbestimmung des Daseins selbst. (Heidegger 1975: 422)

Dadurch, daß er erkennendes Subjekt und Erkanntes als gegenläufige Momente einer Einheitsstruktur versteht, umgeht Heidegger das Problem der Skepsis bezüglich der Existenz der Außenwelt, das, wie wir gesehen haben, vom Inferentialismus aufgeworfen wird. Zwar sind inferentielle Theorien an sich erst einmal völlig neutral hinsichtlich der Existenz der wahrgenommenen Welt. Die meisten Inferentialisten, zumindest unter den empirischen Wissenschaftlern (weniger optimistisch bin ich bei vielen Vertretern der einschlägigen philosophischen Theorien), würden schließlich behaupten wollen, daß dasjenige, das wir im inferentiellen Prozeß erzeugen, eine Repräsentation der (tatsächlichen) Außenwelt ist, was natürlich eine Art von Realismus zu unterstellen scheint, wenn auch in einer wenig spezifischen Lesart. Aber die Inferentialisten (und somit a fortiori auch die Konstruktivisten) sind meiner Einschätzung nach in keiner sonderlich guten Position, dieses intuitive, common sense-Bild zu verteidigen. Ich bin der Überzeugung, daß Hume die skeptischen Konsequenzen überzeugend dargelegt hat, in die uns die rigorose Ausdeutung der inferentiellen Theorie führt. Wenn man erst einmal annimmt, daß unser Zugang zur Welt durch unsere Perzepte der Welt vermittelt sind, die wir wiederum aus Sinnesinfomationen erschließen müssen, die für sich genommen nicht das Gesamtbild enthalten, ist die skeptische Schlußfolgerung des Treatise unausweichlich. Jede Wahrnehmungstheorie, die uns nicht mit der Welt selbst in Verbindung bringt, sondern nur mit Sinnesdaten irgendeiner Art und somit einen ‘Schleier der Wahrnehmung’ zieht zwischen die Welt, wie sie ist und der Welt, wie wir sie wahrnehmen, kann nur eine vorgetäuschte Linderung des skeptischen Zweifels mit sich bringen. Heidegger entschärft dieses Problem, indem er aufzeigt, daß ‘die Welt’ immer schon etwas ist, was sich erst in der Bezugnahme eines Wesens auf seine Umwelt ergibt. ‘Die Welt’ ist nicht etwas, was sich unseren prinzipiell begrenzten Wahrnehmungsvermögen entzieht, sie ist kein epistemologisches Transzendens. Es gibt kein Problem damit, wie wir ‘zur Welt kommen’, weil es uns nur innerhalb unserer Weltbezüge gibt. Es ist eine im schlechten Sinne metaphysische Auffassung zu glauben, die Wahrnehmungstheorie müsse kompliziert sein, weil die an der Wahrnehmung beteiligten naturwissenschaftlich beschreibbaren Prozesse kompliziert sind. Es ist nichts verborgen; darum geht es weniger um die Lösung eines Rätsels als um die transparente Darstellung dessen, was uns immer schon zugänglich war.

Auch Gibson spricht davon, daß uns dasjenige, was wir in der Umwelt wahrnehmen, immer schon ohne Inferenzen zugänglich ist. Manchmal hat man aufgrund seiner Terminologie sogar den Eindruck, als dränge die Welt sich dem wahrnehmenden Organismus geradezu auf. So zumindest verstehe ich seine Leitmetapher, wonach der Wahrnehmungsapparat auf die Reize der Umwelt eingestimmt (attuned) sei. Das kann nur soviel heißen, als daß unsere Sinne in entscheidender Hinsicht durch die Umwelt vorgeprägt sind, weil Organismus und Umwelt immer schon aufeinander verweisen, ja sich gegenseitig erst in ihren jeweiligen Eigenschaften konstituieren. Nach Gibson ist die Wahrnehmung, ökologisch verstanden, also nicht ausschließlich eine Aktivität des Wahrnehmungssubjekts, vielmehr spielt auch die wahrgenommene Umwelt eine aktive Rolle im Wahrnehmungsprozeß. Ich habe oben schon behauptet, daß Gibson selbst vielleicht zuwenig sagt, um diese zunächst eher unintuitive Position zu stützen. Daher ist es besonders interessant, daß sich bei Heidegger eine ähnlich aktivisch verstandener Begriff der Umwelt findet, der sich zur Verdeutlichung der Theorie Gibsons heranziehen läßt. Nach Heidegger wird die Umwelt erst dann fraglich, d.h. kommt als Gegenstand einer theoretischen Überlegung erst dann in den Blick, wenn das Dasein aus dem Modus des In-der-Welt-seins herausgerissen wird:

In-der-Welt-sein besagt nach der bisherigen Interpretation: das unthematische, umsichtige Aufgehen in den für die Zuhandenheit des Zeugganzen konstitutiven Verweisungen. Das

82

Besorgen ist je schon, wie es ist, auf dem Grunde einer Vertrautheit mit der Welt. (Heidegger 1927: 76)

Die unhinterfragte Umwelt bildet den Rahmen, innerhalb dessen die Dinge ‘zuhanden’ sind, innerhalb dessen sie also eine direkte Möglichkeit für bestimmte Handlungen bieten. Bei Gibson wird auf derselben Ebene der weitaus mißverständlichere Begriff der qua affordance direkt wahrgenommenen Werte (values) in Anschlag gebracht; wir haben auch bereits gesehen, daß er in diesem Zusammenhang von Bedeutung (meaning) spricht. Ganz offenbar meint Gibson mit all diesen Begriffen aber nur soetwas wie Verhaltensrelevanz. Auch diese Ausführungen werden im Verweis auf Heidegger klarer, der davon spricht, daß diejenigen Dinge, die für einen bestimmten Zweck benutzt werden können (das ‘Zeug’), mit demjenigen, der sie benutzt, die Binnenstruktur einer Einheit bilden, in der die enthaltenen Elemente sich gegenseitig bestimmen (‘Verweisungsganzheit’). Diese Gesamtstruktur macht gerade die ‘Weltlichkeit der Welt’ aus. Heidegger nennt folgende Arten des gegenseitigen Bezugs (‘Verweisungen’), die ganz ähnlichen Kriterien zu entsprechen scheinen, wie Gibson sie fordert: ”Als bestimmte Verweisungen nannten wir die Dienlichkeit zu, Abträglichkeit, Verwendbarkeit und dergleichen“ (Heidegger 1927: 83). In erstaunlicher Parallelität schreibt Gibson in einer oben bereits zitierten Passage, daß alle Substanzen und Oberflächen ”Sode affordance for Benefiz or injury to someone“ haben, genau darin besteht ihr ‘Wert’. Er benutzt diesen Begriff also so, wie man ihn etwa in evolutionsbiologischen Zusammenhängen findet, in denen vom ‘adaptiven Wert’ einer Mutation die Rede ist. Nun ist klar, daß der ‘adaptive Wert’ zwar für das Überleben einer Kreatur von Bedeutung ist, damit aber nicht gemeint ist, daß er auch für diese Kreatur eine Bedeutung hat. Es sind also nicht irgendwelche Umwelteigenschaften intrinsisch bedeutungsvoll in einem Sinn, in dem man fragen könnte, was denn ihr semantischer Gehalt ist, sondern nur insofern, als daß sie einen faktischen Einfluß auf den Verhaltensspielraum eine Kreatur haben. Nur in diesem eingeschränkten Sinn auch ist die Umwelt ‘aktiv’, d.h. stellt sie Handlungsmöglichkeiten zur Verfügung. Allerdings, und hier sehe ich durchaus die Möglichkeit zu einer symbolischen Reformulierung von Heideggers Thesen, soweit sie das Dasein betreffen. Denn die Möglichkeit zum symbolischen Umgang mit dem, was ihm in der Welt begegnet, ist gerade ein kennzeichnendes Merkmal des Daseins, eine der Weisen, in der es existiert. Für uns qua Dasein ‘erscheinen die Phänomene’ bereits als strukturierte:

Phänomen - das Sich-an-ihm-selbst-zeigen - bedeutet eine ausgezeichnete Begegnisart von etwas. Erscheinung dagegen meint einen seienden Verweisungsbezug im Seienden selbst, so zwar, daß das Verweisende (Meldende) seiner möglichen Funktion nur genügen kann, wenn es sich an ihm selbst zeigt. (Heidegger 1927: 31)

Mein Verdacht ist, daß sich diese Struktur nicht völlig ohne Symbolisierungsprozesse rekonstruieren läßt. Das Dasein ‘antwortet’ auf das Sein, weil eine der Handlungsmöglichkeiten, die es hat, darin liegt, das Sein als Frage zu verstehen. Daraus ließe sich die These ableiten, daß die Phänomenologie als Methode keinesfalls so vorsprachlich vorgehen kann, wie Heidegger es an manchen Stellen zu behaupten scheint. Der Nachweis müßte im Rahmen einer weitgehenden Interpretation vor allem des 5. Kapitels von Sein und Zeit erfolgen, was mehr ist, als ich in dieser Arbeit leisten kann.<74>

Wir haben oben schon gesehen, daß Gibson in seinen radikalen Zuspitzungen mitunter über sein erklärtes Ziel hinausschießt, zu erklären, in welcher Hinsicht die Wahrnehmung immer umwelteingebettet ist. Mein Vorschlag ist, den Begriff der ‘Umwelt’ wie er bei Gibson verwendet wird (also im Sinne der ecological theory of perception), an den Welt-Begriff anzunähern, wie er in Heideggers ‘In-der-Welt-sein’ auftaucht. Von besonderem Interesse ist dabei, daß Heidegger wie Gibson die Rolle der Raumwahrnehmung besonders betonen. Gibson wehrt sich scharf gegen die Geometrisierung der gesehenen Entfernung, wenn er dem Berkeley-Zitat widerspricht, nach dem


83

Entfernung eine Linie ist, die ihren Anfang beim Gegenstand und ihr Ende im Auge hat. Die Wahrnehmung diskreter und homogener Maßstäbe, wie sie ein cartesianisches Koordinatennetz voraussetzt, ist aus der direkten Raumwahrnehmung abgeleitet, die nicht den absoluten (geometrischen) Raum betrifft, sondern den Lebens-raum relativ zu den Fähigkeiten und Bedürfnissen des wahrnehmenden Organismus. Diese Präzedenz behauptet auch Heidegger:

Das ‘zur Hand’ Seiende hat je eine verschiedene Nähe, die nicht durch Ausmessung von Abständen festgelegt ist. Diese Nähe regelt sich aus dem umsichtig ‘berechnenden’ Hantieren und Gebrauchen. [...] Das Zeug hat seinen Platz, oder aber es ‘liegt herum’, was von einem puren Vorkommen an einer beliebigen Raumstelle grundsätzlich zu unterscheiden ist. (Heidegger 1927: 102)

Mit Gibson gesprochen, ist die räumliche Wahrnehmung eines Gegenstandes nicht so sehr an seine absolute Entfernung gebunden als vielmehr an seine affordances. Ein Beispiel wäre die direkte Wahrnehmung von Fluchtdistanzen: Eine Gazelle teilt den sie umgebenden Raum nicht in bestimmte Sektoren ein, die sich in einer festgelegten Distanz von ihr befinden und innerhalb derer ein Freßfeind an einem bestimmten Punkt vorkommt. Vielmehr ist die Distanz vom Raubtier, deren Unterschreitung Fluchtverhalten auslöst, durch die Fähigkeiten der Gazelle (Fluchtgeschwindigkeit, etc.) sowie die affordances der Umwelt (Raubtier, Bodenbeschaffenheit, etc.) bestimmt. Die als gefährlich empfundene Entfernung ist nicht in homogenen, diskreten Maßeinheiten angebbar, sondern variiert relativ zu den Dingen, die die Umwelt der Gazelle ausmachen. Aber auch andere Raumbestimmungen ergeben sich nicht aus einer vorgängigen ‘Dimensionalität’: Wir haben bei Gibson schon gesehen, daß die Horizontlinie einen wichtigen Maßstab für die direkte Wahrnehmung von Entfernungen bietet (vgl. oben S. 30 ff.). Die durch die Horizontlinie schon implizierte Unterscheidung in oben und unten wird noch verstärkt durch den Unterschied zwischen direktem oder reflektierten Licht, das die Augen vom Himmel bzw. vom Boden her erreicht. Auch hier finden sich bei Heidegger Textstellen, die sich fast wie ein Kommentar zu Gibson lesen:

Es ist nie zunächst eine dreidimensionale Mannigfaltigkeit möglicher Stellen gegeben, die mit vorhandenen Dingen ausgefüllt wird. [...] Das ‘Oben’ ist das ‘an der Decke’, das ‘Unten’ das ‘am Boden’ [...]; alle Wo sind durch die Gänge und Wege des alltäglichen Umgangs entdeckt und umsichtig ausgelegt, nicht in betrachtender Raumausmessung festgestellt und verzeichnet. (Heidegger 1927: 103)

So erklärt sich der Streit innerhalb der Wahrnehmungstheorie darüber, ob räumliche Entfernungen direkt gesehen oder nur inferenziell erschlossen werden können zu einem erheblichen Teil aus einem Mißverständnis darüber, was innerhalb dieser Diskussion der zentrale Begriff ist. Denn natürlich haben die Inferentialisten Recht, wenn sie sagen, daß der geometrische Raum nicht gesehen wird. Raumkoordinaten sind buchstäblich unsichtbar. Sichtbar hingegen sind nur Objekte im Raum. Was die Inferentialisten aber verkennen ist, daß diese gesehenen Gegenstände nicht einfach irgendwo im geometrischen Raum vorkommen, sondern im Verhältnis zu den Möglichkeiten des Umgangs mit ihnen gemäß den lebensweltlichen Interessen des wahrnehmenden Organismus’ ‘verortet’ werden. In diesem lebensweltlichen Sinn ist die Entfernung eines Objektes von mir eben doch Teil der Information, die ich direkt aus der Umwelt aufnehme. Dabei ist diese Art der Distanzwahrnehmung durchaus nicht unstrukturiert, wie man vermuten könnte, wenn man sich fragt, wie denn zwei Dinge, die ich als jeweils in einer bestimmten Entfernung von mir wahrnehme, ihrerseits wieder in einer bestimmten Entfernung voneinander sein können, denn für diese Entfernung zwischen zwei Gegenständen steht mir nach dem Gesagten unmittelbar keine verrechenbare Entfernungsmaßeinheit zur Verfügung. Die Struktur der unmittelbaren Wahrnehmung orientiert sich an den Erfordernissen des Lebewesens - der unmittelbar wahrgenommene Raum ist Verhaltensspielraum, wie man sagen könnte. Gibson sagt wenig darüber, in welcher Weise der direkte Wahrnehmungsraum strukturiert ist, impliziert aber doch, daß er irgendeine Struktur haben muß, wenn er von der Vielzahl von affordances spricht, die als Invarianten im array direkt wahrnehmbar sind. Diese Invarianten müssen schließlich irgendwie auch räumlich miteinander in Beziehung stehen. Auch in diesem Punkt scheint mir ein Rückgriff auf Heidegger hilfreich. Ihm zufolge ist das In-der-Welt-sein als ”Räumlichkeit des Zeugganzen“, also als die Weise, in der die Gesamtheit derjenigen Dinge, mit denen wir präreflektiv umgehen oder zu denen wir uns in Beziehung setzen, so strukturiert, daß in ihm alles ”seinen Platz hat“, was in Abgrenzung zur Bestimmung der Raumkoordinaten zu verstehen ist. Ein ‘Platz’ besteht in einem lokalen Zusammenhang zwischen bestimmten Dingen, die in Hinsicht auf eine Verhaltensweise zusammengehören - Gibson würde sagen: die


84

zusammengenommen eine affordance bilden:

Die ‘Umwelt’ richtet sich nicht in einem zuvorgegebenen Raum ein, sondern ihre spezifische Weltlichkeit artikuliert in ihrer Bedeutsamkeit den bewandtnishaften Zusammenhang einer jeweiligen Ganzheit von umsichtig ausgewiesenen Plätzen. (Heidegger 1927: 104)

Die phänomenale Einheit der Welt, d.h. der Eindruck ihrer Kontinuität um uns herum, entsteht aus der Einbettung aller Wahrnehmungen in den Horizont möglichen Verhaltens zur Welt; wir erfahren die Welt als Einheit, insofern unser Leben sich kontinuierlich entfaltet.

Die Idee, ausgerechnet Heidegger zur Explikation eines Programmes wie der Gibsonschen ökologischen Optik heranzuziehen, mag schon aufgrund der Ressentiments befremden, die er oft genug gegenüber der Wissenschaft formuliert hat. Aber vielleicht tut man doch gut daran, Heidegger gegen seine eigene, mehr oder weniger versteckte Zielrichtung in Schutz zu nehmen. Viele seiner Thesen lassen sich dann auch im Rahmen einer Philosophie beibehalten und nutzbar machen, die den Naturwissenschaften positiver begegnet, auch wenn Heidegger vermutlich in solchen Interpretationsversuchen einen Rückfall in die philosophische Anthropologie sehen würde. Sieht man vom polemischen Unterton ab, liefert Heidegger eine subtile Deutung der Naturwissenschaften als eine zwar abkünftige Weise des In-der-Welt-seins, die aber dennoch mit dem wissenschaftlichen Realismus durchaus vereinbar ist, selbst wenn sie die Rolle von wissenschaftlichen Fähigkeiten und Praxen in der Generierung des Datenmaterials hervorhebt. Liest man die Rede von der ‘Abkünftigkeit’ der Naturwissenschaft nicht als eine qualitative Zurücksetzung gegenüber dem ‘alltäglichen’, ‘ursprünglichen’, ‘eigentlichen’ Leben, sondern eher als Verweis auf die zeitliche wie gedankliche Folge, in der wir uns die Umwelt erschließen, muß man nicht mehr zwangsläufig von der Frontstellung der heideggereschen Thesen gegen die Naturwissenschaft ausgehen. Vielleicht kann man die anstößigen Formulierungen auch als Polemik gegen ein ganz bestimmtes Fortschrittspathos innerhalb der Wissenschaften verstehen, wenn auch mit umgekehrten Vorzeichen: Auch dort schließlich wird ständig so geredet, als sei die Ebene der wissenschaftlichen Erkenntnis die ‘eigentliche’, hinter der die bloßen ‘Alltagsweisheiten’ notwendig zurückblieben. Ohne Radikalisierung kann man Heidegger so lesen, als behaupte er nur die Einbettung auch unserer Wissenschaftspraxis in unsere alltäglichen Lebensvollzüge. Heidegger scheint in den wenigen und eher kursorischen Bemerkungen zur Wissenschaft, die Sein und Zeit enthält, in prinzipieller Weise einem Unbehagen Ausdruck zu verleihen, dem wir bei Gibson in einem engeren Kontext der Laborexperimente der empirischen Psychologie schon begegnet sind. Wir erinnern uns: Gibson warf den Experimentalpsychologen vor, ihren Untersuchungsgegenstand, also die normale Wahrnehmung, schon dadurch zu verfehlen, daß sie ihre Experimente unter Bedingungen durchführen, die weit von der natürlichen Umwelt des wahrnehmenden Organismus entfernt sind. Ein so komplexer Prozeß wie die Wahrnehmung sei aber nur im Zusammenspiel von Organismus und Umwelt überhaupt verständlich. Heidegger weitet diese Einsicht aus: Für alle Weisen, in denen wir uns auf die Welt beziehen, gilt, daß sie nur unter Voraussetzung unserer vorgängigen vielfältigen Bezogenheit auf diese Welt verständlich gemacht werden können. Als ein Seiendes, das die ontologische Verwiesenheit seines eigenen Seins thematisieren kann, bezieht sich das Dasein in allen Handlungen auf Welt, egal, ob es einen Nagel einschlägt oder eine Theorie über die dabei wirkenden Kräfte aufstellt. Der Vorzug des untheoretischen Umgangs liegt nur darin, daß erst aus ihm heraus die wissenschaftliche Beschäftigung möglich ist. Das wird in Heideggers Bestimmung des ‘vollen existenzialen Begriffs der Wissenschaft’ deutlich:

Der wissenschaftliche Entwurf des je schon irgendwie begegnenden Seienden läßt dessen Seinsart ausdrücklich verstehen, so zwar, daß damit die möglichen Wege zum reinen Erkennen des innerweltlichen Seienden offenbar werden. Das Ganze dieses Entwerfens, zu dem die Artikulation des Seinsverständnisses, die von ihm geleistete Umgrenzung des Sachgebietes und die Vorzeichnung der dem Seienden angehörigen Begrifflichkeit gehören, nennen wir Thematisierung. [...] Die Thematisierung objektiviert. Sie ‘setzt’ nicht erst das Seiende, sondern gibt es so frei, daß es ‘objektiv’ befragbar und bestimmbar wird. (Heidegger 1927: 363)

Auch die Wissenschaft findet nicht außerhalb jeden anderen (z.B. praktischen) Kontextes die Dinge schlicht so vor, wie sie an sich sind. Das sollte heute keine allzu kontroverse These mehr sein,


85

folgen doch selbst physikalistisch orientierte Wissenschaftstheoretiker kaum mehr einer so schlicht gestrickten positivistischen Auffassung. Allerdings meint Heidegger noch ein wenig mehr. Wenn er davon redet, daß Wissenschaft ein Entwurf ist, betont er die Weise, in der sie aus der Gesamtheit aller Lebensbezüge hervorgeht, in denen auch jeder Wissenschaftler steht - als organisches Lebewesen, als soziales Wesen, etc. Gleichzeitig muß er von diesen Einbettungen absehen, um das in den Blick zu bekommen, worum es in der Wissenschaft geht, denn nicht jede Weise, in der wir uns mit dem befassen, was uns umgibt (das je schon irgendwie begegnende Seiende) ist für die Wissenschaft interessant, in der es um einen nach abgesicherter Methodik intersubjektiv überprüfbaren und wiederholbaren Wissensstand geht (um reines Erkennen). Normalerweise erfahren wir ein Ding gleichzeitig in einer Vielzahl verschiedener Zugangsweisen, in der Wissenschaft hingegen setzen wir genau beschriebene Prioritäten bezüglich dessen, was uns an diesem Ding interessiert, wir thematisieren es als einen ganz bestimmten Gegenstand, der Objekt einer ganz bestimmten Disziplin ist. Es ist aber ein Mißverständnis, Heidegger so zu verstehen, als ginge es ihm darum, Möglichkeit objektiver Wissenschaft überhaupt zu bestreiten. Festzuhalten bleibt, daß Heidegger keinem möglichen Blick auf das, was ist, die Berechtigung absprechen will. Aber die Weise, wie wir Wissenschaftspraxis und Lebenspraxis zueinander in Beziehung setzen, kann ebenfalls kein Ergebnis einer wissenschaftlichen Untersuchung sein. Im Gegenteil liegt eine der Aufgaben der philosophischen Beschäftigung mit den Einzelwissenschaften darin, daß ”immer wieder zum Bewußtsein gebracht werden [muß], daß diese ontologischen Fundamente nie nachträglich aus dem empirischen Material hypothetisch erschlossen werden können, daß sie vielmehr auch dann immer schon ‘da’ sind, wenn empirisches Material auch nur gesammelt wird“ (Heidegger 1927: 50).

Man könnte einwenden, daß diese Darstellung Gibson und Heidegger zu sehr aneinander angleicht. Gibson geht es um eine Analyse der Wahrnehmung als Fähigkeit biologischer Organismen tout court, um die Ausweisung einer Grundstruktur der Aufnahme von Informationen aus der Umwelt, die völlig unabhängig vom phylogenetischen Status des Organismus’ ist. Heidegger hingegen, das ist geradezu die Pointe seiner Ausführungen in Sein und Zeit, versucht eine Analyse des Daseins als der einzigen Seinsweise, über die wir einen Zugang zum Sein gewinnen können, weil es diese Art zu sein ist, die uns auszeichnet und die konstitutiv für unseren Umgang mit dem Sein ist. Hier scheint auf der Hand zu liegen, daß es einen tiefgreifenden Dissenz darüber gibt, wie wichtig die je spezifische Zugangsweise zur Welt für verschiedene Organismen ist: Während Gibson die Unterschiede eher nivelliert und aufgrund des phylogenetischen Kontinuums davon ausgeht, daß experimentelle Ergebnisse durchaus über die Grenzen der biologischen Spezies hinweg zu verallgemeinern sind, interessiert Heidegger aus prinzipiellen Gründen die Frage nicht, in welcher Hinsicht wir bezogen auf die Wahrnehmung anderen biologischen Arten ähnlich sind - die Frage in diesem Kontext anzusiedeln, wäre für ihn Anthropologie und damit bereits verfehlt. Ich glaube dennoch nicht, daß sich hier tatsächlich unüberbrückbare Gegensätze auftun, die die Möglichkeit verbauen, die jeweiligen Ansätze sich gegenseitig erhellen zu lassen. So haben wir oben schon gesehen, inwiefern Gibsons Versuch, restlos alle Wahrnehmungsleistungen, von einfachen Unterscheidung von Helligkeitswerten bei Einzellern bis zur Wahrnehmung eines Rothko-Gemäldes, aus dem einzigen Prinzip der affordance zu erklären, aufgrund seiner theoretischen Unterbestimmung dieses zentralen Begriffes wenig überzeugen können. Gibson versäumt durchgängig, zwischen nicht-kognitiven und kognitiven Formen der Wahrnehmung zu unterscheiden und vernachlässigt systematisch die Möglichkeit der Rückwirkung von Prozessen im Zentralnervensystem auf den Gehalt der Wahrnehmung. Anders gesagt, unterscheidet er nicht zwischen den verschiedenen Ebenen, auf denen Wahrnehmungsprozesse stattfinden und setzt sich dadurch dem Vorwurf aus, daß dort, wo die Kognitivisten die an der Wahrnehmung beteiligten Signalwandler zu ‘dünn’ machen, er seinerseits sie zu ‘dick’ (im Sinne von thick transducing) macht. Die Möglichkeit, sich kognitiv sowohl zu sich selbst wie zu dem zu verhalten, was einem in der Welt begegnet, ist nach Heidegger gerade der Vorzug, den das Dasein vor anderen Seienden hat. Wir, die diesen Vorrang der Bezugnahme auf die eigene Seinsweise haben, können nur unter Verlust unserer spezifischen Seinsweise so tun, als hätten wir diesen Vorzug nicht. Alle unsere Fähigkeiten des Weltumganges bilden eine Einheit, aus der nicht willkürlich die oberste Stufe der Komplexität herausgebrochen werden kann, um uns z.B. in der biologischen Ordnung aller Lebewesen zu verorten, zumindest nicht, solange dabei nicht deutlich gemacht wird, daß dadurch der Blick auf die Weise notwendig verstellt wird, in der wir uns selbst verstehen. Wir können nicht so tun, als seien unsere Weisen des Weltumgangs so modular


86

verfaßt, daß man eine bestimmte Fähigkeit ohne Probleme ausklammern könnte. Was für uns als Umwelt gilt, und dadurch auch, was das Spektrum der für uns möglichen Erlebnisse im Umgang mit der Welt ist, ist bestimmt als Funktion der Gesamtheit aller uns gegebenen Möglichkeiten, uns mit der Widerspenstigkeit der uns umgebenden Dinge auseinanderzusetzen. Daß auch unser phänomenales Erleben in diesem Sinne immer in die Gesamtheit auch unserer kognitiven Fähigkeiten zurückgebunden bleibt, ist ein Umstand, der in der analytischen Literatur zu diesem Diskussionsfeld nicht hinreichend berücksichtigt worden ist.

Fußnoten:
<47>

vgl. z.B. Kurt Koffka 1935: Principles of Gestalt Psychology. New York: Harcourt, Brace and World, Kapitel 3.

<48>

Denselben Punkt mach Robert Schwarz in seiner hervorragenden Studie Vision. Im Zusammenhang mit einer Ehrenrettung Berkeleys und Helmholtz', die er beide als erheblich weniger inferentialistisch darstellt, als der gängigen Meeinung entspricht, schreibt er: "Interestingly, both Berkeley and Gibson have reservations about putting matters in just this way ["Why do things look as they do?"]. They do not ignore the question, but they call attention to certain ambiguities in its interpretation. For Berkeley and Gibson, the main function of vision is to provide knowledge of the environment. It is not to provide experiences having distinct phenomenal visual qualities"(Schwarz 1994: Vision. Oxford: Blackwell, 126). Mit Ausnahme des etwas unvorsichtigen Gebrauchs von 'Wissen' stimme ich mit dieser Charakterisierung völlig überein.

<49>

vgl. J.J. Gibson 1950: The Perception of the Visual World. Boston: Houghton Mifflin, Kapitel 3.

<50>

Den empirisch-psychologischen Beleg für diese These liefert der klassische Versuch von Held und Hein, mit dem nachgewiesen werden konnte, daß junge Katzen nur dann sehen lernen, wenn sie die Möglichkeit haben, sich selbstständig in ihrer Umgebung bewegen zu können. Katzen, die sich nicht bewegen konnten, aber auch solche, die nur bewegt wurden, verhielten sich wie blind, obwohl keine organische Schädigung vorlag und erlernten auch später das Sehen nicht mehr (Held und Hein 1963).

<51>

vgl. Berkeley, New Theory of Vision, Kapitel 2 und 3.

<52>

vgl. Rock 1984, Kapitel 3.

<53>

Husserl führt diesen Begriff in der Krisis-Schrift von 1936 so ein: "Der Kontrast zwischen dem Subjektiven der Lebenswelt und der 'objektiven', 'wahren' Welt liegt nun darin, daß die letztere eine theoretisch-logische Substruktion ist, die eines prinzipiell nicht Wahrnehmbaren, prinzipiell in seinem eigenen Selbstsein nicht Erfahrbaren, während das lebensweltlich Subjektive in allem und jedem eben durch seine Erfahrbarkeit ausgezeichnet ist." - "Durch ihre Idealisierung der Körperwelt in Hinsicht auf ihr raumzeitlich Gestalthaftes hat [die Mathematik] ideale Objektivitäten geschaffen. Sie hat aus der unbestimmt allgemeinen lebensweltlichen Form Raum und Zeit mit der Mannigfaltigkeit in sie hineinzufingierender empirisch.anschaulichen Gestalten allererst eine objektve Welt im eigentlichen Sinne gemacht" (zitiert nach: Husserl 1986, 283 u. 233). Was bei Husserl allerdings als relativ abstrakte These aus einer wissenschafts- und mentalitätsgeschichtlichen Untersuchungen der Mathematik hergeleitet wird, stellt sich bei Gibson als ein Resultat empirischer Forschung dar. Das ist eine Volte, die Husserl sicher eher überrscht hätte, denn in vieler Hinsicht beruft sich Gibson gerade auf ein empirisches Paradigma, das Husserl unterminieren möchte.

<54>

Vielleicht ist diese Exposition zu abstrakt, um den zweifelnden Leser zu überzeugen, daher ein Beispiel für die Umweltgebundenheit des Sehens: Wer schon einmal getaucht ist weiß, wie desorientierend zunächst der Umstand ist, daß man Größen und Entfernungen unter Wasser nicht zuverlässig einzuschätzen vermag. Aufgrund der uns evolutionär fremden Umgebung sehen Gegenstände so aus, als wären sie 25 % größer und näher. Auch daß direktes Sonnenlicht die Augen abgeschwächt und in anderen Winkeln erreicht, kann zu Schwindel und Desorientierung führen (vgl. Richardson (ed.) 1990, 71 und 124).

<55>

David Hockney, der sich als Maler intensiv mit der Photographie auseineandergesetzt hat, äußert eine ganz ähnliche Kritik. Im New Yorker vom 12.1.1998 wird er mit den Worten zitiert: "I've figured out what's wrong with photography. It's a one-eyed man looking through a little hole - now, how much reality can there be in that?" In seinen jüngsten Yorkshire-Landschaften von 1996/97 scheint er eine künstlerische Umsetzung der Idee des Flusses des viuellen Feldes dadurch zu erreichen, daß er die gegenstände nicht von einer Zentralperspektive aus darstellt, sondern in einer mobile perspective, die den essentiellen Anteil der Bewegung an unserer Wahrnehmung einbezieht. Dieser Hinweis soll nur anekdotisch plausibilisieren, daß es hier nicht um die Folgerungen aus einem theoretischen Programm geht, sondern um ein Phänomen, das eine Klärung einfordert, sei sie künstlerischer oder wissenschaftlicher Art.

<56>

Für die Definition der einzelnen Strömungsinvarianten vgl. Gibson 1979: 227-229.

<57>

Warum nach Fodor die Stimuli auch in der Psychologie als kausale Einwirkungen verstanden werden müssen, erläutert er in vorbildlicher Klarheit in Fodor (1980), wo er den methodologischen Solipsismus als Heuristik innerhalb der Psychologie verteidigt. Putnams (1960) empirische Formulierung des Funktionalismus aufgreifend, sagt er gegen eine Traditionslinie, die er von Pierce und Dewey bis zu Quine und Gibson zieht und die Psychologie als Zweig der Biologie versteht und die Umwelteinbettung mentaler Zustände betont (vgl. 312): "The point is that, so long as we are thinking of mental processes as purely computational, the bearing of environmental information upon such processes is exhusted by the formal character of whatever the oracles [i.e., transducers impinged upon by ambient environmental energies, cf. 313] write on the tape [of a Turing machine]" (314). Ziel einer naturalistischen Psychologie könne es nur sein, nomologische Zusammenhänge zwischen Stimulus und mentalem Zustand aufzuweisen, solche strikten Gesetze ließen sich aber nur zwischen physikalisch beschriebenen Objekten aufweisen (vgl. 336). Beschreibungen im Sinne von affordances seien schon semantisch, aber "if mental processes are formal, they have access only to the formal properties of such representations of the environment as the senses provide. Hence, they have no access to the semantic properties of such representations, including [...] the property of being representations of the environment"(314). Die formalen Eigenschaften sind aber innerhalb eines methodologischen Solipsismus aufweisbar. "My point, then, is of course not that solipsism is true; it's just that [...] semantic notions aren't psychological categories. What they are is: modes of Dasein. I don't know what Dasein is, but I'm sure there's lots of it around [...]" (337). Das ist eine griffige Formulierung der These, gegen die ich mit Gibson argumentieren möchte; mein Verdacht ist, daß eine kognitivistische, rein formale Psychologie in Fodors Sinn nicht in der Lage ist, die Semantik angemessen zu rekonstruieren. Bezüglich der letzten Bemerkung können wir Prof. Fodor vielleicht helfen. Auch ich glaube, daß man bestimmte Züge von Gibsons Theorie in interessanter Weise über den Begriff des Daseins interpretieren kann, wie ich unten zeige.

<58>

Auch zum Begriff des thick transducer vgl. Hatfield 1988.

<59>

Einem ähnlichen Mißverständnis unterliegt Lenk (1995), der im Rahmen seiner 'Philosophie der Interpretationskonstrukte' zwar Sympathien zu Gibson bekundet, dann aber meint: "Es ist sicherlich zu einfach, sich nur auf ein angeblich deutungs- und formungsunabhängiges 'information pick-up' zu beschränken und die interpretativen Prägungen erst auf die spätere Stufe der bewußtseinsnäheren bzw. bewußten Verarbeitungen zu schieben!" (Lenk 1995: 108). Lenk meint gar, jegliche Sinneswahrnehmung sei bereits aufgrund der Vorstrukturierung durch die Konstruktionsweise der Sinnesorgane intentional (vgl. 109f.). Das verwechselt die kausale 'Passung' der Organe (z.B. die Retinasensitivität auf elektromagnetische Strahlung bestimmter Wellenlänge) mit dem Umstand, daß ich mich aufgrund dieser Passung (dieser transducer-Struktur) auf bestimmte Gegebenheiten in meiner Umwelt beziehen kann. Es entspricht zudem der normalen Bedeutung von 'Interpretation', daß sie bewußt vorgenommen wird - Lenks Verwendung ist meines Erachtens klarerweise metaphorisch.

<60>

Dieser Hinweis ist deshalb besonders wichtig, weil Searle selbst Marr als Vertreter der starken KI mißversteht (vgl. Searle 1992: 212, 220f.), weil er die Betonung Marrs nicht ernst genug nimmt, daß die algorithmische Beschreibung eines Hirnprozesses nur eine von mehreren Stufen im Erklärungsprozeß ist.

<61>

Der Hinweis auf die Arbeit von Gross et al. (1972) bezieht sich auf die recht erstaunliche Entdeckung, daß es in Affengehirnen relativ kleine neuronale Verbände gibt, die selektiv nur dann feuern, wenn im Gesichtsfeld Hände präsent sind.

<62>

Vielleicht überrascht es zunächst, daß nicht die tatsächlichen, absoluten Kontrastunterschiede benutzt werden, um ein Bild zu erstellen, sondern diese auf doch recht komplizierte Weise gefilterten Daten, die den Kontrastunterschied (den d-Kontrast oder d-brightness) darstellen. An drei Phänomenen läßt sich aber zeigen, daß unser optisches System so funktioniert und daß das eine elegante Lösung der in der normalen Umwelt auftauchenden Probleme ist:

(a) Stereoskopisches Sehen, wie man es mit zwei leicht winkelverschobenen Bildern und einem Betrachtungsapparat leicht simulieren kann, funktioniert nur, wenn die so verschobenen Bilder Unterschiede in den Kontrasten zeigen. Deshalb sind die bekannten Julesz-Diagramme immer aus weißen und schwarzen Quadraten zusammengesetzt; bestünden sie aus Quadraten unterschiedlicher Farbe, aber der gleichen Helligkeit, käme kein Tiefeneffekt zustande. Das ist allein schon deshalb evolutionär sinnvoll, weil unsere Farbunterscheidung mit der Lichtintensität nachläßt (bei Nacht sind alle Katzen bekanntlich grau), die Kontrastunterscheidung hingegen nicht.

(b) Da ständig alle Kontrastwerte der einzelnen Rezeptoren gemittelt werden, werden Konturen zunächst verstärkt, verschwinden aber, wenn die Kontur sich relativ zum Gesamtarray nicht bewegt. Man hat so einen eleganten Bewegungsmelder ohne technischen Mehraufwand. Dieser Effekt läßt sich im Labor leicht nachweisen. Uns fällt er deshalb nicht auf, weil schon geringste Bewegungen (wie die ständigen Sakkaden unserer Augen, also deren unwillkürliche Eigenbewegungen) genügen, um ihn für das bewußte Erleben zu neutralisieren.

(c) Der letztgenannte Effekt liefert nebenbei auch eine hübsche Erklärung für optische Nachbilder: Wenn ich auf einem hellen Hintergrund ein dunkleres Objekt sehe und dann rasch auf einen dunkleren Hintergrund (ohne Objekt) schaue, sehe ich für einen Moment noch ein Negativabbild des Objektes, weil durch die Invertierung der Kontrastwerte des Hintergrunds auch das Vorzeichen des d-Kontrastes umgekehrt werden.

<63>

Der Ausdruck stammt von Patricia Kitcher (1988: 11): "By the 'hegemony of neurophysiology, I refer to the belief that the explanatory burdens thought to rest on psychology will eventually be borne by neurophysiology, either through reduction or through replacements." - Wenn diese Hegemonie nicht aufrechtzuerhalten ist, geraten natürlich auch alle 'neurophilosophischen' Projekte (P.S. Churchland 1986) in Schwierigkeiten.

<64>

Das steht übrigens nicht nicht im notwendigen Gegensatz zur Kognitionsforschung: "The mind - even when viewed as a kind of of computational system - is an essentially embedded entity; one such that analyzing it in isolation from the environmental context in which it functions will be fundamentally misleading" (McClamrock 1995:1)

<65>

Vielleicht ist hier noch nicht hinreichend deutlich, wie wichtig dieser Punkt innerhalb der zeitgenössischen analytischen Philosophie des Geistes ist. Ich möchte deshalb schon hier darauf hinweisen, daß er uns später in der Diskussion vor allem des repräsentationalistischen Ansatzes, wie er sich bei Tye (1995) oder Dretske (1995) findet, wiederbegegnen wird.

<66>

Das wäre eine These, die der evolutionären Erkenntnistheorie nahe kommt. Zumindest scheint in zentralen Begriffen wie dem der Passung die Auffassung ausgedrückt zu sein, es gäbe solche objektiv vorhandene, dem Organismus vorgängige natürliche Eigenschaften, für die unsere Sinnesorgane glücklicherweise eine evolutionäre 'Passung' entwickelt haben: "Wie nun können subjektive Strukturen auf objektive passen? Hier muß man drei Bedeutungen unterscheiden: Erstens passen objektive und subjektive Strukturen aufeinander, indem sie zusammen Erkenntnis möglich machen. Sie passen, wie ein Werkzeug auf ein Werkstück paßt. Ohne diese Passung gibt es auch keine Erkenntnis. Zweitens ist diese Passung nützlich, weil und insoweit Erkenntnis nützlich ist. In Darwinschen Begriffen erhöht die Passung die Fitness des Organismus. Drittens passen in einigen Fällen die subjektiven Strukturen auf die objektiven, indem sie mit ihnen übereinstimmen. In diesen Fällen gibt es eine gewisse Strukturgleichheit, eine partielle Isomorphie" (Vollmer 1985: 46f). Gerade diese Trennung aber von objektiven und subjektiven Eigenschaften der Welt will Gibson gerade umgehen. Es wäre interessant, an anderer Stelle einmal eine genauere Kontrastierung von 'Passung' und 'Affordance' zu unternehmen.

<67>

"The process of pickup is postulated to depend on the input-output loop of a perceptual system", Gibson 179: 250.

<68>

Daß es tatsächlich die Gesamtheit der Lichtverteilung im array ist, mithilfe derer wir unsere Umgebung sehen, wird vielleicht durch ein alltägliches Beispiel klarer, wenn es auch nur anekdotisch ist und keinerlei Beweiskraft hat. Manche gegenständlichen Bilder irritieren mich sofort, im ersten Moment des Sehens, ohne daß ich genau sagen könnte, warum das so ist. Oft stelle ich im Nachhinein fest, daß meine Beunruhigung dadurch hervorgerufen wird, daß die Verteilung von Licht und Schatten nicht mit den sichtbaren oder implizierten Lichtquellen in Übereinstimmung zu bringen ist. Viele große Maler haben sich dieser Verunsicherung bewußt bedient, man denke an Correggios 'Heilige Nacht' in Dresden oder an viele Werke Caravaggios. Auf der anderen Seite, glaube ich, ist es einer der Gründe, warum Vermeers Bilder so intuitiv 'richtig' aussehen, daß seine Bilder sehr nahe an einene Ausschnitt des arrays herankommen, den ich hätte, würde ich tatsächlich in dem abgebildeten Raum stehen. Mein Punkt ist, daß es so etwas wie ein intuitives, prä-reflektives Gefühl dafür gibt, wie eine 'richtige' Lichtverteilung unter normalen Bedingungen und ohne übernatürliche Lichtquellen aussehen sollte.

<69>

vgl. Putnam 1973/1980.

<70>

Diese Art der Problemlösung ist auch direkt anschlußfähig an den Trend im Konnektionismus, Vorgänge von Objekterkennung mit der Auslösung bestimmter motorischer Reaktionen mathematisch als Attraktoren zu beschreiben (vgl. etwa Churchland 1988).

<71>

vgl. die Indices; für die Wittgenstein-Erwähnung vgl. Gibson 1979: 134.

<72>

Für kurze geschichtlichen Hinweise vgl. Bruce/Green 1990: 233. -- Die gestalttheoretische Analyse des Vordergrund/Hintergrund-Problems ist zuerst durch den Dänischen Psychologen Edgar Rubin durchgeführt worden, der während seines Göttinger Studiums stark von der Phänomenologie geprägt wurde, vgl. die Stichwörter 'Gestalt', 'Rubin', Koffka' und 'Gibson' in Gregory 1987.

<73>

Heidegger liefert auf diese Weise eine interessante Analyse des Konzepts von Fähigkeiten oder Fertigkeiten, das in der angelsächsischen Debatte unter dem Titel skills oder know how thematisiert wird. Dreyfus meint, "[bodily skills] are not something we know but [...] form the way we are" (1982:21). Auch Haugeland (1978) hat in der Erklärung von Fähigkeiten eine der Hauptschwierigkeiten des Kognitivismus gesehen. Zum einen sei deren sprachliche Formulierbarkeit weder notwendig noch hinreichend, um über sie zu verfügen. Zweitens muß man über automatisierte Fähigkeiten nicht mehr nachdenken. Drittens seien sie sogar schneller als die expliziten Gedanken (im Sinne einer Befolgung einer Gebrauchsanleitung etwa). Kognitivisten berufen sich zur Erklärung dieses Umstandes auf unbewußte Informationsverarbeitungsprozesse. Ein guter Schachspieler etwa verfügt demzufolge über Selektionsroutinen für günstige Züge. Dazu Haugeland: "It's possible that players have some marvelously efficient unconscious information processor which works through these rationales; but if so, then why would anyone with such a splendid unconscious ever bother to deliberate consciously and tediously over a hundred plays? The implication is that the skilfull preselection and the tedious cogitation differ not just in efficiency and consciousness, but in kind"(Haugeland 1978/1980: 272f.). -- Falls sich derlei Zweifel bezüglich der kognitivistischen Analyse von Fähigkeiten erhärten lassen sollten, hätte das direkte Auswirkungen auch auf die Analyse des Arguments des unvollständigen Wissens, demzufolge Mary nur eine neue Fähigkeit erwirbt, wenn sie zum ersten Mal rot sieht. Selbst, wenn diese Analyse richtig wäre, könnte sie dann den kognitivistischen Funktionalismus nicht unterstützen; sie würde das Problem nur verlagern. Eine praktische Fähigkeit müßte dann z.B. handlungstheoretisch erklärt werden. Ich werde im zweiten Teil dieser Arbeit (ausgehend von Damasio 1997) Gründe präsentieren, weshalb Handlungen auf den Hintergrund des phänomenalen Erlebens anNammmverwiesen bleiben.

<74>

Die Andeutung eines ähnlich gelagerten Projektes, allerdings auf der Basis einer Gibson-Interpretation, findet sich bei Harré und Gillett (1994): "The discursive approach would understand perception as embedded in techniques and forms of life that provide one with certain skills of extracting information from the evironment according to the conceptualizations that inform one's interactions with the world and others. Those skills are simultaneously enabling and constraning" (170). Der Umstand, daß wir über Begriffe verfügen, kann nicht ohne Folgen für die anderen Weisen unsres Weltumgangs bleiben.


[Titelseite] [Einleitung] [1] [2] [3] [4] [5] [6] [7] [8] [9] [Bibliographie] [Anhang] [Lebenslauf] [Selbständigkeitserklärung]

© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.

DiDi DTD Version 1.1
a subset from ETD-ML Version 1.1
Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML - Version erstellt am:
Tue Jun 8 19:04:33 1999