1 Theorie

↓2

Zur Einordnung der Untersuchungsgebiete der vorliegenden Arbeit in bestehende Modelle und empirische Befunde zur Gesichterwahrnehmung wird im folgenden zunächst ein Überblick über den Forschungsstand zur Gesichterwahrnehmung aus kognitiver und neurowissenschaftlicher Sicht gegeben (Kapitel 1.1 bis 1.5). Im Anschluss daran werden Ergebnisse zur funktionellen Bestimmung elektrophysiologischer Parameter von Gesichterwahrnehmung in MEG und EEG und zur Modellierung ihrer neuronalen Quellen dargestellt (Kapitel 1.6 und 1.7). Schließlich wird das experimentelle Paradigma Priming, das in der vorliegenden Arbeit zur Messung impliziter Gedächtnisprozesse eingesetzt wurde, mit Befunden zu Primingexperimenten für Gesichter dargestellt (Kapitel 1.8).

1.1  Das kognitive Modell der Gesichterverarbeitung von Bruce und Young

↓3

Bruce und Young (1986) haben im einflussreichsten psychologischen Modell der Gesichterverarbeitung kognitive Prozesse, die zum Erkennen von Gesichtern führen, abgebildet. Das Modell wird im folgenden genauer dargestellt, weil es einen der umfassendsten Versuche kognitiv-psychologischer Modellierung von Gesichterverarbeitung darstellt und nahezu alle empirischen Studien zum Thema Gesichterwahrnehmung sich innerhalb seiner Begrifflichkeiten bewegen. Bruce und Young (1986) unterscheiden zwischen funktionellen Modulen, von denen jedes einen bestimmten Schritt der Informationsverarbeitung leistet, und Codes, die Produkte dieser Verarbeitung sind. Abbildung 1.1 zeigt eine Modelldarstellung (angelehnt an Abbildung 1, p. 312, aus Bruce und Young, 1986) mit den einzelnen Modulen und Codes. Die Richtungen des Informationsflusses zwischen den einzelnen Einheiten sind anhand von Pfeilen dargestellt. In der Modelldarstellung sind die Wege des Erkennens unbekannter Gesichter in grüner Farbe und die Verarbeitung bekannter Gesichter in blauer Farbe gezeichnet. Die Verarbeitungsstufen, die dem Erkennen unbekannter und bekannter Gesichter gemein sind, sind blau und grün gefärbt.

Auf der ersten Stufe der Gesichterverarbeitung wird der piktorielle Code eines Gesichts gebildet. Er besteht aus perzeptuellen Repräsentationen, die spezifisch für jede Aufnahme - im Sinne einer Photographie - eines Gesichts sind (’a record of a particular, static, visual event’; Bruce und Young, 1986, p. 307). Das Entstehen piktorieller Codes wird als Prozess angesehen, der bei jeder Art visueller Objektverarbeitung abläuft und besitzt damit nicht die Eigenschaft einer gesichterspezifischen Verarbeitungsstufe. Bruce und Young (1986) betonen die Wichtigkeit der Beachtung piktorieller Codes für die Interpretation von Gedächtniseffekten im Gesichterverarbeitungssystem. Die wiederholte experimentelle Darbietung derse l ben Aufnahme eines Gesichts reaktiviert den piktoriellen Code. Ein auf diese Art erzeugter Effekt der Gesichterwiederholung spiegelt möglicherweise in Teilen einen piktoriellen Gedächtniseffekt wieder, bei dem kein Transfer auf eine andere Aufnahme desselben Gesichts stattfindet. Piktorielle Codes sind Nebenprodukt struktureller Gesichtsenkodierung (siehe unten), aber sie werden auch durch gerichtete visuelle Verarbeitung (siehe Abbildung 1.1) beeinflusst. Bei der gerichteten visuellen Verarbeitung findet eine Fokussierung auf die Verarbeitung von Gesichtsmerkmalen, die distinkt sind und eine leichte Unterscheidung des Gesichts von anderen Gesichtern ermöglichen, statt. Dieser Prozess läuft besonders bei der Verarbeitung unbekannter Gesichter ab, da hier noch keine gespeicherten Gesichtsrepräsentationen deren Identifizierung erleichtern.

Bei der strukturellen Enkodierung wird die für individuelle Gesichter spezifische perzeptuelle Struktur verarbeitet. Dazu gehören sowohl einzelne Gesichtselemente wie Nase, Mund und Augen, als auch das räumliche Verhältnis dieser Elemente zueinander, ihre Konfiguration oder Relation. Die strukturelle Enkodierung ist somit aus mehreren Verarbeitungsschritten zusammengesetzt (siehe rotes Kästchen in Abbildung 1) und umfasst sowohl die Entscheidung, ob ein visuelles Objekt ein Gesicht oder ein anderes Objekt ist, als auch die Enkodierung konfiguraler Informationen, die Enkodierung einzelner Gesichtselemente und die Bildung des piktoriellen Codes. Die Verarbeitung konfiguraler Informationen spielt beim Erkennen von Gesichtern im Vergleich zu anderen visuellen Objekten eine überproportional große Rolle, hinter der die Bedeutung der Enkodierung einzelner Gesichtselemente zurücktritt (Leder und Bruce, 2000). Der bei der strukturellen Enkodierung entstehende strukturelle Code repräsentiert eine abstraktere Bildebene als der piktorielle Code. Er enthält die individuelle, invariante Struktur eines Gesichts, die notwendig ist, um es situationsübergreifend von anderen Gesichtern unterscheiden zu können. Für bekannte Gesichter gibt es viele solcher strukturellen Codes, die einerseits in Form von Gesichtsrepräsentationen aus verschiedenen Ansichtsperspektiven bestehen und andererseits in Form abstrakterer Repräsentationen vorliegen, die von der Ansichtsperspektive unabhängig sind.

↓4

Alle strukturellen Codes eines Gesichts werden in der sogenannten Face Recognition Unit (FRU) gespeichert. Die FRU ist der visuell-perzeptuelle Langzeitspeicher für bekannte Gesichter und wird nur aktiviert, wenn ein bekanntes Gesicht gesehen wird. Obwohl die Verarbeitung des individuellen Gesichts schon auf der Ebene der strukturellen Enkodierung abläuft, wird ein bekanntes Gesicht erst durch den Zugriff auf die Face Recognition Unit erkannt. Aus der perzeptuellen Verarbeitung eines Gesichts kann man auch semantische Informationen gewinnen, die das Wissen über die Person, die zum Gesicht gehört, ausmachen, wie etwa ihr Geschlecht. Solche Informationen werden im visuell erzeugten semantischen Code gespeichert. Dieser Code stellt kein eigenes Modul dar, sondern wird ins kognitive System verwiesen, dem die generelle Verarbeitung von Stimuli zugeschrieben wird. In Abgrenzung zum visuell erzeugten semantischen Code steht der identitätsspezifische semantische Code, der verbal oder visuell vermittelte Informationen über eine Person enthält. Alle identitätsspezifischen semantischen Codes, die zu einer Person vorliegen, sind im Person Identity Node (PIN) gespeichert. Der PIN kann aktiviert werden, indem zum Beispiel Gesicht, Name oder Stimme einer Person wahrgenommen werden und ist die Verarbeitungsstufe, auf der ein vertraut erscheinenden Gesicht als das einer bestimmten, bekannten Person wahrgenommen wird (Burton, Bruce und Johnston, 1990). Der Namenscode wird als getrennt von den übrigen Informationen des identitätsspezifischen semantischen Codes bestehend angenommen. Der Name einer bekannten Person kann nach dem Modell jedoch nur dann abgerufen werden, wenn der PIN auch aktiviert ist. Unabhängig von der Verarbeitung identitätsspezifischer Merkmale eines Gesichts und der dazugehörigen Person wird im Gesichtsausdruckscode der emotionale Ausdruck eines Gesichts gespeichert, und im gesichtssprachlichen Code werden Informationen über das, was eine Person sagt, anhand der Verarbeitung ihrer Lippenbewegungen beim Sprechen extrahiert. Beide Codes enthalten Informationen, die sich über Situationen verändern, und spielen eine untergeordnete Rolle bei der situationsübergreifenden Gesichtsidentifizierung.

Das Modell von Bruce und Young (1986) nimmt eine getrennte Verarbeitung bekannter und unbekannter Gesichter an, obwohl die Unterschiede zwischen beiden Verarbeitungswegen nicht in aller Genauigkeit spezifiziert werden. Für die Wahrnehmung unbekannter Gesichter spielen vor allem Prozesse der strukturellen Enkodierung und der gerichteten visuellen Verarbeitung eine Rolle, so daß die Gesichter auf individuellem Niveau erkannt und Personen voneinander unterschieden werden können, während für die Verarbeitung bekannter Gesichter die Aktivierung der Face Recognition Unit bedeutsam ist. Wenn eine Übereinstimmung zwischen einem verarbeiteten Gesicht und einer Gesichtsrepräsentation in der FRU vorhanden ist, entsteht ein Gefühl von Vertrautheit des Gesichts. Die Person letztlich vollständig erkannt wird nur durch die Aktivierung von PIN und Namenscode.

Abbildung 1.1: Modell der Gesichterverarbeitung von Bruce und Young (1986).

1.2 Verarbeitung visueller Objekte im Gehirn

↓5

Wahrnehmungsprozesse für Gesichter nehmen im Gehirn den sogenannten ventralen Verarbeitungsweg, auf dem auch die Wahrnehmung anderer visueller Objekte angesiedelt ist. Nach einer ersten gemeinsamen Verarbeitung visuellen Inputs im occipitalen Kortex laufen Prozesse der Objektwahrnehmung anatomisch getrennt von Prozessen der räumlichen Wahrnehmung und der Bewegungswahrnehmung ab. Während räumliche Wahrnehmung und Bewegungswahrnehmung in parietalen Arealen lokalisiert sind, dorsaler Verarbeitungsweg genannt, läuft der ventrale Weg der Objektwahrnehmung vom occipitalen zum temporalen Kortex. Die Trennung von räumlicher und Objektwahrnehmung wurde zunächst anhand von Läsionsstudien bei Affen demonstriert (eine Übersicht dazu siehe Mishkin, Ungerleider und Macko, 1983), konnte dann aber auch beim Menschen gezeigt werden (Ungerleider und Haxby, 1994). Die beiden Wege der Verarbeitung im menschlichen Gehirn sind schematisch in Abbildung 1.2 dargestellt.

Abbildung 1.2: Ventraler und dorsaler Verarbeitungsweg im menschlichen Gehirn.

Auf dem Weg der Objektwahrnehmung findet eine hierarchisch organisierte Stimulusverarbeitung statt, die von der Analyse globaler Stimulusattribute in frühen Arealen der Objektverarbeitung wie dem primären visuellen Kortex zu immer stärkerer Ausrichtung auf komplexe Stimulusattribute führt. Diejenigen Stationen der Objekt- und damit auch der Gesichterwahrnehmung, auf denen schließlich ganzheitliche Repräsentationen von Objekten und Gesichtern enkodiert werden, liegen vor allem in Arealen des inferotemporalen Kortex (siehe Abbildung 1.2). Dort zeigen einige Neuronengruppen ihre stärkste Aktivierung nur noch bei der Präsentation bestimmter Objektklassen, etwa von Gesichtern oder Häusern (z.B. Grill-Spector, 2003). Reaktionsweise und Ort der Neuronen, die ein Objekt enkodieren, sind nicht nur vom Stimulus, sondern auch von den zu seiner Verarbeitung notwendigen kognitiven Operationen abhängig (Ungerleider und Haxby, 1994) und damit in Experimenten durch die Aufgabe, die Versuchspersonen mit den Stimuli durchführen sollen, beeinflusst.

1.3 Hinweise auf eine Modularität der Gesichterverarbeitung bei Patienten mit Prosopagnosie

↓6

Bei Versuchen der Positionierung von neuronalen Prozessen der Gesichterwahrnehmung innerhalb des Objektwahrnehmungssystems wurde vor allem die Frage immer wieder diskutiert, ob es ein Modul im Gehirn gibt, das nur für die Verarbeitung von Gesichtern zuständig ist. Unter Modul kann man dabei nach Fodor (1983) eine neuronale Population verstehen, die stimulusspezifisch, von Geburt an festgelegt und autonom auf einen Stimulus reagiert und dabei wenig durch kognitive Prozesse beeinflussbar ist. Für Gesichter würde dies bedeuten, daß es ein neuronales Modul gibt, das automatisch und nur durch visuellen Input in Form von Gesichtern aktiviert wird und diese auf eine relativ invariante Art verarbeitet.

Einen Hinweis auf die Modularität der Gesichterverarbeitung liefert die Existenz einer gesichterspezifischen Wahrnehmungsstörung, die Prosopagnosie genannt wird. Diese Störung ist nach Hirnverletzungen, die Läsionen im temporalen Kortex umfassen, beobachtet worden (z.B. Tranel und Damasio, 1985; Farah, Wilson, Drain und Tanaka, 1995; Eimer und McCarthy, 1999), wurde aber auch für Personen ohne nachweisbare Hirnschädigung berichtet (Bentin, Deouell und Soroker, 1999; Nunn, Postma und Pearson, 2001; Kress und Daum, 2003).

Personen mit Prosopagnosie können Gesichter zwar noch als solche in Abgrenzung zu anderen visuellen Objektklassen, aber nicht mehr auf der Ebene individueller Identität erkennen, so daß ihnen sogar ihr eigenes Gesicht unbekannt vorkommen kann (Damasio, Tranel und Damasio, 1990). Das dieser Störung zugrunde liegende Defizit besteht möglicherweise in einer gestörten Enkodierung konfiguraler Information (siehe Kapitel 1.1) von Gesichtern auf der Verarbeitungsstufe struktureller Enkodierung (Eimer und McCarthy, 1999), während die Identifizierung einzelner Gesichtselemente und das Erkennen von Gesichtsausdruck (Damasio et al., 1990), Alter und Geschlecht (Nunn et al., 2001) normalerweise nicht beeinträchtigt sind. Hier zeigt sich die enorme Wichtigkeit konfiguraler Verarbeitung von Gesichtsinformationen für das Erkennen von Gesichtern (Leder und Bruce, 2000), da individuelle Gesichter ohne eine funktionierende Enkodierung konfiguraler Gesichterinformation auch bei einer normalen Enkodierung der Einzelelemente nicht erkannt werden können. Nunn et al. (2001) fanden für andere Objektkategorien als Gesichter normale visuelle Wahrnehmungsleistungen, die auch für eine Diskrimination innerhalb der Kategorien (z.B. die Unterscheidung einzelner Automodelle) bestanden. Sie sahen dies als Beleg für eine wirkliche Gesichterspezifität des prosopagnostischen Defizits bei ihrem Patienten an und widersprachen damit der Ansicht einiger Autoren (z.B. Damasio et al., 1990), daß Personen mit Prosopagnosie ein generelles Defizit beim Erkennen aller Arten von Objekten innerhalb von deren Objektklassen hätten und daß die Prosopagnosie kein gesichterspezifisches Defizit sei. Bruyer (1993) jedoch nahm an, daß das prosopagnostische Defizit zwar gesichterspezifisch sei, es aber mehrere Arten prosopagnostischer Defizite gebe, die durch Defekte auf unterschiedlichen Gesichterverarbeitungsstufen entstünden.

1.4 Theorien zur Modularität der Gesichterverarbeitung

↓7

Trotz des Vorhandenseins empirischer Hinweise auf eine spezialisierte neuronale Verarbeitung von Gesichtern ist die Frage, ob diese Verarbeitung die Aktivität eines von Geburt an bestehenden Gesichtermoduls reflektiert oder eine im Laufe des Lebens durch Erfahrung erworbene Kompetenz des Gehirns darstellt, die auch für andere Objekte erworben werden kann, immer wieder kontrovers diskutiert worden (z.B. Gauthier, 2000).

In funktionellen magnetresonanztomographischen (fMRT)- und Positron-Emissions-Tomographischen (PET)-Studien wurden objektspezifische Reaktionsmuster von Arealen im temporalen und occipitalen Kortex nicht nur für Gesichter (Kanwisher, McDermott und Chun, 1997), sondern auch für verschiedene andere Objektkategorien wie Häuser (Aguirre, Zarahn und D’Esposito, 1998) und Werkzeuge (Martin, Wiggs, Ungerleider und Haxby, 1996) gefunden. Obwohl diese Ergebnisse im Hinblick auf ein Bestehen kategoriespezifischer Module für sehr viele oder sogar alle Arten von Objekten interpretiert werden könnten, erscheint ein solches Organisationsprinzip für die Objektverarbeitung unökonomisch, da es eine riesige Anzahl visueller Objektklassen gibt und die Existenz eines eigenen Moduls für jede von ihnen extrem viele Ressourcen beanspruchen würde (Ishai, Ungerleider, Martin, Schouten und Haxby, 1999).

Die Arbeitsgruppe um Kanwisher (z.B. Kanwisher et al., 1997; Grill-Spector, 2003) nahm stattdessen ein gesondertes kortikales Gesichtermodul an, das neben einem einzigen Verarbeitungssystem für fast alle anderen visuellen Objekte besteht. Ihr Kandidat für das Gesichtermodul war das sogenannte „fusiforme Gesichterareal“ (´Fusiform Face Area´, FFA, siehe ausführlich dazu Kapitel 1.5) im inferotemporalen Kortex, das auf die Darbietung von Gesichtern im Vergleich zu anderen komplexen Objekten stärker reagierte (Kanwisher et al., 1997). Neuere Studien (Grill-Spector, Knouf und Kanwisher, 2004; Rossion, Schiltz, und Crommelinck, 2003b) zeigten jedoch, daß weitere kortikale Areale ebenfalls gesichterspezifisch reagieren, so daß die Ausgangsthese von Kanwisher et al. (1997) dahingehend verändert werden muss, daß es mehrere Gesichterareale gibt, die in Interaktion miteinander verschiedene Teilprozesse der Gesichterverarbeitung bewältigen.

↓8

Der Annahme gesichterspezifischer neuronaler Module widersprechen vor allem die Arbeitsgruppen um Gauthier und Tarr (z.B. Tarr und Cheng, 2003; Gauthier, Curran, Curby und Collins, 2003). Sie postulieren stattdessen, daß die Verarbeitung von Gesichtern sich nicht fundamental von derer anderer Objekte unterscheide, sondern einzig das Ergebnis von Expertise des visuellen Systems sei. Diese Expertise in der Gesichterverarbeitung erwerbe der Mensch durch außergewöhnlich häufige Begegnungen mit Gesichtern und besondere Anforderungen an die Genauigkeit von Gesichterwahrnehmung im Alltag. Gleichartige Expertise könne jedoch auch für alle anderen Objektklassen und sogar für artifizielle, am Computer kreierte Objekte durch Training erworben werden (Gauthier, Tarr, Anderson, Skudlarski und Gore, 1999). Dann unterscheide sich die Verarbeitung dieser Objekte sowohl auf kognitiver als auch auf neurophysiologischer Ebene nicht mehr von der Gesichterverarbeitung (Gauthier et al., 1999; Rossion, Gauthier, Goffaux, Tarr und Crommelinck, 2002a).

Was genau unterscheidet visuelle Objektverarbeitung bei Expertise - und damit auch die Gesichterverarbeitung - von Objektverarbeitung ohne Expertise? Beim Erkennen visueller Objekte versuchen Menschen, die unendliche Zahl an Unterschieden, die zwischen verschiedenen Objekten auf der visuellen Ebene bestehen, auf ein zu bewältigendes Maß zu reduzieren, und gruppieren äquivalente Objekte in Kategorien. Die Gruppierung wird dabei durch den Objekten gemeinsame Attribute vorgenommen, und Kategorisierungen können sich in ihren Abstraktionsniveaus voneinander unterscheiden (Rosch, Mervis, Gray, Johnson und Boyes-Braem, 1976). Abbildung 1.3 zeigt die im Folgenden erklärten verschiedenen Niveaus der Objektklassifikation anhand eines Beispiels mit Tieren. Die Abbildung ist angelehnt an Abbildung 1 aus Tarr und Cheng (2003).

Abbildung 1.3: Niveaus der Objektklassifikation.

↓9

Der Elefant in Abbildung 1.3 kann zum Beispiel als Säugetier erkannt werden. Im Vergleich mit dem Affen, der auch ein Säugetier ist, würde er auf diesem Kategorisierungsniveau zur selben Objektkategorie gehören. Dieser Kategorisierungsprozess liegt auf einem sehr abstrakten Niveau, dem sogenannten übergeordneten Niveau (Rosch et al., 1976), da beide Tiere sich in ihrer äußeren Erscheinung stark voneinander unterscheiden und das Kategorisierungskriterium „Säugetier“ vor allem aufgrund des Säugens der Neugeborenen durch die Weibchen besteht. Auf einer weniger abstrakten Kategorisierungsstufe, dem sogenannten Basisniveau, kann man für das Säugetier (zweites von links) entscheiden, zu welcher Art es gehört, im Beispiel von Abbildung 1.3 zu den Affen. Bei dieser Entscheidung gehören Elefant und Affe nicht mehr zu einer Kategorie, sondern der Elefant gehört der Kategorie „Elefanten“ an, während der Affe der Kategorie „Affen“ angehört. Diese Kategorisierung ist die für die meisten Objekte zuerst und spontan getroffene. Deshalb wurde dieses Kategorisierungsniveau auch Basisniveau genannt, das bei der Objektwahrnehmung im Alltag die beste Unterscheidbarkeit zwischen verschiedenen Objekten bei dem gleichzeitig geringsten kognitiven Anspruch an die Objektverarbeitung bietet (Rosch et al., 1976). Es kann nicht nur festgestellt werden, daß die Wesen in Abbildung 1.3 bis auf den Elefanten alle Affen sind, sondern man kann für jeden der Affen feststellen, zu welcher Affenart er gehört, im Beispiel (dritter von links) zu den Makaken. Diese Entscheidung liegt auf dem sogenannten untergeordneten, weniger unterschiedliche Objektattribute einschließenden Niveau. Hier würden die Affen in Abbildung 1.3 unterschiedlichen Kategorien angehören.

Die spezifischste Kategorisiweungsoperation stellt das Erkennen eines Objekts auf dem Niveau individueller Identität dar. Der Schimpanse Curious George in Abbildung 1.3 ist ein anderer als die Schimpansin Judy (hier nicht abgebildet), auch wenn beide auf allen anderen Kategorisierungsniveaus zur selben Kategorie gehören. Bei der Kategorisierung auf dem Niveau individueller Identität bildet jedes einzelne visuelle Objekt eine eigene Kategorie. Diese Kategorisierung stellt den größten Anspruch an die visuelle Objektverarbeitung.

Obwohl für die meisten Objekte eine spontane Kategorisierung auf dem Basisniveau stattfindet, gibt es unter bestimmten Bedingungen Abweichungen davon. Dann werden Objekte nicht mehr spontan auf dem Basisniveau, sondern auf dem untergeordneten oder individuellen Niveau erkannt. Um diese Abweichungen zu berücksichtigen, wurde der Begriff `entry point level` vorgeschlagen (Jolicoeur, Gluck und Kosslyn, 1984), der für jedes Objekt das individuelle Kategorisierungsniveau bezeichnet, auf dem spontanes Erkennen und Benennen und somit der erste Kontakt mit dem semantischen Gedächtnis stattfindet. Eine Abweichung vom üblichen Basisniveau findet beim Erkennen von Gesichtern statt. Empirische Studien zeigen, daß Menschen Gesichter in Abgrenzung zu den meisten anderen Objekten spontan auf dem Niveau individueller Identität erkennen (Tanaka, 2001) und somit für die Gesichterwahrnehmung im Vergleich zu anderen Objekten eine Verschiebung des `entry point level` auf das Niveau der individuellen Identitätserkennung stattgefunden hat (z.B. Gauthier et al., 2000a). Eine ebensolche Verschiebung findet auch bei anderen visuellen Objekten, wenn Menschen für diese Experten sind, statt. Experten für visuelle Objekte, etwa für Autos, verarbeiten diese Objekte spontan nicht auf dem Basisniveau, sondern auf dem untergeordneten oder auf dem individuellen Niveau.

↓10

Auf neuronaler Ebene zeigt sich die Expertise für visuelle Objekte in der verstärkten Rekrutierung von Gehirnarealen in der Objektverarbeitung, die normalerweise Gesichterspezifität zeigen (Gauthier et al., 1999) wie etwa dem fusiformen Gesichterareal (Kanwisher et al., 1997). Eine völlige Gleichheit der Verarbeitung von Expertenobjekten und Gesichtern im Gehirn konnte dennoch nicht gezeigt werden. Unterschiede bestanden zum Beispiel in der Lateralisierung der Verarbeitung im Gehirn, die für Expertenobjekte eher linkshemisphärisch lateralisiert war, für Gesichter dagegen eine Lateralisierung zur rechten Hemisphäre zeigte (Rossion et al., 2002a).

Die deutliche Präferenz bei der Gesichterverarbeitung für aufrecht dargebotene Gesichter bietet einen weiteren Hinweis darauf, daß Gesichterverarbeitung sich trotz der Ergebnisse zu gesichterähnlicher Verarbeitung bei Expertise von der Verarbeitung anderer Objekte unterscheidet. Beim gesichterspezifisch auftretenden Inversionseffekt, bei dem auf den Kopf gestellte Gesichter sehr viel schlechter als aufrecht gezeigte Gesichter erkannt werden, wird die konfigurale Verarbeitung von Gesichtern besonders unterbrochen, während die Verarbeitung einzelner Gesichtselemente nicht beeinträchtigt ist (Leder und Bruce, 1998). Robbins und McKone (2003) versuchten, Versuchspersonen Expertise für auf den Kopf gestellte Gesichter in einem Training erwerben zu lassen und so den Inversionseffekt zu eliminieren. Trotz dem Durchlaufen von 1100 Trainingsdurchgängen für jedes invertierte Gesicht erreichten die Versuchspersonen für die invertierten Gesichter keine der Verarbeitung von aufrechten Gesichtern äquivalente Verarbeitung, sondern erkannten sie vor allem aufgrund der Beachtung distinkter Einzelelemente und aufgrund des Lernens spezifischer Fotoaufnahmen im Sinne des piktoriellen Codes.

Im Gegensatz zu Modularitätsmodellen (Kanwisher et al., 1997) und Expertenmodellen (Gauthier et al., 1999) der Gesichterverarbeitung nehmen Haxby et al. (2001) an, daß es objektspezifische neuronale Aktivierungsmuster gibt, die weit über objektselektiv reagierenden temporalen Kortex verteilt sind. Dabei zeigen nicht nur Hirnareale mit einer maximalen Reaktion auf eine Objektkategorie eine dafür spezifische Aktivierung, sondern auch andere Hirnareale, die nicht durch diese Kategorie, sondern durch eine andere maximal erregt werden (Haxby et al., 2001). Eine solche Art der neuronalen Kodierung objektspezifischer Repräsentationen, auch Objektformtopogologie (Ishai et al., 1999) genannt, ist im Gegensatz zu modularen Verarbeitungsmodellen in der Lage, eine umfassende Erklärung der Enkodierung aller Arten von Objekten zu geben, indem statt genauer Landkarten objektspezifischer Gehirnareale über weite Hirnareale verteilte Aktivierungsmuster angenommen werden, die je nach Form des Stimulus auf einem Aktivierungskontinuum variieren.

1.5 Das neuronale Netzwerk der Gesichterverarbeitung im occipitotemporalen Kortex

↓11

Gesichterspezifische neuronale Reaktionsmuster wurden im occipitalen und temporalen Kortex gefunden. Obwohl, wie in Kapitel 1.4 dargestellt wurde, nicht klar ist, ob diese Reaktionsmuster nicht Ausdruck besonderer visueller Expertise für die Gesichterverarbeitung sind und auch Areale, die nicht auf Gesichter, sondern auf andere Objekte stärker reagieren, an der Enkodierung wichtiger Gesichtsinformationen beteiligt sind, sollen im folgenden Ergebnisse zu kortikalen Arealen, die möglicherweise ein Netzwerk der Gesichterverarbeitung (Haxby et al, 2000; Haxby et al., 2002) bilden, vorgestellt werden.

1.5.1  Das fusiforme Gesichterareal (FFA)

Der erste Kandidat für ein auf die Gesichterverarbeitung spezialisiertes kortikales Areal war der mittlere Teil des Gyrus fusiformis im inferotemporalen Kortex, der für Gesichter von Menschen und Tieren im Vergleich zu anderen visuellen Objekten, Mustern und zu Gesichtern, bei denen die Einzelelemente vertauscht wurden (randomisierte Gesichter), eine verstärkte Aktivierung zeigte und `fusiform face area` (FFA) genannt wurde (Kanwisher et al., 1997; Kanwisher, Stanley und Harris, 1999). Die gesichterspezifische Reaktionsweise des FFA ist am deutlichsten in der rechten Hemisphäre zu beobachten, wurde aber symmetrisch dazu auch in der linken Hemisphäre gefunden (z.B. Gauthier et al., 2000a; Puce, Allison, Gore und McCarthy, 1995; Puce, Allison, Asgari, Gore und McCarthy, 1996). Das gesichterspezifische Aktivierungsmuster im FFA ist nicht von basalen Eigenschaften der visuellen Stimuli wie ihren räumlichen Frequenzen abhängig (George et al., 1999), sondern unter anderem an die subjektive Wahrnehmung eines Gesichts gebunden, wie sich in der Aktivierungsverstärkung bei Erkennen des Gesichts in der Rubin´schen Vase zeigte; in der Rubin`schen Vase kann der derselbe Stimulus entweder als Vase oder als Gesicht wahrgenommen werden (Hasson, Hendler, Bashar und Malach, 2001). Ein Beispiel für eine Rubin’sche Vase ist in Abbildung 1.4 dargestellt.

↓12

Abbildung 1.4: Beispiel für eine Rubin’sche Vase

In der Frage, welchen genauen Schritt der Gesichterverarbeitung das fusiforme Gesichterareal denn nun leistet, vertraten Kanwisher, Downing, Epstein und Kourtzi (2001) die Auffassung, daß seine Rolle hauptsächlich in der Entdeckung von Gesichtern in Abgrenzung zu anderen visuellen Objekten läge. Weitere Studien zeigten jedoch, daß das FFA nicht nur an der Entdeckung von Gesichtern, sondern auch an ihrer individuellen Identifizierung beteiligt ist (Hoffman und Haxby, 2000; Grill-Spector et al., 2004). Die Reaktionsweise des FFA zeigt zudem eine Veränderung bei der Wiederholung von bekannten, visuell gelernten und unbekannten Gesichtern nicht nur für dieselben (Leveroni et al., 2000; Rossion et al., 2003b; Gauthier et al., 2000a; Gauthier et al., 2000), sondern auch für unterschiedliche Aufnahmen desselben Gesichts (Winston, Henson, Fine-Goulden und Dolan, 2004) und weist damit auch auf eine Beteiligung dieses Areals an Gedächtnisprozessen für Gesichter hin. Somit sind im Gyrus fusiformis nicht nur verschiedene Teilstufen der strukturellen Enkodierung im Sinne des Bruce und Young (1986)-Modells angesiedelt (siehe Kapitel 1.1), sondern er ist möglicherweise auch am Zugriff auf die Face Recognition Units beim Erkennen bekannter Gesichter und an der Gedächtnisverarbeitung für unbekannte Gesichter beteiligt. Abbildung 1.5 zeigt die Lage des fusiformen Gesichterareals anhand gesichterselektiver Aktivierungen im fMRT in zwei verschiedenen Kortexansichten. Die obere Ansicht zeigt eine dreidimensionale Kortexansicht, die untere Ansicht ist aus einer virtuellen Auffaltung des Kortex in den zweidimensionalen Raum entstanden. Die Abbildung ist Haxby et al. (2000) entnommen und zeigt gesichter- und objektselektive Aktivierungen im fMRT für eine Versuchsperson. Gelbe und rote Areale zeigen gesichterselektive Aktivierung, blaue Areale zeigen objektselektive Aktivierung.

1.5.2 Das occipitale Gesichterareal (OFA)

↓13

Neben dem Gyrus fusiformis sind auch andere Areale des occipitalen und temporalen Kortex an der visuellen Analyse von Gesichtern beteiligt (Gauthier et al., 2000a, Haxby et al., 2000, Rossion et al., 2003a). Dabei scheinen vor allem die Gyri occipitales inferiori, auch occipital face area (OFA) genannt (z.B. Gauthier et al., 2000a) und der Sulcus temporalis superior (STS; z.B. Winston et al., 2004) gemeinsam mit dem Gyrus fusiformis ein Netzwerk der Gesichterverarbeitung zu bilden (Haxby et al., 2000). Abbildung 1.5 zeigt die Positionen aller drei Areale.

Abbildung 1.5: Kortikales Netzwerk der Gesichterverarbeitung im fMRT.

Das OFA wurde analog zum FFA über Aktivierungsunterschiede zwischen Gesichtern und anderen visuellen Objekten im fMRT bestimmt (z.B. Gauthier et al., 2000a; Rossion et al., 2003a). Es liegt rechts- und linkshemisphärisch im occipitalen Kortex und stellt im ventralen Objektverarbeitungsweg (siehe Kapitel 1.2) örtlich gesehen eine relativ frühe Station der Verarbeitung dar. Deshalb wurde zunächst nicht angenommen, daß das OFA schon an komplexen Prozessen der Gesichterverarbeitung wie etwa der Enkodierung ihrer individuellen Identität beteiligt ist (Haxby et al., 2000). Haxby et al. (2000) sehen die Rolle des OFA stattdessen in der Enkodierung der Einzelelemente von Gesichtern und als Bereiter neuronalen Inputs in die beiden weiter anterior gelegenen und damit möglicherweise nachgeschalteten Areale Gyrus fusiformis (FFA) und Sulcus temporalis superior (STS).

↓14

Diese Erklärung scheint allerdings zu kurz gegriffen und basiert nicht unbedingt auf empirischen Ergebnissen zum Aktivierungsmuster des occipitalen Gesichterareals. Dieses zeigt deutliche Ähnlichkeit mit dem des fusiformen Gesichterareals: es ist in derselben Reaktionsweise wie das FFA an der Entdeckung von Gesichtern, an der Feststellung von deren individueller Identität und an Gedächtnisprozessen für Gesichter beteiligt (z.B. Gauthier et al., 2000a; Grill-Spector et al., 2004). Grill-Spector et al. (2004) stellten deshalb die These auf, daß die Entdeckung von Gesichtern ohne ihre individuelle Identifikation ausreiche, um sowohl OFA als auch FFA zu aktivieren, die Identifizierung von Gesichtern jedoch eine noch stärkere Aktivierung in beiden Arealen auslöse und ihnen beiden damit eine wesentliche Rolle beim Erkennen individueller Gesichter zukomme.

1.5.3 Der Sulcus temporalis superior (STS)

Während occipitales und fusiformes Gesichterareal eher an der Verarbeitung invarianter Gesichtsaspekte beteiligt sind, wird der Region um den Sulcus temporalis superior die Rolle der Verarbeitung veränderbarer Aspekte von Gesichtern zugeschrieben (Haxby et al., 2002). Im Vergleich von Gesichtern mit anderen Objekten zeigt diese Region wie auch FFA und OFA eine stärkere Aktivierung für Gesichter, die auf einen gewissen Grad an Gesichterspezifität hindeutet, aber die Stärke der Reaktion zeigt weder einen Zusammenhang mit der Identifizierung von Gesichtern noch mit dem subjektiven Erkennen von Gesichtern aus einer Reihe von visuellen Objekten (Grill-Spector et al., 2004). Haxby et al. (2002) nahmen an, daß der STS generell an der Verarbeitung veränderbarer Gesichtsaspekte wie dem Gesichtsausdruck und am Lesen der Lippenbewegungen beim Sprechen beteiligt sei. Neueste Ergebnisse aus fMRT-Studien (Winston et al., 2004) bestätigten diese Annahme teilweise, indem sie demonstrierten, daß eine mittlere Region des STS eine reduzierte Reaktionsstärke bei wiederholtem Gesichtsausdruck unabhängig von der Wiederholung der Identität der Gesichter zeigt. Innerhalb des STS besteht aber eine funktionelle Differenzierung: eine posteriore Region des STS zeigte in derselben Studie (Winston et al., 2004) ebenso wie das fusiforme Gesichterareal eine reduzierte Aktivierung für die Wiederholung der Gesichtsidentität unabhängig vom Ausdruck der Gesichter und war damit auch an der Verarbeitung invarianter Gesichtsinformationen beteiligt.

↓15

Abgesehen vom sogenannten Kernsystem der Gesichterverarbeitung, das die visuelle Analyse von Gesichtern vornimmt, leistet ein erweitertes System (Haxby et al., 2002), zu dem etwa Hippocampus und präfrontaler Kortex gehören (Leveroni et al., 2000), die Verarbeitung von Informationen, die für das Erkennen von Personen und soziale Interaktionsprozesse von Bedeutung sind. Insgesamt ist zu Theorien vom Netzwerk der Gesichterverarbeitung jedoch anzumerken, daß weder die genaue Anzahl der an der Verarbeitung beteiligten Areale noch ihre funktionale Aufteilung bislang vollständig geklärt sind (Haxby et al., 2000).

1.6 Elektrophysiologische Korrelate der Gesichterverarbeitung

fMRT- und PET-Studien können zwar die Orte, an denen Gesichterverarbeitung im Gehirn abläuft, mit hoher Präzision bestimmen, aber die zeitliche Auflösung beider Methoden liegt im Bereich von Sekunden. Somit erlauben beide Methoden keine Aufschlüsselung der zeitlichen Dynamik der Gesichterverarbeitung. Ein hämodynamisches Reaktionsmuster, das in einem Hirnareal mittels fMRT gefunden wird, spiegelt möglicherweise mehrere einzelne Verarbeitungsschritte wieder, die sukzessive in dem Hirnareal aufeinander folgen, mittels fMRT jedoch nicht voneinander getrennt werden können. Eine Möglichkeit, die zeitliche Dynamik der Gesichterverarbeitung zu untersuchen, bieten elektrophysiologische Messungen. Diese messen elektrische Spannungsveränderungen im Gehirn (Messungen mit intracerebralen Elektroden) und an der Kopfoberfläche (Elektroenzephalogramm, EEG) oder Magnetfelder an der Kopfoberfläche (Magnetenzephalogramm, MEG), die alle durch elektrische Dipolfelder an aktiven kortikalen Neuronen generiert werden (zu den genauen Messanordnungen von MEG und EEG, wie sie in der vorliegenden Arbeit eingesetzt wurden, siehe Kapitel 3.6.1 und 3.6.2). Diese Verfahren besitzen eine zeitliche Auflösung im Bereich von Millisekunden und ermöglichen somit die Untersuchung einzelner Schritte der Gesichterverarbeitung.

1.6.1  Messungen mit intracerebralen Elektroden

Elektrophysiologische Ableitungen mit intracerebralen Elektroden haben gegenüber Ableitungen von der Kopfoberfläche den Vorteil, daß die genauen Orte, an denen elektrophysiologische Korrelate kognitiver Aktivität entstehen, bei ihnen bekannt sind. Solche Ableitungen können aus ethischen Gründen nicht bei gesunden Personen durchgeführt werden, sondern werden vor allem bei Patienten mit Temporallappenepilepsie zur Lokalisierung anfallauslösender Neuronen eingesetzt. Zusätzlich zum klinisch-diagnostischen Einsatz entsteht hier die Möglichkeit, elektrophysiologische Korrelate kognitiver Verarbeitung direkt an ihren Entstehungsorten zu messen.

↓16

Die Forschergruppe um Allison, Puce und McCarthy hat in einer Serie von Studien mit intracerebralen Elektroden (Allison et al., 1994; Allison, Puce, Spencer und McCarthy, 1999; McCarthy, Puce, Belger und Allison, 1999; Puce, Allison und McCarthy, 1999; Allison, Puce und McCarthy, 2002) die Eigenschaften gesichtssensitiver ereigniskorrelierter Potentiale von der Oberfläche des occipitalen und temporalen Kortex im Vergleich zu anderen visuellen Stimuli untersucht. Die Autoren fanden zunächst ein gesichterspezifisches Potential im inferotemporalen Kortex bei 200 ms nach Stimulusdarbietung (N200; Allison et al., 1994), das überwiegend in rechts- und linkshemisphärischem Gyrus fusiformis, aber auch in rechtem und linkem Gyrus temporalis inferior generiert wurde (Allison et al, 1999). Die N200-Aktivierung erstreckte sich für die Patientengruppe über weite Teile des Gyrus fusiformis (Talairachkoordinaten anterior: y = -24 bis zu posterior: y = -91; Allison et al., 1999). Die Orte der N200-Aktivierung bei den einzelnen Patienten sind in Abbildung 1.6 links dargestellt. Die Abbildung ist aus Allison et al. (1999) entnommen und zeigt das Modell eines Kortex in Ansicht von unten und die Lage der N200-Orte für die Einzelpersonen anhand schwarzer Punkte. Die über die gesamte Patientengruppe gemittelten Orte der N200 sind in jeder der beiden Hemisphären anhand eines weißen Kreuzes dargestellt.

Die Amplitude der N200 war in rechter und linker Hemisphäre gleich groß, aber das Areal, in dem die gesichterspezifische N200 gemessen wurde, war in rechter Hemisphäre größer als in linker (Allison et al., 1999). Die N200 zeigte sich unabhängig von basalen Bildeigenschaften wie der Farbigkeit des Bildes. Sie war gesichterspezifisch für Menschen- und Tiergesichter, zeigte die stärkste Amplitude bei der Darbietung ganzer Gesichter in Frontal- und ¾-Ansicht und eine kleinere Amplitude bei ihrer Profilansicht und bei Darbietung einzelner Gesichtselemente; sie wurde nicht durch die Bekanntheit der Gesichter (berühmte vs. unbekannte) und die Blickrichtung der Augen im dargebotenen Gesicht beeinflusst (McCarthy et al., 1999). Abbildung 2.6 zeigt rechts die Reaktionseigenschaften der N200 für verschiedene visuelle Stimuli. Die Abbildung ist aus McCarthy et al. (1999) entnommen. Die Wiederholung von Gesichtern und andere experimentelle Aufgaben, bei denen die Stimuli im Hinblick auf gespeicherte Repräsentationen verarbeitet wurden, hatten nur wenig Einfluss auf die N200-Amplitude (Puce et al., 1999).

Abbildung 1.6: Orte und Reaktionseigenschaften intracerebraler gesichterspezifischer N200-Potentiale im Gyrus fusiformis.

↓17

Die N200 wurde aufgrund ihrer Reaktionseigenschaften als Korrelat struktureller Enkodierung von Gesichtern angesehen, wobei sie vor allem der Stufe konfiguraler Enkodierung von Gesichtsinformationen zugeordnet wurde (McCarthy et al., 1999). Eine spätere Verarbeitungsstufe wie die Speicherung von Langzeitgedächtnisinhalten für bekannte Gesichter sahen McCarthy et al. (1999) in diesem Potential nicht repräsentiert, da die N200 keinen Unterschied zwischen bekannten und unbekannten Gesichtern zeigte.

Das N200-Potential war an gesichterspezifischen N200-Orten des Gyrus fusiformis in die folgende Potentialsequenz eingebettet (Puce et al., 1999): Positivierungen ohne Gesichterspezifität zeigten sich bei 150 ms (P150) und 288 ms (P290). Die P150 wurde durch die Farbe des Bildes beeinflusst, zeigte aber wie auch die N200 keine Effekte kognitiver Verarbeitung. Die P290 war das zeitlich erste Potential, das solchen Einflüssen klar unterlag. Eine zeitlich später auftretende, länger anhaltende Negativierung mit einer mittleren Latenz von 690 ms (N700) hatte einen frühen Anteil bei 450 ms und einen späten Anteil bei 750 ms und war an der Hälfte der Ableitungsorte im Gyrus fusiformis gesichterspezifisch (Allison et al., 1999). Die N700 zeigte eine Amplitudenabnahme bei Wiederholung desselben Gesichts, während sie in geringerem Maße durch Stimuluseigenschaften wie die Darbietungsform des Gesichts (Zeichnung oder Foto) beeinflusst wurde (McCarthy et al., 1999). Die Reaktionseigenschaften von N200, P290 und N700 bei Darbietung unterschiedlicher visueller Stimuli sind in Abbildung 1.7 gezeigt. Die Abbildung ist entnommen aus Allison et al. (1999).

Abbildung 1.7: Potentialverlauf und gesichterspezifische Eigenschaften von intracerebraler N200, P290 und N700 an gesichterspezifischen Orten des Gyrus fusiformis.

↓18

An mittleren und anterioren Orten des Gyrus fusiformis, im lateralen Gesichterareal und im rechten anterioren ventralen Temporallappen wurde eine gesichterspezifische Positivierung bei circa 344 ms (P350) gefunden, die wie P290 und N700 durch kognitive Verarbeitung beeinflusst wurde (Allison et al., 1999), aber ebenfalls keine Unterschiede zwischen berühmten und unbekannten Gesichtern zeigte. Insgesamt sind frühe intracerebrale ereigniskorrelierte Potentiale der Gesichterverarbeitung im Gyrus fusiformis bis etwa 250 ms eher durch Stimuluseigenschaften wie etwa die Farbe und die Ansichtsperspektive des Gesichts beeinflusst, während sie wahrscheinlich noch nicht durch höhere kognitive Verarbeitung wie Gedächtnisprozesse beeinflusst werden. Sie besitzen jedoch eine deutliche Gesichterspezifität (vor allem die N200). Innerhalb des Gyrus fusiformis scheint sich die gesichterspezifische Aktivierung im Laufe der Stimulusverarbeitung von Aktivierung im gesamten Gyrus fusiformis auf der Ebene der N200 tendenziell zu vorderen Arealen (Orte der P350) zu verlagern, obwohl auch zu späten Zeitpunkten (N700) Aktivierung im gesamten Gyrus fusiformis gemessen wird. Spätere gesichterspezifische Potentiale (P350 und N700) im Gyrus fusiformis werden überwiegend durch kognitive Prozesse beeinflusst und stellen somit möglicherweise elektrophysiologische Korrelate der Gedächtnisverarbeitung und der semantischen Verarbeitung von Gesichtern dar.

Halgren, Baudena, Heit, Clarke und Marinkovic (1994) führten ebenfalls intracerebrale Ableitungen bei Epilepsiepatienten durch. Die Ableitungsorte waren hier weiter über das Gehirn verteilt als bei den Studien der Arbeitsgruppe von Allison, Puce und McCarthy. Im Gyrus fusiformis wurden auch in dieser Studie gesichterspezifische Potentiale registriert. Ein frühes negatives Potential um 130 ms (N130) reflektierte nach Ansicht der Autoren (Halgren et al., 1994) die Enkodierung von Farb- und Kontourinformationen, während eine Positivierung bei 180 ms (P180) als Korrelat früher struktureller Enkodierung von Gesichtern im Sinne der Enkodierung einzelner Gesichtselemente angesehen wurde. Ein Potential bei 240 ms (N240) wurde als funktionelles Korrelat der Integration einzelner Gesichtselemente in ein räumliches Arrangement angesehen und stellt somit nach dem Gesichterverarbeitungsmodell von Bruce und Young (1986) einen späteren Teilprozeß struktureller Enkodierung dar, der jedoch bei Allison et al. (1994) schon auf dem Niveau der N200 angenommen wurde. Eine weitere Sequenz von Potentialen, die im Gyrus fusiformis Gesichterspezifität zeigten, waren spätere, länger anhaltende Potentialverschiebungen mit Peaks bei 310 ms (N310), 430 ms (N430) und 630 ms (P630). Diese Komponenten traten auch in anderen kortikalen Arealen wie etwa Amygdala und Hippocampus auf, waren dort aber nicht mehr gesichterspezifisch (Halgren et al., 1994). Sie indizieren möglicherweise spätere kognitive Verarbeitungsstufen wie semantische Gedächtnisprozesse.

Im Vergleich der Studien beider hier genannter Arbeitsgruppen (Allison, Puce, McCarthy usw. und Halgren, Clarke, Marinkovic usw.) zeigen sich Analogien in der Sequenz früher Potentiale im Gyrus fusiformis – P150 und N200 bei Allison et al. (1999) und N130 und P180 bei Halgren et al. (1994). Die umgekehrte Polarität und leicht verschobene Latenz der Potentiale zwischen beiden Studien ist vermutlich durch die unterschiedlichen Ableitungsorte zu erklären: während Allison et al. (1999) von der Oberfläche der Gyri (graue Substanz) ableiteten, wurden die Elektroden bei Halgren et al. (1994) in der weißen Substanz platziert. Die Reaktionseigenschaften der Potentiale waren in beiden Studien ähnlich: P150 und N130 reflektierten die Verarbeitung von Farbinformationen, während die strukturelle Enkodierung von Gesichtern um 180 bis zu 240 ms angenommen wurde. Dabei zeigten P180 (Halgren et al., 1994) und N200 (Allison et al., 1999) die stärkste Gesichterspezifität. Spätere Komponenten (z.B. N430 und P350) wurden als Ausdruck höherer kognitiver Verarbeitungsprozesse wie der Enkodierung von Stimuluswiederholung interpretiert.

↓19

Die Ergebnisse dieser intracerebralen Studien erhellen die zeitliche Dynamik des in Kapitel 1.5 skizzierten neuronalen Netzwerks der Gesichterverarbeitung im occipitotemporalen Kortex (Haxby et al., 2000), dessen Teile unter anderem im Gyrus fusiformis und im lateralen temporalen Kortex angenommen werden. Der Gyrus fusiformis wurde in fMRT-Studien mit der Verarbeitung unveränderlicher Aspekte von Gesichtern in Verbindung gebracht (z.B. Winston et al., 2004). Dabei scheint er nicht nur die perzeptuelle Enkodierung von Gesichtern im Sinne eines strukturellen Enkodierungsprozesses bei 200 ms nach Gesichtsdarbietung (N200) vorzunehmen, sondern auch an gesichterspezifischer höherer kognitiver Verarbeitung wie der Verarbeitung von Gesichterwiederholung bei 350 ms und 700 ms beteiligt zu sein.

1.6.2 Ereigniskorrelierte Potentiale der Gesichterverarbeitung im EEG

Ereigniskorrelierte Potentiale (ERP) werden aus stimulusbezogenen Mittelungen des Oberflächen-EEG gebildet. Das kontinuierlich aufgezeichnete EEG wird zur Berechnung ereigniskorrelierter Potentiale in einzelne, auf den Stimulusbeginn bezogene Epochen geschnitten. Für jede Epoche wird aus dem Zeitraum vor Stimulusbeginn ein mittlerer Potentialwert berechnet, die Baseline, die vom Potentialverlauf während der Stimulusdarbietung für jeden EEG-Datenpunkt abgezogen wird. Für die ERP-Mittelung wird dann über alle einer experimentellen Bedingung zugehörigen Epochen gemittelt.

↓20

Während Potentiale in intracerebralen Ableitungen (siehe Kapitel 1.6.1) die Aktivierung einer umschriebenen Neuronenpopulation abbilden, reflektiert ein an der Kopfoberfläche gemessenes ERP meist das Zusammenspiel mehrerer zu einem Zeitpunkt aktiver neuronaler Generatoren. Der Grund dafür ist die elektrische Leitfähigkeit der zwischen neuronalen Generatoren und Elektroden liegenden Strukturen wie cerebrospinale Flüssigkeit, Schädelknochen und Kopfhaut, die an Neuronen generierte Ionenströme über weite Strecken weiterleiten und sie damit auch an weiter von der neuronalen Quelle entfernten Orten messbar werden lassen. Die Ursprungsorte einzelner Potentiale können bei Ableitungen des Oberflächen-EEG nicht genau bestimmt werden, da eine im EEG gemessene Aktivierung letztlich aus einer unendlichen Anzahl verschiedener neuronaler Quellkonfigurationen entstehen kann. Dennoch können die Hirnareale, durch deren Aktivität EEG-Felder generiert werden, in einer sogenannten Quelllokalisation modelliert werden. Ergebnisse zur Quelllokalisation von gesichtersensitiven Potentialen des EEG werden in Kapitel 1.7 dargestellt. Zunächst sollen jedoch funktionelle Eigenschaften ereigniskorrelierter Potentiale dargestellt werden. Solche Eigenschaften werden üblicherweise anhand der Untersuchung von Unterschieden in Amplituden und Latenzen ereigniskorrelierter Potentiale zwischen experimentellen Bedingungen ermittelt.

Für die Darbietung von Gesichtern als Stimuli zeigen sich im ERP charakteristische Potentialverläufe, die eine deutliche Ähnlichkeit zu den in Kapitel 1.6.1 vorgestellten intracerebralen Potentialverläufen aufweisen. Dabei ist im ERP ist auf Gesichterdarbeitung an über dem Hinterkopf platzierten EEG-Elektroden eine Potentialsequenz mit eindeutigen Peaks bei 100 ms (P100), 170 ms (N170) und 200 ms (P200) zu erkennen, die von späteren länger anhaltenden Negativierungen ab circa 250 ms gefolgt wird. Diese Potentialsequenz dreht ihre Polarität ab der Elektrode CZ nach weiter vorne am Kopf hin um und ist mit umgekehrtem Vorzeichen an frontalen Elektroden zu beobachten. Abbildung 1.8 zeigt ein Beispiel für die Potentialsequenz bei Gesichterdarbietung an der temporalen Elektrode T6.

Abbildung 1.8: Potentialsequenz im ERP bei Gesichterdarbietung am Beispiel von Elektrode T6 und Position der Elektrode T6 in Kopfansicht von oben.

↓21

1.6.2.1  P100

Eine positive Verschiebung bei 100 ms (P100) ist die zeitlich erste deutliche ERP-Komponente, die nach der Darbietung von Gesichtern auftritt. Die P100 ist an rechts- und linkshemisphärischen occipitalen EEG-Elektroden (z.B. O1 und O2) am stärksten ausgeprägt. Üblicherweise wird angenommen, daß diese Komponente noch keine gesichterspezifische Verarbeitung reflektiert, sondern sowohl bei Objekt- als auch bei Gesichterverarbeitung die Enkodierung von basalen Stimulusmerkmalen in frühen extrastriären Arealen des ventralen Verarbeitungsweges (siehe Kapitel 1.2) abbildet.

Jemel et al. (2003b) etwa zeigten, daß P100-Peaklatenz und -amplitude sich durch linear zunehmendes Bildrauschen, das über Gesichtsabbildungen gelegt wurde und die Gesichter schließlich unkenntlich machte, nicht veränderten und die P100 somit nicht zwischen Gesichtern und Bildrauschen unterschied. P100-Latenz und -Amplitude zeigen keine Unterschiede zwischen unbekannten Gesichtern und Gesichtern berühmter Personen (z.B. Jemel, Calabria, Delvenne, Crommelinck und Bruyer, 2003) oder zwischen unbekannten und persönlich bekannten Gesichtern (z.B. Herzmann, Schweinberger, Sommer und Jentzsch, 2004) bei ihrer einmaligen Darbietung. Die Wiederholung von persönlich bekannten, berühmten oder unbekannten Gesichtern hatte ebenfalls in den meisten Studien keine Effekte auf die P100 (z.B. Schweinberger, Pickering, Jentzsch, Burton und Kaufmann, 2002a).

1.6.2.2 N170

↓22

Die N170 zeigt sich im EEG um 170 ms nach Gesichtsdarbietungen als Negativierung an Elektroden über links- und rechtshemisphärischen hinteren Gehirnarealen. Sie ist besonders an occipitotemporalen Elektroden (T5, T6, PO9, PO10) ausgeprägt und tritt nicht nur auf Bildansichten, die Gesichter als alleinigen Stimulus enthalten, auf, sondern auch, wenn Gesichter inmitten natürlicher Bildkontexte wie Landschaften dargeboten werden (Rousselet, Macé und Fabre-Thorpe, 2004) und ist dann deutlich größer, als wenn die Bildkontexte kein Gesicht enthalten. Die N170 hat, obwohl sie über beiden Hemisphären auftritt, über der rechten Hemisphäre meist eine größere Amplitude als über der linken Hemisphäre (z.B. Jemel et al., 2003b) und zeigt damit die auch in fMRT-Studien (z.B. Kanwisher et al., 1997) öfter gefundene Tendenz zur Rechtslateralisierung der Gesichterverarbeitung im Gehirn.

Die N170 ist die zeitlich erste Verarbeitungsstufe im ERP, die im Vergleich zu anderen visuellen Stimuli konsistent über viele Studien eine klare Sensitivität für Gesichter von Menschen (z.B. Itier und Taylor, 2004b) und Tieren (Rousselet, Macé und Fabre-Thorpe, 2004; Carmel und Bentin, 2002; Jemel et al., 2003b) zeigte. Andere komplexe Objekte können ebenfalls eine N170 evozieren, aber deren Amplitude ist im Vergleich zur N170 auf Gesichterdarbietungen in den meisten Studien signifikant kleiner (z.B. Eimer, 1998; Rossion et al., 2003a; Bötzel, Schulze und Stodieck, 1995), obwohl einzelne Studien (z.B. Schweinberger, Huddy und Burton, 2004) keinen Unterschied zwischen Gesichtern und anderen visuellen Objekten auf der N170 fanden. Innerhalb der Darbietung von Gesichtern als Stimulusklasse unterscheidet die N170 nicht zwischen verschiedenen Arten von Gesichtern wie Fotos und Strichzeichnungen (Sagiv und Bentin, 2001).

Die Gesichtersensitivität der N170, die bei gesunden Personen zu erkennen ist, zeigt sich bei prosopagnostischen Patienten nicht (Kress und Daum, 2003). Sie haben für Gesichter und andere visuelle Objekte gleich große Potentialamplituden. Angesichts der Tatsache, daß die Prosopagnosie wahrscheinlich ein gesichterspezifisches Defizit darstellt, das nicht im bloßen Erkennen von Gesichtern in Abgrenzung zu anderen visuellen Objekten liegt, sondern im Erkennen ihrer individuellen Identität, spricht die fehlende Selektivität der N170 für Gesichter für eine Bedeutung dieser Komponente in der Feststellung individueller Identität von Gesichtern.

↓23

Die N170 reagiert bei gesunden Personen nicht nur sensitiv auf die Präsenz von Gesichtern im Vergleich zu anderen Objekten, sondern auch auf die Ansichtsperspektive von Gesichtern und Köpfen und die Anzahl und Art der gezeigten Gesichtselemente: die Potentialamplitude ist verringert, wenn der Kopf so gedreht ist, daß interne Gesichtselemente nicht mehr zu erkennen sind (Eimer, 1998), aus Frontalansichten von Gesichtern entfernt sind (Eimer, 2000a) oder wenn nur interne Gesichtselemente (Nase, Mund und Augen) gezeigt werden (Eimer, 2000a). Der Inversionseffekt zeigt sich im ERP auf der Stufe der N170: wenn menschliche Gesichter um 180 Grad gedreht gezeigt werden, tritt die Komponente mit verzögerter Latenz (z.B. Rousselet et al., 2004; Rossion et al., 2003) und in einigen Studien auch mit größerer Amplitude auf (z.B. Rossion et al., 1999).

Insgesamt weisen die Reaktionseigenschaften der N170 – ihre Gesichterspezifität, ihre Sensitivität für Veränderungen in den Stimuluseigenschaften wie den Wechsel der Ansichtsperspektive von Gesichtern, und der Inversionseffekt – darauf hin, daß die N170 funktionelles Korrelat einer visuell-perzeptuellen Verarbeitungsstufe von Gesichtern ist. Diese Stufe ist vor abstraktere kognitive Verarbeitung wie etwa die Aktivierung semantischer Gedächtnisinhalte für die einem Gesicht zugehörige Person geschaltet. Ereigniskorrelierte Komponenten solcher kognitiven Verarbeitungsstufen liegen relativ spät im ERP und beginnen ab circa 300 ms nach Beginn der Stimulusdarbietung. Sie variieren nicht mehr mit Veränderungen in den Stimuluseigenschaften wie der Ansichtsperspektive oder unterschiedlichen Aufnahmen desselben Gesichts (z.B. Jemel et al., 2003b).

Die N170 wurde als extracerebrales Analogon von intracerebraler P180 (Halgren et al., 1994) und N200 (Allison et al., 1994) angesehen, da sie etwa im selben Zeitbereich wie die beiden Potentiale auftritt und ähnliche funktionale Eigenschaften zeigt. Ihre Eigenschaften lassen die N170 wie auch P180 und N200 als elektrophysiologischen Indikator struktureller Enkodierung von Gesichtern erscheinen (z.B. Bentin und Deouell, 2000; Eimer, 1998; Eimer, 2000), bei der die individuellen Charakteristika eines Gesichts verarbeitet und somit Gesichter auf individuellem Niveau erkannt werden (Caharel et al., 2002; Rossion und Gauthier, 2002). Im Modell der Gesichterverarbeitung von Bruce und Young (1986) ist die strukturelle Enkodierung aus mehreren Teilprozessen zusammengesetzt. Dazu gehören die Unterscheidung Gesicht – anderes Objekt, die Enkodierung einzelner Gesichtselemente und die Verarbeitung konfiguraler Gesichtsinformationen. Es wird angenommen, daß die N170 eher Korrelat später struktureller Enkodierung wie der konfiguralen Verarbeitung von Gesichtern oder der Enkodierung ihrer Einzelelemente ist (Eimer, 2000a). Bislang wird noch diskutiert, ob die N170 einen der beiden Prozesse – konfigurale Enkodierung (Rossion et al., 1999a) oder Enkodierung der Einzelteile (Sagiv und Bentin, 2001) – oder sogar beide Prozesse gemeinsam reflektiert und somit eine aus mehreren Teilprozessen zusammengesetzte Komponente ist (Shibata et al., 2002).

↓24

Sehr wahrscheinlich reflektiert die N170 jedoch nicht die Verarbeitungsstufe, auf der ein Erkennen bekannter Gesichter im Sinne der Abgleichung eines gesehenen Gesichts mit den Face Recognition Units im Sinne von Bruce und Young (1986) abläuft. Die N170 unterscheidet nicht zwischen einmalig gezeigten bekannten und unbekannten Gesichtern (Eimer, 2000; Jemel et al., 2003), und mehrere Studien fanden keinen Einfluß einer direkten Wiederholung bekannter oder unbekannter Gesichter (Eimer, 2000; Schweinberger et al., 2004) auf die N170. Unter bestimmten Bedingungen lassen sich jedoch Amplitudenveränderungen der N170 bei der Wiederholung unbekannter (Itier und Taylor, 2002) und persönlich bekannter oder berühmter Gesichter (Jemel, Pisani, Calabria, Crommelinck und Bruyer, 2003a; Herzmann et al., 2004) und des eigenen Gesichts (Caharel et al., 2002) finden. Diese Effekte überleben meist nur Zeiträume von einigen Sekunden zwischen Gesichtswiederholungen. Sie zeigen aber, daß die strukturelle Enkodierung von Gesichtern auf der N170 wahrscheinlich nicht in rein modularer Weise abläuft, sondern daß sie durch höhere kognitive Prozesse wie Erwartungen und Hintergrundwissen beeinflusst werden kann. Die N170-Amplitude wird zum Beispiel auch durch die bewusste Erwartung, daß gesichtsähnliche Muster, etwa zwei Punkte mit einem Strich, ein Gesicht darstellen, beeinflusst. Sie ist dann in ihrer Amplitude im Vergleich zur Wahrnehmung derselben Muster ohne Gesichtserwartung vergrößert (Bentin und Golland, 2002; Bentin, Sagiv, Mecklinger, Friederici und von Cramon, 2002).

1.6.2.3 Vertex Positive Potential (VPP)

Das VPP (z.B. Itier und Taylor, 2004) ist eine Positivierung, die um 150 ms auftritt und maximal am Vertex (Elektrode CZ) ist. Dieses Potential wird vor allem beobachtet, wenn das EEG gegen eine Elektrode am Ohrläppchen oder eine Mastoidelektrode referenziert wird. Das VPP hat eine ähnliche Latenz wie die N170 und besitzt sehr ähnliche Reaktionseigenschaften. Der auf der N170 beobachtbare Inversionseffekt zeigt sich beim VPP in gleicher Weise (Rossion et al., 1999a; Itier und Taylor, 2004). Das VPP wird von einigen Autoren (z.B. George, Evans, Fiori, Davidoff und Renault, 1996; Itier und Taylor, 2004) als positiver Gegenpart der N170 angesehen. Die N170 tritt vor allem auf, wenn gegen eine Nasenelektrode referenziert wird. Joyce und Rossion (2004) untersuchten N170 und VPP systematisch für verschiedene Referenzelektroden und postulierten, daß beide Potentiale dieselbe neuronale Generatorstruktur haben und somit zwei Seiten desselben Phänomens darstellen, die hauptsächlich durch die unterschiedliche Referenzierung evoziert werden. Campanella, Quinet, Bruyer, Crommelinck und Guérit (2000) erklärten teilweise bestehende Unterschiede in den Reaktionseigenschaften zwischen VPP und N170 mit unterschiedlicher Entfernung der Potentiale von ihrem neuronalen Generator: das VPP, das sich an zentralen Elektroden zeigt, liegt dabei weiter entfernt von der Quelle im occipitotemporalen Kortex (siehe dazu Kapitel 2.7.1) als die N170 an temporalen Elektroden und spiegelt dann möglicherweise experimentelle Effekte nicht in derselben Deutlichkeit wider wie die mit an der Quelle liegende Elektroden gemessene N170.

↓25

1.6.2.4 P2

Die P2 ist das auf die N170 folgende Potential, das als Positivierung an posterioren Elektroden und als Negativierung an frontalen und zentralen Elektroden auftritt. Die Latenz dieses Potentials liegt bei etwa 200 ms bis 250 ms. Erstaunlicherweise ist die P2 sehr viel weniger erforscht worden als die N170, obwohl sie in den meisten Studien (z.B. Horovitz, Rossion, Skudlarski und Gore, 2004) einen klaren positiven Peak darstellt und nicht einfach als eine Rückkehr der N170 zur EEG-Baseline angesehen werden kann. Das geringe Interesse für die P2 erstaunt umso mehr, als daß sich in den Abbildungen der ERP-Kurven in einigen Studien, zum Beispiel bei Eimer (2000a) auf der Ebene der P2 ebenso klare Unterschiede zwischen verschiedenen Gesichterdarbietungsbedingungen oder zwischen Gesichtern und anderen Objekten zeigen wie auf der N170. Ob diese signifikant sind, wird allerdings von den Autoren meist nicht berichtet, da sie dieses Potential wahrscheinlich keiner statistischen Testung zwischen experimentellen Bedingungen unterziehen.

Einzelne Studien haben aber versucht, die funktionale Bedeutung der P2 zu ergründen. Caharel et al. (2002) fanden einen Unterschied in der Potentialamplitude der P2 zwischen Gesichtern unterschiedlicher Bekanntheitsgrade und nannten diesen Effekt „degree of familiarity-effect“: die Amplitude der P2 war an rechten und linken occipitotemporalen Elektroden und an zentralen Elektroden (FZ, PZ und CZ) am geringsten bei mehrmaliger Darbietung eines Bildes des eigenen Gesichts, signifikant größer bei Wahrnehmung eines berühmten Gesichts und am größten bei einem unbekannten Gesicht. Dieser Effekt könnte den Zugriff auf gespeicherte perzeptuelle Langzeitrepräsentationen von Gesichtern reflektieren (Caharel et al., 2002), die am stärksten für das eigene Gesicht sein sollten.

↓26

Jemel et al. (2003) fanden eine Zunahme der P2-Amplitude von Erst- zu Zweitdarbietung bei Gesichterwiederholung für unbekannte, nicht aber für berühmte Gesichter. Dieser Effekt bestand nur für dieselbe Aufnahme und nicht für unterschiedliche Aufnahmen eines Gesichts, so daß sich in dieser Studie im Gegensatz zu Caharel et al. (2002) kein Hinweis auf eine Aktivierung von Langzeitrepräsentationen auf dieser Komponente finden lässt, sondern ein Wiederholungseffekt für spezifische perzeptuelle Repräsentationen eines Gesichts beobachtet wird, der piktorielle oder strukturelle Enkodierungsprozesse reflektieren könnte. Rossion et al. (1999) untersuchten ein von ihnen N2 genanntes Potential, das eine an CZ maximale Negativierung bezeichnet, die nach der N170 bzw. dem VPP bei circa 220 ms auftritt und das negative Äquivalent zur P2 ist. Die N2 war in dieser Studie nicht spezifisch für die Wahrnehmung von Gesichtern, jedoch bei Gesichterwahrnehmung von der experimentellen Aufgabe wie dem Wiedererkennen von Gesichtern im Gegensatz zu einer Geschlechtsentscheidung beeinflusst. Trenner, Schweinberger, Jentzsch und Sommer (2004) fanden sowohl in einer Wiederholungsaufgabe ohne Gedächtnisinstruktion als auch in einer expliziten Gedächtnisaufgabe einen Effekt der Wiederholung an occipitalen und parietooccipitalen Elektroden im Sinne einer verminderten Amplitude bei wiederholten im Vergleich zu neuen Gesichtern, der für die Gedächtnisaufgabe stärker ausgeprägt war. Zusammenfassend sprechen die wenigen Ergebnisse zur P2 / N2 eher für eine nicht gesichterspezifische Komponente, die allerdings durch visuelle Gedächtnisprozesse wie das Wiedererkennen von Stimuli und die Art der kognitiven Aufgabe in einem Experiment beeinflusst wird.

1.6.2.5 N250r

Die N250r ist eine ERP-Komponente, die bislang überwiegend von den Arbeitsgruppen um Sommer und Schweinberger (z.B. Pfütze, Sommer und Schweinberger, 2002; Schweinberger et al., 2002; Schweinberger et al., 2004; Herzmann et al., 2004) berichtet wurde. Bei direkter Wiederholung von Gesichtern konnten sie eine temporal rechtshemisphärisch (deshalb die Bezeichnung N250r) und zentrofrontal ausgeprägtestärkere Negativierung im ERP zwischen 230 ms und 300 ms für berühmte und persönlich bekannte Gesichter (Herzmann et al., 2004), aber auch für unbekannte Gesichter beobachten, die bei zwei bis vier zwischen den Gesichtswiederholungen intervenierenden Gesichtern nur noch für bekannte Gesichter bestand (Pfütze et al., 2002). Dieser Effekt wurde „früher Wiederholungseffekt“ (Early repetition effect, ERE; z.B. Martin-Loeches, Sommer und Hinojosa, 2005) genannt und für Gesichter mit der Aktivierung der Face Recognition Units (Bruce und Young, 1986) in Verbindung gebracht, in denen Langzeitgedächtnisrepräsentationen bekannter Gesichter gespeichert sind.

↓27

Zunächst wurde angenommen, daß der frühe Wiederholungseffekt gesichterspezifisch ist (z.B. Schweinberger et al., 2002). Inzwischen gibt es jedoch Ergebnisse, die einen solchen Effekt auch für die Wiederholung berühmter Gebäude zeigen (Engst, Sommer und Martin-Loeches, 2004). Dieser trat zwar mit geringerer Stärke und späterer Latenz für Gebäude als für Gesichter auf, zeigte aber für beide Stimulusarten dieselbe Topographie. Der ERE zeigt an frontozentralen Elektroden einen Unterschied zwischen verschiedenen Bekanntheitsgraden von Gesichtern. Er ist am stärksten für persönlich bekannte und schwächer für berühmte Gesichter; dieser Unterschied zeigt sich aber nicht an temporalen Elektroden (Herzmann et al., 2004).

Der frühe Wiederholungseffekt verschwindet bei längeren Zeitintervallen von Minuten zwischen Gesichterwiederholungen auch für bekannte Gesichter (Schweinberger et al., 2002a). Er kann damit nicht als Korrelat der Aktivierung reiner Bekanntheit von Gesichtern ohne einen kurzfristigen Gedächtniseffekt aufgrund vorheriger Darbietung angesehen werden, könnte aber dennoch zumindest teilweise die perzeptuelle Langzeitspeicherung von Gesichtern im Sinne eines Zugriffs auf Face Recognition Units (Bruce und Young, 1986) reflektieren, da er für bekannte Gesichter am deutlichsten auftritt und dort auch über längere Zeitintervalle zwischen Wiederholungen besteht als für unbekannte Gesichter. Die Tatsache, daß eine Modulation der N250r auch bei der Wiederholung unbekannter Gesichter abläuft, für die nach Bruce und Young (1986) noch keine Face Recognition Units vorhanden sind, zeigt allerdings, daß sich entweder auch der Aufbau von Langzeitrepräsentationen durch die wiederholte Wahrnehmung von Gesichtern in diesem Zeitbereich widerspiegelt, oder zusätzlich zur Aktivierung von Langzeitrepräsentationen auch kurzfristige Stimuluswiederholungen kodiert werden. Möglicherweise hat der ERE für unbekannte Gesichter aber einen anderen neuronalen Generator als der Effekt für unbekannte Gesichter und ist damit ein qualitativ anderer Effekt (Herzmann et al., 2004).

Ein dem N250r im Zeitbereich ähnlicher Wiederholungseffekt wurde von Begleiter, Porjesz und Wang (1993) und Hertz, Porjesz, Begleiter und Chorlian (1994) gefunden. Beide Studien fanden ein positives Potential an posterioren Elektroden bei etwa 240 ms (C240), das sie visuelles Gedächtnispotential (Visual Memory Potential) nannten. Es trat für Gesichter und andere Arten visueller Stimuli gleichartig auf und indizierte keine gesichterspezifische Verarbeitung (Begleiter et al., 1993). Allerdings war die Potentialamplitude sensitiv für die Wiederholung von Gesichtern. Eine Wiedererkennensaufgabe und die reine Wiederholung unbekannter Gesichter erzeugten gleichartige Amplitudenabnahmen der C240 (Hertz et al., 1994).

↓28

1.6.2.6 ERP-Verschiebungen ab 300 ms

Nach der N250r sind bei Gesichterdarbietung im ERP wie auch in späten Zeitbereichen intracerebraler Potentiale meist keine deutlichen Peaks mehr zu erkennen. Es zeigen sich stattdessen länger andauernde positive oder negative Potentialverschiebungen. In diesen späten Zeitbereichen nach Stimulusbeginn werden in Verhaltensmaßen wie Reaktionszeiten bewusste Erkennens- und Entscheidungsprozesse für Gesichter gemessen (z.B. Herzmann et al., 2004). Die Zeitbereiche reflektieren somit in Relation zum Stimulusanfang späte Prozesse der Gesichterverarbeitung, die auch höhere Prozesse kognitiver Verarbeitung wie etwa das Erkennen von Personen widerspiegeln.

Wie auch die N170 unterscheiden ereigniskorrelierte Potentiale ab 300 ms deutlich zwischen Gesichtern und anderen visuellen Stimuli. Für unbekannte und berühmte Gesichter zeigen sich im Vergleich zu randomisierten Gesichtern stärkere Negativierungen an posterioren Elektroden und stärkere Positivierungen an frontalen Elektroden im Zeitbereich von 400 ms bis 800 ms (Henson et al., 2003). Im Unterschied zu früheren ERP-Komponenten, für die bei einmaliger experimenteller Gesichterdarbietung keine Unterschiede zwischen bekannten im Vergleich zu unbekannten Gesichtern gefunden werden, die den direkten Zugriff auf Langzeitrepräsentationen von Gesichtern unabhängig von Effekten der Gesichterwiederholung indizieren würden, lassen sich in ERP-Verschiebungen ab 300 ms auch bei einmaliger Darbietung der Gesichter deutliche Unterschiede zwischen unbekannten im Vergleich zu berühmten, persönlich bekannten oder allein anhand visueller Darbietung im Experiment gelernten Gesichtern erkennen. Diese Unterschiede werden Bekanntheitseffekt (familiarity effect; z.B. Jemel et al., 2003a) genannt.

↓29

Eimer (2000) zum Beispiel beobachtete zwischen 300 ms und 400 ms nach Stimulusbeginn für berühmte im Vergleich zu unbekannten Gesichtern eine stärkere Positivierung an Elektroden der Mittellinie (PZ und CZ) und an posterioren Elektroden (T5, T6, O1, O2) und nannte diesen Unterschied den N400 familiarity (N400f)-Effekt. Zwischen 500 ms und 700 ms dagegen bestand an denselben Elektroden eine stärkere Negativierung für die berühmten als für die unbekannten Gesichter (P600 familiarity-Effekt; Eimer, 2000). Jemel et al. (2003a) fanden einen dem N400f-Effekt von Eimer (2000) ähnlichen Bekanntheitseffekt, der sich in der Polarität jedoch von Eimers (2000) Effekt unterschied: zwischen 350 ms und 450 ms zeigte sich an posterioren Elektroden eine negativere Amplitude für berühmte als für unbekannte Gesichter, die sich an frontalen Elektroden in eine stärkere Positivierung umkehrte. Bentin und Deouell (2000) fanden den Bekanntheitseffekt vor allem an frontozentralen Elektroden.

Bei Henson et al. (2003) zeigten sich Unterschiede zwischen unbekannten und berühmten Gesichtern nur im späten Zeitbereich von 600 ms bis 800 ms im Sinne einer größeren Positivierung für berühmte im Vergleich zu unbekannten Gesichtern an frontopolaren Elektroden (z.B. FP1 und FP2). Schweinberger et al. (2002) zeigten den Bekanntheitseffekt für berühmte Gesichter dagegen für einen sehr langen Zeitbereich von 300 ms bis 1200 ms mit einer stärkeren Positivierung für berühmte als für unbekannte Gesichter an frontalen, zentralen und parietalen Elektroden und einer stärkeren Negativierung an posterioren Elektroden.

Beim Vergleich unbekannter Gesichter mit Gesichtern von persönlich bekannten oder berühmten Personen bestehen Unterschiede zwischen den Stimuli nicht nur in ihrer visuellen Vertrautheit, sondern es bestehen auch Unterschiede in den semantischen Informationen, die für die zu den Gesichtern gehörigen Personen vorhanden sind. Für unbekannte Gesichter liegen solche Informationen nur in visuell erkennbaren Merkmalen wie etwa der Attraktivität vor, für persönlich bekannte oder berühmte Gesichter besitzen die Versuchspersonen dagegen auch semantische Informationen aus anderen Quellen wie etwa Wissen über den Beruf der Person.

↓30

Die Untersuchung rein visueller Vertrautheit mit bekannten Gesichtern unabhängig von semantischen Informationen kann nur vorgenommen werden, wenn zunächst unbekannte Gesichter rein visuell im Experiment gelernt werden und die gelernten Gesichter mit unbekannten Gesichtern verglichen werden. Der zusätzliche Einfluß verbal vermittelter semantischer Informationen für bekannte Gesichter kann ebenfalls experimentell kontrolliert untersucht werden, wenn zunächst unbekannte Gesichter zusammen mit semantischen Informationen über die Personen gelernt werden.

Paller, Gonsalves, Grabowecky, Bozic und Yamada (2000) führten genau diese experimentelle Manipulation durch und ließen Versuchspersonen unbekannte Gesichter ohne weitere Informationen lernen oder boten unbekannte Gesichter mit einer Stimme dar, die den Namen der Person und eine kurze biographische Information nannte. In einer Wiedererkennensaufgabe wurden die gelernten Gesichter dann zusammen mit neuen Gesichtern gezeigt. Für beide Arten gelernter Gesichter (mit oder ohne verbale Informationen) zeigte sich die visuelle Vertrautheit im Vergleich zu den unbekannten Gesichtern in einer stärkeren Positivierung im Zeitbereich von 300 ms bis 600 ms, die an posterioren und parietalen Elektroden bestand. Hingegen zeigte sich nur für Gesichter, die mit verbalen Personeninformationen gelernt wurden, ein Unterschied zu den unbekannten Gesichtern an frontalen Elektroden im Bereich von 400 ms bis 600 ms, so daß der Abruf biographischer Informationen sich mit etwas späterer Latenz als die visuelle Bekanntheit an frontalen Elektroden reflektierte.

ERP ab 300 ms unterscheiden nicht nur zwischen einmal gezeigten bekannten und unbekannten Gesichtern, sondern in diesen Potentialverschiebungen zeigen sich auch deutliche Effekte der Gesichterwiederholung. Der wohl bekannteste dieser Effekte ist der Wiederholungseffekt (ERP repetition effect; z.B. Guillem, Bicu und Debruille, 2001; Schweinberger et al., 2002a), auch Alt-Neu-Effekt genannt (old-new effect; z.B. Itier und Taylor, 2002). Dieser Effekt tritt in einem Zeitbereich von etwa 300 ms bis 600 ms nach Stimulusbeginn vor allem an parietozentralen Elektroden auf und besteht in einer stärkeren Positivierung beziehungsweise weniger starken Negativierung für wiederholte im Vergleich zu neu gezeigten Gesichtern (z.B. Guillem et al., 2001).

↓31

Der Wiederholungseffekt wurde vor allem für die Wiederholung bekannter Gesichter und seltener für unbekannte Gesichter gezeigt. Schweinberger et al. (2002a) fanden den Wiederholungseffekt am deutlichsten im Zeitbereich von 500 ms und 600 ms. Hier zeigte sich gleichzeitig zur verringerten Negativierung an parietozentralen Elektroden eine Zunahme der Negativierung an präfrontalen Elektroden. Beide Effekte bestanden nur für berühmte und nicht für unbekannte Gesichter. Dabei waren sie für die Darbietung unterschiedlicher Aufnahmen desselben Gesichts genauso stark wie für die Wiederholung derselben Aufnahme und überlebten einen Zeitraum von 15 Minuten zwischen Erstdarbietung der Gesichter und ihrer Wiederholung. Bei Henson et al. (2003) hatte der Wiederholungseffekt für berühmte Gesichter seine maximale Ausprägung an parietalen und rechtsfrontalen Elektroden von 400 ms bis 600 ms. Jemel et al. (2003) fanden eine Verringerung der negativen Amplitude zwischen 400 und 600 ms für die zweimalige Darbietung von Fotos berühmter Gesichter vor allem an posterioren Elektroden.

Für unbekannte Gesichter zeigen sich sowohl in Topographie als auch in den Zeitbereichen andere Wiederholungseffekte als für bekannte Gesichter: während die Wiederholung der berühmten Gesichter bei Schweinberger et al. (2002a) keine signifikanten Unterschiede mehr in Zeitbereichen von 600 ms bis 700 ms erzeugte, war für unbekannte Gesichter in diesem Zeitbereich nur bei der Wiederholung derselben Gesichtsaufnahme und nicht für zwei verschiedene Aufnahmen an rechten occipitotemporalen Elektroden eine verstärkte Negativierung zu beobachten. Henson et al. (2003) zeigten im Bereich von 400 ms 600 ms einen Wiederholungseffekt für dieselben Aufnahmen unbekannter Gesichter über Elektroden der Mittellinie, während berühmte Gesichter im selben Zeitbereich, aber an anderen Elektroden (parietal und rechtsfrontal) einen Wiederholungseffekt erzeugten.

Die in diesem Kapitel aufgeführten Ergebnisse zu Effekten der Bekanntheit von Gesichtern zeigen, daß diese Effekte möglicherweise in zwei verschiedenen Zeitbereichen ablaufen. Der erste Effekt liegt im Zeitbereich von etwa 400 ms bis 600 ms und besteht an occipitotemporalen und parietalen EEG-Elektroden (z.B. Eimer, 2000), aber auch an frontalen Elektroden (z.B. Schweinberger et al., 2002a) in Amplitudendifferenzen zwischen bekannten und unbekannten Gesichtern. Effekte visueller Langzeitrepräsentationen von Gesichtern scheinen generell eher an posterioren Elektroden lokalisiert zu sein, während der Abruf zusätzlicher semantischer Informationen für die Personen eher an frontalen Elektroden zu erkennen ist (Paller et al., 2000) und möglicherweise ein elektrophysiologisches Korrelat der Person Identity Node (PIN)-Aktivierung oder der Namenscodeaktivierung darstellt, die im Modell von Bruce und Young (1986, siehe Kapitel 1.1.) zu einem Erkennen von Personen aus dem wahrgenommenen Gesicht führen.

↓32

Der Effekt visueller Bekanntheit an posterioren Elektroden könnte Korrelat der Aktivierung von Face Recognition Units nach dem Modell von Bruce und Young (1986) sein, da sich hier im Gegensatz zu früheren Effekten, z.B. auf der N250r, deutliche Unterschiede zwischen bekannten und unbekannten Gesichtern auch bei ihrer einmaligen Darbietung zeigen und so das Kriterium von Langzeitgedächtnisrepräsentationen erfüllen, die schon beim ersten Sehen eines bekannten Gesichts aktiviert werden sollten. Herzmann et al. (2004) zeigen, daß diese Repräsentationen an posterioren Elektroden für berühmte und persönlich bekannte Gesichter gleichartig vorliegen. Ein späterer Effekt der Bekanntheit wurde für berühmte Gesichter von Eimer (2000) und Henson et al. (2003) im Zeitbereich von 600 ms bis 800 ms gezeigt. Dieser wurde an frontalen Elektroden (Henson et al., 2003), aber auch an posterioren Elektroden (Eimer, 2000) gefunden.

Untersuchungen zu Wiederholungseffekten zeigen sowohl in den Zeitbereichen, in denen Unterschiede zwischen erstmalig im Experiment gezeigten und wiederholten Gesichtern im ERP bestehen, als auch in den Topographien Parallelen zu den Bekanntheit s effekten. Die Wiederholung berühmter Gesichter löst an posterioren und parietalen Elektroden, aber auch an frontopolaren Elektroden und frontozentralen Elektroden vor allem im Bereich von 400 ms bis 600 ms Amplitudenveränderungen aus. Dabei bestehen diese Effekte auch bei unterschiedlichen Aufnahmen zwischen Wiederholungen (z.B. Jemel et al., 2003) und sogar für Gesichter, die lediglich in einer semantischen Beziehung zueinander stehen wie diejenigen der beiden russischen Politiker Gorbatschow und Jelzin (Schweinberger, 1996). Schweinberger et al. (2002a) nahmen deshalb an, daß diese Wiederholungseffekte auf postperzeptuellen Verarbeitungsstufen liegen und den Zugriff auf personbezogene semantische Informationen reflektieren. Einen der Verarbeitung von berühmten Gesichtern ähnlichen Wiederholungseffekt konnten Schweinberger et al. (2002a) auch für Namen berühmter Personen zeigen.

1.6.3 Unterschiede zwischen EEG- und MEG-Messungen

↓33

Das Magnetenzephalogramm (MEG) misst Magnetfelder an der Kopfoberfläche, die durch elektrische Dipole im Gehirn aufgrund neuronaler Aktivierung entstehen. Ereigniskorrelierte Felder werden aus stimulusbezogenen Mittelungen des kontinuierlich aufgezeichneten MEG gebildet und in derselben Art wie ereigniskorrelierte Potentiale des EEG in Abweichung zu einer vor Stimulusbeginn erhobenen Baseline berechnet. Das MEG ist, unter anderem begründet durch den Platzaufwand und die hohen Kosten für ein MEG-Gerätes, als Messverfahren weniger verbreitet als das EEG. Eine Literaturrecherche in der Datenbank PubMed ((http://www.ncbi.nlm.nih.gov/entrez/query.fcgi) ergab nach inhaltlicher Durchsicht der Studienthemen für die Suchwörter ’MEG and faces’ und ’MEG and face perception’ insgesamt 23 MEG-Studien zur Gesichterverarbeitung für den Zeitraum von 1986 bis Januar 2005. Dieser geringen Anzahl an MEG-Studien stehen mindestens hundert Studien zur Gesichterverarbeitung im EEG gegenüber. Die PubMed-Recherche mit den Stichwörtern ’EEG and face perception’ ergab 177 Einträge, für ‚ERP and face perception’ wurden 103 Einträge gefunden (hier wurde keine Durchsicht der Studienthemen vorgenommen, der Vergleich ist aber dennoch ein Hinweis auf die unterschiedliche Erforschung von Gesichterwahrnehmung in MEG und EEG).

Obwohl die neuronalen Prozesse, die MEG und EEG messen, prinzipiell dieselben sind, unterscheiden Magnet- und Elektroenzephalogramm sich in mehrerer Hinsicht voneinander (Hämäläinen et al., 1993). Das EEG misst elektrische Potentialveränderungen, die durch Ionenströme an aktiven kortikalen Neuronen entstehen. Es bildet dabei extrazelluläre neuronale Ionenströme, den sogenannten „volume current“ ab. Die das EEG generierenden Ionenströme sind aufgrund der Leitfähigkeit von zwischen Neuronen und EEG-Elektroden liegenden Strukturen wie etwa die cerebrospinale Flüssigkeit, die das Gehirn umgibt, auch an weit von der neuronalen Quelle entfernten Orten messbar. Ereigniskorrelierte Potentiale spiegeln deshalb oft eine Aktivität mehrerer neuronaler Quellen, die an verschiedenen Orten des Gehirns entstehen, wider, und die einzelnen Anteile neuronaler Quellen am Oberflächen-ERP sind schwer voneinander zu trennen. Das EEG bildet dabei sowohl neuronale Quellen, die nah an der Kopfoberfläche liegen, als auch tiefer im Gehirn gelegene Quellen ab.

Die mit dem MEG gemessenen Magnetfelder werden durch intrazelluläre und ganz nah am Neuron zu messende Ionenströme generiert, die auch „primary current“ genannt werden (Hari, 1996). Diese Felder werden nicht durch die Leitfähigkeit der zwischen Gehirn und MEG-Sensoren liegenden Strukturen beeinflusst, so daß ein ereigniskorreliertes Feld im Gegensatz zum ereigniskorrelierten Potential eine an wenigen Meßsensoren zu erkennende, räumlich begrenzte neuronale Aktivierung wiederspiegelt und verschiedene Quellen im MEG als unterschiedliche, auch im visuellen Eindruck voneinander trennbare Magnetfelder zu erkennen sind. Aus diesem Grund hat das MEG eine sehr gute fokale Messfähigkeit. Unter optimalen Umständen kann es Quellen, die 2 mm voneinander entfernt sind, als unterschiedliche ereigniskorrelierte Felder abbilden (Hari und Lounaasma, 1989). Allerdings nimmt das Magnetfeld mit zunehmender Entfernung von der generierenden neuronalen Quelle sehr stark ab, so daß das MEG eher oberflächliche Quellen abbildet und tiefe Quellen, die in der Mitte des Kopfes liegen, nicht erkennt (Hari und Lounaasma, 1989).

↓34

Die Strukturen des Kortex sind gefaltet, so daß verschiedene Gehirnareale eine unterschiedliche räumliche Orientierung in Relation zur Kopfoberfläche haben. Kortexgebiete, die an der Oberfläche des Gehirns liegen, die Gyri, haben eine andere Orientierung zur Kopfoberfläche als die Sulci oder Fissuren, die eingefaltet sind. Das EEG misst Aktivierung aller Orientierungen kortikaler Strukturen im Vergleich zur Kopfoberfläche, hat aber eine leichte Verzerrung in Richtung der Abbildung von Aktivierung radialer Strukturen (Watanabe, Kakigi und Puce, 2003), während das MEG nur Quellen misst, die eine tangentiale Orientierung zur Kopfoberfläche haben und Strukturen mit rein radialer Orientierung nicht erkennt (Watanabe et al., 2003). So kann es passieren, daß MEG und EEG in derselben Messung unterschiedliche elektrophysiologische Korrelate der Gesichterverarbeitung abbilden. Diese Unterschiede zwischen MEG und EEG können Hinweise auf die Orientierung und Lage der neuronalen Generatoren einzelner Komponenten geben.

Die bisher genannten Unterschiede zwischen beiden Messverfahren machen eine simultane Ableitung von EEG und MEG auch für die Untersuchung der Gesichterverarbeitung interessant. Ein Amplitudeneffekt bei Gesichterwiederholung, der im EEG, nicht aber in ähnlicher Weise im MEG zu erkennen ist, könnte etwa die Aktivierung einer radialen Neuronenpopulation wiederspiegeln, die eine bestimmte Stufe der Stimulusverarbeitung kodiert, vom MEG aber aufgrund der Selektivität des Messverfahrens für tangentiale Quellen nicht gemessen wird.

Trotz der bisher genannten Unterschiede zwischen beiden Meßverfahren zeigen ereigniskorrelierte Potentiale und Felder bei Gesichterdarbietung ähnliche Zeitverläufe. Die Latenzen, zu denen bestimmte Komponenten auftreten, sind allerdings aufgrund der Fokalität des Messverfahrens zwischen den einzelnen Versuchspersonen im MEG variabler als im EEG und die Sensoren, an denen ein ereigniskorreliertes Feld gemessen wird, unterscheiden sich stärker zwischen einzelnen Versuchspersonen. Für die Auswertung ereigniskorrelierter Felder bedeutet dies, daß für jede einzelne Versuchsperson die MEG-Sensoren mit dem größten Signal im interessierenden Zeitbereich nach Beginn der Stimulusdarbietung ausgewählt werden (z.B. Liu, Harris und Kanwisher, 2002) und die Untersuchung von Amplituden- oder Latenzeffekten zwischen unterschiedlichen experimentellen Bedingungen meist nur für die ausgewählten Kanäle durchgeführt wird. Einzelne ereigniskorrelierte Felder werden wie auch ereigniskorrelierte Potentiale anhand ihrer Latenz im Vergleich zu Stimulusbeginn benannt, tragen jedoch meist ein M für magnetisches Feld vor ihrem Latenzwert, so daß ein der P100 aus dem ERP analoges ereigniskorreliertes Feld im MEG M100 heißt.

1.6.4 Ereigniskorrelierte Felder der Gesichterverarbeitung im MEG

↓35

Die 23 in der Literatursuche für die vorliegende Arbeit gefundenen Studien zur Gesichterverarbeitung untersuchten hauptsächlich ereigniskorrelierte Felder der Gesichterverarbeitung in frühen und mittleren Zeitbereichen ab Stimulusbeginn (von etwa 30 ms bis 250 ms), während spätere Aktivierungen nach Ergebnissen der Literaturrecherche im MEG nur in einer Studie (Lu et al., 1991) untersucht wurden. Der Vorteil der Untersuchung früher Komponenten ist sowohl im EEG als auch im MEG, daß Aktivierung in frühen Zeitbereichen wahrscheinlich noch nicht so stark wie spätere Aktivierung in verschiedenen Hirnarealen gleichzeitig generiert wird und die Interpretation experimenteller Effekte so für frühere Zeitbereiche einfacher und eindeutiger durchgeführt werden kann. Das MEG hat zwar eine ausreichend fokale Meßfähigkeit, um Aktivierung verschiedener, simultan auftretender Generatoren voneinander zu trennen. Problematisch bleibt dennoch die Trennung unterschiedlicher kognitiver Teilprozesse, die von einer experimentellen Aufgabe vor allem in späten Zeitbereichen der Stimulusverarbeitung evoziert werden und schwer voneinander abzugrenzen sind.

Deutliche Unterschiede zwischen Gesichtern und anderen visuellen Objekten zeigen sich im MEG ab etwa 100 ms nach Stimulusbeginn. Liu et al. (2002) fanden an rechten und linken occipitotemporalen MEG-Sensoren ein ereigniskorreliertes Feld mit einer mittleren Latenz von 105 ms, das sie M100 nannten und das für unbekannte Gesichter im Vergleich zu anderen Objekten wie Kühen, Händen und Häusern eine signifikant größere Amplitude zeigte. Die Autoren (Liu et al., 2002) untersuchten neben der Gesichterspezifität auch, an welcher kognitiven Stufe der Gesichterverarbeitung die M100 beteiligt war. Sie fanden einen Einfluss von Objektkategorisierungsprozessen auf die Amplitude der M100. Diese unterschied an gesichtersensitiven MEG-Sensoren zwischen der richtigen und falschen Kat e gorisierung von Gesichtern, aber nicht von Häusern. Für die Identifizierung von Gesichtern wurde dagegen kein Effekt der Korrektheit auf die Amplitude der M100 gefunden. Die Autoren (Liu et al., 2002) nahmen deshalb an, daß die M100 das Erkennen eines Gesichts in Abgrenzung zu anderen visuellen Stimuli unabhängig von seiner individuellen Identität abbilde und somit eine frühe Stufe gesichtersensitiver Verarbeitung dort angesiedelt sei.

Linkenkaer-Hansen et al. (1998) fanden bei Darbietung aufrecht gezeigter und invertierter Gesichter ein ereigniskorreliertes Feld bei 120 ms (P120) über occipitotemporalen Sensoren. Auf der P120 zeigte sich im MEG der Inversionseffekt, der üblicherweise als Hinweis auf eine gesichterspezifische Verarbeitung genommen wird. Er wurde in dieser Studie (Linkenkaer-Hansen et al., 1998) auch im simultan erfassten EEG zum selben Zeitpunkt beobachtet. Die P120 könnte dieselbe Komponente wie die M100 bei Liu et al. (2002) darstellen, da sie sich in den Potentialverläufen und Magnetfeldern bei Linkenkaer-Hansen et al. (1998) zwar mit verspäteter Latenz im Vergleich zur M100 zeigte, aber ebenso wie die M100 die erste nach Stimulusbeginn auftretende ereigniskorrelierte Komponente war.

↓36

Halgren et al. (2000) verglichen die Reaktionseigenschaften ereigniskorrelierter Felder für verschiedene unbekannte Gesichterstimuli, z.B. farbige, schwarz-weiße und randomisierte Gesichter, mit anderen visuellen Objekten. Das Vorgehen in dieser Studie bestand nicht wie bei Liu et al. (2002) in der direkten Untersuchung der Stärke ereigniskorrelierter Felder, sondern die neuronalen Quellen der einzelnen ERF wurden als elektrische Dipole in einer Dipollokalisation modelliert (zur Prozedur der Dipollokalisation siehe Kapitel 1.7) und die Stärke des Dipolstroms wurde als Korrelat der Aktivierungsstärke über die verschiedenen Stimulusarten verglichen. Halgren et al. (2000) fanden ein erstes ereigniskorreliertes Feld bei etwa 100 ms (mittlere Latenz 110 ms; MO110 genannt) und lokalisierten dieses im occipitalen Kortex. Die Dipolstärke der MO110 unterschied zwischen Gesichtern und anderen visuellen Stimuli, aber im Sinne einer signifikant größeren Aktivierung für randomisierte als für normale Gesichter, so daß die Autoren (Halgren et al., 2000) die M110 noch nicht als Korrelat komplexer Gesichterverarbeitungsprozesse interpretierten.

Im MEG wurden die elektrophysiologischen Komponenten mit der stärksten Gesichterspezifität in Zeitbereichen von 130 ms bis etwa 200 ms nach Stimulusbeginn mit einem Schwerpunkt bei etwa 150 ms (z.B. Sams, HiEta²nen, Ilmoniemi und Lounasmaa, 1997) gemessen. Für diesen Zeitbereich wurden mehrere Komponenten berichtet – M170 (z.B. Liu et al., 2002; Liu, Higuchi, Marantz und Kanwisher, 2000; Lueschow et al., 2004; Downing, Liu und Kanwisher, 2001), OT (occipitotemporal)165 (Halgren et al., 2000), 1M (Watanabe et al., 2003; Hoshiyama, Kakigi, Watanabe, Miki und Takeshima, 2003) und auch 2M (Watanabe, Kakigi, Koyama und Kirino, 1999) genannt. Ob diese Komponenten verschiedene Beschreibungen desselben ereigniskorrelierten Feldes darstellen oder unterschiedliche ereigniskorrelierte Felder abbilden, ist schwierig zu beurteilen, da in jeder der Studien andere experimentelle Paradigmen und Stimuli eingesetzt wurden. Allen Studien gemeinsam ist jedoch, daß die zwischen 130 ms und 200 ms gemessenen Komponenten sowohl in Studien, in denen MEG-Sensoren nur über der hinteren Kopfoberfläche platziert wurden (z.B. Watanabe et al., 2003), als auch in MEG-Studien, in denen von der ganzen Kopfoberfläche abgeleitet wurde (z.B. Liu et al., 2000), immer über hinteren (occipitotemporalen) Kopfarealen registriert wurden.

Watanabe et al. (2003) berichteten nicht nur eine, sondern zwei MEG-Komponenten im Zeitbereich von 160 ms bis 200 ms. Hier zeigte sich nach der 2M, die ihr Maximum im Mittel bei 165 ms hatte, eine 3M genannte Komponente, die ihre Latenz bei etwa 185 ms hatte. Beide Komponenten zeigten im Vergleich zu Objekten (Schmetterlingen) eine Gesichtersensitivität, die bei der 2M in einer Aktivierung an einem anderen Ort für Objekte im Vergleich zu Gesichtern bestand und bei Objektdarbietung überhaupt nur für eine Versuchsperson bestimmt werden konnte. Bei der 3M bestand die Gesichterspezifität in Form einer signifikant größeren Amplitude für Gesichter als für Objekte in der linken Hemisphäre. Watanabe et al. (1999) fanden ein im Vergleich zur 2M derselben Arbeitsgruppe (Watanabe et al., 2003) zusätzliches, zeitlich noch früheres Feld mit einer mittleren Latenz von 132 ms, die 1M, die bei einigen Personen eine zeitliche Überlappung mit der 2M, die in dieser Studie (Watanabe et al., 1999) im Mittel bei 179 ms lag, zeigte. Das Feldmuster der 1M zeigte keine Gesichtersensitivität, während die 2M nur für die Darbietung von Gesichtern mit offenen und geschlossenen Augen und nicht für andere Stimuli wie Hände ein deutliches Feldmuster zeigte. Die 2M wird nicht nur für Gesichterpräsentationen, die bei den Versuchspersonen eine bewusste Gesichterwahrnehmung auslösen, registriert, sondern auch bei Darbietung von Gesichtern unterhalb der bewussten Wahrnehmungsschwelle (Hoshyiama et al., 2003) ausgelöst und scheint damit einen relativ automatisch durch Gesichterstimuli evozierten neuronalen Generator abzubilden, dessen Aktivierung nicht notwendigerweise mit einer bewussten Gesichterwahrnehmung einhergehen muss.

↓37

Sato et al. (1999) fanden unterschiedlich ereigniskorrelierte Felder, je nachdem ob ein Gesicht oder eine Szene (z.B. ein Haus in einer Strasse) präsentiert wurden. Während sich die Hauptaktivierung in der Verarbeitung von Gesichtern zwischen 150 ms und 200 ms zeigte, erzeugte die Darbietung der Szenenfotos erst bei 200 ms bis 300 ms deutliche ereigniskorrelierte Felder. Die Gesichteraktivierung wurde zwischen 150 ms und 186 ms in Arealen des occipitotemporalen Kortex lokalisiert, die Aktivierung bei Szenen dagegen im parietalen Kortex und im Gyrus parahippocampalis, so daß sich hier Hinweise auf unterschiedliche neuronale Quellen von Gesichterverarbeitung im Gegensatz zur Verarbeitung anderer visueller Stimuli zeigten. Lu et al. (1991) verglichen Gesichterabbildungen mit den Bildern von Vögeln und fanden das einzige gesichterspezifische ereigniskorrelierte Feld bei 150 ms nach Stimulusbeginn über rechten und linken posterioren MEG-Sensoren. Diese Aktivierung lag weiter anterior als eine zeitlich frühere Aktivierung bei 100 ms über dem occipitalen Kortex. Die Aktivierung bei 100 ms und zwei spätere Aktivierungen an hinteren Meßsensoren (bei 260 ms und 500 ms) besaßen keine Gesichterspezifität.

Swithenby et al. (1998) verglichen Gesichterstimuli mit anderen Stimuli wie Tassen und Motorrädern. Im Gegensatz zu einer späteren Studie derselben Arbeitsgruppe (Bräutigam, Bailey und Swithenby, 2001) fanden sich bei Swithenby et al. (1998) keine Unterschiede in Amplituden oder Latenzen ereigniskorrelierter Felder zwischen Gesichterdarbietung und anderen Stimuli. Ein Maß der Signalstärke über mehrere Kanäle (zu dessen Berechnung siehe Swithenby et al., 1998, p.504) ergab jedoch signifikante Unterschiede von Gesichtern im Vergleich zu allen anderen visuellen Stimuli bei 140 ms über rechten occipitotemporalen Sensoren. Die Zeitbereiche von 110 ms bis 170 ms wurden, obwohl sie gesichtersensitiv waren, weder vom emotionalen Ausdruck noch von der Wiederholung der Gesichter beeinflusst.

Die M170 war bei Liu et al. (2000 und 2002) in ihrer Amplitude nicht nur für Gesichter von Menschen, sondern auch für Tiergesichter und Linienzeichnungen von Gesichtern selektiv, und sie war für menschliche Gesichter in Frontalansicht signifikant größer als für Profilansichten von Gesichtern. Bei Halgren et al. (2000) war die Aktivierung der OT165-Komponente sensitiv für die Vertauschung von Einzelelementen in Gesichtern.

↓38

Die genannten Studien zur Gesichterverarbeitung im MEG zeigen, daß ereigniskorrelierte Felder vor allem bei 150 ms bis 170 ms Gesichterspezifität besitzen und ähnlich wie die N170 im EEG von der Veränderung konfiguraler Information in Gesichtern durch Inversion (siehe Liu et al., 2002) und durch die Vertauschung der Einzelelemente von Gesichtern (Halgren et al., 2000) beeinflusst werden. Sie spiegeln möglicherweise sogar die Identifizierung individueller Gesichter wider (Liu et al., 2002). Das MEG bildet in den Zeitbereichen um 150 ms somit nicht nur grobe Kategorisierungsprozesse von Gesichtern, sondern komplexe Gesichterverarbeitungsprozesse ab. Halgren et al. (2000) etwa platzieren ihr OT165-Feld innerhalb eines kognitiven Modells der Gesichterverarbeitung zwischen frühe Prozesse der Gesichterverarbeitung bei 100 ms und Gedächtnisprozesse für Gesichter, die sie in späteren Zeitbereichen ab circa 300 ms annehmen und als Ausdruck relativ stimulusunspezifischer Verarbeitung ansehen. Lu et al. (1991) fanden in ihrer Untersuchung so auch keine Gesichterspezifität eines ereigniskorrelierten Feldes bei 500 ms nach Stimulusbeginn.

In den bislang fast noch gar nicht untersuchten späteren Zeitbereichen ab etwa 300 ms sollten sich in Anlehnung an Ergebnisse aus intracerebralen Potentialableitungen und ERP-Studien auch im MEG ereigniskorrelierte Felder finden, die zum Beispiel durch die Wiederholung und die Bekanntheit von Gesichtern beeinflusst werden. Eine genauere Untersuchung dieser Zeitbereiche für die Gesichterverarbeitung mittels MEG steht noch aus, wird aber gerade im Vergleich zu solchen Effekten in ERP interessante Ergebnisse zur Bestimmung der funktionalen Eigenschaften elektrophysiologischer Korrelate der Gesichterverarbeitung liefern.

1.7 Neuronale Generatoren elektrophysiologischer Korrelate der Gesichterverarbeitung

Wie in den Kapiteln zu ereigniskorrelierten Potentialen und Feldern der Gesichterverarbeitung bereits erwähnt wurde, können die neuronalen Ursprungsorte von MEG- und EEG-Messungen in Dipollokalisationen modelliert werden. Bei einer Dipol- oder Quelllokalisation werden neuronale Generatoren von ERP oder ERF als Dipole modelliert, die einen zu bestimmenden Ort im Kortex haben und in ihrer Stärke (in Nanoamperemeter (nAm) ausgedrückt) über die Zeit variieren. Die Dipollokalisation wird mit einem Lokalisationsprogramm durchgeführt. Dieses Programm bestimmt für eine vorher festgelegte Anzahl von dipolaren Quellen, die als Generatoren einer Komponente angenommen werden, die Orte im Gehirn, die die gegebene Datenkonstellation in ERP oder ERF mit der besten Erklärung der Datenvarianz erklären.

↓39

Bei der Modellierung intracerebraler Generatoren aus Oberflächenmessungen tritt das inverse Problem auf: die Berechnung der Quellorte besitzt sowohl für ereigniskorrelierte Felder als auch für ereigniskorrelierte Potentiale keine eindeutige Lösung, da es eine theoretisch unbegrenzte Anzahl von Quellkonfigurationen geben kann, die eine gegebene Oberflächenverteilung im EEG oder MEG erzeugen. Deshalb ist bei der Interpretation von Lokalisationsergebnissen wichtig zu berücksichtigen, daß die Dipollokalisation lediglich eine Modellanwendung darstellt und keine Aussage darüber erlaubt, ob die ermittelten Orte neuronaler Generatorstrukturen die wirklichen Orte sind, an denen EEG- und MEG-Aktivierung entstanden sind.

1.7.1  Neuronale Generatoren ereigniskorrelierter Potentiale der Gesichterverarbeitung in Lokalisationsstudien

Das Hauptaugenmerk von Lokalisationsstudien zu gesichterspezifischen ereigniskorrelierten Potentialen liegt auf der N170 und späteren Komponenten, da sie eine deutlichere Gesichtersensitivität als die P100 besitzen und aufgrund ihrer späteren Latenz eher als Korrelate komplexer Gesichterverarbeitungsprozesse angenommen wurden als die P100. Die neuronalen Generatoren der N170 wurden in mehreren Studien lokalisiert (Schweinberger et al., 2002a; Shibata et al., 2002; Rossion et al., 2003; Horovitz, Rossion et al., 2004; Itier und Taylor, 2004a). Rossion et al. (2003) zeigten Gesichterstimuli, aber auch Autos und visuell dargebotene Wörter und boten alle Stimuli sowohl in aufrechter als auch invertierter Form dar. Sie nahmen in rechter und linker Hemisphäre jeweils einen dipolaren Generator der N170 an und legten zusätzlich fest, daß beide Dipole symmetrisch zueinander in beiden Hemisphären liegen sollten. Die N170 wurde getrennt für alle Stimulusarten und für die Gruppenmitteldaten der ereigniskorrelierten Potentiale lokalisiert. Für aufrecht dargebotene Gesichter lag der Ort der N170 in den medialen posterioren Gyri fusiformes. Für alle anderen Stimulusarten wurde die N170 mit höchstens einem Zentimeter Abweichung zum Ort der Gesichteraktivierung jedoch ebenfalls in den Gyri fusiformes lokalisiert. Unterschiede zwischen den Stimulusklassen bestanden allerdings in der Dipolstärke der N170. Diese war für aufrechte und invertierte Gesichter am größten und für die anderen Stimuli deutlich kleiner. Sie zeigte für die Gesichter eine Rechtslateralisierung, für Autos dagegen keine Hemisphärenunterschiede und für Wörter eine Linkslateralisierung. Dipollokalisationen wurden bei Rossion et al. (2003) auch für die Differenzpotentiale der N170 von Gesichtern minus (–) Autos, Gesichtern – Wörtern und Wörtern – Autos durchgeführt. Für die Differenz Gesichter – Autos zeigte sich der identische Ort wie für die Lokalisation der N170 auf alleinige Gesichterpräsentation in beiden Hemisphären. In der Dipolstärke war eine deutliche rechtshemisphärische Lateralisierung zu beobachten, die für eine stärkere Beteiligung der rechten Hemisphäre an Gesichterverarbeitung im Vergleich zu anderen visuellen Objekten spricht. Für die Vergleiche Gesichter – Wörter und Wörter – Autos reichte ein Dipol zur Lokalisierung der Aktivität aus. Dieser lag für beide Differenzen im Gyrus fusiformis und war für die Differenz Wörter – Autos linkshemisphärisch, für die Differenz Gesichter – Wörter dagegen in der rechten Hemisphäre lokalisiert.

↓40

Das Interessante an den Ergebnissen der Lokalisationsstudie von Rossion et al. (2003) ist zunächst die Tatsache, daß in dieser Studie keine Unterschiede in den neuronalen Generatoren der N170 zwischen Gesichtern und anderen Objekten gezeigt werden konnten. Dieses Ergebnis spricht gegen eine Modularität der Gesichterverarbeitung zumindest auf der Stufe der N170. Es spricht eher für ein gemeinsames System von Objekt- und Gesichterverarbeitung, das Unterschiede in den Stimuli anhand verschiedener neuronaler Aktivierungsstärken und anhand von Lateralisierungsunterschieden kodiert. In einer späteren Studie widersprachen Rossion et al. (2004) aufgrund von ERP- und fMRT-Untersuchungen an zwei Patienten mit erworbenen Läsionen gesichterspezifischer Areale jedoch der zuvor von ihnen aufgestellten Hypothese eines neuronalen Generators der N170 im Gyrus fusiformis und nahmen stattdessen an, daß der Gyrus fusiformis einen zu vernachlässigenden Beitrag in der Entstehung der N170 habe und stattdessen das occipitale Gesichterareal (OFA) einer der N170-Generatoren sei. Diese Interpretation steht allerdings im Widerspruch zu Ergebnissen aus intracerebralen Potentialableitungen. In diesen wurde gesichterspezifische Aktivierung bei 180 ms (P180, Halgren et al., 1994) und 200 ms (N200, Allison et al., 1999) im Gyrus fusiformis gefunden, und es ist zumindest bei der P180 sehr gut möglich, daß diese das intracerebrale Pendant der N170 ist.

Eine weitere Studie der Forschungsgruppe um Rossion (Horovitz et al., 2004) brachte wieder Argumente für neuronale Generatoren der N170 in den Gyri fusiformes. In dieser Studie wurden an denselben Versuchspersonen sowohl EEG als auch fMRT gemessen und als experimentelle Manipulation zunehmendes Bildrauschen über Gesichter gelegt, das diese unkenntlich machte. Diese Manipulation erzeugt eine Verkleinerung der N170-Amplitude und eine Latenzverschiebung des Potentialpeaks nach hinten (Jemel et al., 2003b). Die Stärke der ERP für die Veränderung des Bildrauschens wurde mit der Veränderung des fMRT-Signals bei derselben experimentellen Manipulation verglichen. Hier fanden sich die deutlichsten Zusammenhänge zwischen beiden Signalen in der N170 und dem Gyrus fusiformis in beiden Hemisphären.

Itier und Taylor (2004a) fanden im Gegensatz zu Rossion et al. (2003) Unterschiede in den Orten neuronaler Quellen der N170 zwischen Gesichtern und verschiedenen Arten anderer Objekte wie Pilzen, Blumen und Häusern. Sie führten ihre Quelllokalisation sowohl für Daten von Einzelpersonen als auch für Gruppenmittelkurven der N170 durch und benutzten einen Lokalisationsalgorithmus, bei dem die Anzahl der Quellen nicht vorher festgelegt werden musste. Mehrere occipitale und occipitotemporale Hirnregionen in beiden Hemisphären waren für alle Arten von Objekten auf der Ebene der N170 aktiv: die inferioren und mittleren occipitalen Gyri (OFA), die Region um die Sulci temporales superiori (STS) und die Gyri linguales. In den occipitalen Regionen und in den Gyri linguales wurden keine Unterschiede zwischen den verschiedenen Stimulusarten gefunden, ein Unterschied zeigte sich aber in Regionen um den posterioren Sulcus temporalis superior. Hier fanden Itier und Taylor (2004a) eine viel stärkere Quelle für Gesichter als für andere Objekte, die eine Rechtslateralisierung zeigte. Diese Quelle war für invertierte Gesichter noch stärker als für aufrecht gezeigte Gesichter aktiviert, so daß die Autoren den Inversionseffekt auf der N170 durch eine stärkere Aktivierung von gesichtersensitiven Neuronen im STS erklären.

↓41

Shibata et al. (2002) untersuchten die N170 in der rechten Hemisphäre für allein dargebotene Augen und ganze Gesichter unbekannter Personen. Sie fanden für die N170 bei Gesichterdarbietung zwei unterschiedliche neuronale Generatoren, von denen einer zu frühen Zeitpunkten und zur Peakphase der N170 aktiv war, während der andere in der späten Phase der N170 aktiviert war. Dabei lag der Generator der frühen Anteile und der Peakaktivierung der N170 im rechten posterioren inferotemporalen Gyrus und der Generator der späteren Anteile im Gyrus fusiformis oder im medial angrenzenden Gyrus lingualis. Bei alleiniger Präsentation von Augen wurde der N170-Generator für alle Zeitpunkte (frühe Aktivität, Peak und späte Aktivität) im posterioren inferotemporalen Gyrus lokalisiert. Shibata et al. (2002) schlossen daraus, daß die N170 für ganze Gesichter eine aus zwei Teilprozessen zusammengesetzte Komponente sei, von denen die eine die Enkodierung von Augen im inferotemporalen Gyrus und die andere die strukturelle Enkodierung von Gesichtern im Gyrus fusiformis reflektiere.

Schweinberger et al. (2002a) lokalisierten den Generator der N170 für berühmte Gesichter in einer Dipollokalisation für das Gruppenmittel ereigniskorrelierter Potentiale. Sie nahmen in jeder Hemisphäre einen neuronalen Generator der N170 an und setzten beide Generatoren symmetrisch zueinander. Die Quelle der N170 lag in dieser Studie im lateralen occipitotemporalen Kortex. Mnatsakanian und Tarkka (2004) untersuchten ereigniskorrelierte Potentiale bei Darbietung persönlich bekannter Gesichter. Sie fanden in Übereinstimmung zu Shibata et al. (2002) ebenfalls zwei verschiedene neuronale Generatoren der Gesichteraktivität im Zeitbereich um etwa 170 ms. Dipole im linken und rechten Gyrus lingualis erklärten Aktivität um 120 ms und 180 ms, während Dipole im anterioren Gyrus fusiformis EEG-Aktivität um 150 ms und 160 ms erklärten. In dieser Studie hatte das EEG eine sehr gute örtliche Auflösung im Vergleich zu anderen ERP-Studien, da Mnatsakanian und Tarkka (2004) ein 128-Elektroden-EEG ableiteten, während die üblichen EEG-Messungen mit etwa 30 Elektroden durchgeführt werden (z.B. Schweinberger et al., 2002a). Dies mag auch erklären, warum die Autoren (Mnatsakanian und Tarkka, 2004) keine Symmetriebeschränkung zur Modellierung der Dipole benötigten, die in anderen EEG-Studien (z.B. Rossion et al., 2003; Schweinberger et al., 2002a) eine notwendige Modellbeschränkung darstellte. Mnatsakanian und Tarkka (2004) fanden jedoch sowohl für die Dipole in den Gyri fusiformes als auch für die Dipole in den Gyri linguales eine ungefähre Symmetrie in beiden Hemisphären. Sie untersuchten Unterschiede in der Stärke der Dipole zwischen wiederholten und neuen persönlich bekannten Gesichtern und fanden für den Dipol im Gyrus fusiformis Unterschiede in den Quellstärken im Zeitbereich von 400 ms bis 600 ms. Der Dipol hatte eine größere Stärke bei Darbietung eines neuen bekannten Gesichts im Vergleich zu einem wiederholten bekannten Gesicht, so daß sich in diesem Zeitbereich eine Beteiligung des Gyrus fusiformis an der Speicherung von Langzeitrepräsentationen für Gesichter zeigte. Messungen intracerebraler Potentiale fanden ebenfalls im Gyrus fusiformis bei 350 ms gesichterspezifische Aktivierung (P350; Allison et al., 1999), die durch die Wiederholung von Gesichtern beeinflusst wurde.

Insgesamt variieren die Ergebnisse zu neuronalen Generatoren der N170 zwischen verschiedenen Studien sowohl in der Anzahl der Dipole, die als Generatoren der N170 angenommen werden, als auch in den Orten der Dipole. Die Generatoren der N170 - Gyrus fusiformis (Rossion et al., 2003; Shibata et al., 2002 für den späten Anteil der N170; Mnatsakanian und Tarkka, 2004), Sulcus temporalis superior (Itier und Taylor, 2004a) und occipitales Gesichterareal (Rossion et al., 2004) - wurden in fMRT-Studien jedoch alle als Teile eines neuronalen Netzwerkes der Gesichterverarbeitung identifiziert (Haxby et al., 2000, siehe Kapitel 2.1.5), so daß jeder der gefundenen N170-Generatoren eine physiologische Plausibilität hat. Die Variabilität der Lokalisationsergebnisse könnte unter anderem dadurch entstanden sein, daß alle der lokalisierten Gehirnareale gleichzeitig oder in zeitlich sehr kurzen Abständen bei der Gesichterverarbeitung im Zeitbereich um 170 ms aktiviert sind und somit die gesamte N170 eine in mehreren Hirnarealen entstandene Komponente ist. Unterschiede in den Quellorten zwischen den verschiedenen Studien könnten dadurch entstanden sein, daß die Stärke des Beitrages der einzelnen neuronalen Generatoren je nach Aufgabe der Gesichterverarbeitung und Bekanntheit der Gesichter variierte und somit jede Studie die in der speziellen experimentellen Aufgabe am stärksten aktiven neuronalen Generatoren der N170 fand.

↓42

Bislang haben sich zwei Studien mit der Modellierung neuronaler Quellen in späteren Zeitbereichen des EEG beschäftigt. Schweinberger et al. (2002a) lokalisierten eine Differenzkurve für die Wiederholung berühmter Gesichter (neu dargebotene berühmte Gesichter minus wiederholte berühmte Gesichter) bei 250 ms (N250r, siehe Kapitel 1.6.2.5) durch zwei symmetrisch zueinanderliegende Dipole und lokalisierten den neuronalen Generator, den sie als Korrelat der Aktivierung von Langzeitrepräsentationen für bekannte Gesichter interpretierten, im anterioren Gyrus fusiformis. Mnatsakanian und Tarkka (2004) lokalisierten Aktivierung für persönlich bekannte Gesichter in späteren Zeitbereichen von etwa 300 ms bis 600 ms. Hier fanden sie links- und rechtshemisphärisch jeweils einen Dipol. Der erste Dipol lag im linken anterioren Gyrus cingulus im limbischen System. Dieser Dipol zeigte Unterschiede zwischen der Wiederholung desselben bekannten Gesichts und der Darbietung eines anderen bekannten Gesichts und hatte seine maximale Stärke zwischen 400 ms bis 600 ms nach Stimulusbeginn. Der zweite Dipol lag im Nucleus caudatus und unterschied im Zeitbereich ab 300 ms bis etwa 400 ms zwischen wiederholten und neuen Gesichtern. Die Autoren (Mnatsakanian und Tarkka, 2004) nahmen an, daß beide Unterschiede in den Dipolstärken auf eine veränderte emotionale Erregung bei Wiederholung von Gesichtern zurückzuführen seien.

1.7.2 Neuronale Generatoren ereigniskorrelierter Felder der Gesichterverarbeitung in Lokalisationsstudien

Die neuronalen Generatoren der Gesichterverarbeitung wurden häufiger für ereigniskorrelierte Felder als für ereigniskorrelierte Potentiale modelliert. Die meisten Studien, die Gesichterverarbeitung im MEG untersuchten, führten auch eine Quelllokalisation der Gesichteraktivität durch. Lu et al. (1991) veröffentlichten die ersten Ergebnisse einer Dipollokalisation für ereigniskorrelierte Felder der Gesichterdarbietung. Sie maßen MEG-Aktivität bei Gesichterdarbietung im Vergleich zur Darbietung von Vögeln und anderen visuellen Objekten. Das MEG wurde mit einem 24-Kanal-System gemessen, dessen Sensoren über linken oder über rechten occipitotemporalen Kortexarealen platziert wurden. Lokalisiert wurden für die einzelnen Versuchspersonen ereigniskorrelierte Felder bei 150 ms, 260 ms und 500 ms nach Stimulusbeginn. Trotz interindividueller Varianz in den genauen Orten der Dipole zeigte sich über die Versuchspersonen ein konsistentes Verhältnis zw i schen den Orten der drei Dipole (150 ms, 260 ms, 500 ms). Die spätere Aktivität bei 500 ms lag weiter frontal und die Aktivität bei 260 ms wurde weiter superior lokalisiert als die Quelle des Feldes bei 150 ms. Die Quelle der Aktivierung bei 150 ms wurde im Mittel an der inferioren Grenze zwischen occipitalem und temporalem Kortex lokalisiert und stellte die einzige von den drei Quellen dar, die gesichterspezifisch reagierte. Die nicht gesichterspezifische Aktivierung wurde bei 260 ms im parietalen Kortex und bei 500 ms im temporalen Kortex lokalisiert. Genauere Angaben zu den neuroanatomischen Orten der Quellen wurden von Lu et al. (1991) nicht gemacht. Eine weitere MEG-Studie derselben Forschungsgruppe (Sams et al., 1997) erfasste ereigniskorrelierte Felder in einer 122-Kanal-Ganzkopf-MEG-Messung und fand gesichterspezifische Felder vor allem im Bereich von 160 ms nach Stimulusbeginn. Diese Felder wurden bei einigen Personen im Gyrus fusiformis lokalisiert, es gab jedoch auch in dieser Studie (Sams et al., 1997) Unterschiede zwischen den Versuchspersonen in den Orten der Dipole. Diese Unterschiede wurden von Sams et al. (1997) sowohl auf interindividuelle Differenzen in der Lage gesichterspezifischer Hirnareale als auch auf eine möglicherweise simultane Aktivierung mehrerer Kortexareale im selben Zeitbereich zurückgeführt, von denen der in einer Lokalisation gefundene Ort meist nur die stärkste Aktivierung wiedergebe, die interindividuell variieren könne.

↓43

Watanabe et al. (1999) untersuchten ereigniskorrelierte Felder über occipitalen und temporalen Kortexarealen. Den Versuchspersonen wurden Gesichter mit offenen und geschlossenen Augen sowie randomisierte Gesichter, Hände und Augen dargeboten. Ereigniskorrelierte Felder wurden in Zeitbereichen um 130 ms (1M) und 180 ms (2M) beobachtet. Die 1M-Komponente wurde bei allen Arten von Stimuli gemessen, die 2M-Komponente zeigte sich dagegen nur bei Gesichtern mit offenen oder geschlossenen Augen und bei Händen, dort jedoch mit verzögerter Latenz. Bei der Dipollokalisation wurden Dipole in vorbestimmte kortikale Areale gesetzt und die Passung des gewählten Dipolmodells an die Daten bestimmt. Hier zeigte sich, daß ein Modell mit zwei symmetrisch zueinandergesetzten Dipolen im primären visuellen Kortex für die 1M-Komponente und mit Dipolen im inferotemporalen Kortex nahe dem Gyrus fusiformis für die 2M-Komponente das am besten geeignete Modell war.

Halgren et al. (2000) lokalisierten Dipole für MEG-Differenzkurven zwischen randomisierten Gesichtern und Gesichtern an posterioren Sensoren. In diesen Differenzkurven zeigten sich zwei klare Felder. Das erste Feld hatte im Gruppenmittel seine maximale Stärke bei 127 ms (MO110) und konnte durch einen Dipol im posterioren inferioren occipitalen Kortex fast genau auf der Mittellinie zwischen beiden Hemisphären lokalisiert werden. Der zweite Peak der Aktivierung im Differenzfeld zwischen Gesichtern und randomisierten Gesichtern lag bei Halgren et al. (2000) zwischen 150 ms und 185 ms (OT165) und wurde anhand zweier Dipole modelliert, die ungefähr symmetrisch zueinander im rechten und linken Gyrus fusiformis bzw. dem Gyrus fusiformis angrenzenden Strukturen lagen. Die Dipolstärken dieses Generators hatten bei 164 ms ihr Maximum und zeigten eine Linkslateralisierung. Die beiden Dipole in den Gyri fusiformes erklärten jedoch nicht nur Aktivierung um 150 ms, sondern zeigten einen zweiten Höhepunkt der Dipolstärke bei 256 ms, so daß ähnlich wie bei Mnatsakanian und Tarkka (2004) im EEG möglicherweise auch im MEG Aktivität des Gyrus fusiformis zu späteren Zeitpunkten um etwa 300 ms gemessen wird.

Eine Quelle von Gesichterverarbeitung im Zeitbereich um 150 ms bis 180 ms konnten Linkenkaer-Hansen et al. (1998) für Gesichter ebenfalls im Gyrus fusiformis lokalisieren, eine frühere gesichterspezifische Quelle bei 120 ms (P120) wurde in dieser Studie im occipitalen Kortex außerhalb des primären visuellen Kortex lokalisiert. Möglicherweise entspricht die Quelle der P120 dem im fMRT gefundenen sogenannten occipitalen Gesichterareal. Die genauen neuroanatomischen Orte der P120 sind bei Linkenkaer-Hansen et al. (1998) jedoch nicht angegeben. Eine dipolare Quelle ereigniskorrelierter Felder bei etwa 190 ms wurde im Gyrus fusiformis und direkt angrenzenden Arealen sogar für die sehr kurze Darbietung von Gesichtern, die unter der bewussten Wahrnehmungsschwelle lag, lokalisiert (Hoshiyama et al., 2003). Lewis et al. (2003) zeigten einen Einfluss des emotionalen Ausdrucks von Gesichtern auf die Stärke einer dipolaren Quelle im Gyrus fusiformis, die sie bei etwa 150 ms dort lokalisierten. Die Stärke des Dipols war bei neutralem Gesichtsausdruck am kleinsten und größer bei Präsentation lächelnder Gesichter. Sato et al. (1999) lokalisierten gesichterspezifische Aktivierung im Bereich von 150 ms bis 200 ms im Gyrus fusiformis und im medial dem Gyrus fusiformis angrenzenden Gyrus lingualis.

↓44

Swithenby et al. (1998) fanden ebenfalls eine Quelle gesichterspezifischer Aktivierung im Gyrus fusiformis mit einem Maximum bei 140 ms. Watanabe et al. (2003) fanden für Aktivierung um 150 ms bis 200 ms bei Darbietung aufrechter und invertierter Gesichter nicht nur im Gyrus fusiformis, sondern auch nahe dem Sulcus temporalis superior (STS) eine neuronale Quelle. Die Orte der beiden Quellen waren für aufrecht gezeigte und invertierte Gesichter dieselben, so daß in dieser Studie zwei Generatoren der Gesichterverarbeitung um 150 ms in jeder Hemisphäre angenommen wurden. Spätere ereigniskorrelierte Potentiale um 250 ms nach Stimulusbeginn waren bei Tarkiainen, Helenius und Salmelin (2003) nicht mehr gesichterspezifisch und wurden in dieser Studie analog zu Lu et al. (1991, siehe oben) im parietotemporalen Kortex lokalisiert.

Während in Lokalisationsstudien ereigniskorrelierter Potentiale der Gesichterverarbeitung für dieselben Zeitbereiche, vor allem die N170, ganz verschiedene neuronale Generatoren modelliert wurden fanden alle Lokalisationsstudien der Gesichterverarbeitung im MEG eine Quelle gesichterspezifischer Verarbeitung zwischen 140 ms bis 190 ms im Gyrus fusiformis und lokalisierten damit die Quellen der Aktivierung in einer der anhand von fMRT-Studien als Kernareal der Gesichterverarbeitung angenommenen Gehirnstruktur (siehe Kapitel 1.5). Die Latenzen der maximalen Aktivierung dieser Quelle variieren zwischen den verschiedenen Studien um bis zu 40 ms. Daher überrascht die klare Konsistenz des Quellortes über die verschiedenen Studien. Es könnte jedoch möglich sein, daß je nach dem in einer Studie eingesetzten Gesichterparadigma die Latenz ereigniskorrelierter Felder variiert, diese Felder aber letztendlich im selben Hirnareal generiert werden.

Die gute Lokalisierbarkeit der neuronalen Quellen gesichterspezifischer Aktivierung im Gyrus fusiformis im MEG, die sich in der Konsistenz der Quellorte zwischen verschiedenen Studien widerspiegelt, entsteht möglicherweise aus der tangentialen Lage dieses Areals in Relation zur Kopfoberfläche (Hoshyiama et al., 2003). Dipollokalisationen gesichterspezifischer ERF um 150 ms bis 200 ms fanden mit Ausnahme einer Studie (Watanabe et al., 2003) eine einzige Quelle in jeder Hemisphäre als angenommenen Generator der Oberflächenaktivität angemessen, so daß angesichts der hohen Trennfähigkeit unterschiedlicher neuronaler Quellaktivierungen des MEG mit hoher Wahrscheinlichkeit plausibel angenommen werden kann, daß es wirklich einen hauptsächlichen neuronalen Generator in jeder Hemisphäre gibt.

↓45

Im EEG ist nicht nur die Anzahl der Quellen der N170 viel unklarer als im MEG, sondern auch die Quellorte variieren stärker. Das EEG erkennt im Gegensatz zum MEG nicht nur tangentiale, sondern auch radiale neuronale Quellen und misst somit möglicherweise zusätzlich zu der Quelle im Gyrus fusiformis auch Quellen mit eher radialer Orientierung in anderen Gehirnarealen, die gleichzeitig oder zu leicht verschobenen Zeitbereichen aktiv sind. Insofern ergänzen sich MEG und EEG in der Messung der Quellen gesichterspezifischer Verarbeitung.

1.8 Priming

Der Begriff Priming bezeichnet ein in experimentellen Manipulationen evoziertes Gedächtnisphänomen, das in Abwesenheit von bewusster, intentionaler Gedächtnisverarbeitung und in Abwesenheit einer bewussten Erinnerung an eine Lernepisode stattfinden kann (z.B. Schacter und Buckner, 1998). Primingprozesse unterscheiden sich damit von Gedächtnisprozessen, die in experimentellen Paradigmen durch die Erzeugung von bewusster Gedächtnisenkodierung und bewusstem Abruf ausgelöst werden. Bei einer Primingaufgabe werden Stimuli zwar wiederholt, die Stimuli müssen jedoch nicht intentional im Gedächtnis gehalten oder abgerufen werden, sondern sie werden im Hinblick auf andere Aspekte kognitiv verarbeitet. Eine Primingaufgabe kann für Gesichter als Stimuli zum Beispiel in einer Geschlechtsentscheidung für die Gesichter bei Erstdarbietung und Wiederholung bestehen. In einer bewussten Gedächtnisaufgabe müssten die Gesichter dagegen beispielsweise gelernt und dann aus einer ganzen Reihe von Gesichtern, die sowohl die gelernten als auch neue Gesichter enthält, wiedererkannt werden.

1.8.1  Maße von Priming

↓46

Primingeffekte werden anhand von Reaktionsveränderungen zwischen Erst- und Folgedarbietung(en) der Stimuli gemessen. Sie werden in Verhaltensmassen oft anhand von Reaktionszeitveränderungen erfasst. Die Stimuluswiederholung bewirkt meist eine Erleichterung der Verarbeitung und damit eine Reaktionszeitverkürzung. Weitere Verhaltensmaße sind zum Beispiel die Fehlerrate oder Präferenzurteile bei Entscheidungen über die Stimuli. In der oben genannten Geschlechtsentscheidungsaufgabe für Gesichter würde sich der Primingeffekt in einer Reaktionszeitverkürzung für die Geschlechtsentscheidung bei Wiederholung der Gesichter zeigen. Verhaltensreaktionen scheinen sehr sensibel für die Erfassung von Priming. Bei einer Verhaltensreaktion ist jedoch oftmals nicht klar, welche genaue kognitive Verarbeitungsstufe eines Primingprozesses sie abbildet. Zu Verhaltensreaktionen, die eine Latenz von mehreren hundert Millisekunden nach Stimulusbeginn haben, tragen mehrere kognitive Verarbeitungsstufen bei, die allein anhand von Reaktionszeiten oftmals nicht genau voneinander getrennt werden können (Henson et al., 2003).

Eine deutlichere Differenzierung der Stufen, auf denen Primingprozesse ablaufen, kann mit der Messung neurophysiologischer Parameter vorgenommen werden. Die Veränderung einer oder mehrerer Zeitstufen in ERP oder ERF kann anzeigen, auf welcher genauen Stufe der kognitiven Verarbeitung ein Primingprozess abläuft und welche Verarbeitungsstufe dagegen nicht durch Priming beeinflusst wird. Im fMRT werden Primingeffekte anhand von Aktivierungsveränderungen in bestimmten Hirnarealen bei Stimuluswiederholung untersucht. Mittels fMRT kann aufgrund der relativ geringen zeitlichen Auflösung zwar die genaue zeitliche Stufe im kognitiven Verarbeitungsprozess, auf der der Primingprozess stattfindet, nicht genau untersucht werden (Henson und Rugg, 2003). Es kann aber festgestellt werden, welche Hirnareale an Primingprozessen beteiligt sind und mit welcher Art der hämodynamischen Aktivierungsveränderung (Verstärkung oder Abschwächung) Primingeffekte einhergehen.

1.8.2 Taxonomie von Primingphänomenen

Die Möglichkeit, daß neben bewussten Vorgängen der Gedächtnisverarbeitung weitere Gedächtnisphänomene existieren, wurde erst aufgrund der Ergebnisse von Patientenstudien, in denen sich Dissoziationen zwischen verschiedenen Gedächtnisaufgaben zeigten, in Betracht gezogen. Patienten mit einer sogenannten Amnesie, einer Gedächtnisstörung, die nach Läsionen des Hippocampus auftritt, können in extremen Fällen neue Gedächtnisinhalte gar nicht mehr bewusst enkodieren und abrufen (Gabrieli, 1998). Umso mehr erstaunten die ersten Studien, die demonstrierten, daß auch diese Patienten neue Informationen im Gedächtnis behalten können (eine Übersicht findet sich bei Richardson-Klavehn und Bjork, 1988). Bei ihnen zeigten sich trotz der Abwesenheit bewusster Erinnerung an Stimuli in expliziten Gedächtnisaufgaben Anzeichen für die Gedächtnisspeicherung von Informationen in Primingaufgaben. Unterschiede zwischen der Performanz in expliziten Gedächtnisaufgaben und in Primingaufgaben wurden nicht nur bei Patienten mit Amnesie, sondern auch bei gesunden Personen gefunden (z.B. Jacoby, 1983). Dort zeigten sich in experimentellen Manipulationen, die eine explizite Enkodierung der Stimuli unterbanden, weil sie etwa die Stimuli unterhalb der bewussten Wahrnehmungsschwelle darbieten, dennoch Anzeichen einer Gedächtnisenkodierung.

↓47

Die Beobachtung eines Gedächtnismechanismus, der die Bewusstheit von Enkodierung und Abruf nicht benötigt, führte einige Gedächtnisforscher dazu, die Existenz mehrerer, parallel zueinander bestehender Gedächtnissysteme anzunehmen. Eine der wesentlichen Unterscheidungen zwischen verschiedenen Gedächtnissystemen nahm eine Einteilung in explizites und implizites Gedächtnis vor (Graf und Schacter, 1985). Bei expliziten Gedächtnisprozessen werden Stimuli bewusst eingeprägt und erinnert, während bei impliziten Gedächtnisprozessen unbewusste, nicht intentional gesteuerte Gedächtnisprozesse ablaufen (Schacter, Chiu und Ochsner, 1993). Explizite Gedächtnisprozesse sind von der Enkodierungstiefe der Informationen abhängig. Sie sind stärker, wenn die Stimuli tief enkodiert, z.B. im Hinblick auf ihren Sinn (semantisch) verarbeitet werden, als wenn sie nur oberflächlich, etwa rein aufgrund äußerlicher Erscheinung, enkodiert werden, während implizite Gedächtnisprozesse von dieser Manipulation weniger oder überhaupt nicht beeinflusst werden, dafür aber stärker als explizite Gedächtnisprozesse durch eine Veränderung der Darbietungsmodalität (z.B. visuell vs. verbal) beeinflusst werden (Roediger und McDermott, 1993). Priming ist nur eine Form impliziten Gedächtnisses. Es wird dabei von einigen Autoren (z.B. Gabrieli, 1998) als Gedächtnismechanismus angesehen, der schon nach einer Exposition mit dem Stimulus ablaufen und eine Speicherung der Gedächtnisinformationen über lange Zeiträume bewirken kann, dafür aber üblicherweise relativ spezifisch für einen Stimulus oder Prozess ist und nicht einfach auf andere Stimuli generalisiert; damit wurde Priming von einer weiteren Form des impliziten Gedächtnisses, dem Lernen von Fertigkeiten (Skill learning), abgegrenzt. Unter Skill Learning wird das Lernen vor allem motorischer, aber auch kognitiver und sensorischer Fertigkeiten verstanden, das mehrere Lernepisoden braucht, dafür aber sehr robust gegen Löschung ist und auch auf andere Prozesse generalisieren kann; eine weitere Form impliziten Gedächtnisses wird in Konditionierungsphänomenen gesehen (Gabrieli, 1998).

Die Annahme, daß implizite und explizite Gedächtnisprozesse wirklich Ausdruck zweier qualitativ verschiedener Gedächtnissysteme mit unterschiedlicher neuroanatomischer Verortung sind, wurde jedoch kontrovers diskutiert. Blaxton (1989) etwa sah eine mögliche Unterscheidung zwischen implizitem und explizitem Gedächtnis nur in der Bezeichnung von Unterschieden zwischen Gedächtnisaufgaben. In dieser Sichtweise wurde stattdessen postuliert, daß impliziten und expliziten Gedächtnisphänomenen parallel ablaufende kognitive Prozesse unterliegen, die unterschiedliche Aspekte derselben Stimuli verarbeiten (z.B. Roediger, 1990). Explizites Gedächtnis lässt sich vom impliziten Gedächtnis demnach zum Beispiel durch die zusätzliche Abspeicherung der bewussten Erinnerung an die Lernepisode unterscheiden. Der sogenannte ’transfer-appropriate processing’-Ansatz (Morris, Bransford und Franks, 1977) interpretierte Gedächtniseffekte unabhängig von der Bewusstheit der zugrundeliegenden Prozesse, stattdessen aber im Hinblick auf die bei Enkodierung und Abruf bzw. Erstdarbietung und Stimuluswiederholung notwendigen kognitiven Operationen.

Ostergaard (1998) als Vertreter dieses Ansatzes etwa zeigte, daß Primingeffekte Resultat einer Interaktion der Verfügbarkeit von Stimulusinformation und den Verarbeitungserfordernissen der momentanen Primingaufgabe sein können. Er fand für eine Wortbennenungsaufgabe, in der visuell präsentierte Wörter entweder langsam eingeblendet wurden oder sofort erschienen, Unterschiede in der Stärke der Wiederholungsprimingeffekte. Bei einem sofortigen Erscheinen, das dazu führte, daß die Personen die Wörter leicht identifizieren konnten, waren die Primingeffekte kleiner als bei einer langsamen Einblendung. Ostergaard (1998) nahm an, daß bei einer langsamen Einblendung der Stimuli die Darbietung innerhalb der Primingaufgabe einen viel größeren Einfluss hatte und damit einen stärkeren Primingeffekt erzeugte als bei schnellem Erscheinen, weil aufgrund der schweren Identifizierbarkeit weniger Stimulusinformationen an sich vorhanden waren, und so der Primingeffekt mehr von der Wiederholung innerhalb der Aufgabe profitierte. Unter dieser Bedingung zeigte sich auch ein Einfluß des Zeitabstands zwischen Wiederholungen in Form einer Abschwächung des Primingeffektes bei langem Zeitabstand. Dieser Einfluß des Zeitabstandes war bei einer leichten Identifizierbarkeit der Stimuli nicht vorhanden. Ergebnisse dieser Art zeigen, daß Primingeffekte nicht einfach als ein reines Resultat von Stimuluswiederholung angesehen werden können, sondern daß sie aus einem komplexen Zusammenspiel von Stimuluseigenschaften und Aufgabenanforderungen entstehen und je nach Aufgabe und experimentellen Manipulationen ganz unterschiedliche Primingeffekte für dieselben Stimuli bestehen können.

↓48

Die Existenz zweier Gedächtnismechanismen für implizite und explizite Gedächtnismanipulationen wurde in Studien mit ereigniskorrelierten Potentialen untersucht. Rugg et al. (1998) etwa untersuchten die Verarbeitung visuell dargebotener Wörter. Sie variierten den Enkodierungsmechanismus für Wörter in oberflächliche und tiefe Verarbeitung (tiefe Verarbeitung führt in expliziten Gedächtnisaufgaben zu einer besseren Erinnerung von Stimuli, während sie in impliziten Gedächtnisaufgaben nahezu keinen Einfluß hat) und ließen dann eine Wiedererkennensaufgabe durchführen. Aus den Ergebnissen der Wiedererkennensaufgabe wurden dann ERP auf neu dargebotene Wörter, korrekt wiedererkannte Wörter und fälschlich nicht wiedererkannte Wörter miteinander verglichen. Es zeigte sich bei 300 bis 500 ms ein parietaler Amplitudeneffekt, der Priming indizierte und auf eine reine Stimuluswiederholung unabhängig vom Wiedererkennen der Wörter und unabhängig von der Enkodierungstiefe reagierte. Im selben Zeitbereich gab es einen Amplitudeneffekt an frontalen Elektroden, der nur dann vorhanden war, wenn die Wörter bewusst erinnert wurden. Dieser Effekt wurde mit einer Vertrautheit für Wörter in Verbindung gebracht und unterschied sich nicht in Abhängigkeit von einer bewussten Erinnerung an die Enkodierungsepisode oder einem allgemeinen Gefühl von Vertrautheit mit den Wörtern.

Boehm, Sommer und Lueschow (2005) variierten den Zielstatus für wiederholte Gesichter und Wörter – ein Teil der Stimuli wurde als Ziel, welches bei Wiederholung explizit wiedererkannt werden musste, ein anderer Teil wurde wiederholt, ohne Ziel zu sein und hatte somit einen Status als Primingstimuli. Hier zeigten sich Unterschiede in den Topographien der Wiederholungseffekte für Zielgesichter und Nichtzielgesichter, aber auch für Wörter. Für Gesichter konnte ein Unterschied in der Topographie der Wiederholungseffekte bei etwa 350 ms bis 650 ms nach Stimulusbeginn zwischen Zielgesichtern und Nichtzielgesichtern gezeigt werden. Für die Nichtzielgesichter (Indikator von Priming) bestand an rechts- und linkshemisphärischen frontolateralen Elektroden ein Wiederholungseffekt, während für Zielgesichter etwa im selben Zeitbereich Wiederholungseffekte zunächst an frontalen Elektroden und später an parietalen Elektroden zu beobachten waren. Die Autoren konnten somit Hinweise darauf erbringen, daß bestimmte Effekte in impliziten Gedächtnisaufgaben wirklich andere Prozesse widerspiegeln als in bewussten Gedächtnisaufgaben.

Unter Berücksichtigung der Kontroverse im Bezug auf die Abgrenzung impliziter und expliziter Gedächtnisprozesse als Ausdruck zweier Gedächtnissysteme wird in der vorliegenden Arbeit die durchgeführte Primingmanipulation nicht als Auslöser unbewusst ablaufender Gedächtnisprozesse interpretiert, sondern die Bezeichnung Priming bezieht sich vor allem auf die experimentelle Gedächtnismanipulation. Dabei ist dann sehr wohl möglich, daß die Gesichterwiederholungen auch eine bewusste Gedächtnisspur erzeugen.

↓49

In der Einordnung von Primingphänomenen in Modelle der Gedächtnisverarbeitung wurde eine Unterscheidung zwischen verschiedenen Arten von Priming getroffen. Diese unterscheiden sich sowohl in Abhängigkeit von den verarbeiteten Stimuli als auch von kognitiven Aufgaben und reflektieren Primingprozesse auf verschiedenen Ebenen der Stimulusverarbeitung. Roediger und McDermott (1993) unterschieden perzeptuelles von konzeptuellem Priming. Perzeptuelle Primingeffekte werden durch Unterschiede in den physikalischen Eigenschaften der Stimuli beeinflusst und sind am stärksten, wenn derselbe Stimulus identisch wiederholt wird, wie zum Beispiel im Wiederholungspriming realisiert wird (Henson, 2003). Wiederholungspriming ist spezifisch für den präsentierten Stimulus und überträgt sich nicht auf andere Stimuli. Bei reinem Wiederholungspriming für Gesichter würde zum Beispiel kein Priming stattfinden, wenn ich das Gesicht von Hillary Clinton und danach das Gesicht ihres Ehemannes Bill Clinton sähe.

Konzeptuelle Primingeffekte werden dagegen durch die semantische, also sinnhafte Verarbeitung der Stimuli generiert. Eine Form konzeptuellen Primings ist das assoziative Priming. Beim assoziativen Priming besteht eine Wiederholung der Stimuli nicht im Sinne ihrer Wiederholung in perzeptuell identischer Form, sondern in einer Wiederholung von Teilen ihrer semantischen Bedeutung. Bei einem assoziativen Primingeffekt würde Priming stattfinden, wenn zunächst das Gesicht von Hillary Clinton und danach das Gesicht ihres Ehemannes Bill gezeigt wird. Hier stehen die Darbietungen der Gesichter von Hillary Clinton und ihrem Mann Bill in einem semantischen Zusammenhang, da beide Personen verheiratet sind. Assoziative Primingprozesse überleben im Gegensatz zum Wiederholungspriming verschiedene Stimulusmodalitäten. So kann assoziatives Priming nicht nur ausgelöst werden, wenn die Gesichter der beiden Personen präsentiert werden, sondern auch, wenn zunächst das Gesicht von Hillary Clinton gezeigt und danach der Name Bill Clinton verbal dargeboten wird.

1.8.3 Neuroanatomische Verortung von Primingphänomenen

↓50

Die zunächst bei Patienten mit Amnesie gemachte Beobachtung von intaktem Priming bei gestörtem explizitem Gedächtnis bot Hinweise darauf, wie sich die neuronale Verortung von Priming von derer expliziter Gedächtnisprozesse unterscheiden könnte. Personen mit Amnesie haben Läsionen vor allem im Hippocampus, während Areale des Neokortex meist intakt sind. Aus diesem Grund wurde angenommen, daß Primingprozesse überwiegend in neokortikalen Arealen verortet seien, die sich je nach Stimulusmodalität und Primingprozess, z.B. perzeptuellem und semantischem Priming, voneinander unterscheiden (z.B. Gabrieli, 1998). Buckner et al. (1998) sahen Primingeffekte für visuelle Objekte in den Arealen lokalisiert, die für die Verarbeitung der Stimuli spezialisiert sind.

Koutstaal et al. (2001) untersuchten perzeptuelle Primingeffekte für visuelle Objekte wie z.B. Regenschirme im fMRT. Dabei stellten sie zwei Wiederholungsbedingungen her: in der ersten Bedingung wurden die Objekte identisch wiederholt, in der zweiten Bedingung wurde dieselbe Art von Objekt, aber in Form eines anderen Exemplars gezeigt. Es zeigten sich im Gegensatz zur Annahme von Buckner et al. (1998), die eine relativ spezifische Beteiligung weniger Hirnareale an visuellen Primingprozessen annahmen, multiple kortikale Areale (insgesamt etwa 29), die sowohl in posteriorem als auch in frontalem Kortex lagen, in Form einer verringerten Aktivierung bei Stimuluswiederholung am Priming beteiligt. Mehrere frontale, occipitotemporale und parietale Areale zeigten eine verstärkte Aktivierungsabnahme bei Wiederholung der Objekte in identischer Form im Vergleich zu ihrer Wiederholung in Form anderer Exemplare. Im Gyrus fusiformis zeigte sich dabei eine hemisphärische Interaktion. Er zeigte in der rechten Hemisphäre einen schwächeren Primingeffekt für unterschiedliche Exemplare als in der linken Hemisphäre.

Die Studie zeigt einerseits, daß möglicherweise doch ein ganzes Netzwerk kortikaler Areale eine Beteiligung an perzeptuellen Primingeffekten zeigen kann. Sie zeigt andererseits, daß dem Gyrus fusiformis in der rechten Hemisphäre wahrscheinlich eine besondere Rolle in der Gedächtnisverarbeitung stimulusspezifischer Information bei Priming zukommt. Die Orte, an denen Primingeffekte für Gesichter in fMRT-Studien lokalisiert worden sind, werden in den Kapiteln 1.8.4.1 bis 1.8.4.3 dargestellt.

↓51

Bei der neuroanatomischen Verortung von Primingphänomenen interessiert nicht nur die Beantwortung der Frage, in welchen Arealen des Kortex sie ablaufen. Es wird auch versucht, Zusammenhänge zwischen neuronalen Prozessen bei Priming, wie sie mittels direkter Ableitungen etwa in intracerebralen Potentialstudien (z.B. Allison et al., 1999) oder in der Untersuchung der Feuerungsrate von Neuronen, wie sie an Affen durchgeführt wurde (z.B. Li, Miller und Desimone, 1996), gemessen werden können, und Primingeffekten in elektrophysiologischen Korrelaten neuronaler Aktivität und in fMRT-Parametern herzustellen. Dabei werden gelegentlich die intracerebral gemessenen neuronalen Primingmechanismen direkt auf die an der Kopfoberfläche gemessenen Primingkorrelate bezogen. Wiggs und Martin (1998) etwa sahen den neuronalen Mechanismus von Primingprozessen in einer Optimierung von Stimulusrepräsentationen in neuronalen Netzwerken, die den Stimulus verarbeiten. Dabei sahen sie (Wiggs und Martin, 1998) den neuronalen Optimierungsmechanismus in einem Wegfall von Neuronenverbindungen, die redundante Stimulusmerkmale kodieren, während die Verbindungen zwischen Neuronen, die wesentliche Stimuluseigenschaften kodieren, durch die wiederholten Darbietungen gestärkt würden. Die Abschwächung hämodynamischer Aktivierung im fMRT, die oft in Primingstudien gefunden wird, sahen sie als Ausdruck dieses neuronalen Prozesses an.

Henson und Rugg (2003) zeigten Unschlüssigkeiten in solch simplifizierenden Modellen und postulierten, daß Zusammenhänge in dieser Form nicht einfach hergestellt werden können. Dabei stellt nicht nur die zeitliche Überlappung kognitiver Operationen, die in kortikalen Arealen mittels fMRT gemessen werden, ein Problem dar, sondern auch die Tatsache, daß Primingeffekte im fMRT nicht nur in einer Aktivierungsabschwächung, sondern auch in einer Aktivierungsverstärkung bestehen können, für die die Theorie von Wiggs und Martin (1998) keine Erklärung liefert (Ergebnisse zu Aktivierungsverstärkung und abschwächung bei Gesichterpriming im fMRT werden in den Kapiteln 1.8.4.1 bis 1.8.4.3 dargestellt). Primingeffekte hängen zudem nicht nur von der reinen Stimuluswiederholung ab, sondern variieren auch mit der experimentellen Aufgabe. Dieser Effekt wurde nicht nur in Studien bei der Erfassung von Verhaltensmaßen des Priming (z.B. Ostergaard, 1998), sondern auch in fMRT-Studien gefunden (z.B. Henson, Shallice, Gorno-Tempini und Dolan, 2002). Eine eindeutige Interpretation von Primingeffekten in an der Kopfoberfläche gemessenen Parametern neuronaler Aktivität im Hinblick auf ihnen zugrundeliegende basale neuronale Mechanismen sollte deshalb nicht unbedingt vorgenommen werden.

1.8.4 Bedingungen von Effekten des Wiederholungspriming für Gesichter

↓52

In der vorliegenden Arbeit werden Gesichter in einer Wiederholungsprimingaufgabe gezeigt. Deshalb soll in den folgenden Kapiteln eine Einführung zu Effekten des Wiederholungspriming vor allem für Gesichter, aber auch anhand ausgewählter Studien für andere Stimuli gegeben werden. Die Untersuchung von Primingeffekten für Gesichter erscheint gut geeignet, um deren Gedächtnisverarbeitung zu untersuchen, da Priming die natürlichen Bedingungen, unter denen Gesichter gesehen werden, gut widerspiegelt. Gesichter werden in natürlichen Situationen auch meist im „Vorbeigehen“ gesehen, ohne daß man sich vornimmt, sie bewusst einzuprägen, wie explizite Gedächtnisaufgaben es von den Versuchspersonen verlangen.

Wiederholungsprimingeffekte für Gesichter hängen nicht nur von der einfachen Stimuluswiederholung ab, sondern sie werden unter anderem von der Bekanntheit der Gesichter, dem zeitlichen Abstand zwischen den Gesichterwiederholungen und der Wiederholungshäufigkeit beeinflusst (z.B. Henson, Shallice und Dolan, 2000).

1.8.4.1  Bekanntheit der Gesichter

↓53

Primingeffekte für unbekannte Gesichter wurden lange Zeit als nicht existent angenommen. Man ging davon aus, daß Priming für Gesichter auf dem Niveau der Personenerkennung ablaufe (z.B. Ellis, Young und Flude, 1990). Eine solche Personenerkennung ist nach Ellis et al. (1990) nur bei bekannten Gesichtern und auch dort nur für Aufgaben, die eine Identifizierung der individuellen Personen erfordern, möglich. Eine solche Aufgabe war bei Ellis et al. (1990) eine Klassifizierung des Berufes bei Erstdarbietung und eine Bekanntheitsentscheidung bei Wiederholung, die einen Primingeffekt erzeugten. Die Autoren fanden für Geschlechtsentscheidungen und Entscheidungen über den Gesichtsausdruck kein Priming für die bekannten Gesichter. Andere Studien fanden jedoch sogar für unbekannte Gesichter Effekte des Wiederholungspriming in einer Geschlechtsentscheidungsaufgabe (z.B. Goshen-Gottstein und Ganel, 2000). Um einen solchen Effekt für unbekannte Gesichter zu evozieren, war bei Goshen-Gottstein und Ganel (2000) jedoch die holistische Verarbeitung eines Gesichts entscheidend. Wenn eine Stimulusentscheidung getroffen werden konnte, indem eine Geschlechtsentscheidung allein aufgrund der Frisur getroffen werden konnte, dann wurde kein Primingeffekt beobachtet.

Effekte des Wiederholungspriming für völlig unbekannte Gesichter werden vor allem für dieselben Aufnahmen eines Gesichts bei Erstdarbietung und Wiederholung beobachtet. Ein Primingeffekt beruht hier auf der Reaktivierung rein perzeptueller und möglicherweise auch visuell extrahierbarer semantischer Gesichtsmerkmale wie dem Geschlecht und basiert wahrscheinlich auf hoch stimulusspezifischen visuellen Repräsentationen des Gesichts (z.B. Schweinberger et al., 2002a), die auch im Sinne eines piktoriellen Gedächtniseffekts, den Bruce und Young (1986) für die Wiederholung derselben Gesichtsaufnahmen annahmen, interpretiert werden können.

Primingeffekte sind für bekannte Gesichter meist stärker als für unbekannte Gesichter. Während Primingeffekte für unbekannte Gesichter in Reaktionszeiten (z.B. Henson et al., 2002) und ereigniskorrelierten Potentialen (z.B. Begleiter et al., 1995) meist nur für kurze Zeitabstände von einigen Sekunden oder wenige intervenierende Gesichter zwischen den Wiederholungen gefunden wurden und nach längeren Zeitabständen verschwanden, waren Primingeffekte für bekannte Gesichter auch für Zeitabstände von mehreren Minuten – z.B. bei Henson et al. (2002) drei Minuten – zwischen Wiederholungen zu beobachten. Primingeffekte für unbekannte Gesichter werden um 400 ms bis 600 ms an Elektroden der Mittellinie und posterioren Elektroden, für bekannte Gesichter dagegen eher an parietalen und rechtsfrontalen Elektroden (Henson et al., 2003), aber auch an parietalen und zentralen Elektroden (Schweinberger, 1995) beobachtet. Die Primingeffekte für unbekannte Gesichter reflektieren wahrscheinlich die wiederholte Verarbeitung visuell extrahierbarer semantischer Informationen wie etwa des Geschlechts (Schweinberger, Pfütze und Sommer, 1995) und die Aktivierung kurzfristig gespeicherter Stimulusrepräsentationen, sie sollten aber auch die Verarbeitung visuell-perzeptueller Gesichtsinformation reflektieren, die benötigt werden, um Repräsentationen der Stimuli im Langzeitgedächtnis aufzubauen.

↓54

Für bekannte Gesichter reflektieren Primingeffekte nicht nur den Zugriff auf kurzfristig gespeicherte Repräsentationen aufgrund der zeitnahen Stimuluswiederholung, sondern finden auch auf der Ebene der Aktivierung von Langzeitrepräsentationen eines Gesichts statt (Henson et al., 2000) und können für persönlich bekannte oder berühmte Gesichter auch die Aktivierung verbal vermittelter semantischer Informationen über die Person enthalten (Henson et al., 2003). Auch bei bekannten Gesichtern werden Primingeffekte aber von der Stärke der Gedächtnisspur aufgrund der zeitnahen Wiederholung beeinflusst. Schweinberger et al. (2002) fanden für berühmte Gesichter einen Primingeffekt auf der von ihnen N250r genannten Komponente (siehe auch Kapitel 1.6.2.5), der jedoch für Wiederholungen mit einem Abstand von mehreren Minuten nicht mehr bestand. Dieser Effekt wurde an frontozentralen Elektroden vom Grad der Vertrautheit bekannter Gesichter beeinflusst (Herzmann et al., 2004) und war für persönlich bekannte Gesichter am stärksten ausgeprägt (eine ausführliche Darstellung von Wiederholungseffekten für Gesichter in Primingaufgaben in ERP ab 300 ms findet sich in Kapitel 1.6.2.6).

Die Unterschiede in Primingeffekten für bekannte und unbekannte Gesichter in ERP-Studien sind möglicherweise Ausdruck unterschiedlicher neuronaler Mechanismen des Priming für die beiden Arten von Gesichtern. Solche Unterschiede wurden in fMRT-Studien beobachtet, in denen die Art der Aktivierungsveränderung bei Primingeffekten für berühmte und unbekannte Gesichter unterschiedlich war. Henson et al. (2000) fanden bei der Wiederholung berühmter Gesichter in einer Primingaufgabe eine Abnahme der Reaktionsstärke im Gyrus fusiformis, während sie bei der Wiederholung unbekannter Gesichter eine Zunahme der Aktivierung fanden. Dieser Prozess lief in nahegelegenen Teilen des Gyrus fusiformis in gleicher Weise auch für den Vergleich bekannter mit unbekannten Symbolen ab. Der Effekt differentieller Aktivierungsveränderung in Abhängigkeit von der Bekanntheit der Gesichter wurde in einem Gebiet des rechtshemisphärischen Gyrus fusiformis beobachtet, das eine stärkere Aktivierung für bekannte als für unbekannte Gesichter gezeigt hatte (Henson et al., 2000). In einer weiteren fMRT-Studie fand die Arbeitsgruppe um Henson (Henson, Shallice, Gorno-Tempini und Dolan, 2002) die Reaktionsabnahme im rechten Gyrus fusiformis für berühmte Gesichter nur in einer Primingaufgabe, während die Reaktionsabnahme für eine explizite Gedächtnisaufgabe nicht vorhanden war. In der Gyri occipitales inferiori der linken Hemisphäre konnten Henson et al. (2002) ebenfalls nur in der Primingaufgabe eine Reaktionsabnahme für berühmte und unbekannte Gesichter zeigen. Henson et al. (2003) fanden einen Primingeffekt für berühmte Gesichter als Verringerung der Aktivierung in zwei Gebieten des linkshemisphärischen Gyrus fusiformis, von denen das eine weiter posterior bei etwa -75 mm in der y-Talairachkoordinate (zum Talairachsystem siehe Kapitel 3.8.3), das andere dagegen weiter anterior bei etwa -48 mm lag. Primingeffekte wurden in dieser Studie (Henson et al., 2003) auch im rechten occipitalen Gesichterareal und im rechten Sulcus mediofrontalis gefunden, sie bestanden allerdings gleichartig für bekannte und unbekannte Gesichter.

Die oben genannten fMRT-Studien zeigen, daß Primingeffekte für Gesichter in den Arealen des Gesichterverarbeitungsnetzwerkes (siehe Kapitel 1.5) sich in Abhängigkeit von der Bekanntheit der Gesichter unterscheiden und aufgaben- und stimulusspezifische neuronale Aktivierungsveränderungen mit variierender Lateralisierungstendenz widerspiegeln. Sie bieten aber auch einen Hinweis darauf, daß in Übereinstimmung mit der Annahme von Buckner et al. (1998) Primingeffekte für Gesichter in den Arealen ablaufen, die für die Verarbeitung eine Präferenz zeigen, da sie vor allem in Arealen, die zum neuronalen Netzwerk der Gesichterverarbeitung (siehe Kapitel 1.5.1) liegen, gezeigt wurden. Henson et al. (2000) interpretierten die Aktivierungsverstärkung für unbekannte Gesichter als Ausdruck der Bildung von Gedächtnisrepräsentationen neuer Stimuli in Arealen, in denen die Erkennung von Gesichtern abläuft. Die Aktivierungsabschwächung für bekannte und unbekannte Gesichter im occipitalen Gesichterareal interpretierten sie als Hinweis darauf, daß dort Prozesse ablaufen, die für die Verarbeitung bekannter und unbekannter Gesichter in gleicher Weise passieren und somit keine besondere Beteiligung an der Bildung von Gedächtnisrepräsentationen für Gesichter zeigen.

↓55

1.8.4.2 Zeitintervall zwischen Gesichterwiederholungen

Eine Reaktionsveränderung wird nicht durch die Bekanntheit, sondern auch durch den Zeitabstand beziehungsweise die Zahl der zwischen Wiederholungen intervenierenden Items beeinflusst (z.B. Ostergaard, 1998 für Wortpriming). Bei längerem Abstand ist eine Verkleinerung von Primingeffekten für Gesichter zu erkennen (z.B. Bentin und Moscovitch (1988) für Reaktionszeiten; Henson et al. (2000) für fMRT). Bentin und Moscovitch (1988) fanden Wiederholungspriming in einer Aufgabe, in der eine Gesicht- / Nichtgesichtentscheidung getroffen werden musste, nur für eine unmittelbare Wiederholung der Gesichter. Ein Primingeffekt bestand allerdings auch über mehrere zwischen Wiederholungen intervenierende Gesichter, wenn die Gesichter eines oder mehrere Male vor der Primingaufgabe gesehen worden waren und die Primingaufgabe in einer Bekanntheitsentscheidung (Bezug zur präexperimentellen Gesichterdarbietung) für die Gesichter bestand. Somit zeigt sich hier eine Interaktion von Bekanntheit und Zeitintervall.

In fMRT-Studien fanden sich Primingeffekte für unbekannte Gesichter auch für längere Zeitintervalle zwischen den Präsentationen. Henson et al. (2000) untersuchten den Einfluss der Variation des Zeitintervalls bei Gesichterpriming auf die Aktivierungsveränderung im fMRT. Das Zeitintervall zwischen den Wiederholungen variierte von einem bis zu 147 Items bzw. von 8 Sekunden bis 20 Minuten. Bei Wiederholung der Gesichter zeigte sich eine Verstärkung der Reaktion für unbekannte und eine Abschwächung der Reaktion für bekannte Gesichter im rechten Gyrus fusiformis (siehe dazu auch Kapitel 1.8.4.1). Gleichzeitig wurde eine Region im fusiformen Areal beobachtet, in der sich eine Wechselwirkung zwischen dem Zeitintervall zwischen Wiederholungen und der Bekanntheit ergab: die Aktivierungsveränderung auf bekannte Gesichter wurde bei längerem Zeitabstand stärker, die für unbekannte Gesichter hingegen nahm ab. Primingeffekte für unterschiedliche Zeitintervalle indizieren somit möglicherweise unterschiedliche neuronale Prozesse, die auch mit der Bekanntheit der Stimuli interagieren.

↓56

Im ERP wird die Komplexität der neuronalen Primingmechanismen und ihrer Abhängigkeit von Zeitintervallen weniger genau als im fMRT abgebildet. Hier zeigten sich Primingeffekte in Abhängigkeit vom Zeitintervall vor allem in einer Veränderung der quantitativen Stärke der Effekte. Henson, Rylands, Ross, Vuilleumeir und Rugg (2004) untersuchten den Einfluß des Zeitabstandes zwischen Wiederholungen auf Primingeffekte für visuelle Objekte (Gesichter waren nicht unter den Stimuli). Sie variierten den Abstand zwischen den Wiederholungen in 96 Sekunden bzw. 40 intervenierende Stimuli, zwei Sekunden und vier Sekunden zwischen Wiederholungen. Sie fanden vor allem quantitative Effekte der zeitlichen Variation auf ERP, aber auch auf fMRT-Parameter. Die Aktivierungsveränderungen im fMRT und die Primingeffekte im ERP wurden mit dem größeren Abstand kleiner.

1.8.4.3 Anzahl der Gesichterwiederholungen

Primingprozesse wurden von Hauptmann und Karni (2002) vom Lernen spezifischer Fertigkeiten (Skill learning) dadurch abgegrenzt, daß sie schon bei einer Wiederholung auftreten können, während das sogenannte Skill learning (siehe Kapitel 1.8.2) mehrere Wiederholungen braucht, um Effekte zu zeigen. Die mehrmalige Wiederholung der Stimuli hat dennoch auch auf Primingeffekte unter bestimmten Bedingungen einen Einfluß. Sie führt zu einer Verstärkung von Primingeffekten. Suguira et al. (2001) fanden zum Beispiel für Gesichter von persönlich bekannten Menschen eine kontinuierliche Abnahme der Reaktivität über mehrere Darbietungen desselben Stimulus im fMRT. Henson et al. (2000) konnten im fMRT denselben Effekt für die Gesichter berühmter Personen zeigen. Dabei zeigte sich der Unterschied zwischen den Primingmechanismen für bekannte und unbekannte Gesichter (Aktivierungsabnahme für bekannte, Aktivierungsverstärkung für unbekannte Gesichter, siehe Kapitel 1.8.4.1) über fünf Wiederholungen der Gesichter. Für Symbole zeigte sich bei Henson et al. (2000) bei fünfmaliger Wiederholung eine Interaktion mit dem Lag: die differentielle Sensitivität des Lags im Sinne stärkerer Primingeffekte für kurze als lange Lags nahm mit steigender Anzahl der Wiederholungen ab.

Hauptmann und Karni (2002) untersuchten für eine visuelle Buchstabenerkennungsaufgabe Primingprozesse in Abhängigkeit von der Wiederholungshäufigkeit. Sie wiederholten die Stimuli zehnmal und führten zwei Primingsitzungen an aufeinanderfolgenden Tagen durch. Sie fanden schon in der ersten Sitzung nach sechsmaliger Wiederholung eine Saturierung von Primingeffekten im Sinne keiner weiteren Verstärkung des Primingeffektes trotz weiterer Wiederholungen. Gleichzeitig zeigte sich diese Saturierung jedoch als Bedingung für die Induktion von längerfristigen Gedächtniseffekten. Ein solcher Gedächtniseffekt zeigte sich in dieser Studie anhand einer generellen Reaktionszeitverkürzung von der ersten zur zweiten, identischen Primingsitzung. Bei einer dreimaligen Wiederholung der Primingstimuli in der ersten Primingsitzung fand dagegen noch keine Saturierung des Primingeffektes, aber auch keine generelle Reaktionszeitverkürzung zur zweiten Sitzung statt. Die Autoren (Hauptmann und Karni, 2002) interpretierten das Saturierungsphänomen als einen initiierenden Faktor für die Entstehung von Langzeitgedächtnisspuren.

↓57

In intracerebralen Potentialstudien wurden in Primingaufgaben für Gesichter die größten Primingeffekte von erster zu zweiter Stimulusdarbietung in Potentialableitungen vom Gyrus fusiformis gesehen. Abbildung 1.9 zeigt den Effekt der achtmaligen identischen Wiederholung unbekannter Gesichter auf die Amplituden intracerebraler Potentiale im Gyrus fusiformis (Puce et al., 1999; zur genauen Messanordnung der intracerebralen Potentialstudien und zu den jeweiligen Komponenten siehe Kapitel 1.6.1).

Die Gesichter wurden bei Puce et al. (1999) im Abstand von zwei Sekunden ohne intervenierende Stimuli wiederholt. Für die N200-Amplitude (gesichterspezifisch, Indikator struktureller Enkodierung) zeigte sich vor allem von erster zu zweiter Darbietung ein Primingeffekt. Wenn dieser Unterschied aus der ANOVA über alle acht Gesichterwiederholungen entfernt wurde, so zeigte sich keine Veränderung der N200 über die Wiederholungen. Die P290 (nicht gesichterspezifisch) zeigte klare Wiederholungseffekte, aber eine Saturierung des Primingeffektes schon nach der zweiten Darbietung. Bei N700 und P350 (beide gesichterspezifisch) im anterioren Gyrus fusiformis (AP350) und im mittleren bis posterioren Gyrus fusiformis (VP350) zeigten sich zwar die deutlichsten Abnahmen ebenfalls von erster zu zweiter Darbietung, es wurde aber eine progressive Veränderung der Amplitude über die acht Darbietungen beobachtet.

Abbildung 1.9: Einfluß von Wiederholungspriming für unbekannte Gesichter auf intracerebrale Potentiale im Gyrus fusiformis bei Menschen bei achtmaliger Gesichterwiederholung.

↓58

Die mehrmalige Wiederholung von Gesichtern erzeugte somit in intracerebralen Potentialstudien auf verschiedenen Stufen der Gesichterverarbeitung unterschiedliche Grade an Saturierung; alle Potentiale zeigten aber die deutlichste Abnahme von erster zu zweiter Darbietung. Eine Verstärkung der Primingeffekte wurde vor allem auf den späten gesichterspezifischen Verarbeitungsstufen (P350 und N700), die mit höheren kognitiven Verarbeitungsprozessen – im Gegensatz zur deutlich perzeputell bezogenen Verarbeitung auf der Ebene der N200 (Allison et al., 1999) – gefunden. Die in Kapitel 1.8.4.3 aufgeführten Ergebnisse lassen vermuten, daß eine häufige Wiederholung von Gesichtern nicht unbedingt in allen Primingparametern einer Studie eine kontinuierliche Verstärkung von Primingeffekten erzeugt, sondern sich differentiell auf die Veränderung der einzelnen Parameter (z.B. Reaktionszeiten, verschiedene ERP-Komponenten) auswirkt.


© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.
DiML DTD Version 4.0Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML-Version erstellt am:
19.10.2006