Zur Kurzanzeige

2015-07-10Dissertation DOI: 10.18452/17247
Neural and behavioral interactions in the processing of speech and speaker information
dc.contributor.authorKreitewolf, Jens
dc.date.accessioned2017-06-18T14:05:34Z
dc.date.available2017-06-18T14:05:34Z
dc.date.created2015-07-21
dc.date.issued2015-07-10
dc.identifier.urihttp://edoc.hu-berlin.de/18452/17899
dc.description.abstractWährend wir Konversationen führen, senden wir akustische Signale, die nicht nur den Inhalt des Gesprächs betreffen, sondern auch eine Fülle an Informationen über den Sprecher liefern. Traditionellerweise wurden Sprachverständnis und Sprechererkennung als zwei voneinander unabhängige Prozesse betrachtet. Neuere Untersuchungen zeigen jedoch eine Integration in der Verarbeitung von Sprach- und Sprecher-Information. In dieser Dissertation liefere ich weitere empirische Evidenz dafür, dass Prozesse des Sprachverstehens und der Sprechererkennung auf neuronaler und behavioraler Ebene miteinander interagieren. In Studie 1 präsentiere ich die Ergebnisse eines Experiments, das funktionelle Magnetresonanztomographie (fMRT) nutzte, um die neuronalen Grundlagen des Sprachverstehens unter wechselnden Sprecherbedingungen zu untersuchen. Die Ergebnisse dieser Studie deuten auf einen neuronalen Mechanismus hin, der funktionelle Interaktionen zwischen sprach- und sprecher-sensitiven Arealen der linken und rechten Hirnhälfte nutzt, um das korrekte Verstehen von Sprache im Kontext von Sprecherwechseln zu gewährleisten. Dieser Mechanismus impliziert, dass die Sprachverarbeitung, einschließlich des Erkennens von linguistischer Prosodie, vornehmlich von Arealen der linken Hemisphäre unterstützt wird. In Studie 2 präsentiere ich zwei fMRT-Experimente, die die hemisphärische Lateralisierung der Erkennung von linguistischer Prosodie im Vergleich zur Erkennung der Sprachmitteilung respektive der Sprecheridentität untersuchten. Die Ergebnisse zeigten eine deutliche Beteiligung von Arealen in der linken Hirnhälfte, wenn linguistische Prosodie mit Sprecheridentität verglichen wurde. Studie 3 untersuchte, unter welchen Bedingungen Hörer von vorheriger Bekanntheit mit einem Sprecher profitieren. Die Ergebnisse legen nahe, dass Hörer akustische Sprecher-Information implizit während einer Sprach-Aufgabe lernen und dass sie diese Information nutzen, um ihr Sprachverständnis zu verbessern.ger
dc.description.abstractDuring natural conversation, we send rich acoustic signals that do not only determine the content of conversation but also provide a wealth of information about the person speaking. Traditionally, the question of how we understand speech has been studied separately from the question of how we recognize the person speaking either implicitly or explicitly assuming that speech and speaker recognition are two independent processes. Recent studies, however, suggest integration in the processing of speech and speaker information. In this thesis, I provide further empirical evidence that processes involved in the analysis of speech and speaker information interact on the neural and behavioral level. In Study 1, I present data from an experiment which used functional magnetic resonance imaging (fMRI) to investigate the neural basis for speech recognition under varying speaker conditions. The results of this study suggest a neural mechanism that exploits functional interactions between speech- and speaker-sensitive areas in left and right hemispheres to allow for robust speech recognition in the context of speaker variations. This mechanism assumes that speech recognition, including the recognition of linguistic prosody, predominantly involves areas in the left hemisphere. In Study 2, I present two fMRI experiments that investigated the hemispheric lateralization of linguistic prosody recognition in comparison to the recognition of the speech message and speaker identity, respectively. The results showed a clear left-lateralization when recognition of linguistic prosody was compared to speaker recognition. Study 3 investigated under which conditions listeners benefit from prior exposure to a speaker''s voice in speech recognition. The results suggest that listeners implicitly learn acoustic speaker information during a speech task and use such information to improve comprehension of speech in noise.eng
dc.language.isoeng
dc.publisherHumboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II
dc.rightsNamensnennung - Keine kommerzielle Nutzung - Weitergabe unter gleichen Bedingungen
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/de/
dc.subjectfMRTger
dc.subjectSpracheger
dc.subjectStimmeger
dc.subjectSprechererkennungger
dc.subjectLinguistische Prosodieger
dc.subjectGlottisger
dc.subjectFunktionelle Konnektivitätger
dc.subjectHemisphärische Lateralisierungger
dc.subjectSprecherbekanntheitger
dc.subjectfMRIeng
dc.subjectVoiceeng
dc.subjectSpeecheng
dc.subjectSpeaker Recognitioneng
dc.subjectLinguistic Prosodyeng
dc.subjectGlottal Foldseng
dc.subjectFunctional Connectivityeng
dc.subjectHemispheric Lateralizationeng
dc.subjectTalker Familiarityeng
dc.subject.ddc150 Psychologie
dc.titleNeural and behavioral interactions in the processing of speech and speaker information
dc.typedoctoralThesis
dc.identifier.urnurn:nbn:de:kobv:11-100231205
dc.identifier.doihttp://dx.doi.org/10.18452/17247
dc.identifier.alephidBV042705810
dc.date.accepted2014-10-13
dc.contributor.refereeKriegstein, Katharina von
dc.contributor.refereeSommer, Werner
dc.contributor.refereeAlter, Kai
dc.subject.dnb11 Psychologie
dc.subject.rvkCQ 4000
dc.subject.rvkCZ 1350
local.edoc.pages60
local.edoc.type-nameDissertation
bua.departmentMathematisch-Naturwissenschaftliche Fakultät II

Zur Kurzanzeige