Show simple item record

2015-08-13Dissertation DOI: 10.18452/17283
Kontexteffekte in Large-Scale Assessments
dc.contributor.authorWeirich, Sebastian
dc.date.accessioned2017-06-18T14:13:09Z
dc.date.available2017-06-18T14:13:09Z
dc.date.created2015-08-26
dc.date.issued2015-08-13
dc.identifier.urihttp://edoc.hu-berlin.de/18452/17935
dc.description.abstractIm Rahmen der Item-Response-Theorie evaluiert die kumulative Dissertationsschrift verschiedene Methoden und Modelle zur Identifikation von Kontexteffekten in Large-Scale Assessments. Solche Effekte können etwa in quantitativen empirischen Schulleistungsstudien auftreten und zu verzerrten Item- und Personenparametern führen. Um in Einzelfällen abschätzen zu können, ob Kontexteffekte auftreten und dadurch die Gefahr verzerrter Parameter gegeben ist (und falls ja, in welcher Weise), müssen IRT-Modelle entwickelt werden, die zusätzlich zu Item- und Personeneffekten Kontexteffekte parametrisieren. Solch eine Parametrisierung ist im Rahmen Generalisierter Allgemeiner Linearer Modelle möglich. In der Dissertation werden Positionseffekte als ein Beispiel für Kontexteffekte untersucht, und es werden die statistischen Eigenschaften dieses Messmodells im Rahmen einer Simulationsstudie evaluiert. Hier zeigt sich vor allem die Bedeutung des Testdesigns: Um unverfälschte Parameter zu gewinnen, ist nicht nur ein adäquates Messmodell, sondern ebenso ein adäquates, also ausbalanciertes Testdesign notwendig. Der dritte Beitrag der Dissertation befasst sich mit dem Problem fehlender Werte auf Hintergrundvariablen in Large-Scale Assessments. Als Kontexteffekt wird in diesem Beispiel derjenige Effekt verstanden, der die Wahrscheinlichkeit eines fehlenden Wertes auf einer bestimmten Variablen systematisch beeinflusst. Dabei wurde das Prinzip der multiplen Imputation auf das Problem fehlender Werte auf Hintergrundvariablen übertragen. Anders als bisher praktizierte Ansätze (Dummy-Codierung fehlender Werte) konnten so in einer Simulationsstudie für fast alle Simulationsbedingungen unverfälschte Parameter auf der Personenseite gefunden werden.ger
dc.description.abstractThe present doctoral thesis evaluates various methods and models of the item response theory to parametrize context effects in large-scale assessments. Such effects may occur in quantitative educational assessments and may cause biased item and person parameter estimates. To decide whether context effects occur in individual cases and lead to biased parameters, specific IRT models have to be developed which parametrize context effects additionally to item and person effects. The present doctoral thesis consists of three single contributions. In the first contribution, a model for the estimation of context effects in an IRT framework is introduced. Item position effects are examined as an example of context effects in the framework of generalized linear mixed models. Using simulation studies, the statistical properties of the model are investigated, which emphasizes the relevance of an appropriate test design. A balanced incomplete test design is necessary not only to obtain valid item parameters in the Rasch model, but to guarantee for unbiased estimation of position effects in more complex IRT models. The third contribution deals with the problem of missing background data in large-scale assessments. The effect which predicts the probability of a missing value on a certain variable, is considered as a context effect. Statistical methods of multiple imputation were brought up to the problem of missing background data in large-scale assessments. In contrast to other approaches used so far in practice (dummy coding of missing values) unbiased population and subpopulation estimates were received in a simulation study for most conditions.eng
dc.language.isoger
dc.publisherHumboldt-Universität zu Berlin, Lebenswissenschaftliche Fakultät
dc.rightsNamensnennung - Keine kommerzielle Nutzung - Weitergabe unter gleichen Bedingungen
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/de/
dc.subjectKontexteffekteger
dc.subjectTestdesignger
dc.subjectLarge-Scale Assessmentsger
dc.subjectItem-Response-Theorieger
dc.subjectItempositionseffekteger
dc.subjectmissing datager
dc.subjectmultiple Imputationger
dc.subjectcontext effectseng
dc.subjectitem response theoryeng
dc.subjecttest designeng
dc.subjectLarge-scale assessmentseng
dc.subjectitem position effectseng
dc.subjectmissing dataeng
dc.subjectmultiple imputationeng
dc.subject.ddc150 Psychologie
dc.titleKontexteffekte in Large-Scale Assessments
dc.typedoctoralThesis
dc.identifier.urnurn:nbn:de:kobv:11-100231914
dc.identifier.doihttp://dx.doi.org/10.18452/17283
dc.identifier.alephidBV042778690
dc.date.accepted2015-07-13
dc.contributor.refereeLüdtke, Oliver
dc.contributor.refereePant, Hans Anand
dc.contributor.refereeZiegler, Matthias
dc.subject.dnb11 Psychologie
dc.subject.rvkCM 3000
dc.subject.rvkCM 3200
local.edoc.pages92
local.edoc.type-nameDissertation
bua.departmentLebenswissenschaftliche Fakultät

Show simple item record