Zusammenfassung
Im vorliegenden Kapitel geht es um die Anwendung von IRT-Modellen im Rahmen der empirischen Bildungsforschung. Bei großen Schulleistungsstudien werden spezifische Vorteile der IRT genutzt, um beispielsweise das Matrix-Sampling von Testaufgaben, die Erstellung paralleler Testformen und die Entwicklung computerisierter adaptiver Tests zu ermöglichen. Ein weiterer wesentlicher Vorteil von IRT-Modellen ist die Möglichkeit der kriteriumsorientierten Interpretation IRT-basierter Testwerte. Diese wird durch die gemeinsame Verortung von Itemschwierigkeiten und Personenfähigkeiten auf einer Joint Scale durchführbar. Bei Gültigkeit des Rasch-Modells können individuelle Testwerte durch ihre Abstände zu Itemschwierigkeiten interpretiert werden. Auf dieser zentralen Eigenschaft von Rasch-Modellen bauen auch sog. „Kompetenzniveaus“ auf. Zur leichteren Interpretation wird die kontinuierliche Skala in Abschnitte (Kompetenzniveaus) unterteilt, die dann als Ganzes kriteriumsorientiert beschrieben werden. In diesem Kapitel werden an einem gemeinsamen Beispiel die Definition und Beschreibung von Kompetenzniveaus anhand eines Vorgehens mit Post-hoc-Analysen der Items und die Verwendung von A-priori-Aufgabenmerkmalen veranschaulicht.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Literatur
Baumert, J., Artelt, C., Klieme, E. & Stanat, P. (2001). PISA. Programme for International Student Assessment. Zielsetzung, theoretische Konzeption und Entwicklung von Messverfahren. In F. E. Weinert (Hrsg.), Leistungsmessung in Schulen. Weinheim: Beltz.
Beaton, E. & Allen, N. (1992). Interpreting scales through scale anchoring. Journal of Educational Statistics, 17, 191–204.
Beck, B. & Klieme, E. (2003). DESI – Eine Large scale-Studie zur Untersuchung des Sprachunterrichts in deutschen Schulen. Zeitschrift für empirische Pädagogik, 17, 380–395.
Embretson, S. E. (1983). Construct validity: Construct representation versus nomothetic span. Psychological Bulletin, 93, 179–197.
Embretson, S. E. (1998). A cognitive design system approach for generating valid tests: Approaches to abstract reasoning. Psychological Methods, 3, 300–396.
Embretson, S. E. (2006). The Continued Search for nonarbitrary metrics in psychology. American Psychologist, 61, 50–55.
Fischer, G. H. (1973). The linear logistic test model as an instrument in educational research. Acta Psychologica, 37, 359–374.
Fischer, G. H. (1995). The linear logistic test model. In G. H. Fischer & I. W. Molenaar (Eds.), Rasch models: Foundations, recent developments, and applications (pp. 131–155). New York: Springer.
Graf, M., Greb, K.., Jeising, E. & Lipowski, F. (2011). Mathematiktest Eingangsuntersuchung. In G. Faust & F. Lipowsky (Hrsg.), Dokumentation der Erhebungsinstrumente zur Eingangsuntersuchung im Projekt „Persönlichkeits- und Lernentwicklung von Grundschulkindern (PERLE)“ (S. 41–54). Frankfurt am Main: GFPF.
Greb, K. (2007). Measuring number reading skills of students entering elementary school. Poster präsentiert auf der Summer Academy 2007on Educational Measurement. Berlin.
Hartig, J. (2007). Skalierung und Definition von Kompetenzniveaus. In E. Klieme & B. Beck (Hrsg.), Sprachliche Kompetenzen – Konzepte und Messung. DESI-Studie (Deutsch Englisch Schülerleistungen International) (S. 83–99). Weinheim: Beltz.
Hartig, J. & Klieme, E. (2006). Kompetenz und Kompetenzdiagnostik. In K. Schweizer (Hrsg.), Leistung und Leistungsdiagnostik (S. 127–143). Berlin, Heidelberg: Springer.
Helmke, A. & Hosenfeld, I. (2004). Vergleichsarbeiten – Standards – Kompetenzstufen: Begriffliche Klärungen und Perspektiven. In R. S. Jäger & A. Frey (Hrsg.), Lernprozesse, Lernumgebung und Lerndiagnostik. Wissenschaftliche Beiträge zum Lernen im 21. Jahrhundert. Landau: Verlag Empirische Pädagogik.
Hill, C. H., Schilling, S. G., Loewenberg Ball, D. (2004). Developing Measures of Teachers’ Mathematics Knowledge for Teaching. The Elementary School Journal, 105, 11–30.
Klieme, E., Artelt, C., Hartig, J., Jude, N., Köller, O., Prenzel, M., Schneider, W. & Stanat, P. (Hrsg.). (2010). PISA 2009: Bilanz nach einem Jahrzehnt. Münster: Waxmann.
Klieme, E., Baumert, J., Köller, O. & Bos, W. (2000). Mathematische und naturwissenschaftliche Grundbildung: Konzeptuelle Grundlagen und die Erfassung und Skalierung von Kompetenzen. In J. Baumert, W. Bos & R. H. Lehmann (Hrsg.), TIMSS/III. Dritte internationale Mathematik- und Naturwissenschaftsstudie. Band 1: Mathematische und naturwissenschaftliche Grundbildung am Ende der Pflichtschulzeit. Opladen: Leske + Buderich.
Klieme, E. & Beck, B. (Hrsg.). (2007). Sprachliche Kompetenzen – Konzepte und Messung. DESI-Studie (Deutsch Englisch Schülerleistungen International) Weinheim: Beltz.
Moosbrugger, H. (2011). Lineare Modelle. Regressions- und Varianzanalysen (4. Aufl., unter Mitarbeit von J. Engel, S. Etzler, K. Fischer und M. Weigand). Bern: Huber.
Nold, G. & Rossa, H. (2007). Hörverstehen. In E. Klieme & B. Beck (Hrsg.), Sprachliche Kompetenzen – Konzepte und Messung. DESI-Studie (Deutsch Englisch Schülerleistungen International) (S. 178–196). Weinheim: Beltz.
Organisation for Economic Co-operation and Development (OECD). (2001). Lernen für das Leben. Erste Ergebnisse der internationalen Schulleistungsstudie PISA 2000. Paris: OECD.
Organisation for Economic Co-operation and Development (OECD). (2004a). Lernen für die Welt von morgen. Erste Ergebnisse von PISA 2003. Paris: OECD.
Organisation for Economic Co-operation and Development (OECD). (2004b). Problem Solving for Tomorrow’s World – First Measures of Cross-Curricular Skills from PISA 2003. Paris: OECD.
Reiss, K., Sälzer, C., Schiepe-Tiska, A., Klieme, E. & Köller, O. (Hrsg.) (2016). PISA 2015: Eine Studie zwischen Kontinuität und Innovation. Münster: Waxmann.
PISA-Konsortium Deutschland (Hrsg.). (2004). PISA 2003. Der Bildungsstand der Jugendlichen in Deutschland – Ergebnisse des zweiten internationalen Vergleichs. Münster: Waxmann.
Rost, J. (2004). Lehrbuch Testtheorie – Testkonstruktion (2. Aufl.). Bern: Huber.
Wilson, M. R. (2003). On choosing a model for measuring. Methods of Psychological Research Online, 8, 1–22.
Wilson, M. & De Boeck, P. (2004). Descriptive and explanatory item response models. In P. De Boeck & M. Wilson (Eds.), Explanatory item response models: A generalized linear and nonlinear approach (S. 43–74). New York: Springer.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2020 Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature
About this chapter
Cite this chapter
Rauch, D., Hartig, J. (2020). Interpretation von Testwerten in der Item-Response-Theorie (IRT). In: Moosbrugger, H., Kelava, A. (eds) Testtheorie und Fragebogenkonstruktion. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-61532-4_17
Download citation
DOI: https://doi.org/10.1007/978-3-662-61532-4_17
Published:
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-662-61531-7
Online ISBN: 978-3-662-61532-4
eBook Packages: Psychology (German Language)