Skip to main content

Interpretation von Testwerten in der Item-Response-Theorie (IRT)

  • Chapter
  • First Online:
Testtheorie und Fragebogenkonstruktion

Zusammenfassung

Im vorliegenden Kapitel geht es um die Anwendung von IRT-Modellen im Rahmen der empirischen Bildungsforschung. Bei großen Schulleistungsstudien werden spezifische Vorteile der IRT genutzt, um beispielsweise das Matrix-Sampling von Testaufgaben, die Erstellung paralleler Testformen und die Entwicklung computerisierter adaptiver Tests zu ermöglichen. Ein weiterer wesentlicher Vorteil von IRT-Modellen ist die Möglichkeit der kriteriumsorientierten Interpretation IRT-basierter Testwerte. Diese wird durch die gemeinsame Verortung von Itemschwierigkeiten und Personenfähigkeiten auf einer Joint Scale durchführbar. Bei Gültigkeit des Rasch-Modells können individuelle Testwerte durch ihre Abstände zu Itemschwierigkeiten interpretiert werden. Auf dieser zentralen Eigenschaft von Rasch-Modellen bauen auch sog. „Kompetenzniveaus“ auf. Zur leichteren Interpretation wird die kontinuierliche Skala in Abschnitte (Kompetenzniveaus) unterteilt, die dann als Ganzes kriteriumsorientiert beschrieben werden. In diesem Kapitel werden an einem gemeinsamen Beispiel die Definition und Beschreibung von Kompetenzniveaus anhand eines Vorgehens mit Post-hoc-Analysen der Items und die Verwendung von A-priori-Aufgabenmerkmalen veranschaulicht.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 54.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Hardcover Book
USD 69.99
Price excludes VAT (USA)
  • Durable hardcover edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Literatur

  • Baumert, J., Artelt, C., Klieme, E. & Stanat, P. (2001). PISA. Programme for International Student Assessment. Zielsetzung, theoretische Konzeption und Entwicklung von Messverfahren. In F. E. Weinert (Hrsg.), Leistungsmessung in Schulen. Weinheim: Beltz.

    Google Scholar 

  • Beaton, E. & Allen, N. (1992). Interpreting scales through scale anchoring. Journal of Educational Statistics, 17, 191–204.

    Google Scholar 

  • Beck, B. & Klieme, E. (2003). DESI – Eine Large scale-Studie zur Untersuchung des Sprachunterrichts in deutschen Schulen. Zeitschrift für empirische Pädagogik, 17, 380–395.

    Google Scholar 

  • Embretson, S. E. (1983). Construct validity: Construct representation versus nomothetic span. Psychological Bulletin, 93, 179–197.

    Article  Google Scholar 

  • Embretson, S. E. (1998). A cognitive design system approach for generating valid tests: Approaches to abstract reasoning. Psychological Methods, 3, 300–396.

    Article  Google Scholar 

  • Embretson, S. E. (2006). The Continued Search for nonarbitrary metrics in psychology. American Psychologist, 61, 50–55.

    Article  Google Scholar 

  • Fischer, G. H. (1973). The linear logistic test model as an instrument in educational research. Acta Psychologica, 37, 359–374.

    Article  Google Scholar 

  • Fischer, G. H. (1995). The linear logistic test model. In G. H. Fischer & I. W. Molenaar (Eds.), Rasch models: Foundations, recent developments, and applications (pp. 131–155). New York: Springer.

    Chapter  Google Scholar 

  • Graf, M., Greb, K.., Jeising, E. & Lipowski, F. (2011). Mathematiktest Eingangsuntersuchung. In G. Faust & F. Lipowsky (Hrsg.), Dokumentation der Erhebungsinstrumente zur Eingangsuntersuchung im Projekt „Persönlichkeits- und Lernentwicklung von Grundschulkindern (PERLE)“ (S. 41–54). Frankfurt am Main: GFPF.

    Google Scholar 

  • Greb, K. (2007). Measuring number reading skills of students entering elementary school. Poster präsentiert auf der Summer Academy 2007on Educational Measurement. Berlin.

    Google Scholar 

  • Hartig, J. (2007). Skalierung und Definition von Kompetenzniveaus. In E. Klieme & B. Beck (Hrsg.), Sprachliche Kompetenzen – Konzepte und Messung. DESI-Studie (Deutsch Englisch Schülerleistungen International) (S. 83–99). Weinheim: Beltz.

    Google Scholar 

  • Hartig, J. & Klieme, E. (2006). Kompetenz und Kompetenzdiagnostik. In K. Schweizer (Hrsg.), Leistung und Leistungsdiagnostik (S. 127–143). Berlin, Heidelberg: Springer.

    Chapter  Google Scholar 

  • Helmke, A. & Hosenfeld, I. (2004). Vergleichsarbeiten – Standards – Kompetenzstufen: Begriffliche Klärungen und Perspektiven. In R. S. Jäger & A. Frey (Hrsg.), Lernprozesse, Lernumgebung und Lerndiagnostik. Wissenschaftliche Beiträge zum Lernen im 21. Jahrhundert. Landau: Verlag Empirische Pädagogik.

    Google Scholar 

  • Hill, C. H., Schilling, S. G., Loewenberg Ball, D. (2004). Developing Measures of Teachers’ Mathematics Knowledge for Teaching. The Elementary School Journal, 105, 11–30.

    Article  Google Scholar 

  • Klieme, E., Artelt, C., Hartig, J., Jude, N., Köller, O., Prenzel, M., Schneider, W. & Stanat, P. (Hrsg.). (2010). PISA 2009: Bilanz nach einem Jahrzehnt. Münster: Waxmann.

    Google Scholar 

  • Klieme, E., Baumert, J., Köller, O. & Bos, W. (2000). Mathematische und naturwissenschaftliche Grundbildung: Konzeptuelle Grundlagen und die Erfassung und Skalierung von Kompetenzen. In J. Baumert, W. Bos & R. H. Lehmann (Hrsg.), TIMSS/III. Dritte internationale Mathematik- und Naturwissenschaftsstudie. Band 1: Mathematische und naturwissenschaftliche Grundbildung am Ende der Pflichtschulzeit. Opladen: Leske + Buderich.

    Google Scholar 

  • Klieme, E. & Beck, B. (Hrsg.). (2007). Sprachliche Kompetenzen – Konzepte und Messung. DESI-Studie (Deutsch Englisch Schülerleistungen International) Weinheim: Beltz.

    Google Scholar 

  • Moosbrugger, H. (2011). Lineare Modelle. Regressions- und Varianzanalysen (4. Aufl., unter Mitarbeit von J. Engel, S. Etzler, K. Fischer und M. Weigand). Bern: Huber.

    Google Scholar 

  • Nold, G. & Rossa, H. (2007). Hörverstehen. In E. Klieme & B. Beck (Hrsg.), Sprachliche Kompetenzen – Konzepte und Messung. DESI-Studie (Deutsch Englisch Schülerleistungen International) (S. 178–196). Weinheim: Beltz.

    Google Scholar 

  • Organisation for Economic Co-operation and Development (OECD). (2001). Lernen für das Leben. Erste Ergebnisse der internationalen Schulleistungsstudie PISA 2000. Paris: OECD.

    Google Scholar 

  • Organisation for Economic Co-operation and Development (OECD). (2004a). Lernen für die Welt von morgen. Erste Ergebnisse von PISA 2003. Paris: OECD.

    Google Scholar 

  • Organisation for Economic Co-operation and Development (OECD). (2004b). Problem Solving for Tomorrow’s World – First Measures of Cross-Curricular Skills from PISA 2003. Paris: OECD.

    Google Scholar 

  • Reiss, K., Sälzer, C., Schiepe-Tiska, A., Klieme, E. & Köller, O. (Hrsg.) (2016). PISA 2015: Eine Studie zwischen Kontinuität und Innovation. Münster: Waxmann.

    Google Scholar 

  • PISA-Konsortium Deutschland (Hrsg.). (2004). PISA 2003. Der Bildungsstand der Jugendlichen in Deutschland – Ergebnisse des zweiten internationalen Vergleichs. Münster: Waxmann.

    Google Scholar 

  • Rost, J. (2004). Lehrbuch Testtheorie – Testkonstruktion (2. Aufl.). Bern: Huber.

    Google Scholar 

  • Wilson, M. R. (2003). On choosing a model for measuring. Methods of Psychological Research Online, 8, 1–22.

    Google Scholar 

  • Wilson, M. & De Boeck, P. (2004). Descriptive and explanatory item response models. In P. De Boeck & M. Wilson (Eds.), Explanatory item response models: A generalized linear and nonlinear approach (S. 43–74). New York: Springer.

    Chapter  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Dominique Rauch .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2020 Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Rauch, D., Hartig, J. (2020). Interpretation von Testwerten in der Item-Response-Theorie (IRT). In: Moosbrugger, H., Kelava, A. (eds) Testtheorie und Fragebogenkonstruktion. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-61532-4_17

Download citation

  • DOI: https://doi.org/10.1007/978-3-662-61532-4_17

  • Published:

  • Publisher Name: Springer, Berlin, Heidelberg

  • Print ISBN: 978-3-662-61531-7

  • Online ISBN: 978-3-662-61532-4

  • eBook Packages: Psychology (German Language)

Publish with us

Policies and ethics