全部 标题 作者
关键词 摘要

OALib Journal期刊
ISSN: 2333-9721
费用:99美元

查看量下载量

相关文章

更多...

Auswirkungen angeleiteter Itemanalysebesprechungen mit Dozierenden auf die Qualit t von Multiple Choice Prüfungen [Effect of structured feedback to teachers on the quality of multiple choice examinations]

DOI: 10.3205/zma000683

Keywords: educational measurement , faculty development , continuous quality management , MCQ , assessment , Messmethoden in der Lehre , Fakult tsentwicklung in der Medizin , kontinuierliches Qualit tsmanagement , MCQ , Assessment

Full-Text   Cite this paper   Add to My Lib

Abstract:

[english] Background: In order to allow a meaningful interpretation of multiple choice (MC) assessment data, MC examinations have to be highly valid on the one hand and represent a reliable measure on the other. The aim of this study was to evaluate the effect of structured feedback given to teachers by assessment experts on the validity and reliability of subsequent MC examinations. Methods: This feedback was introduced in the 3rd year of undergraduate medical training at the University of Zurich in 2007 and applied to nearly all teachers. Various validity and reliability criteria (relevance of content, taxonomic level, psychometric characteristics) of all end-of-term examinations one year before and one year after this intervention were compared. Other factors such as objectivity and representativeness were kept constant. Results: After the introduction of structured feedback the multiple choice questions revealed a trend toward higher relevance. Taxonomic levels remained unchanged. However, selectivity and reliability coefficients increased significantly and the number of items eliminated from examination scoring due to insufficient psychometric properties decreased. Conclusion: Structured feedback by assessment experts to teachers is a valuable tool for quality improvement of MC examinations, in particular regarding reliability. [german] Hintergrund: Damit Multiple Choice Prüfungen über die reinen Prüfungsergebnisse hinausgehende Schlussfolgerungen zulassen, müssen sie für die jeweiligen Interpretationsabsichten inhaltlich gültig sein und hinreichend zuverl ssig messen. Die vorliegende Studie geht der Frage nach, ob von Prüfungsexperten mit Dozierenden geführte Itemanalysebesprechungen eine Steigerung der Validit t und Reliabilit t nachfolgender Prüfungen bewirken. Methoden: Diese Itemanalysebesprechungen wurden im dritten Studienjahr Humanmedizin an der Universit t Zürich 2007 erstmalig fl chendeckend eingeführt. Um deren Einfluss auf sp tere Prüfungen zu untersuchen, wurden die Semesterabschlussprüfungen vor und nach dieser Intervention hinsichtlich verschiedener Validit ts- und Reliabilit tskriterien (inhaltliche Relevanz, taxonomische Stufe, psychometrische Kennwerte) miteinander verglichen. Andere Bedingungen wie beispielsweise Objektivit t und inhaltliche Repr sentativit t wurden konstant gehalten. Ergebnisse: Nach Einführung der Itemanalysebesprechungen wiesen die Prüfungsfragen einen Trend zu h herer Relevanz auf. Die taxonomische Einstufung blieb unver ndert. Hingegen stiegen sowohl die Trennsch rfen als auch die Reliabilit tskoeffizienten

Full-Text

Contact Us

service@oalib.com

QQ:3279437679

WhatsApp +8615387084133