DE | EN
Logo fdz-Bildung
Suche Forschungsinstrumente Testinstrumente Testarchiv Test
Downloads
MDC_TEST.zip [45.49 MB]  
Testnutzungskonzept_MDC_Test_2024.pdf [99.01 kB]  

Testinstrument: Multiple Document Comprehension-Test (MDC-Test)

Der MDC-Test erfasst die fächerübergreifende Fähigkeit von Studierenden, aus mehreren Textdokumenten eine umfassende mentale Repräsentation eines beschriebenen Themas zu konstruieren. Der Test gibt dabei weitgehend glaubwürdige Dokumente und Informationsquellen vor, die miteinander verglichen, integriert und verknüpft werden müssen. Das bedeutet auch, dass er nicht Fähigkeiten zur Suche und Auswahl von Dokumenten erfasst. Der MDC-Test ist in sogenannte Units gegliedert, die aus 2 bis 3 Dokumenten und Items bestehen. Insgesamt sind 5 Units mit 67 Items verfügbar. Die Inhalte der Units befassen sich mit Themen aus verschiedenen Bereichen (z. B. Naturwissenschaft, Literaturwissenschaft) und variieren in der Anzahl der vorliegenden Dokumente und der Gesamtdokumentlänge. Zwei Units erfordern zudem das Verfassen eines kurzen Aufsatzes (Essay), dessen Inhalt jedoch nicht in die Testauswertung eingeht. Die Dokumentinhalte sind zudem größtenteils erfunden (Ausnahme: Unit „Universum“), um MDC möglichst unabhängig von den Vorkenntnissen der Studierenden zu messen. Die Items weisen ein Single-Choice Antwortformat auf (31 Items mit zwei Antwortalternativen; 36 Items mit vier Antwortalternativen). Für eine korrekte Itemantwort müssen Informationen aus mindestens zwei Dokumenten einer Unit berücksichtigt werden. Die Itemantworten werden dichotom kodiert (0 = falsch gelöst, 1 = richtig gelöst). Jede Unit beginnt damit, dass die Testteilnehmer:innen über die Anzahl der Dokumente und Items informieren werden und ein Leseziel vorgegeben wird (z. B. die Texte so zu lesen, als ob eine Präsentation für ein Seminar gehalten werden soll). Die Teilnehmer:innen können frei zwischen den Texten und Items navigieren. In Units, die einen Aufsatz enthalten, muss zunächst der Aufsatz geschrieben werden, bevor die Items bearbeitet werden können. Jedes Textdokument umfasst eine Schaltfläche, die ein zusätzliches Popup-Dialogfeld mit Informationen über die Quelle des Dokuments öffnet. Die Teilnehmer:innen können Textpassagen im Dokument hervorheben und Kommentare neben den Text setzen. Darüber hinaus erhalten Teilnehmer:innen eine visuelle Rückmeldung über ihre Bearbeitungszeit und den Aufgabenfortschritt. Jede Unit weist ein spezifisches Zeitlimit auf (zwischen 27 – 38 Minuten), das auf der Startseite angekündigt wird. Zehn Minuten vor Ablauf des Zeitlimits erhalten die Teilnehmer:innen einen Reminder, dass das Zeitlimit ausläuft. Nach Ablauf des Zeitlimits beendet sich die Unit automatisch. (Projekt)

StudieProzessbasierte Diagnostik des Textverstehens mit multiplen Dokumenten (Multiple Documents Literacy)

TestentwicklungSchoor, Cornelia / Hahnel, Carolin / Artelt, Cordula / Goldhammer, Frank / Kröhne, Ulf

InhaltsbereicheInhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen ,Inhalte über Texte hinweg miteinander verknüpfen,Inhalte über Texte hinweg vergleichen,Quellen einschätzen und vergleichen

KompetenzbereicheVerständnis multipler Dokumente

ZielgruppeStudierende

Schulformkeine Angaben vorhanden

Bearbeitungszeitca. 30 min pro Unit, zwei Units empfohlen, gesamt ca. 75 min

Erstanwendung2017

EinsatzortBayern, Hessen, Rheinland-Pfalz

Stichprobe500

Anzahl der Items5

Eingesetzte AnalysesoftwareTAM (R-Paket; Robitzsch et al., 2019)

TestheftdesignBalanced Incomplete Block Design (BIBD)

Skalierung/MessmodellRaschmodell

Definition NullpunktDurchschnittliche Fähigkeit der Personen

SchätzerWLE

AnmerkungIn Publikationen ist der Test durch Verweis auf das Diagnostica-Paper (Schoor, Hahnel, Artelt et al., 2020) und/oder das Projektband-Kapitel (Schoor, Hahnel, Mahlow et al., 2020) zu zitieren, während für den Test selbst der Zitationsvorschlag des FDZ Bildung heranzuziehen ist. Eine wie auch immer geartete Veränderung, Weiterentwicklung oder Übersetzung des Testinstruments bedarf der expliziten Absprache und Genehmigung mit der Autorengruppe. Bitte informieren Sie zu diesem Zweck das FDZ Bildung (fdz-bildung@dipf.de), um Kontakt mit der Autorengruppe herzustellen. Bitte beachten Sie auch das Testnutzungskonzept im Downloadbereich dieses Tests.

Veröffentlichungsdatum22.12.2023

Persistent Identifier10.7477/506:316:57 (DOI)

ZitationSchoor, C.; Hahnel, C.; Artelt, C.; Goldhammer, F.; Kröhne, U. (2023). Multiple Document Comprehension-Test (MDC-Test) [Testinstrument: Version 1.0]. Erstanwendung 2017. Frankfurt am Main: Forschungsdatenzentrum Bildung am DIPF. http://dx.doi.org/10.7477/506:316:57

ZugänglichkeitDownload nach Registrierung und Antragstellung und Zustimmung der Urheber

Die Aufgaben dieses Testinstruments liegen in einem geschützten Bereich. Der Zugang zu den Aufgaben erfordert die Registrierung und anschließende Antragstellung im FDZ Bildung sowie die Zustimmung der Urheber. Das Einholen der Zustimmung zur Nachnutzung bei den Urhebern erfolgt durch das FDZ Bildung und kann nach Eingang ihres Antrages eine vierzehntägige Bearbeitungszeit in Anspruch nehmen. Eine Verwendung der Instrumente, ganz oder in Teilen setzt die Achtung des Urheberrechts voraus. Urheber und Quelle sind entsprechend zu zitieren. Es gelten die allgemeinen Nutzungsbedingungen des Anbieters.

Downloads
MDC_TEST.zip [45.49 MB]  
Testnutzungskonzept_MDC_Test_2024.pdf [99.01 kB]  
testitem_id Item Kompetenzbereich Inhaltsbereich Trennschärfe Lösungshäufigkeit Itemfit Item-Schwierigkeit
2484 MDL_Tiere_T03_7 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 81.50 0.96 -1.62
2452 MDL_catalano_T12 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 79.10 0.96 -1.43
2453 MDL_catalano_T13 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 54.23 0.92 -0.19
2485 MDL_Tiere_T04_1 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 81.50 0.96 -1.62
2454 MDL_catalano_T15 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 42.00 1.01 0.34
2486 MDL_Tiere_T04_3 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 65.00 0.94 -0.70
2455 MDL_Jahr2134_T01_1 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 76.24 0.95 -1.21
2487 MDL_Tiere_T04_4 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 82.00 1.00 -1.65
2456 MDL_Jahr2134_T01_6 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 85.15 0.98 -1.83
2488 MDL_Tiere_T04_7 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 76.50 0.97 -1.30
2457 MDL_Jahr2134_T01_8 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 71.78 1.05 -0.97
2489 MDL_Tiere_T04_8 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 75.50 1.01 -1.24
2458 MDL_Jahr2134_T03_3 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 88.61 0.97 -2.15
2490 MDL_Tiere_T08 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 44.22 0.98 0.23
2459 MDL_Jahr2134_T04 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 66.67 1.00 -0.71
2491 MDL_Tiere_T10 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 53.77 1.07 -0.19
2460 MDL_Jahr2134_T05 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 51.98 1.00 -0.04
2492 MDL_Tiere_T11 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 38.89 0.98 0.47
2461 MDL_Jahr2134_T08 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 66.17 1.01 -0.68
2493 MDL_Tiere_T12 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 44.95 1.07 0.19
2462 MDL_Jahr2134_T09 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 76.62 1.01 -1.24
2494 MDL_Tiere_T13 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 64.29 0.97 -0.67
2463 MDL_Jahr2134_T11 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 86.57 0.92 -1.95
2495 MDL_Tiere_T14 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 38.97 1.00 0.46
2496 MDL_Universum_T02_1 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 89.95 0.99 -2.33
2464 MDL_Jahr2134_T12 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 71.50 0.99 -0.96
2497 MDL_Universum_T02_2 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 74.37 0.99 -1.14
2465 MDL_Jahr2134_T13 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 29.00 0.99 1.00
2498 MDL_Universum_T02_3 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 97.49 0.99 -3.82
2466 MDL_Nichts_T02_5 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 79.38 1.00 -1.47
2499 MDL_Universum_T02_4 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 68.69 1.08 -0.84
2467 MDL_Nichts_T02_7 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 86.08 1.02 -1.96
2500 MDL_Universum_T02_5 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 89.50 0.99 -2.28
2468 MDL_Nichts_T03_3 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 67.01 1.05 -0.78
2501 MDL_Universum_T02_6 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 43.72 0.97 0.28
2469 MDL_Nichts_T03_8 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 68.04 1.03 -0.84
2502 MDL_Universum_T02_7 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 83.42 0.96 -1.73
2470 MDL_Nichts_T04 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 71.50 0.97 -1.01
2503 MDL_Universum_T03 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 31.16 1.01 0.87
2471 MDL_Nichts_T08 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 58.03 0.96 -0.37
2504 MDL_Universum_T04 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 90.91 0.96 -2.44
2472 MDL_Nichts_T10_2 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 83.94 1.04 -1.79
2505 MDL_Universum_T06 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 85.86 0.97 -1.92
2473 MDL_Nichts_T09 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 78.24 0.96 -1.39
2506 MDL_Universum_T07 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 52.53 1.12 -0.11
2474 MDL_Nichts_T10_4 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 61.66 1.02 -0.53
2507 MDL_Universum_T08 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 46.73 1.09 0.15
2475 MDL_Nichts_T10_5 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 68.39 1.04 -0.85
2508 MDL_Universum_T09 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 64.47 0.95 -0.64
2476 MDL_Nichts_T10_8 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 78.24 1.00 -1.39
2444 MDL_catalano_T01_2 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 75.62 1.04 -1.22
2509 MDL_Universum_T10 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 83.76 1.01 -1.76
2477 MDL_Nichts_T12 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 82.81 0.97 -1.70
2445 MDL_catalano_T01_5 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 85.07 1.01 -1.86
2510 MDL_Universum_T11 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 84.26 0.96 -1.80
2478 MDL_Nichts_T15 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 53.97 1.04 -0.20
2446 MDL_catalano_T02 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 79.10 0.94 -1.43
2479 MDL_Tiere_T01_4 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 64.50 0.96 -0.67
2447 MDL_catalano_T05 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 86.07 0.95 -1.95
2480 MDL_Tiere_T01_8 Verständnis multipler Dokumente Inhalte über Texte hinweg vergleichen -- 41.50 1.03 0.35
2448 MDL_catalano_T07 Verständnis multipler Dokumente Inhalte über Texte hinweg miteinander verknüpfen -- 32.34 1.04 0.79
2481 MDL_Tiere_T02 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 17.00 1.06 1.69
2449 MDL_catalano_T09 Verständnis multipler Dokumente Inhalte als von Quellen generiert repräsentieren und Quelle-Inhalt-Kombinationen vergleichen -- 41.50 1.01 0.37
2482 MDL_Tiere_T03_1 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 62.81 1.03 -0.60
2450 MDL_catalano_T10 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 50.25 1.05 -0.01
2483 MDL_Tiere_T03_2 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 46.23 0.94 0.14
2451 MDL_catalano_T11 Verständnis multipler Dokumente Quellen einschätzen und vergleichen -- 44.78 1.08 0.22


Impressum | Datenschutz | Barrierefreiheit | BITV-Feedback | © 2022 DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation