<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<GmsArticle>
  <MetaData>
    <Identifier>zma000876</Identifier>
    <IdentifierDoi>10.3205/zma000876</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0008769</IdentifierUrn>
    <ArticleType language="en">research article</ArticleType>
    <ArticleType language="de">Forschungsarbeit</ArticleType>
    <TitleGroup>
      <Title language="en">Increase in medical knowledge during the final year of undergraduate medical education in Germany</Title>
      <TitleTranslated language="de">Wissenszuwachs im Praktischen Jahr des Medizinstudiums in Deutschland</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Raupach</Lastname>
          <LastnameHeading>Raupach</LastnameHeading>
          <Firstname>Tobias</Firstname>
          <Initials>T</Initials>
          <AcademicTitleSuffix>MD, MME</AcademicTitleSuffix>
        </PersonNames>
        <Address language="en">University Medical Centre G&#246;ttingen, Department of Cardiology and Pneumology, 37099 G&#246;ttingen, Germany, Phone: &#43;49 (0)551&#47;39-8922, Fax: &#43;49 (0)551&#47;39-6887<Affiliation>University Medical Centre G&#246;ttingen, Department of Cardiology and Pneumology, G&#246;ttingen, Germany</Affiliation></Address>
        <Address language="de">Universit&#228;tsmedizin G&#246;ttingen, Abteilung Kardiologie &#38; Pneumologie, D-37099 G&#246;ttingen, Deutschland, Tel.: &#43;49 (0)551&#47;39-8922, Fax: &#43;49 (0)551&#47;39-6887<Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Abteilung Kardiologie &#38; Pneumologie, G&#246;ttingen, Deutschland</Affiliation></Address>
        <Email>raupach&#64;med.uni-goettingen.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Vogel</Lastname>
          <LastnameHeading>Vogel</LastnameHeading>
          <Firstname>Daniela</Firstname>
          <Initials>D</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University Medical Centre Hamburg-Eppendorf, III. Department of Internal Medicine, Hamburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;tsklinikum Hamburg-Eppendorf, III. Medizinische Klinik, Hamburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Schiekirka</Lastname>
          <LastnameHeading>Schiekirka</LastnameHeading>
          <Firstname>Sarah</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University Medical Centre G&#246;ttingen, Department of Cardiology and Pneumology, G&#246;ttingen, Germany</Affiliation>
          <Affiliation>University Medical Centre G&#246;ttingen, Study Deanery, G&#246;ttingen, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Abteilung Kardiologie &#38; Pneumologie, G&#246;ttingen, Deutschland</Affiliation>
          <Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Studiendekanat, G&#246;ttingen, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Keijsers</Lastname>
          <LastnameHeading>Keijsers</LastnameHeading>
          <Firstname>Carolina</Firstname>
          <Initials>C</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University Medical Centre Utrecht, Department of Geriatric Medicine, Utrecht, the Netherlands</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;tsmedizin Utrecht, Abteilung f&#252;r Geriatrische Medizin, Utrecht, Niederlande</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Ten Cate</Lastname>
          <LastnameHeading>Ten Cate</LastnameHeading>
          <Firstname>Olle</Firstname>
          <Initials>O</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University Medical Centre Utrecht, Center for Research and Development of Education, Utrecht, the Netherlands</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;tsmedizin Utrecht, Zentrum f&#252;r Ausbildungsforschung und -entwicklung, Utrecht, Niederlande</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Harendza</Lastname>
          <LastnameHeading>Harendza</LastnameHeading>
          <Firstname>Sigrid</Firstname>
          <Initials>S</Initials>
          <AcademicTitle>Prof. Dr. med.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>University Medical Centre Hamburg-Eppendorf, III. Department of Internal Medicine, Hamburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;tsklinikum Hamburg-Eppendorf, III. Medizinische Klinik, Hamburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">undergraduate medical education</Keyword>
      <Keyword language="en">practice</Keyword>
      <Keyword language="en">knowledge</Keyword>
      <Keyword language="de">Medizinstudium</Keyword>
      <Keyword language="de">Klinik</Keyword>
      <Keyword language="de">Wissen</Keyword>
      <SectionHeading language="en">medicine</SectionHeading>
      <SectionHeading language="de">Humanmedizin</SectionHeading>
    </SubjectGroup>
    <DateReceived>20121123</DateReceived>
    <DateRevised>20130331</DateRevised>
    <DateAccepted>20130502</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20130815</DatePublished></DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <SourceGroup>
      <Journal>
        <ISSN>1860-3572</ISSN>
        <Volume>30</Volume>
        <Issue>3</Issue>
        <JournalTitle>GMS Zeitschrift f&#252;r Medizinische Ausbildung</JournalTitle>
        <JournalTitleAbbr>GMS Z Med Ausbild</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>33</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Zielsetzung: </Mark1>In Deutschland besteht das letzte Jahr des Studiums der Humanmedizin (&#34;Praktisches Jahr&#34;, PJ) aus drei Tertialen von je 16 Wochen, von denen eines in der Inneren Medizin und eines in der Chirurgie abzuleisten ist. Die Fachrichtung des dritten Tertials von 16 Wochen kann von den Studierenden frei gew&#228;hlt werden. W&#228;hrend des Praktischen Jahres findet keine gezielte Vorbereitung auf den schriftlichen Teil des Staatsexamens statt. Es ist unklar, inwieweit die Studierenden w&#228;hrend des Praktischen Jahres auch neue Wissensinhalte erlernen. Ziel dieser Studie war es, zu Beginn und am Ende des Praktischen Jahres Wissensinhalte zu &#252;berpr&#252;fen. </Pgraph><Pgraph><Mark1>Methodik: </Mark1>Zehn Absolventen des Medizinstudiums in Deutschland und den Niederlanden trafen eine Auswahl aus 300 vorselektierten Fragen der US-amerikanischen Abschlusspr&#252;fung (USMLE), die zehn verschiedenen Fachrichtungen zugeordnet waren. Die ausgew&#228;hlten 150 Fragen wurden im Rahmen zweier Tests PJ-Studierenden aus G&#246;ttingen und Hamburg vorgelegt: einmal zu Beginn (n&#61;77 Studierende) und einmal am Ende des Praktischen Jahres (n&#61;79). </Pgraph><Pgraph><Mark1>Ergebnisse: </Mark1>Die interne Konsistenz der beiden Tests (Cronbach&#8217;s &#945;) betrug 0,75 (Pr&#228;test) bzw. 0,68 (Posttest). Der Anteil richtig beantworteter Fragen betrug im Pr&#228;test 63,9&#177;6,9 und im Posttest 69,4&#177;5,7 (p&#60;0,001; Effektst&#228;rke als Cohen&#8217;s d: 0,87). Individuelle Studierende schnitten bei denjenigen Fragen besonders gut ab, die sich auf Inhalte ihres Wahlfachs bezogen.</Pgraph><Pgraph><Mark1>Schlussfolgerung: </Mark1>Der in dieser Studie verwendete Wissenstest eignet sich als externes Instrument zur Messung des Wissenszuwachses von Studierenden im Praktischen Jahr. Zudem kann der Pr&#228;test genutzt werden, um Studierende bei der Planung ihres Lernverhaltens w&#228;hrend des Praktischen Jahres zu unterst&#252;tzen. </Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Aims:</Mark1> In Germany, the final year of undergraduate medical education (&#8216;practice year&#8217;) consists of three 16-week clinical attachments, two of which are internal medicine and surgery. Students can choose a specific specialty for their third 16-week attachment. Practice year students do not receive specific teaching to prepare them for the National Licensing Examination. It is unknown whether knowledge levels increase during this year. This study aimed at assessing knowledge at the beginning and the end of the final year of medical school. </Pgraph><Pgraph><Mark1>Methods: </Mark1>Three hundred pre-selected United States Medical Licensing Examination type items from ten medical disciplines were reviewed by ten recent medical graduates from the Netherlands and Germany. The resulting test included 150 items and was taken by 77 and 79 final year medical students from G&#246;ttingen and Hamburg at the beginning and the end of their practice year, respectively. </Pgraph><Pgraph><Mark1>Results: </Mark1>Cronbach&#8217;s &#945; of the pre- and post-test was 0.75 and 0.68, respectively. Mean percent scores in the pre- and post-test were 63.9&#177;6.9 and 69.4&#177;5.7, respectively (p&#60;0.001; effect size calculated as Cohen&#8217;s d: 0.87). In individual students, post-test scores were particularly high for items related to their specific chosen specialty.</Pgraph><Pgraph><Mark1>Conclusion: </Mark1>The knowledge test used in this study provides a suitable external tool to assess progress of undergraduate medical students in their knowledge during the practice year. The pre-test may be used to guide individual learning behaviour during this final year of undergraduate education. </Pgraph></Abstract>
    <TextBlock language="en" linked="yes" name="Introduction">
      <MainHeadline>Introduction</MainHeadline><Pgraph>Medical students in Germany spend their final year of undergraduate medical studies, the so-called &#8220;practice year&#8221;, full time in a clinical environment. While all students are required to spend 16 weeks each in internal medicine and general surgery, they can choose one additional specialty rotation for the remaining 16 weeks of their practice year. Until 2012, the practice year was followed by a final National Licensing Examination (NLE) comprising 320 multiple choice questions which cover both basic and clinical knowledge. Medical schools did not routinely offer specific training for this high-stakes examination. As a consequence, German students had to find a balance between maximizing their learning gain regarding clinical skills and meeting the assessment requirements regarding basic and clinical knowledge during the final year. In the absence of formal assessments during this year, students were unable to monitor their progress.</Pgraph><Pgraph>Progress testing is designed to foster learning processes that are characterized as meaning oriented in contrast to reproduction oriented learning <TextLink reference="1"></TextLink>. Several countries have developed progress tests to measure general medical knowledge progression of their medical students <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>. Furthermore, some students use the feedback provided by progress testing to guide their own learning activities <TextLink reference="5"></TextLink>. Thus, a formative test of knowledge for final year students at the beginning and end of the practice year might be a helpful tool to provide feedback regarding knowledge gain during the final year. This study uses a 150 item multiple-choice knowledge test which had originally been designed as a suitably balanced and non-biased test for the comparison of final year students from different European countries <TextLink reference="6"></TextLink>. For the purpose of the present study, the test was administered at two German universities. The primary aim of this study was to assess the increase in overall knowledge as assessed with this test during the practice year. We hypothesized that exam scores would be significantly higher at the end of the practice year as exposure to a clinical environment might also foster the acquisition of factual knowledge. We expected this effect to be most pronounced in those subject areas that students specifically addressed during their 16-week specialty rotation.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Deutsche Studierende der Humanmedizin rotieren im letzten Jahr des Studiums (Praktisches Jahr, PJ) durch verschiedene klinische Bereiche. W&#228;hrend alle Studierenden zwei der drei Tertiale f&#252;r jeweils 16 Wochen in den F&#228;chern Innere Medizin und Chirurgie ableisten m&#252;ssen, kann sich jeder Studierende f&#252;r ein Wahlfach f&#252;r die &#252;brigen 16 Wochen des PJ entscheiden. Bis zum Jahr 2012 fand nach dem PJ das aus 320 Multiple Choice (MC)-Fragen bestehende Zweite Staatsexamen statt, in dem sowohl Grundlagen als auch klinische Wissensinhalte abgefragt wurden. Eine spezifische Vorbereitung auf dieses Examen fand in aller Regel w&#228;hrend des PJs nicht statt. Folglich waren die Studierenden gezwungen, w&#228;hrend dieses letzten Jahres einerseits klinische Erfahrung zu sammeln und andererseits den f&#252;r das Bestehen des Staatsexamens erforderlichen theoretischen Wissensstand zu erreichen. Da w&#228;hrend des PJs keine Pflichtpr&#252;fungen stattfinden, war den Studierenden eine objektive &#220;berpr&#252;fung ihres Lernerfolgs bislang nicht m&#246;glich.</Pgraph><Pgraph>Mit dem Einsatz von Progress Tests im Medizinstudium sollen Lernprozesse gef&#246;rdert werden, die st&#228;rker auf das Verst&#228;ndnis und weniger auf die reine Reproduktion von Inhalten abzielen <TextLink reference="1"></TextLink>. Zur Messung des studentischen Lernerfolgs hinsichtlich medizinischen Faktenwissens wurden in verschiedenen L&#228;ndern solche Progress Tests entwickelt <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>. Einige Studierende nutzen das durch Progress Tests generierte Feedback zur Erstellung individueller Lernpl&#228;ne <TextLink reference="5"></TextLink>. Entsprechend k&#246;nnten formative Wissenstests zu Beginn und am Ende des PJs sich als hilfreiche Feedback-Instrumente f&#252;r Studierende erweisen. In dieser Studie wurde zu diesem Zweck ein aus 150 Items bestehender MC-Test verwendet. Dieser Test war urspr&#252;nglich dazu entwickelt worden, den Leistungsstand von Studierenden unterschiedlicher Europ&#228;ischer L&#228;nder miteinander zu vergleichen <TextLink reference="6"></TextLink>. Im Rahmen der vorliegenden Arbeit wurde er an zwei deutschen Universit&#228;ten eingesetzt. Das prim&#228;re Ziel der Studie war die Messung des Wissenszuwachses w&#228;hrend des PJ. Wir stellten die Hypothese auf, dass die studentischen Leistungen am Ende des PJs signifikant h&#246;her liegen als am Anfang, da die Exposition gegen&#252;ber dem klinischen Alltag auch die Aneignung von Faktenwissen f&#246;rdern k&#246;nnte. Es wurde erwartet, dass dieser Effekt besonders f&#252;r diejenigen Wissensinhalte nachzuweisen sein w&#252;rde, die sich auf das jeweilige Wahlfach eines Studierenden bezogen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Methods">
      <MainHeadline>Methods</MainHeadline><SubHeadline2>Use of multiple-choice questions</SubHeadline2><Pgraph>It has been shown that multiple-choice questions (MCQs) are a valid method of assessing cognitive knowledge <TextLink reference="7"></TextLink>. MCQ examinations can yield high reliability which is an important requirement to be able to distinguish between groups or individuals <TextLink reference="8"></TextLink>. Furthermore, well-constructed MCQs can also assess higher-order cognitive processes such as interpretation and application of knowledge skills rather than just testing the recall of facts <TextLink reference="9"></TextLink>. Different formats of MCQs have been designed, including variations on the number of item branches. The United States Medical Licensing Examinations (USMLE) typically include single best answer questions with five branches, and the same format is used in the German NLE. </Pgraph><SubHeadline2>Selection of examination items</SubHeadline2><Pgraph>We used a 150-item knowledge test that was compiled from 1000 -freely available United States Medical Licensing Examination Step 2 type items <TextLink reference="10"></TextLink>. Initially, 300 items had been selected and adapted according to the following criteria: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">All items had to belong to major medical disciplines: general medicine, anaesthesiology &#38; emergency medicine, internal medicine, surgery, urology, obstetrics and gynaecology, paediatrics, neurology, psychiatry, clinical pharmacology. Small disciplines like ear-nose-and-throat or dermatology were excluded. </ListItem><ListItem level="1" levelPosition="2" numString="2.">All items were based on patient cases. </ListItem><ListItem level="1" levelPosition="3" numString="3.">Diseases specific to the Americas (e.g. Rocky Mountain spotted fever) were not included. </ListItem><ListItem level="1" levelPosition="4" numString="4.">Items including figures of any sort (e.g. X-rays or ECGs) were excluded for copyright reasons. </ListItem><ListItem level="1" levelPosition="5" numString="5.">Answers for each question all had to belong to the same category (e.g. diagnostics, therapy or other). Items including, for instance, two diagnostic and three therapeutic answers were not chosen, or adapted to fit this criterion. </ListItem><ListItem level="1" levelPosition="6" numString="6.">If different items covered the same topic or disease, only one item was included.</ListItem></OrderedList></Pgraph><Pgraph>In February 2011, the 300 selected items plus answers were reviewed by five recent medical graduates from both Hamburg and Utrecht University in the Netherlands (total n&#61;10) to identify items which seemed appropriate in more than one European country. Every rater was asked to choose 50&#37; of the items to match best the expected content level of graduates in their country, with a fixed number per discipline to ensure content validity. The final test included 150 items chosen by at least 2 of the 5 raters from each country. A suitability score was calculated eventually for the final test by checking for difficult versus easy items and basic science versus clinical knowledge items by one rater per country resulting in a well balanced test with intraclass correlations of 0.85 and 0.71, respectively. A pilot test with a total of 56 students from Germany and the Netherlands yielded a Cronbach&#8217;s alpha for internal consistency of 0.79 <TextLink reference="6"></TextLink>.</Pgraph><SubHeadline2>Application of the formative pre- and post-tests</SubHeadline2><Pgraph>A German version of this newly developed test was used in our project as a formative pre- and post-test for final year undergraduate medical students in Germany, offered to 286 students (164 students in G&#246;ttingen and 122 students in Hamburg) at the beginning of their practice year (April 2011). Students received an e-mail outlining the study rationale and aims and were invited to participate in the pre-test. Students were also informed that they would be released from their clinical duties on the day of the test; this had been agreed upon with all teaching hospitals at both study sites. </Pgraph><Pgraph>A second test featuring the same items as the first one was offered to the same student groups at the end of their final year, just before students started to prepare for their NLE in spring 2012. Questions and answers were not made available to study participants and all papers were collected after writing the test. However, students were informed about their results via e-mail. Socio-economic data and information on study time spent abroad and choice of specialty rotation of participating students were also recorded, and participation was voluntary. This study was approved by the Hamburg State Ethics Committee.</Pgraph><SubHeadline2>Data collection and statistical analysis</SubHeadline2><Pgraph>Data collected on questionnaires and examination papers were manually transferred to the statistical software package SPSS 19.0 (SPSS Inc., Chicago, Illinois, USA). Differences between the two student cohorts participating in the pre- and the post-test, respectively, were assessed using &#967;<Superscript>2</Superscript>-tests (dichotomous variables) and t-tests (continuous variables). Effect sizes were calculated as Cohen&#8217;s d with values of 0.2 indicating small and values of 0.8 indicating large effects <TextLink reference="11"></TextLink>. Item characteristics of the pre- and post-examination were assessed in terms of item difficulty, corrected item-total correlations and Cronbach&#8217;s &#945; as a measure of internal consistency. In order to detect a difference in exam percent scores of 3&#37; (e.g., 68&#37; versus 65&#37; with standard deviations of 6.5&#37; in each group) at a significance level of 5&#37; with a statistical power of 80&#37;, a minimum of 58 students had to be enrolled to participate in both the pre- and the post-test (equivalent to a longitudinal response rate of 20&#37;). We chose a 3&#37; difference as important as it usually represents approximately one-third of a step in the German marking system. Data are presented as mean&#177;standard deviation or percentages (n), as appropriate. Significance levels were set to p&#60;0.05.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Methodik">
      <MainHeadline>Methodik</MainHeadline><SubHeadline2>Verwendung von MC-Fragen</SubHeadline2><Pgraph>Mit Hilfe von MC-Fragen kann Faktenwissen valide gepr&#252;ft werden <TextLink reference="7"></TextLink>. MC-Pr&#252;fungen k&#246;nnen zudem eine hohe Reliabilit&#228;t erreichen, was eine wesentliche Voraussetzung daf&#252;r ist, dass eine Pr&#252;fung  zwischen leistungsstarken und leistungsschwachen Studierenden unterscheiden kann <TextLink reference="8"></TextLink>. Mit MC-Fragen kann nicht nur die F&#228;higkeit zur Reproduktion von Wissensinhalten gepr&#252;ft werden, sondern es ist mit diesem Format auch m&#246;glich, komplexere kognitive Prozesse wie z.B. die Interpretation oder Anwendung von Wissen abzubilden <TextLink reference="9"></TextLink>. F&#252;r MC-Fragen wurden unterschiedliche Formate entwickelt, die sich insbesondere hinsichtlich der Anzahl der Antwortoptionen unterscheiden. Sowohl im deutschen Staatsexamen als auch im amerikanischen Examen (United States Medical Licensing Examination, USMLE) werden typischerweise Fragen mit einer richtigen Antwort und vier Distraktoren verwendet.</Pgraph><SubHeadline2>Auswahl der Pr&#252;fungsfragen</SubHeadline2><Pgraph>Der aus 150 Fragen bestehende Wissenstest wurde aus 1000 frei verf&#252;gbaren USMLE-&#228;quivalenten Items zusammengestellt <TextLink reference="10"></TextLink>. In einem ersten Schritt waren 300 Fragen nach den folgenden Kriterien vorselektiert und adaptiert worden: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Alle  Fragen mussten zu einer der folgenden Fachrichtungen geh&#246;ren: Allgemeinmedizin, An&#228;sthesiologie und Notfallmedizin, Innere Medizin, Chirurgie, Urologie, Gyn&#228;kologie, P&#228;diatrie, Neurologie, Psychiatrie, klinische Pharmakologie. Kleinere F&#228;cher wie beispielsweise Hals-Nasen-Ohrenheilkunde und Dermatologie wurden nicht ber&#252;cksichtigt. </ListItem><ListItem level="1" levelPosition="2" numString="2.">Alle Fragen basierten auf klinischen F&#228;llen. </ListItem><ListItem level="1" levelPosition="3" numString="3.">Erkrankungen, die spezifisch im amerikanischen Sprachraum auftreten (z.B. &#8222;Rocky Mountain spotted fever&#8220;), wurden nicht eingeschlossen.</ListItem><ListItem level="1" levelPosition="4" numString="4.">Fragen mit Bildbeilage (R&#246;ntgenbilder, EKG-Registrierungen) konnten aus Copyright-Gr&#252;nden nicht ber&#252;cksichtigt werden. </ListItem><ListItem level="1" levelPosition="5" numString="5.">Alle Antwortoptionen einer Frage mussten zur gleichen Kategorie geh&#246;ren (z.B. diagnostische, therapeutische oder andere Ma&#223;nahmen). Fragen, die beispielsweise zwei diagnostische und drei therapeutische Antwortoptionen beinhalteten, wurden entweder nicht eingeschlossen oder entsprechend modifiziert. </ListItem><ListItem level="1" levelPosition="6" numString="6.">Wenn mehrere Fragen dasselbe Thema abdeckten, wurde jeweils nur eine ausgew&#228;hlt.</ListItem></OrderedList></Pgraph><Pgraph>Im Februar 2011 wurden die 300 vorselektierten Fragen von jeweils f&#252;nf Absolventen des Medizinstudiums an den Universit&#228;ten in Hamburg und in Utrecht (Niederlande) daraufhin begutachtet, ob sie in mehr als einem europ&#228;ischen Land einsetzbar sind. Hierzu w&#228;hlte jede&#47;r der zehn Gutachter&#47;innen diejenigen 150 Fragen aus, die ihrer&#47;seiner Meinung nach am ehesten dem Wissensstand von Studienabsolventen ihres Herkunftslandes entsprachen. Im Interesse einer hohen Inhaltsvalidit&#228;t war dabei die Fragenzahl pro Fachrichtung vorgegeben. Der endg&#252;ltige Test bestand aus den 150 Fragen, die von mindestens zwei der f&#252;nf Gutachter&#47;innen aus jedem der beiden L&#228;nder gew&#228;hlt worden waren. Jeweils ein&#47;e Gutachter&#47;in aus Hamburg und Utrecht nahm dann noch eine Bewertung der Fragen hinsichtlich ihrer Schwierigkeit und ihrer inhaltlichen Dom&#228;ne (Grundlagen bzw. klinische Wissensinhalte) zur Brauchbarkeitstestung des endg&#252;ltigen Tests vor. Dies resultierte in einem ad&#228;quat balancierten Test mit einer Intraklassenkorrelation von 0,85 bzw. 0,71. Im Rahmen einer Pilotierung an 56 Studierenden aus Deutschland und den Niederlanden wurde die interne Konsistenz des Tests mit einem Cronbach&#8217;s &#945; von 0,79 ermittelt <TextLink reference="6"></TextLink>.</Pgraph><SubHeadline2>Durchf&#252;hrung der Pr&#228;- und Posttests</SubHeadline2><Pgraph>Im Rahmen der vorliegenden Studie wurde eine deutsche Version der 150 Fragen im Rahmen zweier formativer Pr&#252;fungen eingesetzt. Zum Pr&#228;test wurden 286 PJ-Studierende (164 in G&#246;ttingen, 122 in Hamburg) eingeladen, die im April 2011 am Anfang des Praktischen Jahres standen. Die Studierenden erhielten eine E-Mail, in der Sinn und Zweck der Studie dargestellt wurden. Entsprechend einer Vereinbarung mit den Lehrkrankenh&#228;usern wurden die Studien-Teilnehmer&#47;innen f&#252;r die Zeit des Pr&#228;tests von ihren klinischen Aufgaben entbunden.</Pgraph><Pgraph>Alle Studierenden, die im April 2011 zum Pr&#228;test eingeladen worden waren, erhielten am Ende ihres Praktischen Jahres (d.h. vor Beginn ihrer Vorbereitung auf das Staatsexamen im Fr&#252;hjahr 2012) eine Einladung zur Teilnahme am Posttest, der dieselben Fragen enthielt wie der Pr&#228;test. Die Fragen und Antworten wurden nicht an die Studierenden ausgegeben und alle Papiere wurden nach dem Test eingesammelt. Allerdings wurden alle Studienteilnehmer&#47;innen per E-Mail &#252;ber ihre individuellen Ergebnisse informiert. Studienteilnehmer&#47;innen wurden um Angaben zu sozio&#246;konomischen Daten, zu einem eventuellen Auslandsstudium und zu ihren PJ-Wahlf&#228;chern gebeten. Die Teilnahme an der Studie war freiwillig. Die Studie wurde von der Ethikkommission der &#196;rztekammer Hamburg genehmigt.</Pgraph><SubHeadline2>Datensammlung und statistische Analyse</SubHeadline2><Pgraph>Die studienbezogenen Frageb&#246;gen und die Pr&#228;- und Posttests wurden manuell in eine SPSS-Datenbank &#252;bertragen (SPSS 19.0; SPSS Inc., Chicago, Illinois, USA). Unterschiede zwischen den beiden Studierendengruppen, die jeweils am Pr&#228;- und Posttest teilgenommen hatten, wurden mittels &#967;<Superscript>2</Superscript>-Tests (dichotome Variablen) und t-Tests (kontinuierliche Variablen) auf Signifikanz untersucht. Effektst&#228;rken wurden als Cohen&#8217;s d berechnet; hierbei entsprechen Werte von 0,2 kleinen und Werte von 0,8 gro&#223;en Effekten <TextLink reference="11"></TextLink>. Sowohl f&#252;r den Pr&#228;- als auch f&#252;r den Posttest wurden die g&#228;ngigen Testg&#252;tekriterien (Item-Schwierigkeit, Trennsch&#228;rfe und Cronbach&#8217;s &#945; als Ma&#223; f&#252;r die interne Konsistenz) bestimmt. Zur Detektion eines Leistungsunterschieds von drei Prozentpunkten zwischen zwei Gruppen (z.B. 68&#37; versus 65&#37; bei angenommenen Standardabweichungen von 6,5&#37; in beiden Gruppen) auf einem Signifikanzniveau von 5&#37; und einer Power von 80&#37; mussten sowohl am Pr&#228;- als auch am Posttest mindestens 58 Studierende teilnehmen (&#228;quivalent zu einer longitudinalen Teilnahmequote von 20&#37;). Da ein Unterschied um drei Prozentpunkte im deutschen Benotungssystem etwa eine Drittel-Note ausmacht, wurde diese Differenz als bedeutsam erachtet. Die Ergebnisse sind als Mittelwerte&#177;Standardabweichungen oder als prozentuale Anteile (n) angegeben. Das Signifikanzniveau wurde auf p&#60;0,05 festgelegt.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Results">
      <MainHeadline>Results</MainHeadline><SubHeadline2>Response rate and subject characteristics</SubHeadline2><Pgraph>The pre-test was taken by 77 students, and the post-test was taken by 79 students (response rates 26.9&#37; and 27.6&#37;, respectively). The proportion of female students was 66.2&#37; in the pre- and 73.4&#37; in the post-test, respectively. Response rates were higher in Hamburg and differed slightly between the pre- and the post-test at both study sites (Hamburg: 45&#47;122 (36.9&#37;) versus 58&#47;122 (47.5&#37;); G&#246;ttingen: 32&#47;164 (19.5&#37;) versus 21&#47;164 (12.8&#37;)). A total of 47 students took both the pre- and the post-test. Subject characteristics of the two cohorts are displayed in Table 1 <ImgLink imgNo="1" imgType="table"/>. As expected, students taking the post-test were significantly older than students taking the pre-test. There were no significant differences between the cohorts regarding gender, mother tongue, previous vocational training, spending parts of the practice year abroad and choice of the specialty rotation.</Pgraph><SubHeadline2>Item analysis</SubHeadline2><Pgraph>Cronbach&#8217;s &#945; of the pre- and post-test was 0.75 and 0.68, respectively. Item difficulty ranged from 0.03 to 1.00 (mean 0.64) in the pre- and from 0.04 to 1.00 (mean 0.69) in the post-test. The percentage of items with a difficulty between 0.4 and 0.8 was 56.7&#37; (n&#61;85) and 50.7&#37; (n&#61;76) in the pre- and post-test, respectively. Corrected item-total correlations of exam items ranged from -0.20 to 0.39 (mean 0.13) in the pre- and from -0.32 to 0.45 (mean 0.10) in the post-test. The percentage of items with positive discriminatory power was 85.3&#37; (n&#61;128) and 70.7&#37; (n&#61;106) in the pre- and post-test, respectively.</Pgraph><SubHeadline2>Student performance</SubHeadline2><Pgraph>Students achieved a mean percent score of 63.9&#177;6.9 in the pre- and 69.4&#177;5.7 in the post-test. (T(154)&#61;-5.376; p&#60;0.001; t-test for independent samples). The effect size of this difference calculated as Cohen&#8217;s d was 0.87, indicating a large effect. A test for dependent samples in the subset of 47 students who took both tests yielded a similar result: 64.6&#177;6.7 in the pre- and 69.6&#177;5.3 in the post-test (T(46)&#61;-7.299; p&#60;0.001). Analysis of exam results for specific specialties (see Table 2 <ImgLink imgNo="2" imgType="table"/>) revealed that students who had chosen anaesthesiology &#38; medical emergencies as their specialty rotation performed no better in items related to anaesthesiology &#38; medical emergencies in the post-test than students who had chosen any other specialty (11.7&#177;1.4 versus 11.7&#177;1.6 out of 15 points; p&#61;0.985), and a similar pattern of results was observed for neurology (9.9&#177;2.0 vs. 10.2&#177;1.8 out of 15 points; p&#61;0.639). However, students who had chosen paediatrics achieved higher post-test scores in items related to paediatrics than students who had chosen any other specialty (13.6&#177;1.3 vs. 11.6&#177;1.5 out of 15; p&#60;0.001; Cohen&#8217;s d&#61;1.40), and the same was true for obstetrics and gynaecology (7.8&#177;1.3 vs. 6.7&#177;1.4 out of 10 points; p&#61;0.017; Cohen&#8217;s d&#61;0.81). Anecdotally, five out of the 14 students who had chosen paediatrics as their specialty rotation answered all paediatrics items correctly. In contrast, only one out of the 65 students who had chosen a specialty other than paediatrics answered all paediatrics items correctly.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Ergebnisse">
      <MainHeadline>Ergebnisse</MainHeadline><SubHeadline2>Teilnahmequote und Teilnehmer-Charakteristika</SubHeadline2><Pgraph>Am Pr&#228;test nahmen 77 Studierende teil, am Posttest 79 Studierende (Teilnahmequoten jeweils 26,9&#37; und 27,6&#37;). Der Anteil weiblicher Studierender im Pr&#228;- und Posttest betrug 66,2&#37; und 73,4&#37;. Die Teilnahmequoten waren in Hamburg h&#246;her und schwankten an beiden Studienorten zwischen dem Pr&#228;- und dem Posttest (Hamburg: 45&#47;122 (36,9&#37;) versus 58&#47;122 (47,5&#37;); G&#246;ttingen: 32&#47;164 (19,5&#37;) versus 21&#47;164 (12,8&#37;)). Insgesamt 47 Studierende nahmen sowohl am Pr&#228;- als auch am Posttest teil. Die Charakteristika der Studienteilnehmer&#47;innen sind in Tabelle 1 <ImgLink imgNo="1" imgType="table"/> dargestellt. Wie erwartet waren die Studierenden im Posttest signifikant &#228;lter als diejenigen im Pr&#228;test. Zwischen den beiden Kohorten ergaben sich keine signifikanten Unterschiede hinsichtlich des Geschlechts, der Muttersprache, einer vorhergehenden Berufsausbildung, der Ableistung von Teilen des PJs im Ausland und des Wahlfachs.</Pgraph><SubHeadline2>Itemanalyse</SubHeadline2><Pgraph>Das Cronbach&#8217;s &#945; des Pr&#228;- und Posttest betrug 0,75 bzw. 0,68. Die Schwierigkeit einzelner Fragen des Pr&#228;tests lag zwischen 0,03 und 1,00 (Mittelwert 0,64) und f&#252;r den Posttest zwischen 0,04 bis 1,00 (Mittelwert 0,69). Der Anteil der Fragen mit einer Schwierigkeit zwischen 0,4 und 0,8 betrug im Pr&#228;test 56,7&#37; (n&#61;85) und im Posttest 50,7&#37; (n&#61;76). Die korrigierten Trennsch&#228;rfen einzelner Items lagen im Pr&#228;test zwischen -0,20 und 0,39 (Mittelwert 0,13) und im Posttest zwischen -0,32 und 0,45 (Mittelwert 0,10). Der Anteil der Fragen mit einer positiven Trennsch&#228;rfe betrug im Pr&#228;test 85,3&#37; (n&#61;128) und im Posttest 70,7&#37; (n&#61;106). </Pgraph><SubHeadline2>Studentische Leistungen</SubHeadline2><Pgraph>Von den Studierenden wurden im Pr&#228;test ein mittlerer Prozentwert richtig beantworteter Fragen von 63,9&#177;6,9 und im Posttest von 69,4&#177;5,7&#37; erreicht (T(154)&#61;-5,376; p&#60;0,001; t-Test f&#252;r unabh&#228;ngige Stichproben). Die Effektst&#228;rke dieses Unterschieds, berechnet als Cohen&#8217;s d, betrug 0,87, was einem gro&#223;en Effekt entspricht. Eine Berechnung f&#252;r verbundene Stichproben, in der nur die 47 Studierenden ber&#252;cksichtigt wurden, die an beiden Tests teilgenommen hatten, lieferte ein vergleichbares Ergebnis: 64,6&#177;6,7&#37; im Pr&#228;- und 69,6&#177;5,3 im Posttest (T(46)&#61;-7,299; p&#60;0,001). Aus der nach Fachrichtungen aufgeschl&#252;sselten Analyse der Testleistungen (siehe Tabelle 2 <ImgLink imgNo="2" imgType="table"/>) geht hervor, dass Studierende mit dem Wahlfach &#8222;An&#228;sthesiologie und Notfallmedizin&#8220; im Posttest in den Fragen mit Bezug zu diesem Fachgebiet nicht besser abschnitten als Studierende mit einem anderen Wahlfach (11,7&#177;1,4 bzw. 11,7&#177;1,6 von 15 erreichbaren Punkten; p&#61;0,985); ein &#228;hnliches Muster ergab sich f&#252;r Studierende mit dem Wahlfach Neurologie (9,9&#177;2,0 bzw. 10,2&#177;1,8 von 15 Punkten; p&#61;0,639). Im Gegensatz dazu erreichten Studierende mit dem Wahlfach P&#228;diatrie im Posttest in den fachbezogenen Fragen h&#246;here Punktzahlen als Studierende mit einem anderen Wahlfach (13,6&#177;1,3 vs. 11,6&#177;1,5 von 15 Punkten; p&#60;0,001; Cohen&#8217;s d&#61;1,40) und das gleiche galt auch f&#252;r Studierende mit dem Wahlfach Gyn&#228;kologie (7,8&#177;1,3 vs. 6,7&#177;1,4 von 10 Punkten; p&#61;0,017; Cohen&#8217;s d&#61;0,81). Es fiel auf, dass f&#252;nf der 14 Studierenden mit dem Wahlfach P&#228;diatrie alle Fragen aus diesem Fachgebiet richtig beantworteten &#8211; dies gelang hingegen nur einem der 65 Studierenden mit einem anderen Wahlfach.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Discussion">
      <MainHeadline>Discussion</MainHeadline><Pgraph>Using a 150-item test consisting of USMLE type items as a formative pre- and post-test for final year students in Germany, this study demonstrates a significant increase in knowledge levels after the practice year of undergraduate medical education. This increase appeared to be greatest regarding items related to students&#8217; specialty choices. A critical appraisal of individual performance levels by means of a formative test might be helpful to guide students&#8217; self-study during this year. To this date, no validated knowledge test has been available for this purpose. Our newly developed test might close this gap by providing a tool for formative assessment of medical students in their final year. In fact, individual feedback from several study participants indicated that they appreciated being able to assess their own knowledge under simulated &#8217;exam conditions&#8217; and that they used their pre-test results to guide individual learning during the practice year.</Pgraph><SubHeadline2>Increase in exam performance levels during the practice year</SubHeadline2><Pgraph>Overall, performance levels as assessed in the post-test were rather low, and there are a number of potential explanations for this finding. Given that we used a formative rather than a summative exam, students might not have been sufficiently incentivized to achieve the maximum scores they would have been able to score <TextLink reference="12"></TextLink>. On the other hand, it might be hypothesized that students participating in the study were highly motivated to know more about their performance level and would thus have tried the best they could to answer the exam items. However, they also might not have been used to the wording in the USMLE type item format. </Pgraph><Pgraph>Even taking into account these potential limitations, the increase from the pre- to the post-test results observed in this study indicates that this formative test provided a valid estimate of student performance levels. In our pre-test sample (i.e., students who had just completed a five-year undergraduate medical curriculum and who self-selected to participate in the time-consuming activity of taking a 150-item examination), the average percent score was as low as 64&#37;. As a percent score of 60&#37; is usually needed to pass the German NLE, this would translate into a 75&#37; pass rate (58 out of 77 students taking the pre-test) in this highly motivated sample. At the end of the practice year, the average percent score was below 70&#37;, and five out of 79 students taking the post-test scored less than 60&#37; of the available points. While it is somewhat reassuring to see that a majority of students would pass the exam used in this study even before entering the practice year, the moderate performance in the post-test is an important finding as the average percent score reported for the spring 2012 NLE in Germany was 79.4&#37; &#91;<Hyperlink href="http:&#47;&#47;www.impp.de&#47;IMPP2010&#47;pdf&#47;ErgMedF12.pdf">http:&#47;&#47;www.impp.de&#47;IMPP2010&#47;pdf&#47;ErgMedF12.pdf</Hyperlink>&#93;.</Pgraph><Pgraph>At first glance, the increase in performance from the pre- to the post-test might seem surprising as exposure to clinical practice during the final year of medical education would not be expected to increase factual knowledge as assessed in the test due to a lack of constructive alignment between teaching and assessment format <TextLink reference="13"></TextLink>. However, it may be hypothesized that students working on the wards encounter a number of opportunities to increase their factual knowledge. Dealing with clinical cases prompts students to build on and expand their knowledge, particularly in the presence of experienced physicians who provide informal teaching during ward rounds. In addition, being involved in patient care is likely to increase student motivation to learn. Vice versa, our finding of students achieving particularly high scores in items related to their specific specialties might reflect a higher motivation to engage in self-directed learning activities regarding their chosen specialty rotation (i.e., higher a priori motivation). Curricular representation of these subjects (i.e., paediatrics, obstetrics and gynaecology) might be partially responsible for this finding. Alternatively, additional teaching in these specialties during the practice year might have been of particularly high quality. However, we did not formally assess teaching quality in the seven different specialties chosen by study participants. </Pgraph><SubHeadline2>Strengths and limitations</SubHeadline2><Pgraph>We used specific quality criteria during the selection process for items to be included in the test <TextLink reference="14"></TextLink>: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">selected MCQs were to test important material which was appropriate for the level of training, </ListItem><ListItem level="1" levelPosition="2" numString="2.">the stems of the MCQs were mostly case vignettes which contained the majority of information in a focused manner, </ListItem><ListItem level="1" levelPosition="3" numString="3.">the five answers were homogeneous in content, length, and grammar. </ListItem></OrderedList></Pgraph><Pgraph>Even though we used USMLE type items that study participants were not familiar with, this is unlikely to have significantly impacted on our results as this &#8216;origin bias&#8217; has been shown to be small when new item formats are presented to advanced undergraduate medical students <TextLink reference="15"></TextLink>. Despite careful selection of test items resulting in a balanced examination, item characteristics and internal consistency of the exam were suboptimal. However, similar Cronbach&#8217;s &#945; values have been reported in a study on different multiple-choice question formats <TextLink reference="16"></TextLink>, and a recent analysis of data derived from 10 years of postgraduate progress testing in obstetrics and gynaecology yielded even lower values <TextLink reference="17"></TextLink>. We cannot pin-point the reason for the relatively low internal consistency of our test and the ones referred to above. At the very least, this appears to be a problem frequently encountered with formative tests of clinical knowledge. It might be hypothesized that the student group self-selecting for participation in our study was relatively homogeneous with respect to performance levels. This might have reduced the variance in test results and thus decreased Cronbach&#8217;s alpha. More research is needed to determine the impact of the heterogeneity of participating students and&#47;or of the items included in the test on its psychometric properties.</Pgraph><Pgraph>Testing bias (i.e., better performance in the post-test due to students having seen the same items in the pre-test) is unlikely as the pre- and post-tests were taken many months apart and answers had not been distributed after the pre-test. We initially chose a longitudinal design for this study. Power analysis was based on an anticipated response rate of 20&#37;, but the longitudinal sample contained only 16.4&#37; of eligible students. In order to assess the primary endpoint of the study, all students providing data at both time points were included in the analysis, yielding a response rate of over 25&#37;. As a consequence, the test used in this study cannot be referred to as a true &#8216;progress test&#8217; as this would have required all students to participate in both tests. The overall small response rate raises concern that selection bias might have impacted on study results. Accordingly, we cannot rule out the possibility that the difference between pre- and post-test results is due to students taking the post-test having genuinely higher performance levels than students taking the pre-test. However, given the overlap between the two cohorts, this is unlikely to completely explain the difference.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Diskussion">
      <MainHeadline>Diskussion</MainHeadline><Pgraph>Mit Hilfe eines aus 150 Fragen bestehenden und an das Format des USMLE angelehnten formativen Pr&#228;-Post-Tests f&#252;r PJ-Studierende in Deutschland wurde in dieser Studie eine signifikante Zunahme des Wissensstandes nach dem PJ nachgewiesen. Der Lernzuwachs war auf denjenigen Gebieten besonders stark ausgepr&#228;gt, mit denen die Studierenden sich im Rahmen ihrer Wahlf&#228;cher intensiver auseinandergesetzt hatten. Eine Absch&#228;tzung des eigenen Wissensstandes im Rahmen eines formativen Tests kann Studierende bei der Erstellung ihres Lernplans f&#252;r das PJ unterst&#252;tzen. Ein solcher Test war bisher nicht verf&#252;gbar. Das hier vorgestellte, neu entwickelte Instrument zur formativen Pr&#252;fung von PJ-Studierenden k&#246;nnte diese L&#252;cke schlie&#223;en. Einige Teilnehmer&#47;innen dieser Studie erkl&#228;rten im Rahmen eines informellen Feedbacks, dass sie es als hilfreich empfunden h&#228;tten, ihr eigenes Wissen unter simulierten Pr&#252;fungsbedingungen testen zu k&#246;nnen und dass sie die Ergebnisse des Pr&#228;tests in der Tat zur Planung ihres Lernverhaltens im PJ nutzten.</Pgraph><SubHeadline2>Leistungszuwachs im PJ</SubHeadline2><Pgraph>F&#252;r die vergleichsweise niedrigen Leistungen im Posttest sind verschiedene Erkl&#228;rungen denkbar. Der formative Charakter der Pr&#228;- und Posttests ging m&#246;glicherweise mit einem geringeren Leistungsanreiz einher als wenn beide Pr&#252;fungen einen summativen Ansatz verfolgt h&#228;tten, was folglich zu einer m&#246;glicherweise falsch-niedrig gemessenen Erfassung des tats&#228;chlichen Leistungsniveaus der Studierenden gef&#252;hrt haben k&#246;nnte <TextLink reference="12"></TextLink>. Andererseits lie&#223;e sich auch hypothetisieren, dass Studienteilnehmer&#47;innen besonders an ihrem eigenen Leistungsstand interessiert waren und sich daher in beiden Tests besonders angestrengt haben, um m&#246;glichst alle Fragen richtig zu beantworten. M&#246;glicherweise waren die Studierenden jedoch mit der Formulierung der USMLE-artigen Fragen noch nicht hinreichend vertraut.</Pgraph><Pgraph>Selbst in Anbetracht dieser m&#246;glichen Limitationen deutet der von uns beobachtete Anstieg der Leistung vom Pr&#228;- zum Posttest darauf hin, dass der genutzte formative Test eine valide Einsch&#228;tzung der studentischen Leistungsf&#228;higkeit erm&#246;glicht. In unserer Pr&#228;test-Kohorte (d.h. Studierende, die gerade ein f&#252;nfj&#228;hriges medizinisches Curriculum hinter sich hatten und freiwillig an der zeitaufwendigen Aktivit&#228;t einer 150-Fragen Pr&#252;fung teilnahmen) wurden im Mittel nur 64&#37; der Punkte erreicht. Unter der Annahme einer Bestehensgrenze von 60&#37; ergibt sich aus unseren Daten eine Bestehensquote von 75&#37; (58 der 77 Pr&#228;test-Teilnehmer&#47;innen) in dieser hochmotivierten Subgruppe. Am Ende des Praktischen Jahrs wurden weiterhin im Mittel weniger als 70&#37; der Punkte erreicht, und f&#252;nf der 79 Posttest-Teilnehmer&#47;innen erreichten weniger als 60&#37; der m&#246;glichen Punkte. Einerseits ist positiv anzumerken, dass die Mehrheit der Studierenden den in dieser Studie genutzten Test bereits zu Beginn des PJs bestanden h&#228;tte. Andererseits ist die moderate Leistung im Posttest ein wichtiger Befund, da im Fr&#252;hjahr 2012 von deutschen Studierenden im Zweiten Staatsexamen Medizin 79,4&#37; der Punkte erreicht wurden &#91;<Hyperlink href="http:&#47;&#47;www.impp.de&#47;IMPP2010&#47;pdf&#47;ErgMedF12.pdf">http:&#47;&#47;www.impp.de&#47;IMPP2010&#47;pdf&#47;ErgMedF12.pdf</Hyperlink>&#93;.</Pgraph><Pgraph>Auf den ersten Blick mag die Leistungszunahme zwischen dem Pr&#228;- und dem Posttest erstaunen, da nicht zwingend erwartet werden kann, dass der f&#252;r das PJ typische Einsatz in einem klinischen Umfeld aufgrund von mangelnder Kongruenz zwischen Lehr- und Pr&#252;fungsform auch mit einer Zunahme von Faktenwissen einhergeht <TextLink reference="13"></TextLink>. Allerdings ist anzunehmen, dass Studierende w&#228;hrend ihrer klinischen Ausbildung zahlreiche Gelegenheiten zum Ausbau ihres Faktenwissens wahrnehmen. So gibt die Befassung mit klinischen F&#228;llen nicht selten Anlass zur Auffrischung von bereits Gelerntem und zur Aufnahme neuer Inhalte, insbesondere, wenn erfahrene Kliniker im Rahmen der Visite informelle Lehre anbieten. Schlie&#223;lich d&#252;rfte die Beteiligung von Studierenden an der Krankenversorgung die Lernmotivation per se erh&#246;hen. Umgekehrt lassen die hier beobachteten besonders guten Leistungen von Studierenden bei Fragen mit Bezug zu ihrem individuellen Wahlfach darauf schlie&#223;en, dass Studierende prim&#228;r eine h&#246;here Lernmotivation f&#252;r das von ihnen selbst gew&#228;hlte Fach aufweisen. Unsere diesbez&#252;glichen Ergebnisse sind vor dem Hintergrund der curricularen Verankerung der beiden F&#228;cher P&#228;diatrie und Gyn&#228;kologie zu interpretieren. Zudem war die PJ-begleitende Lehre in diesen F&#228;chern m&#246;glicherweise besonders gut. Die Lehrqualit&#228;t in den sieben von den Teilnehmern absolvierten Wahlf&#228;chern wurde in der vorliegenden Studie allerdings nicht untersucht.</Pgraph><SubHeadline2>St&#228;rken und Schw&#228;chen</SubHeadline2><Pgraph>F&#252;r das oben beschriebene Fragen-Auswahlverfahren wurden spezifische Qualit&#228;tskriterien definiert <TextLink reference="14"></TextLink>: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">die genutzten Fragen mussten wichtige Inhalte abbilden, die dem Ausbildungsstand der PJ-Studierenden angemessen waren, </ListItem><ListItem level="1" levelPosition="2" numString="2.">die Fragenst&#228;mme bestanden meist aus Fallvignetten, in denen die wesentlichen Informationen fokussiert dargestellt waren, </ListItem><ListItem level="1" levelPosition="3" numString="3.">die f&#252;nf Antwortoptionen waren bez&#252;glich ihrer Inhalte, L&#228;nge und Grammatik homogen. </ListItem></OrderedList></Pgraph><Pgraph>Dass die Studienteilnehmer&#47;innen noch nicht eng mit dem an das USMLE angelehnte Fragenformat vertraut waren, d&#252;rfte auf die Ergebnisse eher von geringem Einfluss gewesen sein, da gezeigt wurde, dass der aus der Pr&#228;sentation neuer Fragenformate resultierende &#8222;Herkunftsbias&#8220; bei fortgeschrittenen Studierenden keine gro&#223;e Rolle spielt <TextLink reference="15"></TextLink>. Trotz der sorgf&#228;ltigen Fragenauswahl und der Konstruktion einer balancierten Pr&#252;fung fielen die Itemkennwerte und die interne Konsistenz beider Tests suboptimal aus. Allerdings ergaben sich in einer Untersuchung verschiedener MC-Fragenformate &#228;hnliche Werte f&#252;r Cronbach&#8217;s &#945; <TextLink reference="16"></TextLink> und eine noch geringere interne Konsistenz fand sich in einer k&#252;rzlich publizierten Arbeit zu 10-j&#228;hrigem postgraduiertem Progress Testing in der Gyn&#228;kologie <TextLink reference="17"></TextLink>. Die Ursache f&#252;r die relativ geringe interne Konsistenz unseres und der hier zitierten Tests bleibt letztlich unklar. Offenbar tritt dieses Problem im Kontext klinischer Wissenstests jedoch nicht selten auf. Es ist denkbar, dass Studierende, die sich freiwillig zur Teilnahme an einer Studie melden, insgesamt ein relativ homogenes Leistungsniveau aufweisen. Die daraus resultierende geringere Varianz der Testergebnisse geht mit einem geringeren Cronbach&#8217;s &#945; einher. K&#252;nftige Forschungsprojekte sollten den Einfluss der Heterogenit&#228;t der Studienteilnehmer und&#47;oder der genutzten Pr&#252;fungsfragen auf die psychometrischen Eigenschaften eines Pr&#252;fungsinstruments n&#228;her untersuchen.</Pgraph><Pgraph>Ein eventueller &#8222;testing bias&#8220; (d.h. Studierende erzielen bessere Leistungen im Posttest, weil sie sich an die Fragen des Pr&#228;tests erinnern) d&#252;rfte in unserer Studie eher gering ausgefallen sein, da mehrere Monate zwischen den beiden Tests lagen und weder die Fragen noch die richtigen Antworten ver&#246;ffentlicht wurden. Zur Bearbeitung des prim&#228;ren Studienziels w&#228;hlten wir ein longitudinales Design. In der Power-Analyse wurde eine Teilnahmequote von 20&#37; angenommen, aber die Studierenden-Stichprobe mit kompletten longitudinalen Daten fiel mit 16,4&#37; der eingeladenen Studierenden etwas geringer aus. Um die Annahme der Power-Analyse nicht zu verletzen, wurden Daten von allen Studierenden ausgewertet, die zu mindestens einem Zeitpunkt an dem Test teilgenommen hatten (Teilnahmequote 25&#37;). Somit wird in dieser Arbeit kein &#8222;Progress Test&#8220; im engeren Sinne vorgestellt, da hierzu alle Studierenden an beiden Zeitpunkten am Test h&#228;tten teilnehmen m&#252;ssen. Die insgesamt geringe Teilnahmequote legt nahe, dass die Ergebnisse durch einen Selektionsbias beeinflusst worden sind. Es ist nicht auszuschlie&#223;en, dass der beobachtete Unterschied zwischen den Leistungen im Pr&#228;- und Posttest auch dadurch zustande kam, dass Studierende, die am Posttest teilnahmen, ein h&#246;heres Leistungsniveau aufwiesen als Studierende, die am Pr&#228;test teilnahmen. Angesichts der gro&#223;en &#220;berschneidungen zwischen beiden Gruppen ist der Unterschied durch diesen Effekt aber wahrscheinlich nicht komplett zu erkl&#228;ren.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Conclusions">
      <MainHeadline>Conclusions</MainHeadline><Pgraph>A US-based test for medical knowledge used in this study provides a tool for formative assessment of the progress of knowledge for undergraduate medical students in their final practice year. The pre-test may be used by students to guide their individual learning behaviour during the practice year, and the post-test could help them to identify specific areas in which more thorough preparation may be necessary to improve their basic and clinical knowledge. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Schlussfolgerung">
      <MainHeadline>Schlussfolgerung</MainHeadline><Pgraph>Der in dieser Studie genutzte und an das amerikanische Examen angelehnte Wissenstest eignet sich zur formativen Erfassung des studentischen Wissenserwerbs im Praktischen Jahr. Der Pr&#228;test k&#246;nnte die Studierenden bei der Planung ihres Lernverhaltens w&#228;hrend des Praktischen Jahrs unterst&#252;tzen und der Posttest k&#246;nnte der Identifikation von Wissensl&#252;cken dienen, die w&#228;hrend der Vorbereitung auf das Staatsexamen noch gef&#252;llt werden m&#252;ssen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Acknowledgements">
      <MainHeadline>Acknowledgements</MainHeadline><Pgraph>The authors thank all participating panel members in Utrecht and Hamburg and all participating medical students and the administrative team members in G&#246;ttingen and Hamburg.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Danksagung">
      <MainHeadline>Danksagung</MainHeadline><Pgraph>Die Autoren danken allen Mitgliedern des Fragenauswahlkommittees in Utrecht und Hamburg, den teilnehmenden Studierenden und den Organisations-Teams in G&#246;ttingen und Hamburg.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Conflict of interest">
      <MainHeadline>Conflict of interest</MainHeadline><Pgraph>The authors declare that they have no competing interests.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben. </Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Berkel HJ</RefAuthor>
        <RefAuthor>Nuy HJ</RefAuthor>
        <RefAuthor>Geerlings T</RefAuthor>
        <RefTitle>The influence of progress tests and block tests on study behaviour</RefTitle>
        <RefYear>1994</RefYear>
        <RefJournal>Instruct Sci</RefJournal>
        <RefPage>317-333</RefPage>
        <RefTotal>Berkel HJ, Nuy HJ, Geerlings T. The influence of progress tests and block tests on study behaviour. Instruct Sci. 1994;22:317-333. DOI: 10.1007&#47;BF00891784</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1007&#47;BF00891784</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefTitle>National, European licensing examinations or none at all&#63;</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>10</RefPage>
        <RefTotal>van der Vleuten CP. National, European licensing examinations or none at all&#63; Med Teach. 2009;31(3):189-191.DOI: 10.1080&#47;01421590902741171</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;01421590902741171</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Coombes L</RefAuthor>
        <RefAuthor>Ricketts C</RefAuthor>
        <RefAuthor>Freeman A</RefAuthor>
        <RefAuthor>Stratford J</RefAuthor>
        <RefTitle>Beyond assessment: feedback for individuals and institutions based on the progress test</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>486-490</RefPage>
        <RefTotal>Coombes L, Ricketts C, Freeman A, Stratford J. Beyond assessment: feedback for individuals and institutions based on the progress test. Med Teach. 2010;32(6):486-490. DOI: 10.3109&#47;0142159X.2010.485652</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3109&#47;0142159X.2010.485652</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Williams RG</RefAuthor>
        <RefAuthor>Klamen DL</RefAuthor>
        <RefAuthor>White CB</RefAuthor>
        <RefAuthor>Petrusa E</RefAuthor>
        <RefAuthor>Fincher RM</RefAuthor>
        <RefAuthor>Whitfield CF</RefAuthor>
        <RefAuthor>Shatzer JH</RefAuthor>
        <RefAuthor>McCarty T</RefAuthor>
        <RefAuthor>Miller BM</RefAuthor>
        <RefTitle>Tracking development of clinical reasoning ability across five medical schools using a progress test</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>1148-1154</RefPage>
        <RefTotal>Williams RG, Klamen DL, White CB, Petrusa E, Fincher RM, Whitfield CF, Shatzer JH, McCarty T, Miller BM. Tracking development of clinical reasoning ability across five medical schools using a progress test. Acad Med. 2011;86(9):1148-1154. DOI: 10.1097&#47;ACM.0b013e31822631b3</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;ACM.0b013e31822631b3</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Nouns ZM</RefAuthor>
        <RefAuthor>Georg W</RefAuthor>
        <RefTitle>Progress testing in German speaking countries</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>467-470</RefPage>
        <RefTotal>Nouns ZM, Georg W. Progress testing in German speaking countries. Med Teach. 2010;32(6):467-470. DOI: 10.3109&#47;0142159X.2010.485656</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3109&#47;0142159X.2010.485656</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Vogel D</RefAuthor>
        <RefAuthor>Gierk B</RefAuthor>
        <RefAuthor>ten Cate O</RefAuthor>
        <RefAuthor>Harendza S</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2011</RefYear>
        <RefBookTitle>Composition of an international medical knowledge test for medical students near graduation</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Vogel D, Gierk B, ten Cate O, Harendza S. Composition of an international medical knowledge test for medical students near graduation. Dundee: AMEE; 2011. Abstract book page 71.</RefTotal>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Downing SM</RefAuthor>
        <RefTitle>Assessment of knowledge with written test formats</RefTitle>
        <RefYear>2002</RefYear>
        <RefBookTitle>International handbook of research in medical education</RefBookTitle>
        <RefPage>647-672</RefPage>
        <RefTotal>Downing SM. Assessment of knowledge with written test formats. In: Norman G, van der Vleuten C, Newble D (Hrsg). International handbook of research in medical education. Dordrecht: Kluwer; 2002. S.647-672. DOI: 10.1007&#47;978-94-010-0462-6&#95;25</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1007&#47;978-94-010-0462-6&#95;25</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Schwartz PL</RefAuthor>
        <RefAuthor>Crooks TJ</RefAuthor>
        <RefAuthor>Sein KT</RefAuthor>
        <RefTitle>Test-retest reliability of multiple true-false questions in preclinical medical subjects</RefTitle>
        <RefYear>1986</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>399-406</RefPage>
        <RefTotal>Schwartz PL, Crooks TJ, Sein KT. Test-retest reliability of multiple true-false questions in preclinical medical subjects. Med Educ. 1986;20(5):399-406. DOI: 10.1111&#47;j.1365-2923.1986.tb01184.x</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1111&#47;j.1365-2923.1986.tb01184.x</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Case SM</RefAuthor>
        <RefAuthor>Swanson DB</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2001</RefYear>
        <RefBookTitle>Constructing written test questions for the basic and clinical sciences</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Case SM, Swanson DB. Constructing written test questions for the basic and clinical sciences. 3rd edition ed. Philadelphia: National Board of Medical Examiners; 2001.</RefTotal>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Le T</RefAuthor>
        <RefAuthor>Vieregger K</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2010</RefYear>
        <RefBookTitle>First aid Q &#38; A for the USMLE step 2 CK</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Le T, Vieregger K. First aid Q &#38; A for the USMLE step 2 CK. 2nd edition ed. New York: McGraw-Hill; 2010.</RefTotal>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Cohen J</RefAuthor>
        <RefTitle>A Power Primer</RefTitle>
        <RefYear>1992</RefYear>
        <RefJournal>Psychological Bulletin</RefJournal>
        <RefPage>155-159</RefPage>
        <RefTotal>Cohen J. A Power Primer. Psychological Bulletin. 1992;112(1):155-159. DOI: 10.1037&#47;0033-2909.112.1.155</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1037&#47;0033-2909.112.1.155</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Raupach T</RefAuthor>
        <RefAuthor>Hanneforth N</RefAuthor>
        <RefAuthor>Anders S</RefAuthor>
        <RefAuthor>Pukrop T</RefAuthor>
        <RefAuthor>Th J ten Cate O</RefAuthor>
        <RefAuthor>Harendza S</RefAuthor>
        <RefTitle>Impact of teaching and assessment format on electrocardiogram interpretation skills</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>731-740</RefPage>
        <RefTotal>Raupach T, Hanneforth N, Anders S, Pukrop T, Th J ten Cate O, Harendza S. Impact of teaching and assessment format on electrocardiogram interpretation skills. Med Educ. 2010;44(7):731-740. DOI: 10.1111&#47;j.1365-2923.2010.03687.x</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1111&#47;j.1365-2923.2010.03687.x</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Kern DE</RefAuthor>
        <RefAuthor>Thomas PA</RefAuthor>
        <RefAuthor>Howard DM</RefAuthor>
        <RefAuthor>Bass EB</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1998</RefYear>
        <RefBookTitle>Curriculum development for medical education - A six-step approach</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Kern DE, Thomas PA, Howard DM, Bass EB. Curriculum development for medical education - A six-step approach. Baltimore, London: The John Hopkins University Press; 1998.</RefTotal>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Boland RJ</RefAuthor>
        <RefAuthor>Lester NA</RefAuthor>
        <RefAuthor>Williams E</RefAuthor>
        <RefTitle>Writing multiple-choice questions</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Acad Psychiatry</RefJournal>
        <RefPage>310-316</RefPage>
        <RefTotal>Boland RJ, Lester NA, Williams E. Writing multiple-choice questions. Acad Psychiatry. 2010;34(4):310-316. DOI: 10.1176&#47;appi.ap.34.4.310</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1176&#47;appi.ap.34.4.310</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Muijtjens AM</RefAuthor>
        <RefAuthor>Schuwirth LW</RefAuthor>
        <RefAuthor>Cohen-Schotanus J</RefAuthor>
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefTitle>Origin bias of test items compromises the validity and fairness of curriculum comparisons</RefTitle>
        <RefYear>2007c</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>1217-1223</RefPage>
        <RefTotal>Muijtjens AM, Schuwirth LW, Cohen-Schotanus J, van der Vleuten CP. Origin bias of test items compromises the validity and fairness of curriculum comparisons. Med Educ. 2007c;41(12):1217-1223.</RefTotal>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Coderre SP</RefAuthor>
        <RefAuthor>Harasym P</RefAuthor>
        <RefAuthor>Mandin H</RefAuthor>
        <RefAuthor>Fick G</RefAuthor>
        <RefTitle>The impact of two multiple-choice question formats on the problem-solving strategies used by novices and experts</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>23</RefPage>
        <RefTotal>Coderre SP, Harasym P, Mandin H, Fick G. The impact of two multiple-choice question formats on the problem-solving strategies used by novices and experts. BMC Med Educ. 2004;4:23. DOI: 10.1186&#47;1472-6920-4-23</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1186&#47;1472-6920-4-23</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Dijksterhuis MG</RefAuthor>
        <RefAuthor>Scheele F</RefAuthor>
        <RefAuthor>Schuwirth LW</RefAuthor>
        <RefAuthor>Essed GG</RefAuthor>
        <RefAuthor>Nijhuis JG</RefAuthor>
        <RefAuthor>Braat DD</RefAuthor>
        <RefTitle>Progress testing in postgraduate medical education</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>e464-468</RefPage>
        <RefTotal>Dijksterhuis MG, Scheele F, Schuwirth LW, Essed GG, Nijhuis JG, Braat DD. Progress testing in postgraduate medical education. Med Teach. 2009;31(10):e464-468. DOI: 10.3109&#47;01421590902849545</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3109&#47;01421590902849545</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 1: Characteristics of study participants. P values were derived from independent t-tests (age) and &#967;</Mark1><Mark1><Superscript>2</Superscript></Mark1><Mark1>-tests (all other variables), respectively.</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Charakteristika der Teilnehmenden. Die p-Werte beziehen sich auf einen t-Test f&#252;r unabh&#228;ngige Stichproben (Alter) bzw. auf &#967;</Mark1><Mark1><Superscript>2</Superscript></Mark1><Mark1>-Tests (alle &#252;brigen Variablen).</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="en">2en</MediaID>
          <MediaID language="de">2de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 2: Student performance in the pre- and post-test by specialty. Results are given as percentages (mean</Mark1>&#177;<Mark1>standard deviation) of the total available score in each specialty. P values were derived from independent t-tests.</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 2: Studentische Leistungen im Pr&#228;- und Posttest, aufgeschl&#252;sselt nach F&#228;chern. Die Leistung ist in Prozent (Mittelwert</Mark1>&#177;<Mark1>Standardabweichung) der erreichbaren Punkte angegeben. Die p-Werte beziehen sich auf t-Tests f&#252;r unabh&#228;ngige Stichproben.</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>2</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>