<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<GmsArticle>
  <MetaData>
    <Identifier>zma000926</Identifier>
    <IdentifierDoi>10.3205/zma000926</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0009261</IdentifierUrn>
    <ArticleType language="de">Empfehlung</ArticleType>
    <ArticleType language="en">recommendation</ArticleType>
    <TitleGroup>
      <Title language="de">Empfehlungen der Gesellschaft f&#252;r Medizinische Ausbildung und des Medizinischen Fakult&#228;tentags f&#252;r fakult&#228;tsinterne Leistungsnachweise w&#228;hrend des Studiums der Human-, Zahn- und Tiermedizin</Title>
      <TitleTranslated language="en">Recommendations of the German Society for Medical Education and the German Association of Medical Faculties regarding university-specific assessments during the study of human, dental and veterinary medicine</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>J&#252;nger</Lastname>
          <LastnameHeading>J&#252;nger</LastnameHeading>
          <Firstname>Jana</Firstname>
          <Initials>J</Initials>
          <AcademicTitle>Prof. Dr. med</AcademicTitle>
          <AcademicTitleSuffix>MME</AcademicTitleSuffix>
        </PersonNames>
        <Address language="de">Universit&#228;tsklinikum Heidelberg, Kompetenzzentrum f&#252;r Pr&#252;fungen in der Medizin&#47;Baden-W&#252;rttemberg, Im Neuenheimer Feld 410, 69120 Heidelberg, Deutschland, Tel.: &#43;49 (0)6221&#47;56-8657, Fax: &#43;49 (0)6221&#47;56-1341<Affiliation>F&#252;r den GMA-Ausschuss Pr&#252;fungen, Heidelberg, Deutschland</Affiliation></Address>
        <Address language="en">Universityhospital Heidelberg, Center of Excellence for Assessment in Medicine&#47;Baden-W&#252;rttemberg, Im Neuenheimer Feld 410, D-69120 Heidelberg, Germany, Phone: &#43;49 (0)6221&#47;56-8657, Fax: &#43;49 (0)6221&#47;56-1341<Affiliation>Representative of the GMA assessments commitee, Heidelberg, Germany</Affiliation></Address>
        <Email>jana.juenger&#64;med.uni-heidelberg.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Just</Lastname>
          <LastnameHeading>Just</LastnameHeading>
          <Firstname>Ingo</Firstname>
          <Initials>I</Initials>
          <AcademicTitle>Prof. Dr. med.</AcademicTitle>
        </PersonNames>
        <Address language="de">Medizinische Hochschule Hannover, Studiendekan f&#252;r Medizin und Bachelor&#47;Masterstudieng&#228;nge, Carl-Neuberg-Stra&#223;e 1, 30625 Hannover, Deutschland, Tel.: &#43;49 (0)511&#47;532-9014, Fax: &#43;49 (0)511&#47;532-2879<Affiliation>F&#252;r die Arbeitsgruppe Pr&#252;fungen des Medizinischen Fakult&#228;tentags, Hannover, Deutschland</Affiliation></Address>
        <Address language="en">Medizinische Hochschule Hannover, Study dean for medicine, Carl-Neuberg-Stra&#223;e 1, 30625 Hannover, Germany, Phone: &#43;49 (0)511&#47;532-9014, Fax: &#43;49 (0)511&#47;532-2879<Affiliation>Representative of the working group on assessments, MFT, Hannover, Germany</Affiliation></Address>
        <Email>studiendekanat.just&#64;mh-hannover.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">Recommendations</Keyword>
      <Keyword language="en">assessment</Keyword>
      <Keyword language="de">Empfehlungen</Keyword>
      <Keyword language="de">Pr&#252;fungen</Keyword>
      <SectionHeading language="en">medicine</SectionHeading>
      <SectionHeading language="de">Medizin</SectionHeading>
    </SubjectGroup>
    <DateReceived>20140509</DateReceived>
    <DateRevised>20140701</DateRevised>
    <DateAccepted>20140702</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20140815</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <LanguageTranslation>engl</LanguageTranslation>
    <SourceGroup>
      <Journal>
        <ISSN>1860-3572</ISSN>
        <Volume>31</Volume>
        <Issue>3</Issue>
        <JournalTitle>GMS Zeitschrift f&#252;r Medizinische Ausbildung</JournalTitle>
        <JournalTitleAbbr>GMS Z Med Ausbild</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>34</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph>Die Praxis der Leistungserfassung bei Studierenden der Human-, Zahn- und Tiermedizin an Hochschulen und Universit&#228;ten im deutschsprachigen Raum hat in der letzten Dekade bedeutende &#196;nderungen erfahren. Die Betonung der praktischen Anforderungen an die &#228;rztliche T&#228;tigkeit in der Ausbildung weg von einer oft theoriedominierten Lehre, die wissenschaftliche Auseinandersetzung mit den Grundlagen der Vermittlung von &#228;rztlichem Wissen und Fertigkeiten sowie ge&#228;nderte gesetzliche Rahmenbedingungen erfordern einen stetigen Anpassungsprozess von Lehre und der Art und Weise, Pr&#252;fungen im Medizinstudium durchzuf&#252;hren. Um hier Qualit&#228;tsstandards zu etablieren, wurden im Jahr 2008 von der Gesellschaft f&#252;r medizinische Ausbildung Empfehlungen zur Durchf&#252;hrung fakult&#228;tsinterner Pr&#252;fungen verabschiedet, die nunmehr einer Aktualisierung unterzogen wurden und gemeinsam vom Ausschuss Pr&#252;fungen der GMA mit dem Medizinischen Fakult&#228;tentag (MFT) als Empfehlungen f&#252;r die Durchf&#252;hrung qualitativ hochwertiger Pr&#252;fungen verabschiedet wurden.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph>The practice of assessing student performance in human, dental and veterinary medicine at universities in German-speaking countries has undergone significant changes in the past decade. Turning the focus to practical requirements regarding medical practice during undergraduate study away from an often theory-dominated curriculum, the academic scrutiny of the basics of teaching medical knowledge and skills, and amendments to legislation, all require ongoing adjustments to curricula and the ways in which assessments are done during undergraduate medical education. To establish quality standards, the <Mark2>Gesellschaft f&#252;r medizinische Ausbildung (GMA German Society for Medical Education) reached</Mark2> a consensus in 2008 on recommendations for administering medical school-specific exams which have now been updated and approved by the GMA assessments committee, together with the <Mark2>Medizinischer Fakult&#228;tentag (MFT German Association of Medical Faculties)</Mark2>, as recommendations for the administration of high-quality assessments.</Pgraph></Abstract>
    <TextBlock language="de" linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Diese Empfehlungen f&#252;r fakult&#228;tsinterne Pr&#252;fungen sind an alle Mitarbeiterinnen und Mitarbeiter<Superscript>1</Superscript> der human-, zahn- und tiermedizinischen Fakult&#228;ten in Deutschland, &#214;sterreich und der Schweiz gerichtet, die mit der Planung, Durchf&#252;hrung und Auswertung von fakult&#228;tsinternen Pr&#252;fungen betraut sind, also Dozentinnen und Dozenten, Studiendekanate und aufgrund der engen Verzahnung von Pr&#252;fungen und Lehre auch Curriculumsentwickler und Lehrverantwortliche. Die Empfehlungen beinhalten Qualit&#228;tsstandards, die u. a. f&#252;r eine objektive, zuverl&#228;ssige, valide &#8211; und damit justitiable &#8211; Pr&#252;fung Voraussetzung sind. In Form einer Checkliste geschrieben, sollen die Empfehlungen als praktisches Arbeitsinstrument zur Organisation von Pr&#252;fungen dienen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Introduction">
      <MainHeadline>Introduction</MainHeadline><Pgraph>These recommendations for university-specific assessments are aimed toward all those who are employed<Superscript>1</Superscript> in human, dental, and veterinary medicine at universities in Germany, Austria and Switzerland, who are entrusted with the design, conduction and evaluation of school-specific exams, meaning teachers and lecturers, deans of studies, and also curricular designers and teaching coordinators due to the close interconnection between teaching and testing. These recommendations cover the quality standards requisite for objective, reliable, valid and, in turn, justifiable testing. Written in the form of a checklist, these recommendations are to serve as a practical tool for structuring and organizing exams.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Hintergrund">
      <MainHeadline>Hintergrund</MainHeadline><Pgraph>Im Jahr 2008 legte der GMA-Ausschuss Pr&#252;fungen gemeinsam mit dem Kompetenzzentrum f&#252;r Pr&#252;fungen in der Medizin Baden-W&#252;rttemberg &#8222;Leitlinien f&#252;r fakult&#228;tsinterne Leistungsnachweise in der Medizin&#8220; vor <TextLink reference="1"></TextLink>. Diese sollten dabei helfen, konsentierte Qualit&#228;tsstandards f&#252;r die durch die Neufassung der &#196;rztlichen Approbationsordnung des Jahres 2002 erforderlichen Pr&#252;fungen an den medizinischen Fakult&#228;ten in Deutschland zu etablieren, die den international anerkannten Anspr&#252;chen an qualitativ hochwertige Verfahren der Leistungserfassung gen&#252;gen (z. B. <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>). Ihre Bedeutung zeigt sich an verschiedenen Publikationen zu Pr&#252;fungsformaten und der Qualit&#228;t universit&#228;rer Pr&#252;fungen, die auf dem Hintergrund dieser Empfehlungen entstanden <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>.</Pgraph><Pgraph>Die wesentliche Bedeutung von Leistungsr&#252;ckmeldungen und Leistungserfassungen und ihrer lernsteuernden Wirkung f&#252;r die medizinische Ausbildung und die daraus folgende Notwendigkeit einer systematischen Einbindung des Pr&#252;fungsgeschehens in das Curriculum (&#8222;constructive alignment&#8220;, &#8222;programmatic assessment&#8220; <TextLink reference="8"></TextLink>, <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>, <TextLink reference="12"></TextLink>) sind allgemein anerkannt, ihre praktische Umsetzung ist vielfach jedoch noch defizit&#228;r. Dies gilt insbesondere bei Lehrinhalten, die &#252;ber die traditionell vorherrschende Vermittlung von medizinischem Expertenwissen hinausgehen, wie sie etwa im CanMEDS-Rollenmodell der &#228;rztlichen T&#228;tigkeiten beschrieben sind. Auf der Grundlage dieses Rollenmodells werden im Schweizer Lernzielkatalog und dem sich in Entwicklung befindenden &#8222;Nationalen kompetenzbasierten Lernzielkatalogs Medizin&#8220; (NKLM) <TextLink reference="13"></TextLink> in Deutschland die erforderlichen Qualifikationen und Kompetenzen der &#228;rztlichen Ausbildung definiert.</Pgraph><Pgraph>Diese Entwicklungen in den Anforderungen an die &#228;rztliche Ausbildung m&#252;ssen sich somit auch in den Verfahren zur Leistungserfassung spiegeln, neue Pr&#252;fungsformate und  -methoden zur Erfassung der f&#252;r die Aus&#252;bung des &#228;rztlichen Berufs erforderlichen Qualifikationen und Kompetenzen m&#252;ssen entwickelt und eingesetzt werden. F&#252;r die Praxis der Pr&#252;fungen in der medizinischen Ausbildung bedeutet dies, dass h&#228;ufiger verschiedene Pr&#252;fungsformen kombiniert werden, formative Pr&#252;fungen im Vergleich zu summativen Pr&#252;fungen einen breiteren Raum einnehmen <TextLink reference="12"></TextLink>, sowie kriteriumsorientierte Bewertungen einen h&#246;heren Stellenwert aufweisen sollten. Dem soll die vorliegende Aktualisierung der Empfehlungen von 2008 Rechnung tragen. Insbesondere ist dabei sicherzustellen, dass an innovative Pr&#252;fungsformen die gleichen Qualit&#228;tsanspr&#252;che bez&#252;glich Messzuverl&#228;ssigkeit und Aussagekraft gestellt werden wie an traditionelle Pr&#252;fungsmethoden.</Pgraph><Pgraph>Schwerpunkt der Empfehlungen sind nach wie vor Pr&#252;fungen, die zur Erlangung von Leistungsnachweisen an den medizinischen Fakult&#228;ten erbracht werden m&#252;ssen. Solche &#8222;summativen oder bilanzierenden Beurteilungen bezwecken die abschlie&#223;ende Ermittlung eines Lernstands&#8220; <TextLink reference="14"></TextLink>. Die formalen &#8211; insbesondere gesetzlichen &#8211; Anforderungen an rein formative Pr&#252;fungen sind i. A. deutlich geringer, f&#252;r die inhaltliche Qualit&#228;t der Aufgaben gelten jedoch die gleichen Anspr&#252;che wie bei summativen Pr&#252;fungen. </Pgraph><Pgraph>Den Verfassern dieser Empfehlungen ist bewusst, dass eine vollst&#228;ndige Umsetzung die medizinischen Fakult&#228;ten vor erhebliche organisatorische und personelle Probleme stellt, die nur mittel- oder sogar l&#228;ngerfristig zu bew&#228;ltigen sind. Dennoch zeigen Beispiele an den medizinischen Fakult&#228;ten, dass s&#228;mtliche Punkte der Empfehlungen erf&#252;llbar sind. Die Fakult&#228;ten sind deshalb aufgerufen, in einem kontinuierlichen Prozess die Qualit&#228;t ihrer Leistungserfassungen und -bewertungen zu verbessern. Um dies zu unterst&#252;tzen, ist vorgesehen, durch den Ausschuss Pr&#252;fungen der GMA beispielgebende praktische Ans&#228;tze zu Umsetzungen der Anforderungen der vorliegenden Empfehlungen zu ver&#246;ffentlichen. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Background">
      <MainHeadline>Background</MainHeadline><Pgraph>In 2008, the GMA assessments committee, along with the Baden W&#252;rttemberg Center of Excellence for Assessment in Medicine, jointly presented the <Mark2>Leitlinien f&#252;r fakult&#228;tsinterne Leistungsnachweise in der Medizin (Guidelines for assessment in medical faculties)</Mark2> <TextLink reference="1"></TextLink>. This was to help establish agreed quality standards for exams required of medical schools in Germany by the 2002 amended version of the medical licensure act so that the internationally recognized standards for high quality methods of assessing performance are met(e.g. <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>). Its significance is evident in various publications that have appeared on testing formats and the quality of university assessments in response to the context behind these recommendations <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>.</Pgraph><Pgraph>The basic importance of feedback and performance assessment along with their ability to guide learning in medical education and the resulting necessity of systematically including testing in the curriculum (constructive alignment, programmatic assessment <TextLink reference="8"></TextLink>, <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>, <TextLink reference="12"></TextLink>) is commonly known; however, their implementation in practice is still deficient in many cases. This applies in particular to curricular content that goes beyond the traditional and prevailing teaching of medical expertise, as it does in the CanMEDS role model, for instance. Based on this role model, the competences and skills required in medical education are defined in the Swiss Catalogue of Learning Objectives and the National Competency-based Catalogue of Learning Objectives for Undergraduate Medical Education (NKLM) <TextLink reference="13"></TextLink> currently being drafted in Germany.</Pgraph><Pgraph>These developments in the requirements placed on medical education must also be reflected in the procedures for assessing performance; new testing formats and methods for evaluating the necessary skills and competences for practicing medicine must be developed and applied. In practice this means that exams during medical study will more frequently display a combination of different testing formats, that formative tests will take on a greater presence than summative tests <TextLink reference="12"></TextLink>, and higher value will be placed on criteria-oriented evaluations. This revision of the recommendations from 2008 addresses these issues. In particular, it must be ensured that the same quality requirements regarding measurement reliability and validity that are placed on traditional assessment methods are also demanded of innovative testing formats.</Pgraph><Pgraph>The focus of these recommendations continues to be those assessments that must be passed at a medical school in order to receive graded credit (<Mark2>Leistungsnachweis</Mark2>). Such summative or accumulative evaluations aim to reflect a final determination of skill level <TextLink reference="14"></TextLink>. The formal &#8211; in particular statutory &#8211; requirements placed on purely formative tests are generally much fewer; for the quality of question content, however, the same requirements are in effect as for summative tests.</Pgraph><Pgraph>The authors of these recommendations are aware that a complete change of approach confronts medical schools with substantial organizational and personnel problems which can only be dealt with over the medium or long term. Despite this, examples at medical schools demonstrate that all the points covered by these recommendations can be fulfilled. The schools are therefore called upon to improve the quality of their assessments and evaluations in an ongoing process. To provide support for this, the GMA assessments committee intends to publish practical approaches as examples for implementing these recommendations.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Aktualisierung der Empfehlungen">
      <MainHeadline>Aktualisierung der Empfehlungen</MainHeadline><Pgraph>Auf Grund der oben erw&#228;hnten Entwicklungen wurde vom Ausschuss Pr&#252;fungen der GMA im Jahr 2012 eine Aktualisierung der Empfehlungen aus dem Jahr 2008 beschlossen. Im Rahmen der &#8222;International Conference in competency-based Assessment&#8220; in Heidelberg am 04.07.2012 wurden erste Verbesserungsvorschl&#228;ge (vgl. <TextLink reference="15"></TextLink>) entworfen und in einer weiteren Sitzung am 27.09.2012 bei der Jahrestagung der GMA in Aachen gemeinsam mit der Arbeitsgruppe Pr&#252;fungen des MFT die Themenbereiche 1-4 der Empfehlungen (Allgemeine strukturelle Vorbedingungen, Pr&#252;fungskonzeption und -bewertung, organisatorische Vorbereitungen zur Pr&#252;fungsdurchf&#252;hrung, Durchf&#252;hrung der Pr&#252;fung) eingehend diskutiert und Verbesserungen erarbeitet. Eine weitere Diskussion sowie die Behandlung der Themenbereiche 5-7 (Auswertung und Dokumentation, R&#252;ckmeldung an die Studierenden, Pr&#252;fungsnachbereitung) erfolgten auf der Sitzung des Ausschusses Pr&#252;fungen der GMA und der AG Pr&#252;fungen des MFT w&#228;hrend der GMA-Tagung am 26.9.2013 in Graz. Nach der Einarbeitung der dort beschlossenen Ver&#228;nderungen wurde die Aktualisierung in einem Umlaufverfahren weiter erg&#228;nzt. Im Januar 2014 erfolgte eine externe juristische Pr&#252;fung<Superscript>2</Superscript> dieser Version durch eine auf Pr&#252;fungsrecht spezialisierte Kanzlei in Hannover. Die daraus erwachsenen &#196;nderungen wurden Anfang Februar 2014 eingearbeitet und am 11.2.2014 in einer Sitzung des Ausschusses Pr&#252;fungen der GMA diskutiert. Noch offene Punkte wurden auf dieser Sitzung gekl&#228;rt und eingearbeitet. Die Empfehlungen wurden sowohl in der Arbeitsgruppe Lehre des Medizinischen Fakult&#228;tentags (MFT) und dem Vorstand der GMA im Mai 2014 vorgestellt und verabschiedet. Sowohl MFT und GMA unterst&#252;tzen die Empfehlungen, die Leitliniencharakter haben.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Revision of the Recommendations">
      <MainHeadline>Revision of the Recommendations</MainHeadline><Pgraph>In response to the developments mentioned above, a revision of the recommendations issued in 2008 was decided upon in 2012 by the GMA assessments committee. As part of the International Conference on Competency-based Assessment in Heidelberg on July 4, 2012, the first proposals for improvement (see <TextLink reference="15"></TextLink>) were drafted. In another meeting on September 27, 2012 at the annual GMA conference in Aachen, subject areas 1-4 (general structural pre-requisites, exam design and evaluation, organizational preparation for conducting exams, administering exams) were jointly discussed in depth and compiled in cooperation with the MFT working group on assessments. A further round of discussion and focus on subject areas 5-7 (evaluation and documentation, feedback for students, post-processing) took place at the committee meeting with the MFT working group during the GMA conference in September 26, 2013 in Graz. After inclusion of the agreed changes, the revised version was supplemented further by written consent. In January 2014 an external legal review<Superscript>2</Superscript> of this version was undertaken by a Hanover law firm specializing in scholastic examination law. The resulting changes were included at the beginning of February 2014 and discussed on February 11, 2014 at a meeting of the GMA assessments committee. Any remaining open points were clarified at this meeting and included. The recommendations were presented to the MFT working group on teaching&#47;curriculum and the GMA executive board in May 2014 and approved. Both the MFT and GMA support these recommendations, which have been given the character of a guideline.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Erl&#228;uterung zur neuen Version der Empfehlungen">
      <MainHeadline>Erl&#228;uterung zur neuen Version der Empfehlungen</MainHeadline><Pgraph>Die erste Version der Empfehlungen <TextLink reference="1"></TextLink> bestand aus den als Checkliste formulierten Einzelpunkten und zugeh&#246;rigen nummerierten Erl&#228;uterungen. Um die Lesbarkeit zu erleichtern, sind in dieser Version die einzelnen Punkte der Empfehlungen mit entsprechenden Erl&#228;uterungen als fortlaufender Text formuliert, eine zus&#228;tzliche Checkliste befindet sich im Anhang. Die in der Checkliste aufgelisteten Einzelkriterien sind im folgenden Text jeweils kursiv gesetzt (siehe Anhang <AttachmentLink attachmentNo="1"/>).</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Explanation of the new version of the recommendations">
      <MainHeadline>Explanation of the new version of the recommendations</MainHeadline><Pgraph>The first version of the recommendations <TextLink reference="1"></TextLink> consisted of the individual points articulated in the form of a checklist with corresponding numbered explanations. To ease readability, the individual points of the recommendations and their explanations are formulated here as running text; an additional checklist is included in the appendix. The individual criteria from the appended checklist appear in cursive in the following text (see Attachment 1 <AttachmentLink attachmentNo="1"/>).</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="1. Allgemeine strukturelle Vorbedingungen: Inhaltliche und formale Voraussetzungen">
      <MainHeadline>1. Allgemeine strukturelle Vorbedingungen: Inhaltliche und formale Voraussetzungen</MainHeadline><Pgraph>Die strukturellen Vorbedingungen umfassen Kriterien, die die curriculare Einbindung der Lehrveranstaltung(en), auf die sich die Pr&#252;fungen beziehen, gew&#228;hrleisten sollen, formale Anforderungen zur Information der Studierenden und Regularien sowie Qualifizierung der Pr&#252;fungsverantwortlichen. Sie beziehen sich damit nicht auf Vorbereitung oder Durchf&#252;hrung einer konkreten Pr&#252;fung sondern betreffen die Rahmenbedingungen, die f&#252;r qualitativ hochwertiges Pr&#252;fen erforderlich sind.</Pgraph><Pgraph><Mark1>1.1. Gesamtpr&#252;fungsprogramm</Mark1></Pgraph><Pgraph><Mark2>Ein Gesamtpr&#252;fungsprogramm, in dem Anzahl, Umfang, Inhalt, zeitlicher Ablauf und Format der im Medizinstudium durchzuf&#252;hrenden summativen wie formativen Einzelpr&#252;fungen aufeinander abgestimmt sind, liegt allen Studierenden und Lehrenden vor.</Mark2></Pgraph><Pgraph>Die an der Fakult&#228;t bzw. im Studiengang Medizin&#47;Zahnmedizin&#47;Tiermedizin verwendbaren Pr&#252;fungsformen sollten in den entsprechenden formalen Regelungen (Studienordnung, Pr&#252;fungsordnung oder in geeigneten Ausf&#252;hrungsbestimmungen) aufgef&#252;hrt und hinsichtlich ihrer Durchf&#252;hrung und Bewertung festgelegt sein. Dabei ist Sorge zu tragen, dass die Bestimmungen hinreichend Raum f&#252;r die Etablierung innovativer Pr&#252;fungsformen bieten.</Pgraph><Pgraph>Es ist darauf zu achten, dass die Pr&#252;fungsinhalte mit ad&#228;quaten Pr&#252;fungsformen, die sowohl Methoden zur Leistungserfassung theoretischer Kenntnisse wie auch praktischer Fertigkeiten beinhalten, abgepr&#252;ft werden (&#8222;Triangulation&#8220;: Leistungserfassung auf Basis unterschiedlicher Quellen, zu unterschiedlichen Zeitpunkten, unter unterschiedlichen Bedingungen, durch verschiedene Personen und mit unterschiedlichen Methoden <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink>). Z. B. k&#246;nnen theoretische Kenntnisse mit schriftlichen Klausuren, praktische Pr&#252;fungsinhalte mit objektiv-strukturierten praktischen&#47;klinischen Pr&#252;fungen (OSPE&#47;OSCE) angemessen erfasst werden. Die Pr&#252;fungsformen sollten den jeweiligen Qualit&#228;tsanforderungen an Objektivit&#228;t, Reliabilit&#228;t (Zuverl&#228;ssigkeit) und Validit&#228;t (G&#252;ltigkeit) gen&#252;gen. Basiert die Leistungsbewertung auf verschiedenen Pr&#252;fungsteilen, so bezieht sich die Anforderung an die Messzuverl&#228;ssigkeit auf die Gesamtpr&#252;fung, nicht notwendigerweise auf die einzelnen Teile (siehe auch Erl&#228;uterung zu 2.6).</Pgraph><Pgraph>Um die Studierenden bestm&#246;glich auf ihre sp&#228;tere &#228;rztliche Berufsaus&#252;bung vorzubereiten, sind in die curricularen Lernziele Kompetenzen aufzunehmen, die wesentlich &#252;ber medizinisches Expertenwissen und fachlichen Fertigkeiten hinausgehen. Damit ist es aber auch erforderlich, geeignete Pr&#252;fungsformen und Strukturen zu entwickeln, die eine angemessene, zuverl&#228;ssige und praktikable Leistungserfassung dieser Kompetenzen erm&#246;glichen. Dies bedingt den Einsatz neuer Pr&#252;fungsformen, insbesondere arbeitsplatzbasierter Pr&#252;fungsformen, wie z. B. DOPS, Encounter-Cards oder 360&#176;-Assessment, zur Erfassung von kommunikativen Kompetenzen, professionellem Handeln, Managementf&#228;higkeiten. Besondere Beachtung erfordert die Qualit&#228;tssicherung dieser Pr&#252;fungsformate, so ist etwa im Vorfeld eine ausreichende Schulung der Pr&#252;fer sicherzustellen oder bei der Analyse der Pr&#252;fungsergebnisse zur Kontrolle der bei arbeitsplatzbasierten Leistungserfassungen geringeren Standardisierbarkeit der Pr&#252;fungssituation der Einsatz angemessener Auswerteverfahren (z. B. Generalisierbarkeitstheorie) vorzusehen.</Pgraph><Pgraph>Die Leistungsmessung bei nichtfachspezifischen Lernzielen ist logistisch oft nicht im Rahmen der einzelnen Fachpr&#252;fungen durchzuf&#252;hren. Hier sind andere Pr&#252;fungsstrukturen denkbar, bei denen Pr&#252;fungsbestandteile einzelner Pr&#252;fungen fach&#252;bergreifend und analog zu einem Portfolio zusammengestellt und beurteilt werden. So k&#246;nnten z. B. die Kommunikationsstationen in OSCEs verschiedener F&#228;cher f&#252;r eine Bewertung der Kompetenz als &#8222;Kommunikator&#8220; zusammengefasst werden. Dieses Portfolio k&#246;nnte auch die Erfassung von kritischen Ereignissen (etwa zur Beurteilung professionellen Verhaltens) umfassen.</Pgraph><Pgraph><Mark1>1. 2. Lernzielkatalog</Mark1></Pgraph><Pgraph><Mark2>F&#252;r jede in der Studienordnung definierte Unterrichtseinheit (z. B. Fach, Modul, Kurs, Seminar, Querschnittbereich) im vorklinischen und klinischen Abschnitt des Studiums liegt ein vollst&#228;ndiger schriftlicher Lernzielkatalog vor</Mark2>.</Pgraph><Pgraph>Aus der Gesamtheit der Lernzielkataloge der Unterrichtseinheiten muss entnommen werden k&#246;nnen, welche Lernziele bei Vorliegen eines Gesamtlernzielkatalogs in welchen Veranstaltungen vermittelt werden.</Pgraph><Pgraph><Mark1>1.3. Information der Studierenden bzgl. Lernzielkatalog</Mark1></Pgraph><Pgraph><Mark2>Die Studierenden werden vor jeder Unterrichtseinheit&#47;jedem Modul &#252;ber die spezifischen Lern- und Pr&#252;fungsziele zeitgerecht informiert.</Mark2> </Pgraph><Pgraph><Mark1>1.4. Ad&#228;quate Pr&#252;fungsformate</Mark1></Pgraph><Pgraph><Mark2>Die in den Lernzielen formulierten Kenntnisse, F&#228;higkeiten und Haltungen werden mit ad&#228;quaten Pr&#252;fungsformaten gepr&#252;ft. Insbesondere sind Verfahren einzusetzen, die geeignet sind, &#228;rztliche Entscheidungs- und Handlungskompetenzen sowie Fertigkeiten der &#228;rztlichen Gespr&#228;chsf&#252;hrung zu erfassen (s. 1.1).</Mark2></Pgraph><Pgraph>Neben schriftlichen Pr&#252;fungsformaten (als Multiple-Choice-Pr&#252;fung oder mit offenen Fragen), die vornehmlich der Pr&#252;fung theoretischen Wissens dienen, sind zur Leistungserfassung praktischer Fertigkeiten in medizinischen Studieng&#228;ngen OSCEs etabliert. Zur Erfassung anderer Kompetenzbereiche &#228;rztlichen Handelns sind dar&#252;ber hinaus weitere Pr&#252;fungsformen erforderlich, mit denen zuverl&#228;ssige arbeitsplatzbezogene Leistungserfassungen m&#246;glich sind. Hierzu geh&#246;ren z. B. miniCEX, 360&#176;-Assessments, Encounter-Cards, Direct Observation of Practical Skills (DOPS).</Pgraph><Pgraph><Mark1>1.5. Schriftliche Regelungen f&#252;r Pr&#252;fungsvorbereitung und Pr&#252;fungsablauf</Mark1></Pgraph><Pgraph>F&#252;r die nachfolgend aufgef&#252;hrten Bereiche sollten schriftliche Regelungen vorhanden sein.</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Teilnahmevoraussetzungen</Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Festsetzung von Pr&#252;fungsterminen (incl. Wiederholungstermine) und formaler Pr&#252;fungsablauf.</Mark2><LineBreak></LineBreak>Bei jeder Pr&#252;fung sollten klare Regularien f&#252;r den formalen Pr&#252;fungsablauf standardm&#228;&#223;ig eingehalten werden. Diese Regularien sollten schriftlich niedergelegt sein und folgende Aspekte enthalten: <LineBreak></LineBreak>&#8211; Form und Terminvorgaben f&#252;r Pr&#252;fungsank&#252;ndigung<LineBreak></LineBreak>&#8211; Form und Terminvorgaben f&#252;r die Anmeldung der Studierenden zur Pr&#252;fung, ggf. automatische Anmeldung zur Pr&#252;fung durch Einteilung zum Modul <LineBreak></LineBreak>&#8211; Zahl und Qualifikation der Pr&#252;fer (z. B. Facharzt, Habilitation usw.)<LineBreak></LineBreak>&#8211; Dauer der Pr&#252;fung<LineBreak></LineBreak>&#8211; Pr&#252;fungseinf&#252;hrungen (z. B. eigener Termin zur Einweisung f&#252;r computerbasierte Pr&#252;fungen) <LineBreak></LineBreak>&#8211; Ansagen zu Beginn der Pr&#252;fung<LineBreak></LineBreak>&#8211; Bei der Pr&#252;fung erlaubte Hilfsmittel<LineBreak></LineBreak>&#8211; Mitnahme von Pr&#252;fungsunterlagen<LineBreak></LineBreak>&#8211; Umgang bei versp&#228;tetem Erscheinen zur Pr&#252;fung<LineBreak></LineBreak>&#8211; R&#252;cktritt und Vers&#228;umnis von Pr&#252;fungen<LineBreak></LineBreak>&#8211; Vorgehen bei T&#228;uschungsversuchen<LineBreak></LineBreak>&#8211; Regelungen zum Pr&#252;fungsabbruch</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>Regelungen zu den im Studiengang einsetzbaren Pr&#252;fungsformen (s. 1.1)</Mark2></ListItem><ListItem level="1" levelPosition="4" numString="4."><Mark2>Festlegung r&#228;umlicher und zeitlicher Voraussetzungen und Bedingungen f&#252;r die Pr&#252;fungsdurchf&#252;hrung (s. 3.3)</Mark2></ListItem><ListItem level="1" levelPosition="5" numString="5."><Mark2>Bewertungsskalen, Bestehensgrenzen, Anwendung einer Gleitklausel</Mark2><Mark2><Superscript>3</Superscript></Mark2><Mark2> (s. 2.5, 2.8)</Mark2></ListItem><ListItem level="1" levelPosition="6" numString="6."><Mark2>Bewertung bei fehlerhaft gestellten Aufgaben (s. 5.2)</Mark2></ListItem><ListItem level="1" levelPosition="7" numString="7."><Mark2>Gewichtung von Teilpr&#252;fungen (s. 3.1)</Mark2></ListItem><ListItem level="1" levelPosition="8" numString="8."><Mark2>Kompensationsm&#246;glichkeiten und Nachteilsausgleich bei Pr&#252;fungen (s. 1.6)</Mark2></ListItem><ListItem level="1" levelPosition="9" numString="9."><Mark2>Teilnahmebedingungen und Verfahren f&#252;r Nach- und Wiederholungspr&#252;fungen (s. 1.6)</Mark2></ListItem><ListItem level="1" levelPosition="10" numString="10."><Mark2>Bekanntmachung und Einsichtnahme in Pr&#252;fungsergebnisse (s. 6.2)</Mark2></ListItem><ListItem level="1" levelPosition="11" numString="11."><Mark2>Regelungen bei Einspr&#252;chen gegen Bewertung und Pr&#252;fungsaufgaben (s. 5.2, 6.3)</Mark2></ListItem><ListItem level="1" levelPosition="12" numString="12."><Mark2>Umgang mit Verletzungen der Durchf&#252;hrungsbedingungen und au&#223;ergew&#246;hnlichen St&#246;rungen der Pr&#252;fungsdurchf&#252;hrung sowie Regelungen f&#252;r dadurch erforderliche Pr&#252;fungswiederholungen (s. 4.3) </Mark2></ListItem><ListItem level="1" levelPosition="13" numString="13."><Mark2>Ver&#246;ffentlichung von Aufgaben (s. 6.5)</Mark2></ListItem><ListItem level="1" levelPosition="14" numString="14."><Mark2>Dokumentation der Pr&#252;fung und der Pr&#252;fungsergebnisse (s. 5.5)</Mark2></ListItem></OrderedList></Pgraph><Pgraph><Mark1>1.6. Kompensation von Pr&#252;fungsleistungen, Nach- und Wiederholungspr&#252;fungen</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>K&#246;nnen Leistungsnachweise oder Teile von Leistungsnachweisen seitens Studierender nicht oder nur unter nicht zumutbaren Bedingungen erbracht werden, die in der Art und Form der Pr&#252;fungsdurchf&#252;hrung begr&#252;ndet sind, sollte grunds&#228;tzlich gekl&#228;rt sein, unter welchen Bedingungen Pr&#252;fungsleistungen kompensiert werden k&#246;nnen. </Mark2><LineBreak></LineBreak>Dies betrifft z. B. Studierende mit k&#246;rperlichen Beeintr&#228;chtigungen, bei denen u. U. der Behindertenbeauftragte hinzugezogen werden sollte, oder Studierende mit eingeschr&#228;nkten Kenntnissen der deutschen Sprache, die nicht regul&#228;r im Studiengang eingeschrieben sind (Studierende in internationalen Studienaustauschprogrammen, z. B. Erasmus).</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>In den ma&#223;geblichen rechtlichen Bestimmungen (Studienordnung, Pr&#252;fungsordnung) sind die Bedingungen f&#252;r die Durchf&#252;hrung und Teilnahme an Nach- und Wiederholungspr&#252;fungen festzulegen. Ebenfalls geregelt sein muss, ob und inwieweit notenverbessernde Pr&#252;fungen durchgef&#252;hrt werden.</Mark2><LineBreak></LineBreak>Das Pr&#252;fungsformat f&#252;r Wiederholungs- und Nachpr&#252;fungen sollte mit dem Format der Erstpr&#252;fung &#252;bereinstimmen, z. B. sollte keine schriftliche oder m&#252;ndliche Nachpr&#252;fung bei nicht bestandenem OSCE durchgef&#252;hrt werden. Ebenfalls sollte bei Nichtbestehen einer schriftlichen Pr&#252;fung keine m&#252;ndliche Nachpr&#252;fung erfolgen<Superscript>4</Superscript>.<LineBreak></LineBreak>Bei eigenst&#228;ndigen Wiederholungspr&#252;fungen (also Pr&#252;fungen, in denen mehrheitlich Kandidaten gepr&#252;ft werden, die mindestens einmal nicht bestanden haben), ist u. U. eine Modifikation der Gleitklausel zu empfehlen (s. auch 2.5).</ListItem></OrderedList></Pgraph><Pgraph><Mark1>1.7. Pr&#252;fungsverantwortliche</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>In jedem Fach ist mindestens ein Pr&#252;fungsverantwortlicher nebst Stellvertreter benannt, dessen Verantwortlichkeiten klar definiert sind. (Verantwortungsbereiche: z. B. Blueprint, Fragenerstellung, Durchf&#252;hrung, Korrektur, Pr&#228;- und Postreview, Auswertung, R&#252;ckmeldung an Curriculumsentwickler).</Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Die Pr&#252;fungsverantwortlichen haben an Weiterbildungsma&#223;nahmen zum Thema Pr&#252;fungen teilgenommen.</Mark2><LineBreak></LineBreak>Jeder Pr&#252;fungsverantwortliche f&#252;r einen Lehrbereich (Fach, Modul, Block etc.) sollte eine zertifizierte Weiterbildung zum Thema Pr&#252;fungen aufweisen k&#246;nnen.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="1. General structural pre-requisites: requirements regarding form and content">
      <MainHeadline>1. General structural pre-requisites: requirements regarding form and content</MainHeadline><Pgraph>The structural pre-requisites cover criteria that should guarantee curricular inclusion of the courses and lectures upon which the exams draw, formal requirements for notifying students, as well as rules and regulations and training those responsible for the exams. They do not refer to the preparation or administration of a concrete assessment, but rather apply to the basic conditions that are needed for high-quality testing.</Pgraph><Pgraph><Mark1>1.1. Comprehensive assessment program</Mark1></Pgraph><Pgraph><Mark2>A comprehensive assessment program, in which the number, scope, content, timeframe and format of the individual summative and formative tests to be taken during undergraduate medical study are coordinated with each other, is available to all students and teachers.</Mark2></Pgraph><Pgraph>The types of assessments given at the medical school or as part of the degree programs in human, dental or veterinary medicine, along with their administration and evaluation should be listed and laid down in the relevant formal rules and regulations (<Mark2>Studienordnung, Pr&#252;fungsordnung</Mark2>, or in appropriate rules for implementation). Attention is to be paid that the provisions allow sufficient room for the establishment of innovative forms of assessment.</Pgraph><Pgraph>It should be noted that the exam content is tested with suitable types of assessment that not only reflect methods for assessing theoretical knowledge, but also practical skills; (Triangulation: assessment on the basis of different sources at different points in time, under different conditions, through different people and with different methods <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink>). For example, theoretical knowledge can be appropriately measured through written tests, practical content with objectively structured practical&#47;clinical exams (OSPE&#47;OSCE). The types of assessments should fulfill the particular quality requirements for objectivity, reliability and validity. If the score is based on different exam components, the requirement regarding measurement reliability will refer to the entire exam and not only to the individual components (see explanation under 2.6).</Pgraph><Pgraph>To prepare students as well as possible for their future medical profession, learning objectives are to be included in the curricula that go substantially beyond medical expertise and technical skills. To accomplish this, it is also necessary to develop suitable types of exams and constructs that allow for appropriate, reliable and feasible assessment of these competences. This requires the use of new testing formats, in particular workplace-based exams, such as DOPS, encounter cards or 360&#176; assessment, to assess communication skills, professional decision-making, management skills, etc. Special attention to the quality assurance of these forms of testing is required. It is important to ensure sufficient training of the examiners in advance. The use of appropriate methods of analysis (e.g. generalizability theory) must be provided for when analyzing assessment results as a control of the lower standardizability of an exam situation, as exists for workplace-based performance assessments.</Pgraph><Pgraph>Logistically, the measurement of nonsubject-specific learning objectives is often impossible within the scope of the individual subject exams. In this case, other test constructs are conceivable, in which components of other separate assessments are compiled in an interdisciplinary manner similar to a portfolio and assessed. By doing this, the communication stations in OSCE&#8217;s for different subjects could be combined together for an assessment of the student&#8217;s skills as communicator. This portfolio could also cover the documentation of critical events (for instance for the assessment of professional conduct).</Pgraph><Pgraph><Mark1>1.2. Catalogue of learning objectives</Mark1></Pgraph><Pgraph><Mark2>For each curricular unit defined in the Studienordnung (e.g. subject, module, course, seminar, interdisciplinary field) in the pre-clinical and clinical phases of study there is a comprehensive written catalogue of learning objectives.</Mark2></Pgraph><Pgraph>Which learning objectives are to be imparted in which courses must be evident in the learning objective catalogue as a whole, if such a catalogue exists.</Pgraph><Pgraph><Mark1>1.3. Informing students about the learning objectives catalogue</Mark1></Pgraph><Pgraph><Mark2>The students are informed of the specific learning and assessment objectives in a timely manner prior to each curricular unit&#47;module.</Mark2></Pgraph><Pgraph><Mark1>1.4. Suitable assessment formats</Mark1></Pgraph><Pgraph><Mark2>The knowledge, skills and attitudes defined in the learning objectives are assessed by means of suitable testing formats. In particular, procedures are to be used which are suitable for assessing skills in making medical decisions and taking medical action, as well as skills in conducting medical consultations (see 1.1).</Mark2></Pgraph><Pgraph>In addition to written forms of assessment (multiple-choice or open-ended questions) which primarily serve to test theoretical knowledge, the OSCE is the type of exam established to assess practical skills taught and acquired in medical degree programs. To measure other competence areas concerning medical practice, still further testing formats are needed that make reliable, workplace-based performance assessments possible. Belonging to these types of exams are, for example, miniCEX, 360&#176; assessments, encounter cards, and direct observation of practical skills (DOPS).</Pgraph><Pgraph><Mark1>1.5. Written rules for exam preparation and assessment procedures</Mark1></Pgraph><Pgraph>Written rules should exist for the following aspects and details.</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Pre-requisites for participation</Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Scheduling exam dates (including repeat sessions) and formal assessment procedures.</Mark2><LineBreak></LineBreak>For each exam, clear rules and regulations should be followed as standard practice for the formal assessment procedure. These rules and regulations should be recorded in writing and address the following aspects:<LineBreak></LineBreak>&#8211; Requirements regarding how and when an exam is announced<LineBreak></LineBreak>&#8211; Requirements regarding how and when to register students for the exam. If applicable, automatic registration for the exam occurs through assignment to a module.<LineBreak></LineBreak>&#8211; Number of examiners and their qualifications (e.g. specialist physician, post-doctorate, etc.)<LineBreak></LineBreak>&#8211; Duration of the exam<LineBreak></LineBreak>&#8211; Introductory sessions about the exam (e.g. individual appointments for instructions on taking computer-based assessments)<LineBreak></LineBreak>&#8211; Announcements at the start of the exam<LineBreak></LineBreak>&#8211; Study aids allowed during the exam<LineBreak></LineBreak>&#8211; Rules about students keeping copies of exams afterwards<LineBreak></LineBreak>&#8211; How to handle tardy appearances to an exam session<LineBreak></LineBreak>&#8211; Withdrawal from or failure to attend an exam session<LineBreak></LineBreak>&#8211; How to handle attempts at cheating<LineBreak></LineBreak>&#8211; Rules about quitting in the middle of an exam</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>Rules regarding the types of assessments that can be used in the degree program (see 1.1)</Mark2></ListItem><ListItem level="1" levelPosition="4" numString="4."><Mark2>Definition of the pre-requisites for space and time and the conditions for conducting the assessment (see 3.3)</Mark2></ListItem><ListItem level="1" levelPosition="5" numString="5."><Mark2>Rating scales, passing scores, application of a grading curve or an automatic adjustment clause</Mark2><Mark2><Superscript>3</Superscript></Mark2><Mark2> (see 2.5, 2.8)</Mark2></ListItem><ListItem level="1" levelPosition="6" numString="6."><Mark2>Evaluation in the case of errors in the questions asked (see 5.2)</Mark2></ListItem><ListItem level="1" levelPosition="7" numString="7."><Mark2>Weighting of component exams (see 3.1)</Mark2></ListItem><ListItem level="1" levelPosition="8" numString="8."><Mark2>Compensation options and disability compensation during exams (see 1.6)</Mark2></ListItem><ListItem level="1" levelPosition="9" numString="9."><Mark2>Conditions for participation and procedures for repeat and re-testing (see 1.6)</Mark2></ListItem><ListItem level="1" levelPosition="10" numString="10."><Mark2>Announcement and inspection of exam results (see 6.2)</Mark2></ListItem><ListItem level="1" levelPosition="11" numString="11."><Mark2>Rules regarding appeals against scores and test questions (see 5.2, 6.3)</Mark2></ListItem><ListItem level="1" levelPosition="12" numString="12."><Mark2>Responses to violations of the conditions for conducting exams and extraordinary disruptions of test administration, as well as rules for any repeat testing necessary as a result (see 4.3)</Mark2></ListItem><ListItem level="1" levelPosition="13" numString="13."><Mark2>Publication of questions (see 6.5)</Mark2></ListItem><ListItem level="1" levelPosition="14" numString="14."><Mark2>Documentation of the assessment and its results (see 5.5)</Mark2></ListItem></OrderedList></Pgraph><Pgraph><Mark1>1.6. Compensating exam performance, retesting and repeat testing</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>If it is impossible for students to attain graded credit or components of graded credit, or possible only under unreasonable circumstances that arise from the nature or form of exam administration or conduction, then it should be fully clarified under which conditions test performance can be compensated.</Mark2><LineBreak></LineBreak>This applies to students with physical disabilities for whom, in certain cases, the advocate for disabled students should be involved or to students with limited German language skills who are not enrolled in the degree program as conventional students (students participating in international student exchange programs, e.g. Erasmus).</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>The conditions for administering and sitting for repeat and re-testing are to be set down in the authoritative legal provisions (Studienordnung, Pr&#252;fungsordnung). Likewise, it must be determined if and to what extent assessments leading to grade improvement will be given.</Mark2><LineBreak></LineBreak>The testing format for repeated and re-testing sessions should match the format of the initial assessment; for instance, no written or oral re-testing should be conducted for a failed OSCE. Likewise, in the case a written test is failed, no oral re-assessment should take place<Superscript>4</Superscript>.<LineBreak></LineBreak>For separate repeat assessments (meaning assessments in which mostly candidates who have failed the test at least once are tested), a modification of the automatic adjustment clause is recommended in certain cases (see also 2.5).</ListItem></OrderedList></Pgraph><Pgraph><Mark1>1.7. Persons responsible for assessments</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>In each subject, at least one person and their deputy shall be appointed as responsible for the exam and the related tasks shall be clearly defined. (Scope of responsibility: e.g. blueprint, question generation, conduction, grading, pre- and post-review, analysis, feedback for curriculum developers).</Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>The responsible persons must take part in professional training on the topic of assessments.</Mark2><LineBreak></LineBreak>Each person responsible for the assessment in regard to a specific curricular area (subject, module, block, etc.) should be able to demonstrate certified training on the topic of assessments and testing.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="2. Pr&#252;fungskonzeption und  bewertung">
      <MainHeadline>2. Pr&#252;fungskonzeption und  bewertung</MainHeadline><Pgraph>Die folgenden Empfehlungen beziehen sich auf die Vorbereitung konkreter Pr&#252;fungen. Sie betreffen die curriculare Anbindung der Pr&#252;fungsinhalte und Ma&#223;nahmen zur Qualit&#228;tssicherung von Aufgaben und Gesamtpr&#252;fung (Reliabilit&#228;t und Validit&#228;t) sowie die &#246;konomische und f&#252;r die Studierenden transparente Durchf&#252;hrung.</Pgraph><Pgraph><Mark1>2.1. Abstimmung der Pr&#252;fungen mit Gesamtpr&#252;fungsprogramm</Mark1></Pgraph><Pgraph><Mark2>Die Einzelpr&#252;fungen sind mit dem Gesamtpr&#252;fungsplan des Studiengangs abgestimmt. Diese Abstimmung betrifft sowohl summative als auch formative Leistungsr&#252;ckmeldungen.</Mark2></Pgraph><Pgraph><Mark1>2.2. Validit&#228;t</Mark1></Pgraph><Pgraph><Mark2>Jeder Einzelpr&#252;fung liegt ein schriftliches Gesamtkonzept (&#8222;Blueprint&#8220;) zugrunde, das die fachspezifischen Pr&#252;fungsinhalte repr&#228;sentativ abbildet.</Mark2></Pgraph><Pgraph>Der Blueprint dient der Sicherung der inhaltlichen Validit&#228;t der Pr&#252;fung. Diese wird gew&#228;hrleistet </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">durch die Repr&#228;sentativit&#228;t der Aufgaben f&#252;r den abzupr&#252;fenden Bereich und </ListItem><ListItem level="1" levelPosition="2" numString="2.">die Vermeidung von f&#252;r diesen irrelevanten Pr&#252;fungsinhalten (&#8222;konstuktirrelevante Varianz&#8220;).</ListItem></OrderedList></Pgraph><Pgraph>Die Validit&#228;t ist das Kriterium f&#252;r die Testg&#252;te. Sie ist ein Ma&#223; daf&#252;r, ob die bei der Messung erzeugten Daten wie beabsichtigt die zu messende Gr&#246;&#223;e, also die Kenntnisse oder Fertigkeiten in dem durch die Pr&#252;fung abzudeckenden Fachgebiet o. &#228;., repr&#228;sentieren: Misst der Test das Merkmal, das er messen soll<Superscript>5</Superscript>&#63; </Pgraph><Pgraph>Nach der Auswertung der Pr&#252;fungen k&#246;nnen weitere Quellen der Validit&#228;t untersucht werden:</Pgraph><Pgraph><UnorderedList><ListItem level="1">stellen sich die Testergebnisse plausibel dar&#63; </ListItem><ListItem level="1">Gibt es eine hohe Korrelation zwischen dem Test und anderen Tests, die das gleiche Konstrukt messen sollen (z. B. MC-Klausur Innere Medizin und Anteil Innere Medizin in Staatspr&#252;fungen)&#63;</ListItem></UnorderedList></Pgraph><Pgraph><Mark1>2.3. Einbindung von Fachvertretern</Mark1></Pgraph><Pgraph><Mark2>Bei der Zusammenstellung der Pr&#252;fungen sind Vertreter aus allen beteiligten Lehrgebieten beteiligt.</Mark2></Pgraph><Pgraph><Mark1>2.4. Begutachtung der Pr&#252;fungsaufgaben (Pr&#228;-Review) und Pr&#252;fung der inhaltlichen Validit&#228;t</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Vor der Durchf&#252;hrung einer Pr&#252;fung findet eine standardisierte, inhaltliche und formale Bewertung (Pr&#228;-Review) der Pr&#252;fungsaufgaben statt.</Mark2><LineBreak></LineBreak>Bei Pr&#252;fungsformaten, in denen nur eingeschr&#228;nkte M&#246;glichkeiten zu ihrer Standardisierung bestehen (z. B. arbeitsplatzbasierte Pr&#252;fungen), ist festzulegen, wie unterschiedliche Rahmenbedingungen und Schwierigkeitsgrade ber&#252;cksichtigt werden (z. B. detailliertes Standard-Setting).<LineBreak></LineBreak>Bei der Erstellung von Pr&#252;fungen sollten im Hinblick auf die Validit&#228;t die folgenden Punkte in einer Gesamtsicht beachtet werden:<LineBreak></LineBreak>&#8211; Ist jede einzelne Aufgabe qualitativ hochwertig&#63; Hier ist insbesondere wichtig, dass nur die zu messende Fertigkeit&#47;F&#228;higkeit (z. B. Wissen in einem bestimmten Fachgebiet) zur richtigen Beantwortung f&#252;hrt und nicht andere F&#228;higkeiten (z. B. Sprachkenntnisse) zur L&#246;sung der Aufgabe - erforderlich sind.<LineBreak></LineBreak>&#8211; Sind die Inhalte allgemeing&#252;ltig&#47;evidenzbasiert und z. B. keine lokale Lehrmeinung&#63;<LineBreak></LineBreak>&#8211; Deckt sich der Inhalt der Pr&#252;fung mit der Lehre&#47;den Lernzielen&#63;<LineBreak></LineBreak>&#8211; Handelt es sich um Wissen, das beim gegenw&#228;rtigen Ausbildungsstand erwartet werden kann und nicht z. B. um Inhalte, die in einen sp&#228;teren Abschnitt des Studiums oder der medizinischen Weiterbildung geh&#246;ren&#63; <LineBreak></LineBreak>&#8211; Ist der Inhalt des zu pr&#252;fenden Stoffgebiets mit seinen Subgebieten verh&#228;ltnism&#228;&#223;ig angemessen und umfassend im Test vertreten&#63; Um dies zu gew&#228;hrleisten m&#252;ssen angemessene Methoden der Fragenzusammenstellung standardm&#228;&#223;ig gew&#228;hlt werden (s. 2.2, &#8222;Blueprint&#8220;).<LineBreak></LineBreak>&#8211; Wurden die Pr&#252;fungsaufgaben sowie die ganze Pr&#252;fung einem sorgf&#228;ltigen Review-Prozess unterzogen&#63;<LineBreak></LineBreak>&#8211; Ist das theoretische Rahmenwerk argumentativ nachvollziehbar&#63;<LineBreak></LineBreak>&#8211; Erscheint der Test den Pr&#252;flingen plausibel&#63; (Akzeptanz)</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Am Review nehmen mindestens zwei Fachvertreter und ein Vertreter eines anderen Faches teil.</Mark2></ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>Das Ergebnis der Begutachtung muss dokumentiert werden.</Mark2></ListItem></OrderedList></Pgraph><Pgraph><Mark1>2.5. Bestehensgrenzen</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Vor der Durchf&#252;hrung einer Pr&#252;fung wird die Bestehensgrenze durch ein interdisziplin&#228;res Expertengremiums nach inhaltlichen Kriterien (z. B. mittels eines Standard-Setting-Verfahrens) oder anhand eines formalen Kriteriums (z. B. 60&#37;-Regel) schriftlich festgelegt. </Mark2><LineBreak></LineBreak>Bestehensgrenzen sollten m&#246;glichst anhand inhaltlicher Kriterien entsprechend einer kriteriumsorientierten Leistungsmessung festgesetzt werden (vgl. z. B. Verfahren des Standardsetzens beim OSCE). Bei MC-Fragen sollten mindestens formale Kriterien (z. B. 60&#37;-Regel) eingesetzt werden.</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Eine Regelung zur Anwendung einer Gleitklausel ist schriftlich festgelegt.</Mark2><LineBreak></LineBreak>Eine Gleitklauselregelung ist i. A. bei Pr&#252;fungen mit Multiple-Choice-Aufgaben erforderlich. Im Studiengang sollte durch eine einheitliche Regelung klargestellt sein, bei welchen Pr&#252;fungsformen und in welcher Weise eine Gleitklausel einheitlich zur Anwendung kommt. Es ist festzulegen, wie Pr&#252;fungen mit gemischten Formaten (z. B. Multiple-Choice und offene Fragen) zu behandeln sind.<LineBreak></LineBreak>Erg&#228;nzend zu einer kriteriumsorientierten Bestehensgrenze sollten auch bei anderen Pr&#252;fungsformen entsprechende Regelungen zur Kompensation unangemessen schwieriger Pr&#252;fungen getroffen werden, die den Studierenden rechtzeitig bekannt gegeben werden m&#252;ssen.<LineBreak></LineBreak>Wir empfehlen f&#252;r Pr&#252;fungen mit MC-Fragen zur Vereinfachung eine modifizierte Gleitklausel, die die durchschnittliche Pr&#252;fungsleistung aller Teilnehmer, die zum ersten Mal in direktem Anschluss an den Kurs an der Pr&#252;fung teilnehmen, (ohne Beschr&#228;nkung auf Studierende in der Regelstudienzeit o. &#196;.) ber&#252;cksichtigt. F&#252;r Nachhol- und Wiederholungspr&#252;fungen mit einem erheblichen Anteil an Teilnehmern, die die Pr&#252;fung nicht zum ersten Mal ablegen, sind geeignete Regelungen zu treffen.</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>Rundungen der Bestehens- und Notengrenzen sind verbindlich festzulegen.</Mark2><LineBreak></LineBreak>Ergibt sich z. B. bei 99 Aufgaben und einer Bestehensgrenze von 60&#37; der maximalen Punktzahl die Bestehensgrenze von 59,4 Punkten, so wird empfohlen, diese auf 60 Punkte aufzurunden, falls bei den Pr&#252;fungsaufgaben nur ganze Punkte vergeben werden. Werden auch halbe Punkte vergeben, so w&#228;re die Bestehensgrenze entsprechend auf 59,5 Punkte zu setzen (nach der deutschen &#196;AppO muss die Mindestprozentzahl zum Bestehen erreicht oder &#252;berschritten sein, d. h. es finden in keinem Fall Abrundungen statt). </ListItem></OrderedList></Pgraph><Pgraph><Mark1>2.6. Reliabilit&#228;t der Pr&#252;fung</Mark1></Pgraph><Pgraph><Mark2>Bei summativen Pr&#252;fungen ist eine Reliabilit&#228;t von mindestens 0,8 f&#252;r den Leistungsnachweis zu erwarten.</Mark2></Pgraph><Pgraph>Soweit methodisch m&#246;glich, wird empfohlen, Leistungsnachweise eines Fachs auf Basis mehrerer Teilpr&#252;fungen zu erstellen (s. Erl&#228;uterung zu 1.1). In diesem Fall ist das Kriterium der Mindestreliabilit&#228;t von 0,8 auf die Gesamtbewertung anzuwenden, nicht notwendigerweise auf die einzelnen Teilpr&#252;fungen. Ein Beispiel hierf&#252;r w&#228;re, wenn in einem Fach sowohl eine schriftliche Pr&#252;fung f&#252;r das theoretische Wissen wie auch eine OSCE-Pr&#252;fung f&#252;r die praktischen Fertigkeiten abzulegen sind. Hier kann sowohl bei Klausur wie bei OSCE die Reliabilit&#228;t der beiden einzelnen Pr&#252;fungen jeweils 0,8 unterschreiten, die Reliabilit&#228;t der zusammengesetzten Pr&#252;fung kann aber merklich h&#246;her sein. Zur Bestimmung der Reliabilit&#228;t zusammengesetzter Leistungsnachweise sei auf die einschl&#228;gige Literatur verwiesen (z. B. <TextLink reference="18"></TextLink>).</Pgraph><Pgraph>Dabei ist zu beachten, dass Teilpr&#252;fungen, die nicht durch andere Pr&#252;fungsleistungen kompensiert werden k&#246;nnen, eine hinreichende Messzuverl&#228;ssigkeit der Entscheidung bestanden&#47;nicht bestanden aufweisen, um zu verhindern, dass einem Studierenden auf Grund einer einzelnen wenig zuverl&#228;ssigen Teilpr&#252;fung der Leistungsschein verweigert wird. Beispiele hierf&#252;r sind etwa &#8222;K.O.-Stationen&#8220; in einem OSCE oder Teilpr&#252;fungen bei f&#228;cher&#252;bergreifenden Leistungsnachweisen, die jede f&#252;r sich bestanden werden m&#252;ssen.</Pgraph><Pgraph>Um in einzelnen Pr&#252;fungen eine Reliabilit&#228;t von mindestens 0,8 zu erreichen, sind in der Regel bei MC-Klausuren wenigstens 40 qualitativ hochwertige Fragen erforderlich, bei OSCE wenigstens 12 Stationen. Diese Angaben k&#246;nnen nur als grobe Anhaltspunkte dienen, in Abh&#228;ngigkeit von Pr&#252;fungsziel, Aufgabenqualit&#228;t und zu pr&#252;fender Studierendenkohorte sind erhebliche Schwankungsbreiten m&#246;glich, weshalb zur Absch&#228;tzung der zu erwartenden Reliabilit&#228;t die Kennwerte entsprechender fr&#252;herer Pr&#252;fungen des Faches herangezogen werden sollten.</Pgraph><Pgraph>Insbesondere &#8222;kleine&#8220; F&#228;cher stehen vor dem Problem, dass auf Grund des Pr&#252;fungsumfangs nur schwer eine Reliabilit&#228;t von wenigstens 0,8 erreicht werden kann. Eine L&#246;sung im Bereich der Humanmedizin in Deutschland bieten die sog. &#8222;f&#228;cher&#252;bergreifenden Leistungsnachweise&#8220;, bei denen mehrere F&#228;cher, die ihre Unterrichtseinheiten in zeitlicher N&#228;he durchf&#252;hren, eine gemeinsame Pr&#252;fung durchf&#252;hren und eine Gesamtnote bilden k&#246;nnen. Sind keine f&#228;cher&#252;bergreifenden Leistungsnachweise m&#246;glich, sollte zumindest durch eine intensive Qualit&#228;tssicherung eine m&#246;glichst hohe Validit&#228;t durch Repr&#228;sentativit&#228;t der Aufgaben f&#252;r den Lehrstoff und der Vermeidung von Aufgaben, die lernzielfremde Kenntnisse oder Fertigkeiten pr&#252;fen (konstruktirrelevante Varianz), gesichert werden.</Pgraph><Pgraph><Mark1>2.7. Ressourcenaufwand</Mark1></Pgraph><Pgraph><Mark2>Die geplante Pr&#252;fung ist ressourcensparend konzipiert.</Mark2></Pgraph><Pgraph>Hierunter sind M&#246;glichkeiten einer Einsparung von Ressourcen bei der Konzeption, Durchf&#252;hrung und Auswertung der Pr&#252;fungen zu verstehen. Dazu geh&#246;ren z. B. Einlesen der Antwortb&#246;gen durch Belegleser, ad&#228;quate Anzahl der Aufsichtspersonen, Verwendung eines fakult&#228;ts-&#47;studiengangs&#252;bergreifenden Pr&#252;fungspools, Einsatz computerbasierter Durchf&#252;hrung, standardisierte teststatistische Auswertung (z. B. zentral in der Fakult&#228;t), Verwendung der Mindestanzahl von Pr&#252;fern (z. B. beim OSCE einer pro Station bei zentraler Aufsicht ausreichend), Wahl ressourcensparender Pr&#252;fungsformate und Aufgabenformate (offene Fragen auf das Notwendige beschr&#228;nken).</Pgraph><Pgraph><Mark1>2.8. Bewertung der Aufgaben</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Die zu verwendenden Bewertungsskalen (Noten, Punkte) von Pr&#252;fungen sollten f&#252;r den Studiengang einheitlich und verbindlich sein.</Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Die richtigen Antworten, der Erwartungshorizont, die Korrekturrichtlinien und Bewertungsmodus sind vor der Durchf&#252;hrung der Pr&#252;fung schriftlich festgelegt.</Mark2><LineBreak></LineBreak>Die richtigen Antworten und der Erwartungshorizont liegen dem Pr&#252;fer schriftlich vor. Die schriftliche Korrekturanleitung f&#252;r eine Klausur ist eindeutig (z. B. zur Vergabe halber Punkte oder zur Korrektur offener Fragen). Empfehlung: Jeweils derselbe Pr&#252;fer sollte die Antworten aller Studenten einer offenen Frage korrigieren.<LineBreak></LineBreak>Der Bewertungsmodus bei einem OSCE ist eindeutig festgelegt. F&#252;r jede OSCE-Station&#47;-aufgabe ist eindeutig festgelegt, wie viele Punkte anhand einer Checkliste oder auf Basis einer globalen Beurteilung (&#8222;Global Rating&#8220;) der Fertigkeit&#47;F&#228;higkeit vergeben werden. F&#252;r m&#252;ndliche Pr&#252;fungen gilt Entsprechendes. </ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>Die Anzahl der Punkte f&#252;r jede einzelne Frage&#47;Aufgabe ist vor Pr&#252;fungsbeginn festgelegt.</Mark2><LineBreak></LineBreak>Bei schriftlichen Pr&#252;fungen ist bei nicht einheitlicher Gewichtung der Aufgaben die jeweils zu erzielende Punktzahl in der Klausur anzugeben. Es ist zu beachten, dass bei MC-Aufgaben, die nicht vom Einfachauswahltyp sind (z. B. &#8222;Mehrfach richtig&#47;falsch&#8220;), erbrachtes Teilwissen ebenfalls angemessen zu ber&#252;cksichtigen ist.</ListItem></OrderedList></Pgraph><Pgraph><Mark1>2.9. Bewertung von Teilpr&#252;fungen</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Setzen sich die im Zeugnis aufzuf&#252;hrenden Noten aus mehreren Teilpr&#252;fungen zusammen, sollten die Bewertungen der Teilpr&#252;fungen auf einer hinreichend differenzierten Bewertungsskala vorgenommen werden. </Mark2><LineBreak></LineBreak>Notenskalen, wie etwa das deutsche System der Vergabe von 4 Notenstufen bei bestandener Pr&#252;fung, bilden die Pr&#252;fungsleistungen nur grob ab. Werden wenig abgestufte Noten von Teilpr&#252;fungen zur Bildung einer Gesamtnote zusammengefasst, k&#246;nnen durch die Mittelung Verzerrungen der Beurteilung der Gesamtleistung entstehen.</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Die Rundung der Noten sollte eindeutig festgelegt werden</Mark2>.<LineBreak></LineBreak>Rundungen auf ganze Zahlen, wie sie bei der Bildung der durch die deutsche &#196;AppO f&#252;r das Zeugnis geforderten Notenstufen 1, 2, 3 und 4 notwendig sind, sollten immer in Richtung der n&#228;chstliegenden ganzen Zahl durchgef&#252;hrt werden. Bei gleichem Abstand (Dezimalstellen 0,500) ist zu Gunsten der Studierenden zu runden, so ist etwa 1,500 auf die ganze Note 1, hingegen ist 1,501 auf die ganze Note 2 zu runden.<LineBreak></LineBreak>Es wird empfohlen, Teilbewertungen, die zu einer Gesamtnotenbildung verwendet werden, auf einer Skala mit wenigstens drei Kommastellen durchzuf&#252;hren. Die Verwendung von drei Kommastellen ist im Normalfall hinreichend genau, um Verzerrungen durch iterierte Rundungen zu vermeiden (wie etwa, dass im deutschen System aus 2,54 durch die Rundung auf eine Stelle 2,5 und durch eine nachfolgende Rundung in Richtung der besseren Note eine 2 wird).<LineBreak></LineBreak>Die Bewertungsskala sollte eine geforderte Gleichabst&#228;ndigkeit von Notengrenzen ber&#252;cksichtigen. Ist z. B. bei schriftliche Pr&#252;fungen vorgegeben, dass ab 60&#37; bis zu 70&#37; der erreichten Punktzahl die Note 4, ab 70&#37; bis zu 80&#37; die Note 3, ab 80&#37; bis 90&#37; die Note 2 und ab 90&#37; eine 1 zu vergeben ist, so m&#252;sste eine noten&#228;quivalente Dezimalskala von 0,5 bis 4,5 reichen. Damit wird das Intervall von 80-90&#37; der erreichten Punktzahl (Note 2) auf die Noten von 2,5 bis 1,5 und 90-100&#37; auf ein gleich gro&#223;es Intervall von 1,5 bis 0.5 abgebildet. Nur so ist eine einfache lineare Umrechnung der Punktwerte in Dezimalnoten m&#246;glich.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="2. Assessment design and analysis">
      <MainHeadline>2. Assessment design and analysis</MainHeadline><Pgraph>The following recommendations refer to the preparation of concrete exams. They affect the curricular integration of test content and measures to ensure the quality of questions and overall assessment (reliability and validity), as well as test administration that is economically feasible and transparent for students.</Pgraph><Pgraph><Mark1>2.1. Coordination of exams with the comprehensive assessment program</Mark1></Pgraph><Pgraph><Mark2>The individual exams are to be coordinated with the medical school&#8217;s comprehensive assessment program. This coordination affects not only summative, but also formative performance feedback.</Mark2></Pgraph><Pgraph><Mark1>2.2. Validity</Mark1></Pgraph><Pgraph><Mark2>Each individual exam is based on a written blueprint that representatively maps out the subject-specific exam content.</Mark2></Pgraph><Pgraph>The blueprint serves to ensure the validity of the assessment&#8217;s content. This guarantees </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">that the questions represent the subject area being tested and </ListItem><ListItem level="1" levelPosition="2" numString="2.">avoids the presence of any content irrelevant to this assessment (construct-irrelevant variance).</ListItem></OrderedList></Pgraph><Pgraph>Validity is the criterion for test quality. It is a measure of whether or not the data gained through the measurement represent, as intended, the quantity to be measured, meaning the knowledge or skills in the subject area to be covered by the assessment: Does the test measure what it is supposed to measure<Superscript>5</Superscript>&#63;</Pgraph><Pgraph>After analyzing the assessments, further sources of validity can be investigated:</Pgraph><Pgraph><UnorderedList><ListItem level="1">Are the exam scores plausible&#63;</ListItem><ListItem level="1">Is there a high correlation between this exam and other exams that are meant to measure the same construct (e.g. correlation between a multiple-choice test on internal medicine and the sections on internal medicine contained in the state medical examinations)&#63;</ListItem></UnorderedList></Pgraph><Pgraph><Mark1>2.3. Inclusion of subject area representatives</Mark1></Pgraph><Pgraph><Mark2>Representatives from all the affected subject areas are involved in putting the exams together.</Mark2></Pgraph><Pgraph><Mark1>2.4. Pre-review of the test questions and analyzing content validity</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Prior to administering an exam, a standardized analysis is carried out regarding the content and form of the test questions (pre-review).</Mark2><LineBreak></LineBreak>In respect to testing formats, for which only limited standardization options exist (e.g. workplace-based exams), it must be determined how different conditions and degrees of difficulty are to be taken into account (e.g. detailed standard setting).<LineBreak></LineBreak>When creating exams, the following aspects should be considered overall in regard to validity:<LineBreak></LineBreak>&#8211; Is each question of a high quality&#63; It is especially important that only the skill&#47;ability being tested (e.g. knowledge of a specific subject area) is necessary to arrive at the correct answer and not other skills (e.g. language skills).<LineBreak></LineBreak>&#8211; Is the content generally valid&#47;evidence-based and does not, for instance, represent local doctrine&#63;<LineBreak></LineBreak>&#8211; Does the exam&#8217;s content correspond with the curriculum&#47;learning objectives&#63;<LineBreak></LineBreak>&#8211; Does the content involve knowledge that can be expected in terms of the current level of education and does not involve content that, for example, belongs to a later phase of study or advanced medical training&#63;<LineBreak></LineBreak>&#8211; Is the content of the material to be tested represented appropriately and extensively with its sub-areas&#63; To ensure this, suitable methods for compiling questions must be selected as standards (see 2.2 Blueprint).<LineBreak></LineBreak>&#8211; Have the test questions and the entire exam been subjected to a thorough review process&#63;<LineBreak></LineBreak>&#8211; Is the theoretical framework based on sound and comprehensive reasoning&#63;<LineBreak></LineBreak>&#8211; Does the exam appear credible to the candidates&#63; (Acceptance)</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>At least two representatives from the subject area and one from another discipline take part in the review.</Mark2></ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>The results of the review must be documented.</Mark2></ListItem></OrderedList></Pgraph><Pgraph><Mark1>2.5. Passing scores</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Prior to administering an exam, the lowest possible passing score will be set down in writing by an interdisciplinary board of experts and determined according to content-related criteria (e.g. by means of a standard setting procedure) or a formal criterion (e.g. 60&#37; rule).</Mark2><LineBreak></LineBreak>Passing scores should be determined to the extent possible using content-related criteria according to a criteria-oriented assessment scale (as an example, see standard-setting methods for OSCE&#8217;s). For multiple-choice questions, formal criteria (e.g. the 60&#37; rule) should be applied at the very least.</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>A rule for applying an automatic adjustment clause is set down in writing.</Mark2><LineBreak></LineBreak>A rule for automatic adjustments to the grading curve is generally necessary for exams with multiple-choice questions. In the degree program, a uniform rule should clearly state for which types of tests and in what manner automatic adjustment will be universally applied. It must be determined how exams of mixed formats are to be treated (e.g. multiple-choice and open-ended questions).<LineBreak></LineBreak>In addition to a criteria-oriented passing score, appropriate rules to compensate for unreasonably difficult exams should also be made for other types of assessments and these must be communicated to the students in a timely manner.<LineBreak></LineBreak>As a simplification for exams with multiple-choice questions, we recommend a modified automatic adjustment clause that takes into account the average grade of all candidates sitting the test for the first time directly following the course (without restricting this to traditional, full-time students, etc.). Appropriate rules need to be defined for re-testing and repeat tests where a substantial proportion of the participants are not taking the test for the first time.</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>The procedure for rounding the lowest passing score and borderline point totals must be definitively set down in writing.</Mark2><LineBreak></LineBreak>If the lowest passing score for a test with 99 questions and a minimum percent of 60&#37; is 59.4 points, then rounding the passing score up to 60 points is recommended if only full points are given for the test questions. If half points are assigned, the passing score would then be set at 59.5 points (according to the German medical licensure act (&#196;AppO) the minimum percentage to pass must be achieved or exceeded, meaning that in no case are scores to be rounded downward).</ListItem></OrderedList></Pgraph><Pgraph><Mark1>2.6. Assessment reliability</Mark1></Pgraph><Pgraph><Mark2>For summative tests, a reliability of at least 0.8 is to be expected for the achievement of graded credit (Leistungsnachweis).</Mark2></Pgraph><Pgraph>We recommend that graded credits for a subject are based on multiple component exams to the extent that is methodically possible (see explanation under 1.1). Here, the criterion of a minimum reliability of 0.8 is to be applied to the overall assessment and not necessarily to the individual component exams. An example for this would be if in a subject a student must take a written exam on theoretical knowledge and undergo an OSCE of practical skills. It is possible that, for the exam and the OSCE, the reliability of each individual assessment is lower than 0.8, but the reliability of the two combined together can be distinctly higher. To determine reliability of combined graded credits, we refer to the relevant literature (e.g. <TextLink reference="18"></TextLink>).</Pgraph><Pgraph>It must be noted that component exams which cannot be compensated for by other assessment scores must possess sufficient measurement reliability regarding the decision to pass or fail students, in order to avoid students being denied credit on their academic transcripts due to one deficiently reliable component exam. Examples of this are knock-out stations in an OSCE or components for interdisciplinary graded credits that must be passed separately.</Pgraph><Pgraph>So that an assessment fulfills the minimum reliability of 0.8 as an individual exam, as a general rule at least 40 high quality questions are necessary for a multiple-choice test and at least 12 stations for an OSCE. This information can only serve as an approximate reference. Depending on the test objective, quality of questions, and the student cohort being assessed, considerable fluctuations are possible which is why the statistical values of corresponding past exams on the subject should be drawn upon to estimate the expected reliability.</Pgraph><Pgraph>&#8220;Exotic&#8221; subjects, in particular, are confronted by the problem that a minimum reliability of 0.8 can only be attained with difficulty due to the scope of the exam. A solution offered in human medicine in Germany is the concept of interdisciplinary graded credits (f&#228;cher&#252;bergreifende Leistungsnachweise) allowing the combination of multiple subjects which are covered at about the same time in the curriculum into one exam. These are then represented by one overall score. If no interdisciplinary graded credits are possible, then an in-depth quality assurance program should ensure the highest possible validity resulting from the representativeness of the questions in terms of the curricular material and the avoidance of questions that test for knowledge or skills not included in the learning objectives (construct-irrelevant variance).</Pgraph><Pgraph><Mark1>2.7. Use of resources</Mark1></Pgraph><Pgraph><Mark2>The scheduled exam is conceived in such a way that it conserves resources.</Mark2></Pgraph><Pgraph>Under this heading, the possibilities for conserving resources in the development, administration and evaluation of exams are covered. Belonging to this are feeding the answer sheets into scanners, adequate numbers of test monitors, use of school&#47;degree program test question pools, use of computer-based administration, standardized test-statistical analysis (e.g. centrally in the medical school), deployment of a minimum number of examiners (e.g. one per station for an OSCE is sufficient when monitored centrally), selection of resource-saving testing formats and question types (limit open-ended question to what is necessary).</Pgraph><Pgraph><Mark1>2.8. Evaluating the answers</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>The rating scale to be applied (grades, points) to assessments should be uniform and binding for the degree program.</Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>The correct answers, the expectations, the grading guidelines, and mode of analysis must be determined in writing before the exam is administered.</Mark2><LineBreak></LineBreak>The correct answers and expectations are available to the examiner in writing. The written instructions for grading an exam are clear (e.g. regarding the assignment of partial points or evaluating open-ended questions). Recommendation: the same examiner should rate all student responses to a particular open-ended question.<LineBreak></LineBreak>The mode of assessment for an OSCE is clearly defined. For each OSCE station or question, the number of points assigned is clear based on a checklist or global rating of skill&#47;ability. The same applies for oral exams.</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>The number of points for each individual question&#47;task is determined before the start of the exam.</Mark2><LineBreak></LineBreak>For written exams with non-uniformly weighted questions, the number of possible points for each question must be indicated on the exam. It must be noted that for multiple-choice questions which are not of the single-choice type (e.g. more than one true&#47;false answer) the demonstration of partial knowledge is to be taken into consideration.</ListItem></OrderedList></Pgraph><Pgraph><Mark1>2.9. Evaluation of component exams</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>If the graded credits are composed of more than one component, the evaluations of the individual components should be done using a sufficiently differentiated rating scale.</Mark2><LineBreak></LineBreak>Grading scales, such as the German system of applying a four-point grading scale to successfully passed exams, only roughly reflect actual test performance. If poorly nuanced grades from component exams are compiled to yield an overall grade, distortions in the assessment of the overall performance can arise as a result of any averaging.</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>The procedure for rounding the grades must be clearly defined.</Mark2><LineBreak></LineBreak>Rounding to whole numbers, as for the four-point grading scale required by the German medical licensure act (&#196;AppO) to indicate proficiency levels on the officially recognized certificate, should always be in the direction of the nearest whole number. In the case of equal distance (decimal places 0.500), rounding should be to the advantage of the student, meaning that 1.500 is rounded to the grade of 1, while 1.501 is rounded to the grade of 2.<LineBreak></LineBreak>It is recommended that partial evaluations used to compute an overall score are done on a scale with at least three decimal places. The use of three decimal places is sufficiently precise in normal cases to avoid distortion through repeated rounding (as occurs in the German system when 2.54 is rounded one decimal place to 2.5 and then, through repeated rounding, results in the better grade of 2).<LineBreak></LineBreak>The rating scale should take a required equal distance between grade categories into account. For instance, if it is required of written exams that 60&#37; to 70&#37; of the possible points yields the grade of 4, and 70&#37; to 80&#37; the grade of 3, 80&#37; to 90&#37; the grade of 2, and 90&#37; and above the grade of 1, then a grade-equivalent decimal scale of 0.5 to 4.5 must also suffice. As a result, the interval of 80-90&#37; of the possible points (grade of 2) reflects a same-sized interval in the grades of 2.5 to 1.5, and 90-100&#37;, the same-sized interval of 1.5 to 0.5. A simple linear conversion of point scores into decimal values is only possible in this manner.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="3. Organisatorische Vorbereitungen zur Pr&#252;fungsdurchf&#252;hrung">
      <MainHeadline>3. Organisatorische Vorbereitungen zur Pr&#252;fungsdurchf&#252;hrung</MainHeadline><Pgraph>Neben der inhaltlichen Vorbereitung der Pr&#252;fung bedarf es verschiedener organisatorischer und logistischer Vorarbeiten, um einen formal korrekten Ablauf der Pr&#252;fung zu gew&#228;hrleisten.</Pgraph><Pgraph><Mark1>3.1. Bekanntgabe von Pr&#252;fungsterminen und -formate</Mark1></Pgraph><Pgraph><Mark2>Die Pr&#252;fungstermine und -formate werden den Studierenden zu Beginn einer Unterrichtseinheit bekannt gegeben.</Mark2></Pgraph><Pgraph>Setzt sich die Gesamtnote eines Fachs oder Querschnittsbereichs aus mehreren Teilpr&#252;fungen zusammen, so sind die Gewichtungen bekannt zu geben. Bei &#196;nderungen der Zusammensetzung der Gesamtnote oder Gewichtung der Teilpr&#252;fungen sind klare &#220;bergangsregelungen f&#252;r Studierende zu formulieren, die Pr&#252;fungen wiederholen m&#252;ssen.</Pgraph><Pgraph><Mark1>3.2. Pr&#252;fungsanmeldung</Mark1></Pgraph><Pgraph><Mark2>F&#252;r jede Pr&#252;fung ist eine schriftliche oder Online-Anmeldung durch die Studierenden erforderlich. Die Anmeldung zu Lehrveranstaltung und Pr&#252;fung kann gemeinsam erfolgen. Unter Umst&#228;nden kann bei curricular feststehenden Pr&#252;fungen eine eigenst&#228;ndige Anmeldung nicht erforderlich sein.</Mark2></Pgraph><Pgraph>Es sollte geregelt sein, ob Studierende bei Nichtbestehen einer Pr&#252;fung f&#252;r die n&#228;chstm&#246;gliche Wiederholung automatisch angemeldet sind oder ob eine gesonderte Anmeldung erforderlich ist</Pgraph><Pgraph>Summative Pr&#252;fungen sind als Abschluss einer Unterrichtseinheit zu sehen und sollten sich direkt auf das vorangegangene Curriculum beziehen. Deshalb ist es empfehlenswert, die Pr&#252;fung(en) oder letzte Teilpr&#252;fung verpflichtend f&#252;r alle Studierenden zeitnah nach Abschluss der Unterrichtseinheit durchzuf&#252;hren.</Pgraph><Pgraph><Mark1>3.3. R&#228;umlichkeiten und Personal f&#252;r Pr&#252;fungen</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Zur Durchf&#252;hrung der Pr&#252;fung ist gew&#228;hrleistet, dass ausreichend R&#228;ume zur Verf&#252;gung stehen und diese f&#252;r alle Kandidaten vergleichbare Bedingungen bieten. </Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Zur Durchf&#252;hrung der Pr&#252;fung steht ausreichend geschultes Personal zur Verf&#252;gung (Pr&#252;fer, Aufsichtspersonen, Korrektoren zur Bewertung offener Fragen usw.). </Mark2></ListItem></OrderedList></Pgraph><Pgraph><Mark1>3.4. Schulung von Pr&#252;fern und R&#252;ckmeldung an Pr&#252;fer</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Die Pr&#252;fer und Korrektoren sind hinsichtlich einheitlicher Bewertungskriterien vor der Pr&#252;fung geschult.</Mark2><LineBreak></LineBreak>Es soll ein gemeinsames Training derjenigen, die die Pr&#252;flinge bewerten, zur Erh&#246;hung der Interrater-Reliabilit&#228;t durchgef&#252;hrt werden. Dies ist insbesondere bei parallelen Pr&#252;fungsparcours eines OSCE, bei m&#252;ndlichen Pr&#252;fungen oder bei schriftlichen Pr&#252;fungen mit offenen Fragen notwendig.<LineBreak></LineBreak>F&#252;r Pr&#252;fungen, in denen der Pr&#252;fer mit dem Pr&#252;fling direkt in Kontakt tritt, sind insbesondere Schulungen mit videographierten Pr&#252;fungen sinnvoll.</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Pr&#252;fer sind hinsichtlich R&#252;ckmeldung und Erl&#228;uterung der abgepr&#252;ften Leistungen und ihrer Bewertung an die Studierenden (&#8222;Feedback&#8220;) geschult. Dies gilt insbesondere bei allen formativen Pr&#252;fungen.</Mark2><LineBreak></LineBreak>Die Schulungsma&#223;nahmen sind an die speziellen Erfordernisse des Pr&#252;fungsformats anzupassen, neben einer eingehenderen Erstschulung sind Auffrischungsschulungen durchzuf&#252;hren. Die Wirksamkeit der Schulungsma&#223;nahmen ist zu &#252;berpr&#252;fen (z. B. durch standardisierte Studierende).</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>Pr&#252;fer erhalten R&#252;ckmeldung &#252;ber ihre Pr&#252;fungsleistung</Mark2>.<LineBreak></LineBreak>Bei Pr&#252;fungen, in denen Pr&#252;fereinfl&#252;sse bei der Bewertung zu ber&#252;cksichtigen sind, erfolgt eine R&#252;ckmeldung an die Pr&#252;fer (s. 5.1). So ist z. B. bei m&#252;ndlichen oder m&#252;ndlich-praktischen Pr&#252;fungen eine R&#252;ckmeldung hinsichtlich Strenge oder der Ausnutzung der Bewertungsskalen zu geben. U. U. ist vor dem Einsatz bei der n&#228;chsten Pr&#252;fung eine Nachschulung von Pr&#252;fern durchzuf&#252;hren.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="3. Organizational preparation for conducting exams">
      <MainHeadline>3. Organizational preparation for conducting exams</MainHeadline><Pgraph>Along with preparing exam content, various organizational and logistical preparations are called for to ensure a proper course of events during the assessment.</Pgraph><Pgraph><Mark1>3.1. Announcing exam dates and formats</Mark1></Pgraph><Pgraph><Mark2>Exam dates and formats are announced to students at the beginning of a curricular unit.</Mark2></Pgraph><Pgraph>If the overall grade for a subject or interdisciplinary area is the product of multiple component exams, then the weighted value of each exam is to be announced. In the case of changes in the make-up of the overall grade or in the weighting of the components, clear transitional rules must be drawn up for students who are required to repeat the exams.</Pgraph><Pgraph><Mark1>3.2. Registering for exams</Mark1></Pgraph><Pgraph><Mark2>For each assessment, written or online registration is required of students. Registering for a course and an exam can be done at the same time. Under certain circumstances, it is possible that active registration is not required for exams which are mandatorily part of the curriculum.</Mark2></Pgraph><Pgraph>It should be determined in advance if students who fail an assessment are automatically registered for the next possible repetition or if separate registration is required.</Pgraph><Pgraph>Summative tests are to be viewed as the conclusion of a curricular unit and should refer to the curricular material just covered. Therefore, it is recommended that the assessment(s) or final component exam be mandatorily administered to all students shortly after completing the curricular unit.</Pgraph><Pgraph><Mark1>3.3. Rooms and personnel for conducting exams</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>To administer the exam it is ensured that sufficient rooms are available and that these pose comparable conditions and environments for all candidates.</Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Sufficiently trained personnel are available to administer the exam (examiners, monitors, graders for open-ended questions, etc.).</Mark2></ListItem></OrderedList></Pgraph><Pgraph><Mark1>3.4. Training and feedback for examiners</Mark1></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>Prior to administering the exam, the examiners and graders have received training regarding uniform grading criteria.</Mark2><LineBreak></LineBreak>Joint training of all who evaluate the candidates should be conducted to increase inter-rater reliability. This is especially necessary for simultaneously conducted exams during an OSCE, oral exams, and written exams with open-ended responses.<LineBreak></LineBreak>For assessments where the examiner comes in direct contact with the candidate, training sessions with video recordings of exams are particularly helpful.</ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>Examiners have received training regarding giving feedback to students and explaining the tested material and its evaluation. This applies in particular to all formative tests.</Mark2><LineBreak></LineBreak>The training sessions need to be adjusted to meet the specific requirements of the testing format; in addition to more detailed initial training sessions, refresher courses must be conducted. The effectiveness of the training must be verified (e.g. through simulated students).</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>Examiners receive feedback on their own performance giving the exam.</Mark2><LineBreak></LineBreak>In the case of assessments where the influence of the examiner must be taken into consideration in the evaluation, feedback is to be given to the examiner (see 5.1). This means that for oral or oral practical exams, feedback is to be given regarding strictness or utilization of the rating scales. In certain cases, prior to the next assessment, examiners must undergo repeat training.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="4. Durchf&#252;hrung der Pr&#252;fung">
      <MainHeadline>4. Durchf&#252;hrung der Pr&#252;fung</MainHeadline><Pgraph><Mark1>4.1. Einhaltung formaler Kriterien</Mark1></Pgraph><Pgraph><Mark2>Bei der Durchf&#252;hrung der Pr&#252;fung werden die schriftlich niedergelegten formalen Kriterien eingehalten und dokumentiert (z. B. mit Hilfe einer Checkliste zum formalen Pr&#252;fungsablauf).</Mark2></Pgraph><Pgraph><Mark1>4.2. Vollst&#228;ndigkeit der Pr&#252;fungsunterlagen</Mark1></Pgraph><Pgraph><Mark2>Die Vollst&#228;ndigkeit der Pr&#252;fungsunterlagen und des Pr&#252;fungsmaterials wird zu Beginn der Pr&#252;fung durch die Studierenden oder die Pr&#252;fungsaufsicht kontrolliert.</Mark2></Pgraph><Pgraph>Eine eindeutige Zuordnung sowohl des Aufgaben- als auch des Antwortblattes zu jedem Studierenden und eine kontrollierte Abgabe ist f&#252;r einen vollst&#228;ndigen R&#252;ckfluss aller Aufgabenbl&#228;tter empfehlenswert.</Pgraph><Pgraph><Mark1>4.3. Protokoll des Pr&#252;fungsverlaufs</Mark1></Pgraph><Pgraph><Mark2>Der Verlauf der Pr&#252;fung und dabei auftretende Probleme werden protokolliert (z. B. Nennung von Pr&#252;fungsverantwortlichen und -durchf&#252;hrenden, Aufsichtspersonen, spezielle Vorkommnisse, T&#228;uschungsman&#246;ver, Computerausfall bei computerbasierten Pr&#252;fungen).</Mark2></Pgraph><Pgraph>Beispiele f&#252;r die Verletzung von Durchf&#252;hrungsbedingungen sind:</Pgraph><Pgraph><UnorderedList><ListItem level="1">L&#228;rmbeeintr&#228;chtigungen durch Bauma&#223;nahmen w&#228;hrend einer Klausur.</ListItem><ListItem level="1">Ungeeignete Pr&#252;fungsr&#228;ume</ListItem><ListItem level="1">Mangelhafte Pr&#252;fungsmaterialien wie schlechte Kopien der Pr&#252;fungsaufgaben, fehlerhafte Fragennummerierungen.</ListItem><ListItem level="1">Ausfall von Computern bei computerbasierten Pr&#252;fungen</ListItem></UnorderedList></Pgraph><Pgraph>Studierende m&#252;ssen eine Verletzung von Durchf&#252;hrungsbedingungen unverz&#252;glich w&#228;hrend oder nach der Pr&#252;fung geltend machen. Es ist nicht zul&#228;ssig, zun&#228;chst das Ergebnis der Pr&#252;fung abzuwarten und sich im Falle des Nichtbestehens auf die Verletzung der Durchf&#252;hrungsbestimmungen zu berufen.</Pgraph><Pgraph>Bei erheblichen Beeintr&#228;chtigungen der Pr&#252;fungsdurchf&#252;hrung wird empfohlen, eine Wiederholungspr&#252;fung f&#252;r alle Pr&#252;fungsteilnehmer anzubieten und das bessere Pr&#252;fungsergebnis zu werten.</Pgraph><Pgraph>Geregelt werden sollte auch die Entscheidung &#252;ber St&#246;rungen der Pr&#252;fung durch Pr&#252;fungsteilnehmer und deren m&#246;glichen Ausschluss, ebenso der Abbruch einer Pr&#252;fung (z. B. wegen akuter Erkrankung) und die entsprechende Dokumentation durch den Pr&#252;fungsverantwortlichen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="4. Conducting exams">
      <MainHeadline>4. Conducting exams</MainHeadline><Pgraph><Mark1>4.1. Observance of formal criteria</Mark1></Pgraph><Pgraph><Mark2>When administering the exam, the formal criteria defined in writing are adhered to and documented (e.g. using a checklist for the formal assessment procedure).</Mark2></Pgraph><Pgraph><Mark1>4.2. Completeness of exams</Mark1></Pgraph><Pgraph><Mark2>The completeness of the exams and materials are double-checked by the students or the test monitors prior to starting the exam.</Mark2></Pgraph><Pgraph>A clear assignment of both the question and answer sheets to each student and a monitored return of the same are recommended so that all sheets are returned at the end of the exam.</Pgraph><Pgraph><Mark1>4.3. Documenting the course of an exam</Mark1></Pgraph><Pgraph><Mark2>The course of the assessment and any arising issues or problems are documented (e.g. recording the name of the persons responsible for the exam and for administering it, the monitors, specific events, incidents of cheating, and any computer problems in the case of computer-based exams).</Mark2></Pgraph><Pgraph>Examples of violations to the conditions for administering the exam include:</Pgraph><Pgraph><UnorderedList><ListItem level="1">Noise and disturbance through construction work during an exam</ListItem><ListItem level="1">Rooms unsuitable for testing</ListItem><ListItem level="1">Deficient test material or poor copies of test questions, errors in the numbering of questions</ListItem><ListItem level="1">Computer failure during computer-based exams</ListItem></UnorderedList></Pgraph><Pgraph>Students must assert immediately during or after the exam that a violation of proper administration has occurred. It is not permissible to wait for the exam scores and then, in the case of failure, claim that proper administration of the exam did not take place.</Pgraph><Pgraph>In the case substantial problems arise during the administration of an exam, it is recommended that a repeat session be offered for all candidates and the better of the two results be counted.</Pgraph><Pgraph>There should also be rules set down for reaching decisions about disruptions caused by test-takers and their possible exclusion, as well as the discontinuation of an exam (e.g. due to acute illness) and the corresponding documentation by the responsible person.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="5. Auswertung und Dokumentation">
      <MainHeadline>5. Auswertung und Dokumentation</MainHeadline><Pgraph>Eine sorgf&#228;ltige Auswertung der Pr&#252;fung mit Dokumentation einschlie&#223;lich der statistischen Analyse ist zur inhaltlichen und insbesondere rechtlichen Absicherung erforderlich. Bei summativen Pr&#252;fungen entstehen Studierenden bei Fehlern u. U. erhebliche Nachteile, die von Mehrarbeit und Verl&#228;ngerung der Studiendauer bei erforderlichen Pr&#252;fungswiederholungen, der Nichtgew&#228;hrung von Stipendienleistungen bei ungerechtfertigter schlechter Bewertung bis hin zum Studienabbruch reichen k&#246;nnen. Statistische Analyse und Dokumentation sind dar&#252;ber hinaus eine wesentliche Grundlage f&#252;r die Pr&#252;fungsnachbereitung (s. 7.1).</Pgraph><Pgraph><Mark1>5.1. Statistische Analyse</Mark1></Pgraph><Pgraph><Mark2>F&#252;r alle Pr&#252;fungsformate ist eine ad&#228;quate statistische Analyse der Pr&#252;fungsergebnisse durchzuf&#252;hren, die insbesondere Aufgabenschwierigkeit und -trennsch&#228;rfe umfasst (Prim&#228;rauswertung).</Mark2></Pgraph><Pgraph><Mark2>Bei Pr&#252;fungsformaten, in denen neben den Aufgaben weitere systematische Einflussfaktoren wie etwa Pr&#252;fereinfl&#252;sse existieren (z. B. OSCE), sind diese bei der Auswertung zu ber&#252;cksichtigen (z. B. mit Verfahren der Generalisierbarkeitstheorie). F&#252;r Multiple-Choice-Aufgaben ist zus&#228;tzlich eine Distraktorenanalyse durchzuf&#252;hren.</Mark2></Pgraph><Pgraph><Mark2>Ergeben sich Hinweise auf fehlerhafte oder unklare Aufgabenstellungen, so ist die Aufgabe formal und inhaltlich nachzukontrollieren. </Mark2></Pgraph><Pgraph><Mark1>5.2. Korrekturen der Auswertung</Mark1></Pgraph><Pgraph><Mark2>Nach einer evtl. notwendigen Korrektur der Aufgaben- oder Pr&#252;fungsbewertung wird eine Endauswertung der Pr&#252;fung (einschl. einer weiteren teststatistischen Analyse) durchgef&#252;hrt.</Mark2></Pgraph><Pgraph>Die nochmalige &#220;berpr&#252;fung der Aufgabenstellungen nach der Pr&#252;fungsdurchf&#252;hrung dient der juristischen Absicherung&#47;Rekursfestigkeit der Leistungsbewertungen. F&#252;r die Auswertung von Pr&#252;fungen wird deshalb ein zweistufiges Vorgehen empfohlen: Im ersten Schritt wird eine teststatistische Auswertung der Pr&#252;fung vorgenommen, nach der kontrolliert wird, ob einzelne Aufgaben hinsichtlich Schwierigkeit oder Trennsch&#228;rfe &#8222;auff&#228;llig&#8220; sind. Hier sind erfahrungsgem&#228;&#223; insbesondere sehr schwere Aufgaben (Schwierigkeiten unter 0,4) oder Aufgaben mit sehr niedriger Trennsch&#228;rfe (unter 0,2) hinsichtlich ihrer inhaltlichen Korrektheit von den Pr&#252;fungsverantwortlichen zu &#252;berpr&#252;fen.</Pgraph><Pgraph>Erweisen sich dabei Aufgaben als fehlerhaft, ist eine Neuauswertung der Pr&#252;fung erforderlich. Erst im Anschluss an diese Auswertung sollten die Pr&#252;fungsergebnisse bekannt gegeben werden. Eine nochmalige Auswertung ist notwendig, wenn z. B. auf Grund begr&#252;ndeter studentischer Einw&#228;nde weitere Korrekturen an der Aufgabenbewertung vorgenommen werden m&#252;ssen (s. u).</Pgraph><Pgraph>Auch bei automatischer Auswertung wie z. B. bei computerbasierten Pr&#252;fungen ist darauf zu achten, dass alle Ma&#223;nahmen zur Qualit&#228;tssicherung vor der Bekanntgabe der Ergebnisse durchlaufen wurden. Der Pr&#252;fungsverantwortliche muss die Pr&#252;fungsergebnisse formal freigeben.</Pgraph><Pgraph>Bei der Korrektur fehlerhaft gestellten Aufgaben ist sicherzustellen, dass den Pr&#252;fungsteilnehmern hierdurch keine Nachteile entstehen. So d&#252;rfen z. B. Multiple-Choice-Aufgaben des Typs A (&#8222;Eins aus F&#252;nf&#8220;) nicht einfach aus der Wertung genommen werden, wenn mehr als eine der Antwortoptionen als zutreffend anerkannt werden muss. Stattdessen muss allen Teilnehmern, die eine der zutreffenden Antworten gegeben haben, diese Antwort anerkannt werden (man vergleiche hierzu auch die Regelungen bei den schriftlichen Staatsexamina des Instituts f&#252;r medizinische und pharmazeutische Pr&#252;fungsfragen IMPP). </Pgraph><Pgraph>Bei begr&#252;ndeten Einspr&#252;chen gegen Pr&#252;fungsaufgaben oder ihrer Bewertung sollen die notwendigen Korrekturen bei allen Pr&#252;fungsabsolventen durchgef&#252;hrt (d. h. nicht nur bei den Beschwerdef&#252;hrern) und bekannt gegeben werden. Es ist darauf zu achten, dass berechtigte Einspr&#252;che und die daraus resultierenden Korrekturen (Verantwortlichkeiten bei Entscheidungen) dokumentiert werden. Werden Pr&#252;fungsaufgaben als fehlerhaft erkannt, so ist ein verbindliches Vorgehen notwendig, bei dem gew&#228;hrleistet ist, dass durch fehlerhafte Aufgabenstellungen Studierende nicht benachteiligt werden. Ist eine Aufgabe nicht l&#246;sbar, so kann </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">die Aufgabe aus der Wertung genommen und die maximal erreichbare Punktzahl entsprechend reduziert oder </ListItem><ListItem level="1" levelPosition="2" numString="2.">die bei dieser Aufgabe urspr&#252;nglich vorgesehene erreichbare Punktzahl allen Studierenden zugebilligt werden (hier bleibt die maximal erreichbare Punktzahl unver&#228;ndert). </ListItem></OrderedList></Pgraph><Pgraph>Bei Korrekturen der Antwortm&#246;glichkeiten nach Bekanntgabe des Ergebnisses d&#252;rfen Pr&#252;fungsbewertungen der Studierenden nicht nachtr&#228;glich verschlechtert werden. </Pgraph><Pgraph><Mark1>5.3. Pr&#252;fungsbericht</Mark1></Pgraph><Pgraph><Mark2>Es wird ein Pr&#252;fungsbericht erstellt, der die Angaben zur Bewertung und Benotung sowie die statistische Analyse der Ergebnisse umfasst. Insbesondere sind darin Ver&#228;nderungen der Aufgabenbewertungen oder -gewichtungen, der als korrekt gewerteten L&#246;sungen und nicht gewertete Aufgaben unter Angabe der f&#252;r die &#196;nderungen Verantwortlichen zu dokumentieren.</Mark2></Pgraph><Pgraph><Mark1>5.4. Kontrollstichproben</Mark1></Pgraph><Pgraph><Mark2>Es erfolgt eine stichprobenartige Kontrolle der Korrekturen und Bewertungen.</Mark2></Pgraph><Pgraph>Neben einer stichprobenartigen Kontrolle der Korrekturen und Bewertungen ist eine Kontrolle der Pr&#252;fungsleistungen aller durchgefallenen Studierenden zu empfehlen. Kontrollen schriftlicher Pr&#252;fungen m&#252;ssen durch unabh&#228;ngige Korrektoren vorgenommen werden. Werden Klausuren mit Hilfe von Beleglesern eingelesen, so sind ebenfalls stichprobenartige &#220;berpr&#252;fungen notwendig. Art und Umfang von Kontrollen sollten dokumentiert werden.</Pgraph><Pgraph><Mark1>5.5. Dokumentation der Ergebnisse, Aufbewahrungsrichtlinien</Mark1></Pgraph><Pgraph><Mark2>Die Pr&#252;fungsergebnisse und Notenspiegel werden durch die F&#228;cher oder zentral zusammengestellt und zur gesicherten Dokumentation zentral gespeichert.</Mark2></Pgraph><Pgraph>Aufbewahrungsfristen f&#252;r Pr&#252;fungen und Pr&#252;fungsunterlagen sind verbindlich (z. B. in der Pr&#252;fungsordnung) festzulegen. Es gibt keine einheitlichen Vorgaben f&#252;r die Aufbewahrungszeiten &#8211; es gelten die entsprechenden Bestimmungen vor Ort (z. B. Landesarchivierungsordnung). Bitte informieren Sie sich bei Ihrer Rechtsabteilung. Als Anhaltspunkt k&#246;nnen folgende Regelungen gelten: Schriftliche Pr&#252;fungen und m&#252;ndliche Pr&#252;fungsprotokolle sind nach abgeschlossener Pr&#252;fung mindestens 18 Monate aufzubewahren. Bei computerbasierten Pr&#252;fungen sind die Einzelergebnisse in Form von Pr&#252;fungsprotokollen 18 Monate abzuspeichern. Die Listen &#252;ber Pr&#252;fungsteilnehmer und Leistungsnachweise sind mindestens 10 Jahre in Papierform oder digital zentral aufzubewahren. Bei Einspr&#252;chen gegen die Pr&#252;fung d&#252;rfen bis zur endg&#252;ltigen Entscheidung keine Unterlagen vernichtet werden.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="5. Analysis and documentation">
      <MainHeadline>5. Analysis and documentation</MainHeadline><Pgraph>A thorough, documented analysis of the assessment, including statistical analysis, is required to ensure the exam&#8217;s content validity and legality. Errors in summative tests can cause considerable disadvantages to students which can range from increased study load and lengthened study time as a result of required repeat tests to the cancellation of scholarships as a result of unjustifiably low scores and dropping out of the degree program. In addition, statistical analyses and documentation are basic to the post-review of assessments (see 7.1).</Pgraph><Pgraph><Mark1>5.1. Statistical Analysis</Mark1></Pgraph><Pgraph><Mark2>For all testing formats, an appropriate statistical analysis of the exam results is to be performed that covers, in particular, question difficulty and discrimination (primary analysis).</Mark2></Pgraph><Pgraph><Mark2>For testing formats in which, in addition to the questions, other systematic influencing factors exist, such as examiner influences (e.g. OSCE), these are to be taken into consideration in the analysis (e.g. methods of the generalizability theory). For multiple-choice questions an additional distractor analysis must be performed.</Mark2></Pgraph><Pgraph><Mark2>Should there be indications of erroneous or unclear questions, then any such questions need to be double-checked in respect to form and content.</Mark2></Pgraph><Pgraph><Mark1>5.2. Corrections of the analysis</Mark1></Pgraph><Pgraph><Mark2>After any needed corrections to the evaluation of the questions or the exam, a final analysis of the exam shall take place (including further test-statistical analysis).</Mark2></Pgraph><Pgraph>The second review of the questions after administering the exam serves to solidify the legal conformity&#47;non-appealability of the exam scores. For this reason, a two-step procedure is recommended for analyzing assessments. The first step is test-statistical analysis of the exam, after which there a check is conducted to see if any of the questions are conspicuous in terms of difficulty or discrimination. According to current experience, very difficult questions (difficulty under 0.4) and questions with very low discrimination (below 0.2) are to be checked in terms of content accuracy by the responsible persons.</Pgraph><Pgraph>If the questions are determined to be erroneous, re-analysis of the exam is required. Only after performing the new analysis, should the exam scores be announced. Re-analysis is necessary if, for instance, additional corrections in how questions are graded must take place in response to student appeals (see below).</Pgraph><Pgraph>Even in the case of machine grading, such as for computer-based exams, attention must be paid that all measures to ensure quality have been followed prior to announcing the scores. The person responsible for the assessment must formally release the results.</Pgraph><Pgraph>When correcting erroneously asked questions, it must be ensured that no disadvantages to the candidates arise as a result. For instance, type-A multiple-choice questions (one of five) are not simply dropped from the evaluation if more than one of the possible responses must be recognized as correct. Instead, all candidates who gave one of the correct responses must be given credit for it (see also the rules for the written state examinations issued by the Institut f&#252;r medizinische und pharmazeutische Pr&#252;fungsfragen &#91;IMPP&#93;).</Pgraph><Pgraph>In the case of justifiable objections to the test questions or their evaluation, the necessary corrections must be undertaken for all those who completed the exam, meaning not just for the student filing the appeal, and made public. Attention must be paid that justifiable objections and the resulting corrections are documented (e.g. scope of responsibility of those making decisions). If test questions are acknowledged as problematic, a legally binding approach is needed which guarantees that no disadvantages to students are caused by deficient test questions. If a question cannot be solved, then </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">the question can be excluded from the valuation and the maximum number of possible points is reduced accordingly, or </ListItem><ListItem level="1" levelPosition="2" numString="2.">the total possible number of points allotted for this question is credited to all students (in this case the total number of possible points remains unchanged). </ListItem></OrderedList></Pgraph><Pgraph>In the case of corrections of the possible responses to a test question that occur after announcement of the exam results, the candidates&#8217; scores may not be subsequently lowered.</Pgraph><Pgraph><Mark1>5.3. Assessment reports</Mark1></Pgraph><Pgraph><Mark2>An assessment report regarding the exam is generated covering information on evaluation and grading, along with the statistical analysis of the scores. In particular, any changes to the value or weighting of questions, the answers evaluated as correct, and unevaluated questions must be documented along with the name of the person responsible for the changes.</Mark2></Pgraph><Pgraph><Mark1>5.4. Random checks</Mark1></Pgraph><Pgraph><Mark2>A random check is carried out on the corrections and evaluations.</Mark2></Pgraph><Pgraph>Along with a random check of the corrections and evaluations, a check of the performance of all failed students is recommended. Inspection of written exams must be undertaken by impartial graders. If tests are read with the help of scanners, then random checks are also necessary. The nature and scope of these checks should be documented.</Pgraph><Pgraph><Mark1>5.5. Documentation of the results, guidelines on archiving</Mark1></Pgraph><Pgraph><Mark2>The exam scores and performance records are compiled centrally, or by the subject departments, and saved centrally to ensure documentation.</Mark2></Pgraph><Pgraph>The lengths of time for keeping exams and test documents are to be bindingly set down (e.g. in the exam regulations <Mark2>&#91;Pr&#252;fungsordnung&#93;</Mark2>). There are no uniform requirements concerning the length of time: the relevant valid provisions at the local level apply (e.g. state regulations on archiving <Mark2>&#91;Landesarchivierungsordnung&#93;</Mark2>). Please seek advice from your legal department in regard to this aspect. As a point of reference, the following rule can apply: written exams and records of oral exams are to be kept for at least 18 months after completion of the assessment. For computer-based exams, the individual scores are to be saved for 18 months in the form of test records. The lists of candidates and graded credits are to be centrally kept for at least ten years as hardcopy or digitally. In the case of appeals against the assessment, no documents may be destroyed until the final decision has been reached.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="6. R&#252;ckmeldung an die Studierenden">
      <MainHeadline>6. R&#252;ckmeldung an die Studierenden</MainHeadline><Pgraph>R&#252;ckmeldungen an die Studierenden &#252;ber ihre Pr&#252;fungsleistungen sind transparent und zeitnah zu geben. Nur so k&#246;nnen Pr&#252;fungen als Instrument zur Lernsteuerung effektiv eingesetzt werden. </Pgraph><Pgraph><Mark1>6.1. Bekanntgabe der Ergebnisse</Mark1></Pgraph><Pgraph><Mark2>Eine datenschutzkonforme Bekanntgabe der Pr&#252;fungsergebnisse erfolgt innerhalb eines angemessenen und vorab festgelegten Zeitraums. Dieser Zeitraum sollte 3 Wochen nicht &#252;bersteigen.</Mark2></Pgraph><Pgraph>Bei der Bekanntgabe von Noten sind die datenschutzrechtlichen Bestimmungen einzuhalten. Insbesondere ist etwa ein &#246;ffentlicher Aushang der Pr&#252;fungsergebnisse mit Nennung pers&#246;nlicher Daten unzul&#228;ssig.</Pgraph><Pgraph><Mark1>6.2. Pr&#252;fungseinsicht</Mark1></Pgraph><Pgraph><Mark2>Die Studierenden haben innerhalb einer angemessenen Frist die M&#246;glichkeit zur Einsicht in ihre Pr&#252;fungsunterlagen. Die entsprechenden gesetzlichen Vorgaben sind dabei zu ber&#252;cksichtigen.</Mark2></Pgraph><Pgraph>Den Studierenden muss auf Nachfrage bzw. Antrag Einsicht in ihre eigene Pr&#252;fungsarbeit gew&#228;hrt werden. Dabei ist eine angemessene Zeit zur Einsichtnahme nach Bekanntgabe des Ergebnisses zu gew&#228;hrleisten. Die M&#246;glichkeit der Einsichtnahme in die Klausur sollte den gesamten Zeitraum der Einspruchsfrist umfassen. Das Terminangebot zur Einsichtnahme muss angemessen sein. F&#252;r die Zeit der Einspruchsfrist sollte das Terminangebot &#246;ffentlich bekannt gemacht sein. Die Institution kann feste Zeiten f&#252;r eine solche Einsichtnahme festsetzen. Diese m&#252;ssen mit den Ank&#252;ndigungen zur Pr&#252;fung ver&#246;ffentlicht werden. Sollte es Studierenden aus begr&#252;ndetem Anlass nicht m&#246;glich sein, w&#228;hrend dieses Termins Einsicht zu nehmen, ist die Einsichtnahme anderweitig zu erm&#246;glichen. Die Einsichtnahme sollte unter Aufsicht erfolgen, weshalb eine Terminsetzung zur Vorbereitung einer parallelen Einsichtnahme mehrerer Teilnehmer sinnvoll ist.</Pgraph><Pgraph><Mark1>6.3. Einspruchsfrist</Mark1></Pgraph><Pgraph><Mark2>Die Frist zum Einspruch gegen Pr&#252;fungsergebnisse muss wenigstens einen Monat ab der Bekanntgabe der Pr&#252;fungsergebnisse umfassen. Innerhalb dieses Monats sollte auch die Einsichtnahme m&#246;glich sein. Hier&#252;ber hat eine individuelle Rechtsbehelfsbelehrung zu erfolgen, die mit dem Ergebnis dem Pr&#252;fungsteilnehmer schriftlich zugestellt wird.</Mark2></Pgraph><Pgraph>Diese sollte folgenden Inhalt haben:</Pgraph><Pgraph><Indentation><Indentation>Sie haben an der Pr&#252;fung XY am XY teilgenommen und bestanden&#47;nicht bestanden mit der Note XY.</Indentation></Indentation></Pgraph><Pgraph><Indentation><Indentation>Rechtsbehelfsbelehrung: Gegen diesen Bescheid k&#246;nnen Sie innerhalb von einem Monat Widerspruch beim Lehrverantwortlichen (Studiendekanat) einlegen.</Indentation></Indentation></Pgraph><Pgraph>Es empfehlt sich eine (automatisierte) Benachrichtigung &#252;ber das Nichtbestehen mit Rechtsbehelfsbelehrung durchzuf&#252;hren. Ohne Rechtsbehelfsbelehrung gilt in Deutschland eine Einspruchsfrist von einem Jahr.</Pgraph><Pgraph>Die Ablehnung eines Widerspruchs gegen die Bewertung von Aufgaben oder der Pr&#252;fungsdurchf&#252;hrung bedarf ebenfalls einer Rechtsbehelfsbelehrung. </Pgraph><Pgraph><Mark1>6.4. Art und Umfang der R&#252;ckmeldung</Mark1></Pgraph><Pgraph><Mark2>Art und Umfang der R&#252;ckmeldung der Pr&#252;fungsergebnisse an die Studierenden mit dem Ziel, den Studierenden detaillierte Information zu ihrem Leistungsstand zu geben, sind festgelegt (z. B. Aufgliederung des Gesamtergebnisses nach Teilf&#228;chern o. &#228;.). Eine l&#228;ngsschnittliche R&#252;ckmeldung, die den Studierenden Informationen &#252;ber ihren Leistungsstand </Mark2></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>in Bezug auf die an sie gestellten Erwartungen, </Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>auf die anderen Pr&#252;fungsteilnehmer sowie </Mark2></ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>ihrer individuellen Leistungsentwicklung gibt, </Mark2></ListItem></OrderedList></Pgraph><Pgraph><Mark2>ist anzustreben.</Mark2></Pgraph><Pgraph>Aufgrund gesetzlicher Bestimmungen ist die Anzahl an durchzuf&#252;hrenden summativen Pr&#252;fungen sehr hoch, was den Einsatz zus&#228;tzlicher formativer Pr&#252;fungen h&#228;ufig erschwert. Es sollte daher durch die Betrachtung der einzelnen summativen Pr&#252;fungen einer Studierenden im L&#228;ngsschnitt das formative Potential summativer Pr&#252;fungsleistungen genutzt werden.</Pgraph><Pgraph><Mark1>6.5. Ver&#246;ffentlichung von Aufgaben</Mark1></Pgraph><Pgraph><Mark2>Eine Ver&#246;ffentlichung der Pr&#252;fungsaufgaben wird - zumindest solange kein hinreichend gro&#223;er Aufgabenpool zur Verf&#252;gung steht - nicht empfohlen. Eine einheitliche Regelung und Empfehlungen diesbez&#252;glich (z. B. Notwendigkeit eines vollst&#228;ndigen R&#252;ckflusses der Aufgabenbl&#228;tter) sollte innerhalb einer Fakult&#228;t&#47;eines Studiengangs angestrebt und den Studenten bekannt gemacht werden.</Mark2></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="6. Feedback for students">
      <MainHeadline>6. Feedback for students</MainHeadline><Pgraph>Feedback for students regarding their performance on exams must be given in a timely and transparent manner. This is the only way assessments can be effectively used as an instrument to guide learning.</Pgraph><Pgraph><Mark1>6.1. Announcement of scores</Mark1></Pgraph><Pgraph><Mark2>Announcement of the scores in a manner compliant with data privacy law occurs within an appropriate amount of time that has been defined in advance. This time period must not exceed three weeks.</Mark2></Pgraph><Pgraph>When announcing exam scores, the provisions under data privacy law must be observed. In particular, it is impermissible to publicly post test results with personal information.</Pgraph><Pgraph><Mark1>6.2. Inspection of assessment documents</Mark1></Pgraph><Pgraph><Mark2>Students have the option of inspecting their exams within an appropriate period of time. The relevant statutory provisions are to be taken into account in respect to this.</Mark2></Pgraph><Pgraph>Students must be granted access to their own exams upon request or application. An appropriate period of time should be allotted for inspecting exams after announcement of the scores. The option to view the completed test should be possible throughout this entire time period. The dates and times for inspection must be reasonable and should be announced for the period in which any appeals may be submitted. The educational institution can determine fixed times for such inspections. These must be made known at the same time the exam is announced. Should students not be able to review the documents during this time for a justified reason, inspection of the documents should be made possible in another way. The inspection should take place under supervision, which is why it makes sense to set a date for preparing simultaneous inspections by more than one test-taker.</Pgraph><Pgraph><Mark1>6.3. Deadline for appeals</Mark1></Pgraph><Pgraph><Mark2>The deadline to appeal the exam score must be at least a month starting from the announcement of the results. The possibility to view exam documents should also be possible within this month-long period. Information about these rights must be individually communicated in writing and sent to the candidate with the exam result.</Mark2></Pgraph><Pgraph>This information should contain the following:</Pgraph><Pgraph><Indentation><Indentation>You have sat for the XY exam on (date) and have passed&#47;failed with the grade of XY.</Indentation></Indentation></Pgraph><Pgraph><Indentation><Indentation>Information on right to appeal: You may file an appeal against this notification with the Dean of Studies within a time period of one month.</Indentation></Indentation></Pgraph><Pgraph>Sending out (automatically generated) notifications regarding failure of an exam, along with instructions on filing an appeal, is recommended. If there are no instructions on submitting an objection or appeal, then the time period allotted for this in Germany will be one year.</Pgraph><Pgraph>Rejections of appeals against the evaluation of questions or objections concerning test administration must also contain instructions about legal recourse.</Pgraph><Pgraph><Mark1>6.4. Nature and scope of feedback</Mark1></Pgraph><Pgraph><Mark2>The nature and scope of the feedback for students regarding assessment results are defined with the goal of giving students detailed information on their proficiency levels (e.g. breaking the overall score down according to sub-disciplines, etc.). Longitudinal feedback is to be aimed for that gives students information on their proficiency level </Mark2></Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark2>in relation to the requirements placed on them, </Mark2></ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark2>in relation to the other candidates, and </Mark2></ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark2>their own individual educational development.</Mark2></ListItem></OrderedList></Pgraph><Pgraph>As a result of statutory requirements, the number of summative tests to be conducted is very high, which frequently makes the administration of additional formative tests difficult. For this reason, the formative potential of the summative test results should be utilized by considering the individual summative tests of a student over the long-term.</Pgraph><Pgraph><Mark1>6.5. Publishing test questions</Mark1></Pgraph><Pgraph><Mark2>Publication of the test questions is not recommended &#8211; as long as no sufficiently large question pool exists. Uniform rules and recommendations on this (e.g. the necessary collecting of all sheets of paper with test questions) are to be striven for by the medical school or degree program and these are to be communicated to the students.</Mark2></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="7. Pr&#252;fungsnachbereitung">
      <MainHeadline>7. Pr&#252;fungsnachbereitung</MainHeadline><Pgraph>Die Nachbereitung der Pr&#252;fung dient zun&#228;chst der Qualit&#228;tssicherung des Pr&#252;fungsgeschehens in einem Fach, indem M&#228;ngel bei Aufgaben aufgedeckt und korrigiert werden k&#246;nnen. Weiterhin ist sie ein wichtiges R&#252;ckmeldeinstrument an die Lehrverantwortlichen, da Pr&#252;fungen dar&#252;ber Auskunft geben, was die Studierenden tats&#228;chlich gelernt haben und ob und inwieweit &#196;nderungen im Curriculum (z. B. ver&#228;nderte Schwerpunktsetzungen bei den Lehrveranstaltungen) sinnvoll oder erforderlich sind.</Pgraph><Pgraph><Mark1>7.1. Nachbegutachtung der Pr&#252;fung (Post-Review)</Mark1></Pgraph><Pgraph><Mark2>Zur Qualit&#228;tssicherung und -verbesserung k&#252;nftiger Pr&#252;fungen findet eine schriftlich dokumentierte Nachbewertung (Post-Review) der Pr&#252;fung statt, an der die Pr&#252;fungsbeauftragten teilnehmen. Anhand inhaltlicher Kriterien, teststatistischer Auswertungsergebnisse (z. B. Schwierigkeiten, Trennsch&#228;rfen, Reliabilit&#228;t) sowie studentischer Kommentare und Hinweise werden in dieser Nachbewertung Verbesserungsvorschl&#228;ge f&#252;r Pr&#252;fungsaufgaben und Pr&#252;fungszusammenstellung erarbeitet.</Mark2></Pgraph><Pgraph><Mark1>7.2. R&#252;ckmeldung an Autoren und Fachverantwortliche</Mark1></Pgraph><Pgraph><Mark2>Die Pr&#252;fungsergebnisse, deren Auswertung sowie die Ergebnisse des Post-Review-Prozesses sollen zeitnah mindestens einmal im Semester an die Fragenautoren, die Curriculumsentwickler und Fachvertreter weitergegeben werden Ad&#228;quate Konsequenzen und erforderliche Ma&#223;nahmen sollten ergriffen und dokumentiert werden. </Mark2></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="7. Post-processing assessments">
      <MainHeadline>7. Post-processing assessments</MainHeadline><Pgraph>Following up on an assessment initially serves to ensure the quality of a subject exam by allowing deficiencies in questions to be discovered and corrected. Moreover, it is an important feedback instrument for teaching coordinators, since assessments provide information on what the students have actually learned, as well as if and to what extent changes to the curriculum are needed and would be meaningful (e.g. a change in focus during class sessions).</Pgraph><Pgraph><Mark1>7.1. Post-Review</Mark1></Pgraph><Pgraph><Mark2>To assure and improve the quality of future exams, a written and documented post-review of the assessment will take place, in which the persons responsible for the exam participate. Using content-based criteria, results of test-statistical analysis (e.g. difficulty, discrimination, reliability) and student comments and suggestions, recommendation for improvements to test questions and exam structure will be compiled in the post-review.</Mark2></Pgraph><Pgraph><Mark1>7.2. Feedback for authors and subject representatives</Mark1></Pgraph><Pgraph><Mark2>The assessment results, their analysis and the results of the post-review process need to be forwarded in a timely manner, once each semester, to the authors of the questions, curriculum developers, and the responsible subject representatives. Appropriate consequences should be drawn and necessary measures implemented and documented.</Mark2></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Anmerkung">
      <MainHeadline>Anmerkung</MainHeadline><Pgraph><Superscript>1 </Superscript>Zur besseren Lesbarkeit wurde im Text z. T. auf die Nennung der weiblichen Form verzichtet, beide Geschlechter sind immer in gleichberechtigter Weise gemeint.</Pgraph><Pgraph><Superscript>2</Superscript> Diese Empfehlungen haben keine rechtlich bindende oder pr&#228;judizierende Wirkung. Es gelten jeweils die entsprechenden Regelungen der f&#252;r die Pr&#252;fung verantwortlichen Institutionen bzw. die Gesetzeslage</Pgraph><Pgraph><Superscript>3 </Superscript>Eine Gleitklausel ist eine formale Vorschrift, bei der in Abh&#228;ngigkeit von den Pr&#252;fungsergebnissen der Teilnehmer bei niedrigen Gesamtergebnissen eine Korrektur der Bestehensgrenze nach unten vorgenommen wird. Hierdurch werden Pr&#252;fungen mit exorbitant hohen Durchfallquoten verhindert. </Pgraph><Pgraph><Superscript>4</Superscript> Nachgewiesenerma&#223;en besteht bei einer m&#252;ndlichen Pr&#252;fung im Vergleich zur schriftlichen Pr&#252;fung eine Tendenz zur besseren Bewertung. Beispiel: Kandidat A besteht die Pr&#252;fung nicht und erh&#228;lt die M&#246;glichkeit einer m&#252;ndlichen Nachpr&#252;fung. Mit hoher Wahrscheinlichkeit erh&#228;lt er mindestens die Note 3. Kandidat B besteht die schriftliche Pr&#252;fung mit einer 4. Er erh&#228;lt deshalb keine M&#246;glichkeit zu einer Nachpr&#252;fung und beh&#228;lt im Endzeugnis die Note 4. Kandidat B hat keine M&#246;glichkeit, die Note zu verbessern und ist gegen&#252;ber Kandidat A benachteiligt.</Pgraph><Pgraph><Superscript>5</Superscript> Kritisch ist hierbei, dass aus Tests generelle R&#252;ckschl&#252;sse &#252;ber Individuen oder Gruppen gezogen werden, die auf einer sehr limitierten Anzahl von Stichproben basieren. Nur bei hoher Validit&#228;t ist die Generalisierung anhand der Testergebnisse auf andere Situationen zul&#228;ssig. In der klassischen Testtheorie sind Objektivit&#228;t und Reliabilit&#228;t Voraussetzung f&#252;r eine hohe Validit&#228;t.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Notes">
      <MainHeadline>Notes</MainHeadline><Pgraph><Superscript>1 </Superscript>To facilitate the readability of the German version, the feminine grammatical form does not additionally appear in the text; the meaning includes both genders equally in all cases.</Pgraph><Pgraph><Superscript>2</Superscript> These recommendations have no legally binding or precedential effect. The relevant statutory provisions and regulations of the educational institution responsible for the assessment apply in each individual case.</Pgraph><Pgraph><Superscript>3</Superscript> An adjustment clause is a formal rule that allows the minimum passing grade to be lowered if the results of the candidates are overall low. By adjusting the grading curve, assessments with an exorbitantly high number of failures are prevented.</Pgraph><Pgraph><Superscript>4</Superscript> It has been proven that there is a tendency to give better evaluations for oral assessments than for written ones. Example: candidate A does not pass the test and receives the opportunity to be re-examined orally. There is a high probability that he will be rated with a 3 at least. Candidate B passes the written assessment with a 4 and is not given the opportunity to be re-examined, leaving him with the grade of 4 on his official academic transcript. Candidate B has no opportunity to improve his grade and is thus disadvantaged in relation to Candidate A.</Pgraph><Pgraph><Superscript>5</Superscript> It is critical here that generalized conclusions are drawn from the assessments about individuals or groups which are based on a very limited number of random checks. Only in the case of a high validity is the applicability of these generalizations to other situations permissible using the assessment results. In traditional test theory, objectivity and reliability are pre-requisites for high validity.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Danksagung">
      <MainHeadline>Danksagung</MainHeadline><Pgraph>Unser besonderer Dank gilt allen Mitgliedern des Ausschusses Pr&#252;fungen der GMA und der AG Pr&#252;fungen des MFT, die an der Erstellung der Empfehlungen, ihrer Diskussion und ihrer Evaluation mitgewirkt haben. Besonders hervorzuheben sind dabei</Pgraph><Pgraph><UnorderedList><ListItem level="1">Prof. Dr. Klaus Albegger, Graz</ListItem><ListItem level="1">Dr. Daniel Bauer, M&#252;nchen</ListItem><ListItem level="1">Dipl. Med.-Inf. Konstantin Brass, Heidelberg</ListItem><ListItem level="1">Peter Br&#252;stle (M.A.), Freiburg</ListItem><ListItem level="1">Dr. Corinne M. D&#246;lling, Berlin</ListItem><ListItem level="1">PD Dr. Roman Duelli, Heidelberg</ListItem><ListItem level="1">Dr. Jan Ehlers, Hannover</ListItem><ListItem level="1">Prof. Dr. Martin Fischer (MME), M&#252;nchen</ListItem><ListItem level="1">Dr. Volkhard Fischer, Hannover</ListItem><ListItem level="1">Prof. Dr. Johannes Forster (MME), Freiburg</ListItem><ListItem level="1">Andreas Fuhrig, G&#246;ttingen</ListItem><ListItem level="1">Prof. Dr. Matth&#228;us Grasl (MME), Wien</ListItem><ListItem level="1">Dr. Achim Hochlehnert, Heidelberg</ListItem><ListItem level="1">Dipl.-Ing. Matthias Holzer, M&#252;nchen</ListItem><ListItem level="1">Dr. Hans Haage, Rheinbach</ListItem><ListItem level="1">Dr. S&#246;ren Huwendiek (MME), Bern</ListItem><ListItem level="1">Prof. Dr. Jana J&#252;nger (MME), Heidelberg</ListItem><ListItem level="1">Prof. Dr. Ingo Just, Hannover</ListItem><ListItem level="1">Dr. Roland Kabu&#223; (MME), Hannover</ListItem><ListItem level="1">Prof. Dr. Klaus J. Klose, Marburg</ListItem><ListItem level="1">Dr. Richard Melamed, Frankfurt</ListItem><ListItem level="1">Dr. Andreas M&#246;ltner, Heidelberg</ListItem><ListItem level="1">Dr. Daniela Mohr, T&#252;bingen</ListItem><ListItem level="1">Elisabeth Narzi&#223; (&#196;rztin), Mannheim</ListItem><ListItem level="1">Dr. Zineb Nouns, Berlin</ListItem><ListItem level="1">Prof. Dr. Franz Resch, Heidelberg</ListItem><ListItem level="1">Dr. Thomas Rotthoff (MME), D&#252;sseldorf</ListItem><ListItem level="1">PD Dr. Jobst-Hendrik Schultz, Heidelberg</ListItem><ListItem level="1">Dr. Katrin Sch&#252;ttpelz-Brauns, Mannheim</ListItem><ListItem level="1">Dipl.-P&#228;d Tina Stibane, Marburg</ListItem><ListItem level="1">Markus Stieg (Arzt), Berlin</ListItem><ListItem level="1">Dipl. Wi.-Rom. Anna Vander Beken, Ulm</ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Acknowledgements">
      <MainHeadline>Acknowledgements</MainHeadline><Pgraph>We wish to extend our gratitude to all members of the GMA assessments committee and the MFT working group on assessment who took part in drawing up these recommendations and the related discussions and evaluations. We wish to particularly thank:</Pgraph><Pgraph><UnorderedList><ListItem level="1">Prof. Dr. Klaus Albegger, Graz</ListItem><ListItem level="1">Dr. Daniel Bauer, Munich</ListItem><ListItem level="1">Dipl. Med.-Inf. Konstantin Brass, Heidelberg</ListItem><ListItem level="1">Peter Br&#252;stle (M.A.), Freiburg</ListItem><ListItem level="1">Dr. Corinne M. D&#246;lling, Berlin</ListItem><ListItem level="1">PD Dr. Roman Duelli, Heidelberg</ListItem><ListItem level="1">Dr. Jan Ehlers, Hanover</ListItem><ListItem level="1">Prof. Dr. Martin Fischer (MME), Munich</ListItem><ListItem level="1">Dr. Volkhard Fischer, Hanover</ListItem><ListItem level="1">Prof. Dr. Johannes Forster (MME), Freiburg</ListItem><ListItem level="1">Andreas Fuhrig, G&#246;ttingen</ListItem><ListItem level="1">Prof. Dr. Matth&#228;us Grasl (MME), Vienna</ListItem><ListItem level="1">Dr. Achim Hochlehnert, Heidelberg</ListItem><ListItem level="1">Dipl.-Ing. Matthias Holzer, Munich</ListItem><ListItem level="1">Dr. Hans Haage, Rheinbach</ListItem><ListItem level="1">Dr. S&#246;ren Huwendiek (MME), Bern</ListItem><ListItem level="1">Prof. Dr. Jana J&#252;nger (MME), Heidelberg</ListItem><ListItem level="1">Prof. Dr. Ingo Just, Hanover</ListItem><ListItem level="1">Dr. Roland Kabu&#223; (MME), Hanover</ListItem><ListItem level="1">Prof. Dr. Klaus J. Klose, Marburg</ListItem><ListItem level="1">Dr. Richard Melamed, Frankfurt</ListItem><ListItem level="1">Dr. Andreas M&#246;ltner, Heidelberg</ListItem><ListItem level="1">Dr. Daniela Mohr, T&#252;bingen</ListItem><ListItem level="1">Elisabeth Narzi&#223; (physician), Mannheim</ListItem><ListItem level="1">Dr. Zineb Nouns, Berlin</ListItem><ListItem level="1">Prof. Dr. Franz Resch, Heidelberg</ListItem><ListItem level="1">Dr. Thomas Rotthoff (MME), D&#252;sseldorf</ListItem><ListItem level="1">PD Dr. Jobst-Hendrik Schultz, Heidelberg</ListItem><ListItem level="1">Dr. Katrin Sch&#252;ttpelz-Brauns, Mannheim</ListItem><ListItem level="1">Dipl.-P&#228;d Tina Stibane, Marburg</ListItem><ListItem level="1">Markus Stieg (physician), Berlin</ListItem><ListItem level="1">Dipl. Wi.-Rom. Anna Vander Beken, Ulm</ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Competing interests">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Gesellschaft f&#252;r Medizinische Ausbildung</RefAuthor>
        <RefAuthor> Kompetenzzentrum Pr&#252;fungen Baden-W&#252;rttemberg</RefAuthor>
        <RefAuthor>Fischer MR</RefAuthor>
        <RefTitle>Leitlinie f&#252;r fakult&#228;tsinterne Leistungsnachweise w&#228;hrend des Medizinstudiums: Ein Positionspapier des GMA-Ausschusses Pr&#252;fungen und des Kompetenzzentrums Pr&#252;fungen Baden-W&#252;rttemberg</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc74</RefPage>
        <RefTotal>Gesellschaft f&#252;r Medizinische Ausbildung; Kompetenzzentrum Pr&#252;fungen Baden-W&#252;rttemberg, Fischer MR. Leitlinie f&#252;r fakult&#228;tsinterne Leistungsnachweise w&#228;hrend des Medizinstudiums: Ein Positionspapier des GMA-Ausschusses Pr&#252;fungen und des Kompetenzzentrums Pr&#252;fungen Baden-W&#252;rttemberg. GMS Z Med Ausbild. 2008;25(1):Doc74. Zug&#228;nglich unter&#47;available from: http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2008-25&#47;zma000558.shtml</RefTotal>
        <RefLink>http:&#47;&#47;www.egms.de&#47;static&#47;de&#47;journals&#47;zma&#47;2008-25&#47;zma000558.shtml</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>WHO</RefAuthor>
        <RefAuthor> WFME</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2005</RefYear>
        <RefBookTitle>Guidelines for Accreditation of Basic Medical Education</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>WHO; WFME. Guidelines for Accreditation of Basic Medical Education. Geneva, Copenhagen: WHO; 2005.</RefTotal>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>WFME</RefAuthor>
        <RefAuthor> AMSE</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2007</RefYear>
        <RefBookTitle>WFME Global Standards for Quality Improvement in Medical Education European Specifications</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>WFME; AMSE. WFME Global Standards for Quality Improvement in Medical Education European Specifications. Copenhagen: University of Copenhagen, MEDINE Quality Assurance Task Force; 2007.</RefTotal>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>National Board of Medical Examiners</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2003</RefYear>
        <RefBookTitle>Test Administration Handbook</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>National Board of Medical Examiners. Test Administration Handbook. Philadelphia: National Board of Medical Examiners; 2003.</RefTotal>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>J&#252;nger J</RefAuthor>
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Lammerding-K&#246;ppel M</RefAuthor>
        <RefAuthor>Rau T</RefAuthor>
        <RefAuthor>Obertacke U</RefAuthor>
        <RefAuthor>Biller S</RefAuthor>
        <RefAuthor>Narci&#223; E</RefAuthor>
        <RefTitle>Durchf&#252;hrung der universit&#228;ren Pr&#252;fungen im klinischen Abschnitt des Medizinstudiums nach den Leitlinien des GMA-Ausschusses Pr&#252;fungen: Eine Bestandsaufnahme der medizinischen Fakult&#228;ten in Baden-W&#252;rttemberg</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc57</RefPage>
        <RefTotal>J&#252;nger J, M&#246;ltner A, Lammerding-K&#246;ppel M, Rau T, Obertacke U, Biller S, Narci&#223; E. Durchf&#252;hrung der universit&#228;ren Pr&#252;fungen im klinischen Abschnitt des Medizinstudiums nach den Leitlinien des GMA-Ausschusses Pr&#252;fungen: Eine Bestandsaufnahme der medizinischen Fakult&#228;ten in Baden-W&#252;rttemberg. GMS Z Med Ausbild. 2010;27(4):Doc57. DOI: 10.3205&#47;zma000694</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000694</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Reindl M</RefAuthor>
        <RefAuthor>Holzer M</RefAuthor>
        <RefAuthor>Fischer MR</RefAuthor>
        <RefTitle>Durchf&#252;hrung der Pr&#252;fungen nach den Leitlinien des GMA-Ausschusses Pr&#252;fungen: Eine Bestandsaufnahme aus Bayern</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc56</RefPage>
        <RefTotal>Reindl M, Holzer M, Fischer MR. Durchf&#252;hrung der Pr&#252;fungen nach den Leitlinien des GMA-Ausschusses Pr&#252;fungen: Eine Bestandsaufnahme aus Bayern. GMS Z Med Ausbild. 2010;27(4):Doc56. DOI: 10.3205&#47;zma000693</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000693</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Duelli R</RefAuthor>
        <RefAuthor>Resch F</RefAuthor>
        <RefAuthor>Schultz JH</RefAuthor>
        <RefAuthor>J&#252;nger J</RefAuthor>
        <RefTitle>Fakult&#228;tsinterne Pr&#252;fungen an den deutschen medizinischen Fakult&#228;ten</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc44</RefPage>
        <RefTotal>M&#246;ltner A, Duelli R, Resch F, Schultz JH, J&#252;nger J. Fakult&#228;tsinterne Pr&#252;fungen an den deutschen medizinischen Fakult&#228;ten. GMS Z Med Ausbild. 2010;27(3):Doc44. DOI: 10.3205&#47;zma000681</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000681</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Schuwirth LW</RefAuthor>
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefTitle>Programmatic assessment: From assessment of learning to assessment for learning</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>478-485</RefPage>
        <RefTotal>Schuwirth LW, van der Vleuten CP. Programmatic assessment: From assessment of learning to assessment for learning. Med Teach. 2011;33(6):478-485. DOI: 10.3109&#47;0142159X.2011.565828</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3109&#47;0142159X.2011.565828</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefAuthor>Schuwirth LW</RefAuthor>
        <RefAuthor>Driessen EW</RefAuthor>
        <RefAuthor>Dijkstra J</RefAuthor>
        <RefAuthor>Tigelaar D</RefAuthor>
        <RefAuthor>Baartman LK</RefAuthor>
        <RefAuthor>van Tartwijk J</RefAuthor>
        <RefTitle>A model for programmatic assessment fit for purpose</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>205-214</RefPage>
        <RefTotal>van der Vleuten CP, Schuwirth LW, Driessen EW, Dijkstra J, Tigelaar D, Baartman LK, van Tartwijk J. A model for programmatic assessment fit for purpose. Med Teach. 2012;34(3):205-214. DOI: 10.3109&#47;0142159X.2012.652239</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3109&#47;0142159X.2012.652239</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Biggs JB</RefAuthor>
        <RefTitle>Enhancing teaching through constructive alignment</RefTitle>
        <RefYear>1996</RefYear>
        <RefJournal>High Educ</RefJournal>
        <RefPage>347-364</RefPage>
        <RefTotal>Biggs JB. Enhancing teaching through constructive alignment. High Educ. 1996;32:347-364. DOI: 10.1007&#47;BF00138871</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1007&#47;BF00138871</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Loftus S</RefAuthor>
        <RefAuthor>Gerzina T</RefAuthor>
        <RefTitle>Being a Health Professional Educator</RefTitle>
        <RefYear>2013</RefYear>
        <RefBookTitle>Educating Health Professionals: Becoming a University Teacher</RefBookTitle>
        <RefPage>3-14</RefPage>
        <RefTotal>Loftus S, Gerzina T. Being a Health Professional Educator. In Loftus S, Gerzina T, Higgs J, Smith M, Duffy E (Hrsg). Educating Health Professionals: Becoming a University Teacher. Rotterdam: SensePublishers; 2013. S.3-14. DOI: 10.1007&#47;978-94-6209-353-9&#95;1</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1007&#47;978-94-6209-353-9&#95;1</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Norcini J</RefAuthor>
        <RefAuthor>Anderson B</RefAuthor>
        <RefAuthor>Bollela V</RefAuthor>
        <RefAuthor>Burch V</RefAuthor>
        <RefAuthor>Costa MJ</RefAuthor>
        <RefAuthor>Duvivier R</RefAuthor>
        <RefAuthor>Galbraith R</RefAuthor>
        <RefAuthor>Hays R</RefAuthor>
        <RefAuthor>Kent A</RefAuthor>
        <RefAuthor>Perrot V</RefAuthor>
        <RefAuthor>Roberts T</RefAuthor>
        <RefTitle>Criteria for good assessment: Consensus statement and recommendations from the Ottawa 2010 Conference</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>206-214</RefPage>
        <RefTotal>Norcini J, Anderson B, Bollela V, Burch V, Costa MJ, Duvivier R, Galbraith R, Hays R, Kent A, Perrot V, Roberts T. Criteria for good assessment: Consensus statement and recommendations from the Ottawa 2010 Conference. Med Teach. 2011;33(3):206-214. DOI: 10.3109&#47;0142159X.2011.551559</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3109&#47;0142159X.2011.551559</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Hahn EG</RefAuthor>
        <RefAuthor>Fischer Mr</RefAuthor>
        <RefTitle>Nationaler Kompetenzbasierter Lernzielkatalog Medizin (NKLM) f&#252;r Deutschland: Zusammenarbeit der Gesellschaft f&#252;r Medizinische Ausbildung (GMA) und des Medizinischen Fakult&#228;tentages (MFT)</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc35</RefPage>
        <RefTotal>Hahn EG, Fischer Mr. Nationaler Kompetenzbasierter Lernzielkatalog Medizin (NKLM) f&#252;r Deutschland: Zusammenarbeit der Gesellschaft f&#252;r Medizinische Ausbildung (GMA) und des Medizinischen Fakult&#228;tentages (MFT). GMS Z Med Ausbild. 2009;26(3):Doc35. DOI: 10.3205&#47;zma000627</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000627</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Tremp R</RefAuthor>
        <RefAuthor>Reusser K</RefAuthor>
        <RefTitle>Leistungsbeurteilung und Leistungsnachweise in Hochschule und Lehrerbildung - Trends und Diskussionsfelder</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Beitr Lehrerbild</RefJournal>
        <RefPage>5-13</RefPage>
        <RefTotal>Tremp R, Reusser K. Leistungsbeurteilung und Leistungsnachweise in Hochschule und Lehrerbildung - Trends und Diskussionsfelder. Beitr Lehrerbild. 2007;25(1):5-13.</RefTotal>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>N&#252;rnberger F</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2010</RefYear>
        <RefBookTitle>Handreichung Regelungen zu Pr&#252;fungen an Medizinischen Fakult&#228;ten und Fachbereichen</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>N&#252;rnberger F. Handreichung Regelungen zu Pr&#252;fungen an Medizinischen Fakult&#228;ten und Fachbereichen. Berlin: Medizinischer Fakult&#228;tentag; 2010.</RefTotal>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Schuwirth LW</RefAuthor>
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefTitle>Assessing competence: Extending the appoaches to reliability</RefTitle>
        <RefYear>2012</RefYear>
        <RefBookTitle>The question of competence: reconsidering medical education in the twenty-fisrt century</RefBookTitle>
        <RefPage>113-130</RefPage>
        <RefTotal>Schuwirth LW, van der Vleuten CP. Assessing competence: Extending the appoaches to reliability. In: Hodges BD, Ligar L (Hrsg). The question of competence: reconsidering medical education in the twenty-fisrt century. Ithaca, New York: Cornell University Press; 2012. S.113-130.</RefTotal>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Jackson N</RefAuthor>
        <RefAuthor>Jamieson A</RefAuthor>
        <RefAuthor>Khan A</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2007</RefYear>
        <RefBookTitle>Assessment in medical education and training: a practical guide</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Jackson N, Jamieson A, Khan A. Assessment in medical education and training: a practical guide. Oxford, New York: Radcliffe; 2007.</RefTotal>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Lucke J</RefAuthor>
        <RefTitle>The a and the w of Congeneric Test Theory: An Extension of Reliability and Internal Consistency to Heterogeneous Tests</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Appl Psychol Measure</RefJournal>
        <RefPage>65-81</RefPage>
        <RefTotal>Lucke J. The a and the w of Congeneric Test Theory: An Extension of Reliability and Internal Consistency to Heterogeneous Tests. Appl Psychol Measure. 2005;29(1):65-81. DOI: 10.1177&#47;0146621604270882</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1177&#47;0146621604270882</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Lucke J</RefAuthor>
        <RefTitle>The alpha and the omega of Congeneric Test Theory: An Extension of Reliability and Internal Consistency to Heterogeneous Tests</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Appl Psychol Measure</RefJournal>
        <RefPage>65-81</RefPage>
        <RefTotal>Lucke J. The alpha and the omega of Congeneric Test Theory: An Extension of Reliability and Internal Consistency to Heterogeneous Tests. Appl Psychol Measure. 2005;29(1):65-81. DOI: 10.1177&#47;0146621604270882</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1177&#47;0146621604270882</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <Attachment>
          <MediaNo>1</MediaNo>
          <MediaID filename="zma000926.a1de.pdf" language="de" mimeType="application/pdf" origFilename="Anhang.pdf" size="82872" url="">1de</MediaID>
          <MediaID filename="zma000926.a1en.pdf" language="en" mimeType="application/pdf" origFilename="Attachment.pdf" size="77613" url="">1en</MediaID>
          <AttachmentTitle language="de">Checkliste</AttachmentTitle>
          <AttachmentTitle language="en">Checklist</AttachmentTitle>
        </Attachment>
        <NoOfAttachments>1</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>