<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zma001674</Identifier>
    <IdentifierDoi>10.3205/zma001674</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0016745</IdentifierUrn>
    <ArticleType language="en">article</ArticleType>
    <ArticleType language="de">Artikel</ArticleType>
    <TitleGroup>
      <Title language="en">Position statement of the GMA committee &#8220;teaching evaluation&#8221;</Title>
      <TitleTranslated language="de">Positionspapier GMA-Ausschuss &#8222;Lehrevaluation&#8220;</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Haverkamp</Lastname>
          <LastnameHeading>Haverkamp</LastnameHeading>
          <Firstname>Nicolas</Firstname>
          <Initials>N</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Bonn, Medical Faculty, Office of the Dean of Studies, Bonn, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Bonn, Medizinische Fakult&#228;t, Studiendekanat, Bonn, Deutschland</Affiliation>
        </Address>
        <Email>nicolas.haverkamp&#64;ukbonn.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Barth</Lastname>
          <LastnameHeading>Barth</LastnameHeading>
          <Firstname>Janina</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of L&#252;beck, Department of Human Medicine Studies and Teaching, L&#252;beck, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t zu L&#252;beck, Referat Studium und Lehre Humanmedizin, L&#252;beck, Deutschland</Affiliation>
        </Address>
        <Email>janina.barth&#64;uni-luebeck.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Schmidt</Lastname>
          <LastnameHeading>Schmidt</LastnameHeading>
          <Firstname>Dennis</Firstname>
          <Initials>D</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University Medical Center G&#246;ttingen, Office of the Dean of Studies, G&#246;ttingen, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;tsmedizin G&#246;ttingen, Studiendekanat, G&#246;ttingen, Deutschland</Affiliation>
        </Address>
        <Email>dennisschmidt95&#64;web.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Dahmen</Lastname>
          <LastnameHeading>Dahmen</LastnameHeading>
          <Firstname>Uta</Firstname>
          <Initials>U</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Jena, Medical Faculty, Clinic for General, Visceral and Vascular Surgery, Jena, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Jena, Medizinische Fakult&#228;t, Klinik f&#252;r Allgemein-, Viszeral- und Gef&#228;&#223;chirurgie, Jena, Deutschland</Affiliation>
        </Address>
        <Email>uta.dahmen&#64;med.uni-jena.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Keis</Lastname>
          <LastnameHeading>Keis</LastnameHeading>
          <Firstname>Oliver</Firstname>
          <Initials>O</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Ulm, Medical Faculty, Office of the Dean of Studies, Ulm, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Ulm, Medizinische Fakult&#228;t, Studiendekanat, Ulm, Deutschland</Affiliation>
        </Address>
        <Email>oliver.keis&#64;uni-ulm.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Raupach</Lastname>
          <LastnameHeading>Raupach</LastnameHeading>
          <Firstname>Tobias</Firstname>
          <Initials>T</Initials>
          <AcademicTitle>Prof. Dr.</AcademicTitle>
          <AcademicTitleSuffix>MME</AcademicTitleSuffix>
        </PersonNames>
        <Address language="en">University of Bonn, Medical Faculty, Institute for Medical Didactics, Venusberg - Campus 1, D-53127 Bonn, Germany<Affiliation>University of Bonn, Medical Faculty, Institute for Medical Didactics, Bonn, Germany</Affiliation></Address>
        <Address language="de">Universit&#228;t Bonn, Medizinische Fakult&#228;t, Institut f&#252;r Medizindidaktik, Venusberg - Campus 1, 53127 Bonn, Deutschland<Affiliation>Universit&#228;t Bonn, Medizinische Fakult&#228;t, Institut f&#252;r Medizindidaktik, Bonn, Deutschland</Affiliation></Address>
        <Email>tobias.raupach&#64;ukbonn.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">evaluation</Keyword>
      <Keyword language="en">teaching</Keyword>
      <Keyword language="en">teaching quality</Keyword>
      <Keyword language="en">reliability</Keyword>
      <Keyword language="en">validity</Keyword>
      <Keyword language="en">medicine</Keyword>
      <Keyword language="en">health sciences</Keyword>
      <Keyword language="de">Evaluation</Keyword>
      <Keyword language="de">Lehre</Keyword>
      <Keyword language="de">Lehrqualit&#228;t</Keyword>
      <Keyword language="de">Reliabilit&#228;t</Keyword>
      <Keyword language="de">Validit&#228;t</Keyword>
      <Keyword language="de">Medizin</Keyword>
      <Keyword language="de">Gesundheitswissenschaften</Keyword>
      <SectionHeading language="en">evaluation of teaching</SectionHeading>
      <SectionHeading language="de">Lehrevaluation</SectionHeading>
    </SubjectGroup>
    <DateReceived>20230316</DateReceived>
    <DateRevised>20231129</DateRevised>
    <DateAccepted>20240201</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20240415</DatePublished></DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2366-5017</ISSN>
        <Volume>41</Volume>
        <Issue>2</Issue>
        <JournalTitle>GMS Journal for Medical Education</JournalTitle>
        <JournalTitleAbbr>GMS J Med Educ</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>19</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph>Die Evaluation der Lehre kann ein wesentlicher Motor f&#252;r die Curriculumsentwicklung sein. Instrumente zur Lehrevaluation werden aber nicht nur zum Zweck der Qualit&#228;tssicherung, sondern auch im Kontext der medizindidaktischen Forschung eingesetzt. Entsprechend m&#252;ssen Sie den g&#228;ngigen Anforderungen an Reliabilit&#228;t und Validit&#228;t gen&#252;gen. In diesem Positionspapier des GMA-Ausschusses Lehrevaluation werden strategische und methodische Aspekte der Evaluation im Kontext des Medizinstudiums und verwandter Studieng&#228;nge er&#246;rtert und Empfehlungen f&#252;r die Weiterentwicklung der Evaluation formuliert. Zun&#228;chst wird ein vierschrittiges Vorgehen f&#252;r die Konzeption und Durchf&#252;hrung von Evaluationen vorgestellt, danach wird vertieft auf methodische und praktische Aspekte eingegangen. Schwerpunkte hierbei sind Ziel- und St&#246;rvariablen, Erhebungsinstrumente sowie Aspekte der Implementierung und des Datenschutzes. Schlie&#223;lich werden m&#246;gliche Konsequenzen aus Evaluationsdaten f&#252;r die vier Dimensionen der Lehrqualit&#228;t (Strukturen, Prozesse, Personen und Ergebnisse) diskutiert.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph>The evaluation of teaching can be an essential driver for curriculum development. Instruments for teaching evaluation are not only used for the purpose of quality assurance but also in the context of medical education research. Therefore, they must meet the common requirements for reliability and validity. This position paper from the GMA Teaching Evaluation Committee discusses strategic and methodological aspects of evaluation in the context of undergraduate medical education and related courses; and formulates recommendations for the further development of evaluation. First, a four-step approach to the design and implementation of evaluations is presented, then methodological and practical aspects are discussed in more detail. The focus here is on target and confounding variables, survey instruments as well as aspects of implementation and data protection. Finally, possible consequences from evaluation data for the four dimensions of teaching quality (structural and procedural aspects, teachers and outcomes) are discussed.</Pgraph></Abstract>
    <TextBlock language="en" linked="yes" name="Introduction">
      <MainHeadline>Introduction</MainHeadline><Pgraph>The evaluation of teaching is the final element of the Kern cycle and should be a key driver for curriculum development <TextLink reference="1"></TextLink>. Depending on the data collection instrument and the people surveyed, evaluations can collect information about structural and procedural aspects of teaching, about the behavior of individual teachers and ultimately about student learning outcomes <TextLink reference="2"></TextLink>. On the one hand, teaching evaluation is suitable as an instrument for quality assurance and improvement <TextLink reference="3"></TextLink>, and on the other hand, evaluation instruments are also used in medical education research. In both cases, the procedures used should meet high standards of scientific work such as sufficient reliability and validity of the data collection tools, since numerous potential confounding factors must be taken into account when collecting and interpreting student evaluation data and sometimes far-reaching consequences are drawn from evaluation results.</Pgraph><Pgraph>This position paper from the GMA Teaching Evaluation Committee discusses strategic and methodological aspects of evaluation in the context of medical studies and related study programs and formulates specific recommendations for evaluation <TextLink reference="4"></TextLink> in addition to general standards for evaluation that have already been formulated. The position paper is intended to serve as a starting point for medical schools to further develop their own evaluation processes; it is also intended to contribute to the creation of a more general evaluation concept for undergraduate medical education and related courses.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Einf&#252;hrung">
      <MainHeadline>Einf&#252;hrung</MainHeadline><Pgraph>Die Evaluation der Lehre bildet das letzte Element im Kern-Zyklus und sollte ein wesentlicher Motor f&#252;r die Curriculumsentwicklung sein <TextLink reference="1"></TextLink>. Je nach Datenerhebungsinstrument und befragten Personen k&#246;nnen in Evaluationen Informationen &#252;ber strukturelle und prozedurale Aspekte der Lehre, &#252;ber das Verhalten einzelner Lehrender und schlie&#223;lich auch &#252;ber den studentischen Lernerfolg erhoben werden <TextLink reference="2"></TextLink>. Die Lehrevaluation eignet sich zum einen als Instrument der Qualit&#228;tssicherung und <TextGroup><PlainText>-verbesserung</PlainText></TextGroup> <TextLink reference="3"></TextLink>, zum anderen kommen auch in der medizindidaktischen Forschung Evaluationsinstrumente zum Einsatz. In beiden F&#228;llen sollten die genutzten Verfahren hohen Anspr&#252;chen an wissenschaftliches Arbeiten wie z. B. Reliabilit&#228;t und Validit&#228;t der Messinstrumente gen&#252;gen, da bei der Erhebung und Interpretation studentischer Evaluationsdaten zahlreiche potentielle St&#246;rfaktoren ber&#252;cksichtigt werden m&#252;ssen und mitunter auch weitreichende Konsequenzen aus Evaluationsergebnissen gezogen werden.</Pgraph><Pgraph>In diesem Positionspapier des GMA-Ausschusses Lehrevaluation werden strategische und methodische Aspekte der Evaluation im Kontext des Medizinstudiums und verwandter Studieng&#228;nge er&#246;rtert und &#8211; &#252;ber bereits formulierte allgemeine Standards f&#252;r Evaluation <TextLink reference="4"></TextLink> hinaus &#8211; spezifische Empfehlungen f&#252;r die Weiterentwicklung der Evaluation formuliert. Das Positionspapier soll den Fakult&#228;ten als Ausgangspunkt f&#252;r die Weiterentwicklung ihrer eigenen Evaluationsprozesse dienen; gleicherma&#223;en soll es dazu beitragen, die Erstellung eines standort&#252;bergreifenden Evaluationskonzeptes f&#252;r die Lehre in medizinischen und verwandten Studieng&#228;ngen voranzutreiben.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Background">
      <MainHeadline>Background</MainHeadline><Pgraph>The discussions of the GMA Teaching Evaluation Committee crystallized a desire for developing questionnaires that would facilitate a comprehensive evaluation of teaching across courses and locations. This would allow comparisons between medical schools &#8211; also in view of the revision of the National Competence-Based Catalog of Learning Objectives for medicine&#47;dentistry and the upcoming reform of the Medical Licensure Act. In connection with the digitisation of teaching since the summer term of 2020, various questionnaires have already been developed by members of the committee in a corresponding pilot project, which are aimed at both teachers and students and look at different levels of teaching organisation (meso and micro levels). These forms were made available to all medical schools.</Pgraph><Pgraph>A general data collection instrument will not be able to cover all dimensions of teaching quality in the same way, so prioritizing content seems sensible here. The design of an instrument that can be used universally and does not require additional hardware and software at different sites remains a challenge. There is also a need for new survey instruments that take current developments (e.g. emphasis on communication and interprofessionalism) and special teaching settings (e.g. teaching practical skills, e.g. in skills labs) into account.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Hintergrund">
      <MainHeadline>Hintergrund</MainHeadline><Pgraph>In den Diskussionen des GMA-Ausschusses Lehrevaluation entstand der Wunsch, Frageb&#246;gen zu entwickeln, die eine umfassende studiengangs- und standort&#252;bergreifende Evaluation der Lehre erm&#246;glichen. Auf diese Weise soll &#8211; auch vor dem Hintergrund der &#220;berarbeitung der Nationalen Kompetenzbasierten Lernzielkataloge Medizin&#47;Zahnmedizin und der anstehenden Reform der Approbationsordnung &#8211; eine Vergleichbarkeit zwischen den Fakult&#228;ten geschaffen werden. Im Zusammenhang mit der Digitalisierung der Lehre seit dem Sommersemester 2020 wurden in einem entsprechenden Pilotvorhaben von Mitgliedern des Ausschusses bereits verschiedene Frageb&#246;gen entwickelt, die sich sowohl an Lehrende als auch an Studierende richteten und unterschiedliche Ebenen der Lehrorganisation betrachteten (Meso- und Mikrolevel). Diese B&#246;gen wurden allen Fakult&#228;ten zur Verf&#252;gung gestellt.</Pgraph><Pgraph>Ein standortunabh&#228;ngiges Instrument wird nicht alle Dimensionen der Lehrqualit&#228;t in gleicher Weise abdecken k&#246;nnen, so dass hier eine inhaltliche Priorisierung sinnvoll erscheint. Die Konzeption eines Instruments, das universell einsetzbar ist und keine zus&#228;tzliche Hard- und Software an allen Standorten erfordert, stellt nach wie vor eine Herausforderung dar. Zudem besteht Bedarf an neuen Erhebungsinstrumenten, die aktuellen Entwicklungen (z.B. Gewicht auf Kommunikation und Interprofessionalit&#228;t) und besonderen Lehr-Settings (z.B. Vermittlung praktischer Fertigkeiten, z.B. in Skills Labs) Rechnung tragen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Basic considerations">
      <MainHeadline>Basic considerations</MainHeadline><Pgraph>The Committee recommends the following four-step approach:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark1>Defining the objective(s) of the evaluation: </Mark1>Before an evaluation is carried out, the aim of the evaluation must be clearly stated and agreed upon. This also includes defining a construct to be measured as well as considerations for the exclusion of possible confounding variables. If possible, it should be determined in advance what consequences are to be drawn from the results. </ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark1>Selection of data collection instrument(s): </Mark1>The central step in the evaluation process is the selection of one or more suitable instruments to achieve the stated goal. This requires a decision on whether to choose an existing survey instrument with known psychometric properties or whether a new instrument must be developed. For specific purposes it may be useful to use non-validated survey forms; however, in general and from a scientific perspective, it is recommended to use published and validated survey instruments.</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark1>Data collection: </Mark1>In principle, it must be clarified when or during which period the data should be collected and whether data collection should be paper-based or online. In the latter case, various platforms are available, some of which can automatically send notifications and reminders to the target audience.</ListItem><ListItem level="1" levelPosition="4" numString="4."><Mark1>Presentation of the results: </Mark1>An appropriate approach to data analysis and presentation should be taken in order to facilitate a meaningful interpretation of the data. Analyses that go beyond descriptive evaluations should only be carried out in justified cases.</ListItem></OrderedList></Pgraph><Pgraph>Depending on the objectives, the evaluation process should have the support of the medical school committees. Responsibilities, workflows and the implementation of consequences should be communicated transparently throughout.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Grunds&#228;tzliche &#220;berlegungen">
      <MainHeadline>Grunds&#228;tzliche &#220;berlegungen</MainHeadline><Pgraph>Der Ausschuss empfiehlt das folgende vierschrittige Vorgehen:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark1>Formulieren des&#47;der Evaluationziels&#47;e: </Mark1>Vor der Durchf&#252;hrung einer Evaluation muss das Ziel derselben klar benannt und konsentiert werden. Dies umfasst auch eine Formulierung des Evaluationsziels als zu messendes Konstrukt sowie &#220;berlegungen zum Ausschluss eventueller St&#246;rvariablen. Nach M&#246;glichkeit sollte vorab festgelegt werden, welche Konsequenzen aus den Ergebnissen gezogen werden sollen. </ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark1>Auswahl des&#47;der Datenerhebungsinstruments&#47;e: </Mark1>Der zentrale Schritt im Evaluationsprozess ist die Auswahl eines oder mehrerer geeigneter Instrumente, um das genannte Ziel zu erreichen. Hier ist zu entscheiden, ob ein bestehendes Erhebungsinstrument mit bekannten psychometrischen Charakteristika gew&#228;hlt werden soll oder ob eine Neuentwicklung erforderlich ist. F&#252;r spezifische Zwecke kann es sinnvoll sein, nicht-validierte Erhebungsb&#246;gen zu verwenden; generell und aus einer wissenschaftlichen Perspektive ist aber empfehlenswert, publizierte und validierte Erhebungsinstrumente einzusetzen.</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark1>Implementierung der Datenerhebung: </Mark1>Hier ist grunds&#228;tzlich zu kl&#228;ren, zu welchem Zeitpunkt bzw. in welchem Zeitraum die Daten erhoben werden sollen und ob die Datenerhebung papierbasiert oder online erfolgen soll. Im letzteren Fall stehen verschiedene Plattformen zur Verf&#252;gung, von denen einige automatisiert Benachrichtigungen und Erinnerungen an die zu befragenden Personen versenden k&#246;nnen.</ListItem><ListItem level="1" levelPosition="4" numString="4."><Mark1>Darstellung der Ergebnisse: </Mark1>Bei der Darstellung der Ergebnisse sollten geeignete Methoden der Datenaufbereitung genutzt werden, die R&#252;ckschl&#252;sse &#252;ber die wesentlichen Parameter der Evaluation erlauben. &#220;ber deskriptive Auswertungen hinausgehende Analysen sollten nur in begr&#252;ndeten F&#228;llen vorgenommen werden.</ListItem></OrderedList></Pgraph><Pgraph>Je nach Zielsetzung sollte der Evaluationsprozess von den Gremien der Fakult&#228;t unterst&#252;tzt werden. Zust&#228;ndigkeiten, Workflows und die Umsetzung von Konsequenzen sollten durchgehend transparent kommuniziert werden.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Methodological and practical aspects">
      <MainHeadline>Methodological and practical aspects</MainHeadline><Pgraph>In the following, individual aspects of the evaluation methodology will be discussed &#8211; in some cases with reference to the four steps mentioned above.</Pgraph><SubHeadline>1. Defining the objective(s) of the Evaluation</SubHeadline><Pgraph>The first step in the evaluation process is determining the evaluation goal. Depending on this goal, suitable survey instruments will be selected. In general, the aim of evaluation in most cases is to measure the quality of teaching and to strive for improvements on this basis. For this purpose, it is necessary to define the construct &#8220;good teaching&#8221; for the context at hand. For example, in a survey of around 800 clinical lecturers at German medical schools, &#8220;good teaching&#8221; was characterized in particular by its leading to sustainable learning outcomes among students and increased interest in the content taught <TextLink reference="5"></TextLink>. </Pgraph><SubHeadline2>Target variable(s)</SubHeadline2><Pgraph>Two definitions of good teaching &#8211; the Stanford criteria and the four dimensions according to Gibson &#8211; will be portrayed in greater detail here because they are widely known and easy to operationalise. In addition, data collected based on these definitions can serve as a solid starting point for ongoing curriculum development. There are of course other classifications and systems for evaluating &#8220;good teaching&#8221; as well, all of which allude to similar dimensions <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>. </Pgraph><Pgraph>The Stanford criteria <TextLink reference="8"></TextLink>, originally developed as part of a faculty development program, are: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Establishing a positive learning climate, </ListItem><ListItem level="1" levelPosition="2" numString="2.">Control of the teaching session, </ListItem><ListItem level="1" levelPosition="3" numString="3.">Communicating goals, </ListItem><ListItem level="1" levelPosition="4" numString="4.">Promoting understanding and retention, </ListItem><ListItem level="1" levelPosition="5" numString="5.">Evaluation, </ListItem><ListItem level="1" levelPosition="6" numString="6.">Feedback and </ListItem><ListItem level="1" levelPosition="7" numString="7.">Promoting self-directed learning. </ListItem></OrderedList></Pgraph><Pgraph>According to Gibson <TextLink reference="2"></TextLink>, teaching quality is a multidimensional construct. In advance of the evaluation, it must be clarified which dimension(s) of good teaching are to be assessed: </Pgraph><Pgraph><UnorderedList><ListItem level="1">The structural dimension includes the overall conditions under which teaching takes place, including the teaching facilities, the basic structure of a course or the existence of a catalogue of learning objectives. </ListItem><ListItem level="1">The procedural dimension refers to the teaching sessions themselves. Quality indicators commonly used here include, for example, the punctuality of teaching staff and students, the type of interaction and the use of different teaching methods <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>. A term often used in this context is the &#8220;learning climate&#8221; <TextLink reference="11"></TextLink>. </ListItem><ListItem level="1">The personal dimension refers to the teaching staff. In most cases, teachers have little opportunity to influence structural aspects of teaching. However, they can certainly shape teaching processes. Due to the fact that teachers play an important role in most curricula, specific survey instruments have been developed to assess the performance of individual teachers <TextLink reference="12"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>, <TextLink reference="15"></TextLink>. These can also be used as part of assessments relevant to career development.  </ListItem><ListItem level="1">The outcomes dimension of teaching quality refers to the measurable result of teaching. This is often also referred to as the students&#8217; learning success (although other definitions are also possible). Examinations can be used to measure learning success; however, these only reflect the level of performance at the end of a teaching intervention and do not say anything about the actual increase of knowledge, skills and professionalism during the intervention. As an alternative to determining learning success, repeated self-assessments can also be used, the reliability and validity of which have been examined in some studies <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink>, <TextLink reference="18"></TextLink>.</ListItem></UnorderedList></Pgraph><Pgraph>Students are often asked &#8211; without reference to any of the aforementioned dimensions &#8211; to provide a general appraisal of teaching, for example by awarding school grades <TextLink reference="19"></TextLink>. </Pgraph><Pgraph>Such a global rating merely corresponds to satisfaction. Due to the uniformity of the school grade system, the results suggest comparability between courses. However, satisfaction ratings based solely on school grades are particularly difficult to interpret because the construct of satisfaction is very individual. In addition, not all teaching formats that students are satisfied with are effective. Conversely, not all teaching formats that have been proven to be effective lead to increased satisfaction among students.</Pgraph><SubHeadline2>Confounding variables</SubHeadline2><Pgraph>Any impact of construct-irrelevant factors poses a threat to the validity of target variable measurements. The risk of confounding is particularly high if the construct to be measured has not been determined precisely enough &#8211; as a consequence, it can be difficult to distinguish between valid influences and confounding influences on measurements. </Pgraph><Pgraph>A literature review from 2015 identified numerous factors that can impact student global assessments (e.g. school grade ratings) of courses <TextLink reference="20"></TextLink>. While some of these factors (e.g. course organization, communication and feedback for students) are easily compatible with the construct of good teaching, others can clearly be described as confounding variables (e.g. gender of students, interest of students in the content taught, time of data collection). Two aspects should be particularly emphasised at this point:</Pgraph><Pgraph><UnorderedList><ListItem level="1">Evaluation format: In one study, online data collection was associated with a lower response rate than paper-based surveys <TextLink reference="21"></TextLink>, <TextLink reference="22"></TextLink>. At the same time, the ratings for online data collection were more positive than for paper-based data collection. </ListItem><ListItem level="1">Voluntary participation in evaluation: If participation in the evaluation is voluntary, high-performing students may be more likely to take part; this can lead to the evaluations being more positive than if all students took part. Conversely, an obligation to evaluate (if at all possible from a legal perspective) can lead to some students not taking the exercise serious enough, thus increasing construct-irrelevant variance in the data.</ListItem></UnorderedList></Pgraph><Pgraph>Although it seems hardly possible to take all confounding variables into account or adjust for them when analysing data (because due to data protection, no personal information such as the gender of participants is collected), the people who carry out evaluations and interpret their results should be aware of these effects and, if necessary, account for them when planning an evaluation.</Pgraph><SubHeadline>2. Selection of data collection instrument(s)</SubHeadline><Pgraph>The second step in the evaluation process is the selection of appropriate evaluation tool(s). A typical target audience for teaching evaluations are students. Alternatively or in addition to this, graduates or patients can also be asked to evaluate specific aspects of the teaching. Lecturers can use self-assessments (under supervision, e.g. in faculty development programs) or peer ratings to obtain feedback on the quality of their own teaching. Finally, other existing data such as progress logs or aggregated examination results can also be used to evaluate teaching. </Pgraph><Pgraph>Depending on the data source and the evaluation goals, different data collection formats and instruments are used: </Pgraph><Pgraph>According to a 2021 survey, the most common format used by 97&#37; of medical schools <TextLink reference="23"></TextLink> is the questionnaire, either to be completed on paper or online. A survey among German medical schools showed that online questionnaires are used at almost all locations. Half of the schools also use paper-based questionnaires <TextLink reference="23"></TextLink>, <TextLink reference="24"></TextLink>. There are numerous general questionnaires available for evaluating academic teaching; however, aspects specific to medical education such as bedside teaching are not always adequately taken into account. For this reason, specific instruments for assessment in medical and related courses have been developed and scientifically validated.</Pgraph><Pgraph>Many of the questionnaires used by individual medical schools aim to evaluate the quality of teaching locally. Due to the specifics of some sites which are reflected in the evaluation forms, such forms normally cannot be used across medical schools. In contrast, published questionnaires with known psychometric characteristics offer the advantage of being largely location-independent; however, according to the faculties&#8217; own information, these are currently only used at 7&#37; of sites <TextLink reference="23"></TextLink>. Combinations of validated and non-validated forms are used by 30&#37; of medical schools <TextLink reference="23"></TextLink>. While this is possible, this should be stated clearly.</Pgraph><Pgraph>Although questionnaires can contain free text fields, in most cases the questionnaires are used to collect quantitative data. In contrast, individual interviews or focus groups are more suitable for generating qualitative data. According to the medical schools, focus groups are used in 21&#37; and interviews in 15&#37; of medical courses in Germany <TextLink reference="24"></TextLink>. There are also course debriefings, which can be more or less structured and primarily serve to discuss specific problems and solutions.</Pgraph><Pgraph>When constructing questionnaires with scaled items, research findings on questionnaire construction must, among other things, be taken into account <TextLink reference="25"></TextLink>, <TextLink reference="26"></TextLink>.</Pgraph><SubHeadline>3. Data collection</SubHeadline><Pgraph>Aspects relevant to the implementation of evaluations include the type of data collection (online, paper-based, personal or telephone interviews), curricular integration (mandatory vs. voluntary participation) and the time of data collection. Survey instruments and mandatory vs. voluntary participation have already been discussed. This section addresses the timing of evaluations. Evaluation often takes place at the end of a lecture, a course&#47;module or a term&#47; study section. While teaching staff get an ideal overview of the quality of teaching in this way, this timing can have a negative impact on the motivation of students because they do not experience the consequences of the evaluation themselves. Furthermore, data collection at the end of term can have a negative impact on criterion validity due to the delay between the survey and the subject of the evaluation which is often too long. At some sites, evaluations are therefore held in the middle of a course in order to be able to make adjustments in the current term. However, too much data collection in quick succession can lead to evaluation fatigue among students, which can have a negative impact on response rates. Methods were therefore developed that make it possible to draw generalisable conclusions from feedback from a small part of the student cohort. This method was initially only examined for satisfaction ratings <TextLink reference="27"></TextLink>, <TextLink reference="28"></TextLink>. However, a recent study shows that a reliable assessment of student learning outcome is possible even if only around 20-30&#37; of the students in a cohort take part in the evaluation <TextLink reference="29"></TextLink>.</Pgraph><Pgraph>A special feature of medical education is that &#8211; especially in courses with a clinical focus &#8211; there is usually not just one single teacher instructing the entire course. Instead, a large number of teaching staff are involved in supervising smaller groups of students. This circumstance must be taken into account when evaluating individual teaching performance, e.g. by allowing students to evaluate the teachers they have been assigned to individually and shortly after the respective session.</Pgraph><Pgraph>In order to avoid confounding by dissatisfaction with individual examination performance, an evaluation of teaching should be carried out before taking the examination &#8211; although this is often difficult to implement in reality. If the examination itself is to be subjected to an evaluation by students, separate data collection must be planned for this.</Pgraph><Pgraph>The workflow for carrying out an evaluation within a medical school, as well as the consequences of its results in the broadest sense, are also part of the implementation; due to the great importance of these aspects, separate chapters are dedicated to them.</Pgraph><SubHeadline>4. Presentation of the results</SubHeadline><Pgraph>When choosing a suitable presentation format for evaluation results, various aspects should be kept in mind:</Pgraph><Pgraph>Addressees should be able to discern the sample size, the response rate, the data distribution and any floor and ceiling effects from the presentation. </Pgraph><Pgraph>Inferential statistical analyses should only be carried out if there is a question justifying their use. In this case the procedure should be named.</Pgraph><Pgraph>Outside scientific studies, it should be clearly stated that all analyses are exploratory.</Pgraph><SubHeadline2>Workflow: Data protection and responsibilities</SubHeadline2><Pgraph>Ensuring teaching quality is a central task of the dean of studies. The office of the dean of studies should therefore have the personal and technical expertise to carry out evaluations professionally and communicate the results within the medical school. On the one hand, this includes technical aspects of data collection and processing but on the other hand and above all, the competence to describe evaluation objectives and to select congruent instruments based on knowledge of the current literature.</Pgraph><Pgraph>Decentralized activities can be useful (particularly for evaluating teaching innovations in defined areas). However, data protection is of particular importance in this context, for example if the performance of individual teachers is to be evaluated. If &#8211; as is very likely in this case &#8211; there is a need to refer the matter to the respective data protection commission, the relevant deadlines must be observed. Responsibility for handling evaluation data lies either with the office of the Dean (of studies) or with a person named in the respective evaluation regulations. Conversely, it must also be ensured that the people who take part in an evaluation remain anonymous. In order to collect personal data in an evaluation project, the consent of those involved may be necessary. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Methodische und praktische Aspekte">
      <MainHeadline>Methodische und praktische Aspekte</MainHeadline><Pgraph>Im Folgenden wird &#8211; teilweise mit R&#252;ckbezug auf die o.g. vier Schritte &#8211; auf einzelne Aspekte der Evaluationsmethodik eingegangen.</Pgraph><SubHeadline>1. Formulieren des&#47;der Evaluationziels&#47;e</SubHeadline><Pgraph>Der erste Schritt im Evaluationsprozess ist die Festlegung des Evaluationsziels. In Abh&#228;ngigkeit von diesem Ziel werden passende Erhebungsinstrumente ausgew&#228;hlt. Ganz allgemein besteht das Ziel der Evaluation in den meisten F&#228;llen darin, die Qualit&#228;t der Lehre zu messen und auf dieser Grundlage Verbesserungen anzustreben. Zu diesem Zweck muss zun&#228;chst bekannt sein, wie das Konstrukt &#8222;gute Lehre&#8220; im konkreten Fall definiert ist. So war f&#252;r ca. 800 klinische Dozierende an deutschen medizinischen Fakult&#228;ten in einer Umfrage &#8220;gute Lehre&#8221; insbesondere dadurch charakterisiert, dass sie bei den Studierenden zu einem nachhaltigen Lernerfolg f&#252;hrte und das Interesse an den gelehrten Inhalten erh&#246;hte <TextLink reference="5"></TextLink>. </Pgraph><SubHeadline2>Zielvariable(n)</SubHeadline2><Pgraph>Zwei Definitionen guter Lehre &#8211; die Stanford-Kriterien und die Dimensionen nach Gibson &#8211; sollen an dieser Stelle exemplarisch n&#228;her ausgef&#252;hrt werden, weil sie weithin bekannt und gut operationalisierbar sind. Au&#223;erdem k&#246;nnen Daten, die auf Grundlage dieser Definitionen erhoben werden, konkrete Hilfestellungen bei der Weiterentwicklung der Lehre  geben. Grunds&#228;tzlich existieren dar&#252;ber hinaus selbstverst&#228;ndlich noch weitere Klassifikationen und Systematiken zur Bewertung &#8222;guter Lehre&#8220;, die alle vergleichbare Dimensionen postulieren <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>. </Pgraph><Pgraph>Die Stanford-Kriterien <TextLink reference="8"></TextLink>, die urspr&#252;nglich im Rahmen eines Fakult&#228;tsentwicklungsprogramms entwickelt wurden, sind: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Etablierung des Lernklimas, </ListItem><ListItem level="1" levelPosition="2" numString="2.">Leitung einer Lehreinheit, </ListItem><ListItem level="1" levelPosition="3" numString="3.">Zielkommunikation, </ListItem><ListItem level="1" levelPosition="4" numString="4.">F&#246;rderung von Verstehen und Behalten, </ListItem><ListItem level="1" levelPosition="5" numString="5.">Evaluation, </ListItem><ListItem level="1" levelPosition="6" numString="6.">Feedback und </ListItem><ListItem level="1" levelPosition="7" numString="7.">F&#246;rderung selbstbestimmten Lernens. </ListItem></OrderedList></Pgraph><Pgraph>Nach Gibson <TextLink reference="2"></TextLink> ist Lehrqualit&#228;t ein mehrdimensionales Konstrukt. Vor der Evaluation ist zu kl&#228;ren, welche Dimension&#47;en guter Lehre abgebildet werden soll&#47;en: </Pgraph><Pgraph><UnorderedList><ListItem level="1">Die strukturelle Dimension umfasst die Rahmenbedingungen, unter denen Lehre stattfindet, u.a. die Lehrr&#228;ume, den grunds&#228;tzlichen Aufbau eines Studiengangs oder das Vorhandensein eines Lernzielkatalogs. </ListItem><ListItem level="1">Die prozedurale Dimension bezieht sich auf den Ablauf von Lehrveranstaltungen. Zu den hier gebr&#228;uchlichen Qualit&#228;tsindikatoren geh&#246;ren z.B. die P&#252;nktlichkeit der Lehrenden und Studierenden, die Art der Interaktion und der Einsatz verschiedener Lehrmethoden <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>. Ein in diesem Zusammenhang h&#228;ufig benutzter Begriff ist das &#8222;Lernklima&#8220; <TextLink reference="11"></TextLink>. </ListItem><ListItem level="1">Die pers&#246;nliche Dimension betrifft die Lehrpersonen, die den Unterricht durchf&#252;hren. Lehrpersonen haben in den meisten F&#228;llen kaum eine M&#246;glichkeit, die strukturellen Bedingungen der Lehre zu beeinflussen. Prozedurale Aspekte der Lehre k&#246;nnen von ihnen aber durchaus gestaltet werden. Aufgrund der hervorgehobenen Rolle der Lehrenden in den meisten Curricula wurden spezifische Erhebungsinstrumente zur Bewertung der Performanz individueller Lehrender entwickelt <TextLink reference="12"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>, <TextLink reference="15"></TextLink>. Diese k&#246;nnen auch im Rahmen von Habilitationsverfahren zum Einsatz kommen.  </ListItem><ListItem level="1">Die Ergebnis-Dimension der Lehrqualit&#228;t bezieht sich auf das messbare Resultat der Lehre. Dies wird h&#228;ufig mit dem Lernerfolg der Studierenden gleichgesetzt (wenngleich auch andere Definitionen denkbar sind). Zur Messung des Lernerfolgs k&#246;nnen Pr&#252;fungsleistungen herangezogen werden; diese spiegeln jedoch lediglich den Leistungsstand am Ende einer Veranstaltung(-sreihe) wider und k&#246;nnen nichts &#252;ber den tats&#228;chlichen Zuwachs an Wissen, Fertigkeiten und Professionalit&#228;t durch die Veranstaltung aussagen. Als Alternative zur Bestimmung des Lernerfolgs k&#246;nnen auch wiederholte Selbsteinsch&#228;tzungen verwendet werden, deren Reliabilit&#228;t und Validit&#228;t in einigen Studien untersucht wurden <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink>, <TextLink reference="18"></TextLink>.</ListItem></UnorderedList></Pgraph><Pgraph>H&#228;ufig werden Studierende &#8211; ohne Bezug zu einzelnen der vorgenannten Dimensionen &#8211; um eine allgemeine Bewertung der Lehre gebeten, z.B. nach dem Schulnotenprinzip <TextLink reference="19"></TextLink>. </Pgraph><Pgraph>Ein solches globales Rating entspricht einem Stimmungsbild. Aufgrund der Einheitlichkeit von Schulnoten erscheinen die Ergebnisse zwischen Lehrveranstaltungen vergleichbar. Blo&#223;e Zufriedenheits-Bewertungen anhand von Schulnoten sind jedoch besonders schwer zu interpretieren, weil das Konstrukt &#8222;Zufriedenheit&#8220; sehr individuell ist. Au&#223;erdem sind nicht alle Lehrformate, mit denen Studierende zufrieden sind, auch effektiv. Umgekehrt f&#252;hren nicht alle nachweislich effektiven Lehrformate auch zu einer erh&#246;hten Zufriedenheit bei den Studierenden.</Pgraph><SubHeadline2>St&#246;rvariablen</SubHeadline2><Pgraph>Die Validit&#228;t der Messung von Zielvariablen ist bedroht, wenn konstrukt-irrelevante Faktoren die Ergebnisse beeinflussen. Das Risiko einer Verzerrung ist besonders gro&#223;, wenn das zu messende Konstrukt nicht genau genug bestimmt wurde und entsprechend auch nicht sicher zwischen (validen) Einflussgr&#246;&#223;en und St&#246;rgr&#246;&#223;en unterschieden werden kann. </Pgraph><Pgraph>In einer Literatur&#252;bersicht aus dem Jahr 2015 wurden zahlreiche Faktoren identifiziert, die sich auf studentische Globalbewertungen (z.B. Schulnoten-Ratings) von Lehrveranstaltungen auswirken k&#246;nnen <TextLink reference="20"></TextLink>. W&#228;hrend einige dieser Faktoren (z.B. Kurs-Organisation, Kommunikation und Feedback f&#252;r Studierende) mit dem Konstrukt &#8222;gute Lehre&#8220; leicht vereinbar sind, sind andere eindeutig als St&#246;rvariablen zu bezeichnen (z.B. Geschlecht der Studierenden, Interesse der Studierenden am gelehrten Inhalt, Zeitpunkt der Datensammlung). An dieser Stelle sollen zwei Aspekte besonders hervorgehoben werden:</Pgraph><Pgraph><UnorderedList><ListItem level="1">Format der Evaluation: Online-Datensammlungen gingen in einer Studie mit einem geringeren R&#252;cklauf einher als papierbasierte Erhebungen <TextLink reference="21"></TextLink>, <TextLink reference="22"></TextLink>. Zugleich fielen die Bewertungen bei der Online-Datensammlung positiver aus als bei der papierbasierten. </ListItem><ListItem level="1">Freiwilligkeit der Teilnahme an der Evaluation: Wenn die Teilnahme an der Evaluation freiwillig ist, nehmen m&#246;glicherweise eher leistungsstarke Studierende daran teil; dies kann dazu f&#252;hren, dass die Bewertungen positiver ausfallen, als wenn alle Studierenden teilnehmen. Umgekehrt kann eine Verpflichtung zur Evaluation (sofern diese aus rechtlicher Sicht &#252;berhaupt m&#246;glich ist) dazu f&#252;hren, dass einige Studierende die B&#246;gen nicht ernsthaft ausf&#252;llen und sich somit die konstrukt-irrelevante Varianz in den Daten erh&#246;ht.</ListItem></UnorderedList></Pgraph><Pgraph>Wenngleich es kaum m&#246;glich erscheint, bei der Datenanalyse stets alle St&#246;rvariablen zu ber&#252;cksichtigen bzw. daf&#252;r zu adjustieren (weil aufgrund des Datenschutzes keine personenbezogenen Informationen wie z.B. das Geschlecht der Teilnehmenden erhoben werden), sollten die Personen, die Evaluationen durchf&#252;hren und ihre Ergebnisse interpretieren, f&#252;r diese Effekte sensibilisiert sein und sie ggf. bei der Planung der Evaluation einbeziehen.</Pgraph><SubHeadline>2. Auswahl des&#47;der Datenerhebungsinstruments&#47;e</SubHeadline><Pgraph>Der zweite Schritt im Evaluationsprozess ist die Auswahl des&#47;r geeigneten Evaluationswerkzeugs&#47;e. &#220;blicherweise werden Studierende dazu eingeladen, die Lehre zu bewerten. Alternativ oder erg&#228;nzend k&#246;nnen aber auch Absolvent&#42;innen oder Patient&#42;innen darum gebeten werden, spezifische Aspekte der Lehre zu bewerten. Lehrende k&#246;nnen mittels Selbsteinsch&#228;tzungen (unter Supervision, z.B. in Fakult&#228;tsentwicklungsprogrammen) oder mittels peer ratings die Qualit&#228;t ihrer eigenen Lehre bewerten. Schlie&#223;lich k&#246;nnen auch andere vorhandene Daten wie z.B. Studienverlaufsparameter oder aggregierte Pr&#252;fungsergebnisse zur Bewertung der Lehre herangezogen werden. </Pgraph><Pgraph>Entsprechend der Datenquelle und der Evaluationsziele kommen jeweils unterschiedliche Datenerhebungsformate und -instrumente zum Einsatz: </Pgraph><Pgraph>Das laut einer Umfrage von 2021 von 97&#37; der Fakult&#228;ten eingesetzte <TextLink reference="23"></TextLink> und somit gebr&#228;uchlichste Format ist der Fragebogen, der entweder papierbasiert oder online ausgef&#252;llt werden kann. Eine Umfrage unter den Medizinischen Fakult&#228;ten in Deutschland ergab, dass an nahezu allen Standorten Online-Frageb&#246;gen eingesetzt werden. Die H&#228;lfte der Fakult&#228;ten nutzt zus&#228;tzlich dazu papierbasierte Frageb&#246;gen <TextLink reference="23"></TextLink>, <TextLink reference="24"></TextLink>. F&#252;r die Evaluation hochschulischer Lehre stehen zwar zahlreiche allgemeine Frageb&#246;gen zur Verf&#252;gung; medizinspezifische Aspekte wie beispielsweise der Unterricht am Krankenbett werden hier aber nicht immer angemessen ber&#252;cksichtigt. Aus diesem Grund wurden spezifische Instrumente zur Bewertung in medizinischen und verwandten Studieng&#228;ngen entwickelt und wissenschaftlich validiert.</Pgraph><Pgraph>Viele der an den einzelnen Fakult&#228;ten gebr&#228;uchlichen Frageb&#246;gen dienen dem Zweck, Aussagen &#252;ber die Qualit&#228;t der lokalen Lehre treffen zu k&#246;nnen. Aufgrund der Spezifika einzelner Standorte, die in den Evaluationsb&#246;gen ihren Niederschlag gefunden haben, sind solche B&#246;gen meist nicht fakult&#228;ts- oder standort&#252;bergreifend einsetzbar. Demgegen&#252;ber bieten publizierte B&#246;gen mit bekannten psychometrischen Charakteristika den Vorteil, weitgehend standortunabh&#228;ngig zu sein; sie werden jedoch bisher laut eigenen Angaben der Fakult&#228;ten nur an 7&#37; der Standorte verwendet <TextLink reference="23"></TextLink>. Kombinationen aus validierten und nicht-validierten B&#246;gen sind im Prinzip m&#246;glich und werden auch von 30&#37; der Fakult&#228;ten eingesetzt <TextLink reference="23"></TextLink>, sollten aber kenntlich gemacht werden.</Pgraph><Pgraph>Wenngleich Frageb&#246;gen Freitextfelder enthalten k&#246;nnen, dienen die Frageb&#246;gen in den meisten F&#228;llen dazu, quantitative Daten zu erheben. Im Unterschied dazu eignen sich Einzelinterviews oder Fokusgruppen eher dazu, qualitative Daten zu generieren. Fokusgruppen werden nach Angaben der Fakult&#228;ten in 21&#37;, Interviews in 15&#37; der medizinischen Studieng&#228;nge in Deutschland genutzt <TextLink reference="24"></TextLink>. Hinzu kommen Kursnachbesprechungen, die mehr oder weniger strukturiert ablaufen k&#246;nnen und in erster Linie dazu dienen, konkrete Probleme und L&#246;sungen zu er&#246;rtern.</Pgraph><Pgraph>Bei der Konstruktion von Frageb&#246;gen mit skalierten Items sind unter anderem die Erkenntnisse aus der Forschung zur Fragebogenkonstruktion zu ber&#252;cksichtigen <TextLink reference="25"></TextLink>, <TextLink reference="26"></TextLink>.</Pgraph><SubHeadline>3. Implementierung der Datenerhebung</SubHeadline><Pgraph>Fragen der Implementierung der Lehrevaluation beziehen sich auf die Art der Datensammlung (online, papierbasiert, pers&#246;nliche oder telefonische Gespr&#228;che), auf die Verankerung im Curriculum (verpflichtende vs. freiwillige Teilnahme) und insbesondere auf den Zeitpunkt der Datensammlung. Auf Erhebungsinstrumente und eine eventuelle Verpflichtung zur Teilnahme an der Evaluation wurde bereits eingegangen. In diesem Abschnitt wird die zeitliche Verankerung der Evaluation thematisiert. H&#228;ufig findet die Evaluation am Ende einer Lehrveranstaltung, eines Kurses&#47;Moduls oder eines Semesters&#47;Studienabschnitts statt. W&#228;hrend die Lehrenden auf diese Weise den besten &#220;berblick &#252;ber die Qualit&#228;t der Lehre erhalten k&#246;nnen, kann dieser Zeitpunkt sich auf die Motivation der Studierenden negativ auswirken, da diese die Konsequenzen aus der Evaluation selbst nicht mehr erleben. Des Weiteren kann sich eine Datensammlung am Ende des Semesters durch den in vielen F&#228;llen zu gro&#223;en zeitlichen Abstand zwischen Erhebung und Gegenstand der Evaluierung negativ auf die Kriteriumsvalidit&#228;t der Messung auswirken. Daher werden an einigen Standorten bereits zur Kursmitte Evaluationen abgehalten, um noch im laufenden Semester nachsteuern zu k&#246;nnen. Zu viele Datenerhebungen in kurzer Folge k&#246;nnen bei den Studierenden jedoch zu einer &#8220;Evaluationsm&#252;digkeit&#8221; f&#252;hren, was sich negativ auf den R&#252;cklauf auswirken kann. Daher wurden auch Methoden entwickelt, die es erm&#246;glichen, bereits aus R&#252;ckmeldungen eines kleinen Teils der Studierenden-Kohorte verallgemeinerbare R&#252;ckschl&#252;sse zu ziehen. Diese Methode wurde zun&#228;chst nur f&#252;r Zufriedenheits-Bewertungen untersucht <TextLink reference="27"></TextLink>, <TextLink reference="28"></TextLink>. Eine aktuelle Arbeit belegt aber, dass eine reliable Absch&#228;tzung des studentischen Lernerfolgs auch dann m&#246;glich ist, wenn nur ca. 20-30&#37; der Studierenden einer Kohorte an der Evaluation teilnehmen <TextLink reference="29"></TextLink>.</Pgraph><Pgraph>Eine Besonderheit des Medizinstudiums ist, dass &#8211; insbesondere in klinisch gepr&#228;gten Veranstaltungen &#8211; h&#228;ufig nicht eine einzige Lehrperson alle Veranstaltungen eines Kurses leitet, sondern zahlreiche Personen in die Lehre kleinerer Studierendengruppen involviert sind. Diesem</Pgraph><Pgraph>Umstand muss bei der Evaluation der individuellen Lehrleistung Rechnung getragen werden, z.B. indem den Studierenden erm&#246;glicht wird, die f&#252;r sie zust&#228;ndigen Lehrenden zeitnah und individuell zu bewerten.</Pgraph><Pgraph>Um St&#246;rungen der Bewertungen der Lehre durch Unzufriedenheit mit der eigenen Pr&#252;fungsleistung auszuschlie&#223;en, sollte eine Evaluation der Lehre vor Ablegen der Pr&#252;fung erfolgen &#8211; wenngleich das in der Realit&#228;t oft nur schwer umzusetzen ist. Falls auch die Pr&#252;fung als solche einer Evaluation durch Studierende unterzogen werden soll, ist hierf&#252;r eine gesonderte Datenerhebung einzuplanen.</Pgraph><Pgraph>Der Workflow zur Durchf&#252;hrung einer Evaluation innerhalb einer Fakult&#228;t geh&#246;rt zwar ebenso wie die Konsequenzen aus ihren Ergebnissen im weitesten Sinne ebenfalls zur Implementierung; aufgrund der gro&#223;en Bedeutung dieser Aspekte sind ihnen aber eigene Kapitel gewidmet.</Pgraph><SubHeadline>4. Auswertung und Darstellung der Ergebnisse</SubHeadline><Pgraph>Bei der Wahl eines geeigneten Formates f&#252;r die Darstellung der Evaluationsergebnisse sind ebenfalls verschiedene Aspekte zu beachten:</Pgraph><Pgraph>Der&#47;die Adressat&#42;innen sollten in der Lage sein, anhand der Darstellung die Stichprobengr&#246;&#223;e, den R&#252;cklauf, die Art der Verteilung und eventuelle Boden- und Deckeneffekte zu erkennen. </Pgraph><Pgraph>Inferenzstatistische Analysen sollten nur vorgenommen werden, wenn hierf&#252;r eine begr&#252;ndete Fragestellung vorliegt. In diesem Fall sollte das Verfahren benannt werden.</Pgraph><Pgraph>Au&#223;erhalb wissenschaftlicher Studien sollte angemerkt werden, dass es sich um explorative Analysen handelt.</Pgraph><SubHeadline>Workflow: Datenschutz und Zust&#228;ndigkeiten</SubHeadline><Pgraph>Die Sicherstellung der Lehrqualit&#228;t ist eine zentrale Aufgabe des Studiendekanats. Daher sollte das Studiendekanat die personelle und technische Expertise vorhalten, um Evaluationen professionell durchzuf&#252;hren und die Ergebnisse innerhalb der Fakult&#228;t kommunizieren zu k&#246;nnen. Dies umfasst zum einen technische Aspekte der Datensammlung und -aufbereitung, zum anderen aber vor allem die Kompetenz, Evaluationsziele zu beschreiben und vor dem Hintergrund der Kenntnis der aktuellen Literatur kongruente Instrumente auszuw&#228;hlen.</Pgraph><Pgraph>Dezentrale Aktivit&#228;ten k&#246;nnen sinnvoll sein (insbesondere zur Evaluation von Lehrinnovationen in umschriebenen Bereichen). Hier ist aber in besonderem Ma&#223;e der Datenschutz zu beachten, wenn beispielsweise die Leistung einzelner Lehrender bewertet werden soll. Insofern &#8211; wie z.B. in diesem Fall sehr wahrscheinlich &#8211; eine Notwendigkeit zur Befassung der jeweiligen Datenschutzkommission besteht, m&#252;ssen die entsprechenden Fristverl&#228;ufe beachtet werden. Die Verantwortung f&#252;r den Umgang mit Evaluationsdaten liegt entweder bei dem&#47;der (Studien-)Dekan&#42;in oder bei einer Person, die in der jeweiligen Evaluationsordnung benannt ist. Umgekehrt muss auch sichergestellt werden, dass die Personen, die sich an einer Evaluation beteiligen, anonym bleiben. F&#252;r die Erhebung von pers&#246;nlichen Daten in einem Evaluationsvorhaben ist unter Umst&#228;nden eine Einwilligung der Beteiligten n&#246;tig. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Consequences from evaluation results">
      <MainHeadline>Consequences from evaluation results</MainHeadline><Pgraph>An overarching goal of teaching evaluation is to identify strengths and weaknesses and &#8211; based on this analysis &#8211; to continuously improve teaching. The consequences of the evaluation results must be based on the previously defined goals. Accordingly, they can refer to teaching-related structures and processes, teaching staff and&#47;or the teaching outcomes. </Pgraph><Pgraph><UnorderedList><ListItem level="1">Consequences for the structural dimension of teaching: If evaluation reveals evidence of sub-optimal teaching conditions (rooms, accessibility of digital resources, etc.), improvements must be pursued. The structural conditions of teaching also indirectly include financial resources. However, the derivation of financial consequences of evaluations is heavily debated <TextLink reference="18"></TextLink> and requires that a quality-assured evaluation instrument is used and that there is comparability between different courses.</ListItem><ListItem level="1">Consequences for the procedural dimension of teaching: Depending on which optimisation needs arise from the data, measures could be taken with the aim of improving the learning climate, optimising the implementation of instructional formats or supporting learning processes in other ways (e.g. digitally).</ListItem><ListItem level="1">Consequences for the personal dimension of teaching (teaching staff): At many medical schools (82&#37;), feedback discussions are held with teaching staff based on evaluation data <TextLink reference="24"></TextLink>. In the context of a personal evaluation, the data can result in direct individual consequences such as the referral to faculty development courses. If teaching is to be given adequate weight in academic careers, promotion to a reader position can be made dependent on the results of multiple teaching evaluations by various actors (e.g. students, experts in medical education, colleagues as critical friends).</ListItem><ListItem level="1">Consequences with regard to teaching outcomes: If the evaluation shows that the desired learning objectives are not being achieved, this should have comprehensive consequences for the constructive alignment within the relevant course (i.e. are the learning objectives appropriate&#47;are the teaching methods adequate&#47;do the exams represent the content in an appropriate format etc.).</ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Konsequenzen aus Evaluationsergebnissen">
      <MainHeadline>Konsequenzen aus Evaluationsergebnissen</MainHeadline><Pgraph>Ein &#252;bergeordnetes Ziel der Evaluation der Lehre ist die Identifikation von St&#228;rken und Schw&#228;chen und &#8211; basierend auf dieser Analyse &#8211; die kontinuierliche Verbesserung der Lehre. Die Konsequenzen aus den Evaluationsergebnissen m&#252;ssen sich an den zuvor festgelegten Zielen orientieren. Sie k&#246;nnen sich entsprechend auf die lehrbezogenen Strukturen und Prozesse, die lehrenden Personen und&#47;oder auf das Lehrergebnis beziehen: </Pgraph><Pgraph><UnorderedList><ListItem level="1">Konsequenzen f&#252;r die strukturelle Dimension der Lehre: Wenn sich aus der Evaluation Hinweise auf suboptimale Lehrbedingungen (R&#228;ume, Zug&#228;nglichkeit digitaler Angebote etc.) ergeben, m&#252;ssen hier Verbesserungen angestrebt werden. Zu den strukturellen Bedingungen der Lehre geh&#246;rt indirekt auch die finanzielle Ausstattung. Die Ableitung von Konsequenzen auf die leistungsorientierte Mittelvergabe wird jedoch kritisch diskutiert <TextLink reference="18"></TextLink> und setzt zwingend voraus, dass ein qualit&#228;tsgesichertes Evaluationsinstrument eingesetzt wird und eine Vergleichbarkeit zwischen unterschiedlichen Kursen besteht.</ListItem><ListItem level="1">Konsequenzen f&#252;r die prozedurale Dimension der Lehre: Je nachdem, welche Optimierungsbedarfe sich aus den Daten ergeben, k&#246;nnten Ma&#223;nahmen ergriffen werden, die das Ziel verfolgen, das Lernklima zu verbessern, die Umsetzung didaktischer Formate zu optimieren oder Lernprozesse anderweitig (z.B. digital) zu unterst&#252;tzen.</ListItem><ListItem level="1">Konsequenzen f&#252;r pers&#246;nliche Dimension der Lehre (Lehrpersonen): An vielen Standorten (82&#37;) werden auf der Grundlage von Evaluationsdaten Feedbackgespr&#228;che mit den Lehrenden gef&#252;hrt <TextLink reference="24"></TextLink>. Im Kontext einer personenbezogenen Evaluation k&#246;nnen sich aus den Daten direkte individuelle Konsequenzen wie das Angebot einer weitergehenden didaktischen Schulung ergeben. Wenn der Lehre im Rahmen der Erlangung der Venia legendi ein ad&#228;quates Gewicht gegeben werden soll, kann der Verlauf des Habilitationsverfahrens von den Ergebnissen mehrzeitiger Lehrevaluationen durch verschiedene Akteur&#42;innen (z.B. Studierende, Expert&#42;innen f&#252;r Medizindidaktik, Kolleg&#42;innen im Sinne von critical friends) abh&#228;ngig gemacht werden.</ListItem><ListItem level="1">Konsequenzen f&#252;r die Ergebnis-Dimension der Lehre (messbares Resultat): Wenn die Evaluation zeigt, dass die angestrebten Lernziele nicht erreicht wurden, sollte dies umfassende Konsequenzen f&#252;r das &#8222;constructive alignment&#8220; innerhalb des betreffenden Kurses haben (d.h. sind die Lernziele angemessen&#47;sind die Lehrmethoden ad&#228;quat&#47;bilden die Pr&#252;fungen die Inhalte in einem dazu passenden Format ab etc.).</ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Recommendations">
      <MainHeadline>Recommendations</MainHeadline><Pgraph><UnorderedList><ListItem level="1">The assessment of teaching quality should be based on reliable data. The Committee therefore recommends that when designing and implementing teaching-related evaluations, particular emphasis should be placed on pairing the desired goals with the right data collection instruments. </ListItem><ListItem level="1">In order to enable cross-location and cross-disciplinary comparisons, validated evaluation instruments should be used whenever possible. Published evaluation instruments that take into account specific aspects of medical education and related courses (e.g. patient-centered teaching formats) are available and should be used accordingly <TextLink reference="13"></TextLink>, <TextLink reference="15"></TextLink>.  </ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Empfehlungen">
      <MainHeadline>Empfehlungen</MainHeadline><Pgraph><UnorderedList><ListItem level="1">Die Bewertung der Lehrqualit&#228;t sollte sich auf belastbare Daten st&#252;tzen. Der Ausschuss empfiehlt daher, bei der Konzeption und Implementierung lehrbezogener Evaluationen besonderen Wert auf die Kongruenz zwischen angestrebten Zielen und eingesetzten Instrumenten zur Datenerhebung zu achten. </ListItem><ListItem level="1">Um standort- und f&#228;cher&#252;bergreifende Vergleiche zu erm&#246;glichen, sollten die Evaluationsinstrumente nach M&#246;glichkeit validiert sein. Publizierte Evaluationsinstrumente, die Spezifika des Medizinstudiums und verwandter Studieng&#228;nge (z.B. patient&#42;innenzentrierte Lehrformate) ber&#252;cksichtigen, sind verf&#252;gbar und sollten entsprechend zum Einsatz kommen <TextLink reference="13"></TextLink>, <TextLink reference="15"></TextLink>.  </ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Note">
      <MainHeadline>Note</MainHeadline><Pgraph>The position paper was acepted by the GMA executive board at 24-01-2024.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Anmerkung">
      <MainHeadline>Anmerkung</MainHeadline><Pgraph>Das Positionspapier wurde dem GMA-Vorstand vorgelegt von diesem am 24.01.2024 verabschiedet.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Authors&#8217; ORCIDS">
      <MainHeadline>Authors&#8217; ORCIDS</MainHeadline><Pgraph><UnorderedList><ListItem level="1">Nicolas Haverkamp: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0001-7814-8425">0000-0001-7814-8425</Hyperlink>&#93;</ListItem><ListItem level="1">Janina Barth: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-1905-1257">0000-0003-1905-1257</Hyperlink>&#93;</ListItem><ListItem level="1">Uta Dahmen: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-3483-3388">0000-0003-3483-3388</Hyperlink>&#93;</ListItem><ListItem level="1">Tobias Raupach: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-2555-8097">0000-0003-2555-8097</Hyperlink>&#93;</ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="ORCIDs der Autor&#42;innen">
      <MainHeadline>ORCIDs der Autor&#42;innen</MainHeadline><Pgraph><UnorderedList><ListItem level="1">Nicolas Haverkamp: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0001-7814-8425">0000-0001-7814-8425</Hyperlink>&#93;</ListItem><ListItem level="1">Janina Barth: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-1905-1257">0000-0003-1905-1257</Hyperlink>&#93;</ListItem><ListItem level="1">Uta Dahmen: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-3483-3388">0000-0003-3483-3388</Hyperlink>&#93;</ListItem><ListItem level="1">Tobias Raupach: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-2555-8097">0000-0003-2555-8097</Hyperlink>&#93;</ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Competing interests">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autor&#42;innen erkl&#228;ren, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="2">
        <RefAuthor>Gibson KA</RefAuthor>
        <RefAuthor>Boyle P</RefAuthor>
        <RefAuthor>Black DA</RefAuthor>
        <RefAuthor>Cunningham M</RefAuthor>
        <RefAuthor>Grimm MC</RefAuthor>
        <RefAuthor>McNeil HP</RefAuthor>
        <RefTitle>Enhancing Evaluation in an Undergraduate Medical Education Program</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>787-793</RefPage>
        <RefTotal>Gibson KA, Boyle P, Black DA, Cunningham M, Grimm MC, McNeil HP. Enhancing Evaluation in an Undergraduate Medical Education Program. Acad Med. 2008;83(8):787-793. DOI: 10.1097&#47;ACM.1090b</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;ACM.1090b</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Berk RA</RefAuthor>
        <RefTitle>Top five flashpoints in the assessment of teaching effectiveness</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>15-26</RefPage>
        <RefTotal>Berk RA. Top five flashpoints in the assessment of teaching effectiveness. Med Teach. 2013;35(1):15-26. DOI: 10.3109&#47;0142159X.2012.732247</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2012.732247</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Gesellschaft f&#252;r Evaluation (DeGEval)</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2016</RefYear>
        <RefBookTitle>Standards f&#252;r Evaluation</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Gesellschaft f&#252;r Evaluation (DeGEval). Standards f&#252;r Evaluation. Mainz: DeGEval &#8211; Gesellschaft f&#252;r Evaluation e.V.; 2016. Zug&#228;nglich unter&#47;available from: https:&#47;&#47;www.degeval.org&#47;degeval-standards&#47;standards-fuer-evaluation&#47;</RefTotal>
        <RefLink>https:&#47;&#47;www.degeval.org&#47;degeval-standards&#47;standards-fuer-evaluation&#47;</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Schiekirka-Schwake S</RefAuthor>
        <RefAuthor>Anders S</RefAuthor>
        <RefAuthor>von Steinbuchel N</RefAuthor>
        <RefAuthor>Becker JC</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefTitle>Facilitators of high-quality teaching in medical school: findings from a nation-wide survey among clinical teachers</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>178</RefPage>
        <RefTotal>Schiekirka-Schwake S, Anders S, von Steinbuchel N, Becker JC, Raupach T. Facilitators of high-quality teaching in medical school: findings from a nation-wide survey among clinical teachers. BMC Med Educ. 2017;17(1):178. DOI: 10.1186&#47;s12909-017-1000-6</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;s12909-017-1000-6</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Kirkpatrick DL</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1994</RefYear>
        <RefBookTitle>Evaluating training programs: The four levels</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Kirkpatrick DL. Evaluating training programs: The four levels. San Francisco: Berrett-Koehler; 1994.</RefTotal>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Rindermann H</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2001</RefYear>
        <RefBookTitle>Lehrevaluation: Einf&#252;hrung und &#220;berblick zu Forschung und Praxis der Lehrveranstaltungsevaluation an Hochschulen mit einem Beitrag zur Evaluation computerbasierten Unterrichts</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Rindermann H. Lehrevaluation: Einf&#252;hrung und &#220;berblick zu Forschung und Praxis der Lehrveranstaltungsevaluation an Hochschulen mit einem Beitrag zur Evaluation computerbasierten Unterrichts. Landau: Empirische P&#228;dagogik e.V.; 2001.</RefTotal>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Litzelman DK</RefAuthor>
        <RefAuthor>Stratos GA</RefAuthor>
        <RefAuthor>Marriott DJ</RefAuthor>
        <RefAuthor>Skeff KM</RefAuthor>
        <RefTitle>Factorial validation of a widely disseminated educational framework for evaluating clinical teachers</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>688-695</RefPage>
        <RefTotal>Litzelman DK, Stratos GA, Marriott DJ, Skeff KM. Factorial validation of a widely disseminated educational framework for evaluating clinical teachers. Acad Med. 1998;73(6):688-695. DOI: 10.1097&#47;00001888-199806000-00016</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;00001888-199806000-00016</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>De la Fuente J</RefAuthor>
        <RefAuthor>Sander P</RefAuthor>
        <RefAuthor>Fernando J</RefAuthor>
        <RefAuthor>Pichardo-Martinez MC</RefAuthor>
        <RefTitle>Validation Study of the Scale for Assessment of the Teaching-Learning Process, Student Version ATLP-S</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Electron J Res Educ Psychol</RefJournal>
        <RefPage>815-840</RefPage>
        <RefTotal>De la Fuente J, Sander P, Fernando J, Pichardo-Martinez MC. Validation Study of the Scale for Assessment of the Teaching-Learning Process, Student Version ATLP-S. Electron J Res Educ Psychol. 2010;8(2):815-840. DOI: 10.25115&#47;ejrep.v8i21.1397</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.25115&#47;ejrep.v8i21.1397</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Staufenbiel T</RefAuthor>
        <RefTitle>Fragebogen zur Evaluation von universit&#228;ren Lehrveranstaltungen durch Studierende und Lehrende</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Diagnostica</RefJournal>
        <RefPage>169-181</RefPage>
        <RefTotal>Staufenbiel T. Fragebogen zur Evaluation von universit&#228;ren Lehrveranstaltungen durch Studierende und Lehrende. Diagnostica. 2000;46(4):169-181. DOI: 10.1026&#47;&#47;0012-1924.46.4.169</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1026&#47;&#47;0012-1924.46.4.169</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Roff S</RefAuthor>
        <RefAuthor>McAleer S</RefAuthor>
        <RefAuthor>Harden RM</RefAuthor>
        <RefAuthor>Al-Qahtani M</RefAuthor>
        <RefAuthor>Ahmed AU</RefAuthor>
        <RefAuthor>Deza H</RefAuthor>
        <RefAuthor>Groenen G</RefAuthor>
        <RefAuthor>Primparyon P</RefAuthor>
        <RefTitle>Development and validation of the Dundee Ready Education Environment Measure (DREEM)</RefTitle>
        <RefYear>1997</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>295-299</RefPage>
        <RefTotal>Roff S, McAleer S, Harden RM, Al-Qahtani M, Ahmed AU, Deza H, Groenen G, Primparyon P. Development and validation of the Dundee Ready Education Environment Measure (DREEM). Med Teach. 1997;19(4):295-299. DOI: 10.3109&#47;01421599709034208</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;01421599709034208</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Iblher P</RefAuthor>
        <RefAuthor>Zupanic M</RefAuthor>
        <RefAuthor>Hartel C</RefAuthor>
        <RefAuthor>Heinze H</RefAuthor>
        <RefAuthor>Schmucker P</RefAuthor>
        <RefAuthor>Fischer MR</RefAuthor>
        <RefTitle>The Questionnaire &#34;SFDP26-German&#34;: a reliable tool for evaluation of clinical teaching&#63;</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc30</RefPage>
        <RefTotal>Iblher P, Zupanic M, Hartel C, Heinze H, Schmucker P, Fischer MR. The Questionnaire &#34;SFDP26-German&#34;: a reliable tool for evaluation of clinical teaching&#63; GMS Z Med Ausbild. 2011;28(2):Doc30. DOI: 10.3205&#47;zma000742</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma000742</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Dreiling K</RefAuthor>
        <RefAuthor>Montano D</RefAuthor>
        <RefAuthor>Poinstingl H</RefAuthor>
        <RefAuthor>M&#252;ller T</RefAuthor>
        <RefAuthor>Schiekirka-Schwake S</RefAuthor>
        <RefAuthor>Anders S</RefAuthor>
        <RefAuthor>von Steinb&#252;chel N</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefTitle>Evaluation in undergraduate medical education: Conceptualizing and validating a novel questionnaire for assessing the quality of bedside teaching</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>820-827</RefPage>
        <RefTotal>Dreiling K, Montano D, Poinstingl H, M&#252;ller T, Schiekirka-Schwake S, Anders S, von Steinb&#252;chel N, Raupach T. Evaluation in undergraduate medical education: Conceptualizing and validating a novel questionnaire for assessing the quality of bedside teaching. Med Teach. 2017;39(8):820-827. DOI: 10.1080&#47;0142159X.2017.1324136</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;0142159X.2017.1324136</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Zuberi RW</RefAuthor>
        <RefAuthor>Bordage G</RefAuthor>
        <RefAuthor>Norman GR</RefAuthor>
        <RefTitle>Validation of the SETOC instrument -- Student evaluation of teaching in outpatient clinics</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Adv Health Sci Educ Theory Pract</RefJournal>
        <RefPage>55-69</RefPage>
        <RefTotal>Zuberi RW, Bordage G, Norman GR. Validation of the SETOC instrument -- Student evaluation of teaching in outpatient clinics. Adv Health Sci Educ Theory Pract. 2007;12(1):55-69. DOI: 10.1007&#47;s10459-005-2328-y</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s10459-005-2328-y</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>M&#252;ller T</RefAuthor>
        <RefAuthor>Montano D</RefAuthor>
        <RefAuthor>Poinstingl H</RefAuthor>
        <RefAuthor>Dreiling K</RefAuthor>
        <RefAuthor>Schiekirka-Schwake S</RefAuthor>
        <RefAuthor>Anders S</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefAuthor>von Steinb&#252;chel N</RefAuthor>
        <RefTitle>Evaluation of large-group lectures in medicine - development of the SETMED-L (Student Evaluation of Teaching in MEDical Lectures) questionnaire</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>137</RefPage>
        <RefTotal>M&#252;ller T, Montano D, Poinstingl H, Dreiling K, Schiekirka-Schwake S, Anders S, Raupach T, von Steinb&#252;chel N. Evaluation of large-group lectures in medicine - development of the SETMED-L (Student Evaluation of Teaching in MEDical Lectures) questionnaire. BMC Med Educ. 2017;17(1):137. DOI: 10.1186&#47;s12909-017-0970-8</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;s12909-017-0970-8</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Schiekirka S</RefAuthor>
        <RefAuthor>Reinhardt D</RefAuthor>
        <RefAuthor>Beissbarth T</RefAuthor>
        <RefAuthor>Anders S</RefAuthor>
        <RefAuthor>Pukrop T</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefTitle>Estimating learning outcomes from pre- and posttest student self-assessments: a longitudinal study</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>369-375</RefPage>
        <RefTotal>Schiekirka S, Reinhardt D, Beissbarth T, Anders S, Pukrop T, Raupach T. Estimating learning outcomes from pre- and posttest student self-assessments: a longitudinal study. Acad Med. 2013;88(3):369-375. DOI: 10.1097&#47;ACM.0b013e318280a6f6</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;ACM.0b013e318280a6f6</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Raupach T</RefAuthor>
        <RefAuthor>M&#252;nscher C</RefAuthor>
        <RefAuthor>Beissbarth T</RefAuthor>
        <RefAuthor>Burckhardt G</RefAuthor>
        <RefAuthor>Pukrop T</RefAuthor>
        <RefTitle>Towards outcome-based programme evaluation: using student comparative self-assessments to determine teaching effectiveness</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>e446-453</RefPage>
        <RefTotal>Raupach T, M&#252;nscher C, Beissbarth T, Burckhardt G, Pukrop T. Towards outcome-based programme evaluation: using student comparative self-assessments to determine teaching effectiveness. Med Teach. 2011;33(8):e446-453. DOI: 10.3109&#47;0142159X.2011.586751</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2011.586751</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Schiekirka S</RefAuthor>
        <RefAuthor>Anders S</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefTitle>Assessment of two different types of bias affecting the results of outcome-based evaluation in undergraduate medical education</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>149</RefPage>
        <RefTotal>Schiekirka S, Anders S, Raupach T. Assessment of two different types of bias affecting the results of outcome-based evaluation in undergraduate medical education. BMC Med Educ. 2014;14:149. DOI: 10.1186&#47;1472-6920-14-149</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;1472-6920-14-149</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Schiekirka S</RefAuthor>
        <RefAuthor>Feufel MA</RefAuthor>
        <RefAuthor>Herrmann-Lingen C</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefTitle>Evaluation in medical education: A topical review of target parameters, data collection tools and confounding factors</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>Ger Med Sci</RefJournal>
        <RefPage>Doc15</RefPage>
        <RefTotal>Schiekirka S, Feufel MA, Herrmann-Lingen C, Raupach T. Evaluation in medical education: A topical review of target parameters, data collection tools and confounding factors. Ger Med Sci. 2015;13:Doc15. DOI: 10.3205&#47;000219</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;000219</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Schiekirka S</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefTitle>A systematic review of factors influencing student ratings in undergraduate medical education course evaluations</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>30</RefPage>
        <RefTotal>Schiekirka S, Raupach T. A systematic review of factors influencing student ratings in undergraduate medical education course evaluations. BMC Med Educ. 2015;15:30. DOI: 10.1186&#47;s12909-015-0311-8</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;s12909-015-0311-8</RefLink>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Paolo AM</RefAuthor>
        <RefAuthor>Bonaminio GA</RefAuthor>
        <RefAuthor>Gibson C</RefAuthor>
        <RefAuthor>Patridge T</RefAuthor>
        <RefAuthor>Kallail K</RefAuthor>
        <RefTitle>Response rate comparisons of e-mail- and mail-distributed student evaluations</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Teach Learn Med</RefJournal>
        <RefPage>81-84</RefPage>
        <RefTotal>Paolo AM, Bonaminio GA, Gibson C, Patridge T, Kallail K. Response rate comparisons of e-mail- and mail-distributed student evaluations. Teach Learn Med. 2000;12(2):81-84. DOI: 10.1207&#47;S15328015TLM1202&#95;4</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1207&#47;S15328015TLM1202&#95;4</RefLink>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Adams MJ</RefAuthor>
        <RefAuthor>Umbach PD</RefAuthor>
        <RefTitle>Nonresponse and online student evaluations of teaching: Understanding the influence of salience, fatigue, and academic environments</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>Res High Educ</RefJournal>
        <RefPage>576-591</RefPage>
        <RefTotal>Adams MJ, Umbach PD. Nonresponse and online student evaluations of teaching: Understanding the influence of salience, fatigue, and academic environments. Res High Educ. 2012;53(5):576-591. DOI: 10.1007&#47;s11162-011-9240-5</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s11162-011-9240-5</RefLink>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Giesler M</RefAuthor>
        <RefAuthor>Kunz K</RefAuthor>
        <RefTitle>&#8222;Closing the Gap&#8220;: Ergebnisse einer Bestandsaufnahme zu Qualit&#228;tssicherungsma&#223;nahmen der Lehre an medizinischen Fakult&#228;ten</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>Z Evid Fortbild Qual Gesundhwes</RefJournal>
        <RefPage>51-60</RefPage>
        <RefTotal>Giesler M, Kunz K. &#8222;Closing the Gap&#8220;: Ergebnisse einer Bestandsaufnahme zu Qualit&#228;tssicherungsma&#223;nahmen der Lehre an medizinischen Fakult&#228;ten &#91;&#34;Closing the Gap&#34;: Results of a survey assessing quality assurance in medical education&#93;. Z Evid Fortbild Qual Gesundhwes. 2021;164:51-60. DOI: 10.1016&#47;j.zefq.2021.05.008</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.zefq.2021.05.008</RefLink>
      </Reference>
      <Reference refNo="24">
        <RefAuthor>Schiekirka-Schwake S</RefAuthor>
        <RefAuthor>Barth J</RefAuthor>
        <RefAuthor>Pfeilschifter J</RefAuthor>
        <RefAuthor>Hickel R</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefAuthor>Herrmann-Lingen C</RefAuthor>
        <RefTitle>National survey of evaluation practices and performance-guided resource allocation at German medical schools</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Ger Med Sci</RefJournal>
        <RefPage>Doc04</RefPage>
        <RefTotal>Schiekirka-Schwake S, Barth J, Pfeilschifter J, Hickel R, Raupach T, Herrmann-Lingen C. National survey of evaluation practices and performance-guided resource allocation at German medical schools. Ger Med Sci. 2019;17:Doc04. DOI: 10.3205&#47;000270</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;000270</RefLink>
      </Reference>
      <Reference refNo="25">
        <RefAuthor>Albanese M</RefAuthor>
        <RefAuthor>Prucha C</RefAuthor>
        <RefAuthor>Barnet JH</RefAuthor>
        <RefAuthor>Gjerde CL</RefAuthor>
        <RefTitle>The effect of right or left placement of the positive response on Likert-type scales used by medical students for rating instruction</RefTitle>
        <RefYear>1997</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>627-630</RefPage>
        <RefTotal>Albanese M, Prucha C, Barnet JH, Gjerde CL. The effect of right or left placement of the positive response on Likert-type scales used by medical students for rating instruction. Acad Med. 1997;72(7):627-630. DOI: 10.1097&#47;00001888-199707000-00015</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;00001888-199707000-00015</RefLink>
      </Reference>
      <Reference refNo="26">
        <RefAuthor>Albanese M</RefAuthor>
        <RefAuthor>Prucha C</RefAuthor>
        <RefAuthor>Barnet JH</RefAuthor>
        <RefTitle>Labeling each response option and the direction of the positive options impacts student course ratings</RefTitle>
        <RefYear>1997</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>S4-6</RefPage>
        <RefTotal>Albanese M, Prucha C, Barnet JH. Labeling each response option and the direction of the positive options impacts student course ratings. Acad Med. 1997;72(10 Suppl 1):S4-6. DOI: 10.1097&#47;00001888-199710001-00002</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;00001888-199710001-00002</RefLink>
      </Reference>
      <Reference refNo="27">
        <RefAuthor>Cohen-Schotanus J</RefAuthor>
        <RefAuthor>Schonrock-Adema J</RefAuthor>
        <RefAuthor>Schmidt HG</RefAuthor>
        <RefTitle>Quality of courses evaluated by &#39;predictions&#39; rather than opinions: Fewer respondents needed for similar results</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>851-856</RefPage>
        <RefTotal>Cohen-Schotanus J, Schonrock-Adema J, Schmidt HG. Quality of courses evaluated by &#39;predictions&#39; rather than opinions: Fewer respondents needed for similar results. Med Teach. 2010;32(10):851-856. DOI: 10.3109&#47;01421591003697465</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;01421591003697465</RefLink>
      </Reference>
      <Reference refNo="28">
        <RefAuthor>Sch&#246;nrock-Adema J</RefAuthor>
        <RefAuthor>Lubarsky S</RefAuthor>
        <RefAuthor>Chalk C</RefAuthor>
        <RefAuthor>Steinert Y</RefAuthor>
        <RefAuthor>Cohen-Schotanus J</RefAuthor>
        <RefTitle>&#39;What would my classmates say&#63;&#39; An international study of the prediction-based method of course evaluation</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>453-462</RefPage>
        <RefTotal>Sch&#246;nrock-Adema J, Lubarsky S, Chalk C, Steinert Y, Cohen-Schotanus J. &#39;What would my classmates say&#63;&#39; An international study of the prediction-based method of course evaluation. Med Educ. 2013;47(5):453-462. DOI: 10.1111&#47;medu.12126</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;medu.12126</RefLink>
      </Reference>
      <Reference refNo="29">
        <RefAuthor>Grebener BL</RefAuthor>
        <RefAuthor>Barth J</RefAuthor>
        <RefAuthor>Anders S</RefAuthor>
        <RefAuthor>Beissbarth T</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefTitle>A prediction-based method to estimate student learning outcome: Impact of response rate and gender differences on evaluation results</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>524-530</RefPage>
        <RefTotal>Grebener BL, Barth J, Anders S, Beissbarth T, Raupach T. A prediction-based method to estimate student learning outcome: Impact of response rate and gender differences on evaluation results. Med Teach. 2021;43(5):524-530. DOI: 10.1080&#47;0142159X.2020.1867714</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;0142159X.2020.1867714</RefLink>
      </Reference>
      <Reference refNo="1">
        <RefAuthor>Kern DE</RefAuthor>
        <RefAuthor>Thomas PA</RefAuthor>
        <RefAuthor>Howard DM</RefAuthor>
        <RefAuthor>Bass EB</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1998</RefYear>
        <RefBookTitle>Curriculum Development For Medical Education - A Six Step Approach</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Kern DE, Thomas PA, Howard DM, Bass EB. Curriculum Development For Medical Education - A Six Step Approach. Baltimore&#47;London: The Johns Hopkins University Press; 1998.</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>