<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>000270</Identifier>
    <IdentifierDoi>10.3205/000270</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-0002708</IdentifierUrn>
    <ArticleType language="en">Research Article</ArticleType>
    <ArticleType language="de">Originalarbeit</ArticleType>
    <TitleGroup>
      <Title language="en">National survey of evaluation practices and performance-guided resource allocation at German medical schools</Title>
      <TitleTranslated language="de">Bundesweite Erhebung zur Lehrevaluation und Leistungsorientierten Mittelvergabe in der Lehre an den medizinischen Fakult&#228;ten in Deutschland</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Schiekirka-Schwake</Lastname>
          <LastnameHeading>Schiekirka-Schwake</LastnameHeading>
          <Firstname>Sarah</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address language="en">Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Humboldtallee 38, 37073 G&#246;ttingen, Germany<Affiliation>Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Germany</Affiliation></Address>
        <Address language="de">Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Humboldtallee 38, 37073 G&#246;ttingen, Deutschland<Affiliation>Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Deutschland</Affiliation></Address>
        <Email>sarah.schiekirka-schwake&#64;med.uni-goettingen.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Barth</Lastname>
          <LastnameHeading>Barth</LastnameHeading>
          <Firstname>Janina</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address language="en">Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Germany<Affiliation>Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Germany</Affiliation></Address>
        <Address language="de">Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Deutschland<Affiliation>Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Deutschland</Affiliation></Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Pfeilschifter</Lastname>
          <LastnameHeading>Pfeilschifter</LastnameHeading>
          <Firstname>Josef</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address language="en">Pr&#228;sidium, Medizinischer Fakult&#228;tentag, Berlin, GermanyDekanat des Fachbereichs Medizin, Goethe-Universit&#228;t Frankfurt, Germany<Affiliation>Pr&#228;sidium, Medizinischer Fakult&#228;tentag, Berlin, Germany</Affiliation><Affiliation>Dekanat des Fachbereichs Medizin, Goethe-Universit&#228;t Frankfurt, Germany</Affiliation></Address>
        <Address language="de">Pr&#228;sidium, Medizinischer Fakult&#228;tentag, Berlin, Deutschland<Affiliation>Pr&#228;sidium, Medizinischer Fakult&#228;tentag, Berlin, Deutschland</Affiliation><Affiliation>Dekanat des Fachbereichs Medizin, Goethe-Universit&#228;t Frankfurt, Deutschland</Affiliation></Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Hickel</Lastname>
          <LastnameHeading>Hickel</LastnameHeading>
          <Firstname>Reinhard</Firstname>
          <Initials>R</Initials>
        </PersonNames>
        <Address language="en">Pr&#228;sidium, Medizinischer Fakult&#228;tentag, Berlin, GermanyDekanat der Medizinischen Fakult&#228;t, Ludwig-Maximilians-Universit&#228;t M&#252;nchen, Germany<Affiliation>Pr&#228;sidium, Medizinischer Fakult&#228;tentag, Berlin, Germany</Affiliation><Affiliation>Dekanat der Medizinischen Fakult&#228;t, Ludwig-Maximilians-Universit&#228;t M&#252;nchen, Germany</Affiliation></Address>
        <Address language="de">Pr&#228;sidium, Medizinischer Fakult&#228;tentag, Berlin, Deutschland<Affiliation>Pr&#228;sidium, Medizinischer Fakult&#228;tentag, Berlin, Deutschland</Affiliation><Affiliation>Dekanat der Medizinischen Fakult&#228;t, Ludwig-Maximilians-Universit&#228;t M&#252;nchen, Deutschland</Affiliation></Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Raupach</Lastname>
          <LastnameHeading>Raupach</LastnameHeading>
          <Firstname>Tobias</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address language="en">Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, GermanyKlinik f&#252;r Kardiologie und Pneumologie, Universit&#228;tsmedizin G&#246;ttingen, GermanyHealth Behaviour Research Centre, University College London, United Kingdom<Affiliation>Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Germany</Affiliation><Affiliation>Klinik f&#252;r Kardiologie und Pneumologie, Universit&#228;tsmedizin G&#246;ttingen, Germany</Affiliation><Affiliation>Health Behaviour Research Centre, University College London, United Kingdom</Affiliation></Address>
        <Address language="de">Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Deutschland<Affiliation>Studiendekanat, Universit&#228;tsmedizin G&#246;ttingen, Deutschland</Affiliation><Affiliation>Klinik f&#252;r Kardiologie und Pneumologie, Universit&#228;tsmedizin G&#246;ttingen, Deutschland</Affiliation><Affiliation>Health Behaviour Research Centre, University College London, Gro&#223;britannien</Affiliation></Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Herrmann-Lingen</Lastname>
          <LastnameHeading>Herrmann-Lingen</LastnameHeading>
          <Firstname>Christoph</Firstname>
          <Initials>C</Initials>
        </PersonNames>
        <Address language="en">Klinik f&#252;r Psychosomatische Medizin und Psychotherapie, Universit&#228;tsmedizin G&#246;ttingen, GermanyArbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V., Berlin, Germany<Affiliation>Klinik f&#252;r Psychosomatische Medizin und Psychotherapie, Universit&#228;tsmedizin G&#246;ttingen, Germany</Affiliation><Affiliation>Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V., Berlin, Germany</Affiliation></Address>
        <Address language="de">Klinik f&#252;r Psychosomatische Medizin und Psychotherapie, Universit&#228;tsmedizin G&#246;ttingen, Deutschland<Affiliation>Klinik f&#252;r Psychosomatische Medizin und Psychotherapie, Universit&#228;tsmedizin G&#246;ttingen, Deutschland</Affiliation><Affiliation>Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V., Berlin, Deutschland</Affiliation></Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">evaluation</Keyword>
      <Keyword language="en">evaluation practice</Keyword>
      <Keyword language="en">performance-based funding allocation</Keyword>
      <Keyword language="de">Evaluation</Keyword>
      <Keyword language="de">Evaluationspraxis</Keyword>
      <Keyword language="de">Leistungsorientierte Mittelvergabe</Keyword>
      <SectionHeading language="en">Medical Education</SectionHeading>
      <SectionHeading language="de">Medizinische Ausbildung</SectionHeading>
    </SubjectGroup>
    <DateReceived>20180802</DateReceived>
    <DateRevised>20190124</DateRevised>
    <DatePublishedList>
      
    <DatePublished>20190418</DatePublished><DateRepublished>20190521</DateRepublished></DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>1612-3174</ISSN>
        <Volume>17</Volume>
        <JournalTitle>GMS German Medical Science</JournalTitle>
        <JournalTitleAbbr>GMS Ger Med Sci</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>04</ArticleNo>
    <Correction><DateLastCorrection>20190521</DateLastCorrection>An authorship information was added.</Correction>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Hintergrund:</Mark1> Bislang fehlen umfassende Daten zu Evaluationspraktiken und Leistungsorientierter Mittelvergabe (LOM) in der Lehre f&#252;r die deutschen medizinischen Fakult&#228;ten. Vor diesem Hintergrund haben sich die Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V. (AWMF) und der Medizinische Fakult&#228;tentag (MFT) das gemeinsame Ziel gesetzt, die Praxis der Evaluationen und LOM in der Lehre (LOM-Lehre) an den medizinischen Fakult&#228;ten in Deutschland zu analysieren. </Pgraph><Pgraph><Mark1>Methoden:</Mark1> Die Datenerhebung erfolgte mittels Fragebogen, der an alle medizinischen Fakult&#228;ten in Deutschland gesandt wurde.</Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> An der Befragung nahmen 30 Fakult&#228;ten mit insgesamt 33 Studieng&#228;ngen teil (R&#252;cklauf: 83&#37;). Die an den Fakult&#228;ten eingesetzten Erhebungsinstrumente erfassen vorrangig strukturelle und prozedurale Aspekte sowie einen Gesamteindruck der Lehre. Zwischen den Fakult&#228;ten herrscht bez&#252;glich der verwendeten Instrumente eine recht hohe Heterogenit&#228;t. Teilweise bleibt unklar, inwiefern die Erhebungsinstrumente internationalen Qualit&#228;tsstandards gen&#252;gen. Die finanzielle Honorierung der Lehre erfolgt &#252;berwiegend im Rahmen der Grundausstattung bzw. nach Kriterien der Lehr-Quantit&#228;t. Qualit&#228;tsb<TextGroup><PlainText>as</PlainText></TextGroup>ierte Mittelzuweisung spielt eine eher untergeordnete Rolle.</Pgraph><Pgraph><Mark1>Schlussfolgerung</Mark1>: Eine m&#246;glichst bundesweite Konsentierung eines Leitbilds guter Lehre sowie die Identifikation bzw. Entwicklung valider und reliabler Erhebungsinstrumente in deutschlandweiter Zusammenarbeit scheint erstrebenswert und w&#252;rde eine Weiterentwicklung der g&#252;ltigen LOM-Lehre darstellen. </Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Background:</Mark1> Little is known about evaluation practices as well as performance-oriented allocation of resources according to teaching quality at German medical schools. For this reason, the Association of the Scientific Medical Societies in Germany and the German Association of Medical Faculties aimed to analyse current practices at German medical schools.</Pgraph><Pgraph><Mark1>Methods:</Mark1> Data were collected by a questionnaire which was sent to all medical schools in Germany.</Pgraph><Pgraph><Mark1>Results: </Mark1>30 medical schools with 33 undergraduate medical programs participated in the survey (response rate: 83&#37;). The evaluation tools used at these schools mainly assessed structural and procedural aspects of teaching and were designed to obtain overall student ratings of teaching quality. Evaluation tools were quite heterogeneous across the sample, and some uncertainty remained with regard to the psychometric properties of these tools and whether they meet international quality standards. Various algorithms underlying resource allocation for teaching are being used, but most focus on quantity rather than quality of teaching. </Pgraph><Pgraph><Mark1>Conclusion:</Mark1> A nationwide agreement on a generalizable definition of high-quality teaching is desirable. At the same time, reliable and valid tools measuring teaching quality need to be identified and&#47;or created. This could be accomplished through a wider collaboration of medical schools and could represent an advancement for the allocation of resources for high-quality teaching.</Pgraph></Abstract>
    <TextBlock language="en" linked="yes" name="Background">
      <MainHeadline>Background</MainHeadline><Pgraph>There are currently around 92,000 undergraduate medical students in Germany, dispersed among 37 medical schools. Teaching quality must meet high standards, both in terms of content <TextLink reference="1"></TextLink> and the coverage of interprofessionalism and scientificity <TextLink reference="2"></TextLink>. Owing to the purpose of national rankings, &#8220;teaching outcome&#8221; at individual medical schools is sometimes used as a surrogate marker of &#8220;teaching quality&#8221;. The second state examination only represents factual knowledge, and the aggregate exams provide but few clues to the specific strengths and weaknesses of individual curricula. Thus medical schools need other data sources to assess their teaching quality. One popular source are student evaluations of teaching. Depending on the survey instrument that is used, up to four dimensions of teaching quality can be mapped. According to Gibson et al., the structural and procedural characteristics of teaching as well as the didactic skills of the teachers and the student learning outcome are differentiated <TextLink reference="3"></TextLink>. However, many evaluation tools focus on structural and process-related parameters <TextLink reference="4"></TextLink> and only ask for student satisfaction with teaching. It is known that, particularly, global assessments by students are subject to a variety of confounding factors (e.g., individual characteristics such as gender, interest in subject, level of performance) <TextLink reference="5"></TextLink>. Such a bias of the evaluation is problematic because at some medical schools the results are discussed as the basis of a performance-based allocation of resources (<Mark2>Leistungsorientierte Mittelvergabe</Mark2>, <Mark2>LOM</Mark2>) for teaching (teaching-LOM). In research, a defined benefit allocation has become well established. Although the parameters and algorithms used in research evaluation are criticized heavily <TextLink reference="6"></TextLink>, there has been a mismatch between incentives for good research and those for good teaching. Although a large amount of money flows into the basic equipment for teaching, the quality of teaching is often not sufficiently considered in resource allocation. Therefore, the perception of many scientists is that commitment to teaching pays off less than involvement in research.</Pgraph><Pgraph>So far, there is a lack of comprehensive data for German medical schools regarding their evaluation practices and the design of LOM algorithms in teaching. Against this background, the Working Group on Evaluation of Performance in Medical Research and Teaching of the Association of Scientific Medical Societies in Germany (AWMF) and the Medical School Association (MFT) have set the common goal of analyzing current evaluation practices at medical schools in Germany. This paper shows the results of a survey conducted at these schools.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Im Studium der Humanmedizin werden an den 37 deutschen Fakult&#228;ten aktuell rund 92.000 Menschen zu k&#252;nftigen &#196;rztinnen und &#196;rzten ausgebildet. Die Qualit&#228;t des Studiums muss hohen Anspr&#252;chen gen&#252;gen: Neben der inhaltlichen Ebene <TextLink reference="1"></TextLink> sind hierbei u.a. auch Aspekte der Interprofessionalit&#228;t und der Wissenschaftlichkeit abzudecken <TextLink reference="2"></TextLink>. Das &#8222;Ergebnis&#8220; der Lehre an den medizinischen Fakult&#228;ten wird &#8211; auch zum Zweck eines nationalen Rankings &#8211; zuweilen an den studentischen Leistungen im schriftlichen Teil des Zweiten Staatsexamens abgesch&#228;tzt. Diese Pr&#252;fung bildet lediglich Faktenwissen ab und die aggregierten Examensleistungen bieten nur wenige Anhaltspunkte f&#252;r konkrete St&#228;rken und Schw&#228;chen einzelner Curricula. Somit ben&#246;tigen die Fakult&#228;ten andere Datenquellen zur Beurteilung ihrer Lehrqualit&#228;t. Hierzu werden in der Regel studentische Evaluationen durchgef&#252;hrt. Hier k&#246;nnen &#8211; je nach dem eingesetzten Erhebungsinstrument &#8211; bis zu vier Dimensionen der Lehrqualit&#228;t abgebildet werden. Nach Gibson et al. werden diesbez&#252;glich strukturelle und prozedurale Charakteristika der Lehre sowie die didaktischen Fertigkeiten der Lehrenden und der studentische Lernerfolg unterschied<TextGroup><PlainText>en </PlainText></TextGroup><TextLink reference="3"></TextLink>. Viele Evaluationsinstrumente legen ihren Fokus allerdings auf strukturelle und prozessbezogene Parameter <TextLink reference="4"></TextLink> und erfragen in erster Linie die studentische Zufriedenheit mit der Lehre. Dabei ist bekannt, dass insbesondere Global-Bewertungen durch Studierende mannigfachen St&#246;rfaktoren (z.B. individuelle Charakteristika wie Geschlecht, Interesse am Thema, Leistungsniveau) unterliegen <TextLink reference="5"></TextLink>. Eine solche Verzerrung der Evaluation ist problematisch, da die Ergebnisse an einigen Fakult&#228;ten als Grundlage einer Leistungsorientierten Mittelvergabe (LOM) f&#252;r Lehre (LOM-Lehre) diskutiert werden. In der Forschung ist eine Leistungsorientierte Mittelzuweisung mittlerweile allgemein etabliert. Obwohl die Parameter und Algorithmen der Forschungsevaluation intensiv kritisiert werden <TextLink reference="6"></TextLink>, ist ein Ungleichgewicht zwischen Anreizen f&#252;r gute Forschung und solchen f&#252;r gute Lehre entstanden. Zwar flie&#223;en gro&#223;e Summen in die Grundausstattung der Lehre, die Lehrqualit&#228;t wird bei der Ressourcen-Allokation jedoch h&#228;ufig nicht ausreichend einbezogen. Dies hat zu Folge, dass sich in der Wahrnehmung vieler WissenschaftlerInnen Engagement in der Lehre weniger auszahlt als Engagement in der Forschung. </Pgraph><Pgraph>Bislang fehlen umfassende Daten zu den Evaluationspraktiken und zur Gestaltung von LOM-Algorithmen in der Lehre f&#252;r die deutschen medizinischen Fakult&#228;ten. Vor diesem Hintergrund haben sich die Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V. (AWMF) und der Medizinische Fakult&#228;tentag (MFT) das gemeinsame Ziel gesetzt, die an den medizinischen Fakult&#228;ten in Deutschland g&#228;ngigen Evaluationspraktiken zu analysieren. In dieser Arbeit werden die Ergebnisse einer an allen medizinischen Fakult&#228;ten Deutschlands durchgef&#252;hrten Befragung vorgestellt.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Methods">
      <MainHeadline>Methods</MainHeadline><Pgraph>A standardized questionnaire was developed in a multi-stage procedure and piloted.</Pgraph><Pgraph>The questionnaire covered the following aspects of teaching evaluation and LOM awarding practice in eleven parts:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">grounding of evaluation,</ListItem><ListItem level="1" levelPosition="2" numString="2.">objects of evaluation,</ListItem><ListItem level="1" levelPosition="3" numString="3.">persons involved in the evaluation,</ListItem><ListItem level="1" levelPosition="4" numString="4.">regularity and frequency of evaluation of the curriculum,</ListItem><ListItem level="1" levelPosition="5" numString="5.">format of evaluation by students,</ListItem><ListItem level="1" levelPosition="6" numString="6.">format of the evaluation by academic teachers,</ListItem><ListItem level="1" levelPosition="7" numString="7.">content of the evaluation by students,</ListItem><ListItem level="1" levelPosition="8" numString="8.">use of objective data for quality assurance and evaluation,</ListItem><ListItem level="1" levelPosition="9" numString="9.">processing and distribution of the evaluation results,</ListItem><ListItem level="1" levelPosition="10" numString="10.">consequences of the evaluation,</ListItem><ListItem level="1" levelPosition="11" numString="11.">allocation of funds for teaching.</ListItem></OrderedList></Pgraph><Pgraph>The questionnaire mainly included yes&#47;no questions, sometimes with the possibility of supplementing free text information. Occasionally, numbers were requested, especially for the range of the evaluations, the response rates of student evaluations, and the allocation of funds by the faculties.</Pgraph><Pgraph>The questionnaire was sent in July 2013 via the office of the Medical School Association to all medical schools in Germany. Medical schools were asked for written answers from the responsible staff and for sending relevant materials. In case of non-response, a reminder was issued at the end of August, further missing data were requested by phone in November and December. The (German) questionnaire is available from the authors upon request.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Methoden">
      <MainHeadline>Methoden</MainHeadline><Pgraph>Es wurde ein standardisierter und im Vorfeld in einem mehrstufigen Verfahren pilotierter Fragebogen entwickelt.</Pgraph><Pgraph>Der Fragebogen bildete in elf Abschnitten die folgenden Aspekte der Lehrevaluation und LOM-Vergabepraxis ab:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Grundlagen der Evaluation,</ListItem><ListItem level="1" levelPosition="2" numString="2.">Gegenst&#228;nde der Evaluation,</ListItem><ListItem level="1" levelPosition="3" numString="3.">an der Evaluation beteiligte Personengruppen,</ListItem><ListItem level="1" levelPosition="4" numString="4.">Regelm&#228;&#223;igkeit und H&#228;ufigkeit der Evaluation des Kerncurriculums,</ListItem><ListItem level="1" levelPosition="5" numString="5.">Format der Evaluation durch Studierende,</ListItem><ListItem level="1" levelPosition="6" numString="6.">Format der Evaluation durch Dozenten,</ListItem><ListItem level="1" levelPosition="7" numString="7.">inhaltliche Aspekte der Evaluation durch Studiere<TextGroup><PlainText>nde</PlainText></TextGroup>,</ListItem><ListItem level="1" levelPosition="8" numString="8.">Nutzung objektiver Daten zu Qualit&#228;tssicherung und Evaluation,</ListItem><ListItem level="1" levelPosition="9" numString="9.">Aufbereitung und Verbreitung der Evaluationsergebnisse,</ListItem><ListItem level="1" levelPosition="10" numString="10.">Konsequenzen der Evaluation,</ListItem><ListItem level="1" levelPosition="11" numString="11.">Mittelvergabe f&#252;r die Lehre.</ListItem></OrderedList></Pgraph><Pgraph>Der Fragebogen enthielt vor allem Ja&#47;Nein-Fragen, teilweise mit der M&#246;glichkeit zu erg&#228;nzenden Freitextangaben. Vereinzelt wurden Zahlenangaben, etwa zum Umfang der Evaluationen, den R&#252;cklaufquoten studentischer Evaluationen sowie zur Aufteilung der fakult&#228;ren Landesmittel erbeten.</Pgraph><Pgraph>Der Fragebogen wurde im Juli 2013 &#252;ber die Gesch&#228;ftsstelle des Medizinischen Fakult&#228;tentages allen medizinischen Fakult&#228;ten in Deutschland zugesandt. Die Fakult&#228;ten wurden um schriftliche Beantwortung durch die zust&#228;ndigen Mitarbeiter sowie die Zusendung relevanter Materialien gebeten. Bei Nichtbeantwortung erfolgte eine Erinnerung Ende August, weitere fehlende Daten wurden im November und Dezember telefonisch erfragt. Der Fragebogen kann bei den Autoren angefordert werden.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Results">
      <MainHeadline>Results</MainHeadline><Pgraph>30 German medical schools participated in the survey with 33 study programs (23 standard curricula, 6 model curricula, 3 reformed standard curricula, and 1 degree program in molecular medicine) (response rate 83&#37;).</Pgraph><Pgraph>The results are presented below according to the above-mentioned sections of the questionnaire.</Pgraph><SubHeadline>Grounding of evaluation</SubHeadline><Pgraph>Only 21&#37; of all study programs had a dedicated evaluation system. The majority relied on evaluation regulations of the respective university or on corresponding decisions of the departmental council. The majority (85&#37;) cited their evaluation practice as &#8220;grown by experience&#8221;, and 75&#37; think that it is scientifically justified. Regarding the data source, 40&#37; referred to external and 36&#37; to internal survey instruments. In addition, points such as relevant knowledge in methodology research or evaluation standards as defined by various groups (e.g., the German Evaluation Society (<Mark2>DeGEVal</Mark2>), the working group on evaluation, and the training committee) were mentioned. </Pgraph><SubHeadline>Objects of the evaluation and involved groups of people</SubHeadline><Pgraph>Most frequently, subjects (70&#37;), individual courses (67&#37;), and study sections (64&#37;) are evaluated. In particular, the internship (PJ) is relevant to evaluation for 85&#37; of the programs. Also, teachers are evaluated in three out of four medical schools. About half of the medical schools evaluate examinations (quality and results) and graduates. All degree programs use student evaluations, 45<TextGroup><PlainText>&#37; involved</PlainText></TextGroup> teachers and 20&#8211;25&#37; internal panels, but also external reviewers.</Pgraph><SubHeadline>Regularity and frequency of evaluation in the core curriculum</SubHeadline><Pgraph>In less than 50&#37; of the study programs, a comprehensive evaluation of all types of events and groups of persons takes place. Only courses in special medical disciplines or cross-sectional areas are consistently evaluated by about two thirds of medical schools; individual segments of the curriculum (e.g., preclinical, clinical, practical internship) in 42&#37;; and teachers (27&#37; to 36&#37;) as well as examinations (33&#37;) in about one third.</Pgraph><SubHeadline>Format of evaluations by students and academic teachers</SubHeadline><Pgraph>Nearly all study programs (97&#37;) use online formats for student evaluations, and about 50&#37; (additionally) utilize paper-based formats for evaluations. The majority (94&#37;) are evaluated outside of course times, mainly before or after the final exam. However during ongoing courses, evaluations take place in about 46&#37;. The number of questions in the questionnaire varies greatly (1 to 14<TextGroup><PlainText>0 items</PlainText></TextGroup>). Ordinal or interval-scaled items (e.g., grades, percentages) and free-text comments are most commonly used, as well as dichotomous, open and multiple choice questions. </Pgraph><Pgraph>The reported response rates of student evaluations <TextGroup><PlainText>average</PlainText></TextGroup> approximately 60&#37;. Incentives for increased r<TextGroup><PlainText>et</PlainText></TextGroup>urns, such as transparency (18&#37;) and student bonus schemes (33&#37;), as well as coercion and negative consequences, are only sporadically described as helpful. Other forms of evaluation include debriefing (54&#37;) and reports from semester spokespersons (48&#37;). Interviews (15&#37;) and focus groups (21&#37;) are less frequently used.</Pgraph><Pgraph>In the course evaluation by academic teachers, the majority (80&#37;) choose a structured approach.</Pgraph><Pgraph>In 40&#37; of the cases all teachers are evaluated; in 20&#37; a selection of teachers are evaluated by committees.</Pgraph><SubHeadline>Content of the evaluation by students</SubHeadline><Pgraph>Using student evaluations, structural and process parameters as well as the overall impression of the teaching is captured. The subjective relevance of the educational content for examinations and practice, the content structure and overall satisfaction with educational events or overall grades are most frequently rated by students (&#62;80&#37;). For further details see Table 1 <ImgLink imgNo="1" imgType="table"/>.</Pgraph><SubHeadline>Use of objective data for quality assurance and evaluation</SubHeadline><Pgraph>94&#37; of medical schools use objective data for internal or external quality assurance of teaching. Particularly frequently (&#62;80&#37;) the second state examination (pass rate in the reference cohort, failure rate) was named, followed by average study duration, average score in the second state examination and number of graduates (7<TextGroup><PlainText>9&#37; each</PlainText></TextGroup>), passing of the first state examination, and further qualifications of the teachers (76&#37; each).</Pgraph><Pgraph>Ratio of support, number and quality of doctorates, research projects or publications on teaching, as well as average scores and subject-specific evaluations in the first state examination are less relevant parameters for quality assurance (50&#8211;70&#37;).</Pgraph><SubHeadline>Processing and distribution of the evaluation results</SubHeadline><Pgraph>The results of the evaluation are mostly written as reports and regularly stored electronically in a protected area. Usually, deans&#8217; offices (79&#37;) and professors responsible for issuing certificates (76&#37;) are actively informed about the results, often also teaching coordinators (67&#37;), individual academic teachers (61&#37;), and students (64&#37;). <TextGroup><PlainText>An active</PlainText></TextGroup> communication of results takes place in more than 40&#37;; and in almost 10&#37; of all cases, the (external) public is actively informed.</Pgraph><SubHeadline>Consequences of the evaluation</SubHeadline><Pgraph>In two out of three faculties, teaching quality is rated according to fixed criteria&#47;categories; in 82&#37;, courses and academic teachers are also assessed in relation to each other. Mostly (82&#37;) there are feedback talks with academic teachers, less frequently feedback on teaching content in cross-sectional areas (73&#37;), medical subjects (61&#37;), and modules (55&#37;). In addition, just under 80&#37; (79&#37;) of the degree programs have provided consequences for particularly positive but also particularly negative evaluation results. For positive results, the main reported consequence (54&#37;) is reward by teaching-LOM. Only o<TextGroup><PlainText>ccasio</PlainText></TextGroup>nally, awards for the best lecturer or a bonus <TextGroup><PlainText>for promotions</PlainText></TextGroup> were mentioned. In contrast, 73&#37; of study programs provide training and support for teachers with particularly negative outcomes, followed by face-to-face interviews (45&#37;) and negative effects on tea<TextGroup><PlainText>chin</PlainText></TextGroup>g-LO<TextGroup><PlainText>M (2</PlainText></TextGroup>1&#37;).</Pgraph><SubHeadline>Allocation of funds for teaching </SubHeadline><Pgraph>Seventeen medical schools answered the questions about their internal distribution of resources. These data are shown in Figure 1 <ImgLink imgNo="1" imgType="figure"/>. It becomes clear here that the three most important items represent the general basic supply of the Chairs as well as the curricular basic equipment and the evaluation-based research LOM. In contrast, evaluation-based funds for teaching play a minor role, <TextGroup><PlainText>as well</PlainText></TextGroup> as application-based research and teaching <TextGroup><PlainText>support</PlainText></TextGroup>. With an average of 1.6&#37; (minimum 0&#37;, media<TextGroup><PlainText>n 3</PlainText></TextGroup>&#37;, maximum 6&#37;), the evaluation-based teaching-LOM tends to account for a small part of the state funds.</Pgraph><Pgraph>In 60&#37;, the teaching-LOM follows a fixed algorithm. Wi<TextGroup><PlainText>th ju</PlainText></TextGroup>st under 70&#37;, it benefits clinics and institutes in particular, much less complete modules (15&#37;) or individuals (21&#37;).</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Ergebnisse">
      <MainHeadline>Ergebnisse</MainHeadline><Pgraph>An der Befragung nahmen 30 deutsche medizinische Fakult&#228;ten mit insgesamt 33 Studieng&#228;ngen (23 Regelstudieng&#228;nge, 6 Modellstudieng&#228;nge, 3 reformierte Regelstudieng&#228;nge, und 1 Studiengang f&#252;r Molekulare Medizin) teil (R&#252;cklaufquote 83&#37;).</Pgraph><Pgraph>Die Ergebnisse werden im Folgenden orientiert an den Abschnitten des Fragebogens dargestellt.</Pgraph><SubHeadline>Grundlagen der Evaluation</SubHeadline><Pgraph>Lediglich 21&#37; der Studieng&#228;nge verf&#252;gten &#252;ber eine fakult&#228;tseigene Evaluationsordnung. Die Mehrzahl berief sich auf die Evaluationsordnung der jeweiligen Universit&#228;t bzw. auf entsprechende Fachbereichsratsbeschl&#252;sse. Der Gro&#223;teil (85&#37;) gibt seine Evaluationspraxis als &#8222;durch Erfahrung gewachsen&#8220; an, bei 75&#37; ist diese auch wissenschaftlich begr&#252;ndet. Als Quelle verweisen 40&#37; auf externe und 36&#37; auf interne Erhebungsinstrumente. Des Weiteren werden vereinzelt Punkte wie einschl&#228;gige Kenntnisse in der Methodenforschung oder Standards f&#252;r Evaluation der Gesellschaft f&#252;r Evaluation e.V. (D<TextGroup><PlainText>eGEVa</PlainText></TextGroup>l), der AG Evaluation und der Ausbildungskommission genannt. </Pgraph><SubHeadline>Gegenst&#228;nde der Evaluation und beteiligte Personengruppen</SubHeadline><Pgraph>Haupts&#228;chlich werden F&#228;cher (70&#37;), Einzelveranstaltungen (67&#37;) und Studienabschnitte (64&#37;) evaluiert. Insbesondere das Praktische Jahr (PJ) ist f&#252;r 85&#37; der Studieng&#228;nge evaluationsrelevant. Auch Lehrende werden an drei Vierteln der Fakult&#228;ten evaluiert. F&#252;r Pr&#252;fungen (Qualit&#228;t und Ergebnisse) und AbsolventInnen erfolgt in etwa der H&#228;lfte der Fakult&#228;ten eine Evaluation. Alle Studieng&#228;nge nutzen studentische Evaluationen, 45&#37; beziehen Lehrende mit ein und 20&#8211;25&#37; interne Gremien jedoch auch externe GutachterInnen.</Pgraph><SubHeadline>Regelm&#228;&#223;igkeit und H&#228;ufigkeit der Evaluation im Kerncurriculum</SubHeadline><Pgraph>In weniger als 50&#37; der Studieng&#228;nge erfolgt eine fl&#228;chendeckende Evaluation aller Veranstaltungstypen und Personengruppen. Lediglich F&#228;cher bzw. Querschnittsbereiche werden von etwa zwei Dritteln der Fakult&#228;ten durchg&#228;ngig evaluiert, einzelne Studienabschnitte von 42&#37;, und Lehrende (27&#37; bis 36&#37;) sowie Pr&#252;fungen (33&#37;) von ca. einem Drittel.  </Pgraph><SubHeadline>Format der Evaluationen </SubHeadline><Pgraph>Nahezu alle Studieng&#228;nge (97&#37;) nutzen bei studentischen Evaluationen Online-Formate, etwa 50&#37; evaluieren (zus&#228;tzlich) papierbasiert. Mehrheitlich (94&#37;) wird au&#223;erhalb von Lehrveranstaltungen, vorwiegend vor oder nach der Abschlussklausur, evaluiert. Aber auch w&#228;hrend laufender Veranstaltungen finden in ca. 46&#37; der Studieng&#228;nge Evaluationen statt. Die Fragenanzahl im Fragebogen variiert stark (1 bis 140 Items). Am h&#228;ufigsten kommen ordinal- bzw. intervallskalierte Items (z.B. Schulnoten, <TextGroup><PlainText>&#37;-Angaben</PlainText></TextGroup>) sowie Freitextkommentare zum Einsatz. Auch werden dichotome, offene und Mehrfachantwort-Fragen verwendet.</Pgraph><Pgraph>Die R&#252;cklaufquoten studentischer Evaluationen wurden im Mittel mit ungef&#228;hr 60&#37; angegeben. Anreize f&#252;r einen erh&#246;hten R&#252;cklauf wie Transparenz (18&#37;) und Bonussy<TextGroup><PlainText>ste</PlainText></TextGroup>me f&#252;r Studierende (33&#37;) werden ebenso wie Zwang und negative Konsequenzen nur vereinzelt als hilfreich beschrieben. Als weitere Evaluationsformen wurden Nachbesprechungen (54&#37;) und Berichte von SemestersprecherInnen (48&#37;) genannt. Interviews (15&#37;) und F<TextGroup><PlainText>oku</PlainText></TextGroup>sgruppen (21&#37;) kommen seltener zum Einsatz.</Pgraph><Pgraph>Bei der Lehrveranstaltungsevaluation durch Dozierende wird in der Mehrzahl (80&#37;) ein strukturiertes Vorgehen gew&#228;hlt. In 40&#37; der F&#228;lle evaluieren alle Lehrenden, <TextGroup><PlainText>in 2</PlainText></TextGroup>0&#37; eine Auswahl von Lehrenden in Kommissionen.</Pgraph><SubHeadline>Inhaltliche Aspekte der Evaluation durch Studierende</SubHeadline><Pgraph>Mittels studentischer Evaluationen werden vor allem Struktur- und Prozessparameter sowie der Gesamteindruck der Lehre erfasst. Besonders hoch (&#62;80&#37;) sch&#228;tzen Studierende subjektiv die Pr&#252;fungs- und Praxisrelevanz der Inhalte ein, bewerten den inhaltlichen Aufbau und geben ihre globale Zufriedenheit mit der Veranstaltung an bzw. eine Gesamtnote ab. F&#252;r weitere Details siehe Tabelle 1 <ImgLink imgNo="1" imgType="table"/>.</Pgraph><SubHeadline>Nutzung objektiver Daten zur Qualit&#228;tssicherung und Evaluation</SubHeadline><Pgraph>Von 94&#37; der Fakult&#228;ten werden objektive Daten zur internen oder externen Qualit&#228;tssicherung der Lehre genutzt. Besonders h&#228;ufig (&#62;80&#37;) wurde das Zweite Staatsexamen (Bestehensquote in der Referenzkohorte, Durchfallquote) genannt, gefolgt von durchschnittlicher Studiendauer, durchschnittlicher Punktzahl im Zweiten Staatsexamen und Absolventenzahlen (je 79&#37;), Bestehen des Ersten Staatsexamens und Weiterqualifikationen der Lehrenden (je 76&#37;). </Pgraph><Pgraph>Betreuungsrelation, Zahl und Qualit&#228;t von Promotionen sowie Forschungsprojekte bzw. Publikationen zur Lehre, aber auch durchschnittliche Punktzahlen und f&#228;chersp<TextGroup><PlainText>ezifi</PlainText></TextGroup>sche Auswertungen im Ersten Staatsexamen sind weniger relevante Parameter f&#252;r die Qualit&#228;tssicherun<TextGroup><PlainText>g (5</PlainText></TextGroup>0&#8211;70&#37;)</Pgraph><SubHeadline>Aufbereitung und Verbreitung der Evaluationsergebnisse</SubHeadline><Pgraph>Die Evaluationsergebnisse werden &#252;berwiegend als schriftliche Berichte verfasst und meist elektronisch in einem gesch&#252;tzten Bereich abgelegt. In der Regel werden Dekanat (79&#37;) und Scheinverantwortliche (76&#37;) aktiv &#252;ber die Ergebnisse informiert, h&#228;ufig auch LehrkoordinatorInnen (67&#37;), einzelne Dozierende (61&#37;) und Studierende (64&#37;). Eine aktive Ergebnis-Kommunikation erfolgt in gut 40&#37;, und in knapp 10&#37; der F&#228;lle wird aktiv die (externe) &#214;ffentlichkeit informiert. </Pgraph><SubHeadline>Konsequenzen der Evaluation</SubHeadline><Pgraph>Die Bewertung der Lehrqualit&#228;t erfolgt in zwei von <TextGroup><PlainText>drei Fakult&#228;ten</PlainText></TextGroup> anhand fester Kriterien&#47;Kategorien, <TextGroup><PlainText>bei 82</PlainText></TextGroup>&#37; werden Veranstaltungen und Dozierende auch relativ zueinander bewertet. Mehrheitlich (82&#37;) werden Feedbackgespr&#228;che mit Dozierenden gef&#252;hrt, seltener wird Feedback zu Lehrinhalten an Querschnittsbereich<TextGroup><PlainText>e (73</PlainText></TextGroup>&#37;), F&#228;cher (61&#37;) und Module (55&#37;) gegeben. Zudem haben knapp 80&#37; (79&#37;) der Studieng&#228;nge Konsequenzen f&#252;r besonders positive aber auch f&#252;r besonders negative Evaluationsergebnisse vorgesehen. F&#252;r positive Ergebnisse wird vorwiegend (54&#37;) die Ber&#252;cksichtigung in der LOM-Lehre genannt und nur vereinzelt Auszeichnungen als beste Dozentin bzw. bester Dozent oder ein Bonus bei Bef&#246;rderungen erw&#228;hnt. Dagegen stehen bei 73&#37; der Studieng&#228;nge Schulungs- und Un<TextGroup><PlainText>terst&#252;tzungs</PlainText></TextGroup>angebote f&#252;r Lehrende mit besonders negativen Ergebnissen zur Verf&#252;gung, gefolgt von pers&#246;<TextGroup><PlainText>nli</PlainText></TextGroup>chen Gespr&#228;chen (45&#37;) und Effekten auf die LOM-Lehre (21&#37;).</Pgraph><SubHeadline>Mittelvergabe f&#252;r Lehre </SubHeadline><Pgraph>F&#252;r die Verteilung der Landes-Zuf&#252;hrungsbeitr&#228;ge liegen Antworten von 17 Fakult&#228;ten vor. Diese Daten sind in Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> dargestellt. Deutlich wird hier, dass die drei wichtigsten Posten die allgemeine Grundausstattung der Lehrst&#252;hle sowie die curriculare Basisausstattung und die evaluationsbasierte Forschungs-LOM darstell<TextGroup><PlainText>en. D</PlainText></TextGroup>emgegen&#252;ber spielen diese Mittel f&#252;r die Lehre ebenso eine untergeordnete Rolle wie antragsbasierte Forschungs- und Lehrf&#246;rderung. Die evaluationsbasierte LOM-Lehre bildet mit durchschnittlich 1,6&#37; (Minimum 0&#37;, Med<TextGroup><PlainText>ian 3&#37;</PlainText></TextGroup>, Maximum 6&#37;) eher einen kleinen Teil der Landesmittel ab.</Pgraph><Pgraph>Die LOM-Lehre folgt in gut 60&#37; einem festen Algorithmus. Sie kommt mit knapp 70&#37; insbesondere den Kliniken bzw. Instituten zugute, deutlich seltener kompletten Modulen (15&#37;) oder Einzelpersonen (21&#37;).</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Discussion">
      <MainHeadline>Discussion</MainHeadline><Pgraph>The results of the survey are in agreement with the current literature <TextLink reference="4"></TextLink>, in so far as evaluation instruments used in Germany primarily assess structural and procedural aspects as well as students&#8217; overall impression of teaching quality. Teaching outcome &#8211; mostly defined as students&#8217; learning success &#8211; is either assessed by student ratings of their own perceived learning outcome, or it is inferred from student performance in high-stakes examinations. A systematic evaluation of teachers is rare.</Pgraph><Pgraph>For the dimensions &#8220;process&#8221; and &#8220;teacher&#8221;, the literature review by Schiekirka et al. <TextLink reference="4"></TextLink> already identified numerous survey instruments for medical education with good to very good reliability. About one third of faculties use such instruments or use their scientific base for the development of own instruments. However, it is unclear whether the used instruments are equivalent to those already identified. Furthermore, it is uncertain how the instruments were developed, whether they were psychometrically tested and to what extent they meet established quality criteria. In 88&#37; of medical schools, global grades are used to assess teaching quality. Although these evaluations provide a rough idea of student satisfaction with teaching, they are not considered valid measures of teaching quality due to the strong bias introduced by various construct-irrelevant confounders <TextLink reference="5"></TextLink>. Data show for example that students with a high initial interest in a course generally tend to rate it more positively than those with a low interest <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>. Further studies found a positive correlation between exam performance and student ratings for an anatomy course <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>. In this context, the importance of a clear definition of the construct of good teaching underlying the evaluation should be emphasized: Only after it has been clearly defined what is meant by &#34;good teaching&#34; can one identify and use an instrument that measures precisely this construct. Conversely, the interpretation of existing evaluation data should only refer to that particular construct (e.g., structural conditions) and should not be generalized to other aspects of the quality of teaching (e.g., didactic skills of academic teachers). </Pgraph><Pgraph>However, the psychometric examination of the evaluation tools used, minimization of distorting effects, as well as the coverage of all four dimensions suggested by Gibs<TextGroup><PlainText>on </PlainText></TextGroup><TextLink reference="3"></TextLink> are urgently needed in order to be able to validly assess and optimize teaching quality.</Pgraph><Pgraph>Even when the result of teaching is inferred from seemingly objective exam data, some difficulties need to be kept in mind. In order to provide valid data, examinations need to be aligned to learning objectives and instructional methods <TextLink reference="11"></TextLink> and thereby free of construct-irreleva<TextGroup><PlainText>nt va</PlainText></TextGroup>riance <TextLink reference="12"></TextLink>, <TextLink reference="13"></TextLink>. They must also meet internation<TextGroup><PlainText>al qu</PlainText></TextGroup>ality standards <TextLink reference="14"></TextLink>, which cannot be taken for granted <TextLink reference="15"></TextLink>. </Pgraph><Pgraph>These requirements become even more important when the distribution of teaching-LOM is based on evaluation results and examinations. So far, the financial remuneration of teaching has mainly been part of the basic equipment of Chairs or has been based on teaching quantity. Quality-based funding for teaching, unlike research, plays only a minor role. Also other gratifications for high quality teaching are only occasionally given. </Pgraph><Pgraph>Due to the current heterogeneity of the evaluations, it is not possible or at least of limited value to compare the results of teaching evaluations across medical schools. Although a certain degree of comparability can be established by comparing students&#8217; results in central written exams, the validity of the data must be discussed against the background of the construct of good teaching chosen in each case. In terms of rewarding good teaching, initial data show that teachers are currently more motivated by student feedback, but they also have a positive attitude towards financial incentives <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink>. Thus, it seems to be unrewarding to exclusively emphasize financial incentives; instead, other aspects of appreciation and specific support (for example by improving the organizational conditions for teaching and career opportunities) can help to increase and sustain motivation of academic teachers <TextLink reference="18"></TextLink>. Just as good research performance leads to both immaterial or career-related and direct material appreciation, an incentive system for good teaching should be based on a broad range of rewards in order to overcome the existing imbalance.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Diskussion">
      <MainHeadline>Diskussion</MainHeadline><Pgraph>Die Ergebnisse der Fakult&#228;tenbefragung decken sich insofern mit der aktuellen Literatur <TextLink reference="4"></TextLink>, als die in Deutschland eingesetzten Erhebungsinstrumente vorrangig strukturelle und prozedurale Aspekte sowie einen Gesamteindruck der Lehre erfassen. </Pgraph><Pgraph>Das Ergebnis der Lehre &#8211; i.d.R. als Lernerfolg der Studierenden definiert &#8211; wird entweder anhand punktueller studentischer Angaben zum wahrgenommenen eigenen Lernerfolg oder anhand der Leistungen in den Staatsexamina beurteilt. Eine systematische Bewertung der Lehrenden erfolgt kaum. </Pgraph><Pgraph>F&#252;r die Dimensionen &#8222;Prozess&#8220; und &#8222;Lehrende&#8220; wurden in der Literaturrecherche von Schiekirka et al. <TextLink reference="4"></TextLink> bereits zahlreiche Erhebungsinstrumente f&#252;r die medizinische Lehre mit guter bis sehr guter Reliabilit&#228;t identifiziert.  Etwas mehr als ein Drittel der Fakult&#228;ten geben an, externe Instrumente f&#252;r die Evaluation heranzuziehen bzw. diese als wissenschaftliche Grundlage f&#252;r fakult&#228;tseigene Instrumente zu nutzen. Es bleibt jedoch unklar, ob die genutzten Instrumente sich mit den bereits identifizierten Instrumenten decken. Auch bleibt offen, ob die Instrumente spezifisch zur Erfassung der Lehre in der Medizin entwickelt wurden, ob ihnen psychometrische Testungen zugrunde liegen und inwiefern sie den g&#228;ngigen G&#252;tekriterien gen&#252;gen. Bei 88&#37; der Fakult&#228;ten werden Globalnoten zur Bewertung der Lehrqualit&#228;t herangezogen. Wenngleich diese Bewertungen einen groben Eindruck von der studentischen Zufriedenheit mit der Lehre vermitteln, sind sie aufgrund der starken Verzerrung durch verschiedene konstrukt-irrelevante St&#246;rfaktoren nicht als valide Messgr&#246;&#223;en der Lehrqualit&#228;t anzusehen <TextLink reference="5"></TextLink>. So zeigen Daten, dass Studierende mit einem gro&#223;en initialen Interesse an einer Lehrveranstaltung in der Evaluation positivere Einsch&#228;tzungen angeben als Personen mit einem geringen Interesse <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>. Weitere Studien fanden eine positive Korrelation zwischen Leistungen in der Abschlusspr&#252;fung und der Bewertung eines Anatomiekurses <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>. In diesem Zusammenhang sei auf die Bedeutung einer klaren Definition des in der Evaluation abgebildeten Konstrukts von guter Lehre hingewiesen: Nur wenn eindeutig definiert ist, was unter &#8222;guter Lehre&#8220; verstanden wird, kann ein Instrument identifiziert und eingesetzt werden, das genau dieses Konstrukt misst. Umgekehrt darf sich die Interpretation vorliegender Evaluationsdaten nur auf genau dieses Konstrukt (z.B. strukturelle Gegebenheiten) beziehen, und nicht auf andere Aspekte der Lehrqualit&#228;t (z.B. didaktisches Geschick der Dozenten) ausgeweitet werden. </Pgraph><Pgraph>Die psychometrische Untersuchung eingesetzter Evaluationsinstrumente, Minimierung verzerrender Effekte sowie die Erfassung aller vier Dimensionen nach Gibson <TextLink reference="3"></TextLink> sind jedoch dringend erforderlich, um die Lehrqualit&#228;t valide erfassen und entsprechend optimieren zu k&#246;nnen. </Pgraph><Pgraph>Auch die Erfassung des Lehrergebnisses durch scheinbar objektive Daten wie Pr&#252;fungen unterliegt Schwierigkeiten. Um valide Daten liefern zu k&#246;nnen, m&#252;ssen Pr&#252;fungen kongruent mit dem Lehrinhalt und der Lehrform <TextLink reference="11"></TextLink> und somit frei von konstrukt-irrelevanter Varianz sein <TextLink reference="12"></TextLink>, <TextLink reference="13"></TextLink> sowie internationalen Qualit&#228;tsstandards gen&#252;gen <TextLink reference="14"></TextLink>. Nicht immer ist dies gegeben <TextLink reference="15"></TextLink>. </Pgraph><Pgraph>Noch mehr Gewicht bekommen diese Voraussetzungen, wenn die Verteilung von LOM-Lehre auf Basis von Evaluationsergebnissen und Pr&#252;fungen erfolgen soll. Die finanzielle Honorierung der Lehre erfolgt bislang &#252;berwiegend im Rahmen der Grundausstattung bzw. nach Kriterien der Lehr-Quantit&#228;t. Qualit&#228;tsbasierte Mittelzuweisung f&#252;r die Lehre spielt anders als im Bereich der Forschung nur eine untergeordnete Rolle. Auch weitere Gratifikationen f&#252;r hohe Lehrqualit&#228;t kommen lediglich vereinzelt zum Einsatz. </Pgraph><Pgraph>Durch die derzeitige Heterogenit&#228;t der Evaluation ist die Vergleichbarkeit der Ergebnisse zwischen Fakult&#228;ten nicht oder nur sehr eingeschr&#228;nkt m&#246;glich. Durch eine Betrachtung schriftlicher Examensergebnisse kann zwar eine gewisse Vergleichbarkeit hergestellt werden &#8211; hier bleibt jedoch jeweils die Validit&#228;t der Daten vor dem Hintergrund des jeweils gew&#228;hlten Konstruktes guter Lehre zu diskutieren. Hinsichtlich einer Honorierung guter Lehre zeigen erste Daten, dass Lehrende derzeit ihre Motivation vorranging aus studentischem Feedback ziehen, jedoch m&#246;glichen finanziellen Anreizen positiv gegen&#252;ber stehen <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink>. So scheint es nicht zielf&#252;hrend zu sein, ausschlie&#223;lich finanzielle Anreize in den Vordergrund zu stellen, vielmehr k&#246;nnen auch weitere Aspekte der Wertsch&#228;tzung und konkrete Unterst&#252;tzung (durch z.B. Verbesserung von Rahmenbedingungen und Karrierechancen) motivationsf&#246;rdernd und -erhaltend wirken <TextLink reference="18"></TextLink>. Ebenso wie gute Forschungsleistung sowohl immaterielle und karrierebezogene als auch direkte materielle Wertsch&#228;tzung erf&#228;hrt, sollte ein Anreizsystem f&#252;r gute Lehre auf breiter Basis ansetzen, um das bislang bestehende Ungleichgewicht auszugleichen. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Conclusions">
      <MainHeadline>Conclusions</MainHeadline><Pgraph>This first systematic survey of German medical schools on the practices used for evaluating medical teaching has shown that the evaluation instruments used have similar content and methodology, and above all record structural and procedural aspects as well as students&#8217; overall impression of teaching. Yet, there is considerable heterogeneity regarding the instruments actually used. A nationwide consensus on a general construct of good medical teaching as well as the identification or development of valid and reliable evaluation instruments in a nation-wide cooperation appears sensible.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Fazit">
      <MainHeadline>Fazit</MainHeadline><Pgraph>Diese erste systematische Erhebung zu den Evaluationspraktiken in der Lehre an deutschen medizinischen Fakult&#228;ten hat gezeigt, dass die Evaluationsinstrumente inhaltlich und methodisch &#228;hnlich ausgelegt sind und vor allem strukturelle und prozedurale Aspekte sowie einen Gesamteindruck der Lehre erfassen. Bez&#252;glich der tats&#228;chlich eingesetzten Instrumente herrscht eine erhebliche Heterogenit&#228;t. Eine m&#246;glichst bundesweite Konsentierung eines Leitbilds guter medizinischer Lehre sowie die Identifikation bzw. Entwicklung valider und reliabler Erhebungsinstrumente in deutschlandweiter Zusammenarbeit scheint sinnvoll.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Notes">
      <MainHeadline>Notes</MainHeadline><SubHeadline>Competing interests</SubHeadline><Pgraph>The authors declare that they have no competing interests.</Pgraph><SubHeadline>Authorship</SubHeadline><Pgraph>The authors Raupach T and Herrmann-Lingen C contributed equally to this work.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Anmerkungen">
      <MainHeadline>Anmerkungen</MainHeadline><SubHeadline>Interessenkonflikte</SubHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte in Zusammenhang mit diesem Artikel haben.</Pgraph><SubHeadline>Autorenschaft</SubHeadline><Pgraph>Die Autoren Raupach T und Herrmann-Lingen C haben gleicherma&#223;en zu der Arbeit beigetragen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Acknowledgements">
      <MainHeadline>Acknowledgements</MainHeadline><Pgraph>We thank the AWMF for financial support, the MFT office (Dr. Corinne D&#246;lling) for logistical support, Mrs. Sabine Gluth for the completion and reporting of the survey data, the staff of the Deans of Studies for answering the questionnaires, and the members of the AWMF Committee for Performance Evaluation in Research and Teaching and the MFT Working Group on Teaching for their support in implementation and interpretation of the survey.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Danksagungen">
      <MainHeadline>Danksagungen</MainHeadline><Pgraph>Wir danken der AWMF f&#252;r finanzielle Unterst&#252;tzung, der MFT-Gesch&#228;ftsstelle (Dr. Corinne D&#246;lling) f&#252;r logistische Unterst&#252;tzung, Frau Sabine Gluth f&#252;r die Komplettierung und Auswertung der Befragungsdaten, den Mitarbeiterinnen und Mitarbeitern der Studiendekanate f&#252;r die Beantwortung der Frageb&#246;gen sowie den Mitgliedern der AWMF-Kommission f&#252;r Leistungsevaluation in Forschung und Lehre und der MFT-AG Lehre f&#252;r ihre Unterst&#252;tzung bei der Durchf&#252;hrung und Interpretation der Befragung.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Hahn EG</RefAuthor>
        <RefAuthor>Fischer MR</RefAuthor>
        <RefTitle>Nationaler Kompetenzbasierter Lernzielkatalog Medizin (NKLM) f&#252;r Deutschland: Zusammenarbeit der Gesellschaft f&#252;r Medizinische Ausbildung (GMA) und des Medizinischen Fakult&#228;tentages (MFT)</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc35</RefPage>
        <RefTotal>Hahn EG, Fischer MR. Nationaler Kompetenzbasierter Lernzielkatalog Medizin (NKLM) f&#252;r Deutschland: Zusammenarbeit der Gesellschaft f&#252;r Medizinische Ausbildung (GMA) und des Medizinischen Fakult&#228;tentages (MFT). GMS Z Med Ausbild. 2009;26(3):Doc35. DOI: 10.3205&#47;zma000627</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000627</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Wissenschaftsrat</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2014</RefYear>
        <RefBookTitle>Empfehlungen zur Weiterentwicklung des Medizinstudiums in Deutschland auf Grundlage einer Bestandsaufnahme der humanmedizinischen Modellstudieng&#228;nge</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Wissenschaftsrat. Empfehlungen zur Weiterentwicklung des Medizinstudiums in Deutschland auf Grundlage einer Bestandsaufnahme der humanmedizinischen Modellstudieng&#228;nge. Dresden: Wissenschaftsrat; 2014.</RefTotal>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Gibson KA</RefAuthor>
        <RefAuthor>Boyle P</RefAuthor>
        <RefAuthor>Black DA</RefAuthor>
        <RefAuthor>Cunningham M</RefAuthor>
        <RefAuthor>Grimm MC</RefAuthor>
        <RefAuthor>McNeil HP</RefAuthor>
        <RefTitle>Enhancing Evaluation in an Undergraduate Medical Education Program</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>787-93</RefPage>
        <RefTotal>Gibson KA, Boyle P, Black DA, Cunningham M, Grimm MC, McNeil HP. Enhancing Evaluation in an Undergraduate Medical Education Program. Acad Med. 2008;83(8):787-93. DOI: 10.1097&#47;ACM.0b013e31817eb8ab</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;ACM.0b013e31817eb8ab</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Schiekirka S</RefAuthor>
        <RefAuthor>Feufel MA</RefAuthor>
        <RefAuthor>Herrmann-Lingen C</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefTitle>Evaluation in medical education: A topical review of target parameters, data collection tools and confounding factors</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>GMS Ger Med Sci</RefJournal>
        <RefPage>Doc15</RefPage>
        <RefTotal>Schiekirka S, Feufel MA, Herrmann-Lingen C, Raupach T. Evaluation in medical education: A topical review of target parameters, data collection tools and confounding factors. GMS Ger Med Sci. 2015 Sep 16;13:Doc15. DOI: 10.3205&#47;000219</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;000219</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Herrmann-Lingen C</RefAuthor>
        <RefAuthor>Brunner E</RefAuthor>
        <RefAuthor>Hildenbrand S</RefAuthor>
        <RefAuthor>Loew TH</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefAuthor>Spies C</RefAuthor>
        <RefAuthor>Treede RD</RefAuthor>
        <RefAuthor>Vahl CF</RefAuthor>
        <RefAuthor>Wenz HJ</RefAuthor>
        <RefTitle>Evaluation of medical research performance - position paper of the Association of the Scientific Medical Societies in Germany (AWMF)</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>GMS Ger Med Sci</RefJournal>
        <RefPage>Doc11</RefPage>
        <RefTotal>Herrmann-Lingen C, Brunner E, Hildenbrand S, Loew TH, Raupach T, Spies C, Treede RD, Vahl CF, Wenz HJ. Evaluation of medical research performance - position paper of the Association of the Scientific Medical Societies in Germany (AWMF). GMS Ger Med Sci. 2014;12:Doc11. DOI: 10.3205&#47;000196</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;000196</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Schiekirka S</RefAuthor>
        <RefAuthor>Raupach T</RefAuthor>
        <RefTitle>A systematic review of factors influencing student ratings in undergraduate medical education course evaluations</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>30</RefPage>
        <RefTotal>Schiekirka S, Raupach T. A systematic review of factors influencing student ratings in undergraduate medical education course evaluations. BMC Med Educ. 2015 Mar 5;15:30. DOI: 10.1186&#47;s12909-015-0311-8</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1186&#47;s12909-015-0311-8</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Berger U</RefAuthor>
        <RefAuthor>Schleussner C</RefAuthor>
        <RefAuthor>Strauss B</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Psychother Psychosom Med Psychol</RefJournal>
        <RefPage>71-8</RefPage>
        <RefTotal>Berger U, Schleussner C, Strauss B. &#91;Comprehensive evaluation of medical teaching -- a task for the psychosocial disciplines&#63;&#93;. Psychother Psychosom Med Psychol. 2003 Feb;53(2):71-8. DOI: 10.1055&#47;s-2003-36966</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1055&#47;s-2003-36966</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Raupach T</RefAuthor>
        <RefAuthor>Schiekirka S</RefAuthor>
        <RefAuthor>M&#252;nscher C</RefAuthor>
        <RefAuthor>Bei&#223;barth T</RefAuthor>
        <RefAuthor>Himmel W</RefAuthor>
        <RefAuthor>Burckhardt G</RefAuthor>
        <RefAuthor>Pukrop T</RefAuthor>
        <RefTitle>Piloting an outcome-based programme evaluation tool in undergraduate medical education</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc44</RefPage>
        <RefTotal>Raupach T, Schiekirka S, M&#252;nscher C, Bei&#223;barth T, Himmel W, Burckhardt G, Pukrop T. Piloting an outcome-based programme evaluation tool in undergraduate medical education. GMS Z Med Ausbild. 2012;29(3):Doc44. DOI: 10.3205&#47;zma000814</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000814</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Canaday SD</RefAuthor>
        <RefAuthor>Mendelson MA</RefAuthor>
        <RefAuthor>Hardin JH</RefAuthor>
        <RefTitle>The effect of timing on the validity of student ratings</RefTitle>
        <RefYear>1978</RefYear>
        <RefJournal>J Med Educ</RefJournal>
        <RefPage>958-64</RefPage>
        <RefTotal>Canaday SD, Mendelson MA, Hardin JH. The effect of timing on the validity of student ratings. J Med Educ. 1978 Dec;53(12):958-64. DOI: 10.1097&#47;00001888-197812000-00002</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-197812000-00002</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Mendelson MA</RefAuthor>
        <RefAuthor>Canaday SD</RefAuthor>
        <RefAuthor>Hardin JH</RefAuthor>
        <RefTitle>The relationship between student ratings of course effectiveness and student achievement</RefTitle>
        <RefYear>1978</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>199-204</RefPage>
        <RefTotal>Mendelson MA, Canaday SD, Hardin JH. The relationship between student ratings of course effectiveness and student achievement. Med Educ. 1978 May;12(3):199-204. DOI: 10.1111&#47;j.1365-2923.1978.tb00337.x</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1111&#47;j.1365-2923.1978.tb00337.x</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Kern DE</RefAuthor>
        <RefAuthor>Thomas PA</RefAuthor>
        <RefAuthor>Howard DM</RefAuthor>
        <RefAuthor>Bass EB</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1998</RefYear>
        <RefBookTitle>Curriculum development for medical education &#8211; A six-step approach</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Kern DE, Thomas PA, Howard DM, Bass EB. Curriculum development for medical education &#8211; A six-step approach. Baltimore, London: The John Hopkins University Press; 1998.</RefTotal>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Downing SM</RefAuthor>
        <RefTitle>Construct-irrelevant variance and flawed test questions: Do multiple-choice item-writing principles make any difference&#63; Acad Med</RefTitle>
        <RefYear>2002</RefYear>
        <RefTotal>Downing SM. Construct-irrelevant variance and flawed test questions: Do multiple-choice item-writing principles make any difference&#63; Acad Med. 2002 Oct;77(10 Suppl):S103-4. DOI: 10.1097&#47;00001888-200210001-00032</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-200210001-00032</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Haladyna TM</RefAuthor>
        <RefAuthor>Downing SM</RefAuthor>
        <RefTitle>Construct-Irrelevant Variance in High-Stakes Testing</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Educ Meas</RefJournal>
        <RefPage>17-27</RefPage>
        <RefTotal>Haladyna TM, Downing SM. Construct-Irrelevant Variance in High-Stakes Testing. Educ Meas. 2005;23(1):17-27. DOI: 10.1111&#47;j.1745-3992.2004.tb00149.x</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1111&#47;j.1745-3992.2004.tb00149.x</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Schellberg D</RefAuthor>
        <RefAuthor>J&#252;nger J</RefAuthor>
        <RefTitle>Basic quantitative analyses of medical examinations</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc53</RefPage>
        <RefTotal>M&#246;ltner A, Schellberg D, J&#252;nger J. Basic quantitative analyses of medical examinations. GMS Z Med Ausbild. 2006;23(3):Doc53.</RefTotal>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Duelli R</RefAuthor>
        <RefAuthor>Resch F</RefAuthor>
        <RefAuthor>Schultz J</RefAuthor>
        <RefAuthor>J&#252;nger J</RefAuthor>
        <RefTitle>School-specific assessment in German medical schools</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc44</RefPage>
        <RefTotal>M&#246;ltner A, Duelli R, Resch F, Schultz J, J&#252;nger J. School-specific assessment in German medical schools. GMS Z Med Ausbild. 2010;27(3):Doc44. DOI: 10.3205&#47;zma000681</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000681</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>M&#252;ller-Hilke B</RefAuthor>
        <RefTitle>A qualitative study to investigate the acceptance of performance-based allocation of resources for the improvement of education at German medical schools</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc43</RefPage>
        <RefTotal>M&#252;ller-Hilke B. A qualitative study to investigate the acceptance of performance-based allocation of resources for the improvement of education at German medical schools. GMS Z Med Ausbild. 2010;27(3):Doc43. DOI: 10.3205&#47;zma000680</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3205&#47;zma000680</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Hofer M</RefAuthor>
        <RefAuthor>Pieper M</RefAuthor>
        <RefAuthor>Sadlo M</RefAuthor>
        <RefAuthor>Reipen J</RefAuthor>
        <RefAuthor>Heussen N</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>Dtsch Med Wochenschr</RefJournal>
        <RefPage>1615-20</RefPage>
        <RefTotal>Hofer M, Pieper M, Sadlo M, Reipen J, Heussen N. &#91;Performance-related middle management in medical teaching. Attractiveness of incentive tools from the perspective of the teachers&#93;. Dtsch Med Wochenschr. 2008 Aug;133(31-32):1615-20. DOI: 10.1055&#47;s-2008-1081141</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1055&#47;s-2008-1081141</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>M&#252;ller-Hilke B</RefAuthor>
        <RefTitle>Leistungsorientierte Mittelvergabe: Mehr Geld zur Lehre lenken</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Dtsch Arztebl</RefJournal>
        <RefPage>A 2418-20</RefPage>
        <RefTotal>M&#252;ller-Hilke B. Leistungsorientierte Mittelvergabe: Mehr Geld zur Lehre lenken. Dtsch Arztebl. 2013;110(50):A 2418-20.</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 1: Aspects that are captured by educational event evaluations by students</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Aspekte, die mittels Lehrveranstaltungsevaluation durch Studierenden erfasst werden</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>1</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="302" width="565">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Relative distribution of state funds at medical school</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Prozentuale Verteilung der Landeszuf&#252;hrungsbeitr&#228;ge an den Fakult&#228;ten</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>1</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>