<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<GmsArticle>
  <MetaData>
    <Identifier>zma000699</Identifier>
    <IdentifierDoi>10.3205/zma000699</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0006998</IdentifierUrn>
    <ArticleType>Positionspapier&#47;position paper</ArticleType>
    <TitleGroup>
      <Title language="de">Hochschuldidaktische Qualifizierung in der Medizin IV: Messung von Wirksamkeit und Erfolg medizindidaktischer Qualifizierungsangebote: Ein Positionspapier des GMA-Ausschusses Personal- und Organisationsentwicklung f&#252;r die medizinische Lehre der Gesellschaft f&#252;r Medizinische Ausbildung sowie des Kompetenzzentrums f&#252;r Hochschuldidaktik in Medizin Baden-W&#252;rttemberg</Title>
      <TitleTranslated language="en">Faculty development initiatives in Medical Education in German-Speaking Countries: IV. Measuring Effectiveness and Success</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Fabry</Lastname>
          <LastnameHeading>Fabry</LastnameHeading>
          <Firstname>G&#246;tz</Firstname>
          <Initials>G</Initials>
          <AcademicTitle>Dr. med.</AcademicTitle>
        </PersonNames>
        <Address>Albert-Ludwigs-Universit&#228;t Freiburg, Medizinische Fakult&#228;t, Abteilung f&#252;r Medizinische Psychologie und Soziologie, Rheinstra&#223;e 12, 79104 Freiburg, Deutschland, Tel.: 0761&#47;203-5512, Fax: 0761&#47;203-5514<Affiliation>Albert-Ludwigs-Universit&#228;t Freiburg, Medizinische Fakult&#228;t, Abteilung f&#252;r Medizinische Psychologie und Soziologie, Freiburg, Deutschland</Affiliation></Address>
        <Email>fabry&#64;uni-freiburg.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Lammerding-K&#246;ppel</Lastname>
          <LastnameHeading>Lammerding-K&#246;ppel</LastnameHeading>
          <Firstname>Maria</Firstname>
          <Initials>M</Initials>
          <AcademicTitle>Dr. med.</AcademicTitle>
          <AcademicTitleSuffix>MME (Bern)</AcademicTitleSuffix>
        </PersonNames>
        <Address>
          <Affiliation>Universit&#228;t T&#252;bingen, Medizinische Fakult&#228;t, Kompetenzzentrum f&#252;r Hochschuldidkatik in Medizin Baden-W&#252;rttemberg, T&#252;bingen, Deutschland</Affiliation>
        </Address>
        <Email>maria.lammerding&#64;med.uni-tuebingen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Hofer</Lastname>
          <LastnameHeading>Hofer</LastnameHeading>
          <Firstname>Matthias</Firstname>
          <Initials>M</Initials>
          <AcademicTitle>Dr. med.</AcademicTitle>
          <AcademicTitleSuffix>MME (Bern)</AcademicTitleSuffix>
        </PersonNames>
        <Address>
          <Affiliation>Heinrich-Heine-Universit&#228;t D&#252;sseldorf, Medizinische Fakult&#228;t, Anatomisches Institut II, Arbeitsgruppe Medizindidaktik, D&#252;sseldorf, Deutschland</Affiliation>
        </Address>
        <Email>matthias.hofer&#64;uni-duesseldorf.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Ochsendorf</Lastname>
          <LastnameHeading>Ochsendorf</LastnameHeading>
          <Firstname>Falk</Firstname>
          <Initials>F</Initials>
          <AcademicTitle>Prof. Dr. med.</AcademicTitle>
          <AcademicTitleSuffix>MME</AcademicTitleSuffix>
        </PersonNames>
        <Address>
          <Affiliation>Johann Wolfgang Goethe-Universit&#228;t Frankfurt&#47;Main, Klinikum, Zentrum Dermatologie und Venerologie, Frankfurt&#47;Main, Deutschland</Affiliation>
        </Address>
        <Email>ochsendorf&#64;em.uni-frankfurt.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Schirlo</Lastname>
          <LastnameHeading>Schirlo</LastnameHeading>
          <Firstname>Christian</Firstname>
          <Initials>C</Initials>
          <AcademicTitle>Dr. med.</AcademicTitle>
          <AcademicTitleSuffix>MME (Bern)</AcademicTitleSuffix>
        </PersonNames>
        <Address>
          <Affiliation>Universit&#228;t Z&#252;rich, Medizinische Fakult&#228;t, Studiendekanat, Z&#252;rich, Schweiz</Affiliation>
        </Address>
        <Email>christian.schirlo&#64;dekmed.unizh.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Breckwoldt</Lastname>
          <LastnameHeading>Breckwoldt</LastnameHeading>
          <Firstname>Jan</Firstname>
          <Initials>J</Initials>
          <AcademicTitle>Dr. med.</AcademicTitle>
        </PersonNames>
        <Address>
          <Affiliation>Charit&#233; - Universit&#228;tsmedizin Berlin, Campus Benjamin Franklin, Klinik f&#252;r An&#228;sthesiologie und operative Intensivmedizin, Berlin, Deutschland</Affiliation>
        </Address>
        <Email>jan.breckwoldt&#64;charite.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">medical education</Keyword>
      <Keyword language="en">faculty development</Keyword>
      <Keyword language="en">evaluation</Keyword>
      <Keyword language="en">empirical evidence</Keyword>
      <Keyword language="de">Medizindidaktik</Keyword>
      <Keyword language="de">Personal- und Organisationsentwicklung</Keyword>
      <Keyword language="de">Evaluation</Keyword>
      <Keyword language="de">Evidenzbasierung</Keyword>
      <SectionHeading language="de">Humanmedizin</SectionHeading>
    </SubjectGroup>
    <DateReceived>20100113</DateReceived>
    <DateRevised>20100326</DateRevised>
    <DateAccepted>20100326</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20100816</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <SourceGroup>
      <Journal>
        <ISSN>1860-3572</ISSN>
        <Volume>27</Volume>
        <Issue>4</Issue>
        <JournalTitle>GMS Zeitschrift f&#252;r Medizinische Ausbildung</JournalTitle>
        <JournalTitleAbbr>GMS Z Med Ausbild</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>62</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph>Angesichts der Forderung nach mehr Evidenzbasierung in der Lehre m&#252;ssen auch medizindidaktische Qualifizierungsangebote auf ihren Erfolg hin evaluiert werden. Aufgrund der Komplexit&#228;t von Lehr-Lernprozessen sind dabei unterschiedliche Zielkriterien und Methoden zu ber&#252;cksichtigen. Ver&#228;nderungen k&#246;nnen sowohl bei den Teilnehmern selbst (z.B. Ver&#228;nderung von Wissen, Fertigkeiten und Einstellungen) als auch bei den Studierenden (z.B. Lernerfolg) gemessen werden, d&#252;rfen jedoch nicht vorschnell im Sinne kausaler Zusammenh&#228;nge interpretiert werden.</Pgraph><Pgraph>Studien zeigen generell eine gro&#223;e Zufriedenheit der Teilnehmer mit medizindidaktischen Ma&#223;nahmen auch ein Zuwachs an Wissen und Fertigkeiten l&#228;sst sich feststellen. Ob damit auch das Lernen der Studierenden positiv beeinflusst wird, muss noch &#252;berpr&#252;ft werden.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph>The demand to strengthen the evidence base of medical education makes it necessary to evaluate the success of faculty development initiatives. To this end, it is essential to consider multifaceted variables and methods, since processes of teaching and learning are complex. Changes might be identified with regard to the individual participants (e.g., changes in knowledge, skills, and attitudes) or the students (e.g., changes in academic success). However, it is important not to hastily interpret these changes in terms of causality.</Pgraph><Pgraph>Studies show that, overall, participants are quite content with faculty development initiatives. There is also data available showing that participants gain knowledge and skills through these programs. Whether or not these changes also foster students&#8217; learning remains to be proven.</Pgraph></Abstract>
    <TextBlock linked="yes" name="Hintergrund: Evidenzbasierte Lehre">
      <MainHeadline>Hintergrund: Evidenzbasierte Lehre</MainHeadline><Pgraph>Zunehmend wird auch f&#252;r die Lehre gefordert, Methoden auf ihre Wirksamkeit hin zu &#252;berpr&#252;fen, um so in Analogie zur klinischen Medizin evidenzbasierte Entscheidungen treffen zu k&#246;nnen <TextLink reference="1"></TextLink>. Um diese Zielsetzung systematisch zu verfolgen, wurde Anfang des Jahrtausends ein Netzwerk (BEME-Collaboration &#8211; Best Evidence Medical Education, www.bemecollaboration.org) ins Leben gerufen, das aus zeitlich befristeten Arbeitsgruppen (Topic Review Groups) besteht, die &#220;bersichtsarbeiten zu verschiedenen Themen erarbeiten <TextLink reference="2"></TextLink>. Die Analogie zwischen evidenzbasierter Medizin und evidenzbasierter Lehre hat allerdings ihre Grenzen. Denn die durchaus umstrittene Bewertung der verschiedenen methodischen Vorgehensweisen kann nicht einfach von der klinischen Medizin auf empirische Studien zu Wirksamkeit und Erfolg von Lehre &#252;bertragen werden <TextLink reference="3"></TextLink>. Eine randomisierte kontrollierte Studie, die in der klinischen Medizin als Goldstandard des Wirksamkeitsnachweises gilt, ist f&#252;r viele medizindidaktische Fragestellungen nur schwer durchf&#252;hrbar, in vielen F&#228;llen aber auch gar nicht sinnvoll <TextLink reference="4"></TextLink>. W&#228;hrend eine Randomisierung der Gruppen h&#228;ufig unproblematisch ist, bereitet die kontrollierte Darbietung der zu messenden Intervention erhebliche Schwierigkeiten. Sie ist n&#228;mlich nicht nur von der Person des Lehrenden, sondern auch von der Reaktion der Lernenden abh&#228;ngig und diese wiederum unterliegt situativen, gruppendynamischen und anderen Einfl&#252;ssen. Was immer als Ergebnis gemessen wird, die Unsicherheit bleibt gro&#223;, ob sich etwaige Unterschiede wirklich auf die Methode selbst zur&#252;ckf&#252;hren lassen, zumal eine Verblindung ohnehin nicht m&#246;glich ist. Selbst wenn sich eine Methode zweifelsfrei als &#252;berlegen erweisen sollte, ist immer noch fraglich, in wieweit sich die Ergebnisse unter anderen Rahmenbedingungen, z.B. an einer anderen Fakult&#228;t mit einer anderen Studierenden- und Lehrendenpopulation wiederholen lassen <TextLink reference="5"></TextLink>.</Pgraph><Pgraph>Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> veranschaulicht diesen Zusammenhang: Die Teilnehmer an der medizindidaktischen Fortbildung kommen aus unterschiedlichen Bereichen, in denen sie neben ihrer Lehrt&#228;tigkeit noch andere Funktionen haben, so dass die Gruppen jeweils unterschiedlich zusammengesetzt sind. Daraus entwickelt sich eine jeweils unterschiedliche Gruppendynamik, die den Lernprozess und dessen Ergebnisse beeinflusst. Zus&#228;tzlich unterliegt die Veranstaltung wechselnden Kontexteinfl&#252;ssen (z.B. unterschiedliche Zeitpunkte, Dozenten, aktuelle Ereignisse, etc.). Auch der Transfer der erworbenen Kenntnisse und F&#228;higkeiten in den Lehralltag unterliegt verschiedenen intervenierenden Variablen, die sich aus der Interaktion mit den Studierenden und anderen Faktoren ergeben. Dieses komplexe Bedingungsgef&#252;ge ist beim Vergleich der tats&#228;chlich festgestellten Ergebnisse mit den geplanten Ergebnissen zu ber&#252;cksichtigen.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Zielkriterien f&#252;r die Evaluation">
      <MainHeadline>Zielkriterien f&#252;r die Evaluation</MainHeadline><Pgraph>Vor diesem Hintergrund wurde nach alternativen Kategorisierungsm&#246;glichkeiten gesucht, um dennoch eine differenzierte Bewertung empirischer Studien im Bereich der Lehre vornehmen zu k&#246;nnen. Die Arbeitsgruppen des BEME-Netzwerks benutzen dazu haupts&#228;chlich die von Kirkpatrick <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink> vorgeschlagenen Zielkriterien zur Evaluation von Trainingsprogrammen, die in Tabelle 1 <ImgLink imgNo="1" imgType="table"/> dargestellt sind. In einer systematischen &#220;bersichtsarbeit zu den Effekten von Ma&#223;nahmen der Personalentwicklung in der medizinischen Lehre wurde eine erweiterte Form dieser Kategorien verwendet, die in Tabelle 2 <ImgLink imgNo="2" imgType="table"/> wiedergegeben ist <TextLink reference="8"></TextLink>.</Pgraph><Pgraph>Diese Kategorien sollen ausdr&#252;cklich nicht als eine Hierarchie verstanden werden: Eine Evaluation, die sich auf die Reaktionen der Teilnehmer beschr&#228;nkt, ist bei ad&#228;quater methodischer Qualit&#228;t, nicht grunds&#228;tzlich schlechter als eine andere, mit der Verhaltens&#228;nderungen oder Ergebnisse festgestellt werden. Diese Aussage mag vielleicht zun&#228;chst &#252;berraschen, sie ist aber insofern angemessen, als eine empirisch abgesicherte Theorie der &#8222;Wirkfaktoren&#8220; von guter Lehre noch weitgehend fehlt. So w&#228;re es durchaus denkbar, dass z.B. eine durch medizindidaktische Fortbildung gesteigerte Motivation der Dozenten, die sich positiv auf das Lernklima in ihren Veranstaltungen auswirkt, auch zu einer gr&#246;&#223;eren Zufriedenheit der Studierenden f&#252;hrt.</Pgraph><Pgraph>Wird umgekehrt eine bessere Leistung der Studierenden im Gefolge medizindidaktischer Qualifizierung festgestellt, ist die Frage, was diese Verbesserung bewirkt hat, noch nicht gekl&#228;rt. Auch hier k&#246;nnten neben methodischen, strukturellen oder inhaltlichen Verbesserungen ebenfalls motivationale Aspekte eine gro&#223;e Rolle spielen.</Pgraph><Pgraph>Diese &#220;berlegungen machen deutlich, dass es auf jeder Kategoriestufe schwieriger wird, Evaluationen durchzuf&#252;hren, deren Daten sich eindeutig auf die durchgef&#252;hrte Ma&#223;nahme beziehen lassen. Entsprechend sind Studien, die Parameter der Stufe 4 erfassen, eher selten, vgl. Tabelle 5. Gleichzeitig w&#228;ren aber gerade solche Studien besonders wichtig, um besser zu verstehen, wie sich die Lehren und Lernen gezielt verbessern lassen.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Methodische und Praktische Aspekte">
      <MainHeadline>Methodische und Praktische Aspekte</MainHeadline><Pgraph>Die verschiedenen Parameter, mit denen die Wirksamkeit medizindidaktischer Qualifikationsangebote evaluiert werden kann, legen unterschiedliche methodische Zug&#228;nge nah, die unterschiedlich aufw&#228;ndig sind.</Pgraph><SubHeadline>Befragung der Teilnehmer</SubHeadline><Pgraph>Grunds&#228;tzlich lassen sich alle Ebenen durch Befragung der Teilnehmer erfassen. Diese Form der Evaluation ist weit verbreitet, in den meisten Studien wird sie entweder als einzige Methode oder in Kombination mit anderen Verfahren eingesetzt <TextLink reference="8"></TextLink>. Verwendet werden k&#246;nnen offene Fragen, aber auch geschlossene und standardisierte Formate. Wie bei der studentischen Evaluation von Lehrveranstaltungen auch, ist eine Kombination beider Verfahren am besten. So lassen sich Daten gewinnen, die relativ einfach auf ihre testtheoretische Qualit&#228;t (Objektivit&#228;t, Reliabilit&#228;t, Validit&#228;t) &#252;berpr&#252;ft werden k&#246;nnen. Gleichzeitig lassen sich so aber auch spezifische und konkrete Informationen erfassen, aus denen z.B. wichtige Anregungen f&#252;r die weitere Gestaltung der Ma&#223;nahme entnommen werden k&#246;nnen. In der Praxis zeigt sich allerdings, dass standardisierte Erhebungsinstrumente zur Evaluation zwar h&#228;ufig verwendet werden, dass ihre testtheoretische Qualit&#228;t aber nur selten &#252;berpr&#252;ft wird. Das h&#228;ngt sicherlich damit zusammen, dass medizindidaktische Ma&#223;nahmen meist f&#252;r einen spezifischen Kontext geplant und durchgef&#252;hrt werden &#8211; daher besteht das Bed&#252;rfnis, einen auf dieses Angebot zugeschnittenen Fragebogen einzusetzen, der selbst konstruiert und ohne weitere statistische &#220;berpr&#252;fung verwendet wird. Erkauft wird damit jedoch, dass die Aussagekraft der so gewonnenen Ergebnisse nur schlecht &#252;berpr&#252;ft werden kann. Auch der Vergleich verschiedener Programme wird dadurch erschwert, so dass sich kaum verallgemeinerbare Aussagen etwa zum Vergleich der Wirksamkeit bestimmter Elemente des Trainings gewinnen lassen. Vor diesem Hintergrund w&#228;re es w&#252;nschenswert, wenn ein Kernbereich allgemeiner, testtheoretisch &#252;berpr&#252;fter Items zur Verf&#252;gung st&#252;nde, der an mehreren Standorten verwendet werden kann, um medizindidaktische Qualifizierungsangebote zu evaluieren. F&#252;r diesen Kernbereich sollte nach M&#246;glichkeit, wie in der Lehrevaluation auch, mehrdimensional vorgegangen werden, damit &#252;berhaupt zwischen unterschiedlichen Faktoren differenziert werden kann, die den Erfolg des Angebots beeinflussen k&#246;nnen (trainerspezifischen, inhaltlichen, organisatorischen, usw.) (vgl.<TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>). Zus&#228;tzlich kann ein solcher Fragebogen um spezifische Fragen, die auch offen gestellt werden k&#246;nnen, zum jeweiligen Angebot erg&#228;nzt werden, so dass sich die lokalen Besonderheiten ausreichend konkret abbilden lassen.</Pgraph><SubHeadline>Vorher-Nachher-Vergleiche</SubHeadline><Pgraph>Ein wichtiger Aspekt der Wirksamkeits&#252;berpr&#252;fung medizindidaktischer Trainings sind Vorher-Nachher-Vergleiche z.B. von Einstellungen zu verschiedenen Aspekten der Lehre, Kenntnissen von Unterrichtsstrategien oder auch von lehrbezogenen Fertigkeiten. Werden dazu Befragungen der Teilnehmer eingesetzt, muss allerdings ber&#252;cksichtigt werden, dass hier Verzerrungen auftreten k&#246;nnen, weil die Einsch&#228;tzung der eigenen Leistungsf&#228;higkeit insbesondere dann unzuverl&#228;ssig ist, wenn das entsprechende Kompetenzniveau insgesamt noch niedrig ist <TextLink reference="11"></TextLink>. Umgekehrt w&#228;chst mit zunehmender Expertise auch die F&#228;higkeit, die eigene Kompetenz realistischer beurteilen zu k&#246;nnen <TextLink reference="12"></TextLink>. Das kann allerdings dazu f&#252;hren, dass Teilnehmer an medizindidaktischen Qualifizierungsma&#223;nahmen ihre Kenntnisse und F&#228;higkeiten nach der Ma&#223;nahme wegen (&#33;) des Lernfortschritts schlechter einsch&#228;tzen als zuvor. M&#246;glicherweise l&#228;sst sich das Problem umgehen, indem die Teilnehmer erst retrospektiv nach einer Einsch&#228;tzung ihres Kompetenzniveaus vor Kursbeginn gefragt werden. Jedenfalls zeigte sich in einer Studie von Skeff et al. <TextLink reference="13"></TextLink>, dass diese retrospektiv, also nach dem Kurs erhobene Selbsteinsch&#228;tzung besser mit einer vor Kursbeginn durchgef&#252;hrten studentischen Bewertung der Lehrkompetenz &#252;bereinstimmte als die vor dem Kurs abgegebene Selbsteinsch&#228;tzung der Dozenten.</Pgraph><SubHeadline>Direkte Beobachtung&#47;Messung von Lehrkompetenzen</SubHeadline><Pgraph>F&#252;r die direkte Beobachtung bzw. Messung von Lehrkompetenzen k&#246;nnen ebenfalls verschiedene Methoden eingesetzt werden. Es l&#228;ge z.B. nahe, die Ergebnisse studentischer Evaluation heranzuziehen, auch wenn immer wieder Zweifel daran ge&#228;u&#223;ert werden, ob Studierende in der Lage sind, die Qualit&#228;t der Lehre beurteilen zu k&#246;nnen. Unter der Voraussetzung einer ad&#228;quaten methodischen Qualit&#228;t haben empirische Untersuchungen jedoch wiederholt gezeigt, dass die &#220;bereinstimmung zwischen studentischen Urteilen und solchen von geschulten Fremdratern recht hoch ist <TextLink reference="14"></TextLink>. Die Korrelation liegt in der Gr&#246;&#223;enordnung von r&#61;.54 <TextLink reference="9"></TextLink>. F&#252;r die Beurteilung durch Studierende spricht zudem, dass sie die eigentliche Zielgruppe der Lehre sind, deren Bed&#252;rfnisse im Zentrum der Anstrengungen der Dozenten stehen sollten. Nicht zuletzt sind auch die organisatorischen Voraussetzungen g&#252;nstig, weil die studentische Evaluation ohnehin durchgef&#252;hrt wird und daher den Unterrichtsablauf nicht zus&#228;tzlich st&#246;rt. In 15 (28&#37;) der 53 Studien, die Steinert et al. <TextLink reference="8"></TextLink> f&#252;r ihre &#220;bersichtsarbeit ausgewertet haben kommen studentische Bewertungen zum Einsatz, wobei in 11 F&#228;llen eine Verbesserung im Vorher-Nachher-Vergleich festgestellt wurde. Bei den anderen Studien wurden keine statistisch signifikanten Unterschiede gefunden.</Pgraph><Pgraph>Eine weitere M&#246;glichkeit der direkten Beobachtung ist die Beurteilung durch didaktisch geschulte und spezifisch trainierte Fremdbeobachter. Die didaktische Expertise ist hierbei besonders wichtig, weil bei einer Beurteilung durch Fachkollegen ansonsten leicht die Gefahr besteht, wissenschaftliche Kompetenz und Lehrkompetenz miteinander zu verwechseln. Ein weiteres Problem besteht darin, dass der Unterricht durch die Anwesenheit eines Beobachters beeinflusst oder gar gest&#246;rt werden kann (manche klinische Unterrichtsformate lassen sich aus diesem Grund m&#246;glicherweise gar nicht durch Fremdbeurteiler evaluieren). Um solche St&#246;rungen zu minimieren, kann eine Videoaufzeichnung angefertigt und im Anschluss bewertet werden.</Pgraph><Pgraph>In den letzten Jahren wurden verschiedene Versuche publiziert, die Lehrkompetenz mit Hilfe von Simulationen zu pr&#252;fen, die sich am Modell der OSCE (Objective Structured Clinical Examination) orientieren (z.B. <TextLink reference="8"></TextLink>, <TextLink reference="15"></TextLink>, <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink>, <TextLink reference="18"></TextLink>). Bei diesen OSTE (Objective Structured Teaching Examination&#47;Evaluation) kommen meist &#8222;standardisierte Studierende&#8220; zum Einsatz, die typische Lehrsituationen spielen (z.B. Interaktion mit schwierigen Studierenden, in Pr&#252;fungssituationen, am Krankenbett), auf welche die Lehrenden reagieren m&#252;ssen: Bisher vorgestellte OSTEs umfassen zwischen f&#252;nf und acht Stationen, mit einer Dauer von 5 bis 15 min pro Station; die Gesamtdauer liegt bei bis zu 3,5 Stunden. Die Leistung wird analog zur OSCE mittels Checklisten oder globalen Sch&#228;tzskalen beurteilt. Eine fundierte Bewertung dieser Methode ist derzeit noch kaum m&#246;glich, da hierzu bislang nur wenige Studien mit sehr heterogener methodischer Qualit&#228;t publiziert wurden.</Pgraph><SubHeadline>Lernerfolg als Ma&#223; f&#252;r die Lehrqualit&#228;t&#63;</SubHeadline><Pgraph>Die zunehmende Forderung nach Ergebnisorientierung in der Medizin k&#246;nnte zu der &#220;berlegung f&#252;hren, den Lernerfolg der Studierenden, z.B. in Form von Pr&#252;fungsergebnissen, als Ma&#223; f&#252;r die Verbesserung der Lehrqualit&#228;t heranzuziehen. Dem liegt die zun&#228;chst plausible Annahme zugrunde, dass gute Lehre letztendlich auch zu guten Leistungen f&#252;hren m&#252;sse. Wie eingangs bereits angedeutet wurde, sind die realen Umst&#228;nde allerdings wesentlich komplexer: Oft stimmen Unterrichts- und Pr&#252;fungsinhalt nicht &#252;berein, oder es wird in Pr&#252;fungen vielfach nur Wissen geringen Elaborationsgrades (z.B. Reproduktion oder Wiedererkennen bei einfachen Multiple-Choice-Fragen) abgefragt. Dieser Mangelzustand besteht vor allem deshalb, weil solche Aufgaben mit geringerem Aufwand zu konstruieren sind. Viele Lehrende sehen aber gerade nach einer medizindidaktischen Sensibilisierung h&#246;herrangige kognitive Lernziele (Verst&#228;ndnis, Anwendung, etc.) oder gar affektive Lernziele (etwa die Ver&#228;nderung von Einstellungen) als wichtige Ziele ihres Unterrichts an. Gute Lehre kann damit erheblich &#252;ber gute Pr&#252;fungsergebnisse hinausgehen. Dabei kann schlimmstenfalls das durch die Lehrveranstaltung induzierte Lernen mit der zur Pr&#252;fungsvorbereitung erforderliche Lernstrategie auch im Widerspruch stehen.</Pgraph><Pgraph>Zudem kann in der Regel nicht kontrolliert werden, inwieweit das individuelle, selbst&#228;ndige Lernen der Studierenden, das zuhause oder in der Bibliothek stattfindet und f&#252;r den Wissenserwerb an der Universit&#228;t eine zentrale Rolle spielt, &#252;berhaupt durch die Lehre und die Dozenten beeinflusst wird. Vor dem Hintergrund dieser &#220;berlegungen ist es umso erstaunlicher, dass dennoch in einigen Studien Zusammenh&#228;nge zwischen der individuellen Lehrqualit&#228;t und Leistungsparametern gefunden wurden: So konnten Griffith et al. <TextLink reference="19"></TextLink> zeigen, dass Studierende im dritten klinischen Jahr (N&#61;502 aus sechs aufeinanderfolgenden Kohorten) signifikant bessere Ergebnisse sowohl im fachbezogenen Abschlusstest (NBME)<Superscript>1</Superscript> als auch im sp&#228;teren Examen (USMLE II)<Superscript>2</Superscript> hatten, wenn sie w&#228;hrend ihrer klinischen Praxisphase mindestens vier Wochen von den besten Dozenten (bestimmt durch ein von den Untersuchten unabh&#228;ngiges studentisches Expertenpanel sowie mittels studentischer Evaluation) unterrichtet worden waren. Die Autoren vermuten, dass f&#252;r diese Effekte weniger direkte Einfl&#252;sse, etwa durch eine bessere Stoffvermittlung, als vielmehr indirekte, vor allem motivationale Faktoren verantwortlich sind. Ganz &#228;hnlich fanden Stern et al. <TextLink reference="20"></TextLink>, dass die Evaluationsergebnisse der Dozenten signifikante Pr&#228;diktoren f&#252;r die Ergebnisse waren, welche die von ihnen unterrichteten Studierenden des dritten klinischen Jahres im fachbezogenen Abschlusstestat (NBME) erreichten (a priori bestehende Leistungsunterschiede der Studierenden wurden dabei kontrolliert). Solche Ergebnisse d&#252;rfen allerdings nicht dazu verleiten, Pr&#252;fungsergebnisse unbesehen, ohne Ber&#252;cksichtigung intervenierender Variablen (z.B. der jeweiligen Rahmenbedingungen oder dem zeitlichen Abstand zwischen der Veranstaltung und der entsprechenden Pr&#252;fung), einfach als einen Indikator der dozentenspezifischen Lehrqualit&#228;t zu verwenden.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Ergebnisse der Evaluation">
      <MainHeadline>Ergebnisse der Evaluation</MainHeadline><Pgraph>Insgesamt besteht eine hohe Zufriedenheit mit medizindidaktischen Qualifizierungsangeboten &#91;19&#93;. Die Teilnehmer f&#252;hlen sich hinsichtlich lehrbezogener Aspekte sensibilisiert, motiviert und geben an, eine positivere Einstellung zur Lehre, aber auch zur lehrbezogenen Personalentwicklung gewonnen zu haben. Sowohl nach subjektiven als auch nach objektiven Ma&#223;st&#228;ben l&#228;sst sich dar&#252;ber hinaus ein Zuwachs an medizindidaktischen Kenntnissen und unterrichtsbezogenen Fertigkeiten feststellen. Dem entsprechend stellen die Teilnehmer ein ver&#228;ndertes Verhalten im Unterricht bei sich selbst fest, das, wenn auch nicht in gleichem Ausma&#223;, auch von den Studierenden wahrgenommen wird. Schlie&#223;lich haben medizindidaktische Qualifizierungsangebote auch f&#252;r die Fakult&#228;tsentwicklung positive Konsequenzen: Die Teilnehmer berichten &#252;ber ein verst&#228;rktes Engagement in der Lehre (z.B. durch innovative Lehrprojekte) und eine verbesserte lehrbezogene Zusammenarbeit mit Kollegen.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Zusammenfassung">
      <MainHeadline>Zusammenfassung</MainHeadline><Pgraph>Die Evaluation medizindidaktischer Qualifizierungsangebote ist nicht nur im Hinblick auf die Erfolgskontrolle der durchgef&#252;hrten Ma&#223;nahmen relevant, sondern kann dar&#252;ber hinaus auch dazu beitragen, das Verst&#228;ndnis komplexer Lernprozesse zu vertiefen. Voraussetzung daf&#252;r ist allerdings eine hohe methodische Qualit&#228;t. Insgesamt zeigt sich, dass das &#252;bergeordnete Ziel, die Lehrenden f&#252;r medizindidaktische Fragen zu sensibilisieren und ihre Lehrkompetenz zu vergr&#246;&#223;ern, nicht nur erreicht wird, sondern dass sich dar&#252;ber hinaus tats&#228;chlich auch eine Verbesserung der Lehrqualit&#228;t sowohl auf individueller als auch auf institutioneller Ebene feststellen l&#228;sst.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Anmerkung">
      <MainHeadline>Anmerkung</MainHeadline><Pgraph><Superscript>1</Superscript>NBME &#61; National Board of Medical Examiners: Eine Organisation, die als Dienstleister medizinische Pr&#252;fungen organisiert und damit in etwa dem Institut f&#252;r Medizinische und Pharmazeutische Pr&#252;fungsfragen (IMPP) in Deutschland vergleichbar ist.</Pgraph><Pgraph><Superscript>2</Superscript>USMLE &#61; United States Medical Licensing Examination: In etwa den deutschen Staatsexamina vergleichbar, Voraussetzung f&#252;r die Zulassung zur &#228;rztlichen T&#228;tigkeit, insgesamt werden drei Pr&#252;fungen durchgef&#252;hrt.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="7">
        <RefAuthor>Belfield C</RefAuthor>
        <RefAuthor>Thomas H</RefAuthor>
        <RefAuthor>Bullock A</RefAuthor>
        <RefAuthor>Eynon R</RefAuthor>
        <RefAuthor>Wall D</RefAuthor>
        <RefTitle>Meauring effectiveness for best evidence medical education: a disussion</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>164-170</RefPage>
        <RefTotal>Belfield C, Thomas H, Bullock A, Eynon R, Wall D. Meauring effectiveness for best evidence medical education: a disussion. Med Teach. 2001;23(2):164-170. DOI: 10.1080&#47;0142150020031084</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;0142150020031084</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Dunnington GL</RefAuthor>
        <RefAuthor>DaRosa D</RefAuthor>
        <RefTitle>A prospective randomized trial of a residents-as-teachers training program</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>696-700</RefPage>
        <RefTotal>Dunnington GL, DaRosa D. A prospective randomized trial of a residents-as-teachers training program. Acad Med. 1998;73(6):696-700. DOI: 10.1097&#47;00001888-199806000-00017</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-199806000-00017</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Griffith III CH</RefAuthor>
        <RefAuthor>Georgesen JC</RefAuthor>
        <RefAuthor>Wilson JF</RefAuthor>
        <RefTitle>Six-year documentation of the association between excellent clinical teaching and improved students&#39; examination performances</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>S62-S64</RefPage>
        <RefTotal>Griffith III CH, Georgesen JC, Wilson JF. Six-year documentation of the association between excellent clinical teaching and improved students&#39; examination performances. Acad Med. 2000;75(10 Suppl):S62-S64. DOI: 10.1097&#47;00001888-200010001-00020</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-200010001-00020</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Harden RM</RefAuthor>
        <RefAuthor>Grant J</RefAuthor>
        <RefAuthor>Buckley G</RefAuthor>
        <RefAuthor>Hart IR</RefAuthor>
        <RefTitle>BEME Guide No. 1: Best evidence medical education</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>553-562</RefPage>
        <RefTotal>Harden RM, Grant J, Buckley G, Hart IR. BEME Guide No. 1: Best evidence medical education. Med Teach. 1999;21(6):553-562. DOI: 10.1080&#47;01421599978960</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;01421599978960</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Hodges B</RefAuthor>
        <RefAuthor>Regehr G</RefAuthor>
        <RefAuthor>Martin D</RefAuthor>
        <RefTitle>Difficulties in recognizing one&#8217;s own incompetence: novice physicians who are unskilled and unaware of it</RefTitle>
        <RefYear>Acad</RefYear>
        <RefTotal>Hodges B, Regehr G, Martin D. Difficulties in recognizing one&#8217;s own incompetence: novice physicians who are unskilled and unaware of it. Acad Med 2001;76(10 Suppl):S87-S89. DOI: 10.1097&#47;00001888-200110001-00029</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-200110001-00029</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Hofer M</RefAuthor>
        <RefAuthor>Abanador N</RefAuthor>
        <RefAuthor>M&#246;dder U</RefAuthor>
        <RefTitle>Effektive Didaktiktrainings f&#252;r Dozenten von CME-Fortbildungen (Continuing Medical Education)</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Fortschr R&#246;ntgenstrahl bildgeb Verfahr</RefJournal>
        <RefPage>1290-1296</RefPage>
        <RefTotal>Hofer M, Abanador N, M&#246;dder U. Effektive Didaktiktrainings f&#252;r Dozenten von CME-Fortbildungen (Continuing Medical Education). Fortschr R&#246;ntgenstrahl bildgeb Verfahr. 2005;177:1290-1296.</RefTotal>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Kirkpatrick DL</RefAuthor>
        <RefTitle>Evaluation of training</RefTitle>
        <RefYear>167</RefYear>
        <RefBookTitle>Training and development handbook</RefBookTitle>
        <RefPage>87-112</RefPage>
        <RefTotal>Kirkpatrick DL. Evaluation of training. In: Craig R, Mittel I (Hrsg). Training and development handbook. New York: McGraw-Hill; 1967. S.87-112.</RefTotal>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Kruger J</RefAuthor>
        <RefAuthor>Dunning D</RefAuthor>
        <RefTitle>Unskilled an unaware of it: how difficulties in recognizing one&#8217;s own incompetence lead to inflatef self-assessments</RefTitle>
        <RefYear>1999</RefYear>
        <RefJournal>J Pers Soc Psychol</RefJournal>
        <RefPage>1121-1134</RefPage>
        <RefTotal>Kruger J, Dunning D. Unskilled an unaware of it: how difficulties in recognizing one&#8217;s own incompetence lead to inflatef self-assessments. J Pers Soc Psychol. 1999;77(6):1121-1134. DOI: 10.1037&#47;0022-3514.77.6.1121</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1037&#47;0022-3514.77.6.1121</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Marsh HW</RefAuthor>
        <RefTitle>Students&#39; evaluations of university teaching: Research findings, methodological issues, and directions for future research</RefTitle>
        <RefYear>1987</RefYear>
        <RefJournal>Int J Educ Res</RefJournal>
        <RefPage>253-388</RefPage>
        <RefTotal>Marsh HW. Students&#39; evaluations of university teaching: Research findings, methodological issues, and directions for future research. Int J Educ Res. 1987;11(3):253-388. DOI: 10.1016&#47;0883-0355(87)90001-2</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1016&#47;0883-0355(87)90001-2</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Morrison EH</RefAuthor>
        <RefAuthor>Boker JR</RefAuthor>
        <RefAuthor>Hollingshead J</RefAuthor>
        <RefAuthor>Prislin MD</RefAuthor>
        <RefAuthor>Hitchcock MA</RefAuthor>
        <RefAuthor>Litzelman DK</RefAuthor>
        <RefTitle>Reliability and Validity of an objective structured teaching examination for generalist resident teachers</RefTitle>
        <RefYear>2002</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>29-32</RefPage>
        <RefTotal>Morrison EH, Boker JR, Hollingshead J, Prislin MD, Hitchcock MA, Litzelman DK. Reliability and Validity of an objective structured teaching examination for generalist resident teachers. Acad Med. 2002;77(10):29-32. DOI: 10.1097&#47;00001888-200210001-00010</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-200210001-00010</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Morrison EH</RefAuthor>
        <RefAuthor>Rucker L</RefAuthor>
        <RefAuthor>Boker JR</RefAuthor>
        <RefAuthor>Hollingshead J</RefAuthor>
        <RefAuthor>Hitchcock MA</RefAuthor>
        <RefAuthor>Prislin MD</RefAuthor>
        <RefAuthor>Hubbell FA</RefAuthor>
        <RefTitle>A pilot randomized, controlled trial of a longitudinal residents-as-teachers curriculum</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>722-729</RefPage>
        <RefTotal>Morrison EH, Rucker L, Boker JR, Hollingshead J, Hitchcock MA, Prislin MD, Hubbell FA. A pilot randomized, controlled trial of a longitudinal residents-as-teachers curriculum. Acad Med. 2003;78(7):722-729. DOI: 10.1097&#47;00001888-200307000-00016</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-200307000-00016</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Norman G</RefAuthor>
        <RefTitle>RCT&#61; results confounded an trivial: the perils of grand educational experiments</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>582-584</RefPage>
        <RefTotal>Norman G. RCT&#61; results confounded an trivial: the perils of grand educational experiments. Med Educ. 2003;37(7): 582-584. DOI: 10.1046&#47;j.1365-2923.2003.01586.x</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1046&#47;j.1365-2923.2003.01586.x</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Norman G</RefAuthor>
        <RefTitle>Reflections on BEME</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>141-144</RefPage>
        <RefTotal>Norman G. Reflections on BEME. Med Teach. 2000;22(2):141-144. DOI: 10.1080&#47;01421590078553</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;01421590078553</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Norman G</RefAuthor>
        <RefTitle>The effectiveness and the effects of effect sizes</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Adv Health Sci Educ Theory Pract</RefJournal>
        <RefPage>183-187</RefPage>
        <RefTotal>Norman G. The effectiveness and the effects of effect sizes. Adv Health Sci Educ Theory Pract. 2003;8(3):183-187. DOI: 10.1023&#47;A:1026090406201</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1023&#47;A:1026090406201</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Prislin MD</RefAuthor>
        <RefAuthor>Fitzpatrick C</RefAuthor>
        <RefAuthor>Giglio M</RefAuthor>
        <RefAuthor>Lie D</RefAuthor>
        <RefAuthor>Radecki S</RefAuthor>
        <RefTitle>Initial experience with a multi-station objective structured teaching skills evaluation</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>1116-1118</RefPage>
        <RefTotal>Prislin MD, Fitzpatrick C, Giglio M, Lie D, Radecki S. Initial experience with a multi-station objective structured teaching skills evaluation. Acad Med. 1998;73(10):1116-1118. DOI: 10.1097&#47;00001888-199810000-00024</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-199810000-00024</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Rindermann H</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2001</RefYear>
        <RefBookTitle>Lehrevaluation. Einf&#252;hrung und &#220;berblick zu Forschung und Praxis der Lehrveranstaltungsevaluation an Hochschulen mit einem Beitrag zu Evaluation computerbasierten Unterrichts</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Rindermann H. Lehrevaluation. Einf&#252;hrung und &#220;berblick zu Forschung und Praxis der Lehrveranstaltungsevaluation an Hochschulen mit einem Beitrag zu Evaluation computerbasierten Unterrichts. Landau: Verlag Empirische P&#228;dagogik; 2001.</RefTotal>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Skeff KM</RefAuthor>
        <RefAuthor>Stratos GA</RefAuthor>
        <RefAuthor>Bergen MR</RefAuthor>
        <RefTitle>Evaluation of a medical faculty development program: a comparison of traditional pre&#47;post and retrospective self-assessment ratings</RefTitle>
        <RefYear>1992</RefYear>
        <RefJournal>Eval Health Prof</RefJournal>
        <RefPage>350-366</RefPage>
        <RefTotal>Skeff KM, Stratos GA, Bergen MR. Evaluation of a medical faculty development program: a comparison of traditional pre&#47;post and retrospective self-assessment ratings. Eval Health Prof. 1992;15(3):350-366. DOI: 10.1177&#47;016327879201500307</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1177&#47;016327879201500307</RefLink>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Srinivasan M</RefAuthor>
        <RefAuthor>Litzelman D</RefAuthor>
        <RefAuthor>Seshadri R</RefAuthor>
        <RefAuthor>Lane K</RefAuthor>
        <RefAuthor>Zhou W</RefAuthor>
        <RefAuthor>Bogdevic S</RefAuthor>
        <RefAuthor>Gaffney M</RefAuthor>
        <RefAuthor>Galvin M</RefAuthor>
        <RefAuthor>Mitchell G</RefAuthor>
        <RefAuthor>Treadwell P</RefAuthor>
        <RefAuthor>Willis L</RefAuthor>
        <RefTitle>Developing an OSTE to adress lapses in learners professional behavior and an instrument to code educators responses</RefTitle>
        <RefYear>2004</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>888-896</RefPage>
        <RefTotal>Srinivasan M, Litzelman D, Seshadri R, Lane K, Zhou W, Bogdevic S, Gaffney M, Galvin M, Mitchell G, Treadwell P, Willis L. Developing an OSTE to adress lapses in learners professional behavior and an instrument to code educators responses. Acad Med. 2004;79(9):888-896. DOI: 10.1097&#47;00001888-200409000-00017</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-200409000-00017</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Steinert Y</RefAuthor>
        <RefAuthor>Mann K</RefAuthor>
        <RefAuthor>Centeno A</RefAuthor>
        <RefAuthor>Dolmans D</RefAuthor>
        <RefAuthor>Spencer J</RefAuthor>
        <RefAuthor>Gelula M</RefAuthor>
        <RefAuthor>Prideaux D</RefAuthor>
        <RefTitle>A systematic review of faculty development initiatives designed to improve teaching effectiveness in medical education: BEME Guide No. 8</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>497-526</RefPage>
        <RefTotal>Steinert Y, Mann K, Centeno A, Dolmans D, Spencer J, Gelula M, Prideaux D. A systematic review of faculty development initiatives designed to improve teaching effectiveness in medical education: BEME Guide No. 8. Med Teach. 2006;28(6):497-526. DOI: 10.1080&#47;01421590600902976</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;01421590600902976</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Stern DT</RefAuthor>
        <RefAuthor>Williams BC</RefAuthor>
        <RefAuthor>Gill A</RefAuthor>
        <RefAuthor>Gruppen LD</RefAuthor>
        <RefAuthor>Wooliscroft JO</RefAuthor>
        <RefAuthor>Grum CM</RefAuthor>
        <RefTitle>Is there a relationship between attending physicians&#39; and residents&#39; teaching skills and students&#39; examination scores&#63; Acad Med</RefTitle>
        <RefYear>2000</RefYear>
        <RefTotal>Stern DT, Williams BC, Gill A, Gruppen LD, Wooliscroft JO, Grum CM. Is there a relationship between attending physicians&#39; and residents&#39; teaching skills and students&#39; examination scores&#63; Acad Med. 2000;75(11):1144-1146. DOI: 10.1097&#47;00001888-200011000-00024</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;00001888-200011000-00024</RefLink>
      </Reference>
      <Reference refNo="1">
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefAuthor>Dolmans DH</RefAuthor>
        <RefAuthor>Scherpbier AJ</RefAuthor>
        <RefTitle>The need for evidence in education</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>246-250</RefPage>
        <RefTotal>van der Vleuten CP, Dolmans DH, Scherpbier AJ. The need for evidence in education. Med Teach. 2000;22(3):246-250. DOI: 10.1080&#47;01421590050006205</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;01421590050006205</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption><Pgraph><Mark1>Tabelle 1: Evaluationskriterien f&#252;r didaktische Trainingsprogramme &#91;7&#93;</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID>2</MediaID>
          <Caption><Pgraph><Mark1>Tabelle 2: Bewertungskriterien medizindidaktischer Fortbildungen &#91;19&#93;. In der letzten Spalte ist wiedergegeben, wie viele der dort aufgenommen 53 Studien diese Kategorie erfasst haben (Mehrfachnennungen waren m&#246;glich).</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>2</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="216" width="481">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 1: Einflussfaktoren auf das Ergebnis medizindidaktischer Qualifizierungsangebote (modifiziert n. &#91;19&#93;)</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>1</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>