<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zma001752</Identifier>
    <IdentifierDoi>10.3205/zma001752</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0017525</IdentifierUrn>
    <ArticleType language="en">research article</ArticleType>
    <ArticleType language="de">Forschungsarbeit</ArticleType>
    <TitleGroup>
      <Title language="en">MaReS (Magdeburg Reflective Writing Scoring Rubric for Feedback) &#8211; development of a feedback method for reflective writing in health professions education: A pilot study in veterinary medicine</Title>
      <TitleTranslated language="de">MaReS (Magdeburger Reflexionsskala) &#8211; Entwicklung einer Feedback-Methode f&#252;r reflektierendes Schreiben in der Ausbildung von Gesundheitsberufen: Eine Pilotstudie in der Veterin&#228;rmedizin</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Ramspott</Lastname>
          <LastnameHeading>Ramspott</LastnameHeading>
          <Firstname>Sabine</Firstname>
          <Initials>S</Initials>
          <AcademicTitle>Dr.</AcademicTitle>
        </PersonNames>
        <Address language="en">Trillium GmbH Medizinischer Fachverlag, Jesenwanger Str. 42b, D-82284 Grafrath, Germany, Phone: &#43;49 (0)176&#47;76788212<Affiliation>Trillium GmbH Medizinischer Fachverlag, Grafrath, Germany</Affiliation></Address>
        <Address language="de">Trillium GmbH Medizinischer Fachverlag, Jesenwanger Str. 42b, 82284 Grafrath, Deutschland, Tel: &#43;49 (0)176&#47;76788212<Affiliation>Trillium GmbH Medizinischer Fachverlag, Grafrath, Deutschland</Affiliation></Address>
        <Email>sabine.ramspott&#64;trillium.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Sonntag</Lastname>
          <LastnameHeading>Sonntag</LastnameHeading>
          <Firstname>Ulrike</Firstname>
          <Initials>U</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>Charit&#233; &#8211; Universit&#228;tsmedizin Berlin, Institute of General Practic, Berlin, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Charit&#233; &#8211; Universit&#228;tsmedizin Berlin, Institut f&#252;r Allgemeinmedizin, Berlin, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>H&#228;rtl</Lastname>
          <LastnameHeading>H&#228;rtl</LastnameHeading>
          <Firstname>Anja</Firstname>
          <Initials>A</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University Hospital Augsburg, Department of Hygiene and Environmental Medicine, Augsburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;tsklinikum Augsburg, Stabsstelle f&#252;r Hygiene und Umweltmedizin, Augsburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>R&#252;ttermann</Lastname>
          <LastnameHeading>R&#252;ttermann</LastnameHeading>
          <Firstname>Stefan</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>Institut f&#252;r medizinische und pharmazeutische Pr&#252;fungsfragen (IMPP), Mainz, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Institut f&#252;r medizinische und pharmazeutische Pr&#252;fungsfragen (IMPP), Mainz, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Roller</Lastname>
          <LastnameHeading>Roller</LastnameHeading>
          <Firstname>Doris</Firstname>
          <Initials>D</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>Ruprecht-Karls-University, Center for Psychosocial Medicine, Institute of Medical Psychology, Heidelberg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Ruprecht-Karls-Universit&#228;t Heidelberg, Zentrum f&#252;r Psychosoziale Medizin, Institut f&#252;r Medizinische Psychologie, Heidelberg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Giesler</Lastname>
          <LastnameHeading>Giesler</LastnameHeading>
          <Firstname>Marianne</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>Freiburg&#47;Br., Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Freiburg&#47;Br., Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Hempel</Lastname>
          <LastnameHeading>Hempel</LastnameHeading>
          <Firstname>Linn</Firstname>
          <Initials>L</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>Martin-Luther-Universit&#228;t Halle-Wittenberg, Medical Faculty, Dorothea Erxleben Lernzentrum, Halle&#47;Saale, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Martin-Luther-Universit&#228;t Halle-Wittenberg, Medizinische Fakult&#228;t, Dorothea Erxleben Lernzentrum, Halle&#47;Saale, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">reflection</Keyword>
      <Keyword language="en">reflective writing</Keyword>
      <Keyword language="en">analytic scoring rubric</Keyword>
      <Keyword language="en">validity</Keyword>
      <Keyword language="en">feedback</Keyword>
      <Keyword language="de">Reflexion</Keyword>
      <Keyword language="de">reflektierendes Schreiben</Keyword>
      <Keyword language="de">analytisches Bewertungsinstrument</Keyword>
      <Keyword language="de">Validit&#228;t</Keyword>
      <Keyword language="de">Feedback</Keyword>
      <SectionHeading language="en">reflective writing</SectionHeading>
      <SectionHeading language="de">reflektierendes Schreiben</SectionHeading>
    </SubjectGroup>
    <DateReceived>20211012</DateReceived>
    <DateRevised>20240726</DateRevised>
    <DateAccepted>20241216</DateAccepted>
    <DatePublishedList>
      <DatePublished>20250415</DatePublished>
    </DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2366-5017</ISSN>
        <Volume>42</Volume>
        <Issue>2</Issue>
        <JournalTitle>GMS Journal for Medical Education</JournalTitle>
        <JournalTitleAbbr>GMS J Med Educ</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>28</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Zielsetzung: </Mark1>Das Ziel der Studie war die Entwicklung eines Bewertungsinstruments, mit dem Studierenden konstruktives Feedback gegeben werden kann sowie Belege f&#252;r die Konstruktvalidit&#228;t des Instruments zu sammeln.</Pgraph><Pgraph><Mark1>Methodik:</Mark1> Die Magdeburger Reflexionsskala (MaReS) wurde in einem iterativen Prozess im Anschluss an einen Workshop zum Thema Reflexion durch eine Arbeitsgruppe eines Ausschusses der &#8222;Gesellschaft f&#252;r Medizinische Ausbildung (GMA)&#8220; im Juni 2016 entwickelt. </Pgraph><Pgraph>25 Berichte von 13 Studierenden der Veterin&#228;rmedizin wurden in zwei Durchg&#228;ngen (13 und zw&#246;lf Berichte) von drei unabh&#228;ngigen Beurteilenden mit MaReS und von zwei Beurteilenden mit dem Instrument REFLECT bewertet. Die Validit&#228;t wurde anhand der folgenden Komponenten der Konstruktvalidit&#228;t von Messick ermittelt: Inhalt (Entwickeln des Instruments), Antwortprozess (Kodierleitfaden, Schulung der Beurteilenden, Bewertungsdauer, Evaluation durch Studierende), interne Struktur (Inter-Rater-Reliabilit&#228;t, IRR) und Beziehung zu anderen Variablen (Vergleich der Bewertung mit Instrument REFLECT und einer globalen Bewertungsskala). </Pgraph><Pgraph><Mark1>Ergebnisse: </Mark1>Das analytische Instrument umfasst zw&#246;lf Items, die auf einer dreistufigen Skala bewertet werden. Die Autor:innen entwickelten eine Aufgabenstellung mit Leitfragen f&#252;r die Studierenden sowie einen Kodierleitfaden. Die Ergebnisse f&#252;r das freie marginale Kappa der Items von MaReS reichten von -0,08 bis 0,77 f&#252;r die erste Gruppe von Reflexionsberichten und von 0,13 bis 0,75 f&#252;r die zweite Gruppe. Die Korrelationen zwischen MaReS und REFLECT waren positiv (erster Durchlauf: r&#61;0,92 (p&#60;0,001); zweiter Durchlauf: r&#61;0,29 (p&#61;0,37)).</Pgraph><Pgraph><Mark1>Schlussfolgerung: </Mark1>MaReS kann ein n&#252;tzliches Instrument sein, um das reflektierende Schreiben von Studierenden in der Ausbildung von Gesundheitsberufen sowohl anzuleiten als auch strukturiertes Feedback zu geben. Die Verwendung von weiteren Berichten zur Schulung der Beurteilenden und mehr Trainingszyklen w&#252;rden vermutlich zu h&#246;heren IRR f&#252;hren.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Aim: </Mark1>The aim of the study was to develop a scoring rubric that provides valuable feedback to students and to gather evidence for its construct validity. </Pgraph><Pgraph><Mark1>Methodology: </Mark1>The Magdeburg Reflective Writing Feedback and Scoring Rubric (MaReS) was developed in an iterative process following a symposium on reflection by a committee of the &#8220;DACH Association for Medical Education (GMA)&#8221; in June 2016. </Pgraph><Pgraph>25 essays written by 13 veterinary students were assessed by three independent raters with MaReS and by two raters with the REFLECT rubric in two runs (13 and twelve essays). Validity evidence was gathered referring to the following of Messick&#8217;s components of construct validity: content (rubric development), response process (rater manual, rater training, rating time, students&#8217; evaluation), internal structure (inter-rater reliability, IRR), and relationship to other variables (comparison of the rating with the REFLECT rubric and a global rating scale). </Pgraph><Pgraph><Mark1>Results: </Mark1>The analytic rubric comprises twelve items that are rated on three-point rating scales. The authors developed an assignment with guiding questions for students and a rater manual. Results for free marginal kappa of the items of MaReS ranged from -0.08 to 0.77 for the first set of reflective essays and from 0.13 to 0.75 for the second set. Correlations between MaReS and the REFLECT rubric were positive (first run: r&#61;0.92 (p&#60;0.001); second run: r&#61;0.29 (p&#61;0.37)). </Pgraph><Pgraph><Mark1>Conclusion: </Mark1>MaReS might be a useful tool to guide students&#8217; reflective writing and provide structured feedback in health professions education. Using more essays for a rater training and more training cycles are likely to result in higher IRRs.</Pgraph></Abstract>
    <TextBlock name="1. Introduction and aim" linked="yes" language="en">
      <MainHeadline>1. Introduction and aim</MainHeadline><SubHeadline>1.1. Reflection in health professions education</SubHeadline><Pgraph>To improve patient care different roles that physicians <TextLink reference="16"></TextLink> have to comply with and a set of domains for the veterinary practice <TextLink reference="5"></TextLink> have been defined. In order to meet the requirements of these roles or domains healthcare professionals have to acquire many corresponding competences during their studies &#91;<Hyperlink href="https:&#47;&#47;www.avma.org&#47;education&#47;accreditation-policies-and-procedures-avma-council-education-coe">https:&#47;&#47;www.avma.org&#47;education&#47;accreditation-policies-and-procedures-avma-council-education-coe</Hyperlink>&#93;, <TextLink reference="13"></TextLink>, <TextLink reference="16"></TextLink>, <TextLink reference="36"></TextLink>, <TextLink reference="45"></TextLink>. As demands and knowledge grow, their working environment becomes more and more complex. To provide up-to-date healthcare, physicians and veterinarians consequently have to engage in life-long learning, where the ability to reflect on one&#8217;s own actions is an integral part <TextLink reference="29"></TextLink>. Reflection was already regarded as an essential means of cognition in the Enlightenment (cf. 18<Superscript>th</Superscript> century Kant, Fries, among others) and was described as &#8220;inner introspection&#8221;, among other things <TextLink reference="17"></TextLink>, <TextLink reference="25"></TextLink>. Today&#8217;s literature describes reflection inter alia as an &#8220;in-depth consideration of events or situations: the people involved, what they experienced, and how they felt about it&#8221; <TextLink reference="6"></TextLink>. </Pgraph><Pgraph>Reflection therefore also supports the process of professional identity formation, a key development process for healthcare professions <TextLink reference="9"></TextLink>. Furthermore, reflective practice seems to foster resilience <TextLink reference="56"></TextLink> and to reduce stress <TextLink reference="33"></TextLink>. These aspects gain more and more importance as the well-being of physicians and veterinarians has become an increasing concern in recent years <TextLink reference="19"></TextLink>, <TextLink reference="31"></TextLink>, <TextLink reference="32"></TextLink>, <TextLink reference="55"></TextLink>, <TextLink reference="60"></TextLink>.</Pgraph><Pgraph>The ability to reflect can be developed as part of a learning process <TextLink reference="54"></TextLink> and fostered by different activities: Reflective writing has been used widely in medical education <TextLink reference="27"></TextLink>, <TextLink reference="28"></TextLink>, <TextLink reference="46"></TextLink>, <TextLink reference="53"></TextLink>, <TextLink reference="58"></TextLink>. Other activity formats include group discussions <TextLink reference="7"></TextLink>, <TextLink reference="33"></TextLink>, online forums <TextLink reference="35"></TextLink>, digital storytelling <TextLink reference="52"></TextLink> and collaborative drawing <TextLink reference="34"></TextLink>. </Pgraph><Pgraph>The effectiveness of &#8220;writing as a method&#8221; has been proven <TextLink reference="48"></TextLink>. In writing down a perceived situation, people develop the awareness of what had happened and additionally train their expressive skills. This affects how one thinks, feels and acts. People who benefit the most are those who have little opportunity for self-disclosure in everyday life, who find it difficult to recognize and name feelings and who can try out perspectives for their fixed way of thinking while writing <TextLink reference="54"></TextLink>.</Pgraph><Pgraph>To promote reflection feedback can be a highly relevant and powerful tool, but a systematic review showed that in most of the studies using feedback as part of their intervention to develop reflection the methods and details of the feedback remained unclear <TextLink reference="55"></TextLink>. Only one of the studies described the protocol that was used for providing feedback <TextLink reference="3"></TextLink>. </Pgraph><Pgraph>German speaking countries have many large medical and veterinary faculties with up to 870 first year students (e.g., LMU Munich, Germany). Reflective writing seems to be an ideal means to engage large numbers of students in reflection. Nevertheless, teaching reflection and providing feedback on reflective writings to a large number of students is expected to be a resource intensive endeavour. Individual written feedback is supposed to be more time consuming than the use of a rubric, where boxes can be ticked. Therefore, scoring rubrics can be a suitable means to simplify feedback. Since the use of structured reflection is relatively new in health professions education in Germany, Austria and Switzerland (DACH region), teachers are usually not very experienced in teaching this competency and providing feedback.</Pgraph><SubHeadline>1.2. Scoring rubrics</SubHeadline><Pgraph>Rubrics are often used to assess performance and reflective writing. There are two different ways of scoring: In holistic scoring the assessors rate the student&#8217;s essay as a complete unit against a prepared scale, whereas in analytic scoring the assessors break down the essay into its constituent elements, each of which is assigned a proportion of the available mark <TextLink reference="22"></TextLink>. Educators usually use holistic scoring for large-scale assessment because it is assumed to be easy to handle, cheap and accurate. Analytical scoring is useful in teaching since the results can help teachers and students to identify students&#8217; strengths and learning needs <TextLink reference="24"></TextLink>. If the scoring of a reflective writing will be used as a formative assessment, the analytical approach seems more suitable.</Pgraph><Pgraph>Medical educators have developed several holistic <TextLink reference="30"></TextLink>, <TextLink reference="44"></TextLink>, <TextLink reference="47"></TextLink>, <TextLink reference="51"></TextLink>, <TextLink reference="59"></TextLink>, <TextLink reference="61"></TextLink> and analytic <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>, <TextLink reference="57"></TextLink> rubrics for the formative and&#47;or summative assessment of reflective essays. Reis et al. developed &#8220;The Brown Educational Guide to the Analysis of Narrative&#8221; (BEGAN), a guide for crafting written feedback to students&#8217; reflective writing <TextLink reference="50"></TextLink>. This guide and the analytic rubrics can be used to provide feedback on students&#8217; reflective essays. The REFLECT rubric comprises five major criteria (writing spectrum, presence, description of conflict or disorienting dilemma, attending to emotions, analysis and meaning making) and one optional minor criterion (attention to assignment). Four levels of reflection (habitual action, thoughtful action or introspection, reflection, and critical reflection) are assigned to these criteria. If the level critical reflection is achieved the learning outcomes are also to be defined as transformative or confirmatory learning <TextLink reference="57"></TextLink>. The rubric of Devlin et al. comprises four dimensions (descriptive, comparative, personal and critical) with prompts (questions) to guide assessment and feedback <TextLink reference="11"></TextLink>. Devi&#8217;s rubric is based on Koole&#8217;s indicators to describe the process of reflection <TextLink reference="29"></TextLink> and Moon&#8217;s grading system <TextLink reference="41"></TextLink>. Raters grade the essays from A to F <TextLink reference="10"></TextLink>. So far, no assessment rubric for reflective writing in a medical context could be identified in German. </Pgraph><SubHeadline>1.3. Guides for reflective writing</SubHeadline><Pgraph>There are several guides for reflective writing in medical education: In the appendix to his AMEE Guide, Sandars <TextLink reference="51"></TextLink> gives examples for a student information sheet for undergraduate and postgraduate medical students based on Moon&#8217;s handbook <TextLink reference="41"></TextLink>, a template for structured reflection to develop a therapeutic relationship of professional practice after Johns <TextLink reference="23"></TextLink> with 20 guiding questions and 11 questions to develop deeper reflection. Aronson et al. developed a reflective learning guide that consists of a structured approach to reflection based on the SOAP format with guiding questions and an information sheet about reflection and strategies for successful reflection. Aronson et al. tested their tool using a holistic scoring rubric <TextLink reference="4"></TextLink>. We could not identify an analytic scoring rubric accompanied by guiding questions or a guide for students. </Pgraph><SubHeadline>1.4. Aim</SubHeadline><Pgraph>The aim of the study was to develop a German analytic rubric for the formative assessment of reflective essays, that is aligned with guiding questions for students and provides valuable feedback to students. The use of the rubric should be easy and timesaving for teachers when assessing reflective essays. In addition, the authors&#8217; goal was to gather validity evidence for the new tool. </Pgraph></TextBlock>
    <TextBlock name="1. Einleitung und Zielsetzung" linked="yes" language="de">
      <MainHeadline>1. Einleitung und Zielsetzung</MainHeadline><SubHeadline>1.1. Reflexion in der Ausbildung von Gesundheitsberufen</SubHeadline><Pgraph>Um die Patientenversorgung zu verbessern, wurden verschiedene Rollen, die Mediziner&#42;innen <TextLink reference="16"></TextLink> erf&#252;llen m&#252;ssen, sowie eine Reihe von Dom&#228;nen f&#252;r die tier&#228;rztliche Praxis <TextLink reference="5"></TextLink> definiert. Um den Anforderungen dieser Rollen bzw. Dom&#228;nen gerecht zu werden, m&#252;ssen Fachkr&#228;fte im Gesundheitswesen w&#228;hrend ihres Studiums zahlreiche entsprechende Kompetenzen erwerben &#91;<Hyperlink href="https:&#47;&#47;www.avma.org&#47;education&#47;center-for-veterinary-accreditation&#47;accreditation-policies-and-procedures-avma-council-education-coe">https:&#47;&#47;www.avma.org&#47;education&#47;center-for-veterinary-accreditation&#47;accreditation-policies-and-procedures-avma-council-education-coe</Hyperlink>&#93;, <TextLink reference="13"></TextLink>, <TextLink reference="16"></TextLink>, <TextLink reference="36"></TextLink>, <TextLink reference="45"></TextLink>. Da die Anforderungen und das Wissen stetig wachsen, wird das Arbeitsumfeld der Fachkr&#228;fte immer komplexer. Um eine zeitgem&#228;&#223;e Gesundheitsversorgung zu gew&#228;hrleisten, m&#252;ssen Mediziner&#42;innen und Tiermediziner&#42;innen lebenslang lernen, wobei die F&#228;higkeit zur Reflexion des eigenen Handelns ein wesentlicher Bestandteil ist <TextLink reference="29"></TextLink>. Reflexion wurde bereits in der Aufkl&#228;rung (vgl. 18. Jh. Kant, Fries u. a.) als wesentliches Mittel der Erkenntnis angesehen und u. a. als &#8222;innere Einkehr&#8220; beschrieben <TextLink reference="17"></TextLink>, <TextLink reference="25"></TextLink>. In der heutigen Literatur wird Reflexion u. a. als &#8222;in-depth consideration of events or situations: the people involved, what they experienced, and how they felt about it&#8220; <TextLink reference="6"></TextLink> beschrieben.</Pgraph><Pgraph>Reflexion unterst&#252;tzt somit auch den Prozess der beruflichen Identit&#228;tsbildung, einen wichtigen Entwicklungsprozess f&#252;r Personen in den Gesundheitsberufen <TextLink reference="9"></TextLink>. Dar&#252;ber hinaus zeigt sich, dass Reflexion die Resilienz zu f&#246;rdern <TextLink reference="56"></TextLink> und Stress zu reduzieren scheint <TextLink reference="33"></TextLink>. Diese Erkenntnisse werden auch deswegen relevanter, da das Wohlbefinden von Mediziner&#42;innen und Tiermediziner&#42;innen in den letzten Jahren immer mehr an Bedeutung gewonnen hat <TextLink reference="19"></TextLink>, <TextLink reference="31"></TextLink>, <TextLink reference="32"></TextLink>, <TextLink reference="55"></TextLink>, <TextLink reference="60"></TextLink>.</Pgraph><Pgraph>Die F&#228;higkeit zur Reflexion kann als Teil eines Lernprozesses <TextLink reference="54"></TextLink> entwickelt und durch verschiedene Aktivit&#228;ten gef&#246;rdert werden: Reflektierendes Schreiben ist in der medizinischen Ausbildung weit verbreitet <TextLink reference="27"></TextLink>, <TextLink reference="28"></TextLink>, <TextLink reference="46"></TextLink>, <TextLink reference="53"></TextLink>, <TextLink reference="58"></TextLink>.</Pgraph><Pgraph>Andere Aktivit&#228;ten, die das Reflektieren f&#246;rdern, sind Gruppendiskussionen <TextLink reference="7"></TextLink>, <TextLink reference="33"></TextLink>, Online-Foren <TextLink reference="35"></TextLink>, &#8222;digital Storytelling&#8220; <TextLink reference="52"></TextLink> und gemeinsames Zeichnen <TextLink reference="34"></TextLink>. </Pgraph><Pgraph>&#8222;Schreiben als Methode&#8220; ist nachweisbar wirksam &#91;48&#93;. Indem Menschen eine wahrgenommene Situation aufschreiben, werden sie sich des Geschehenen gewahr und trainieren zus&#228;tzlich ihre Ausdrucksf&#228;higkeit. Dies wirkt sich auf das Denken, F&#252;hlen und Handeln aus. Am meisten profitieren Menschen, die im Alltag wenig Gelegenheit zur Selbstoffenbarung haben, denen das Erkennen und Benennen von Gef&#252;hlen schwerf&#228;llt und die im Schreiben Perspektiven zu ihren festen Denkmustern ausprobieren k&#246;nnen <TextLink reference="54"></TextLink>.</Pgraph><Pgraph>Um Reflexion zu f&#246;rdern, kann Feedback ein &#228;u&#223;erst relevantes und wirkungsvolles Instrument sein. Ein systematisches Review zeigte jedoch, dass in den meisten Studien, die Feedback als Element ihrer Intervention zur F&#246;rderung der Reflexion einsetzten, die Methoden und Feedbackdetails unklar blieben <TextLink reference="55"></TextLink>. Nur eine der Studien beschrieb das Protokoll, das f&#252;r die Bereitstellung von Feedback verwendet wurde <TextLink reference="3"></TextLink>. </Pgraph><Pgraph>Im deutschsprachigen Raum gibt es viele gro&#223;e medizinische und veterin&#228;rmedizinische Fakult&#228;ten mit bis zu 870 Studienanf&#228;nger&#42;innen (z. B. Ludwig-Maximilians-Universit&#228;t M&#252;nchen, Deutschland). Reflektierendes Schreiben scheint ein ideales Mittel zu sein, um eine gro&#223;e Anzahl von Studierenden in Reflexionsprozesse zu involvieren. Es ist jedoch ressourcenintensiv, Reflexion zu lehren und einer gro&#223;en Anzahl von Studierenden Feedback zu ihren Texten zu geben. Ein individuelles schriftliches Feedback ist sehr wahrscheinlich zeitaufw&#228;ndiger als die Nutzung eines Instruments, mit dem durch Ankreuzen Feedback gegeben werden kann. Somit k&#246;nnen entsprechende Bewertungsinstrumente ein geeignetes Mittel sein, um das Geben von Feedback zu vereinfachen. Da der Einsatz von strukturierter Reflexion in der Ausbildung von Gesundheitsberufen in Deutschland, &#214;sterreich und der Schweiz (DACH-Region) relativ neu ist, sind Lehrende in der Regel weder in der Vermittlung dieser Kompetenz noch im Geben von Feedback besonders erfahren.</Pgraph><SubHeadline>1.2. Bewertungsinstrumente</SubHeadline><Pgraph>Zur Bewertung von Leistungen und schriftlichen Reflexionen werden h&#228;ufig spezielle Instrumente verwendet. Es gibt zwei verschiedene Arten der Bewertung: Bei der ganzheitlichen Bewertung bewerten die Pr&#252;fenden den Aufsatz des Studierenden anhand einer vorgegebenen Skala global, w&#228;hrend bei der analytischen Bewertung der Aufsatz in einzelne Elemente zerlegt wird, von denen jedes einen Anteil der verf&#252;gbaren Note erh&#228;lt <TextLink reference="22"></TextLink>. Ausbildende verwenden in der Regel die ganzheitliche Bewertung f&#252;r umfangreiche Beurteilungen, da sie als einfach zu handhaben, kosteng&#252;nstig und genau gilt. Die analytische Bewertung ist f&#252;r die Lehre n&#252;tzlich, da die Ergebnisse Lehrenden und Studierenden helfen k&#246;nnen, die St&#228;rken und Lernbed&#252;rfnisse der Studierenden zu erkennen <TextLink reference="24"></TextLink>. Soll die Bewertung eines Reflexionsberichts als formative Beurteilung verwendet werden, scheint der analytische Ansatz besser geeignet.</Pgraph><Pgraph>Lehrende in der Medizin haben mehrere holistische <TextLink reference="30"></TextLink>, <TextLink reference="44"></TextLink>, <TextLink reference="47"></TextLink>, <TextLink reference="51"></TextLink>, <TextLink reference="59"></TextLink>, <TextLink reference="61"></TextLink> und analytische <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>, <TextLink reference="57"></TextLink> Instrumente f&#252;r die formative und&#47;oder summative Bewertung von Reflexionsberichten entwickelt. Reis et al. entwickelten &#8222;The Brown Educational Guide to the Analysis of Narrative&#8220; (BEGAN), einen Leitfaden f&#252;r die Erstellung von schriftlichem Feedback zu Reflexionsberichten von Studierenden <TextLink reference="50"></TextLink>. Dieser Leitfaden und die analytischen Instrumente k&#246;nnen verwendet werden, um Feedback zu den Reflexionsberichten der Studierenden zu geben. Das Instrument REFLECT umfasst f&#252;nf Hauptkriterien (Schreibspektrum, Pr&#228;senz, Beschreibung eines Konflikts oder desorientierenden Dilemmas, Beachtung von Emotionen, Analyse und Beimessung von Bedeutung) sowie ein optionales Nebenkriterium (Beachtung der Aufgabenstellung). Diesen Kriterien sind vier Reflexionsstufen zugeordnet (gewohnheitsm&#228;&#223;iges Handeln, &#252;berlegtes Handeln oder Introspektion, Reflexion und kritische Reflexion). Wenn die Stufe der kritischen Reflexion erreicht wird, sind die Lernergebnisse auch als transformatives oder best&#228;tigendes Lernen zu definieren <TextLink reference="57"></TextLink>. Das Instrument von Devlin et al. umfasst vier Dimensionen (deskriptiv, vergleichend, pers&#246;nlich und kritisch) mit Fragen, die die Bewertung und das Feedback anleiten <TextLink reference="11"></TextLink>. Das Instrument von Devi basiert auf den Indikatoren von Koole <TextLink reference="29"></TextLink> zur Beschreibung des Reflexionsprozesses und dem Benotungssystem von Moon <TextLink reference="41"></TextLink>. Die Bewertenden benoten die Berichte von A bis F <TextLink reference="10"></TextLink>. Bislang konnte kein Bewertungsinstrument f&#252;r reflektierendes Schreiben im medizinischen Kontext in deutscher Sprache identifiziert werden.</Pgraph><SubHeadline>1.3. Leitf&#228;den f&#252;r reflektierendes Schreiben</SubHeadline><Pgraph>Es gibt mehrere Leitf&#228;den f&#252;r das reflektierende Schreiben in der medizinischen Ausbildung. Im Anhang von Sandars <TextLink reference="51"></TextLink> AMEE-Leitfadens finden sich verschiedene Materialien: Beispiele f&#252;r ein Informationsblatt f&#252;r Medizinstudierende im Grund- und Aufbaustudium, das auf Moons Handbuch <TextLink reference="41"></TextLink> basiert, eine Vorlage f&#252;r eine strukturierte Reflexion zur Entwicklung einer therapeutischen Beziehung in der beruflichen Praxis nach Johns <TextLink reference="23"></TextLink> mit 20 Leitfragen sowie elf Fragen, um die Reflexion zu vertiefen. Aronson et al. <TextLink reference="4"></TextLink> entwickelten einen Leitfaden f&#252;r reflexives Lernen, der aus einem strukturierten Ansatz zur Reflexion auf der Grundlage des SOAP-Formats mit Leitfragen und einem Informationsblatt &#252;ber Reflexion und Strategien f&#252;r erfolgreiche Reflexion besteht. Aronson et al. testeten ihr Instrument anhand eines holistischen Bewertungstools <TextLink reference="4"></TextLink>. Die Autor&#42;innen dieses Artikels konnten weder ein analytisches Bewertungsinstrument mit dazugeh&#246;rigen Leitfragen noch einen Leitfaden f&#252;r Studierende finden.</Pgraph><SubHeadline>1.4. Zielsetzung</SubHeadline><Pgraph>Ziel der Studie war es, ein deutsches Bewertungsinstrument f&#252;r die formative Beurteilung von Reflexionsberichten zu entwickeln, das sich an Leitfragen f&#252;r Studierende orientiert und ihnen wertvolle R&#252;ckmeldungen gibt. Die Nutzung des Instruments soll f&#252;r Lehrende bei der Bewertung von Reflexionsberichten einfach und zeitsparend sein. Dar&#252;ber hinaus war es das Ziel der Autor&#42;innen, Belege f&#252;r die Validit&#228;t des neuen Instruments zu sammeln.</Pgraph></TextBlock>
    <TextBlock name="2. Methods" linked="yes" language="en">
      <MainHeadline>2. Methods</MainHeadline><SubHeadline>2.1. Scoring rubric development</SubHeadline><Pgraph>The committee for Communicative and Social Competencies (KusK) of the &#8220;DACH Association for Medical Education (GMA)&#8221; (Gesellschaft f&#252;r Medizinische Ausbildung, GMA) hosted a symposium on reflection in June 2016 to discuss possibilities to incorporate reflection into the teaching of communication and social skills for medical and veterinary students in Germany. The participants of one workshop examined three existing tools to assess reflective essays <TextLink reference="44"></TextLink>, <TextLink reference="50"></TextLink>, <TextLink reference="57"></TextLink>. Based on these three tools, a first version of a scoring rubric was developed. </Pgraph><Pgraph>After the workshop the scoring rubric was refined using Koole&#8217;s model of common elements describing the process of reflection <TextLink reference="29"></TextLink> as a guide for the content selection. Concerning the structure and wording of the scoring rubric, Moskal&#8217;s recommendations for scoring rubric development were followed <TextLink reference="43"></TextLink>. The feedback rubric was developed together with a matching assignment and guiding questions for students and a rater manual in an iterative process. After several revisions by the authors of this paper and after a first consensus was achieved, the rubric, assignment, and guiding questions, the rater manual and an example essay for reflective writing was sent to six external experts, who were engaged in reflective activities at their medical and veterinary faculties in Germany. The expert group comprised doctors, veterinarians, health scientists and psychologists. The feedback of the external experts on the tool and its elements was discussed and incorporated into the new version of the tool after consensus. The tool was named Magdeburg Reflective Writing Feedback and Scoring Rubric (Magdeburger Reflexionsskala, MaReS) according to its place of origin. </Pgraph><SubHeadline>2.2. Evidence for construct validity</SubHeadline><Pgraph>&#8220;Validity is an integrated evaluative judgment of the degree to which empirical evidence and theoretical rationales support the adequacy and appropriateness of interpretations and actions based on test scores or other modes of assessment&#8221; <TextLink reference="37"></TextLink>. The assessment tool itself cannot be declared valid (or not valid), but more (or less) validity evidence can be collected to support the proposed interpretations of assessment scores. The context in which the validity evidence is collected remains important: assessment data is more &#8211; or less &#8211; valid for a specific purpose, meaning or interpretation at a certain point of time and for a specific population for which validity evidence was collected <TextLink reference="12"></TextLink>. In this study we collected validity evidence for using the rubric as a formative assessment tool of reflective capacity in reflective essays. The essays on veterinary practice were written by veterinary students who took part in an optional subject on reflection in 2017 and were rated by five raters who didn&#8217;t know the students; each essay was rated by three raters using the newly developed scoring rubric and two using the REFLECT rubric. We gathered validity evidence for four of the six sources of construct validity named by Messick <TextLink reference="38"></TextLink>: content, response process, internal structure and relationship to other variables. Figure 1 <ImgLink imgNo="1" imgType="figure" /> shows the study design; figure 2 <ImgLink imgNo="2" imgType="figure" /> shows the sources of validity evidence selected for this study. In the following section we describe the methods that we used to obtain evidence for the different sources of construct validity in a chronological order. Therefore, the source &#8220;response process&#8221; is split up in this section.</Pgraph><SubHeadline2>2.2.1. Content &#8211; feedback rubric development</SubHeadline2><Pgraph>The way in which we developed the instrument contributes to the evidence for content validity (see 2.1.). </Pgraph><SubHeadline2>2.2.2. Response process I &#8211; use of rater manual and rater training</SubHeadline2><Pgraph>All five raters attended the two-day KusK-Workshop on reflection in June 2016. After the development of MaReS, raters (us, lh, sr&#252;, dr, ah) were provided with the final version of the rubric, assignment, and guiding questions and the rater manual. They rated an example essay individually. Ratings were compared and divergent ratings were discussed with all raters in a telephone conference. Subsequently all raters agreed on a common approach for the items. The rater manual was adjusted accordingly. </Pgraph><Pgraph>The same approach was followed for the REFLECT rubric <TextLink reference="58"></TextLink> that we employed to evaluate the relationship to other variables (see 2.3.). Since there was no rater manual at that time, adjusting the manual did not apply. We used the English version of REFLECT and the four steps for its application <TextLink reference="57"></TextLink>. </Pgraph><SubHeadline2>2.2.3. Internal structure &#8211; inter-rater reliability and relationship to other variables &#8211; comparison to another scoring rubric</SubHeadline2><Pgraph>The Ethics Committee of the LMU Munich granted ethical approval for the study (project number 17-065). Thirteen students of an elective course about reflection on veterinary practice each wrote one reflective essay after six hours of instruction about reflection in general and different reflective activities, including reflective writing based on MaReS. Students were made familiar with the assessment tool. They discussed different examples of reflective writing and the scoring with MaReS. The assignment was to <Mark2>write a reflective essay about a concrete situation. The students had to choose a situation connected to their studies or occupation in which they have felt challenged during the interaction with a patient, a patient owner, a fellow student or a teacher.</Mark2> The 13 essays were assessed by three raters using MaReS (ah, dr, lh) and by two raters using REFLECT (us, sr&#252;). One of the MaReS ratings was reported back to the students. Subsequently twelve of the students wrote another reflective essay that was rated with MaReS by three raters again (us, sr&#252;, lh) and with REFLECT by two raters (ah, dr). One of the MaReS ratings was again reported back to the students. All raters filled in a five-point scale overall rating for every essay. We used the overall and REFLECT rating for study purposes only and not reported back to the students. </Pgraph><SubHeadline2>2.2.4. Response process II &#8211; rating time and rater notes</SubHeadline2><Pgraph>Raters also reported the time they needed for their rating, and, if necessary, made notes on important aspects of the essay, reported difficult items and possible new anchor examples for the rater manual. </Pgraph><SubHeadline2>2.2.5. Response process III &#8211; student evaluation</SubHeadline2><Pgraph>After receiving two feedback sheets on their essays with MaReS, eight students filled in a questionnaire. It comprised five general questions on reflection and the elective subject, six questions on the assignment and guiding questions, four questions on the feedback they received and five questions on their reflective ability and views on reflective writing.  </Pgraph><SubHeadline>2.3. Statistical methods</SubHeadline><Pgraph>The rating time for the essays was analysed by descriptive statistics using mean values and standard deviation (SD). Inter-rater reliability (IRR) was determined using free marginal kappa <TextLink reference="49"></TextLink>. Correlation between overall MaReS score (sum of the overall rating for MaReS of 3 raters), overall REFLECT score (sum of the overall rating for REFLECT of 2 raters) and global rating (sum of the corresponding global rating of 3 raters for MaReS and of 2 raters for REFLECT) was determined using Spearman&#8217;s Rank correlation coefficient. </Pgraph><Pgraph>Students&#8217; evaluations and raters&#8217; feedback were analysed using descriptive statistics (absolute numbers) for questions with answers on a five-point scale and using content analysis according to Mayring for open questions. </Pgraph></TextBlock>
    <TextBlock name="2. Methoden" linked="yes" language="de">
      <MainHeadline>2. Methoden</MainHeadline><SubHeadline>2.1. Entwicklung des Bewertungsinstruments</SubHeadline><Pgraph>Der Ausschuss &#34;Kommunikative und soziale Kompetenzen&#34; (KusK) der Gesellschaft f&#252;r Medizinische Ausbildung (GMA) veranstaltete im Juni 2016 ein Workshop zum Thema Reflexion, um M&#246;glichkeiten zu er&#246;rtern, Reflexion in die Lehre von kommunikativen und sozialen Kompetenzen f&#252;r Medizin- und Tiermedizinstudierende in Deutschland zu integrieren. Die Teilnehmenden eines Workshops untersuchten drei bestehende Instrumente zur Bewertung von Reflexionsberichten <TextLink reference="44"></TextLink>, <TextLink reference="50"></TextLink>, <TextLink reference="57"></TextLink>. Basierend auf diesen drei Instrumenten wurde eine erste Version eines Bewertungsinstruments entwickelt. </Pgraph><Pgraph>Nach dem Workshop wurde das Bewertungsinstrument pr&#228;zisiert, wobei Kooles Modell gemeinsamer Elemente zur Beschreibung eines Reflexionsprozesses <TextLink reference="29"></TextLink> als Leitfaden f&#252;r die Auswahl der Inhalte diente. Hinsichtlich der Struktur und des Wortlauts des Bewertungsinstruments wurde den Empfehlungen von Moskal <TextLink reference="43"></TextLink> zur Entwicklung von Bewertungsinstrumenten gefolgt. Das Feedbackinstrument wurde zusammen mit einer passenden Aufgabenstellung, Leitfragen f&#252;r Studierende sowie einem Kodierleitfaden in einem iterativen Prozess entwickelt. Nach mehreren &#220;berarbeitungen und einem ersten Konsensverfahren durch die Autor&#42;innen dieser Publikation wurden das Instrument, die Aufgabenstellung und die Leitfragen, der Kodierleitfaden und ein Beispiel-Reflexionsbericht an sechs externe Expert&#42;innen geschickt, die sich an medizinischen und veterin&#228;rmedizinischen Fakult&#228;ten in Deutschland mit Reflexion in der Lehre befassen. Die Expertengruppe setzte sich aus Mediziner&#42;innen, Tiermediziner&#42;innen, Gesundheitswissenschaftler&#42;innen und Psycholog&#42;innen zusammen. Deren R&#252;ckmeldungen zum Instrument und seinen Items wurden diskutiert und nach einem Konsens in die neue Version des Instruments eingearbeitet. Das Instrument wurde in Anlehnung an seinen Entstehungsort &#8222;Magdeburger Reflexionsskala&#8220; (MaReS) genannt. </Pgraph><SubHeadline>2.2. Belege f&#252;r die Konstruktvalidit&#228;t</SubHeadline><Pgraph>&#8222;Validity is an integrated evaluative judgment of the degree to which empirical evidence and theoretical rationales support the adequacy and appropriateness of interpretations and actions based on test scores or other modes of assessment&#8220; <TextLink reference="37"></TextLink>. Das Bewertungsinstrument selbst kann nicht f&#252;r valide (oder nicht valide) erkl&#228;rt werden, aber es k&#246;nnen mehr (oder weniger) Belege f&#252;r seine Validit&#228;t gesammelt werden, um die vorgeschlagenen Interpretationen der Bewertungsergebnisse zu unterst&#252;tzen. Der Kontext, in dem die Belege f&#252;r die Validit&#228;t gesammelt werden, ist nach wie vor wichtig: Bewertungsergebnisse sind f&#252;r einen bestimmten Zweck, eine bestimmte Bedeutung oder Interpretation zu einem bestimmten Zeitpunkt und f&#252;r eine bestimmte Population, f&#252;r die Belege f&#252;r die Validit&#228;t gesammelt wurden, mehr &#8211; oder weniger &#8211; g&#252;ltig <TextLink reference="12"></TextLink>. In dieser Studie haben wir Belege f&#252;r die Validit&#228;t f&#252;r die Verwendung des Instruments als formatives Beurteilungsinstrument der Reflexionsf&#228;higkeit in Reflexionsberichten gesammelt. Die Berichte &#252;ber die tier&#228;rztliche Praxis wurden von Tiermedizinstudierenden verfasst, die 2017 an einem Wahlpflichtfach zum Thema Reflexion teilnahmen und von f&#252;nf Bewertenden bewertet, die die Studierenden nicht kannten. Jeder Bericht wurde von drei Bewertenden mit dem neu entwickelten Bewertungsinstrument und von zwei mit dem Instrument REFLECT bewertet. Die Autor&#42;innen des vorliegenden Artikels sammelten Belege f&#252;r die Validit&#228;t f&#252;r vier der sechs von Messick <TextLink reference="38"></TextLink> aufgef&#252;hrten Quellen der Konstruktvalidit&#228;t: Inhalt, Antwortprozess, interne Struktur und Bezug zu anderen Variablen. Abbildung 1 <ImgLink imgNo="1" imgType="figure" /> zeigt das Studiendesign; Abbildung 2 <ImgLink imgNo="2" imgType="figure" /> zeigt die f&#252;r diese Studie ausgew&#228;hlten Quellen der Belege f&#252;r die Validit&#228;t. Im folgenden Abschnitt beschreiben wir die Methoden, die wir zum Sammeln von Belegen f&#252;r die verschiedenen Quellen der Konstruktvalidit&#228;t verwendet haben in chronologischer Reihenfolge. Daher wird die Quelle &#8222;Antwortprozess&#8220; in diesem Abschnitt aufgeteilt.</Pgraph><SubHeadline2>2.2.1. Inhalt &#8211; Entwicklung des Bewertungsinstruments</SubHeadline2><Pgraph>Die Art und Weise, wie wir das Instrument entwickelt haben, tr&#228;gt zum Nachweis der Inhaltsvalidit&#228;t bei (siehe 2.1.). </Pgraph><SubHeadline2>2.2.2. Antwortprozess I &#8211; Nutzung des Kodierleitfadens und Schulung der Bewertenden</SubHeadline2><Pgraph>Alle f&#252;nf Bewertende nahmen am zweit&#228;gigen KusK-Workshop zu Reflexion im Juni 2016 teil. Nach der Entwicklung von MaReS wurde den Bewertenden (us, lh, sr&#252;, dr, ah) die endg&#252;ltige Version des Instruments, die Aufgabenstellung, die Leitfragen und der Kodierleitfaden zur Verf&#252;gung gestellt. Sie bewerteten jeweils einzeln und unabh&#228;ngig den gleichen Beispielbericht. Die Bewertungen wurden verglichen und abweichende Bewertungen wurden mit allen Bewertenden in einer Telefonkonferenz diskutiert. Anschlie&#223;end einigten sich alle Bewertenden auf eine gemeinsame Vorgehensweise bez&#252;glich der Items. Der Kodierleitfaden wurde entsprechend angepasst. </Pgraph><Pgraph>Der gleiche Ansatz wurde f&#252;r das Instrument REFLECT <TextLink reference="58"></TextLink> verfolgt, das zur Bewertung des Bezugs zu anderen Variablen verwendet wurde (siehe 2.3.). Da hier zu diesem Zeitpunkt kein Kodierleitfaden vorlag, war eine Anpassung nicht erforderlich. Somit wurden die englische Version von REFLECT und die vier Schritte f&#252;r seine Anwendung verwendet <TextLink reference="57"></TextLink>.</Pgraph><SubHeadline2>2.2.3. Interne Struktur &#8211; Inter-Rater-Reliabilit&#228;t und Bezug zu anderen Variablen &#8211; Vergleich mit einem anderen Bewertungsinstrument</SubHeadline2><Pgraph>Die Ethikkommission der LMU M&#252;nchen erteilte das Ethikvotum f&#252;r die Studie (Projektnummer 17-065). Dreizehn Studierende eines Wahlpflichtfachs &#252;ber Reflexion in der tier&#228;rztlichen Praxis schrieben jeweils einen Reflexionsbericht, nachdem sie sechs Stunden Unterricht zu Reflexion im Allgemeinen sowie zu verschiedenen Aktivit&#228;ten zur F&#246;rderung von Reflexion, einschlie&#223;lich des reflektierenden Schreibens auf Grundlage von MaReS erhalten hatten. Die Studierenden wurden mit dem Bewertungsinstrument vertraut gemacht. Sie diskutierten verschiedene Beispiele f&#252;r reflektierendes Schreiben und die Bewertung mit MaReS. Die Aufgabe bestand darin, einen Reflexionsbericht &#252;ber eine konkrete Situation zu schreiben. Die Studierenden sollten eine Situation aus ihrem Studium oder Beruf w&#228;hlen, in der sie sich in der Interaktion mit Patient&#42;innen, Patientenbesitzer&#42;innen, Kommiliton&#42;innen oder Lehrenden herausgefordert f&#252;hlten. Die 13 Berichte wurden von drei Bewertenden mit MaReS (ah, dr, lh) und von zwei Bewertenden mit REFLECT (us, sr&#252;) bewertet. Eine der f&#252;nf MaReS-Bewertungen wurde an die Studierenden zur&#252;ckgemeldet. Anschlie&#223;end schrieben zw&#246;lf der Studierenden einen weiteren Reflexionsbericht, der wiederum von drei Bewertenden (us, sr&#252;, lh) mit MaReS und von zwei Bewertenden (ah, dr) mit REFLECT bewertet wurde. Wieder wurde eine der MaReS-Bewertungen an die Studierenden zur&#252;ckgemeldet. Alle Bewertenden f&#252;llten f&#252;r jeden Bericht eine f&#252;nfstufige Gesamtwertung aus. Die Gesamt- und REFLECT-Bewertung wurde nur f&#252;r Studienzwecke verwendet und nicht an die Studierenden zur&#252;ckgemeldet.</Pgraph><SubHeadline2>2.2.4. Antwortprozess II &#8211; Bewertungsdauer und Notizen der Bewertenden</SubHeadline2><Pgraph>Die Bewertenden protokollierten auch die Zeit, die sie f&#252;r ihre Bewertung ben&#246;tigten und machten, falls erforderlich, Notizen zu wichtigen Aspekten des Berichts, protokollierten schwierige Items und m&#246;gliche neue Ankerbeispiele f&#252;r den Kodierleitfaden. </Pgraph><SubHeadline2>2.2.5. Antwortprozess III &#8211; Evaluation durch die Studierenden</SubHeadline2><Pgraph>Nachdem sie zwei MaReS-Feedbackb&#246;gen zu ihren Berichten erhalten hatten, f&#252;llten acht Studierende einen Fragebogen aus. Er umfasste f&#252;nf allgemeine Fragen zur Reflexion und zum Wahlpflichtfach, sechs Fragen zur Aufgabe und zu den Leitfragen, vier Fragen zu den erhaltenen R&#252;ckmeldungen und f&#252;nf Fragen zu ihrer Reflexionsf&#228;higkeit und ihren Ansichten &#252;ber reflektierendes Schreiben.</Pgraph><SubHeadline>2.3. Statistische Methoden</SubHeadline><Pgraph>Die Bewertungszeit f&#252;r die Berichte wurde mittels deskriptiver Statistik unter Verwendung von Mittelwerten und Standardabweichung (SD) ausgewertet. Die Inter-Rater-Reliabilit&#228;t (IRR) wurde mit dem freien marginalen Kappa <TextLink reference="49"></TextLink> ermittelt. Die Korrelation zwischen der MaReS-Gesamtnote (Summe der MaReS-Gesamtnote von drei Bewertenden), der REFLECT-Gesamtnote (Summe der REFLECT-Gesamtnote von zwei Bewertenden) und der Gesamtnote (Summe der entsprechenden Gesamtnote von drei Bewertenden f&#252;r MaReS und von zwei Bewertenden f&#252;r REFLECT) wurde mit Hilfe des Spearmans Rangkorrelationskoeffizienten ermittelt. </Pgraph><Pgraph>Die Evaluation durch die Studierenden und das Feedback der Bewertenden wurden mittels deskriptiver Statistik (absolute Zahlen) f&#252;r Fragen mit Antworten auf einer F&#252;nf-Punkte-Skala und mittels Inhaltsanalyse nach Mayring f&#252;r offene Fragen analysiert.</Pgraph></TextBlock>
    <TextBlock name="3. Results" linked="yes" language="en">
      <MainHeadline>3. Results</MainHeadline><SubHeadline>3.1. Scoring rubric development</SubHeadline><Pgraph>We developed a writing assignment with nine guiding questions and a rubric with twelve items that were assessed with a three-point scale (see attachment 1 <AttachmentLink attachmentNo="1" />). The rater manual consisted of a short description of how to rate the essay and descriptors and anchors for all items and consecutive scales.  </Pgraph><SubHeadline>3.2. Evidence for construct validity</SubHeadline><SubHeadline2>3.2.1. Content &#8211; MaReS development</SubHeadline2><Pgraph>See 3.1. </Pgraph><SubHeadline2>3.2.2. Response process &#8211; rating time</SubHeadline2><Pgraph>The number of characters (including spaces) of the reflective essays ranged from 2,765 to 8,488 with a mean of 5,359 characters (SD 1,660). The mean time that was needed to rate an essay with MaReS was 13.9 minutes with a standard deviation of 10.9. The mean rating time, i.e., time to read and rate the essay differed greatly between raters, ranging from a mean of 6.7 minutes (SD 2.5) to 28.5 minutes (SD 13.1). The mean duration of the REFLECT ratings was 7.8 minutes with a standard deviation of 5.2. Mean rating times for the individual raters ranged from 4.5 minutes (SD 1.2) to 14.5 (SD 6.9). </Pgraph><SubHeadline2>3.2.3. Internal structure &#8211; inter-rater reliability</SubHeadline2><Pgraph>Results for free marginal kappa of the items of MaReS ranged from -0.08 to 0.77 for the first set of reflective essays and from 0.13 to 0.75 for the second set (see table 1 <ImgLink imgNo="1" imgType="table" />). Results for free marginal kappa of the individual criterions of REFLECT ranged from -0.26 to 0.31 for the first set of reflective essays and from -0.11 to 0.38 for the second set (see table 2 <ImgLink imgNo="2" imgType="table" />). Free marginal kappa for the global rating of all five raters was 0.16 for the first set of essays and 0.22 for the second set of essays.</Pgraph><SubHeadline2>3.2.4. Relationship to other variables &#8211; correlation between ratings</SubHeadline2><Pgraph>For essays 1 to 13 Spearman&#8217;s rank correlation coefficient for MaReS and the raters corresponding overall rating was r&#61;0.43 (p&#61;0.14), r&#61;0.92 (p&#60;0.001) for MaReS and REFLECT and r&#61;0.83 (p&#60;0.001) for REFLECT and global rating. </Pgraph><Pgraph>For essays 14 to 25 Spearman&#8217;s Rank correlation coefficient for MaReS and the raters&#8217; corresponding overall rating was r&#61;0.75 (p&#61;0.005), r&#61;0.29 (p&#61;0.37) for MaReS and REFLECT and r&#61;0.87 (p&#60;0.001) for REFLECT and the raters&#8217; corresponding global rating.</Pgraph><SubHeadline2>3.2.5. Response process &#8211; students&#8217; evaluations</SubHeadline2><Pgraph>Eight students participated in the evaluation. The results of the closed questions are shown in table 2 <ImgLink imgNo="2" imgType="table" />. All students rated their own writing competence positive and did understand the assignment. The difficulty of the assignment (&#8220;writing a reflection report on a self-selected challenging situation&#8221;) was rated differently by the students. For the first reflection report, most students rated their own selection of situations as &#8220;perfectly suitable&#8221; or &#8220;suitable&#8221;. For the second reflection report, the selection was rated as &#8220;partially suitable&#8221; by most students. </Pgraph><Pgraph>All eight students rated the guiding questions as &#8220;very helpful&#8221; or &#8220;helpful&#8221;. Knowing that they will receive feedback on their reflection report was mostly rated &#8220;conducive&#8221; or &#8220;rather conducive&#8221;. When writing the second reflection report, half of the students felt &#8220;slightly more confident&#8221;, while the other half felt &#8220;slightly less confident&#8221;. Students rated their own ability to reflect mainly good (four students). Four students stated that they found the second reflection more difficult because they had difficulty finding a suitable situation to reflect on.</Pgraph><Pgraph>The structured feedback was rated positively by five students. They wrote that the feedback was non-judgmental, constructive, and helpful. At the same time one student criticized the fact that the feedback only related to the process of reflection and not to the situation. Thinking about their own ability to reflect, five students stated that they thought they are very self-critical and that this makes reflection difficult. Other responses where: not being able to think of a solution immediately; need for more opinions from others; more time to reflect. </Pgraph><Pgraph>The content analysis revealed the following: In their free text responses, several students cited stress management&#47;reduction as an expected personal benefit of reflection. Additionally personal development in various fields, improved understanding of and communication with others (including in private), benefits for future action in general and in learning situations were mentioned. </Pgraph><Pgraph>Additionally, all free-text responses to three questions about the impact of the writing of and the feedback on reflection reports can be found in table 3 <ImgLink imgNo="3" imgType="table" />. </Pgraph></TextBlock>
    <TextBlock name="3. Ergebnisse" linked="yes" language="de">
      <MainHeadline>3. Ergebnisse</MainHeadline><SubHeadline>3.1. Entwicklung des Bewertungsinstruments</SubHeadline><Pgraph>Wir entwickelten eine Schreibaufgabe mit neun Leitfragen sowie ein Instrument mit zw&#246;lf Items, die mit einer Drei-Punkte-Skala bewertet wurden (siehe Anhang 1 <AttachmentLink attachmentNo="1" />). Der Kodierleitfaden besteht aus einer kurzen Beschreibung, wie der Bericht zu bewerten ist, sowie aus Deskriptoren und Ankerbeispielen f&#252;r alle Items und konsekutiven Skalen.</Pgraph><SubHeadline>3.2. Belege f&#252;r die Konstruktvalidit&#228;t</SubHeadline><SubHeadline2>3.2.1. Inhalt &#8211; Entwicklung von MaReS</SubHeadline2><Pgraph>Siehe 3.1. </Pgraph><SubHeadline2>3.2.2. Antwortprozess &#8211; Bewertungsdauer</SubHeadline2><Pgraph>Die Zeichenzahl (einschlie&#223;lich Leerzeichen) der Berichte reichte von 2.765 bis 8.488 mit einem Mittelwert von 5.359 Zeichen (SD 1.660). Die durchschnittliche Zeit, die f&#252;r die Bewertung eines Berichts mit MaReS ben&#246;tigt wurde, betrug 13,9 Minuten mit einer Standardabweichung von 10,9. Die mittlere Bewertungszeit, d. h. die Zeit, die zum Lesen und Bewerten des Berichts ben&#246;tigt wurde, variierte stark zwischen den Bewertenden und reichte von durchschnittlich 6,7 Minuten (SD 2,5) bis 28,5 Minuten (SD 13,1). Die mittlere Dauer der REFLECT-Bewertungen betrug 7,8 Minuten mit einer Standardabweichung von 5,2. Die mittleren Bewertungszeiten f&#252;r die einzelnen Bewertenden reichten von 4,5 Minuten (SD 1,2) bis 14,5 (SD 6,9).</Pgraph><SubHeadline2>3.2.3. Interne Struktur &#8211; Inter-Rater-Reliabilit&#228;t</SubHeadline2><Pgraph>Die Ergebnisse f&#252;r das freie marginale Kappa der MaReS-Items reichten von -0,08 bis 0,77 f&#252;r die erste Runde von Reflexionsberichten und von 0,13 bis 0,75 f&#252;r die zweite Runde (siehe Tabelle 1 <ImgLink imgNo="1" imgType="table" />). Die Ergebnisse f&#252;r das freie marginale Kappa der einzelnen Kriterien von REFLECT reichten von -0,26 bis 0,31 f&#252;r die erste Runde von Reflexionsberichten und von -0,11 bis 0,38 f&#252;r die zweite Runde (siehe Tabelle 2 <ImgLink imgNo="2" imgType="table" />). Das freie marginale Kappa f&#252;r die Gesamtbewertung aller f&#252;nf Bewertenden betrug 0,16 f&#252;r die erste Runde von Berichten und 0,22 f&#252;r die zweite Runde.</Pgraph><SubHeadline2>3.2.4. Bezug zu anderen Variablen &#8211; Korrelation der Bewertungen</SubHeadline2><Pgraph>F&#252;r die Berichte 1 bis 13 betrug Spearmans Rangkorrelationskoeffizient f&#252;r MaReS und die entsprechende Gesamtbewertung der Bewertenden r&#61;0,43 (p&#61;0,14), r&#61;0,92 (p&#60;0,001) f&#252;r MaReS und REFLECT und r&#61;0,83 (p&#60;0,001) f&#252;r REFLECT und die Gesamtbewertung.</Pgraph><Pgraph>F&#252;r die Berichte 14 bis 25 betrug Spearmans Rangkorrelationskoeffizient f&#252;r MaReS und die entsprechende Gesamtbewertung der Bewertenden r&#61;0,75 (p&#61;0,005), r&#61;0,29 (p&#61;0,37) f&#252;r MaReS und REFLECT und r&#61;0,87 (p&#60;0,001) f&#252;r REFLECT und die entsprechende Gesamtbewertung der Bewertenden.</Pgraph><SubHeadline2>3.2.5. Antwortprozess &#8211; Evaluation durch die Studierenden</SubHeadline2><Pgraph>Acht Studierende nahmen an der Evaluation teil. Die Ergebnisse der geschlossenen Fragen sind in Tabelle 2 <ImgLink imgNo="2" imgType="table" /> dargestellt. Alle Studierenden bewerteten ihre eigene Schreibkompetenz positiv und verstanden die Aufgabe. Die Schwierigkeit der Aufgabe (&#8222;Verfassen eines Reflexionsberichts &#252;ber eine selbst gew&#228;hlte herausfordernde Situation&#8220;) wurde von den Studierenden unterschiedlich bewertet. F&#252;r den ersten Reflexionsbericht bewerteten die meisten Studierenden ihre eigene Situationsauswahl als &#8222;perfekt geeignet&#8220; oder &#8222;geeignet&#8220;. F&#252;r den zweiten Reflexionsbericht wurde die Auswahl von den meisten Studierenden als &#8222;teilweise geeignet&#8220; bewertet.</Pgraph><Pgraph>Alle acht Studierenden bewerteten die Leitfragen als &#8222;sehr hilfreich&#8220; oder &#8222;hilfreich&#8220;. Das Wissen, dass sie ein Feedback zu ihrem Reflexionsbericht erhalten werden, wurde von den meisten als &#8222;f&#246;rderlich&#8220; oder &#8222;eher f&#246;rderlich&#8220; bewertet. Beim Verfassen des zweiten Reflexionsberichts f&#252;hlte sich die H&#228;lfte der Studierenden &#8222;etwas sicherer&#8220;, die andere H&#228;lfte &#8222;etwas unsicherer&#8220;. Die Studierenden bewerteten ihre eigene Reflexionsf&#228;higkeit &#252;berwiegend als gut (vier Studierende). Vier Studierende gaben an, dass sie die zweite Reflexion als schwieriger empfanden, weil sie Probleme hatten, eine geeignete Situation f&#252;r die Reflexion zu finden.</Pgraph><Pgraph>Das strukturierte Feedback wurde von f&#252;nf Studierenden positiv bewertet. Sie schrieben, dass das Feedback konstruktiv, hilfreich und nicht wertend war. Gleichzeitig kritisierte eine Person, dass sich das Feedback nur auf den Prozess der Reflexion und nicht auf die Situation bezog. In Bezug auf ihre eigene Reflexionsf&#228;higkeit gaben f&#252;nf Studierende an, dass sie ihrer Meinung nach sehr selbstkritisch sind und dies die Reflexion erschwert. Andere Antworten waren: nicht in der Lage zu sein, sofort eine L&#246;sung zu finden; mehr Meinungen von anderen zu ben&#246;tigen; mehr Zeit zum Nachdenken zu haben.</Pgraph><Pgraph>Die Inhaltsanalyse ergab Folgendes: In ihren Freitextantworten nannten mehrere Studierende Stressbew&#228;ltigung&#47;-abbau als erwarteten pers&#246;nlichen Nutzen der Reflexion. Dar&#252;ber hinaus wurden die pers&#246;nliche Entwicklung in verschiedenen Bereichen, ein besseres Verst&#228;ndnis f&#252;r und eine bessere Kommunikation mit anderen (auch privat) sowie Vorteile f&#252;r k&#252;nftiges Handeln im Allgemeinen und in Lernsituationen genannt. </Pgraph><Pgraph>Dar&#252;ber hinaus sind alle Freitextantworten auf drei Fragen zu den Auswirkungen des Schreibens von Reflexionsberichten und des Feedbacks dazu in Tabelle 3 <ImgLink imgNo="3" imgType="table" /> zu finden.</Pgraph></TextBlock>
    <TextBlock name="4. Discussion" linked="yes" language="en">
      <MainHeadline>4. Discussion</MainHeadline><SubHeadline>4.1. Scoring rubric development</SubHeadline><Pgraph>Practicality was our main priority for MaReS. The aim was to develop a scoring rubric that was easy to use and timesaving for the teachers. The poorer inter-rater reliability for REFLECT could be an indication that MaReS is easier to use. Mean rating times for MaReS were longer than for REFLECT. This probably reflects the fact that MaReS has a greater number of items (n&#61;12) than REFLECT (n&#61;6). In our opinion less than 15 minutes to read and rate a reflective essay (mean rating time) are still to be considered reasonable. </Pgraph><SubHeadline>4.2. Evidence for construct validity</SubHeadline><Pgraph>In this study, we gathered validity evidence referring to the following components of construct validity: content, response process, internal structure and relationship to other variables <TextLink reference="1"></TextLink>, <TextLink reference="12"></TextLink>, <TextLink reference="38"></TextLink>. MaReS might be a suitable rubric for teaching reflection and providing feedback to students written reflections. The combination of guiding questions for written reflection and the use of MaReS as a time-saving way to provide structured feedback was successfully piloted.</Pgraph><SubHeadline2>4.2.1. Content</SubHeadline2><Pgraph>Validity evidence based on test content derives from an analysis of the relationship of a test content and the construct it is intended to measure <TextLink reference="1"></TextLink>. The content of MaReS (including guiding questions, rubric and rater manual) was selected carefully based on a widely accepted model for the concept of the process of reflection <TextLink reference="29"></TextLink>. We also considered the content of three existing tools to assess reflective essays <TextLink reference="44"></TextLink>, <TextLink reference="50"></TextLink>, <TextLink reference="57"></TextLink>. More validity evidence was obtained by consulting six external experts to judge the relationship of parts of the test and the construct <TextLink reference="1"></TextLink>. We also incorporated their feedback in the final version of MaReS. </Pgraph><SubHeadline2>4.2.2. Response process</SubHeadline2><Pgraph>Validity evidence based on the response process can include the response process of the raters as well as the response process of the students taking the assignment <TextLink reference="1"></TextLink>. </Pgraph><Pgraph>To support the assessment process of the raters, we developed a rater manual that comprised a short description of how to rate the essay as well as descriptors and anchor examples for all items and consecutive scales. Rater training included the two-day workshop on reflection, rating an exemplary essay and a discussion of divergent results of the rating. At the end of the discussion agreement on how to rate the essays was achieved. </Pgraph><Pgraph>Even though &#8220;interrater reliability is enhanced by training data collectors, providing them with a guide for recording their observations&#8221; <TextLink reference="14"></TextLink>, and also that in this study we took care to ensure that all raters understood how essays should be rated, we found a poor inter-rater reliability for most of the items (see 4.2.3.). This might indicate that rater training might not have been sufficient. </Pgraph><Pgraph>During the response process data about the rating time was collected. This does not add to the validity evidence; it is meant to help educators in the health professions who would like to incorporate reflective writing into their curricula to assess the feasibility of the endeavour and plan resources. </Pgraph><Pgraph>Validity evidence based on response process of the students included student format familiarity <TextLink reference="12"></TextLink>. Before writing their essays, students were handed out the guiding questions and the scoring rubric. The meaning of every item and the corresponding scores was explained. Students were given two example essays and discussed the ratings in class. </Pgraph><Pgraph>Another source of validity evidence is understandable and accurate descriptions and interpretations of the scores for students <TextLink reference="12"></TextLink>. In their evaluations all eight students stated that the assignment was &#8220;fully&#8221; or &#8220;mostly understandable&#8221; and the guiding questions were rated as &#8220;very helpful&#8221; or &#8220;helpful&#8221;. </Pgraph><SubHeadline2>4.2.3. Internal structure</SubHeadline2><Pgraph>According to Fleiss an inter-rater reliability (IRR) of 0.6 and above can be considered as excellent and an IRR above 0.4 and lower than 0.6 as fair to good. IRRs lower than .4 are considered as poor <TextLink reference="15"></TextLink>. This means that IRR for MaReS in our study are only acceptable for items 1 to 4 and item 9. Looking at the wording of the items, the content that is assessed in items 1 to 4 and 9 (general comprehensibility, reference to the assignment, description of situation, description of own emotions, selection of external sources) seems to be more concrete and thus easier to rate than that of the other items. Items 5 to 8 (explanation of own emotions, describing the perspective of the counterpart, relating the perspective of the counterpart to own perspective, influence of previous experiences and reflections) and items 10 to 12 (assessment of the situation, action strategy, expectations regarding the use of the future action strategy&#47;-ies) are integral but more difficult parts of reflection. Comprehensibility on the side of the raters seems to be more subjective in these items than for the items with an acceptable IRR. For example, on the one hand the explanation of one&#8217;s own emotions can be difficult, and students might feel the matter is too personal to share in a reflective essay. On the other hand, whether an explanation is comprehensible for a rater might depend on the rater&#8217;s personal experiences. The same applies for change of perspective. Items 10 to 12 (assessment of the situation, action plan) can be difficult for raters, because there might be an assessment of the situation by the student that is comprehensible or an action strategy that is concrete, but the rater feels that it is not sufficient to handle a similar situation better in the future. This might cause some of the raters to give lower scores. During the assessment of the essays the raters took notes on items that were difficult to rate. The analysis of these notes is not part of this study but will help to refine the rater manual and address important aspects in future rater training. </Pgraph><Pgraph>Item 7 (relating the perspective of the counterpart to own perspective) and item 8 (influence of previous experiences and reflection) also received comparatively low ratings. This might indicate that these items are too difficult. In the case of item 7 students might need more explanation, examples and training. A reason for low scores for item 8 might be that the students in our study did not have much clinical experience and it was difficult for them to draw on previous experiences or reflections.</Pgraph><Pgraph>All IRRs that we found for the REFLECT rubric must be considered as poor. While three studies have found high IRRs for REFLECT <TextLink reference="39"></TextLink>, <TextLink reference="40"></TextLink>, <TextLink reference="57"></TextLink>, another study was also not able to replicate these high IRRs. The authors of the latter study state that the difference in the findings could originate from the context in which validity evidence is collected (e.g. different institution and study population) <TextLink reference="18"></TextLink>. Since in the case of our study, German native speakers applied an English tool, language problems should also be considered. It is also likely that rater training for REFLECT was not sufficient. There is a short description of the application of REFLECT in the original paper <TextLink reference="57"></TextLink>, but the raters did not have access to a rater manual. Our rater training for REFLECT consisted of the rating and discussion of only one example essay. Miller-Kuhlman et al. applied a sounder approach for their rater training: In a training cycle the raters compared scores and discussed discrepancies for several sample essays, then rated more samples until an IRR of at least 0.8 was achieved before collecting the data for their study. This training required six hours for REFLECT <TextLink reference="39"></TextLink>. </Pgraph><SubHeadline2>4.2.4. Relationship to other variables</SubHeadline2><Pgraph>Comparing a newly developed test to a test hypothesized to measure the same construct, is an important source of construct validity <TextLink reference="1"></TextLink>. The authors found a positive correlation for the comparison of the MaReS scores with a global rating of the essays and with the REFLECT rubric, which is used to assess students&#8217; reflective levels and is meant to provide individualized written feedback to guide reflective capacity promotion <TextLink reference="57"></TextLink>. For the first set of essays, we found strong and significant positive correlations <TextLink reference="8"></TextLink> for MaReS and REFLECT as well as for REFLECT and the global rating. For the second set we found strong and significant positive correlations for MaReS and the global rating as well as for REFLECT and the global rating. We found near moderate and moderate positive (defined by Cohen as an r of .3 <TextLink reference="8"></TextLink>) correlation for MaReS&#47;global rating in the first set of essays and MaReS&#47;REFLECT in the second set of essays, which were both not significant probably due to the small sample size. The fact that different correlations were found in the first and second rounds could have been caused by a change of raters. Nevertheless, the results suggest that MaReS measures the same construct as the REFLECT rubric <TextLink reference="1"></TextLink>, namely the students&#8217; reflective level. </Pgraph><SubHeadline2>4.2.5. Evaluation</SubHeadline2><Pgraph>This study examines data for level 1 (reaction) of the New World Kirkpatrick Model &#91;26&#93;. When looking at the results one must have in mind that the number of students that filled in the evaluation for MaReS was very small (n&#61;8), and conclusions must be drawn with caution. </Pgraph><Pgraph>Some students share very personal stories in their reflective essays, and care must be taken that feedback on the essays will not be judgmental <TextLink reference="21"></TextLink> and hurt students&#8217; feelings. The content of reflection is subjective, which is why Koole et al. suggest that assessment should focus on generic process skills <TextLink reference="29"></TextLink>. Therefore, most of the rubrics that are used for assessing reflective essays (including MaReS) focus on the process of reflection rather than on the handling of a situation. Nevertheless, some students seem to feel the need for a comment on the situation, as one student mentioned that the feedback had no impact on him&#47;her because it was only evaluating the structure of the text and not the situation itself. Teachers should also be aware that essays can contain very personal content from the students. For example, descriptions of emotional burdens, illnesses or traumatic experiences could be included in the reports. Therefore, teachers should think in advance about where support may be available and how they will react in such cases.</Pgraph><Pgraph>In effective feedback, information about previous performance is used to promote positive and desirable development <TextLink reference="2"></TextLink>. Students found the feedback that they received with MaReS constructive, helpful, and non-judgmental. </Pgraph><Pgraph>Gaining evidence on level 2 of the New World Kirkpatrick Model <TextLink reference="26"></TextLink> will be challenging for MaReS, because reflective capacity is context dependent. Moniz et al. infer from their study about the use of reflective writing for student assessment that drawing meaningful conclusions about reflective capacity requires approximately 14 writing samples per student, which are each assessed by four or five raters <TextLink reference="40"></TextLink>. This conclusion raises questions about the feasibility of the summative assessment of reflective writing. Results of our study also lead in the same direction: Even though the feedback instrument was mostly rated positive, half of the students felt slightly less confident when writing their second essay &#8211; and their free responses indicated that this feeling was related to the situation they chose for the second reflection (e.g., problems finding a topic for the second reflection). </Pgraph></TextBlock>
    <TextBlock name="4. Diskussion" linked="yes" language="de">
      <MainHeadline>4. Diskussion</MainHeadline><SubHeadline>4.1. Entwicklung des Bewertungsinstruments</SubHeadline><Pgraph>Bei MaReS stand die Praktikabilit&#228;t im Vordergrund. Ziel war es, ein Bewertungsinstrument zu entwickeln, das einfach zu handhaben ist und den Lehrenden Zeit spart. Die schlechtere Inter-Rater-Reliabilit&#228;t f&#252;r REFLECT kann ein Hinweis darauf sein, dass MaReS einfacher zu handhaben ist. Die durchschnittliche Bewertungszeit f&#252;r MaReS war l&#228;nger als f&#252;r REFLECT. Dies spiegelt vermutlich die Tatsache wider, dass MaReS eine gr&#246;&#223;ere Anzahl von Items (n&#61;12) aufweist als REFLECT (n&#61;6). Unserer Meinung nach sind weniger als 15 Minuten (mittlere Bewertungszeit) zum Lesen und Bewerten eines Reflexionsberichts immer noch als angemessen zu einzuordnen.</Pgraph><Pgraph>4.2 Belege f&#252;r die Konstruktvalidit&#228;t</Pgraph><Pgraph>In dieser Studie haben wir Belege f&#252;r die Validit&#228;t gesammelt, die sich auf die folgenden Komponenten der Konstruktvalidit&#228;t beziehen: Inhalt, Antwortprozess, interne Struktur und Bezug zu anderen Variablen <TextLink reference="1"></TextLink>, <TextLink reference="12"></TextLink>, <TextLink reference="38"></TextLink>. MaReS kann ein geeignetes Instrument f&#252;r das Lehren von Reflexion und das Feedback zu den Reflexionsberichten der Studierenden sein. Die Kombination von Leitfragen f&#252;r die schriftliche Reflexion und der Einsatz von MaReS als zeitsparende M&#246;glichkeit, strukturiertes Feedback zu geben, wurde erfolgreich pilotiert.</Pgraph><SubHeadline2>4.2.1. Inhalt</SubHeadline2><Pgraph>Belege f&#252;r die Validit&#228;t, die auf Testinhalten basieren, ergeben sich aus der Analyse der Beziehung zwischen einem Testinhalt und dem Konstrukt, das es messen soll <TextLink reference="1"></TextLink>. Der Inhalt von MaReS (einschlie&#223;lich der Leitfragen, des Bewertungsinstruments und des Kodierleitfadens) wurde sorgf&#228;ltig auf Grundlage eines allgemein akzeptierten Modells f&#252;r das Konzept des Reflexionsprozesses ausgew&#228;hlt <TextLink reference="29"></TextLink>. Wir ber&#252;cksichtigten auch den Inhalt von drei bestehenden Instrumenten zur Bewertung von Reflexionsberichten <TextLink reference="44"></TextLink>, <TextLink reference="50"></TextLink>, <TextLink reference="57"></TextLink>. Weitere Belege f&#252;r die Validit&#228;t wurden durch die Befragung von sechs externen Expert&#42;innen gewonnen, die den Zusammenhang zwischen Teilen des Tests und dem Konstrukt beurteilen sollten <TextLink reference="1"></TextLink>. Ihre R&#252;ckmeldungen flossen in die endg&#252;ltige Version von MaReS ein.</Pgraph><SubHeadline2>4.2.2. Antwortprozess</SubHeadline2><Pgraph>Belege f&#252;r die Validit&#228;t, die auf dem Antwortprozess basieren, k&#246;nnen sowohl den Antwortprozess der Bewertenden als auch den Antwortprozess der Studierenden, die die Aufgabe bearbeiten, umfassen <TextLink reference="1"></TextLink>. </Pgraph><Pgraph>Um den Bewertungsprozess zu unterst&#252;tzen, haben wir einen Kodierleitfaden entwickelt, der eine kurze Beschreibung der Bewertung des Berichts sowie Deskriptoren und Ankerbeispiele f&#252;r alle Items und konsekutiven Skalen enth&#228;lt. Die Schulung der Bewertenden umfasste einen zweit&#228;gigen Workshop zur Reflexion, die Bewertung eines exemplarischen Berichts und eine Diskussion &#252;ber abweichende Ergebnisse der Bewertung. Am Ende der Diskussion wurde eine Einigung dar&#252;ber erzielt, wie die Berichte zu bewerten sind.</Pgraph><Pgraph>Obwohl die Inter-Rater-Reliabilit&#228;t durch die Schulung der Bewertenden verbessert wird, indem man ihnen einen Leitfaden f&#252;r die Aufzeichnung ihrer Beobachtungen an die Hand gibt <TextLink reference="14"></TextLink> und wir in dieser Studie darauf geachtet haben, dass alle Bewertenden verstanden haben, wie die Aufs&#228;tze zu bewerten sind, haben wir bei den meisten Items eine schlechte Inter-Rater-Reliabilit&#228;t festgestellt (siehe 4.2.3.). Dies k&#246;nnte darauf hindeuten, dass die Schulung der Bewertenden m&#246;glicherweise nicht ausreichend war.</Pgraph><Pgraph>W&#228;hrend des Beantwortungsprozesses wurden Daten &#252;ber die Bewertungsdauer gesammelt. Dies tr&#228;gt nicht zur Validit&#228;tsevidenz bei, sondern soll die Lehrenden in den Gesundheitsberufen, die das reflektierende Schreiben in ihre Curricula aufnehmen m&#246;chten, dabei unterst&#252;tzen, die Durchf&#252;hrbarkeit des Vorhabens zu beurteilen und Ressourcen zu planen.</Pgraph><Pgraph>Zu den Belegen der Validit&#228;t, die auf dem Antwortprozess der Studierenden basieren, geh&#246;rt die Vertrautheit der Studierenden mit dem Format <TextLink reference="12"></TextLink>. Bevor sie ihre Berichte schrieben, wurden den Studierenden die Leitfragen und das Bewertungsinstrument ausgeh&#228;ndigt. Die Bedeutung der einzelnen Items und die entsprechenden Punktzahlen wurden erkl&#228;rt. Die Studierenden erhielten zwei Beispielaufs&#228;tze und diskutierten die Bewertungen im Unterricht.</Pgraph><Pgraph>Eine weitere Quelle f&#252;r Belege f&#252;r die Validit&#228;t sind verst&#228;ndliche und genaue Beschreibungen und Interpretationen der Bewertungen f&#252;r die Studierenden <TextLink reference="12"></TextLink>. In ihren Bewertungen gaben alle acht Studierenden an, dass die Aufgabe &#8222;vollst&#228;ndig&#8220; oder &#8222;gr&#246;&#223;tenteils verst&#228;ndlich&#8220; war, und die Leitfragen wurden als &#8222;sehr hilfreich&#8220; oder &#8222;hilfreich&#8220; bewertet.</Pgraph><SubHeadline2>4.2.3. Interne Struktur</SubHeadline2><Pgraph>Nach Fleiss kann eine Inter-Rater-Reliabilit&#228;t (IRR) von 0,6 und mehr als ausgezeichnet und eine IRR &#252;ber 0,4 und unter 0,6 als moderat (fair) bis gut angesehen werden. IRRs unter 0,4 werden als schlecht angesehen <TextLink reference="15"></TextLink>. Dies bedeutet, dass die IRR f&#252;r MaReS in unserer Studie nur f&#252;r die Items 1 bis 4 und Item 9 akzeptabel sind. Betrachtet man den Wortlaut der Items, so scheint der Inhalt, der in den Items 1 bis 4 und 9 (allgemeine Verst&#228;ndlichkeit, Bezug zur Aufgabe, Situationsbeschreibung, Beschreibung der eigenen Emotionen, Auswahl externer Quellen) bewertet wird, konkreter und damit leichter zu bewerten zu sein als der der anderen Items. Die Items 5 bis 8 (Erkl&#228;rung der eigenen Emotionen, Beschreibung der Perspektive des Gegen&#252;bers, Bezug der Perspektive des Gegen&#252;bers zur eigenen Perspektive, Einfluss fr&#252;herer Erfahrungen und &#220;berlegungen) und die Items 10 bis 12 (Bewertung der Situation, Handlungsstrategie, Erwartungen bez&#252;glich der Anwendung der zuk&#252;nftigen Handlungsstrategie&#47;-en) sind integrale, aber schwierigere Bestandteile der Reflexion. Das Verst&#228;ndnis auf Seiten der Bewertenden scheint bei diesen Items subjektiver zu sein als bei den Items mit einer akzeptablen IRR. Einerseits kann die Erkl&#228;rung der eigenen Emotionen schwierig sein und die Studierenden k&#246;nnten das Gef&#252;hl haben, dass das Thema zu pers&#246;nlich ist, um es in einem Reflexionsbericht zu teilen. Andererseits kann die Frage, ob eine Erkl&#228;rung f&#252;r Bewertende nachvollziehbar ist, von ihren pers&#246;nlichen Erfahrungen abh&#228;ngen. Das Gleiche gilt f&#252;r den Perspektivwechsel. Die Items 10 bis 12 (Einsch&#228;tzung der Situation, Handlungsplan) k&#246;nnen f&#252;r die Bewertenden schwierig sein, denn es kann sein, dass die Einsch&#228;tzung der Situation durch die&#42;den Studierende&#42;n nachvollziehbar oder die Handlungsstrategie konkret ist, der&#42;die Bewertende aber das Gef&#252;hl hat, dass sie nicht ausreicht, um eine &#228;hnliche Situation in Zukunft besser zu bew&#228;ltigen. Dies k&#246;nnte einige Bewertende dazu veranlassen, niedrigere Bewertungen zu vergeben. W&#228;hrend der Bewertung der Aufs&#228;tze machten sich die Bewertenden Notizen zu Punkten, die schwierig zu bewerten waren. Die Analyse dieser Notizen ist nicht Teil dieser Studie, wird aber dazu beitragen, den Kodierleitfaden weiterzuentwickeln und wichtige Aspekte in zuk&#252;nftigen Schulungen f&#252;r Bewertende zu ber&#252;cksichtigen.</Pgraph><Pgraph>Item 7 (die Perspektive des Gegen&#252;bers mit der eigenen Perspektive in Beziehung setzen) und Item 8 (Einfluss fr&#252;herer Erfahrungen und Reflexionen) erhielten ebenfalls vergleichsweise niedrige Bewertungen. Dies k&#246;nnte darauf hindeuten, dass diese Punkte zu schwierig sind. Im Falle von Item 7 k&#246;nnten die Studierenden mehr Erkl&#228;rungen, Beispiele und Training ben&#246;tigen. Ein Grund f&#252;r die niedrige Bewertung von Item 8 k&#246;nnte sein, dass die Studierenden in unserer Studie nicht viel klinische Erfahrung hatten und es f&#252;r sie schwierig war, auf fr&#252;here Erfahrungen oder Reflexionen zur&#252;ckzugreifen.</Pgraph><Pgraph>Alle IRRs, die sich f&#252;r das Instrument REFLECT ergeben haben, sind als schlecht zu bewerten. W&#228;hrend drei Studien hohe IRRs f&#252;r REFLECT ergaben <TextLink reference="39"></TextLink>, <TextLink reference="40"></TextLink>, <TextLink reference="57"></TextLink>, war eine andere Studie ebenfalls nicht in der Lage, diese hohen IRRs zu replizieren. Die Autor&#42;innen der letztgenannten Studie geben an, dass der Unterschied in den Ergebnissen auf den Kontext zur&#252;ckzuf&#252;hren sein k&#246;nnte, in dem die Belege f&#252;r die Validit&#228;t erhoben werden (z. B. andere Einrichtung und Studienpopulation) <TextLink reference="18"></TextLink>. Da im Falle unserer Studie deutsche Muttersprachler&#42;innen ein englischsprachiges Instrument anwandten, sollten auch Sprachprobleme in Betracht gezogen werden. Es ist zudem wahrscheinlich, dass die Schulung der Bewertenden f&#252;r REFLECT nicht ausreichend war. Es gibt zwar eine kurze Beschreibung der Anwendung von REFLECT in der Originalarbeit <TextLink reference="57"></TextLink>, aber die Bewertenden hatten keinen Zugang zu einem Kodierleitfaden. Unsere Schulung der Bewertenden f&#252;r REFLECT bestand aus der Bewertung und Diskussion von nur einem Beispielaufsatz. Miller-Kuhlman et al. <TextLink reference="39"></TextLink> wendeten f&#252;r die Schulung Ihrer Bewertenden einen solideren Ansatz an: In einem Schulungszyklus verglichen die Bewertenden die Bewertungen und diskutierten Diskrepanzen f&#252;r mehrere Beispielaufs&#228;tze und bewerteten dann weitere Beispiele, bis eine IRR von mindestens 0,8 erreicht war, bevor sie die Daten f&#252;r ihre Studie sammelten. Diese Schulung f&#252;r REFLECT erforderte sechs Stunden. </Pgraph><SubHeadline2>4.2.4. Bezug zu anderen Variablen</SubHeadline2><Pgraph>Der Vergleich eines neu entwickelten Tests mit einem Test, von dem angenommen wird, dass er das gleiche Konstrukt misst, kann als Beleg zur Bestimmung der Konstruktvalidit&#228;t herangezogen werden <TextLink reference="1"></TextLink>. Die Autor&#42;innen fanden eine positive Korrelation f&#252;r den Vergleich der MaReS-Bewertungen mit einer globalen Bewertung der Aufs&#228;tze und mit dem Instrument REFLECT, das zur Bewertung des Reflexionsniveaus der Studierenden verwendet wird und ein individuelles schriftliches Feedback zur F&#246;rderung der Reflexionsf&#228;higkeit geben soll <TextLink reference="57"></TextLink>. F&#252;r die erste Runde von Aufs&#228;tzen zeigten sich starke und signifikante positive Korrelationen <TextLink reference="8"></TextLink> f&#252;r MaReS und REFLECT sowie f&#252;r REFLECT und die globale Bewertung. F&#252;r die zweite Runde zeigten sich starke und signifikante positive Korrelationen f&#252;r MaReS und das globale Rating sowie f&#252;r REFLECT und die globale Bewertung. Nahezu moderate und moderat positive (nach Cohen als r von 0,3 <TextLink reference="8"></TextLink> definiert) Korrelationen zeigten sich f&#252;r MaReS&#47;globale Bewertung im ersten Bericht und f&#252;r MaReS&#47;REFLECT im zweiten Bericht, die beide wahrscheinlich aufgrund der geringen Stichprobengr&#246;&#223;e nicht signifikant waren. Die Tatsache, dass in der ersten und zweiten Runde unterschiedliche Korrelationen gefunden wurden, k&#246;nnte durch einen Wechsel der Bewertenden verursacht worden sein. Dennoch deuten die Ergebnisse darauf hin, dass MaReS dasselbe Konstrukt misst wie REFLECT <TextLink reference="1"></TextLink>, n&#228;mlich das Reflexionsniveau der Studierenden.</Pgraph><SubHeadline2>4.2.5. Evaluationen</SubHeadline2><Pgraph>In dieser Studie werden Daten f&#252;r Stufe 1 (Reaktion) des New-World-Kirkpatrick-Modells <TextLink reference="26"></TextLink> untersucht. Bei der Betrachtung der Ergebnisse ist zu bedenken, dass die Anzahl der Studierenden, die die Evaluation f&#252;r MaReS ausgef&#252;llt haben, sehr gering war (n&#61;8) und Schlussfolgerungen mit Vorsicht gezogen werden m&#252;ssen.</Pgraph><Pgraph>Einige Studierende teilen in ihren Reflexionsberichten sehr pers&#246;nliche Geschichten und es muss darauf geachtet werden, dass das Feedback zu den Aufs&#228;tzen nicht wertend ist <TextLink reference="21"></TextLink> und die Gef&#252;hle der Studierenden nicht verletzt. Der Inhalt der Reflexion ist subjektiv, weshalb Koole et al. vorschlagen, dass sich die Bewertung auf allgemeine Prozessf&#228;higkeiten konzentrieren sollte <TextLink reference="29"></TextLink>. Daher fokussieren die meisten Instrumente, die f&#252;r die Bewertung von Reflexionsaufs&#228;tzen verwendet werden (einschlie&#223;lich MaReS), auf den Prozess der Reflexion und nicht auf den Umgang mit einer Situation. Dennoch scheinen einige Studierende das Bed&#252;rfnis nach einem Kommentar zur Situation zu haben, denn eine Studierende erw&#228;hnte, dass das Feedback keine Auswirkungen auf ihn&#47;sie hatte, weil nur die Struktur des Textes und nicht die Situation selbst bewertet wurde. Die Lehrenden sollten sich auch dar&#252;ber im Klaren sein, dass die Aufs&#228;tze sehr pers&#246;nliche Inhalte der Studierenden enthalten k&#246;nnen. So k&#246;nnten beispielsweise Beschreibungen von emotionalen Belastungen, Krankheiten oder traumatischen Erlebnissen in den Berichten enthalten sein. Daher sollten die Lehrenden im Voraus &#252;berlegen, wo sie Unterst&#252;tzung finden k&#246;nnen und wie sie in solchen F&#228;llen reagieren werden.</Pgraph><Pgraph>Bei effektivem Feedback werden Informationen &#252;ber fr&#252;here Leistungen genutzt, um eine positive und w&#252;nschenswerte Entwicklung zu f&#246;rdern <TextLink reference="2"></TextLink>. Die Studierenden empfanden das Feedback, das sie mit MaReS erhielten, als konstruktiv, hilfreich und nicht wertend.</Pgraph><Pgraph>Das Erreichen von Stufe 2 des New-World-Kirkpatrick-Modells <TextLink reference="26"></TextLink> wird f&#252;r MaReS eine Herausforderung darstellen, da die Reflexionsf&#228;higkeit kontextabh&#228;ngig ist. Moniz et al. schlie&#223;en aus ihrer Studie &#252;ber die Verwendung von reflektierendem Schreiben zur Beurteilung von Sch&#252;ler&#42;innen, dass f&#252;r aussagekr&#228;ftige Schlussfolgerungen &#252;ber die Reflexionsf&#228;higkeit etwa 14 Schreibproben pro Sch&#252;ler&#42;in erforderlich sind, die jeweils von vier oder f&#252;nf Beurteilenden bewertet werden <TextLink reference="40"></TextLink>. Diese Schlussfolgerung wirft Fragen &#252;ber die Durchf&#252;hrbarkeit der summativen Bewertung von reflektierendem Schreiben auf. Auch die Ergebnisse unserer Studie weisen in die gleiche Richtung: Obwohl das Feedback-Instrument &#252;berwiegend positiv bewertet wurde, f&#252;hlte sich die H&#228;lfte der Studierenden beim Verfassen ihres zweiten Aufsatzes etwas weniger sicher &#8211; und ihre Freitext-Antworten deuteten darauf hin, dass dieses Gef&#252;hl mit der Situation zusammenhing, die sie f&#252;r die zweite Reflexion gew&#228;hlt hatten (z. B. Probleme, ein Thema f&#252;r die zweite Reflexion zu finden).</Pgraph></TextBlock>
    <TextBlock name="5. Conclusion" linked="yes" language="en">
      <MainHeadline>5. Conclusion</MainHeadline><Pgraph>The Magdeburg Reflective Writing Feedback and Scoring Rubric (MaReS) can be used as a tool to guide students&#8217; reflective writing and provide structured feedback in health professions education. In this study IRR was low for seven of the twelve items. We theorize that the rater training &#8211; consisting of the rating and discussion of one exemplary essay &#8211; was not sufficient. Using more essays for a rater training and more training cycles are likely to result in higher IRRs. A mean rating time of 13.9 minutes seems feasible and might be shorter, when raters gain more experience. If educators would like to incorporate reflective writing and its assessment into a curriculum, sufficient time for rater training must be allocated when planning resources. Caution must be taken, when summative assessment is used for reflective writing regardless of the tool that is used, because there is low predictability from one essay to the next.</Pgraph><Pgraph>The small number of students that provided feedback on MaReS considered the instrument as comprehensible and helpful. More studies with a greater number of students will be needed to support these findings. Gathering evidence for Kirkpatrick Levels of two and higher will be challenging because of the context specificity of reflective capacity. </Pgraph><Pgraph>We recommend MaReS as a tool for teaching and formatively assessing written reflections of students in health professions education, for example on clinical experiences during a practical year, clinical rotations or block training, but also on learning experiences in general. </Pgraph></TextBlock>
    <TextBlock name="5. Schlussfolgerung" linked="yes" language="de">
      <MainHeadline>5. Schlussfolgerung</MainHeadline><Pgraph>Die Magdeburger Reflexionsskala (MaReS) kann als Instrument verwendet werden, um das reflektierende Schreiben der Studierenden anzuleiten und strukturiertes Feedback in der Ausbildung von Gesundheitsberufen zu geben. In dieser Studie war die IRR f&#252;r sieben der zw&#246;lf Items niedrig. Wir gehen davon aus, dass die Schulung der Bewertenden &#8211; bestehend aus der Bewertung und Diskussion eines exemplarischen Aufsatzes &#8211; nicht ausreichend war. Die Verwendung von mehr Aufs&#228;tzen f&#252;r ein Training der Bewertenden und mehr Trainingszyklen w&#252;rden wahrscheinlich zu h&#246;heren IRRs f&#252;hren. Eine durchschnittliche Bewertungszeit von 13,9 Minuten scheint praktikabel und k&#246;nnte sich verk&#252;rzen, wenn die Bewertenden mehr Erfahrung sammeln. Wenn Lehrende Reflexionsberichte und deren Bewertung in ein Curriculum einbinden m&#246;chten, muss bei der Planung der Ressourcen ausreichend Zeit f&#252;r die Schulung der Bewertenden eingeplant werden. Vorsicht ist geboten, wenn eine summative Bewertung des reflektierenden Schreibens eingesetzt wird, unabh&#228;ngig davon, welches Instrument verwendet wird, da die Vorhersagbarkeit des Ergebnisses von einem Aufsatz zum n&#228;chsten gering ist.</Pgraph><Pgraph>Die wenigen Studierenden, die ein Feedback zu MaReS gaben, hielten das Instrument f&#252;r nachvollziehbar und hilfreich. Um diese Ergebnisse zu untermauern, sind weitere Studien mit einer gr&#246;&#223;eren Anzahl von Studierenden erforderlich. Das Sammeln von Belegen f&#252;r die Kirkpatrick-Stufen zwei und h&#246;her wird aufgrund der Kontextspezifit&#228;t der Reflexionsf&#228;higkeit eine Herausforderung darstellen.</Pgraph><Pgraph>Wir empfehlen MaReS als Instrument f&#252;r den Unterricht und die formative Bewertung schriftlicher Reflexionen von Studierenden in der Ausbildung von Gesundheitsberufen, z. B. &#252;ber klinische Erfahrungen w&#228;hrend des Praktischen Jahres, der Famulatur oder der Blockausbildung, aber auch &#252;ber Lernerfahrungen im Allgemeinen. </Pgraph></TextBlock>
    <TextBlock name="Authors&#8217; ORCIDs" linked="yes" language="en">
      <MainHeadline>Authors&#8217; ORCIDs</MainHeadline><Pgraph><UnorderedList><ListItem level="1">Anja H&#228;rtl: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0009-0008-0818-6213">0009-0008-0818-6213</Hyperlink>&#93; </ListItem><ListItem level="1">Stefan R&#252;ttermann: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-2293-8089">0000-0002-2293-8089</Hyperlink>&#93; </ListItem><ListItem level="1">Linn Hempel: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0009-0009-5421-2029">0009-0009-5421-2029</Hyperlink>&#93; </ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock name="ORCIDs der Autor&#42;innen" linked="yes" language="de">
      <MainHeadline>ORCIDs der Autor&#42;innen</MainHeadline><Pgraph><UnorderedList><ListItem level="1">Anja H&#228;rtl: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0009-0008-0818-6213">0009-0008-0818-6213</Hyperlink>&#93; </ListItem><ListItem level="1">Stefan R&#252;ttermann: <Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-2293-8089">0000-0002-2293-8089</Hyperlink></ListItem><ListItem level="1">Linn Hempel: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0009-0009-5421-2029">0009-0009-5421-2029</Hyperlink>&#93; </ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock name="Acknowledgements" linked="yes" language="en">
      <MainHeadline>Acknowledgements</MainHeadline><Pgraph>We would like to thank the members of the Committee for Communicative and Social Competencies (KusK) and the experts for their great cooperation and support. </Pgraph></TextBlock>
    <TextBlock name="Danksagung" linked="yes" language="de">
      <MainHeadline>Danksagung</MainHeadline><Pgraph>Wir bedanken uns bei den Mitgliedern des Ausschusses &#8222;Kommunikative und soziale Kompetenzen&#8220; (KusK) und den Expert&#42;innen f&#252;r die gute Zusammenarbeit und ihre Unterst&#252;tzung. </Pgraph></TextBlock>
    <TextBlock name="Competing interests" linked="yes" language="en">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests. </Pgraph></TextBlock>
    <TextBlock name="Interessenkonflikt" linked="yes" language="de">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autor&#42;innen erkl&#228;ren, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>American Educational Research Association</RefAuthor>
        <RefAuthor> American Psychological Association</RefAuthor>
        <RefAuthor>National Council on Measurement in Education</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1999</RefYear>
        <RefBookTitle>Standards for Educational and Psychological Testing</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>American Educational Research Association; American Psychological Association, National Council on Measurement in Education. Standards for Educational and Psychological Testing. Washington, DC: American Educational Research Association; 1999.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Archer JC</RefAuthor>
        <RefTitle>State of the science in health professional education: effective feedback</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>101-108</RefPage>
        <RefTotal>Archer JC. State of the science in health professional education: effective feedback. Med Educ. 2010;44(1):101-108. DOI: 10.1111&#47;j.1365-2923.2009.03546.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2923.2009.03546.x</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Aronson L</RefAuthor>
        <RefAuthor>Niehaus B</RefAuthor>
        <RefAuthor>Lindow J</RefAuthor>
        <RefAuthor>Robertson PA</RefAuthor>
        <RefAuthor>O&#39;Sullivan PS</RefAuthor>
        <RefTitle>Development and pilot testing of a reflective learning guide for medical education</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>e515-e521</RefPage>
        <RefTotal>Aronson L, Niehaus B, Lindow J, Robertson PA, O&#39;Sullivan PS. Development and pilot testing of a reflective learning guide for medical education. Med Teach. 2011;33(10):e515-e521. DOI: 10.3109&#47;0142159X.2011.599894</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2011.599894</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Aronson L</RefAuthor>
        <RefAuthor>Niehaus B</RefAuthor>
        <RefAuthor>Hill-Sakurai L</RefAuthor>
        <RefAuthor>Lai C</RefAuthor>
        <RefAuthor>O&#8217;Sullivan PS</RefAuthor>
        <RefTitle>A comparison of two methods of teaching reflective ability in Year 3 medical students</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>807-814</RefPage>
        <RefTotal>Aronson L, Niehaus B, Hill-Sakurai L, Lai C, O&#8217;Sullivan PS. A comparison of two methods of teaching reflective ability in Year 3 medical students. Med Educ. 2012;46(8):807-814. DOI: 10.1111&#47;j.1365-2923.2012.04299.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2923.2012.04299.x</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Bok HG</RefAuthor>
        <RefAuthor>Jaarsma DA</RefAuthor>
        <RefAuthor>Teunissen PW</RefAuthor>
        <RefAuthor>van der Vleuten CP</RefAuthor>
        <RefAuthor>van Beukelen P</RefAuthor>
        <RefTitle>Development and validation of a competency framework for veterinarians</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>J Vet Med Educ</RefJournal>
        <RefPage>262-269</RefPage>
        <RefTotal>Bok HG, Jaarsma DA, Teunissen PW, van der Vleuten CP, van Beukelen P. Development and validation of a competency framework for veterinarians. J Vet Med Educ. 2011;38(3):262-269. DOI: 10.3138&#47;jvme.38.3.262</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3138&#47;jvme.38.3.262</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Bolton G</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2010</RefYear>
        <RefBookTitle>Reflective Practice. Writing Professional Development</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Bolton G. Reflective Practice. Writing Professional Development. Third Edition. London: SAGE; 2010.</RefTotal>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Chu SY</RefAuthor>
        <RefAuthor>Lin CW</RefAuthor>
        <RefAuthor>Lin MJ</RefAuthor>
        <RefAuthor>Wen CC</RefAuthor>
        <RefTitle>Psychosocial issues discovered through reflective group dialogue between medical students</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>12</RefPage>
        <RefTotal>Chu SY, Lin CW, Lin MJ, Wen CC. Psychosocial issues discovered through reflective group dialogue between medical students. BMC Med Educ. 2018;18(1):12. DOI: 10.1186&#47;s12909-017-1114-x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;s12909-017-1114-x</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Cohen J</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1988</RefYear>
        <RefBookTitle>Statistical power analysis for the behavioral sciences</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Cohen J. Statistical power analysis for the behavioral sciences. 2nd ed. Hillsdale, NJ: L. Erlbaum Associates; 1988.</RefTotal>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Cruess SR</RefAuthor>
        <RefAuthor>Cruess RL</RefAuthor>
        <RefAuthor>Steinert Y</RefAuthor>
        <RefTitle>Supporting the development of a professional identity: General principles</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>641-649</RefPage>
        <RefTotal>Cruess SR, Cruess RL, Steinert Y. Supporting the development of a professional identity: General principles. Med Teach. 2019;41(6):641-649. DOI: 10.1080&#47;0142159X.2018.1536260</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;0142159X.2018.1536260</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Devi V</RefAuthor>
        <RefAuthor>Abraham RR</RefAuthor>
        <RefAuthor>Kamath U</RefAuthor>
        <RefTitle>Teaching and Assessing Reflecting Skills among Undergraduate Medical Students Experiencing Research</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>J Clin Diagn Res</RefJournal>
        <RefPage>jc01-jc05</RefPage>
        <RefTotal>Devi V, Abraham RR, Kamath U. Teaching and Assessing Reflecting Skills among Undergraduate Medical Students Experiencing Research. J Clin Diagn Res. 2017;11(1):jc01-jc05. DOI: 10.7860&#47;JCDR&#47;2017&#47;20186.9142</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.7860&#47;JCDR&#47;2017&#47;20186.9142</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Devlin MJ</RefAuthor>
        <RefAuthor>Mutnick A</RefAuthor>
        <RefAuthor>Balmer D</RefAuthor>
        <RefAuthor>Richards BF</RefAuthor>
        <RefTitle>Clerkship-based reflective writing: a rubric for feedback</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>1143-1144</RefPage>
        <RefTotal>Devlin MJ, Mutnick A, Balmer D, Richards BF. Clerkship-based reflective writing: a rubric for feedback. Med Educ. 2010;44(11):1143-1144. DOI: 10.1111&#47;j.1365-2923.2010.03815.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2923.2010.03815.x</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Downing SM</RefAuthor>
        <RefTitle>Validity: on the meaningful interpretation of assessment data</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>830&#8211;837</RefPage>
        <RefTotal>Downing SM. Validity: on the meaningful interpretation of assessment data. Med Educ.  2003;37:830&#8211;837. DOI: 10.1046&#47;j.1365-2923.2003.01594.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1046&#47;j.1365-2923.2003.01594.x</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>European Association of Establishments for Veterinary Education (EAEVE)</RefAuthor>
        <RefAuthor> Federation of Veterinarians of Europe (FVE)</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2019</RefYear>
        <RefBookTitle>European System of Evaluation of Veterinary Training (ESEVT). Manual of Standard of Operation Procedure</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>European Association of Establishments for Veterinary Education (EAEVE); Federation of Veterinarians of Europe (FVE). European System of Evaluation of Veterinary Training (ESEVT). Manual of Standard of Operation Procedure. Wien: EAEVE; 2019. Zug&#228;nglich unter&#47;available from: https:&#47;&#47;www.eaeve.org&#47;fileadmin&#47;downloads&#47;SOP&#47;ESEVT&#95;SOP&#95;2019&#95;adopted&#95;by&#95;the&#95;32nd&#95;GA&#95;in&#95;Zagreb&#95;on&#95;30&#95;May&#95;2019.pdf</RefTotal>
        <RefLink>https:&#47;&#47;www.eaeve.org&#47;fileadmin&#47;downloads&#47;SOP&#47;ESEVT&#95;SOP&#95;2019&#95;adopted&#95;by&#95;the&#95;32nd&#95;GA&#95;in&#95;Zagreb&#95;on&#95;30&#95;May&#95;2019.pdf</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Fink A</RefAuthor>
        <RefTitle>Survey Research Methods</RefTitle>
        <RefYear>2010</RefYear>
        <RefBookTitle>International Encyclopedia of Education</RefBookTitle>
        <RefPage>152-160</RefPage>
        <RefTotal>Fink A. Survey Research Methods. In: Peterson P, Baker E, McGaw B, editors. International Encyclopedia of Education. Third Edition. Amsterdam: Elsevier Science; 2010. p.152-160. DOI: 10.1016&#47;B978-0-08-044894-7.00296-7</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;B978-0-08-044894-7.00296-7</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Fleiss JL</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1981</RefYear>
        <RefBookTitle>Statistical methods for rates and proportions</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Fleiss JL. Statistical methods for rates and proportions. 2nd ed. New York: Wiley-Interscience; 1981.</RefTotal>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Frank J</RefAuthor>
        <RefAuthor>Snell L</RefAuthor>
        <RefAuthor>Sherbino J</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2015</RefYear>
        <RefBookTitle>CanMEDS 2015 Physician Competency Framework</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Frank J, Snell L, Sherbino J. CanMEDS 2015 Physician Competency Framework. Ottawa: Royal College of Physicians and Surgeons of Canada; 2015.</RefTotal>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Fries JF</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1831</RefYear>
        <RefBookTitle>Neue oder anthropologische Kritik der Vernunft. Bd. 2</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Fries JF. Neue oder anthropologische Kritik der Vernunft. Bd. 2. Zweite Auflage. 1831.</RefTotal>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Grierson L</RefAuthor>
        <RefAuthor>Winemaker S</RefAuthor>
        <RefAuthor>Taniguchi A</RefAuthor>
        <RefAuthor>Howard M</RefAuthor>
        <RefAuthor>Marshall D</RefAuthor>
        <RefAuthor>Zazulak J</RefAuthor>
        <RefTitle>The reliability characteristics of the REFLECT rubric for assessing reflective capacity through expressive writing assignments: A replication study</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Perspect Med Educ</RefJournal>
        <RefPage>281-285</RefPage>
        <RefTotal>Grierson L, Winemaker S, Taniguchi A, Howard M, Marshall D, Zazulak J. The reliability characteristics of the REFLECT rubric for assessing reflective capacity through expressive writing assignments: A replication study. Perspect Med Educ. 2020;9(5):281-285. DOI: 10.1007&#47;s40037-020-00611-2</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s40037-020-00611-2</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Haramati A</RefAuthor>
        <RefAuthor>Cotton S</RefAuthor>
        <RefAuthor>Padmore JS</RefAuthor>
        <RefAuthor>Wald HS</RefAuthor>
        <RefAuthor>Weissinger PA</RefAuthor>
        <RefTitle>Strategies to promote resilience, empathy and well-being in the health professions: Insights from the 2015 CENTILE Conference</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>118-119</RefPage>
        <RefTotal>Haramati A, Cotton S, Padmore JS, Wald HS, Weissinger PA. Strategies to promote resilience, empathy and well-being in the health professions: Insights from the 2015 CENTILE Conference. Med Teach. 2017;39(2):118-119. DOI: 10.1080&#47;0142159X.2017.1279278</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;0142159X.2017.1279278</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Heimes S</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2012</RefYear>
        <RefBookTitle>Warum Schreiben hilft: Die Wirksamkeitsnachweise zur Poesietherapie</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Heimes S. Warum Schreiben hilft: Die Wirksamkeitsnachweise zur Poesietherapie. G&#246;ttingen: Vandenhoeck&#38;Ruprecht GmbH&#38;Co.KG; 2012. DOI: 10.13109&#47;9783666401619</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.13109&#47;9783666401619</RefLink>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Hewson MG</RefAuthor>
        <RefAuthor>Little ML</RefAuthor>
        <RefTitle>Giving Feedback in Medical Education: verification of recommended techniques</RefTitle>
        <RefYear>1998</RefYear>
        <RefJournal>J Gen Intern Med</RefJournal>
        <RefPage>111-116</RefPage>
        <RefTotal>Hewson MG, Little ML. Giving Feedback in Medical Education: verification of recommended techniques. J Gen Intern Med. 1998;13(2):111-116.  DOI: 10.1046&#47;j.1525-1497.1998.00027.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1046&#47;j.1525-1497.1998.00027.x</RefLink>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Hunter DM</RefAuthor>
        <RefAuthor>Jones RM</RefAuthor>
        <RefAuthor>Randhawa BS</RefAuthor>
        <RefTitle>The use of holistic versus analytic scoring for large-scale assessment of writing</RefTitle>
        <RefYear>1996</RefYear>
        <RefJournal>Can J Program Eval</RefJournal>
        <RefPage>61</RefPage>
        <RefTotal>Hunter DM, Jones RM, Randhawa BS. The use of holistic versus analytic scoring for large-scale assessment of writing. Can J Program Eval. 1996;11(2):61. DOI: 10.3138&#47;cjpe.11.00</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3138&#47;cjpe.11.00</RefLink>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Johns C</RefAuthor>
        <RefTitle>Framing learning through reflection within Carper&#39;s fundamental ways of knowing in nursing</RefTitle>
        <RefYear>1995</RefYear>
        <RefJournal>J Adv Nurs</RefJournal>
        <RefPage>226-234</RefPage>
        <RefTotal>Johns C. Framing learning through reflection within Carper&#39;s fundamental ways of knowing in nursing. J Adv Nurs. 1995;22(2):226-234. DOI: 10.1046&#47;j.1365-2648.1995.22020226.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1046&#47;j.1365-2648.1995.22020226.x</RefLink>
      </Reference>
      <Reference refNo="24">
        <RefAuthor>Jonsson A</RefAuthor>
        <RefAuthor>Svingby G</RefAuthor>
        <RefTitle>The use of scoring rubrics: Reliability, validity and educational consequences</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Educ Res Rev</RefJournal>
        <RefPage>130-144</RefPage>
        <RefTotal>Jonsson A, Svingby G. The use of scoring rubrics: Reliability, validity and educational consequences. Educ Res Rev. 2007;2(2):130-144. DOI: 10.1016&#47;j.edurev.2007.05.002</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.edurev.2007.05.002</RefLink>
      </Reference>
      <Reference refNo="25">
        <RefAuthor>Kant I</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1968</RefYear>
        <RefBookTitle>Kritik der reinen Vernunft</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Kant I. Kritik der reinen Vernunft. 2. Auflage. Berlin: de Gruyter; 1968.</RefTotal>
      </Reference>
      <Reference refNo="26">
        <RefAuthor>Kirkpatrick JD</RefAuthor>
        <RefAuthor>Kirkpatrick WK</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2016</RefYear>
        <RefBookTitle>Kirkpatrick&#8217;s Four Levels of Training Evaluation</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Kirkpatrick JD, Kirkpatrick WK. Kirkpatrick&#8217;s Four Levels of Training Evaluation. Alexandria, VA: ATD Press; 2016.</RefTotal>
      </Reference>
      <Reference refNo="27">
        <RefAuthor>Kiss A</RefAuthor>
        <RefAuthor>Steiner C</RefAuthor>
        <RefAuthor>Grossman P</RefAuthor>
        <RefAuthor>Langewitz W</RefAuthor>
        <RefAuthor>Tschudi P</RefAuthor>
        <RefAuthor>Kiessling C</RefAuthor>
        <RefTitle>Students&#39; satisfaction with general practitioners&#39; feedback to their reflective writing: a randomized controlled trial</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Can Med Educ J</RefJournal>
        <RefPage>e54-e59</RefPage>
        <RefTotal>Kiss A, Steiner C, Grossman P, Langewitz W, Tschudi P, Kiessling C. Students&#39; satisfaction with general practitioners&#39; feedback to their reflective writing: a randomized controlled trial. Can Med Educ J. 2017;8(4):e54-e59. DOI: 10.36834&#47;cmej.36929</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.36834&#47;cmej.36929</RefLink>
      </Reference>
      <Reference refNo="28">
        <RefAuthor>Koh YH</RefAuthor>
        <RefAuthor>Wong ML</RefAuthor>
        <RefAuthor>Lee JJ</RefAuthor>
        <RefTitle>Medical students&#39; reflective writing about a task-based learning experience on public health communication</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>121-129</RefPage>
        <RefTotal>Koh YH, Wong ML, Lee JJ. Medical students&#39; reflective writing about a task-based learning experience on public health communication. Med Teach. 2014;36(2):121-129. DOI: 10.3109&#47;0142159X.2013.849329</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2013.849329</RefLink>
      </Reference>
      <Reference refNo="29">
        <RefAuthor>Koole S</RefAuthor>
        <RefAuthor>Dornan T</RefAuthor>
        <RefAuthor>Aper L</RefAuthor>
        <RefAuthor>Scherpbier A</RefAuthor>
        <RefAuthor>Valcke M</RefAuthor>
        <RefAuthor>Cohen-Schotanus J</RefAuthor>
        <RefAuthor>Derese A</RefAuthor>
        <RefTitle>Factors confounding the assessment of reflection: a critical review</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>104</RefPage>
        <RefTotal>Koole S, Dornan T, Aper L, Scherpbier A, Valcke M, Cohen-Schotanus J, Derese A. Factors confounding the assessment of reflection: a critical review. BMC Med Educ. 2011;11:104. DOI: 10.1186&#47;1472-6920-11-104</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;1472-6920-11-104</RefLink>
      </Reference>
      <Reference refNo="30">
        <RefAuthor>Learman LA</RefAuthor>
        <RefAuthor>Autry AM</RefAuthor>
        <RefAuthor>O&#8217;Sullivan P</RefAuthor>
        <RefTitle>Reliability and validity of reflection exercises for obstetrics and gynecology residents</RefTitle>
        <RefYear>2008</RefYear>
        <RefJournal>Am J Obstet Gynecol</RefJournal>
        <RefPage>461.e1-8</RefPage>
        <RefTotal>Learman LA, Autry AM, O&#8217;Sullivan P. Reliability and validity of reflection exercises for obstetrics and gynecology residents. Am J Obstet Gynecol. 2008;198(4):461.e1-8. DOI: 10.1016&#47;j.ajog.2007.12.021</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.ajog.2007.12.021</RefLink>
      </Reference>
      <Reference refNo="31">
        <RefAuthor>Lim JY</RefAuthor>
        <RefAuthor>Ong SY</RefAuthor>
        <RefAuthor>Ng CY</RefAuthor>
        <RefAuthor>Chan KL</RefAuthor>
        <RefAuthor>Wu SY</RefAuthor>
        <RefAuthor>So WZ</RefAuthor>
        <RefAuthor>Tey GJ</RefAuthor>
        <RefAuthor>Lam YX</RefAuthor>
        <RefAuthor>Gao NL</RefAuthor>
        <RefAuthor>Lim YX</RefAuthor>
        <RefAuthor>Tay RY</RefAuthor>
        <RefAuthor>Leong IT</RefAuthor>
        <RefAuthor>Rahman ND</RefAuthor>
        <RefAuthor>Chiam M</RefAuthor>
        <RefAuthor>Lim C</RefAuthor>
        <RefAuthor>Phua GL</RefAuthor>
        <RefAuthor>Murugam V</RefAuthor>
        <RefAuthor>Ong EK</RefAuthor>
        <RefAuthor>Krishna LK</RefAuthor>
        <RefTitle>A systematic scoping review of reflective writing in medical education</RefTitle>
        <RefYear>2023</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>12</RefPage>
        <RefTotal>Lim JY, Ong SY, Ng CY, Chan KL, Wu SY, So WZ, Tey GJ, Lam YX, Gao NL, Lim YX, Tay RY, Leong IT, Rahman ND, Chiam M, Lim C, Phua GL, Murugam V, Ong EK, Krishna LK. A systematic scoping review of reflective writing in medical education. BMC Med Educ. 2023;23(1):12. DOI: 10.1186&#47;s12909-022-03924-4</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;s12909-022-03924-4</RefLink>
      </Reference>
      <Reference refNo="32">
        <RefAuthor>Lovell BL</RefAuthor>
        <RefAuthor>Lee RT</RefAuthor>
        <RefTitle>Burnout and health promotion in veterinary medicine</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Can Vet J</RefJournal>
        <RefPage>790-791</RefPage>
        <RefTotal>Lovell BL, Lee RT. Burnout and health promotion in veterinary medicine. Can Vet J. 2013;54(8):790-791. </RefTotal>
      </Reference>
      <Reference refNo="33">
        <RefAuthor>Lutz G</RefAuthor>
        <RefAuthor>Scheffler C</RefAuthor>
        <RefAuthor>Edelhaeuser F</RefAuthor>
        <RefAuthor>Tauschel D</RefAuthor>
        <RefAuthor>Neumann M</RefAuthor>
        <RefTitle>A reflective practice intervention for professional development, reduced stress and improved patient care &#8211; a qualitative developmental evaluation</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Patient Educ Couns</RefJournal>
        <RefPage>337-345</RefPage>
        <RefTotal>Lutz G, Scheffler C, Edelhaeuser F, Tauschel D, Neumann M. A reflective practice intervention for professional development, reduced stress and improved patient care &#8211; a qualitative developmental evaluation. Patient Educ Couns. 2013;92(3):337-345. DOI: 10.1016&#47;j.pec.2013.03.020</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.pec.2013.03.020</RefLink>
      </Reference>
      <Reference refNo="34">
        <RefAuthor>Lyon P</RefAuthor>
        <RefAuthor>Letschka P</RefAuthor>
        <RefAuthor>Ainsworth T</RefAuthor>
        <RefAuthor>Haq I</RefAuthor>
        <RefTitle>An exploratory study of the potential learning benefits for medical students in collaborative drawing: creativity, reflection and &#39;critical looking&#39;</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>86</RefPage>
        <RefTotal>Lyon P, Letschka P, Ainsworth T, Haq I. An exploratory study of the potential learning benefits for medical students in collaborative drawing: creativity, reflection and &#39;critical looking&#39;. BMC Med Educ. 2013;13:86. DOI: 10.1186&#47;1472-6920-13-86</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;1472-6920-13-86</RefLink>
      </Reference>
      <Reference refNo="35">
        <RefAuthor>Makoul G</RefAuthor>
        <RefAuthor>Zick AB</RefAuthor>
        <RefAuthor>Aakhus M</RefAuthor>
        <RefAuthor>Neely KJ</RefAuthor>
        <RefAuthor>Roemer PE</RefAuthor>
        <RefTitle>Using an online forum to encourage reflection about difficult conversations in medicine</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Patient Educ Couns</RefJournal>
        <RefPage>83-86</RefPage>
        <RefTotal>Makoul G, Zick AB, Aakhus M, Neely KJ, Roemer PE. Using an online forum to encourage reflection about difficult conversations in medicine. Patient Educ Couns. 2010;79(1):83-86. DOI: 10.1016&#47;j.pec.2009.07.027</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.pec.2009.07.027</RefLink>
      </Reference>
      <Reference refNo="38">
        <RefAuthor>Messick S</RefAuthor>
        <RefTitle>Validity</RefTitle>
        <RefYear>1989</RefYear>
        <RefBookTitle>The American Council on Education&#47;Macmillan series on higher education Educational measurement</RefBookTitle>
        <RefPage>13-103</RefPage>
        <RefTotal>Messick S. Validity. In: Linn RL, editor. The American Council on Education&#47;Macmillan series on higher education Educational measurement. New York: Macmillan; 1989. p.13-103.</RefTotal>
      </Reference>
      <Reference refNo="37">
        <RefAuthor>Messick S</RefAuthor>
        <RefTitle>Validity of test interpretation and use</RefTitle>
        <RefYear>1991</RefYear>
        <RefBookTitle>Encyclopedia of Educational Research</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Messick S. Validity of test interpretation and use. In: Alkin MC, editor. Encyclopedia of Educational Research. 6th ed. New York: Macmillan; 1991.</RefTotal>
      </Reference>
      <Reference refNo="36">
        <RefAuthor>Medizinischer Fakult&#228;tentag (MFT)</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2015</RefYear>
        <RefBookTitle>Nationaler Kompetenzbasierter Lernzielkatalog Medizin</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Medizinischer Fakult&#228;tentag (MFT). Nationaler Kompetenzbasierter Lernzielkatalog Medizin. Berlin: MFT; 2015.</RefTotal>
      </Reference>
      <Reference refNo="39">
        <RefAuthor>Miller-Kuhlman R</RefAuthor>
        <RefAuthor>O&#8217;Sullivan PS</RefAuthor>
        <RefAuthor>Aronson L</RefAuthor>
        <RefTitle>Essential steps in developing best practices to assess reflective skill: A comparison of two rubrics</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>75-81</RefPage>
        <RefTotal>Miller-Kuhlman R, O&#8217;Sullivan PS, Aronson L. Essential steps in developing best practices to assess reflective skill: A comparison of two rubrics. Med Teach. 2016;38(1):75-81. DOI: 10.3109&#47;0142159X.2015.1034662</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2015.1034662</RefLink>
      </Reference>
      <Reference refNo="40">
        <RefAuthor>Moniz T</RefAuthor>
        <RefAuthor>Arntfield S</RefAuthor>
        <RefAuthor>Miller K</RefAuthor>
        <RefAuthor>Lingard L</RefAuthor>
        <RefAuthor>Watling C</RefAuthor>
        <RefAuthor>Regehr G</RefAuthor>
        <RefTitle>Considerations in the use of reflective writing for student assessment: issues of reliability and validity</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>901-908</RefPage>
        <RefTotal>Moniz T, Arntfield S, Miller K, Lingard L, Watling C, Regehr G. Considerations in the use of reflective writing for student assessment: issues of reliability and validity. Med Educ. 2015;49(9):901-908. DOI: 10.1111&#47;medu.12771</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;medu.12771</RefLink>
      </Reference>
      <Reference refNo="41">
        <RefAuthor>Moon JA</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2004</RefYear>
        <RefBookTitle>A handbook of reflective and experiential learning: Theory and practice</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Moon JA. A handbook of reflective and experiential learning: Theory and practice. London: Psychology Press; 2004.</RefTotal>
      </Reference>
      <Reference refNo="43">
        <RefAuthor>Moskal BM</RefAuthor>
        <RefTitle>Scoring rubrics: what, when and how&#63;</RefTitle>
        <RefYear>2000</RefYear>
        <RefJournal>Pract Assess Res Eval</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Moskal BM. Scoring rubrics: what, when and how&#63; Pract Assess Res Eval. 2000;7(3). Zug&#228;nglich unter&#47;available from: http:&#47;&#47;pareonline.net&#47;getvn.asp&#63;v&#61;7&#38;n&#61;34</RefTotal>
        <RefLink>http:&#47;&#47;pareonline.net&#47;getvn.asp&#63;v&#61;7&#38;n&#61;34</RefLink>
      </Reference>
      <Reference refNo="42">
        <RefAuthor>Moskal BM</RefAuthor>
        <RefTitle>Developing Classroom Performance Assessments and Scoring Rubrics-Part II</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>ERIC Digest</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Moskal BM. Developing Classroom Performance Assessments and Scoring Rubrics-Part II. ERIC Digest. 2003. Zug&#228;nglich unter&#47;available from: https:&#47;&#47;eric.ed.gov&#47;&#63;id&#61;ED481715</RefTotal>
        <RefLink>https:&#47;&#47;eric.ed.gov&#47;&#63;id&#61;ED481715</RefLink>
      </Reference>
      <Reference refNo="44">
        <RefAuthor>O&#8217;Sullivan P</RefAuthor>
        <RefAuthor>Aronson L</RefAuthor>
        <RefAuthor>Chittenden E</RefAuthor>
        <RefAuthor>Niehaus B</RefAuthor>
        <RefAuthor>Learman L</RefAuthor>
        <RefTitle>Reflective ability rubric and user guide</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>MedEdPortal</RefJournal>
        <RefPage></RefPage>
        <RefTotal>O&#8217;Sullivan P, Aronson L, Chittenden E, Niehaus B, Learman L. Reflective ability rubric and user guide. MedEdPortal. 2010. DOI: 10.15766&#47;mep&#95;2374-8265.8133</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.15766&#47;mep&#95;2374-8265.8133</RefLink>
      </Reference>
      <Reference refNo="45">
        <RefAuthor>OIE</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2012</RefYear>
        <RefBookTitle>OIE recommendations on the Competencies of graduating veterinarians (&#8216;Day 1 graduates&#8217;) to assure National Veterinary Services of quality</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>OIE. OIE recommendations on the Competencies of graduating veterinarians (&#8216;Day 1 graduates&#8217;) to assure National Veterinary Services of quality. Paris: OIE; 2012.</RefTotal>
      </Reference>
      <Reference refNo="46">
        <RefAuthor>Ottenberg AL</RefAuthor>
        <RefAuthor>Pasalic D</RefAuthor>
        <RefAuthor>Bui GT</RefAuthor>
        <RefAuthor>Pawlina W</RefAuthor>
        <RefTitle>An analysis of reflective writing early in the medical curriculum: The relationship between reflective capacity and academic achievement</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>724-729</RefPage>
        <RefTotal>Ottenberg AL, Pasalic D, Bui GT, Pawlina W. An analysis of reflective writing early in the medical curriculum: The relationship between reflective capacity and academic achievement. Med Teach. 2016;38(7):724-729. DOI: 10.3109&#47;0142159X.2015.1112890</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2015.1112890</RefLink>
      </Reference>
      <Reference refNo="47">
        <RefAuthor>Pee B</RefAuthor>
        <RefAuthor>Woodman T</RefAuthor>
        <RefAuthor>Fry H</RefAuthor>
        <RefAuthor>Davenport ES</RefAuthor>
        <RefTitle>Appraising and assessing reflection in students&#39; writing on a structured worksheet</RefTitle>
        <RefYear>2002</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>575-585</RefPage>
        <RefTotal>Pee B, Woodman T, Fry H, Davenport ES. Appraising and assessing reflection in students&#39; writing on a structured worksheet. Med Educ. 2002;36(6):575-585. DOI: 10.1046&#47;j.1365-2923.2002.01227.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1046&#47;j.1365-2923.2002.01227.x</RefLink>
      </Reference>
      <Reference refNo="48">
        <RefAuthor>Pennebaker JW</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1997</RefYear>
        <RefBookTitle>Opening up: The healing power of expressing emotions</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Pennebaker JW. Opening up: The healing power of expressing emotions. London, New York: Guildford Press; 1997.</RefTotal>
      </Reference>
      <Reference refNo="49">
        <RefAuthor>Randolph JJ</RefAuthor>
        <RefTitle>Free-marginal multirater kappa (multirater &#954;free): an alternative to Fleiss&#8217; fixed-Marginal multirater kappa</RefTitle>
        <RefYear>2005</RefYear>
        <RefBookTitle>Paper presented at the Joensuu Learning and Instruction Symposium, Joensuu, Finland</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Randolph JJ. Free-marginal multirater kappa (multirater &#954;free): an alternative to Fleiss&#8217; fixed-Marginal multirater kappa. In: Paper presented at the Joensuu Learning and Instruction Symposium, Joensuu, Finland. 2005. Zug&#228;nglich unter&#47;available from: https:&#47;&#47;www.researchgate.net&#47;publication&#47;224890485&#95;Free-Marginal&#95;Multirater&#95;Kappa&#95;multirater&#95;kfree&#95;An&#95;Alternative&#95;to&#95;Fleiss&#95;Fixed-Marginal&#95;Multirater&#95;Kappa</RefTotal>
        <RefLink>https:&#47;&#47;www.researchgate.net&#47;publication&#47;224890485&#95;Free-Marginal&#95;Multirater&#95;Kappa&#95;multirater&#95;kfree&#95;An&#95;Alternative&#95;to&#95;Fleiss&#95;Fixed-Marginal&#95;Multirater&#95;Kappa</RefLink>
      </Reference>
      <Reference refNo="50">
        <RefAuthor>Reis SP</RefAuthor>
        <RefAuthor>Wald HS</RefAuthor>
        <RefAuthor>Monroe AD</RefAuthor>
        <RefAuthor>Borkan JM</RefAuthor>
        <RefTitle>Begin the BEGAN (The Brown Educational Guide to the Analysis of Narrative) &#8211; A framework for enhancing educational impact of faculty feedback to students&#8217; reflective writing</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Patient Educ Couns</RefJournal>
        <RefPage>253-259</RefPage>
        <RefTotal>Reis SP, Wald HS, Monroe AD, Borkan JM. Begin the BEGAN (The Brown Educational Guide to the Analysis of Narrative) &#8211; A framework for enhancing educational impact of faculty feedback to students&#8217; reflective writing. Patient Educ Couns. 2010;80(2):253-259. DOI: 10.1016&#47;j.pec.2009.11.014</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.pec.2009.11.014</RefLink>
      </Reference>
      <Reference refNo="51">
        <RefAuthor>Sandars J</RefAuthor>
        <RefTitle>The use of reflection in medical education: AMEE Guide No. 44</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>685-695</RefPage>
        <RefTotal>Sandars J. The use of reflection in medical education: AMEE Guide No. 44. Med Teach. 2009;31(8):685-695. DOI: 10.1080&#47;01421590903050374</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;01421590903050374</RefLink>
      </Reference>
      <Reference refNo="52">
        <RefAuthor>Sandars J</RefAuthor>
        <RefAuthor>Murray C</RefAuthor>
        <RefTitle>Digital storytelling for reflection in undergraduate medical education: a pilot study</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>Educ Prim Care</RefJournal>
        <RefPage>441-444</RefPage>
        <RefTotal>Sandars J, Murray C. Digital storytelling for reflection in undergraduate medical education: a pilot study. Educ Prim Care. 2009;20(6):441-444. DOI: 10.1080&#47;14739879.2009.11493832</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;14739879.2009.11493832</RefLink>
      </Reference>
      <Reference refNo="53">
        <RefAuthor>Shapiro J</RefAuthor>
        <RefAuthor>Rakhra P</RefAuthor>
        <RefAuthor>Wong A</RefAuthor>
        <RefTitle>The stories they tell: How third year medical students portray patients, family members, physicians, and themselves in difficult encounters</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>1033-1040</RefPage>
        <RefTotal>Shapiro J, Rakhra P, Wong A. The stories they tell: How third year medical students portray patients, family members, physicians, and themselves in difficult encounters. Med Teach. 2016;38(10):1033-1040. DOI: 10.3109&#47;0142159X.2016.1147535</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2016.1147535</RefLink>
      </Reference>
      <Reference refNo="54">
        <RefAuthor>Stevens DD</RefAuthor>
        <RefAuthor>Cooper JE</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2009</RefYear>
        <RefBookTitle>Journal Keeping: How to Use Reflective Writing for Learning, Teaching, Professional Insight and Positive Change</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Stevens DD, Cooper JE. Journal Keeping: How to Use Reflective Writing for Learning, Teaching, Professional Insight and Positive Change. Sterling (VA): Stylus Publishing; 2009.</RefTotal>
      </Reference>
      <Reference refNo="55">
        <RefAuthor>Uygur J</RefAuthor>
        <RefAuthor>Stuart E</RefAuthor>
        <RefAuthor>De Paor M</RefAuthor>
        <RefAuthor>Wallace E</RefAuthor>
        <RefAuthor>Duffy S</RefAuthor>
        <RefAuthor>O&#8217;Shea M</RefAuthor>
        <RefAuthor>Smith S</RefAuthor>
        <RefAuthor>Pawlikowska T</RefAuthor>
        <RefTitle>A Best Evidence in Medical Education systematic review to determine the most effective teaching methods that develop reflection in medical students: BEME Guide No. 51</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>3-16</RefPage>
        <RefTotal>Uygur J, Stuart E, De Paor M, Wallace E, Duffy S, O&#8217;Shea M, Smith S, Pawlikowska T. A Best Evidence in Medical Education systematic review to determine the most effective teaching methods that develop reflection in medical students: BEME Guide No. 51. Med Teach. 2019;41(1):3-16. DOI: 10.1080&#47;0142159X.2018.1505037</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;0142159X.2018.1505037</RefLink>
      </Reference>
      <Reference refNo="56">
        <RefAuthor>Wald HS</RefAuthor>
        <RefTitle>Professional identity (trans)formation in medical education: reflection, relationship, resilience</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>701-706</RefPage>
        <RefTotal>Wald HS. Professional identity (trans)formation in medical education: reflection, relationship, resilience. Acad Med. 2015;90(6):701-706. DOI: 10.1097&#47;ACM.0000000000000731</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;ACM.0000000000000731</RefLink>
      </Reference>
      <Reference refNo="57">
        <RefAuthor>Wald HS</RefAuthor>
        <RefAuthor>Borkan JM</RefAuthor>
        <RefAuthor>Taylor JS</RefAuthor>
        <RefAuthor>Anthony D</RefAuthor>
        <RefAuthor>Reis SP</RefAuthor>
        <RefTitle>Fostering and evaluating reflective capacity in medical education: developing the REFLECT rubric for assessing reflective writing</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>41-50</RefPage>
        <RefTotal>Wald HS, Borkan JM, Taylor JS, Anthony D, Reis SP. Fostering and evaluating reflective capacity in medical education: developing the REFLECT rubric for assessing reflective writing. Acad Med. 2012;87(1):41-50. DOI: 10.1097&#47;ACM.0b013e31823b55fa</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;ACM.0b013e31823b55fa</RefLink>
      </Reference>
      <Reference refNo="58">
        <RefAuthor>Wald HS</RefAuthor>
        <RefAuthor>Haramati A</RefAuthor>
        <RefAuthor>Bachner YG</RefAuthor>
        <RefAuthor>Urkin J</RefAuthor>
        <RefTitle>Promoting resiliency for interprofessional faculty and senior medical students: Outcomes of a workshop using mind-body medicine and interactive reflective writing</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>525-528</RefPage>
        <RefTotal>Wald HS, Haramati A, Bachner YG, Urkin J. Promoting resiliency for interprofessional faculty and senior medical students: Outcomes of a workshop using mind-body medicine and interactive reflective writing. Med Teach. 2016;38(5):525-528. DOI: 10.3109&#47;0142159X.2016.1150980</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2016.1150980</RefLink>
      </Reference>
      <Reference refNo="59">
        <RefAuthor>Wald HS</RefAuthor>
        <RefAuthor>Reis SP</RefAuthor>
        <RefAuthor>Borkan JM</RefAuthor>
        <RefTitle>Reflection rubric development: evaluating medical students&#8217; reflective writing</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>1110-1111</RefPage>
        <RefTotal>Wald HS, Reis SP, Borkan JM. Reflection rubric development: evaluating medical students&#8217; reflective writing. Med Educ. 2009;43(11):1110-1111.</RefTotal>
      </Reference>
      <Reference refNo="60">
        <RefAuthor>West CP</RefAuthor>
        <RefTitle>Physician Well-Being: Expanding the Triple Aim</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>J Gen Intern Med</RefJournal>
        <RefPage>458-459</RefPage>
        <RefTotal>West CP. Physician Well-Being: Expanding the Triple Aim. J Gen Intern Med. 2016;31(5):458-459. DOI: 10.1007&#47;s11606-016-3641-2</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s11606-016-3641-2</RefLink>
      </Reference>
      <Reference refNo="61">
        <RefAuthor>Wong FK</RefAuthor>
        <RefAuthor>Kember D</RefAuthor>
        <RefAuthor>Chung LY</RefAuthor>
        <RefAuthor>Yan L</RefAuthor>
        <RefTitle>Assessing the level of student reflection from reflective journals</RefTitle>
        <RefYear>1995</RefYear>
        <RefJournal>J Adv Nurs</RefJournal>
        <RefPage>48-57</RefPage>
        <RefTotal>Wong FK, Kember D, Chung LY, Yan L. Assessing the level of student reflection from reflective journals. J Adv Nurs. 1995;22(1):48-57. DOI: 10.1046&#47;j.1365-2648.1995.22010048.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1046&#47;j.1365-2648.1995.22010048.x</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 1: Inter-rater reliability for MaReS and REFLECT for the different raters </Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Inter-Rater-Reliabilit&#228;t f&#252;r MaReS und REFLECT f&#252;r die verschiedenen Bewertenden </Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="en">2en</MediaID>
          <MediaID language="de">2de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 2: Answers to closed questions of the students&#8217; evaluation</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 2: Antworten auf die geschlossenen Fragen in den Evaluationen der Studierenden</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>3</MediaNo>
          <MediaID language="en">3en</MediaID>
          <MediaID language="de">3de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 3: Free-text responses on the impact of writing and feedback on reflection reports</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 3: Freitext-Antworten &#252;ber die Auswirkungen des Schreibens und des Feedbacks auf die Reflexionsberichte </Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>3</NoOfTables>
      </Tables>
      <Figures>
        <Figure width="242" height="611" format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Study design MaReS</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Studiendesign MaReS</Mark1></Pgraph></Caption>
        </Figure>
        <Figure width="569" height="273" format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="en">2en</MediaID>
          <MediaID language="de">2de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 2: Sources of validity evidence for MaReS</Mark1> </Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: Quellen f&#252;r Belege der Validit&#228;t von MaReS </Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>2</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <Attachment>
          <MediaNo>1</MediaNo>
          <MediaID mimeType="application/pdf" size="238989" filename="zma001752.a1en.pdf" url="" origFilename="Attachment&#95;1.pdf" language="en">1en</MediaID>
          <MediaID mimeType="application/pdf" size="273319" filename="zma001752.a1de.pdf" url="" origFilename="Anhang&#95;1.pdf" language="de">1de</MediaID>
          <AttachmentTitle language="en">Magdeburg reflective writing feedback and scoring rubric</AttachmentTitle>
          <AttachmentTitle language="de">Magdeburger Reflexionsskala</AttachmentTitle>
        </Attachment>
        <NoOfAttachments>1</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>