<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zma001771</Identifier>
    <IdentifierDoi>10.3205/zma001771</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0017716</IdentifierUrn>
    <ArticleType language="en">research article</ArticleType>
    <ArticleType language="de">Forschungsarbeit</ArticleType>
    <TitleGroup>
      <Title language="en">EYE-ECG2: Addressing medical student feedback in an RCT with eye-tracking videos featuring cued retrospective reporting and modified learning sequences for ECG interpretation skills training</Title>
      <TitleTranslated language="de">EYE-EKG2: Feedback von Medizinstudierenden in einer RCT mit Eye-Tracking-Videos, Cued Retrospective Reporting und modifizierten Lernsequenzen f&#252;r EKG-Befundungstraining</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Scherff</Lastname>
          <LastnameHeading>Scherff</LastnameHeading>
          <Firstname>Aline D.</Firstname>
          <Initials>AD</Initials>
        </PersonNames>
        <Address language="en">LMU University Hospital, LMU Munich, Institute of Medical Education, Pettenkofer Str. 8a, D-80336 Munich, Germany<Affiliation>LMU University Hospital, LMU Munich, Institute of Medical Education, Munich, Germany</Affiliation></Address>
        <Address language="de">LMU Klinikum, LMU M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, Pettenkofer Str. 8a, 80336 M&#252;nchen, Deutschland<Affiliation>LMU Klinikum, LMU M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, M&#252;nchen, Deutschland</Affiliation></Address>
        <Email>Aline.Scherff&#64;med.uni-muenchen.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>K&#228;&#228;b</Lastname>
          <LastnameHeading>K&#228;&#228;b</LastnameHeading>
          <Firstname>Stefan</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>LMU University Hospital, LMU Munich, Department of Medicine I, Munich, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>LMU Klinikum, LMU M&#252;nchen, Medizinische Klinik und Poliklinik I, M&#252;nchen, Deutschland</Affiliation>
        </Address>
        <Email>Stefan.Kaab&#64;med.uni-muenchen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Fischer</Lastname>
          <LastnameHeading>Fischer</LastnameHeading>
          <Firstname>Martin R.</Firstname>
          <Initials>MR</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>LMU University Hospital, LMU Munich, Institute of Medical Education, Munich, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>LMU Klinikum, LMU M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, M&#252;nchen, Deutschland</Affiliation>
        </Address>
        <Email>Martin.Fischer&#64;med.uni-muenchen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Berndt</Lastname>
          <LastnameHeading>Berndt</LastnameHeading>
          <Firstname>Markus</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>LMU University Hospital, LMU Munich, Institute of Medical Education, Munich, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>LMU Klinikum, LMU M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, M&#252;nchen, Deutschland</Affiliation>
        </Address>
        <Email>Markus.Berndt&#64;med.uni-muenchen.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">eye-tracking</Keyword>
      <Keyword language="en">learning</Keyword>
      <Keyword language="en">electrocardiography</Keyword>
      <Keyword language="en">medical students</Keyword>
      <Keyword language="en">clinical reasoning</Keyword>
      <Keyword language="en">diagnosis</Keyword>
      <Keyword language="de">Eye-Tracking</Keyword>
      <Keyword language="de">Lernen</Keyword>
      <Keyword language="de">Elektrokardiographie</Keyword>
      <Keyword language="de">Medizinstudierende</Keyword>
      <Keyword language="de">Clinical Reasoning</Keyword>
      <Keyword language="de">Diagnose</Keyword>
      <SectionHeading language="en">ECG skills</SectionHeading>
      <SectionHeading language="de">EKG-Kompetenzen</SectionHeading>
    </SubjectGroup>
    <DateReceived>20241025</DateReceived>
    <DateRevised>20250604</DateRevised>
    <DateAccepted>20250611</DateAccepted>
    <DatePublishedList>
      <DatePublished>20250915</DatePublished>
    </DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2366-5017</ISSN>
        <Volume>42</Volume>
        <Issue>4</Issue>
        <JournalTitle>GMS Journal for Medical Education</JournalTitle>
        <JournalTitleAbbr>GMS J Med Educ</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>47</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Zielsetzung: </Mark1>Ziel dieser Studie war es, die Wirksamkeit einer angepassten Eye-Tracking-Video-Intervention (EYE-EKG2) zur Verbesserung der EKG-Befundungskompetenz von Medizinstudierenden zu untersuchen. Aufbauend auf der Grundlagenstudie EYE-EKG1 &#91;Scherff et al. GMS J Med Educ. 2024&#93;, in welcher der Nutzen einer Modellierung von Augenbewegungen durch Experten und Cued Retrospective Reporting (CRR)-Audiokommentaren f&#252;r den Erwerb von EKG-Befundungskompetenz getestet wurde, werden in dieser Folgestudie Modifikationen eingef&#252;hrt, die die Lernergebnisse optimieren sollen.</Pgraph><Pgraph><Mark1>Methoden: </Mark1>Es wurde eine randomisierte kontrollierte Studie mit Medizinstudierenden (<Mark2>N</Mark2>&#61;94) durchgef&#252;hrt, welche entweder der Kontrollgruppe (TAU) mit Standard-EKG-Befundungsstraining, bestehend aus einer validierten Reihe von 4 EKG-F&#228;llen f&#252;r die EKG-Befundung zugeordnet wurden, oder der Interventionsgruppe (INT), welche zus&#228;tzlich das EYE-EKG2-Video erhielt. Das EYE-EKG2-Video optimierte die gezeigten EKG-Blickhinweise und Cued Retrospective Reporting (CRR) eines erfahrenen Kardiologieexperten. Die Studierenden-Performanz wurde Pr&#228;- und Post-Training erhoben. Die Daten wurden hinsichtlich einer Verbesserung der Befundungskompetenz, Entscheidungsprozessen und Studierenden-Feedbacks ausgewertet.</Pgraph><Pgraph><Mark1>Ergebnisse: </Mark1>Die Ergebnisse der vorangegangenen Studie konnten erfolgreich repliziert werden und zeigten einen insgesamt signifikanten Lernvorteil durch die F&#228;lle und eine moderate, jedoch nicht signifikante Tendenz zu INT&#62;TAU (&#916;M&#61;0.80-2.42&#37;; <Mark2>p</Mark2>&#61;.-79-.30). Die randomisierte Fallpr&#228;sentation schw&#228;chte die besondere Rolle von Lernfall 1 ab, welche zuvor in EYE-EKG1 beobachtet wurde. Die Untersuchung des studentischen Feedbacks ergab eine &#252;berwiegend positive oder neutrale Bewertung (74&#37;), und eine vorherige kardiologische Famulatur war ein Unterscheidungsmerkmal, welches zu einer positiven (vs. neutralen&#47;negativen) Einsch&#228;tzung der Eyetracking-Videos mit CRR f&#252;hrte (&#967;<Superscript>2</Superscript>(2)&#61;7.57, <Mark2>p</Mark2>&#61;.03).</Pgraph><Pgraph><Mark1>Schlussfolgerung: </Mark1>Das EKG-Training verbesserte die EKG-Befundungskompetenz der Teilnehmenden signifikant, wobei ein gelungener Einstieg in das Training eine Schl&#252;sselrolle f&#252;r diese Verbesserungen spielte. Das Feedback der Teilnehmenden deutet darauf hin, dass bestimmte Untergruppen, insbesondere diejenigen mit kardiologischer Vorerfahrung, in der Selbstwahrnehmung einen gr&#246;&#223;eren Nutzen aus den EYE-EKG2-Videos ziehen.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Objective: </Mark1>This study aimed to evaluate the effectiveness of an enhanced eye-tracking video intervention (EYE-ECG2) in improving ECG interpretation skills of medical students. Building on the foundational EYE-ECG1 study &#91;Scherff et al. GMS J Med Educ. 2024&#93;, which tested the utility of expert eye movement modelling and retrospective think-aloud commentary for ECG skill acquisition, this follow-up study introduces modifications designed to optimise learning outcomes.</Pgraph><Pgraph><Mark1>Methods: </Mark1>A randomised controlled trial was conducted with medical students (<Mark2>N</Mark2>&#61;94) allocated to either the control group (TAU) with standard ECG interpretation training, consisting of a validated set of 4 ECG cases for ECG interpretation; or the intervention group (INT) who additionally received the EYE-ECG2 video. The EYE-ECG2 video included refined ECG gaze cues and Cued Retrospective Reporting (CRR) by a senior cardiology expert. Performance was assessed pre- and post-training. Data were analysed to compare improvements in diagnostic accuracy, decision-making processes and student feedback were evaluated.</Pgraph><Pgraph><Mark1>Results:</Mark1> The results of the previous study were successfully replicated, showing an overall significant learning benefit from the cases and a moderate, yet nonsignificant tendency for INT&#62;TAU (&#916;M&#61;0.80-2.42&#37;; <Mark2>p</Mark2>&#61;.79-.30). Randomised case presentation attenuated the special role of learning case 1 observed previously in EYE-ECG1. Exploration of student feedback showed a largely positive or neutral evaluation (74&#37;), and a prior cardiological clerkship was a distinguishing factor resulting in positive (vs. neutral&#47;negative) sentiment regarding the eyetracking videos with CRR (&#967;<Superscript>2</Superscript>(2)&#61;7.57, <Mark2>p</Mark2>&#61;.03).</Pgraph><Pgraph><Mark1>Conclusion:</Mark1> The ECG training significantly improved participants&#8217; ECG interpretation skills, with a strong start in the training session playing a key role in these improvements. Student feedback indicated that certain subgroups, particularly those with prior cardiological experience, may derive a greater self-reported benefit from the EYE-ECG2 videos.</Pgraph></Abstract>
    <TextBlock name="1. Introduction" linked="yes" language="en">
      <MainHeadline>1. Introduction</MainHeadline><Pgraph>Electrocardiography (ECG) interpretation is a critical skill in the medical curriculum, recognized as an Entrustable Professional Activity that students must master before graduation <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>. Yet, with no gold standard for teaching ECG interpretation <TextLink reference="3"></TextLink>, performance results are frequently poor <TextLink reference="4"></TextLink>, leaving significant scope for developing and improving new teaching tools. </Pgraph><Pgraph>The original EYE-ECG study <TextLink reference="5"></TextLink> explored an innovative method using eye-tracking videos combined with Cued Retrospective Reporting (CRR; as in e.g., <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>, <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>) to enhance ECG interpretation skills. The theoretical underpinning of this approach is to employ Eye Movement Modelling Examples (EMMEs) in order to enhance ECG interpretation training, leveraging eye-tracking technology to replicate expert visual search patterns, aiding novices in efficient diagnostic learning <TextLink reference="12"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>. Previously successful in histology and radiology, EMMEs have also improved clinical reasoning and adaptive expertise in medical imaging <TextLink reference="15"></TextLink>, <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink>. AI integration in automated ECG analysis benefits from expert gaze modelling, yet challenges remain, including variability in eye movements and accessibility of tracking technology <TextLink reference="18"></TextLink>, <TextLink reference="19"></TextLink>, <TextLink reference="20"></TextLink>. While EMMEs enhance medical education, limitations include differences in expert gaze patterns, cognitive overload, and transferability of skills, requiring further study <TextLink reference="21"></TextLink>, <TextLink reference="22"></TextLink>, <TextLink reference="23"></TextLink>. In the following, we employ the term &#8220;eye-tracking videos&#8221; as a practical application of EMMEs.</Pgraph><Pgraph>CRR asks from an expert to review their eye-tracking patterns during ECG interpretation and verbally explain their thought process. CRR, developed as a retrospective think-aloud technique, allows experts to articulate their reasoning without disrupting the original expert task. Together, eye-tracking and CRR could offer students both visual and verbal insights, potentially enhancing their understanding of effective expert ECG interpretation strategies.</Pgraph><Pgraph>The predecessor study provided tentative evidence suggesting that the combination could be harnessed to positively influence ECG interpretation skills among medical students. However, the results also highlighted areas for improvement, leading to the development of the current EYE-ECG2 study. Three key previous observations informed the design of this follow-up research.</Pgraph><Pgraph>Although the eye-tracking videos with CRR were promising, it became apparent that modifying these videos could potentially enhance their effectiveness. This follow-up study aimed to explore whether adjustments in the presentation of these videos, synchronising the eye-tracking focus spot with their verbal explications from cued retrospective reporting, could lead to better outcomes.</Pgraph><Pgraph>One of the most intriguing findings from EYE-ECG1 was the particular relevance of the first clinical training case, which involved myocardial infarction. This observation gave rise to the hypothesis that posterior myocardial infarction might serve as <Mark2>gatekeeper content</Mark2> &#8211; a critical component of ECG interpretation that must be understood before students can progress to more complex cases. Alternatively, it was hypothesized that success in the first case might have a motivational impact, setting the tone for subsequent learning. EYE-ECG2 seeks to formally test these alternative explanations.</Pgraph><Pgraph>Finally, the original study identified a divergence in informal student feedback regarding the use of the EYE-ECG video. Some students found them extremely helpful, while others did not. EYE-ECG2 aims to systematically investigate the factors contributing to these differing perceptions, examining whether specific student characteristics might explain why certain students respond more positively to this teaching method than others.</Pgraph><Pgraph>Building on the findings of the predecessor study, EYE-ECG2 aims to refine the use of eye-tracking videos with CRR and explore their impact on ECG interpretation skills among medical students. The study will focus on three main objectives: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">assessing the impact of modified eye-tracking videos on student learning outcomes, </ListItem><ListItem level="1" levelPosition="2" numString="2.">investigating the specific role of the first clinical case in ECG interpretation skills acquisition, and </ListItem><ListItem level="1" levelPosition="3" numString="3.">analysing student feedback to identify factors that influence their reception of this novel teaching method.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock name="1. Einleitung" linked="yes" language="de">
      <MainHeadline>1. Einleitung</MainHeadline><Pgraph>Die Befundung von Elektrokardiographien (EKGs) ist ein essenzieller Skill des medizinischen Curriculums, welche als anvertraubare professionelle T&#228;tigkeit eingestuft wird und welche die Studierenden mit der Approbation beherrschen m&#252;ssen <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>. Ohne einen aktuellen Goldstandard f&#252;r das Lehren der EKG-Befundung <TextLink reference="3"></TextLink>, sind die Leistungsergebnisse h&#228;ufig schlecht <TextLink reference="4"></TextLink>, so dass erheblicher Spielraum f&#252;r die Entwicklung und Verbesserung neuer Lehrmethoden besteht. </Pgraph><Pgraph>Die vorherige EYE-EKG-Studie <TextLink reference="5"></TextLink> erprobte eine innovative Methode, bei der Eye-Tracking-Videos mit Cued Retrospective Reporting (CRR, unterst&#252;tzte verbale Erkl&#228;rung der Augenbewegungen; z. B. <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>, <TextLink reference="9"></TextLink>, <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>) kombiniert wurden, um die EKG-Befundungskompetenz zu verbessern. Die theoretische Grundlage dieses Ansatzes ist der Einsatz von Eye Movement Modelling Examples (EMMEs), um das EKG-Befundungstraining zu verbessern. Dabei wird Eye-Tracking genutzt, um visuelle Suchmuster von Experten zu replizieren und Anf&#228;ngern beim effizienten diagnostischen Lernen zu helfen <TextLink reference="12"></TextLink>, <TextLink reference="13"></TextLink>, <TextLink reference="14"></TextLink>. EMMEs haben sich zuvor bereits in der Histologie und Radiologie bew&#228;hrt und verbessern auch die klinische Entscheidungsfindung und die adaptive Expertise in der medizinischen Bildgebung <TextLink reference="15"></TextLink>, <TextLink reference="16"></TextLink>, <TextLink reference="17"></TextLink>. Die Integration von k&#252;nstlicher Intelligenz in die automatisierte EKG-Analyse profitiert von der Modellierung der Blicke von Experten, es bestehen jedoch noch Herausforderungen, wie etwa die Variabilit&#228;t der Augenbewegungen und der aufw&#228;ndige Einsatz der Technologie <TextLink reference="18"></TextLink>, <TextLink reference="19"></TextLink>, <TextLink reference="20"></TextLink>. EMMEs verbessern zwar die medizinische Ausbildung, haben aber auch ihre Grenzen: Unterschiede in den Blickmustern von Experten, kognitive &#220;berlastung und &#220;bertragbarkeit der F&#228;higkeiten, erfordern daher weitere Forschung <TextLink reference="21"></TextLink>, <TextLink reference="22"></TextLink>, <TextLink reference="23"></TextLink>. Im Folgenden verwenden wir den Begriff &#8222;Eye-Tracking-Videos&#8220; im Sinne einer praktischen Anwendung von EMMEs.</Pgraph><Pgraph>CRR zielt darauf ab, dass ein Experte seine Blickbewegungsmuster und seine Gedankeng&#228;nge w&#228;hrend der EKG-Befundung nachtr&#228;glich verbal erl&#228;utert. CRR wurde als retrospektive &#8222;Think-Aloud&#8220;-Technik entwickelt und erm&#246;glicht es Experten, ihre &#220;berlegungen zu artikulieren, ohne zuvor die Expertenaufgabe zu unterbrechen. Die Kombination von Eye-Tracking und CRR hat das Potential, Studierenden sowohl visuelle als auch verbale Einblicke zu bieten und so ihr Verst&#228;ndnis f&#252;r effektive EKG-Befundungsstrategien von Experten zu verbessern.</Pgraph><Pgraph>Die Vorg&#228;ngerstudie lieferte erste Anhaltspunkte daf&#252;r, dass diese Kombination genutzt werden k&#246;nnte, um die EKG-Befundungskompetenz von Medizinstudierenden positiv zu beeinflussen. Die Ergebnisse zeigten jedoch auch verbesserungsw&#252;rdige Bereiche auf, was zur Konzeption der aktuellen EYE-EKG2-Studie f&#252;hrte. Dabei haben drei zentrale vorherige Beobachtungen die Konzeption dieser Anschlussstudie ma&#223;geblich bestimmt: Obwohl die Eye-Tracking-Videos mit CRR vielversprechend waren, wurde deutlich, dass eine Modifizierung dieser Videos ihre Wirksamkeit m&#246;glicherweise verbessern k&#246;nnte. In dieser Folgestudie sollte untersucht werden, ob Anpassungen bei der Pr&#228;sentation dieser Videos, bei welcher die Eye-Tracking-Marker mit den inhaltlich passenden CRR-Verbalisierungen synchronisiert werden, zu einem besseren Lerneffekt f&#252;hren.</Pgraph><Pgraph>Ein unerwartetes Ergebnis von EYE-EKG1 war die besondere Relevanz des ersten klinischen &#220;bungsfalls, bei welchem es um einen Herzinfarkt ging. Diese Beobachtung f&#252;hrte zu der Hypothese, dass der posteriore Myokardinfarkt als Gatekeeper-Inhalt dienen k&#246;nnte &#8211; also als eine kritische Komponente der EKG-Befundung, die verstanden werden muss, bevor die Studierenden zu komplexeren F&#228;llen &#252;bergehen k&#246;nnen. Alternativ wurde die Hypothese aufgestellt, dass der Erfolg beim ersten Fall eine motivierende Wirkung haben k&#246;nnte und den Ton f&#252;r das weitere Lernen angibt. Mit EYE-EKG2 sollen diese alternativen Erkl&#228;rungen formell getestet werden.</Pgraph><Pgraph>Abschlie&#223;end offenbarte die Originalstudie eine geteilte Wahrnehmung im informellen Studierendenfeedback bez&#252;glich der N&#252;tzlichkeit des EYE-EKG-Videos. Einige Studierenden empfanden es als &#228;u&#223;erst hilfreich, andere hingegen nicht. Ziel von EYE-EKG2 ist es, die Faktoren, die zu diesen unterschiedlichen Wahrnehmungen beitragen, systematisch zu untersuchen und zu zeigen, ob konkrete Teilnehmendenmerkmale erkl&#228;ren k&#246;nnen, inwiefern bestimmte Teilnehmende positiver auf diese Lehrmethode reagieren als andere. Aufbauend auf den Ergebnissen der Vorg&#228;ngerstudie zielt EYE-EKG2 darauf ab, den Einsatz von Eye-Tracking-Videos mit CRR zu optimieren und ihren Effekt auf die EKG-Befundungskompetenz von Medizinstudierenden zu untersuchen. Die Studie konzentriert sich auf drei Hauptziele:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Bewertung der Auswirkungen modifizierter Eye-Tracking-Videos auf die Lernergebnisse der Studierenden,</ListItem><ListItem level="1" levelPosition="2" numString="2.">die Untersuchung der spezifischen Rolle des ersten klinischen Falles beim Erwerb von EKG- Befundungskompetenz und</ListItem><ListItem level="1" levelPosition="3" numString="3.">die Analyse des Studierenden-Feedbacks, um Faktoren zu ermitteln, welche die Akzeptanz dieser neuen Lehrmethode beeinflussen.</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock name="2. Materials and methods" linked="yes" language="en">
      <MainHeadline>2. Materials and methods</MainHeadline><SubHeadline>2.1. Design</SubHeadline><Pgraph>The study (see figure 1 <ImgLink imgNo="1" imgType="figure" />), henceforth referred to as <Mark2>EYE-ECG2</Mark2>, was designed as a follow-up study to the EYE-ECG1 study <TextLink reference="5"></TextLink>. Identically for both studies, in a randomised controlled trial of a learning study, effects of expert eye-tracking videos with <Mark2>cued retrospective reporting (CRR)</Mark2> on medical students&#8217; ECG interpretation skills were the focus of investigation. These recordings served as the learning intervention <Mark2>(EYE-ECG video)</Mark2> in the<Mark2> intervention group (INT)</Mark2>, while the <Mark2>training as usual group (TAU)</Mark2> received the same ECG training session without seeing the videos. Participants completed the ECG training session online under standardised, distraction-free conditions. All training components were presented in a fixed sequence, and once an answer was submitted, it could not be changed. At the beginning of the session (component 1, see figure 1 <ImgLink imgNo="1" imgType="figure" />), participants provided demographic information and completed self-ratings regarding their interest in ECGs and confidence in their learning strategies. They also rated their current motivation and restedness. Next (component 2), participants completed an ECG pre-test assessing theoretical ECG knowledge. The learning intervention (component 3) involved viewing the updated EYE-ECG2 video (modification 1), which provided a revised instructional approach to systematic ECG interpretation. Participants were required to watch the video at least once but could revisit it as needed. Following the video, participants engaged with four clinical case vignettes (components 4, 5, 7, and 8). Each case presented an ECG scenario accompanied by several test questions targeting different aspects of ECG interpretation, including heart rate, rhythm, axis, intervals, and amplitudes. In contrast to the previous study, the presentation order of the four clinical cases was randomised across participants to minimise sequence effects (modification 2). After completing the first two clinical cases, participants filled out mid-session self-ratings (component 6) concerning the accessibility of the material and their flow experience during learning. Motivation and restedness were also re-assessed. After all four clinical cases, participants proceeded to the ECG post-test (component 9), which involved applied diagnostic tasks based on practical ECG examples. Finally (component 10), participants completed post-session self-ratings evaluating their perceived learning gain and provided free-text feedback. A final rating of motivation and restedness was also collected.</Pgraph><Pgraph>The present EYE-ECG2 study built on two specific recommendations identified in EYE-ECG1, to modify the videos using cued retrospective reporting and to randomise learning cases within the learning intervention. EYE-ECG1 will be reintroduced here briefly for the benefit of the reader.</Pgraph><SubHeadline>2.2. Measures</SubHeadline><SubHeadline2>2.2.1. The EYE-ECG2 video</SubHeadline2><Pgraph>Previously, for EYE-ECG1, a video was developed that later on served as the novel learning intervention for the INT group (please refer to <TextLink reference="5"></TextLink> for full details). Initially, 15 authentic patient ECGs representing a range of cardiological diagnoses were selected. These were shown to a senior cardiology expert, who silently and freely interpreted all ECGs while wearing a head-mounted eye-tracker. Next, the recorded eye movements were projected onto the respective 15 ECG images, visualised as a moving red focus spot with a trail marking previously viewed locations (see figure 2 <ImgLink imgNo="2" imgType="figure" />). Marked spots dynamically varied in size corresponding to longer or shorter inspection during the expert viewing session. ECGs with superimposed eye movements were then once again shown to the same expert, this time recording audio commentary using the silent videos as cues for verbal explications of their own prior viewing behaviour and diagnostic processes (&#61;cued retrospective reporting, CRR; adapted from <TextLink reference="24"></TextLink>). Finally, visual and auditory expert diagnostic interpretation on all ECGs was combined into a single video (EYE-ECG1 and -2 video for study 1 and 2, respectively).</Pgraph><SubHeadline2>2.2.2. EYE-ECG2 modification 1</SubHeadline2><Pgraph>Student feedback from the first study indicated a demand of students to &#8220;pause&#8221; the eye gaze during crucial moments of the expert&#8217;s diagnostic process. To clarify, this did not refer to the ability to pause the video entirely (which was already both possible and permitted during the first study). Rather, multiple participants suggested holding the focus spot in place while corresponding verbal explanations would be continuing. The first modification within EYE-ECG2, compared to its predecessor, was thus to alter the EYE-ECG video, synchronising the expert eye gaze with the relevant content of the audio track. This adjustment was performed on pre-existing materials, i.e., no new expert eye-tracking or audio recordings were collected. Synchronisation was achieved by retrospectively identifying moments where visual focus and verbal commentary closely corresponded, and by holding the focus marker stationary during the associated verbal explanation. Specifically, visual triggers for commentary &#8211; such as the visual marker focusing on the QRS complex in lead II &#8211; were matched with temporally proximal verbal chunks of information (e.g., &#8220;normal electrical axis&#8221; a few milliseconds later), so that the gaze pattern remained visually stable while the verbal explanation fully addressed the diagnostic feature.</Pgraph><Pgraph>The close temporal association between eye movements and verbal comments in the original material facilitated this synchronisation. Depending on the complexity of the ECG findings, the duration of the verbal commentary either approximately matched or exceeded the time originally needed for silent visual scanning. Separate recording of eye-tracking and commentary ensured that natural gaze behavior was preserved and was not artificially prolonged or altered by the process of verbalisation. During the synchronised segments, the video was &#8220;paused&#8221; (i.e., the marker held in place) for the duration of the verbal explanation, and then continued normally.</Pgraph><Pgraph>Importantly, this synchronisation posed the only modification undertaken: all visual and auditory material was preserved (i.e., none was cut or removed), and the order of ECGs, viewing patterns, and verbal comments remained identical to that of the previous study. No parts of the expert commentary or eye-tracking data were shortened, extended, or artificially rearranged.</Pgraph><Pgraph>This approach mirrored principles used in educational videos, where dynamic visualisations are temporarily stabilised to allow learners to process complex information. Participants were also able to freely pause, rewind, or re-watch the EYE-ECG2 video at their discretion, for example to take notes, similar to how students interact with online instructional videos. Nevertheless, it was mandatory for all participants to view the entire video at least once without interruption; adherence to this instruction was verified by tracking the dwell time on the study platform.</Pgraph><SubHeadline2>2.2.3. The ECG interpretation training session</SubHeadline2><Pgraph>The ECG training session using four clinical cases that was given to all participants of the EYE-ECG2 study was identical to that of the first study <TextLink reference="5"></TextLink>, save for one modification (see figure 3 <ImgLink imgNo="3" imgType="figure" />). To briefly revisit, the student ECG training had been developed and utilised over the course of several previous studies <TextLink reference="25"></TextLink>, <TextLink reference="26"></TextLink>, <TextLink reference="27"></TextLink> and consists of 9 (TAU) or 10 (INT, including the EYE-ECG2 video) components, as shown above in figure 1 <ImgLink imgNo="1" imgType="figure" />.</Pgraph><SubHeadline2>2.2.4. EYE-ECG2 modification 2</SubHeadline2><Pgraph>Statistical analysis of the EYE-ECG1 data using multiple regression models suggested a somewhat distinctive role of clinical case 1 in predicting post-session ECG interpretation skills of participating students. However, within the first study, the source of this finding could not be pinpointed. The second modification within EYE-ECG2, therefore, was to randomise presentation of this clinical case and to observe whether the previously detected effect would subside. This was operationalised as presenting participants with either case 1, 2, 3, or 4 as their first case, followed by the remainder of the cases in original order (e.g., case 3, ---1, 2, 4). Allocation to the four possible orders of presentation was quasi-random, i.e., maintaining an even number of participants per order, and across training (INT vs. TAU) groups.</Pgraph><Pgraph><Mark2>Participant characteristics</Mark2> collected were sex (male&#47;female), age (years), years in education (no.), prior medical vocational training (yes&#47;no), subject-related semester (no.), prior ECG experience (no.), prior cardiological clerkship (yes&#47;no).</Pgraph><Pgraph><Mark2>Self-rated scales</Mark2> administered were confidence in personal learning strategy (0-100&#37;), interest in ECGs (0-100&#37;), current motivation pre-&#47;mid-&#47;post- session (0-100&#37;), current restedness pre-&#47;mid-&#47;post- session (0-100&#37;), accessibility of the material mid-session (0-100&#37;), flow state mid-session (0-100&#37;), and self-rated benefit from the training post-session (0-100&#37;).</Pgraph><Pgraph><Mark2>ECG skill measures</Mark2> were composed of a pre-test measuring theoretical ECG knowledge, 4 <Mark2>clinical cases </Mark2>centring on the visual and clinical interpretation of a patient&#8217;s ECG, and a post-test presenting quick practical ECG scenarios based on 9 authentic patient ECGs. </Pgraph><Pgraph>As discussed at length elsewhere <TextLink reference="5"></TextLink>, there is no universal guideline how to best and meaningfully measure students&#8217; ECG skill gain. To this end, EYE-ECG1 previously developed 3 scoring variants capturing different aspects of ECG interpretation skills for further exploration, that were again utilised in EYE-ECG2. The basic score (BS) awarded points for each correctly identified ECG feature (0-100&#37;); the relative score (RS) evaluated correctly against falsely chosen options (-100-100&#37;); the conservative score (CS) counted only fully correctly answered questions (0-100&#37;). As was argued, these scores might aid the investigation of a student&#8217;s learning journey from feature detection, via self-monitoring, to clinical competence.</Pgraph><SubHeadline2>2.2.5. Free text feedback</SubHeadline2><Pgraph>At the very end of the training session, participants saw a simple prompt (&#8220;Please give feedback on&#8230;&#8221;) to provide feedback </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">on the EYE-ECG2 video (INT only) and </ListItem><ListItem level="1" levelPosition="2" numString="2.">on the ECG training session. </ListItem></OrderedList></Pgraph><Pgraph>To also allow some statistical contemplation of the comments, a quick manual categorisation of the tone of individual comments into negative, neutral, or positive was undertaken, creating the variable sentiment (-1; 0; 1; respectively).</Pgraph><SubHeadline2>2.2.6. Procedure</SubHeadline2><Pgraph>Identical to the predecessor study, EYE-ECG2 required of its participants a prior successful completion of their university cardiology module and that students were not yet fully qualified medical doctors. All participants were randomly assigned to either receive the EYE-ECG2 video training or training as usual (<Mark2>N</Mark2>&#61;94; INT <Mark2>n</Mark2>&#61;47; TAU <Mark2>n</Mark2>&#61;47) within the online training session. As before, the intervention group was instructed to fully watch the 12m 04s EYE-ECG2 video at least once and training components were worked through in fixed order in this &#126;2-hour training session.</Pgraph></TextBlock>
    <TextBlock name="2. Materialien und Methoden" linked="yes" language="de">
      <MainHeadline>2. Materialien und Methoden</MainHeadline><SubHeadline>2.1. Design</SubHeadline><Pgraph>Die Studie (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure" />), die im Folgenden als EYE-EKG2 bezeichnet wird, wurde als Folgestudie zur EYE-EKG1 Studie <TextLink reference="5"></TextLink> konzipiert. Identisch f&#252;r beide Studien wurden in einer randomisierten kontrollierten Studie mittels einer Lernintervention der Effekt von Experten-Eye-Tracking-Videos mit Cued Retrospective Reporting (CRR) auf die EKG-Befundungskompetenz von Medizinstudierenden untersucht. Diese Aufnahmen dienten als Lernintervention (EYE-EKG-Video) in der Interventionsgruppe (INT) w&#228;hrend die &#8222;Training as usual&#8220; Standard-Trainingsgruppe (TAU) dieselbe EKG-Trainingseinheit durchlief ohne die Videos zu sehen. Die Teilnehmenden absolvierten das EKG-Training online unter standardisierten, ablenkungsarmen Bedingungen. Alle Trainingskomponenten wurden in einer fixen Reihenfolge pr&#228;sentiert, und eingereichte Antworten konnten nicht mehr ge&#228;ndert werden. Zu Beginn der Sitzung (Komponente 1, siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure" />) machten die Teilnehmenden demografische Angaben und f&#252;llten Selbst-Ratings zu ihrem Interesse an EKGs und ihrem Vertrauen in die eigene Lernstrategie aus. Au&#223;erdem bewerteten sie ihre aktuelle Motivation und ihre Ausgeruhtheit. Als N&#228;chstes (Komponente 2) f&#252;llten die Teilnehmenden einen EKG-Pr&#228;-Test aus, um ihr theoretisches EKG-Wissen zu &#252;berpr&#252;fen. Die Lernintervention (Komponente 3) zeigte das angepasste EYE-EKG2-Video (Modifikation 1), welches einen &#252;berarbeiteten didaktischen Ansatz zur systematischen EKG-Befundung darstellte. Die Teilnehmenden waren aufgefordert, sich das Video mindestens einmal vollst&#228;ndig anzusehen und konnten es nach Belieben wiederholen.</Pgraph><Pgraph>Im Anschluss an das Video bearbeiteten die Teilnehmenden vier klinische Fallvignetten (Komponenten 4, 5, 7 und 8). Jeder Fall pr&#228;sentierte ein EKG-Szenario, das von mehreren Testfragen begleitet wurde, welche auf verschiedene Aspekte der EKG-Befundung abzielten, einschlie&#223;lich Herzfrequenz, Rhythmus, Lagetyp, Intervallen und Amplituden. Im Gegensatz zur vorherigen Studie wurde die Reihenfolge der Pr&#228;sentation der vier klinischen F&#228;lle zwischen den Teilnehmenden randomisiert, um Reihenfolgeeffekte zu minimieren (Modifikation 2). Nach Abschluss der ersten beiden klinischen F&#228;lle f&#252;llten die Teilnehmenden in der Mitte der Sitzung Selbst-Ratings (Komponente 6) zur Zug&#228;nglichkeit des Materials und zu ihrem Flow-Zustand w&#228;hrend des Lernens aus. Motivation und Ausgeruhtheit wurden ebenfalls erneut bewertet. Nach den vier klinischen F&#228;llen gingen die Teilnehmenden zum EKG-Post-Test (Komponente 9) &#252;ber, welcher angewandte diagnostische Aufgaben auf der Grundlage praktischer EKG-Beispiele umfasste. Schlie&#223;lich (Komponente 10) f&#252;llten die Teilnehmenden nach der Sitzung Selbst-Ratings aus, in denen sie ihren wahrgenommenen Lernzuwachs bewerteten und Freitext-Feedback gaben. Eine abschlie&#223;ende Bewertung der Motivation und Ausgeruhtheit wurde ebenfalls erhoben.</Pgraph><Pgraph>Die vorliegende EYE-EKG2-Studie baute auf zwei spezifischen Empfehlungen auf, die in EYE-EKG1 identifiziert wurden, n&#228;mlich die CRR-Videos mit Hilfe des Feedbacks der Studierenden aus der ersten Studie zu modifizieren und die Lernf&#228;lle innerhalb der Lernintervention zu randomisieren. EYE-EKG1 wird hier daher zum Verst&#228;ndnis des Lesers noch einmal kurz vorgestellt.</Pgraph><SubHeadline>2.2. Instrumente</SubHeadline><SubHeadline2>2.2.1. Das EYE-EKG2-Video</SubHeadline2><Pgraph>Zuvor wurde f&#252;r EYE-EKG1 ein Video entwickelt, das sp&#228;ter als neuartige Lernintervention f&#252;r die INT-Gruppe diente (siehe <TextLink reference="5"></TextLink> f&#252;r weitere Einzelheiten). Zun&#228;chst wurden 15 echte Patienten-EKGs ausgew&#228;hlt, die ein Spektrum kardiologischer Diagnosen abdeckten. Diese wurden einem erfahrenen Kardiologieexperten gezeigt, welcher alle EKGs zun&#228;chst schweigend frei befundete, w&#228;hrend er eine mobile Eye-Tracking Brille trug. Anschlie&#223;end wurden die aufgezeichneten Augenbewegungen auf die jeweiligen 15 EKG-Abbildungen projiziert und als beweglicher roter Marker mit einem Schweif zuvor betrachteter Positionen visualisiert (siehe Abbildung 2 <ImgLink imgNo="2" imgType="figure" />). Die Gr&#246;&#223;e des Markers &#228;nderte sich dynamisch entsprechend einer l&#228;ngeren oder k&#252;rzeren Verweildauer w&#228;hrend der Experten-Befundung. Anschlie&#223;end wurden die EKGs mit &#252;berlagerten Augenbewegungen demselben Experten erneut gezeigt, wobei diesmal eine Tonspur aufgezeichnet wurde: Die stummen Marker-Videos dienten als Hinweisreize f&#252;r verbale Erl&#228;uterungen des eigenen vorherigen Blickmusters und diagnostischen Vorgehens (&#61;Cued Retrospective Reporting, CRR; in Anlehnung an <TextLink reference="24"></TextLink>). Schlie&#223;lich wurde die visuelle und auditive diagnostische Befundung der einzelnen EKGs durch den Experten in einem gemeinsamen Video zusammengefasst (EYE-EKG1 und -2 Video f&#252;r Studie 1 bzw. 2). </Pgraph><SubHeadline2>2.2.2. EYE-EKG2 Modifikation 1</SubHeadline2><Pgraph>Feedback der Studierenden aus der ersten Studie ergab, dass die Studierenden in entscheidenden Momenten des diagnostischen Prozesses des Experten den Blick &#8222;pausieren&#8220; wollten. Zur Erl&#228;uterung: Dies bezog sich nicht auf die M&#246;glichkeit, das Video vollst&#228;ndig anzuhalten (was bereits in der ersten Studie m&#246;glich und erlaubt war). Vielmehr schlugen mehrere Teilnehmende vor, den Marker zu fixieren, w&#228;hrend die zugeh&#246;rigen verbalen Erkl&#228;rungen fortgesetzt wurden. Die erste &#196;nderung innerhalb von EYE-EKG2 im Vergleich zu seinem Vorg&#228;nger bestand also darin, das EYE-EKG-Video zu ver&#228;ndern und den Blick des Experten mit dem entsprechenden Inhalt der Audiospur zu synchronisieren. Diese Anpassung wurde an bereits vorhandenem Material vorgenommen, d.h. es wurden keine neuen Expertenvideos oder Audioaufnahmen erhoben. Die Synchronisierung wurde erreicht, indem nachtr&#228;glich Zeitpunkte identifiziert wurden, zu denen Marker und verbaler Kommentar eng miteinander korrespondierten, und f&#252;r welche entsprechend der Fokusmarker w&#228;hrend der zugeh&#246;rigen verbalen Erl&#228;uterung fixiert wurde. Visuelle Hinweisreize f&#252;r Kommentare &#8211; etwa der Fokusmarker auf dem QRS-Komplex in Ableitung II &#8211; wurden gezielt mit zeitlich unmittelbar folgenden verbalen Informationen gepaart (z.B. &#8222;Indifferenztyp&#8220; wenige Millisekunden sp&#228;ter), sodass das Blickmuster so lange fixiert wurde, w&#228;hrend die verbale Erkl&#228;rung vollst&#228;ndig auf den diagnostischen Aspekt einging. Der enge zeitliche Zusammenhang zwischen Augenbewegungen und verbalen Kommentaren im Originalmaterial erm&#246;glichte diesbez&#252;glich eine einfache Synchronisation. Je nach Komplexit&#228;t der EKG-Befunde entsprach die Dauer des verbalen Kommentars in etwa der urspr&#252;nglich f&#252;r das stille visuelle Scannen ben&#246;tigten Zeit oder &#252;berstieg sie. Durch die getrennte Aufzeichnung von Eye-Tracking und Kommentar wurde sichergestellt, dass das nat&#252;rliche Blickverhalten erhalten blieb und nicht durch den Verbalisierungsprozess k&#252;nstlich verl&#228;ngert oder ver&#228;ndert wurde. W&#228;hrend der synchronisierten Segmente wurde das Video f&#252;r die Dauer der verbalen Erkl&#228;rung &#8222;angehalten&#8220; (d. h. der Marker wurde an Ort und Stelle gehalten) und dann normal fortgesetzt.</Pgraph><Pgraph>Wichtig ist, dass diese Synchronisation die einzige &#196;nderung darstellte, die vorgenommen wurde: Das gesamte visuelle und auditive Material wurde beibehalten (d. h. es wurde nichts geschnitten oder entfernt), und die Reihenfolge der EKGs, der Betrachtungsmuster und der verbalen Kommentare blieb identisch mit derjenigen der vorherigen Studie. Es wurden keine Teile des Expertenkommentars oder der Blickbewegungsdaten gek&#252;rzt, verl&#228;ngert oder k&#252;nstlich neu angeordnet.</Pgraph><Pgraph>Dieser Ansatz orientierte sich an h&#228;ufig verwendeten Ans&#228;tzen aus Lehrvideos, in denen dynamische Visualisierungen tempor&#228;r angehalten werden, um Lernenden die Verarbeitung komplexer Informationen zu erm&#246;glichen. Die Teilnehmenden konnten das EYE-ECG2-Video bei Bedarf frei pausieren, zur&#252;ckspulen oder erneut ansehen &#8211; ganz so, wie es auch beim selbstgesteuerten Lernen mit Online-Lehrvideos &#252;blich ist. Allerdings war es f&#252;r alle Teilnehmende obligatorisch, sich das gesamte Video mindestens einmal ohne Unterbrechung anzusehen; die Einhaltung dieser Anweisung wurde durch die Verfolgung der Verweildauer auf der Studienplattform &#252;berpr&#252;ft.</Pgraph><SubHeadline2>2.2.3. Das EKG-Befundungstraining</SubHeadline2><Pgraph>Die Komponente des EKG-Trainings mit Pr&#228;sentation von vier klinischen F&#228;llen wurde von allen Teilnehmenden der EYE-EKG2-Studie durchlaufen und war bis auf eine &#196;nderung identisch mit der ersten Studie <TextLink reference="5"></TextLink> (siehe Abbildung 3 <ImgLink imgNo="3" imgType="figure" />). Das gesamte EKG-Training f&#252;r Studierende wurde im Rahmen mehrerer fr&#252;herer Studien entwickelt und eingesetzt <TextLink reference="25"></TextLink>, <TextLink reference="26"></TextLink>, <TextLink reference="27"></TextLink> und besteht aus 9 (TAU) bzw. 10 (INT, einschlie&#223;lich des EYE-EKG2-Videos) Komponenten, wie in Abbildung 1 <ImgLink imgNo="1" imgType="figure" /> dargestellt.</Pgraph><SubHeadline2>2.2.4. EYE-EKG2 Modifikation 2</SubHeadline2><Pgraph>Die statistische Analyse der EYE-EKG1-Daten mittels multipler Regressionsmodelle deutete auf eine gewisse Sonderrolle des klinischen Falls 1 hin, der die EKG Post-Test Befundungskompetenz der teilnehmenden Studierenden vergleichsweise stark vorhersagte. Innerhalb der ersten Studie konnte die Ursache f&#252;r dieses Ergebnis jedoch nicht genau bestimmt werden. Die zweite &#196;nderung im Rahmen von EYE-EKG2 bestand daher darin, diesen klinischen Fall randomisiert zu pr&#228;sentieren und zu ermitteln, ob der zuvor festgestellte Effekt seine Bedeutung verlieren w&#252;rde. Dies wurde so operationalisiert, dass den Teilnehmenden entweder Fall 1, 2, 3 oder 4 als erster Fall pr&#228;sentiert wurde, gefolgt von den restlichen F&#228;llen in der urspr&#252;nglichen Reihenfolge (z. B. Fall 3, ---1, 2, 4). Die Zuteilung zu den vier m&#246;glichen Pr&#228;sentationsreihenfolgen erfolgte also quasi-randomisiert, d.h. es wurde eine gerade Anzahl von Teilnehmenden pro Reihenfolge und &#252;ber die Trainingsgruppen hinweg (INT vs. TAU) beibehalten.</Pgraph><Pgraph>Als <Mark2>Teilnehmendenmerkmale </Mark2>wurden Geschlecht (m&#228;nnlich&#47;weiblich), Alter (Jahre), Ausbildungsjahre (Nr.), medizinische Vorbildung (ja&#47;nein), Fachsemester (Nr.), EKG-Vorerfahrung (Nr.), kardiologische Famulatur (ja&#47;nein) erhoben.</Pgraph><Pgraph><Mark2>Selbst-Rating Skalen</Mark2> waren Vertrauen in die pers&#246;nliche Lernstrategie (0-100&#37;), Interesse an EKGs (0-100&#37;), aktuelle Motivation vor&#47;nach der Sitzung (0-100&#37;), aktuelle Ausgeruhtheit vor&#47;nach der Sitzung (0-100&#37;), Zug&#228;nglichkeit des Materials in der Mitte der Sitzung (0-100&#37;), Flow-Zustand in der Mitte der Sitzung (0-100&#37;) und selbst eingesch&#228;tzter Nutzen des Trainings nach der Sitzung (0-100&#37;).</Pgraph><Pgraph>Die Messungen der <Mark2>EKG-Befundungskompetenz</Mark2> bestanden aus einem Pr&#228;-Test zur Messung des theoretischen EKG-Wissens, 4 klinischen F&#228;llen bei welchen die visuelle und klinische Befundung eines Patienten-EKGs im Mittelpunkt stand, und einem Post-Test in welchem kurze praktische EKG-Szenarien anhand von 9 authentischen Patienten-EKGs vorgestellt wurden. </Pgraph><Pgraph>Wie bereits an anderer Stelle ausf&#252;hrlich diskutiert <TextLink reference="5"></TextLink>, gibt es keine allgemeing&#252;ltige Richtlinie, wie der EKG-Befundungskompetenzzuwachs der Studierenden am besten und klinisch bedeutsam gemessen werden kann. Zu diesem Zweck wurden im Rahmen von EYE-EKG1 drei Score-Varianten entwickelt, die verschiedene Aspekte der EKG- Befundungskompetenz erfassen und auch in EYE-EKG2 verwendet wurden. Der Basic Score (BS) vergab Punkte f&#252;r jedes richtig erkannte EKG-Merkmal (0-100&#37;); der Relative Score (RS) bewertete richtig und falsch gew&#228;hlte Optionen (-100-100&#37;); der Conservative Score (CS) z&#228;hlte nur vollst&#228;ndig richtig beantwortete Fragen (0-100&#37;). Wie dargelegt, k&#246;nnten diese Scores die Untersuchung des Lernverlaufs von Studierenden, von der Merkmalserkennung &#252;ber das Selbstmonitoring bis hin zur klinischen Kompetenz, unterst&#252;tzen.</Pgraph><SubHeadline2>2.2.5. Freitext-Feedback</SubHeadline2><Pgraph>Ganz am Ende der Trainingseinheit sahen die Teilnehmende eine einfache Aufforderung (&#8222;Bitte geben Sie Feedback zu...&#8220;), um Feedback zu geben</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">zum EYE-EKG2-Video (nur INT) und </ListItem><ListItem level="1" levelPosition="2" numString="2.">zum EKG-Training. </ListItem></OrderedList></Pgraph><Pgraph>Um auch eine statistische Betrachtung der Kommentare zu erm&#246;glichen, wurde eine einfache manuelle Kategorisierung des Tons der einzelnen Kommentare in negativ, neutral oder positiv vorgenommen, wodurch die Variable Sentiment (-1; 0; 1;) entstand.</Pgraph><SubHeadline2>2.2.6. Durchf&#252;hrung</SubHeadline2><Pgraph>Wie bei der Vorg&#228;ngerstudie war es auch bei EYE-EKG2 erforderlich, dass die Teilnehmenden ihr Kardiologiemodul an der Universit&#228;t erfolgreich abgeschlossen hatten und dass die Studierenden noch keine voll ausgebildeten Mediziner und Medizinerinnen waren. Alle Teilnehmenden wurden nach dem Zufallsprinzip entweder dem EYE-EKG2-Videotraining oder der Standard-Trainingsgruppe (<Mark2>N</Mark2>&#61;94; INT <Mark2>n</Mark2>&#61;47; TAU <Mark2>n</Mark2>&#61;47) im Rahmen des Online-Trainings zugewiesen. Wie zuvor wurde die Interventionsgruppe angewiesen, das 12m 04s dauernde EYE-EKG2 Video mindestens einmal vollst&#228;ndig anzuschauen und die Trainingskomponenten in einer &#126;2-st&#252;ndigen Trainingseinheit in einer festgelegten Reihenfolge durchzuarbeiten.</Pgraph></TextBlock>
    <TextBlock name="3. Results" linked="yes" language="en">
      <MainHeadline>3. Results</MainHeadline><SubHeadline>3.1. Sample characteristics, self-ratings and manipulation checks</SubHeadline><Pgraph>The sample was composed of 59&#37; females and 41&#37; males aged <Mark2>M</Mark2>&#61;23.83 (<Mark2>SD</Mark2>&#61;3.67) years, and <Mark2>M</Mark2>&#61;18.53 (<Mark2>SD</Mark2>&#61;2.99) years in education. In line with recruiting only those having passed their cardiology exam, current semester was <Mark2>M</Mark2>&#61;9.43 (<Mark2>SD</Mark2>&#61;1.66) equating to 4<Superscript>th</Superscript>&#47;5<Superscript>th</Superscript> year of studies. A prior medical vocational training had been completed by 21&#37; and a prior cardiological clerkship was done by 21&#37;. Interestingly, with the study being conducted closely after COVID-19 related restrictions at university had been lifted, equal proportions of students reported never having received <Mark2>any</Mark2> dedicated ECG training, having received ECG training during their studies and through some combination of university, online, and external sources (33&#37;&#47;33&#37;&#47;34&#37;). Self-estimated mean number of previously independently interpreted ECGs was <Mark2>M</Mark2>&#61;74.80, with large individual differences (<Mark2>SD</Mark2>&#61;516.47 driven by very few students with high self-reports; and thus lower Mdn&#61;10.00). Self-rated interest in ECG interpretation was high (<Mark2>M</Mark2>&#61;75.00&#37;, <Mark2>SD</Mark2>&#61;13.89&#37;), students were confident in their personal learning strategy (<Mark2>M</Mark2>&#61;67.18&#37;, <Mark2>SD</Mark2>&#61;10.87&#37;), the learning content of the study was judged overall as accessible (<Mark2>M</Mark2>&#61;47.82&#37;, <Mark2>SD</Mark2>&#61;14.66&#37;), flow state indicated moderate mental effort was required (<Mark2>M</Mark2>&#61;53.85&#37;, <Mark2>SD</Mark2>&#61;16.41&#37;), and post-training benefit was substantial (<Mark2>M</Mark2>&#61;46.93&#37;, <Mark2>SD</Mark2>&#61;14.24&#37;). </Pgraph><Pgraph>As expected, restedness (pre&#61;58.57&#37;&#177;23.49&#37;, mid&#61;44.67&#37;&#177;23.19&#37;, post&#61;37.92&#37;&#177;23.92&#37;) and motivation (pre&#61;74.70&#37;&#177;19.83&#37;, mid&#61;60.12&#37;&#177;22.21&#37;, post&#61;47.08&#37;&#177;26.15&#37;) scores reduced significantly over the course of the session (all paired t-tests significant; motivation: pre-mid<Mark2> t</Mark2>(93)&#61;-6.50, <Mark2>p</Mark2>&#60;.04&#42;10<Superscript>-8</Superscript>, pre-post <Mark2>t</Mark2>(91)&#61;-9.95, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-13</Superscript>, mid-post <Mark2>t</Mark2>(91)&#61;-8.06, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-10</Superscript>; restedness: pre-mid <Mark2>t</Mark2>(93)&#61;-7.56, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-9</Superscript>, pre-post<Mark2> t</Mark2>(91)&#61;-8.16, <Mark2>p</Mark2>&#60;.02&#42;10<Superscript>-10</Superscript>, mid-post <Mark2>t</Mark2>(91)&#61;-3.48, <Mark2>p</Mark2>&#60;.001). </Pgraph><Pgraph>Working time was <Mark2>M</Mark2>&#61;103.46min (<Mark2>SD</Mark2>&#61;22.60) for the entire training session. Time spent on the 12m 04s EYE-ECG2 video by the intervention group was <Mark2>M</Mark2>&#61;14.36min (<Mark2>SD</Mark2>&#61;3.06). All manipulation checks comparing INT against TAU (i.e., session duration, working speed&#42;post-test performance, random group allocation all nonsignificant in t-tests; cf. EYE-ECG1) were satisfactory. In comparison, the sample closely resembled that of the EYE-ECG1 study.</Pgraph><SubHeadline>3.2. Modification 1: Effects of the EYE-ECG2 video on ECG interpretation skills</SubHeadline><Pgraph>Paired t-tests show the training session significantly and moderately improved participant ECG interpretation skills (ascending lines in figure 4 <ImgLink imgNo="4" imgType="figure" />; pre-post gain BS&#61;3.98&#37;&#177;9.82&#37;, <Mark2>t</Mark2>(93)&#61;3.93, <Mark2>p</Mark2>&#60;.02&#42;10<Superscript>-2</Superscript>; RS&#61;9.89&#37;&#177;11.20&#37;, <Mark2>t</Mark2>(93)&#61;8.56, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-11</Superscript>; CS&#61;9.70&#37;&#177;9.20&#37;, <Mark2>t</Mark2>(93)&#61;10.22, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-14</Superscript>). Regarding the effects of expert eye-tracking videos with cued retrospective reporting on student ECG interpretation skills (i.e. the effect of the first modification of the study, namely the synchronised EYE-ECG2 video specifically), the three pre-post difference scores were BS &#916;M&#61;1.60&#37;&#177;2.03&#37;, RS &#916;M&#61;2.42&#37;&#177;2.31&#37; and CS &#916;M&#61;0.80&#37;&#177;1.91&#37;, conferring a nonsignificant tendency towards better performance using the video (red vs. blue lines in figure 4 <ImgLink imgNo="4" imgType="figure" />; BS Welch-<Mark2>t</Mark2>(91.67)&#61;0.79, <Mark2>p</Mark2>&#61;.43; BS Welch-<Mark2>t</Mark2>(90.07)&#61;1.05, <Mark2>p</Mark2>&#61;.30; CS Welch-<Mark2>t</Mark2>(91.70)&#61;1.15, <Mark2>p</Mark2>&#61;.67).</Pgraph><SubHeadline>3.3. Modification 2: Model-fitting of best predictors for basic, relative, and clinical ECG interpretation skill scores</SubHeadline><Pgraph>Model-fitting was replicated using the identical analytical strategies from EYE-ECG1 (as described in <TextLink reference="5"></TextLink>, i.e., multiple regression using stepwise backward model selection based on Akaike information criterion (AIC)). Full results are shown in attachment 1 <AttachmentLink attachmentNo="1" /> point A for completeness and in order to permit direct comparison to the preceding study. However, for brevity and clarity, portrayal here will be limited to that of the role of clinical case 1, which represents the second modification of the study: In this respect, randomising the order of presentation of clinical case 1 resulted in an attenuated effect and even in the removal of case 1 from the best-fitting model for both the BS and RS model (for predictors included in the final models refer to table 1 <ImgLink imgNo="1" imgType="table" />).</Pgraph><SubHeadline>3.4. Insights from free text student feedback</SubHeadline><Pgraph>Overall, 35 of 47 students (74&#37;) of the INT group followed the request for written feedback on the EYE-ECG2 video. Of those who did provide feedback, sentiment was mostly positive (45&#37; positive, 29&#37; neutral, 26&#37; negative). Next, participant characteristics were evaluated against sentiments using chi-square tests (nominal variables) and spearman correlations (numerical variables). Results show that neither sex, age, years in education, prior medical vocational training, subject-related semester, or prior ECG experience were significantly associated with sentiment. Singularly prior cardiological clerkship was a distinguishing factor in how the EYE-ECG2 video was received by participants (&#967;<Superscript>2</Superscript>(2)&#61;7.57, <Mark2>p</Mark2>&#61;.03). Notably, all of the negative sentiments were given by students without the experience of a prior cardiological clerkship. Hereafter, extracts of actual student feedback are shown.</Pgraph><Pgraph>Participants giving positive feedback described liking that &#8220;the red spot made it easy to follow what to look for at that moment&#8221;, &#8220;the eye movements were good to follow along&#8221;, &#8220;seeing the focus of the expert was helpful&#8221;, &#8220;it was good overall that so many different pathologies were discussed&#8221;, &#8220;the video was instructive overall as many different cases were shown&#8221;, &#8220;I liked the explanations&#8221;, &#8220;the video really helped&#8221;, &#8220;great use of the eye movements and right to the point&#8221;, &#8220;I especially liked the video with the recorded eye movements of the expert&#8221;, &#8220;structured approach, focus on important features in the ECG&#8221;, &#8220;that you could see the eye movements of the lecturer&#8221;.</Pgraph><Pgraph>Neutral feedback stated that &#8220;In principle, I found the eye movements interesting. However, they led to me not being able to look at the ECG at my own pace, but instead having to constantly follow the point that was moving too quickly for my skill level&#8221;, &#8220;eye movements partly without comment; sudden end of the presentation of the case&#8221;, &#8220;eye movements should be more in sync with the spoken text. Also, the eye movements are not always indicative of the directive analysis. It is primarily explained what is being looked at (descriptive) and not why (explanatory).&#8221;</Pgraph><Pgraph>Negative feedback noted that &#8220;explain what the dot with the pink string behind it is: eye movements of the physician&#63;&#8221;, &#8220;extremely high amount of material in very little time and all in one go. I think it&#39;s not bad for answering questions within the next hour, but when you repeat the same test a week later, none of it is there anymore&#8221;, &#8220;The eye movements are useless. A simple pointer would be more helpful&#8221;.</Pgraph></TextBlock>
    <TextBlock name="3. Ergebnisse" linked="yes" language="de">
      <MainHeadline>3. Ergebnisse</MainHeadline><SubHeadline>3.1. Merkmale der Stichprobe, Selbsteinsch&#228;tzungen und Manipulationskontrollen</SubHeadline><Pgraph>Die Stichprobe setzte sich aus 59&#37; Frauen und 41&#37; M&#228;nnern im Alter von <Mark2>M</Mark2>&#61;23.83 (<Mark2>SD</Mark2>&#61;3.67) Jahren und <Mark2>M</Mark2>&#61;18.53 (<Mark2>SD</Mark2>&#61;2.99) Jahren in Ausbildung zusammen. Da nur Personen rekrutiert wurden, die ihren Kardiologieschein bestanden hatten, lag das aktuelle Semester bei <Mark2>M</Mark2>&#61;9.43 (<Mark2>SD</Mark2>&#61;1.66), was dem 4.&#47;5 Studienjahr entsprach. Eine vorherige medizinische Berufsausbildung hatten 21&#37; und eine vorherige Kardiologie-Famulatur hatten 21&#37; absolviert. Da die Studie kurz nach der Aufhebung der COVID19-bedingten Beschr&#228;nkungen an der Universit&#228;t durchgef&#252;hrt wurde, gab es interessanterweise einen &#228;hnlichen Anteil an Studierenden welche angaben, entweder nie ein gesondertes EKG-Training erhalten zu haben, w&#228;hrend ihres Studiums ein EKG-Training absolviert zu haben, oder eine Kombination aus universit&#228;ren, Online- und externen Quellen zu nutzen (33&#37;&#47; 33&#37;&#47; 34&#37;). Die selbstberichtete mittlere Anzahl der zuvor unabh&#228;ngig befundeten EKGs betrug <Mark2>M</Mark2>&#61;74.80, mit gro&#223;en individuellen Unterschieden (<Mark2>SD</Mark2>&#61;516.47, bedingt durch nur einzelne Studierende mit hoher Selbsteinsch&#228;tzung; und daher niedrigem Mdn&#61;10.00). Das selbstberichtete Interesse an EKGs war hoch (<Mark2>M</Mark2>&#61;75.00&#37;, <Mark2>SD</Mark2>&#61;13.89&#37;), die Studierenden hatten hohes Vertrauen in die eigene Lernstrategie (<Mark2>M</Mark2>&#61;67.18&#37;, <Mark2>SD</Mark2>&#61;10.87&#37;), der Lerninhalt der Studie wurde insgesamt als zug&#228;nglich beurteilt (<Mark2>M</Mark2>&#61;47.82&#37;, <Mark2>SD</Mark2>&#61;14.66&#37;), der Flow-Zustand deutete auf eine moderate mentale Anstrengung hin (<Mark2>M</Mark2>&#61;53.85&#37;, <Mark2>SD</Mark2>&#61;16.41&#37;) und der eingesch&#228;tzte Nutzen nach dem Training war erheblich (<Mark2>M</Mark2>&#61;46.93&#37;, SD&#61;14.24&#37;).</Pgraph><Pgraph>Wie erwartet verringerten sich die Werte f&#252;r Ausgeruhtheit (pr&#228;&#61;58.57&#37;&#177;23.49&#37;, mitt&#61;44.67&#37;&#177;23.19&#37;, post&#61;37.92&#37;&#177;23.92&#37;) und Motivation (pr&#228;&#61;74.70&#37;&#177;19.83&#37;, mitt&#61;60.12&#37;&#177;22.21&#37;, post&#61;47.08&#37;&#177;26.15&#37;) im Laufe der Sitzung signifikant (alle gepaarten <Mark2>t</Mark2>-Tests signifikant; Motivation: pr&#228;-mitt <Mark2>t</Mark2>(93)&#61;-6.50, <Mark2>p</Mark2>&#60;.04&#42;10<Superscript>-8</Superscript>, pr&#228;-post <Mark2>t</Mark2>(91)&#61;-9.95, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-13</Superscript>, mitt-post <Mark2>t</Mark2>(91)&#61;-8.06, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-10</Superscript>; Ausgeruhtheit: pr&#228;-mitt <Mark2>t</Mark2>(93)&#61;-7.56, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-9</Superscript>, pr&#228;-post <Mark2>t</Mark2>(91)&#61;-8.16, <Mark2>p</Mark2>&#60;.02&#42;10<Superscript>-10</Superscript>, mitt-post <Mark2>t</Mark2>(91)&#61;-3.48, <Mark2>p</Mark2>&#60;.001). </Pgraph><Pgraph>Die Arbeitszeit betrug <Mark2>M</Mark2>&#61;103.46min (<Mark2>SD</Mark2>&#61;22.60) f&#252;r die gesamte Trainingseinheit. Die Zeit, welche die Interventionsgruppe mit dem 12m 04s EYE-EKG2 Video verbrachte, betrug <Mark2>M</Mark2>&#61;14.36min (<Mark2>SD</Mark2>&#61;3.06). Alle Manipulationskontrollen im Vergleich zwischen INT und TAU waren zufriedenstellend (d.h. Sitzungsdauer, Arbeitsgeschwindigkeit&#42;Post-Test-Leistung, randomisierte Gruppenzuteilung, alle nicht signifikant in <Mark2>t</Mark2>-Tests; vgl. EYE-EKG1). Im Vergleich der Charakteristika &#228;hnelte die aktuelle Stichprobe insgesamt stark derjenigen der EYE-EKG1-Studie.</Pgraph><SubHeadline>3.2. Modifikation 1: Auswirkungen des EYE-EKG2-Videos auf die EKG-Befundungskompetenz</SubHeadline><Pgraph>Gepaarte <Mark2>t</Mark2>-Tests zeigen, dass die Trainingssitzung die EKG-Befundungskompetenz der Teilnehmenden signifikant und m&#228;&#223;ig verbesserte (steigende Geraden in Abbildung 4 <ImgLink imgNo="4" imgType="figure" />; Pr&#228;-Post-Lernzuwachs BS&#61;3.98&#37;&#177;9.82&#37;, <Mark2>t</Mark2>(93)&#61;3.93, <Mark2>p</Mark2>&#60;.02&#42;10<Superscript>-2</Superscript>; RS&#61;9.89&#37;&#177;11.20&#37;, <Mark2>t</Mark2>(93)&#61;8.56, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-11</Superscript>; CS&#61;9.70&#37;&#177;9.20&#37;, <Mark2>t</Mark2>(93)&#61;10.22, <Mark2>p</Mark2>&#60;.03&#42;10<Superscript>-14</Superscript>). Hinsichtlich der Auswirkungen von Expertenvideos mit CRR auf die EKG-Befundungskompetenz der Studierenden (d. h. die Auswirkungen der ersten Modifikation der Studie, n&#228;mlich des synchronisierten EYE-EKG2-Videos), waren die drei Pr&#228;-Post-Differenzwerte BS &#916;M&#61;1.60&#37;&#177;2.03&#37;, RS &#916;M&#61;2.42&#37;&#177;2.31&#37; und CS &#916;M&#61;0.80&#37;&#177;1.91&#37;, was eine nicht signifikante Tendenz zu einer besseren Leistung bei Verwendung des Videos bedeutet (rote vs. blaue Linien in Abbildung 4 <ImgLink imgNo="4" imgType="figure" />; BS Welch-<Mark2>t</Mark2>(91.67)&#61;0.79, <Mark2>p</Mark2>&#61;.43; BS Welch-<Mark2>t</Mark2>(90.07)&#61;1.05, <Mark2>p</Mark2>&#61;.30; CS Welch-<Mark2>t</Mark2>(91.70)&#61;1.15, <Mark2>p</Mark2>&#61;.67).</Pgraph><SubHeadline>3.3. Modifikation 2: Modellanpassung der besten Pr&#228;diktoren f&#252;r Basic, Relative und Conservative Scores der EKG-Befundung</SubHeadline><Pgraph>Die Modellanpassung wurde unter Verwendung der identischen Analysestrategien aus EYE-EKG1 (wie in <TextLink reference="5"></TextLink> beschrieben, d. h. multiple Regression mit schrittweiser r&#252;ckw&#228;rts gerichteter Modellauswahl auf der Grundlage von Akaike-Informationskriterium (AIC)) wiederholt. Der Vollst&#228;ndigkeit halber und um einen direkten Vergleich mit der vorangegangenen Studie zu erm&#246;glichen sind die umfassenden Ergebnisse in Anhang 1 <AttachmentLink attachmentNo="1" /> Punkt A aufgef&#252;hrt. Aus Gr&#252;nden der K&#252;rze und &#220;bersichtlichkeint wird hier ausschlie&#223;lich die Rolle des klinischen Falls1 er&#246;rtert, welcher die zweite &#196;nderung der Studie darstellt: In diesem Zusammenhang f&#252;hrte die Randomisierung der Reihenfolge der Pr&#228;sentation des klinischen Falls 1 zu einem abgeschw&#228;chten Effekt und sogar zur Entfernung von Fall 1 aus dem bestangepassten Modell sowohl f&#252;r das BS- als auch f&#252;r das RS-Modell (f&#252;r die in den finalen Modellen enthaltenen Pr&#228;diktoren siehe Tabelle 1 <ImgLink imgNo="1" imgType="table" />).</Pgraph><SubHeadline>3.4. Erkenntnisse aus dem Freitext-Feedback der Studierenden</SubHeadline><Pgraph>Insgesamt folgten 35 von 47 Studierenden (74&#37;) der INT-Gruppe der Bitte um schriftliches Feedback zum EYE-EKG2-Video. Von denjenigen, die Feedback gaben, war die R&#252;ckmeldung &#252;berwiegend positiv (45&#37; positiv, 29&#37; neutral, 26&#37; negativ). Anschlie&#223;end wurden die Merkmale der Teilnehmende mit Hilfe von Chi-Quadrat-Tests (nominale Variablen) und Spearman-Korrelationen (numerische Variablen) mit dem Stimmungsbild verglichen. Die Ergebnisse zeigen, dass weder das Geschlecht, das Alter, die Ausbildungsjahre, die vorherige medizinische Berufsausbildung, das Fachsemester noch die vorherige EKG-Erfahrung signifikant mit dieser Einstellung assoziiert waren. Lediglich die vorherige kardiologische Famulatur war ein entscheidender Faktor daf&#252;r, wie das EYE-EKG2-Video von den Teilnehmenden aufgenommen wurde (&#967;<Superscript>2</Superscript>(2)&#61;7.57, <Mark2>p</Mark2>&#61;.03). Auffallend ist, dass alle negativen Stimmungsbilder von Studierenden ohne vorherige kardiologische Famulatur kamen. Nachfolgend werden Ausz&#252;ge aus den gegebenen R&#252;ckmeldungen der Studierenden gezeigt.</Pgraph><Pgraph>Teilnehmende, die positives Feedback gaben, schilderten, dass sie es mochten, dass &#8222;der rote Punkt es einfach machte, zu verfolgen, worauf man in diesem Moment achten sollte&#8220;, &#8222;die Augenbewegungen waren gut zu verfolgen&#8220;, &#8222;den Fokus des Experten zu sehen war hilfreich&#8220;, &#8222;es war insgesamt gut, dass so viele verschiedene Pathologien besprochen wurden&#8220;, &#8222;das Video war insgesamt lehrreich, da viele verschiedene F&#228;lle gezeigt wurden&#8220;, &#8222;Ich fand die Erkl&#228;rungen gut&#8220;, &#8222;das Video war wirklich hilfreich&#8220;, &#8222;toller Einsatz der Augenbewegungen und direkt auf den Punkt gebracht&#8220;, &#8222;besonders gut fand ich das Video mit den aufgezeichneten Augenbewegungen des Experten&#8220;, &#8222;strukturierter Ansatz, Fokus auf wichtige Merkmale im EKG&#8220;, &#8222;dass man die Augenbewegungen des Dozenten sehen konnte&#8220;.</Pgraph><Pgraph>Neutrale R&#252;ckmeldungen lauteten: &#8222;Grunds&#228;tzlich fand ich die Augenbewegungen interessant. Sie f&#252;hrten jedoch dazu, dass ich mir das EKG nicht in meinem eigenen Tempo ansehen konnte, sondern st&#228;ndig dem Punkt folgen musste, der sich f&#252;r meine Kenntnisse zu schnell bewegte&#8220;, &#8222;Augenbewegungen teilweise kommentarlos; pl&#246;tzliches Ende der Falldarstellung&#8220;, &#8222;Augenbewegungen sollten mehr mit dem gesprochenen Text zusammenpassen. Auch sind die Augenbewegungen nicht immer ein Hinweis auf das diagnostische Vorgehen. Es wird prim&#228;r erkl&#228;rt, was angeschaut wird (deskriptiv) und nicht warum (erkl&#228;rend)&#8220;.</Pgraph><Pgraph>Negative R&#252;ckmeldungen lauteten: &#8222;Erkl&#228;rt, was der Punkt mit der rosa Schweif dahinter ist: Augenbewegungen des Arztes&#63;&#8220;, &#8222;extrem viel Stoff in sehr kurzer Zeit und alles in einem Rutsch. F&#252;r die Beantwortung von Fragen innerhalb der n&#228;chsten Stunde finde ich es nicht schlecht, aber wenn man den gleichen Test eine Woche sp&#228;ter wiederholt, ist nichts mehr davon da&#8220;, &#8222;Die Augenbewegungen sind nutzlos. Ein einfacher Pointer w&#228;re hilfreicher&#8220;.</Pgraph></TextBlock>
    <TextBlock name="4. Discussion" linked="yes" language="en">
      <MainHeadline>4. Discussion</MainHeadline><Pgraph>The primary objective of the EYE-ECG2 study was to explore whether enhancements to eye-tracking videos with Cued Retrospective Reporting (CRR) could improve ECG interpretation skills among medical students. Building on the findings of the predecessor study, EYE-ECG1, which introduced the novel use of eye-tracking technology in ECG training, this study aimed to refine the learning intervention by synchronising eye movements with expert commentary and randomising case presentation order. The study also sought to analyse the feedback from participants to better understand the factors that influenced their reception of the EYE-ECG videos.</Pgraph><Pgraph>The findings from EYE-ECG2 largely replicated the results of the original study, tentatively confirming that the use of eye-tracking videos with CRR can positively impact students&#39; ECG interpretation skills. However, the enhancements made in this follow-up study, particularly the synchronisation of eye movements with the corresponding expert commentary, did not lead to a greater improvement in learning outcomes compared to the original EYE-ECG1 video. The slight, nonsignificant trend of better performance in the group receiving the EYE-ECG video suggests that while the video format was beneficial, the specific modifications may not have provided additional value.</Pgraph><Pgraph>This aligns with broader research on Eye Movement Modeling Examples (EMMEs), which suggests that their effectiveness depends on cognitive load, processing depth, and the timescale of their impact <TextLink reference="14"></TextLink>, <TextLink reference="20"></TextLink>, <TextLink reference="28"></TextLink>. While EMMEs have been shown to aid attentional guidance and gaze alignment, their immediate effects on diagnostic accuracy remain inconsistent, particularly when learners engage in surface-level processing <TextLink reference="12"></TextLink>, <TextLink reference="29"></TextLink>. In this study, the absence of a direct performance gain could be attributed to cognitive overload, as novices may struggle to integrate expert gaze patterns efficiently without additional scaffolding <TextLink reference="30"></TextLink>, <TextLink reference="31"></TextLink>. This reinforces the idea that EMMEs may primarily support long-term adaptation rather than immediate skill transfer, with improvements in visual search behavior preceding measurable diagnostic gains <TextLink reference="32"></TextLink>, <TextLink reference="33"></TextLink>. Building on this, prior research suggests that multi-modal approaches, such as combining EMMEs with Cued Retrospective Reporting (CRR), can help mitigate cognitive load by engaging both visual and verbal cognitive channels <TextLink reference="13"></TextLink>, <TextLink reference="16"></TextLink>. Studies in medical training and multimedia learning have shown that verbal-visual integration enhances cognitive processing, reduces extraneous load, and improves knowledge retention <TextLink reference="28"></TextLink>, <TextLink reference="33"></TextLink>, <TextLink reference="34"></TextLink>. Specifically, pairing expert gaze guidance with verbal justifications has been found to enhance diagnostic accuracy and problem-solving efficiency <TextLink reference="12"></TextLink>, <TextLink reference="14"></TextLink>, <TextLink reference="35"></TextLink>. Additionally, structuring complex visual input into segmented, expert-guided explanations can help optimise working memory resources, fostering long-term skill acquisition <TextLink reference="36"></TextLink>, <TextLink reference="37"></TextLink>. Future research should further examine how these elements interact to refine EMME-based ECG training, balancing complexity, cognitive demands, and sustainable learning outcomes, while also considering the role of learner engagement and interest. The latter, as replicated in this study and discussed below, could be a key driver of perceived benefit and positive evaluations.</Pgraph><Pgraph>Another key insight from this study was the impact of randomising the presentation of the clinical learning cases. Previously the first clinical case was found to have a noticeably strong effect on post-test performance, suggesting that it might act as a gatekeeper for subsequent learning. In EYE-ECG2, after randomising the order in which cases were presented, this effect was attenuated. This finding supports the hypothesis that the initial success in the (i.e. any) first-presented case, rather than the specific content of the myocardial infarction case, was crucial in setting the tone for the students&#8217; subsequent performance. Thus, the positioning of learning materials in an ECG training session was evident, emphasising the need for careful selection and placement of critical content early in the training process.</Pgraph><Pgraph>Given the consistent finding across EYE-ECG1 and EYE-ECG2 that interest in ECGs predicts performance, it is worth exploring why this is the case and what aspects of ECG interpretation students find particularly engaging. In this context, the way ECG content is presented &#8211; especially through eye-tracking and CRR &#8211; may play a role in shaping engagement, though its impact likely depends on other factors, as reflected in students&#8217; varied perceptions of the EYE-ECG2 videos. The sentiment analysis offers a quick preliminary overview of how students responded, informing on general trends in their feedback. Although the majority of students rated the EYE-ECG2 videos positively, the study flagged that relevant prior experience, specifically a cardiological clerkship, significantly influenced students&#8217; perceptions. Students who had completed a cardiological clerkship were more likely to appreciate and subjectively benefit from the eye-tracking videos with CRR. This suggests that a certain level of real-world exposure to cardiological expertise may be necessary for students to fully engage with and benefit from the detailed visual and verbal information provided in the EYE-ECG videos. On the other hand, students without such prior experience might find the videos less accessible or beneficial, potentially due to the complexity of the content and the advanced level of expert reasoning presented.</Pgraph><SubHeadline>4.1. Limitations</SubHeadline><Pgraph>While the EYE-ECG2 study replicated some of the benefits observed in the original EYE-ECG intervention, some limitations must also be considered. First, the study&#8217;s sample size may have been insufficient to detect small but meaningful differences between the intervention and control groups, which could explain the nonsignificant trends observed. Second, the study focused and explored self-reported feedback and its sentiment, and at this point did not link it to actual differences in performance. This aspect could be further explored in the future. Additionally, incorporating richer qualitative methods such as focus groups, semi-structured interviews, usability testing, or think-aloud protocols, could provide deeper insights into how students engage with the intervention. In particular, understanding how learners with different levels of ECG expertise interact with novel teaching methods may help to develop learner profiles that capture individual learning pathways, ultimately informing how such interventions can be best tailored to diverse student needs.</Pgraph></TextBlock>
    <TextBlock name="4. Diskussion" linked="yes" language="de">
      <MainHeadline>4. Diskussion</MainHeadline><Pgraph>Das Hauptziel der EYE-EKG2-Studie bestand darin, zu untersuchen, ob eine Anpassung von Eye-Tracking-Videos mit Cued Retrospective Reporting (CRR) die EKG-Befundungskompetenz von Medizinstudierenden weiter verbessern kann. Aufbauend auf den Ergebnissen der Vorg&#228;ngerstudie EYE-EKG1, welche den neuartigen Einsatz der Eye-Tracking-Technologie im EKG-Training vorstellte, zielte diese Studie darauf ab, die Lernintervention zu optimieren, indem Augenbewegungen mit Expertenkommentaren synchronisiert und die Reihenfolge der Fallpr&#228;sentation randomisiert wurde. Die Studie verfolgte au&#223;erdem das Anliegen, durch die Auswertung des Teilnehmendenfeedbacks Einsicht in die subjektive Bewertung der EYE-EKG-Videos und deren Einflussfaktoren zu gewinnen.</Pgraph><Pgraph>Die Ergebnisse von EYE-EKG2 replizierten weitgehend die Ergebnisse der urspr&#252;nglichen Studie und best&#228;tigten vorl&#228;ufig, dass sich die Verwendung von Eye-Tracking-Videos mit CRR positiv auf die EKG-Befundungskompetenz der Studierenden auswirken kann. Die in dieser Folgestudie vorgenommenen Anpassungen, insbesondere die Synchronisierung der Augenbewegungen mit dem entsprechenden Expertenkommentar, f&#252;hrten jedoch nicht zu einer gr&#246;&#223;eren Verbesserung des Lernerfolgs im Vergleich zum urspr&#252;nglichen EYE-EKG1-Video. Der kleine, nicht signifikante Trend zu besseren Leistungen in der Gruppe mit EYE-EKG-Video2 deutet darauf hin, dass das Videoformat zwar grunds&#228;tzlich vorteilhaft war, die spezifischen Modifikationen jedoch keinen neuen, zus&#228;tzlichen Nutzen erbracht haben d&#252;rften.</Pgraph><Pgraph>Dies steht im Einklang mit der weiter gefassten Forschung zu EMMEs, der zufolge deren Wirksamkeit von kognitiver Belastung, Verarbeitungstiefe und dem zeitlichen Wirkungsverlauf abh&#228;ngt <TextLink reference="14"></TextLink>, <TextLink reference="20"></TextLink>, <TextLink reference="28"></TextLink>. EMMEs k&#246;nnen die Aufmerksamkeitslenkung und Blickausrichtung unterst&#252;tzen, ihre unmittelbaren Auswirkungen auf die diagnostische Genauigkeit sind jedoch uneinheitlich, insbesondere wenn die Lernenden sich nur oberfl&#228;chlich damit auseinandersetzen <TextLink reference="12"></TextLink>, <TextLink reference="29"></TextLink>. In dieser Studie k&#246;nnte das Ausbleiben eines direkten Leistungszuwachses auf eine kognitive &#220;berlastung zur&#252;ckzuf&#252;hren sein, da es Anf&#228;ngern schwerfallen kann, Blickmuster von Experten ohne zus&#228;tzliches Scaffolding effizient zu integrieren <TextLink reference="30"></TextLink>, <TextLink reference="31"></TextLink>. Dies untermauert die Idee, dass EMMEs in erster Linie die langfristige Anpassung und nicht den unmittelbaren F&#228;higkeitstransfer unterst&#252;tzen, wobei Verbesserungen im visuellen Suchverhalten messbaren diagnostischen Verbesserungen vorausgehen <TextLink reference="32"></TextLink>, <TextLink reference="33"></TextLink>. Darauf aufbauend deuten vorherige Befunde darauf hin, dass multimodale Ans&#228;tze, wie die Kombination von EMMEs mit Cued Retrospective Reporting (CRR), dazu beitragen k&#246;nnen, die kognitive Belastung zu verringern, indem sowohl visuelle als auch verbale kognitive Kapazit&#228;ten aktiviert werden <TextLink reference="13"></TextLink>, <TextLink reference="16"></TextLink>. Studien im Bereich der medizinischen Ausbildung und des multimedialen Lernens haben gezeigt, dass die verbal-visuelle Integration die kognitive Verarbeitung f&#246;rdert, die nicht aufgabenrelevante Belastung reduziert und den Wissensbehalt verbessert <TextLink reference="28"></TextLink>, <TextLink reference="33"></TextLink>, <TextLink reference="34"></TextLink>. Insbesondere hat sich gezeigt, dass die Kombination von Expertenblick mit verbalen Erkl&#228;rungen die Genauigkeit der Diagnose und die Effizienz in der Probleml&#246;sung verbessert <TextLink reference="12"></TextLink>, <TextLink reference="14"></TextLink>, <TextLink reference="35"></TextLink>. Dar&#252;ber hinaus kann die Strukturierung komplexer visueller Stimuli in segmentierte, von expertengest&#252;tzte Erkl&#228;rungen dazu beitragen, die Ressourcen des Arbeitsged&#228;chtnisses zu optimieren und den langfristigen Erwerb von F&#228;higkeiten zu f&#246;rdern <TextLink reference="36"></TextLink>, <TextLink reference="37"></TextLink>. Zuk&#252;nftige Forschung sollte weiter beleuchten, wie diese Elemente zusammenwirken, um EMME-basierte EKG-Trainingsformate zu optimieren und dabei eine Abw&#228;gung zwischen Komplexit&#228;t, kognitiven Anforderungen und nachhaltigen Lernergebnissen zu treffen, wobei auch die Rolle der Motivation und des Interesses der Lernenden ber&#252;cksichtigt werden sollte. Letzteres k&#246;nnte, wie in dieser Studie repliziert und nachfolgend argumentiert, ein Schl&#252;sselfaktor f&#252;r den wahrgenommenen Nutzen und die positiven Bewertungen sein.</Pgraph><Pgraph>Eine weitere wichtige Erkenntnis aus dieser Studie war die Folge einer randomisierten Pr&#228;sentation der klinischen F&#228;lle. In der ersten EYE-EKG-Studie hatte der erste klinische Fall einen ausgepr&#228;gt starken Einfluss auf die nachfolgende Leistung im Post-Test, was darauf hinwies, dass er eine Art &#8222;Gatekeeper&#8220;-Funktion f&#252;r den weiteren Lernprozess &#252;bernehmen k&#246;nnte. In EYE-EKG2 war dieser Effekt abgeschw&#228;cht, nachdem die Reihenfolge der F&#228;lle randomisiert wurde. Dieser Befund st&#252;tzt die Hypothese, dass der anf&#228;ngliche Erfolg bei dem (d. h. bei jedem) zuerst pr&#228;sentierten Fall und nicht der spezifische Inhalt des Herzinfarkt-Falls ausschlaggebend f&#252;r die sp&#228;tere Leistung der Studierenden war. Die Positionierung des Lernmaterials innerhalb des EKG-Trainings war demnach ma&#223;gebend und unterstreicht die Notwendigkeit einer sorgf&#228;ltigen Auswahl und Platzierung kritischer Inhalte zu Beginn des Trainingssprozesses.</Pgraph><Pgraph>In Anbetracht der &#252;bereinstimmenden Ergebnisse von EYE-EKG1 und EYE-EKG2, dass das Interesse an EKGs die Studierendenleistung vorhersagt, lohnt es sich zu untersuchen, warum dies der Fall ist und welche Aspekte der EKG-Befundung die Studierenden besonders ansprechen. In diesem Zusammenhang k&#246;nnte die Art und Weise, wie EKG-Inhalte pr&#228;sentiert werden - insbesondere durch Eye-Tracking und CRR - eine Rolle f&#252;r die Teilnehmendenmotivation spielen, obwohl deren Auswirkung wahrscheinlich auch von anderen Faktoren abh&#228;ngt, wie die unterschiedlichen Wahrnehmungen der Studierenden zu den EYE-EKG2-Videosequenzen zeigen. Die Stimmungsbildanalyse bietet einen schnellen vorl&#228;ufigen &#220;berblick &#252;ber die Reaktionen der Studierenden und gibt Aufschluss &#252;ber allgemeine Trends in ihrem Feedback. W&#228;hrend die Mehrheit der Studierenden die EYE-EKG2-Videos positiv bewertete, zeigte die Studie auch, dass einschl&#228;gige Vorerfahrungen wie insbesondere eine Kardiologie-Famulatur die Wahrnehmung der Studierenden signifikant steuerten. Studierende, die eine kardiologische Famulatur absolviert hatten, wertsch&#228;tzten die Eye-Tracking-Videos mit CRR wahrscheinlicher und profitierten subjektiv von ihnen. Dies deutet darauf hin, dass ein gewisses Ma&#223; an kardiologischem Fachwissen erforderlich ist, damit die Studierenden die detaillierten visuellen und verbalen Informationen in den EYE-EKG-Videos vollst&#228;ndig erfassen und nutzen k&#246;nnen. Andererseits k&#246;nnten Studierende ohne solches Vorwissen die Videos als weniger zug&#228;nglich oder n&#252;tzlich empfinden, m&#246;glicherweise aufgrund der Komplexit&#228;t des Inhalts und des fortgeschrittenen Niveaus der dargestellten Expertenbefundung.</Pgraph><SubHeadline>4.1. Limitationen</SubHeadline><Pgraph>Auch wenn die EYE-EKG2-Studie einige der positiven Effekte der urspr&#252;nglichen EYE-EKG-Intervention replizieren konnte, sind bestimmte Limitationen zu ber&#252;cksichtigen. Erstens war die Stichprobengr&#246;&#223;e m&#246;glicherweise zu gering, um kleine, aber dennoch bedeutsame Unterschiede zwischen Interventions- und Kontrollgruppe statistisch nachzuweisen. Dies k&#246;nnte die beobachteten nicht signifikanten Trends erkl&#228;ren. Zweitens konzentrierte sich die Studie auf das eigene Feedback der Teilnehmenden sowie dessen Sentiment, ohne dieses bislang mit tats&#228;chlichen Leistungsunterschieden zu verkn&#252;pfen. Dieser Aspekt k&#246;nnte in Zukunft weiter betrachtet werden. Dar&#252;ber hinaus k&#246;nnte die Einbeziehung umfassenderer qualitativer Methoden wie Fokusgruppen, halbstrukturierte Interviews, Usability-Tests oder Think-Aloud-Protokolle tiefere Einblicke gew&#228;hren, wie genau Studierende mit der Intervention interagieren. Insbesondere das Verst&#228;ndnis daf&#252;r, wie Lernende mit unterschiedlicher EKG-Befundungskompetenz mit dieser neuartigen Lehrmethode interagieren, k&#246;nnte dazu beitragen, Lernenden-Profile zu entwickeln, die individuelle Lernerfahrungen erfassen und letztlich Aufschluss dar&#252;ber geben, wie solche Interventionen am besten auf die unterschiedlichen Bed&#252;rfnisse der Studierenden zugeschnitten werden k&#246;nnen.</Pgraph></TextBlock>
    <TextBlock name="5. Conclusion" linked="yes" language="en">
      <MainHeadline>5. Conclusion</MainHeadline><Pgraph>In conclusion, while the EYE-ECG2 study successfully replicated the benefits of the original EYE-ECG intervention, the modifications made did not result in significant additional gains. The findings underscore the importance of case order in ECG training and suggest that ECG tutors should carefully consider the sequencing of learning materials to optimise student outcomes. Additionally, the differential impact of the EYE-ECG videos based on students&#39; prior clinical experience highlights the need for future research to explore how different levels of ECG experience influence the reception and effectiveness of eye-tracking with CRR as a novel teaching method. Specifically, it would be of interest to investigate further how students with low, moderate, and high levels of ECG expertise usually engage with different types of learning materials and how this affects their expectations of how EYE-ECG should be tailored to best meet the needs of such diverse learner profiles. </Pgraph></TextBlock>
    <TextBlock name="5. Schlussfolgerung" linked="yes" language="de">
      <MainHeadline>5. Schlussfolgerung</MainHeadline><Pgraph>Abschlie&#223;end konnte die EYE-EKG2-Studie die Vorteile der urspr&#252;nglichen EYE-EKG-Intervention erfolgreich replizieren, die vorgenommenen Modifikationen f&#252;hrten jedoch nicht zu einem signifikanten zus&#228;tzlichen Lernzuwachs. Die Ergebnisse unterstreichen die Bedeutung der Fallreihenfolge im EKG-Training und legen nahe, dass EKG-Lehrende die Abfolge der Lernmaterialien sorgf&#228;ltig planen sollten, um Lernergebnisse zu optimieren. Dar&#252;ber hinaus verweist der unterschiedliche Einfluss der EYE-EKG-Videos in Abh&#228;ngigkeit von der klinischen Vorerfahrung der Studierenden auf die Notwendigkeit weiterer Studien zur Abkl&#228;rung wie unterschiedliche EKG-Erfahrungsniveaus die Wahrnehmung und Wirksamkeit von Eye-Tracking mit CRR als neuartigem Lehrformat beeinflussen. Insbesondere w&#228;re es von Interesse, weiter zu untersuchen, wie Studierende mit geringem, mittlerem und hohem EKG-Vorwissen &#252;blicherweise mit verschiedenen Arten von Lernmaterialien interagieren und wie sich dies auf ihre Erwartungen an eine passgenaue Gestaltung von EYE-EKG zur optimalen Unterst&#252;tzung unterschiedlicher Lernendenprofile auswirkt.</Pgraph></TextBlock>
    <TextBlock name="Authors&#8217; ORCIDs" linked="yes" language="en">
      <MainHeadline>Authors&#8217; ORCIDs</MainHeadline><Pgraph><UnorderedList><ListItem level="1">Aline D. Scherff: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-7420-2292">0000-0002-7420-2292</Hyperlink>&#93;</ListItem><ListItem level="1">Stefan K&#228;&#228;b: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0001-8824-3581">0000-0001-8824-3581</Hyperlink>&#93;</ListItem><ListItem level="1">Martin R. Fischer: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-5299-5025">0000-0002-5299-5025</Hyperlink>&#93;</ListItem><ListItem level="1">Markus Berndt: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-4467-5355">0000-0002-4467-5355</Hyperlink>&#93;</ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock name="ORCIDs der Autor&#42;innen" linked="yes" language="de">
      <MainHeadline>ORCIDs der Autor&#42;innen</MainHeadline><Pgraph><UnorderedList><ListItem level="1">Aline D. Scherff: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-7420-2292">0000-0002-7420-2292</Hyperlink>&#93;</ListItem><ListItem level="1">Stefan K&#228;&#228;b: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0001-8824-3581">0000-0001-8824-3581</Hyperlink>&#93;</ListItem><ListItem level="1">Martin R. Fischer: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-5299-5025">0000-0002-5299-5025</Hyperlink>&#93;</ListItem><ListItem level="1">Markus Berndt: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-4467-5355">0000-0002-4467-5355</Hyperlink>&#93;</ListItem></UnorderedList></Pgraph></TextBlock>
    <TextBlock name="Competing interests" linked="yes" language="en">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests. </Pgraph></TextBlock>
    <TextBlock name="Interessenkonflikt" linked="yes" language="de">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autor&#42;innen erkl&#228;ren, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="5">
        <RefAuthor>Scherff AD</RefAuthor>
        <RefAuthor>K&#228;&#228;b S</RefAuthor>
        <RefAuthor>Fischer MR</RefAuthor>
        <RefAuthor>Berndt M</RefAuthor>
        <RefTitle>EYE-ECG: An RCT of the influence of student characteristics and expert exe-tracking videos with cued retrospective reporting on students&#8217; ECG interpretation skills</RefTitle>
        <RefYear>2024</RefYear>
        <RefJournal>GMS J Med Educ</RefJournal>
        <RefPage>Doc40</RefPage>
        <RefTotal>Scherff AD, K&#228;&#228;b S, Fischer MR, Berndt M. EYE-ECG: An RCT of the influence of student characteristics and expert exe-tracking videos with cued retrospective reporting on students&#8217; ECG interpretation skills. GMS J Med Educ. 2024;41(4):Doc40. DOI: 10.3205&#47;zma001695</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma001695</RefLink>
      </Reference>
      <Reference refNo="1">
        <RefAuthor>Viljoen CA</RefAuthor>
        <RefAuthor>Millar RS</RefAuthor>
        <RefAuthor>Manning K</RefAuthor>
        <RefAuthor>Burch VC</RefAuthor>
        <RefTitle>Determining electrocardiography training priorities for medical students using a modified Delphi method</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>BMC Med Educ</RefJournal>
        <RefPage>431</RefPage>
        <RefTotal>Viljoen CA, Millar RS, Manning K, Burch VC. Determining electrocardiography training priorities for medical students using a modified Delphi method. BMC Med Educ. 2020;20(1):431. DOI: 10.1186&#47;s12909-020-02354-4</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;s12909-020-02354-4</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Jablonover RS</RefAuthor>
        <RefAuthor>Stagnaro-Green A</RefAuthor>
        <RefTitle>ECG as an entrustable professional activity: CDIM survey results, ECG teaching and assessment in the third year</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Am J Med</RefJournal>
        <RefPage>226-230</RefPage>
        <RefTotal>Jablonover RS, Stagnaro-Green A. ECG as an entrustable professional activity: CDIM survey results, ECG teaching and assessment in the third year. Am J Med. 2016;129(2):226-230.e1. DOI: 10.1016&#47;j.amjmed.2015.10.034</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.amjmed.2015.10.034</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Rourke L</RefAuthor>
        <RefAuthor>Leong J</RefAuthor>
        <RefAuthor>Chatterly P</RefAuthor>
        <RefTitle>Conditions-based learning theory as a framework for comparative-effectiveness reviews: A worked example</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>Teach Learn Med</RefJournal>
        <RefPage>386-394</RefPage>
        <RefTotal>Rourke L, Leong J, Chatterly P. Conditions-based learning theory as a framework for comparative-effectiveness reviews: A worked example. Teach Learn Med. 2018;30(4):386-394. DOI: 10.1080&#47;10401334.2018.1428611</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;10401334.2018.1428611</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Cook DA</RefAuthor>
        <RefAuthor>Oh SY</RefAuthor>
        <RefAuthor>Pusic MV</RefAuthor>
        <RefTitle>Accuracy of physicians&#8217; electrocardiogram interpretations: a systematic review and meta-analysis</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>JAMA Intern Med</RefJournal>
        <RefPage>1461-1471</RefPage>
        <RefTotal>Cook DA, Oh SY, Pusic MV. Accuracy of physicians&#8217; electrocardiogram interpretations: a systematic review and meta-analysis. JAMA Intern Med. 2020;180(11):1461-1471. DOI: 10.1001&#47;jamainternmed.2020.3989</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1001&#47;jamainternmed.2020.3989</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Greussing E</RefAuthor>
        <RefAuthor>Kessler SH</RefAuthor>
        <RefAuthor>Boomgaarden HG</RefAuthor>
        <RefTitle>Learning from science news via interactive and animated data visualizations: An investigation combining eye tracking, online survey, and cued retrospective reporting</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Sci Communication</RefJournal>
        <RefPage>803-828</RefPage>
        <RefTotal>Greussing E, Kessler SH, Boomgaarden HG. Learning from science news via interactive and animated data visualizations: An investigation combining eye tracking, online survey, and cued retrospective reporting. Sci Communication. 2020;42(6):803-828. DOI: 10.1177&#47;107554702096210</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1177&#47;107554702096210</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Van Gog T</RefAuthor>
        <RefAuthor>Paas F</RefAuthor>
        <RefAuthor>Van Merri&#235;nboer JJ</RefAuthor>
        <RefAuthor>Witte P</RefAuthor>
        <RefTitle>Uncovering the problem-solving process: Cued retrospective reporting versus concurrent and retrospective reporting</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>J Exp Psychol Appl</RefJournal>
        <RefPage>237-244</RefPage>
        <RefTotal>Van Gog T, Paas F, Van Merri&#235;nboer JJ, Witte P. Uncovering the problem-solving process: Cued retrospective reporting versus concurrent and retrospective reporting. J Exp Psychol Appl. 2005;11(4):237-244. DOI: 10.1037&#47;1076-898X.11.4.237</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1037&#47;1076-898X.11.4.237</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Bender L</RefAuthor>
        <RefAuthor>Renkl A</RefAuthor>
        <RefAuthor>Eitel A</RefAuthor>
        <RefTitle>When and how seductive details harm learning. A study using cued retrospective reporting</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>Appl Cogn Psychol</RefJournal>
        <RefPage>9489-59</RefPage>
        <RefTotal>Bender L, Renkl A, Eitel A. When and how seductive details harm learning. A study using cued retrospective reporting. Appl Cogn Psychol. 2021;35(4):9489-59. DOI: 10.1002&#47;acp.3822</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1002&#47;acp.3822</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Helle L</RefAuthor>
        <RefTitle>Prospects and Pitfalls in Combining Eye-Tracking Data and Verbal Reports</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Front Learn Res</RefJournal>
        <RefPage>81-93</RefPage>
        <RefTotal>Helle L. Prospects and Pitfalls in Combining Eye-Tracking Data and Verbal Reports. Front Learn Res. 2017;5(3):81-93. DOI: 10.14786&#47;flr.v5i3.254</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.14786&#47;flr.v5i3.254</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Catrysse L</RefAuthor>
        <RefAuthor>Gijbels D</RefAuthor>
        <RefAuthor>Donche V</RefAuthor>
        <RefAuthor>De Maeyer S</RefAuthor>
        <RefAuthor>Van den Bossche P</RefAuthor>
        <RefAuthor>Gommers L</RefAuthor>
        <RefTitle>Mapping processing strategies in learning from expository text: an exploratory eye tracking study followed by a cued recall</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Front Learn Res</RefJournal>
        <RefPage>1-16</RefPage>
        <RefTotal>Catrysse L, Gijbels D, Donche V, De Maeyer S, Van den Bossche P, Gommers L. Mapping processing strategies in learning from expository text: an exploratory eye tracking study followed by a cued recall. Front Learn Res. 2016;4(1):1-16. DOI: 10.14786&#47;flr.v4i1.192</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.14786&#47;flr.v4i1.192</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Prokop M</RefAuthor>
        <RefAuthor>Pila&#345; L</RefAuthor>
        <RefAuthor>Tich&#225; I</RefAuthor>
        <RefTitle>Impact of think-aloud on eye-tracking: A comparison of concurrent and retrospective think-aloud for research on decision-making in the game environment</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Sensors (Basel)</RefJournal>
        <RefPage>2750</RefPage>
        <RefTotal>Prokop M, Pila&#345; L, Tich&#225; I. Impact of think-aloud on eye-tracking: A comparison of concurrent and retrospective think-aloud for research on decision-making in the game environment. Sensors (Basel). 2020;20(10):2750. DOI: 10.3390&#47;s20102750</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3390&#47;s20102750</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Kok EM</RefAuthor>
        <RefAuthor>Jarodzka H</RefAuthor>
        <RefTitle>Before your very eyes: the value and limitations of eye tracking in medical education</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>114-122</RefPage>
        <RefTotal>Kok EM, Jarodzka H. Before your very eyes: the value and limitations of eye tracking in medical education. Med Educ. 2017;51(1):114-122. DOI: 10.1111&#47;medu.13066</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;medu.13066</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Bruny&#233; TT</RefAuthor>
        <RefAuthor>Drew T</RefAuthor>
        <RefAuthor>Weaver DL</RefAuthor>
        <RefAuthor>Elmore JG</RefAuthor>
        <RefTitle>A review of eye tracking for understanding and improving diagnostic interpretation</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Cogn Res Princ Implic</RefJournal>
        <RefPage>7</RefPage>
        <RefTotal>Bruny&#233; TT, Drew T, Weaver DL, Elmore JG. A review of eye tracking for understanding and improving diagnostic interpretation. Cogn Res Princ Implic. 2019;4(1):7. DOI: 10.1186&#47;s41235-019-0159-2</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1186&#47;s41235-019-0159-2</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Tunga Y</RefAuthor>
        <RefAuthor>Cagiltay K</RefAuthor>
        <RefTitle>Looking through the model&#8217;s eye: A systematic review of eye movement modeling example studies</RefTitle>
        <RefYear>2023</RefYear>
        <RefJournal>Educ Inform Technol</RefJournal>
        <RefPage>9607-9633</RefPage>
        <RefTotal>Tunga Y, Cagiltay K. Looking through the model&#8217;s eye: A systematic review of eye movement modeling example studies. Educ Inform Technol. 2023;28(8):9607-9633. DOI: 10.1007&#47;s10639-022-11569-5</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s10639-022-11569-5</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>John D</RefAuthor>
        <RefAuthor>Mitra R</RefAuthor>
        <RefTitle>Rethinking Pedagogical Use of Eye Trackers for Visual Problems with Eye Gaze Interpretation Tasks</RefTitle>
        <RefYear>2023</RefYear>
        <RefJournal>Front Learn Res</RefJournal>
        <RefPage>31-48</RefPage>
        <RefTotal>John D, Mitra R. Rethinking Pedagogical Use of Eye Trackers for Visual Problems with Eye Gaze Interpretation Tasks. Front Learn Res. 2023;11(2):31-48. DOI: 10.14786&#47;flr.v11i2.1165</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.14786&#47;flr.v11i2.1165</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Jarodzka H</RefAuthor>
        <RefAuthor>Balslev T</RefAuthor>
        <RefAuthor>Holmqvist K</RefAuthor>
        <RefAuthor>Nystr&#246;m M</RefAuthor>
        <RefAuthor>Scheiter K</RefAuthor>
        <RefAuthor>Gerjets P</RefAuthor>
        <RefAuthor>Eika B</RefAuthor>
        <RefTitle>Conveying clinical reasoning based on visual observation via eye-movement modeling examples</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>Instruct Sci</RefJournal>
        <RefPage>813-827</RefPage>
        <RefTotal>Jarodzka H, Balslev T, Holmqvist K, Nystr&#246;m M, Scheiter K, Gerjets P, Eika B. Conveying clinical reasoning based on visual observation via eye-movement modeling examples. Instruct Sci. 2012;40:813-827. DOI: 10.1007&#47;s11251-012-9218-5</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s11251-012-9218-5</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Balslev T</RefAuthor>
        <RefTitle>Learning to diagnose using patient video case in paediatrics: perceptive and cognitive processes</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>Perspect Med Educ</RefJournal>
        <RefPage>222-224</RefPage>
        <RefTotal>Balslev T. Learning to diagnose using patient video case in paediatrics: perceptive and cognitive processes. Perspect Med Educ. 2012;1(5):222-224. DOI: 10.1007&#47;s40037-012-0026-z</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s40037-012-0026-z</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Zhou F</RefAuthor>
        <RefAuthor>Fang D</RefAuthor>
        <RefTitle>Multimodal ECG heartbeat classification method based on a convolutional neural network embedded with FCA</RefTitle>
        <RefYear>2024</RefYear>
        <RefJournal>Sci Rep</RefJournal>
        <RefPage>8804</RefPage>
        <RefTotal>Zhou F, Fang D. Multimodal ECG heartbeat classification method based on a convolutional neural network embedded with FCA. Sci Rep. 2024;14(1):8804. DOI: 10.1038&#47;s41598-024-59311-0</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1038&#47;s41598-024-59311-0</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Gegenfurtner A</RefAuthor>
        <RefAuthor>Lehtinen E</RefAuthor>
        <RefAuthor>Jarodzka H</RefAuthor>
        <RefAuthor>S&#228;lj&#246; R</RefAuthor>
        <RefTitle>Effects of eye movement modeling examples on adaptive expertise in medical image diagnosis</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Comp Educ</RefJournal>
        <RefPage>212-225</RefPage>
        <RefTotal>Gegenfurtner A, Lehtinen E, Jarodzka H, S&#228;lj&#246; R. Effects of eye movement modeling examples on adaptive expertise in medical image diagnosis. Comp Educ. 2017;113:212-225. DOI: 10.1016&#47;j.compedu.2017.06.001</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.compedu.2017.06.001</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Darici D</RefAuthor>
        <RefAuthor>Masthoff M</RefAuthor>
        <RefAuthor>Rischen R</RefAuthor>
        <RefAuthor>Schmitz M</RefAuthor>
        <RefAuthor>Ohlenburg H</RefAuthor>
        <RefAuthor>Missler M</RefAuthor>
        <RefTitle>Medical imaging training with eye movement modeling examples: A randomized controlled study</RefTitle>
        <RefYear>2023</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>918-924</RefPage>
        <RefTotal>Darici D, Masthoff M, Rischen R, Schmitz M, Ohlenburg H, Missler M. Medical imaging training with eye movement modeling examples: A randomized controlled study. Med Teach. 2023;45(8):918-924. DOI: 10.1080&#47;0142159X.2023.2189538</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;0142159X.2023.2189538</RefLink>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Winter M</RefAuthor>
        <RefAuthor>Pryss R</RefAuthor>
        <RefAuthor>Probst T</RefAuthor>
        <RefAuthor>Reichert M</RefAuthor>
        <RefTitle>Applying Eye Movement Modeling Examples to Guide Novices&#39; Attention in the Comprehension of Process Models</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>Brain Sci</RefJournal>
        <RefPage>72</RefPage>
        <RefTotal>Winter M, Pryss R, Probst T, Reichert M. Applying Eye Movement Modeling Examples to Guide Novices&#39; Attention in the Comprehension of Process Models. Brain Sci. 2021;11(1):72. DOI: 10.3390&#47;brainsci11010072</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3390&#47;brainsci11010072</RefLink>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Jarodzka H</RefAuthor>
        <RefAuthor>Balslev T</RefAuthor>
        <RefAuthor>Holmqvist K</RefAuthor>
        <RefTitle>Learning perceptual aspects of diagnosis in medicine via eye movement modeling examples on patient video cases</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Padagog Stud</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Jarodzka H, Balslev T, Holmqvist K. Learning perceptual aspects of diagnosis in medicine via eye movement modeling examples on patient video cases. Padagog Stud. 2010;32.</RefTotal>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Amadieu F</RefAuthor>
        <RefAuthor>Gog T</RefAuthor>
        <RefAuthor>Paas F</RefAuthor>
        <RefAuthor>Tricot A</RefAuthor>
        <RefAuthor>Marin&#233; C</RefAuthor>
        <RefTitle>Effects of prior knowledge and concept-map structure on disorientation, cognitive load, and learning</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>Learn Instruct</RefJournal>
        <RefPage>376-386</RefPage>
        <RefTotal>Amadieu F, Gog T, Paas F, Tricot A, Marin&#233; C. Effects of prior knowledge and concept-map structure on disorientation, cognitive load, and learning. Learn Instruct. 2009;19:376-386. DOI: 10.1016&#47;j.learninstruc.2009.02.005</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.learninstruc.2009.02.005</RefLink>
      </Reference>
      <Reference refNo="24">
        <RefAuthor>Jarodzka H</RefAuthor>
        <RefAuthor>Scheiter K</RefAuthor>
        <RefAuthor>Gerjets P</RefAuthor>
        <RefAuthor>Van Gog T</RefAuthor>
        <RefTitle>In the eyes of the beholder: How experts and novices interpret dynamic stimuli</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Learn Instruct</RefJournal>
        <RefPage>146-154</RefPage>
        <RefTotal>Jarodzka H, Scheiter K, Gerjets P, Van Gog T. In the eyes of the beholder: How experts and novices interpret dynamic stimuli. Learn Instruct. 2010;20(2):146-154. DOI: 10.1016&#47;j.learninstruc.2009.02.019</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.learninstruc.2009.02.019</RefLink>
      </Reference>
      <Reference refNo="25">
        <RefAuthor>Berndt M</RefAuthor>
        <RefAuthor>Thomas F</RefAuthor>
        <RefAuthor>Bauer D</RefAuthor>
        <RefAuthor>H&#228;rtl A</RefAuthor>
        <RefAuthor>Hege I</RefAuthor>
        <RefAuthor>K&#228;&#228;b S</RefAuthor>
        <RefAuthor>Fischer MR</RefAuthor>
        <RefAuthor>Heitzmann N</RefAuthor>
        <RefTitle>The influence of prompts on final year medical students&#8217; learning process and achievement in ECG interpretation</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>GMS J Med Educ</RefJournal>
        <RefPage>Doc11</RefPage>
        <RefTotal>Berndt M, Thomas F, Bauer D, H&#228;rtl A, Hege I, K&#228;&#228;b S, Fischer MR, Heitzmann N. The influence of prompts on final year medical students&#8217; learning process and achievement in ECG interpretation. GMS J Med Educ. 2020;37(1):Doc11. DOI: 10.3205&#47;zma001304</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma001304</RefLink>
      </Reference>
      <Reference refNo="26">
        <RefAuthor>Hasch F</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2018</RefYear>
        <RefBookTitle>Lernen aus Fehlern&#8211;Der Einfluss von Fehleranalyseprompts und Begr&#252;ndungsprompts auf das selbstregulierte Lernen in einer Online-Lernumgebung zum Thema Elektrokardiogramm</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Hasch F. Lernen aus Fehlern&#8211;Der Einfluss von Fehleranalyseprompts und Begr&#252;ndungsprompts auf das selbstregulierte Lernen in einer Online-Lernumgebung zum Thema Elektrokardiogramm. M&#252;nchen: LMU M&#252;nchen; 2018.</RefTotal>
      </Reference>
      <Reference refNo="27">
        <RefAuthor>Schwehr KA</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2018</RefYear>
        <RefBookTitle>Klassifizierung und Analyse von Fehlern bei der EKG-Beschreibung, Befundung und Interpretation</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Schwehr KA. Klassifizierung und Analyse von Fehlern bei der EKG-Beschreibung, Befundung und Interpretation. M&#252;nchen: LMU M&#252;nchen; 2018.</RefTotal>
      </Reference>
      <Reference refNo="28">
        <RefAuthor>Jarodzka H</RefAuthor>
        <RefAuthor>van Gog T</RefAuthor>
        <RefAuthor>Dorr M</RefAuthor>
        <RefAuthor>Scheiter K</RefAuthor>
        <RefAuthor>Gerjets P</RefAuthor>
        <RefTitle>Learning to see: Guiding students&#8217; attention via a Model&#8217;s eye movements fosters learning</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Learn Instruct</RefJournal>
        <RefPage>62-70</RefPage>
        <RefTotal>Jarodzka H, van Gog T, Dorr M, Scheiter K, Gerjets P. Learning to see: Guiding students&#8217; attention via a Model&#8217;s eye movements fosters learning. Learn Instruct. 2013;25:62-70. DOI: 10.1016&#47;j.learninstruc.2012.11.004</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.learninstruc.2012.11.004</RefLink>
      </Reference>
      <Reference refNo="29">
        <RefAuthor>Wright AM</RefAuthor>
        <RefAuthor>Salas JA</RefAuthor>
        <RefAuthor>Carter KE</RefAuthor>
        <RefAuthor>Levin DT</RefAuthor>
        <RefTitle>Eye movement modeling examples guide viewer eye movements but do not improve learning</RefTitle>
        <RefYear>2022</RefYear>
        <RefJournal>Learn Instruct</RefJournal>
        <RefPage>101601</RefPage>
        <RefTotal>Wright AM, Salas JA, Carter KE, Levin DT. Eye movement modeling examples guide viewer eye movements but do not improve learning. Learn Instruct. 2022;79:101601. DOI: 10.1016&#47;j.learninstruc.2022.101601</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.learninstruc.2022.101601</RefLink>
      </Reference>
      <Reference refNo="30">
        <RefAuthor>Aalioui L</RefAuthor>
        <RefAuthor>Gouzi F</RefAuthor>
        <RefAuthor>Tricot A</RefAuthor>
        <RefTitle>Reducing cognitive load during video lectures in physiology with eye movement modeling and pauses: a randomized controlled study</RefTitle>
        <RefYear>2022</RefYear>
        <RefJournal>Adv Physiol Educ</RefJournal>
        <RefPage>288-296</RefPage>
        <RefTotal>Aalioui L, Gouzi F, Tricot A. Reducing cognitive load during video lectures in physiology with eye movement modeling and pauses: a randomized controlled study. Adv Physiol Educ. 2022;46(2):288-296. DOI: 10.1152&#47;advan.00185.2021</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1152&#47;advan.00185.2021</RefLink>
      </Reference>
      <Reference refNo="31">
        <RefAuthor>Krebs MC</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2021</RefYear>
        <RefBookTitle>Eye (s) see what you do: the role of social mechanisms in the effectiveness of eye movement modeling examples as an instructional tool for multimedia learning</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Krebs MC. Eye (s) see what you do: the role of social mechanisms in the effectiveness of eye movement modeling examples as an instructional tool for multimedia learning. T&#252;bingen: Universit&#228;t T&#252;bingen; 2021.</RefTotal>
      </Reference>
      <Reference refNo="32">
        <RefAuthor>Yondemir &#199;ali&#351;kan N</RefAuthor>
        <RefAuthor>&#350;endurur E</RefAuthor>
        <RefTitle>The effect of cumulative eye movements&#8217; guidance of experts on transition from novice to expert</RefTitle>
        <RefYear>2025</RefYear>
        <RefJournal>Educ Technol Res Dev</RefJournal>
        <RefPage>59-89</RefPage>
        <RefTotal>Yondemir &#199;ali&#351;kan N, &#350;endurur E. The effect of cumulative eye movements&#8217; guidance of experts on transition from novice to expert. Educ Technol Res Dev. 2025;73(1):59-89. DOI: 10.1007&#47;s11423-024-10414-5</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s11423-024-10414-5</RefLink>
      </Reference>
      <Reference refNo="33">
        <RefAuthor>Wang F</RefAuthor>
        <RefAuthor>Zhao T</RefAuthor>
        <RefAuthor>Mayer RE</RefAuthor>
        <RefAuthor>Wang Y</RefAuthor>
        <RefTitle>Guiding the learner&#8217;s cognitive processing of a narrated animation</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Learn Instruct</RefJournal>
        <RefPage>101357</RefPage>
        <RefTotal>Wang F, Zhao T, Mayer RE, Wang Y. Guiding the learner&#8217;s cognitive processing of a narrated animation. Learn Instruct. 2020;69:101357. DOI: 10.1016&#47;j.learninstruc.2020.101357</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.learninstruc.2020.101357</RefLink>
      </Reference>
      <Reference refNo="34">
        <RefAuthor>Mayer RE</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2021</RefYear>
        <RefBookTitle>The Cambridge Handbook of Multimedia Learning</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Mayer RE. The Cambridge Handbook of Multimedia Learning. 3rd ed. Cambridge (MA): Cambridge University Press; 2021.</RefTotal>
      </Reference>
      <Reference refNo="35">
        <RefAuthor>Gegenfurtner A</RefAuthor>
        <RefAuthor>Sepp&#228;nen M</RefAuthor>
        <RefTitle>Transfer of expertise: An eye tracking and think aloud study using dynamic medical visualizations</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Comp Educ</RefJournal>
        <RefPage>393-403</RefPage>
        <RefTotal>Gegenfurtner A, Sepp&#228;nen M. Transfer of expertise: An eye tracking and think aloud study using dynamic medical visualizations. Comp Educ. 2013;63:393-403. DOI: 10.1016&#47;j.compedu.2012.12.021</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.compedu.2012.12.021</RefLink>
      </Reference>
      <Reference refNo="36">
        <RefAuthor>Sweller J</RefAuthor>
        <RefTitle>Cognitive Load Theory</RefTitle>
        <RefYear>2011</RefYear>
        <RefBookTitle>Psychology of Learning and Motivation</RefBookTitle>
        <RefPage>37-76</RefPage>
        <RefTotal>Sweller J. Cognitive Load Theory. In: Mestre JP, Ross BH, editors. Psychology of Learning and Motivation. New York: Academic Press; 2011. p.37-76. DOI: 10.1016&#47;B978-0-12-387691-1.00002-8</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;B978-0-12-387691-1.00002-8</RefLink>
      </Reference>
      <Reference refNo="37">
        <RefAuthor>van Merri&#235;nboer JJ</RefAuthor>
        <RefAuthor>Sweller J</RefAuthor>
        <RefTitle>Cognitive load theory in health professional education: design principles and strategies</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>85-93</RefPage>
        <RefTotal>van Merri&#235;nboer JJ, Sweller J. Cognitive load theory in health professional education: design principles and strategies. Med Educ. 2010;44(1):85-93. DOI: 10.1111&#47;j.1365-2923.2009.03498.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2923.2009.03498.x</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 1: List of predictors included in the three final regression models</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Liste der in den drei finalen Regressionsmodellen enthaltenen Pr&#228;diktoren</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>1</NoOfTables>
      </Tables>
      <Figures>
        <Figure width="757" height="496" format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Overview of all EYE-ECG2 components and order of presentation</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: &#220;berblick &#252;ber alle EYE-EKG2-Komponenten und die Reihenfolge der Pr&#228;sentation</Mark1></Pgraph></Caption>
        </Figure>
        <Figure width="1024" height="401" format="png">
          <MediaNo>2</MediaNo>
          <MediaID>2</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 2: Screenshot of one of the ECGs used in the EYE-ECG2 video. Compared to the previous study, Modification 1 pauses the video at this moment. Audio commentary during this video frame: &#8220;Here the focus is primarily on the ST elevations in the anterior wall leads from V3 to V6...&#91;video moves on -- not shown --&#93; and then quickly in comparison, what is in the limb leads...&#8221;</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: Screenshot eines der im EYE-EKG2-Video verwendeten EKGs. Im Vergleich zur vorherigen Studie wird das Video als Modifikation 1 in diesem Moment angehalten. Audiokommentar w&#228;hrend dieses Videobildes: &#8222;Hier liegt der Fokus in erster Linie auf den ST-Hebungen in den Brustwandableitungen von V3 bis V6...&#91;Video l&#228;uft weiter -- nicht gezeigt --&#93; und dann schnell im Vergleich, was in den Extremit&#228;tenableitungen ist...&#8220;</Mark1></Pgraph></Caption>
        </Figure>
        <Figure width="873" height="295" format="png">
          <MediaNo>3</MediaNo>
          <MediaID language="en">3en</MediaID>
          <MediaID language="de">3de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 3: Modification 2. Illustration of the order of presentation of clinical cases 1-4 within the training session</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 3: Modifikation 2. Veranschaulichung der Reihenfolge der Pr&#228;sentation der klinischen F&#228;lle 1-4 innerhalb der Trainingssitzung</Mark1></Pgraph></Caption>
        </Figure>
        <Figure width="798" height="1070" format="png">
          <MediaNo>4</MediaNo>
          <MediaID language="en">4en</MediaID>
          <MediaID language="de">4de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 4: Pre vs. Post-Test differences in participants&#8217; ECG interpretation skills. Top to bottom: Conceptualisation as BS, RS, CS scores</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 4: Ver&#228;nderung der EKG-Befundungskompetenz (Pr&#228; vs. Post-Test). Von oben nach unten: Darstellung als BS-, RS-, CS-Scores</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>4</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <Attachment>
          <MediaNo>1</MediaNo>
          <MediaID mimeType="application/pdf" size="193241" filename="zma001771.a1en.pdf" url="" origFilename="Attachment&#95;1.pdf" language="en">1en</MediaID>
          <MediaID mimeType="application/pdf" size="192910" filename="zma001771.a1de.pdf" url="" origFilename="Anhang&#95;1.pdf" language="de">1de</MediaID>
          <AttachmentTitle language="en">Comprehensive study results</AttachmentTitle>
          <AttachmentTitle language="de">Umfassende Studienergebnisse</AttachmentTitle>
        </Attachment>
        <NoOfAttachments>1</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>