<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zma001810</Identifier>
    <IdentifierDoi>10.3205/zma001810</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0018107</IdentifierUrn>
    <ArticleType language="en">research article</ArticleType>
    <ArticleType language="de">Forschungsarbeit</ArticleType>
    <TitleGroup>
      <Title language="en">Smiling and first impressions in ad hoc entrustment decisions: An avatar-based simulation study</Title>
      <TitleTranslated language="de">L&#228;cheln und der erste Eindruck bei Ad-hoc-Anvertrauensentscheidungen: Eine Avatar-basierte Simulationsstudie</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Bauermann</Lastname>
          <LastnameHeading>Bauermann</LastnameHeading>
          <Firstname>Moritz</Firstname>
          <Initials>M</Initials>
          <AcademicTitleSuffix>M.A.</AcademicTitleSuffix>
        </PersonNames>
        <Address language="en">University of Augsburg, Faculty of Medicine, Medical Didactics and Education Research Augsburg (DEMEDA), Universit&#228;tsstr. 2, D-86159 Augsburg, Germany<Affiliation>University of Augsburg, Faculty of Medicine, Medical Didactics and Education Research Augsburg (DEMEDA), Augsburg, Germany</Affiliation></Address>
        <Address language="de">Universit&#228;t Augsburg, Medizinische Fakult&#228;t, Department of Medical Education Augsburg (DEMEDA), Medizindidaktik und Ausbildungsforschung, Universit&#228;tsstr. 2, 86159 Augsburg, Deutschland<Affiliation>Universit&#228;t Augsburg, Medizinische Fakult&#228;t, Department of Medical Education Augsburg (DEMEDA), Medizindidaktik und Ausbildungsforschung, Augsburg, Deutschland</Affiliation></Address>
        <Email>medizindidaktik&#64;med.uni-augsburg.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Schindler</Lastname>
          <LastnameHeading>Schindler</LastnameHeading>
          <Firstname>Ann-Kathrin</Firstname>
          <Initials>AK</Initials>
          <AcademicTitle>Dr. phil., M.Ed.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Augsburg, Faculty of Medicine, Medical Didactics and Education Research Augsburg (DEMEDA), Augsburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Augsburg, Medizinische Fakult&#228;t, Department of Medical Education Augsburg (DEMEDA), Medizindidaktik und Ausbildungsforschung, Augsburg, Deutschland</Affiliation>
        </Address>
        <Email>ann-kathrin.schindler&#64;med.uni-augsburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Kuchenbaur</Lastname>
          <LastnameHeading>Kuchenbaur</LastnameHeading>
          <Firstname>Marco</Firstname>
          <Initials>M</Initials>
          <AcademicTitle>Dr. phil., M.Sc., M.A.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Augsburg, Faculty of Medicine, Medical Didactics and Education Research Augsburg (DEMEDA), Augsburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Augsburg, Medizinische Fakult&#228;t, Department of Medical Education Augsburg (DEMEDA), Medizindidaktik und Ausbildungsforschung, Augsburg, Deutschland</Affiliation>
        </Address>
        <Email>marco.kuchenbaur&#64;med.uni-augsburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>R&#252;hl</Lastname>
          <LastnameHeading>R&#252;hl</LastnameHeading>
          <Firstname>Jasmin</Firstname>
          <Initials>J</Initials>
          <AcademicTitle>Dr. rer. nat.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Augsburg, Faculty of Mathematics, Natural Sciences, and Materials Engineering, Mathematical Statistics and Medicine, Augsburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Augsburg, Mathematisch-Naturwissenschaftlich-Technische Fakult&#228;t, Mathematical Statistics and Medicine, Augsburg, Deutschland</Affiliation>
        </Address>
        <Email>jasmin.ruehl&#64;uni-a.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Reinert</Lastname>
          <LastnameHeading>Reinert</LastnameHeading>
          <Firstname>Patrick</Firstname>
          <Initials>P</Initials>
          <AcademicTitle>M.Sc.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Augsburg, Faculty of Mathematics, Natural Sciences, and Materials Engineering, Mathematical Statistics and Medicine, Augsburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Augsburg, Mathematisch-Naturwissenschaftlich-Technische Fakult&#228;t, Mathematical Statistics and Medicine, Augsburg, Deutschland</Affiliation>
        </Address>
        <Email>patrick.reinert&#64;uni-a.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Kunz</Lastname>
          <LastnameHeading>Kunz</LastnameHeading>
          <Firstname>Miriam</Firstname>
          <Initials>M</Initials>
          <AcademicTitle>Prof. Dr. phil.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Augsburg, Faculty of Medicine, Institute of Theoretical Medicine, Medical Psychology and Sociology, Augsburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Augsburg, Medizinische Fakult&#228;t, Institut f&#252;r Theoretische Medizin, Medizinische Psychologie und Soziologie, Augsburg, Deutschland</Affiliation>
        </Address>
        <Email>miriam.kunz&#64;med.uni-augsburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Friedrich-Welz</Lastname>
          <LastnameHeading>Friedrich-Welz</LastnameHeading>
          <Firstname>Sarah</Firstname>
          <Initials>S</Initials>
          <AcademicTitle>Prof. Dr. rer. nat.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Augsburg, Faculty of Medicine, Institute of Theoretical Medicine, Medical Psychology and Sociology, Augsburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Augsburg, Medizinische Fakult&#228;t, Institut f&#252;r Theoretische Medizin, Medizinische Psychologie und Soziologie, Augsburg, Deutschland</Affiliation>
        </Address>
        <Email>sarah.friedrich&#64;math.uni-augsburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Andr&#233;</Lastname>
          <LastnameHeading>Andr&#233;</LastnameHeading>
          <Firstname>Elisabeth</Firstname>
          <Initials>E</Initials>
          <AcademicTitle>Prof. Dr. rer. nat.</AcademicTitle>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Augsburg, Faculty of Applied Computer Science, Human-Centered Artificial Intelligence, Augsburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Augsburg, Fakult&#228;t f&#252;r Angewandte Informatik, Menschzentrierte K&#252;nstliche Intelligenz, Augsburg, Deutschland</Affiliation>
        </Address>
        <Email>andre&#64;informatik.uni-augsburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Rotthoff</Lastname>
          <LastnameHeading>Rotthoff</LastnameHeading>
          <Firstname>Thomas</Firstname>
          <Initials>T</Initials>
          <AcademicTitle>Prof. Dr. med.</AcademicTitle>
          <AcademicTitleSuffix>MME</AcademicTitleSuffix>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Augsburg, Faculty of Medicine, Medical Didactics and Education Research Augsburg (DEMEDA), Augsburg, Germany</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Augsburg, Medizinische Fakult&#228;t, Department of Medical Education Augsburg (DEMEDA), Medizindidaktik und Ausbildungsforschung, Augsburg, Deutschland</Affiliation>
        </Address>
        <Email>thomas.rotthoff&#64;med.uni-augsburg.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">entrustable professional activities</Keyword>
      <Keyword language="en">trust</Keyword>
      <Keyword language="en">entrustment</Keyword>
      <Keyword language="en">non-verbal expressions</Keyword>
      <Keyword language="en">first impression</Keyword>
      <Keyword language="en">medical education</Keyword>
      <Keyword language="en">Duchenne smile</Keyword>
      <Keyword language="en">avatars</Keyword>
      <Keyword language="de">Entrustable Professional Activities (EPA)</Keyword>
      <Keyword language="de">Anvertrauen</Keyword>
      <Keyword language="de">Vertrauensw&#252;rdigkeit</Keyword>
      <Keyword language="de">nonverbale Kommunikation</Keyword>
      <Keyword language="de">Ersteindruck</Keyword>
      <Keyword language="de">medizinische Ausbildung</Keyword>
      <Keyword language="de">Duchenne-L&#228;cheln</Keyword>
      <Keyword language="de">Avatar</Keyword>
      <SectionHeading language="en">entrustment decisions</SectionHeading>
      <SectionHeading language="de">Zutrauensentscheidungen</SectionHeading>
    </SubjectGroup>
    <DateReceived>20240805</DateReceived>
    <DateRevised>20250818</DateRevised>
    <DateAccepted>20250903</DateAccepted>
    <DatePublishedList>
      <DatePublished>20260217</DatePublished>
    </DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2366-5017</ISSN>
        <Volume>43</Volume>
        <Issue>2</Issue>
        <JournalTitle>GMS Journal for Medical Education</JournalTitle>
        <JournalTitleAbbr>GMS J Med Educ</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>16</ArticleNo>
    <Fundings>
      <Funding fundId="FBM2020-262&#47;2021">Stiftung Innovation in der Hochschullehre</Funding>
    </Fundings>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Zielsetzung: </Mark1>Untersucht wurde der Einfluss neutraler und l&#228;chelnder Gesichtsausdr&#252;cke als Indikatoren des nonverbalen ersten Eindrucks. Es wurde analysiert, wie diese Indikatoren das Ad-hoc-Anvertrauen sowie die Wahrnehmung von Vertrauensw&#252;rdigkeit in medizinischen Entscheidungssituationen beeinflussen.</Pgraph><Pgraph><Mark1>Methodik: </Mark1>Im Rahmen des Konzepts der Entrustable Professional Activities (EPA) wurde eine Online-Studie mit Avataren durchgef&#252;hrt und drei Hypothesen &#252;berpr&#252;ft. Als Pilotstudie und aufgrund der Stichprobenzug&#228;nglichkeit nahmen 268 Medizinstudierende (67,2&#37; weiblich) teil. Sie lasen 36 narrative klinische Anvertrauenssituationen, die ihnen in randomisierter Reihenfolge pr&#228;sentiert wurden. Anschlie&#223;end sollten die Teilnehmenden entscheiden, ob sie die jeweilige klinische Aufgabe Mitstudierenden anvertrauen w&#252;rden, die in kurzen Videos durch Avatare dargestellt wurden. F&#252;r jedes Szenario wurden zwei Avatare gezeigt, die zuf&#228;llig in Gesichtsausdruck (Duchenne-L&#228;cheln (DL), neutral), Geschlecht und Morphologie variierten. Neben der Anvertrauensentscheidung bewerteten die Teilnehmenden, wie vertrauensw&#252;rdig die Avatare auf sie wirkten.</Pgraph><Pgraph><Mark1>Ergebnisse: </Mark1>Anvertrauen und Vertrauensw&#252;rdigkeit korrelierten positiv (H1). Die Analyse mittels Mixed-Effect-Modellen zeigte jedoch keine signifikanten Unterschiede zwischen Avataren mit DL und solchen mit neutralem Gesichtsausdruck f&#252;r positiv getroffene Anvertrauensentscheidungen (H2) oder die wahrgenommene Vertrauensw&#252;rdigkeit (H3). </Pgraph><Pgraph><Mark1>Schlussfolgerung:</Mark1> Der Zusammenhang zwischen Vertrauensw&#252;rdigkeit mit Anvertrauen best&#228;tigt vorhandene Erkenntnisse, die Vertrauensw&#252;rdigkeit als wichtige personenbezogene Voraussetzung f&#252;r Anvertrauensentscheidungen beschreiben. Die internalisierten Muster eines DL beeinflussten die Anvertrauensentscheidungen der Medizinstudierenden innerhalb der Ersteindruckssituationen jedoch nicht. Ersteres unterst&#252;tzt die Annahme, dass in medizinischen Ad-hoc-Anvertrauenssituationen, Faktoren wie der Kontext oder andere Aspekte des ersten Eindrucks eines Trustees die Entscheidung des Trustors beeinflussen k&#246;nnten. </Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Objective: </Mark1>We aimed to examine how neutral and smiling facial expressions, as indicators of non-verbal first impressions, influence ad hoc entrustment and perceptions of trustworthiness in a person in medical scenarios that demand entrustment decisions.</Pgraph><Pgraph><Mark1>Methodology: </Mark1>Within the framework of entrustable professional activities (EPA), we tested three hypotheses in an online study using avatar simulations. As a pilot study and for reasons of sample accessibility, 268 medical students (67.2&#37; female) read 36 narrative clinical entrustment situations in a randomized order. The participants then had to decide whether to entrust the clinical task to fellow students who appeared in short videos as standardized avatars. For each scenario, two avatars were presented and randomly matched for different facial expressions (Duchenne smile (DS), neutral), genders, and morphologies. The participants also assessed the avatars&#8217; perceived trustworthiness.</Pgraph><Pgraph><Mark1>Results: </Mark1>Entrustment and trustworthiness were positively correlated (H1). However, when utilizing mixed-effects models, no significant differences were found between the avatars that displayed a DS and those with a neutral expression regarding positive entrustment decisions (H2) or trustworthiness ratings (H3). </Pgraph><Pgraph><Mark1>Conclusion: </Mark1>We found that trustworthiness was linked to entrustment, which supports previous findings on trustworthiness as a person-related prerequisite for entrustment decisions. Internalized patterns of the DS did not influence the medical students&#8217; entrustment decisions in the first-impression situations. This suggests that in ad hoc medical entrustment scenarios, factors such as context or other aspects of a trustee&#8217;s first impression may shape trustors&#8217; decisions.</Pgraph></Abstract>
    <TextBlock name="1. Introduction" linked="yes" language="en">
      <MainHeadline>1. Introduction</MainHeadline><Pgraph>In the medical field, trust is crucial, as the core of everyday healthcare practices revolves around human encounters, which necessitate daily trust <TextLink reference="1"></TextLink>. Trust typically involves one person (the trustor) placing their trust in another (the trustee). As a process, trust can be further differentiated into <Mark2>trustworthiness</Mark2>, which is a mental state encompassing a trustor&#8217;s readiness to be vulnerable with a trustee, and <Mark2>entrustment</Mark2>, which is the act of trusting someone that usually happens once trustworthiness has been established <TextLink reference="2"></TextLink>. Examples of entrustment in the medical context are intra- and interprofessional entrustment between colleagues, between patients and physicians, and between supervisors and their trainees <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>, <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>. Entrustment fosters an environment that is conducive for professional growth and effective patient care, both of which significantly bolster treatment efficacy and patient well-being <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>, <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>. The principle of trust is deeply integrated into the fabric of medical education, particularly through the entrustable professional activities (EPA) framework. This framework entails the allocation of clinical responsibilities from educator to learner and exemplifies the integral role of trust in the development of medical competence <TextLink reference="8"></TextLink>. Such entrustment decisions are often made on an ad hoc situational basis, without much information regarding the trustee, as highlighted by ten Cate <TextLink reference="9"></TextLink>. In this study, we postulated that for such ad hoc entrustment decisions, the first impressions of a trustee can have a significant impact.</Pgraph><Pgraph>It is well established in contexts other than medical education that a person quickly decides whether to trust a stranger based on the stranger&#8217;s first facial expression <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>. Based on the theory of trait inference mapping, a person activates their face space (i.e., storage of facial representations) and trait space (i.e., storage of behavioral representations) when first seeing another person <TextLink reference="12"></TextLink>. Both coordinates are matched, and with repetition, patterns are learned <TextLink reference="12"></TextLink>. A Duchenne smile (DS) has been shown as one relevant facial expression that can influence this attribution process <TextLink reference="11"></TextLink>. Named after Duchenne de Boulogne, who initially described it, this smile involves the zygomaticus major and orbicularis oculi muscles <TextLink reference="13"></TextLink>. A DS is associated with happiness on the part of its sender and is perceived more positively than a neutral expression <TextLink reference="14"></TextLink>. While debate continues about its ambiguous effects <TextLink reference="15"></TextLink>, <TextLink reference="16"></TextLink>, a DS is considered a sign of authenticity regardless of the underlying emotion <TextLink reference="17"></TextLink>, <TextLink reference="18"></TextLink>. </Pgraph><Pgraph>Based on this rationale, we investigated three hypotheses. First, we considered trustworthiness and entrustment to be positively correlated (H1). Second, we hypothesized that trustees displaying a DS as a non-verbal first impression receive more positive entrustment decisions (H2) and heightened trustworthiness ratings (H3) compared to those with neutral facial expressions. The hypotheses were tested in a cost-effective and time-efficient manner through the use of simulated avatars in an online survey and the selection of medical students as participants. </Pgraph></TextBlock>
    <TextBlock name="1. Einleitung" linked="yes" language="de">
      <MainHeadline>1. Einleitung</MainHeadline><Pgraph>In der Medizin ist Vertrauen von entscheidender Bedeutung, da die t&#228;gliche Gesundheitsversorgung auf zwischenmenschlichen Kontakten basiert, die ein wechselseitiges Vertrauen erfordern <TextLink reference="1"></TextLink>. Vertrauen bedeutet in der Regel, dass eine Person (Trustor) einer anderen (Trustee) ihr Vertrauen schenkt. Der Prozess des Vertrauens besteht in <Mark2>Vertrauensw&#252;rdigkeit</Mark2>, der Bereitschaft des Trustors, sich gegen&#252;ber dem Trustee verletzlich zu zeigen; und <Mark2>Anvertrauen</Mark2>, dem konkreten Akt des Vertrauens, der normalerweise erfolgt, nachdem ersteres etabliert wurde <TextLink reference="2"></TextLink>. Beispiele f&#252;r Anvertrauen im medizinischen Kontext finden sich im intra- und interprofessionellen Anvertrauen innerhalb des Kollegiums, in der Beziehung zwischen Patient&#42;innen und &#196;rzt&#42;innen sowie zwischen Vorgesetzten und Auszubildenden <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>, <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>. Anvertrauen tr&#228;gt dazu bei, ein Umfeld zu schaffen, das die berufliche Weiterentwicklung unterst&#252;tzt und eine effektive Patientenversorgung erm&#246;glicht. Dies kann wiederum zur Verbesserung der Wirksamkeit von Therapien als auch dem Wohlbefinden der Patient&#42;innen ma&#223;geblich beitragen <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>, <TextLink reference="5"></TextLink>, <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>. Vertrauen als Prinzip ist damit tief in der medizinischen Ausbildung verwurzelt, insbesondere im Rahmen der Entrustable Professional Activities (EPA). Diese beschreiben die &#220;bertragung klinischer Verantwortung von Ausbildenden auf Lernende und verdeutlichen damit die zentrale Rolle von Vertrauen f&#252;r die Entwicklung medizinischer Handlungskompetenzen <TextLink reference="8"></TextLink>. Die Anvertrauensentscheidungen werden dabei h&#228;ufig situativ und ad hoc getroffen, oftmals ohne umfassende Informationen &#252;ber den Trustee, wie ten Cate hervorhebt <TextLink reference="9"></TextLink>. F&#252;r die vorliegende Studie wurde angenommen, dass in solchen Ad-hoc-Anvertrauenssituationen der erste Eindruck von einem Trustee einen ma&#223;geblichen Einfluss haben kann. </Pgraph><Pgraph>Au&#223;erhalb der medizinischen Ausbildung ist allgemein anerkannt, dass Menschen anhand des ersten Gesichtsausdrucks einer fremden Person schnell entscheiden, ob sie dieser vertrauen <TextLink reference="10"></TextLink>, <TextLink reference="11"></TextLink>. Nach der Theorie des Trait Inference Mapping werden beim ersten Anblick einer Person sowohl der Face Space (Speicher f&#252;r Gesichtsmerkmale) als auch der Trait Space (Speicher f&#252;r Verhaltensmuster) aktiviert <TextLink reference="12"></TextLink>. Beide Koordinaten werden miteinander abgeglichen, wobei sich durch wiederholte Erfahrungen Muster stabilisieren <TextLink reference="12"></TextLink>. Ein Duchenne-L&#228;cheln (DL) als Gesichtsausdruck kann diesen Attributionsprozess beeinflussen <TextLink reference="11"></TextLink>. Benannt nach Duchenne de Boulogne, der es erstmals beschrieb, sind an diesem L&#228;cheln der Musculus zygomaticus major und der Musculus orbicularis oculi beteiligt <TextLink reference="13"></TextLink>. Ein DL wird mit Freude der sendenden Person assoziiert und im Vergleich zu einem neutralen Gesichtsausdruck positiver wahrgenommen <TextLink reference="14"></TextLink>. Obwohl die Diskussion &#252;ber die vielf&#228;ltigen Effekte des DL weiterhin gef&#252;hrt wird <TextLink reference="15"></TextLink>, <TextLink reference="16"></TextLink>, gilt es unabh&#228;ngig von der zugrunde liegenden Emotion als Hinweis von Authentizit&#228;t <TextLink reference="17"></TextLink>, <TextLink reference="18"></TextLink>. </Pgraph><Pgraph>Auf Basis dieser Erkenntnisse &#252;berpr&#252;ften wir drei Hypothesen: Erstens erwarteten wir eine positive Korrelation zwischen wahrgenommener Vertrauensw&#252;rdigkeit und Anvertrauen (H1). Zweitens nahmen wir an, dass Trustees die ein DL als nonverbalen Ersteindruck zeigen, mehr positive Anvertrauensentscheidungen (H2) erhalten und dar&#252;ber hinaus als vertrauensw&#252;rdiger wahrgenommen werden (H3) als Trustees mit neutralem Gesichtsausdruck. Die &#220;berpr&#252;fung der Hypothesen erfolgte ressourcenschonend und zeiteffektiv durch den Einsatz von Avataren in einer Online-Umgebung, sowie die Rekrutierung von Medizinstudierenden als Stichprobe. </Pgraph></TextBlock>
    <TextBlock name="2. Methods" linked="yes" language="en">
      <MainHeadline>2. Methods</MainHeadline><SubHeadline>2.1. Design </SubHeadline><Pgraph>The online survey was conducted using the online survey tool soSci <TextLink reference="19"></TextLink>, in May and June 2025. The study was approved by the ethics committee of LMU Munich (Project: 22-0367&#95;1). A within-subject design was applied in the study, which was carried out as illustrated in figure 1 <ImgLink imgNo="1" imgType="figure" />.</Pgraph><SubHeadline2>2.1.1. Introduction</SubHeadline2><Pgraph>First, the participants were provided with comprehensive information about the study and the protection of their data. They then gave their informed consent and accepted a data protection waiver. Next, they read the standardized instructions for the study. </Pgraph><SubHeadline2>2.1.2. Medical ad hoc entrustment scenarios</SubHeadline2><Pgraph>The participants were presented with 36 consecutive medical ad hoc entrustment scenarios in a randomized order. They received two short breaks &#8211; after the 12<Superscript>th</Superscript> and 24<Superscript>th</Superscript> scenarios &#8211; to keep them focused <TextLink reference="20"></TextLink>. All the clinical scenarios were written by an experienced physician. He formulated six of the scenarios based on typical medical situations that are generally considered suitable for undergraduate medical students in clinical environments. For example, the entrustment situation of blood sampling concerned drawing a daily blood sample in an internal medicine ward. In this scenario, the ward physician offers the student (participant) the opportunity to attend a gastroscopy instead of taking the sample. The participants then had to decide whether to entrust the task to a fellow student (the trustee). The six scenarios served as the basis for slight adaptations and variations to produce a total of 18 scenarios, which were each presented twice. All the scenarios were presented randomly and intended for the enforcement of an entrustment decision. </Pgraph><Pgraph>The trustees were represented by avatars. After each scenario, the participants viewed two 5-second videos of these avatars. To minimize potential distractions and help the participants focus on the avatars&#8217; facial expressions, only the avatars&#8217; heads were designed <TextLink reference="21"></TextLink>. The avatars were randomized in terms of gender, morphological features, and hairstyles. To test H2 and H3, the facial expressions were standardized across the avatars, which displayed either a DS or a neutral expression. The facial expressions were animated using FACSGen 2022 <TextLink reference="22"></TextLink>. FACSGen is software based on the Facial Action Coding System, which describes facial muscular movements as action units (AUs) <TextLink reference="23"></TextLink>. The main benefits of manipulation via AUs are clarity and reproducibility <TextLink reference="24"></TextLink>. We created the two expressions using the AUs shown in table 1 <ImgLink imgNo="1" imgType="table" />.</Pgraph><Pgraph>To meet the estimated statistical power (see Section 2.2), a total of 18 female and 18 male avatars were created. Each avatar was presented once with a DS and once with a neutral expression. Consequently, each participant provided 72 entrustment decisions (H2) and trustworthiness ratings (H3). After presenting the trustee as an avatar, the participants were asked whether they would entrust the medical task described in the scenario to the trustee (response options dichotomously: yes&#47;no). In addition, they rated the avatar trustee&#8217;s trustworthiness on a 4-point Likert scale ranging from 0 (not at all) to 3 (very). </Pgraph><SubHeadline2>2.1.3. Demographics</SubHeadline2><Pgraph>The participants provided their demographic data (gender, age, and semester) for the sample description.</Pgraph><SubHeadline>2.2. Sample </SubHeadline><Pgraph>We recruited 268 volunteer medical students (67.2&#37; female; age: n<Subscript>20&#8211;25y</Subscript>&#61;249; n<Subscript>&#62;26y</Subscript>&#61;19; semester: n<Subscript>2nd semester</Subscript>&#61;149, n<Subscript>4th semester</Subscript>&#61;116, n<Subscript>&#62;4</Subscript>&#61;3) from the second and fourth semesters, since the clinical scenarios were designed to be suitable for students from different semesters. At the beginning of the survey period, potential participants received an email invitation outlining the study&#8217;s aims, data protection measures, and details regarding compensation. A QR code that linked directly to the online survey was also included. The participants could take part in the study at any time and in any place using a digital device of their choice. The sample was therefore self-selected, and no further randomization took place. </Pgraph><Pgraph>To account for potential random effects of the participants and avatars in the subsequent mixed-model analyses, we conducted a simulation-based power analysis using the <Mark2>lme4</Mark2> and <Mark2>simr</Mark2> packages in R <TextLink reference="25"></TextLink>, <TextLink reference="26"></TextLink>. The model included 72 avatars per participant as repeated measures. This number was chosen for its practicality, as it allowed for an even split across the 36 entrustment narratives, the associated facial expressions, and the genders of the avatars. We had previously collected data from 26 participants. Based on this sample, the estimated statistical power was approximately 23&#37;. To determine the sample size needed to reliably detect the observed effect at a significance level of .05, we ran 1000 simulation analyses. These simulations indicated that, under the same assumptions, a sample size of about 200 participants would be required to achieve 80&#37; power. Random intercepts for both the participants and avatars were included in the model. This power analysis was based on the entrustment decisions, so the estimated sample size should be viewed as exploratory with regard to trustworthiness. </Pgraph><SubHeadline>2.3. Analyses</SubHeadline><Pgraph>For H1 (correlations between trustworthiness and entrustment), a partial Spearman correlation was conducted using the <Mark2>ppcor</Mark2> <TextLink reference="27"></TextLink>, package in R while controlling for the participants and avatars. The classification of effect strengths was based on the work of Cohen, with small&#61;.10, medium&#61;.30, and large&#61;.50 <TextLink reference="28"></TextLink>.</Pgraph><Pgraph>We tested H2 (dichotomous entrustment decision) using a logistic mixed-effects model with a binomial link. The initial H2-0 model included an overall intercept (&#946;<Subscript>0</Subscript>) and random intercepts for the participants (<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>) as well as the avatars (<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2>), where <Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2> and <Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2> included the genders of both the participants and avatars, respectively, to account for their inherent randomness, with no predictions added:</Pgraph><Pgraph><Indentation><Indentation>logit (&#929;(entrustment<Subscript>ij</Subscript>&#61;1))&#61;&#946;<Subscript>0</Subscript>&#43;<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>&#43;<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2></Indentation></Indentation></Pgraph><Pgraph>In the next model (H2-1), we added the facial expression as a fixed-effect predictor (&#946;<Subscript>1</Subscript> &#xB7; facial&#95;expression<Subscript>ij</Subscript>) to test whether the presence of a DS would influence the probability of a positive entrustment decision beyond the baseline participant and avatar randomness: </Pgraph><Pgraph><Indentation><Indentation>logit (&#929;(entrustment<Subscript>ij</Subscript>&#61;1))&#61;&#946;<Subscript>0</Subscript>&#43;&#946;<Subscript>1</Subscript> &#xB7; facial&#95;expression<Subscript>ij</Subscript>&#43;<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>&#43;<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2></Indentation></Indentation></Pgraph><Pgraph>For H3 (dimensional perceived trustworthiness), we estimated a cumulative link mixed-effects model with trustworthiness ratings as the dependent variable utilizing the ordinal <TextLink reference="29"></TextLink> package in R. For the H3 model, an overall intercept (&#946;<Subscript>0</Subscript>) and, again, random intercepts for the participants (<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>) and avatars (<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2>) were included. &#954; indexed the thresholds between the ordinal trustworthy categories. As before, facial expression (&#946;<Subscript>0</Subscript> &#xB7; facial&#95;expression<Subscript>ij</Subscript>) was included as a fixed effect to test whether the presence of a DS would influence trustworthiness ratings:</Pgraph><Pgraph><Indentation><Indentation>logit (&#929;(trustworthiness<Subscript>ij</Subscript>&#8804;&#922;))&#61;&#952;&#954;&#8211;(&#946;<Subscript>0</Subscript> &#xB7; facial&#95;expression<Subscript>ij</Subscript>&#43;<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>&#43;<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2>)</Indentation></Indentation></Pgraph></TextBlock>
    <TextBlock name="2. Methoden" linked="yes" language="de">
      <MainHeadline>2. Methoden</MainHeadline><SubHeadline>2.1. Design </SubHeadline><Pgraph>Die Studie wurde im Mai und Juni 2025 mit dem Online-Umfrage-Tool soSci Survey <TextLink reference="19"></TextLink> durchgef&#252;hrt und zuvor von der Ethikkommission der LMU M&#252;nchen als ethisch unbedenklich eingestuft (Projekt: 22-0367&#95;1). Die Studie nutzte das in Abbildung 1 <ImgLink imgNo="1" imgType="figure" /> dargestellte Within-Design.</Pgraph><SubHeadline2>2.1.1. Einf&#252;hrung</SubHeadline2><Pgraph>Zun&#228;chst erhielten die Teilnehmenden umfassende Informationen &#252;ber die Studie und den Datenschutz. Im Anschluss gaben sie ihre informierte Einwilligung und akzeptierten die Datenschutzerkl&#228;rung. Zuletzt lasen sie die standardisierte Instruktion zur Studie. </Pgraph><SubHeadline2>2.1.2. Medizinisches Ad-Hoc-Anvertrauensszenario</SubHeadline2><Pgraph>Den Teilnehmenden wurden 36 aufeinanderfolgende medizinische Ad-hoc-Anvertrauensszenarien als Texte in randomisierter Reihenfolge pr&#228;sentiert. Nach dem 12. sowie dem 24. Szenario wurde jeweils eine kurze Pause eingelegt, um die Konzentration aufrecht zu erhalten <TextLink reference="20"></TextLink>. Alle klinischen Szenarien wurden von einem erfahrenen Arzt verfasst. Zun&#228;chst wurden sechs Szenarien entwickelt, die auf typischen medizinischen Situationen basierten und gemeinhin als f&#252;r Medizinstudierende im klinischen Umfeld geeignet eingestuft wurden. Das Anvertrauensszenario &#8222;Blutentnahme&#8220; thematisierte beispielsweise die t&#228;glich Blutabnahme auf einer internistischen Station. In diesem Szenario bot der Stationsarzt den Medizinstudierenden (Teilnehmenden) an, alternativ an einer Gastroskopie teilzunehmen. Die Teilnehmenden mussten daraufhin entscheiden, ob sie die Blutentnahme an einen Mitstudierenden (Trustee) delegieren. Die sechs Ausgangsszenarien wurden geringf&#252;gig modifiziert, sodass insgesamt 18 Szenarien entstanden, die dann jeweils zweimal in randomisierter Reihenfolge pr&#228;sentiert wurden. Alle Szenarien zielten darauf ab, eine Anvertrauensentscheidung bei den Teilnehmenden zu induzieren. </Pgraph><Pgraph>Die Trustees wurden durch Avatare repr&#228;sentiert. Nach jedem Szenario sahen die Teilnehmenden zwei jeweils f&#252;nf Sekunden lange Videos der Avatare. Um potenzielle Ablenkungen zu minimieren und die Aufmerksamkeit gezielt auf die Gesichtsausdr&#252;cke der Avatare zu lenken, wurden nur die K&#246;pfe dargestellt <TextLink reference="21"></TextLink>. Die Avatare wurden hinsichtlich des Geschlechts, morphologischer Merkmale und Frisuren randomisiert. Zur &#220;berpr&#252;fung von H2 und H3 wurden die Gesichtsausdr&#252;cke der Avatare standardisiert, sodass sie entweder einen DL oder einen neutralen Gesichtsausdruck zeigten. Die Animation der Gesichtsausdr&#252;cke erfolgte mit der Software FACSGen 2022 <TextLink reference="22"></TextLink>. FACSGen basiert auf dem Facial Action Coding System, das Bewegungen der Gesichtsmuskulatur als Action Units (AUs) beschreibt <TextLink reference="23"></TextLink>. Die Modifikation &#252;ber AUs bietet insbesondere den Vorteil der Klarheit und Reproduzierbarkeit <TextLink reference="24"></TextLink>. Die beiden Gesichtsausdr&#252;cke wurden anhand der in Tabelle 1 <ImgLink imgNo="1" imgType="table" /> beschriebenen AUs erstellt.</Pgraph><Pgraph>Zur Sicherstellung der gesch&#228;tzten statistischen Power (siehe Abschnitt 2.2), wurden insgesamt 36 Avatare, jeweils 18 weibliche und 18 m&#228;nnliche generiert. Jeder Avatar wurde sowohl mit einem DL als auch mit einem neutralen Gesichtsausdruck pr&#228;sentiert. Folglich trafen die Teilnehmenden 72 Anvertrauensentscheidungen (H2) und bewerteten jeweils die Vertrauensw&#252;rdigkeit (H3): Nach jeder Pr&#228;sentation eines Avatar-Trustees wurden die Teilnehmenden zun&#228;chst gefragt, ob sie diesem die im Szenario beschriebene medizinische T&#228;tigkeit anvertrauen w&#252;rden (dichotome Antwortm&#246;glichkeit: ja&#47;nein). Anschlie&#223;end bewerteten sie die Vertrauensw&#252;rdigkeit des Avatar-Trustees auf einer 4-Punkte-Likert-Skala von 0 (&#252;berhaupt nicht) bis 3 (sehr).</Pgraph><SubHeadline2>2.1.3. Demographische Merkmale</SubHeadline2><Pgraph>Abschlie&#223;end gaben die Teilnehmenden ihre demografischen Daten (Geschlecht, Alter und Semester) f&#252;r die Beschreibung der Stichprobe an.</Pgraph><SubHeadline>2.2. Stichprobe </SubHeadline><Pgraph>Wir akquirierten 268 Medizinstudierende (67,2&#37; weiblich; Alter: n<Subscript>20&#8211;25Jahre</Subscript>&#61;249; n<Subscript>&#62;26Jahre</Subscript>&#61;19; Semester: n<Subscript>2.Semester</Subscript>&#61;149, n<Subscript>4.Semester</Subscript>&#61;116, n<Subscript>&#62;4</Subscript>&#61;3) aus dem zweiten und vierten Semester, da die klinischen Szenarien so konzipiert wurden, dass sie f&#252;r Studierende unterschiedlicher Semester geeignet waren. Zu Beginn des Erhebungszeitraums erhielten potenzielle Teilnehmende eine Einladung per E-Mail, in der die Studienziele, Datenschutzma&#223;nahmen und Details zur Verg&#252;tung dargelegt wurden. Zus&#228;tzlich war ein QR-Code inkludiert, der direkt zur Online-Umfrage f&#252;hrte. Die Studierenden konnten jederzeit und von jedem Ort aus mit einem beliebigen digitalen Endger&#228;t an der Studie teilnehmen. Die Stichprobe stellt somit eine Selbstselektion dar, eine weitere Randomisierung erfolgte nicht. </Pgraph><Pgraph>Um potenzielle Random Intercepts der Teilnehmenden und Avatare in den nachfolgenden Mixed-Model-Analysen zu ber&#252;cksichtigen, f&#252;hrten wir eine simulationsbasierte Power-Analyse mit den R-Paketen <Mark2>lme4</Mark2> und <Mark2>simr</Mark2> durch <TextLink reference="25"></TextLink>, <TextLink reference="26"></TextLink>. Das Modell ber&#252;cksichtigte f&#252;r jeden Teilnehmenden 72 Avatare als wiederholte Messungen. Diese Anzahl wurde aus praktischen Gr&#252;nden gew&#228;hlt, da sie eine gleichm&#228;&#223;ige Aufteilung auf die 36 Anvertrauensszenarien, die zugeh&#246;rigen Gesichtsausdr&#252;cke sowie die Geschlechter der Avatare erm&#246;glichte. Zuvor hatten wir Daten von 26 Teilnehmenden erhoben. F&#252;r diese Stichprobe wurde die statistische Power auf etwa 23&#37; gesch&#228;tzt. Um die erforderliche Stichprobengr&#246;&#223;e zu bestimmen, mit der sich der beobachtete Effekt bei einem Signifikanzniveau von .05 zuverl&#228;ssig nachweisen l&#228;sst, f&#252;hrten wir 1000 Simulationsanalysen durch. Die Simulationen ergaben, dass unter den gleichen Annahmen eine Stichprobengr&#246;&#223;e von etwa 200 Teilnehmenden notwendig w&#228;re, um eine Testst&#228;rke von 80&#37; zu erreichen. Im Modell wurden dabei die Random Intercepts der Teilnehmenden sowie der Avatare ber&#252;cksichtigt. Da diese Power-Analyse auf den Anvertrauensentscheidungen basierte, ist die gesch&#228;tzte Stichprobengr&#246;&#223;e im Hinblick auf die Vertrauensw&#252;rdigkeitsbewertungen als explorativ einzuordnen. </Pgraph><SubHeadline>2.3. Analysen</SubHeadline><Pgraph>F&#252;r H1 (Korrelationen zwischen Vertrauensw&#252;rdigkeit und Anvertrauen) wurde eine partielle Spearman-Korrelation mithilfe des R-Pakets <Mark2>ppcor</Mark2> <TextLink reference="27"></TextLink> durchgef&#252;hrt, wobei die Effekte der Teilnehmenden und Avatare kontrolliert wurden. Die Klassifizierung der Effektst&#228;rken basierte auf Cohen: klein&#61;.10, mittel&#61;.30 und gro&#223;&#61;.50 <TextLink reference="28"></TextLink>.</Pgraph><Pgraph>H2 (dichotome Anvertrauensentscheidung) wurde mittels eines logistischen Mixed-Effect-Models mit logit-Link getestet. Das initiale H2-0 Modell beinhaltete einen Gesamtintercept (&#946;<Subscript>0</Subscript>) sowie zuf&#228;llige Intercepts f&#252;r die Teilnehmenden (<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>) und die Avatare (<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2>). Dabei ber&#252;cksichtigen <Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2> und <Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2> jeweils das Geschlecht der Teilnehmenden bzw. der Avatare, um deren inh&#228;rente Variabilit&#228;t abzubilden, ohne zus&#228;tzliche Pr&#228;diktoren einzubeziehen:</Pgraph><Pgraph><Indentation><Indentation>logit (&#929;(Anvertrauen<Subscript>ij</Subscript>&#61;1))&#61;&#946;<Subscript>0</Subscript>&#43;<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>&#43;<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2></Indentation></Indentation></Pgraph><Pgraph>Im n&#228;chsten Modell (H2-1) wurde der Gesichtsausdruck als Pr&#228;diktor mit fixem Effekt (&#946;<Subscript>1</Subscript> &#xB7; Gesichtsausdruck<Subscript>ij</Subscript>) hinzugef&#252;gt, um zu pr&#252;fen, ob das Vorhandensein eines DL die Wahrscheinlichkeit einer positiven Anvertrauensentscheidung &#252;ber die zuf&#228;llige Grundvariabilit&#228;t von Teilnehmenden und Avataren hinaus beeinflusst: </Pgraph><Pgraph><Indentation><Indentation>logit (&#929;(Anvertrauen<Subscript>ij</Subscript>&#61;1))&#61;&#946;<Subscript>0</Subscript>&#43;&#946;<Subscript>1</Subscript> &#xB7; Gesichtsausdruck<Subscript>ij</Subscript>&#43;<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>&#43;<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2></Indentation></Indentation></Pgraph><Pgraph>F&#252;r H3 (dimensionale wahrgenommene Vertrauensw&#252;rdigkeit) wurde ein kumulatives Mixed-Effect-Model mit der Einsch&#228;tzung der Vertrauensw&#252;rdigkeit als abh&#228;ngige Variable verwendet. Die Umsetzung erfolgte mithilfe des <Mark2>ordinal</Mark2> <TextLink reference="29"></TextLink> R-Pakets. Das H3 Modell umfasste einen Gesamtintercept (&#946;<Subscript>0</Subscript>) sowie erneut zuf&#228;llige Intercepts f&#252;r die Teilnehmenden (<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>) und Avatare (<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2>). k indizierte die Schwellenwerte zwischen den ordinalen Abstufungen der Vertrauensw&#252;rdigkeit. Wie zuvor wurde der Gesichtsausdruck (&#946;<Subscript>0</Subscript> &#xB7; Gesichtsausdruck<Subscript>ij</Subscript>) als fixer Effekt in das Modell aufgenommen, um zu testen, ob das Vorhandensein eines DL die Bewertungen der Vertrauensw&#252;rdigkeit beeinflusst:</Pgraph><Pgraph><Indentation><Indentation>logit (&#929;(Vertrauensw&#252;rdigkeit<Subscript>ij</Subscript>&#8804;&#954;))&#61;&#952;&#954;&#8211;(&#946;<Subscript>0</Subscript> &#xB7; Gesichtsausdruck<Subscript>ij</Subscript>&#43;<Mark2>u</Mark2><Mark2><Subscript>0i</Subscript></Mark2>&#43;<Mark2>v</Mark2><Mark2><Subscript>0j</Subscript></Mark2>)</Indentation></Indentation></Pgraph></TextBlock>
    <TextBlock name="3. Results" linked="yes" language="en">
      <MainHeadline>3. Results</MainHeadline><Pgraph>The medical students&#8217; overall positive entrustment decisions for the avatar trustees varied from 0 to 72 (max. possible: 72), with a median of 40 (IQR&#61;20.0). The overall perceived trustworthiness varied between 0 and 3, with a median of 1.66 (IQR&#61;.56). </Pgraph><SubHeadline>3.1. Relationship between entrustment and trustworthiness </SubHeadline><Pgraph>Regarding H1, trustworthiness was positively asociated with entrustment (<Mark2>&#961;</Mark2>&#61;.55, <Mark2>p</Mark2>&#60;.001). As shown in figure 2 <ImgLink imgNo="2" imgType="figure" />, the majority of the trustees simulated by avatars were perceived as quite trustworthy, which coincided with more positive entrustment decisions (shown in yellow). The same pattern held for the &#8220;very&#8221; trustworthy label. In contrast, the negative end of the trustworthiness scale showed the reverse pattern, with lower trustworthiness ratings associated with lower entrustment. </Pgraph><SubHeadline>3.2. Entrustment </SubHeadline><Pgraph>In terms of H2, for the H2-0 model (without predictors), the intercept was 1.29, and the intercept variance was at .002, which indicated a higher probability of a positive entrustment decision. The results for the H2-1 model are presented in table 2 <ImgLink imgNo="2" imgType="table" /> and illustrated in figure 3 <ImgLink imgNo="3" imgType="figure" />. When testing facial expression as a predictor, H2 was not supported &#8211; a DS did not increase the likelihood of positive entrustment, as indicated by an (OR) of 1.01 (95&#37; CI &#91;0.95&#8211;1.07&#93;, <Mark2>p</Mark2>&#61;.796). The participants had randomly varying entrustment behaviors (&#964;<Subscript>00participant</Subscript>&#61;1.68), whereas the avatars did not cause any random effects (&#964;<Subscript>00avatar</Subscript>&#61;0.00). </Pgraph><SubHeadline>3.3. Trustworthiness</SubHeadline><Pgraph>When testing facial expression as a predictor, H3 was not supported &#8211; a DS did not increase the assessed trustworthiness positively, as indicated by an OR of 0.97 (95&#37; CI &#91;0.92&#8211;1.02&#93;, <Mark2>p</Mark2>&#61;.274). Once again, the participants had randomly varying assessments of trustworthiness (&#964;<Subscript>00participant</Subscript>&#61;0.90), whereas the avatars did not cause any random effects (&#964;<Subscript>00avatar</Subscript>&#61;0.00). The conditional Pseudo-R<Superscript>2</Superscript> (0.215) showed that only a small portion of the overall variance in the assessed trustworthiness could be explained by the fixed and random effects that were included in this model. The results for H3 are presented in table 3 <ImgLink imgNo="3" imgType="table" /> and illustrated in figure 4 <ImgLink imgNo="4" imgType="figure" />.</Pgraph></TextBlock>
    <TextBlock name="3. Ergebnisse" linked="yes" language="de">
      <MainHeadline>3. Ergebnisse</MainHeadline><Pgraph>Die Anzahl der positiven Anvertrauensentscheidungen der Medizinstudierenden gegen&#252;ber den Avatar-Trustees variierten zwischen 0 und 72 (max. m&#246;glich: 72), mit einem Median von 40 (IQR&#61;20.0). Die wahrgenommene Vertrauensw&#252;rdigkeit variierte zwischen 0 und 3, mit einem Median von 1.66 (IQR&#61;.56). </Pgraph><SubHeadline>3.1. Zusammenhang zwischen Vertrauensw&#252;rdigkeit und Anvertrauen </SubHeadline><Pgraph>F&#252;r H1 zeigte sich ein positiver Zusammenhang zwischen Vertrauensw&#252;rdigkeit und Anvertrauen (<Mark2>&#961;</Mark2>&#61;.55, <Mark2>p</Mark2>&#60;.001). Wie in Abbildung 2 <ImgLink imgNo="2" imgType="figure" /> dargestellt, wurden die meisten Avatar-Trustees als ziemlich vertrauensw&#252;rdig wahrgenommen, was mit mehr positiven Anvertrauensentscheidungen (in Gelb dargestellt) einherging. Ein &#228;hnliches Muster zeigte sich f&#252;r die Kategorie &#8222;sehr vertrauensw&#252;rdig&#8220;. Am unteren Ende der Vertrauensw&#252;rdigkeitsskala war es hingegen umgekehrt: Niedrigere Bewertungen der Vertrauensw&#252;rdigkeit gingen mit einem geringeren Anvertrauen einher.</Pgraph><SubHeadline>3.2. Anvertrauen </SubHeadline><Pgraph>F&#252;r H2 ergab das H2-0 Modell (ohne Pr&#228;diktoren) einen Intercept von 1.29 und eine Intercept-Varianz von .002, was auf eine generell h&#246;here Wahrscheinlichkeit einer positiven Anvertrauensentscheidung hinwies. Die Ergebnisse des H2-1 Modells sind in Tabelle 2 <ImgLink imgNo="2" imgType="table" /> dargestellt und in Abbildung 3 <ImgLink imgNo="3" imgType="figure" /> veranschaulicht. Bei der &#220;berpr&#252;fung des Gesichtsausdrucks als Pr&#228;diktor konnte H2 nicht best&#228;tigt werden: Ein DL erh&#246;hte die Wahrscheinlichkeit einer positiven Anvertrauensentscheidung nicht (OR&#61;1.01 (95&#37; CI &#91;0.95&#8211;1.07&#93;, <Mark2>p</Mark2>&#61;.796). Zuletzt variierten die Anvertrauensentscheidungen der Teilnehmenden zuf&#228;llig (&#964;<Subscript>00Teilnehmenden</Subscript>&#61;1.68), w&#228;hrend die Avatare keine zuf&#228;lligen Effekte verursachten (&#964;<Subscript>00Avatare</Subscript>&#61;0.00). </Pgraph><SubHeadline>3.3. Vertrauensw&#252;rdigkeit</SubHeadline><Pgraph>Bei der &#220;berpr&#252;fung des Gesichtsausdrucks als Pr&#228;diktor wurde H3 nicht best&#228;tigt: Ein DL erh&#246;ht die wahrgenommene Vertrauensw&#252;rdigkeit nicht (OR&#61;0.97 (95&#37; CI &#91;0.92&#8211;1.02&#93;, <Mark2>p</Mark2>&#61;.274). Die Teilnehmenden zeigten erneut eine zuf&#228;llige Varianz in ihrer Bewertung der Vertrauensw&#252;rdigkeit (&#964;<Subscript>00Teilnehmenden</Subscript>&#61;0.90), wohingegen die Avatare keine zuf&#228;lligen Effekte verursachten (&#964;<Subscript>00Avatare</Subscript>&#61;0.00). Das bedingte Pseudo-R2 (0.215) deutet darauf hin, dass nur ein kleiner Teil der Gesamtvarianz der Bewertungen der Vertrauensw&#252;rdigkeit, durch die in diesem Modell ber&#252;cksichtigten, festen und zuf&#228;lligen Effekte erkl&#228;rt wird. Die Ergebnisse f&#252;r H3 sind in Tabelle 3 <ImgLink imgNo="3" imgType="table" /> dargestellt und in Abbildung 4 <ImgLink imgNo="4" imgType="figure" /> veranschaulicht.</Pgraph></TextBlock>
    <TextBlock name="4. Discussion" linked="yes" language="en">
      <MainHeadline>4. Discussion</MainHeadline><Pgraph>In this study, we examined how different types of facial expressions (DS, neutral) &#8211; as one indicator for non-verbal first impressions &#8211; influence entrustment and the perception of trustworthiness in another person in the context of ad hoc medical entrustment decisions. First, we found that higher trustworthiness of a simulated trustee was positively correlated with ad hoc entrustment. This finding extends the widely accepted understanding that people can only entrust someone if they consider the person trustworthy <TextLink reference="2"></TextLink>, <TextLink reference="30"></TextLink>. This assessment of entrustment and trustworthiness is a crucial factor in thorough EPA evaluations <TextLink reference="31"></TextLink>, <TextLink reference="32"></TextLink>. Furthermore, trustworthiness may be especially important when supervisors need to make ad hoc entrustment decisions in medical settings <TextLink reference="33"></TextLink>.</Pgraph><Pgraph>Second, we did not find support for H2 and H3, as a DS had no impact on entrustment and trustworthiness. Although the positive influence of a DS is indicated in other contexts <TextLink reference="14"></TextLink>, <TextLink reference="34"></TextLink>, we were unable to replicate these effects in this study. This may be due to the highly context-sensitive nature of trust in medical settings. As Holzhausen noted, entrustment in clinical contexts often means assigning tasks and responsibilities, which is an inherently risky process <TextLink reference="35"></TextLink>. Contextual variability in medical settings is recognized as a potential determinant of trustors&#8217; entrustment decisions <TextLink reference="36"></TextLink>, <TextLink reference="37"></TextLink>. The trustor must therefore take context-specific factors, such as patient safety, time pressure, and personnel resources, into account to make informed decisions <TextLink reference="35"></TextLink>. In conclusion, the context of a clinical scenario could influence ad hoc entrustment and perceived trustworthiness. </Pgraph><Pgraph>The limitations of this study included the self-selection inherent in the sample and the choice of avatars. Given the current rapid development of human-like avatars, more realistic-looking avatars, such as Epic Game&#8217;s MetaHumans <TextLink reference="38"></TextLink>, are available, but restrictions on compatibility are present in the FACS system. This limited the potential of reproducibility and the standardization of the facial expressions <TextLink reference="24"></TextLink> we were able to apply with our choice of avatars. Additionally, far more observable indicators of real first impressions (confidence in appearance, tone of voice) <TextLink reference="39"></TextLink>, <TextLink reference="40"></TextLink>, are available beyond DS or a neutral facial expression. Lastly, we did not investigate the extent to which sympathy for the different avatars played a role. The absence of random effects due to the avatars, however, suggests that sympathy was unlikely to play a major role.</Pgraph></TextBlock>
    <TextBlock name="4. Diskussion" linked="yes" language="de">
      <MainHeadline>4. Diskussion</MainHeadline><Pgraph>In der vorliegenden Studie wurde untersucht, wie unterschiedliche Gesichtsausdr&#252;cke (DL, neutral) eines simulierten Trustees &#8211; als ein Indikator des nonverbalen ersten Eindrucks &#8211; die Anvertrauensentscheidungen sowie die Wahrnehmung von Vertrauensw&#252;rdigkeit des Trustors im Kontext einer medizinischen Ad-hoc-Anvertrauensentscheidungen beeinflussen. Zun&#228;chst zeigte sich, dass eine h&#246;here Vertrauensw&#252;rdigkeit positiv mit dem Ad-hoc-Anvertrauen korrelierte. Dieser Befund erweitert das allgemein akzeptierte Verst&#228;ndnis, dass Menschen Aufgaben eher delegieren, wenn sie den Trustee f&#252;r vertrauensw&#252;rdig halten <TextLink reference="2"></TextLink>, <TextLink reference="30"></TextLink>. Die Wahrnehmung und Bewertung von Vertrauensw&#252;rdigkeit und Anvertrauen ist gerade im Rahmen fundierter EPA-Entscheidungen wichtig <TextLink reference="31"></TextLink>, <TextLink reference="32"></TextLink>. Dar&#252;ber hinaus kann die wahrgenommen Vertrauensw&#252;rdigkeit insbesondere relevant sein, wenn klinische Ausbilder&#42;innen Ad-hoc-Anvertrauensentscheidungen treffen m&#252;ssen <TextLink reference="33"></TextLink>.</Pgraph><Pgraph>Zweitens konnten H2 und H3 nicht best&#228;tigt werden, da ein DL weder Anvertrauen noch Vertrauensw&#252;rdigkeit positiv beeinflusste. W&#228;hrend dieser Effekt eines DL in anderen Kontexten nachgewiesen wurde <TextLink reference="14"></TextLink>, <TextLink reference="34"></TextLink>, konnten wir ihn in der vorliegenden Studie nicht replizieren. Dies k&#246;nnte auf die stark kontextsensitive Natur von Vertrauen im medizinischen Umfeld zur&#252;ckzuf&#252;hren sein. Wie Holzhausen beschreibt, bedeutet Anvertrauen im klinischen Kontext oft die &#220;bertragung von Aufgaben und Verantwortung, ein per se risikobehafteter Prozess <TextLink reference="35"></TextLink>. Zudem wird die Kontextvariabilit&#228;t in medizinischen Settings als potenzielle Determinante f&#252;r die Anvertrauensentscheidungen eines Trustors anerkannt <TextLink reference="36"></TextLink>, <TextLink reference="37"></TextLink>. Der Trustor muss demnach kontextspezifische Faktoren wie Patientensicherheit, Zeitdruck und personelle Ressourcen ber&#252;cksichtigen, um fundierte Entscheidungen zu treffen <TextLink reference="35"></TextLink>. Zusammenfassend untermauern unsere Ergebnisse, dass der Kontext in klinischen Szenarien sowohl Ad-hoc-Anvertrauen als auch die wahrgenommene Vertrauensw&#252;rdigkeit beeinflussen k&#246;nnte. </Pgraph><Pgraph>Zu den Limitationen dieser Studie z&#228;hlen die Selbstselektion der Stichprobe sowie die Auswahl der Avatare. Angesichts der derzeit rasanten Entwicklung menschen&#228;hnlicher Avatare sind zwar realistischere Modelle wie die MetaHumans von Epic Games <TextLink reference="38"></TextLink> verf&#252;gbar, jedoch bestehen Einschr&#228;nkungen hinsichtlich der Kompatibilit&#228;t mit dem FACS-System. Dies begrenzt das Potenzial zur Reproduzierbarkeit und Standardisierung der Gesichtsausdr&#252;cke <TextLink reference="24"></TextLink>, die wir mit unserer Auswahl an Avataren gew&#228;hrleisten konnten. Dar&#252;ber hinaus existieren weit mehr beobachtbare Indikatoren f&#252;r reale Ersteindr&#252;cke (selbstsicheres Auftreten, Tonfall) <TextLink reference="39"></TextLink>, <TextLink reference="40"></TextLink>, die &#252;ber DL oder einen neutralen Gesichtsausdruck hinausgehen. Schlie&#223;lich wurde nicht untersucht, inwieweit Sympathie f&#252;r die verschiedenen Avatare eine Rolle spielte. Das Fehlen von zuf&#228;lligen Effekten seitens der Avatare deutet jedoch darauf hin, dass Sympathie vermutlich keinen wesentlichen Einfluss hatte. </Pgraph></TextBlock>
    <TextBlock name="5. Conclusion" linked="yes" language="en">
      <MainHeadline>5. Conclusion</MainHeadline><Pgraph>In this online study with its highly simulated setting, we found trustworthiness was linked to entrustment. Our findings therefore support those of previous studies on trustworthiness as the person-related prerequisite for an entrustment decision. When the avatars were tested in our sample of medical students, the students&#8217; internalized patterns regarding the DS did not influence their entrustment decisions in the first impression situations. This suggests that in ad hoc medical entrustment scenarios, factors such as context or other aspects of a trustee&#8217;s first impression may shape trustors&#8217; decisions. Future research could focus on exploring the influence of these other factors of non-verbal first impressions on ad hoc entrustment decisions in relation to EPAs in medical education.</Pgraph></TextBlock>
    <TextBlock name="5. Schlussfolgerung" linked="yes" language="de">
      <MainHeadline>5. Schlussfolgerung</MainHeadline><Pgraph>In dieser Online-Studie mit einem hochgradig simulierten Setting zeigte sich ein Zusammenhang zwischen Vertrauensw&#252;rdigkeit und Anvertrauen. Unsere Ergebnisse st&#252;tzen somit Befunde fr&#252;herer Studien, die Vertrauensw&#252;rdigkeit als Voraussetzung f&#252;r Anvertrauen identifizieren. Ein DL des gezeigten Avatars hatte jedoch (entgegen gegeben falls internalisierter Muster seitens des Trustors) keinen Einfluss auf die Anvertrauensentscheidung der Medizinstudierenden in den gepr&#252;ften Ersteindruckssituationen. Dies unterstreicht, dass in medizinischen Ad-hoc-Anvertrauenssituationen Faktoren wie der Kontext oder andere Aspekte des ersten Eindrucks eines Trustees die Entscheidungen des Trustors beeinflussen k&#246;nnen. Zuk&#252;nftige Forschung sollte den Einfluss zus&#228;tzlicher Faktoren nonverbaler Ersteindr&#252;cke auf Ad-hoc-Anvertrauensentscheidungen im Kontext von EPAs in der medizinischen Ausbildung systematisch untersuchen.</Pgraph></TextBlock>
    <TextBlock name="Notes" linked="yes" language="en">
      <MainHeadline>Notes</MainHeadline><SubHeadline>Author contributions</SubHeadline><Pgraph><UnorderedList><ListItem level="1"><Mark2>Moritz Bauermann</Mark2> made significant contributions to the conceptualization of the study design and methodology, acquisition of the participants, investigation, implementation of the data analyses and evaluation, visualization, writing (first draft and editing), and incorporation of feedback.</ListItem><ListItem level="1"><Mark2>Ann-Kathrin Schindler</Mark2> made significant contributions to the conceptualization of the study design and methodology and contributed considerably to the data analyses and evaluation, writing (review and feedback), and funding acquisition.</ListItem><ListItem level="1"><Mark2>Marco Kuchenbauer</Mark2> made significant contributions to the data analyses and evaluation and writing (review and feedback).</ListItem><ListItem level="1"><Mark2>Jasmin R&#252;hl</Mark2> made significant contributions to the conceptualization of the study design and methodology and contributed considerably to the data analyses and evaluation and writing (review and feedback).</ListItem><ListItem level="1"><Mark2>Patrick Reinert</Mark2> made significant contributions to the conceptualization of the study design and methodology and contributed considerably to the data analyses and evaluation and writing (review and feedback).</ListItem><ListItem level="1"><Mark2>Miriam Kunz </Mark2>made significant contributions to the conceptualization of the study design and methodology, the data analyses and evaluation, writing (review and feedback), and funding acquisition. </ListItem><ListItem level="1"><Mark2>Sarah Friedrich-Welz</Mark2> made significant contributions to the conceptualization of the study design and methodology, data analyses and evaluation, and writing (review and feedback).</ListItem><ListItem level="1"><Mark2>Elisabeth Andr&#233;</Mark2> made significant contributions to the writing and reviewing of the manuscript as well as the acquisition of funding. </ListItem><ListItem level="1"><Mark2>Thomas Rotthoff </Mark2>made significant contributions to the conceptualization of the study design and methodology, data analyses and evaluation, creation of the clinical scenarios, writing (review and feedback), supervision, and funding acquisition.</ListItem></UnorderedList></Pgraph><SubHeadline>Authors&#8217; ORCIDs</SubHeadline><Pgraph><UnorderedList><ListItem level="1">Moritz Bauermann: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0009-0000-5786-0149">0009-0000-5786-0149</Hyperlink>&#93;</ListItem><ListItem level="1">Ann-Kathrin Schindler: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-2293-2357">0000-0002-2293-2357</Hyperlink>&#93;</ListItem><ListItem level="1">Marco Kuchenbaur: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-0280-1541">0000-0003-0280-1541</Hyperlink>&#93;</ListItem><ListItem level="1">Jasmin R&#252;hl: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-1721-0640">0000-0002-1721-0640</Hyperlink>&#93;</ListItem><ListItem level="1">Miriam Kunz: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-0740-6738">0000-0002-0740-6738</Hyperlink>&#93;</ListItem><ListItem level="1">Sarah Friedrich: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-0291-4378">0000-0003-0291-4378</Hyperlink>&#93;</ListItem><ListItem level="1">Elisabeth Andr&#233;: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-2367-162X">0000-0002-2367-162X</Hyperlink>&#93;</ListItem><ListItem level="1">Thomas Rotthoff: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-5171-5941">0000-0002-5171-5941</Hyperlink>&#93;</ListItem></UnorderedList></Pgraph><SubHeadline>Ethical approval and consent to participate</SubHeadline><Pgraph>The Ethics Committee of the Medical Faculty, LMU Munich, approved this study as ethically sound (Project: 22-0367&#95;1). The methods applied in this study adhered to the principles of the Declaration of Helsinki.</Pgraph><Pgraph>Prior to conducting the study, all the participants were informed about the study&#8217;s intent and data security. They subsequently gave their informed consent and accepted a data protection waiver. </Pgraph><SubHeadline>Consent for publication</SubHeadline><Pgraph>The data protection waiver also included consent for publication.</Pgraph><SubHeadline>Availability of the data and materials</SubHeadline><Pgraph>The datasets used and&#47;or analyzed during the study are available from the corresponding author on reasonable request. </Pgraph></TextBlock>
    <TextBlock name="Anmerkungen" linked="yes" language="de">
      <MainHeadline>Anmerkungen</MainHeadline><SubHeadline>Beitr&#228;ge der Autor&#42;innen</SubHeadline><Pgraph><UnorderedList><ListItem level="1"><Mark2>Moritz Bauermann </Mark2>leistete wesentliche Beitr&#228;ge zur Konzeption des Studiendesigns und der Methodik, zur Gewinnung der Teilnehmenden, zur Untersuchung, zur Durchf&#252;hrung der Datenanalysen und -auswertung, zur Visualisierung, zum Verfassen des Manuskripts (Erstentwurf und &#220;berarbeitung) sowie zur Einarbeitung von Feedback.</ListItem><ListItem level="1"><Mark2>Ann-Kathrin Schindler</Mark2> leistete wesentliche Beitr&#228;ge zur Konzeption des Studiendesigns und der Methodik und trug ma&#223;geblich zur Datenanalyse und -auswertung, zum Verfassen des Manuskripts (Review und Feedback) sowie zur Akquise von F&#246;rdermitteln bei.</ListItem><ListItem level="1"><Mark2>Marco Kuchenbaur</Mark2> leistete wesentliche Beitr&#228;ge zur Datenanalyse und -auswertung und trug ma&#223;geblich zum Verfassen des Manuskripts (Review und Feedback) bei.</ListItem><ListItem level="1"><Mark2>Jasmin R&#252;hl</Mark2> leistete wesentliche Beitr&#228;ge zur Konzeption des Studiendesigns und der Methodik und trug ma&#223;geblich zur Datenanalyse und -auswertung sowie zum Verfassen des Manuskripts (Review und Feedback) bei.</ListItem><ListItem level="1"><Mark2>Patrick Reinert</Mark2> leistete wesentliche Beitr&#228;ge zur Konzeption des Studiendesigns und der Methodik und trug ma&#223;geblich zur Datenanalyse und -auswertung sowie zum Verfassen des Manuskripts (Review und Feedback) bei.</ListItem><ListItem level="1"><Mark2>Miriam Kunz</Mark2> leistete wesentliche Beitr&#228;ge zur Konzeption des Studiendesigns und der Methodik, und trug ma&#223;geblich zur Datenanalyse und -auswertung, zum Verfassen des Manuskripts (Review und Feedback) sowie zur Akquise von F&#246;rdermitteln bei.</ListItem><ListItem level="1"><Mark2>Sarah Friedrich-Welz</Mark2> leistete wesentliche Beitr&#228;ge zur Konzeption des Studiendesigns und der Methodik, und trug ma&#223;geblich zur Datenanalyse und -auswertung sowie zum Verfassen des Manuskripts (Review und Feedback) bei.</ListItem><ListItem level="1"><Mark2>Elisabeth Andr&#233;</Mark2> leistete wesentliche Beitr&#228;ge zum Verfassen des Manuskripts (Review und Feedback) und trug ma&#223;geblich zur Akquise von F&#246;rdermitteln bei. </ListItem><ListItem level="1"><Mark2>Thomas Rotthoff</Mark2> leistete wesentliche Beitr&#228;ge zur Konzeption des Studiendesigns und der Methodik, und trug ma&#223;geblich zur Datenanalyse und -auswertung, zur Erstellung der klinischen Szenarien, zum Verfassen des Manuskripts (Review und Feedback), sowie zur Supervision und zur Akquise von F&#246;rdermitteln bei.</ListItem></UnorderedList></Pgraph><SubHeadline>ORCIDs der Autor&#42;innen</SubHeadline><Pgraph><UnorderedList><ListItem level="1">Moritz Bauermann: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0009-0000-5786-0149">0009-0000-5786-0149</Hyperlink>&#93;</ListItem><ListItem level="1">Ann-Kathrin Schindler: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-2293-2357">0000-0002-2293-2357</Hyperlink>&#93;</ListItem><ListItem level="1">Marco Kuchenbaur: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-0280-1541">0000-0003-0280-1541</Hyperlink>&#93;</ListItem><ListItem level="1">Jasmin R&#252;hl: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-1721-0640">0000-0002-1721-0640</Hyperlink>&#93;</ListItem><ListItem level="1">Miriam Kunz: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-0740-6738">0000-0002-0740-6738</Hyperlink>&#93;</ListItem><ListItem level="1">Sarah Friedrich: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0003-0291-4378">0000-0003-0291-4378</Hyperlink>&#93;</ListItem><ListItem level="1">Elisabeth Andr&#233;: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-2367-162X">0000-0002-2367-162X</Hyperlink>&#93;</ListItem><ListItem level="1">Thomas Rotthoff: &#91;<Hyperlink href="https:&#47;&#47;orcid.org&#47;0000-0002-5171-5941">0000-0002-5171-5941</Hyperlink>&#93;</ListItem></UnorderedList></Pgraph><SubHeadline>Ethikvotum und Einwilligung zur Teilnahme</SubHeadline><Pgraph>Die Ethikkommission der Medizinischen Fakult&#228;t der LMU M&#252;nchen votierte die Studie als ethisch unbedenklich (Projekt: 22-0367 &#95;1). Die in dieser Studie angewandten Methoden entsprachen den Grunds&#228;tzen der Deklaration von Helsinki.</Pgraph><Pgraph>Vor Beginn der Datenerhebung wurden alle Teilnehmenden &#252;ber Zielsetzung der Studie sowie &#252;ber die geltenden Datenschutzbestimmungen informiert. Anschlie&#223;end gaben sie ihre informierte Einwilligung und best&#228;tigten eine Datenschutzerkl&#228;rung. </Pgraph><SubHeadline>Einwilligung zur Ver&#246;ffentlichung</SubHeadline><Pgraph>Die Datenschutzerkl&#228;rung beinhaltete auch die Einwilligung zur Ver&#246;ffentlichung.</Pgraph><SubHeadline>Verf&#252;gbarkeit der Daten und Materialien</SubHeadline><Pgraph>Die im Zuge der Studie verwendeten und&#47;oder analysierten Datens&#228;tze sind auf begr&#252;ndete Anfrage beim korrespondierenden Autor erh&#228;ltlich. </Pgraph></TextBlock>
    <TextBlock name="Funding" linked="yes" language="en">
      <MainHeadline>Funding</MainHeadline><Pgraph>This work was funded by the project &#8220;Facilitating Competence Development through Digital Authentic, and Feedback-Based Learning Scenarios &#8211; KodiLL&#8221; by Stiftung Innovation in der Hochschullehre (FBM2020-262&#47;2021).</Pgraph></TextBlock>
    <TextBlock name="F&#246;rderung" linked="yes" language="de">
      <MainHeadline>F&#246;rderung</MainHeadline><Pgraph>Diese Arbeit wurde durch das Projekt &#8222;Kompetenzentwicklung durch authentische, digitale und feedbackbasierte Lehr-Lernszenarien st&#228;rken &#8211; KodiLL&#8221; der Stiftung Innovation in der Hochschullehre (FBM2020-262&#47;2021) finanziert.</Pgraph></TextBlock>
    <TextBlock name="Acknowledgements" linked="yes" language="en">
      <MainHeadline>Acknowledgements</MainHeadline><Pgraph>We would like to sincerely thank all the participating students for their contributions.</Pgraph></TextBlock>
    <TextBlock name="Danksagung" linked="yes" language="de">
      <MainHeadline>Danksagung</MainHeadline><Pgraph>Wir danken allen Studierenden ausdr&#252;cklich f&#252;r ihre Teilnahme. </Pgraph></TextBlock>
    <TextBlock name="Competing interests" linked="yes" language="en">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests. </Pgraph></TextBlock>
    <TextBlock name="Interessenkonflikt" linked="yes" language="de">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autor&#42;innen erkl&#228;ren, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Monteux S</RefAuthor>
        <RefAuthor>Monteux A</RefAuthor>
        <RefTitle>Human encounters: The core of everyday care practice</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Int J Soc Pedagogy</RefJournal>
        <RefPage>15</RefPage>
        <RefTotal>Monteux S, Monteux A. Human encounters: The core of everyday care practice. Int J Soc Pedagogy. 2020;9(1):15. DOI: 10.14324&#47;111.444.ijsp.2020.v9.x.015</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.14324&#47;111.444.ijsp.2020.v9.x.015</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Mayer RC</RefAuthor>
        <RefAuthor>Davis JH</RefAuthor>
        <RefAuthor>Schoorman FD</RefAuthor>
        <RefTitle>An integrative model of organizational trust</RefTitle>
        <RefYear>1995</RefYear>
        <RefJournal>Acad Manage Rev</RefJournal>
        <RefPage>709-734</RefPage>
        <RefTotal>Mayer RC, Davis JH, Schoorman FD. An integrative model of organizational trust. Acad Manage Rev. 1995;20(3):709-734. DOI: 10.5465&#47;amr.1995.9508080335</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.5465&#47;amr.1995.9508080335</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Bl&#246;dt S</RefAuthor>
        <RefAuthor>M&#252;ller-Nordhorn J</RefAuthor>
        <RefAuthor>Seifert G</RefAuthor>
        <RefAuthor>Holmberg C</RefAuthor>
        <RefTitle>Trust, medical expertise and humaneness: A qualitative study on people with cancer satisfaction with medical care</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>Health Expect</RefJournal>
        <RefPage>317-326</RefPage>
        <RefTotal>Bl&#246;dt S, M&#252;ller-Nordhorn J, Seifert G, Holmberg C. Trust, medical expertise and humaneness: A qualitative study on people with cancer satisfaction with medical care. Health Expect. 2021;24(2):317-326. DOI: 10.1111&#47;hex.13171</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;hex.13171</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Du L</RefAuthor>
        <RefAuthor>Xu J</RefAuthor>
        <RefAuthor>Chen X</RefAuthor>
        <RefAuthor>Zhu X</RefAuthor>
        <RefAuthor>Zhang Y</RefAuthor>
        <RefAuthor>Wu R</RefAuthor>
        <RefAuthor>Ji H</RefAuthor>
        <RefAuthor>Zhou L</RefAuthor>
        <RefTitle>Rebuild doctor-patient trust in medical service delivery in china</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Sci Rep</RefJournal>
        <RefPage>21956</RefPage>
        <RefTotal>Du L, Xu J, Chen X, Zhu X, Zhang Y, Wu R, Ji H, Zhou L. Rebuild doctor-patient trust in medical service delivery in china. Sci Rep. 2020;10(1):21956. DOI: 10.1038&#47;s41598-020-78921-y</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1038&#47;s41598-020-78921-y</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Hillen MA</RefAuthor>
        <RefAuthor>de Haes HC</RefAuthor>
        <RefAuthor>Smets EM</RefAuthor>
        <RefTitle>Cancer patients trust in their physician-a review</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Psychooncology</RefJournal>
        <RefPage>227-241</RefPage>
        <RefTotal>Hillen MA, de Haes HC, Smets EM. Cancer patients trust in their physician-a review. Psychooncology. 2011;20(3):227-241. DOI: 10.1002&#47;pon.1745</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1002&#47;pon.1745</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Pingree EW</RefAuthor>
        <RefAuthor>Huth K</RefAuthor>
        <RefAuthor>Harper BD</RefAuthor>
        <RefAuthor>Nakamura MM</RefAuthor>
        <RefAuthor>Marcus CH</RefAuthor>
        <RefAuthor>Cheston CC</RefAuthor>
        <RefAuthor>Schumacher DJ</RefAuthor>
        <RefAuthor>Winn AS</RefAuthor>
        <RefTitle>Encouraging entrustment: A qualitative study of resident behaviors that promote entrustment</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>1718-1725</RefPage>
        <RefTotal>Pingree EW, Huth K, Harper BD, Nakamura MM, Marcus CH, Cheston CC, Schumacher DJ, Winn AS. Encouraging entrustment: A qualitative study of resident behaviors that promote entrustment. Acad Med. 2020;95(11):1718-1725. DOI: 10.1097&#47;ACM.0000000000003487</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;ACM.0000000000003487</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Frankel RM</RefAuthor>
        <RefAuthor>Tilden VP</RefAuthor>
        <RefAuthor>Suchman A</RefAuthor>
        <RefTitle>Physicians trust in one another</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>JAMA</RefJournal>
        <RefPage>1345-1346</RefPage>
        <RefTotal>Frankel RM, Tilden VP, Suchman A. Physicians trust in one another. JAMA. 2019;321(14):1345-1346. DOI: 10.1001&#47;jama.2018.20569</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1001&#47;jama.2018.20569</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>ten Cate O</RefAuthor>
        <RefTitle>Entrustability of professional activities and competency-based training</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>1176-1167</RefPage>
        <RefTotal>ten Cate O. Entrustability of professional activities and competency-based training. Med Educ. 2005;39(12):1176-1167. DOI: 10.1111&#47;j.1365-2929.2005.02341.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2929.2005.02341.x</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>ten Cate O</RefAuthor>
        <RefTitle>Entrustment as assessment: Recognizing the ability, the right, and the duty to act</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>J Grad Med Educ</RefJournal>
        <RefPage>261-262</RefPage>
        <RefTotal>ten Cate O. Entrustment as assessment: Recognizing the ability, the right, and the duty to act. J Grad Med Educ. 2016;8(2):261-262. DOI: 10.4300&#47;JGME-D-16-00097.1</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.4300&#47;JGME-D-16-00097.1</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Todorov A</RefAuthor>
        <RefAuthor>Pakrashi M</RefAuthor>
        <RefAuthor>Oosterhof NN</RefAuthor>
        <RefTitle>Evaluating faces on trustworthiness after minimal time exposure</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>Soc Cogn</RefJournal>
        <RefPage>813-833</RefPage>
        <RefTotal>Todorov A, Pakrashi M, Oosterhof NN. Evaluating faces on trustworthiness after minimal time exposure. Soc Cogn. 2009;27(6):813-833. DOI: 10.1521&#47;soco.2009.27.6.813</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1521&#47;soco.2009.27.6.813</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Krumhuber EG</RefAuthor>
        <RefAuthor>Manstead AS</RefAuthor>
        <RefAuthor>Cosker D</RefAuthor>
        <RefAuthor>Marshall D</RefAuthor>
        <RefAuthor>Rosin PL</RefAuthor>
        <RefAuthor>Kappas A</RefAuthor>
        <RefTitle>Facial dynamics as indicators of trustworthiness and cooperative behavior</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Emotion</RefJournal>
        <RefPage>730-735</RefPage>
        <RefTotal>Krumhuber EG, Manstead AS, Cosker D, Marshall D, Rosin PL, Kappas A. Facial dynamics as indicators of trustworthiness and cooperative behavior. Emotion. 2007;7(4):730-735. DOI: 10.1037&#47;1528-3542.7.4.730</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1037&#47;1528-3542.7.4.730</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Over H</RefAuthor>
        <RefAuthor>Cook R</RefAuthor>
        <RefTitle>Where do spontaneous first impressions of faces come from&#63;</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>Cognition</RefJournal>
        <RefPage>190-200</RefPage>
        <RefTotal>Over H, Cook R. Where do spontaneous first impressions of faces come from&#63; Cognition. 2018;170:190-200. DOI: 10.1016&#47;j.cognition.2017.10.002</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.cognition.2017.10.002</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Parent A</RefAuthor>
        <RefTitle>Duchenne de boulogne: A pioneer in neurology and medical photography</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Can J Neurol Sci</RefJournal>
        <RefPage>369-377</RefPage>
        <RefTotal>Parent A. Duchenne de boulogne: A pioneer in neurology and medical photography. Can J Neurol Sci. 2005;32(3):369-377. DOI: 10.1017&#47;s0317167100004315</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1017&#47;s0317167100004315</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Gunnery SD</RefAuthor>
        <RefAuthor>Ruben MA</RefAuthor>
        <RefTitle>Perceptions of duchenne and non-duchenne smiles: A meta-analysis</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Cogn Emot</RefJournal>
        <RefPage>501-515</RefPage>
        <RefTotal>Gunnery SD, Ruben MA. Perceptions of duchenne and non-duchenne smiles: A meta-analysis. Cogn Emot. 2016;30(3):501-515. DOI: 10.1080&#47;02699931.2015.1018817</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;02699931.2015.1018817</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Girard JM</RefAuthor>
        <RefAuthor>Cohn JF</RefAuthor>
        <RefAuthor>Yin L</RefAuthor>
        <RefAuthor>Morency LP</RefAuthor>
        <RefTitle>Reconsidering the duchenne smile: Formalizing and testing hypotheses about eye constriction and positive emotion</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>Affect Sci</RefJournal>
        <RefPage>32-47</RefPage>
        <RefTotal>Girard JM, Cohn JF, Yin L, Morency LP. Reconsidering the duchenne smile: Formalizing and testing hypotheses about eye constriction and positive emotion. Affect Sci. 2021;2(1):32-47. DOI: 10.1007&#47;s42761-020-00030-w</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s42761-020-00030-w</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Miller EJ</RefAuthor>
        <RefAuthor>Krumhuber EG</RefAuthor>
        <RefAuthor>Dawel A</RefAuthor>
        <RefTitle>Observers perceive the duchenne marker as signaling only intensity for sad expressions, not genuine emotion</RefTitle>
        <RefYear>2022</RefYear>
        <RefJournal>Emotion</RefJournal>
        <RefPage>907-919</RefPage>
        <RefTotal>Miller EJ, Krumhuber EG, Dawel A. Observers perceive the duchenne marker as signaling only intensity for sad expressions, not genuine emotion. Emotion. 2022;22(5):907-919. DOI: 10.1037&#47;emo0000772</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1037&#47;emo0000772</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>Reed LI</RefAuthor>
        <RefAuthor>Stratton R</RefAuthor>
        <RefAuthor>Rambeas JD</RefAuthor>
        <RefTitle>Face value and cheap talk: How smiles can increase or decrease the credibility of our words</RefTitle>
        <RefYear>2018</RefYear>
        <RefJournal>Evol Psychol</RefJournal>
        <RefPage>1474704918814400</RefPage>
        <RefTotal>Reed LI, Stratton R, Rambeas JD. Face value and cheap talk: How smiles can increase or decrease the credibility of our words. Evol Psychol. 2018;16(4):1474704918814400. DOI: 10.1177&#47;1474704918814400</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1177&#47;1474704918814400</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Krumhuber EG</RefAuthor>
        <RefAuthor>Kappas A</RefAuthor>
        <RefTitle>More what duchenne smiles do, less what they express</RefTitle>
        <RefYear>2022</RefYear>
        <RefJournal>Perspect Psychol Sci</RefJournal>
        <RefPage>1566-1575</RefPage>
        <RefTotal>Krumhuber EG, Kappas A. More what duchenne smiles do, less what they express. Perspect Psychol Sci. 2022;17(6):1566-1575. DOI: 10.1177&#47;17456916211071083</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1177&#47;17456916211071083</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Leiner DJ</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2025</RefYear>
        <RefBookTitle>SoSci Survey</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Leiner DJ. SoSci Survey. Version 3.7.06. SoSci Survey GmbH; 2025. Zug&#228;nglich unter&#47;available from: https:&#47;&#47;www.soscisurvey.de</RefTotal>
        <RefLink>https:&#47;&#47;www.soscisurvey.de</RefLink>
      </Reference>
      <Reference refNo="20">
        <RefAuthor>Finkbeiner KM</RefAuthor>
        <RefAuthor>Russell PN</RefAuthor>
        <RefAuthor>Helton WS</RefAuthor>
        <RefTitle>Rest improves performance, nature improves happiness: Assessment of break periods on the abbreviated vigilance task</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Conscious Cogn</RefJournal>
        <RefPage>277-285</RefPage>
        <RefTotal>Finkbeiner KM, Russell PN, Helton WS. Rest improves performance, nature improves happiness: Assessment of break periods on the abbreviated vigilance task. Conscious Cogn. 2016;42:277-285. DOI: 10.1016&#47;j.concog.2016.04.005</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1016&#47;j.concog.2016.04.005</RefLink>
      </Reference>
      <Reference refNo="21">
        <RefAuthor>Rehm M</RefAuthor>
        <RefAuthor>Andr E</RefAuthor>
        <RefTitle>Catch Me If You Can: Exploring lying agents in social settings</RefTitle>
        <RefYear>2005</RefYear>
        <RefBookTitle>Proceedings of the fourth international joint conference on Autonomous agents and multiagent systems.</RefBookTitle>
        <RefPage>937-944</RefPage>
        <RefTotal>Rehm M, Andr E. Catch Me If You Can: Exploring lying agents in social settings. In: Proceedings of the fourth international joint conference on Autonomous agents and multiagent systems. New York (NY): ACM; 2005. p.937-944.</RefTotal>
      </Reference>
      <Reference refNo="22">
        <RefAuthor>Krumhuber EG</RefAuthor>
        <RefAuthor>Tamarit L</RefAuthor>
        <RefAuthor>Roesch EB</RefAuthor>
        <RefAuthor>Scherer KR</RefAuthor>
        <RefTitle>Facsgen 2.0 animation software: Generating three-dimensional facs-valid facial expressions for emotion research</RefTitle>
        <RefYear>2012</RefYear>
        <RefJournal>Emotion</RefJournal>
        <RefPage>351-363</RefPage>
        <RefTotal>Krumhuber EG, Tamarit L, Roesch EB, Scherer KR. Facsgen 2.0 animation software: Generating three-dimensional facs-valid facial expressions for emotion research. Emotion. 2012;12(2):351-363. DOI: 10.1037&#47;a0026632</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1037&#47;a0026632</RefLink>
      </Reference>
      <Reference refNo="23">
        <RefAuthor>Ekman P</RefAuthor>
        <RefAuthor>Friesen WV</RefAuthor>
        <RefAuthor>Hager JC</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2002</RefYear>
        <RefBookTitle>Facial action coding system</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Ekman P, Friesen WV, Hager JC. Facial action coding system. Salt Lake City (UT): Research Nexus; 2002.</RefTotal>
      </Reference>
      <Reference refNo="24">
        <RefAuthor>Meister E</RefAuthor>
        <RefAuthor>Horn-Hofmann C</RefAuthor>
        <RefAuthor>Kunz M</RefAuthor>
        <RefAuthor>Krumhuber EG</RefAuthor>
        <RefAuthor>Lautenbacher S</RefAuthor>
        <RefTitle>Decoding of facial expressions of pain in avatars: Does sex matter&#63;</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>Scand J Pain</RefJournal>
        <RefPage>174-182</RefPage>
        <RefTotal>Meister E, Horn-Hofmann C, Kunz M, Krumhuber EG, Lautenbacher S. Decoding of facial expressions of pain in avatars: Does sex matter&#63; Scand J Pain. 2021;21(1):174-182. DOI: 10.1515&#47;sjpain-2020-0078</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1515&#47;sjpain-2020-0078</RefLink>
      </Reference>
      <Reference refNo="25">
        <RefAuthor>Bates D</RefAuthor>
        <RefAuthor>Maechler M</RefAuthor>
        <RefAuthor>Bolker B</RefAuthor>
        <RefAuthor>Walker S</RefAuthor>
        <RefTitle>Fitting Linear Mixed-Effects Models Using lme4</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>J Stat Softw</RefJournal>
        <RefPage>1-48</RefPage>
        <RefTotal>Bates D, Maechler M, Bolker B, Walker S. Fitting Linear Mixed-Effects Models Using lme4. J Stat Softw. 2015;67(1):1-48. DOI: 10.18637&#47;jss.v067.i01</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.18637&#47;jss.v067.i01</RefLink>
      </Reference>
      <Reference refNo="26">
        <RefAuthor>Green P</RefAuthor>
        <RefAuthor>MacLeod CJ</RefAuthor>
        <RefTitle>SIMR: an R package for power analysis of generalized linear mixed models by simulation</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Methods Ecol Evol</RefJournal>
        <RefPage>493-498</RefPage>
        <RefTotal>Green P, MacLeod CJ. SIMR: an R package for power analysis of generalized linear mixed models by simulation. Methods Ecol Evol. 2016;7(4):493-498. DOI: 10.1111&#47;2041-210X.12504</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;2041-210X.12504</RefLink>
      </Reference>
      <Reference refNo="27">
        <RefAuthor>Kim S</RefAuthor>
        <RefTitle>ppcor: An R Package for a Fast Calculation to Semi-partial ppcor: Correlation Coefficients</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>Commun Stat Appl Methods</RefJournal>
        <RefPage>665-674</RefPage>
        <RefTotal>Kim S. ppcor: An R Package for a Fast Calculation to Semi-partial ppcor: Correlation Coefficients. Commun Stat Appl Methods. 2015;22(6):665-674. DOI: 10.5351&#47;CSAM.2015.22.6.665</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.5351&#47;CSAM.2015.22.6.665</RefLink>
      </Reference>
      <Reference refNo="28">
        <RefAuthor>Cohen J</RefAuthor>
        <RefTitle>Statistical Power Analysis</RefTitle>
        <RefYear>1992</RefYear>
        <RefJournal>Curr Dir Psychol Sci</RefJournal>
        <RefPage>98-101</RefPage>
        <RefTotal>Cohen J. Statistical Power Analysis. Curr Dir Psychol Sci. 1992;1(3):98-101. DOI: 10.1111&#47;1467-8721.ep10768783</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;1467-8721.ep10768783</RefLink>
      </Reference>
      <Reference refNo="29">
        <RefAuthor>Christensen R</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2023</RefYear>
        <RefBookTitle>ordinal&#8212;Regression Models for Ordinal Data. R package version 2023.12-4.1</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Christensen R. ordinal&#8212;Regression Models for Ordinal Data. R package version 2023.12-4.1. 2023. DOI: 10.32614&#47;CRAN.package.ordinal</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.32614&#47;CRAN.package.ordinal</RefLink>
      </Reference>
      <Reference refNo="30">
        <RefAuthor>Colquitt JA</RefAuthor>
        <RefAuthor>Scott BA</RefAuthor>
        <RefAuthor>LePine JA</RefAuthor>
        <RefTitle>Trust, trustworthiness, and trust propensity: A meta-analytic test of their unique relationships with risk taking and job performance</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>J Appl Psychol</RefJournal>
        <RefPage>909-927</RefPage>
        <RefTotal>Colquitt JA, Scott BA, LePine JA. Trust, trustworthiness, and trust propensity: A meta-analytic test of their unique relationships with risk taking and job performance. J Appl Psychol. 2007;92(4):909-927. DOI: 10.1037&#47;0021-9010.92.4.909</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1037&#47;0021-9010.92.4.909</RefLink>
      </Reference>
      <Reference refNo="31">
        <RefAuthor>ten Cate O</RefAuthor>
        <RefAuthor>Chen HC</RefAuthor>
        <RefTitle>The ingredients of a rich entrustment decision</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>1413-1420</RefPage>
        <RefTotal>ten Cate O, Chen HC. The ingredients of a rich entrustment decision. Med Teach. 2020;42(12):1413-1420. DOI: 10.1080&#47;0142159X.2020.1817348.</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;0142159X.2020.1817348.</RefLink>
      </Reference>
      <Reference refNo="32">
        <RefAuthor>Gin BC</RefAuthor>
        <RefAuthor>Holzhausen Y</RefAuthor>
        <RefAuthor>Khursigara-Slattery N</RefAuthor>
        <RefAuthor>Chen HC</RefAuthor>
        <RefAuthor>Schumacher DJ</RefAuthor>
        <RefAuthor>ten Cate O</RefAuthor>
        <RefTitle>Theoretical foundations of trust and entrustment in health professions education</RefTitle>
        <RefYear>2024</RefYear>
        <RefBookTitle>Entrustable Professional Activities and Entrustment Decision-Making in Health Professions Education</RefBookTitle>
        <RefPage>35-50</RefPage>
        <RefTotal>Gin BC, Holzhausen Y, Khursigara-Slattery N, Chen HC, Schumacher DJ, ten Cate O. Theoretical foundations of trust and entrustment in health professions education. In: ten Cate O, Burch VC, Chen HC, Chou FC, Hennus MP, editors. Entrustable Professional Activities and Entrustment Decision-Making in Health Professions Education. London: Ubiquity Press; 2024. p.35-50.</RefTotal>
      </Reference>
      <Reference refNo="33">
        <RefAuthor>ten Cate O</RefAuthor>
        <RefAuthor>Hart D</RefAuthor>
        <RefAuthor>Ankel F</RefAuthor>
        <RefAuthor>Busari J</RefAuthor>
        <RefAuthor>Englander R</RefAuthor>
        <RefAuthor>Glasgow N</RefAuthor>
        <RefAuthor>Holmboe E</RefAuthor>
        <RefAuthor>Iobst W</RefAuthor>
        <RefAuthor>Lovell E</RefAuthor>
        <RefAuthor>Snell LS</RefAuthor>
        <RefAuthor>Touchie C</RefAuthor>
        <RefAuthor>Van Melle E</RefAuthor>
        <RefAuthor>Wycliffe-JOnes K</RefAuthor>
        <RefAuthor> International Competency-Based Medical Education Collaborators</RefAuthor>
        <RefTitle>Entrustment decision making in clinical training</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>191-198</RefPage>
        <RefTotal>ten Cate O, Hart D, Ankel F, Busari J, Englander R, Glasgow N, Holmboe E, Iobst W, Lovell E, Snell LS, Touchie C, Van Melle E, Wycliffe-JOnes K; International Competency-Based Medical Education Collaborators. Entrustment decision making in clinical training. Acad Med. 2016;91(2):191-198. DOI: 10.1097&#47;ACM.0000000000001044</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;ACM.0000000000001044</RefLink>
      </Reference>
      <Reference refNo="34">
        <RefAuthor>van Enk A</RefAuthor>
        <RefAuthor>ten Cate O</RefAuthor>
        <RefTitle>&#34;languaging&#34; tacit judgment in formal postgraduate assessment: The documentation of ad hoc and summative entrustment decisions</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Perspect Med Educ</RefJournal>
        <RefPage>373-378</RefPage>
        <RefTotal>van Enk A, ten Cate O. &#34;languaging&#34; tacit judgment in formal postgraduate assessment: The documentation of ad hoc and summative entrustment decisions. Perspect Med Educ. 2020;9(6):373-378. DOI: 10.1007&#47;s40037-020-00616-x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s40037-020-00616-x</RefLink>
      </Reference>
      <Reference refNo="35">
        <RefAuthor>Holzhausen Y</RefAuthor>
        <RefAuthor>Maaz A</RefAuthor>
        <RefAuthor>Cianciolo AT</RefAuthor>
        <RefAuthor>ten Cate O</RefAuthor>
        <RefAuthor>Peters H</RefAuthor>
        <RefTitle>Applying occupational and organizational psychology theory to entrustment decision-making about trainees in health care: A conceptual model</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Perspect Med Educ</RefJournal>
        <RefPage>119-126</RefPage>
        <RefTotal>Holzhausen Y, Maaz A, Cianciolo AT, ten Cate O, Peters H. Applying occupational and organizational psychology theory to entrustment decision-making about trainees in health care: A conceptual model. Perspect Med Educ. 2017;6(2):119-126. DOI: 10.1007&#47;s40037-017-0336-2</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s40037-017-0336-2</RefLink>
      </Reference>
      <Reference refNo="36">
        <RefAuthor>Schick K</RefAuthor>
        <RefAuthor>Eissner A</RefAuthor>
        <RefAuthor>Wijnen-Meijer M</RefAuthor>
        <RefAuthor>Johannink J</RefAuthor>
        <RefAuthor>Huenges B</RefAuthor>
        <RefAuthor>Ehrhardt M</RefAuthor>
        <RefAuthor>Kadmon M</RefAuthor>
        <RefAuthor>Berberat PO</RefAuthor>
        <RefAuthor>Rotthoff T</RefAuthor>
        <RefTitle>Implementing a logbook on entrustable professional activities in the final year of undergraduate medical education in Germany  a multicentric pilot study</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>GMS J Med Educ</RefJournal>
        <RefPage>Doc69</RefPage>
        <RefTotal>Schick K, Eissner A, Wijnen-Meijer M, Johannink J, Huenges B, Ehrhardt M, Kadmon M, Berberat PO, Rotthoff T. Implementing a logbook on entrustable professional activities in the final year of undergraduate medical education in Germany  a multicentric pilot study. GMS J Med Educ. 2019;36(6):Doc69. DOI: 10.3205&#47;zma001277</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma001277</RefLink>
      </Reference>
      <Reference refNo="37">
        <RefAuthor>Fincke F</RefAuthor>
        <RefAuthor>Prediger S</RefAuthor>
        <RefAuthor>Schick K</RefAuthor>
        <RefAuthor>F&#252;rstenberg S</RefAuthor>
        <RefAuthor>Spychala N</RefAuthor>
        <RefAuthor>Berberat PO</RefAuthor>
        <RefAuthor>Harendza S</RefAuthor>
        <RefAuthor>Kadmon M</RefAuthor>
        <RefTitle>Entrustable professional activities and facets of competence in a simulated workplace-based assessment for advanced medical students</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>1019-1026</RefPage>
        <RefTotal>Fincke F, Prediger S, Schick K, F&#252;rstenberg S, Spychala N, Berberat PO, Harendza S, Kadmon M. Entrustable professional activities and facets of competence in a simulated workplace-based assessment for advanced medical students. Med Teach. 2020;42(9):1019-1026. DOI: 10.1080&#47;0142159X.2020.1779204</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;0142159X.2020.1779204</RefLink>
      </Reference>
      <Reference refNo="38">
        <RefAuthor>Epic Games Inc</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2025</RefYear>
        <RefBookTitle>MetaHumans</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Epic Games Inc. MetaHumans. Epic Games; 2025. Zug&#228;nglich unter&#47;available from: https:&#47;&#47;dev.epicgames.com&#47;documentation&#47;en-us&#47;metahuman&#47;metahuman-documentation</RefTotal>
        <RefLink>https:&#47;&#47;dev.epicgames.com&#47;documentation&#47;en-us&#47;metahuman&#47;metahuman-documentation</RefLink>
      </Reference>
      <Reference refNo="39">
        <RefAuthor>Ambady N</RefAuthor>
        <RefAuthor>Rosenthal R</RefAuthor>
        <RefTitle>Half a minute: Predicting teacher evaluations from thin slices of nonverbal behavior and physical attractiveness</RefTitle>
        <RefYear>1993</RefYear>
        <RefJournal>J Pers Soc Psychol</RefJournal>
        <RefPage>431-441</RefPage>
        <RefTotal>Ambady N, Rosenthal R. Half a minute: Predicting teacher evaluations from thin slices of nonverbal behavior and physical attractiveness. J Pers Soc Psychol. 1993;64(3):431-441. DOI: 10.1037&#47;0022-3514.64.3.431</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1037&#47;0022-3514.64.3.431</RefLink>
      </Reference>
      <Reference refNo="40">
        <RefAuthor>Madureira S</RefAuthor>
        <RefAuthor>Fontes MA</RefAuthor>
        <RefTitle>Multimodal impressions of voice quality settings: the role of vocal and visual symbolism. Front</RefTitle>
        <RefYear>2023</RefYear>
        <RefJournal>Commun</RefJournal>
        <RefPage>1114447</RefPage>
        <RefTotal>Madureira S, Fontes MA. Multimodal impressions of voice quality settings: the role of vocal and visual symbolism. Front. Commun. 2023;8:1114447. DOI: 10.3389&#47;fcomm.2023.1114447</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3389&#47;fcomm.2023.1114447</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 1: Action units of the expressions</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Action Units der Gesichtsausdr&#252;cke</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="en">2en</MediaID>
          <MediaID language="de">2de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 2: Impact of a Duchenne smile on entrustment decisions </Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 2: Einfluss eines Duchenne-L&#228;cheln auf Anvertrauensentscheidungen </Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>3</MediaNo>
          <MediaID language="en">3en</MediaID>
          <MediaID language="de">3de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 3: Impact of a Duchenne smile on trustworthiness ratings</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 3: Einfluss eines Duchenne-L&#228;cheln auf die Vertrauensw&#252;rdigkeit</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>3</NoOfTables>
      </Tables>
      <Figures>
        <Figure width="924" height="291" format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Study design &#91;20&#93;</Mark1><LineBreak></LineBreak>DS&#61;Duchenne smile</Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Studiendesign</Mark1><LineBreak></LineBreak>DL&#61;Duchenne-L&#228;cheln</Pgraph></Caption>
        </Figure>
        <Figure width="588" height="506" format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="en">2en</MediaID>
          <MediaID language="de">2de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 2: Relationship between trustworthiness and entrustment (n&#61;19,296)</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: Zusammenhang zwischen Vertrauensw&#252;rdigkeit und Anvertrauen (n&#61;19.296)</Mark1></Pgraph></Caption>
        </Figure>
        <Figure width="604" height="507" format="png">
          <MediaNo>3</MediaNo>
          <MediaID language="en">3en</MediaID>
          <MediaID language="de">3de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 3: Distribution of entrustment decisions by facial expression (n&#61;19,296)</Mark1><LineBreak></LineBreak>DS&#61;Duchenne smile</Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 3: Verteilung der Anvertrauensentscheidungen nach Gesichtsausdruck (n&#61;19.296)</Mark1><LineBreak></LineBreak>DL&#61;Duchenne-L&#228;cheln</Pgraph></Caption>
        </Figure>
        <Figure width="568" height="507" format="png">
          <MediaNo>4</MediaNo>
          <MediaID language="en">4en</MediaID>
          <MediaID language="de">4de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 4: Distribution of trustworthiness by facial expression (n&#61;19,296)</Mark1><LineBreak></LineBreak>DS&#61;Duchenne smile</Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 4: Verteilung der Vertrauensw&#252;rdigkeit nach Gesichtsausdruck (n&#61;19.296)</Mark1><LineBreak></LineBreak>DL&#61;Duchenne-L&#228;cheln</Pgraph></Caption>
        </Figure>
        <NoOfPictures>4</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>