<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zma001545</Identifier>
    <IdentifierDoi>10.3205/zma001545</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0015453</IdentifierUrn>
    <ArticleType language="en">article</ArticleType>
    <ArticleType language="de">Artikel</ArticleType>
    <TitleGroup>
      <Title language="en">Usability and preference of electronic vs. paper and pencil OSCE checklists by examiners and influence of checklist type on missed ratings in the Swiss Federal Licensing Exam</Title>
      <TitleTranslated language="de">Usability und Pr&#228;ferenz von elektronischen OSCE-Checklisten im Vergleich zu  papierbasierten Checklisten gem&#228;ss Pr&#252;fenden und Einfluss des Checklisten-Typs auf fehlende Bewertungen in der Eidgen&#246;ssischen Pr&#252;fung</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Wagner</Lastname>
          <LastnameHeading>Wagner</LastnameHeading>
          <Firstname>Felicitas L.</Firstname>
          <Initials>FL</Initials>
        </PersonNames>
        <Address language="en">University of Bern, Institute for Medical Education, Department for Assessment and Evaluation, Mittelstr. 43, CH-3012 Bern, Switzerland<Affiliation>University of Bern, Institute for Medical Education, Department for Assessment and Evaluation, Bern, Switzerland</Affiliation></Address>
        <Address language="de">Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Abteilung f&#252;r Assessment und Evaluation, Mittelstr. 43, CH-3012 Bern, Schweiz<Affiliation>Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Abteilung f&#252;r Assessment und Evaluation, Bern, Schweiz</Affiliation></Address>
        <Email>felicitas.wagner&#64;iml.unibe.ch</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Feller</Lastname>
          <LastnameHeading>Feller</LastnameHeading>
          <Firstname>Sabine</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Bern, Institute for Medical Education, Department for Assessment and Evaluation, Bern, Switzerland</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Abteilung f&#252;r Assessment und Evaluation, Bern, Schweiz</Affiliation>
        </Address>
        <Email>sabine.feller&#64;iml.unibe.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Schmitz</Lastname>
          <LastnameHeading>Schmitz</LastnameHeading>
          <Firstname>Felix M.</Firstname>
          <Initials>FM</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Bern, Institute for Medical Education, Department for Software Development, Usability Consulting and IT Infrastructure, Bern, Switzerland</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Abteilung f&#252;r Software-Entwicklung, Usability-Consulting und IT-Infrastruktur, Bern, Schweiz</Affiliation>
        </Address>
        <Email>felix.schmitz&#64;iml.unibe.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Zimmermann</Lastname>
          <LastnameHeading>Zimmermann</LastnameHeading>
          <Firstname>Philippe G.</Firstname>
          <Initials>PG</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Bern, Institute for Medical Education, Department for Software Development, Usability Consulting and IT Infrastructure, Bern, Switzerland</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Abteilung f&#252;r Software-Entwicklung, Usability-Consulting und IT-Infrastruktur, Bern, Schweiz</Affiliation>
        </Address>
        <Email>philippe.zimmermann&#64;iml.unibe.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Krings</Lastname>
          <LastnameHeading>Krings</LastnameHeading>
          <Firstname>Rabea</Firstname>
          <Initials>R</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Bern, Institute for Medical Education, Department for Assessment and Evaluation, Bern, Switzerland</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Abteilung f&#252;r Assessment und Evaluation, Bern, Schweiz</Affiliation>
        </Address>
        <Email>rabea.krings&#64;iml.unibe.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Guttormsen</Lastname>
          <LastnameHeading>Guttormsen</LastnameHeading>
          <Firstname>Sissel</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Bern, Institute for Medical Education, Bern, Switzerland</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Bern, Schweiz</Affiliation>
        </Address>
        <Email>sissel.guttormsen&#64;iml.unibe.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Huwendiek</Lastname>
          <LastnameHeading>Huwendiek</LastnameHeading>
          <Firstname>S&#246;ren</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address language="en">
          <Affiliation>University of Bern, Institute for Medical Education, Department for Assessment and Evaluation, Bern, Switzerland</Affiliation>
        </Address>
        <Address language="de">
          <Affiliation>Universit&#228;t Bern, Institut f&#252;r Medizinische Lehre, Abteilung f&#252;r Assessment und Evaluation, Bern, Schweiz</Affiliation>
        </Address>
        <Email>soeren.huwendiek&#64;iml.unibe.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">OSCE</Keyword>
      <Keyword language="en">checklists</Keyword>
      <Keyword language="en">electronic</Keyword>
      <Keyword language="en">usability</Keyword>
      <Keyword language="en">evaluation</Keyword>
      <Keyword language="en">national</Keyword>
      <Keyword language="de">OSCE</Keyword>
      <Keyword language="de">Checklisten</Keyword>
      <Keyword language="de">elektronisch</Keyword>
      <Keyword language="de">Usability</Keyword>
      <Keyword language="de">Evaluation</Keyword>
      <Keyword language="de">national</Keyword>
      <SectionHeading language="en">OSCE</SectionHeading>
      <SectionHeading language="de">OSCE</SectionHeading>
    </SubjectGroup>
    <DateReceived>20210113</DateReceived>
    <DateRevised>20220128</DateRevised>
    <DateAccepted>20220209</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20220414</DatePublished></DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2366-5017</ISSN>
        <Volume>39</Volume>
        <Issue>2</Issue>
        <JournalTitle>GMS Journal for Medical Education</JournalTitle>
        <JournalTitleAbbr>GMS J Med Educ</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>24</ArticleNo>
    <Fundings>
      <Funding>University of Bern, Institute for Medical Education</Funding>
    </Fundings>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Hintergrund:</Mark1> Nur wenige Studien mit kleinen Stichprobengr&#246;&#223;en haben elektronische OSCE-Checklisten (Objective Structured Clinical Examination) mit traditionellen OSCE-Checklisten in Papierform verglichen. In dieser Studie wurden die von Pr&#252;fenden wahrgenommene Usability und Pr&#228;ferenz f&#252;r den OSCE-Checklisten-Typ (elektronisch vs. papierbasiert) verglichen und der Einfluss des OSCE-Checklisten-Typs auf fehlende Bewertungen ermittelt f&#252;r die Eidgen&#246;ssische Clinical Skills-Pr&#252;fung Humanmedizin in der Schweiz.</Pgraph><Pgraph><Mark1>Methode: </Mark1>Die Pr&#252;fenden der Eidgen&#246;ssischen Clinical Skills-Pr&#252;fung Humanmedizin wurden in zwei aufeinanderfolgenden Jahren gebeten, den OSCE-Checklisten-Typ zu bewerten, mit dem sie w&#228;hrend der Pr&#252;fung gearbeitet hatten. Dies geschah anhand eines Fragebogens mit 14 geschlossenen Fragen (demographische Angaben, Erfahrung mit dem Checklisten-Typ, wahrgenommene Usability, Pr&#228;ferenz f&#252;r den Checklisten-Typ). Au&#223;erdem wurde die Anzahl der fehlenden Bewertungen bei der papierbasierten Checkliste erfasst.</Pgraph><Pgraph><Mark1>Resultate:</Mark1> Die Daten derjenigen Pr&#252;fenden (n&#61;377) mit Erfahrung mit beiden OSCE-Checklisten-Typen wurden ausgewertet. Die elektronische OSCE-Checkliste wurde bei allen Aspekten der Usability (einfache Benutzung, Kandidierendenbewertung und Fehlerkorrektur, &#220;bersichtlichkeit, Ablenkung bei der Verwendung der Checkliste, Gesamtzufriedenheit) signifikant besser bewertet, mit Ausnahme der Geschwindigkeit des Erfassens von Kommentaren (kein signifikanter Unterschied). Die Mehrheit der Pr&#252;fenden in beiden Jahren (2014: 54.5&#37;, n&#61;60, 2015: 89.8&#37;, n&#61;230) gab an, in Zukunft lieber mit der elektronischen OSCE-Checkliste arbeiten zu wollen. Bei 14.2&#37; der papierbasierten OSCE-Checklisten wurden fehlende Bewertungen festgestellt, welche mit elektronischen OSCE-Checklisten vermieden werden konnten.</Pgraph><Pgraph><Mark1>Schlussfolgerungen:</Mark1> Elektronische OSCE-Checklisten wurden von einer breiten nationalen Stichprobe von Pr&#252;fenden als deutlich benutzerfreundlicher eingestuft und gegen&#252;ber OSCE-Checklisten auf Papier bevorzugt, was fr&#252;here Ergebnisse von Pr&#252;fungen auf Fakult&#228;tsebene best&#228;tigt. Au&#223;erdem wurden mit den elektronischen OSCE-Checklisten fehlende Bewertungen vermieden. Insgesamt ist die Verwendung elektronischer OSCE-Checklisten daher empfehlenswert.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Background: </Mark1>Only a few studies with small sample sizes have compared electronic Objective Structured Clinical Examination (OSCE) rating checklists with traditional paper-based OSCE rating checklists. In this study, the examiner-perceived usability and preference for type of OSCE checklist (electronic vs. paper based) were compared, and the influence of OSCE checklist type on missed ratings was determined, for the Swiss Federal Licensing Examination in clinical skills for human medicine.</Pgraph><Pgraph><Mark1>Methods: </Mark1>All examiners in the Swiss Federal Licensing Examination in clinical skills for human medicine were invited over two subsequent years to evaluate the OSCE checklist type they had worked with during the examination. This was based on a questionnaire with 14 closed questions (i.e., demographic, checklist-type experience, perceived usability, checklist type preference). Furthermore, the numbers of missed ratings for the paper-based checklist were recorded.</Pgraph><Pgraph><Mark1>Results: </Mark1>The data from these examiners (<Mark2>n</Mark2>&#61;377) with experience of both OSCE checklist types were analyzed. The electronic OSCE checklist was rated significantly higher on all usability aspects (i.e., ease of use, candidate rating and error correction, clarity, distraction using the checklist, overall satisfaction), except for the speed of registering comments (no significant difference). The majority of the examiners in both years (2014: 54.5&#37;, <Mark2>n</Mark2>&#61;60, 2015: 89.8&#37;, <Mark2>n</Mark2>&#61;230) reported preference for working with the electronic OSCE checklist in the future. Missed ratings were seen for 14.2&#37; of the paper-based OSCE checklists, which were prevented with the electronic OSCE checklists.</Pgraph><Pgraph><Mark1>Conclusions: </Mark1>Electronic OSCE checklists were rated significantly more user-friendly and were preferred over paper-based OSCE checklists by a broad national sample of examiners, supporting previous results from faculty-level examinations. Furthermore, missed ratings were prevented with the electronic OSCE checklists. Overall, the use of electronic OSCE checklists is therefore advisable. </Pgraph></Abstract>
    <TextBlock language="en" linked="yes" name="Background">
      <MainHeadline>Background</MainHeadline><Pgraph>The administration of Objective Structured Clinical Examinations (OSCEs) <TextLink reference="1"></TextLink> has become the standard method to reliably assess practical skills in medical education <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>, <TextLink reference="5"></TextLink>. In an OSCE, the clinical and communication skills of the students are probed while they complete multiple stations, each of which requires them to work on a particular medical problem. During the OSCE, their performance is observed and rated by examiners through standardized, structured checklists.</Pgraph><Pgraph>Traditionally, paper-based checklists have been used to rate the candidates during an OSCE, while more recently, with the emergence of mobile electronic devices, electronic OSCE checklists have been developed and successfully implemented <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>. Electronic OSCE checklists are usually presented on &#8220;tablet&#8221; computers, as these are more flexible than laptops or desktop devices <TextLink reference="7"></TextLink>. To date, however, few studies have compared electronic vs. paper-based OSCE checklists regarding their usability and the examiner checklist type preference.  As examiners are an important stakeholder group and the users of the checklists, it is important what their usability perceptions and preferences are. According to Petersen <TextLink reference="9"></TextLink>, &#8220;the underlying construct of usability is to make objects compatible&#8221; with the user. Objects can be hardware, software, or every-day tools. Their design should not hinder the completion of the tasks they were designed for. Petersen further describes usability as how easy to use an object is and underlines the importance of the quality of the generated output for which an object has been created to determine its usability. OSCEs create a high cognitive load <TextLink reference="10"></TextLink> for the examiners. Examiners have to simultaneously observe and rate the performances of the candidates, find the respective items in the OSCE checklist, decide on the amount of points the candidates receive for the different checklist items, and also handle the OSCE checklist. Paper-based OSCE checklists, e.g., can be several pages long <TextLink reference="6"></TextLink>. Furthermore, the examination times are usually long. Considering these aspects, the OSCE checklists need to be easy to use and allow the exminers to rate candidates in an efficient and effective way to not increase the cognitive load and hinder the completion of the task they were created for, that is, rating the performances of the candidates. It is therefore important that they do not distract the examiners from their observing and rating of the performances of the candidates during examinations. Finally, also the output quality is an important aspect in the context of usability <TextLink reference="9"></TextLink>. Paper-based OSCE checklists can have specific issues regarding the quality of the data. These often contain a substantial number of missed ratings, as checklist items are easily overlooked during an examination, which makes time-consuming manual data verification necessary <TextLink reference="6"></TextLink>. Furthermore, paper-based checklists usually have to be scanned to transfer the OSCE results into a digital form, as a necessary step to make the results available for analysis.  The use of electronic OSCE checklists on the other hand leads to better data quality because missed ratings can be prevented. Furthermore, the data can be downloaded and stored electronically directly following the examination, making the preparation of the data for analysis less error-prone and time-consuming compared to paper-based OSCE checklists <TextLink reference="6"></TextLink>.</Pgraph><Pgraph>A systematic review in 2019 <TextLink reference="11"></TextLink> mentioned three studies that investigated examiner perceptions of electronic OSCE checklists, although only two of these <TextLink reference="6"></TextLink>, <TextLink reference="12"></TextLink> investigated the perceived usability of paper-based versus electronic OSCE checklists. Along with studies by Hochlehnert et al. <TextLink reference="7"></TextLink> and Currie et al. <TextLink reference="8"></TextLink>, these two studies <TextLink reference="6"></TextLink>, <TextLink reference="12"></TextLink> suggested that the perceived usability of the respective electronic OSCE checklist tools that were used was high. However, these involved only small to medium numbers of examiners (n&#61;10 <TextLink reference="6"></TextLink>, n&#61;35 and 33 <TextLink reference="7"></TextLink>, n&#61;93 <TextLink reference="8"></TextLink>, n&#61;43 <TextLink reference="12"></TextLink>) who were from a single faculty, thus limiting the generalizability of their results. Furthermore, as described above, one critical issue with paper-based OSCE checklists are missed ratings. However, to date little is known about the size of this problem. To our knowledge, only three studies <TextLink reference="6"></TextLink>, <TextLink reference="8"></TextLink>, <TextLink reference="13"></TextLink> have addressed this problem to date.</Pgraph><Pgraph>Our research questions therefore were:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">How does a large group of examiners from five different faculties, experienced with paper-based and electronic OSCE checklists, rate the usability of electronic versus paper-based OSCE checklists in a national licensing skills examination&#63;</ListItem><ListItem level="1" levelPosition="2" numString="2.">Which type of checklist (electronic vs. paper-based) is preferred by the examiners of a national licensing skills examination&#63; </ListItem><ListItem level="1" levelPosition="3" numString="3.">How large is the amount of missed ratings in the paper-based OSCE checklists&#63; </ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Hintergrund">
      <MainHeadline>Hintergrund</MainHeadline><Pgraph>Die Durchf&#252;hrung von objektiven, strukturierten klinischen Pr&#252;fungen (Objective Structured Clinical Examinations, OSCEs) <TextLink reference="1"></TextLink> hat sich als Standardmethode zur zuverl&#228;ssigen Bewertung praktischer F&#228;higkeiten in der medizinischen Ausbildung etabliert <TextLink reference="2"></TextLink>, <TextLink reference="3"></TextLink>, <TextLink reference="4"></TextLink>, <TextLink reference="5"></TextLink>. Bei einem OSCE werden die klinischen und kommunikativen F&#228;higkeiten der Studierenden gepr&#252;ft, w&#228;hrend sie mehrere Stationen absolvieren, bei denen sie jeweils ein bestimmtes medizinisches Problem bearbeiten m&#252;ssen. W&#228;hrend eines OSCE wird ihre Leistung von den Pr&#252;fenden anhand standardisierter, strukturierter Checklisten beobachtet und bewertet.</Pgraph><Pgraph>Traditionell wurden Checklisten auf Papier verwendet, um die Kandidierenden w&#228;hrend eines OSCE zu bewerten, w&#228;hrend in j&#252;ngerer Zeit, mit dem Aufkommen mobiler elektronischer Ger&#228;te, elektronische OSCE-Checklisten entwickelt und erfolgreich eingesetzt wurden <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>. Elektronische OSCE-Checklisten werden in der Regel auf &#8222;Tablet&#8220;-Computern pr&#228;sentiert, da diese flexibler sind als Laptops oder Desktop-Ger&#228;te <TextLink reference="7"></TextLink>. Bislang gibt es jedoch nur wenige Studien, die elektronische und papierbasierte OSCE-Checklisten hinsichtlich ihrer Usability und dem von den Pr&#252;fenden bevorzugten Checklisten-Typ verglichen haben.  Da die Pr&#252;fenden eine wichtige Interessengruppe und die Nutzer der Checklisten sind, ist es wichtig, wie sie die Usability wahrnehmen und welche Pr&#228;ferenzen sie haben. Nach Petersen <TextLink reference="9"></TextLink> besteht das zugrundeliegende Konstrukt der Usability darin, &#8222;Objekte mit dem Benutzer kompatibel zu machen&#8220;. Bei den Objekten kann es sich um Hardware, Software oder allt&#228;gliche Hilfsmittel handeln. Ihr Design sollte die Erledigung der Aufgaben, f&#252;r die sie entwickelt wurden, nicht behindern. Petersen beschreibt die Usability als die Frage, wie einfach ein Objekt zu benutzen ist und unterstreicht die Bedeutung der Qualit&#228;t der erzeugten Ergebnisse, f&#252;r die ein Objekt geschaffen wurde, um seine Usability zu bestimmen. OSCEs stellen eine hohe kognitive Belastung <TextLink reference="10"></TextLink> f&#252;r die Pr&#252;fenden dar. Die Pr&#252;fenden m&#252;ssen gleichzeitig die Leistungen der Kandidierenden beobachten und bewerten, die entsprechenden Items in der OSCE-Checkliste finden, &#252;ber die Anzahl der Punkte entscheiden, die die Kandidierenden f&#252;r die verschiedenen Items der Checkliste erhalten und die OSCE-Checkliste handhaben. Papierbasierte OSCE-Checklisten k&#246;nnen beispielsweise mehrere Seiten lang sein <TextLink reference="6"></TextLink>. Au&#223;erdem sind die Pr&#252;fungszeiten in der Regel lang. In Anbetracht dieser Aspekte m&#252;ssen die OSCE-Checklisten einfach zu handhaben sein und den Pr&#252;fenden eine effiziente und effektive Bewertung der Kandidierenden erm&#246;glichen, um die kognitive Belastung nicht zu erh&#246;hen und die Erf&#252;llung der Aufgabe, f&#252;r die sie erstellt wurden, n&#228;mlich die Bewertung der Leistung der Kandidierenden, nicht zu behindern. Es ist daher wichtig, dass sie die Pr&#252;fenden nicht von der Beobachtung und Bewertung der Leistung der Kandidierenden w&#228;hrend der Pr&#252;fung ablenken. Schlie&#223;lich ist auch die Qualit&#228;t des Outputs ein wichtiger Aspekt im Zusammenhang mit der Usability &#91;9&#93;. Papierbasierte OSCE-Checklisten k&#246;nnen spezifische Probleme hinsichtlich der Datenqualit&#228;t aufweisen. Sie enthalten oft eine betr&#228;chtliche Anzahl von fehlenden Bewertungen, da Checklistenitems w&#228;hrend einer Pr&#252;fung leicht &#252;bersehen werden, was eine zeitaufw&#228;ndige manuelle Daten&#252;berpr&#252;fung erforderlich macht <TextLink reference="6"></TextLink>. Dar&#252;ber hinaus m&#252;ssen papierbasierte Checklisten in der Regel eingescannt werden, um die Ergebnisse in eine digitale Form zu &#252;bertragen, was ein notwendiger Schritt ist, um die Ergebnisse f&#252;r die Analyse verf&#252;gbar zu machen.  Die Verwendung elektronischer OSCE-Checklisten f&#252;hrt dagegen zu einer besseren Datenqualit&#228;t, da fehlende Bewertungen vermieden werden k&#246;nnen. Au&#223;erdem k&#246;nnen die Daten direkt im Anschluss an die Pr&#252;fung elektronisch heruntergeladen und gespeichert werden, was die Aufbereitung der Daten f&#252;r die Analyse im Vergleich zu papierbasierten OSCE-Checklisten weniger fehleranf&#228;llig und zeitaufw&#228;ndig macht <TextLink reference="6"></TextLink>.</Pgraph><Pgraph>In einer systematischen &#220;bersichtsarbeit aus dem Jahr 2019 <TextLink reference="11"></TextLink> wurden drei Studien erw&#228;hnt, die die Wahrnehmung elektronischer OSCE-Checklisten durch die Pr&#252;fenden untersuchten, wobei jedoch nur zwei dieser Studien <TextLink reference="6"></TextLink>, <TextLink reference="12"></TextLink> die wahrgenommene Usability von papierbasierten gegen&#252;ber elektronischen OSCE-Checklisten untersuchten. Zusammen mit den Studien von Hochlehnert et al. <TextLink reference="7"></TextLink> und Currie et al. <TextLink reference="8"></TextLink> deuten diese beiden Studien <TextLink reference="6"></TextLink>, <TextLink reference="12"></TextLink> darauf hin, dass die wahrgenommene Usability der jeweils verwendeten elektronischen OSCE-Checklisten-Tools hoch war. An diesen Studien war jedoch nur eine kleine bis mittlere Anzahl von Pr&#252;fenden beteiligt (n&#61;10 <TextLink reference="6"></TextLink>, n&#61;35 und 33 <TextLink reference="7"></TextLink>, n&#61;93 <TextLink reference="8"></TextLink>, n&#61;43 <TextLink reference="12"></TextLink>), die einer einzelnen Fakult&#228;t angeh&#246;rten, wodurch die Generalisierbarkeit der Ergebnisse eingeschr&#228;nkt ist. Wie oben beschrieben, sind fehlende Bewertungen ein kritisches Problem bei OSCE-Checklisten auf Papier. Bislang ist jedoch wenig &#252;ber das Ausma&#223; dieses Problems bekannt. Unseres Wissens haben sich bisher nur drei Studien <TextLink reference="6"></TextLink>, <TextLink reference="8"></TextLink>, <TextLink reference="13"></TextLink> mit diesem Problem befasst.</Pgraph><Pgraph>Unsere Forschungsfragen lauteten daher:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Wie bewertet eine gro&#223;e Gruppe von Pr&#252;fenden aus f&#252;nf verschiedenen Fakult&#228;ten, die Erfahrung mit papierbasierten und elektronischen OSCE-Checklisten haben, die Usability von elektronischen gegen&#252;ber papierbasierten OSCE-Checklisten in einer nationalen Eignungspr&#252;fung&#63;</ListItem><ListItem level="1" levelPosition="2" numString="2.">Welcher Checklisten-Typ (elektronisch oder papierbasiert) wird von den Pr&#252;fenden einer nationalen Eignungspr&#252;fung bevorzugt&#63; </ListItem><ListItem level="1" levelPosition="3" numString="3.">Wie hoch ist die Anzahl der fehlenden Bewertungen bei papierbasierten OSCE-Checklisten&#63;</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Methods">
      <MainHeadline>Methods</MainHeadline><SubHeadline2>Setting</SubHeadline2><Pgraph>The Swiss Federal Licensing Examination in clinical skills (which follows the principles of the OSCE examination) contained 12 different OSCE stations in both 2014 and 2015. The examination was conducted over three consecutive days at five faculties of Human Medicine in Basel, Bern, Geneva, Lausanne and Zurich. </Pgraph><Pgraph>The paper-based OSCE checklists that were used for the 2014 examination were created using a teleform information capture system (Cardiff Software). These checklists had to be scanned after the examination, to make the results available for analysis (DR-6050 C image formula scanner; Canon). The paper-based OSCE checklists contained between 25 and 38 items, which was due to the different contents of the individual stations. These items were always sorted according to the same four dimensions, in the following order: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">history taking, </ListItem><ListItem level="1" levelPosition="2" numString="2.">physical examination, </ListItem><ListItem level="1" levelPosition="3" numString="3.">management, and </ListItem><ListItem level="1" levelPosition="4" numString="4.">communication. </ListItem></OrderedList></Pgraph><Pgraph>The paper-based OSCE checklists further contained two global ratings for overall impression. At the top of the paper-based OSCE checklists, a reminder sentence was included stating that all of the items in the checklist had to be completed.</Pgraph><Pgraph>The electronic OSCE checklists in the 2015 examination were completed using identical fourth generation iPad devices (2014, Apple). The iPad app &#8220;OSCE-Eval&#8221; &#91;<Hyperlink href="https:&#47;&#47;eosce.ch&#47;">https:&#47;&#47;eosce.ch&#47;</Hyperlink>&#93;, version 2.1, was used to rate the candidates. This app includes different features to reduce potential errors and to ensure that the collected data are readily available for subsequent analyses. The users receive visual feedback to make sure that every item is completed. Every item had to be evaluated to finally submit the checklist. After the final assessment, no more changes were possible. Encrypted data were synchronized with a secure server, and the data were automatically exported to an electronic spreadsheet. Depending on the specific content of the stations, the electronic OSCE checklists contained between 21 and 42 items. The items were sorted according to the same four dimensions as in the paper-based OSCE checklist. In addition, there were two global ratings in each checklist for overall impressions (see figure 1 <ImgLink imgNo="1" imgType="figure"/> and figure 2 <ImgLink imgNo="2" imgType="figure"/> for examples of both checklist types). The electronic checklists were developed according to the usability standards at the time, and considerable effort was invested to iteratively check their acceptance during their development.</Pgraph><Pgraph>In the introduction to the OSCE exam in both 2014 and 2015, the examiners were briefly instructed on how to use the checklists and how to rate the candidates. Additionally, the examiners working with the electronic OSCE checklist (in 2015) had the possibility to watch a specific, 6-min training video before the examination, to familiarize themselves with the checklist and the software. The training video was the same that was used by Schmitz et al. <TextLink reference="6"></TextLink>, who reported that the video was comprehensible and effective. </Pgraph><SubHeadline2>Sample</SubHeadline2><Pgraph>In 2014, 696 examiners rated the performances of the candidates at the different stations using the paper-based OSCE checklist. In 2015, 696 examiners rated the performances of the candidates at the different stations using the electronic OSCE checklist. All examiners were invited to take part in the survey. Only data from examiners who had worked with both checklist types (paper-based and electronic) at least one time have been included to allow for comparisons between the electronic and the paper-based OSCE checklist. </Pgraph><SubHeadline2>Material</SubHeadline2><Pgraph>The examiners evaluated the OSCE checklist type (i.e., paper-based in 2014, electronic in 2015) that they had used to rate the candidates through completion of a questionnaire (see table 1 <ImgLink imgNo="1" imgType="table"/>). The questionnaire contained a total of 14 closed questions: demographic information (three questions); experience with touch-screen devices and the two different OSCE checklist types (electronic, paper-based; three questions); subjective usability (seven questions); and future checklist type preference (one question). The replies were based on a 7-point Likert scale, from 1, as &#8220;do not agree at all&#8221;, to 7, as &#8220;fully agree&#8221;. </Pgraph><Pgraph>The usability questions were informed by System Usability Scale <TextLink reference="14"></TextLink>. However, the questionnaire had only seven questions regarding usability, to reduce the efforts of the examiners, and six further questions concerning the specific requirements in an OSCE examination setting (e.g., questions regarding speed of rating the candidates, distraction from observing the candidates, speed of correcting input errors). These questions further reflect usability aspects as indicated by Petersen <TextLink reference="9"></TextLink> (ease of use, not hindring the completion of the task).</Pgraph><Pgraph>The questionnaire was available in German and French. To ensure that the questions were clear, think-aloud trials <TextLink reference="15"></TextLink> with three examiners were conducted in both languages. During each think-aloud, the participants were asked to verbalize their thoughts while they were working on the questionnaire. This method thus allowed the identification of ambiguities and misconceptions, and it was used to make sure that the questions were correctly understood by the participants. The same questionnaire was used in 2014 and 2015. </Pgraph><Pgraph>Finally, to determine the completeness of the data, the number of missed ratings for the paper-based checklists was recorded. </Pgraph><SubHeadline2>Procedure</SubHeadline2><Pgraph>For both years, within the first week following the examination, all of the examiners were invited to evaluate the OSCE checklist type they had worked with during the examination (i.e., paper-based in 2014, electronic in 2015). Hence, a comparison across the two OSCE checklist types was possible. In 2014, the examiners received the questionnaire in paper-based form directly after the <TextGroup><PlainText>exam, in</PlainText></TextGroup> 2015 the questionnaire was implemented online <TextGroup><PlainText>using the</PlainText></TextGroup> online survey tool &#8220;Unipark&#8221; &#91;<Hyperlink href="https:&#47;&#47;www.unipark.com&#47;">https:&#47;&#47;www.unipark.com&#47;</Hyperlink>&#93; and the examiners were invited via e-mail. This type of study was regarded as exempt from formal ethical approval according to the regulations of the Ethics Committee (&#8220;Kantonale Ethikkommission&#8221; Canton of Bern) associated with the Medical Faculty of the University of Bern. Participation in the survey was voluntary and anonymous and participants have not been exposed to any conceivable risks by participating in this study. </Pgraph><SubHeadline2>Statistical analysis</SubHeadline2><Pgraph>Frequencies were analysed to report demographics of the sample. For comparisons between the paper-based and the electronic OSCE checklist, Mann-Whitney-Tests were used as the data are ordinally scaled. The alpha level was adjusted for multiple testing according to Bonferroni. The effect size is given by Pearson&#8217;s r, the magnitude of the effects was judged according to Cohen <TextLink reference="16"></TextLink>. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Methode">
      <MainHeadline>Methode</MainHeadline><SubHeadline2>Setting</SubHeadline2><Pgraph>Die Eidgen&#246;ssische Clinical Skills-Pr&#252;fung Humanmedizin in der Schweiz (die sich an den Prinzipien einer OSCE-Pr&#252;fung orientiert) umfasste 2014 und 2015 jeweils 12 verschiedene OSCE-Stationen. Die Pr&#252;fung wurde an drei aufeinanderfolgenden Tagen an f&#252;nf Fakult&#228;ten f&#252;r Humanmedizin in Basel, Bern, Genf, Lausanne und Z&#252;rich durchgef&#252;hrt. </Pgraph><Pgraph>Die papierbasierten OSCE-Checklisten, die f&#252;r die Pr&#252;fung 2014 verwendet wurden, wurden mit einem Teleform-Informationserfassungssystem (Cardiff Software) erstellt. Diese Checklisten mussten nach der Pr&#252;fung eingescannt werden (DR-6050 C Image Formula Scanner; Canon), um die Ergebnisse f&#252;r die Analyse zur Verf&#252;gung zu stellen. Die papierbasierten OSCE-Checklisten enthielten zwischen 25 und 38 Items, was auf die unterschiedlichen Inhalte der einzelnen Stationen zur&#252;ckzuf&#252;hren war. Die Items waren immer nach denselben vier Dimensionen sortiert und zwar in folgender Reihenfolge: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Anamnese, </ListItem><ListItem level="1" levelPosition="2" numString="2.">Status, </ListItem><ListItem level="1" levelPosition="3" numString="3.">Management,  </ListItem><ListItem level="1" levelPosition="4" numString="4.">Kommunikation. </ListItem></OrderedList></Pgraph><Pgraph>Die papierbasierten OSCE-Checklisten enthielten au&#223;erdem zwei globale Bewertungen f&#252;r den Gesamteindruck. Am Anfang der papierbasierten OSCE-Checklisten befand sich zudem ein Erinnerungssatz, dass alle Punkte der Checkliste ausgef&#252;llt werden m&#252;ssen.</Pgraph><Pgraph>Die elektronischen OSCE-Checklisten wurden bei der Pr&#252;fung 2015 mit identischen iPad-Ger&#228;ten der vierten Generation (2014, Apple) ausgef&#252;llt. F&#252;r die Bewertung der Kandidierenden wurde die iPad-App &#8222;OSCE-Eval&#8220; &#91;<Hyperlink href="https:&#47;&#47;eosce.ch&#47;">https:&#47;&#47;eosce.ch&#47;</Hyperlink>&#93;, Version 2.1, verwendet. Diese App enth&#228;lt verschiedene Funktionen, um potenzielle Fehler zu reduzieren und sicherzustellen, dass die gesammelten Daten f&#252;r sp&#228;tere Analysen leicht verf&#252;gbar sind. Die Benutzer erhalten visuelles Feedback um sicherzustellen, dass jedes Item ausgef&#252;llt wird. Jedes Item musste bewertet werden, um die Checkliste endg&#252;ltig einzureichen. Nach der abschlie&#223;enden Bewertung waren keine &#196;nderungen mehr m&#246;glich. Die verschl&#252;sselten Daten wurden mit einem sicheren Server synchronisiert und die Daten automatisch in eine elektronische Tabelle exportiert. Je nach den spezifischen Inhalten der Stationen enthielten die elektronischen OSCE-Checklisten zwischen 21 und 42 Items. Die Items waren nach denselben vier Dimensionen geordnet wie in der papierbasierten OSCE-Checkliste. Zus&#228;tzlich gab es in jeder Checkliste zwei globale Bewertungen f&#252;r den Gesamteindruck (siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> und Abbildung 2 <ImgLink imgNo="2" imgType="figure"/> f&#252;r Beispiele beider Checklisten-Typen). Die elektronischen Checklisten wurden nach den damaligen Usability-Standards entwickelt und es wurden erhebliche Anstrengungen unternommen, um ihre Akzeptanz w&#228;hrend der Entwicklung iterativ zu &#252;berpr&#252;fen.</Pgraph><Pgraph>Bei der Einf&#252;hrung in die OSCE-Pr&#252;fung wurden die Pr&#252;fenden sowohl 2014 als auch 2015 kurz in die Verwendung der Checklisten und die Bewertung der Kandidierenden eingewiesen. Zus&#228;tzlich hatten die Pr&#252;fenden, die mit der elektronischen OSCE-Checkliste arbeiteten (im Jahr 2015), die M&#246;glichkeit, sich vor der Pr&#252;fung ein spezielles, 6-min&#252;tiges Schulungsvideo anzusehen, um sich mit der Checkliste und der Software vertraut zu machen. Dabei handelte es sich um dasselbe Schulungsvideo, das auch von Schmitz et al. <TextLink reference="6"></TextLink> verwendet wurde, welche berichteten, dass das Video verst&#228;ndlich und effektiv war.</Pgraph><SubHeadline2>Stichprobe</SubHeadline2><Pgraph>Im Jahr 2014 bewerteten 696 Pr&#252;fende die Leistungen der Kandidierenden an den verschiedenen Stationen anhand der papierbasierten OSCE-Checkliste. Im Jahr 2015 bewerteten 696 Pr&#252;fende die Leistungen der Kandidierenden an den verschiedenen Stationen anhand der elektronischen OSCE-Checkliste. Alle Pr&#252;fenden wurden eingeladen, an der Umfrage teilzunehmen. Es wurden nur Daten von Pr&#252;fenden ber&#252;cksichtigt, die mindestens einmal mit beiden Checklisten-Typen (papierbasiert und elektronisch) gearbeitet hatten, um einen Vergleich zwischen der elektronischen und der papierbasierten OSCE-Checkliste zu erm&#246;glichen.</Pgraph><SubHeadline2>Material</SubHeadline2><Pgraph>Die Pr&#252;fenden bewerteten den OSCE-Checklisten-Typ (d. h. papierbasiert im Jahr 2014, elektronisch im Jahr 2015), den sie zur Bewertung der Kandidierenden verwendet hatten, anhand eines Fragebogens (siehe Tabelle 1 <ImgLink imgNo="1" imgType="table"/>). Der Fragebogen enthielt insgesamt 14 geschlossene Fragen: demographische Angaben (drei Fragen), Erfahrung mit Touchscreen-Ger&#228;ten und den beiden verschiedenen OSCE-Checklisten-Typen (elektronisch, papierbasiert; drei Fragen), subjektive Usability (sieben Fragen) und zuk&#252;nftige Pr&#228;ferenz f&#252;r den Checklisten-Typ (eine Frage). Die Antworten basierten auf einer 7-stufigen Likert-Skala, die von 1 (trifft gar nicht zu) bis 7 (trifft voll zu) reichte. </Pgraph><Pgraph>Die Fragen zur Usability orientierten sich an der System Usability Scale <TextLink reference="14"></TextLink>. Der Fragebogen enthielt jedoch nur sieben Fragen zur Usability, um den Aufwand f&#252;r die Pr&#252;fenden zu reduzieren und sechs weitere Fragen, die sich auf die spezifischen Anforderungen in einer OSCE-Pr&#252;fungssituation beziehen (z. B. Fragen zur Geschwindigkeit der Bewertung der Kandidierenden, Ablenkung durch die Beobachtung der Kandidierenden, Geschwindigkeit der Korrektur von Eingabefehlern). Diese Fragen spiegeln zudem Usability-Aspekte im Sinne von Petersen <TextLink reference="9"></TextLink> wider (Benutzerfreundlichkeit, keine Behinderung der Aufgabenerf&#252;llung).</Pgraph><Pgraph>Der Fragebogen lag in deutscher und franz&#246;sischer Sprache vor. Um die Verst&#228;ndlichkeit der Fragen zu gew&#228;hrleisten, wurden in beiden Sprachen Think-Alouds <TextLink reference="15"></TextLink> mit drei Pr&#252;fenden durchgef&#252;hrt. Bei jedem Think-Aloud wurden die Teilnehmenden gebeten, ihre Gedanken zu verbalisieren, w&#228;hrend sie den Fragebogen bearbeiteten. Auf diese Weise konnten Unklarheiten und Missverst&#228;ndnisse aufgedeckt werden und es wurde sichergestellt, dass die Teilnehmenden die Fragen richtig verstanden. Der gleiche Fragebogen wurde 2014 und 2015 verwendet. </Pgraph><Pgraph>Um schlie&#223;lich die Vollst&#228;ndigkeit der Daten zu ermitteln, wurde die Anzahl der fehlenden Bewertungen bei den papierbasierten Checklisten erfasst.</Pgraph><SubHeadline2>Vorgehen</SubHeadline2><Pgraph>In beiden Jahren wurden alle Pr&#252;fenden innerhalb der ersten Woche nach der Pr&#252;fung eingeladen, den OSCE-Checklisten-Typ zu bewerten, mit dem sie w&#228;hrend der Pr&#252;fung gearbeitet hatten (d. h. papierbasiert im Jahr 2014, elektronisch im Jahr 2015). Somit war ein Vergleich zwischen den beiden OSCE-Checklisten-Typen m&#246;glich. Im Jahr 2014 erhielten die Pr&#252;fenden den Fragebogen in Papierform direkt nach der Pr&#252;fung, im Jahr 2015 wurde der Fragebogen online mit dem Online-Umfragetool &#8222;Unipark&#8220; &#91;<Hyperlink href="https:&#47;&#47;www.unipark.com&#47;">https:&#47;&#47;www.unipark.com&#47;</Hyperlink>&#93; umgesetzt und die Pr&#252;fenden wurden per E-Mail eingeladen. Diese Art von Studie war gem&#228;ss den Bestimmungen der Kantonalen Ethikkommission des Kantons Bern, welche mit der Medizinischen Fakult&#228;t der Universit&#228;t Bern assoziiert ist, von einer formellen ethischen Genehmigung ausgenommen. Die Teilnahme an der Umfrage war freiwillig und anonym und die Teilnehmenden wurden durch die Teilnahme an dieser Studie keinen denkbaren Risiken ausgesetzt.</Pgraph><SubHeadline2>Statistische Analyse</SubHeadline2><Pgraph>Die H&#228;ufigkeiten wurden analysiert um die demographischen Daten der Stichprobe darzustellen. F&#252;r Vergleiche zwischen der papierbasierten und der elektronischen OSCE-Checkliste wurden Mann-Whitney-Tests verwendet, da die Daten ordinalskaliert sind. Das Alpha-Niveau wurde gem&#228;&#223; Bonferroni f&#252;r multiples Testen angepasst. Die Effektgr&#246;&#223;e wird durch Pearson&#39;s r angegeben, die Effektst&#228;rke wurde nach Cohen <TextLink reference="16"></TextLink> beurteilt.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Results">
      <MainHeadline>Results</MainHeadline><SubHeadline2>Participants</SubHeadline2><Pgraph>In 2014, 696 examiners rated the performances of the candidates at the different stations using the paper-based OSCE checklist. Of these, 540 (78&#37;) completed the survey questionnaire. In 2015, 696 examiners rated the performances of the candidates at the different stations using the electronic OSCE checklist. Here, the response rate was 58&#37;, where 406 of the 696 examiners completed the survey questionnaire. </Pgraph><Pgraph>The questionnaire datasets from 35 (4&#37;) examiners were removed from the database due to missing data (2014: 19 datasets; 2015: 16 datasets). All datasets that were removed contained no useful information as these persons stopped filling out the questionnaire after the language selection right in the beginning of the questionnaire. Datasets from 911 (96&#37;) examiners were taken forward for the analysis. Of these 911 examiners, 377 (41&#37;) reported that they had worked with both checklist types (paper-based and electronic) at least once. This included examiners from both years, as examiners who worked with the paper-based OSCE checklist in 2014 might have had previous experience with electronic OSCE checklists for other examinations. Only the responses from these examiners who had experience with both checklist types were included in the quantitative analysis. Table 2 <ImgLink imgNo="2" imgType="table"/> details the experiences of the examiners for both of the checklist types. </Pgraph><SubHeadline2>Demographic questions</SubHeadline2><Pgraph>The demographics of the examiners in the final sample are presented in table 2 <ImgLink imgNo="2" imgType="table"/>. </Pgraph><SubHeadline2>Touch-screen experience</SubHeadline2><Pgraph>Most examiners from both years had vast (M<Subscript>2014</Subscript>&#61;6.21, M<Subscript>2015</Subscript>&#61;6.08; scale: 1, &#8220;not experienced at all&#8221;, to 7, &#8220;very experienced&#8221;) and comparable experience with the use of touch-screens (<Mark2>U</Mark2>&#61;13933.5, <Mark2>n.s.</Mark2>). Thus, the examiner ratings and checklist type preferences (i.e., paper-based vs. electronic) are unlikely to be influenced by their prior experience with touch-screen devices. </Pgraph><SubHeadline2>Usability </SubHeadline2><Pgraph>Mann-Whitney-Tests indicated that the majority of the examiner&#8217;s usability ratings significantly differed between the electronic and the paper-based OSCE checklists (see table 3 <ImgLink imgNo="3" imgType="table"/>). The Bonferroni adjusted alpha level for the seven comparisons described in the following was .007. The electronic OSCE checklist was rated as significantly easier to use (<Mark2>U</Mark2>&#61;9799.5, <Mark2>p</Mark2>&#60;0.007, <Mark2>r</Mark2>&#61;.33) and clearer (<Mark2>U</Mark2>&#61;11441.5, <Mark2>p</Mark2>&#60;0.007, <Mark2>r</Mark2>&#61;.21) than the paper-based OSCE checklist. The electronic OSCE checklist also scored significantly higher for speed of rating of candidates (<Mark2>U</Mark2>&#61;11408, <Mark2>p</Mark2>&#60;0.007, <Mark2>r</Mark2>&#61;.20) and correcting input errors (<Mark2>U</Mark2>&#61;7766.5, <Mark2>p</Mark2>&#60;0.007, <Mark2>r</Mark2>&#61;.41). Furthermore, filling in the electronic OSCE checklist was rated as significantly less distracting than filling in the paper-based OSCE checklist (<Mark2>U</Mark2>&#61;11673, <Mark2>p</Mark2>&#60;0.007, <Mark2>r</Mark2>&#61;.18). The speed of writing comments was not rated differently between the two checklist types (<Mark2>U</Mark2>&#61;12554, <Mark2>p</Mark2>&#61;0.035, n.s., <Mark2>r</Mark2>&#61;.11). The overall satisfaction of examiners was also significantly higher with the electronic than the paper-based OSCE checklist (<Mark2>U</Mark2>&#61;7499, <Mark2>p</Mark2>&#60;0.007, <Mark2>r</Mark2>&#61;.42) (see table 4 <ImgLink imgNo="4" imgType="table"/>). The effects sizes according to Cohen <TextLink reference="16"></TextLink> were either medium (between 0.3 and 0.5), or low (between 0.1 and 0.3). Taken together, the electronic OSCE checklist received higher usability ratings than the paper-based OSCE checklist.</Pgraph><SubHeadline2>Checklist type preference</SubHeadline2><Pgraph>At the end of the questionnaire, the examiners from both 2014 and 2015 who had indicated experience with both electronic and paper-based OSCE checklists were asked whether they would rather work with electronic or paper-based OSCE checklists in the future (see table 4 <ImgLink imgNo="4" imgType="table"/>). Across both years, the majority of these examiners who had had experience with both electronic and paper-based OSCE checklists preferred the electronic format. </Pgraph><SubHeadline2>Missed ratings for the paper-based OSCE checklist</SubHeadline2><Pgraph>The number of missed ratings in the paper-based checklist was recorded (see table 5 <ImgLink imgNo="5" imgType="table"/>). In 1428 (14.2&#37;) of all of the paper-based checklists, there were missed ratings. These checklists contained between 1 and 12 missed ratings (<Mark2>M</Mark2>&#61;1.45, <Mark2>SD</Mark2>&#61;1.03). In the majority of these checklists, one rating was missed. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Ergebnisse">
      <MainHeadline>Ergebnisse</MainHeadline><SubHeadline2>Teilnehmende</SubHeadline2><Pgraph>Im Jahr 2014 bewerteten 696 Pr&#252;fende die Leistungen der Kandidierenden an den verschiedenen Stationen anhand der papierbasierten OSCE-Checkliste. Davon f&#252;llten 540 (78&#37;) den Fragebogen aus. Im Jahr 2015 bewerteten 696 Pr&#252;fende die Leistungen der Kandidierenden an den verschiedenen Stationen anhand der elektronischen OSCE-Checkliste. Hier lag die R&#252;cklaufquote bei 58&#37;, wobei 406 der 696 Pr&#252;fenden den Fragebogen ausf&#252;llten. </Pgraph><Pgraph>Die Fragebogendatens&#228;tze von 35 (4&#37;) Pr&#252;fenden wurden aufgrund fehlender Daten aus der Datenbank entfernt (2014: 19 Datens&#228;tze; 2015: 16 Datens&#228;tze). Alle Datens&#228;tze, die entfernt wurden, enthielten keine n&#252;tzlichen Informationen, da diese Personen das Ausf&#252;llen des Fragebogens nach der Sprachauswahl gleich zu Beginn des Fragebogens abbrachen. Die Datens&#228;tze von 911 (96&#37;) Pr&#252;fenden wurden f&#252;r die Analyse &#252;bernommen. Von diesen 911 Pr&#252;fenden gaben 377 (41&#37;) an, dass sie mindestens einmal mit beiden Checklisten-Typen (papierbasiert und elektronisch) gearbeitet hatten. Darunter befanden sich Pr&#252;fende aus beiden Jahren, da Pr&#252;fende, die 2014 mit der papierbasierten OSCE-Checkliste arbeiteten, bereits bei anderen Pr&#252;fungen Erfahrungen mit elektronischen OSCE-Checklisten gemacht haben konnten. Nur die Antworten derjenigen Pr&#252;fenden, die Erfahrung mit beiden Checklisten-Typen hatten, wurden in die quantitative Analyse einbezogen. In Tabelle 2 <ImgLink imgNo="2" imgType="table"/> sind die Erfahrungen der Pr&#252;fenden mit beiden Checklisten-Typen angegeben.</Pgraph><SubHeadline2>Demographische Fragen</SubHeadline2><Pgraph>Die demographischen Daten der Pr&#252;fenden der endg&#252;ltigen Stichprobe sind in Tabelle 2 <ImgLink imgNo="2" imgType="table"/> dargestellt. </Pgraph><SubHeadline2>Touch-Screen-Erfahrung</SubHeadline2><Pgraph>Die meisten Pr&#252;fenden aus beiden Jahren hatten gro&#223;e (M<Subscript>2014</Subscript>&#61;6.21, M<Subscript>2015</Subscript>&#61;6.08; Skala: 1&#61;&#8222;&#252;berhaupt nicht vertraut&#8220;, bis 7&#61;&#8222;sehr vertraut&#8220;) und vergleichbare Erfahrung mit der Verwendung von Touchscreens (U&#61;13933,5, n.s.). Daher ist es unwahrscheinlich, dass die Bewertungen der Pr&#252;fenden und die Pr&#228;ferenzen f&#252;r den Checklisten-Typ (d. h. papierbasiert vs. elektronisch) durch ihre vorherige Erfahrung mit Touchscreen-Ger&#228;ten beeinflusst wurden.</Pgraph><SubHeadline2>Usability </SubHeadline2><Pgraph>Mann-Whitney-Tests ergaben, dass sich die meisten Bewertungen der Usability durch die Pr&#252;fenden zwischen den elektronischen und den papierbasierten OSCE-Checklisten signifikant unterschieden (siehe Tabelle 3 <ImgLink imgNo="3" imgType="table"/>). Das Bonferroni-korrigierte Alpha-Niveau f&#252;r die sieben im Folgenden beschriebenen Vergleiche betrug .007. Die elektronische OSCE-Checkliste wurde als signifikant einfacher zu benutzen (U&#61;9799.5, p&#60;0.007, r&#61;.33) und &#252;bersichtlicher (U&#61;11441.5, p&#60;0.007, r&#61;.21) als die papierbasierte OSCE-Checkliste bewertet. Die elektronische OSCE-Checkliste schnitt auch bei der Geschwindigkeit der Bewertung der Kandidierenden (U&#61;11408, p&#60;0.007, r&#61;.20) und der Korrektur von Eingabefehlern (U&#61;7766.5, p&#60;0.007, r&#61;.41) signifikant besser ab. Au&#223;erdem wurde das Ausf&#252;llen der elektronischen OSCE-Checkliste als signifikant weniger ablenkend empfunden als das Ausf&#252;llen der papierbasierten OSCE-Checkliste (U&#61;11673, p&#60;0.007, r&#61;.18). Die Geschwindigkeit, mit der Kommentare geschrieben werden konnten, wurde zwischen den beiden Checklisten-Typen nicht als unterschiedlich bewertet (U&#61;12554, p&#61;0.035, n.s., r&#61;.11). Auch die Gesamtzufriedenheit der Pr&#252;fenden war bei der elektronischen OSCE-Checkliste signifikant h&#246;her als bei der papierbasierten (U&#61;7499, p&#60;0.007, r&#61;.42) (siehe Tabelle 4 <ImgLink imgNo="4" imgType="table"/>). Die Effektst&#228;rken nach Cohen <TextLink reference="16"></TextLink> waren entweder mittel (zwischen 0.3 und 0.5) oder gering (zwischen 0.1 und 0.3). Insgesamt erhielt die elektronische OSCE-Checkliste h&#246;here Usability-Bewertungen als die papierbasierte OSCE-Checkliste.</Pgraph><SubHeadline2>Checklisten-Typ-Pr&#228;ferenz</SubHeadline2><Pgraph>Am Ende des Fragebogens wurden die Pr&#252;fenden aus den Jahren 2014 und 2015, die Erfahrungen sowohl mit elektronischen als auch mit papierbasierten OSCE-Checklisten angegeben hatten, gefragt, ob sie in Zukunft lieber mit elektronischen oder papierbasierten OSCE-Checklisten arbeiten w&#252;rden (siehe Tabelle 4 <ImgLink imgNo="4" imgType="table"/>). In beiden Jahren bevorzugte die Mehrheit dieser Pr&#252;fenden, die Erfahrungen sowohl mit elektronischen als auch mit papierbasierten OSCE-Checklisten gemacht hatten, das elektronische Format. </Pgraph><SubHeadline2>Fehlende Bewertungen in der papierbasierten OSCE-Checkliste</SubHeadline2><Pgraph>Die Anzahl der fehlenden Bewertungen in den papierbasierten Checklisten wurde erfasst (siehe Tabelle 5 <ImgLink imgNo="5" imgType="table"/>). In 1428 (14.2&#37;) aller papierbasierten Checklisten wurden Bewertungen ausgelassen. Diese Checklisten enthielten zwischen 1 und 12 fehlende Bewertungen (M&#61;1.45, SD&#61;1.03). In der Mehrheit dieser Checklisten wurde eine Bewertung ausgelassen. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Discussion">
      <MainHeadline>Discussion</MainHeadline><Pgraph>In this study that included a large sample of examiners experienced with electronic and paper-based OSCE checklists from five different faculties in the Swiss Federal licensing examination over two subsequent years, the perceived usability was significantly higher for the electronic than the paper-based OSCE checklist in all aspects except for the speed of writing comments, where no significant difference was observed. Furthermore, the vast majority of the examiners preferred to work with the electronic OSCE checklist in the future. Finally, there were missed ratings in 14.2&#37; of all of the paper-based checklists versus none in the electronic checklist (as the electronic system required all checklist items to be completed). </Pgraph><Pgraph>We were able to show here that electronic OSCE checklists have higher perceived usability than paper-based checkists across a large dataset of examiners from five different faculties in the Swiss Federal Licensing examination. To date, the usability of electronic OSCE checklists has only been investigated in studies that have included mostly small to medium numbers of examiners <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>, <TextLink reference="12"></TextLink>. Given the high cognitive load <TextLink reference="10"></TextLink> that these examiners experience during an OSCE, the usability of the OSCE checklist type to rate the candidates is essential. The examiners in this study overall were more satisfied with the electronic than with the paper-based OSCE checklist. They perceived the electronic OSCE checklist as clearer and easier to use compared to the paper-based OSCE checklist, while they also felt less distracted during the examinations. Furthermore, rating the candidates as well as correcting input errors was reported to be easier for the electronic compared to the paper-based OSCE checklist. However, there was no significant difference regarding the perceived speed of writing comments on a touch-pad (i.e., the electronic OSCE checklist) and writing comments on paper. It can be assumed that all of these factors contribute to allow the examiners to better focus their attention on the candidates and their performances during the examinations, thus keeping the cognitive load of the examiners lower in the electronic OSCE checklist.</Pgraph><Pgraph>Our analysis of missed ratings in the paper-based OSCE checklists showed that in some of the individual checklists, there were indeed a large number of missed items. However, overall, the amount of missed items was moderate, as this was seen for 14.2&#37; of all of the paper-based OSCE checklists. In the majority of these (10.6&#37; of all checklists containing missed items), only one missed item was found. The mean number of missed ratings in these checklists was 1.45 overall, which is a good deal lower compared to the missing ratings reported by Schmitz et al. <TextLink reference="6"></TextLink>. The number of missed ratings for such paper-based checklists therefore appears to vary greatly between different examinations and examiners. With the use of electronic OSCE checklists on the other hand, missed ratings can be prevented altogether, which represents an important advantage of the electronic OSCE checklist, as it ensures higher data quality <TextLink reference="6"></TextLink>, <TextLink reference="8"></TextLink>, <TextLink reference="12"></TextLink>. The output quality as an important aspect of usability <TextLink reference="9"></TextLink> thus is clearly higher in electronic OSCE checklists. Despite the introduction to the paper-based OSCE checklist at the beginning of the exam and a reminder sentence on top of the checklist, there were still cases where examiners missed to rate items. One possible explanation could be that because of the lower usability of the paper-based checklist, the coginitve load became too high for the examiners in some situations which may have lead to the missed ratings. </Pgraph><Pgraph>The analysis of the checklist type preferences showed a clear result. Both in 2014 (54.5&#37;) and in 2015 (89.9&#37;) the majority of the examiners who were experienced with both OSCE checklist types specified that they would prefer to work with electronic OSCE checklists in the future, thus confirming the results of Schmitz et al. <TextLink reference="6"></TextLink> and Currie et al. <TextLink reference="8"></TextLink>. We assume that this finding is related to the higher perceived usability of the electronic OSCE checklist. </Pgraph><Pgraph>The strengths of the present study are the large numbers of examiners involved, the high proportion of these examiners who had experience with both types of OSCE checklists (i.e., paper-based and electronic), and the multi-institutional (national) setting that included examiners from five different faculties from two language regions. </Pgraph><Pgraph>A limitation of this study is that except for the missed ratings, these data are based on the subjective impressions of the examiners with regard to the use of these checklists, rather than providing an objective measure of usability.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Diskussion">
      <MainHeadline>Diskussion</MainHeadline><Pgraph>In dieser Studie, die eine gro&#223;e Stichprobe von Pr&#252;fenden mit Erfahrung mit elektronischen und papierbasierten OSCE-Checklisten aus f&#252;nf verschiedenen Fakult&#228;ten im Rahmen der Eidgen&#246;ssische Clinical Skills-Pr&#252;fung Humanmedizin in der Schweiz &#252;ber zwei aufeinanderfolgende Jahre umfasste, war die wahrgenommene Usability bei der elektronischen OSCE-Checkliste in allen Aspekten signifikant h&#246;her als bei der papierbasierten, mit Ausnahme der Geschwindigkeit beim Verfassen von Kommentaren, bei welcher kein signifikanter Unterschied festgestellt wurde. Au&#223;erdem bevorzugte es die &#252;berwiegende Mehrheit der Pr&#252;fenden, in Zukunft mit der elektronischen OSCE-Checkliste zu arbeiten. Schlie&#223;lich gab es in 14.2&#37; aller papierbasierten Checklisten fehlende Bewertungen, w&#228;hrend es in den elektronischen Checklisten keine gab (in der elektronischen Checkliste mussten alle Items ausgef&#252;llt werden). </Pgraph><Pgraph>Wir konnten in dieser Studie in einem gro&#223;en Datensatz von Pr&#252;fenden aus f&#252;nf verschiedenen Fakult&#228;ten der Eidgen&#246;ssischen Clinical Skills-Pr&#252;fung zeigen, dass elektronische OSCE-Checklisten eine h&#246;here wahrgenommene Usability aufweisen, als papierbasierte Checklisten. Bislang wurde die Usability elektronischer OSCE-Checklisten nur in Studien mit einer meist kleinen bis mittleren Anzahl von Pr&#252;fenden untersucht <TextLink reference="6"></TextLink>, <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>, <TextLink reference="12"></TextLink>. Angesichts der hohen kognitiven Belastung <TextLink reference="10"></TextLink>, der die Pr&#252;fenden w&#228;hrend eines OSCE ausgesetzt sind, ist die Usability des OSCE-Checklisten-Typs zur Bewertung der Kandidierenden von wesentlicher Bedeutung. Die Pr&#252;fenden in dieser Studie waren insgesamt zufriedener mit der elektronischen OSCE-Checkliste als mit der papierbasierten. Sie empfanden die elektronische OSCE-Checkliste im Vergleich zur papierbasierten OSCE-Checkliste als &#252;bersichtlicher und einfacher zu benutzen und f&#252;hlten sich w&#228;hrend der Pr&#252;fung auch weniger abgelenkt. Dar&#252;ber hinaus wurde die Bewertung der Kandidierenden sowie die Korrektur von Eingabefehlern bei der elektronischen OSCE-Checkliste als einfacher empfunden als bei der papierbasierten OSCE-Checkliste. Es gab jedoch keinen signifikanten Unterschied hinsichtlich der wahrgenommenen Geschwindigkeit beim Schreiben von Kommentaren auf einem Touch-Pad (d. h. der elektronischen OSCE-Checkliste) und beim Schreiben von Kommentaren auf Papier. Es ist davon auszugehen, dass all diese Faktoren dazu beitragen, dass die Pr&#252;fenden ihre Aufmerksamkeit besser auf die Kandidierenden und ihre Leistungen richten k&#246;nnen w&#228;hrend der Pr&#252;fung, wodurch die kognitive Belastung der Pr&#252;fenden bei der elektronischen OSCE-Checkliste geringer bleibt.</Pgraph><Pgraph>Unsere Analyse der fehlenden Bewertungen in den papierbasierten OSCE-Checklisten ergab, dass in einigen der einzelnen Checklisten tats&#228;chlich eine gr&#246;&#223;ere Anzahl von Items fehlte. Insgesamt war die Anzahl der ausgelassenen Items jedoch moderat, da dies nur bei 14.2&#37; aller papierbasierten OSCE-Checklisten der Fall war. In der Mehrzahl dieser Checklisten (10.6&#37; aller Checklisten mit fehlenden Items) wurde nur ein fehlendes Item gefunden. Die durchschnittliche Anzahl der fehlenden Bewertungen in diesen Checklisten betrug insgesamt 1.45, was im Vergleich zu den von Schmitz et al. <TextLink reference="6"></TextLink> gemeldeten fehlenden Bewertungen viel geringer ist. Die Anzahl der fehlenden Bewertungen bei papierbasierten OSCE-Checklisten scheint also zwischen verschiedenen Pr&#252;fungen und Pr&#252;fenden stark zu variieren. Bei der Verwendung elektronischer OSCE-Checklisten hingegen k&#246;nnen fehlende Bewertungen g&#228;nzlich vermieden werden, was einen wichtigen Vorteil der elektronischen OSCE-Checkliste darstellt, da sie dadurch eine h&#246;here Datenqualit&#228;t gew&#228;hrleistet <TextLink reference="6"></TextLink>, <TextLink reference="8"></TextLink>, <TextLink reference="12"></TextLink>. Die Qualit&#228;t des Outputs als wichtiger Aspekt der Usability <TextLink reference="9"></TextLink> ist somit bei elektronischen OSCE-Checklisten deutlich h&#246;her. Trotz der Einf&#252;hrung in die papierbasierte OSCE-Checkliste zu Beginn der Pr&#252;fung und eines Erinnerungssatzes oben auf der Checkliste gab es immer noch F&#228;lle, in denen Pr&#252;fende es vers&#228;umten, Items zu bewerten. Eine m&#246;gliche Erkl&#228;rung daf&#252;r k&#246;nnte sein, dass aufgrund der geringeren Usability der papierbasierten Checkliste die kognitive Belastung f&#252;r die Pr&#252;fenden in einigen Situationen zu hoch wurde, was zu den vers&#228;umten Bewertungen gef&#252;hrt haben k&#246;nnte. </Pgraph><Pgraph>Die Analyse der Pr&#228;ferenzen f&#252;r den jeweiligen Checklisten-Typ zeigte ein klares Ergebnis. Sowohl 2014 (54.5&#37;) als auch 2015 (89.9&#37;) gab die Mehrheit der mit beiden OSCE-Checklisten-Typen erfahrenen Pr&#252;fenden an, dass sie in Zukunft lieber mit elektronischen OSCE-Checklisten arbeiten w&#252;rde, was die Ergebnisse von Schmitz et al. <TextLink reference="6"></TextLink> und Currie et al. <TextLink reference="8"></TextLink> best&#228;tigt. Wir gehen davon aus, dass dieses Ergebnis mit der h&#246;heren wahrgenommenen Usability der elektronischen OSCE-Checkliste zusammenh&#228;ngt. </Pgraph><Pgraph>Die St&#228;rken der vorliegenden Studie sind die gro&#223;e Anzahl der beteiligten Pr&#252;fenden, der hohe Anteil dieser Pr&#252;fenden, der mit beiden Arten von OSCE-Checklisten (d. h. papierbasiert und elektronisch) Erfahrung hatte und der multi-institutionelle (nationale) Rahmen, der Pr&#252;fende aus f&#252;nf verschiedenen Fakult&#228;ten aus zwei Sprachregionen umfasste. </Pgraph><Pgraph>Eine Einschr&#228;nkung dieser Studie besteht darin, dass die Daten &#8211; abgesehen von den fehlenden Bewertungen &#8211; auf den subjektiven Eindr&#252;cken der Pr&#252;fenden in Bezug auf die Verwendung der Checklisten beruhen und kein objektives Ma&#223; f&#252;r die Usability darstellen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Conclusions">
      <MainHeadline>Conclusions</MainHeadline><Pgraph>The results of the present study show that the perceived usability of electronic OSCE checklists compared to traditional paper-based checklists was significantly higher, except for the speed of writing comments, where there was no statistically significant difference. The majority of the examiners experienced with both electronic and paper-based OSCE checklists preferred to work with the electronic OSCE checklists in the future. Importantly, while missed ratings are a common issue in paper-based checklists, they can be completely prevented when electronic OSCE checklists are used, which ensures high data quality. Overall, the results of the present study with a large number of examiners across different faculties show that if developed with a focus on usability, electronic OSCE checklists have advantages that go beyond technical factors, and so they can be considered as an advisable alternative to paper-based OSCE checklists. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Schlussfolgerungen">
      <MainHeadline>Schlussfolgerungen</MainHeadline><Pgraph>Die Ergebnisse der vorliegenden Studie zeigen, dass die wahrgenommene Usability elektronischer OSCE-Checklisten im Vergleich zu traditionellen papierbasierten Checklisten signifikant h&#246;her war, mit Ausnahme der Geschwindigkeit beim Verfassen von Kommentaren, bei der es keinen statistisch signifikanten Unterschied gab. Die Mehrheit der Pr&#252;fenden, die sowohl mit elektronischen als auch mit papierbasierten OSCE-Checklisten Erfahrung hatten, zog es vor, in Zukunft mit den elektronischen OSCE-Checklisten zu arbeiten. Wichtig ist, dass fehlende Bewertungen bei papierbasierten Checklisten ein h&#228;ufiges Problem sind, w&#228;hrend sie bei der Verwendung elektronischer OSCE-Checklisten vollst&#228;ndig vermieden werden k&#246;nnen, was eine hohe Datenqualit&#228;t gew&#228;hrleistet. Insgesamt zeigen die Ergebnisse der vorliegenden Studie mit einer gro&#223;en Zahl von Pr&#252;fenden aus verschiedenen Fakult&#228;ten, dass elektronische OSCE-Checklisten, wenn sie mit Schwerpunkt auf Usability entwickelt werden, Vorteile haben, die &#252;ber technische Faktoren hinausgehen und daher als empfehlenswerte Alternative zu papierbasierten OSCE-Checklisten betrachtet werden k&#246;nnen.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Declarations">
      <MainHeadline>Declarations</MainHeadline><SubHeadline2>Ethics approval and consent to participate</SubHeadline2><Pgraph>This type of study was regarded as exempt from formal ethical approval according to the regulations of the Ethics Committee (&#8216;Kantonale Ethikkommission&#8217; Canton of Bern) associated with the Medical Faculty of the University of Bern. Nevertheless, we confirm that this study was conducted according to the Declaration of Helsinki where applicable for this type of study, and that participants took part on a voluntary basis, they cannot be identified by the material presented, and they have not been exposed to any conceivable risks by participating in this study.</Pgraph><SubHeadline2>Consent for publication</SubHeadline2><Pgraph>Not applicable. The images provided in this manuscript show a fictitious example created specifically for this publication to illustrate the electronic and paper-based OSCE checklists.</Pgraph><SubHeadline2>Availability of data and materials</SubHeadline2><Pgraph>The datasets analysed during the current study are available from the corresponding author on reasonable request. More information about the OSCE-Eval application can be found at the website &#91;<Hyperlink href="https:&#47;&#47;eosce.ch&#47;">https:&#47;&#47;eosce.ch&#47;</Hyperlink>&#93;.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Deklarationen">
      <MainHeadline>Deklarationen</MainHeadline><SubHeadline2>Ethische Genehmigung und Zustimmung zur Teilnahme</SubHeadline2><Pgraph>Diese Art von Studie wurde gem&#228;ss den Bestimmungen der Kantonalen Ethikkommission der Medizinischen Fakult&#228;t der Universit&#228;t Bern als von einer formellen ethischen Genehmigung ausgenommen betrachtet. Dennoch best&#228;tigen wir, dass diese Studie in &#220;bereinstimmung mit der Deklaration von Helsinki durchgef&#252;hrt wurde, soweit sie f&#252;r diese Art von Studie anwendbar ist und dass die Teilnehmer auf freiwilliger Basis teilgenommen haben, dass sie durch das pr&#228;sentierte Material nicht identifiziert werden k&#246;nnen und dass sie durch die Teilnahme an dieser Studie keinen denkbaren Risiken ausgesetzt wurden.</Pgraph><SubHeadline2>Einverst&#228;ndnis zur Ver&#246;ffentlichung</SubHeadline2><Pgraph>Nicht anwendbar. Die Abbildungen in diesem Manuskript zeigen ein fiktives Beispiel, das speziell f&#252;r diese Ver&#246;ffentlichung erstellt wurde, um die elektronischen und papierbasierten OSCE-Checklisten zu veranschaulichen.</Pgraph><SubHeadline2>Verf&#252;gbarkeit von Daten und Materialien</SubHeadline2><Pgraph>Die im Rahmen der aktuellen Studie analysierten Datens&#228;tze sind auf begr&#252;ndete Anfrage bei der entsprechenden Autorin erh&#228;ltlich. Weitere Informationen &#252;ber die OSCE-Eval-Anwendung finden Sie auf der Website &#91;<Hyperlink href="https:&#47;&#47;eosce.ch&#47;">https:&#47;&#47;eosce.ch&#47;</Hyperlink>&#93;.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Funding">
      <MainHeadline>Funding</MainHeadline><Pgraph>This study was funded by the Institute for Medical Education, University of Bern, Switzerland.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="F&#246;rderung">
      <MainHeadline>F&#246;rderung</MainHeadline><Pgraph>Diese Studie wurde vom Institut f&#252;r Medizinische Lehre der Universit&#228;t Bern, Schweiz, finanziert.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Authors&#8217; contributions">
      <MainHeadline>Authors&#8217; contributions</MainHeadline><Pgraph>F.W. analyzed and interpreted the data and wrote the manuscript with support from S.H. R.K. helped in the analysis of the data. S.H., S.F., F.S. and P.Z. constructed the questionnaire for the survey. S.G., S.F., R.K., F.S., P.Z. and S.H. critically revised the manuscript. All authors have read and approved the final manuscript.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Beitr&#228;ge der Autoren">
      <MainHeadline>Beitr&#228;ge der Autoren</MainHeadline><Pgraph>F.W. analysierte und interpretierte die Daten und schrieb das Manuskript mit Unterst&#252;tzung von S.H.. R.K. half bei der Analyse der Daten. S.H., S.F., F.S. und P.Z. erstellten den Fragebogen f&#252;r die Umfrage. S.G., S.F., R.K., F.S., P.Z. und S.H. haben das Manuskript kritisch &#252;berarbeitet. Alle Autoren haben das endg&#252;ltige Manuskript gelesen und genehmigt.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Acknowledgements">
      <MainHeadline>Acknowledgements</MainHeadline><Pgraph>We would like to thank: the examiners for participating in the survey; the site responsibles, Monica Escher, Felix Eymann, Claudia Glauser, David Gachoud and Roger Kropf; the members of the clinical skills working group, Gianmarco Balestra, Christoph Berendonk, Sylvie F&#233;lix, Sabine Feller, Philippe Huber, Matteo Monti, Kai Schnabel, and Ernst J&#252;nger; and the IT support team of the Swiss Federal Licensing Examination at the faculties of Basel, Bern, Geneva, Lausanne and Zurich. Furthermore, we thank Daniel Stricker for his advice on the analysis of the missed items. Finally, we would like to thank the Federal Office of Public Health and the Examinations Commission for supporting this examination. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Danksagung">
      <MainHeadline>Danksagung</MainHeadline><Pgraph>Wir danken: den Pr&#252;fenden f&#252;r die Teilnahme an der Umfrage; den Verantwortlichen vor Ort, Monica Escher, Felix Eymann, Claudia Glauser, David Gachoud und Roger Kropf; den Mitgliedern der Arbeitsgruppe f&#252;r klinische F&#228;higkeiten, Gianmarco Balestra, Christoph Berendonk, Sylvie F&#233;lix, Sabine Feller, Philippe Huber, Matteo Monti, Kai Schnabel und Ernst J&#252;nger; und dem IT-Support-Team der Eidgen&#246;ssischen Zulassungspr&#252;fung an den Fakult&#228;ten Basel, Bern, Genf, Lausanne und Z&#252;rich. Ferner danken wir Daniel Stricker f&#252;r seine Beratung bei der Analyse der fehlenden Items. Schliesslich m&#246;chten wir dem Bundesamt f&#252;r Gesundheit und der Pr&#252;fungskommission f&#252;r die Unterst&#252;tzung dieser Pr&#252;fung danken.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Competing interests">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests. </Pgraph><Pgraph>The OSCE-Eval application that was used to implement the electronic OSCE checklist was designed and developed by the Department for Software Development, Usability Consulting and IT Infrastructure (ASCII), at the Institute for Medical Education. More information about the application can be accessed through the website &#91;<Hyperlink href="https:&#47;&#47;eosce.ch&#47;">https:&#47;&#47;eosce.ch&#47;</Hyperlink>&#93;.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autor&#42;innen erkl&#228;ren, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.</Pgraph><Pgraph>Die OSCE-Eval-Anwendung, mit der die elektronische OSCE-Checkliste implementiert wurde, wurde von der Abteilung f&#252;r Softwareentwicklung, Usability-Beratung und IT-Infrastruktur (ASCII) am Institut f&#252;r Medizinische Ausbildung konzipiert und entwickelt. Weitere Informationen &#252;ber die Anwendung k&#246;nnen &#252;ber die Website &#91;<Hyperlink href="https:&#47;&#47;eosce.ch&#47;">https:&#47;&#47;eosce.ch&#47;</Hyperlink>&#93; abgerufen werden.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Harden RM</RefAuthor>
        <RefAuthor>Stevenson M</RefAuthor>
        <RefAuthor>Downie WW</RefAuthor>
        <RefAuthor>Wilson GM</RefAuthor>
        <RefTitle>Assessment of clinical competence using objective structured examination</RefTitle>
        <RefYear>1975</RefYear>
        <RefJournal>Br Med J</RefJournal>
        <RefPage>447-451</RefPage>
        <RefTotal>Harden RM, Stevenson M, Downie WW, Wilson GM. Assessment of clinical competence using objective structured examination. Br Med J. 1975;1(5955):447-451. DOI: 10.1136&#47;bmj.1.5955.447</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1136&#47;bmj.1.5955.447</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Barman A</RefAuthor>
        <RefTitle>Critiques on the objective structured clinical examination</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>Ann Acad Med Singap</RefJournal>
        <RefPage>478-482</RefPage>
        <RefTotal>Barman A. Critiques on the objective structured clinical examination. Ann Acad Med Singap. 2005;34(8):478-482.</RefTotal>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Reznick RK</RefAuthor>
        <RefAuthor>Smee S</RefAuthor>
        <RefAuthor>Baumber JS</RefAuthor>
        <RefAuthor>Cohen R</RefAuthor>
        <RefAuthor>Rothman A</RefAuthor>
        <RefAuthor>Blackmore D</RefAuthor>
        <RefAuthor>Berard M</RefAuthor>
        <RefTitle>Guidelines for estimating the real cost of an objective structured clinical examination</RefTitle>
        <RefYear>1993</RefYear>
        <RefJournal>Acad Med</RefJournal>
        <RefPage>513-517</RefPage>
        <RefTotal>Reznick RK, Smee S, Baumber JS, Cohen R, Rothman A, Blackmore D, Berard M. Guidelines for estimating the real cost of an objective structured clinical examination. Acad Med. 1993;68(7):513-517. DOI: 10.1097&#47;00001888-199307000-00001</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1097&#47;00001888-199307000-00001</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Smee S</RefAuthor>
        <RefTitle>Skill based assessment</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Br Med J</RefJournal>
        <RefPage>703-706</RefPage>
        <RefTotal>Smee S. Skill based assessment. Br Med J. 2003;326(7391):703-706. DOI: 10.1136&#47;bmj.326.7391.703</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1136&#47;bmj.326.7391.703</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Zayyan M</RefAuthor>
        <RefTitle>Objective Structured Clinical Examination: The Assessment of Choice</RefTitle>
        <RefYear>2011</RefYear>
        <RefJournal>Oman Med J</RefJournal>
        <RefPage>219-222</RefPage>
        <RefTotal>Zayyan M. Objective Structured Clinical Examination: The Assessment of Choice. Oman Med J. 2011;26(4):219-222. DOI: 10.5001&#47;omj.2011.55</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.5001&#47;omj.2011.55</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Schmitz FM</RefAuthor>
        <RefAuthor>Zimmermann PG</RefAuthor>
        <RefAuthor>Gaunt K</RefAuthor>
        <RefAuthor>Stolze M</RefAuthor>
        <RefAuthor>Guttormsen Sch&#228;r S</RefAuthor>
        <RefTitle>Electronic Rating of Objective Structured Clinical Examinations: Mobile Digital Forms Beat Paper and Pencil Checklists in a Comparative Study</RefTitle>
        <RefYear>2011</RefYear>
        <RefBookTitle>Information Quality in eHealth</RefBookTitle>
        <RefPage>501-512</RefPage>
        <RefTotal>Schmitz FM, Zimmermann PG, Gaunt K, Stolze M, Guttormsen Sch&#228;r S. Electronic Rating of Objective Structured Clinical Examinations: Mobile Digital Forms Beat Paper and Pencil Checklists in a Comparative Study. In: Holzinger A, Simonic KM, editors. Information Quality in eHealth. Berlin: Springer; 2011. p.501-512. DOI: 10.1007&#47;978-3-642-25364-5&#95;35</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;978-3-642-25364-5&#95;35</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Hochlehnert A</RefAuthor>
        <RefAuthor>Schultz JH</RefAuthor>
        <RefAuthor>M&#246;ltner A</RefAuthor>
        <RefAuthor>Timbil S</RefAuthor>
        <RefAuthor>Brass K</RefAuthor>
        <RefAuthor>J&#252;nger J</RefAuthor>
        <RefTitle>Electronic acquisition of OSCE performance using tablets</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>GMS Z Med Ausbild</RefJournal>
        <RefPage>Doc41</RefPage>
        <RefTotal>Hochlehnert A, Schultz JH, M&#246;ltner A, Timbil S, Brass K, J&#252;nger J. Electronic acquisition of OSCE performance using tablets. GMS Z Med Ausbild. 2015;32(4):Doc41. DOI: 10.3205&#47;zma000983</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3205&#47;zma000983</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Currie GP</RefAuthor>
        <RefAuthor>Sinha S</RefAuthor>
        <RefAuthor>Thomson F</RefAuthor>
        <RefAuthor>Cleland J</RefAuthor>
        <RefAuthor>Denison AR</RefAuthor>
        <RefTitle>Tablet computers in assessing performance in a high stakes exam: opinion matters</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>J R Coll Physicians Edinb</RefJournal>
        <RefPage>164-167</RefPage>
        <RefTotal>Currie GP, Sinha S, Thomson F, Cleland J, Denison AR. Tablet computers in assessing performance in a high stakes exam: opinion matters. J R Coll Physicians Edinb. 2017;47(2):164-167. DOI: 10.4997&#47;JRCPE.2017.215</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.4997&#47;JRCPE.2017.215</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Petersen D</RefAuthor>
        <RefTitle>Usability theory, practice and evaluation for learning objects</RefTitle>
        <RefYear>2007</RefYear>
        <RefBookTitle>Learning objects: Applications, implications, &#38; future directions</RefBookTitle>
        <RefPage>337-370</RefPage>
        <RefTotal>Petersen D. Usability theory, practice and evaluation for learning objects. In: Koohang A, Harman K, editors. Learning objects: Applications, implications, &#38; future directions. Informing Science; 2007. p.337-370.</RefTotal>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Young JQ</RefAuthor>
        <RefAuthor>Van Merrienboer J</RefAuthor>
        <RefAuthor>During S</RefAuthor>
        <RefAuthor>Ten Cate O</RefAuthor>
        <RefTitle>Cognitive load theory: implications for medical education: AMEE Guide No. 86</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>371-384</RefPage>
        <RefTotal>Young JQ, Van Merrienboer J, During S, Ten Cate O. Cognitive load theory: implications for medical education: AMEE Guide No. 86. Med Teach. 2014;36(5):371-384. DOI: 10.3109&#47;0142159X.2014.889290</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.3109&#47;0142159X.2014.889290</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Philips A</RefAuthor>
        <RefAuthor>Fordyce Mackintosh S</RefAuthor>
        <RefAuthor>Gibbs C</RefAuthor>
        <RefAuthor>Ng L</RefAuthor>
        <RefAuthor>Fryer CE</RefAuthor>
        <RefTitle>A comparison of electronic and paper-based clinical skills assessment: Systematic review</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Med Teach</RefJournal>
        <RefPage>1151-1159</RefPage>
        <RefTotal>Philips A, Fordyce Mackintosh S, Gibbs C, Ng L, Fryer CE. A comparison of electronic and paper-based clinical skills assessment: Systematic review. Med Teach. 2019;41(10):1151-1159. DOI: 10.1080&#47;0142159X.2019.1623387</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1080&#47;0142159X.2019.1623387</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Treadwell I</RefAuthor>
        <RefTitle>The usability of personal digital assistants (PDAs) for assessment of practical performance</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>Med Educ</RefJournal>
        <RefPage>855-861</RefPage>
        <RefTotal>Treadwell I. The usability of personal digital assistants (PDAs) for assessment of practical performance. Med Educ. 2006;40(9):855-861. DOI: 10.1111&#47;j.1365-2929.2006.02543.x</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1111&#47;j.1365-2929.2006.02543.x</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Denison A</RefAuthor>
        <RefAuthor>Bate E</RefAuthor>
        <RefAuthor>Thompson J</RefAuthor>
        <RefTitle>Tablet versus paper marking in assessment: feedback matters</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Perspect Med Educ</RefJournal>
        <RefPage>108-113</RefPage>
        <RefTotal>Denison A, Bate E, Thompson J. Tablet versus paper marking in assessment: feedback matters. Perspect Med Educ. 2016;5(2):108-113. DOI: 10.1007&#47;s40037-016-0262-8</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;s40037-016-0262-8</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Brooke J</RefAuthor>
        <RefTitle>SUS-A quick and dirty usability scale</RefTitle>
        <RefYear>1996</RefYear>
        <RefBookTitle>Usability evaluation in industry</RefBookTitle>
        <RefPage>4-7</RefPage>
        <RefTotal>Brooke J. SUS-A quick and dirty usability scale. In: Jordan PJ, Thomas B, Weerdmeester BA, McClelland IL, editors. Usability evaluation in industry. London: Taylor &#38; Francis; 1996. p.4-7.</RefTotal>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Collins D</RefAuthor>
        <RefTitle>Pretesting survey instruments: An overview of cognitive methods</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Qual Life Res</RefJournal>
        <RefPage>229-238</RefPage>
        <RefTotal>Collins D. Pretesting survey instruments: An overview of cognitive methods. Qual Life Res. 2003;12(3):229-238. DOI: 10.1023&#47;A:1023254226592</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1023&#47;A:1023254226592</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Cohen J</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1988</RefYear>
        <RefBookTitle>Statistical power analysis for the behavioral sciences</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Cohen J. Statistical power analysis for the behavioral sciences. 2nd ed. Hillsdale, NJ: Erlbaum; 1988.</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 1: Evaluation questionnaire. The questions have been translated from German and French to English for clarity here.</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Evaluationsfragebogen</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="en">2en</MediaID>
          <MediaID language="de">2de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 2: Demographics of the final study sample (examiners experienced with both the electronic and the paper-based OSCE checklist types)</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 2: Demographische Angaben der endg&#252;ltigen Stichprobe (Pr&#252;fende mit Erfahrung sowohl mit der elektronischen als auch mit der papierbasierten OSCE-Checkliste)</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>3</MediaNo>
          <MediaID language="en">3en</MediaID>
          <MediaID language="de">3de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 3: Usability ratings of the electronic and paper-based OSCE checklists</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 3: Usability-Bewertungen der elektronischen und der papierbasierten OSCE-Checkliste</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>4</MediaNo>
          <MediaID language="en">4en</MediaID>
          <MediaID language="de">4de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 4: Future preference for use of the OSCE checklist type</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 4: Zuk&#252;nftige Pr&#228;ferenz f&#252;r die Verwendung des OSCE-Checklisten-Typs</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>5</MediaNo>
          <MediaID language="en">5en</MediaID>
          <MediaID language="de">5de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Table 5: Number of missings entries for the paper-based OSCE checklists</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Tabelle 5: Anzahl der fehlenden Bewertungen bei den papierbasierten OSCE-Checklisten</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>5</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="462" width="881">
          <MediaNo>1</MediaNo>
          <MediaID language="en">1en</MediaID>
          <MediaID language="de">1de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Example image of part of the paper-based OSCE checklist (fictitious candidate)</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Beispielbild eines Ausschnitts der papierbasierten OSCE-Checkliste (fiktiver Kandidat)</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="739" width="554">
          <MediaNo>2</MediaNo>
          <MediaID language="en">2en</MediaID>
          <MediaID language="de">2de</MediaID>
          <Caption language="en"><Pgraph><Mark1>Figure 2: Example image of part of the electronic OSCE checklist (fictitious candidate)</Mark1></Pgraph></Caption>
          <Caption language="de"><Pgraph><Mark1>Abbildung 2: Beispielbild eines Ausschnitts der elektronischen OSCE-Checkliste (fiktiver Kandidat)</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>2</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>