<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<GmsArticle>
  <MetaData>
    <Identifier>zma000875</Identifier>
    <IdentifierDoi>10.3205/zma000875</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0008755</IdentifierUrn>
    <ArticleType language="de">Forschungsarbeit</ArticleType>
    <ArticleType language="en">research article</ArticleType>
    <TitleGroup>
      <Title language="de">Der Einfluss von Anonymit&#228;t in der Lehrevaluation durch Studierende</Title>
      <TitleTranslated language="en">The Effects of Anonymity on Student Ratings of Teaching and Course Quality in a Bachelor Degree Programme</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Scherer</Lastname>
          <LastnameHeading>Scherer</LastnameHeading>
          <Firstname>Theresa</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address language="de">Berner Fachhochschule, Studiengang Pflege, Murtenstra&#223;e 10, CH-3008 Bern, Schweiz<Affiliation>Berner Fachhochschule, Studiengang Pflege, Bern, Schweiz</Affiliation></Address>
        <Address language="en">Bern University of Applied Sciences, degree programme Nursing, Murtenstra&#223;e 10, CH-3008 Bern, Schweiz<Affiliation>Bern University of Applied Sciences, degree programme Nursing, Bern, Schweiz</Affiliation></Address>
        <Email>theresa.scherer&#64;bfh.ch</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Straub</Lastname>
          <LastnameHeading>Straub</LastnameHeading>
          <Firstname>Jan</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Berner Fachhochschule, Studiengang Pflege, Bern, Schweiz</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Bern University of Applied Sciences, degree programme Nursing, Bern, Schweiz</Affiliation>
        </Address>
        <Email>jan.straub&#64;ckkgbern.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Schnyder</Lastname>
          <LastnameHeading>Schnyder</LastnameHeading>
          <Firstname>Daniel</Firstname>
          <Initials>D</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Berner Fachhochschule, Studiengang Pflege, Bern, Schweiz</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Bern University of Applied Sciences, degree programme Nursing, Bern, Schweiz</Affiliation>
        </Address>
        <Email>daniel.schnyder&#64;bfh.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Schaffner</Lastname>
          <LastnameHeading>Schaffner</LastnameHeading>
          <Firstname>Noemi</Firstname>
          <Initials>N</Initials>
        </PersonNames>
        <Address language="de">
          <Affiliation>Berner Fachhochschule, Studiengang Pflege, Bern, Schweiz</Affiliation>
        </Address>
        <Address language="en">
          <Affiliation>Bern University of Applied Sciences, degree programme Nursing, Bern, Schweiz</Affiliation>
        </Address>
        <Email>noemi.schaffner&#64;bfh.ch</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">Education</Keyword>
      <Keyword language="en">curriculum development</Keyword>
      <Keyword language="en">programme evaluation</Keyword>
      <Keyword language="en">respondent anonymity</Keyword>
      <Keyword language="de">Ausbildung</Keyword>
      <Keyword language="de">Curriculumsentwicklung</Keyword>
      <Keyword language="de">Programmevaluation</Keyword>
      <Keyword language="de">Anonymit&#228;t der Befragten</Keyword>
      <SectionHeading language="en">medicine</SectionHeading>
      <SectionHeading language="de">Humanmedizin</SectionHeading>
    </SubjectGroup>
    <DateReceived>20121112</DateReceived>
    <DateRevised>20130131</DateRevised>
    <DateAccepted>20130407</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20130815</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <LanguageTranslation>engl</LanguageTranslation>
    <SourceGroup>
      <Journal>
        <ISSN>1860-3572</ISSN>
        <Volume>30</Volume>
        <Issue>3</Issue>
        <JournalTitle>GMS Zeitschrift f&#252;r Medizinische Ausbildung</JournalTitle>
        <JournalTitleAbbr>GMS Z Med Ausbild</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>32</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph><Mark1>Zielsetzung und Fragestellung:</Mark1> Unterscheiden sich die Ergebnisse anonymisierter und personalisierter Evaluationen&#63; </Pgraph><Pgraph><Mark1>Methodik:</Mark1> W&#228;hrend zweier Jahre wurden bei jeder Modulevaluation alle Studierenden randomisiert den Halbgruppen &#8222;anonym&#8220; und &#8222;personalisiert&#8220; zugeteilt. Die Qualit&#228;t des Moduls in seinen relevanten Aspekten wurde mit einem standardisierten Fragebogen erhoben. Zus&#228;tzlich konnten optionale Textantworten formuliert werden. Drei unabh&#228;ngige Personen bewerteten die Aussagequalit&#228;t der Antworten gem&#228;ss einem Leitfaden. Dieser beinhaltete die f&#252;nf Dimensionen positiv-negativ, differenziert-absolut, Nennung einer Person-allgemein, Befehl enthaltend-neutral und optisch akzentuiert-blank. </Pgraph><Pgraph>Der Datensatz bestand aus 615 Fragebogen, davon waren 306 in anonymer Form. Mit einer multivariaten Varianzanalyse wurde &#252;berpr&#252;ft, ob sich zwischen anonym und personalisiert erhobenen Daten ein Unterschied sowohl bei den durch Skalen bewerteten Aspekten als auch bei der Qualit&#228;t der optionalen Textantworten zeigte. Zus&#228;tzlich wurde untersucht, ob sich die H&#228;ufigkeit der optionalen Textantworten unterschied.</Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> In der Aussagequalit&#228;t liess sich kein signifikanter Unterschied zwischen anonym und personalisiert erhobenen Daten nachweisen. Hingegen haben Studierende aus der personalisierten Gruppe tendenziell h&#228;ufiger optionale Textantworten geliefert.</Pgraph><Pgraph><Mark1>Schlussfolgerung: </Mark1>Personalisierte Evaluationen generieren dann keine verf&#228;lschten Resultate im Sinne der sozialen Erw&#252;nschtheit, wenn der Evaluationszirkel geschlossen und transparent ist: Die Verantwortlichen melden den Studierenden die Evaluationsergebnisse konsequent zur&#252;ck und  &#196;nderungs-, Optimierungsw&#252;nsche und Umsetzungsm&#246;glichkeiten werden mit ihnen diskutiert. Die Studierenden erfahren so, dass ihre R&#252;ckmeldungen ernst genommen werden. So k&#246;nnen sie sich echte Kritik erlauben.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph><Mark1>Research Question: </Mark1>Are there any clear differences between the outcomes of anonymous and personalised student evaluations of teaching quality&#63;</Pgraph><Pgraph><Mark1>Methods: </Mark1>During a two-year period students were randomly divided into two separate groups, &#8220;anonymous&#8221; and &#8220;personalised&#8221;, for end-of-module evaluations. The quality of the module was assessed using a standardised questionnaire. Additionally, students were given the option to add &#8220;further comments&#8221; if they wanted to highlight specifics.</Pgraph><Pgraph>These optional comments were independently assessed by three people, using a five-dimensional rating instrument: positive&#47;negative; differentiated&#47;absolute; naming a person&#47;general; containing an order&#47;neutral; visually accentuated&#47;blank.</Pgraph><Pgraph>The database consisted of 615 evaluation forms, of which 306 were completed anonymously. In order to identify whether there were any differences between the anonymous and personalised data, a multivariate variance analysis was performed. </Pgraph><Pgraph>Based on the scale, the answers to the questions and the quality of the comments were evaluated. Furthermore, an assessment was made to determine if there were any differences in the number of optional comments between the two groups. </Pgraph><Pgraph><Mark1>Results: </Mark1>No significant differences were identified in the informative quality of data between the anonymous and personalised student evaluations. However, students in the personalised group had a tendency to include more details in their written answers.</Pgraph><Pgraph><Mark1>Conclusion: </Mark1>Personalised evaluations do not generate more biased results in terms of social desirability, as long as the evaluation concept is characterised by a closed-circle process and is transparent. In other words, it is imperative that the outcomes of the evaluation are reported back to the students. Moreover, there has to be an opportunity for students to discuss any further suggestions and&#47;or future desires in an open environment. In this way the students respect and understand that their feedback is being taken seriously; consequently, they feel able to provide a constructive and honest evaluation.</Pgraph></Abstract>
    <TextBlock language="de" linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><SubHeadline2>Ausgangslage</SubHeadline2><Pgraph>Der Bachelorstudiengang der Berner Fachhochschule (BFH) in Pflege wurde im Jahr 2006 gem&#228;ss den Vorgaben der Bologna-Reform neu entwickelt. Der Lehrgang ist als kompetenzbasiertes Generalistenstudium angelegt, das wissenschaftliche Fundierung mit konsequenter Praxisorientierung verbindet. Die Struktur ist modular, das p&#228;dagogisch-didaktische Konzept ist das Problembasierte Lernen (PBL: Problem-based Learning). Das Kollegium besteht aus zwanzig Dozierenden, die in der Regel eine Grundausbildung in Pflege und einen akademischen Abschluss in Pflegewissenschaft, in Erziehungswissenschaft oder Psychologie mitbringen. Pro Studienjahr werden im Schnitt 100 Pflegende ausgebildet.</Pgraph><Pgraph>Der Evaluationsprozess des Studiengangs wurde auf der Basis der Evaluationsliteratur, die sich f&#252;r PBL-Curricula bew&#228;hrt hat, parallel zum Curriculum entwickelt <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>. Das Ziel der Lehrevaluation (Modulevaluationen, Dozierendenevaluationen, etc.) war die kontinuierliche Optimierung des Studiengangs. Daraus resultierte ein entsprechendes Evaluationskonzept, das sich folgendermassen charakterisieren l&#228;sst:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark1>Kontinuierliche Evaluation aller Module durch Studierende und Dozierende </Mark1>f&#252;r strukturell-organisatorische Anpassungen innerhalb der einzelnen Module. </ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark1>Kontinuierliche Anpassung des Curriculums durch die Surveygruppe.</Mark1> Dies ist die Evaluationsgruppe, bestehend aus der Studiengangsleiterin, dem Leiter Ressort Ausbildungsprogramm und dem wissenschaftlichem Mitarbeiter. F&#252;r strukturell-inhaltliche Anpassungen innerhalb des gesamten Curriculums</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark1>Kontinuierliche Qualit&#228;tsentwicklung durch den Qualit&#228;tszirkel.</Mark1> Dieser besteht aus dem gesamten Kollegium. Der Qualit&#228;tszirkel sorgt f&#252;r Anpassungen systemisch-haltungsm&#228;ssiger Art, z. B. betreffend die p&#228;dagogische Grundhaltung, f&#252;r die Realisation des zuk&#252;nftigen Berufsbildes.</ListItem></OrderedList></Pgraph><Pgraph>Die Modulevaluation durch die Studierenden geschah mit einem standardisierten Fragebogen am Ende jedes Moduls. Die Fragen zielten darauf ab, die Qualit&#228;t der Module zu &#252;berpr&#252;fen. Die Studierenden f&#252;llten den Fragebogen jeweils im Rahmen einer Lehrveranstaltung am Ende des Moduls aus. Dadurch wurde mit &#252;ber 95 Prozent eine sehr hohe R&#252;cklaufquote erreicht. Alle Evaluationen fanden anonymisiert statt. </Pgraph><Pgraph>Die erhobenen Daten wurden statistisch ausgewertet und in einer Zusammenfassung dargestellt. Diese Zusammenstellung wurde den Studierenden im darauffolgenden Modul durch die Studiengangsleitung pr&#228;sentiert; die Ergebnisse wurden diskutiert; zu &#196;nderungsw&#252;nschen oder Anregungen der Studierenden erfolgte eine R&#252;ckmeldung dar&#252;ber, ob und falls ja, wie die Vorschl&#228;ge umgesetzt w&#252;rden.</Pgraph><Pgraph>Dieses Vorgehen bew&#228;hrte sich in den vergangenen Jahren. Hingegen l&#246;ste die Frage, ob die Studierendenbefragung weiterhin anonym durchgef&#252;hrt werden sollte immer wieder kontroverse Diskussionen im Kollegium aus. Anlass dazu waren einzelne numerische Bewertungen, die auffallend schlecht waren, z. B. durchwegs Note 1<Superscript>1</Superscript> oder Kommentare, die vernichtend und verletzend formuliert waren, z. B. &#8222;Frau M&#252;ller<Superscript>2</Superscript> ist vollkommen unf&#228;hig&#33; Schicken Sie sie in eine Weiterbildung&#33;&#8220; Zudem stimmten sehr negativ formulierte Textantworten der Studierenden mit den dazugeh&#246;rigen numerischen Bewertungen oft nicht &#252;berein. In solchen F&#228;llen konnte das Kollegium nicht nachvollziehen, wie die Ergebnisse interpretiert werden sollten. Da die Studierenden die Module ohne Namensangabe evaluierten, konnten die Zust&#228;ndigen nicht nachfragen, was zu grossen Irritationen f&#252;hrte. Ein Teil des Kollegiums vermutete, dass ein anonymes Evaluieren diese sehr negativen Studierendenr&#252;ckmeldungen f&#246;rdert. Die zu diesem Zeitpunkt vorhandene Datenmenge war allerdings sehr gering, weshalb dazu keine fundierten R&#252;ckschl&#252;sse gezogen werden konnten.</Pgraph><Pgraph>Ein Argument der Bef&#252;rworter des anonymisierten Vorgehens war die Vermutung, Studierende k&#246;nnten bei negativer Kritik belastende Konsequenzen von Seiten der Dozierenden bef&#252;rchten. Auch in der Forschungsliteratur wird darauf hingewiesen, dass insbesondere bei sensiblen oder bedrohlichen Antworten, die negative Auswirkungen haben k&#246;nnten, die Gefahr besteht, dass der Fragebogen nicht ehrlich, sondern im Sinne von sozialer Erw&#252;nschtheit ausgef&#252;llt wird <TextLink reference="3"></TextLink>. Zudem wiesen verschiedene Studien nach, dass Befragte dazu tendieren, gef&#228;lligere Antworten zu geben, wenn sie wissen oder vermuten, dass ihre Antworten zusammen mit ihrem Namen von Dozierenden eingesehen werden k&#246;nnen <TextLink reference="4"></TextLink>, <TextLink reference="5"></TextLink>. Gem&#228;ss einer anderen Untersuchung von Fries und McNinch <TextLink reference="6"></TextLink> notieren Studierende ihren Namen nicht, wenn sie etwas Negatives zu sagen haben, selbst dann nicht, wenn sie zur Namensnennung aufgefordert worden sind. Aus diesen Gr&#252;nden empfiehlt die Fachliteratur, Fragebogen und Beurteilungsskalen anonym ausf&#252;llen zu lassen, um die Genauigkeit und die Verl&#228;sslichkeit der Daten zu gew&#228;hrleisten <TextLink reference="3"></TextLink>.</Pgraph><Pgraph>Aber ebenso viele Untersuchungen konnten keine Unterschiede zwischen anonym und personalisiert erhobenen Daten nachweisen <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>. Zudem nimmt das Kollegium gem&#228;ss dem p&#228;dagogischen Grundkonzept die Haltung ein, dass die Studierenden als erwachsene Partnerinnen und Partner betrachtet werden sollen und dass ein sachlicher, offener Austausch bez&#252;glich der Leistungsqualit&#228;t m&#246;glich sein muss. Die Studierenden sollten im Laufe ihres Studiums dazu hingef&#252;hrt werden, kritische, aber respektvolle und verantwortungsvolle R&#252;ckmeldungen geben zu k&#246;nnen.</Pgraph><SubHeadline2>Fragestellung</SubHeadline2><Pgraph>Bisherige Forschungsergebnisse zu anonymer bzw. personalisierter Evaluation sind widerspr&#252;chlich und die Fachliteratur ist teilweise &#228;lter als zehn Jahre. Das heisst, dass die Frage in den letzten Jahren kaum Beachtung gefunden hat. Die g&#228;ngige Praxis, Erhebungen anonym durchzuf&#252;hren, insbesondere bei psychometrischen Verfahren, wurde daher unbesehen auf Programmevaluationen &#252;bertragen. Um den k&#252;nftigen Evaluationsprozess auf Evidenz abzust&#252;tzen und um die aktuelle Forschungsl&#252;cke &#252;ber anonyme und personalisierte Evaluation zu schliessen, entschieden die Verantwortlichen, eine Untersuchung durchzuf&#252;hren. Diese sollte folgende Fragestellung bearbeiten: <Mark1>Unterscheiden sich die Ergebnisse anonymisierter und personalisierter Evaluationen&#63; </Mark1></Pgraph><Pgraph>Die Beantwortung dieser Hauptfragestellung erfolgte in drei Teilfragestellungen, die eine differenzierte Analyse hinsichtlich des Untersuchungsziels erlauben:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Werden die Module bei der quantitativen Bewertung bei anonym erhobenen Evaluationen im Vergleich zu personalisiert erhobenen Evaluationen besser bewertet&#63;</ListItem><ListItem level="1" levelPosition="2" numString="2.">Werden bei anonymen oder bei personalisiert erhobenen Evaluationen h&#228;ufiger optionale Textantworten gegeben&#63;</ListItem><ListItem level="1" levelPosition="3" numString="3.">Unterscheiden sich die Textantworten bei anonymer bzw. personalisierter Evaluation in ihrer Qualit&#228;t (siehe dazu Kapitel 2.3)&#63;</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Introduction">
      <MainHeadline>Introduction</MainHeadline><SubHeadline2>Initial Situation</SubHeadline2><Pgraph>In 2006, the Bachelor of Science in Nursing at the Bern University of Applied Sciences (BFH) was redesigned in accordance with the requirements of the Bologna Process. The degree programme is a competence-based general studies course, combining a scientific basis and consistent practical focus. The structure is modular; the pedagogic-didactic concept is Problem-based Learning (PBL). The teaching staff consists of twenty lecturers who have generally completed basic training in nursing and hold an academic degree in Nursing Science, Educational Science or Psychology. On average, 100 students are educated in Nursing Science every academic year.</Pgraph><Pgraph>Based on the evaluation literature which has proven itself well for PBL curriculums, the evaluation process of the degree programme was developed in parallel to the curriculum <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>. The objective of the teaching evaluation (evaluations of modules, lecturers, etc.) was the continuous optimisation of the degree programme. This led to a corresponding evaluation concept, which can be characterised as follows:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1."><Mark1>Continuous evaluation of all modules by students and lecturers</Mark1> for structural-organisational adaptations within the single modules. </ListItem><ListItem level="1" levelPosition="2" numString="2."><Mark1>Continuous curriculum adaptation by the study group</Mark1>. This is the evaluation group, consisting of the head of the degree programme, the head of the training programme and the research associate. It sees to structural, content-orientated adaptations within the whole curriculum.</ListItem><ListItem level="1" levelPosition="3" numString="3."><Mark1>Continuous quality development by the quality circle.</Mark1> The quality circle is composed of the entire teaching staff. It sees to the systemic-attitudinal adaptations, for example, concerning the basic educational attitude, for the realisation of the future professional profile.</ListItem></OrderedList></Pgraph><Pgraph>At the end of every module, the students evaluated the module using a standardised questionnaire. The questions were designed to monitor the module quality. The students completed the questionnaire during a teaching session at the end of every module. This resulted in the very high return rate of 95 per cent. All evaluations were carried out anonymously. </Pgraph><Pgraph>The collected data was processed statistically and summarised. In the following module, the head of the degree programme presented the summary to the students and the results were discussed. The students received feedback as to whether and how their proposed changes or suggestions would be put into practice.</Pgraph><Pgraph>This approach has proven itself well in the past years. However, the question of whether the student survey should still be carried out anonymously led to controversial discussions among the staff. The reason for this was the appearance of single, noticeably negative numerical assessments, for example, rating all the questions with 1<Superscript>1</Superscript> or giving offensive and destructive comments such as &#8220;Mrs M&#252;ller<Superscript>2</Superscript> is completely incompetent&#33; Send her to a further education course&#33;&#8221; In addition, the very negative comments from the students were often not consistent with the corresponding numerical assessments. In such cases, it was not clear to the teaching staff how the results should be interpreted. Since the students evaluated the modules without giving their names, the lecturers could not check back with them, which led to great irritation. Part of the teaching staff suspected that anonymous evaluation favoured such very negative student responses. However, the amount of data available at the time was very small and therefore no well-founded conclusions could be drawn.</Pgraph><Pgraph>Supporters of the anonymous approach argued that students might fear that negative criticism could result in unpleasant consequences from lecturers. The research literature also points out that, particularly with sensitive or threatening answers that could have negative effects, there is a risk that the questionnaire will not be completed honestly but rather in accordance with social desirability <TextLink reference="3"></TextLink>. Moreover, various studies have provided evidence that respondents tend to give more obliging answers if they know or suppose that the lecturers will be able to see their names alongside their answers <TextLink reference="4"></TextLink>, <TextLink reference="5"></TextLink>. According to another study, carried out by Fries and McNinch <TextLink reference="6"></TextLink>, students do not give their names, even when asked to do so, whenever they have something negative to say. Therefore the specialised literature recommends that questionnaires should be completed anonymously in order to ensure the accuracy and reliability of the data <TextLink reference="3"></TextLink>.</Pgraph><Pgraph>However, there have been just as many studies that could not prove that there are any differences between anonymous and personalised data <TextLink reference="7"></TextLink>, <TextLink reference="8"></TextLink>. Furthermore, the teaching staff adopts an attitude, in accordance with the basic educational concept, that students should be treated as adult partners and that an objective and open exchange regarding the performance quality must be possible. In the course of their studies, the students should learn to be able to give critical yet respectful and responsible feedback.</Pgraph><SubHeadline2>Research Question</SubHeadline2><Pgraph>Previous research results on the subject of anonymous and personalised evaluation are inconsistent and some of the specialised literature is more than ten years old. This means that the question has not received much attention in recent years. The common approach to carrying out surveys anonymously &#8211; particularly when using psychometric methods &#8211; was therefore applied indiscriminately to programme evaluations. To be able to base the evaluation process on evidence and to close the current research gap regarding anonymous and personalised evaluation, those responsible decided to carry out a study. Its aim was to discuss the following question: <Mark1>Are there any differences between the outcomes of anonymous and personalised evaluations&#63; </Mark1></Pgraph><Pgraph>To answer this core research question, three sub-questions were defined, allowing a differentiated analysis regarding the research objective:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">Do the modules receive better quantitative assessment if the evaluations are anonymous or if they are personalised&#63;</ListItem><ListItem level="1" levelPosition="2" numString="2.">Are more optional comments given in anonymous or personalised evaluation&#63;</ListItem><ListItem level="1" levelPosition="3" numString="3.">Is the quality of the optional comments different in anonymous and personalised evaluation (see Chapter 2.3 &#8220;Data Processing&#8221;)&#63;</ListItem></OrderedList></Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Methoden">
      <MainHeadline>Methoden</MainHeadline><SubHeadline2>Fragebogen</SubHeadline2><Pgraph>Die f&#252;r das Curriculum eigens entwickelten Fragebogen zur Modulevaluation beinhalten sechs Items zum Aspekt <Mark1>allgemeiner Eindruck</Mark1> des Moduls (Ziele, Relevanz, Vertiefung, Lernstoff, Organisation, Qualit&#228;t), vier Items zum Aspekt <Mark1>Vorlesungen</Mark1> (Lernfragen, Dozierende, Strukturierung, Qualit&#228;t, siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>) und vier Items zu den <Mark1>Pr&#252;fungen</Mark1> (Niveau, Umfang, Inhalt, Qualit&#228;t). Alle diese Items bewerten die Studierenden auf einer Skala von 1 (trifft keinesfalls zu) bis 6 (trifft in hohem Mass zu). Diese Skalierung wurde gew&#228;hlt, weil sie dem Schweizer Notensystem entspricht und so f&#252;r die Studierenden bei der Bewertung wenig kognitiven Aufwand bedeutete und weil damit eine Tendenz Richtung gen&#252;gend&#47;ungen&#252;gend erkennbar wurde. Je nach Aufbau der einzelnen Module wurden zudem verschiedene Items, z. B. zu den Tutoraten, Skillstrainings, &#220;bungen oder Seminaren erfragt, siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/> <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>, <TextLink reference="9"></TextLink>, &#91;<Hyperlink href="http:&#47;&#47;www.qualitaet.unibe.ch&#47;unibe&#47;qualitaet&#47;content&#47;e4198&#47;e4436&#47;e4456&#47;MusterfragebogenTheologieVorlesung&#95;ger.pdf">http:&#47;&#47;www.qualitaet.unibe.ch&#47;unibe&#47;qualitaet&#47;content&#47;e4198&#47;e4436&#47;e4456&#47;MusterfragebogenTheologieVorlesung&#95;ger.pdf</Hyperlink>&#93;.</Pgraph><Pgraph>F&#252;r die nachfolgenden Analysen zur Untersuchung der Fragestellung wurde jeweils zu jedem Aspekt &#252;ber die Mittelwertsbildung der dazugeh&#246;renden Items eine ebenfalls sechsstufige Skala gebildet.</Pgraph><Pgraph>Neben der Bewertung des Moduls mit der vorgegebenen Skala hatten die Studierenden die M&#246;glichkeit, im Fragebogen zu jedem Aspekt Kommentare und&#47;oder Anregungen abzugeben. Das bedeutet, dass die Studierenden im Fragebogen mehrere Textantworten geben konnten.</Pgraph><SubHeadline2>Stichprobe und Datenbasis</SubHeadline2><Pgraph>F&#252;r die Untersuchung der Fragestellung wurde das Evaluationssetting ver&#228;ndert, d. h. die H&#228;lfte der Studierenden f&#252;llte die Frageb&#246;gen weiterhin anonym aus, w&#228;hrend die andere H&#228;lfte die Frageb&#246;gen ausf&#252;llte, die bereits ihren Namen aufgedruckt trugen. Die Datensammlung f&#252;r diese Untersuchung dauerte zwei Jahre. Die Stichprobe bestand aus Studierenden von vier Kohorten. Bei jeder Modulevaluation wurden die Studierenden jeweils neu durch Randomisierung entweder der Gruppe &#8222;anonym&#8220; oder der Gruppe &#8222;personalisiert&#8220; zugeteilt.</Pgraph><Pgraph>W&#228;hrend des Erhebungszeitraums wurden insgesamt 27 Module evaluiert. Von der Untersuchung ausgeschlossen waren alle Praxis- und Kommunikationsmodule sowie die Module des Clinical Assessments, da diese durch andere Fragebogen evaluiert wurden. Die Studienverantwortlichen w&#228;hlten von den 27 Modulen f&#252;r die Untersuchung f&#252;nf Module aus, die den vielf&#228;ltigen Bachelorstudiengang Pflege angemessen abbilden: &#8222;Pflege studieren (Einf&#252;hrungsmodul)&#8220;, &#8222;Notfallsituationen handhaben&#8220;, &#8222;Forschung verstehen&#8220;, &#8222;Statistisches Basiswissen erwerben&#8220; und &#8222;Qualit&#228;t der Pflege sichern&#8220;. Insgesamt flossen damit 615 ausgef&#252;llte Fragebogen, davon 306 in anonymer Form, in die Untersuchung ein.</Pgraph><Pgraph>Die Analysen der Antworten wurden pro Modul einzeln und unabh&#228;ngig voneinander durchgef&#252;hrt, da die Gruppen bei jedem Modul neu randomisiert wurden, und es somit wahrscheinlich war, dass der&#47;die gleiche Studierende ein Modul in anonymer und ein anderes Modul in personalisierter Form bewertet hatte.</Pgraph><SubHeadline2>Datenaufbereitung</SubHeadline2><Pgraph>F&#252;r die ersten beiden Teilfragestellungen wurden die Daten in das Statistikprogramm SPSS eingegeben und die in Kapitel 3 beschriebenen Analysen durchgef&#252;hrt.</Pgraph><Pgraph>F&#252;r die dritte Fragestellung bedurfte es einer separaten Aufbereitung der Daten. Daf&#252;r wurden alle Kommentare anhand eines durch die Autoren entwickelten Ratinginstruments bewertet. Das Ziel in der Entwicklung des Instruments war es, Aussagen danach zu kodieren, ob sie vernichtend oder verletzend sind. Dazu wurde zun&#228;chst &#252;berlegt, was den vernichtenden oder verletzenden Kommentaren gemeinsam ist. Ausgehend davon wurde definiert, dass eine Aussage dann verletzend oder vernichtend ist, wenn sie alle folgenden f&#252;nf Bedingungen erf&#252;llt: sie ist </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">negativ, </ListItem><ListItem level="1" levelPosition="2" numString="2.">absolut, </ListItem><ListItem level="1" levelPosition="3" numString="3.">bezieht sich auf eine Person, </ListItem><ListItem level="1" levelPosition="4" numString="4.">enth&#228;lt einen Befehl und </ListItem><ListItem level="1" levelPosition="5" numString="5.">ist optisch akzentuiert. </ListItem></OrderedList></Pgraph><Pgraph>Daraus wurden die folgenden f&#252;nf Dimensionen entwickelt:</Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">In der Dimension <Mark1>Wertung</Mark1> wurden die Aussagen dahingehend kodiert, ob sie positiv, negativ oder beides waren, z. B. &#8222;Das Modul war schlecht organisiert, aber die Themen waren alle sehr interessant&#8220;.</ListItem><ListItem level="1" levelPosition="2" numString="2.">In der Dimension <Mark1>Differenziertheit</Mark1> wurde bewertet, ob die Aussagen differenziert oder absolut waren. Eine Aussage galt z. B. dann als differenziert, wenn sie Worte wie teilweise, manchmal, aber etc. enthielten. Aussagen wie: &#8222;Thema Normalverteilung ist unwichtig&#8220; wurden als absolut kodiert.</ListItem><ListItem level="1" levelPosition="3" numString="3.">Die Dimension <Mark1>Individuum</Mark1> zeigte, ob sich die Aussage auf eine Person bzw. eine&#47;n Dozierende&#47;n bezog oder nicht, ob also deren&#47;dessen Name erw&#228;hnt wurde, z. B. &#8222;Frau M&#252;ller ist unf&#228;hig&#33;&#8220;.</ListItem><ListItem level="1" levelPosition="4" numString="4.">In der Dimension <Mark1>Befehl</Mark1> wurde beurteilt, ob die R&#252;ckmeldungen eine Forderung enthielten, z. B. &#8222;Erkl&#228;ren Sie den Lehrbeauftragten endlich, wie der Beamer funktioniert&#8220;.</ListItem><ListItem level="1" levelPosition="5" numString="5.">In der Dimension <Mark1>Optische Akzentuierung</Mark1> wurden Aussagen kodiert, die durch eine Interpunktion wie ein Ausrufezeichen oder eine Unterstreichung hervorgehoben wurden, z. B. &#8222;Super&#33;&#33;&#33;&#8220;, &#8222;HALLO PLANUNG&#33;&#8220;.</ListItem></OrderedList></Pgraph><Pgraph>Alle Kommentare und Anregungen wurden von drei Personen unabh&#228;ngig voneinander und mit dem vorgestellten Ratinginstrument in kategorialen Variablen kodiert, analysiert und beurteilt. Beim Kodierungsprozess war f&#252;r die Rater nicht ersichtlich, ob die Aussagen aus der anonymen oder personalisierten Gruppe stammten. Um die &#220;bereinstimmung zwischen den Ratern zu pr&#252;fen, wurde der Korrelationskoeffizient nach Pearson gerechnet. Das Mass der &#220;bereinstimmung bei den einzelnen Modulen betrug zwischen r&#61;.74 und r&#61;.98.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Methods">
      <MainHeadline>Methods</MainHeadline><SubHeadline2>Questionnaire</SubHeadline2><Pgraph>The module evaluation questionnaires, specially designed for the curriculum, contain six items for the aspect <Mark1>Overall Impression</Mark1> of the module (objectives, relevance, specialism, subject matter, organisation, quality), four items for the aspect <Mark1>Lectures </Mark1>(didactic questions, lecturers, structure, quality, see Figure 1 <ImgLink imgNo="1" imgType="figure"/>) and four items for the aspect <Mark1>Exams</Mark1> (level, scale, content, quality). The students assessed all of these items on a scale from 1 (completely disagree) to 6 (completely agree). This scaling was chosen because it is consistent with the Swiss grading system and therefore demands little cognitive effort from the students while evaluating and because it allowed a tendency towards sufficient&#47;insufficient to be observed. In addition, depending on the structure of the individual modules, different items were questioned, e.g. concerning tutorials, skill trainings, practical courses or seminars, see Figure 1 <ImgLink imgNo="1" imgType="figure"/> <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>, <TextLink reference="9"></TextLink>, &#91;<Hyperlink href="http:&#47;&#47;www.qualitaet.unibe.ch&#47;unibe&#47;qualitaet&#47;content&#47;e4198&#47;e4436&#47;e4456&#47;MusterfragebogenTheologieVorlesung&#95;ger.pdf">http:&#47;&#47;www.qualitaet.unibe.ch&#47;unibe&#47;qualitaet&#47;content&#47;e4198&#47;e4436&#47;e4456&#47;MusterfragebogenTheologieVorlesung&#95;ger.pdf</Hyperlink>&#93;.</Pgraph><Pgraph>To be able to subsequently analyse the research question, an additional six-level scale was designed for every aspect by averaging its items.</Pgraph><Pgraph>In addition to the module assessment using the given scale, the students had the possibility to make comments and&#47;or suggestions about every aspect. This means that the students could make more than one optional comment in the questionnaire.</Pgraph><SubHeadline2>Sample and Database</SubHeadline2><Pgraph>For the analysis of the research question the evaluation setting was changed: one half of the students still completed the questionnaires anonymously, whereas the other half completed questionnaires with their names printed on them. The data collection for this study took two years. The sample was composed of students from four cohorts. For every module evaluation the students were randomly re-assigned either to the &#8220;anonymous&#8221; group or the &#8220;personalised&#8221; group.</Pgraph><Pgraph>During the study period a total of 27 modules were evaluated. All the practice and communication modules as well as the Clinical Assessment modules were excluded from the study because other questionnaires were used to evaluate these. The people in charge of the study chose five out of the 27 evaluated modules that suitably represent the multifaceted Bachelor in Nursing: &#8220;The study of nursing (introductory module)&#8221;, &#8220;Dealing with emergency situations&#8221;, &#8220;Understanding research&#8221;, &#8220;Acquiring basic statistical knowledge&#8221; and &#8220;Ensuring nursing quality&#8221;. Altogether 615 completed questionnaires, of which 306 were completed anonymously, were used in the study.</Pgraph><Pgraph>The analyses of the answers were carried out individually and independently for each module. Since the groups for every module evaluation had been randomised anew, it was quite likely that the same student assessed one module anonymously and another module with a personalised questionnaire. </Pgraph><SubHeadline2>Data Processing</SubHeadline2><Pgraph>For the first two sub-questions, the data was entered into the statistical programme SPSS and the analysis carried out as described in Chapter 3 &#8220;Results&#8221;.</Pgraph><Pgraph>For the third sub-question the data had to be processed separately. In order to do this, all the comments were assessed using a rating instrument developed by one of the authors. The instrument was developed with the objective of coding statements in a way that shows whether they are offensive or destructive. First, the common features of offensive or destructive comments had to be considered. Based on this, it was defined that a statement is offensive or destructive only if it meets all of the following five conditions: it is </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">negative, </ListItem><ListItem level="1" levelPosition="2" numString="2.">absolute, </ListItem><ListItem level="1" levelPosition="3" numString="3.">refers to a person, </ListItem><ListItem level="1" levelPosition="4" numString="4.">contains an order and </ListItem><ListItem level="1" levelPosition="5" numString="5.">is visually accentuated. </ListItem></OrderedList></Pgraph><Pgraph>The five resulting dimensions were defined as follows: </Pgraph><Pgraph><OrderedList><ListItem level="1" levelPosition="1" numString="1.">In the dimension <Mark1>Assessment</Mark1> the statements were coded as positive, negative or both, e.g. &#8220;The module was poorly organised, but the topics were all very interesting&#8221;.</ListItem><ListItem level="1" levelPosition="2" numString="2.">In the dimension <Mark1>Differentiation</Mark1> it was assessed whether the statements were differentiated or absolute. A statement, for example, was considered differentiated if it contained words like &#8220;partly&#8221;, &#8220;sometimes&#8221;, &#8220;but&#8221;, etc. Statements like: &#8220;The topic of normal distribution is unimportant&#8221; were coded as absolute.</ListItem><ListItem level="1" levelPosition="3" numString="3.">The dimension <Mark1>Individual</Mark1> showed whether a statement referred to a person, namely a lecturer, and whether her&#47;his name was mentioned, e.g. &#8220;Mrs M&#252;ller is incompetent&#33;&#8221;</ListItem><ListItem level="1" levelPosition="4" numString="4.">In the dimension <Mark1>Order</Mark1> it was assessed whether the responses contained an order, e.g. &#8220;Explain to the associate lecturers once and for all how the digital projector works&#8221;.</ListItem><ListItem level="1" levelPosition="5" numString="5.">In the dimension <Mark1>Visual Accentuation</Mark1>, statements were coded as to whether they were accentuated with punctuation like an exclamation mark or highlighting, e.g. &#8220;Super&#33;&#33;&#33;&#8221; or &#8220;HELLO PLANNING&#33;&#8221;.</ListItem></OrderedList></Pgraph><Pgraph>Using the rating instrument presented above, three people independently coded all comments and suggestions into categorical variables and analysed and assessed them. During the coding process the assessors did not know whether a statement came from the anonymous or the personalised group. To verify the assessors&#8217; consistency, the Pearson correlation coefficient was calculated. The value of the consistency for the single modules was between r&#61;.74 and r&#61;.98.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Ergebnisse">
      <MainHeadline>Ergebnisse</MainHeadline><SubHeadline2>Teilfragestellung 1: Unterschiede bei der quantitativen Bewertung</SubHeadline2><Pgraph>Zur Untersuchung, ob anonym erhobene Evaluationen negativer ausfallen als personalisiert erhobene, wurde f&#252;r jedes einzelne Modul eine multivariate Varianzanalyse (MANOVA) durchgef&#252;hrt. Abh&#228;ngige Variablen (AVs) waren die gebildeten Skalen zu den beschriebenen Aspekten der Modulevaluation, die unabh&#228;ngige Variable (UV) war die Gruppierungsvariable &#8222;anonym&#8220; und &#8222;personalisiert&#8220;.</Pgraph><Pgraph>Bei keinem Modul konnte ein signifikanter Unterschied zwischen anonym und personalisiert erhobenen Daten nachgewiesen werden (siehe Tabelle 1 <ImgLink imgNo="1" imgType="table"/>).</Pgraph><SubHeadline2>Teilfragestellung 2: H&#228;ufigkeit der Textantworten</SubHeadline2><Pgraph>Nach einer einfachen H&#228;ufigkeitsz&#228;hlung der optionalen Textantworten wurde pro Modul ein Mann-Whitney-Test f&#252;r unabh&#228;ngige Stichproben durchgef&#252;hrt zur Pr&#252;fung, ob die anonym evaluierenden Studierenden h&#228;ufiger Textantworten geben. Der Mann-Whitney-Test wurde gew&#228;hlt, da die Daten die statistischen Voraussetzungen f&#252;r einen T-Test nicht erf&#252;llten.</Pgraph><Pgraph>Wie in Tabelle 2 <ImgLink imgNo="2" imgType="table"/> ersichtlich ist, geben die Studierenden aus der personalisierten Gruppe tendenziell h&#228;ufiger Anregungen oder Kommentare ab. Die H&#228;ufigkeit unterscheidet sich jedoch nicht signifikant zwischen den Gruppen. Als Ausnahme gelten die Textantworten im Modul &#8222;Forschung verstehen&#8220;, bei dem die personalisierte Gruppe im Durchschnitt signifikant h&#228;ufiger eine Anregung vermittelt oder einen Kommentar abgegeben hat.</Pgraph><SubHeadline2>Teilfragestellung 3: Qualit&#228;t der Textantworten</SubHeadline2><Pgraph>Insgesamt haben die Studierenden &#252;ber alle f&#252;nf f&#252;r die Untersuchung relevanten Module n&#61;2152 Aussagen formuliert, davon waren total n&#61;6 verletzend oder vernichtend, erf&#252;llten also alle f&#252;nf genannten Bedingungen (siehe Kapitel 2.3 Datenaufbereitung). Aufgrund dieser geringen Anzahl von Aussagen, die die Kriterien einer verletzenden bzw. vernichtenden Aussage erf&#252;llten, konnte keine statistische Analyse durchgef&#252;hrt werden, um zu untersuchen, ob verletzende bzw. vernichtende Aussagen h&#228;ufiger von anonymen Studierenden stammen.</Pgraph><Pgraph>F&#252;r die statistische Analyse wurde in einem ersten Schritt pro Dimension ein Summenwert &#252;ber alle gegebenen Textantworten im Fragebogen gebildet. Das heisst, wenn ein Studierender in einer Evaluation drei Textantworten gab, die alle nicht pers&#246;nlich waren, erhielt er auf der Dimension Individuum einen Summenwert&#61;3. Je niedriger also der Summenwert war, desto h&#228;ufiger haben die Studierenden negative, absolute, pers&#246;nliche, einen Befehl oder optische Akzentuierung enthaltende R&#252;ckmeldungen formuliert. </Pgraph><Pgraph>In einem zweiten Schritt wurden unter Anwendung von MANOVAs (UV&#61;Gruppierungsvariable anonym vs. personalisiert, AVs&#61;Summenwerte aller Dimensionen) m&#246;gliche Gruppenunterschiede in der Qualit&#228;t der Textantworten gepr&#252;ft (siehe Tabelle 3 <ImgLink imgNo="3" imgType="table"/>).</Pgraph><Pgraph>Bei keinem Modul konnten zwischen den personalisierten und anonymen Textantworten signifikante qualitative Unterschiede in einer der f&#252;nf Dimensionen nachgewiesen werden. </Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Results">
      <MainHeadline>Results</MainHeadline><SubHeadline2>Sub-Question 1: Differences in the Quantitative Assessment</SubHeadline2><Pgraph>To analyse whether anonymous evaluations tended to be more negative than personalised evaluations, a multivariate variance analysis (MANOVA) was carried out for every single module. The scales developed according to the described aspects of the module evaluation were the dependent variables; the grouping variable &#8220;anonymous&#8221; and &#8220;personalised&#8221; was the independent variable.</Pgraph><Pgraph>For none of the modules could any significant difference between anonymous and personalised data be identified (see Table 1 <ImgLink imgNo="1" imgType="table"/>).</Pgraph><SubHeadline2>Sub-Question 2: Frequency of Optional Comments</SubHeadline2><Pgraph>After a simple frequency count of the optional comments, a Mann-Whitney test for independent samples was carried out for every module to verify whether the students evaluating anonymously tended to make optional comments more frequently. The Mann-Whitney test was chosen because the data did not meet the requirements for a t-test.</Pgraph><Pgraph>As can be seen in Table 2 <ImgLink imgNo="2" imgType="table"/>, the students in the personalised group tended to make suggestions and comments more often. However, the frequency does not differ significantly from one group to the other. The optional comments in the module &#8220;Understanding research&#8221; can be considered as an exception: in this module, the personalised group made suggestions or expressed opinions significantly more often on average.</Pgraph><SubHeadline2>Sub-Question 3: Quality of Optional Comments</SubHeadline2><Pgraph>The students formulated a total of n&#61;2152 statements about the five modules relevant for the study; n&#61;6 of these were offensive or destructive, meaning they met all of the above-mentioned conditions (see Chapter 2.3 &#8220;Data Processing&#8221;). Due to this small number of statements meeting the conditions of an offensive or destructive statement, it was not possible to carry out a statistical analysis to determine whether the students evaluating anonymously made offensive or destructive statements more often.</Pgraph><Pgraph>As a first step for the statistical analysis, the cumulative value per dimension was established for all the optional comments in the questionnaire. This means that if a student made three non-personal comments in one evaluation, he or she received a cumulative value of 3 on the dimension &#8220;Individual&#8221;. Thus the lower the cumulative value, the more often the students wrote responses that were negative, absolute or personal or that contained an order or a visual accentuation. </Pgraph><Pgraph>As a second step, the data was checked for possible differences between the groups in the quality of the optional comments using MANOVA (IV&#61;grouping variable anonymous vs. personalised, DVs&#61;cumulative values of all dimensions) (see Table 3 <ImgLink imgNo="3" imgType="table"/>).</Pgraph><Pgraph>No significant qualitative differences between anonymous and personalised comments could be identified in any of the five dimensions. </Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Diskussion">
      <MainHeadline>Diskussion</MainHeadline><Pgraph>Ziel dieser Studie war es, herauszufinden, ob ein Unterschied zwischen anonymer und personalisierter Programmevaluation durch Studierende besteht. Als Ergebnis stellte sich heraus, dass es hinsichtlich der quantitativen Bewertungen keine Unterschiede zwischen den beiden untersuchten Gruppen bestehen. Wegen der geringen Datenmenge konnte nicht untersucht werden, ob es einen Unterschied hinsichtlich verletzender bzw. vernichtender Aussagen gibt, allerdings l&#228;sst sich bei der Untersuchung der Auspr&#228;gung der f&#252;nf qualitativen Dimensionen kein signifikanter Unterschied zwischen anonymer und personalisierter Evaluation nachweisen. Bei der H&#228;ufigkeit der Textantworten ergab sich einzig bei einem Modul ein signifikanter Unterschied, bei allen anderen Modulen konnte kein Unterscheid zwischen der anonymen und personalisierten Gruppe nachgewiesen werden. Diese Ergebnisse &#246;ffnen einen weiten Interpretationsspielraum. F&#252;r das einzige signifikante Ergebnis k&#246;nnte die Tatsache verantwortlich sein, dass Studierende, die sich die M&#252;he nehmen, einen reflektierten pers&#246;nlichen Kommentar zu formulieren, als Personen wahrgenommen werden m&#246;chten. Sie w&#252;rden gerne einen weiterf&#252;hrenden Austausch beginnen.</Pgraph><Pgraph>Der unter 1.1 Ausgangslage vorgestellte konsequente Feedbackzyklus und die hohe Transparenz im Umgang mit den Ergebnissen erzeugen bei den Studierenden eine Sicherheit, dass R&#252;ckmeldungen ernst genommen und sorgf&#228;ltig gepr&#252;ft werden. Die Studierenden missbrauchen deshalb Fragebogen nicht, um anderweitig begr&#252;ndete Frustrationen zu kompensieren. </Pgraph><Pgraph>Neben der standardisierten Modulevaluation bestehen andere M&#246;glichkeiten f&#252;r R&#252;ckmeldungen, insbesondere ein Mentoratskonzept, das einen individuellen Austausch zwischen Studierenden und Dozierenden erm&#246;glicht. Allf&#228;llige Unzufriedenheiten bzw. Probleme k&#246;nnen somit gezielt und auf unterschiedlichen Wegen thematisiert werden. Eine weitere Begr&#252;ndung f&#252;r die vorliegenden Ergebnisse d&#252;rfte sein, dass die Dozierenden signalisierten, dass R&#252;ckmeldungen und Vorschl&#228;ge zur Entwicklung des Studienprogramms willkommen seien. </Pgraph><Pgraph>Dieses Evaluationskonzept hat Auswirkungen sowohl auf die Dozierenden als auch auf die Studierenden. Beide Seiten sehen sich bis zu einem gewissen Grad weiterhin als Pioniere des neuen Studiums und m&#246;chten einen Beitrag zur Curriculumsgestaltung leisten. Es kann zudem davon ausgegangen werden, dass in den Lehrpl&#228;nen der Zubringerschulen (Gymnasien, Berufs- und Fachmittelschulen) Kommunikations- und Feedbackregeln fest integriert sind. Heute studiert eine Generation, die an Austausch und Diskussion gew&#246;hnt ist. </Pgraph><Pgraph>Vernichtende und verletzende &#196;usserungen m&#252;ssen aufgrund der Ergebnisse dieser Untersuchung als Einzelf&#228;lle betrachtet werden. In den Anf&#228;ngen der Anwendung des Evaluationskonzepts (1.1 Ausgangslage) war den Dozierenden diese Tatsache noch nicht bewusst und die damalige Datenmenge erlaubte keine generalisierbaren R&#252;ckschl&#252;sse. Ausreisser wurden nicht als solche erkannt und deswegen &#252;berbewertet. Es wurde vermutet, dass sie wegen der anonymen Durchf&#252;hrung zustande gekommen seien. </Pgraph><Pgraph>Die in der Literatur als &#8222;Negativity Bias&#8220; bezeichnete Theorie best&#228;tigt, dass in den meisten Situationen Negatives st&#228;rker, dominanter und einschneidender wahrgenommen wird als Positives <TextLink reference="10"></TextLink>. Royman und Rozin <TextLink reference="11"></TextLink> untermauern diese These plakativ mit dem Vergleich, dass die kurze Ber&#252;hrung mit einer Kakerlake eine delikate Mahlzeit ungeniessbar mache. Gem&#228;ss dem Prinzip der &#8222;Negativity Dominance&#8220; <TextLink reference="11"></TextLink> sollen das Wahrnehmen und Beurteilen von Geschehnissen, die sowohl positive als auch negative Aspekte aufweisen, negativer sein als die arithmetische Summe dieser subjektiven Werte.</Pgraph><Pgraph>F&#252;r die vereinzelten negativen Aussagen m&#246;gen zahlreiche andere Gr&#252;nde verantwortlich sein: fachliche &#220;berforderung, private Probleme, Desinteresse an einem Thema oder ein &#8222;Negativity Bias&#8220; auf Seiten der Studierenden &#8211; eine zu schwierige Pr&#252;fungsfrage macht das ganze Modul schlecht.</Pgraph><Pgraph>Als Limitation der vorliegenden Studie k&#246;nnte die Eigenkonstruktion des f&#252;nfdimensionalen Instruments zur Erfassung der Aussagequalit&#228;t der optionalen Textantworten genannt werden, da diese Kategorisierung erstens subjektiv ist und zweitens nicht ersch&#246;pfend sein kann. F&#252;r die Validit&#228;t des Instruments spricht allerdings die hohe Beurteilungs&#252;bereinstimmung zwischen den unabh&#228;ngigen Ratern. Zu erw&#228;hnen bleibt, dass es gerade die Anwendung dieses Ratinginstruments bzw. die Pr&#252;fung der optionalen Textantworten war, die Einblick in die kritische Auseinandersetzung der Studierenden mit dem Studienprogramm verschafft hat.</Pgraph><Pgraph>Eine St&#228;rke der Studie ist die grosse Datenmenge, die dank der l&#252;ckenlosen Durchf&#252;hrung der Modulevaluationen mit einer R&#252;cklaufquote von nahezu 100 Prozent vorliegt. Dies wiederum war nur m&#246;glich durch das seri&#246;s entwickelte Konzept. Die Evaluationsfragen haben sich &#252;ber die Jahre hinweg als relevant erwiesen. All diese sorgf&#228;ltigen Vorarbeiten sowie das eingespielte Setting haben eine komplikationslose Durchf&#252;hrung des Forschungsprojekts erm&#246;glicht.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Discussion">
      <MainHeadline>Discussion</MainHeadline><Pgraph>The objective of the study was to determine whether there is a difference between anonymous and personalised programme evaluation by students. As a result it could be shown that, regarding the quantitative assessments, there are no differences between the two analysed groups. Due to the small amount of data it could not be determined whether there is a difference concerning offensive or destructive statements, but an analysis of the characteristics of the five qualitative dimensions shows no significant difference between anonymous and personalised evaluation. The frequency of the optional comments differed significantly only for one module; for all the other modules no difference between the anonymous and personalised group could be found. These results leave much room for interpretation. The single significant result might be explained by the fact that students who make an effort to formulate an elaborate personal comment would like to be perceived as individuals. They would like to initiate a further exchange.</Pgraph><Pgraph>The consistent feedback cycle presented in Chapter 1.1 &#8220;Initial Situation&#8221; and the high degree of transparency in the handling of the results gives the students the certainty that their feedback will be taken seriously and considered carefully. The students therefore do not abuse questionnaires to vent frustration about other issues. </Pgraph><Pgraph>In addition to the standardised module evaluation other feedback possibilities exist, notably a mentoring concept that facilitates individual exchange between students and lecturers. Possible dissatisfactions or problems can thus be addressed specifically and in various ways. Another explanation for the present results might be that the lecturers signalised that feedback and suggestions for the development of the programme would be welcome. </Pgraph><Pgraph>This evaluation concept affects lecturers as well as students. Both still see themselves, to a certain extent, as pioneers of the new degree programme and would like to contribute to the curriculum design. Furthermore it can be assumed that rules for communication and feedback are fully integrated in the curricula of the feeder schools, where the higher education entrance qualification is obtained. The generation studying today is used to communication and discussion. </Pgraph><Pgraph>Based on the results of the study, offensive and destructive statements must be viewed as isolated cases. The lecturers were unaware of this fact when the evaluation concept was first used (see Chapter 1.1 &#8220;Initial Situation&#8221;), and the amount of data available at the time did not allow any universally applicable conclusions to be drawn. Outliers were not recognised as such and therefore overrated. It was suspected that they came about because of the use of anonymity. </Pgraph><Pgraph>The theory referred to as &#8220;Negativity Bias&#8221; in the literature confirms that in most situations something negative will be perceived more strongly, dominantly and drastically than something positive <TextLink reference="10"></TextLink>. Royman and Rozin <TextLink reference="11"></TextLink> illustrate this theory with the comparison that the slightest contact with a cockroach makes a delicious meal inedible. According to the principle of &#8220;Negativity Dominance&#8221; <TextLink reference="11"></TextLink>&#91;, the perception and judgement of events that feature both positive and negative aspects are more negative than the arithmetical sum of these subjective values.</Pgraph><Pgraph>Numerous other reasons may be accountable for single negative statements: professional overload, private problems, lack of interest in a subject or a &#8220;Negativity Bias&#8221; on the students&#8217; side, for example, one exam question that is too difficult makes the whole module bad.</Pgraph><Pgraph>As a limitation of the present study one could name the self-elaborated design of the five-dimensional instrument to determine the statement quality of the optional comments, since this categorisation is subjective and cannot be exhaustive. Nevertheless, the high assessment consistency between the independent assessors is indicative of the validity of the instrument. It should also be noted that it is precisely the use of this rating instrument and the assessment of the optional comments that made it possible to gain an insight into the students&#8217; critical engagement with the curriculum.</Pgraph><Pgraph>A strength of the study lies in the large amount of data available: due to the comprehensive implementation of the module evaluation, the response rate was almost 100 per cent. This in turn was only made possible by the well-thought-out concept. Over the years, the evaluation questions have proven to be relevant. All the careful preliminary work and the well-practised setting made a smooth implementation of the research project possible.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Schlussfolgerung">
      <MainHeadline>Schlussfolgerung</MainHeadline><Pgraph>Es lohnt sich, in die Entwicklung eines Evaluationskonzeptes zu investieren, das als zentralen Aspekt einen geschlossenen und transparenten Feedbackzyklus vorsieht. Dieser er&#246;ffnet den Studierenden M&#246;glichkeiten der Beteiligung und zeigt ihnen, wie die Daten der Evaluationen in die kontinuierliche Entwicklung des Lehrangebots einfliessen. Nicht die Anzahl der durchgef&#252;hrten Evaluationen, wobei ein Minimum sicherlich gew&#228;hrleistet sein sollte, sondern die konsequente R&#252;ckmeldung der Ergebnisse an die Studierenden und die Diskussion &#252;ber allf&#228;llige Massnahmen sind dabei entscheidend. Die Studie zeigt, dass es nicht darauf ankommt, ob anonym oder unter Angabe des Namens evaluiert wird, solange diese konzeptuellen Evaluationsbedingungen erf&#252;llt sind. In diesem Sinne k&#246;nnen diese Studienergebnisse auf andere Institutionen &#252;bertragen werden.</Pgraph><Pgraph>Bei extrem negativen Antworten muss immer die Frage der Verh&#228;ltnism&#228;ssigkeit gestellt werden, da Negatives offensichtlich eine gr&#246;ssere Wirkung hat als Positives. Dies ist eine weitere, m&#246;glicherweise erleichternde Schlussfolgerung.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Conclusion">
      <MainHeadline>Conclusion</MainHeadline><Pgraph>It is worthwhile to invest in the development of an evaluation concept whose central aspect is a closed and transparent feedback cycle. This provides the students with the possibility of participation and shows them how the evaluated data is integrated into the continuous development of the course offer. What is crucial is not the number of evaluations &#8211; although a minimum should certainly be ensured &#8211; but rather the consistent reporting of the results to the students and the discussing of possible measures. The study shows that it does not matter whether an evaluation is carried out anonymously or in a personalised way, as long as these conceptual evaluation conditions are met. With this in mind, the results of the present study can be applied to other academic institutions.</Pgraph><Pgraph>Extremely negative responses must be put into perspective, since negativity seems to have a stronger effect than positivity. This is a further, possibly relieving, conclusion.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Anmerkung">
      <MainHeadline>Anmerkung</MainHeadline><Pgraph><Superscript>1</Superscript>  Schweizer Notensystem: 6 &#61; sehr gut, 5 &#61; gut, 4 &#61; gen&#252;gend, 3 &#61; ungen&#252;gend, 2 &#61; schlecht, 1 &#61; sehr schlecht</Pgraph><Pgraph><Superscript>2</Superscript>  Name ge&#228;ndert</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Note">
      <MainHeadline>Note</MainHeadline><Pgraph><Superscript>1</Superscript> Swiss grading system: 6 &#61; excellent, 5 &#61; good, 4 &#61; pass, 3 &#61; fail, 2 &#61; very poor, 1 &#61; no performance</Pgraph><Pgraph><Superscript>2</Superscript> Real name withheld.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Competing interests">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Kern DE</RefAuthor>
        <RefAuthor>Thomas PA</RefAuthor>
        <RefAuthor>Hughes MT</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1998</RefYear>
        <RefBookTitle>Curriculum Development for Medical Education - A Six-Step Approach</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Kern DE, Thomas PA, Hughes MT. Curriculum Development for Medical Education - A Six-Step Approach. Baltimore: The Johns Hopkins University Press; 1998.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Kromrey H</RefAuthor>
        <RefTitle>Evaluation - ein vielschichtiges Konzept: Begriff und Methodik von Evaluierung und Evaluationsforschung</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Sozialwiss Berufspraxis</RefJournal>
        <RefPage>105-131</RefPage>
        <RefTotal>Kromrey H. Evaluation - ein vielschichtiges Konzept: Begriff und Methodik von Evaluierung und Evaluationsforschung. Sozialwiss Berufspraxis. 2001;24(2):105-131.</RefTotal>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Borg WR</RefAuthor>
        <RefAuthor>Gall MD</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1983</RefYear>
        <RefBookTitle>Educational research: An introduction</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Borg WR, Gall MD. Educational research: An introduction. New York: Longman; 1983.</RefTotal>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Braskamp LA</RefAuthor>
        <RefAuthor>Ory JC</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1994</RefYear>
        <RefBookTitle>Assessing faculty work: Enhancing individual and institutional performance</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Braskamp LA, Ory JC. Assessing faculty work: Enhancing individual and institutional performance. San Francisco: Jossey-Bass; 1994.</RefTotal>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Seldin P</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>1990</RefYear>
        <RefBookTitle>How administrators can improve teaching: Moving from talk to action in higher education</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Seldin P. How administrators can improve teaching: Moving from talk to action in higher education. San Francisco: Jossey-Bass; 1990.</RefTotal>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Fries CJ</RefAuthor>
        <RefAuthor>McNinch RJ</RefAuthor>
        <RefTitle>Signed versus unsigned student evaluations of teaching: A comparison</RefTitle>
        <RefYear>2003</RefYear>
        <RefJournal>Teach Sociol</RefJournal>
        <RefPage>333-344</RefPage>
        <RefTotal>Fries CJ, McNinch RJ. Signed versus unsigned student evaluations of teaching: A comparison. Teach Sociol. 2003;31(3):333-344. DOI: 10.2307&#47;3211331</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.2307&#47;3211331</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Opren C</RefAuthor>
        <RefTitle>The susceptibility of studen evaluation of lecturers to situational variables</RefTitle>
        <RefYear>1980</RefYear>
        <RefJournal>High Educ</RefJournal>
        <RefPage>293-306</RefPage>
        <RefTotal>Opren C. The susceptibility of studen evaluation of lecturers to situational variables. High Educ. 1980;9(3):293-306. DOI: 10.1007&#47;BF00138519</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1007&#47;BF00138519</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Goh JW</RefAuthor>
        <RefAuthor>Lee OK</RefAuthor>
        <RefAuthor>Salleh H</RefAuthor>
        <RefTitle>Self-rating and respondent anonymity</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>Educ Res</RefJournal>
        <RefPage>229-245</RefPage>
        <RefTotal>Goh JW, Lee OK, Salleh H. Self-rating and respondent anonymity. Educ Res. 2010;52(3):229-245. DOI: 10.1080&#47;00131881.2010.504060</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;00131881.2010.504060</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Baartmans P</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2006</RefYear>
        <RefBookTitle>Qualit&#228;t nach Mass: Entwicklung und Implementierung von Qualit&#228;tsverbesserungen im Gesundheitswesen</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Baartmans P. Qualit&#228;t nach Mass: Entwicklung und Implementierung von Qualit&#228;tsverbesserungen im Gesundheitswesen. 2 ed. Bern: Huber Verlag; 2006.</RefTotal>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Baumeister RF</RefAuthor>
        <RefAuthor>Bratslavksy E</RefAuthor>
        <RefAuthor>Finkenauer C</RefAuthor>
        <RefAuthor>Vohs KD</RefAuthor>
        <RefTitle>Bad is Stronger Than Good</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Rev Gen Psychol</RefJournal>
        <RefPage>323-370</RefPage>
        <RefTotal>Baumeister RF, Bratslavksy E, Finkenauer C, Vohs KD. Bad is Stronger Than Good. Rev Gen Psychol. 2001;5(4):323-370. DOI: 10.1037&#47;1089-2680.5.4.323</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1037&#47;1089-2680.5.4.323</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Rozin P</RefAuthor>
        <RefAuthor>Royzman EB</RefAuthor>
        <RefTitle>Negativity Bias, Negativity Dominance, and Contagion</RefTitle>
        <RefYear>2001</RefYear>
        <RefJournal>Personality and Social Psychology Review</RefJournal>
        <RefPage>296-320</RefPage>
        <RefTotal>Rozin P, Royzman EB. Negativity Bias, Negativity Dominance, and Contagion. Personality and Social Psychology Review. 2001;5(4):296-320. DOI: 10.1207&#47;S15327957PSPR0504&#95;2</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1207&#47;S15327957PSPR0504&#95;2</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 1: Ergebnisse der MANOVAs pro Modul zur quantitativen Bewertung</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 1: Results of the MANOVA for each module with quantitative assessment</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>2</MediaNo>
          <MediaID language="de">2de</MediaID>
          <MediaID language="en">2en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 2: H&#228;ufigkeit der Textantworten</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 2: Frequency of comments</Mark1></Pgraph></Caption>
        </Table>
        <Table format="png">
          <MediaNo>3</MediaNo>
          <MediaID language="de">3de</MediaID>
          <MediaID language="en">3en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Tabelle 3: Ergebnisse der MANOVAs pro Modul zu den qualitativen Dimensionen</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Table 3: Results of the MANOVA for each module for the qualitative dimensions</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>3</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="167" width="661">
          <MediaNo>1</MediaNo>
          <MediaID language="de">1de</MediaID>
          <MediaID language="en">1en</MediaID>
          <Caption language="de"><Pgraph><Mark1>Abbildung 1: Beispiel f&#252;r die Items zur Bewertung der Vorlesungen</Mark1></Pgraph></Caption>
          <Caption language="en"><Pgraph><Mark1>Figure 1: Example of items for the assessment of lectures</Mark1> </Pgraph></Caption>
        </Figure>
        <NoOfPictures>1</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>