<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>zma001104</Identifier>
    <IdentifierDoi>10.3205/zma001104</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-zma0011042</IdentifierUrn>
    <ArticleType language="en">Editorial</ArticleType>
    <ArticleType language="de">Leitartikel</ArticleType>
    <TitleGroup>
      <Title language="en">Beyond the Impact Factor &#8211; What do alternative metrics have to offer&#63;</Title>
      <TitleTranslated language="de">Jenseits des Impact-Faktors &#8211; Was leisten alternative Metriken f&#252;r Publikationen&#63;</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Fabry</Lastname>
          <LastnameHeading>Fabry</LastnameHeading>
          <Firstname>G&#246;tz</Firstname>
          <Initials>G</Initials>
          <AcademicTitle>Dr. med.</AcademicTitle>
        </PersonNames>
        <Address language="en">Albert-Ludwig-Universit&#228;t Freiburg, Abt. f&#252;r Med. Psychologie, Rheinstr. 12, D-79104 Freiburg&#47;Brg, Germany<Affiliation>Albert-Ludwig-Universit&#228;t Freiburg, Abt. f&#252;r Med. Psychologie, Freiburg&#47;Brg, Germany</Affiliation><Affiliation>GMS Journal for Medical Education, Assistant Chief Editor, Erlangen, Germany</Affiliation></Address>
        <Address language="de">Albert-Ludwig-Universit&#228;t Freiburg, Abt. f&#252;r Med. Psychologie, Rheinstr. 12, 79104 Freiburg&#47;Brg, Deutschland<Affiliation>Albert-Ludwig-Universit&#228;t Freiburg, Abt. f&#252;r Med. Psychologie, Freiburg&#47;Brg, Deutschland</Affiliation><Affiliation>GMS Journal for Medical Education, stellv. Schriftleiter, Erlangen, Deutschland</Affiliation></Address>
        <Email>fabry&#64;uni-freiburg.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Fischer</Lastname>
          <LastnameHeading>Fischer</LastnameHeading>
          <Firstname>Martin R.</Firstname>
          <Initials>MR</Initials>
          <AcademicTitle>Prof. Dr. med.</AcademicTitle>
          <AcademicTitleSuffix>MME</AcademicTitleSuffix>
        </PersonNames>
        <Address language="en">Klinikum der Universit&#228;t M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, Ziemssenstr. 1, D-80336 M&#252;nchen, Germany<Affiliation>Klinikum der Universit&#228;t M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, M&#252;nchen, Germany</Affiliation><Affiliation>GMS Journal for Medical Education, Chief Editor, Erlangen, Germany</Affiliation></Address>
        <Address language="de">Klinikum der Universit&#228;t M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, Ziemssenstr. 1, 80336 M&#252;nchen, Deutschland<Affiliation>Klinikum der Universit&#228;t M&#252;nchen, Institut f&#252;r Didaktik und Ausbildungsforschung in der Medizin, M&#252;nchen, Deutschland</Affiliation><Affiliation>GMS Journal for Medical Education, Schriftleiter, Erlangen, Deutschland</Affiliation></Address>
        <Email>martin.fischer&#64;med.uni-muenchen.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <SectionHeading language="en">Alternative Metrics</SectionHeading>
      <SectionHeading language="de">Alternative Metriken</SectionHeading>
    </SubjectGroup>
    <DateReceived>20170426</DateReceived>
    <DateRevised>20170426</DateRevised>
    <DateAccepted>20170426</DateAccepted>
    <DatePublishedList>
      
    <DatePublished>20170515</DatePublished></DatePublishedList>
    <Language>engl</Language>
    <LanguageTranslation>germ</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>2366-5017</ISSN>
        <Volume>34</Volume>
        <Issue>2</Issue>
        <JournalTitle>GMS Journal for Medical Education</JournalTitle>
        <JournalTitleAbbr>GMS J Med Educ</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>27</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock language="en" linked="yes" name="Editorial">
      <MainHeadline>Editorial</MainHeadline><Pgraph>Some of our readers might have already noticed that lately some of the articles in the JME are marked with a &#8220;donut,&#8221; a ring composed of colored, intertwined rings around a number at its center. It is the emblem of Altmetric.com &#91;<Hyperlink href="http:&#47;&#47;www.altmetric.com">http:&#47;&#47;www.altmetric.com</Hyperlink>&#93; a company named after the general term for indicators measuring the dissemination of scientific literature beyond the Impact Factor (&#8220;alternative metrics&#8221; or &#8220;altmetrics&#8221;) <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>. The donut indicates which online media refer to the respective article. The greater the number of colors in the ring, the greater the number of different media linked to the article. General news sites and newspapers, the scientific bibliographic platform Mendeley, sites for post-publication peer review (e.g. Publons, see below), references in Scopus (a bibliographic database run by Elsevier), Wikipedia, blogs, social media like Facebook and Twitter, YouTube, and a multitude of other resources are analyzed. The number in the center of the ring is the &#8220;attention score,&#8221; a weighted measure to represent the coverage of the respective article in the media analyzed (for more details on how the score is calculated, see <Hyperlink href="https:&#47;&#47;goo.gl&#47;jSLn1Y">https:&#47;&#47;goo.gl&#47;jSLn1Y</Hyperlink> and <TextLink reference="3"></TextLink>). A click on the emblem leads to a website that reports the exact details and the geographical distribution of the media-related activities.</Pgraph><Pgraph>What is the relevance of this kind of analysis and of the alternative score&#63; First of all, it expresses a change in scientific communication, albeit a very slow and time-delayed one <TextLink reference="4"></TextLink>. Currently, the productivity of scientists and the quality of their work are mainly measured by their publications. Despite the fact that the digital revolution permeates all aspects of our daily lives, the form of these publications has remained remarkably constant. Scientific evidence is still published in journal articles that are, in many cases, still organized in volumes and issues with page numbers even though they are only rarely printed on paper, at least in medicine and the natural sciences. Furthermore, the system of gratification for scientific achievement relies on these structures, too. The number of articles with very high impact remains of crucial importance for a career in science. To date, this impact is measured almost exclusively by the Impact Factor, a measure that specifies how often articles in a given journal are referenced by other scientific journals within the previous two years <TextLink reference="5"></TextLink>. The use of the Impact Factor as a means to evaluate research quality especially with regard to individuals has been increasingly criticized. The San Francisco Declaration on Research Assessment (DORA), launched in 2012 and so far signed by more than 500 organizations and 12,000 scientists, states that the Impact Factor and similar journal metrics should not be used to assess the quality of individual articles or their authors, nor for decisions on hiring, promotion and tenure &#91;<Hyperlink href="http:&#47;&#47;www.ascb.org&#47;dora&#47;">http:&#47;&#47;www.ascb.org&#47;dora&#47;</Hyperlink>&#93;, <TextLink reference="6"></TextLink>. However, there is no sign that a fundamental change will take place in the foreseeable future, despite the fact that a number of alternative strategies exist regarding the different aspects of traditional publishing conventions.</Pgraph><Pgraph>In recent years, for instance, &#8220;post-publication peer review&#8221; (PPPR) has taken root as an alternative to the usual &#8220;pre-publication peer review&#8221; <TextLink reference="7"></TextLink>. The reasons are multifaceted. First of all, there is almost no evidence that traditional peer review actually increases the quality of manuscripts, in part due to the methodological challenges that can handicap research <TextLink reference="8"></TextLink>. A recently published study examined this issue by looking at journals of the BMC platform since these journals publish an article&#8217;s &#8220;pre-publication history,&#8221; meaning all reviews and author responses <TextLink reference="9"></TextLink>. The results show that the reviewers made few suggestions for changes overall. While the majority of these suggestions improved the quality of the manuscripts, there were also some suggestions that decreased the quality. Moreover, the reviewers missed many flaws and errors in the manuscripts that would have been relatively easy to detect by using simple tools such as a checklist based on the CONSORT statement <TextLink reference="10"></TextLink>. Further criticism refers to delayed publication caused by the pre-publication peer review and to the fact that the review process usually involves only two or three reviewers whose expertise is not always known or transparent <TextLink reference="7"></TextLink>.</Pgraph><Pgraph>PPPR is intended to overcome these weaknesses. An example from the field of medical education is &#8220;AMEE MedEdPublish&#8221; &#91;<Hyperlink href="http:&#47;&#47;www.mededpublish.org">www.mededpublish.org</Hyperlink>&#93; which went online very recently. Manuscripts are published immediately without prior review or, as is the case with MedEdPublish, after a more formal check by the editorial office. Readers review the manuscripts after publication. While this procedure generally can take many forms, MedEdPublish allows anyone who is registered on the platform to review and rate the article. The hope behind this rationale is that by involving a potentially unlimited number of reviewers this will increase the reliability and validity of the review. However, there is also a panel of official reviewers whose judgment is essential on whether or not an article receives a recommendation. It is the intention of the initiators that this recommendation will then lead to referencing the respective article in PubMedCentral which, in turn, would put it on par with publications from PubMed-indexed journals with traditional peer review. In some places, at least, this would also make it count toward career advancement.</Pgraph><Pgraph>While this kind of PPPR is intended to replace the traditional peer review, the term also encompasses all kind of criticism and comments relating to an article after publication, even when the article has undergone the usual peer review. Publication scandals that occur time and again make it quite clear that this is indeed necessary. Flaws in publications on stem cells in highly ranked journals, for instance, were discovered by well-established bloggers and resulted in a retraction of the affected papers <TextLink reference="11"></TextLink>. Letters to the editor are in fact a long-standing possibility to criticize or comment on an article but compared to the potential of the internet, this type of scientific communication seems rather old-fashioned. If letters are published, they are often released with considerable delay and they do not always lead to a reply by the authors, let alone a reaction by the journals who &#8211; on top of it all &#8211; have a conflict of interest when it comes to publishing critical letters <TextLink reference="12"></TextLink>.</Pgraph><Pgraph>In light of this, it seems obvious that the internet be used to critique and discuss scientific publications. However, what appears to be self-evident is not as trivial as it may seem: where and how, exactly, should these discussions and commentaries take place&#63; How, for instance, to avoid the well-known difficulties of communication within social networks, e.g. polemics or hyper-criticism under the cover of anonymity or fake profiles&#63; Who is going to participate in this discussion&#63; What kind of motives will prompt the participants&#63;</Pgraph><Pgraph>With regard to the site of the discussion, solutions are already apparent in the form of social networks for scientists, such as ResearchGate &#91;<Hyperlink href="http:&#47;&#47;www.researchgate.net">www.researchgate.net</Hyperlink>&#93; and Academia &#91;<Hyperlink href="http:&#47;&#47;www.academia.edu">www.academia.edu</Hyperlink>&#93;. On these platforms scientists can share their publications, read and comment on the publications of others, and engage in discussions on different topics, as in other internet forums. On ResearchGate these activities, along with the responses they trigger, are registered by calculating a specific measure (&#8220;RG score&#8221;) that &#8211; at least in the company&#8217;s view &#8211; mirrors the reputation of the individual scientist within the platform and, perhaps, even beyond. Studies examining ResearchGate revealed that, for now, the social and network-related functions are rarely used except to share scientific articles (although these have to be uploaded first which is not without problems in terms of copyright) <TextLink reference="13"></TextLink>. An interesting question in this regard is whether the number of &#8220;reads&#8221; on ResearchGate (which is also one of the components of the RG score) correlates with other measures, for instance, the number of citations. A recent study showed that &#8220;younger&#8221; articles outnumber &#8220;older&#8221; articles on the platform, and that younger articles tend to be read more often. A comparison of reads on ResearchGate with the number of citations in the database Scopus and the number of readers on the bibliographic platform Mendeley resulted in rather low correlations which, according to the authors of the study, might indeed indicate different target audiences <TextLink reference="14"></TextLink>. This could mean that the different measures of the different media and platforms do indeed measure different aspects regarding the dissemination of and the response to science which would justify their respective uses <TextLink reference="15"></TextLink>.</Pgraph><Pgraph>However popular ResearchGate, Academia and Mendeley might be by now, it remains unsatisfactory from a scientific perspective that all these platforms are run by privately owned companies pursuing their own opaque, commercial agendas. In this context another initiative appears to be much more promising: in 2013 PubMed launched &#8220;PubMed Commons&#8221; a project that is open to everyone who has authored at least one publication listed in PubMed. The service can be used via the free individual NCBI account. This opens up the possibility to comment on each article indexed in PubMed. The box for the comments is placed right under the article abstract in PubMed, and the comments are visible to everyone who retrieves the article in PubMed. Thus, all articles of the JME (and the ZMA) published since 2005 are also open for comments and discussion in this manner. Evidently, this option has not yet been used, and generally the intensity of the exchange on PubMed Commons is rather modest. The reasons for this are obvious: due to a severe lack of time, only very few scientists will feel the necessity to become active, especially since there is no reward terms of career advancement aside from the fulfillment of idea-driven motives and scientific interest that might pay off it. Additional reasons that are generally known from social networks might also be relevant. Particularly scientists at the beginning of their career might question whether publicly criticizing a paper written by an established colleague might impair future career opportunities. In addition, social dynamics might have a negative impact in terms of stereotyping or gender bias <TextLink reference="16"></TextLink>. These considerations illustrate that PPPR, too, might have drawbacks which is one reason why the JME currently retains the blinded pre-publication peer review.</Pgraph><Pgraph>At least with regard to the reward for preparing a scholarly peer review (pre- and post-publication), solutions are also being developed. Reviewers can create an account on the &#8220;Publons&#8221; portal &#91;<Hyperlink href="https:&#47;&#47;publons.com&#47;home&#47;">publons.com</Hyperlink>&#93; to publicly document their activity as reviewers. Since a number of big publishers (Springer, Thieme, BMJ, etc.) support the portal, reviewers are asked to document their reviews on Publons as part of the routine reviewing process. Depending on the type of contract with the journals, different modes of documentation exist ranging from simple and anonymous documentation of the number of completed reviews to the full-text documentation of the review itself. Even if a publisher or journal has no contract with Publons yet, as is currently the case for JME, reviews can still be documented quantitatively. Publons has also installed an index measuring the quantity and quality of the reviews. It is the idea of the Publon founders that this measure might pay off in terms of career advancement or at least academic recognition <TextLink reference="17"></TextLink>.</Pgraph><Pgraph>This cursory overview on some of the online activities that contribute to the Altmetric donut and score makes it clear that a multitude of opportunities for public scientific communication exist beyond journal articles and the heavily criticized Impact Factor. Currently, their potential has not yet been fully explored, and their significance cannot be fully appraised <TextLink reference="18"></TextLink>. However, it seems necessary and reasonable to track these activities and to actively contribute to them as far as individual prospects and resources allow. In this light, we invite all of our authors, reviewers and readers to refer to their work in alternative media and networks to intensify our professional discourse and, not least, to increase the attention given to the JME <TextLink reference="19"></TextLink>.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Leitartikel">
      <MainHeadline>Leitartikel</MainHeadline><Pgraph>Manchen unserer Leser ist vielleicht schon aufgefallen, dass einige Artikel in der JME seit kurzer Zeit mit einem &#8222;Donut&#8220; markiert sind, einem Ring mit ein- oder mehrfarbigen ineinander verschlungenen Str&#228;ngen und einer Zahl in der Mitte. Es handelt sich dabei um das Emblem der Firma Altmetrics.com &#91;<Hyperlink href="http:&#47;&#47;www.altmetric.com">http:&#47;&#47;www.altmetric.com</Hyperlink>&#93;, die sich nach dem Sammelbegriff f&#252;r Verbreitungsindikatoren wissenschaftlicher Publikationen jenseits des Impact Faktors (&#8222;alternative metrics&#8220; oder &#8222;altmetrics&#8220;) benannt hat <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>. Der Donut zeigt an, in welchen Online-Medien auf den Artikel Bezug genommen wurde. Je mehr Farben der Ring enth&#228;lt, desto gr&#246;&#223;er ist die Zahl der verschiedenen, auf den Artikel verweisenden Medien. Ausgewertet werden dabei allgemeine Nachrichtenportale und Zeitungen, die wissenschaftliche Bibliographieplattform Mendeley, Webseiten f&#252;r Post-Publication Peer Review (z.B. Publons, siehe unten), Zitationen in Scopus (der vom Verlag Elsevier betriebenen Literaturdatenbank), Wikipedia, Blogs, soziale Medien wie Facebook und Twitter, YouTube und viele andere Quellen. Die Zahl in der Mitte des Rings wird als &#8222;Aufmerksamkeits-Score&#8220; bezeichnet und ist ein gewichtetes Ma&#223; f&#252;r die Reichweite des jeweiligen Artikels in den ausgewerteten Medien (genauere Angaben zur Berechnung finden sich hier: <Hyperlink href="https:&#47;&#47;goo.gl&#47;jSLn1Y">https:&#47;&#47;goo.gl&#47;jSLn1Y</Hyperlink> vgl. <TextLink reference="3"></TextLink>). Ein Klick auf das Symbol f&#252;hrt zu einer Webseite, auf der die genaue, auch geographische Verteilung der medialen Aktivit&#228;ten aufgeschl&#252;sselt ist.</Pgraph><Pgraph>Welche Bedeutung hat diese Form der Auswertung und der alternative Score&#63; Zun&#228;chst einmal ist er Ausdruck eines, wenn auch sehr zeitverz&#246;gert und langsam einsetzenden Wandels in der wissenschaftlichen Kommunikation <TextLink reference="4"></TextLink>. Die Produktivit&#228;t und Qualit&#228;t von Wissenschaftlerinnen und Wissenschaftlern wird derzeit in erster Linie an ihren Publikationen gemessen. Die Form dieser Publikationen ist trotz des ansonsten alle Bereiche unseres Lebens durchdringenden digitalen Wandels bemerkenswert konstant geblieben. Nach wie vor werden wissenschaftliche Erkenntnisse als Artikel in Zeitschriften ver&#246;ffentlicht, die vielfach noch nach B&#228;nden, Ausgaben und Seitenzahlen organisiert sind, auch wenn sie &#8211; zumindest im Bereich der Medizin und der Naturwissenschaften &#8211; kaum mehr auf Papier gedruckt werden. Und auch das wissenschaftliche Gratifikationssystem orientiert sich weiterhin an diesen Strukturen: Immer noch ist es die Zahl der Artikel mit m&#246;glichst gro&#223;em Einfluss (&#8222;Impact&#8220;), die f&#252;r die Karriere eines Wissenschaftlers entscheidende Bedeutung hat. Gemessen wird der Einfluss bislang fast ausschlie&#223;lich mit dem Impact-Faktor, einer Ma&#223;zahl, die angibt, wie h&#228;ufig Artikel aus einer Zeitschrift in den vorangegangenen zwei Jahren von anderen wissenschaftlichen Zeitschriften zitiert worden sind <TextLink reference="5"></TextLink>. Der Impact-Faktor als Ma&#223; der Forschungsleistung, insbesondere einzelner Wissenschaftler wird zunehmend kritisch gesehen: In der San Francisco Declaration on Research Assessment (DORA) aus dem Jahr 2012 fordern mittlerweile &#252;ber 500 Organisationen und &#252;ber 12.000 Wissenschaftlerinnen und Wissenschaftler u.a., den Impact-Faktor und vergleichbare Journal-Metriken nicht zur Beurteilung der Qualit&#228;t individueller Artikel oder ihrer Autoren bzw. zu deren Einstellung oder (Be-) F&#246;rderung zu nutzen &#91;<Hyperlink href="http:&#47;&#47;www.ascb.org&#47;dora&#47;">http:&#47;&#47;www.ascb.org&#47;dora&#47;</Hyperlink>&#93;, <TextLink reference="6"></TextLink>. Gleichzeitig ist aber kaum erkennbar, dass sich hier in absehbarer Zeit echte Ver&#228;nderungen vollziehen w&#252;rden, obwohl es mittlerweile zu den verschiedenen Aspekten der traditionellen Publikationspraxis durchaus alternative Vorgehensweisen gibt.</Pgraph><Pgraph>So etabliert sich in den letzten Jahren das &#8222;Post Publication Peer Review&#8220; (PPPR) als Alternative zum herk&#246;mmlichen &#8222;Pre Publication Peer Review&#8220; <TextLink reference="7"></TextLink>. Die Gr&#252;nde daf&#252;r liegen auf verschiedenen Ebenen. So gibt es bislang kaum Evidenz daf&#252;r, dass das traditionelle Peer Review-Verfahren die Qualit&#228;t von Manuskripten tats&#228;chlich verbessert, was allerdings auch an den methodischen Schwierigkeiten liegt, die eine dementsprechende Forschung erschweren <TextLink reference="8"></TextLink>. K&#252;rzlich wurde eine Studie durchgef&#252;hrt, die diese Fragestellung an den Zeitschriften der Plattform BMC untersuchte, auf der die sogenannte Pre-Publication-History, also alle Gutachten zum Manuskript sowie die Antworten der Autoren ver&#246;ffentlicht werden <TextLink reference="9"></TextLink>. Dabei zeigte sich, dass die Gutachter insgesamt nur relativ wenige &#196;nderungsvorschl&#228;ge machten. W&#228;hrend diese Vorschl&#228;ge mehrheitlich zu einer qualitativen Verbesserung der Manuskripte f&#252;hrte, gab es aber auch Vorschl&#228;ge, die die Manuskripte verschlechterten. Au&#223;erdem &#252;bersahen die Gutachter viele Schw&#228;chen und Fehler in den Manuskripten, die bereits mit einfachen Tools, z.B. Checklisten auf Grundlage des CONSORT-Statements <TextLink reference="10"></TextLink> h&#228;tten entdeckt werden k&#246;nnen. Weitere Kritikpunkte beziehen sich auf die Verz&#246;gerung der Publikation, die durch das vorgeschaltete Peer Review Verfahren entstehen kann, sowie auf die Tatsache, dass in der Regel nur zwei bis drei Gutachter am Begutachtungsprozess beteiligt sind, deren fachliche Expertise zudem nicht immer bekannt oder transparent ist <TextLink reference="7"></TextLink>.</Pgraph><Pgraph>Mittels PPPR, f&#252;r das es mit dem k&#252;rzlich online gegangenen Portal &#8222;AMEE MedEdPublish&#8220; auch in der Medical Education Community ein Beispiel gibt &#91;<Hyperlink href="https:&#47;&#47;www.mededpublish.org&#47;">www.mededpublish.org</Hyperlink>&#93;, sollen diese Schw&#228;chen vermieden werden. Manuskripte werden dabei ohne vorherige Begutachtung bzw. wie im Fall von MedEdPublish, nach einer eher formalen, redaktionellen Pr&#252;fung, sofort ver&#246;ffentlicht. Im Anschluss an die Publikation werden die Manuskripte dann von den Lesern bewertet, wobei es hier ein breites Spektrum an Vorgehensweisen gibt. Im Fall von MedEdPublish kann jeder, der sich auf der Plattform registriert hat, den Artikel begutachten und bewerten. Die damit verbundene Hoffnung ist die, dass durch die Beteiligung einer potentiell unbegrenzten Zahl von Gutachtern die Zuverl&#228;ssigkeit und Validit&#228;t der Bewertung zunimmt. Allerdings gibt es zus&#228;tzlich auch ein Panel von offiziellen Gutachtern, deren Bewertung nach einem festgelegten Zeitraum dar&#252;ber entscheidet, ob ein Artikel eine Empfehlung erh&#228;lt, die &#8211; so zumindest der Plan der Initiatoren &#8211; dann dazu f&#252;hren soll, dass ein solcher Artikel in PubMed Central indexiert wird. Damit w&#228;re er dann Publikationen in Zeitschriften mit herk&#246;mmlichem Peer Review und PubMed-Listung gleichgestellt und w&#228;re zumindest mancherorts auch karrieref&#246;rderlich verwertbar.</Pgraph><Pgraph>Neben dieser Form des PPPR, die das traditionelle Peer Review ersetzen soll, wird der Begriff aber auch verwendet, um alle Formen der Kritik bzw. Kommentierung eines Artikels zu erfassen, die nach der Ver&#246;ffentlichung stattfinden, auch dann, wenn der Artikel bereits ein klassisches Peer Review durchlaufen hat. Dass das durchaus notwendig ist, zeigt sich immer wieder an Publikationsskandalen. So wurden etwa Unstimmigkeiten in hochrangig publizierten Arbeiten zur Stammzellforschung von bekannten Bloggern aufgedeckt, die schlie&#223;lich zur R&#252;cknahme der Artikel f&#252;hrten <TextLink reference="11"></TextLink>. Zwar gibt es in Form von Leserbriefen auch bisher schon die M&#246;glichkeit, Artikel zu kritisieren oder zu kommentieren, allerdings wirkt diese Form wissenschaftlicher Kommunikation angesichts der M&#246;glichkeiten des Internets eher anachronistisch. Leserbriefe werden, wenn &#252;berhaupt, oft mit erheblicher Verz&#246;gerung ver&#246;ffentlicht und f&#252;hren auch nicht immer zu einer Antwort der Autoren, geschweige denn zu einer Reaktion der Zeitschriften, die zudem auch noch einen Interessenskonflikt haben, kritische Leserbriefe &#252;berhaupt zu ver&#246;ffentlichen <TextLink reference="12"></TextLink>.</Pgraph><Pgraph>Insofern ist es naheliegend, Kritik und Diskussion wissenschaftlicher Arbeiten ins Internet zu verlagern. Was sich selbstverst&#228;ndlich anh&#246;rt ist allerdings nicht so trivial, wie es scheint. Denn wo und wie genau soll diese Diskussion und Kommentierung stattfinden&#63; Wie soll etwa bekannten Schwierigkeiten der Kommunikation in sozialen Netzwerken (z.B. Polemik und &#252;berzogene Kritik im Schutz von Anonymit&#228;t bzw. von Fake-Profilen) begegnet werden&#63; Wer wird sich mit welcher Motivation an dieser Diskussion beteiligen&#63;</Pgraph><Pgraph>F&#252;r die Frage nach dem Ort der Diskussion zeichnen sich bereits L&#246;sungen ab z.B. in Form sozialer Netzwerke f&#252;r die Wissenschaft wie ResearchGate &#91;<Hyperlink href="https:&#47;&#47;www.researchgate.net&#47;">www.researchgate.net</Hyperlink>&#93; und Academia &#91;<Hyperlink href="https:&#47;&#47;www.academia.edu&#47;">www.academia.edu</Hyperlink>&#93;. Auf diesen Plattformen k&#246;nnen Wissenschaftler unter anderem ihre Publikationen zur Verf&#252;gung stellen, die Publikationen anderer lesen und kommentieren, sowie &#8211; analog zu einem Forum &#8211; verschiedene Themen diskutieren. Auf ResearchGate wird aus diesen Aktivit&#228;ten sowie der Resonanz darauf eine Ma&#223;zahl (&#8222;RG Score&#8220;) berechnet, die &#8211; zumindest nach Auffassung der Firma &#8211; die Reputation des jeweiligen Wissenschaftlers innerhalb der Plattform und m&#246;glicherweise auch dar&#252;ber hinaus wiedergibt. Wissenschaftliche Studien zu ResearchGate zeigen, dass die sozialen und netzwerkbezogenen Funktionen der Plattform bislang kaum genutzt werden, sondern fast ausschlie&#223;lich die M&#246;glichkeit, wissenschaftliche Artikel zu verbreiten (die dazu allerdings erst auf die Plattform hochgeladen werden m&#252;ssen, was hinsichtlich des Urheberrechts in vielen F&#228;llen nicht unproblematisch ist) <TextLink reference="13"></TextLink>. Interessant ist die Frage, in wieweit die Zahl der Lesezugriffe auf ResearchGate (die ebenfalls in den RG Score eingehen) mit anderen Ma&#223;zahlen, z.B. der Zahl der Zitationen korreliert ist. In einer k&#252;rzlich dazu durchgef&#252;hrten Studie zeigte sich zum einen, dass auf der Plattform j&#252;ngere Arbeiten gegen&#252;ber &#228;lteren Arbeiten st&#228;rker vertreten sind, und dass zudem die j&#252;ngeren Arbeiten h&#228;ufiger gelesen werden. Ein Vergleich der Lesezugriffe auf ResearchGate mit der Zahl der Zitationen in der Literaturdatenbank Scopus sowie der Zahl der Leser auf der wissenschaftlichen Bibliographieplattform Mendeley ergab nur niedrige Korrelationen, was die Autoren dahingehend interpretieren, dass hier m&#246;glicherweise tats&#228;chlich unterschiedliche Zielgruppen erfasst werden <TextLink reference="14"></TextLink>. Das wiederum w&#252;rde bedeuten, dass die jeweiligen Ma&#223;zahlen dieser verschiedenen Medien und Plattformen unterschiedliche Aspekte der Verbreitung und Resonanz von Wissenschaft erfassen und somit durchaus ihre jeweilige Berechtigung haben k&#246;nnten <TextLink reference="15"></TextLink>.</Pgraph><Pgraph>So beliebt ResearchGate, Academia und Mendeley mittlerweile auch sein m&#246;gen: Aus wissenschaftlicher Sicht unbefriedigend ist die Tatsache, dass hinter diesen Plattformen jeweils privatwirtschaftliche Unternehmen mit entsprechenden Verwertungsinteressen stehen,  die hinsichtlich ihres Gesch&#228;ftsgebahrens nicht transparent sind. Daher erscheint das 2013 von PubMed gestartete Projekt &#8222;PubMed Commons&#8220; als wesentlich vielversprechender. Jeder Autor, der eine Ver&#246;ffentlichung hat, die in PubMed gelistet ist, kann sich &#252;ber einen kostenlos erh&#228;ltlichen NCBI-Account f&#252;r diesen Dienst anmelden. Dann hat man die M&#246;glichkeit, jeden Artikel, der in PubMed verzeichnet ist, zu kommentieren. Das Kommentarfeld befindet sich unmittelbar unter dem Artikelabstract in PubMed und die Kommentare werden jedem angezeigt, der den Artikel in PubMed aufruft. Daher k&#246;nnen auch alle Artikel des JME (bzw. der ZMA) ab dem Jahrgang 2005 auf diese Art und Weise kommentiert und diskutiert werden. Augenscheinlich wird allerdings von dieser M&#246;glichkeit noch kein Gebrauch gemacht und auch sonst ist die Intensit&#228;t des Austauschs auf PubMed Commons bisher gering. Die Gr&#252;nde daf&#252;r muss man nicht lange suchen: Angesichts der notorischen Zeitknappheit werden die wenigsten Wissenschaftler die Notwendigkeit versp&#252;ren, hier aktiv zu werden, zumal es daf&#252;r &#8211; abgesehen von der Befriedigung ideeller Motive und wissenschaftlichen Interesses &#8211; keine Gratifikationen gibt, die sich karierref&#246;rderlich auswirken k&#246;nnten. Dar&#252;ber hinaus werden auch noch weitere Gr&#252;nde diskutiert, die in &#228;hnlicher Form auch in den sozialen Netzwerken insgesamt eine Rolle spielen. So k&#246;nnten sich insbesondere junge Wissenschaftler durchaus die Frage stellen, in wieweit sie sich etwa mit der dann &#246;ffentlichen Kritik an einem Artikel bereits arrivierter Kollegen zuk&#252;nftige Karrierechancen verbauen. Die soziale Dynamik k&#246;nne sich zudem negativ etwa im Sinne von Stereotypisierungen oder geschlechterbezogenen Verzerrungen auswirken <TextLink reference="16"></TextLink>. Solche &#220;berlegungen machen deutlich, dass auch das PPPR mit einigen Nachteilen einhergehen kann, was auch ein wichtiger Grund daf&#252;r ist, dass die JME derzeit noch am verblindeten Pre-Publication-Peer-Review festh&#228;lt.</Pgraph><Pgraph>Zumindest was die Gratifikation f&#252;r das Erstellen eines wissenschaftlichen Peer Reviews angeht (sowohl f&#252;r Pre- als auch f&#252;r Post- Publication) wird ebenfalls an L&#246;sungen gearbeitet. Auf dem Portal Publons &#91;<Hyperlink href="https:&#47;&#47;publons.com&#47;home&#47;">publons.com</Hyperlink>&#93; kann man sich als Gutachter registrieren und dann seine Gutachtert&#228;tigkeit &#246;ffentlich dokumentieren. Da bereits viele gro&#223;e Verlage mit diesem Portal zusammenarbeiten (u.a. Springer, Thieme, BMJ) wird einem nach Abschluss der Begutachtung bereits routinem&#228;&#223;ig angeboten, das Gutachten dort zu dokumentieren. Dabei sind je nach Vereinbarung mit den Zeitschriften verschiedene Formen der Dokumentation m&#246;glich: Von der rein quantitativen und anonymen Angabe, wie viele Reviews gemacht wurden bis hin zur Dokumentation des Volltextes des Gutachtens. Auch wenn ein Verlag oder eine Zeitschrift noch keine Absprache mit Publons getroffen hat (wie das derzeit noch f&#252;r die JME der Fall ist), k&#246;nnen die Gutachten dort quantitativ dennoch dokumentiert werden. Auch auf Publons gibt es ein Punktesystem, mit dem die Gutachtert&#228;tigkeit honoriert wird und das sich, jedenfalls nach den Vorstellungen der Firmengr&#252;nder, f&#246;rderlich auf die Karriere oder zumindest die Anerkennung im akademischen Umfeld auswirken soll <TextLink reference="17"></TextLink>.</Pgraph><Pgraph>Dieser kursorische &#220;berblick &#252;ber einige Online-Aktivit&#228;ten, die in den Altmetrics-Donut und -Score einflie&#223;en verdeutlicht, dass sich jenseits von wissenschaftlichen Artikeln und dem vielfach kritisierten Impact-Faktor vielgestaltige wissenschaftliche Aktivit&#228;ten entfalten, deren Potential &#8211; einerseits &#8211; derzeit noch nicht ausgesch&#246;pft wird und deren Bedeutung &#8211; andererseits &#8211; momentan noch nicht wirklich eingesch&#228;tzt werden kann <TextLink reference="18"></TextLink>. Dennoch erscheint es sinnvoll und notwendig, diese Aktivit&#228;ten zu erfassen und sich daran zu beteiligen, soweit es die eigenen M&#246;glichkeiten und Ressourcen zulassen. In diesem Sinne m&#246;chten wir jedenfalls alle unsere Autorinnen und Autoren, Gutachterinnen und Gutachter, Leserinnen und Leser dazu auffordern, auf ihre Arbeiten in anderen Medien und Netzwerken hinzuweisen, damit die fachliche Diskussion zu intensivieren und &#8211; nicht zuletzt &#8211; die Aufmerksamkeit f&#252;r die JME zu vergr&#246;&#223;ern <TextLink reference="19"></TextLink>.</Pgraph></TextBlock>
    <TextBlock language="en" linked="yes" name="Competing interests">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The authors declare that they have no competing interests.</Pgraph></TextBlock>
    <TextBlock language="de" linked="yes" name="Interessenkonflikt">
      <MainHeadline>Interessenkonflikt</MainHeadline><Pgraph>Die Autoren erkl&#228;ren, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben. </Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Buschman M</RefAuthor>
        <RefAuthor>Michalek A</RefAuthor>
        <RefTitle>Are alternative metrics still alternative&#63;</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Bull Ass Inform Sci Technol</RefJournal>
        <RefPage>35-39</RefPage>
        <RefTotal>Buschman M, Michalek A. Are alternative metrics still alternative&#63; Bull Ass Inform Sci Technol. 2013;39(4):35-39. DOI: 10.1002&#47;bult.2013.1720390411</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1002&#47;bult.2013.1720390411</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Chisolm MS</RefAuthor>
        <RefTitle>Altmetrics for medical educators</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Acad Psychiatry</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Chisolm MS. Altmetrics for medical educators. Acad Psychiatry. 2016. DOI: 10.1007&#47;s40596-016-0639-3</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1007&#47;s40596-016-0639-3</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Trueger NS</RefAuthor>
        <RefAuthor>Thoma B</RefAuthor>
        <RefAuthor>Hsu CH</RefAuthor>
        <RefAuthor>Sullivan D</RefAuthor>
        <RefAuthor>Peters L</RefAuthor>
        <RefAuthor>Lin M</RefAuthor>
        <RefTitle>The altmetric score: a new measure for article-level dissemination and impact</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>Ann Emerg Med</RefJournal>
        <RefPage>549-553</RefPage>
        <RefTotal>Trueger NS, Thoma B, Hsu CH, Sullivan D, Peters L, Lin M. The altmetric score: a new measure for article-level dissemination and impact. Ann Emerg Med. 2015;66(5):549-553. DOI: 10.1016&#47;j.annemergmed.2015.04.022</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1016&#47;j.annemergmed.2015.04.022</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Bartling S</RefAuthor>
        <RefAuthor>Friesike S</RefAuthor>
        <RefTitle>Towards another scientific revolution</RefTitle>
        <RefYear>2014</RefYear>
        <RefBookTitle>Opening science - The evolving guide on how the internet is changing research, collaboration and scholarly publishing</RefBookTitle>
        <RefPage>3-15</RefPage>
        <RefTotal>Bartling S, Friesike S. Towards another scientific revolution. In: Bartling S, Friesike S (Hrsg). Opening science - The evolving guide on how the internet is changing research, collaboration and scholarly publishing. Heidelberg: Springer Open; 2014. S.3-15. https:&#47;&#47;doi.org&#47;10.1007&#47;978-3-319-00026-8&#95;1</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1007&#47;978-3-319-00026-8&#95;1</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Garfield E</RefAuthor>
        <RefTitle>The history and meaning of the Journal Impact Factor</RefTitle>
        <RefYear>2006</RefYear>
        <RefJournal>JAMA</RefJournal>
        <RefPage>90-93</RefPage>
        <RefTotal>Garfield E. The history and meaning of the Journal Impact Factor. JAMA. 2006;295(1):90-93. DOI: 10.1001&#47;jama.295.1.90</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1001&#47;jama.295.1.90</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Alberts B</RefAuthor>
        <RefTitle>Impact Factor Distortions</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Science</RefJournal>
        <RefPage>787</RefPage>
        <RefTotal>Alberts B. Impact Factor Distortions. Science. 2013;340(6134):787. DOI: 10.1126&#47;science.1240319</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1126&#47;science.1240319</RefLink>
      </Reference>
      <Reference refNo="7">
        <RefAuthor>Teixeira da Silva JA</RefAuthor>
        <RefAuthor>Dobr&#225;nszki J</RefAuthor>
        <RefTitle>Problems with traditional science publishing and finding a wider niche for post-publication peer review</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>Account Res</RefJournal>
        <RefPage>22-40</RefPage>
        <RefTotal>Teixeira da Silva JA, Dobr&#225;nszki J. Problems with traditional science publishing and finding a wider niche for post-publication peer review. Account Res. 2015;22(1):22-40. DOI: 10.1080&#47;08989621.2014.899909</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1080&#47;08989621.2014.899909</RefLink>
      </Reference>
      <Reference refNo="8">
        <RefAuthor>Jefferson T</RefAuthor>
        <RefAuthor>Rudin M</RefAuthor>
        <RefAuthor>Brodney Folse S</RefAuthor>
        <RefAuthor>Davidoff F</RefAuthor>
        <RefTitle>Editorial peer review for improving the quality of reports of biomedical studies</RefTitle>
        <RefYear>2007</RefYear>
        <RefJournal>Cochrane Database Syst Rev</RefJournal>
        <RefPage>MR000016</RefPage>
        <RefTotal>Jefferson T, Rudin M, Brodney Folse S, Davidoff F. Editorial peer review for improving the quality of reports of biomedical studies. Cochrane Database Syst Rev. 2007;(2):MR000016. DOI: 10.1002&#47;14651858.mr000016.pub3</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1002&#47;14651858.mr000016.pub3</RefLink>
      </Reference>
      <Reference refNo="9">
        <RefAuthor>Hopewell S</RefAuthor>
        <RefAuthor>Collins GS</RefAuthor>
        <RefAuthor>Boutron I</RefAuthor>
        <RefAuthor>Cook J</RefAuthor>
        <RefAuthor>Shanyinde M</RefAuthor>
        <RefAuthor>Wharton R</RefAuthor>
        <RefAuthor>Shamseer L</RefAuthor>
        <RefAuthor>Altman DG</RefAuthor>
        <RefTitle>Impact of peer review on reports of randomised trials published in open peer review journals: retrospective before and after study</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>BMJ</RefJournal>
        <RefPage>g4145</RefPage>
        <RefTotal>Hopewell S, Collins GS, Boutron I, Cook J, Shanyinde M, Wharton R, Shamseer L, Altman DG. Impact of peer review on reports of randomised trials published in open peer review journals: retrospective before and after study. BMJ. 2014;349:g4145. DOI: 10.1136&#47;bmj.g4145</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1136&#47;bmj.g4145</RefLink>
      </Reference>
      <Reference refNo="10">
        <RefAuthor>Schulz AF</RefAuthor>
        <RefAuthor>Altman DG</RefAuthor>
        <RefAuthor>Moher D</RefAuthor>
        <RefAuthor>CONSORT Group</RefAuthor>
        <RefTitle>CONSORT 2010 Statement: updated guidelines for reporting parallel group randomised trials</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>BMC Med</RefJournal>
        <RefPage>18</RefPage>
        <RefTotal>Schulz AF, Altman DG, Moher D, CONSORT Group. CONSORT 2010 Statement: updated guidelines for reporting parallel group randomised trials. BMC Med. 2010;8:18. DOI: 10.1186&#47;1741-7015-8-18</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1186&#47;1741-7015-8-18</RefLink>
      </Reference>
      <Reference refNo="11">
        <RefAuthor>Knoepfler P</RefAuthor>
        <RefTitle>Reviewing post-publication peer review</RefTitle>
        <RefYear>2016</RefYear>
        <RefJournal>Trends Genet</RefJournal>
        <RefPage>221-223</RefPage>
        <RefTotal>Knoepfler P. Reviewing post-publication peer review. Trends Genet. 2016;31(5):221-223. DOI: 10.1016&#47;j.tig.2015.03.006</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1016&#47;j.tig.2015.03.006</RefLink>
      </Reference>
      <Reference refNo="12">
        <RefAuthor>Schriger DL</RefAuthor>
        <RefAuthor>Altman DG</RefAuthor>
        <RefTitle>Inadequate post-publication review of medical research</RefTitle>
        <RefYear>2010</RefYear>
        <RefJournal>BMJ</RefJournal>
        <RefPage>c3803</RefPage>
        <RefTotal>Schriger DL, Altman DG. Inadequate post-publication review of medical research. BMJ. 2010;341:c3803. DOI: 10.1136&#47;bmj.c3803</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1136&#47;bmj.c3803</RefLink>
      </Reference>
      <Reference refNo="13">
        <RefAuthor>Nicholas D</RefAuthor>
        <RefAuthor>Herman E</RefAuthor>
        <RefAuthor>Jamali H</RefAuthor>
        <RefAuthor>Rodr&#237;guez-Bravo B Boukacem-Zeghmouri C</RefAuthor>
        <RefAuthor>Dobrowolski T</RefAuthor>
        <RefAuthor>Pouchot S</RefAuthor>
        <RefTitle>New ways of building, showcasing, and measuring scholarly reputation</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>Learn Publ</RefJournal>
        <RefPage>169-183</RefPage>
        <RefTotal>Nicholas D, Herman E, Jamali H, Rodr&#237;guez-Bravo B Boukacem-Zeghmouri C, Dobrowolski T, Pouchot S. New ways of building, showcasing, and measuring scholarly reputation. Learn Publ. 2015;28(3):169-183. DOI: 10.1087&#47;20150303</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1087&#47;20150303</RefLink>
      </Reference>
      <Reference refNo="14">
        <RefAuthor>Thelwall M</RefAuthor>
        <RefAuthor>Kousha K</RefAuthor>
        <RefTitle>ResearchGate articles: age, discipline, audience size and impact</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>J Ass Inform Sci Technol</RefJournal>
        <RefPage>468-479</RefPage>
        <RefTotal>Thelwall M, Kousha K. ResearchGate articles: age, discipline, audience size and impact. J Ass Inform Sci Technol. 2017;68(2):468-479. DOI: 10.1002&#47;asi.23675</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1002&#47;asi.23675</RefLink>
      </Reference>
      <Reference refNo="15">
        <RefAuthor>Costas R</RefAuthor>
        <RefAuthor>Zahedi Z</RefAuthor>
        <RefAuthor>Wouters P</RefAuthor>
        <RefTitle>Do &#34;altmetrics&#34; correlate with citations&#63; Extensive comparison of altmetric indicators with citations from a multidisciplinary perspective</RefTitle>
        <RefYear>2015</RefYear>
        <RefJournal>J Ass Inform Sci Technol</RefJournal>
        <RefPage>2003-2019</RefPage>
        <RefTotal>Costas R, Zahedi Z, Wouters P. Do &#34;altmetrics&#34; correlate with citations&#63; Extensive comparison of altmetric indicators with citations from a multidisciplinary perspective. J Ass Inform Sci Technol. 2015;66(10):2003-2019. DOI: 10.1002&#47;asi.23309</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1002&#47;asi.23309</RefLink>
      </Reference>
      <Reference refNo="16">
        <RefAuthor>Bastian H</RefAuthor>
        <RefTitle>A stronger post-publication culture is needed for better science</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>PLOS Med</RefJournal>
        <RefPage>e1001772</RefPage>
        <RefTotal>Bastian H. A stronger post-publication culture is needed for better science. PLOS Med. 2014;11(12):e1001772. DOI: 10.1371&#47;journal.pmed.1001772</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1371&#47;journal.pmed.1001772</RefLink>
      </Reference>
      <Reference refNo="17">
        <RefAuthor>van Noorden R</RefAuthor>
        <RefTitle>The scientists who get credit for peer review</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>Nature News 9</RefJournal>
        <RefPage>10.1038&#47;nature.2014</RefPage>
        <RefTotal>van Noorden R. The scientists who get credit for peer review. Nature News 9.10.2014; http:&#47;&#47;www.nature.com&#47;news&#47;the-scientists-who-get-credit-for-peer-review-1.16102 DOI: 10.1038&#47;nature.2014.16102</RefTotal>
        <RefLink>http:&#47;&#47;www.nature.com&#47;news&#47;the-scientists-who-get-credit-for-peer-review-1.16102 DOI: 10.1038&#47;nature.2014.16102</RefLink>
      </Reference>
      <Reference refNo="18">
        <RefAuthor>Bornmann L</RefAuthor>
        <RefTitle>Do altmetrics point to the broader impact of research&#63; An overview of benefits and disadvantages of altmetrics</RefTitle>
        <RefYear>2014</RefYear>
        <RefJournal>J Infometrics</RefJournal>
        <RefPage>895-903</RefPage>
        <RefTotal>Bornmann L. Do altmetrics point to the broader impact of research&#63; An overview of benefits and disadvantages of altmetrics. J Infometrics. 2014;8:895-903. DOI: 10.1016&#47;j.joi.2014.09.005</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1016&#47;j.joi.2014.09.005</RefLink>
      </Reference>
      <Reference refNo="19">
        <RefAuthor>Kwok R</RefAuthor>
        <RefTitle>Altmetrics make their mark</RefTitle>
        <RefYear>2013</RefYear>
        <RefJournal>Nature</RefJournal>
        <RefPage>491-493</RefPage>
        <RefTotal>Kwok R. Altmetrics make their mark. Nature. 2013;500:491-493. DOI: 10.1038&#47;nj7463-491a</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1038&#47;nj7463-491a</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>