<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>mbi000611</Identifier>
    <IdentifierDoi>10.3205/mbi000611</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-mbi0006117</IdentifierUrn>
    <ArticleType>Fachbeitrag</ArticleType>
    <TitleGroup>
      <Title language="de">KI- und zitationsbasierte Tools f&#252;r die Literatursuche</Title>
      <TitleTranslated language="en">AI- and citation-based tools for literature search</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Braun</Lastname>
          <LastnameHeading>Braun</LastnameHeading>
          <Firstname>Volker</Firstname>
          <Initials>V</Initials>
        </PersonNames>
        <Address>Bibliothek, Medizinische Fakult&#228;t Mannheim der Universit&#228;t Heidelberg, Universit&#228;tsklinikum, Haus 42, Theodor-Kutzer-Ufer 1&#8211;3, 68167 Mannheim, Deutschland<Affiliation>Universit&#228;tsmedizin Mannheim, Medizinische Fakult&#228;t Mannheim der Universit&#228;t Heidelberg, Mannheim, Deutschland</Affiliation></Address>
        <Email>volker.braun&#64;medma.uni-heidelberg.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <Keyword language="en">literature search</Keyword>
      <Keyword language="en">AI tools, citation tracking</Keyword>
      <Keyword language="en">data extraction</Keyword>
      <Keyword language="de">Literatursuche</Keyword>
      <Keyword language="de">KI-Tools</Keyword>
      <Keyword language="de">Citation Tracking</Keyword>
      <Keyword language="de">Datenextraktion</Keyword>
      <SectionHeading language="de">AGMB-Jahrestagung in Mainz 2024</SectionHeading>
    </SubjectGroup>
    <DatePublishedList>
      
    <DatePublished>20241218</DatePublished></DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>1865-066X</ISSN>
        <Volume>24</Volume>
        <Issue>2</Issue>
        <JournalTitle>GMS Medizin - Bibliothek - Information</JournalTitle>
        <JournalTitleAbbr>GMS Med Bibl Inf</JournalTitleAbbr>
        <IssueTitle>AGMB-Jahrestagung in Mainz 2024: Den Wandel steuern - Medizininformation effizient.digital.innovativ</IssueTitle>
      </Journal>
    </SourceGroup>
    <ArticleNo>28</ArticleNo>
  </MetaData>
  <OrigData>
    <Abstract language="de" linked="yes"><Pgraph>Verschiedene neuere Tools nutzen KI und&#47;oder zitationsbasierte Algorithmen, um wenige &#8222;gute&#8220; Treffer anzuzeigen. Man beginnt entweder mit einem bestimmten Paper (Connected Papers, ResearchRabbit) oder kann eine Frage eingeben (SciSpace, Elicit). Bei den letzteren Tools werden Paper zusammengefasst und k&#246;nnen Daten extrahiert werden, auch von hochgeladenen PDFs. Die Tools werden kurz vorgestellt und miteinander verglichen.</Pgraph></Abstract>
    <Abstract language="en" linked="yes"><Pgraph>Various newer tools use AI and&#47;or citation-based algorithms to display a small number of &#8220;good&#8221; hits. You can either start with a specific paper (Connected Papers, ResearchRabbit) or you can enter a question (SciSpace, Elicit). With the latter tools, papers are summarised and data can be extracted, even from uploaded PDFs. The tools are briefly introduced and compared with each other.</Pgraph></Abstract>
    <TextBlock linked="yes" name="Einleitung">
      <MainHeadline>Einleitung</MainHeadline><Pgraph>Mit Aufkommen von Large Language Models (LLMs) wie vor allem GPT besch&#228;ftigen sich Bibliotheken auf Tagungen und Veranstaltungen oder &#252;ber Zeitschriften, Blogs und Social Media mit neueren Tools zur Literatursuche jenseits von etablierten Artikeldatenbanken wie PubMed, Embase und Web of Science. </Pgraph><Pgraph>Die Beurteilung dieser Tools stellt Bibliothekar&#42;innen vor einige Herausforderungen. Nat&#252;rlich wollen wir die Hauptfunktionen verstehen, die im Folgenden f&#252;r einige ausgew&#228;hlte Tools beschrieben werden, aber wir sollten auch die Frage beantworten k&#246;nnen, was die Anwendungszwecke sind, also konkret: f&#252;r welche Situationen w&#252;rden wir Studierenden&#47;&#196;rzt&#42;innen&#47;Forschenden die Benutzung empfehlen&#63; </Pgraph><Pgraph>Der Markt ist sehr schnell gewachsen, inzwischen gibt es einige Online-Tools mit teils &#228;hnlichen Funktionen (siehe z.B. <Hyperlink href="https:&#47;&#47;confluence.frankfurt-university.de&#47;pages&#47;viewpage.action&#63;pageId&#61;225216646">https:&#47;&#47;confluence.frankfurt-university.de&#47;pages&#47;viewpage.action&#63;pageId&#61;225216646</Hyperlink>). Exemplarisch werden hier die beiden Tools f&#252;r Literatursuche und Datenextraktion SciSpace und Elicit vorgestellt, die explizit mit Artificial Intelligence (AI) werben. Andere neuere Tools wie Connected Papers und ResearchRabbit nutzen vorrangig Zitationsnetzwerke mit Visualisierung, ohne KI&#47;AI oder LLMs zu erw&#228;hnen, arbeiten also mit bestimmten Algorithmen, und verlangen am Anfang die Auswahl eines bestimmten Papers. </Pgraph></TextBlock>
    <TextBlock linked="yes" name="Citation Tracking">
      <MainHeadline>Citation Tracking</MainHeadline><SubHeadline>Citation Tracking</SubHeadline><Pgraph>F&#252;r das Verst&#228;ndnis von zitationsbasierten Tools ist ein &#220;berblick &#252;ber verschiedene Citation-Tracking-Methoden hilfreich <TextLink reference="1"></TextLink>. Man kann zwischen direct (forward, backward) und indirect citation tracking (co-cited bzw. co-citation, co-citing) unterscheiden. Eine gute Erl&#228;uterung liefern Klerings et al. im Appendix C von <TextLink reference="2"></TextLink>: &#8222;Citation-based search methods include: backward citation searches (i.e., reference list checking) and forward citation searches (i.e. &#8222;cited by&#8221; searching); co-cited references (i.e., articles that are cited together with the seed article) and co-citing references (i.e., articles that share similar reference lists with the seed article).&#8220; Co-citing wird auch bibliographic coupling genannt <TextLink reference="3"></TextLink>. Das Konzept ist schon sehr lange in Web of Science als Funktion &#8222;Related records&#8220; verf&#252;gbar, sortiert nach der Anzahl der shared references. Das Konzept co-cited&#47;co-citation, also andere references werden <Mark2>mit</Mark2> dem Ursprungspaper (&#8222;seed article&#47;paper&#8221;) h&#228;ufiger zitiert, wird aktuell m.W. nur von Connected Papers genutzt. Citationchaser ist eine kostenfreie Alternative zu z.B. Web of Science f&#252;r die Anzeige von references (backward) und citations (forward).</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Connected Papers und ResearchRabbit">
      <MainHeadline>Connected Papers und ResearchRabbit</MainHeadline><SubHeadline>Connected Papers</SubHeadline><Pgraph>Connected Papers&#8217; &#8222;similarity metric is based on the concepts of <Mark2>Co-citation</Mark2> and <Mark2>Bibliographic</Mark2> <Mark2>Coupling&#8221;</Mark2> <TextLink reference="4"></TextLink>. Laut Aussage eines Co-Founders per E-Mail ist der Algorithmus &#8222;mostly based on graph theory&#8221;. Wie von anderen Tools auch wird als Datengrundlage Semantic Scholar genutzt. 5 &#8222;graphs&#8221; pro Monat sind nach Registrierung frei, kostenpflichtige Academic- und Business-Optionen sind ab rund 4,50 Euro lizenzierbar.</Pgraph><Pgraph>Nach Auswahl eines Papers (&#8222;Search by keywords, paper title, DOI or another identifier&#8221;) werden 40 &#228;hnliche Paper als &#8222;graph&#8220; (Netz mit Punkten) oder Liste angezeigt, &#8222;Prior works&#8220; (&#8222;These are papers that were most com<TextGroup><PlainText>monl</PlainText></TextGroup>y cited by the papers in the graph.&#8221;) und &#8222;Derivative works&#8220; (&#8222;These are papers that cited many of the papers in the graph.&#8221;) gibt es als zus&#228;tzliche Optionen. F&#252;r Literaturverwaltungsprogramme k&#246;nnen .bib-Dateien (BibTeX) heruntergeladen werden.</Pgraph><SubHeadline>ResearchRabbit</SubHeadline><Pgraph>ResearchRabbit (<Hyperlink href="https:&#47;&#47;researchrabbitapp.com&#47;">https:&#47;&#47;researchrabbitapp.com&#47;</Hyperlink>) ist komplett kostenfrei, man muss aber bei der Registrierung mehr Daten angeben. Die Artikeldaten kommen laut FAQ von Semantic Scholar, OpenAlex und PubMed. Man startet mit einer selbst angelegten Collection und dann der Auswahl eines Papers, auch via PMID. Dann werden Paper als &#8222;Similar Work&#8221; angezeigt (anfangs 50, &#8222;Load More&#8220; m&#246;glich), als Liste und als &#8222;graph&#8220; (Netz mit Punkten), plus &#8222;References&#8220; und &#8222;Citations&#8220; des Ursprungspapers, nach Hinzuf&#252;gen von Papern zur Collection wird das f&#252;r mehrere ausgew&#228;hlte Paper zu &#8222;Earlier Work&#8221; und &#8222;Later Work&#8221; umbenannt. Der Support schreibt auf Anfrage, dass &#8222;co-cited references and co-citing references as part of the recommendation algorithm&#8220; genutzt w&#252;rden. F&#252;r Literaturverwaltungsprogramme k&#246;nnen .bib- (BibTeX) oder RIS-Dateien heruntergeladen werden.</Pgraph><SubHeadline>Vergleich</SubHeadline><Pgraph>Bei einem exemplarischen Vergleich von 41 Treffern von Connected Papers (CP, mit seed paper) bzw. 50 von <TextGroup><PlainText>ResearchRabbi</PlainText></TextGroup>t (RR) mit den &#8222;cited&#8221;&#47;&#8222;citations of&#8220;&#47;&#8222;related records&#8220; (top 50) von der Web of Science Core Collection (WoS CC, insgesamt 216) bezogen auf ein bestimmtes Paper war das Ergebnis: CP: 27 von 41 sind Dubletten, RR: 22 von 50 sind Dubletten &#8211; es war zu erwarten, dass es einen relevanten Anteil an &#220;berschneidung gibt. Allerdings gab es kaum &#220;berschneidungen zwischen CP und RR, nur 3 Dubletten, hier scheint also die Funktionsweise ziemlich unterschiedlich zu sein. </Pgraph><Pgraph>Ein Vergleich mit nur den &#8222;related records&#8220; von WoS CC w&#228;re noch denkbar, ebenso der zus&#228;tzliche Vergleich mit den top 50 &#8222;Similar articles&#8221; aus PubMed (siehe <Hyperlink href="https:&#47;&#47;pubmed.ncbi.nlm.nih.gov&#47;help&#47;-&#35;similar-articles">https:&#47;&#47;pubmed.ncbi.nlm.nih.gov&#47;help&#47;-&#35;similar-articles</Hyperlink> f&#252;r Details).</Pgraph></TextBlock>
    <TextBlock linked="yes" name="SciSpace und Elicit">
      <MainHeadline>SciSpace und Elicit</MainHeadline><SubHeadline>SciSpace</SubHeadline><Pgraph>SciSpace (via <Hyperlink href="https:&#47;&#47;typeset.io">https:&#47;&#47;typeset.io</Hyperlink>) arbeitet in der Funktion &#8222;Literature Review&#8221; mit freisprachlicher Suche, Formulie<TextGroup><PlainText>r</PlainText></TextGroup>ungsvorschl&#228;gen, einer Zusammenfassung von &#8222;to<TextGroup><PlainText>p 5 p</PlainText></TextGroup>apers&#8221; (10 kostenpflichtig, ebenso &#8222;High quality&#8220; als besseres Sprachmodell) und darunter 10 Treffern in einer Tabelle (&#8222;Load more&#8221; m&#246;glich) mit Zusammenfas<TextGroup><PlainText>sun</PlainText></TextGroup>gen (und ggf. Erl&#228;uterungen bei geringer Literaturaus<TextGroup><PlainText>w</PlainText></TextGroup>ahl wie z.B. &#8222;The paper does not specifically address &#8230; However &#8230;&#8220;) und der M&#246;glichkeit, in der freien Version f&#252;nf zus&#228;tzliche inhaltliche Aspekte als vordefinierte oder selbst formulierte Spalten zu erg&#228;nzen, z.B. &#8222;Conclusions&#8220; (<TextGroup><PlainText>50 Spa</PlainText></TextGroup>lten mit dem kostenpflichtigen Premium-Account), siehe Abbildung 1 <ImgLink imgNo="1" imgType="figure"/>. Nach Anhaken hat man &#252;ber &#8222;Select an action&#8220; mehrere Optionen, z.B. &#8222;Show more like s<TextGroup><PlainText>elec</PlainText></TextGroup>ted&#8220;, siehe Abbildung 2 <ImgLink imgNo="2" imgType="figure"/>. Als Datenquellen wurden vom Support im November 2024 &#8222;OpenAlex and MAG. Sometimes from Semantic Scholar&#8220; genannt (MAG bedeutet Microsoft Academic Graph; Support: &#8222;Microsoft retired MAG in 2021, but it served as a valuable tool for understanding research trends, relationships, and academic impact.&#8221;). Ein Datenexport ist nur ab Premium m&#246;glich. Man kann via &#8222;Chat with PDF&#47;Paper&#8220; eigene oder vorausgew&#228;hlte Fragen an ein hochgeladenes oder als Volltext verf&#252;gbares Paper stellen und sich markierte Textstellen erkl&#228;ren lassen. Abs&#228;tze werden bei Mouseover automatisch markiert, allerdings ist das Markieren mehrerer Abs&#228;tze schwierig. </Pgraph><Pgraph>Weitere Funktionen sind u.a. &#8222;Extract Data: Get summary, conclusions and findings from multiple PDFs in a table.&#8221;, &#8222;Find Topics&#8220;, &#8222;AI Writer&#8220;, &#8222;Citation Generator&#8220; und &#8222;Paraphraser&#8220;, das Tool ist also sehr umfangreich. Zudem gibt es Lizenzen f&#252;r &#8222;Labs &#38; Universities&#8220; mit Kosten pro User (je mehr, desto g&#252;nstiger). Bei Support-Bedarf kann man mit Chatbots chatten oder eine E-Mail schreiben.</Pgraph><SubHeadline>Elicit</SubHeadline><Pgraph>Elicit (<Hyperlink href="https:&#47;&#47;elicit.com&#47;">https:&#47;&#47;elicit.com&#47;</Hyperlink>) funktioniert &#228;hnlich wie SciSpace, ist jedoch etwas eingeschr&#228;nkter. Via &#8222;Find papers&#8220; ist freisprachliche Suche (natural language) m&#246;glich, daraufhin wird automatisch ein Titel als &#8222;Notebook&#8220; angelegt und als Ergebnis wird eine &#8222;Summary of top 4 papers&#8220; (mit dem kostenpflichtigen Plus-Accoun<TextGroup><PlainText>t 8</PlainText></TextGroup>) angezeigt und darunter 8 Treffer in einer Tabelle (&#8222;Load more&#8220; m&#246;glich) mit eins&#228;tzigen Zusammenfassungen und der M&#246;glichkeit, in der freien Version zwei zus&#228;tzliche Aspekte als Spalten zu erg&#228;nzen, z.B. &#8222;Methodology&#8220; und &#8222;Main findings&#8220; (5 zus&#228;tzliche Spalten mit Plus). Zur Kontrolle zeigt ein Klick in eine Zelle relevante (hervorge<TextGroup><PlainText>h</PlainText></TextGroup>obene) Textstellen aus Abstract oder Volltext an. Was davon zur Analyse verf&#252;gbar ist, wird in der Tabelle nicht angezeigt. Plus bietet nur &#8222;1 high-accuracy column per table&#8220;, bei dem ein besseres Sprachmodell eingesetzt wird, im Pro-Abo unlimitiert. Zudem k&#246;nnen 10 PDFs pro Monat zur Analyse hochgeladen werden (&#8222;Extract data from PDFs&#8220;), kostenpflichtig 25 oder mehr. PDFs k&#246;nnen selbst hochgeladen werden und sind dann in der &#8222;Library&#8220; oder im Reiter &#8222;Extract data from PDFs&#8220; verf&#252;gbar. Ein Datenexport ist nur ab Plus m&#246;glich.</Pgraph><Pgraph>&#8222;Show more like these&#8220; nach Auswahl bedeutet, dass &#8222;references&#8220; and &#8222;cited by&#8220; papers angezeigt werden. Ebenfalls nach Auswahl gibt es via &#8222;Add a new step&#8220; die Beta-Funktion &#8222;Chat with papers&#8220;, allerdings bei &#8222;Use full text&#8220; mit dem Hinweis &#8222;Upgrade to Plus to chat with full papers&#8220;, das aber ohne Tabellen (&#8222;excluding tables&#8220;). Ein Chat mit Abstracts in der freien Version erscheint mir wenig sinnvoll.</Pgraph><Pgraph>Zudem gibt es noch die Funktion &#8222;List of concepts&#8220;. Nach z.B. der Eingabe von &#8222;treatments for obesity&#8220; wird automatisch das Notebook &#8222;Innovative Approaches to Obesity Treatment&#8220; angelegt und eine Tabelle mit den Spalten Concept und Source und den dar&#252;ber stehenden Hinweisen als Liste &#8222;Found 72 papers, Found 383 concepts in 72 papers, Found 115 unique concepts, Final answer&#8220; (Stand 4.11.2024).</Pgraph><SubHeadline>Datenextraktion</SubHeadline><Pgraph>Eine Arbeitsgruppe der Fakult&#228;t hat im April 2024 die Datenextraktion anhand eines Papers mit SciSpace Basic und Premium auf meine Empfehlung hin getestet, ich habe das Gleiche mit Elicit Basic durchgef&#252;hrt. Es gab bei Elicit Probleme mit Informationen aus Tabellen&#47;Grafiken (f&#252;r Tabellenanalyse ist Plus n&#246;tig). Eine Auswahlm&#246;glichkeit bei Antworten ist bei beiden Tools nicht m&#246;glich, d.h. jede m&#246;gliche Frage muss einzeln formuliert werden. Das Hauptproblem war aber: Antworten waren sowohl in Elicit Basic auch mit SciSpace Basic und Premium &#246;fter falsch. Elicit Plus m&#252;sste allerdings noch getestet werden. Vermutlich sollte man aufgrund des Entwicklungsfortschritts der Tools solche Tests regelm&#228;&#223;ig durchf&#252;hren.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Fazit">
      <MainHeadline>Fazit</MainHeadline><Pgraph>Generell untersuchungsw&#252;rdig bei SciSpace und Elicit ist die Verwendung eines besseren Sprachmodells nur gegen Bezahlung. Da stellt sich die Frage, ob die erzeugten Daten beim Standardmodell falsch sein k&#246;nnten.</Pgraph><Pgraph>Bezogen auf &#8222;citation searching&#8220; empfiehlt TARCiS &#8222;For systematic search topics that are difficult to search for, backward and forward citation searching should be <TextGroup><PlainText>seriously</PlainText></TextGroup> considered as supplementary search techni<TextGroup><PlainText>q</PlainText></TextGroup>ues.&#8220; und &#8222;&#8230; should be based on all included records of the primary search&#8220; <TextLink reference="5"></TextLink>), siehe auch <Hyperlink href="https:&#47;&#47;tarcis.unibas.ch&#47;">https:&#47;&#47;tarcis.unibas.ch&#47;</Hyperlink>). Das ist eine eng gefasste M&#246;glichkeit der Nutzung, daf&#252;r w&#252;rde auch Web of Science Core Collection, Scopus oder Citationchaser oder eine &#228;hnliche Datenbank ausreichen.</Pgraph><Pgraph>Denkbar ist die Nutzung von Connected Papers, <TextGroup><PlainText>ResearchRabbit</PlainText></TextGroup>, Elicit und SciSpace meines Erachtens f&#252;r die Gewinnung von mehreren Papern, die man f&#252;r die Generierung von Suchbegriffen (Analyse von Titel, Abstract, ggf. Schlagw&#246;rtern) und die Verifizierung von Suchstrategien verwendet (diese Artikel m&#252;ssen gefunden werden). Oder es werden f&#252;r kleinere Projekte von Studierenden, z.B. zur Postererstellung, nur wenige passende Nachweise ben&#246;tigt. Das konkurriert dann ggf. mit schon lange verf&#252;gbaren Funktionen wie z.B. &#8222;Similar articles&#8221; in PubMed. Die Einarbeitung in neue Themengebiete mit wenigen guten Publikationen ist auch m&#246;glich, allerdings gibt es auch daf&#252;r alternative Datenbanken wie DynaMed, Trip oder ACCESSSS.</Pgraph><Pgraph>Eine Verwendung f&#252;r breitere Suchen erscheint mir aufgrund der unterschiedlichen Funktionsweisen im Vergleich zur herk&#246;mmlichen (Booleschen) Datenbanksuche in z.B. PubMed nicht angebracht. Allerdings sollte das mit geeigneten Methoden wissenschaftlich untersucht werden.</Pgraph><Pgraph>F&#252;r Datenextraktion konnten die beiden exemplarisch getesteten Tools zum Zeitpunkt des Tests nicht &#252;berzeugen, das m&#252;sste aber breiter und neu gepr&#252;ft werden.</Pgraph></TextBlock>
    <TextBlock linked="yes" name="Anmerkung">
      <MainHeadline>Anmerkung</MainHeadline><SubHeadline>Interessenkonflikte</SubHeadline><Pgraph>Der Autor erkl&#228;rt, dass er keine Interessenkonflikte in Zusammenhang mit diesem Artikel hat.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Hirt J</RefAuthor>
        <RefAuthor>Nordhausen T</RefAuthor>
        <RefAuthor>Appenzeller-Herzog C</RefAuthor>
        <RefAuthor>Ewald H</RefAuthor>
        <RefTitle>Using citation tracking for systematic literature searching &#8211; study protocol for a scoping review of methodological studies and a Delphi study</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>F1000Res</RefJournal>
        <RefPage>1386</RefPage>
        <RefTotal>Hirt J, Nordhausen T, Appenzeller-Herzog C, Ewald H. Using citation tracking for systematic literature searching &#8211; study protocol for a scoping review of methodological studies and a Delphi study. F1000Res. 2020 Dec 01;9:1386. 
DOI: 10.12688&#47;f1000research.27337.3</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.12688&#47;f1000research.27337.3</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Klerings I</RefAuthor>
        <RefAuthor>Robalino S</RefAuthor>
        <RefAuthor>Booth A</RefAuthor>
        <RefAuthor>Escobar-Liquitay CM</RefAuthor>
        <RefAuthor>Sommer I</RefAuthor>
        <RefAuthor>Gartlehner G</RefAuthor>
        <RefAuthor>Devane D</RefAuthor>
        <RefAuthor>Waffenschmidt S</RefAuthor>
        <RefAuthor> Cochrane Rapid Reviews Methods Group</RefAuthor>
        <RefTitle>Rapid reviews methods series: Guidance on literature search</RefTitle>
        <RefYear>2023</RefYear>
        <RefJournal>BMJ Evid Based Med</RefJournal>
        <RefPage>412-7</RefPage>
        <RefTotal>Klerings I, Robalino S, Booth A, Escobar-Liquitay CM, Sommer I, Gartlehner G, Devane D, Waffenschmidt S; Cochrane Rapid Reviews Methods Group. Rapid reviews methods series: Guidance on literature search. BMJ Evid Based Med. 2023 Nov 22;28(6):412-7. DOI: 10.1136&#47;bmjebm-2022-112079</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1136&#47;bmjebm-2022-112079</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Kessler MM</RefAuthor>
        <RefTitle>Bibliographic Coupling between Scientific Papers</RefTitle>
        <RefYear>1963</RefYear>
        <RefJournal>American Documentation</RefJournal>
        <RefPage>10-25</RefPage>
        <RefTotal>Kessler MM. Bibliographic Coupling between Scientific Papers. American Documentation. 1963 Jan;14(1):10-25.</RefTotal>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Anonym</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear></RefYear>
        <RefBookTitle>Connected Papers. About</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Connected Papers. About. &#91;letzter Zugriff am 26.11.2024&#93;. Verf&#252;gbar unter: https:&#47;&#47;www.connectedpapers.com&#47;about</RefTotal>
        <RefLink>https:&#47;&#47;www.connectedpapers.com&#47;about</RefLink>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Hirt J</RefAuthor>
        <RefAuthor>Nordhausen T</RefAuthor>
        <RefAuthor>Fuerst T</RefAuthor>
        <RefAuthor>Ewald H</RefAuthor>
        <RefAuthor>Appenzeller-Herzog C</RefAuthor>
        <RefAuthor> TARCiS study group</RefAuthor>
        <RefTitle>Guidance on terminology, application, and reporting of citation searching: the TARCiS statement</RefTitle>
        <RefYear>2024</RefYear>
        <RefJournal>BMJ</RefJournal>
        <RefPage>e078384</RefPage>
        <RefTotal>Hirt J, Nordhausen T, Fuerst T, Ewald H, Appenzeller-Herzog C; TARCiS study group. Guidance on terminology, application, and reporting of citation searching: the TARCiS statement. BMJ. 2024 May;9(385):e078384. DOI: 10.1136&#47;bmj-2023-078384</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1136&#47;bmj-2023-078384</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <Figure format="png" height="863" width="1187">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 1: SciSpace &#8211; Beispiel Literatursuche</Mark1></Pgraph></Caption>
        </Figure>
        <Figure format="png" height="349" width="714">
          <MediaNo>2</MediaNo>
          <MediaID>2</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 2: SciSpace &#8211; &#8222;Select an action&#8221;</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>2</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>