<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>mibe000296</Identifier>
    <IdentifierDoi>10.3205/mibe000296</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-mibe0002960</IdentifierUrn>
    <ArticleType language="de">Buchbesprechung</ArticleType>
    <ArticleType language="en">Book Review</ArticleType>
    <TitleGroup>
      <Title language="de">Andreas J. W. Goldschmidt, Thomas M. Deserno, Alfred Winter, Hrsg.: KI in der Medizin. Eine Rezension aus Sicht der Rechtswissenschaften</Title>
      <TitleTranslated language="en">Andreas J. W. Goldschmidt, Thomas M. Deserno, Alfred Winter, editors: KI in der Medizin. A review from a legal perspective</TitleTranslated>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Gassner</Lastname>
          <LastnameHeading>Gassner</LastnameHeading>
          <Firstname>Ulrich M.</Firstname>
          <Initials>UM</Initials>
          <AcademicTitle>Prof. Dr.</AcademicTitle>
          <AcademicTitleSuffix>Mag. rer. publ., M. Jur. (Oxon.)</AcademicTitleSuffix>
        </PersonNames>
        <Address language="de">Universit&#228;t Augsburg, Forschungsstelle f&#252;r Medizinprodukterecht, Universit&#228;tsstr. 24, 86159 Augsburg, Deutschland<Affiliation>Universit&#228;t Augsburg, Forschungsstelle f&#252;r Medizinprodukterecht, Augsburg, Deutschland</Affiliation></Address>
        <Address language="en">Universit&#228;t Augsburg, Forschungsstelle f&#252;r Medizinprodukterecht, Universit&#228;tsstr. 24, 86159 Augsburg, Germany<Affiliation>University of Augsburg, Institute for Medical Devices Law, Augsburg, Germany</Affiliation></Address>
        <Email>fmpr&#64;jura.uni-augsburg.de</Email>
        <Creatorrole corresponding="yes" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
      <SectionHeading language="en">AI in medicine</SectionHeading>
      <SectionHeading language="de">KI in der Medizin</SectionHeading>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished>20251217</DatePublished>
    </DatePublishedList>
    <Language>germ</Language>
    <LanguageTranslation>engl</LanguageTranslation>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Journal>
        <ISSN>1860-9171</ISSN>
        <Volume>21</Volume>
        <JournalTitle>GMS Medizinische Informatik, Biometrie und Epidemiologie</JournalTitle>
        <JournalTitleAbbr>GMS Med Inform Biom Epidemiol</JournalTitleAbbr>
      </Journal>
    </SourceGroup>
    <ArticleNo>24</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Bibliographische Angaben" linked="yes" language="de">
      <MainHeadline>Bibliographische Angaben</MainHeadline><Pgraph>Andreas J. W. Goldschmidt, Thomas M. Deserno, Alfred Winter (Hrsg.)<LineBreak></LineBreak><Mark1>KI in der Medizin &#8211; Folgenabsch&#228;tzung f&#252;r Forschung und Praxis</Mark1><LineBreak></LineBreak>Verlag: medhochzwei Verlag, Heidelberg<LineBreak></LineBreak>Erscheinungsjahr: 2025, Seiten: 314, Preis: &#8364; 89,00<LineBreak></LineBreak>ISBN: 978-3-98800-141-2<LineBreak></LineBreak>ISBN (eBook): 978-3-98800-142-9</Pgraph></TextBlock>
    <TextBlock name="Bibliographic details" linked="yes" language="en">
      <MainHeadline>Bibliographic details</MainHeadline><Pgraph>Andreas J. W. Goldschmidt, Thomas M. Deserno, Alfred Winter (editors) <LineBreak></LineBreak><Mark1>KI in der Medizin &#8211; Folgenabsch&#228;tzung f&#252;r Forschung und Praxis</Mark1><LineBreak></LineBreak>Publisher: medhochzwei Verlag, Heidelberg<LineBreak></LineBreak>Year of Publication: 2025, 314 pages, price: &#8364; 89,00<LineBreak></LineBreak>ISBN: 978-3-98800-141-2<LineBreak></LineBreak>ISBN (eBook): 978-3-98800-142-9</Pgraph></TextBlock>
    <TextBlock name="Rezension" linked="yes" language="de">
      <MainHeadline>Rezension</MainHeadline><SubHeadline>Ethische Herausforderungen in der KI-assoziierten Medizinischen Informatik, Biometrie und Epidemiologie </SubHeadline><Pgraph>Die Medizin gilt als wichtigster Anwendungsbereich der KI. Hype or hope ist l&#228;ngst nicht mehr die Frage. Gleichwohl sind noch viele Fragen offen, die mit den spezifischen Risiken von KI-basierter Software in Diagnostik und Therapie, aber auch der medizinischen Forschung assoziiert sind. Die Diskussion ist voll im Gange. So wurde das Thema &#8222;KI in der Medizin&#8220; erst Ende Mai 2025 auf dem 129. Deutschen &#196;rztetag breit debattiert. Grundlage hierf&#252;r war ein von der Bundes&#228;rztekammer herausgegebenes Papier mit dem aussagekr&#228;ftigen Titel &#8222;Von &#228;rztlicher Kunst mit K&#252;nstlicher Intelligenz&#8220; <TextLink reference="1"></TextLink>, das drei fr&#252;here Expertisen &#8211; die Stellungnahme &#8222;K&#252;nstliche Intelligenz in der Medizin&#8220;, das Thesenpapier &#8222;K&#252;nstliche Intelligenz in der Gesundheitsversorgung&#8220; sowie &#8222;Entscheidungsunterst&#252;tzung &#228;rztlicher T&#228;tigkeit durch K&#252;nstliche Intelligenz&#8220; &#8211; zusammenfasst. In diesem generellen Kontext bleiben die fachwissenschaftlichen Perspektiven der Medizinischen Informatik, Biometrie und Epidemiologie naturgem&#228;&#223; ziemlich unterbelichtet. Umso verdienstlicher ist es, dass sich die GMDS und insbesondere die Mitglieder der Pr&#228;sidiumskommission &#8222;Ethische Fragen in der Medizinischen Informatik, Biometrie und Epidemiologie&#8220;, darunter drei der Herausgeber, sich schon seit l&#228;ngerer Zeit dieses Themas angenommen haben. Auf drei von der Pr&#228;sidiumskommission veranstalteten Workshops basiert denn auch das hier besprochene Buch. Die insge<TextGroup><PlainText>s</PlainText></TextGroup>amt <TextGroup><PlainText>19 E</PlainText></TextGroup>inzelbeitr&#228;ge lassen sich daher auch den f&#252;r Workshops gew&#228;hlten Themen zuordnen: &#8222;Ethische Fragen in der Medizinischen Informatik, Biometrie und Epidemiologie&#8220;, &#8222;Ethische Grundlagen in der Medizinfor<TextGroup><PlainText>s</PlainText></TextGroup>chung mit Beispielen&#8220; und &#8222;Ethische Grundlagen in der Medizinforschung mit Beispielen&#8220;.</Pgraph><SubHeadline>Beitr&#228;ge zur Ethik KI-assoziierter Medizinischer Informatik, Biometrie und Epidemiologie </SubHeadline><Pgraph>Die einzelnen Beitr&#228;ge, denen jeweils ein Abstract vorgeschaltet ist, beleuchten aus jeweils unterschiedlicher Perspektive und Fragestellung die ethischen, rechtlichen und sozialen Dimensionen KI-assoziierter Medizinischer Informatik, Biometrie und Epidemiologie. Der erste Beitrag (Andreas J. W. Goldschmidt) hat Grundlagencharakter und setzt sich u.a. mit der Definition von KI, Large Language Models (LLMs), dem Medizinforschungsgesetz (MFG) und der Folgenabsch&#228;tzung f&#252;r die Forschung auseinander. Der folgende Beitrag der Mitglieder der erw&#228;hnten Pr&#228;sidiumskommission (Thomas M. Deserno, Birgit J. Gerecke, Andreas J. W. Goldschmidt, Alfred Winter) untersucht ausgehend von dem hochkomplexen  nationalen, europ&#228;ischen und internationalen normativen Setting die aktuelle Leistungsf&#228;higkeit der ethischen Leitlinien der GMDS von 2008 und gelangt zu dem Ergebnis, sie seien auch vor dem Hintergrund der durch KI ausgel&#246;sten disruptiven Entwicklung immer noch aktuell. So konnten sie auch in einigen zentralen Teilaspekten eine gute Grundlage f&#252;r die am Universit&#228;tsklinikum Erlangen unter Leitung von Hans-Ulrich Prokosch entwickelte und schon im Sommer 2024 in Kraft getretene KI-Leitlinie darstellen. Diese eindrucksvolle Pionierarbeit &#8211; es handelt sich um eine der ersten KI-Richtlinien in einem deutschen Universit&#228;tsklinikum &#8211; wird ausf&#252;hrlich vorgestellt (Hans-Ulrich Prokosch&#47;Timo Apfelbacher&#47;Sude Eda Ko&#231;man&#47;Annika Clarner&#47;Martin Schneider). Der Beitrag verdeutlicht zu Recht die Ma&#223;geblichkeit des durch die Medizinprodukteverordnung (MP-VO) und die Verordnung &#252;ber K&#252;nstliche Intelligenz (KI-VO) definierten Rechtsrahmens. Auch die Dynamik der Entwicklung auf s&#228;mtlichen Ebenen untersch&#228;tzen die Autor:innen nicht und heben &#252;berzeugend hervor, dass sie ihre KI-Richtlinie als lernendes System verstehen. Einen ganz anderen, n&#228;mlich biografisch-historischen Zuschnitt haben die folgenden beiden Beitr&#228;ge (Peter Walcher, Felix Walcher). Der anschlie&#223;ende Beitrag besch&#228;ftigt sich mit der Verantwortung im Umgang mit Gesundheitsdaten in der Versorgungsforschung am Beispiel des AKTIN-Notaufnahmeregisters (Felix Walcher&#47;Susanne Drynda&#47;Ronny Otto&#47;Jonas Bienzeisler&#47;Niels Bienzeisler&#47;Wiebke Schirmeister&#47;Alexandra Ramshorn-Zimmer&#47;Rainer R&#246;hrig) und hebt u.a. gleichsam kantisch die Rolle des inneren Forums von Forschenden jenseits aller normativen Festlegungen hervor. Der siebte Beitrag befasst sich recht umsichtig und gut verst&#228;ndlich mit dem &#8222;regulatorischen Dickicht&#8220; des Einsatzes von KI in der Medizin, wobei auch das Gesundheitsdatennutzungsgesetz (GDNG) und Haftungsfragen adressiert werden (Karolina Lange-Kulmann&#47;Marina Schulte&#47;Thanos Rammos&#47;Majula Jaiteh&#47;Julian Pusch). Die in diesem interdisziplin&#228;ren Rahmen geforderte &#220;berblicksdarstellung lie&#223; indes offenbar keinen Raum f&#252;r eine problemorientierte und differenzierte Darstellung. Deshalb sei erg&#228;nzend darauf hingewiesen, dass manche Aussage der Autor:innen, etwa zu Regel 11 (vgl. dazu <TextLink reference="2"></TextLink>) oder zum Grundsatz pers&#246;nlicher Leistungserbringung (vgl. dazu <TextLink reference="3"></TextLink>), aus rechtswissenschaftlicher Sicht zu apodiktisch erscheint und nur die &#8211; stets wandelbare &#8211; herrschende Auffassung reflektiert. Im anschlie&#223;enden Beitrag diskutieren die Autor:innen (Jonas H&#252;gel&#47;Nils Beyer&#47;Robert Kossen&#47;Alessandra Kuntz&#47;Harald Kusch&#47;Sophia Rheinl&#228;nder&#47;Sabine Solorz&#47;Ulrich Sax) unter Zugrundelegung der ethischen Leitlinien der GMDS, der von Beauchamp und Childress entwickelten sog. Washington-Formel sowie rechtlicher Leitplanken die ethischen Ma&#223;st&#228;be des Umgangs mit der Unsch&#228;rfe und der Unsicherheit von Vorhersagen in der personalisierten Medizin und den f&#252;r sie relevanten genomischen Daten. Interdisziplin&#228;re Dialoge und gezielte Schulungen aller Beteiligten bilden f&#252;r sie das Mittel der Wahl, ethische Herausforderungen zu bew&#228;ltigen. Der folgende Beitrag (Kai Wegkamp) fokussiert sich auf Qualit&#228;t, Bias und Nutzen im Maschine-Learning-Zyklus medizinischer Anwendungen und hebt hervor, dass f&#252;r ihre Entwicklung und ihre Integration in die Patientenversorgung das Zusammenspiel eines gro&#223;en Spektrums verschiedener Wissensdom&#228;nen ma&#223;geblich ist. Hervorgehoben wird, dass dieser Zyklus mit seinen verschiedenen stark voneinander abh&#228;ngigen Ebenen die Gesamtqualit&#228;t und den medizinischen Nutzen der KI-Anwendung bestimmt. Der anschlie&#223;ende Beitrag befasst sich mit ethischen Aspekten der digitalen Transformation im Gesundheitswesen in der Kardiologie (Birgit J. Gerecke). Er&#246;rtert werden u.a. anhand des Ma&#223;stabs der sog. Washington-Formel die Vor- und Nachteile der digitalen Selbstvermessung durch Gesundheits-Apps und der KI-basierten Bildgebung. Der Beitrag endet mit dem Desiderat, die Medizin solle &#8211; auch mit KI &#8211; die Kunst des Heilens von Kranken bleiben. Es folgt die Vorstellung eines f&#252;r die Gemeinsame Ethikkommission der Hochschulen Bayerns (GEHBa) entwickelten und bundesweit einmaligen Fast-Track-Verfahrens zur ethischen Beurteilung nichtmedizinischer Forschungsvorhaben (Walter Swoboda&#47;Martin Schmieder&#47;Julia Krumme&#47;Jo<TextGroup><PlainText>h</PlainText></TextGroup>annes Schobel&#47;Karsten Weber). Die Entwickler: innen lehnen derzeit noch den Einsatz LLM-basierter Chatbots ab, um den absoluten Primat autonomer menschlicher Entscheidung sicherzustellen. Angesichts der st&#228;ndig zunehmenden Leistungsf&#228;higkeit generativer KI und unschwer operationalisierbarer Alignment-Optionen wird ein solcher Attentismus freilich immer schwerer begr&#252;ndbar. Im anschlie&#223;enden weit ausgreifenden &#220;bersichtsbeitrag wird die erforderliche Bewertung von KI in der Medizin unter der tradierten &#252;bergreifenden Perspektive des Health Technology Assessments (HTA) betrachtet (Anna Moreno), wobei auch einige relevante rechtliche Vorgaben jenseits der &#8211; f&#252;r die Entwicklung und Herstellung KI-basierter Software f&#252;r medizinische Zwecke neben der KI-VO prim&#228;r ma&#223;geblichen &#8211; MP-VO adressiert werden. Die Autorin stellt res&#252;mierend fest, dass die herk&#246;mmlichen Methoden der Evidenzbewertung im KI-Kontext nicht mehr ausreichen und fordert, dass hierbei auch in personeller Hinsicht ethische Aspekte st&#228;rker zum Tragen kommen sollen. Der folgende Beitrag &#252;ber ethische Implikationen in der praktischen Umsetzung von Digitalisierung und KI im Gesundheitswesen (Jan Appel) leistet eine eindrucksvolle Systematisierung dieser Aspekte. Der Autor kritisiert u.a., dass ethische Aspekte im Grenzbereich normativer Konventionen (Inklusion, freiheitliche Demokratie, &#246;kologische und soziale Nachhaltigkeit, Wohlt&#228;tigkeit und Solidarit&#228;t) in Leitlinien und gesetzlichen Regelungen nur unzureichend konkretisiert werden, und zeigt hierf&#252;r L&#246;sungsans&#228;tze entlang des Lebenszyklus eines im station&#228;ren Bereich eingesetzten KI-Produkts auf. Anschlie&#223;end werden, ausgehend von der Pr&#228;misse, dass sich Unternehmen zunehmend mit den Folgewirkungen des internen Einsatzes von KI auseinandersetzen m&#252;ssen, die Ergebnisse einer internationalen Umfrage zu Einfl&#252;ssen der KI am Arbeitsplatz vorgestellt (Annika Wagner&#47;Andreas J. W. Goldschmidt). Der anschlie&#223;ende Beitrag befasst sich mit dem Einsatz digitaler L&#246;sungen und KI-basierter Software f&#252;r die Diagnosestellung und Versorgung seltener Erkrankungen, die allein in Deutschland ca. 4&#8211;5 Mio. betreffen (Jannik Schaaf&#47;Michael von Wagner&#47;Holger Storf). Hierbei liegt der Fokus auf dem KI-basierten Smarten Arztportal f&#252;r Betroffene mit Seltenen Erkrankungen (SATURN). Der folgende Beitrag stellt aus Sicht der Praxis die Einf&#252;hrung einer KI-Anwendung bei einem Maximalversorger am Beispiel der Klinikum Darmstadt GmbH dar und er&#246;rtert die damit verbundenen Herausforderungen (Clemens Maurer&#47;Gerhard Ertl).  Der anschlie&#223;ende Beitrag setzt sich mit der Unterst&#252;tzung von Antibiotic Stewardship (ABS) (Ma&#223;nahmen, die dazu dienen, nachhaltig eine rationale Antibiotikaverordnung zu verbessern bzw. sicherzustellen) durch KI auseinander (Juliane Eidenschink&#47;An<TextGroup><PlainText>d</PlainText></TextGroup>r&#233; Sander&#47;Daniel Diekmann).  Hierbei formulieren die Autor:innen konkrete Anforderungen an ein entsprechendes Clinical Decision Support System (CDSS), n&#228;mlich insbesondere eine ausreichende Wissensbasierung und die F&#228;higkeit zur Ausgabe von Warnhinweisen. Sodann werden im Folgebeitrag die Vor- und Nachteile des Einsatzes generativer KI in den Bereichen der medizinischen Dokumentation und der Kodierung von Leistungen einschlie&#223;lich externer Pr&#252;fungsverfahren durch Medizinische Dienste diskutiert (Steffen Euler). Dem Autor zufolge tr&#228;gt ein g&#228;nzlich KI-gest&#252;tzter Prozess nicht nur zur Entlastung der Behandelnden bei, sondern kann auch die Betreiber absichern und gleichzeitig die Patienten vor nicht notwendigen Therapien sch&#252;tzen.  Den Schlusspunkt setzt ein Beitrag zur Entwicklung des &#8222;Gesundheitsamts-Lotsen&#8220;, einer zukunftsf&#228;higen Open-Source-Software f&#252;r Gesundheits&#228;mter (Peter Tinnemann&#47;Stefanie Kaulich). Ma&#223;geblich entwickelt vom Gesundheitsamt, bildet der schon im Praxiseinsatz befindliche GA-Lotse eine &#8211; nach den Erfahrungen w&#228;hrend der COVID-19-Pandemie unbedingt gebotene &#8211; moderne, flexible und langfristig tragf&#228;<TextGroup><PlainText>h</PlainText></TextGroup>ige Softwarel&#246;sung, die den spezifischen Bed&#252;rfnissen der Gesundheits&#228;mter gerecht wird und zugleich zukunftsorientierte Standards f&#252;r die gesamte &#246;ffentliche Verwaltung setzt.</Pgraph><SubHeadline>Res&#252;mee </SubHeadline><Pgraph>Dem Sammelband mit seinen von 48 Autor:innen verfassten Beitr&#228;gen gelingt es, den aktuellen Wissensstand zahlreicher Disziplinen in Sachen KI in der Medizin nahezu vollst&#228;ndig abzubilden. Die Bandbreite der analytischen Perspektiven ist ungemein hoch. Sie reicht von globalen Normen bis hin zu innovativen Projekten an einzelnen Standorten. Zahlreiche Beitr&#228;ge k&#246;nnen auch durch ihren interdisziplin&#228;ren Ansatz &#252;berzeugen. So werden namentlich ethische und rechtliche Vorgaben in ihren Wirkdimensionen verglichen und bewertet. Als Kritikpunkt lie&#223;e sich allenfalls anbringen, dass einzelne praxisrelevante Problemfelder, wie die ma&#223;gebliche Rolle von Industriestandards (harmonisierte Normen) f&#252;r die Entwicklung KI-ba<TextGroup><PlainText>s</PlainText></TextGroup>ierter Medizinprodukte-Software (Artificial Intelligence Medical Device, AIMD) oder die Friktion zwischen KI-VO und MP-VO (z.B. hinsichtlich der Sicherheitsanforderungen und der Forschungsprivilegierung), nicht beackert werden. Im &#220;brigen aber beeindruckt der Band gerade dadurch, dass er kaum einen der vielf&#228;ltigen Aspekte der mit dem Siegeszug der KI in der Medizin verbundenen Themenfelder au&#223;er Acht l&#228;sst, sondern ihnen auf hervorragendem Niveau die erforderliche kritische Beachtung schenkt. Niemand, der oder die sich ernsthaft mit den relevanten Fragen auseinandersetzt, wird das Werk ignorieren k&#246;nnen. Kurzum, in Sachen KI in der Medizin markiert der Band den State of the Art.</Pgraph></TextBlock>
    <TextBlock name="Review" linked="yes" language="en">
      <MainHeadline>Review</MainHeadline><SubHeadline>Ethical challenges in AI-associated medical informatics, biometrics and epidemiology </SubHeadline><Pgraph>Medicine is considered the most important area of application for AI. Hype or hope is no longer the question. Nevertheless, there are still many unanswered questions associated with the specific risks of AI-based software in diagnostics and therapy, as well as in medical research. The debate is far from over. For example, the topic of AI in medicine was only widely debated at the 129<Superscript>th</Superscript> Deutschen &#196;rztetag (Conference of the German Medical Association) at the end of May 2025. The basis for this was a paper published by the German Medical Association with the informative title &#8216;Of medical art with artificial intelligence&#8217; <TextLink reference="1"></TextLink>, which summarises three earlier expert reports &#8211; the statement &#8216;Artificial intelligence in medicine&#8217;, the thesis paper &#8216;Artificial intelligence in healthcare&#8217; and &#8216;Decision support for medical practice through artificial intelligence&#8217;. In this general context, the scientific perspectives of medical informatics, biometrics and epidemiology naturally remain rather underexposed. It is therefore all the more commendable that the German Association for Medical Informatics, Biometry and Epidemiology (GMDS) and in particular the members of the Presidium Commission &#8216;Ethical Issues in Medical Informatics, Biometry and Epidemiology&#8217;, including three of the editors, have been addressing this topic for some time. The book reviewed here is also based on three workshops organised by the Presiding Committee. The total of 19 individual contributions can therefore also be assigned to the topics chosen for the workshops: &#8216;Ethical Issues in Medical Informatics, Biometry and Epidemiology&#8217;, &#8216;Ethical Principles in Medical Research with Examples&#8217; and &#8216;Ethical Principles in Medical Research with Examples&#8217;.</Pgraph><SubHeadline>Contributions to the ethics of AI-associated medical informatics, biometrics and epidemiology</SubHeadline><Pgraph>The individual contributions, each preceded by an abstract, examine the ethical, legal and social dimensions of AI-associated medical informatics, biometrics and epidemiology from different perspectives and questions. The first contribution (Andreas J. W. Goldschmidt) is of a fundamental nature and deals with the definition of AI, large language models (LLMs), the German Medical Research Act and impact assessment for research. The following article by the members of the aforementioned Executive Committee (Thomas M. Deserno, Birgit J. Gerecke, Andreas J. W. Goldschmidt, Alfred Winter) analyses the current performance of the GMDS ethical guidelines from 2008 based on the highly complex national, European and international normative setting and comes to the conclusion that they are still relevant, even against the background of the disruptive developments triggered by AI. In some key aspects, they could also provide a good basis for the AI guideline developed at the University Hospital Erlangen under the direction of Hans-Ulrich Prokosch, which came into force in summer 2024. This impressive pioneering work &#8211; one of the first AI guidelines in a German university hospital &#8211; is presented in detail (Hans-Ulrich Prokosch&#47;Timo Apfelba<TextGroup><PlainText>ch</PlainText></TextGroup>er&#47;Sude Eda Ko&#231;man&#47;Annika Clarner&#47;Martin Schneider). The article rightly emphasises the relevance of the legal framework defined by the Medical Devices Regulation (MDR) and the Artificial Intelligence Act (AIA). The authors also do not underestimate the dynamics of development at all levels and convincingly emphasise that they understand their AI directive as a learning system. The following two contributions (Peter Walcher, Felix Walcher) have a completely different, namely biographi<TextGroup><PlainText>c</PlainText></TextGroup>al-historical focus. The subsequent contribution deals with the responsibility in dealing with health data in health services research using the example of the active emergency admission register (Felix Walcher&#47;Susanne Drynda&#47;Ronny Otto&#47;Jonas Bienzeisler&#47;Niels Bienzeisler&#47;Wiebke Schirmeister&#47;Alexandra Ramshorn-Zimmer&#47;Rainer R&#246;hrig) and emphasises, among other things, the role of the inner forum of researchers beyond all normative stipulations. The seventh article deals with the &#8216;regulatory jungle&#8217; of the use of AI in medicine in a very prudent and easy-to-understand manner, also addressing the German Health Data Utilisation Act and liability issues (Karolina Lange-Kulmann&#47;Marina Schulte&#47;Thanos Rammos&#47;Majula Jaiteh&#47;Julian Pusch). However, the overview presentation required in this interdisciplinary context obviously left no room for a problem-orientated and differentiated discussion. It should therefore also be pointed out that some of the authors&#8216; statements, for example on Rule 11 (cf. <TextLink reference="2"></TextLink>) or on the principle of personal service provision (cf. <TextLink reference="3"></TextLink>) appear too apodictic from a jurisprudential perspective and only reflect the &#8211; always changeable &#8211; prevailing view. In the following article, the authors (Jonas H&#252;gel&#47;Nils Beyer&#47;Robert Kossen&#47;Alessandra Kuntz&#47;Harald Kusch&#47;Sophia Rheinl&#228;nder&#47;Sabine Solorz&#47;Ulrich Sax) discuss the ethical standards for dealing with the vagueness and uncertainty of predictions in personalised medicine and the genomic data relevant to it, based on the ethical guidelines of the GMDS, the so-called Washington formula developed by Beauchamp and Childress and legal guidelines. Interdisciplinary dialogues and targeted training of all those involved are the means of choice for overcoming ethical challenges. The following article (Kai Wegkamp) focuses on the quality, bias and benefits in the machine learning cycle of medical applications and emphasises that the interaction of a wide range of different knowledge domains is crucial for their development and integration into patient care. It is highlighted that this cycle with its various strongly interdependent levels determines the overall quality and medical benefit of the AI application. The following article deals with ethical aspects of the digital transformation in healthcare in cardiology (Birgit J. Gerecke). The advantages and disadvantages of digital self-measurement through health apps and AI-based imaging are discussed, among other things, using the scale of the so-called Washington formula. The article ends with the desideratum that medicine &#8211; even with AI &#8211; should remain the art of healing the sick. This is followed by the presentation of a fast-track procedure for the ethical assessment of non-medical research projects (Walter Swoboda&#47;Martin Schmieder&#47;Julia Krumme&#47;Johannes Schobel&#47;Karsten Weber), which was developed for the Joint Ethics Committee of Bavarian Universities of Applied Sciences and is unique in Germany. The developers currently still reject the use of LLM-based chatbots in order to ensure the absolute primacy of autonomous human decision-making. In view of the ever-increasing performance of generative AI and easily operationalisable alignment options, such an attitude is of course becoming increasingly difficult to justify. In the following far-reaching overview article, the necessary assessment of AI in medicine is considered from the traditional overarching perspective of Health Technology Assessment (HTA) (Anna Moreno), whereby some relevant legal requirements beyond the MDR &#8211; which is primarily relevant for the development and production of AI-based software for medical purposes in addition to the AIA &#8211; are also addressed. The author summarises that conventional methods of evidence evaluation are no longer sufficient in the context of AI and calls for ethical aspects to be given greater weight in terms of personnel. The following article on ethical implications in the practical implementation of digitalisation and AI in healthcare (Jan Appel) provides an impressive systematisation of these aspects. Among other things, the author criticises the fact that ethical aspects in the border area of normative conventions (inclusion, liberal democracy, ecological and social sustainability, charity and solidarity) are only insufficiently concretised in guidelines and legal regulations and shows possible solutions along the life cycle of an AI product used in the inpatient sector. Based on the premise that companies will increasingly have to deal with the consequences of the internal use of AI, the results of an international survey on the impact of AI in the workplace are then presented (Annika Wagner&#47;Andreas J. W. Goldschmidt). The following article deals with the use of digital solutions and AI-based software for the diagnosis and treatment of rare diseases, which affect around <TextGroup><PlainText>4&#8211;5 m</PlainText></TextGroup>illion people in Germany alone (Jannik Schaaf&#47; Michael von Wagner&#47;Holger Storf). The focus here is on an AI-based smart doctor portal for patients with rare diseases. The following article presents the introduction of an AI application at a maximum care provider from a practical perspective using the example of Klinikum Darmstadt GmbH and discusses the associated challenges (Clemens Maurer&#47;Gerhard Ertl). The next article deals with the support of antibiotic stewardship (ABS) (measures that serve to sustainably improve or ensure rational antibiotic prescribing) through AI (Juliane Eidenschink&#47;An<TextGroup><PlainText>d</PlainText></TextGroup>r&#233; Sander&#47;Daniel Diekmann). The authors formulate specific requirements for a corresponding Clinical Decision Support System (CDSS) (sufficient knowledge-based and issuing of warnings). Then, in the following article, the advantages and disadvantages of using generative AI in the areas of medical documentation and the coding of services, including external review procedures by medical services, are discussed (Steffen Euler). According to the author, a fully AI-supported process not only helps to reduce the workload of those providing treatment, but can also safeguard operators and at the same time protect patients from unnecessary therapies. The book concludes with a contribution on the development of the &#8216;GA-Lotse&#8217;, a sustainable open source software for public health authorities (Peter Tinnemann&#47;Stefanie Kaulich). Developed largely by the public health authority in Frankfurt am Main, the &#8216;GA-Lotse&#8217;, which is already in practical use, is a modern, flexible and sustainable software solution that meets the specific needs of public health authorities &#8211; something that is absolutely essential after the experiences during the COVID-19 pandemic &#8211; and at the same time sets future-oriented standards for the entire public administration.</Pgraph><SubHeadline>Summary</SubHeadline><Pgraph>The anthology, with its contributions by 48 authors, succeeds in almost completely reflecting the current state of knowledge of numerous disciplines in the field of AI in medicine. The range of analytical perspectives is extremely broad. It ranges from global standards to innovative projects at individual locations. Numerous contributions are also impressive due to their interdisciplinary approach. In particular, ethical and legal requirements are compared and evaluated in terms of their impact dimensions. One point of criticism could be that individual problem areas relevant to practice, such as the decisive role of industry standards (harmonised standards) for the development of Artificial Intelligence Medical Devices (AIMD) or the friction between the AI Regulation and the Medical Devices Regulation (e.g. with regard to safety requirements and research privileges) are not addressed. However, the volume is impressive precisely because it does not ignore any of the diverse aspects of the topics associated with the triumphant advance of AI in medicine, but instead gives them the necessary critical attention at an excellent level. No one who seriously engages with the relevant issues will be able to ignore this work. In short, this volume represents the state of the art when it comes to AI in medicine.</Pgraph></TextBlock>
    <TextBlock name="Anmerkung" linked="yes" language="de">
      <MainHeadline>Anmerkung</MainHeadline><Pgraph>Die englischsprachige Fassung der Rezension wurde unter Zuhilfenahme von DeepL und ChatGPT erstellt.</Pgraph></TextBlock>
    <TextBlock name="Note" linked="yes" language="en">
      <MainHeadline>Note</MainHeadline><Pgraph>The English version of the review was created with the help of DeepL and ChatGPT.</Pgraph></TextBlock>
    <TextBlock name="Interessenkonflikte" linked="yes" language="de">
      <MainHeadline>Interessenkonflikte</MainHeadline><Pgraph>Der Autor erkl&#228;rt, dass er keine Interessenkonflikte im Zusammenhang mit diesem Artikel hat.</Pgraph></TextBlock>
    <TextBlock name="Competing interests" linked="yes" language="en">
      <MainHeadline>Competing interests</MainHeadline><Pgraph>The author declares that he has no competing interests.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Bundes&#228;rztekammer</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2025</RefYear>
        <RefBookTitle>Von &#228;rztlicher Kunst mit K&#252;nstlicher Intelligenz</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Bundes&#228;rztekammer. Von &#228;rztlicher Kunst mit K&#252;nstlicher Intelligenz. 2025. Available from:  https:&#47;&#47;www.bundesaerztekammer.de&#47;fileadmin&#47;user&#95;upload&#47;BAEK&#47;Politik&#47;Programme-Positionen&#47;Von&#95;aerztlicher&#95;Kunst&#95;mit&#95;Kuenstlicher&#95;Intelligenz&#95;27.05.2025.pdf</RefTotal>
        <RefLink>https:&#47;&#47;www.bundesaerztekammer.de&#47;fileadmin&#47;user&#95;upload&#47;BAEK&#47;Politik&#47;Programme-Positionen&#47;Von&#95;aerztlicher&#95;Kunst&#95;mit&#95;Kuenstlicher&#95;Intelligenz&#95;27.05.2025.pdf</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Gassner UM</RefAuthor>
        <RefTitle>Medizinprodukte-Software (MDSW): Kl&#228;rungen zu Regel 11</RefTitle>
        <RefYear>2024</RefYear>
        <RefJournal>Medizinprodukte Journal (MDJ)</RefJournal>
        <RefPage>245-57</RefPage>
        <RefTotal>Gassner UM. Medizinprodukte-Software (MDSW): Kl&#228;rungen zu Regel 11. Medizinprodukte Journal (MDJ). 2024;2024(4):245-57.</RefTotal>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Gassner UM</RefAuthor>
        <RefTitle>K&#252;nstliche Intelligenz in der Medizin &#8211; no human in the loop</RefTitle>
        <RefYear>2021</RefYear>
        <RefBookTitle>50 Jahre Juristische Fakult&#228;t Augsburg &#91;Fifty Years of the Augsburg Law Faculty&#93;</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Gassner UM. K&#252;nstliche Intelligenz in der Medizin &#8211; no human in the loop. In: Koch A, Kubiciel M, Wollenschl&#228;ger F, Wurmnest W, editors. 50 Jahre Juristische Fakult&#228;t Augsburg &#91;Fifty Years of the Augsburg Law Faculty&#93;. T&#252;bingen: Mohr Siebeck; 2021. p. 243-271. DOI: 10.1628&#47;978-3-16-160999-2</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1628&#47;978-3-16-160999-2</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>