Künstliche Intelligenz
Einleitung
Das Positionspapier des HAEV aus Juli 2024, betitelt „Künstliche Intelligenz (KI) in der Hausarztpraxis“, beleuchtet den Einsatz von KI in der hausärztlichen Versorgung. Es betont die Chancen von KI, wie die Unterstützung bei Diagnose und Therapieplanung, die Entlastung von administrativen Aufgaben und die Verbesserung der Patienteninteraktion durch Chatbots. Gleichzeitig werden Risiken wie Datenschutzbedenken, ethische Fragen und mögliche Verzerrungen angesprochen. Das Papier fordert Transparenz, Qualitätssicherung der Daten, Anpassung an Praxisprozesse und die Entwicklung eines klaren regulatorischen Rahmens für den verantwortungsvollen Einsatz von KI in der Medizin. Es wird betont, dass KI als Ergänzung und nicht als Ersatz für ärztliche Entscheidungen dient, wobei die Sicherheit und der Datenschutz der Patienten sowie die Entlastung des Praxisteams im Vordergrund stehen.
Der Artikel “Ten Ways Artificial Intelligence Will Transform Primary Care” aus dem Jahr 2019 beschreibt, wie KI die hausärztliche Versorgung in den USA verändern könnte. Er hebt zehn Bereiche hervor, darunter Risikoprädiktion, Populationsgesundheitsmanagement, medizinischer Rat und Triage, und Diagnostik, in denen KI Verbesserungen bringen könnte. Die Herausforderung besteht darin, die Balance zu finden, wie KI am besten in den hausärztlichen Alltag integriert wird, um die vier Ziele (bessere Versorgung, bessere Gesundheit, geringere Kosten, Wohlbefinden der Arbeitskräfte) zu erreichen. (Lin, Mahoney, und Sinsky 2019)
Die Trendstudie „Künstliche Intelligenz in der ambulanten Versorgung: Trends, Chancen und Potenziale für das deutsche Gesundheitswesen“ untersucht die Rolle von KI im Gesundheitswesen. Sie zeigt, dass ein Drittel der Ärzt:innen bereits KI nutzt, insbesondere in Bildgebung, Diagnostik und Dokumentation, während zwei Drittel ein hohes Zukunftspotenzial sehen. KI entlastet vor allem administrative Aufgaben, verbessert Prävention und ermöglicht personalisierte Medizin. Haftungsrisiken und Kontrollverlust sind jedoch zentrale Vorbehalte. Die Studie betont die Notwendigkeit europäischer Gesundheitsdaten, strenger Datenschutzstandards und umfassender Fortbildung, um KI verantwortungsvoll einzusetzen und den Fachkräftemangel zu mildern.
Die Studie mit dem Titel „General practitioners’ opinions of generative artificial intelligence in the UK: An online survey“ untersucht, wie britische Hausärztinnen und Hausärzte den Einsatz von generativer Künstlicher Intelligenz (KI) im klinischen Alltag bewerten. In einer landesweiten Online-Befragung von 1005 GPs im Januar 2025 zeigte sich, dass die Mehrheit Vorteile bei Dokumentation, Informationssammlung und Effizienz erwartet, jedoch große Skepsis hinsichtlich Empathie, Datenschutz und Chancengleichheit besteht. Lediglich wenige Ärztinnen und Ärzte wurden bislang von Arbeitgebern zur Nutzung von KI ermutigt oder speziell geschult, und der Wunsch nach klaren Leitlinien und gezielter Fortbildung ist weit verbreitet. (Kharko u. a. 2025)
Lernmaterialien
Kostenfreie Angebote
Der KI-Campus bietet kostenlose Online-Kurse und Ressourcen zum Thema Künstliche Intelligenz in der Medizin, darunter Kurse zu Grundlagen, klinischen Anwendungen und Ethik. Diese Kurse sind für Mediziner:innen konzipiert und werden in Zusammenarbeit mit renommierten Partnern wie der Charité und dem DFKI angeboten.
openHPI ist die Bildungsplattform des Hasso-Plattner-Instituts, die kostenlose Online-Kurse zu Themen der Informatik anbietet. Diese Kurse richten sich an verschiedene Zielgruppen, von Einsteigern bis zu Fachpublikum, und decken sowohl Grundlagen als auch aktuelle Forschungsthemen ab. Die Plattform wurde 2012 als erstes europäisches MOOC-Projekt gestartet und bietet innovative Lernformate.
Kaggle Learn bietet eine Sammlung kostenloser, interaktiver Kurse zum Erlernen von Datenwissenschaft und maschinellem Lernen. Diese Kurse sind so gestaltet, dass Sie praktische Fähigkeiten erwerben können, die Sie sofort anwenden können. Kaggle Learn ist ideal für Anfänger und Fortgeschrittene, um ihre Fähigkeiten in Bereichen wie Python, Pandas, und maschinellem Lernen zu verbessern.
Die data.europa.eu Academy bietet kostenlose Online-Kurse zu offenen Daten, Datenvisualisierung und Datengovernance, die sich an Einsteiger und Fortgeschrittene richten, um deren Nutzung und Potenzial in der digitalen Ära zu fördern.
Online Plattformen
Kaggle-Datensätze und Kaggle-Wettbewerbe illustrieren den Einsatz künstlicher Intelligenz in der Medizin, indem sie Zugang zu Gesundheitsdaten und Herausforderungen bieten. Nutzende können Datensätze wie beispielsweise anonymisierte, fiktive Gesundheitsdaten oder medizinische Bilddaten herunterladen, um KI-Modelle für Diagnosen oder Therapieoptimierung zu trainieren. Parallel dazu fördern Wettbewerbe die Entwicklung von Algorithmen und Modellen, etwa zur Vorhersage von Krankheitsverläufen oder zur Analyse von Gesundheitsrisiken, durch kollaborativen Wissenswettbewerb. Kaggle bietet eine Plattform, auf der KI-gestützte Lösungen getestet, verfeinert und auf medizinische Probleme angewendet werden können.
Kostenpflichtige Angebote
Übersichtsplattform
Die Website Alles KI bietet einen Überblick über KI-Anwendungen zum Einsatz im Alltag.
Datengetriebene Lösungen
Die Dienstleistung von Intrexx konzentriert sich auf die Bereitstellung einer Low-Code-Plattform, um Datenaustausch bestehender digitaler Systeme nahtlos zu ermöglichen. Intrexx ermöglicht die Erstellung von Datenanwendungen mit minimalem Programmieraufwand, indem es intuitive Tools wie den Daten-Designer für zentralisierte, datenschutzkonforme Datenverwaltung bereitstellt. Automatisierung wird durch vordefinierte Workflows realisiert, wodurch Routineaufgaben effizienter und fehlerärmer werden. Der Intrexx Applikations-Builder ermöglicht es Datenmodelle, Formulare und Workflows zu erstellen und an spezifische Anforderungen anzupassen. Es bedarf keine umfassenden IT-Kenntnisse, dank der Low-Code-Ansätze wie Drag-and-Drop und vorgefertigter Schnittstellen.
Experimentelle Anwendungen
pillenfuchs.konsilado.de ist ein experimentelles KI-gestütztes Forschungsprojekt, das darauf abzielt, Medikationspläne mithilfe eines großes Sprachmodells zu überprüfen. Es handelt sich explizit nicht um ein medizinisches Angebot von menschlichen Ärzten oder Apothekern, sondern um ein experimentelles Tool. Die KI analysiert Medikationspläne basierend auf eingegebenen Patientendaten wie Alter, Geschlecht, Nierenfunktion und einem hochgeladenen Bundesmedikationsplan (als PDF oder Text). Dabei werden potenzielle Arzneimittelwechselwirkungen, Empfehlungen und Quellen ausgegeben. Die Ergebnisse sind jedoch ohne Gewähr, können Fehler enthalten und stellen keine verbindlichen Handlungsempfehlungen dar. Es wird ausdrücklich betont, dass nur der behandelnde Arzt verlässliche medizinische Ratschläge geben kann.
KI-Agenten
dianoviCDS unterstützt bei der Diagnose und Behandlung, indem es patientenspezifische Empfehlungen auf Basis von Symptomen, medizinischen Leitlinien und anonymisierten Patientendaten liefert. Die Plattform kombiniert Sprachmodelle mit klassischem maschinellem Lernen. Durch Integration in bestehende Informationssysteme optimiert dianoviCDS Arbeitsabläufe und unterstützt bei der Abrechnungsoptimierung. hessian.ai/aisr-community/dianovi
IsareeAI ist eine offene Plattform und ein Ökosystem für KI-Agenten, das die Transformation der Gesundheitsbranche durch künstliche Intelligenz vorantreiben will. Mit der edge-first KI-Assistentin Isa ermöglicht IsareeAI datenschutzsichere, lokale Verarbeitung klinischer Daten, Integration spezialisierter KI-Agenten und eine globale Marktplatzlösung für Gesundheitsanwendungen. Die Plattform reduziert laut Angaben administrativen Aufwand um 30 %, beschleunigt die Einführung von KI-Innovationen um das Zehnfache und gewährleistet 100 % Datensouveränität, während sie durch offene Systeme bis zu 40 % der IT-Kosten einspart.
Die Studie „Toward the Autonomous AI Doctor: Quantitative Benchmarking of an Autonomous Agentic AI Versus Board-Certified Clinicians in a Real World Setting“ vergleicht die Leistung eines vollständig autonomen KI-Systems, „Doctronic“, mit der von Fachärzt:innen im Rahmen von 500 realen Telemedizin-Urgent-Care-Fällen. Die Ergebnisse zeigen, dass die diagnostische Übereinstimmung zwischen KI und Ärzt:innen in 81 % der Fälle vorhanden war und die Behandlungspläne sogar zu 99,2 % übereinstimmten. In Fällen von Abweichungen lag die KI in rund einem Drittel der Fälle vorn. Die Studie demonstriert damit, dass agentenbasierte KI-Systeme imstande sind, klinisch fundierte Entscheidungen auf Augenhöhe mit menschlichen Behandler:innen zu treffen und dabei eine potenzielle Lösung für zukünftige Engpässe im Gesundheitswesen bieten könnten. (Hayat u. a. 2025)
Ethik
Das Projekt „Mein Doktor, die KI und ich“ des Instituts für Geschichte, Ethik und Philosophie der Medizin an der Medizinischen Hochschule Hannover untersuchte den Einsatz von Künstlicher Intelligenz in der Gesundheitsversorgung aus der Perspektive von Bürgern und Ärzten über den Zeitraum von 2023 bis 2024. In mehreren Veranstaltungen wurde diskutiert, wie KI die Arzt-Patienten-Beziehung verändert und welche ethischen Herausforderungen dabei entstehen. Ziel war es, konkrete Handlungsempfehlungen für den verantwortungsvollen Einsatz von KI in der Medizin zu entwickeln.
Die Studie „Patients’ Trust in Health Systems to Use Artificial Intelligence“ von Paige Nong und Jodyn Platt (JAMA Network Open, 2025) untersucht das Vertrauen von US-Bürgern in Gesundheitssysteme hinsichtlich des verantwortungsvollen Einsatzes von Künstlicher Intelligenz (KI) und des Schutzes vor KI-bedingten Schäden. Basierend auf einer national repräsentativen Umfrage von 2039 Erwachsenen im Jahr 2023 zeigt die Studie, dass die Mehrheit (65,8 %) geringes Vertrauen in den verantwortungsvollen KI-Einsatz und 57,7 % geringes Vertrauen in den Schutz vor KI-Schäden hat. Höheres allgemeines Vertrauen in das Gesundheitssystem korreliert stark mit Vertrauen in KI-Nutzung, während Diskriminierungserfahrungen im Gesundheitswesen das Vertrauen senken. Die Autoren betonen die Notwendigkeit besserer Kommunikation und Investitionen in die Vertrauenswürdigkeit von Gesundheitsorganisationen, um das Vertrauen in KI-Anwendungen zu stärken. (Nong und Platt 2025)
Die Studie „Expectations of healthcare AI and the role of trust: understanding patient views on how AI will impact cost, access, and patient-provider relationships“ von Paige Nong und Molin Ji (Journal of the American Medical Informatics Association, 2025) untersucht die Erwartungen von US-Bürgern an Künstliche Intelligenz (KI) im Gesundheitswesen basierend auf einer national repräsentativen Umfrage mit 2039 Teilnehmern von Juni bis Juli 2023. Die Ergebnisse zeigen niedrige Erwartungen: Nur 19,4 % erwarten Kostensenkungen, 19,55 % eine Verbesserung der Arzt-Patienten-Beziehung und 30,28 % besseren Zugang zur Versorgung. Höheres Vertrauen in Gesundheitssysteme und Ärzte korreliert mit positiveren KI-Erwartungen, während Frauen sowie Schwarze und Hispanics höhere Erwartungen als Männer bzw. Weiße haben. Die Autoren betonen, dass Vertrauen und Patientenbindung zentrale Aspekte der KI-Governance sein sollten, um negative Auswirkungen auf das Vertrauen zu vermeiden und patientenzentrierte KI-Systeme zu fördern. (Nong und Ji 2025)
Die Studie „Charting the future of patient care: A strategic leadership guide to harnessing the potential of artificial intelligence“ untersucht die transformative Rolle von Künstlicher Intelligenz (KI) im Gesundheitswesen. Sie beleuchtet 18 KI-basierte Anwendungen in den Bereichen klinische Entscheidungsfindung, Präzisionsmedizin, betriebliche Effizienz und prädiktive Analytik, illustriert durch ein Beispiel zur Rolle von KI in der öffentlichen Gesundheit während der frühen Phase der COVID-19-Pandemie. Die Studie adressiert ethische Herausforderungen wie Transparenz, Datenschutz, Bias, Einwilligung, Verantwortlichkeit und Haftung sowie die Notwendigkeit strategischer Maßnahmen zur Ausrichtung von KI an ethischen Prinzipien, rechtlichen Rahmenbedingungen und bestehenden IT-Systemen. Sie betont die Bedeutung einer informierten und strategischen Herangehensweise, um das Potenzial von KI zu nutzen und ihre Herausforderungen zu bewältigen. Zudem wird die Notwendigkeit neuer Kompetenzen wie technologischer Kompetenz, strategischer Weitsicht, Veränderungsmanagement und ethischer Entscheidungsfindung hervorgehoben, um KI effektiv im Gesundheitsmanagement einzusetzen. (Ennis-O’Connor und O’Connor 2024)
Die Studie „Global Health in the Age of AI: Charting a Course for Ethical Implementation and Societal Benefit“ untersucht die Herausforderungen und Möglichkeiten der KI-Integration im globalen Gesundheitswesen. Sie identifiziert Hindernisse wie ethische Unsicherheiten, Dateninfrastrukturprobleme und regulatorische Unklarheiten, die die Umsetzung von KI-Vorteilen behindern. Basierend auf dem Global Health in the Age of AI Symposium schlägt die Studie fünf Kernanforderungen für eine ethische KI-Implementierung vor: robuste Datenaustauschsysteme, epistemische Sicherheit mit Personalauthonomie, Schutz von Gesundheitswerten, validierte Ergebnisse mit Verantwortlichkeit und ökologische Nachhaltigkeit. Die Autoren betonen die Notwendigkeit koordinierter, sektorenübergreifender Maßnahmen, um KI als Kraft für globale Gesundheitsgerechtigkeit zu nutzen und technologischen Kolonialismus zu vermeiden. (Morley u. a. 2025)
Die Studie „The new narrative medicine: ethical implications of artificial intelligence on healthcare narratives“ von David Schwartz und Elizabeth Lanphier untersucht die ethischen Auswirkungen generativer Künstlicher Intelligenz (KI) auf narrative Prozesse in der Gesundheitsversorgung. Sie argumentiert, dass KI, basierend auf großen Sprachmodellen, ein narratives Projekt ist, da sie auf narrativen Daten trainiert wird und narrative Ausgaben erzeugt. Die Autoren betonen, dass die Medizinischen Geisteswissenschaften (Medical Humanities) unverzichtbar sind, um die Chancen und Grenzen einer verantwortungsvollen KI-Nutzung zu bewerten. Anhand von zwei Fallstudien zeigen sie, wie narrative Medizin und Geisteswissenschaften entscheidende Rahmenbedingungen bieten, um die Auswirkungen solcher Technologien zu analysieren und zu kritisieren. Die Studie fordert eine verstärkte Einbindung der Geisteswissenschaften, um eine ethische Integration von KI in die Gesundheitsversorgung zu gewährleisten. (Schwartz und Lanphier 2025)
Die Studie „Global Health in the Age of AI: Charting a Course for Ethical Implementation and Societal Benefit“ untersucht die Chancen und Herausforderungen des Einsatzes von Künstlicher Intelligenz (KI) im globalen Gesundheitswesen. Sie zeigt auf, dass KI das Potenzial hat, Diagnosen zu verbessern und den Zugang zu medizinischer Versorgung insbesondere in benachteiligten Regionen zu erweitern. Gleichzeitig betont die Studie, dass ethische Unsicherheiten, mangelnde Dateninfrastruktur und unklare Regularien wichtige Hürden darstellen. Fünf zentrale Voraussetzungen für eine ethisch verantwortungsvolle Implementierung von KI werden vorgestellt, darunter der Schutz von Gesundheitswerten und Umweltverträglichkeit. Die Autor:innen plädieren für eine koordinierte, globale Zusammenarbeit, um KI gerecht und nachhaltig zum Wohl aller einzusetzen. (Morley u. a. 2025)
Die Studie “Uncovering ethical biases in publicly available fetal ultrasound datasets” untersucht, welche ethischen Verzerrungen in öffentlich zugänglichen fetalen Ultraschall-Datensätzen auftreten, die für das Training von Deep-Learning-Algorithmen in der Pränataldiagnostik verwendet werden. Die Autorinnen und Autoren zeigen, dass diese Datensätze vielfältige Bias-Probleme aufweisen, etwa fehlende demografische Vielfalt, eingeschränkte klinische Vielfalt der dargestellten Krankheitsbilder und Unterschiede bei der eingesetzten Gerätetechnik. Diese Verzerrungen können die Leistung von KI-Modellen beeinflussen und zu Ungleichheiten in den Gesundheitsresultaten führen. Die Studie empfiehlt deshalb, Datensätze gezielt diverser zu gestalten und Modellstrategien anzupassen, um mehr Fairness und Zuverlässigkeit in der medizinischen KI-Anwendung sicherzustellen. (Fiorentino u. a. 2025)
Datenschutz
Privatemode AI ist eine KI-Plattform, die den Schutz sensibler Patientendaten durchgehend gewährleisten soll. Die Anwendung nutzt Confidential Computing, um medizinische Daten während der Übertragung, Speicherung und Verarbeitung verschlüsselt zu halten, sodass weder der Dienstanbieter noch Dritte Zugriff auf die Daten erhalten sollen. Privatemode AI ermöglicht medizinischen Einrichtungen die Nutzung generativer KI-Modelle zur Unterstützung bei klinischer Dokumentation, medizinischer Forschung und Behandlungsplanung.
Die Veröffentlichung „Sharing Trustworthy AI Models with Privacy-Enhancing Technologies“ ist ein Bericht der OECD aus dem Juni 2025, der sich mit dem Potenzial und den Herausforderungen von datenschutzfördernden Technologien (Privacy-Enhancing Technologies, PETs) im Kontext der Entwicklung und des Teilens von KI-Modellen beschäftigt. Der Bericht basiert auf Workshops mit Expertinnen und Experten und identifiziert zwei zentrale Anwendungsfall-Archetypen: zum einen die vertrauliche und minimalistische Nutzung von Input- und Testdaten zur Verbesserung der Modellleistung, zum anderen die sichere gemeinsame Erstellung und Weitergabe von KI-Modellen. Außerdem beschreibt die Publikation politische Maßnahmen zur Förderung des Einsatzes von PETs und betont die Bedeutung von Politikmaßnahmen sowohl auf Nachfrage- als auch auf Angebotsseite, um Innovationen zu unterstützen und Vertrauen im Umgang mit sensiblen Daten zu stärken. (OECD 2025)
Forschung
AMIE (Articulate Medical Intelligence Explorer) ist ein KI-System basierend auf einem großen Sprachmodell, das für diagnostische Dialoge optimiert wurde. Der medizinische Dialog mit dem Patienten ist elementar für eine präzise Diagnose. KI kann diesen Prozess zugänglicher und konsistenter machen könnte. AMIE wurde mit einem neuartigen, simulationsbasierten Selbstlernsystem trainiert und in einer randomisierten, doppelt verblindeten Studie mit 149 klinischen Szenarien gegen Hausärzte getestet. Dabei zeigte AMIE eine höhere diagnostische Genauigkeit und übertraf die Ärzte in den meisten Bewertungskategorien, wie Anamneseaufnahme und Empathie. Dennoch betont der Artikel Einschränkungen, wie die ungewohnte Text-Chat-Schnittstelle, und fordert weitere Forschung für reale Anwendungen. (Tu u. a. 2024) AMIE wurde erweitert, um nicht nur Diagnosen zu stellen, sondern auch das Follow-up zu unterstützen, indem es Krankheitsverläufe, Therapieansprechen und sichere Medikamentenverordnungen berücksichtigt. Basierend auf den Gemini-Modellen nutzt AMIE Techniken wie langes Kontextverständnis und geringe Halluzinationsraten, um Ärzte und Patienten bei komplexen Behandlungsplänen zu unterstützen.
- research.google/blog/amie-a-research-ai-system-for-diagnostic-medical-reasoning-and-conversations
- research.google/blog/advancing-amie-towards-specialist-care-and-real-world-validation
- research.google/blog/from-diagnosis-to-treatment-advancing-amie-for-longitudinal-disease-management
Die Studie „Why Is Primary Care Different? Considerations for Machine Learning Development with Electronic Medical Record Data“ von Jacqueline K. Kueper et al., veröffentlicht am 24. April 2025 in NEJM AI, beleuchtet die Besonderheiten der Primärversorgung und deren Implikationen für die Entwicklung von maschinellem Lernen (ML) mit Daten aus elektronischen Patientenakten. Primärversorgung als Fundament des Gesundheitssystems zeichnet sich durch Erstkontakt, Ganzheitlichkeit, Koordination und Kontinuität aus, doch die ML-Entwicklung in diesem Bereich hinkt anderen medizinischen Fachrichtungen hinterher. Die Autoren betonen die Notwendigkeit maßgeschneiderter Methoden, die repräsentative Daten, ganzheitliche Kohorten, zielgerichtete Outcomes und validierungsstrategien für dezentrale klinische Kontexte berücksichtigen. Interdisziplinäre Zusammenarbeit und verstärkte Investitionen in ML-Forschung für die Primärversorgung könnten klinische Entscheidungsfindung, Patientenergebnisse und Innovationen im Gesundheitswesen verbessern. (Kueper u. a. 2025)
Der Artikel „Application of Artificial Intelligence in Community-Based Primary Health Care: Systematic Scoping Review and Critical Appraisal“ untersucht die Anwendung von Künstlicher Intelligenz (KI) in der Primärversorgung. Die systematische Übersichtsarbeit, veröffentlicht 2021, analysiert 90 Studien, die KI-Systeme in diesem Bereich getestet oder implementiert haben, und identifiziert häufig verwendete Methoden wie maschinelles Lernen (45 %), natürliche Sprachverarbeitung (27 %) und Expertensysteme (19 %). Die Ergebnisse zeigen Vorteile wie verbesserte Diagnose und Krankheitsmanagement, weisen jedoch auch auf Herausforderungen wie Datenvariabilität, ethische Bedenken und hohe Verzerrungsrisiken hin. Die Autoren betonen die Notwendigkeit weiterer Forschung, um die effektive Entwicklung und Implementierung von KI in der Primärversorgung zu fördern, insbesondere unter Berücksichtigung von Geschlecht, Alter und ethnischer Diversität. (Abbasgholizadeh Rahimi u. a. 2021)
Die Studie „Artificial Intelligence in Outpatient Primary Care: A Scoping Review on Applications, Challenges, and Future Directions“ untersucht den Einsatz von künstlicher Intelligenz (KI) in der ambulanten Grundversorgung. Sie analysiert, wie KI-Technologien wie maschinelles Lernen und Deep Learning diagnostische Genauigkeit, Risikoprognosen, personalisierte Behandlungen und Workflow-Effizienz verbessern können. Die Autoren, Stacy Iannone, Amarpreet Kaur und Kevin B. Johnson, führten eine systematische Literaturrecherche nach PRISMA-ScR-Richtlinien durch und identifizierten 61 relevante Studien aus 3.203 gescreenten Manuskripten. Die Ergebnisse zeigen, dass KI hauptsächlich in der Modellentwicklung steckt, mit begrenzter realer Anwendung in Bereichen wie klinischer Entscheidungsfindung und Krankheitsdiagnose. Die Studie betont die Notwendigkeit von groß angelegten klinischen Studien, interdisziplinären Kooperationen und verbesserten Datenschutzstandards, um KI effektiv in die Primärversorgung zu integrieren und Patientenergebnisse zu verbessern. (Iannone, Johnson, und Kaur 2025)
Die Studie „Revolutionizing Health Care: The Transformative Impact of Large Language Models in Medicine“ untersucht die potenziellen Anwendungen großer Sprachmodelle (LLMs) in der Medizin, insbesondere deren Fähigkeit, klinische Entscheidungsunterstützung, Diagnose, Behandlung und medizinische Forschung durch fortschrittliche Verarbeitung natürlicher Sprache und multimodaler Daten zu verbessern. Sie betont die Notwendigkeit evidenzbasierter Forschung, interdisziplinärer Zusammenarbeit und ethischer Überlegungen, insbesondere zu Datenschutz und Bias, um eine sichere und gerechte Anwendung zu gewährleisten. Der Kommentarartikel kritisiert technische Ungenauigkeiten, wie die fehlerhafte Darstellung der Verbindung zwischen BERT- und GPT-Modellen, die begrenzte Evidenz für multimodale LLMs in spezialisierten Bereichen wie medizinischer Bildgebung und die Vernachlässigung bestehender Technologien wie Operations Research für strukturierte Daten wie Ressourcenzuweisung. Zudem wird das Problem der Interoperabilität mit elektronischen Patientenakten hervorgehoben. In ihrer Antwort betonen die Autoren, dass ihr Ziel eine konzeptionelle Perspektive war, nicht technische Details, und verweisen auf Fortschritte wie Med-Gemini für multimodale Daten und die Fähigkeit von LLMs, FHIR-Daten zu extrahieren, während sie die Notwendigkeit robuster Validierung und Integration anerkennen. Sie klären, dass die schematische Darstellung der Transformer-Architektur verallgemeinert war, ohne spezifische Unterschiede zwischen BERT und GPT zu betonen. (Zhang u. a. 2025; Beltramin, Bousquet, und Tiffet 2025; Ji, Meng, und Yan 2025)
Der Artikel „From Tool to Teammate: A Randomized Controlled Trial of Clinician-AI Collaborative Workflows for Diagnosis“ untersucht, wie künstliche Intelligenz (KI) als aktiver Partner in der klinischen Diagnostik integriert werden kann. In einer randomisierten kontrollierten Studie mit 70 Klinikern wurde ein speziell entwickeltes GPT-System getestet, das unabhängige Diagnosen von Klinikern und KI kombiniert und eine Synthese mit Übereinstimmungen, Abweichungen und Kommentaren erstellt. Zwei Arbeitsabläufe wurden verglichen: KI als erste Meinung (AI-first) und KI als zweite Meinung (AI-second). Kliniker, die mit diesen kollaborativen KI-Workflows arbeiteten, erzielten mit 85 % (AI-first) und 82 % (AI-second) deutlich höhere Diagnosegenauigkeiten als mit traditionellen Mitteln (75 %). Die Ergebnisse zeigen, dass kollaborative KI-Systeme die klinische Expertise ergänzen und die diagnostische Entscheidungsfindung verbessern können. (Everett u. a. 2025)
Die Studie „Integrating an AI platform into clinical IT: BPMN processes for clinical AI model development“ untersucht die Integration einer klinischen KI-Plattform in die klinische IT-Infrastruktur. Sie beschreibt die Phasen des Entwicklungszyklus klinischer KI-Modelle, einschließlich Datenauswahl, Datenannotation, Training, Testen und Inferenz, unter Verwendung von BPMN-Diagrammen zur Darstellung der Prozesse. Anhand von drei klinischen Anwendungsfällen wird die Funktionalität der Plattform bewertet, wobei das FEDS-Framework genutzt wird. Die Ergebnisse zeigen, dass die Plattform eine breite Palette klinischer KI-Anwendungen abdeckt und eine Grundlage für weitere Entwicklungen wie standortübergreifendes Training oder die Integration von Sicherheits- und Datenschutzaspekten bietet. (Arshad u. a. 2025)
Sprachmodelle
Die Studie „Large Language Model Architectures in Health Care: Scoping Review of Research Perspectives“ untersucht, welche Architekturen großer Sprachmodelle (LLMs) aktuell in der medizinischen Forschung und Praxis eingesetzt werden. Die Autoren zeigen, dass GPT-basierte Modelle vor allem für kommunikative Anwendungen wie die Erstellung von Berichten oder den Patientendialog geeignet sind, während BERT-basierte Modelle Potenziale bei Aufgaben wie Klassifikation und Wissensentdeckung bieten. Die Arbeit hebt hervor, dass die Auswahl der passenden LLM-Architektur für die jeweilige medizinische Anwendung entscheidend ist und diskutiert zudem zentrale Herausforderungen wie Genauigkeit, Bias und Datenschutz. (Leiser, Guse, und Sunyaev 2025)
Basismodelle & Zeitreihen
Der Kommentar „Foundation Models for Generative AI in Time-Series Forecasting“ kritisiert, dass in einer zuvor veröffentlichten Übersichtsarbeit zu generativer KI bei zeitabhängigen biomedizinischen Daten der Begriff der Foundation Models (FMs) missverständlich verwendet wurde. Insbesondere wurden Modelle als FMs bezeichnet, die nicht auf großen, unbeschrifteten Datensätzen vortrainiert sind oder keine generativen Fähigkeiten besitzen. Zudem wurde auf die Unterscheidung zwischen generativen und maskierten Sprachmodellen hingewiesen, sowie darauf, dass klinische Sprachmodelle (CLaMs) nicht von Natur aus für Zeitreihenprognosen geeignet sind und entsprechend angepasst werden müssen. Insgesamt betonen die Autoren die Wichtigkeit einer klaren Definition von FMs und würdigen gleichzeitig die vielfältigen Anwendungsmöglichkeiten generativer KI im Bereich der Biomedizin. (Beltramin und Bousquet 2025)
Große Sprachmodelle & Gesundheitsakten
Die Studie „Leveraging Large Language Models for Accurate Retrieval of Patient Information From Medical Reports: Systematic Evaluation Study“ untersucht die Anwendung großer Sprachmodelle (LLMs) zur automatisierten Extraktion strukturierter Informationen aus unstrukturierten medizinischen Berichten mit dem LangChain-Framework in Python. Durch eine systematische Evaluierung von Modellen wie GPT-4o, Llama 3, Llama 3.1, Gemma 2, Qwen 2 und Qwen 2.5 mit Zero-Shot-Prompting-Techniken und Einbettung der Ergebnisse in eine Vektordatenbank wird die Leistung bei der Extraktion von Patientendemografie, Diagnosedetails und pharmakologischen Daten bewertet. Die Ergebnisse zeigen eine hohe Effizienz, wobei GPT-4o mit 91,4 % Genauigkeit die beste Leistung erzielt. Herausforderungen bestehen in der Verarbeitung unstrukturierter Texte und der Variabilität der Modellleistung, doch die Studie unterstreicht die Machbarkeit der Integration von LLMs in Gesundheitsabläufe zur Verbesserung der Datenverfügbarkeit und Unterstützung klinischer Entscheidungsprozesse. (Garcia-Carmona u. a. 2025)
Internet der Dinge (IoT)
Das Forschungsprojekt „Mobilität trifft Medizin: Gesundheitscheck im Auto“ untersucht, wie KI-basierte Fahrzeugsensorik den Gesundheitszustand von Fahrenden erfassen kann. Die Charité – Universitätsmedizin Berlin und die BMW Group kooperieren, um Vitalparameter wie Herzfrequenz oder Atemfrequenz während der Fahrt zu messen. Ziel ist die Entwicklung von Technologien zur frühzeitigen Vorhersage von Gesundheitsrisiken wie Schlaganfällen oder Herzinfarkten. Die Studie nutzt ein speziell ausgestattetes Fahrzeug, um Daten unter Alltagsbedingungen zu erheben. Erste Ergebnisse werden Ende 2025 erwartet.
Haftungsfragen
Die Studie „Randomized Study of the Impact of AI on Perceived Legal Liability for Radiologists“ untersucht, wie Künstliche Intelligenz (KI) die Wahrnehmung der Haftung von Radiologen bei fehlerhaften Diagnosen beeinflusst. US-amerikanische Erwachsene bewerteten Szenarien, in denen ein Radiologe eine Gehirnblutung oder Krebs übersah, wobei KI entweder mit der Diagnose des Radiologen übereinstimmte oder sie widersprach. Teilnehmer stuften die Haftung des Radiologen höher ein, wenn die KI die Anomalie erkannte (KI-Widerspruch), im Vergleich zu Fällen, in denen die KI ebenfalls versagte (KI-Übereinstimmung) oder keine KI genutzt wurde. Die Angabe von KI-Fehlerraten, wie eine 1%ige Falsch-Negativ-Rate oder 50%ige Falsch-Positiv-Rate, verringerte die wahrgenommene Haftung, insbesondere bei Gehirnblutungen. Diese Ergebnisse zeigen die Relevanz von KI für rechtliche Wahrnehmungen in der Radiologie und haben Bedeutung für Gerichtsverfahren. (Bernstein u. a. 2025)
Die Studie „Understanding Liability Risk from Using Healthcare Artificial Intelligence Tools“ befasst sich mit der zentralen Frage der rechtlichen Haftung im Gesundheitswesen, wenn der Einsatz von KI-Tools zu Patientenschäden beiträgt. Sie analysiert die bisher spärlichen Fälle zu physischen Verletzungen, die durch KI oder Softwaresysteme verursacht wurden. Dabei identifiziert die Studie, dass Haftungsansprüche typischerweise auf Mängeln in Software zur Versorgungs- oder Ressourcenverwaltung, der Verwendung von Software durch Ärzte bei Entscheidungen oder Fehlfunktionen von Software in medizinischen Geräten basieren. Zudem stellt die Untersuchung einen Risikobewertungsrahmen zur Verfügung, der Gesundheitseinrichtungen dabei helfen soll, ihren Ansatz zur Implementierung und Überwachung von KI-Tools im Gesundheitswesen anzupassen, und bietet Empfehlungen zur Minimierung von Haftungsrisiken und zur Förderung einer sicheren Einführung von KI-Innovationen. (Mello und Guha 2024)
Bürokratieerleichterung
Die Studie „Machine learning in general practice: scoping review of administrative task support and automation“ untersucht den Einsatz von maschinellem Lernen zur Unterstützung und Automatisierung administrativer Aufgaben in der Allgemeinmedizin. Die Autoren analysierten 12 Studien, die überwiegend Terminplanungsaufgaben mit überwachten Lernmethoden behandeln, jedoch mit geringer Beteiligung von Allgemeinmedizinern. Die Forschung zeigt ein hohes Potenzial für solche Methoden, ist aber durch fehlende open-source-Daten und eine Priorisierung diagnostischer Aufgaben begrenzt. Zukünftige Studien sollten open-source-Daten nutzen und die Beteiligung von Ärzten klar dokumentieren. (Sørensen u. a. 2023)
Arbeitsgruppen
- Das [Schliep Lab](https://schlieplab.org/] an der Brandenburgischen Technischen Universität erforscht mit KI neue Medikamente, untersucht Genome und entwickelt Algorithmen für Sequenzierungsdaten.
- Das van der Schaar Lab an der Universität Cambridge entwickelt KI- und maschinelle Lernmethoden für die Medizin.
- Das Digital Health Cluster des HPI forscht mit neuen Technologien an innovativen Lösungen, um die Gesundheit und das Wohlbefinden von Menschen und Gemeinschaften zu verbessern.
Akzeptanz Künstlicher Intelligenz
Das Projekt „KI-BA: Künstliche Intelligenz in der Versorgung – Bedingung der Akzeptanz von Versicherten“ untersucht die Akzeptanz von KI-Anwendungen in der gesetzlichen Krankenversicherung (GKV) aus der Perspektive von Versicherten und Ärzt:innen. Ziel ist es, individuelle und kontextuelle Einflussfaktoren wie Alter, Bildung oder Technikaffinität zu identifizieren, die die Akzeptanz beeinflussen. Dazu werden KI-Einsatzgebiete kategorisiert, quantitative Befragungen mit etwa 1.500 Versicherten und 500 Ärzt:innen in Nordbayern durchgeführt und Handlungsempfehlungen für die nutzergerechte Implementierung von KI-Systemen entwickelt. Das von der Fraunhofer-Gesellschaft und der Friedrich-Alexander-Universität Erlangen-Nürnberg geführte Projekt lief von August 2021 bis Januar 2024 und wurde mit ca. 900.000 Euro gefördert.
KI Kompetenz
Die Studie mit dem Titel „AI Skills and Occupations in the European Start-up Ecosystem: Enabling Innovation, Upskilling and Competitiveness“ untersucht, welche Kompetenzen im Bereich Künstliche Intelligenz (KI) in europäischen Start-ups vorhanden sind und wo Weiterbildungsbedarf besteht. Auf Basis der SkillSync-Plattform wurden über 23.000 Fachkräfte in 3.600 KI-orientierten Start-ups analysiert, um regionale Unterschiede, Qualifikationslücken und Entwicklungspotenziale zu identifizieren. Die Studie zeigt, dass technologische Grundkompetenzen wie Python und maschinelles Lernen stark vertreten sind, aber insbesondere rechtliche, regulatorische und interdisziplinäre Fähigkeiten fehlen. Sie bietet datenbasierte Handlungsempfehlungen zur Förderung eines zukunftsfähigen und innovationsorientierten KI-Arbeitsmarkts in Europa.
Die Studie mit dem Titel „Digital and AI Skills in Health Occupations: What Do We Know About New Demand?“ untersucht die Auswirkungen digitaler Technologien und Künstlicher Intelligenz (KI) auf Gesundheitsberufe in OECD-Ländern. Basierend auf rund 55,5 Millionen Online-Stellenanzeigen aus Kanada, dem Vereinigten Königreich und den USA analysiert sie die Nachfrage nach digitalen und KI-Kompetenzen im Gesundheitssektor zwischen 2018 und 2023. Die Studie identifiziert dabei konkrete Kompetenzanforderungen, bewertet das Automatisierungspotenzial durch Generative KI und Robotik und hebt hervor, dass viele Gesundheitsberufe eher durch neue Technologien unterstützt als ersetzt werden. Abschließend betont sie die Bedeutung gezielter Weiterbildungsstrategien, um die Chancen des digitalen Wandels bestmöglich zu nutzen. (Manca und Eslava 2025)
KI Lehre
Die Studie in “AI education for clinicians” (Januar 2025) betont die Notwendigkeit gezielter AI-Ausbildung für Kliniker, um den sicheren und effektiven Einsatz von AI-Tools in der Medizin zu gewährleisten. Sie schlägt drei Expertise-Stufen vor: grundlegende Fähigkeiten zur Nutzung von AI-Tools, fortgeschrittene Fähigkeiten zur kritischen Bewertung und ethischen Implikationen sowie Expertenfähigkeiten für technische Innovationen. Die Autoren diskutieren Herausforderungen in der Integration von AI in medizinische Curricula, insbesondere logistische und curriculare Hürden, und empfehlen multidisziplinäre Ansätze sowie angepasste Lehrpläne für verschiedene Gesundheitssysteme und Fachrichtungen. Beispiele bestehender AI-Ausbildungsprogramme werden zur Veranschaulichung angeführt. (Schubert u. a. 2025)
KI Curriculum
Die Studie „AIFM-ed Curriculum Framework for Postgraduate Family Medicine Education on Artificial Intelligence: Mixed Methods Study“ entwickelt einen Lehrplanrahmen, um Künstliche Intelligenz (KI) in die Weiterbildung kanadischer Hausärzte zu integrieren. Durch eine Literaturrecherche und Expertenpanels entstand das AIFM-ed-Framework, das KI-Inhalte wie Grundlagen der Datenwissenschaft, Anwendung von KI-Tools (z. B. Diagnoseunterstützung, Praxisorganisation), ethische Aspekte (z. B. Datenschutz, Bias) und Bewertungsmethoden für KI-Tools umfasst. Diese Inhalte werden im 24-monatigen kanadischen Hausmedizin-Curriculum longitudinal integriert: im ersten Jahr durch Grundlagenmodule, im zweiten durch praktische Anwendungen wie Simulationen. Das Framework orientiert sich an den CanMEDS-Kompetenzen und adressiert den Bedarf an digitaler Kompetenz, wie vom College of Family Physicians of Canada gefordert. Es soll angehende Hausärzte befähigen, KI verantwortungsvoll in der Praxis einzusetzen, und fordert weitere Validierung für eine flächendeckende Implementierung. (Tolentino u. a. 2025)
Das Data-Augmented, Technology-Assisted Medical Decision Making (DATA-MD) Curriculum, entwickelt von einem interdisziplinären Team der University of Michigan, schließt die Wissenslücke von klinischem Personal bei der Bewertung und Nutzung von Künstlicher Intelligenz (KI) und Maschinenlernen (ML). Im Mai und Juni 2023 mit 23 Assistenzärzten der Inneren Medizin getestet, umfasst das Curriculum vier Module zu KI/ML-Grundlagen, Epidemiologie und Biostatistik, Unterstützung diagnostischer Entscheidungen sowie ethischen und rechtlichen Aspekten. Das Pilotprogramm zeigte signifikante Verbesserungen der Wissensstände in drei Modulen und erhöhte das Vertrauen der Lernenden in die Bewertung von KI/ML-Literatur und deren Anwendung in der klinischen Praxis. Trotz Einschränkungen wie kleiner Stichprobengröße und fehlendem Fokus auf generative KI zeigt das Curriculum Potenzial für eine breitere Anwendung in verschiedenen medizinischen Fachrichtungen und Institutionen, mit Plänen für Erweiterung und regelmäßige Aktualisierungen, um neue KI-Technologien zu berücksichtigen. (Wong u. a. 2024)
Internationaler Vergleich
Der Bericht „Trust, attitudes and use of artificial intelligence: A global study 2025“ zeigt, dass Deutschland im Vergleich zu anderen Ländern niedrige Werte bei KI-Ausbildung, -Wissen und -Kompetenz aufweist, wobei nur 20% der Befragten KI-bezogene Schulungen angaben, das Wissen bei 2,4/5 und die Kompetenz bei 4,0/7 liegt. Viele nutzen KI-Systeme regelmäßig, doch nur einige glauben, dass die Vorteile die Risiken überwiegen, und die Besorgnis über KI überwiegt Optimismus. Es wird Regulierung gefordert, bestehende Vorschriften seien unzureichend, wobei die wahrgenommene Angemessenheit von Schutzmaßnahmen von 2022 bis 2024 sank. Im Arbeitskontext stieg die regelmäßige KI-Nutzung, und die organisatorische Einführung von KI wuchs, doch die Unterstützung für verantwortungsvolle KI-Nutzung nahm ab. Das KI-Wissen blieb konstant, aber Sorgen und wahrgenommene Risiken stiegen, während Vertrauen in KI-Systeme und deren Vertrauenswürdigkeit abnahmen. Deutschland zeigt somit geringe KI-Akzeptanz, sinkendes Vertrauen und wachsende Skepsis, ähnlich wie andere fortgeschrittene Volkswirtschaften.
Privatwirtschaft
Der Artikel „Commercialization of medical artificial intelligence technologies: challenges and opportunities“ behandelt die Chancen und Herausforderungen bei der Kommerzialisierung von medizinischer Künstlicher Intelligenz (KI). Am Beispiel eines KI-Algorithmus zur Diagnose von Bauchaortenaneurysmen (AAA) durch nicht geschultes Pflegepersonal wird gezeigt, wie KI die Diagnostik verbessern kann. Der Text beschreibt wichtige Hürden wie Finanzierung, regulatorische Zulassung, Erstattung und Integration in klinische Leitlinien. Zudem wird ein erfolgreiches US-Unternehmen vorgestellt, das mit systematischem Vorgehen und früher Berücksichtigung regulatorischer Aspekte mehrere KI-Produkte erfolgreich auf den Markt gebracht hat. Insgesamt plädieren die Autoren dafür, die Kommerzialisierung von Beginn an in die Entwicklung medizinischer KI einzubeziehen, um den klinischen Nutzen zu maximieren. (Li, Powell, und Lee 2025)
Regulatorik
Der Artikel „Regulation of AI: Learnings from Medical Education“ von Vokinger, Soled und Abdulnour, veröffentlicht im April 2025 in NEJM AI, beleuchtet die regulatorischen Herausforderungen bei der Integration von künstlicher Intelligenz (KI) in das Gesundheitswesen aufgrund ihrer dynamischen und intransparenten Natur. Die Autoren schlagen ein KI-CBME-Lebenszyklus-Framework vor, das Parallelen zur kompetenzbasierten medizinischen Ausbildung (CBME) zieht. Dieses Framework übernimmt die fünf Kernkomponenten von CBME – Kompetenzdefinition, schrittweises Vorgehen, maßgeschneiderte Lernerfahrungen, kompetenzorientierter Unterricht und standardisierte Bewertung – zur Regulierung von KI-Systemen. Es betont kontinuierliche, ergebnisorientierte Bewertungen in Produktionsumgebungen, um Patientensicherheit, Verantwortlichkeit und Vertrauen zu gewährleisten und gleichzeitig das Potenzial von KI im Gesundheitswesen zu maximieren. (Vokinger, Soled, und Abdulnour 2025)
Die Studie “A general framework for governing marketed AI/ML medical devices” bietet die erste systematische Untersuchung der Überwachung nach Markeinführung von künstlicher Intelligenz und maschinellem Lernen (KI/ML) basierten Medizinprodukten durch die US-amerikanische Food and Drug Administration (FDA). Sie analysiert die Datenbank „Manufacturer and User Facility Device Experience“ (MAUDE), das zentrale Instrument der FDA zur Verfolgung der Sicherheit von etwa 950 zwischen 2010 und 2023 zugelassenen KI/ML-Medizinprodukten. Die Autoren identifizieren erhebliche Schwächen im bestehenden Meldesystem, insbesondere die unzureichende Erfassung spezifischer Probleme wie Konzeptdrift, Kovariatenverschiebung und Bias, die für KI/ML-Geräte charakteristisch sind. Die Studie charakterisiert die gemeldeten unerwünschten Ereignisse, hebt die hohe Konzentration von Berichten bei wenigen Geräten hervor (über 98 % der Ereignisse betreffen weniger als fünf Geräte) und zeigt, dass fehlende Daten, wie Ereignisort oder Berichterstellerinformationen, die Analyse erschweren. Sie schlägt Verbesserungen des Meldesystems vor, darunter eine bessere Standardisierung und Vollständigkeit der Daten, um die Sicherheit und Wirksamkeit von KI/ML-Geräten effektiver zu überwachen. Abschließend wird diskutiert, ob ein grundsätzlich neuer regulatorischer Ansatz erforderlich sein könnte, um den einzigartigen Herausforderungen dieser Technologien gerecht zu werden. (Babic u. a. 2025)
Der Bericht „Adverse Event Reporting for AI: Developing the Information Infrastructure Government Needs to Learn and Act“ betont, dass Vorabtests allein nicht ausreichen, um alle Risiken von KI-Systemen zu erkennen. Viele gefährliche oder unerwartete Probleme treten erst nach der Veröffentlichung in der Praxis auf, weshalb ein fortlaufendes Meldesystem für Vorfälle notwendig ist. Solche Systeme ermöglichen es Behörden und Unternehmen, echte Gefahren frühzeitig zu erkennen und darauf zu reagieren. Der Bericht hebt hervor, dass bewährte Modelle aus anderen Bereichen wie Medizin oder Cybersicherheit als Vorbild dienen können. Durch klare Meldepflichten, Kooperationen mit Forschungseinrichtungen und den Austausch von Daten kann ein adaptives und effektives Überwachungssystem aufgebaut werden, das die Sicherheit von KI langfristig verbessert.
Die Studie „How AI challenges the medical device regulation: patient safety, benefits, and intended uses“ untersucht, ob die EU-Medizinprodukteverordnung (MDR) den neuartigen Risiken von KI-basierten Medizinprodukten, insbesondere bei medizinischen Bildgebungstools, ausreichend begegnet. Die Autorinnen analysieren, ob die momentanen Vorgaben der MDR Aspekte wie Adaptivität, Autonomie, Bias, Intransparenz und Vertrauenswürdigkeit von KI-Anwendungen ausreichend berücksichtigen. Zudem wird kritisch hinterfragt, inwiefern die von Herstellern formulierten Nutzenversprechen im Rahmen der MDR tatsächlich mit dem realen klinischen Nutzen für Patientinnen übereinstimmen. Die Studie kommt zu dem Schluss, dass die MDR zwar wichtige Sicherheitsanforderungen setzt, jedoch in Bezug auf KI-Anwendungen eine Lücke zwischen erwartetem und tatsächlichem Patientennutzen bleibt, die regulatorisch besser adressiert werden muss. (Onitiu, Wachter, und Mittelstadt 2024)
Die Studie „Lessons from the Failure of Canada’s Artificial Intelligence and Data Act“ analysiert die Gründe für das Scheitern des kanadischen Gesetzes zur Regulierung von Künstlicher Intelligenz (AIDA). Das Gesetz war zu allgemein gefasst, ungenau und enthielt keine sektorspezifischen Regelungen, was besonders im Gesundheitswesen problematisch ist. Viele wichtige Aspekte wie Sicherheit, Transparenz, Bias und Datenschutz blieben unzureichend geregelt. Die Autoren betonen die Notwendigkeit einer gezielten, partizipativen und klar geregelten Gesetzgebung, um Innovationen verantwortungsvoll zu fördern und gleichzeitig Patientenschutz und ethische Standards zu gewährleisten. (Ishaque, Aidid, und Zadeh 2025)
Der Text erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit und stellt keine Rechtsberatung dar. Anmerkungen können in der rechten Seitenleiste mit Hypothes.is sozialem Annotierungswerkzeug oder am unteren Ende einer Seite mit GitHub Giscus Diskussionen hinterlassen werden.