Zahnaerztliche Mitteilungen Nr. 6

GESELLSCHAFT | 75 zm115 Nr. 06, 16.03.2025, (461) den betonen, dass eine Bewertung und Steuerung von KIVorhersagemodellen wichtig sei, um sicherzustellen, dass die Modelle dem FAVES-Standard entsprechen. Das Kürzel steht für fair, appropriate, valid, effective, and safe (fair, angemessen, gültig, wirksam und sicher). Nach der Executive Order des Weißen Hauses zur sicheren, geschützten und vertrauenswürdigen Entwicklung und Nutzung künstlicher Intelligenz vom 13. Dezember 2023 hatten sich 28 große Leistungserbringer und Kostenträger eine freiwillige Selbstverpflichtung unterzeichnet und sich dem FAVES-Standard verpflichtet. Paige Nong et al., Current Use And Evaluation Of Artificial Intelligence And Predictive Models In US Hospitals, Health Affairs 2025 44:1, 90-98, https://doi. org/10.1377/hlthaff.2024.00842 KÖRPERVERLETZUNGEN DURCH KI-TOOLS So kann man Haftungsrisiken abwägen Wie man die Vorteile des Einsatzes von KI-Tools in der Gesundheitsversorgung gegen mögliche Haftungsrisiken abwägen kann, erörtert die Jura-Professorin Michelle Mello von der Stanford University im New England Journal of Medicine (NEJM). Obwohl sich Mellos Analyse auf die Rechtslage in den USA bezieht, sind viele ihrer Beobachtungen auch für Ärztinnen, Ärzte und Gesundheitseinrichtungen hierzulande interessant. Der Aufsatz „Verständnis des Haftungsrisikos beim Einsatz von KI-Tools im Gesundheitswesen“ basiert auf der Auswertung gerichtlicher Stellungnahmen in Schadensersatzfällen. Dafür überprüften die Juristin und ihr Team 803 Einzelklagen und identifizierten 51 Fälle zu softwarebezogenen Fehlern, die Körperverletzungen verursacht hatten. Die Fälle bezogen sich beispielsweise auf fehlerhafte Benutzeroberflächen in Medikations-Softwares, die zu Fehlern in der Verschreibung von Arzneimitteln geführt hatten. Auch Fehlfunktionen von KI-Anwendungen, die in Medizinprodukten wie Implantaten oder Monitoring-Geräten zum Einsatz kamen, waren darunter. Diese Risiken, empfiehlt die Expertin, sollten Gesundheitseinrichtungen jedoch nicht davon abhalten, den sinnvollen Foto: TonikTech - stock.adobe.com Einsatz von KI-Tools in der Versorgung zu prüfen. „KI ist keine einzelne Technologie, sondern eine heterogene Gruppe mit unterschiedlich schweren Haftungsrisiken“, schreibt Mello. „Die Identifizierung von besonders riskanten KI-Tools kann das Risikomanagement von KI-Anwendungen im klinischen Alltag erleichtern.“ Geeignete Fragen in diesem Zusammenhang sind aus ihrer Sicht: Wie gut passen die zugrundeliegenden Trainingsdaten der KI zu den Patientinnen und Patienten, deren Behandlung unterstützt werden soll? Welche Möglichkeiten der Fehlererkennung bietet ein Tool, das heißt, wie hoch ist die Wahrscheinlichkeit, dass Ärztinnen und Ärzte Fehler rechtzeitig entdecken und beheben? Darüber hinaus empfiehlt die Juristin nicht zu vergessen, dass KI-Modelle häufig aktualisiert werden. Bei Rechtsstreitigkeiten könnte es relevant werden, Aussagen der KI auf dem Stand derjenigen Software-Version zu reproduzieren, mit der sie getätigt wurden. „Modell-Inputs und -Outputs sowie Software-Versionen sollten zum Zeitpunkt der Behandlung dokumentiert werden, zusammen mit den Gründen, warum die Ärztinnen und Ärzte den Empfehlungen des Modells folgten oder davon abwichen.“ Mello MM, Guha N. Understanding Liability Risk from Using Health Care Artificial Intelligence Tools. N Engl J Med. 2024 Jan 18;390(3):271-278. doi: 10.1056/ NEJMhle2308901. PMID: 38231630. WARANTEC - Perfekte Verbindung für perfekte Ergebnisse!

RkJQdWJsaXNoZXIy MjMxMzg=