Zahnaerztliche Mitteilungen Nr. 03

GESELLSCHAFT | 73 Foto: sdx15 - stock.adobe.com KI stellt die bessere Diagnose – und ist empathischer Ergebnis: Die KI zeigte nach Angaben von 23 prüfenden Fachärzten eine höhere diagnostische Genauigkeit und „überlegene Leistung“ bei 28 von 32 Bewertungskriterien, dazu gehörten die Genauigkeit, die Angemessenheit und die Vollständigkeit der Anamnese, die Erklärung relevanter klinischer Informationen und der Umgang mit Patientenbedenken. Die Patientinnen und Patienten bewerteten die KI in 24 von 26 Punkten höher. Dazu zählten Parameter wie Offenheit, Vertrauenswürdigkeit und Freundlichkeit des Gegenübers. Die Gesprächspartner der KI fühlten sich mehr wertgeschätzt und hatten ein größeres Vertrauen in die Diagnose und Therapieplanung. Allerdings hat die Studie laut den Autoren entscheidende Einschränkungen, vor allem weil eine Text-ChatSchnittstelle verwendet wurde, die zwar eine potenziell groß angelegte Interaktion zwischen Patienten und der KI ermöglicht, den getesteten Ärzten für Fernkonsultationen aber wenig geläufig war. „Unsere Forschung sollte mit angemessener Vorsicht interpretiert werden. Die Kliniker waren auf einen ungewohnten synchronen TextChat beschränkt, der nicht repräsentativ für die übliche klinische Praxis ist.“ Obwohl weitere Forschung erforderlich sei, bevor AMIE in reale Umgebungen übertragen werden kann, stellten die Ergebnisse trotzdem „einen Meilenstein auf dem Weg zu einer dialogdiagnostischen KI dar". mg Die Studie: T Tu, A Palepu, M Schaekermann et al., Towards Conversational Diagnostic AI, arXiv preprint, Submitted 11. Januar 2024, https://arxiv.org/ abs/2401.05654 zm114 Nr. 03, 01.02.2024, (175) WHO WARNT VOR RISIKEN BEIM KI-EINSATZ Die Weltgesundheitsorganisation WHO hat Mitte Januar einen neuen Leitfaden zum Einsatz von Künstlicher Intelligenz im Gesundheitswesen veröffentlicht. In dem 98-seitigen Papier fordert sie, dass für einen "sicheren und wirksamen" Einsatz das Engagement der Regierungen, Technologieunternehmen, Gesundheitsdienstleister, Patienten und der Zivilgesellschaft nötig sei. Als Grund dafür sieht die WHO eine Vielzahl von Risiken, die mit dem KI-Einsatz verbunden sind. Dazu gehört eine Überschätzung der Vorteile während "Herausforderungen bei ihrer Verwendung, einschließlich ihrer Sicherheit, Wirksamkeit und Nützlichkeit, ignoriert oder heruntergespielt werden". Sie warnt zudem vor einer „digitalen Kluft“ zwischen solventen Leistungsanbietern und solchen, die sich die Nutzungsgebühren der KI-Anbieter nicht werden leisten können. Dieses Risiko gelte auch auf internationaler Ebene für Länder mit einem geringen Gesundheitsetat und entsprechend insuffizienten Gesundheitssystemen. Gleichzeitig könne die Verwendung immer größerer Datensätze kodierte Verzerrungen weiter verstärken, wenn diese anschließend im gesamten Gesundheitssystem automatisiert würden. Weitere Bedenken gelten dem möglichen Verlust von Arbeitsplätzen sowie Cybersicherheitsrisiken und mangelndem Datenschutz. Das Google-System AMIE wurde im ersten Schritt mit realen Krankengeschichten und Arzt-Patienten-Gesprächen geschult. Anschließend trainierte sich das System mit simulierten Dialogen selbst, indem es jeweils einzigartige Patientenfälle erstellte und sowohl die Rolle von Patienten als auch von Ärzten, eines Moderators und eines übergeordneten Kritikers übernahm (Symbolbild).

RkJQdWJsaXNoZXIy MjMxMzg=