Zahnaerztliche Mitteilungen Nr. 18

38 | ZAHNMEDIZIN AUS DER WISSENSCHAFT Patientenaufklärung: Wie verständlich sind KI-Texte? Peer W. Kämmerer Patientinnen und Patienten benötigen verständliche Informationen, um Symptome einzuordnen, Therapieempfehlungen zu verstehen und ihre Gesundheit aktiv mitzugestalten. Künstliche Intelligenz (KI) könnte diesen Prozess erleichtern. Doch wie gut lesbar sind ihre Texte im Vergleich zu etablierten Patientenbroschüren tatsächlich? Dieser Frage ging eine Studie aus Großbritannien nach. Der britische National Health Service (NHS) hat in seiner langfristigen Planung die Integration von KI in die Versorgung fest verankert, verbunden mit dem Anspruch, Informationen niedrigschwellig und für alle Bevölkerungsgruppen verständlich bereitzustellen. Auch hierzulande wird KI zunehmend als Werkzeug zur Patientenkommunikation diskutiert. Gleichzeitig ist bekannt, dass ein erheblicher Anteil der Erwachsenen Schwierigkeiten hat, komplexe medizinische Texte zu verstehen. Diese Diskrepanz wirft die Frage auf, inwieweit KI-gestützte Texte tatsächlich eine Hilfe darstellen. Materialien und Methoden In einer aktuellen explorativen Studie wurden die drei Large Language Models ChatGPT (GPT-4), DeepSeek (V3) und Gemini (Flash 2.5) genutzt, um Patienteninformationen zu Xerostomie, oraler Candidose und Sialolithiasis zu erstellen. Die so generierten Texte wurden mit den offiziellen NHSInformationsblättern zu denselben Erkrankungen verglichen. Zur Analyse dienten etablierte Lesbarkeitsindizes: der Flesch Reading Ease Score (FRES), die Flesch-Kincaid Grade Level (FKGL) sowie der Gunning Fog Index. Diese Metriken schätzen, auf welchem Bildungsniveau ein Text verständlich ist. Ergebnisse Die NHS-Materialien schnitten in allen Kategorien am besten ab und erreichten durchgängig eine Lesestufe, die für Schülerinnen und Schüler im Alter von 11 bis 14 Jahren geeignet ist. Unter den KI-Modellen zeigte ChatGPT die größte Nähe zu diesem Niveau, blieb aber etwas anspruchsvoller. DeepSeek generierte deutlich komplexere Texte, während Gemini die am schwersten verständlichen Informationen lieferte, teils auf einem Niveau, das eine Hochschulbildung voraussetzt. Diese Ergebnisse bestätigten sich über alle drei untersuchten Krankheitsbilder hinweg. Fazit Die Untersuchung zeigt eindeutig: LLMs können zwar bereits nützliche Informationen bereitstellen, ihre Texte erreichen in der derzeitigen Form jedoch noch nicht die Verständlichkeit professionell erstellter Materialien. Gerade in einem Bereich wie der Zahnmedizin, in dem Patientinnen und Patienten häufig einfache und praxisnahe Aufklärung benötigen, besteht die Gefahr, dass komplexe KI-Texte das Verständnis eher erschweren. Für Foto: NongAsimo-stock.adobe.com zm115 Nr. 18, 16.09.2025, (1496) Gunning Fog Xerostomia Oral Candidiasis Sialolithiasis 0 2 4 6 8 10 12 ChatGPT DeepSeek Gemini NHSUK Abb. 1: Balkendiagramm zum Vergleich der Gunning-Fog-Lesbarkeitsindexwerte von mit ChatGPT, DeepSeek und Gemini generierten Texten sowie von Patienteninformationsbroschüren des britischen Gesundheitsdienstes NHS zu den Themen Mundtrockenheit, orale Candidose und Sialolithiasis. Höhere Gunning-Fog-Werte weisen auf eine höhere Lesekomplexität aufgrund längerer Sätze und einer häufigeren Verwendung mehrsilbiger Wörter hin.

RkJQdWJsaXNoZXIy MjMxMzg=