18 | ZAHNMEDIZIN zm116 Nr. 03, 01.02.2026, (112) ten gefälscht hatte, ist sie Basis weiterer Untersuchungengeworden–diefalsche Schlussfolgerung hat sich mittlerweile bis in die US-Regierung verbreitet. Viele andere Fälschungen werden leider nicht aufgedeckt. Falsche Daten von heute sind Trainingsdaten von morgen Noch gravierender wird diese Entwicklung durch einen systemischen Kreislauf: Sobald gefälschte oder fehlerhafte Inhalte in wissenschaftliche Datenbanken oder Preprint-Server gelangen, werden sie zu einem Teil der digitalen Wissenslandschaft. KI-Suchsysteme greifen diese Inhalte auf, verarbeiten sie und verbreiten sie weiter. Modelle der nächsten Generation verwenden sie später als Trainingsdaten, ohne zu unterscheiden, ob die Informationen korrekt sind oder nicht. Dadurch entsteht ein selbstverstärkender Mechanismus, in dem falsche Evidenz nicht nur reproduziert, sondern zunehmend verfestigt wird. So können falsche Therapiekonzepte in die breite Öffentlichkeit gelangen und funktionierende Methoden ersetzen. Es besteht somit die durch KI aktiv beförderte Gefahr des „Deskilling“, ein medizinischer Wissensverlust für die nächsten Generationen. Auch die Zahnmedizin sieht sich mit einer Gefahr konfrontiert, die weit über vereinzelte Fehler hinausgeht. Gerade in Fachgebieten, in denen Studien häufig mit kleinen Fallzahlen arbeiten oder Evidenzlücken bestehen, können wenige gut platzierte Fälschungen ausreichen, um Trends zu verfälschen, therapeutische Entscheidungen zu beeinflussen oder Leitlinienprozesse systematisch zu stören. Nötig ist mehr methodische Wachsamkeit Die Integration generativer KI in wissenschaftliche Arbeitsabläufe eröffnet neue Möglichkeiten, verlangt aber eben auch eine neue Form methodischer Wachsamkeit. KI kann unterstützen, aber sie kann ebenso Evidenz verzerren, verfälschen und untergraben. Entscheidend wird sein, dass die Zahnmedizin die Risiken erkennt und verantwortungsvoll reguliert. Wissenschaftlich geschulte Fachleute, transparente Datenquellen, robuste Qualitätskontrollen und klar definierte Grenzen für den Einsatz generativer Systeme sind notwendig, um die Integrität der wissenschaftlichen Basis zu schützen. Denn eines ist sicher: Eine KI, die mit falschen Informationen gefüttert wird, erzeugt nicht nur weitere Fehler, sie vervielfältigt und streut diese global. Nur durch konsequentes kritisches Prüfen und eine enge Verbindung zwischen menschlicher Expertise und technischer Innovation wird es gelingen, die Evidenz in der Zahnmedizin vor einer schleichenden Erosion zu bewahren. n ZM-LESERSERVICE Die Literaturliste kann auf www.zm-online.de abgerufen oder in der Redaktion angefordert werden. Univ.-Prof. Dr. Falk Schwendicke, MDPH Direktor der Poliklinik für Zahnerhaltung, Parodontologie und digitale Zahnmedizin, LMU Klinikum Goethestr. 70, 80336 München Foto: Peitz/Charité Dr. Fabian Langenbach Chief Strategy Officer Deutsche Gesellschaft für Implantologie im Zahn-, Mund- und Kieferbereich e.V. Karlstr. 60, 80333 München Foto: DGI e.V. Prof. Dr. med. dent. Michael M. Bornstein Klinik für Oral Health & Medicine Universitäres Zentrum für Zahnmedizin Basel (UZB), Universität Basel Mattenstr. 40, CH-4058 Basel Foto: UZB Quelle: Fabian Langenbach Selbstverstärkende KI-Halluzinationen Genauigkeit, Compliance und Vertrauen inGefahr Halluzinationen alsOutput - Ungenaue Daten - Falsche Inhalte Verarbeitung durch das Modell - Systematisch verzerrt - Zu simpel trainiert Fehlerhafte Eingabedaten - Ungenau - Unvollständig - Verzerrt Abb. 3: Wenn fehlerhafte Eingabedaten von heute durch Modelle mit unzureichenden oder verzerrten Trainingsdaten der Vergangenheit verarbeitet werden, verstärken sich Halluzinationen in Form von ungenauen oder falschen Daten. Wenn diese ungeprüft in wissenschaftliche Datenbanken gelangen, werden sie Teil der Wissenslandschaft und damit zukünftiger Trainingsdaten von weiteren Modellen. Ein selbstverstärkender Zyklus entsteht.
RkJQdWJsaXNoZXIy MjMxMzg=