Zahnärztliche Mitteilungen Nr. 10

zm112, Nr. 10, 16.5.2022, (976) Die Leistungsfähigkeit von KIModellen wird maßgeblich bestimmt durch deren Datengrundlage: Ein Modell, das nur an Daten aus einer Praxis oder Klinik trainiert wurde, wird nicht zwingend in anderen Kliniken oder Praxen funktionieren. Gleiches gilt für ein Modell, das nur mit Daten einer spezifischen Gruppe – beispielsweise Senioren, Männern oder Menschen mit gutem Gesundheitszustand – entwickelt wurde. Generalisierbarkeit heißt, dass KI-Modelle solche Einschränkungen überwinden und unter verschiedenen Bedingungen zuverlässig laufen. DIE RESULTATE MÜSSEN VERALLGEMEINERBAR SEIN Zahnmedizinische KI-Anwendungen sollten demnach bei Menschen verschiedenen Alters und Geschlechts, aber auch Mundgesundheitszustands (etwa die Anzahl der Zähne, Karieserfahrung und Restaurationszustand) gleichbleibende Ergebnisse liefern. Bei der Röntgenbildanalyse sollte die KI zudem auf Bildern von Carestream so gut funktionieren wie auf Bildern von Dürr oder Morita. Nur wenn die Datengrundlage im Rahmen des Trainings divers genug war, kann das entwickelte KI-Modell auch auf unterschiedlichen Datenquellen zuverlässige Ergebnisse erzielen. So konnten wir zeigen, dass KI-Modelle zur Detektion apikaler Läsionen auf Panoramaschichtbildern, die auf Röntgenbildern aus Deutschland trainiert wurden, nicht nur die typischen Charakteristika dieser Läsionen, sondern auch andere Korrelationen lernen – beispielsweise, dass apikale Läsionen oftmals in der Nähe von Wurzelkanalfüllungen auftreten. Wird nun eine solche in Deutschland trainierte KI-Software in Regionen der Welt ohne ausreichende Gesundheitsversorgung mit dementsprechend wenig durchgeführten Wurzelkanalbehandlungen eingesetzt, wird sie scheitern: Sie „vermisst“ die nach ihrem Training zu einer apikalen Läsion gehörige Wurzelkanalfüllung. Das KI-Modell dieser Software ist nicht generalisierbar – um zuverlässig zu funktionieren, muss es auch an den Daten der jeweiligen Regionen trainiert werden. Generalisierbarkeit ist jedoch keineswegs nur ein Thema großer wirtschaftlicher oder kultureller Unterschiede, sondern kann auch in kleinem Rahmen mit unterschiedlichen Patientengruppen zwischen einzelnen Praxen Effekte erzeugen. Anwender sollten ihre KI-Software deshalb im Hinblick auf die Generalisierbarkeit kennen und möglicherweise in einer Quelle: nach F. Schwendicke, W. Samek, J. Krois: Artificial Intelligence in Dentistry: Chances and Challenges, Journal of dental research 99(7) (2020) 769–774. Transparenz durch erklärbare KI: a: Heutige KI-Modelle werden oft als Black Box wahrgenommen, weil sie zu einem Datenobjekt – hier ein Bild – eine Information („Hahn“) liefern, ohne anzugeben, wie sie zu dieser Entscheidung gekommen sind. b: Neuere Methoden zur KI erlauben die Visualisierung der für die KI relevanten Bereiche. c: Dies ermöglicht die Unterscheidung zwischen sinnvollen und sicheren Entscheidungsstrategien, zum Beispiel die Klassifizierung von Bildern eines Hahns durch die Erkennung von Kamm und Kehllappen oder die Klassifizierung von Katzen-Bildern durch die Fokussierung auf Ohren und Nase der Katze. Sogenannte Clever-Hans-Prädiktoren entscheiden hingegen auf Artefakten, zum Beispiel die Klassifizierung von Pferde-Bildern basierend auf dem Vorhandensein eines Copyright-Tags. KI IN DER ZAHNARZTPRAXIS – TEIL 4 Die KI muss ihre Ergebnisse erklären können Falk Schwendicke, Joachim Krois Künstliche Intelligenz (KI) soll dem Kliniker eine qualifizierte Zweitmeinung zur Verfügung stellen. Doch auf der Grundlage welchen Wissens? Und kann die KI „erklären“, wie sie zu Entscheidungen gelangt? Fragen, die auch jeder (menschliche) Kollege beantworten müsste, bevor er als klinischer Partner ernst genommen wird. Im Fall der KI kommen die Begriffe „Generalisierbarkeit“ und „Erklärbarkeit“ ins Spiel. 58 | ZAHNMEDIZIN

RkJQdWJsaXNoZXIy MjMxMzg=