Anzeige

Bildgebung in der zahnmedizinischen Diagnostik

Künstliche Intelligenz zur Bildanalyse in der Zahnmedizin – Wunsch oder Wirklichkeit?

Bildgebende Diagnostik ist aus der Zahnmedizin nicht wegzudenken: Allein in Deutschland werden jedes Jahr ca. 55 Millionen zahnärztliche Röntgenbilder angefertigt; die Zahnmedizin fertigt mehr Röntgenbilder an als fast alle anderen medizinischen Disziplinen zusammen [12,2]. Dazu kommen weitere Bildgebungsverfahren wie Fotografie, intraorale Kameras oder dreidimensionale Scanner. In der Karies- und Parodontitisdiagnostik, der Endodontie, der Herstellung vor allem von keramischen Restaurationen und Zahnersatz, der chirurgischen Diagnostik und Therapieplanung sowie der kieferorthopädischen Planung und Verlaufskontrolle sind bildgebende Verfahren allgegenwärtiger Bestandteil der täglichen Praxis.

Placeholder – News shutterstock

Gerade die Diagnostik in der Zahnmedizin setzt stark auf Bildgebung; approximale Karies, parodontaler Knochenabbau, apikale Läsionen und anatomische Strukturen werden oft bildgebend, vor allem röntgenologisch, detektiert und/oder beurteilt. Allerdings leiden diese Diagnostikverfahren (wie auch andere, nicht bildgebende Verfahren, z.B. die visuell-taktile Kariesdetektion oder die parodontale Sondierung) an einer bedingten Validität; sie unter- oder überschätzen oft das Vorhandensein oder den Schweregrad einer Erkrankung (einer kariösen Läsion, eines parodontalen Knochenabbaus etc.). Oftmals ist die Diagnostik zudem erfahrungsabhängig; erfahrene Untersucher zeigen bessere diagnostische Ergebnisse. Zwischen verschiedenen Untersuchern kommt es regelmäßig zu einer diagnostischen Abweichung; die Reliabilität röntgenologischer Diagnostiken ist begrenzt. Im Ergebnis kommen verschiedene Untersucher zu verschiedenen Diagnosen und Therapien. Weiterhin ist die Befundung von Bildmaterial aufwendig. Die vollständige Beurteilung einer Panoramaschichtaufnahme ist zeitintensiv, müssen doch eine große Zahl anatomischer Strukturen (Kieferknochen, Kiefergelenke, Kieferhöhlen) beurteilt, die Zahl und der Zustand der Zähne untersucht und etwaige pathologische Auffälligkeiten (Karies, Knochenabbau, apikale Läsionen) bzw. ihre röntgenologischen Zeichen (überwiegend Aufhellungen, bei Speichelsteinen oder odontogenen Tumoren etc. aber auch Verschattungen) detektiert und bewertet werden. Die Dokumentation dieser Befunde sollte zudem systematisch und detailliert sein, um Verlaufskontrollen zu ermöglichen, eine Therapieplanung darauf aufzubauen und um forensisch abgesichert zu sein. Gerade die Verlaufskontrolle ist oftmals nicht einfach, denn viele Bilder werden nicht standardisiert angefertigt und können demnach z.B. nur bedingt verglichen werden.

Zusammenfassend sind bildgebende Verfahren in der Zahnmedizin unverzichtbar, diese leiden aber an teils stark begrenzter Validität und Reliabilität. Zudem ist für eine evidenzgestützte, individualisierte und risikoadjustierte Therapie eine ausgiebige, systematische Befundung und Dokumentation und die Verknüpfung dieser Befunde mit anderen Daten, z.B. aus dem klinischen Befund, nötig. Hier kann der Einsatz von Verfahren der Künstlichen Intelligenz (KI, engl. Artificial Intelligence [AI]) zukünftig Unterstützung leisten.

Künstliche Intelligenz: Was ist das?

Abb. 1: Als KI versteht man Maschinen, die in der Lage sind, Aufgaben zu übernehmen, die normalerweise nur von Menschen zu bewerkstelligen sind. Maschinelles Lernen ist eine Unterkategorie in der KI-Forschung, in der es darum geht, in Daten statistische Muster und Strukturen zu erkennen, die es erlauben, Vorhersagen für bisher nicht gesehene Daten zu treffen. „Deep learning“ ist eine Ausprägung des maschinellen Lernens, in der vielschichtige (tiefe) neuronale Netzwerke trainiert werden, um Zusammenhänge in den komplexen Datenstrukturen (z.B. Bilddaten oder Sprache) zu erlernen. Icons von Luisa Iborra, Freepik und Sachin Modgekar
Abb. 1: Als KI versteht man Maschinen, die in der Lage sind, Aufgaben zu übernehmen, die normalerweise nur von Menschen zu bewerkstelligen sind. Maschinelles Lernen ist eine Unterkategorie in der KI-Forschung, in der es darum geht, in Daten statistische Muster und Strukturen zu erkennen, die es erlauben, Vorhersagen für bisher nicht gesehene Daten zu treffen. „Deep learning“ ist eine Ausprägung des maschinellen Lernens, in der vielschichtige (tiefe) neuronale Netzwerke trainiert werden, um Zusammenhänge in den komplexen Datenstrukturen (z.B. Bilddaten oder Sprache) zu erlernen.

Der Begriff „Künstliche Intelligenz“ kam erstmals in den 50er- Jahren des letzten Jahrhunderts auf (Abb. 1). Schon damals erzeugte die Idee, Maschinen zu entwickeln, die in der Lage sind, Aufgaben zu übernehmen, die normalerweise nur von Menschen zu bewerkstelligen sind, Begeisterung (aber auch Abwehr). Grundlage ist die Entwicklung eines mathematischen Modells, die neuronale Einheit („neural unit“), das inspiriert vom menschlichen Gehirn die Funktionsweise einer Nervenzelle nachahmt [17].

Anzeige

Kurz darauf erfolgte die Weiterentwicklung dieses Modells, indem einzelne neuronale Einheiten kombiniert wurden, um ein künstliches neuronales Netzwerk (Artificial Neural Network [ANN oder kurz NN]) zu schaffen. Seit diesem Meilenstein in der KI-Forschung kam es immer wieder, auch getrieben durch überzogene Erwartungen und technische Limitationen (z.B. die Rechenleistung von Computern), zu Rückschlägen und einem Vertrauensverlust in die Leistungsfähigkeit neuronaler Netzwerke (sog. „AI Winter“). Aktuell befinden wir uns in einer Phase der KI-Forschung, in der die Erwartungen enorm hoch und die Verheißungen vielversprechend sind. Das gilt insbesondere deshalb, da aktuell 3 Trends zu einer Gemengelage führen, die bessere Bedingungen als jemals zuvor in der Geschichte der KI-Forschung schafft.

  1. Die Datenexplosion im digitalen Zeitalter: Allein im Gesundheitssektor nimmt die erzeugte Datenmenge jährlich um 48% zu. Im Jahr 2020 sollen in etwa 2.300 Exabytes (eine Zahl mit 18 Nullen!) an gesundheitsbezogenen Daten existieren [21].
  2. Die enorme Steigerung der Rechenkapazitäten durch Anwendung spezialisierter Chips (in der Regel Grafikkartenchips oder Weiterentwicklungen davon).
  3. Die Verbesserung von Algorithmen, die es ermöglichen, immer komplexere und tiefere Netzwerkarchitekturen – daher der Begriff „deep learning“ – zu trainieren [13].

Um neuronale Netzwerke in nützliche Werkzeuge zu überführen, müssen diese mit Daten trainiert werden. Hierfür wird das neuronale Netzwerk wiederholt sowohl mit Daten als auch dem zu erwartenden Ergebnis gefüttert. Das Ziel dieser speziellen Form des Lernens, dem sogenannten überwachten Lernen („supervised learning“), ist es, über Iteration und Wiederholung das neuronale Netzwerk dazu zu bringen, (statistische) Muster und Strukturen in den Daten zu erkennen. Ist dieser Lernprozess erfolgreich, ist das neuronale Netzwerk in der Lage, für bisher nicht gesehene Daten Vorhersagen zu treffen.

Abb. 2: Die neuronale Einheit (rechts) ist der grundlegende Baustein des neuronalen Netzwerks. Sie ist ein mathematisches Modell, das durch das menschliche Neuron (links) inspiriert wurde. Kombiniert in Form eines Netzwerks und trainiert mit ausreichend Daten, ist dieses Modell in der Lage, auch komplexe Zusammenhänge von Eingangswerten abzubilden. (Abb. modifiziert nach F. Perucho bzw. A. Bornstein) F. Perucho bzw. A. Bornstein
Abb. 2: Die neuronale Einheit (rechts) ist der grundlegende Baustein des neuronalen Netzwerks. Sie ist ein mathematisches Modell, das durch das menschliche Neuron (links) inspiriert wurde. Kombiniert in Form eines Netzwerks und trainiert mit ausreichend Daten, ist dieses Modell in der Lage, auch komplexe Zusammenhänge von Eingangswerten abzubilden. (Abb. modifiziert nach F. Perucho bzw. A. Bornstein)

Um den Prozess des Trainings zu verstehen, muss man den grundlegenden Baustein des neuronalen Netzwerks, die neuronale Einheit, verstehen (Abb. 2). Die neuronale Einheit ist ein mathematisches Modell, welches eine lineare Funktion mit einer nichtlinearen Funktion kombiniert. Die lineare Funktion besteht aus einer bestimmten Anzahl von Eingangswerten und entsprechenden Gewichten (in der klassischen Statistik würde man von Koeffizienten sprechen), die multipliziert und dann aufsummiert werden. Das biologische Pendant hierzu sind der neuronale Zellkörper und die Dendriten (Zellfortsätze). Das Ergebnis dieser an sich sehr einfachen Berechnung wird daraufhin an eine nichtlineare Funktion weitergegeben, die diesen Wert transformiert. Hierzu eignet sich eine ganze Reihe von Funktionen, wie z.B. eine Sigmoid-Funktion oder die ReLU-Funktion („rectified linear unit“). Das biologische Pendant hierzu sind das Axon und die Synapsen, die ein Signal in seiner Stärke modulieren oder es nur unter bestimmten Bedingungen weiterleiten (Abb. 2).

Die Besonderheit ist nun, dass eine ausreichend große Anzahl an neuronalen Einheiten, kombiniert in Form eines Netzwerks (meist in Form vieler Schichten), jeden noch so komplexen Zusammenhang von Eingangswerten abbilden kann [22]. Die Aufgabe des Trainingsprozesses ist, die freien Parameter und die Gewichte so lange iterativ anzupassen, bis das neuronale Netzwerk bestmöglich in die Lage versetzt wurde, die zur Verfügung stehenden Eingangsdaten zu repräsentieren, um bestmögliche Vorhersagen für bisher nicht gesehene Daten zu treffen.

Abb. 3: Klassische Aufgaben im Bereich des maschinellen Sehens: Von links nach rechts nimmt der Komplexitätsgrad der Aufgabe zu. 1. Bildklassifikation, 2. Lokalisation und Klassifikation, 3. Objektdetektion, 4. pixelweise Bildsegmentierung. NVIDIA, Deep Learning Institute
Abb. 3: Klassische Aufgaben im Bereich des maschinellen Sehens: Von links nach rechts nimmt der Komplexitätsgrad der Aufgabe zu. 1. Bildklassifikation, 2. Lokalisation und Klassifikation, 3. Objektdetektion, 4. pixelweise Bildsegmentierung.

Eine besondere Form neuronaler Netzwerke findet Anwendung im maschinellen Sehen („computer vision“). Aufgaben in diesem Feld sind u.a., Bilddaten zu klassifizieren oder Objekte in einem Bilddatensatz zu detektieren, um sie daraufhin zu klassifizieren (Abb. 3). Für diese Aufgabe kommen sogenannte konvolutionäre neuronale Netzwerke („convolutional neuronal networks“) zur Anwendung. Sie besitzen eine besondere Eigenschaft, nämlich, dass die Netzwerkgewichte im Wesentlichen Bildfilter darstellen, die in der Lage sind, Farben, Kanten, Ecken, Rundungen, Strukturen und komplexere Formen zu erlernen. Kombiniert man diese Bildfilter mit Elementen eines klassischen neuronalen Netzwerks, ist es möglich, u.a. Bilder zu klassifizieren sowie Objekte wie z.B. menschliche Gesichter auf Bildern oder in Videos zu erkennen sowie deren empathischen Ausdruck zu kategorisieren [13].

KI in der (Zahn-)Medizin

Techniken des maschinellen Lernens und im Speziellen des maschinellen Sehens wurden bisher erfolgreich in der Medizin, zum Beispiel der Ophthalmologie und Dermatologie, eingesetzt [1,5, 6,16]. In diesen Fachgebieten konnten diese Techniken teilweise gleich gute oder sogar bessere Genauigkeiten realisieren als Experten des jeweiligen Faches. Die eingesetzten neuronale Netzwerke wurden teils auf mehreren Zehntausend Bildern trainiert; dabei wurden mitunter Zehn- oder Hunderttausende von Bildbewertungen vorgenommen (weil ein Bild durch mehrere Untersucher befundet wurde). Auch in der Radiologie, z.B. zur Befundung von Lungenröntgenaufnahmen, werden diese Techniken mittlerweile angewandt.

Neuronale Netzwerke sind besonders geeignet für eng definierte Spezialaufgaben. Das heißt umgekehrt, dass es für jede Aufgabe ein spezialisiertes neuronales Netzwerk entwickelt werden muss. Um wirklich umfänglich Bildmaterial auf verschiedenste Pathologien hin befunden zu können, sind daher verschiedenste neuronale Netzwerke und ein großer Befundungsaufwand notwendig. Sind diese neuronale Netzwerke jedoch einmal trainiert, können schnell auch große Bilddatensätze analysiert werden.

Abb. 4: Erkennung von Restaurationen durch neuronale Netzwerke auf Panoramaschichtaufnahmen. Oben: der Rohdatensatz; unten: die durch das neuronale Netzwerk erkannten Strukturen (Vorhersagen). Verschiedene Farben codieren verschiedene Restaurationstypen. Grenzfälle sind von Systemen dieser Art teilweise schwer zu diskriminieren, beispielsweise ist die Restauration auf 47 als Krone identifiziert worden. Dr. Krois
Abb. 4: Erkennung von Restaurationen durch neuronale Netzwerke auf Panoramaschichtaufnahmen. Oben: der Rohdatensatz; unten: die durch das neuronale Netzwerk erkannten Strukturen (Vorhersagen). Verschiedene Farben codieren verschiedene Restaurationstypen. Grenzfälle sind von Systemen dieser Art teilweise schwer zu diskriminieren, beispielsweise ist die Restauration auf 47 als Krone identifiziert worden.

Auch in der Zahnmedizin sind diese Techniken bereits in Studien eingesetzt worden. So wurde beispielsweise die Detektion und Klassifikation von Zähnen auf zahnmedizinischen Röntgenbildern, unter anderem Panoramaschichtaufnahmen, erprobt [10,11]. Hierbei scheinen neuronale Netzwerke in der Lage zu sein, Zähne auf solchen Bildern zu detektieren und mit hoher Genauigkeit den korrekten Zahnnamen zuzuordnen. Eine solche Klassifikation ist Grundlage für die anschließende zahnbezogene Befundung und Dokumentation – und technisch nicht unbedingt weniger anspruchsvoll als die Detektion und Klassifikation von Pathologien (was die Unterschiede zwischen menschlichem und maschinellem Lernen und Erkennen verdeutlicht – Zahnärzte sehen die Zahnerkennung auf solchen Bildern sicher nur selten als Schwierigkeit an!). Auch Restaurationen und weitere nichtpathologische – aber eben auch nicht natürliche – Strukturen können durch neuronale Netzwerke detektiert werden (Abb. 4).

Auch sind neuronale Netzwerke in der Lage, bestimmte Pathologien zu erkennen. So konnten auf Einzelbildern und auch auf Panoramaschichtaufnahmen parodontaler Knochenabbau sowie auf letzteren Bildmaterialien auch apikale Läsionen mit relativ hoher Genauigkeit detektiert werden [3,10,11,15]. Auch wurden neuronale Netzwerke für die Detektion von Karies auf Bissflügelaufnahmen genutzt [14]. Die entwickelten neuronalen Netzwerke sind ungefähr ebenso genau wie erfahrene Vergleichszahnärzte. Allerdings sind sie selten deutlich besser und sicherlich sind zahnärztliche Spezialisten momentan mindestens genauso exakt oder sogar genauer als neuronale Netzwerke, wenn sie ausreichend Zeit für die Befundung haben und eine entsprechende Systematik an den Tag legen. Gerade die Zeitdauer, die zur Befundung zur Verfügung steht, hat einen dramatischen Einfluss auf die Genauigkeit; ebenso hat die Erfahrung eines Zahnarztes einen relevanten Einfluss hierauf. Zusammenfassend sind diese Techniken gerade in der Medizin bereits Gegenstand intensiver Forschungsbemühungen. In der Zahnmedizin stecken sie noch in den Kinderschuhen; insgesamt sind die bisherigen Ergebnisse aber auch hier vielversprechend. Wenig untersucht sind allerdings die Robustheit dieser Modelle und die möglichen Verzerrungen, denen ihre Ergebnisse unterliegen.

Offene Fragen und Risiken

So sind gerade im Prozess der Generierung der Daten, die den neuronalen Netzwerken zugrunde liegen, und damit auch in der Belastbarkeit und Verallgemeinerbarkeit des neuronalen Netzwerks zahlreiche Aspekte nicht immer klar:

1. Viele in der Zahnmedizin angewandte neuronale Netzwerke sind auf relativ kleinen Fallzahlen bzw. Datensätzen entwickelt worden [4]. Teilweise sind sie nur innerhalb dieses Datensatzes „naiv“ überprüft worden (die berichteten Genauigkeiten geben an, wie gut das neuronale Netzwerk den vorhandenen Datensatz gelernt hat, nicht aber, wie gut es mit diesen Informationen auf „neuen“ Daten funktioniert) oder durch sogenannte Kreuzvalidierung (ein immer neuer Teil des Datensatzes wird zufällig nicht in das Training mit einbezogen, sondern „beiseite“ gelegt und dann zum Testen eingesetzt). Eine Validierung auf einem komplett anderen Datensatz (z.B. einem Datensatz aus einer anderen Klinik, einer anderen Bevölkerungsgruppe oder Ethnie oder an Daten, die mit anderen bildgebenden Verfahren/Geräten generiert wurden) ist bisher nicht erfolgt.

2. Auch im Berichtswesen dieser Studien herrschen wenige Standards. So bleibt oft unklar, welche Patienten beziehungsweise welches Bildmaterial in die endgültigen Datensätze aufgenommen wurden, also welche Ein- und Ausschlusskriterien angelegt wurden, und wie diese die neuronale Netzwerke beeinflussen. Im Ergebnis ist selten klar, ob die generierten neuronale Netzwerke auch auf andere Population übertragbar und frei von Verzerrungen sind. Auch werden häufig verschiedene Metriken zur Beschreibung der Modellgenauigkeit eingesetzt; teilweise sind diese in der medizinischen Domäne wenig bekannt und medizinisch nützliche Metriken wie Vorhersagewerte werden nicht berichtet [4]. Mitunter wird bei der Darstellung der Modellergebnisse zudem nicht deutlich, ob die Modelle wirklich nützlich sind: So sind selbst Modelle, die teilweise hohe Genauigkeiten („accuracy“) aufweisen, mitunter nicht nützlicher als einfaches Raten. So ist es beispielsweise bei relativ seltenen Pathologien (z.B. apikalen Läsionen in jüngeren Bevölkerungsgruppen) durchaus möglich, mit der Annahme, ein Zahn oder Patient weise keinerlei apikale Läsionen auf, hohe Genauigkeiten zu erzielen – ganz einfach, weil die Wahrscheinlichkeit eines solchen Befundes so hoch ist. Ein Modell, das immer „gesund“ annimmt bzw. vorhersagt, ist allerdings klinisch wenig nützlich.

3. Ein allgemeines Problem bei vielen Studien in diesem Feld ist die Frage des „Goldstandards“ beziehungsweise Referenztests. Üblicherweise werden diagnostische Tests (z.B. Biomarker) gegen einen Goldstandard getestet, der die „Wahrheit“, also den wahren Erkrankungszustand, mit hoher Genauigkeit erfasst. So wurden beispielsweise in zahlreichen In-vitro-Studien neue Kariesdetektionsmethoden gegen einen histologischen oder mikroradiografischen Standard geprüft, unter der Annahme, diese Methoden würden mit hoher Sicherheit anzeigen, ob Karies vorhanden ist (den wahren Gesundheitszustand eines Zahnes also gut beschreiben). In Studien, wie sie im Bereich der medizinischen KI-Forschung jedoch häufig sind, ist dies nicht immer möglich: Der ganz überwiegende Teil des Bildmaterials, an dem die neuronale Netzwerke trainiert und getestet werden, stammt aus der klinischen Routineerfassung. Eine histologische oder mikroradiografische, also zerstörende Analyse und damit eine sichere Feststellung, ob Karies vorhanden ist oder nicht, ist hier nicht möglich. In den beschriebenen Studien kommt ein anderes Prinzip zum Tragen: Statt „eines“ Standards werden viele Standards eingesetzt, oftmals bewerten (annotieren) mehrere (teilweise deutlich mehr als 5) erfahrene Zahnärzte dasselbe Bild. Hierdurch erhofft man sich, die Ungenauigkeit, die durch die subjektive Befundung durch einzelne Zahnärzte in das Modell eingetragen würde, zu reduzieren (der einzelne Zahnarzt ist ein relativ ungenauer Referenztest und das neuronale Netzwerk, das an den so gewonnenen Daten trainiert würde, kann nie besser sein als dieser einzelne Zahnarzt). Die Logik ist also: Umso mehr Zahnärzte ein Bild befundet haben, umso besser die Qualität des daraus erwachsenden Referenztests und damit des zu entwickelnden neuronalen Netzwerks.

Allerdings stellen sich auch hier diverse Fragen. Unter anderem ist unklar, nach welchen Regeln aus diesen Mehrfachbefunden nun die „Wahrheit“ (Zahn krank oder gesund) generiert werden soll. Soll es z.B. eine Mehrheitsentscheidung geben? Wenn ja, mit welchem Mehrheitsvotum? Werden nur Bilder, bei denen 70% oder 80% der Zahnärzte denselben Befund festgelegt haben, in den Datensatz miteinbezogen und alle anderen Daten verworfen? Was würde dies allerdings für das Verzerrungsrisiko bedeuten, dem das Modell und seine Ergebnisse unterliegen, was für die Generalisierbarkeit? Um die Schwierigkeiten dieser „ungenauen“ (englisch „fuzzy“) Goldstandards abzuschwächen, wird empfohlen, möglichst weitere Tests zur sogenannten Triangulation einzusetzen [20]. So kann bei der Kariesbefundung zusätzlich zur Mehrfachbewertung des Röntgenbildes auch eine klinische Untersuchung eingesetzt werden, bei der beispielsweise die Zähne approximal separiert wurden, um auch die Approximalflächen visuell beurteilen zu können. Bei Röntgenbildern, auf denen parodontaler Knochenabbau detektiert werden soll, können neben der röntgenologischen Befundungen Attachmentverlustmessungen oder andere klinische Messungen (intraoperative Knochenbefunde, bone sounding) erhoben werden. Sollen apikale Läsionen detektiert werden, könnte beispielsweise der Sensibilitätsstatus eines Zahnes in die Bewertung, ob eine Läsion wahrscheinlich oder eher unwahrscheinlich ist, mit einbezogen werden. Allerdings sind auch all diese Tests ungenau und mit Fehlern behaftet. Insgesamt stellt die Herstellung eines Referenztests beziehungsweise Goldstandards eine große Herausforderung dar.

4. Schlussendlich müssen sich neuronale Netzwerke auch dem Vorwurf aussetzen lassen, eine „Black Box“ zu sein: Durch deren zugrunde liegende komplexe mathematische Struktur ist es nicht möglich, ohne Weiteres darauf zu schließen, welche Bildkomponenten (sogenannte „Features“) von dem Modell bei seinen Entscheidungen (z.B. Karies vorhanden/nicht vorhanden) verwendet werden. Dies macht diese Modelle anfällig für unbeobachtete Verzerrung: Möglicherweise werden nicht jene Features, die Ärzte und Zahnärzte zur Entscheidung heranziehen, eingesetzt, sondern Artefakte. Dies hätte gravierende Konsequenzen, wenn das Modell an anderen Daten als den Trainingsdaten (wo es offensichtlich mit dem Lernen von Artefakten erfolgreich war) eingesetzt würde [18,7].

Mittlerweile gibt es eine Reihe von Visualisierungstechniken, mit denen die vom neuronalen Netzwerk angesprochenen Bildbereiche (Features) dargestellt werden können; zudem existiert eine Vielzahl von Methoden, mit denen etwaige Verzerrungen detektiert werden sollen. Gerade bei der Visualisierung der vom Modell eingesetzten Features sollte aber berücksichtigt werden, dass diese Modelle möglicherweise wirklich Muster erkennen, die dem menschlichen Auge nicht zugänglich sind: Eine mangelnde Logik aus unserer Sicht muss deshalb nicht zwingend für eine Verzerrung des Modells sprechen, sondern kann eine „superhumane“ Genauigkeit anzeigen. Nichtsdestotrotz sollten solche Befunde stets kritisch hinterfragt werden. In der Zahnmedizin sind die Bemühungen in Richtung „explainable artificial intelligence“ (also des „Öffnens“ der Black Box) bisher kaum ein Thema.

Zukünftige Entwicklungen

© A. Limbach/fotolia A. Limbach/fotolia
© A. Limbach/fotolia

Auch wenn sich momentan zahlreiche Fragen hinsichtlich der Robustheit und Generalisierbarkeit von KI-Modellen in der Medizin und Zahnmedizin stellen und auch wenn die meisten Modelle bisher nicht besser, aber ähnlich genau wie menschliche Experten sind, lassen die Entwicklungen der letzten Jahre viel Potenzial erwarten. Insgesamt kumulieren zurzeit 3 Trends, die die Medizin und Zahnmedizin womöglich verändern, wenn nicht sogar revolutionieren könnten (bei Letzterem ist allerdings Vorsicht angezeigt: Übertriebene Hoffnungen sind in der Vergangenheit nicht mit zeitnahen klinischen Verbesserungen belohnt worden; so sind in der Zahnmedizin die Früchte der „Omics“-Technologien bisher in der Routineversorgung nicht greifbar geworden).

Die 3 Trends sind:

  1. Massiv gesteigerte technische Möglichkeiten, u.a. durch den Einsatz immer leistungsfähiger werdender Prozessoren oder auch der Übertragung von Erkenntnissen aus anderen Bereichen der KI-Forschung (Techniken, Modellen und Algorithmen) in die Zahnmedizin.
  2. Umfänglichere Befunddaten: Große Datensätze, die verschiedene Diagnoseverfahren im selben Patienten vereinen (z.B. Anamnesedaten, klinische Befunde, klassische Röntgenbilder, DVT-Bilder, Scans oder Fotos) und Patienten über längere Zeiträume nachverfolgen, erlauben ein bisher nicht mögliches „tiefes“ Verständnis des einzelnen Patienten; auch die genannten „Omics“-Technologien (Genomanalysen, Speichelproteomanalysen, Mikrobiomanalysen) werden zunehmend eine Rolle spielen, um ein besseres „Systemverständnis“ zu erlangen (Systembiologie).
  3. Explodierende Daten, die Patienten selbst generieren und für ihre Gesundheitsfürsorge zur Verfügung stellen (z.B. über „Wearables“, also tragbare Sensoren, oder routinemäßig aufgezeichnete Gesundheitsdaten, wie sie viele Telefone heute sammeln; [9]).

Abb. 5: In der sogenannten „P4-Medizin“ kommen Daten aus Sozialen Netzwerken, der Systemmedizin/-biologie sowie weitere große Datenquellen (Versicherungsdaten etc.; „Big Data“) zusammen und werden durch die explodierenden Möglichkeiten der Digitalisierung verstärkt [8]. Das Ergebnis ist eine präzisere und personalisierte Medizin, die sich der Prävention verstärkt widmet und dabei den Patienten miteinbezieht (Partizipation) [9]. Dr. Krois
Abb. 5: In der sogenannten „P4-Medizin“ kommen Daten aus Sozialen Netzwerken, der Systemmedizin/-biologie sowie weitere große Datenquellen (Versicherungsdaten etc.; „Big Data“) zusammen und werden durch die explodierenden Möglichkeiten der Digitalisierung verstärkt [8]. Das Ergebnis ist eine präzisere und personalisierte Medizin, die sich der Prävention verstärkt widmet und dabei den Patienten miteinbezieht (Partizipation) [9].

Die Kombination dieser 3 Trends soll helfen, das Zeitalter der sogenannten stratifizierten Medizin, in der Patienten in Risikogruppen wie „hohes“ oder „niedriges“ Kariesrisiko eingruppiert werden, zu überwinden. Stattdessen sollen Patientenprofile durch die Erfassung der genannten diversen Daten deutlich genauer werden und jeder einzelne Patient eine für ihn individualisierte Diagnostik und Therapie erfahren. Dies soll ermöglichen, Patienten sichererer, risikoärmer und erfolgreicher behandeln zu können (personalisierte bzw. Präzisionsmedizin) (Abb. 5). Ebenso wird es dem individuellen Patienten zukünftig vermehrt möglich sein, seinen Gesundheitszustand zu „erleben“ und zu steuern: Patienten werden zunehmend Teil der medizinischen Versorgung, statt diese rein passiv zu „empfangen“ (partizipatorische Medizin). Die neuen Technologien sollen zudem ermöglichen, Erkrankungen früher, teilweise vor ihrem „Ausbruch“, zu erkennen und zu verhindern (Präventive statt vor allem kurative Medizin: Die Zahnmedizin ist hier bereits Vorreiter! [8,9]).

KI wird zudem die Medizin dorthin bringen können, wo sie bisher nicht möglich ist. Durch Kostenreduktion sowie der Befähigung zur „Selbstdiagnose“ (mit allen Risiken!) oder der Diagnose durch Hilfspersonal wird eine basale medizinische Versorgung möglicherweise in ländlichen Arealen großer Flächenstaaten oder generell in unterversorgten Regionen gesichert werden können. Gerade dort, wo auf absehbare Zeit der Bedarf an Medizinern nicht gedeckt werden kann, könnten Techniken der KI Entlastung bringen und breiten Bevölkerungsschichten, die bisher gar nicht versorgt werden, einen initialen Zugang zu Versorgung ermöglichen. Bis dahin ist es allerdings noch ein weiter Weg – wie beschrieben, müssen die neuronale Netzwerke besser, sicherer und generalisierbarer werden. Die Studien zu KI in der Medizin und Zahnmedizin sollten den Regeln der evidenzbasierten Medizin entsprechen.

Zusammenfassung

Bildgebung ist aus der zahnmedizinischen Diagnostik nicht wegzudenken. Die Möglichkeiten, die sich aus der Digitalisierung und „Künstlicher Intelligenz“ ergeben, werden auch in der Zahnmedizin Diagnoseassistenzsysteme entstehen lassen; diese werden zunehmend auch Therapieentscheidungen unterstützen. Der Zahnarzt bzw. die Zahnärztin werden jedoch weiterhin die Verantwortlichkeit tragen und demnach auch schlussendlich gemeinsam mit dem Patienten und Unterstützung durch KI diese Entscheidungen treffen müssen. Bei aller Begeisterung sind jedoch zurzeit noch viele Unwägbarkeiten und Unsicherheiten vorhanden, die überwunden werden müssen, bevor Künstliche Intelligenz in die Routineversorgung einzieht. Langfristig können die besseren Möglichkeiten, zunehmend große Datenmengen sinnvoll zu verarbeiten, diagnostische und therapeutische Entscheidungen sicherer, zuverlässiger und wirksamer machen. Hierbei werden Techniken der KI (z.B. neuronale Netzwerke in der Bildanalytik) eine große Rolle spielen.

Näheres zu den Autoren des Fachbeitrages: ,

Bildquellen sofern nicht anders deklariert: Unternehmen, Quelle oder Autor/-in des Artikels

Kommentare

Keine Kommentare.

Anzeige