Das Ziel dieses Projektes ist die Entwicklung von modell- und wissensbasierten Methoden zur automatischen 3D-Segmentierung diagnostisch und therapeutisch relevanter Bildobjekte in räumlichen BiIdfolgen. Modell- und wissensbasierte Segmentierungstechniken inkorporieren Vorwissen über die Form und den Kontext zu segmentierender Bildstrukturen. Durch den im Rahmen des Projektes verfolgten erweiterten Modellierungsansatz soll die Möglichkeit zur Repräsentation der natürlichen 3D-Formvariabilität medizinischer Bildstrukturen in statistischen Formmodellen deutlich erhöht und eine optimierte Ausnutzung der Forminformationen auch bei kleinen Trainingsmengen ermöglicht werden. Die erweiterten statistischen Formmodelle ermöglichen zudem die Repräsentation verschiedener Subformtypen und sollen über Segmentierungsfragestellungen hinaus auch für die Klassifikation und Erkennung verschiedener 3D-Formtypen genutzt werden. Zur robusten, simultanen Segmentierung eng benachbarter Bildobjekte wird Vorwissen über die zu segmentierenden Strukturen und ihre Umgebung in das Verfahren inkorporiert. Die neuen Methoden werden an klinisch relevanten Segmentierungsproblemen aus dem Bereich der Strahlentherapie und der computergestützten Operationsplanung evaluiert.
Wesentliches Ziel dieses Forschungsprojekts war die Entwicklung von modellbasierten Methoden zur automatischen Segmentierung von multiplen anatomischen Objekten in medizinischen Bildern. Im Rahmen des Projektes sollten die im Vorgängerprojekt entwickelten statistischen Formmodelle mit probabilistischen Punktkorrespondenzen weiterentwickelt werden, so dass neben Forminformationen über die Organe auch Vorwissen über die lokale Erscheinung (Appearance) der Objekte sowie die globalen räumlichen Nachbarschaftsbeziehungen von Organen in einem erweiterten statistisches Form- und Appearance-Modell erfasst werden. Durch Integration probabilistischer Form- und Erscheinungsmodelle in einen Segmentierungsansatz sollte die robuste und flexible Multi-Objekt-Segmentierung ermöglicht werden. Im Rahmen des Projektes wurde ein vollkommen neuartiges probabilistisches Appearance-Modell entwickelt, das ohne aufwändige initiale Korrespondenzbestimmung generiert werden kann. Positionsmerkmale, Appearance-Merkmale und Segmentierungsmerkmale werden in einer Datenrepräsentation vereint und gemeinsam optimiert. Besonders hervorzuheben ist, dass in dem entwickelten mathematischen Framework sowohl die Modellgenerierung als auch die Modelladaption mathematisch elegant als Optimierungsproblem mit einem globalen Minimierungskriterium formuliert werden kann. Es wurde ein flexibles und breit einsetzbares probabilistisches Modell zur Bildsegmentierung und –klassifikaton entwickelt. Durch die Nutzung probabilistischer Korrespondenzen anstelle von 1-zu-1-Korrespondenzen ist das entwickelte Modell unabhängig von aufwändigen Vorverarbeitungsschritten und potentiell falschen Korrespondenzbestimmungen. Die entwickelte punktbasierte Bildrepräsentation kombiniert Positions-, Appearance- und Segmentierungsmerkmale und entkoppelt sogleich die Abhängigkeit der Sample-Wahl von den Objektgrenzen. Dies führt ebenfalls zu einer gesteigerten Robustheit gegenüber Vorverarbeitungsschritten (Wahl der Sample-Punkte etc.). Die Robustheit des Ansatzes wurde durch Methoden der lokalen Regularisierung (Erweiterung des Kriteriums um die A-priori-Wahrscheinlichkeit des Modells) als auch durch die globale Regularisierung mittels Multi-Level-Ansatz weiter gesteigert. Über die ursprünglichen Projektziele hinausgehend konnte gezeigt werden, dass das entwickelte probabilistische Appearance-Modell nicht nur zur Segmentierung, sondern auch zur Bildklassifikation und Bildrekonstruktion erfolgreich eingesetzt werden kann. Das entwickelte probabilistische Appearance-Modell wurde zum einen an synthetischen Bilddaten getestet, um die erhöhte Robustheit des Modells für die in der Praxis häufig vorkommenden Situation nachzuweisen, bei denen 1-zu-1-Korrespondenzen nicht sicher oder nur stark eingeschränkt bestimmt werden können. Des Weiteren wurde das Modell erfolgreich zur Segmentierung von 2D-Röntgenbildern der Hand eingesetzt, wobei sowohl eine Segmentierung der gesamten Hand als auch eine Bestimmung von modellierten Landmarken (Fingerknochen-Zwischenräume) ermöglicht wurde. Außerdem wurden die Leistungsfähigkeit und die weiten Einsatzmöglichkeiten des neuen Modellansatzes anhand von 2D- und 3D-MRT-Kopfbilddaten nachgewiesen.
Status | abgeschlossen |
---|
Tatsächlicher Beginn/ -es Ende | 01.10.06 → 30.09.15 |
---|
2015 einigten sich UN-Mitgliedstaaten auf 17 globale Ziele für nachhaltige Entwicklung (Sustainable Development Goals, SDGs) zur Beendigung der Armut, zum Schutz des Planeten und zur Förderung des allgemeinen Wohlstands. Die Arbeit dieses Projekts leistet einen Beitrag zu folgendem(n) SDG(s):