From Global to Local Statistical Shape Priors - Novel methods to obtain accurate reconstruction results with a limited amount of training shapes
The fully automatic extraction of anatomical structures from medical image data is an ill-posed problem. Often it cannot be solved satisfactorily without taking additional high level information about the shape of the particular structure into account. Since the early 1990s, the so-called Statistical Shape Models (SSMs) have arisen as a powerful means in order to integrate this shape information into the segmentation process. Statistical shape models are used to describe the shape variability that resides within a particular object class. The needed information is thereby extracted from a set of hand-labeled training shapes. In the majority of shape models, the variability inside the object class is represented by global linear combinations of several training shapes. Yet, a widespread problem is that the number of hand-labeled training shapes is often insufficient in order to model the variability of complex object classes. This is because generating hand-segmented reference data is a tedious and time-consuming task. Common approaches to cope with this problem are to partition the shapes and to model the shape variability independently across the predefined segments or to allow artificial shape variations which cannot be explained through the training data. However, both approaches have their drawbacks. In this thesis, we propose another approach to handle the problem of limited training data without the need for any predefined segments and without allowing shape variations which cannot be explained through the training data. We call our approach the Locally Deformable Statistical Shape Model (LDSSM). Our idea is to allow a unique solution in each element of the underlying data domain and to couple the local solutions via smoothness constraints. This new formulation allows us to model complex object classes with only a few training shapes at hand. Furthermore, we provide a sound mathematical foundation in order to embed our new LDSSM as a shape prior into the well-known variational image segmentation framework, and we show how it can be used to seamlessly adapt from a globally shape constrained segmentation result to a locally shape constrained segmentation result. We demonstrate the excellent performance of our new approach in several two-dimensional as well as three-dimensional image segmentation and shape reconstruction tasks.
Die vollautomatische Extraktion von anatomischen Strukturen aus medizinischen Bilddaten ist ein sehr schwieriges Problem. Oft kann dieses Problem nicht ohne die Zuhilfenahme von zusätzlichen Informationen über die Form der zu extrahierenden Strukturen zufriedenstellend gelöst werden. Anfang der 1990er Jahre wurden aus diesem Grund die sogenannten statistischen Formmodelle vorgestellt. Sie haben sich schnell als wirksames Mittel etabliert, um die benötigten Forminformationen zu liefern. Statistische Formmodelle werden verwendet, um die Variabilität der Form innerhalb einer bestimmten Objektklasse zu beschreiben. Die benötigten Informationen werden dabei aus einer Menge von handsegmentierten Trainingsbildern extrahiert. In den meisten Formmodellen wird die Variabilität durch die Linearkombination von mehreren dieser handsegmentierten Trainingsformen dargestellt. Leider ist die Erzeugung von handsegmentierten Trainingsformen eine mühsame und zeitraubende Aufgabe. Deshalb ist deren Anzahl meist sehr begrenzt, sodass die Variabilität der entstehenden Modelle oft zu gering ist, um komplexe Objektklassen ausreichend genau zu repräsentieren. Existierende Ansätze um dieses Problem zu lösen bestehen darin, die Formen zu partitionieren und die Formvariabilität anschließend in den einzelnen Segmenten zu modellieren oder die Variabilität der Modelle durch künstliche Informationen zu erweitern, die nicht durch die Trainingsdaten erklärt werden können. Beide Ansätze haben ihre Nachteile. In dieser Arbeit schlagen wir einen anderen Ansatz vor um die Anzahl an benötigten Trainingsdaten sehr stark zu reduzieren. Unser Ansatz kommt ohne Partitionierung der Form aus und er fügt auch keine künstlichen Variationen hinzu. Wir nennen unseren Ansatz lokal deformierbares statistisches Formmodell. Unsere Idee ist es, in jedem Element des Bildbereichs eine eigene Lösung zuzulassen und diese lokalen Lösungen über Glattheitsbedingungen miteinander zu koppeln. Diese neue Formulierung ermöglicht es uns, komplexe Objektklassen mit nur wenigen vorhandenen Trainingsdaten zu modellieren. Darüber hinaus stellen wir einen mathematischen Ansatz vor, der die Verwendung unseres lokal deformierbaren Modells als Forminformation in aktuellen Bildsegmentierverfahren ermöglicht, die auf der Variationsrechnung basieren. Wir zeigen die exzellente Performanz unseres neuen Ansatzes in mehreren zwei- als auch dreidimensionalen Bildsegmentieraufgaben sowie bei der Rekonstruktion von unvollständigen Formen.
Preview
Cite
Access Statistic
Rights
Use and reproduction:
All rights reserved