TP3: Statistische Inferenz und datengestützte Wahl von Regularisierungsparametern für die medizinische Bildgebung

Teilprojektleiter

PD Dr. Nicolai Bissantz, Prof. Dr. Holger Dette

Projektmitarbeiter

Dr. Justin Chown

Kontakt

tp3@med4d.de

Zielsetzung
Zuverlässige Verfahren zur Entscheidung, ob ein beobachtetes Feature im Bild real oder ein zufälliges Artefakt ist, sind extrem wichtig bei der medizinischen Diagnose.
In diesem Teilprojekt werden neue Verfahren zur Unterscheidung zwischen realen Eigenschaften von Objekten und statistischen Fluktuationen in medizinischer Bildgebung entwickelt. Die Rekonstruktion von Daten aus der medizinischen und biologischen Bildgebung wird dadurch stark erschwert, dass das eigentliche Objekt nur indirekt beobachtet werden kann, da es bspw. einer Radontransformation (tomographische Methoden, PET) unterliegt.
Bei der Rekonstruktion müssen im Allgemeinen Regularisierungsparameter angegeben werden. Zu wenig Regularisierung führt zu Bildartefakten, die bspw. Raumforderungen in einem Gewebe vortäuschen, aber nur das Ergebnis von Rauschen sind. Zu viel Regularisierung liefert dagegen rekonstruierte Bilder, in denen die real existierenden Unregelmäßigkeiten nicht mehr erkennbar sind.
In diesem Teilprojekt werden Verfahren zur (semi-)automatischen Wahl der Regularisierungsparameter, zusammen mit auf diesen Rekonstruktionen aufbauenden Verfahren der statistischen Inferenz, entwickelt, die zu genaueren Entscheidungsverfahren über die statistische Signifikanz
(und damit Realität) einer Unregelmäßigkeit führen werden.
Dabei wird das Verfahren so konstruiert, dass bei der Rekonstruktion von multidimensionalen Daten, beispielsweise mit (mindestens einer) Orts- und einer Zeitkoordinate, getrennte Regularisierungsparameter gewählt werden können. Die Methoden werden validiert anhand von realen Daten (insbesondere mit TP4).
Inverse statistische Regressionsmodelle werden in der Regel in der Form
$$Y_i=(Kf)(x_i)+\epsilon_i,\,\,i=-n,\ldots,n$$
formuliert. Dabei sind die $x_i$ die Designpunkte, $K$ ist ein Operator, $f$ bezeichnet ein nicht direkt beobachtbares Signal und $ε_i$ die Fehlerterme. Schätzer in diesem Modell benötigen einen Regularisierungsparameter, da der Operator $K$ in der Regel eine unbeschränkte Inverse hat. Durch den Regulisierungsparameter wird der Grad der Glättung bestimmt und der Grad des Vertrauens in die Beobachtungen des Signals (und damit das Signal-Rauschverhältnis) im Vergleich zum Vorwissen über Glattheitseigenschaften des wahren Signals quantifiziert.
In unserem Projekt werden wir datengestützte Verfahren zur Wahl des Regularisierungsparameters in typischen Bildrekonstruktions und
Visualisierungsproblemen im medizinischen und biologischen Bereich entwickeln.

Input (von Projektpartnern und Teilprojekten)

Modelle für zeitkontinuierliche Messungen und Regularisierungsparameter (TP1, TP2)

Daten (TP4)

Problemstellung PET in klinischen Studien und Evaluation praktische Verfahren (alle Industriepartner)

Definition relevanter Entscheidungsprobleme aus PET-Daten (Novartis)

Output (an Projektpartner)

Verfahren zur Wahl von Regularisierungsparametern und Verfahren zur statistischen Inferenz (alle TP)

Anwendung der datengestützen Verfahren zur Wahl der Regularisierungsparameter (TP4)

Algorithmen für klinische Studien (Industriepartner)

Vorarbeiten

Die Arbeitsgruppe in Bochum beschäftigt sich seit vielen Jahren mit der statistischen Inferenz für inverse Probleme. Grundlegende Ergebnisse zu Schätzern und zur Wahl der zugehörigen Regularisierungsparameter und zur Konstruktion gleichmäßiger Konfidenzbändern in statistischen inversen Problemen findet man in unseren Veröffentlichungen.

Ein weiterer Schwerpunkt der bisherigen Forschungsarbeiten ist die Untersuchung der empirischen Verteilungen von Residuen, d.h. den Differenzen zwischen den Beobachtungen und den Vorhersagen aus einem nichtparametrischen Regressionsmodell, und ihren Anwendungen zur statistischen Validierung von Modellannahmen. Z.B. verwenden wir empirische Prozesse aus Residuen, um die Symmetrie der Fehlerverteilung zu validieren, und setzen diese Methoden ein, um grundlegende Annahmen (wie z.B. die der Normalverteilung oder der Heteroskedastizität) statistisch zu testen.