Ricke, Jens: Über die Optimierung von Waveletalgorithmen für die verlustbehaftete Kompression digitaler Röntgenbilddaten

105

Kapitel 5. Diskussion

In der vorgestellten Studie wurde der Einfluß unterschiedlicher Filter auf die Bildqualität waveletkomprimierter Röntgenbilder untersucht. Hierzu wurden Phantome der Digitalen Radiographie und der Computertomographie eingesetzt. Die zum Teil selbst gefertigten Phantome stellten Prüfkörper für niedrigfrequente, gemischt-frequente und hochfrequente Bildinformation im schwellenwertnahen Bereich dar.

Die eingesetzten Waveletfilter unterschieden sich insbesondere durch ihre variable Komplexität. Alle 4 gegeneinander evaluierten Filter finden im Multimediabereich Anwendung. Einige der Filter sind bereits für den neuen Kompressionsstandard „JPEG 2000“ vorgesehen.

Es konnte gezeigt werden, daß durch Einsatz unterschiedlicher Filter insbesondere im Niedrigfrequenzbereich signifikante Unterschiede des Rekonstruktionsergebnisses der Röntgenbilder resultierten. Trotz eines partiell uneinheitlichen Ergebnisses der visuellen Analyse fanden sich Vorteile für komplexere Filter. Für Details im hochfrequenten Bereich demonstrierten wir eine Paarbildung der höher komplexen gegenüber den niedriger komplexen Filtern mit Vorteilen für die weniger breit angelegten Filter. Insgesamt ergaben sich für Details im hochfrequenten Bereich kaum signifikante Unterschiede; p-Werte unter 0.1 erlaubten jedoch die Bestätigung durch die ROC-Kurven indizierter Trends.

Die durch die ROC-Analyse erhobenen Ergebnisse korrelierten in keiner Weise mit den gleichzeitig mathematisch erhobenen PSNR-Werten, wie sie üblicherweise in der Bildverarbeitung als Größe zur Bestimmung der Qualität rekonstruierter Ergebnisbilder herangezogen werden. Ursache hierfür ist, daß die Reduktion des Bildrauschens durch die


106

Waveletkompression in der PSNR als negative Einflußgröße abgebildet wird. Bei medizinischen Röntgenbildern führt jedoch die Minimierung des Bildrauschens zu einer erhöhten Erkennbarkeit von Details insbesondere im schwellenwertnahen Bereich. Entsprechend verbesserten sich die Ergebnisse der schwellenwertnah durchgeführten ROC-Analyse ungleichsinnig zu den PSNR-Werten.


107

5.1 Methodik

5.1.1 Phantome

Drei von 4 in der beschriebenen Studie eingesetzten Phantome wurden selbst entworfen, an Probebildern hinsichtlich ihres Detailkontrastes evaluiert und schließlich in ihrer endgültigen Form angefertigt. Der Grund für dieses Vorgehen lag darin, daß bis auf das für niedrigfrequente Details eingesetzte Phantom TRG („Lungenherde“) keine Phantome kommerziell erhältlich waren, die die gestellten Anforderungen erfüllten. Diese Anforderungen lauteten wie folgt:

Es sollten mindestens fünf schwellenwertnahen Details an mindestens doppelter Anzahl eindeutig definierter Orte präsentiert werden

Die Details eines Phantoms sollten durchgängig jeweils niedrigfrequente, hochfrequente oder gemischt-frequente Information zeigen

Die Details sollten pathologische Befunde in klinischen Röntgenbildern nachempfinden

Für die Computertomographie sollte ein Niedrigfrequenzphantom eingesetzt werden, für die Digitale Radiographie Niedrigfrequenz-, Hochfrequenz- und gemischt-frequente Phantome

Die Verwendung natürlicher Bilder wie von Thoraxaufnahmen mit flauen Rundherden, Pneumothoraces oder beginnenden interstitiellen Pneumonien wurde verworfen, da eine geeignete Sammlung von Bildern mit schwellenwertnahen Befunden im eigenen Hause nur unvollständig erstellt werden konnte. Nach den Erfahrungen von Kundel et al. werden auch kleine pulmonale Raumforderungen vom Befunder mit hoher Wahrscheinlichkeit


108

innerhalb von 0.2 Sekunden wahrgenommen. Darüber hinaus spielen schwellenwertnahe Befunde in der klinischen Praxis nur eine nachgeordnete Rolle [ siehe , siehe , siehe ]. Für eine Eignung in dieser Studie hätten die Aufnahmen zudem nicht als konventionelle Röntgenbilder, sondern originär als Digitale Radiographien im DICOM-Format vorliegen müssen.

Das in dieser Studie eingesetzte kommerzielle Phantom TRG (hier: „Lungenherde“) hat seine praktische Eignung für die statistische Objektivierung der Erkennbarkeit schwellenwertnaher, kontrastarmer Details bereits in einer Reihe von Vorläuferstudien bewiesen [ siehe , siehe , siehe , siehe ]. Das Phantom ermöglicht gegenüber den herkömmlichen Phantomen höhere Objektivität, indem es mehrere identische Details an wechselnden Positionen enthält und damit in Verbindung mit der Beurteilung nach einer mehrstufigen Bewertungsskala das Prüfergebnis von der Entscheidungshaltung des Beobachters weitgehend unabhängig läßt [ siehe , siehe ]. Die optimale kritische Detailgröße für die Errechnung der ROC-Kurven kann bei dem statistischen Testphantom auch nach Anfertigung der Testaufnahmen selektiert werden. In die Bewertung geht nur die Säule ein, deren schwellennahe Details eine ROC-Kurve im sensitivsten Bereich bewirken [Abb. 8] [ siehe ]. Die Anfertigung der Digitalen Lumineszenz Radiographien des Phantoms erfolgte mit identischen Vorgaben hinsichtlich des Röhrenstromes und der Röhrenspannung unter Zuhilfenahme eines Streukörpers, um die Aufnahmebedingungen realistisch zu gestalten.

Schematisch entsprechen die selbst erstellten Phantome für Digitale Radiographien und Computertomographien dem oben genannten kommerziellen Phantom. Auch das Phantom „Pneumothorax“ erlaubt die Selektion unterschiedlicher Detailgrößen, um auf einfache Weise schwellenwertnahe Bewertungen zu erzielen [Abb. 16]. Zur Repräsentation hochfrequenter Details, wie sie durch Pneumothoraces oder durch feine Frakturlinien bei


109

Aufnahmen menschlicher Knochen abgebildet werden, erwies sich handelsübliche Stahlwolle als geeignet [ siehe ]. Das Phantom „Interstitielle Pneumonie“ sollte gleichlautende Veränderungen menschlicher Thoraxaufnahmen nachempfinden [Abb. 15]. Die hierfür benutzten, hinsichtlich ihrer Dicke identisch zugeschnittenen Badeschwämme wurden daher auf eine Sperrholzplatte verbracht, die in ähnlicher Weise wie die Details selbst hoch- und niedrigfrequente Information gleich dem menschlichen Lungengerüst generierte.

Das CT Phantom „CT Raumforderungen“ sollte beispielhaft für pathologische Raumforderungen in der CT stehen, wie sie im Weichteilfenster z.B. als Leber- oder Hirnläsionen gesehen werden. Um die geforderte Schwellenwertnähe zu erreichen, wurden die Werkstoffe PVC (Rundkörper) und PMMA (Detail) miteinander kombiniert [Abb. 17].

Für alle genannten Phantome gilt, daß nur die kritischen Details natürlicher Bilder nachempfunden wurden. Die Umgebungsinformationen, wie sie im natürlichen Bild beispielsweise den Rippen, dem Mediastinum oder den umgebenden Weichteilen einer Thoraxaufnahme entsprechen würden, findet sich durch die Phantome nicht abgebildet. Entsprechend verändert sich im mathematischen Sinne die Energieverteilung der Phantomaufnahmen gegenüber natürlichen Aufnahmen. Dieser Umstand erklärt die gemessen an herkömmlichen Röntgenaufnahmen auffällig hohe Kompressionsrate z.B. des Phantoms „Interstitielle Pneumonie“. Eine Bewertung der Kompressionraten in Bezug auf den Absolutwert wurde daher nicht vorgenommen.

5.1.2 Eigenschaften Digitaler Radiographien versus Computertomographien

Digitale Radiographien unterscheiden sich hinsichtlich ihrer Bildparameter grundlegend


110

von Computertomographien. Digitale Lumineszenz Radiographien des Siemens Digiscan weisen eine Tiefe von 10 Bit auf, die üblicherweise im klinischen Gebrauch vollständig berechnet und anschließend durch die Grafikkarte zu 256 Graustufen linear reduziert auf einem Monitor oder als Filmkopie dargestellt werden. Computertomographien zeichnen sich allgemein gegenüber Digitalen Radiographien durch erheblich vermehrtes Bildrauschen aus. Die Tiefe der Computertomographien eines Siemens Somatom Plus beträgt 12 Bit. Für die Diagnostik müssen gemäß den individuellen Erfordernissen die Fensterwerte nach Lungengewebe, Weichteilgewebe, Knochen usw. modifiziert werden, was in der Regel auch das Bildrauschen signifikant vermindert. Ähnliche Eigenschaften gelten für die Magnetresonanztomographie [ siehe , siehe ]. Das hier eingesetzte Testphantom „CT Raumforderungen“ wurde wie in der Praxis medizinischer Bildkompression als Rohdatenbild mit 12 Bit komprimiert, so daß vermutlich bereits durch die Waveletfilterung eine Verminderung des Bildrauschens erzielt wurde. Die endgültige Darstellung des Testbildes erfolgte nach Fensterung im engen „Weichteilfenster Abdomen“ mit einer zusätzlichen, weitreichenden Rauschunterdrückung. Das Bildrauschen fand somit in die visuelle ROC-Analyse im Gegensatz zur mathematischen PSNR-Berechnung kaum Eingang.

Die abbildbaren Bildpunkte der Digitalen Lumineszenz Radiographie mit einer Matrix von 2000 x 2000 Pixeln überstiegen die der Computertomographie mit 512 x 512 Pixeln. In der klinischen Praxis führt die hohe Ortsauflösung zu einem hohen Stellenwert hochfrequenter Details wie beispielsweise Pneumothorax- oder Frakturlinien [ siehe , siehe , siehe , siehe , siehe , siehe ]. Diesem Umstand wurde durch Anfertigung des oben beschriebenen Hochfrequenzphantoms („Pneumothorax“) Rechnung getragen. In der klinischen Computertomographie spielen hochfrequente Informationen keine wesentliche Rolle, so


111

daß auf ein für diesen Zweck konstruiertes Phantom verzichtet wurde [ siehe ].

5.1.3 Wavelet-Algorithmus

Der Einsatz von Waveletalgorithmen für die Bilddatenkompression ist heute weiterhin experimentell und entbehrt einer umfassenden Standardisierung. Entsprechend umfangreich ist die Bandbreite von Algorithmen, die als Shareware oder kommerzielle Produkte bezogen werden können. Allen Waveletalgorithmen gemeinsam ist die schrittweise Folge von Multiskalenanalyse, Quantisierung und Kodierung nach den in der Einleitung beschriebenen Prinzipien. Der in dieser Studie eingesetzte Waveletalgorithmus PACC folgt den aufgezeigten Prinzipien der Waveletkompression bis auf die Phase der Kodierung. Verglichen mit dem üblichen Vorgehen wird hier im Anschluß an die Quantisierung zusätzlich eine besondere Form der ergänzenden Präkodierung durchgeführt. Diese erhöht die Kodiereffizienz in einem signifikanten Maße, hat gleichzeitig aber keinen Einfluß auf die Rekonstruktionsqualität des Bildes, da sie eine Form der verlustfrei operierenden statistischen Kodierung darstellt [ siehe , siehe ].

Aus der Arbeitsweise der Waveletalgorithmen kann geschlossen werden, daß die Unterschiede der Rekonstruktionsqualität der Filter prinzipiell auf andere Waveletalgorithmen übertragbar sind, die mit einer uniformen, teilbandunabhängigen Quantisierung arbeiten [ siehe , siehe ].

5.1.4 Filterselektion

In der vorliegenden Studie wurden die Rekonstruktionsqualität und die mathematische Kompressionsleistung der Filter nur im Vergleich untereinander und nicht in Bezug auf Absolutwerte analysiert. Eine Optimierung der Kompressionsrate durch unterschiedliche Filter wurde nicht untersucht. Die Byteanzahl der Ergebnisbilder diente ausschließlich


112

zur Festlegung einer Dateizielgröße, um die Ausgangsanforderungen an die unterschiedlichen Filter identisch zu gestalten.

Kernfrage bei der Auswahl der Filter war ihre Komplexität und der entsprechende Einfluß auf die resultierende Bildqualität. Eine steigende Komplexität der Filter verlangt in der Regel gleichzeitig einen vermehrten Rechenaufwand, der sich in verlängerten Analyse- und Synthesezeiten manifestiert [ siehe ]. Hinweise auf die Komplexität der Filter können der Anzahl der Filterkoeffizienten entlehnt werden, die den Bezeichnungen der Filter üblicherweise beigeordnet sind. So gliedert sich für die ausgewählten Filter die Komplexität bicdf 5.3 < bicdf 9.7 < bivil 18.10 < bicoif 22.14 [ siehe ].

Bei allen ausgewählten Filtern handelte es sich um symmetrische und damit notwendigerweise biorthogonale Filter. Symmetrische Filter erlauben eine Implementierung mit einem gegenüber asymmetrischen Filtern potentiell reduzierten Rechenaufwand. Im Randbereich von Bildern können Signalsprünge durch Spiegelung symmetrischer Filter verhindert werden [ siehe ]. Darüber hinaus fehlt asymmetrischen Filtern die lineare Phase, was zu einer Fehlerpotenzierung durch örtliche Verschiebung einzelner Approximationen und damit zu verstärkten Artefakten führt [ siehe ]. In der Regel handelt es sich bei allen im Multimediabereich etablierten Filtern um symmetrische Filterkerne.

Vorbedingung für die Selektion war, daß die gewählten Filter ihre praktische Eignung in Multimediaanwendungen bewiesen hatten. Darüber hinaus wurde Wert darauf gelegt, Filter zu selektieren, die für den neuen Multimedia-Kompressionsstandard JPEG 2000 ausgewählt worden sind oder in enger Auswahl gestanden haben. Dies trifft auf sämtliche für die Studie ausgewählten Filter zu [ siehe , siehe , siehe , siehe ].


113

5.1.5 Prinzip der ROC-Analyse

Der besondere Wert des Prinzips der Receiver-Operator-Characteristics-Analyse liegt in der besonderen Sensitivität für eine variierende visuelle Rezeption von Details im schwellenwertnahen Bereich. Besondere Bedeutung kommt in dieser Studie dem Umstand zu, daß für die Befunder keine zeitliche Limitierung der Bildansicht vorgegeben wurde, um eine Selektion von Details im weniger kritischen Bereich auszuschließen. Darüber hinaus mußten alle hinsichtlich der Existenz eines Details zu bewertenden Felder identifiziert werden, um eine eindeutige räumliche Zuordnung zu sichern.

Üblicherweise sieht die Theorie der ROC-Analytik den sensitivsten Bereich für Unterschiede der Beobachtungsleistung im Bereich von Flächen unter der Kurve um 75% vor. Ergebnisse in dieser Größenordnung konnten nur mit dem Phantom „Lungenherde“ erzielt werden. ROC-Werte im 90%-Bereich, wie sie für die anderen Phantome errechnet wurden, führen zu einer verminderten Sensitivität des statistischen Nachweises von Unterschieden der Flächen unter den Kurven [ siehe , siehe ].


114

5.2 Ergebnisse

5.2.1 Filterbewertung

In der Literatur werden 3 Einflußgrößen als entscheidend für die Dekorrelations- und Rekonstruktionsleistung unterschiedlicher Filter genannt: die Anzahl der verschwindenden Momente, die Stetigkeit und die Filterbreite [ siehe , siehe , siehe , siehe , siehe ]. Es muß jedoch berücksichtigt werden, daß eine biorthogonale Filterbank mit 4 Funktionen assoziiert ist: jeweils eine Skalierungs- und eine Waveletfunktion für das Analyse- und das Synthesewavelet. Es ist daher nur eingeschränkt möglich, die Qualität des rekonsturierten Bildes auf die Filterform zurückzuführen [ siehe ].

Die Anzahl verschwindender Momente eines Filters korrespondiert mit der Überlappung der Übertragungsfunktionen des jeweiligen Hoch- und Tiefpassfilters. Je geringer die spektrale Überlappung der paarweise eingesetzten Hoch- und Tiefpassfilter ist, desto höher ist auch die Anzahl der verschwindenden Momente. Umgekehrt führt die zunehmende spektrale Überlappung der Hoch- und Tiefpassfilter zu verstärkten Alias-Effekten mit verminderter Rekonstruktionsqualität. Üblicherweise steigt mit der Anzahl der verschwindenden Momente die Länge der Impulsantworten der Filter.

Nachteil einer theoretisch erzielbaren unendlich großen Anzahl verschwindender Momente ist, daß die höhere Anzahl von Impulsantworten zu einer höheren Wahrscheinlichkeit oszillierenden Verhaltens des Analysewavelets mit dem Ausbilden von „Ringing“-Artefakten führt [ siehe ]. In der praktischen Anwendung nachteilig ist auch der Umstand, daß mit wachsender Komplexität der Filter die zu erbringende Rechenleistung steigt [ siehe ].


115

Für die in dieser Studie eingesetzten Filter ergibt sich folgende Anzahl verschwindender Momente von Analyse- und Synthesewavelet (M, N):

Bicdf 5.3: (2, 2)

Bicdf 9.7: (4, 4)

Bivil 18.10: (5, 9)

Bicoif 22.14: (5, 7)

Der Stellenwert der Stetigkeit eines Filters bezüglich der Rekonstruktionsleistung wird in der Literatur uneinheitlich diskutiert (Abb. 22). Villasenor et al. [ siehe ] weisen in einer vergleichenden mathematischen Analyse unterschiedlicher Filter einen deutlichen, positiven Einfluß hoher Stetigkeit auf die Rekonstruktionseigenschaften nach. Gleichzeitig dokumentieren sie jedoch auch ein ungünstiges Ergebnis für einen einzelnen Filter mit im Vergleich sehr hoher Stetigkeit. Rioul [ siehe ] demonstriert erhöhte PSNR-Werte bei Filtern mit höherer Stetigkeit, die gleichzeitig eine relativ geringe physikalische Breite aufweisen. Antonini et al. [ siehe ] weisen der Stetigkeit der Filter einen höheren Einfluß auf die Rekonstruktionsqualität als der Anzahl verschwindender Momente zu.

In der Theorie sind positive Effekte geringer Stetigkeit auf hochfrequente Information denkbar, wenn Singularitäten des Signals (z.B. Kanten) durch kurze Filter mit geringer Stetigkeit besser abgebildet werden. Gleichzeitig verstärkt eine geringe Stetigkeit des Analysewavelets Inhomogenitäten des Signals mit möglichen Artefakten insbesondere im niedrigfrequenten Bereich, wenn Quantisierungsfehler durch die Iterationen im Tiefpassbereich verstärkt abgebildet werden [ siehe ].

Als Hinweis auf die Stetigkeit verschiedener Filter kann die physikalische Breite bzw. synonym die Länge der Impulsantwort herangezogen werden. Damit korreliert eine


116

Abb. 22: Nicht skalierte, grafische Darstellung der Synthese-Waveletfunktionen bicdf 5.3(oben) und bicdf 9.7 (unten) mit unterschiedlicher Stetigkeit


117

zunehmende Stetigkeit auch mit einer steigenden Anzahl verschwindender Momente. Entsprechend ergab sich die Stetigkeit der eingesetzten Filter wie folgt:

bicdf 5.3 < bicdf 9.7 < bivil 18.10 < Bicoif 22.14.

Wie bereits erwähnt steht eine zunehmende physikalische Filterbreite in direktem Verhältnis zu ansteigender Stetigkeit oder einer steigenden Anzahl verschwindender Momente. Über diese additiven Effekte hinaus determiniert die physikalische Breite eines Filters eine verstärkte Neigung, Artefakte über einen breiteren Bereich abzubilden. Dieser Effekt betrifft in der Theorie vornehmlich Hochfrequenzinformation. Die Rangfolge der Breite der in dieser Studie eingesetzten Filter lautet:

bicdf 5.3 < bicdf 9.7 < bivil 18.10 < Bicoif 22.14.

5.2.1.1 Visuelle Bewertung von Digitalen Radiographien

5.2.1.1.1 Niedrigfrequenzdetails

Ein statistisch eindeutig signifikanter Einfluß der Auswahl unterschiedlicher Filter konnte insbesondere für die visuelle Detektion von Niedrigfrequenzdetails belegt werden. Es zeigte sich eine Bevorzugung des komplexeren Filters bivil 18.10, während sowohl der Filter mit der niedrigsten Komplexität wie jener mit der höchsten (bicdf 5.3 respektive bicoif 22.14) die mittleren Plätze belegten. Die hoch signifikant schlechtesten Ergebnisse zeigte der Standardfilter für das verlustbehaftete JPEG 2000 bicdf 9.7.

In der Theorie waren für die Rekonstruktion niedrigfrequenter Details Vorteile bei komplexeren Filtern zu erwarten. Ausschlaggebend sind die mit der zunehmenden Länge der Impulsantwort steigende Anzahl verschwindender Momente sowie die zunehmende


118

Stetigkeit der Wavelets [ siehe , siehe , siehe ]. In unserer Studie wurde mit dem signifikant besten Ergebnis von bivil 18.10, dem etwas schlechteren Ergebnis von bicoif 22.14 und dem hochsignifikant schlechtesten Ergebnis von bicdf 9.7 diese Erwartung erfüllt. Mit den genannten Mechanismen nicht erklärbar ist das überraschend gute Ergebnis der visuellen Bewertung von bicdf 5.3, das die Leistung des komplexeren bicdf 22.14 (wenn auch ohne Erreichen des statistischen Signifikanzniveaus) übersteigt. Im Vergleich der Filter zeigt bicdf 5.3 die geringste physikalische Breite mit gleichzeitig der geringsten Anzahl verschwindender Momente und der geringsten Stetigkeit. Für beide letztgenannten Faktoren sind physikalisch Nachteile im Niedrigfrequenzbereich zu vermuten. Eine Erklärung dieses Ergebnisses fanden wir nicht, obwohl auch Villasenor et al. [ siehe ] bei Analysen der Stetigkeit von Filtern eine einzelne, das angenommene Ergebnis im negativen Sinne unerklärlich konterkarrikierende Rekonstruktionsleistung eines besonders stetigen Filters fanden.

Wie beschrieben zeigte der Filter mit der geringsten Komplexität bicdf 5.3 gegenüber dem Filter mit der größten Komplexität bicoif 22.14 ein das statistische Signifikanzniveau verfehlendes besseres Ergebnis. Wie sich aus der Überschneidung der ROC-Kurven ablesen läßt, war für den Filter bicoif 22.14 gegenüber bicdf 5.3 die Anzahl richtig positiver Befunde leicht erhöht, gleichzeitig die Rate richtig negativer deutlich erniedrigt. Es ist denkbar, daß eine geringere Stetigkeit in Verbindung mit einer höheren Anzahl verschwindender Momente zu einer Überdeckung niedrigfrequenter Details bei gleichzeitig Vermeidung falsch positiver Befunde führt.

5.2.1.1.2 Gemischt hoch- und niedrigfrequente Details

Für die Erkennbarkeit von Details mit gemischt hoch- und niedrigfrequenter Information


119

war eine Paarbildung der beiden besser plazierten niedrig komplexen gegenüber den hochkomplexen Filtern zu beobachten. Diese Beobachtung deckt sich weitestgehend mit den Ergebnissen, die für das Hochfrequenzphantom ermittelt wurden. Die Deckungsgleichheit der errechneten Kurvenverläufe für beide Phantome erstreckt sich auch auf die Kreuzung der Kurven von bicdf 5.3 und 9.7. Es ergab sich eine höhere Rate richtig positiver Befunde des Filters 9.7 bei gleichzeitig vermehrt falsch negativen im Vergleich mit bicdf 5.3. Es ist daher anzunehmen, daß für die Detektion der eine interstitielle Pneumonie simulierenden Details des Phantoms vorwiegend hochfrequente Information ausschlaggebend war.

In der statistischen Analyse konnten für die Unterschiede zwischen den Filtern nur Trends festgestellt werden. Offensichtlich generierten kürzere Filter mit geringer Stetigkeit eine bessere Rekonstruktion der hochfrequenten Signale. Darüber hinaus ist davon auszugehen, daß die zunehmende Filterbreite (5.3 < 9.7 < 18.10 < 22.14) mit Verzerrung hochfrequenter Informationen negativen Einfluß auf die in gleichem Maße abnehmenden Flächen unter den Kurven hatte. Die zunehmende Anzahl verschwindender Momente eines Filters kompensierte diese negativen Effekte offensichtlich nicht.

5.2.1.1.3 Hochfrequenzdetails

Wie im vorhergehenden Absatz bereits beschrieben (Kapitel 5.2.1.1.2) fand sich für das Phantom mit Simulation von Hochfrequenzdetails ähnlich wie für das Phantom „Interstitielle Pneumonie“ eine Paarbildung der niedrigen gegenüber den höher komplexen Filtern. Die angenommene Erklärung für die Vorteile weniger komplexer Filter bei hochfrequenter Information wurde gleichfalls benannt.

Für Hochfrequenzdetails konnten nur Trends, jedoch keine statistischen Signifikanzen der


120

Unterschiede in den ROC-Kurven ermittelt werden. Anteil daran hat der Umstand, daß eine nur mäßige Schwellenwertnähe der zu erkennenden Details Flächen unter der Kurve in weniger sensitiven Bereichen über 0,9 ergaben, so daß minimale Unterschiede der Detailrezeption möglicherweise statistisch nicht erfaßt werden konnten. Darüber hinaus ist anzunehmen, daß die Auswahl geeigneter Filter in stärkerem Maße Tiefpassinformation beeinflußt. Durch die höhere Anzahl von Iterationsstufen werden Quantisierungsfehler im Tiefpassbereich verstärkt abgebildet.

5.2.1.2 Visuelle Bewertung von Computertomographien

5.2.1.2.1 Niedrigfrequenzdetails

Für die Niedrigfrequenzdetails, die Raumforderungen in Computertomographien simulieren sollten, wurden entgegen den Ergebnissen des Niedrigfrequenzphantoms „Lungenrundherde“ keine statistisch signifikanten Unterschiede der ROC-Kurven gefunden. Gegenüber dem DR-Phantom „Lungenrundherde“ lagen die ROC-Kurven des Phantoms „CT-Raumforderungen“ im weniger sensitiven Bereich über 0.9 Fläche unter der Kurve, was den statistischen Nachweis signifikanter Unterschieden erschwerte. Die Rangfolge der einzelnen Filter für das CT-Niedrigfrequenzphantom ähnelte der Rangfolge derselben Filter für das Niedrigfrequenzphantom der Digitalen Radiographie. Der für das Phantom „Lungenrundherde“ gezeigte Trend zu Vorteilen des wenig komplexen Filters bicdf 5.3 gegenüber dem komplexeren bicoif 22.14 fand sich für das CT Phantom nicht.

Eine Ursache der weitgehend gleichsinnigen Ergebnisse lag darin, daß sich die Bildeigenschaften der Computertomographien nur in den Primärdaten von den Digitalen Radiographien wesentlich unterschieden. Für die ROC-Analyse der Computertomographien spielte das üblicherweise hohe Bildrauschen im Vergleich zu


121

Digitalen Radiographien keine Rolle, da durch die Weichteilfensterung der rekonstruierten Bilder der Rauschanteil der Bilder größtenteils entfernt wurde. Unterschiedliche Eigenschaften der Filter für die Dekorrelierung von Computertomographien gegenüber Digitalen Radiographien kamen daher über die Qualität rekonstruierter Bilder nicht zur Geltung. Die niedrigere Bildmatrix von Computertomographien war für die Detektion von Niedrigfrequenzdetails unerheblich.

5.2.2 PSNR zur mathematischen Bewertung der Kompressionsqualität

Bei Betrachtung der Phantome zur Beurteilung niedrigfrequenter Details („Lungenrundherde“, „CT-Raumforderungen“) fällt auf, daß sich die Ergebnisse der medizinischen ROC-Analyse und die der mathematischen PSNR-Berechnung sehr gegensätzlich verhielten. Der JPEG 2000 Standardfilter für verlustbehaftete Kompression bicdf 9.7 erreichte im Vergleich mit den konkurrierenden Filtern den besten PSNR-Wert, gleichzeitig jedoch das hoch signifikant schlechteste Ergebnis der medizinischen Bewertung. Offensichtlich bestand eine Divergenz zwischen der mathematisch effizientesten Kompression mit hoher PSNR nach Rekonstruktion gegenüber der Erkennbarkeit niedrigfrequenter Details in der ROC-Analyse. Ursache hierfür war der Umstand, das in der PSNR auch die Rekonstruktion des Bildrauschens Würdigung findet. Im medizinischen Sinne jedoch ist die Eigenschaft der Waveletfilter, über die Frequenzverarbeitung eine Rauschminimierung herbeizuführen, von Vorteil für die Detektion von durch das Rauschen kaschierter, niedrigfrequenter Bildinformation. Die Vorteile der kontrastverstärkenden Eigenschaften von Wavelets im schwellenwertnahen Bereich bei niedrigfrequenten Bildinformationen wurde bereits in der Vorstudie bewiesen (Kapitel 2.4). Zusätzlich gestützt wird diese These durch den Umstand, daß die Divergenz zwischen PSNR- und ROC-Ergebnissen für hochfrequente Details weniger deutlich


122

wurde: hier war die Rekonstruktion der hochfrequenten Detailinformation gleichsinnig zur Rekonstruktion des Bildrauschens gefordert. Zusammenfassend kann formuliert werden, daß die Verwendung der PSNR für die Bewertung der Effektivität einer verlustbehafteten Bildkompression medizinischen Kriterien offensichtlich nur unzureichend berücksichtigt.


123

5.3 Synopsis der wichtigsten Ergebnisse

Die Optimierung eines Waveletalgorithmus zur verlustbehafteten Kompression durch die Filterselektion ist dann sinnvoll, wenn sie von der Frequenz der entscheidenden Bildinformation abhängig gemacht wird. Signifikante Unterschiede der Rekonstruktionsqualität der Filter wurden nur für niedrigfrequente Details beobachtet; bei hochfrequenten Details ist durch eine Modifikation im Rahmen der getesteten Filter keine wesentliche Verbesserung zu erwarten. Im Einzelnen zeigte der Filter bicdf 5.3 (Standard-Filter für die verlustlose, qualitätsskalierbare Codierung in JPEG-2000, damit auch für verlustbehaftete Kodierung einsetzbar) gegenüber bicdf 9.7 (Standard-Filter für verlustbehaftetes JPEG 2000) bessere mittlere Eigenschaften für niedrig- und hochfrequente Information. Komplexe Filter wie bivil 18.10 oder bicoif 22.14 erwiesen sich bei niedrig-frequenter Information als wertvoll mit gleichzeitig Nachteilen im Hochfrequenzbereich.

Eine Optimierung der Filter in Abhängigkeit von den unterschiedlichen bildgebenden Modalitäten erscheint nicht sinnvoll. Angenommene Vorteile rauschunterdrückender Filter beispielsweise für computertomographische Bilder kommen durch Fensterung und den daraus resultierenden Fortfall wesentlicher Rauschkomponenten nicht zum Tragen. Nicht unmittelbar beurteilt wurden in dieser Studie die Effekte der Filter auf die Kompressionseffizienz.

Die in der Bildverarbeitung aufgrund der einfachen mathematischen Anwendbarkeit üblicherweise verwendete Größe PSNR zur Beurteilung der Rekonstruktionsqualität ist nach medizinischen Kriterien nicht valide, da auch die Rekonstruktion des Bildrauschens eingeht. Für die medizinische Beurteilung der Bilddaten ist jedoch die verbesserte


124

Detektion niedrigfrequenter Details durch die Verminderung des Bildrauschens im schwellenwertnahen Bereich von hoher Wichtigkeit.

© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.

DiML DTD Version 2.0
Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML - Version erstellt am:
Fri Feb 7 16:27:58 2003