Ricke, Jens: Über die Optimierung von Waveletalgorithmen für die verlustbehaftete Kompression digitaler Röntgenbilddaten

12

Kapitel 2. Grundlagen der Bilddatenkompression

2.1 Waveletkompression

Waveletalgorithmen zur Bilddatenkompression zeichnet die prinzipielle Unterteilung in drei Rechenschritte aus:

Multiskalenanalyse

Quantisierung der resultierenden Koeffizientenmatrix

Kodierung.

In der Regel generiert nur die Quantisierung einen Informationsverlust und ist damit üblicherweise Ansatzpunkt der verlustbehafteten Kompression.

2.1.1 Signaltransformation mittels diskreter Wavelet-Transformation (DWT)

Gegenüber der klassischen Signaltransformation wie beispielsweise der diskreten Cosinus Transformation (DCT), die in JPEG Verwendung findet, bietet die diskrete Wavelettransformation zusätzliche vorteilhafte Eigenschaften. Da die Wavelettransformation nicht mit festgelegten Kernen arbeitet, kann eine Auswahl aus Kernen mit unterschiedlichen Charakteristiken getroffen werden. Die Basisfunktionen sind im Ortsraum lokalisiert und ermöglichen damit eine räumliche Zuordnung von Koeffizienten. Die Auflösung im Frequenzbereich ist ungleichförmig und hinsichtlich der Tiefe frei wählbar. Zur Erläuterung des Prinzips der Signaltransformation mit Wavelets dient im Folgenden das bereits 1910 durch Haar beschriebene und nach ihm benannte Wavelet [ siehe ], das sich durch einen geringen Rechenaufwand bei allerdings geringer Leistungsfähigkeit auszeichnet. Konsequenterweise werden in der Regel für die


13

Bildverarbeitung komplexere Wavelets eingesetzt.

Abbildung 1a zeigt den Signalvektor ao (1 2 3 3 2 1). Abbildung 1b-d demonstrieren Mittelungen des jeweils vorhergehenden Signals als Approximationssignal ai mit dazugehörigem Detailsignal di. Für das Approximationssignal der ersten Stufe gilt a1 (1.5 1.5 3 3 1.5 1.5), für das Detailsignal der ersten Stufe als Differenz von Original- und Approximationssignal lautet d1 (-0.5 0.5 0 0 0.5 -0.5).


14

Abbildung 1a-d: Signaltransformation am Beispiel eines Haar-Wavelets
a = Approximatonssignal, d = Detailsignal


15

Nach mehrfacher Zerlegung kann das Originalsignal umschrieben werden als die Summe aus einem Approximationssignal geringer Auflösung und den Detailsignalen der Zerlegungsstufen: ao = a3 + d1 + d2 + d3. Die erzielten Vektoren für die Approximationssignale wie auch die Vektoren der Detailsignale bestehen aus gegeneinander verschobenen Funktionen, die Skalierungs- (Approximationssignale) und Waveletfunktionen (Detailsignale) genannt werden. Die im Beispiel angezeigten Funktionen entsprechen den Basisfunktionen des Haar-Wavelets [Abb. 2].

Abbildung 2: Skalierungs- und Waveletfunktion eines Haar-Wavelets

In Kenntnis der Basisfunktion reduziert sich die für eine Bildkodierung notwendige Anzahl der Signalwerte je nach Auflösungsstufe [Abb. 3a-c]. Die Basisfunktion dient als Gewichtung der Signalwerte.


16

Abbildung 3a-c: Reduzierte Anzahl von Signalwerten in Kenntnis der Basisfunktion
(hier: Waveletfunktion des Haar-Wavelets, Abb. 2) für die Detailsignale
(Vgl. Abb. 1a-d)


17

Die Basisfunktionen unterscheiden sich jeweils durch ihre Skalierung, stammen grundsätzlich aber von einer gemeinsamen Funktion, dem Mutterwavelet, ab. Alle Wavelets eines Transformationskerns entstehen durch Dehnung, Stauchung oder Verschiebung des Mutterwavelets.

Die für die Waveletkompression eingesetzten Filterbänke folgen im Wesentlichen den Gesetzmäßigkeiten der Wavelettransformation. Üblicherweise werden Zwei-Kanal-Filterbänke verwendet, die ein Signal mittels eines Hoch- und eines Tiefpassfilters sowie einer anschließenden Unterabtastung in zwei Teilbandsignale zerlegen.

2.1.2 Multiskalenanalyse

Die Multiskalenanalyse dient bei der Waveletkompression zur Dekorrelation der Signalwerte eines Bildes und deren Überführung in gewichtete Basisfunktionen (siehe 2.1.1). Die verwendete Filterbank muß sowohl die Zerlegung (synonym: Analyse) als auch die Rekonstruktion (synonym: Synthese) des Bildsignals gewährleisten. Ein komplementäres Paar eines Hoch- und Tiefpassfilters bricht während der Multiskalenanalyse iterativ die Tiefpassanteile des Bildes auf [Abb. 4], wobei die Dehnung des Wavelets zur Erfassung der nächst niedrig gelegenen Frequenzen durch eine Skalierungsfunktion definiert wird [Abb. 5]. Es resultiert mathematisch gesehen bei jeder Iteration ein Approximations- und ein Detailssignal, wobei das Approximationssignal weiter zerlegt wird [ siehe , siehe ].


18

Abb. 4: Tiefpassaufbruch des Testbildes „Lena“


19

Abb. 5: Grafische Darstellung von Wavelets im Orts- und Frequenzraum in
verschiedenen Auflösungsstufen


20

Die Wavelet-Transformation läßt sich technisch als eine Folge von Hoch- und Tiefpassfilterung mit anschließender Unterabtastung realisieren, die im Fall von 2-dimensionalen Bilddaten durch eine separable Implementierung horizontaler und vertikaler Bilddimensionen in eine Zerlegung von 4 Teilbändern resultiert. Diese Rechenoperation wird in variabler Häufigkeit auf dem tieffrequenten Teilband wiederholt. Aus der sukzessiven Tiefpassfilterung resultiert nach meist etwa 3 bis 5 Schritten ein einfarbiges Graubild mit einem nahezu konstanten Signalanteil ohne wesentliche Bildinformation. Zur Bildrekonstruktion wird eine inverse Transformation mit spiegelbildlichen Hoch- und Tiefpassfiltern durchgeführt [ siehe ].

2.1.3 Quantisierung

Die aus der Wavelettransformation resultierende Koeffizientenmatrix wird einer Quantisierung unterworfen, bei der zur Erlangung der gewünschten Informationsverlustrate eine Approximation der Koeffizienten durchgeführt wird. Wichtigste Methoden sind die skalare und die Vektorquantisierung. Skalare Quantisierung beruht auf eindimensionaler Verarbeitung einzelner Signalwerte. Der Wertebereich des Signals wird in Intervalle aufgeteilt und allen Amplituden eines Intervalls ein einzelner Wert zugeordnet. Im Gegensatz hierzu erfolgt bei der Vektorquantisierung eine zwei- oder mehrdimensionale Verarbeitung, bei der zwei oder mehr Amplituden ein Signalvektor zugeordnet wird. Die einzelnen Vektoren werden durch eine eigens zugeordnete Nummer lokalisierbar. Die Bildrekonstruktion erfolgt durch einen definierten Rekonstruktionsvektor [ siehe ].

Für den neuen, waveletbasierten Kompressionsstandard JPEG 2000 ist eine indirekte Quantisierung vorgesehen. Nach einer durch sogenanntes „embedded Coding“ erzielten


21

Organsiation irrelevanter Bildanteile bzw. Koeffizienten am Ende des Bitstroms können diese in variabler Länge entfernt werden. Ein eigener direkter Quantisierungsschritt entfällt.

2.1.4 Kodierung

Durch die abschließende, üblicherweise arithmetische Entropiekodierung wird der erzeugte Datenstrom verlustfrei von statistischen Redundanzen befreit. Kernelement moderner Kodierungen ist die Verknüpfung individueller Symbole mit der Wahrscheinlichkeit ihres Auftretens; so kann häufigen Symbolen ein kurzer Kode, seltenen Symbolen ein längerer zugeordnet werden [ siehe ]. In der Praxis sind unterschiedliche Varianten von Kodierern gebräuchlich [ siehe , siehe , siehe , siehe , siehe ].


22

2.2 Fraktale Kompression

Fraktale Algorithmen kodieren Bilder in Form selbst-affiner Transformationen. Initial werden die Bilder in nicht überlappende Blöcke segmentiert (Domain-Blöcke). Für jeden definierten Block wird ein ähnlicher Bildausschnitt zur Approximation mit möglichst geringem Fehler gesucht. Die Bildausschnitte können beliebig skaliert, gespiegelt oder rotiert werden. Die redundante Bildinformation wird in ein System iterativer Funktionen umgesetzt. Die Parameter aller gefundenen Abbildungen werden quantisiert und kodiert. Zur Bildrekonstruktion dient neben den kodierten Parametern die Definition der verwendeten Domain-Blöcke [ siehe , siehe , siehe ].

Die Einstellung der Kompressionsrate bzw. der Qualitätsparameter für die verlustbehaftete Kompression beeinflußt abhängig vom jeweiligen Algorithmus die Quantisierung oder auch die Toleranzen der Approximation redundanter Bildinhalte und den Suchradius der fraktalen Routine. In der Praxis ergibt sich eine erhebliche Asymmetrie hinsichtlich des Rechenaufwandes für die Bildkompression und Bildrekonstruktion [ siehe , siehe ].


23

2.3 JPEG - Joint Photographic Expert Group

Verlustbehaftetes JPEG („Baseline-JPEG“, im Gegensatz zum künftigen, waveletbasierten JPEG 2000 Standard) basiert ähnlich der Waveletkompression auf den drei Arbeitsschritten

Transformation und Kodierung sind entgegen der Quantisierung weitgehend standardisiert. JPEG genießt im Multimediabereich weite Verbreitung und wird von den üblichen Softwareapplikationen unterstützt [ siehe ].

Im verlustbehafteten Modus nutzt JPEG die diskrete Cosinus Transformation (DCT) für die Signaldekorrelation und Überführung in Frequenzinformation. Die diskrete Cosinus Transformation ermöglicht keine räumliche Zuordnung der DCT-Koeffizienten. Um eine örtliche Zuordnung zu ermöglichen, wird das Ausgangsbild in Blöcke zu 8 x 8 Pixeln (auch 16 x 16) segmentiert und dann blockweise transformiert. In der resultierenden Koeffizientenmatrix wird der Durchschnittswert der 64 Pixel in die obere linke Ecke geschrieben (Gleichanteil: DC, direct current); die individuellen Werte folgen diagonal in ansteigender Wertigkeit (Wechselanteil: AC, alternate current). Im nächsten Schritt wird die Quantisierung der Koeffizientenmatrix entsprechend der gewünschten Kompressionsrate vollzogen. Die Quantisierungstabellen werden in den Bitstrom eingefügt, um eine korrekte Rekonstruktion zu ermöglichen. Durch die Segmentierung des Bildes in Blöcke kommt es bei starker Quantisierung zu Verzerrungen an den


24

Blockgrenzen, die als typische, sogenannte Blockartefakte imponieren. Die Entropiekodierung des Bitstroms und Elimination statistischer Redundanzen erfolgt in der JPEG Basisdefinition nach der Huffman Methode und generiert üblicherweise eine zusätzliche Datenkompression von etwa 1:2 [ siehe ].

Aufgrund der fehlenden Standardisierung der Quantisierung ist die Terminologie der Gesamtkompressionsraten unterschiedlicher JPEG Algorithmen uneinheitlich. Der theoretische Rechenaufwand für Kodierung und Rekonstruktion eines Bildes ist symmetrisch.


25

2.4 Vorarbeiten: Entwicklungsumgebung

Entscheidend für die Durchführung von an digitalen Bilddaten orientierten Forschungsprojekten ist der Zugriff auf die Originalbilddaten der bildgebenden Modalitäten einer radiologischen Abteilung. In der überwiegenden Zahl radiologischer Abteilungen werden Röntgenaufnahmen an digital arbeitenden Systemen erstellt, im Anschluß jedoch als analoge Filmkopie befundet. Eine Netzwerkeinspeisung der digitalen Bilddaten erfolgt nur, wenn eine entsprechende Archiveinrichtung vorhanden ist oder ein zentraler Netzwerkdrucker angesteuert werden soll. Um den umfassenden Netzwerkzugriff auf die Daten der digitalen bildgebenden Modalitäten der eigenen Klinik zu ermöglichen, wurden in Vorläuferprojekten die notwendigen infrastrukturellen Voraussetzungen geschaffen und damit das vorliegende und andere Forschungsvorhaben erst möglich gemacht.

Im Folgenden werden die Teilkomponenten beschrieben, die als infrastrukturelle Voraussetzungen angesprochen werden müssen und, abgesehen vom Bildstandard und Hardwarekomponenten, in eigenen Forschungs- und Entwicklungsprojekten entstanden sind:


26

2.4.1 Bildformat DICOM

Mit der Entwicklung digitaler bildgebender Modalitäten stellte sich zu Beginn der 80er Jahre die Frage einheitlicher Kommunikationsstandards. Durch die Verbindung des American College of Radiology (ACR) und der National Electrical Manufacturers Association (NEMA) entstand für die Punkt-zu-Punkt Verbindung zweier digitaler Modalitäten das ACR/NEMA Format. Zum heutigen Zeitpunkt findet sich ACR/NEMA in den Versionen 1.0 und 2.0 vorzugsweise noch bei älteren Computertomographen, die eine Speicherung insbesondere auf optischen Medien anbieten.

Als wesentliche Mängel von ACR/NEMA erwiesen sich die unzureichende Spezifikation des eigentlichen Bildformats sowie die fehlende Netzwerkfähigkeit des Standards. Die folgerichtige Weiterentwicklung des Standards mündete 1992 in die Veröffentlichung von DICOM 3.0 als neuem, aktuellem Industriestandard für radiologische Bilder. Auch am Bild beteiligte reale Objekte wie Patientenidentifikation, Geräteidentifikation oder die Untersuchungsart werden in DICOM abgebildet. Das Objektmodell ist modulierbar, um zukünftig auch nicht-radiologische medizinische Fachgebiete mit digitaler Bildgebung integrieren zu können.

Für die Integration von DICOM Dateien in Krankenhausinformationssysteme (KIS) sind gleichfalls entsprechende Datenfelder oder Objekte definiert. In der Praxis gründen die Schwierigkeiten der Umsetzung darauf, daß die üblichen Krankenhausinformationssysteme das Protokoll HL7 einsetzen und Integrationslösungen im Individualfall eigens implementiert werden müssen.

DICOM 3.0 definiert ein Protokoll zum Datenaustausch über Netzwerk. Dabei wird entweder ein auf dem ISO/OSI (International Standardisation Organisation)


27

Schichtenmodell aufbauendes Transportprotokoll oder aber TCP/IP (Transmission Control Protocol/Internet Protocol) verwendet. Üblicherweise findet TCP/IP Anwendung, da in den meisten Kliniken eine Netzwerkinfrastruktur auf TCP/IP Basis vorhanden ist. Ausgehend von den DICOM Objekten definiert der Standard verschiedene Dienste, wie beispielsweise „Print“, „Query“ oder „Store“, welche der Klient als Service Class User (SCU) von einem Service Class Provider (SCP) anfordern kann. Zum Zeitpunkt der Initiierung eines Datenaustauschs ermitteln Service Class User und Service Class Provider ein Datenformat, welches von beiden Seiten verstanden wird. Wird zwischen SCU und SCP kein gemeinsames Format gefunden, endet die Kommunikation ohne Datentransfer.

DICOM 3.0 unterstützt die üblichen Bittiefen digitaler bildgebender Modalitäten der Radiologie von 8 bis 16 Bit unabhängig von der generierten Matrix (üblich sind bis zu 4000 x 4000 Pixel).

Zukünftige Entwicklungen des DICOM Standards sehen die Integration von Sicherheitsklassen sowie die Definition eines verlustfrei und verlustbehaftet arbeitenden Kompressionsalgorithmus vor.

2.4.2 Zwischenspeicherung digitaler radiologischer Bilddaten

2.4.2.1 Anforderungen an ein System zur Bildspeicherung

Aufsetzend auf die vorhandene Netzwerkinfrastruktur sollte in einem eigenen Projekt eine zentrale Datenbankeinheit zur kurzzeitigen Datenarchivierung entstehen („MiniPACS“). Die verfügbare Speicherkapazität sollte modulierbar, zumindest während der ersten Erprobungsphase jedoch deutlich begrenzt bleiben. Unter Ausnutzung der vorhandenen Infrastruktur der Klinik sollte ein plattformunabhängiger Zugriff auf die Datenbank über


28

das bestehende Intranet gewährleistet sein [ siehe , siehe ].

2.4.2.2 Umsetzung der PACS-Entwicklung

2.4.2.2.1 Hardware

Als Klienten-Rechner kommen die in der Klinik vorhandenen Arbeitsplatzrechner zur Anwendung: PCs mit den Betriebssystemen Windows 95, 98, 2000 und NT 4, Apple MacOS (PowerPC) sowie diverse Unix Plattformen, unter anderem SGI und Sun Solaris. Da für den Zugriff auf das MiniPACS lediglich ein Webbrowser notwendig ist, sind alle genannten Plattformen einsetzbar, sofern sie eine TCP/IP Netzwerkverbindung anbieten.

Die Datenbank („Server“) ist auf eine Sun Ultra1 Workstation gesetzt. Der Rechner ist mit 128 MB RAM Hauptspeicher ausgestattet und besitzt eine 200Mhz Ultra Sparc CPU. Er ist über Ethernet (100 Mbit/s) an das Intranet angeschlossen.

2.4.2.2.2 Software

Für den Zugriff auf das PACS wird von seiten der Klienten-Rechner ein Webbrowser benötigt, der Cookies und Formulare unterstützt.

Das PACS visualisiert nach Anwahl einer Untersuchung primär lediglich kleine Voransichten („Icons“) der Röntgenaufnahmen. Zum Herunterladen, Betrachten und Weiterverarbeiten der Bilddaten ist ein entsprechendes Programm notwendig, welches das DICOM Format lesen kann. Nach Anklicken der Röntgenbild-Voransichten auf den Web-Seiten werden die Originalbilddaten aus dem Archiv auf den Arbeitsplatzrechner kopiert und zur Ansicht ein Hilfsprogramm („helper-application“) aktiviert. Die zu diesem Zweck erfolgte Entwicklung „Viewmed“ ist im Kapitel 2.5.3 beschrieben.


29

Die Datenbank bedient sich des Betriebssystems Sun Solaris 2.6. Die einzelnen Softwarekomponenten basieren auf frei verfügbarer Software. Die verwendeten Programmpakete liegen jeweils in Quelltextform im Internet vor und wurden für die Maschine konfiguriert, übersetzt und installiert.

Abbildung 6: Aufbau des PACS


Der eigens entwickelte Charite Image Server (CIS) basiert auf OFFIS Programmbibliotheken für das Lesen, Schreiben sowie die Netzwerkkommunikation von DICOM Daten. CIS nimmt von den Modalitäten über TCP/IP Netzwerk DICOM Bilder entgegen, analysiert den Inhalt und trägt entsprechende Daten in die Datenbank ein. Damit später ein schneller Zugriff auf die speicherintensiven Bilddaten erfolgen kann, werden die eigentlichen Bilddaten nicht in der Datenbank gespeichert, sondern auf eigenen Festplatten gesichert. Die Datenbank enthält nur Verweise auf die jeweiligen Bilddaten.


30

Als Datenbank wird Postgres verwendet. Diese Datenbank bietet eine umfangreiche Unterstützung von SQL Befehlen und eine große Anzahl von Schnittstellen. Das MiniPACS bedient sich einer direkten Schnittstelle über Unix Domain Sockets. Als Webserver wird ein Apache eingesetzt. Apache zeichnet sich insbesondere durch seine Modulierbarkeit aus.

Die Programmiersprache Perl wird verwendet, um die einzelnen Komponenten des MiniPACS zu verbinden. Perl läßt sich gleichfalls durch Module erweitern und ermöglicht eine einfache Integration unterschiedlichster Softwarekomponenten und Systeme. Derzeit existieren mehrere hundert Module für die unterschiedlichsten Anwendungszwecke. Das MiniPACS verwendet Module zur Anbindung an die Datenbank Postgres sowie zur Integration des Webservers Apache. Alle Datenbankoperationen werden von Perl-Skripten durchgeführt. Auch für den Aufbau der zur Navigation des Klienten im MiniPACS notwendigen Web-Seiten wird mittels Perl die Datenbank befragt; im Anschluß werden die erhobenen Daten an den Klienten zurückgesendet.

2.4.2.2.3 Sicherheit

Der Zugang zu Bilddaten ist nach Eingabe einer gültigen Kennung mit Paßwort möglich. Nach einer bestimmten Zeit der Inaktivität werden angemeldete Anwender automatisch abgemeldet. Ein Kennung ist an eine Person gebunden, der gleichzeitige Zugang von unterschiedlichen Klienten-Rechnern mit der identischen Kennung ist nicht möglich. Zugriffe und Kennungen werden protokolliert.

TCP/IP überträgt nach heutigem Stand in der Regel unverschlüsselt. Sowohl TCP/IP konforme Modalitäten als auch die gängigen PC Betriebssysteme genügen den Sicherheitsanforderungen für den Umgang mit Patientendaten nicht. Aus diesem Grund


31

muß ein Schutz des Netzwerks, das bildgebende Modalitäten, PACS und Arbeitsplatzrechner verknüpft, gegen externen Zugriff gewährleistet werden. Üblich ist eine sogenannte „Firewall“, die den Schutz vor unautorisiertem Zugriff auf das Intranet und gleichzeitig den Zugriff interner Arbeitsplatzrechner auf das externe Internet erlaubt.

2.4.3 Bildverarbeitung und Bildansicht mit der Eigenentwicklung Viewmed

Die für die Entwicklung der Phantome notwendigen Versuchsreihen mit und ohne Bildnachverarbeitung wurden mit der medizinischen Bildverarbeitungssoftware Viewmed durchgeführt [ siehe , siehe , siehe ], die ebenfalls in eigenen Entwicklungsprojekten entstanden ist.

Viewmed ist ein DICOM Viewer für Einzelbilder. Abbildung 7 zeigt das geöffnete Programmfenster. Im linken Teil des Fensters findet sich eine Übersicht des lokalen DICOM Speichers mit in Baumstruktur gegliederten Patientennamen, Studien- und Seriendaten. Im mittleren Teil werden die radiologischen Aufnahmen zur Befundung und Nachverarbeitung visualisiert. Der rechte Teil des Fensters zeigt Icons der bereits geöffneten Bilder, die durch Mausklick erneut vergrößert werden können. Mit Hilfe der Maus können im aktivierten mittleren Teil des Programmfensters Zoomfaktor, Ausschnitt und die Grauwertfensterung modifiziert werden. In Ergänzung zur Grauwertfensterung wurden für Digitale Radiographien Ortsfrequenz- und Kontrastverarbeitung (beta und gamma Kurve) implementiert, um eine Bildnachverarbeitung analog den radiologischen Workstations der Fuji- bzw. Siemens Digitalen Lumineszenz Radiographie anbieten zu können [ siehe ].


32

Abbildung 7: Visualisierungssoftware Viewmed. Navigations- und Befundungsfenster


33

Neben den genannten Funktionen für die Visualisierung und Nachverarbeitung von DICOM Dateien bietet Viewmed Möglichkeiten telemedizinischer Nutzung. Durch Bereitstellung einer TWAIN-Schnittstelle können über einen an den PC angeschlossenen Scanner Röntgenfilme gescannt und als DICOM Bild abgespeichert werden. Viewmed ermöglicht darüber hinaus DICOM SCU/SCP für den Empfang und das Senden von Bildern über DICOM/TCP/IP. Viewmed ist auf den Plattformen Windows95-98 und Windows NT einsetzbar.


34

2.4.4 Vorstudie: Evaluation geeigneter Betrachtungsmonitore: Graustufenmonitor versus Farbröhrenmonitor und LC-Display

2.4.4.1 Ziel der Vorstudie

In der Kette der Erstellung und Befundung einer Röntgenuntersuchung ist neben der Datenakquisition und der Datennachverarbeitung die Visualisierung der endgültigen Bilddaten von entscheidender Bedeutung für die Ergebnisqualität. Für ein digitales System sind hierbei die Hardware-Komponenten Grafikkarte und Monitor von besonderem Wert. Sowohl für Grafikkarten als auch für Monitore existieren umfangreiche Evaluationen anhand physikalischer Parameter, während klinische Studien rar und auf Röhrenmonitore beschränkt sind. Die Leistung einer Grafikkarte läßt sich über die Darstellung der Signalamplituden physikalisch leichter erfassen als die multifaktoriell über Leuchtstärke, Kontrastdarstellung und Auflösung zu erhebende Monitorqualität [ siehe , siehe , siehe , siehe ].

In den Konzepten digitaler Röntgenabteilungen finden sich in der Regel Graustufenmonitore in Verbindung mit radiologischen Arbeitsplatzrechnern sowie Farbröhrenmonitore und LC-Displays (Flüssigkristall-Flachbildschirme) in Verbindung mit PCs. Die radiologischen Arbeitsplatzrechner dienen hierbei der Erstbefundung, während PCs nach Verteilung der Bilddaten im Krankenhaus für die Bildbetrachtung auf den Stationen oder in Ambulanzen eingesetzt werden. Mit der Portierung der früher auf radiologische Arbeitsplatzrechner beschränkten Bildnachverarbeitung auf Windows-PCs (beta- und gamma-Kurvenmodifikation beispielsweise durch Viewmed, Kap. 2.4.3) ist prinzipiell die Erstbefundung von Digitalen Lumineszenz Radiographien auch am PC denkbar.


35

Ziel der Vorstudie war es, den Stellenwert der Monitore für die optimale Visualisierung Digitaler Lumineszenz Radiographien zu determinieren. Zu diesem Zweck sollte in einer klinischen ROC Studie ein hochwertiger Graustufenmonitor mit einem Farbröhrenmonitor und (LCD-) Flüssigkristallbildschirmen verglichen werden, um Rückschlüsse auf Unterschiede diagnostischer Validität der Systeme ziehen zu können.

2.4.4.2 Material und Methodik

Für die Studie wurde ein 21´´ Graustufenmonitor der Firma Philips® (Typ CY9) mit einem Sony® 20´´ SE Farbröhrenmonitor sowie einem Pritech® Desk Med II 20´´ LC-Display (Panel: NEC®) und einem Sanyo® LMU 18´´ (Panel: Sharp®) verglichen. Die maximale Leuchtstärke des Philips Monitors betrug 600 ± 50 cd/m2, Sony Farbröhrenmonitor 100 ± 20 cd/m2, Pritech und Sanyo 120 ± 20 cd/m2. Die Matrix wurde für alle Monitore auf 1024 x 768 Pixel entsprechend den für LC-Displays optimalen Bedingungen eingestellt.

Die Optimierung der Kontrast- und Helligkeitsparameter jedes Monitors erfolgte vor Beginn der Testserie mit einem Java-basierten Testprogramm [ siehe ]. Anhand von Grau- und Farbkeilen in zwei- und dreidimensionaler Darstellung ermittelten zwei Beobachter im Konsens eine optimale Einstellung von Kontrast und Helligkeit des Testmonitors.

Die Befundungsbedingungen wurden für alle Monitore standardisiert. Die Beobachtungen fanden bei gleicher Umgebungsbeleuchtung mit durch eine Halteapparatur gewährleistetem identischem Ansichtswinkel und Abstand der Beobachter statt.

Zur Durchführung der ROC-Analyse wurden 5 Digitale Lumineszenz Radiographien eines statistischen Phantoms mit niedrigfrequenten Details zur Simulation von Lungenrundherden in Thoraxaufnahmen erstellt [ siehe ]. Dieses Phantom „Lungenrundherde“


36

wurde auch in der hier niedergelegten Hauptstudie sowie in der Vorstudie zur Evaluation unterschiedlicher Kompressionsalsorithmen verwendet (Kapitel 2.5) und ist im Kapitel 3.1.1 ausführlich beschrieben. Es wurden Digitale Radiographien des Phantoms mit einem Film-Focus-Abstand von 2 m bei 125 kV und 5,6 mAs erstellt. Eine Plexiglasscheibe von 5 cm diente als Streukörper. Alle Bilder wurden durch einen Standard PC als DICOM Bilder mit 10 Bit akquiriert und nach Vereinheitlichung der Fensterung auf 1024/512 als GIFF-Bilder (Graphic Interchange File Format) mit 8 Bit abgespeichert. Ortsfrequenz- oder Kontrastverarbeitung wurde nicht durchgeführt.

Für die ROC Analyse ermittelten 4 Radiologen die Wahrscheinlichkeit der Existenz von 5 kritischen Details (Bohrungen) in den 10 Rundkörpern einer vorher festgelegten Säule [Abb. 8]. Die Befundung wurde an fünf Aufnahmen des Phantoms durchgeführt, bei denen jeweils die Lokalisation der Details variierte. Die Wertung der Beobachter erfolgte anhand einer Skala von 1 bis 5. 1 = sicher positiv, 2 = wahrscheinlich positiv, 3 = gleichermaßen positiv oder negativ, 4 = wahrscheinlich negativ, 5 = sicher negativ. Die Bilder wurden den verblindeten Beobachtern ohne Zeitlimit in zufälliger Reihenfolge vorgeführt. Der statistische Signifikanztest erfolgte mittels Student‘s t-test.


37

Abb. 8: Statistisches Phantom TRG („Lungenrundherde“) als Fotografie (oben) und als Röntgenaufnahme mit niedrigfrequenten Details (unten).
Die Pfeile markieren die Bohrungen (Details) in der Röntgenaufnahme


38

2.4.4.3 Ergebnisse

Die Fläche unter der Kurve für den Philips Monitor betrug 0.84 ± 0.03 [Abb. 9]. Für den Sony Farbröhrenmonitor ergab sich eine Fläche unter der Kurve von 0.8 ± 0.03. Die Flächen unter den Kurven der LC-Displays betrugen 0.81 ± 0.03 für den Sanyo Monitor (Sharp Panel) respektive 0.7 ± 0.03 für den Pritech Monitor (NEC Panel).

Der Philips Graustufenmonitor bewies gegenüber dem Sony Farbröhrenmonitor und dem Sanyo LC-Display signifikante Überlegenheit mit Werten von p < 0.05.

Mit p-Werten von < 0.001 war die Überlegenheit der Darstellung von niedrigfrequenten Details auf dem Philips, Sony und Sanyo Monitor gegenüber dem Pritech Monitor hoch signifikant.

Im Vergleich zwischen dem Sanyo LC-Display und dem Sony Farbröhrenmonitor ergab sich mit einem p < 0.1 ein Trend zu besseren Ergebnissen des Flüssigkristall-Flachbildschirms.


39

Abb. 9: ROC-Kurven der einzelnen Monitore für das Phantom „Lungenrundherde“ mit niedrigfrequenten Details


40

2.4.4.4 Diskussion

In einer vorbereitenden Evaluation einer geeigneten Entwicklungsumgebung für die Optimierung von radiologischen Bildkompressionsalgorithmen wurde ein Graustufenmonitor mit einem Farbröhrenmonitor und zwei LCD Flachbildschirmen verglichen. Unter standardisierten Betrachtungsbedingungen hinsichtlich des Betrachtungswinkels und des Abstands der Beobachter vom Monitor ergab sich in einer ROC Analyse mit niedrigfrequenten Details eine signifikante Überlegenheit des Graustufenmonitors. Signifikant waren auch die Unterschiede zwischen den beiden Flachbildschirmen hinsichtlich der getesteten Kontrastdarstellung. Das Sanyo LC-Display zeigte darüber hinaus einen Trend zu besserer Darstellung im Vergleich mit dem Farbröhrenmonitor.

Die miteinander verglichenen Monitorkonzepte unterscheiden sich grundsätzlich in ihrer physikalischen Arbeitsweise. Graustufenmonitore weisen eine Phosphorschicht auf, deren Moleküle durch Elektronenbeschuß zur Emission von Licht angeregt werden. Da die Notwendigkeit der Farbdarstellung entfällt, muß keine Synchronisation unterschiedlicher Licht- bzw. Farbquellen erfolgen und ein möglicher Konvergenzfehler entfällt. Die maximalen Leuchtstärken hochwertiger Monitore übersteigen mit 600 ± 50 cd/m2 die von Farbbildröhren um ein sechsfaches, wobei die Standardeinstellungen ein dem menschlichen Auge angepaßtes Maximum von ca. 200 cd/m2 vorsehen.

Farbröhrenmonitore steuern über eine Lochmaske ein rotes, grünes und blaues Signal, um die gewünschte Farbe zu visualisieren. Die Konvergenzfehler hochwertiger Monitore betragen bis zu 0.3 mm und können gemeinsam mit einer im Vergleich geringen Leuchtstärke von etwa 100 cd/m2 die Qualität der Darstellung niedrig- und hochfrequenter


41

Information signifikant beeinflussen.

Flüssigkristallbildschirme arbeiten im Gegensatz zu Bildröhren digital. Wenn keine digitale Grafikkarte im PC installiert ist, muß das analoge Signal erneut digitalisiert werden. In den getesteten Panels wird dies durch zusätzliche, im Bildschirm integrierte Grafikkarten erreicht, was den Anschluß dieser Monitore an Standard PCs über standardisierte Schnittstellen wesentlich erleichtert. Die Bildanzeige auf einem Flüssigkristallbildschirm mit einer aktiven Matrix erfolgt über Zeilen- und Spaltentreiber eines TFT Displays (Thin Film Transistor). Jeder Bildpunkt wird von einem eigenen Transistor-Tripel für rot, grün und blau angesteuert. Die Farben werden durch Folien für die roten, grünen und blauen Pixel erzeugt, durch die das Hintergrundlicht tritt. Schwarz-weiß Darstellungen basieren auf der Mischung der Spektralfarben.

Eine Besonderheit der beschriebenen Flüssigkristall-Technologie ist die Änderung des Bildkontrastes in Abhängigkeit vom Betrachtungswinkel. Andere Autoren quantifizierten den Effekt winkelabhängiger Kontrasteinbußen anhand konoskopischer Messungen [ siehe ]. Abb. 10 verdeutlicht anhand einer relativen Farbskala den Bildkontrast jedes Pixels mit zunehmendem Kontrast von blau über grün bis rot. Die Werte wurden ermittelt aus der Summe des Kontrastes bei Beobachtung aus der Mittelsenkrechten der vier Bildschirmaußenkanten und dem Bildschirmzentrum [Abb. 10]. Es ergaben sich signifikante Verschlechterungen des Bildkontrastes zu den Bildschirmrändern, die bei subjektiver Betrachtung von Flüssigkristallbildschirmen aus seitlichen Positionen eindeutig nachvollzogen werden können. Aus diesem Grund erfolgte die eigene Studie unter Einhaltung einer standardisierten, zentralen Beobachterposition, die im klinischen Einsatz jedoch nicht gewährleistet werden kann.


42

Abb. 10: Darstellung des Kontrastes jedes Bildpunktes als Summe der Werte aus unterschiedlichen Blickwinkeln. Der Kontrast nimmt von blau über grün nach rot zu. Sharp Panel entsprechend dem getesteten Sanyo-Monitor


43

Flüssigkristallbildschirme weisen keine Konvergenzfehler und keine geometrischen Unschärfen auf. Ihre maximale Leuchtdichte übersteigt in der Regel die der Farbbildröhren mit Werten um 120 cd/m2 für Standardeinstellungen. Die Unempfindlichkeit gegen elektromagnetische Felder macht sie für die Anwendung im Einflußbereich von Magnetresonanztomographen interessant.

Auffälligstes Ergebnis der Studie war neben der Bestätigung des Graustufenmonitors als überlegene Visualisierungsinstanz die Heterogenität der Leistungen der Flüssigkristallbildschirme. Die Darstellung von Niedrigkontrastdetails erfolgte durch das im Pritech Monitor installierte NEC Panel nicht nur signifikant schlechter als durch die Bildröhren, sondern in der Qualität auch signifikant reduziert gegenüber dem konkurrierenden Sanyo LC-Display. Das im Sanyo Monitor implementierte Sharp Panel zeigte sich auch dem Sony Farbröhrenmonitor überlegen. Ausschlaggebend war hierfür eine sehr hohe Anzahl richtig negativer Befunde, die, ersichtlich aus der Überkreuzung der ROC Kurven in Abb. 9, sogar die Rate richtig negativer des führenden Graustufenmonitors gering übertraf bei einer gleichzeitig jedoch geringeren Anzahl richtig positiver Befunde.

Zusammenfassend kann gefolgert werden, daß aufgrund der winkelabhängig unterschiedlichen Kontrasteigenschaften und der interindividuell sehr heterogenen Leistungsfähigkeit von Flüssigkristallbildschirmen Defizite der Befundungsleistung an LCD Flachbildschirmen zu erwarten sind. Die Abwesenheit eines Konvergenzfehlers in Verbindung mit der höheren Leuchtstärke war mutmaßlich ausschlaggebend für das bessere Ergebnis des Graustufenmonitors im Vergleich mit dem Farbröhrenmonitor bei der Befundung niedrigfrequenter Details. Bei gleicher Auflösung sind Unterschiede in der


44

Detektion hochfrequenter Information nicht zu erwarten [ siehe , siehe ]. Für die Durchführung von klinischen ROC Studien unter Berücksichtigung absoluter Befundungsleistungen sollten Graustufenmonitore als Goldstandard eingesetzt werden.


45

2.5 Vorstudie: Detektion von Niedrigfrequenzdetails mit Wavelet-, Fraktaler und JPEG Kompression

2.5.1 Ziel der Vorstudie

In einer weiteren Vorstudie wurde ein Waveletalgorithmus [ siehe , siehe ] mit einem Fraktalen Algorithmus (Fractal imager 1.1, Iterated Systems®, Atlanta, USA) und JPEG (JFIF: JPEG File Interchange Format [ siehe ]) verglichen. Ziel der Studie war es, die individuellen Charakteristiken und den Stellenwert der einzelnen Bildkompressionsalgorithmen für die Detektion niedrigfrequenter Details in radiologischen Bildern zu bestimmen. Auf diese Weise sollten Rückschlüsse auf potentielle Modifikationen der Algorithmen ermöglicht werden.


46

2.5.2 Material und Methodik

Für eine ROC-Analyse wurden 54 mittels Digitaler Lumineszenz Radiographie erstellte Thoraxaufnahmen selektiert (Digiscan, Siemens, Erlangen, Germany), von denen 31 Lungenrundherde aufwiesen. Der mittlere Durchmesser der Läsionen betrug 1.6 cm; 26 Patienten zeigten 1 Läsion, 5 Patienten zwischen 2 und 8 Läsionen. 23 Bilder zeigten keine Pathologie.

Zusätzlich wurden fünf Bilder eines Phantoms mit kontrastarmen Details in die Studie aufgenommen. Dieses Phantom [ siehe ] wurde auch in der hier niedergelegten Hauptstudie sowie in der Vorstudie zur Entwicklungsumgebung verwendet und ist im Kapitel 3.1.1 ausführlich beschrieben. Zur Durchführung einer ROC Analyse ermittelten die Beobachter die Wahrscheinlichkeit der Existenz von 5 kritischen Details in den 10 Rundkörpern einer vorher festgelegten Säule [Abb. 8]. Die Befundung wurde an fünf Aufnahmen des Phantoms durchgeführt, bei denen jeweils die Lokalisation der Details variierte. Die Digitalen Radiographien wurden mit einem Film-Focus-Abstand von 2 m bei 125 kV und 5,6 mAs erstellt. Eine Plexiglasscheibe von 5 cm diente als Streukörper.

Für die ROC-Analyse bewerteten die Beobachter die Existenz oder Abwesenheit eines Befundes (Rundherd) oder Details (Bohrung) anhand einer Bewertungsskala von 1 bis 5. 1 = sicher positiv, 2 = wahrscheinlich positiv, 3 = gleichermaßen positiv oder negativ, 4 = wahrscheinlich negativ, 5 = sicher negativ. Für die Befundung der Thoraxaufnahmen galt ein Zeitlimit von 3 Sekunden, die Befundung der Testphantome wurde ohne Zeitlimit durchgeführt. Die Bilder wurden den verblindeten Beobachtern in zufälliger Reihenfolge vorgeführt. Der statistische Signifikanztest erfolgte mittels Student‘s t-test.


47

Alle Bilder wurden durch einen Standard PC als DICOM Bilder mit10 Bit akquiriert und nach Vereinheitlichung der Fensterung auf 1024/512 als GIFF-Bilder (Graphic Interchange File Format) mit 8 Bit abgespeichert. Ortsfrequenz- oder Kontrastverarbeitung wurde nicht durchgeführt.

Für eine subjektive Evaluation der Algorithmen wurden 3 zufällig ausgewählte Thoraxaufnahmen mit gleichartig ansteigenden Kompressionsraten komprimiert. Zwei Radiologen bewerteten die Aufnahmen im Konsensus hinsichtlich der Bildqualität: 0 = keine Einschränkung der Befundung, 1 = diskrete Einschränkung der Befundung, 2 = starke Einschränkung der Befundung, 3 = Befundung nicht möglich.

In dieser vorläufigen, subjektiven Evaluation wurden Unterschiede der Rekonstruktionsqualität des fraktalen Algorithmus bei einer Einstellung von „90“ sichtbar. Die Software Fractal imager 1.1 erlaubt eine Voreinstellung der Kompressionsraten von „100“ (geringe Verlustrate, hohe Rekonstruktionsqualität) bis „1“ (hohe Verlustrate, geringe Rekonstruktionsqualität). Alle für die ROC-Studie vorgesehen Digitalen Radiographien mit dem Fractal Imager 1.1 wurden im Anschluß bei einer Einstellung von „90“ komprimiert. Die für jedes Einzelbild erzielte Datenmenge wurde als Zielgröße für die Kompression mit dem Waveletalgorithmus und JPEG festgelegt.

Es wurde eine Zeitmessung für Kompression und Rekonstruktion vorgenommen. Für die ROC-Analyse wurden die Bilder durch 5 gleichermaßen erfahrene Radiologen beurteilt. Die Bildansicht erfolgte an einem Standard PC mit einem 20´´ Sony Multiscan SE Farbmonitor. Die maximale Leuchtdichte dieses Monitors beträgt 100 ± 20 cd/m2, der maximale Konvergenzfehler ist < 0.3 mm, die Matrix wurde mit 1k x 1k definiert. Während der Bildbetrachtung wurde eine identische Umgebungsbeleuchtung eingestellt.


48

Um einen Vergleich mit einem klinischen Standard zu ermöglichen, wurden zusätzlich alle Ausgangsbilder als DICOM-Originale an einem radiologischen Befundungsarbeitsplatz angesehen. Der radiologische Befundungsarbeitsplatz Magic View® (Siemens, Erlangen, Germany) bietet einen 21´´ Simomed 1k x 1k Graustufenmonitor mit einer maximalen Leuchtdichte von 600 cd/m2. Die Nachverarbeitung von Digitalen Lumineszenz Radiographien beinhaltet Kontrastverarbeitung (gamma Kurve) und Ortsfrequenzverarbeitung (beta Kurve). Die für die ROC-Analyse eingestellten Parameter entsprachen dem klinischen Standard für Thoraxaufnahmen (Parameter beta Kurve: RN: 5, RE: 0,16, RT: F, convolution mode: 2, kernel mode: 2. Parameter gamma Kurve: GT: E, GA: 1,04, GC: 564,1, GS: -79,9). Die Fensterwerte wurden mit 1024/256 festgelegt.

Für die ROC-Analyse bewerteten die Beobachter die Existenz oder Abwesenheit eines Befundes (Rundherd) oder Details (Bohrung) anhand einer Bewertungsskala von 1 bis 5. 1 = sicher positiv, 2 = wahrscheinlich positiv, 3 = gleichermaßen positiv oder negativ, 4 = wahrscheinlich negativ, 5 = sicher negativ. Für die Befundung der Thoraxaufnahmen galt ein Zeitlimit von 3 Sekunden, die Befundung der Testphantome wurde ohne Zeitlimit durchgeführt. Die Bilder wurden den verblindeten Beobachtern in zufälliger Reihenfolge vorgeführt. Der statistische Signifikanztest erfolgte mittels Student‘s t-test.


49

2.5.3 Ergebnisse

2.5.3.1 Kompressionszeiten der Thoraxbilder

Die durchschnittliche Kompressionszeit betrug für den Waveletalgorithmus 8 min ± 2 min 43 s, die Rekonstruktionszeit 8 min 32 s ± 2 min 53 s. JPEG: 4 s ± 1 s versus 4 s ± 1 s; Fractal imager: 4 min 32 s ± 35 s versus 5 s ± 1 s.

2.5.3.2 Subjektive Beurteilung der Qualität rekonstruierter Thoraxaufnahmen

Unkomprimierte Thoraxaufnahmen (10 Bit DICOM) enthielten im Mittel 7.2 MByte. Die für die weitere Nachverarbeitung bzw. Kompression herangezogenen 8 Bit GIFF-Bilder (Graphic Interchange File Format) wiesen im Mittel 2.6 MByte aus. Entsprechend beziehen sich die angegebenen Kompressionsraten auf eine Ausgangsbildgröße von 2.6 MByte. In Abb. 11 findet sich die grafische Darstellung der subjektiv empfundenen abnehmenden Bildqualität der Thoraxaufnahmen bei graduell wachsender Kompression mit den verschiedenen Algorithmen. Eine subjektive Qualitätsminderung wurde für JPEG beginnend bei 129 KByte und damit bei einer Kompressionsrate von 1:20 erhoben. Extensive Bildqualitätsreduktion trat ab einer Kompressionsrate von 1:40 auf.

Für fraktale Kompression wurde ein beginnender Qualitätsverlust ab 75 KByte entsprechend einer Kompressionsrate von 1:35 demonstriert. Extensive Bildqualitätsreduktion trat ab einer Kompressionsrate von 1:96 auf.

Bei Waveletkompression entstand ein geringer Qualitätsverlust ab einer Kompressionsrate von 1:84. Hochgradige Qualitätseinbußen resultierten ab einer Kompressionsrate von 1:108.


50

Abb. 11: Subjektive Evaluation Wavelet-, fraktal und JPEG-komprimierter Thoraxaufnahmen.
Bewertung: 0 = keine Einschränkung der Befundung,
1 = diskrete Einschränkung der Befundung,
2 = starke Einschränkung der Befundung,
3 = Befundung nicht möglich.


51

2.5.3.3 Bildgrößen der ROC-Analyse

Die durchschnittliche, durch den fraktalen Algorithmus vorgegebene Dateizielgröße nach Kompression betrug für die Thoraxaufnahmen 43 KByte, für die Aufnahmen des Testphantoms 196 KByte. Die mittlere Kompressionsrate lag demzufolge für die Thoraxaufnahmen bei 1:60, für die Testphantome bei 1:13.

2.5.3.4 ROC-Ergebnisse der Thoraxaufnahmen

Für die am PC durchgeführte Beobachtung unkomprimierter Thoraxaufnahmen wurde eine Fläche unter der Kurve von 0.85 ± 0.03 ermittelt [Abb. 12]. Für Waveletkompression betrug die Fläche unter der Kurve 0.78 ± 0.03; für fraktale Kompression 0.76 ± 0.03. Für JPEG konnte aufgrund der zu stark reduzierten Bildqualität keine ROC-Kurve erhoben werden. Für die Beurteilung unkomprimierter Thoraxaufnahmen am radiologischen Befundungsarbeitsplatz wurde eine Fläche unter der Kurve von 0.84 ± 0.03 erzielt. Hierbei war die Grauwertfensterung identisch zur Befundung am PC, es wurden demgegenüber jedoch zusätzlich Kontrast- und Ortsfrequenzverarbeitung eingesetzt.


52

Abb. 12: ROC-Kurven für Thoraxaufnahmen (1:60)


53

Abb. 13: ROC-Kurven für Aufnahmen des Phantoms (1:13)


54

In der statistischen Analyse wurde eine hochsignifikante Überlegenheit der Befundung unkomprimierter Bilder am PC gegenüber komprimierten Bildern festgestellt (p < 0.001). Die besseren Ergebnisse der Wavelet- im Vergleich mit fraktaler Kompression verfehlten knapp das Signifikanzniveau (p = 0.06). Signifikante Unterschiede zwischen der Befundung am PC und am radiologischen Befundungsarbeitsplatz fanden sich nicht (p > 0.2).

2.5.3.5 ROC-Ergebnisse der Phantomaufnahmen

Die Beurteilung unkomprimierter Phantomaufnahmen am PC ergab eine Fläche unter der Kurve von 0.90 ± 0.02 [Abb. 13]. Für Waveletkompression betrug die Fläche unter der Kurve 0.90 ± 0.02, für fraktale Kompression 0.61 ± 0.04, für JPEG 0.85 ± 0.03. Bei den ROC-Kurven unkomprimierter und waveletkomprimierter Bilder fiel in der grafischen Darstellung eine Überkreuzung auf. Im Vergleich mit waveletkomprimierten Bildern war für unkomprimierte Bilder die Rate richtig positiver Befunde, gleichzeitig aber auch die Rate falsch negativer erhöht. Bei JPEG-komprimierten Bildern ergab sich eine hohe Rate richtig negativer Befunde, die ebenfalls eine Überkreuzung der Kurve mit der ROC-Kurve unkomprimierter Bilder zeigte. Aufgrund einer nahezu idealen Beobachterleistung konnte keine ROC-Kurve für unkomprimierte Bilder und Befundung am radiologischen Befundungsplatz (einschließlich Bildnachverarbeitung) errechnet werden.

Für die Befundungsleistung unkomprimierter Bilder am PC versus waveletkomprimierter Bilder wurde kein statistisch signifikanter Unterschied erhoben. Die Befundungsleistung unkomprimierter oder waveletkomprimierter Bilder war der bei JPEG-komprimierten Aufnahmen hochsignifikant überlegen (p < 0.001). JPEG wiederum zeigte gegenüber fraktaler Kompression gleichfalls hochsignifikant bessere Ergebnisse (p < 0.001).


55

2.5.4 Diskussion

Ziel der Vorstudie war die Determinierung der individuellen Eigenschaften derzeit im Mittelpunkt der Diskussion stehender Bildkompressionsalgorithmen. Zu diesem Zweck wurde eine visuelle Analyse nach der in der Radiologie seit langem etablierten ROC-Methode durchgeführt [ siehe , siehe ]. Es fanden sowohl klinische Thoraxbilder als auch Bilder eines Testphantoms Eingang in die Studie. Zur Erhöhung der Sensitivität der ROC-Analyse mittels der Thoraxaufnahmen wurden nur Patienten mit diskreten Befunden ausgewählt und zusätzlich die Ansichtszeit limitiert. Trotzdem waren schwellenwertnahe Details nur in eingeschränktem Maß ausschlaggebend für das Ergebnis dieses Studienteils. Auch kleine pulmonale Raumforderungen werden in der Regel innerhalb von 0.2 Sekunden detektiert [ siehe , siehe ]. Die Limitierung der Ansichtszeit beeinflußte die Erkennung schwellenwertnaher Details mehr als die Erkennung von Läsionen mit höherem Kontrast [ siehe , siehe ]. Fünf der 31 Patienten boten darüber hinaus mehr als eine pulmonale Läsion. Da eine eindeutige örtliche Zuordnung der Läsionen nicht gefordert wurde, verminderten sich für diese Aufnahmen die Anforderungen an die Beobachter. Die genannten Faktoren erklären den Umstand, daß kein signifikanter Unterschied der Befundungsleistung unkomprimierter Bilder am PC und dem radiologischen Befundungsarbeitsplatz mit Bildnachverarbeitung gefunden wurde.

Um eine schwellenwertnahe Darstellung kritischer Details zu erreichen, wurden die Aufnahmen des Testphantoms in die Vorstudie integriert. Trotz der Schwellenwertnähe der Details konnte für die Befundung am radiologischen Befundungsplatz bei einer nahezu idealen Befundungsleistung keine Fläche unter der Kurve errechnet werden. Im Vergleich hierzu erbrachte die Befundung unkomprimierter Bilder am PC signifikant schlechtere


56

Ergebnisse. Es kann gefolgert werden, daß die kontrastverstärkende Bildnachverarbeitung des radiologischen Befundungsplatzes eine wichtige Verbesserung für die Detektion von Niedrigfrequenzinformation bedeutet. Demgegenüber sind der Einfluß der Grafikkarte oder der Leuchtstärke des Monitors deutlich nachgeordnet [ siehe , siehe , siehe , siehe ].

Alle getesteten Algorithmen wurden ursprünglich für die Kompression natürlicher Farbbilder entwickelt. Das Prinzip fraktaler Algorithmen mit Identifikation redundanter Bildelemente arbeitet weitgehend unabhängig davon, ob es sich um ein Farb- oder Graustufenbild handelt. Kernelement der JPEG Kompression ist die diskrete Cosinus Transformation, die eine Umwandlung der Frequenz- in Ortsinformation vornimmt und so den Quantisierungsschritt vorbereitet. Eine Modifikation der Signaltransformation des Algorithmus beispielsweise zur Anpassung an besondere Signaleigenschaften ist nicht möglich. Für den Waveletalgorithmus dagegen gilt, das die Signaltransformation durch eine indefinite Anzahl von Mutterwavelets durchgeführt werden kann; entsprechend ist eine Anpassung des Algorithmus und insbesondere des Transformationsschrittes an besondere Bildeigenschaften wie jene von Graustufenbildern (z.B. Röntgenaufnahmen im Vergleich zu natürlichen Bildern) durchführbar [ siehe ].

Obwohl JPEG als Bildstandard gilt und von unterschiedlichsten Programmen unterstützt wird, wurde bisher keine Einigung über das implementierte Kompressionsverfahren, im speziellen die Quantisierung, erzielt. Daraus muß gefolgert werden, daß die Kompressionseigenschaften der unterschiedlichen JPEG-Packete nur orientierend miteinander verglichen werden können. Die fraktale Kompression gilt ebenso wie die Waveletkompression als experimentell und unterliegt bislang keiner Standardisierung. Zur Auswahl eines geeigneten fraktalen Algorithmus wurden insgesamt 3 Algorithmen subjektiv gegeneinander evaluiert; Fractal Imager 1.1 wurde nach Konsensusentscheid


57

zweier Radiologen ausgewählt. Es kann nicht ausgeschlossen werden, daß fraktale Algorithmen mit besseren Kompressionseigenschaften als der ausgewählte existieren. Für den Waveletalgorithmus gilt, daß dieser in einer vergleichenden Studie der Fachzeitschrift c´t [ siehe ] die Spitzenposition unter 4 weiteren einnahm. Entsprechend wurde der identische Algorithmus auch in der Hauptstudie eingesetzt. Entscheidend für die weitergehende Bewertung der Ergebnisse der eigenen Studie ist, daß die prinzipiellen Effekte auf die Kompressions- und Rekonstruktionsergebnisse Digitaler Radiographien innerhalb einer Klasse von Algorithmen identisch sind.

Die Kompression der Thoraxaufnahmen wurde mit einer hohen Kompressionsrate durchgeführt, die jene in anderen Studien überstieg. Ursächlich war das Bemühen, eine möglichst niedrige Kompressionsrate zu wählen, bei der signifikante Rekonstruktionsunterschiede der Algorithmen resultierten. Wie die Ergebnisse dieser ROC-Analyse und andere Autoren zeigten, kann die gewählte Kompressionsrate für keinen der getesteten Algorithmen als diagnostisch einsetzbar angesehen werden [ siehe , siehe ]. Der aufgezeigte Trend zu stärkeren Einschränkungen der Detektion kontrastarmer Lungenherde bei fraktaler Kompression bestätigte die subjektive Beurteilung der Bildqualität nach Kompression. Der fraktale Algorithmus zeigte schon frühzeitig leichte, kontinuierlich zunehmende Artefakte. Der Waveletalgorithmus dagegen demonstrierte erst bei hoher Kompressionsrate sichtbare, dann jedoch schnell fortschreitende Einschränkungen der Rekonstruktionsqualität. Bei der gewählten Kompressionsrate von 1:60 generierte JPEG massive Blockartefakte, die eine Bildbefundung unmöglich machten.

Die Analyse schwellenwertnaher Details erfolgte wie beschrieben im Wesentlichen durch das statistische Phantom. Bei der gewählten Kompressionsrate ergaben sich keine


58

signifikanten Unterschiede der absoluten Ergebnisse für unkomprimierte und waveletkomprimierte Bilder bei PC-Befundung. Die Überkreuzung der ROC-Kurven dieser Bilder spricht jedoch für eine Verschiebung des Befundspektrums mit einer für unkomprimierte Bilder höheren Rate richtig positiver Befunde bei gleichzeitig statistischer Kompensation durch eine erniedrigte Rate richtig negativer Angaben gegenüber Waveletkompression. Es ist anzunehmen, daß durch die frequenzverarbeitenden Eigenschaften des Waveletalgorithmus eine diskrete Verringerung des Bildrauschens resultierte. Gleichzeitig führte die Quantisierung jedoch zu einer Unterdrückung von Singularitäten wie optischen Kanten [ siehe ]. Die beschriebenen Effekte dürften auch bei Digitalen Radiographien nach Kontrastverarbeitung an einem radiologischen Befundungsplatz zum Tragen kommen [ siehe ]. Mit zunehmender Kompressionsrate entstehen bei Waveletkompression Bildunschärfen, Pseudokonturen bzw. typische „Ringing“-Artefakte.

Für die ROC-Bewertung der mit dem fraktalen Algorithmus komprimierten Bilder des statistischen Phantoms zeigte sich bei einer Kompressionsrate von 1:13 eine signifikante Einschränkung der Detektion kontrastarmer Details entsprechend der schon bei geringer Kompression sichtbaren diskreten Einschränkung der Bildqualität durch Unschärfen und minimale Artefakte. Die aufgezeigten Ergebnisse mit signifikanten Nachteilen fraktaler Kompression gegenüber Wavelets werden von anderen Autoren bei Einsatz von Farbbildern in einer nicht randomisierten Studie bestritten [ siehe ].

JPEG-Kompression zeigte bei geringen Kompressionsraten zunehmende Bildunschärfen vermutlich durch ein Überwiegen der Artefakte, die aus der Quantisierung der Koeffizientenmatrix resultierten [ siehe ]. Bei steigender Kompressionsrate waren Pseudokonturen führend, die als sogenannte Blockartefakte durch die Unterteilung des


59

Bildes in Felder zu je 8 x 8 Pixeln entstanden. Eine Mittelung der Grauwerte über die Grenzen dieser Blöcke ist in JPEG nicht vorgesehen [Abb. 14][ siehe ]. Hierin liegt der augenfälligste Vorteil der Waveletkompression gegenüber JPEG: die in die Signaltransformation mittels Wavelets einfließende zeitliche Information erlaubt die räumliche Zuordnung der Frequenzen ohne die für die diskrete Cosinus Transformation notwendige Segmentierung des Bildes.

60

Abb. 14: Thoraxaufnahme nach hochgradiger JPEG-Kompression: typische Blockartefakte durch Segmentierung des Bildes für die Signaltransformation


61

Die Kompressioneffekte auf die Rekonstruktion hochfrequenter gegenüber niedrigfrequenten Details unterscheiden sich je nach Kompressionsalgorithmus. Für JPEG gilt, daß die Quantisierung der Koeffizienten bei steigender Kompressionsrate hochfrequente stärker als niedrigfrequente Information beeinträchtigt. Prinzipiell verstärken die Iterationen der Multiskalenanalyse der Waveletalgorithmen insbesondere Quantisierungsfehler im Niedrigfrequenzbereich. Bei fraktaler Kompression nimmt mit steigender Kompressionsrate die Anzahl der Iterationen ab, so daß hochfrequente Informationen gegenüber niedrigfrequenten Details in der Transformation anteilig geringer repräsentiert werden. Es kann gefolgert werden, daß die Leistungsfähigkeit der Kompressionsalgorithmen wesentlich von der Frequenzcharakteristik eines Bildes abhängig ist. Die mit Digitalen Radiographien des Thorax für die Detektion von Lungenherden erzielten Ergebnisse können demzufolge nicht notwendigerweise auf Computertomographien, Magnetresonanztomographien, Ultraschallbilder oder auch Digitale Radiographien des Skeletts übertragen werden.

Sowohl der getestete fraktale wie der Waveletalgorithmus benötigten erhebliche Rechenzeiten für die Kompression, der Waveletalgorithmus im Gegensatz zur asymmetrischen fraktalen Kompression auch für die Rekonstruktion der Bilder. Nur der JPEG Algorithmus demonstrierte Kompressions- und Rekonstruktionszeiten, die einen klinischen Einsatz sinnvoll erscheinen ließen. Für Waveletkompression erscheint beispielsweise der Einsatz von Filtern geringerer Komplexität sinnvoll, um eine Beschleunigung der Rechenoperationen zu erreichen. In diesem Fall wäre jedoch gleichzeitig auch eine Veränderung der Kompressions- und Rekonstruktionseigenschaften zu erwarten.


62

2.5.5 Schlußfolgerungen

Die Vorstudie demonstrierte ein hohes Entwicklungspotential insbesondere des Waveletalgorithmus mit deutlichen Vorteilen gegenüber JPEG und der fraktalen Kompression [ siehe , siehe ]. Die Limitation der JPEG-Kompression liegt in der durch Festlegung auf die diskrete Cosinus Transformation gegebenen fehlenden örtlichen Zuordnung der transformierten Frequenzen, die eine Unterteilung der Bilder in Blöcke notwendig macht. Die Prinzipien der Quantisierung und Kodierung gleichen denen der Waveletalgorithmen.

Fraktale Algorithmen unterliegen durch die prinzipielle Fokussierung auf redundante Bildinhalte ebenfalls Einschränkungen der Entwicklungsfähigkeit.

Eine Fortentwicklung von Waveletalgorithmen ist außerhalb der Quantisierung und Kodierung insbesondere über eine optimale Auswahl der zugrunde liegenden Filter möglich:

Aus den genannten Gründen konzentrierte sich der Versuchsaufbau der Hauptstudie auf


63

die Optimierung von Waveletalgorithmen durch geeignete Filterauswahl für die Kompression radiologischer Bilder.

© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.

DiML DTD Version 2.0
Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML - Version erstellt am:
Fri Feb 7 16:27:58 2003