Kern, Hartmut : „SIRS und Sepsis nach kardiochirurgischen Eingriffen - Vergleich verschiedener Modelle zur Risikostratifizierung“

64

Kapitel 4. Diskussion

4.1 Systemische Inflammation nach kardiopulmonalem Bypass

4.1.1 Inzidenz

In der vorliegenden Studie konnte am eigenen Patientengut von 3653 Patienten nach kardiochirurgischen Eingriffen bestätigt werden, daß Symptome einer systemischen Inflammation nach kardiopulmonalen Bypass häufig auftreten und bei 77,1 % der Patienten am ersten postoperativen Tag als definierte Symptome eines SIRS nachweisbar sind. Allerdings ist das Vorliegen eines SIRS zur Vorhersage einer prolongierten systemischen Inflammation wenig geeignet, da nur 20,0 % dieser Patienten ein prolongiertes SIRS über mindestens die ersten 72 Stunden postoperativ entwickelten. Bei nur 4,4 % der Patienten mit Symptomen eines SIRS am ersten postoperativen Tag trat im weiteren primären intensivmedizinischen Verlauf als Komplikation eine Sepsis auf.

Die Inzidenz eines SIRS am ersten postoperativen Tag erscheint höher als in der Literatur bisher beschrieben Die Angaben über das Auftreten eines „vasodilatatorischen Schock-Syndroms“ variieren zwischen 4 % [Tuman 1995] und 44% [Kristof 1999], abhängig davon, ob die Definition des Syndroms aufgrund klinischer, hämodynamischer oder pharmakologischer Kriterien erfolgte [Johnson 1999, Kristof 1999, Tuman 1995, Christakis 1994]. Kristof und Mitarbeiter untersuchten bei nur 79 Patienten das Auftreten eines postoperativen SIRS unter Verwendung einer hämodynamischen Definition [Kristof 1999]. In 44% ihrer Patienten trat an mindestens zwei nacheinanderfolgenden Meßzeitpunkten ein Abfall des systemisch vaskulären Widerstandindex auf unter 1800 dyn*sec/cm5 * m² auf. Cremer und Mitarbeiter hatten bereits 1996 an 20 Patienten nach elektiven herzchirurgischen Operationen unter Verwendung des kardiopulmonalen Bypasses einen signifikant verminderten systemisch vaskulären Widerstand mit konsekutivem Vasopressoreneinsatz als Ausdruck eines SIRS beschrieben [Cremer 1996]. Argenziano und Mitarbeiter publizierten bei zwanzig von 145 untersuchten Patienten (14 %) die Notwendigkeit zum Einsatz von Noradrenalin als Ausdruck einer systemischen Vasodilatation innerhalb der ersten 30 Minuten nach Abgang vom kardiopulmonalen Bypass [Argenziano 1998]. Christakis und Mitarbeiter untersuchten an 555 herzchirurgischen Patienten das Ausmaß eines systemischen Widerstandsverlusts anhand der benötigten Noradrenalin-Dosis [Christakis 1994]. Nur 22 % ihrer Patienten benötigten kein Noradrenalin bzw. eine maximale Dosis von 160 µg während


65

des kardiopulmonalen Bypass. Die übrigen 78 % der Patienten wurden mit 161 bis 800 µg Noradrenalin (36 %) bzw. mit mehr als 800 µg Noradrenalin (42 %) während des kardiopulmonalen Bypass behandelt, um einen arteriellen Mitteldruck von 50 mmHg bei einem Fluß von über 2,2 l/min/m² ohne chirurgische Manipulation aufrecht zu erhalten. Die Wahl eines Noradrenalinbedarfs von über 160 µg unter kardiopulmonalem Bypass als SIRS-Kriterium führte somit zu einer dieser Studie vergleichbaren Inzidenz von 78 % .

Die zitierten Studien sind im Vergleich zur vorliegenden Studie durch eine um den Faktor 10 bis 100 kleinere Fallzahl gekennzeichnet. Darüberhinaus wurden in diesen Studien die klassischen Kriterien des SIRS nicht erhoben. In der vorliegenden Arbeit wurde retrospektiv nach 24 Stunden der APACHE II und SAPS II erhoben, indem für die zurückliegende Zeit der im steady state am weitesten von der Norm abweichende Wert dokumentiert wurde. Als steady state wurde eine Zeitperiode von mindestens 6 Stunden definiert. Aus den vorliegenden Daten wurde dann die Zuordnung über das Vorhandensein des Merkmals SIRS entschieden. Durch diese im APACHE-Score vorgeschriebene Vorgehensweise könnte es zu einer erhöhten Inzidenz eines SIRS am ersten postoperativen Tag gekommen sein. Die Definition des prolongierten SIRS über mehr als drei aufeinanderfolgende Tage allerdings scheint den Nachteil der Datendokumentation entsprechend den APACHE-Kriterien zu minimieren. Ein deutlicher Vorteil liegt in der lückenlosen Datendokumentation über einen Zeitraum von über 4 Jahren auf einer spezialisierten Intensivstation mit einem hohen Patientenaufkommen. Die Größe der Patientenpopulation von 3653 Patienten an einem universitären Herzzentrum mit standardisierten prä-, intra-und postoperativen Therapieabläufen minimiert darüberhinaus im Vergleich zu einer multizentrischen Datenerhebung externe Einflußfaktoren wie unterschiedliche Temperaturen während des kardiopulmonalen Bypass (Hypo- versus Normothermie), oder unterschiedliche chirurgische, anästhesiologische oder intensivmedizinische Vorgehensweisen. Die Definition des prolongierten SIRS über mindestens die ersten drei postoperativen Tage wurde 1994 von Pilz und Mitarbeitern bei 110 kardiochirurgischen Patienten angewendet [Pilz 1994a]. Die Autoren beschrieben eine 67 %-ige Vorhersagenauigkeit von septischen Komplikationen durch das Vorhandensein eines prolongierten SIRS in ihrem Patientengut. Septische Komplikationen traten mit einer Inzidenz von 14,5 % im gesamten Patientenkollektiv auf, das aus Risikopatienten bestand. Eingeschlossen wurden nur Patienten, die aus klinischer Indikation ein erweitertes hämodynamisches Monitoring bis mindestens zum zweiten postoperativen Tag benötigten und über mehr als 24 Stunden intensivmedizinisch behandelt


66

werden mußten. Die Inzidenz von septischen Komplikationen in der Studie von Pilz et al. entspricht der Inzidenz eines prolongierten SIRS in der vorgelegten unselektionierten Patientenpopulation nach kardiochirurgischen Eingriffen.

Nur 3,7 % der gesamten Patientenpopulation entwickelte im weiteren primären intensivmedizinischen Verlauf eine Sepsis nach den Kriterien der Konsensuskonferenz [Members American College Chest Physicians 1992]. Aus der selektionierten Patientengruppe mit prolongiertem SIRS entwickelten immerhin 21,8 % eine Sepsis. Über 91 % der Patienten mit einer Sepsis im primären intensivmedizinischen Verlauf waren durch ein prolongiertes SIRS über mindestens die ersten drei postoperativen Tage gekennzeichnet. Nur 9 % der Patienten mit Sepsis im weiteren intensivmedizinischen Verlauf wiesen an den ersten drei postoperativen Tagen keine Symptome eines SIRS auf. Die Besonderheit, daß in der zitierten Studie von Pilz et al. die Definition einer Sepsis oder von septischen Komplikationen nach klinischen Gesichtspunkten durch den behandelnden Chirurgen und Intensivmediziner gestellt wurden, könnte die unterschiedliche Inzidenz der Sepsis in den beiden Studien erklären [Pilz 1994a]. Die Anwendung der Sepsiskriterien nach der Konsensuskonferenz in einer Studie an 2615 Patienten eines griechischen Herzzentrums [Michalopoulos 1998] ergab eine Inzidenz einer schweren Sepsis von nur 2 % im untersuchten Patientenkollektiv. Demgegenüber publizierten Ford et al. in einer retrospektiven Studie an 321 Patienten nach arterio-koronarer Revaskularisierung bei 22 Patienten (6,8 %) eine durch mikrobiologischen Nachweis gesicherte Sepsis, wobei 75 % der Infektionen durch gramnegative Erreger hervorgerufen wurden [Ford 1991]. Eine mögliche Erklärung für die geringere Inzidenz einer Sepsis in der Studie von Michalopoulos et al. mag im geringeren Alter mit 61 Jahren im Vergleich zu 63 Jahren in der vorliegenden Studie liegen [Michalopoulos 1998]. Angaben über die Erkrankungsschwere des Patientengutes in der Studie von Michalopoulos, z.B. durch die Anwendung eines Score-Systems, sind nicht vorhanden, so daß eine unterschiedliche Ausprägung der Haupt- und Begleiterkrankungen als weiterer Einflußfaktor zu bedenken ist. Dennoch scheint das Auftreten einer Sepsis mit einer Häufigkeit von 3,7 % in der vorgelegten Studie den Ergebnissen der neueren Studien [Michalopoulos 1998] zu entsprechen im Vergleich zu dem deutlich erhöhten Auftreten in älteren Studien [Ford 1991] als Ausdruck einer Weiterentwicklung der chirurgischen Technik und der Qualität der intensivmedizinischen Behandlung, z.B. durch Standardisierung von Therapieabläufen [Kern + Kox 1999].


67

4.1.2 Entstehungsmechanismen

Die moderne Ära der Kardiochirurgie begann, als in den frühen 50er Jahren die Technik des kardiopulmonalen Bypasses (CPB) entwickelt wurde. Obwohl die Notwendigkeit zum Einsatz der extrakorporalen Zirkulation offenkundig war, zeigte sich in den folgenden Jahren, daß ein ausgeprägter systemischer Inflammationsprozess mit dem CPB verbunden war [Kirklin 1991, Elgebaly 1994, Cremer 1996]. Kirklin vertrat die Hypothese, daß die negativen Effekte des CPB sekundär durch den Kontakt des Patientenblutes mit der Fremdoberfläche bedingt sei, was einen "whole body inflammatory response“ hervorrufen würde [Kirklin 1991]. Die Inflammation ist die erste, unspezifische Antwort eines vaskularisierten Gewebes auf eine Vielzahl von schädigenden Einflüssen als Versuch der Elimination des schädigenden Agens [Asimakopoulos 1999]. Allerdings kommt es in einigen Fällen zu einem Verlust der lokalen Begrenzung der Inflammation, so daß pro-inflammatorische Mediatoren mit vasoaktiven und chemotaktischen Effekten ausgeschüttet werden. Diese inflammatorisch humorale Kaskade ist gekennzeichnet durch eine Aktivierung verschiedener Systeme wie dem Komplementsystem, dem Plättchen-aktivierenden Faktor (PAF) sowie der inflammatorischen Zytokinkaskade [Boyle 1997]. Am Ende mündet dieser inflammatorische Prozeß in einer Aktivierung der Endothelzellen, Adhäsionsmoleküle, sowie der neutrophilen Granulozyten mit konsekutiver Freisetzung von Proteasen und freien Radikalen. Dies kann zum Auftreten von Organfunktionseinschränkungen bis zur Entwicklung eines multiplen Organ-Dysfunktions-Syndrom (MODS) nach einem kardiochirurgischem Eingriff beitragen. Zusätzlich zur Aktivierung der systemischen Inflammation durch den CPB können prolongierte nicht-pulsatile Perioden während des kardiopulmonalen Bypass und Situationen mit stark eingeschränktem Herzzeitvolumen nach Beendigung des CPB zu einer Endorgan-Ischämie führen [Verrier 1993].

Die Aktivierung des Komplementsystems stellt einen frühen Mechanismus dar, der die systemische Enzündungsreaktion triggert und verstärkt. Das Komplementsystem besteht in inaktivierter Form aus 9 Komponenten C1-9, während das System in der aktivierten Form aus mehr als 20 Komponenten besteht [Asimakopoulos 1999]. Der klassische Mechanismus der Komplement-Aktivierung besteht in der Bindung eines Antigen-Antikörper-Komplexes an C1. Dies führt zu einer Aufspaltung von C3 und C5 mit Produktion von C3b und C5b sowie der sogenannten Anaphylatoxine C3a und C5a. Die Anaphylatoxine können in der systemischen Entzündungsreaktion eine ausgeprägte Vasodilatation mit erhöhter Gefäßpermeabilität, Leukozytenaktivierung, Chemotaxis und Leukozytenadhäsion sowie die


68

Phagozytose von Mikroorganismen durch neutrophile Granulozyten und Monozyten hervorrufen. Bei kardiochirurgischen Patienten überwiegt jedoch ein alternativer Aktivierungsprozeß des Komplementsystems. Durch die initiale Ablagerung von kleinen Mengen von C3b auf der Fremdoberfläche der Herz-Lungen-Maschine, des Oxygenators und des erforderlichen Schlauchsystems kommt es zu einem überschießenden Abbau von C3 und einer zunehmenden Ablagerung von C3b auf den Fremdoberflächen [Asimakopoulos 1999]. Konsekutiv kommt es zu einem Abbau von C5 zu C5a und C5b. Das einmal gebildete C5b interagiert mit weiteren Komplementfaktoren und führt zu einer Bildung von sogenannten mebran-attackierenden Komplexen (membrane attacking complexes MAC). Diese MAC verursachen eine Lyse von prokaryotischen Zellen, aber auch eine Aktivierung von Leukozyten und Endothelzellen [Moore 1994]. Modifizierend auf die Komplementaktivierung und konsekutive Aktivierung der neutrophilen Granulozyten bei kardiochirurgischen Patienten, die unter Verwendung des kardiopulmonalen Bypass operiert werden, können Heparin und Hypothermie wirken [Moore 1988]. In der vorliegenden Studie ist ein Einfluß dieser Faktoren auf die Inzidenz eines prolongierten SIRS oder einer Sepsis unwahrscheinlich, da alle Patienten entsprechend klinikinternen Standards vollheparinisiert wurden und ein normothermer nicht-pulsativer CPB verwendet wurde.

Die Aktivierung von Leukozyten und ihre Mobilisierung in Richtung auf die geschädigte Region stellt eine wichtige Funktion der körpereigenen Abwehr dar. Polymorphkernige neutrophile Granulozyten (PMN) im besonderen spielen eine wichtige Rolle bei der Bekämpfung bakterieller Infektionen und bei der Reparatur verletzten Gewebes [Weiss 1989].

Eine im SIRS charakteristische überschießende Aktivierung der PMN führt jedoch zur Freisetzung von inflammatorischen Mediatoren und einer direkt gewebeschädigenden Wirkung von proteolytischen Enzymen [Asimakopoulos 1999]. Eine überschießende Aktivierung der PMN ist an der Pathogenese des „Capillary leak syndrome“ mit reduzierter Mikrozirkulation und Endorganschädigung beteiligt bis hin zur Entwicklung eines MODS [Welbourn 1991, Partrick 1996]. Spezifische Rezeptoren auf der Oberfläche der PMN können durch proinflammatorische Zytokine aktiviert werden, wie Interleukin (IL)-1, Tumor-Nekrose-Faktor (TNF)-alpha, Interferon (IFN)-gamma , Plättchen-aktivierender Faktor (PAF) sowie die aktivierten Komplementfaktoren C3a und C5a. Neutrophile ihrerseits können proinflammatorische Faktoren (IL-1, TNF-alpha, IL-6, IL-8, IFN-gamma) sezernieren [Fujishima 1995]. Neutrophile interagieren mit Endothelzellen über die Expression spezifischer Adhäsionsmoleküle an ihrer Oberfläche [Albelda 1994]. Das schädigende Potential der


69

aktivierten PMN hängt von ihrer Fähigkeit zur Endotheladhärenz ab. Die PMN-Endothelzelladhäsion kann zu einer Freisetzung von toxischen Substanzen aus den intrazellulären Speichern der PMN und zur Bildung von NADPH-Oxidase und dem Enzym Myeloperoxidase führen, die an der Bildung von freien Radikalen beteiligt sind [Weiss 1989]. Neben proteolytischen Enzymen aus den neutrophilen Granulozyten können diese freien Radikale als zellschädigende Mediatoren endothelial und subendothelial wirken. Partrick et al. konnten bei Patienten nach einem kardiochirurgischen Eingriff zeigen, daß ein vulnerables Fenster zwischen 3 und 12 Stunden postoperativ besteht, indem zirkulierende PMN´s aktiviert sind zur Freisetzung von zytotoxischen Superoxidanionen und Elastase [Partrick 1998]. Gleichzeitig kommt es zur Entwicklung eines zellulären Defekts der PMN zwischen dem zweiten und dritten postoperativen Tag nach CPB. Damit kann es zu einer erhöhten Infektionsgefahr sowohl in der direkten postoperativen Phase wie auch bis zum dritten postoperativen Tag kommen. Dies kann zur Inzidenz von 14,5 % eines prolongierten SIRS bis mindestens einschließlich des dritten postoperativen Tages in der vorgelegten Studie beigetragen haben.

Neben der Komplementaktivierung kommt den Zytokinen eine zentrale Rolle bei der Entwicklung eines SIRS nach CPB zu. Nach Initiierung des CPB konnte in verschiedenen Studien ein Anstieg der pro-inflammatorischen Zytokine TNF-alpha [Cremer 1996, Holzheimer 1994, Kotani 2000, Grünenfelder 2000] und IL-1 [Lahat 1992, Menasche 1994] beschrieben werden. TNF-alpha und IL-1 werden hauptsächlich von aktivierten Monozyten gebildet und führen ihrerseits zu einer Aktivierung von PMN, Makrophagen und Endothelzellen. Das inflammatorische Zytokin IL-6 wird von aktivierten Monozyten und Endothelzellen gebildet. Erhöhte Plasmaspiegel von IL-6 wurden bei einer Vielzahl von akuten inflammatorischen Prozessen wie akuter Pankreatitis und Sepsis nachgewiesen [Asimakopoulos 1999]. Ein Anstieg von IL-6 beim CPB wurde mehrfach nachgewiesen mit Erreichen eines Peaks nach 4 Stunden [Cremer 1996, Holzheimer 1994, Grünenfelder 2000]. IL-8 wirkt als Zytokin mit niedrigem Molekulargewicht vor allem leukozytenaktivierend und wird neben Monozyten und PMN vor allem von Endothelzellen gebildet, was zum Anstieg von IL-8 nach CPB beitragen kann [Frering 1994]. Neuere Studien haben eine erhöhte Zytokinproduktion in alveolaren Makrophagen im Vergleich zu Monozyten im Plasma nachgewiesen, was Hinweis für einen erhöhten pulmonalen inflammatorischen Prozess nach CPB sein könnte [Kotani 2000]. Allerdings hat eine Senkung der während des CPB gebildeten inflammatorischen Zytokine bei erwachsenen Patienten durch Ultrafiltation keinen Einfluß auf das klinische


70

Outcome [Grünenfelder 2000], was den alleinigen Zusammenhang zwischen initialer Zytokinaktivierung und der Entstehung eines prolongierten SIRS nach CPB in Frage stellt. Die Möglichkeit einer zweiten Aktivierung des Zytokinsystems z.B. durch eine intraoperative Komplikation oder eine postoperative myokardiale Ischämie erscheint möglich [Spies 2001].

Die Adhäsion zwischen Leukozyten und Endothel wird durch die Expression von drei Hauptgruppen der Adhäsionsmoleküle unterstützt: den Selectinen, den Integrinen und den Immunglobulinen [Asimakopoulos 1999]. Die Selectine, die für das Rolling der Leukozyten am Endothel verantwortlich sind, werden in drei Untergruppen unterteilt: das L-Selectin wird auf allen Leukozytentypen exprimiert, das P-Selectin wird auf Plättchen und das E-Selectin nur auf aktivierten Endothelzellen gebildet. Integrine werden auf beinahe allen Zelltypen gefunden und sind durch unterschiedliche alpha- und beta-Untereinheiten gekennzeichnet. Sie erleichtern die feste Anhaftung der Leukozyten am Endothel und deren Migration ins umliegende Gewebe. Das intrazelluläre und das vaskuläre Adhäsionsmolekül (ICAM-1 und VCAM-1) aus der Familie der Immunglobuline werden auf PMN und Endothelzellen gebildet und agieren als Bindungsstelle für die Integrine [Albelda 1994]. Die Plasmaspiegel von ICAM-1 und E-Selectin bei septischen Patienten mit präexistenter koronarer Herzerkrankung (KHK) sind erhöht im Vergleich zu septischen Patienten ohne präexistente KHK als Zeichen einer andauernden endothelialen Schädigung in der Progression der Sepsis bei KHK-Patienten mit primär vorgeschädigter endothelialer Struktur [Kern 2001b]. Insbesondere die Integrine werden durch den Einsatz der extrakorporalen Zirkulation hochreguliert und erreichen einen Spitzenspiegel während der ersten 4-24 Stunden postoperativ [Le Deist 1996], was zur hohen Inzidenz eines SIRS innerhalb der ersten 24 Stunden (77,1 % in der vorliegenden Studie) beitragen kann.

Der Plättchen-aktivierende Faktor (PAF) ist ein weiterer Mediator, der im Pathomechanismus von lokaler und systemischer Inflammation, Ischämie-Reperfusionssyndromen und Schocksituationen eingebunden ist [Schlame 1998]. PAF wird von verschiedenen Zellen einschließlich Thrombozyten, PMN, Makrophagen, Monozyten wie auch Endothelzellen gebildet, die gekennzeichnet sind durch eine Aktivierung bei Anwendung des CPB. Die Plasmaelimination von PAF durch die Funktion der PAF-Acetylhydrolase, eines isolierten Lipoprotein-gebundenen Enzyms, entfaltet somit eine anti-inflammatorische Wirkung [Tjoelker 1995]. Unter dem Einsatz des CPB kommt es zu einem signifikanten Abfall dieses Enzyms, der über mindestens drei Tage bestehen bleibt [Schlame 1998], was somit ebenfalls


71

die Inzidenz eines prolongierten SIRS beeinflussen kann. Kardiochirurgische Patienten mit einem postoperativen SIRS sind darüberhinaus durch einen signifikant niedrigeren präoperativen Plasmaspiegel der PAF-Acetylhydrolase gekennzeichnet, was ursächlich eine erhöhte Gefährdung für das Eintreffen einer systemischen Entzündungsreaktion darstellen könnte [Schlame 1998].

Das C-reaktive Protein (CRP) ist als sogenanntes Akute-Phase-Protein ein sensitiver Marker für eine Infektion. Die Plasmaspiegel von CRP steigen auch nach großen chirurgischen Eingriffen und im Falle eines SIRS [Boeken 1998]. In einigen Studien kam es zu einem langanhaltenden Anstieg des CRP nach CPB [Aouifi 1999], in anderen Studien kam es zu keinen signifikanten Veränderungen innerhalb der ersten 4 Stunden nach einem kardiochirurgischen Eingriff unter Verwendung des CPB [Hensel 1998], womit keine Zusatzinformation zur Unterscheidung eines nicht-infektiösen SIRS nach CPB und einer bereits präoperativ bestehenden möglichen Infektion durch den CRP-Wert zu erhoffen ist. Präoperativ erhöhte CRP-Werte ohne klinische Zeichen einer Infektion scheinen allerdings ein sensitiver Indikator zu sein für die Selektion von Patienten mit erhöhtem perioperativen Risiko [Boeken 1998]. In den letzten Jahren wurde zur Differenzierung eines SIRS und einer bakteriellen oder mykotischen Infektion nach kardiochirurgischen Eingriffen der Serumspiegel des Procalcitonins (PCT) eingesetzt. Auch dieser Faktor zeigte in einigen Studien eine Erhöhung bei Auftreten eines postoperativen SIRS nach CPB [Aouifi 1999]. Im eigenen Patientengut konnte aber eine Korrelation zwischen der Inzidenz des SIRS ohne pulmonale Komplikationen nach CPB und dem PCT-Spiegel nicht bestätigt werden [Hensel 1998].

Plasmatische Phospholipase A2 (PLA2) ist ein weiteres Akute-Phase-Protein, das in die Bildung von pro-inflammatorischen Mediatoren eingebunden ist [Nevalainen 1993]. PLA2 ist ein lipolytisches Enzym, das Phospholipide zu korrespondierenden löslichen Komponenten und freien Fettsäuren hydrolysiert. In tierexperimentellen und klinischen Studien war eine erhöhte PLA2-Aktivität mit verschiedensten lebensbedrohlichen Erkrankungen vergesellschaftet, wie akute Pankreatitis, septischer Schock oder Multiorganversagen [Kern 2000a]. Die PLA2-Plasmaaktivität wird durch die Gabe von hochdosiertem Heparin in Vorbereitung des CPB deutlich erhöht [Nakamura 1995]. Es gibt Hinweise, daß die PLA2-Aktivität die erhöhte Produktion von Eikosanoiden während kardiochirurgischer Eingriffe verursacht. Eikosanoide ihrerseits werden für verschiedenste pathologische Veränderungen im


72

Rahmen des CPB verantwortlich gemacht [Nakamura 1995]. So wird beispielweise die in einigen Fällen zu beobachtende ausgeprägte pulmonale Vasokonstiktion nach Protamingabe einer plötzlichen Abnahme der PLA2-Aktivität zugeschrieben, die das Verhältnis vom vasodilatierenden 6-Keto-Prostaglandin F1alpha zum vasokonstringierenden Thromboxane B2 verschiebt [Hirsh 1981]. Als Quelle für die heparininduzierte PLA2-Freisetzung konnte das Hepato-Splanchnikus-Gebiet identifiziert werden [Kern 2000]. Allerdings ist die heparininduzierte PLA2-Freisetzung durch Protamingabe reversibel und scheint somit nicht für das Auftreten eines prolongierten SIRS nach CPB verantwortlich zu sein.

Einer der Hauptmechanismen, der neben der Kontaktaktivierung durch die Fremdoberfläche für die Enstehung eines SIRS nach CPB verantwortlich gemacht wird, ist die Freisetzung von Endotoxin. Das Lipopolysaccharid Endotoxin, eine Komponente der Zellwand gram-negativer Bakterien, ist im Nanogrammbereich toxisch für Menschen [Suffredini 1989] und aktiviert die inflammatorische Kaskade [Danner 1991]. Endotoxin wurde im Blut kardiochirurgischer Patienten wiederholt nachgewiesen [Rocke 1987]. Als mögliche Quelle wurde vor allem eine Translokation aufgrund einer gestörten Barrierefunktion der Darmmukosa angesehen [Fink 1991, Martinez-Pellus 1997]. Bei Beginn der extrakorporalen Zirkulation des CPB konnte bereits eine erhöhte intestinale mikrovaskuläre Permeabilität nachgewiesen werden [Cox 1999]. Die Zufuhr von Enoximone, einem Phosphodiesterase-III-Inhibitor, während und nach dem CPB konnte den Endotoxinspiegel im venösen Blut aus dem Hepato-Splanchnikus-Gebiet senken als Ausdruck eines positiven Effektes auf die Gewebsperfusion und Integrität der Barrierefunktion der Darmmukosa [Loick 1997]. Darüberhinaus wird bereits seit dem frühen fetalen Leben in jedem Individuum zuerst durch mütterlichen transplazentaren Transfer, dann durch wiederholte Exposition eine endogen Immunität gegen Endotoxin in verschiedenem Ausmaß gebildet [Hamilton-Davies 1997]. Präoperativ bereits bestehende hohe Antikörperspiegel scheinen einen protektiven Effekt auf die Entstehung perioperativer Komplikation bei herzchirurgischen Eingriffen zu haben [Hamilton-Davies 1997, Bennett-Guerrero 1997]. Darüberhinaus scheinen kardiochirurgische Patienten, die präoperativ bei Anwendung eines intrakutanen Testsystems mit definierten Antigenen eine anerge Reaktion zeigten, ein erhöhtes Risiko für die Entwicklung perioperativer Infektionen zu haben [Kress 1987]. Gastrointestinale Komplikationen treten nach herzchirurgischen Eingriffen zwar selten (< 1%) auf, sind aber durch eine hohe Mortalität von über 30 % gekennzeichnet [Sakorafas 1999]. Als Risikofaktor für die Entstehung einer postoperativen Infektion aufgrund einer bakteriellen Translokation wurde


73

die Länge der Zeitperiode ohne enterale Ernährung identifiziert [Ford 1991]. Dem wurde während des Untersuchungszeitraumes Rechnung getragen, indem die klinikinternen Standards eine frühe enterale Ernährung auch bei intubierten Patienten nach einem herzchirurgischen Eingriff vorsahen [Kern + Kox 1999].

Entsprechend dem Risikoprofil für die Entwicklung der Arteriosklerose treten bestimmte Vorerkrankungen, die auf eine gestörte Endothelfunktion zurückzuführen sind, bei herzchirurgischen Patienten gehäuft auf. So weisen Patienten mit arteriellem Hypertonus Zeichen einer endothelialen Dysfunktion auf, die mit einem Defizit an Stickstoffmonoxid (NO) bzw. mit einem gesteigertem Abbau einergeht [Star 1993]. Dabei ist es bislang nicht geklärt, ob die endotheliale Dysfunktion Ursache oder Folge der Hypertonie ist. Darüberhinaus beschrieb Ludmer [Ludmer 1986] bereits 1986 die paradoxe Vasokonstriktion durch Acetylcholin bei Patienten mit milder (< 20 % Einengung der Koronarien) und schwerer (> 50 % Einengung der Koronarien) koronarer Herzkrankheit. Physiologischerweise dilatiert Acetylcholin Blutgefäße durch Freisetzung von NO aus dem Endothel. Wenn das Endothel dagegen geschädigt ist, wirkt Acetylcholin selbst paradoxerweise vasokonstringierend durch einen direkten Effekt auf die freigelegte glatte Gefäßmuskelzelle [Basseneger 1992]. Der paradoxe Effekt auf Acetylcholin kann deshalb als Beweis für das Vorliegen von endothelialer Dysfunktion dienen. Als weitere Grunderkrankung beeinflußt Diabetes mellitus die NO-Wirkung negativ. Nach Bucala et al. [1991] zerstören die bei Diabetikern vermehrt anfallenden Glykosilierungsprodukte das NO auf Gewebeproteinen.

Als weiterer Faktor, der die Häufigkeit des Auftretens eines SIRS nach CPB beinflussen könnte, kommen die pharmakologischen Einflüsse der perioperativ verabreichten Medikamente in Frage. So konnte gezeigt werden, daß Patienten, die präoperativ mit einem Angiotensin-Converting-Enzym(ACE)-Hemmer behandelt wurden, in der perioperativen Phase einen erhöhten Bedarf an Katecholaminen aufwiesen [Boeken 1999]. Wurde eine präoperative Behandlung mit ACE-Hemmern postoperativ nicht weitergeführt, stieg das Risiko für Mikrozirkulationsstörungen. Die Inhibierung der Angiotensin II-Bildung könnte somit das Auftreten eines postoperativen SIRS nach einem kardiochirugischen Eingriff unter Verwendung des CPB begünstigen [Boeken 1999]. In der vorliegenden Studie wurden Daten über die präoperative Medikation nicht erhoben. Allerdings könnte die in der univariaten Analyse ermittelte signifikant erhöhte Häufigkeit von Patienten mit präoperativ bestehender Herzinsuffizienz im Stadium NYHA IV in der Patientengruppe mit prolongiertem SIRS in der


74

für dieses Krankheitsbild etablierten Dauertherapie mit ACE -Inhibitoren liegen. Im durch die multiple logistische Regression erstellten Modell allerdings wurde das Vorhandensein einer präoperativen Herzinsuffizienz im Stadium NYHA IV und damit ein möglicher Einfluß einer Dauertherapie mit ACE-Hemmern nicht als unabhängiger Prädiktor für die Entstehung eines SIRS identifiziert.

Die Verwendung verschiedener Anästhesie-Techniken ist als weiterer möglicher Einflußfaktor auf die Häufigkeit eines SIRS zu beachten [Scott 1998]. Obwohl bekannt ist, daß nach einer Anästhesie für einen chirurgischen Eingriff, der ein nicht zu vernachlässigendes Trauma darstellt, eine allgemeine immunsupprimierende Wirkung nachweisbar ist [Stanojevic-Bakic 1999, Galley 1998], liegen zur Zeit jedoch keine klinische Studien vor, die Vorteile einer bestimmten Anästhesie-Technik nachgewiesen hätten [Christensen 1997]. Darüberhinaus wurde diese hier vorliegende Untersuchung an nur einem Zentrum durchgeführt mit einem definierten Anästhesieregime für den genannten Untersuchungszeitraum [Kern + Kox 1999]. In den definierten perioperativen Standard-Prozeduren war auch die intraoperative Gabe von 1000 mg Methylprednisolon sowie die routinemäßige Verabreichnung von 3 Millionen Einheiten Aprotinin, einem Inhibitor der Serin-Protease, vorgesehen. In vielen Studien konnte gezeigt werden, daß die perioperative hochdosierte Gabe von Aprotinin die Freisetzung von pro-inflammatorischen Zytokinen reduziert und die allgemeine systemische Inflammation nach CPB abschwächt [Harig 1999, Murkin 1997]. Die zusätzliche Gabe von Steroiden konnte darüberhinaus die perioperative Freisetzung von IL-6 und IL-8 minimieren und die Konzentration vom anti-inflammatorisch wirkenden IL-10 nach CPB erhöhen [Tassani 1999, Yilmaz 1999]. Da in dem angegebenen Untersuchungszeitraum das bestehende Regime nicht geändert wurde und zwei potentiell die inflammatorische Wirkung günstig beeinflussende Substanzen angewendet wurden, erscheint die beschriebene Häufigkeit des prolongierten SIRS nach CPB repräsentativ unter einem standardisierten und entsprechend wissenschaftlicher Erkenntnissen aktualisiertem Regime und nicht durch eine systematische Änderung des medikamentösen Regimes beeinflußt zu sein.

4.2 Einfluß eines prolongierten SIRS und einer Sepsis auf das Outcome nach kardiochirurgischen Eingriffen

Die am eigenen Patientengut identifizierten 564 Patienten mit prolongiertem SIRS waren durch eine signifikant verlängerte Beatmungsdauer, eine verlängerte Behandlungsdauer auf


75

der Intensivstation und eine erhöhte Krankenhausliegedauer gekennzeichnet. Die um den Faktor 10 signifikant erhöhte ICU- und Krankenhausmortalität im Vergleich zu Patienten ohne prolongiertes SIRS unterstreicht die klinische Relevanz der frühzeitigen Identifikation dieses Patientengutes mit erhöhtem perioperativen Risiko.

Die Arbeitsgruppe von Werdan konnte an 945 Patienten nachweisen, die von Juni bis Dezember 1996 an drei deutschen Herzzentren behandelt wurden, daß Patienten, die aufgrund eines APACHE II Scores von mindestens 24 als Risikopatienten für die Entwicklung eines eskalierten SIRS angesehen wurden [Pilz 1994a], signifikant länger beatmet werden mußten [Kuhn 2000]. Cremer und Mitarbeiter hatten in einer prospektiven Studie Patienten mit hämodynamisch instabiler hyperdynamer Kreislauffunktion und der Notwendigkeit zur Therapie mit Vasokonstriktoren nach herzchirurgischen Eingriffen unter Verwendung der extrakorporalen Zirkulation mit einer Kontrollgruppe verglichen [Cremer 1996]. Die Patientengruppe mit einer solchermaßen aufgrund hämodynamischer Parameter identifizierten systemischen Entzündungsreaktion war durch eine signifikant verlängerte Beatmungszeit gekennzeichnet. Im Median waren die Ergebnisse mit 44 Stunden Beatmungszeit für die Patienten mit systemischer Inflammationsreaktion im Vergleich zu 12 Stunden Beatmungszeit in der Kontrollgruppe mit den Ergebnissen der vorgelegten Patientenpopulation vergleichbar. Als Pathomechanismus für die Enstehung der verlängerten Beatmungszeit könnte das im Tiermodell nachgewiesene multiple Sequestrationsmodell dienen [Picone 1999]. Die durch den CPB hervorgerufene pulmonale Sequestration durch priming aktivierter PMN ohne Lungenschädigung resultiert nach erneuter Aktivierung der PMN durch kleine Dosen an Endotoxin als „second hit“ in einer Aktivierung der „primed“ PMN mit konsekutiven multiplen kleinen Lungeninfarkten. Dieses Modell könnte den die Beatmungszeit verkürzenden Effekt einer Steroidbehandlung bei herzchirurgischen Patienten erklären [Harig 1999]. Die in der Arbeit von Cremer identifizierte Population mit systemischer Inflammationsreaktion nach herzchirurgischen Eingriffen zeichnete sich ebenfalls durch eine verlängerte intensivmedizinische Behandlungsdauer aus [Cremer 1997]. Die im Median mit 116 Stunden um den Faktor 4 verlängerte Behandlungszeit auf der Intensivstation im Vergleich zur Kontollgruppe mit 30 Stunden entspricht der in der vorgelegten Studie ermittelten intensivstationären Behandlungsdauer. Die Behandlungsdauer ist darüberhinaus eine entscheidende Determinante der intensivstationären Kosten [Kern + Kox 1999, Kern 2001a]. Die Mortalität war in der prospektiven Studie von Cremer aufgrund der kleinen Patientenzahl von 10 Patienten je Gruppe nicht signifikant unterschiedlich. In der mit 945


76

Patienten größeren Patientenpopulation von Kuhn und Mitarbeitern kam es zu einer erhöhten Krankenhaus-Mortalität in der Gruppe mit nach APACHE II mittlerem Risiko (6,8 %) im Vergleich zur Gruppe mit nach APACHE II niedrigem Risiko (1,7 %) [Kuhn 2000]. Die in dieser Studie isolierte Hochrisiko-Gruppe hatte mit 30,1 % eine deutlich höhere Krankenhaus-Mortalität als die Patienten mit prolongiertem SIRS in der vorliegenden Patientenpopulation mit 17,6 %. Allerdings war der APACHE II-Wert in der Gruppe mit prolongiertem SIRS im Median mit 18 auch deutlich unter dem von Kuhn angegebenen Grenzwert von > 24. In der Arbeit von Christakis und Mitarbeitern dagegen zeigte sich an 555 herzchirurgischen Patienten keine signifikante Differenz der Mortalität in Abhängigkeit von Noradrenalinbedarf unter dem CPB als Ausdruck der systemischen Inflammation [Christakis 1994]. In der Tendenz hatten die Patienten mit einem höheren Vasopressorenbedarf eine niedrigere Mortalität (0,75 % im Vergleich zu 1,6 %) als die Patienten ohne oder nur geringem Vasopressorenbedarf, was auf eine systematische Beeinflussung der Mortalität durch die aggressivere medikamentöse Therapie schließen läßt.

Erwartungsgemäß imponierten die 135 Patienten mit einer Sepsis während ihrer primären postoperativen intensivstationären Behandlung in der vorliegenden Studie mit hoch signifikant verschlechterten Parametern für das klinische Outcome. Neben einer mehr als verdoppelten Beatmungszeit sowie Behandlungsdauer auf der Intensivstation und Krankenhausliegedauer zeichnete sich die Patientengruppe mit Sepsis vor allem durch eine deutlich erhöhte intensivstationäre Mortalität aus mit 40,7 % gegenüber 1,6 % bei Patienten ohne Sepsis. Septischen Komplikationen kommt somit nach wie vor ein bedeutender Anteil an Todesfällen nach herzchirurgischen Eingriffen zu.

Michalopoulos und Mitarbeiter [1998] isolierten in ihrem Patientengut von 2615 erwachsenen Patienten nach einem herzchirurgischen Eingriff nur 41 Patienten (2 %) mit Sepsis entsprechend der Definition nach den internationalen auch in vorliegender Studie angewendeten ACCP/SCCM Kriterien [Members American College Chest Physicians 1992]. Dieses von Michalopoulos selektionierte Patientengut zeigte entprechend vorliegender Studie eine signifikant Verlängerung der Beatmungszeit sowie der intensivstationären und Krankenhausbehandlungsdauer. Die Absolutwerte der Beatmungszeit war in der Sepsisgruppe allerdings deutlich erhöht mit 31 Tage im Vergleich zur vorliegenden Studie. Auch die intensivstationäre Behandlungsdauer war mit 40 Tagen deutlich länger, was an unterschiedlichen Behandlungsstandards und Verlegungskriterien liegen könnte. Das


77

Vorhandensein einer Intensivüberwachungseinheit ist ein entscheidender Faktor für eine frühzeitige Verlegung von Patienten nach einem prolongierten intensivmedizinischen Verlauf. Die Mortalität war mit 32% in der Sepsisgruppe gegenüber 2 % in der Patientenpopulation ohne septische Komplikationen in einem vergleichbaren Bereich wie das Ergebnis der vorliegenden Studie. In der älteren Arbeit von Ford und Mitarbeitern konnte eine signifikant verlängerte Beatmungsperiode bei Patienten mit postoperativen Infektionen nachgewiesen werden [Ford 1991], allerdings war auch die Beatmungsdauer der Patienten ohne infektiöse Komplikationen im Vergleich mit heutigen Studien verlängert als Ausdruck eines in den letzten Jahren geänderten Managements dieser Patienten [Kern 2001a]. Die Arbeitsgruppe von Pilz und Werdan publizierte das Auftreten von septischen Komplikationen bei 14,5 % von 110 erwachsenen Patienten nach einem elektiven kardiochirurgischen Eingriff [Pilz 1994a]. Die Patientengruppe mit septischen Komplikationen war in Übereinstimmung mit der vorliegenden Studie durch eine signifikant verlängerte Beatmungszeit wie auch intensivstationäre Behandlungszeit und Krankenhausliegedauer gekennzeichnet. Als weitere Indikatoren für eine intensivierte Therapie und als möglicher Kostenfaktor in dieser Patientengruppe gaben die Autoren darüberhinaus noch einen signifikant verlängerten Einsatz von Vasopressoren und eine gesteigerte Dauer der antibiotischen Therapie an. Die Mortalität war in der Gruppe mit septischen Komplikationen mit 56,3 % noch deutlicher erhöht als bei der Kontrollgruppe mit 3,2 % . Zusammenfassend liegen die Ergebnisse der klinischen Outcomeparameter für Patienten mit prolongiertem SIRS bzw. einer Sepsis nach den ACCP/SCCM Kriterien in der vorliegenden Studie in Übereinstimmung mit den in der Literatur publizierten Ergebnissen und zeigen, daß es sich um eine repräsentative Stichprobe zur Identifikation eines Risikoprofils handelt. Die Ergebnisse der vorliegenden Arbeit sind darüberhinaus an einer deutlich größeren Patientenpopulation als alle anderen Vergleichstudien gewonnen worden.

4.3 Einfluß eines prolongierten SIRS und einer Sepsis auf die Kosten nach kardiochirurgischen Eingriffen

Rasant steigende Kosten im Gesundheitswesen einerseits und begrenzte Mittel auf der anderen Seite lassen in den letzten Jahren immer mehr ökonomische Aspekte in den Mittelpunkt der Betrachtungen rücken. Die Notwendigkeit der gerechten Verteilung der vorhandenen Recourcen wirft ökonomische und ethische Fragen auf, denen sich die Intensivmediziner und unsere gesamte Gesellschaft stellen müssen. Im stationären Bereich


78

machen die Kosten für die Intensivmedizin ungefähr 10 % der gesamten Krankenhauskosten aus [Betschart 1995]. Mit einem weiteren Anstieg ist zu rechnen, wobei die aus den USA berichteten Zahlen von 20 bis 30 % sicherlich eine Obergrenze markieren [Frutiger 1999]. Unter diesem Gesichtspunkt wird die Bedeutung der Patienten mit SIRS und Sepsis nach herzchirurgischen Eingriffen als besonders kostenintensive Patientengruppe deutlich. Die 564 Patienten mit prolongiertem SIRS (15,4 % der Gesamtpopulation) benötigten insgesamt 52,9 % der Bettentage und 57,7 % der Gesamtkosten der intensivmedizinischen Behandlung im Untersuchungszeitraum. Die 135 septischen Patienten (3,7 %) verursachten alleine 24,6 % der intensivstationären Behandlungstage sowie 28,7 % der Gesamtkosten im Untersuchungs-zeitraum.

Als Meßinstrument diente in dieser Arbeit das Therapeutic Intervention Scoring System (TISS). Der TISS ist ein validiertes Meßverfahren zur Bestimmung des intensivmedizinischen Arbeitsaufwandes und hat sich als internationaler Goldstandard durchgesetzt [Miranda 1999, Burns 2000]. Eine differenzierte Erfassung des technischen und personellen Aufwandes und die Möglichkeit der direkten Umrechnung in wahre aufgewendete Geldmittel, des Vergleiches der entstandenen Kosten mit anderen Stationen sowie der patientengruppenbezogenen Analyse sind nur einige der Vorteile dieses Systems. Die größten anteilsmäßigen Kosten in der Intensivmedizin machen gegenwärtig die Personalkosten aus. In der Schweizer Intensivmedizin wurde der Personalkostenanteil je nach Charakter der Intensivstation mit 60-70 % angegeben [Frutiger 1999], wogegen eine Kostenanalyse in London lediglich 43 % Personalkosten ergab [Singer 1994]. Die Kostenberechnung pro TISS-Punkt erfolgte entsprechend vorliegender Daten nach einem allgemein akzeptierten Modell [Frutiger 1999] und führte zu einem Wert von 72 DM pro TISS-Punkt [Kern + Kox 1999]. Die Kostenberechnung stellt somit eine Umrechnung der angefallenen TISS-Punkte dar. Im Rahmen der Datensammlung zur Validierung des APACHE-Scores wurde in einer separaten Auswertung das Augenmerk auf die länger beatmeten Patienten gerichtet und die durch diese Gruppe verursachten Kosten sowie deren Outcome [Wagner 1989]. Insgesamt nahmen zwölf Intensivstationen und 3.884 Patienten an der Studie teil. Es handelte sich um ein gemischtes Patientengut, wovon ca. 50 % mindestens einen Tag beatmet werden mußten. In Analogie zur vorliegenden Studie wurden die anfallenden TISS-Punkte ausgewertet. Die länger als 6 Tage beatmeten Patienten, welche nur einen Anteil von 6 % ausmachten, verursachten ingesamt 37% der anfallenden Kosten. Die hohe Mortalität dieser Patienten (54 % der länger als 6 Tage beatmeten Patienten) spiegelt sich in signifikant höheren effektiven Kosten pro Überlebenden


79

und somit einer sehr schlechten Kosten-Nutzen-Relation wider. Die steigenden Kosten entsprechend steigender TISS-Punkte mit Zunahme der Beatmungsdauer konnten vorab am eigenen Patientengut bestätigt werden [Kern 2001a]. Insgesamt 66 Patienten (9,6 % der Gesamtpopulation) wurden länger als 2 Tage beatmet und verursachten 42,8 % der intensivstationären Kosten im Untersuchungszeitraum. Vergleichbare Untersuchungen über die Kostenintensivität kardiochirurgischer Patienten mit prolongiertem SIRS bzw. Sepsis liegen bisher nicht vor. Die unter 4.2 zitierten Studien, die eine signifikant verlängerte Beatmungsdauer und intensivstationäre Behandlungsdauer bei Patienten mit SIRS nachgewiesen haben, implizieren damit auch gesteigerte Behandlungskosten für diese selektionierten Patientengruppen ohne eine genauere Kostenberechnung vorzunehmen [Cremer 1996, Michalopoulos 1998, Pilz 1994a]. Die erhöhte Mortalität in der Patientengruppe mit prolongiertem SIRS und insbesondere bei Patienten mit Sepsis während ihres primär intensivmedizinischen Verlaufs führt zu deutlich erhöhten effektiven Kosten pro Überlebendem von 44.636 DM bei Patienten mit SIRS im Vergleich zu 5051 DM in der Kontollgruppe bzw. von 134.696 DM bei septischen Patienten im Vergleich zu 7511 DM bei Patienten ohne Sepsis.


80

4.4 Wertigkeit von Scoringverfahren im kardiochirurgischen Patientengut

Über Sinn und Stellenwert von prognostischen Scoringsystemen in der Herzchirurgie wurden in der Vergangenheit oft kontroverse Diskussionen geführt. Trotz zahlreicher spezifischer Faktoren bzw. Umstände, die den perioperativen Verlauf kardiochirurgischer Patienten in scheinbar unvorhersehbarer Weise beeinflussen und nicht ausnahmslos erfaßt werden können [Turner 1991], sprechen einige solide Argumente für die Anwendung solcher prädiktiven Scores auf dieses außergewöhnliche Patientengut. So ist es beispielsweise möglich, mittels einer präoperativen Risikoeinschätzung dem Patienten und seinen Angehörigen eine Orientierungshilfe bezüglich des zu erwartenden Erfolges eines herzchirurgischen Eingriffs zu geben. Weiterhin können solche Scoresysteme den behandelnden Arzt auf wahrscheinlich eintretende Komplikationen vorbereiten, was maßgeblich die Entscheidung darüber beeinflußt, ob ein Patient auf eine Intensivstation aufgenommen wird bzw. dort verbleibt oder auf eine Wachstation oder Intermediate-Care-Station verlegt werden kann. In jüngster Zeit gewinnt die Qualitätskontrolle bzw. -sicherung aus administrativen sowie ökonomischen Erwägungen heraus zunehmende Bedeutung. Auch hier leisten Scoresysteme als Klassifizierungsinstrumente wertvolle Dienste. In diesem Fall erlaubt die Berechnung der Standardized Mortality Ratio (SMR) einer Institution, wie der postoperativen Intensivstation, ihre Leistungsfähigkeit im zeitlichen Verlauf sowie im Vergleich mit anderen Einrichtungen zu kontrollieren. Da die absolute Sterblichkeit ohne Rücksicht auf den Zustand der Patienten bei Aufnahme nur unzulänglich die Leistung einer Station widerspiegelt, geht in die SMR das Risikoprofil der Patienten als vorhergesagte Mortalität mit ein. Welcher Score zur Berechnung dieser vorhergesagten Mortalität herangezogen wird, ist von untergeordneter Bedeutung, vorausgesetzt, daß bei Vergleichen immer das gleiche System verwendet wird. Am weitesten verbreitet und an den unterschiedlichsten Patientenkollektiven validiert ist das APACHE II-Risk-Of-Death (ROD). Auch die von Boyd und Mitarbeitern [1993] geäußerten Bedenken hinsichtlich der Anwendung physiologischer Scores zur Ermittlung der SMR konnten mangels praktikabler Alternativen dieses einfache Hilfsmittel aus der Qualitätskontrolle nicht verdrängen [Boyd 1993].

Unter der Thematik „Scoringsysteme in der Herzchirurgie“ haben zahlreiche Autoren Studien veröffentlicht, welche sich durch zum Teil sehr unterschiedliche methodische Ansätze auszeichnen. So wurden einerseits bereits existierende allgemeine intensivmedizinische Scores wie der APACHE II und III hinsichtlich ihrer Anwendbarkeit auf ein rein postoperativ kardiochirurgisches Patientengut getestet [Becker 1995, Little 1995, Turner 1991, Turner


81

1995], auf der anderen Seite entwickelte man spezifische Scoringsysteme, welche in unterschiedlichem Maße klinische Anwendung fanden [Higgins 1997, Kondruweit 1996, O´Connor 1992, Paiement 1983, Parsonnet 1989, Thompson 1995, Tumann 1992]. Um aus dem häufig umfangreichen Pool von gesammelten Daten diejenigen Faktoren zu selektieren, welche geeignet sind, eine Outcome-Vorhersage zu treffen, kamen statistische Verfahren zum Einsatz, wie die univariate (Chi-Quadrat-, Fishers-Exact-, Student-t-, Wilcoxon-Rank-Sum-Test) und die multivariate Analyse (schrittweise logistische Regression). Als Zielvariablen bzw. Endpunkte dienten neben der Mortalität auch die Morbidität [Higgins 1997] sowie die Liegedauer auf der Intensivstation oder im Krankenhaus und die damit verbundenen Kosten [Smith 1997]. Mit dem Ziel, verschiedene Verfahren oder Scores hinsichtlich ihrer prädiktiven Potenz bzw. ihres Diskriminationsvermögens zu vergleichen, bedienten sich in den letzten Jahren immer mehr Autoren des Verfahrens der ROC-Kurven, sei es in Form der graphischen Darstellung oder des numerischen Wertes der Fläche unter der Kurve (Area Under the Curve) [Hanley 1982]. Aber auch die Anwendung von spezifischen, an herzchirurgischem Patientengut entwickelten Scores erwies sich als problematisch. Verschiedene Populationen, unterschiedliche Operationstechniken, abweichende Prädiktoren und anders definierte Endpunkte sind in diesem Zusammenhang zu nennen [Falk 1996]. Weiterhin werden moderne Entwicklungen in der Operationstechnik bis hin zu minimal-invasiven Eingriffen sowie stetige Verbesserungen in der prä- und postoperativen Pflege bzw. Therapie nicht berücksichtigt, was besonders bei den älteren Score-Systemen Gewicht erhält und somit die Übertragung der Risikoabschätzung auf heutige Verhältnisse schwierig gestaltet.

In der vorliegenden Studie wurden entsprechend des APACHE II neben der Erfassung chronischer Vorerkrankungen hauptsächlich postoperative Daten erhoben. Allein definierte intraoperative Komplikationen sowie die Parameter des TISS zur Einschätzung der postoperativen Pflegeintensität wurden darüberhinaus dokumentiert. Das läßt den Vergleich mit den meisten spezifischen herzchirurgischen Scores nur bedingt zu, da diese den Schwerpunkt auf prä- und intraoperative Informationen legen. An einer Auswahl von 687 Patienten des vorliegenden Patientengutes aus dem Jahre 1997 konnten durch Kombination mit einer chirurgischen Datenbank zusätzlich prä- und intaoperative Daten ergänzt werden. Allerdings zeigte sich, daß die Auswertung von prä- und intraoperativen Daten zur Vorhersage einer verlängerten Beatmungszeit nicht geeignet waren [Kern 2001a]. Die Anwendung etablierter Scoring-Systeme mit der zusätzlichen Dokumentation von definierten


82

intraoperativen Komplikationen lieferte dagegen ein Prädiktionsmodell bezüglich des Risikos einer verlängerten Beatmungszeit von mindestens 48 Stunden, das 96,1 % der Patienten richtig zuordnete. Der Vergleich mit den Prädiktionsmodellen anderer Studien, die jeweils unterschiedliche, nicht durch etablierte Scores definierte prä-, intra- und postoperative Variablen einbezogen [Thompson 1997, Wong 1999], wirft die Frage auf, inwieweit die durch die Auswahl der jeweiligen für das Prädiktionsmodell zur Verfügung stehenden Daten beeinflußbaren Prädiktionsmodelle auf andere Institutionen übertragbar sind. Obwohl Knaus und Mitarbeiter Patienten nach arterio-koronarer Revaskularisierung aufgrund intitial hoher APACHE II-Werte und geringer Mortaliät von ihrer Validierung ausgeschlossen haben [Knaus 1985a] und der TISS während der ersten 24 Stunden hauptsächlich die bereits im Operationssaal angelegten Überwachungsmethoden widerspiegelt [Mazer 1993], liefert die Anwendung von etablierten Score-Systeme verläßliche Prädiktionsmodelle [Kern + Kox 1999, Kern 2000b] und eröffnet die Möglichkeit einer Vergleichbarkeit zwischen verschiedenen Institutionen.

In einem Vergleich der prädiktiven Potenz bezüglich der Mortalitätsvorhersage von APACHE II, SAPS II und anderen in England gebräuchlichen Scoring-Systemen an über 10.000 Patienten in 5 schottischen Intensivstationen zeigte der SAPS II zwar die beste Vorhersagegenauigkeit, der APACHE II aber war aufgrund der überragenden Kalibration das am besten geeignete Scoring-Verfahren für einen Mortalitäts-Vergleich zwischen verschiedenen Intensivstationen [Livingston 2000]. In einer Studie an 3 deutschen Herzzentren wendeten Kuhn und Mitarbeiter den APACHE II zur Risikoeinschätzung nach kardiochirurgischen Eingriffen erfolgreich an [Kuhn 2000]. Im Vergleich zu einer Pilotstudie aus den Jahren 1988 bis 1990 stieg der APACHE II-Grenzwert zur Erkennung eines 50 %igen Mortalitätsrisikos in der 1996 durchgeführten Studie von 24 auf 27 Punkte. Darüberhinaus wurde der APACHE II als Grenzwert zur Diskriminierung von Patienten mit erhöhtem Risiko einer Sepsis nach kardiochirurgischen Eingriffen angewendet [Pilz 1994b]. Die Patientengruppe mit einem APACHE II < 19 zeichnete sich durch eine sehr niedrige Mortalität von 1% aus, wohingegen die Mortalität der Patienten mit erhöhtem Risiko (APACHE II 19-23) bei 14 % lag und bei immerhin 76 % in der Patientengruppe mit hohem Risiko (APACHE II > 23). Weiterhin veröffentlichten Turner und Mitarbeiter die Ergebnisse einer Untersuchung an über 1000 kardiochirurgischen Patienten (65 % Bypass-, 21 % Klappen, 9 % kombinierte und 5 % sonstige Operationen) [Turner 1995]. Sie testeten überwiegend postoperativ zu erhebende Variablen bezüglich ihres Einflusses auf Mortalität


83

und Liegedauer auf der Intensivstation (> 24 h). Mit diesem Ziel sammelten sie die zur Berechnung des APACHE II bzw. III und des Parsonnet-Scores benötigten Daten, intraoperative Besonderheiten und aufgetretene Komplikationen. Nach Anwendung der schrittweisen logistischen Regression stellten sich 5 signifikante Faktoren als geeignet heraus, eine Vorhersage über die Krankenhaus-Mortalität zu treffen. Parallelen zur hier vorliegenden Arbeit weist ebenfalls eine Veröffentlichung von Higgins und Mitarbeitern auf [Higgins 1997]. In Erweiterung des bereits von diesen Autoren entwickelten präoperativen Cleveland-Score testeten sie den Einfluß intra- und unmittelbar postoperativ verfügbarer Faktoren auf die Mortalität sowie Morbidität von Patienten nach einer Bypass-Operation (isoliert oder kombiniert mit Klappen-Operation). 4918 Patienten und 100 Variablen gingen in die Analyse ein. Nach schrittweiser logistischer Regression erwiesen sich 8 Faktoren als signifikant hinsichtlich einer Vorhersage der Mortalität, welche vergleichbar zur vorliegenden Untersuchung bei 3,1 % lag.

Der Frage, inwiefern eine Prognoseeinschätzung durch Scores überhaupt erforderlich und der subjektiven Beurteilung durch Ärzte und Pflegepersonal überlegen ist, wurde in der Vergangenheit vielerorts nachgegangen. So entwickelten Lee und Mitarbeiter an konservativ behandelten Patienten mit koronarer Herzerkrankung eine Regressionsgleichung zur Outcome-Vorhersage [Lee 1986]. An einer Stichprobe von 100 Patienten verglichen sie die durch 5 erfahrene Kardiologen vorhergesagten 1- und 3-Jahres-Mortalitätsraten mit denen des eigenen statistischen Modells. Das Regressionsverfahren erwies sich der großen Variabilität der subjektiven Einschätzungen überlegen, was sich in einer höheren Genauigkeit der Vorhersagen widerspiegelte. Dies wurde später auch von Chang [1994] bestätigt, der mit dem in der vorliegenden Studie angewendeten RIYADH-Programm auf einer interdisziplinären Intensivstation eine falsch positive Vorhersagerate von 0 % erzielte, was in starkem Kontrast zu 11- 17 % falsch verstorben vorhergesagten Patienten durch ärztliches und pflegerisches Personal stand. Dagegen ließen Kruse und Mitarbeiter auf ihrer internistischen Intensivstation die klinische Prognoseeinschätzung durch das Personal (57 Ärzte, 33 Schwestern) gegen das rechnerisch ermittelte APACHE II-Risk-of-Death antreten [Kruse 1988]. Es zeichneten sich jedoch keine signifikanten Unterschiede in der Qualität der Vorhersage ab.

Die bisher dargestellten Resultate werfen die Frage nach systematischen oder methodischen Fehlern auf. In der vorliegenden Studie wurden täglich die APACHE II- und SAPS II-Daten


84

sowie die OFS-Charakteristika durch das ärztliche sowie die TISS-Punkte durch das pflegerische Personal erhoben. Um die Fehlerquellen zu minimieren, sind wichtige Definitionen und Kodierungen auf den Erhebungsbögen übersichtlich dargestellt. Desweiteren waren die physiologischen Daten einschließlich der Laborparameter der letzten 24 Stunden am Patientenbett leicht der Kurve zu entnehmen, so daß kein zusätzlicher Zeitaufwand durch Recherchen entstand. Ließ der Stationsbetrieb keine Zeit zum Ausfüllen der Protokolle, wurde sich durch nachträgliche Kurveneinsicht und Übertragung der Werte um Vollständigkeit bemüht. Trotz dieser Bemühungen entstand ein Datenverlust von 5 %, was durchaus im Vergleich zu anderen Datenbanken vertretbar ist. So gingen beispielsweise bei der Original-APACHE II-Studie 13% [Knaus 1985a], bei einer groß angelegten Validierungsstudie in Großbritannien und Irland sogar 20 % der Fälle aufgrund unvollständiger Daten verloren [Rowan 1993]. Absolute Kostenberechnungen und Betrachtungen zur Bettenauslastung sind in diesem Fall nur unter Vorbehalt anzuwenden. Auf weitere Probleme bei der Erstellung solcher Datenbanken parallel zur Stations-Routine wiesen bereits Goldhill, Fery-Lemonnier sowie Charlson [Charlson 1987, Fery-Lemonier 1995, Goldhill 1996] hin. Beobachter-abhängige Variabilität, fälschlicherweise zu niedrig angegebene Score-Werte und damit Anstieg der SMR sowie Definitions- und Überwachungsprobleme sind hier am häufigsten genannt. In der vorliegenden Studie ist zu diskutieren, inwieweit der Einfluß einer eventuell vorhandenen beobachterabhängigen Variablität durch das wechselnde ärztliche und pflegerische Personal über einen Zeitraum von 4 Jahren zu einer systematischen Beeinflussung des Ergebnisses in eine Richtung geführt hat. Ziel der Untersuchung war eine Dokumentation des Auftetens eines prolongierten SIRS und einer Sepsis mit nachfolgender Risikostratifizierung. Die Outcome-Parameter wurden zum Untersuchungszeitraum nicht zur externen Qualitätskontrolle eingesetzt. Um einen systematischen Fehler durch unterschiedliche Zeitperioden des Untersuchungs- und Validierungspatientengutes mit davon abhängigen personellen oder technischen Umstellungen zu vermeiden, wurde die Methode der gruppeninternen Validierung gewählt.

4.5 Validierung von Prognose-Scores

Die Beurteilung der relativen Vorhersagequalität eines Prädiktionsmodells hängt entscheidend von dem geplanten Einsatzgebiet für das Prädiktionsmodell ab. Wenn der Einsatz des Modells zur Identifikation bestimmter Patientengruppen innerhalb einer Institution bestimmt ist, beispielsweise für die frühzeitige Erkennung von Risikopatienten und deren prophylaktische


85

Therapie, ist die Diskriminationsfähigkeit die entscheidende Größe dieses Modells. Wenn ein Prädiktionsmodell allerdings zur Qualitätskontrolle zwischen verschiedenen Institutionen eingesetzt werden soll, beispielsweise durch die Berechnung der SMR, dann ist die Kalibrierung des Modells die entscheidende Determinante, und die Diskriminationsfähigkeit des Modells wird demgegenüber zweitrangig [Livingston 2000]. Castella und Mitarbeiter hatten dementsprechend argumentiert, daß ein Modell erst nach einer fachgerechten Kalibration auf Polulationen angewendet werden kann, die außerhalb der ursprünglichen Patientenpopulation liegen, an der das jeweilige Prädiktionsmodell entwickelt wurde [Castella 1995]. Erst dann könnte die eigentliche Diskriminationsfähigkeit des Prädiktionsmodells analysiert werden.

Die klassische Kalibration bzw. Validierung eines Prädiktionsmodells besteht in der Separation von einer Patientenpopulation, an der das Prädiktionsmodell entwickelt wird, und einer anderen Population, an der das Prädiktionsmodell bezüglich der Vorhersagegenauigkeit getestet wird. So entwickelten Tu und Mitarbeiter wie auch Higgins und Mitarbeiter ihre jeweiligen Prädiktionsmodelle an dem kardiochirurgischen Patientengut eines Kalender- bzw. Fiskaljahres und validierten die entwickelten Prognosemodelle an dem Patientengut des darauffolgenden Jahres [Tu 1995, Higgins 1997]. Diese Vorgehensweise birgt allerdings die Gefahr einer systematischen Beeinflussung des Validierungsvorganges durch mögliche Änderungen des innerbetrieblichen Ablaufes oder des Case Mix der Patienten, die auch durch gängige Dokumentationsmethoden nicht erfaßt werden können. So ist der Publikationen von Kuhn und Mitarbeitern zu entnehmen [Kuhn 2000], daß der ursprünglich an einem Patientengut der Jahre 1988 bis 1990 entwickelte APACHE II-Grenzwert für die Diskrimination von Patienten mit einer vorhergesagten 50 %igen Mortalität [Pilz 1994b], in einer Validierungsstudie an einem Patientengut von 1996 sich nicht mehr bestätigte und von ursprünglich > 24 Punkten auf > 28 Punkten angepaßt werden mußte. Dieser Gefahr Rechnung tragend wurde in aktuellen Publikationen eine interne Validierung durchgeführt. Wong und Mitarbeiter wandten zur Validierung ihrer Prädiktionsmodelle zur Diskrimination von Patienten mit Notwendigkeit zur prolongierten Beatmung, einer verlängerten intensivstationären Behandlungsdauer und einer erhöhten Mortalität eine interne Validierungsmethode an [Wong 1999]. Vergleichbar zu der in der vorliegenden Studie angewendeten statistischen Vorgehensweise, selektionierten die Autoren nach dem Zufallsprinzip Untergruppenpaare aus der Gesamtpopulation. Die eine Untergruppe diente dann zur Entwicklung der Prädiktionsmodelle, wohingegen die jeweiligen übriggebliebenen


86

Untergruppen zur Validierung der Prädiktionsmodelle dienten. Anschließend wurde für das einzelne Untergruppenpaar das Verhältnis von vorhergesagtem zu beobachtetem Outcome dokumentiert. Dieses Vorgehen wurde als „Bootstrap validation“ bezeichnet. Anschließend wurde die Gesamtvorhersagequalität des Prädiktionsmodells durch die Addition der einzelnen Flächen unter der ROC-Kurven dargestellt. Dieses Vorgehen ist vergleichbar zu der in der vorliegenden Studie dargestellten Addition der jeweiligen richtig und falsch vorhergesagten Fälle, die anschließend zur Berechnung der Sensitivität und Spezifität bzw. der positiven und negativen Nachtest-Wahrscheinlichkeit der Gesamtpopulation dienten. Harrell et al. demonstrierten, daß eine interne Validierung eine nahezu unbeeinflußte Schätzung der prädiktiven Vorhersagegenauigkeit mit relativ niedriger Varianz liefert und daß mit dieser Methode eine geringere Fallzahl erforderlich ist als bei externen Validierungsmethoden [Harrell 1996]. Allerdings ist eine Anwendung des in der vorliegenden Studie isolierten Prädiktionsmodells in einer multizentrischen Studie darüberhinaus sinnvoll und kann aufgrund von Unterschieden im Patientengut bzw. in den Behandlungsstandards zwischen verschiedenen Herzzentren erst eine definitive Aussage über die Vorhersagegenauigkeit an einem unabhängigen Patientengut ermöglichen.

4.6 Prädiktion eines erhöhten Risikos zur Entwicklung eines prolongierten SIRS (> 3 Tage), einer Sepsis und eines letalen Ausgangs nach kardiochirurgischen Eingriffen

4.6.1 Verwendung eines Prädiktionsmodells für prolongiertes SIRS (> 3 Tage),
Sepsis und Outcome

In der vorliegenden Studie wurde am ersten postoperativen Tag das Risiko bezüglich des Auftretens eines prolongierten SIRS mit hoher Vorhersagequalität beschrieben durch die fünf Variablen weibliches Geschlecht, intraoperative Komplikationen, APACHE II > 17 bei Aufnahme auf der Intensivstation, postoperativer Bedarf von mehr als einem Inotropikum sowie das Vorhandensein von therapiebedürftigen metabolischen Störungen innerhalb der ersten 24 Stunden postoperativ. Die Anwendung dieses Modells auf das Risiko, eine Sepsis zu entwickeln bzw. während des Krankenhausaufenthaltes zu versterben, zeichnete sich durch eine Vorhersagenauigkeit aus, die sich aufgrund einer vergleichbaren Fläche unter der ROC-Kurve nicht von den isoliert in Bezug auf die einzelnen Zielvariablen entickelten Modellen unterschied. Die Anwendung nur eines Modells mit identischen Variablen erleichtert aus klinischer Sicht die Anwendbarkeit dieses prognostischen Modells.


87

Bei der Entwicklung eines eigenen Risiko-Scores testeten Tu und Mitarbeiter identische Variablen mittels logistischer Regression bezüglich ihres Einflusses auf eine verlängerte intensivstationäre bzw. Gesamt-Krankenhaus-Liegedauer sowie auf die Krankenhausletalität [Tu 1995]. Allerdings wählten sie im Vergleich zur vorliegenden Studie die zu testenden Variablen willkürlich aus und nicht nach einer vorherigen univariaten Testung. Obwohl die logistische Regression unterschiedliche Ergebnisse der einzelnen Variablen bezüglich der Beeinflussung der unterschiedlichen Zielvariablen ergab, zeigte die Validierung des aus der Regressiongleichung entwickelten Risiko-Scores eine Übereinstimmung mit dem vorhergesagten Outcome bzw. dem Verbrauch an Resourcen an 9 Herzzentren in Ontario. Allerdings wurde die Zielvariable eines prolongierten SIRS bzw. einer Sepsis in der zitierten Studie nicht berücksichtigt. Aufgrund einer erleichterten klinischen Anwendbarkeit für pharmakologische Prüfungen beschränkte die Arbeitsgruppe von Werdan die Prognose eines erhöhten Risikos auf ein prolongiertes SIRS auf das Vorliegen eines APACHE II >24 am Morgen des 1. postoperativen Tages [Kuhn 2000, Pilz 1994a]. Gleichzeitig beschrieben die Autoren einen Anstieg der Krankenhausmortalität mit steigendem APACHE II. Im Gegensatz zur vorliegenden Arbeit entwickelten die Autoren allerdings kein eigenes Risikomodell ihres Patientengutes.

Andererseits wendeten Higgins und Mitarbeiter an ihrem kardiochirurgischen Patientengut bewußt getrennt nach der Zielvariablen isolierte Regressionsmodelle an [Higgins 1997]. Sie isolierten unterschiedliche Variablen zur Vorhersage eines erhöhten Morbiditäts- und Mortalitätsrisikos, aus deren Summe anschließend ein eigener Risiko-Score entwickelt wurde. Allerdings subsummierten die Autoren unter Morbidität auch die intensivstationäre Mortalität, die somit mit der zweiten Zielvariablen Krankenhausmortalität interferieren könnte. In ähnlicher Vorgehensweise analysierten Wong und Mitarbeiter ihre Datenbank bezüglich des Risikos auf verzögerte Extubation und eine verlängerte intensivstationäre Behandlungsdauer sowie auf die Krankenhausletalität [Wong 1999]. Sie entwickelten separate Regressionsmodelle und anschließend separate Risiko-Scores für die genannten Zielparameter. Die beiden letzten zitierten Arbeiten berücksichtigten jedoch weder das Riskio für ein prolongiertes SIRS noch für die Entwicklung einer Sepsis.

Die Beurteilung der Verwendung eines oder mehrerer separater Prädiktionsmodelle hängt von dem geplanten Einsatzgebiet für das Prädiktionsmodell ab. Wenn der Einsatz des Modells


88

zur Identifikation bestimmter Patientengruppen mit einem unabhängigen definierten Merkmal bestimmt ist, beispielsweise für die frühzeitige Erkennung von Risikopatienten für die Entwicklung perioperativer Herzrhythmusströrungen und deren prophylaktische Therapie, könnte die Diskriminationsfähigkeit die entscheidende Größe dieses Modells darstellen, und damit wäre das jeweilige separat erstellte Risikomodell vorzuziehen (vgl. Tabelle 9,11,13). Wenn eine Abhängigkeit der Risikovariablen besteht, wie in der vorgelegten Arbeit für die Korrelation der Zielvariablen prolongiertes SIRS, Sepsis und Tod nachgewiesen wurde, dann könnte die erleichterte klinische Anwendbarkeit nur eines Prädiktionsmodells mit fünf leicht zu erhebenden definierten Variablen als entscheidende Determinante im Vordergrund stehen.

4.6.2 Einzelvariablen des Prädiktionsmodells

Die fünf Variablen weibliches Geschlecht, intraoperative Komplikationen, APACHE II > 17 bei Aufnahme auf der Intensivstation, postoperativer Bedarf von mehr als einem Inotropikum sowie das Vorhandensein von therapiebedürftigen metabolischen Störungen innerhalb der ersten 24 Stunden postoperativ diskriminierten in Bezug auf das Vorhandensein oder Nicht-Vorhandensein der Zielvariablen prolongiertes SIRS 88 % der Patienten richtig. Jeweils 96 % der Patienten konnten durch die aus diesen Variablen entwickelten Regressionsgleichungen richtig zugeordnet werden bezüglich des Auftretens oder Nicht-Auftretens einer Sepsis bzw. eines letalen Ausgangs.

In Übereinstimmung mit der vorliegenden Arbeit wurde in einer Vielzahl von klinischen Studien ein erhöhtes perioperatives Risiko für weibliche Patienten, die sich einem herzchirurgischen Eingriff unterziehen mußten, beschrieben [Parsonnet 1989, O´Connor 1990, Hannan 1990, Tuman 1992, Edwards 1994, Tu 1995, Wong 1999]. Kürzlich beschrieben Butterworth und Mitarbeiter in einer Datenbankauswertung von 51 akademischen Herzzentren in den U.S.A., daß das Vorhandensein des Merkmals weibliches Geschlecht für eine verlängerte Nachbeatmungsperiode sowie für einen prolongierten intensivstationären und Gesamt-Krankenhausaufenthalt prädisponiert [Butterworth 2000]. Im Gegensatz dazu weisen allerdings auch Studien die Theorie einer erhöhten Mortalität von Frauen mit koronarer Herzerkrankung zurück [Hochmann 1997, Coronado 1997]. In diesen Studien konnte kein geschlechtsspezifischer Mortalitätsunterschied nachgewiesen werden. Kristof und Mitarbeiter wiesen sogar ein gehäuftes Auftreten eines peripheren Widerstandsverlusts als Ausdruck


89

eines SIRS bei männlichen Patienten im Vergleich zu weiblichen Patienten nach [Kristof 1999].

In Übereinstimmung mit vorliegender Studie demonstrierten Michalopoulos und Mitarbeiter, daß intraoperative Komplikationen in 46 % der Patienten auftraten, die im Verlaufe des intensivstationären Aufenthaltes septische Komplikationen aufwiesen [Michalopoulos 1998]. Mittels multipler logistischer Regression isolierten Wong und Mitarbeiter das Auftreten einer exzessiven Blutung postoperativ als einen Hauptprädiktor für eine prolongierte Beatmunsgzeit bzw. für die intensivstationäre Behandlungsdauer [Wong 1999]. Allerdings definierten sie die Untergrenze mit 750 ml Blutverlust in 6 Stunden deutlich niedriger im Vergleich zur vorliegenden Arbeit, in der die Definition einen intraoperativen Blutverlust von über 2 Litern als Untergrenze festschrieb.

Die übrigen großen, teilweise multizentrisch angelegten Studien dokumentierten keine vergleichbaren definierten intraoperativen Komplikationen [Übersicht in Tu 1995]. Die verlängerte Bypass- oder auch Aorten-Cross-Clamping-Zeit, die von anderen Autoren als unabhängige Prädiktoren für die Entwicklung eines SIRS [Christakis 1994], einer Sepsis [Michalopoulos 1998] und eines letalen Outcomes [Higgins 1997] isoliert wurden, sind in der vorliegenden Studie im Auftreten von intraoperativen Problemen subsummiert. Die Operations-, Bypass- oder auch Aorten-Cross-Clamping-Zeiten sind in der vorliegenden Studie nicht dokumentiert worden, so daß ein Vergleich mit oben zitierten Studien nicht möglich ist. Allerdings konnte in einer eigenen Studie an der Patientenpopulation eines Jahres gezeigt werden, daß die aus einer kardiochirurgischen Datenbank hinzugefügten Zeiten nicht genutzt werden konnten, um ein verläßliches Prädiktionsmodell zur Vorhersage einer prolongierten Nachbeatmungsphase zu erstellen [Kern 2001a].

Die Verwendung des APACHE II als Prädiktor für eine Patientenselektion mit erhöhtem Risiko für die Entwicklung eines prolongierten SIRS [Kuhn 2000] oder von septischen Komplikationen [Pilz 1994a] wurde vornehmlich von der Arbeitsgruppe um Werdan propagiert. Der Vorteil eines etablierten Score-Systems ohne zusätzliche Daten-Dokumentation liegt auf der Hand. Allerdings wurde in keiner der zitierten Studien eine logistische Regression zur Isolierung unabhängiger Prädiktoren durchgeführt. Vielmehr wurde ein Grenzwert für den APACHE II festgelegt, der in der Evaluationsphase bei >24 lag zur Diskrimination von Patienten mit hohem Risiko auf septische Komplikationen [Pilz


90

1994a]. In der Validierungsphase wurde der Grenzwert neu definiert entsprechend einer beobachteten Mortalität von über 50 %, was zu einer Erhöhung des Grenzwertes auf >28 führte [Kuhn 2000]. In älteren Studien an allgemeinchirurgischem Patientengut war ein APACHE II von > 15 als Grenzwert eingesetzt worden [Marshall 1990]. In der vorliegenden Studie wurde im Gegensatz zu allen in diesem Zusammenhang zitierten Studien der APACHE II als unabhängiger Prädiktor für die Entstehung eines prolongierten SIRS isoliert. Eine Dichotomisierung zur Erleichterung der klinischen Anwendbarkeit mit einem Grenzwert von > 17, bei dem eine 50 %ige Wahrscheinlichkeit der Entwicklung eines SIRS vorlag, führte zu keiner Beeinträchtigung der prädiktiven Potenz des Modells. Die hohe positive Vorhersagewahrscheinlichkeit des vorgestellten Modells belegt eindeutig die qualitativ bessere Diskriminationsfähigkeit im Vergleich zur Verwendung der in der Literatur beschriebenen Grenzwerte des APACHE II zur Identifizeirung von Risikopatienten [Pilz 1994a, Marshall 1990, Kuhn 2000].

Die Notwendigkeit zum Einsatz von mehr als einem Inotropikum konnte als unabhängiger Prädiktor für das Vorliegen eines eskalierten SIRS sowie für die Entwicklung einer Sepsis bzw. eines letalen Ausgangs isoliert werden. Michalopoulos und Mitarbeiter konnten in Übereinstimmung mit diesem Ergebnis feststellen, daß Patienten mit einer Sepsis im weiteren intensivmedizinischen Verlauf im Mittel signifikant mehr inotrope Substanzen bei Aufnahme benötigten im Vergleich zu Patienten ohne spätere Sepsis [Michalopoulos 1998]. Der Einfluß von Inotropika auf eine verzögerte Extubation, einen prolongierten intensivmedizinischen Verlauf [Wong 1999] und auf ein negatives Outcome [Edwards 1994] konnte mittels vergleichbarer statistischer Methoden in großen Studien an kardiochirurgischen Patienten bestätigt werden.

Das Vorhandensein von therapiebedürftigen metabolischen Störungen entsprechend der in der vorliegenden Studie verwendeten Definition wurde unseres Wissens nach bisher nicht in Studien zur Isolierung von Prädiktoren für eine eskaliertes SIRS nach CPB verwendet. Allerdings wiesen Higgins und Mitarbeiter nach, daß ein erniedrigter arterieller Bikarbonat-Spiegel bei Aufnahme auf der Intensivstation als unabhängiger Prädiktor für eine erhöhte Morbidität und Mortalität dient [Higgins 1997]. Bei der Berechnung ihres in der Publikation vorgestellten Scores geht ein arterieller Bikarbonatspiegel bei Aufnahme auf die Intensivstation von unter 21 mmol/l mit einem Score-Wert von 4 Punkten ein. Dieser Grenzwert stimmt mit der vorliegenden Definition einer therapiebedürftigen metabolischen


91

Störung überein. Allerdings könnte das verlängerte Beobachtungsintervall über die ersten 24 Stunden die Inzidenz der metabolischen Störung in der präsentierten Studie beeinflußt haben.

Im Gegensatz zur Literatur [Higgins 1997, Michalopoulos 1997, Tu 1995, Edwards 1994, Parsonnett 1989, Hannan 1990, O´Connor 1992] war das Alter zwar in der univariaten Analyse signifikant unterschiedlich zwischen den Patienten mit und ohne prolongiertes SIRS, Sepsis oder letalem Ausgang, wurde aber in dem durch die multiple logistische Regression gewonnenen Prädiktionsmodell nicht als unabhängiger Prädiktor isoliert. Allerdings zeigten die Ergebnisse der multivariaten Analyse von Christiakis und Mitarbeitern [1994], daß ein erhöhtes Alter die Wahrscheinlichkeit des Auftretens eines niedrigen systemischen Widerstandes als Ausdruck eines prolongierten SIRS unter CPB sogar senkt. Dies könnte an der altersbedingten Veränderung des Endothels liegen, was durch die Altersabhängigkeit der Serumspiegel von Adhäsionsmolekülen eindrucksvoll nachgewiesen wurde [Boldt 1997]. Eigene Studien konnten anhand der Adhäsionsmoleküle eine eingeschränkte Endothelreserve auf die Entwicklung einer Sepsis bei Atherosklerose nachweisen [Kern 2001b]. Inwieweit diese Ergebnisse auf den Alterungsprozess beim Endothel zu übertragen sind, ist derzeit nicht zu beantworten.

Als zweiter, in der Literatur häufig genannter Parameter gilt eine eingeschränkte linksventrikuläre Funktion. Eine linksventrikuläre Funktionseinschränkung bis Grad 4 wurde in Studien zur Ermittlung einer erhöhten perioperativen Morbidität und Mortalität als unabhängiger Prädiktor isoliert [Wong 1999, Tu 1995]. Andere Autoren setzten als Grenzwert für eine eingeschränkte linksventrikuläre Funktion eine Erniedrigung der linksventrikulären Ejektionsfraktion (LVEF) auf unter 40 % bzw. unter 35 % ein [Amado 1999, Argenziano 1998, Michalopoulos 1998]. Christakis konnte allerdings in der zitierten Studie zur Inzidenz des vasodilatatorischen Schocks unter CPB einen protektiven Effekt einer eingeschränkten LVEF nachweisen [Christakis 1994]. In der vorliegenden Studie wurde die präoperative Ejektionsfraktion nicht dokumentiert. Allerdings zeigte sich in der univariaten Analyse ein signifikanter Unterschied in der Häufigkeit einer präoperativ bestehenden Herzinsuffizienz Grad IV nach NYHA zwischen Patienten mit und ohne SIRS, Sepsis bzw.letalem Ausgang. Allerdings wurde auch dieser Parameter durch die multiple logistische Regression nicht als unabhängiger Prädiktor berücksichtigt. Das gleiche Ergebnis erbrachte die statistische Auswertung im Gegensatz zur Literatur für die Parameter Herzklappenoperation vs


92

Bypassoperation [Tu 1995], Notfallindikation [Tu 1995, Wong 1999], postoperativer Einsatz einer IABP [Higgins 1997] oder die Notwendigkeit zur Reoperation [Tu 1995].

Die im Gegensatz zur Literatur nicht berücksichtigten Parameter könnten durch die Unterschiede in der Datenerfassung begründet sein. Es besteht eine große Variabilität in bezug auf die Variablenselektion zwischen den verschiedenen Studien [Kern 2001a]. Demzufolge scheint ein Prädiktionsmodell immer von den zur Verfügung stehenden Daten beeinflußt zu sein. Roche und Durieux wiesen bereits 1994 darauf hin, daß intern entwickelte Guidelines gegenüber einer Übernahme externer Guidelines zu favorisieren seien, da sie die spezifischen Besonderheiten der einzelnen Institutionen berücksichtigen würden [Roche 1994].

4.6.3 Ausblick

Neben der wissenschaftlichen Fragestellung ist die entscheidende Determinante der Qualität eines Prädiktionsmodells, inwieweit die tägliche klinische Praxis beeinflußt werden kann. Am häufigsten werden Risiko-Scores eingesetzt, um das individuelle Sterberisiko eines Patienten zu bestimmen [Parsonnet 1989, Higgins 1992, Hattler 1994, Roques 1995, Tu 1995, Pons 1997, Trembley 1993, Roques 1999]. Jedoch scheint die postoperative Morbidität sowohl die Lebensqualität der Patienten nach einem herzchirurgischen Eingriff, als auch die Krankenhaus-Kosten entscheidend zu beeinflussen [Higgins 1998]. Kürzlich verglichen Geissler und Mitarbeiter [2000] die Vorhersagequalität von sechs im herzchirurgischen Patientengut validierten Score-Systemen. Bezüglich der Mortalitätsvorhersage zeigte der Euro-Score [Roques 1999] die höchste prädiktive Potenz im Vergleich mit dem Parsonnet- [Parsonnet 1989], dem Cleveland- [Higgins 1992], dem French- [Roques 1994], dem Pons- [Pons 1997] und dem Ontario Province Risk (OPS)-Score [Tu 1995]. Die Vorhersagequalität der Morbidität war für alle getesteten Score-Systeme bedeutend niedriger [Geissler 2000]. Die Autoren folgerten daraus, daß die Entwicklung spezieller Prädiktions-Modelle zur Vorhersage der Morbidität wünschenswert sei. Die vorliegende Arbeit folgt dieser Vorgabe mit der Berechnung einer intern validierten Regressionsgleichung zur Vorhersage des Risikos, ein prolongiertes SIRS oder eine Sepsis während des primären intensivstationären Aufenthaltes nach einem kardiochirurgischen Eingriff zu entwickeln. Der Einfluß beider Parameter auf die Krankenhaus-Liegedauer, die Behandlungskosten und letztendlich auch das Outcome konnte am eigenen Patientengut eindrucksvoll demonstriert werden.


93

Möglichkeiten zur Qualitätskontrolle und zur Erstellung von Kosten-Nutzen-Analysen besonders in den kostenintensiven Bereichen der Intensivmedizin und der Herzchirurgie haben durch die neuesten Entwicklungen im Gesundheitswesen entscheidend an Bedeutung gewonnen. Die Einführung des geplanten Patientenklassifikationssystem der Diagnosis Related Groups (DRG) in Deutschland wird diese Entwicklung noch verstärken [Rochell 2000]. So werden international im Bereich der Herzchirurgie multizentrische Datenbanken angelegt, um im sogenannten „benchmarking“ eine Qualitätskontrolle zwischen verschiedenen Zentren zun ermöglichen [Roques 1999, Clinical Process Improvement 1998]. In den USA hat das University Health System Consortium (UHC) bereits vor 6 Jahren ein „benchmarking project“ organisiert, um den teilnehmenden universitären Herzzentren einen Vorsprung im Qualitätsmanagement zu ermöglichen in diesem kommerziell hart umkämpften Gebiet der Medizin [Clinical Process Improvement 1998]. Eine Auswertung der Daten entsprechend einer Risikostratifizierung der operierten Patienten ist aber Voraussetzung für einen erfolgreichen Einsatz dieser Datenbanksysteme [Higgins 1998]. Darüberhinaus kann eine frühzeitige Diskrimination von Risikopatienten zu einer Anwendung von individuell für dieses Risikoprofil entwickelten Behandlungsstandards führen. So belegen die Ergebnisse von Fitzpatrick und Mitarbeitern, daß die Anwendung von definierten Management-Algorithmen in der Rettungsstelle bei Patienten mit plötzlichen Brustschmerzen die Beurteilung der Erkrankungsschwere dieser Patienten verbessert [Fitzpatrick 1999]. Am eigenen Patientengut führte die Einführung von inhaltlichen und organisatorischen Standards zu einer Senkung der Mortalität und einer verbesserten Kosten-Nutzen-Relation der intensivmedizinischen Behandlung von erwachsenen Patienten nach herzchirurgischenen Eingriffen [Kern + Kox 1999]. Die Entwicklung, Anwendung und spätere wissenschaftliche Auswertung der Effektivität von Standards zur intensivmedizinischen Behandlung kardiochirurgischer Patienten mit erhöhtem Risiko auf die Entwicklung einer prolongierten systemischen Inflammationsreaktion oder einer Sepsis setzt eine frühzeitige Identifizierung dieser Patienten voraus. Die vorliegenden Regressionsgleichungen könnten zu diesem Zweck eingesetzt werden.

Eine weitere Einsatzmöglichkeit der frühzeitigen Diskrimination von Risikopatienten besteht im Zusammenhang mit klinischen Studien. So ist im komplexen Zusammenspiel der Zytokinkaskade der durch die extrakorporale Zirkulation induzierten systemischen Inflammationsreaktion eine prophylaktische Therapie von zu definierenden Risikopatienten


94

sinnvoll. Zu diesem Zweck wurde zur klinischen Prüfung der Effektivität einer frühzeitigen Therapie mit Immunglobulinen eine Diskrimination von Patienten mit erhöhtem Risisko auf septische Komplikationen mittels des APACHE II-Scores durchgeführt [Kuhn 2000, Pilz 1994b, Werdan 1999]. Der ursprünglich zur Identifizierung der Patienten mit hohem Risiko auf septische Komplikationen angewendete Grenzwert des APACHE II von > 23 [Pilz 1994b] mußte in einer zeitversetzten Validierungsstudie auf > 27 angepaßt werden [Kuhn 2000]. Der ehemalige Grenzwert des APACHE II von > 23 hätte zu einer erhöhten Patientenrekrutierung mit einem mittleren Mortalitätsrisiko von 30 % geführt [Kuhn 2000]. Die Anwendung einer Sterbewahrscheinlichkeit als Diskriminationsmerkmal für das Risiko von septischen Komplikationen erscheint zumindest nur eingeschränkt beurteilbar. Der Einsatz verschiedener getesteter Grenzwerte für APACHE II und SAPS II hat am vorgestellten Partientengut zu keinem vergleichbaren Resultat geführt. Die im vorgestellten, intern validierten Modell für die Zielvariable prolongiertes SIRS (> 3 Tage ) erreichte hohe Spezifität von über 97 % geht zu Lasten einer eingeschränkten Sensitivität von 39 %. Der hohe Anteil an durch dieses Modell richtig erkannten Patienten ohne Vorliegen des jeweiligen Merkmals unterstreicht, inwieweit durch Anwendung dieses Modells die falsche Zuordnung von Patienten ohne erhöhtes Risiko vermieden werden kann. Im vorgestellten Patientengut ist die Krankenhaus-Mortalität der Patienten mit prolongiertem SIRS bzw. Sepsis mit 17 % bzw. 43 % zwar deutlich erhöht, ist aber von nur eingeschränkter Bedeutung für die Diskrimination von Risikopatienten. Eine hohe Spezifität der Diskrimationsmodelle ist immer dann zu fordern, wenn der Einfluß einer pharmakologischen Therapie auf die Mortalität untersucht werden soll. Der Effekt einer spezifischen Therapie kann bevorzugt an einer homogenen Patientenpopulation nachgewiesen werden [Abraham 2000]. Kürzlich wies Vincent auf die Schwierigkeiten hin nachzuweisen, daß neue Interventionen zu einer verbesserten Überlebensrate der Intensivpatienten führen [Vincent 2000]. Dies mag an der ungenügenden Diskriminationsfähigkeit der verwendeten Modelle zur Auswahl der Studienpopulation liegen. Die vorliegenden Regressionsgleichungen ermöglichen es somit, am Patientengut dieser Institution prospektiv Patienten mit hoher Spezifität zu selektionieren mit erhöhtem Risiko auf ein prolongiertes SIRS bzw. eine Sepsis. Bei der zunehmenden Verfügbarkeit von handlichen elektronischen Datenverarbeitungssystemen ist die Anwendung einer vorher definierten Regressionsgleichung zur Patientendiskrimination während der täglichen klinischen Arbeit ohne eine deutliche Erhöhung des Arbeitsaufwandes möglich. Die hohe negative Nachtest-Wahrscheinlichkeit der verwendeten Regressionsgleichung könnte bei der Interpretation einer möglichen pharmakologischen, prophylaktischen Therapie dieser


95

Risikopopulation hilfreich sein. Eine hohe Patientenhomogenität könnte einer Fallzahlreduktion entgegenkommen und somit auch aus kommerziellen Gründen von Bedeutung sein.

Eine weitere Einsatzmöglichkeit der Diskrimination von Patienten mit erhöhtem Risiko auf ein eskaliertes SIRS bzw. einer Sepsis mittels vorgestellter Regressionsgleichung besteht in der weiteren Erforschung der pathophysiologischen Besonderheiten bei Patienten nach einem kardiochirurgischen Eingriff unter Verwendung der extrakorporalen Zirkulation. Eine Vielzahl von Studien hat sich speziell mit dem Zusammenspiel der Zytokinkasakade bei Patienten mit eskalierter systemischer Inflammationsreaktion beschäftigt [Bone 1996, Boyle 1997, Butler 1993, Elgebaly 1994, Frering 1994, Hill 1998a, Hill 1998b, Khabar 1997, Marie 1998, Menasche 1995, Moore 1988, Prondzinsky 1997, Schlame 1998, Westaby 1987]. Der Wissenszuwachs in den letzten Jahren verursacht eine steigende Anzahl von Parametern, die in dieser Fragestellung des pathophysiologischen Zusammenspiels bei Patienten mit eskalierter systemischer Inflammation im Vergleich zu Patienten ohne systemische Inflammationsreaktion auf ein identisches operatives Trauma von wissenschaftlichen Interesse sind. Eine hohe Spezifität bei der Isolierung von Risikopatienten würde auch bei der Durchführung einer Grundlagenerforschung zu einer Reduzierung der erforderlichen Patientenzahl beitragen und somit Resourcen freisetzen zur Bestimmung weiterer Parameter.

Allerdings kann der vorgestellte Algorithmus zur Patientenselektion nicht in anderen Institutionen beispielsweise im Rahmen von multizentrischen Studien angewendet werden ohne eine vorhergehende multizentrische Validierungsstudie. Eine weitere Limitierung der vorgestellten Ergebnisse könnte in der niedrigen Sensitivität liegen. Im vorgestellten Patientengut betrug die Inzidenz für die Entwicklung eines prolomgierten SIRS (> 3 Tage) bzw. einer Sepsis 15,4 % bzw. 3,7 %. Um eine ausreichende Patientenzahl für eine pharmakologische oder auch pathophysiologische Studie zu erreichen, könnte mit einer geringen Sensitivität eine verlängerte Untersuchungsperiode verbunden sein.

Der Zusammenhang von Krankenhaus-Liegedauer und anfallenden Kosten konnte auch für kardiochirurgische Patienten bestätigt werden [Loop 1995, Riordan 2000, Williams 1998]. Die gegenwärtige gesundheitspolitische Situation läßt die Frage nach der Kosteneffizienz immer mehr in den Vordergrund rücken. In der vorliegenden Studie konnte bei Patienten mit prolongiertem SIRS (> 3 Tage) bzw. Sepsis nach einem kardiochirurgischen Eingriff sowohl


96

eine im Vergleich zu unkompliziert verlaufenden Operationen verlängerte intensivstationäre und Gesamt-Krankenhaus-Liegedauer wie auch deutlich erhöhte Behandlungskosten nachgewiesen werden. Die Vorhersage individuell anfallender Kosten für den einzelnen Patienten ist mittels Score-Systemen oder mittels Risikomodellen nicht möglich [Riordan 2000]. Die Anwendung von Risikomodellen kann der Qualitätskontrolle und dem Nachweis eines Kostentrends dienen. So ließe eine Zunahme von Risikopatienten für die Entwicklung eines eskalierten SIRS bzw. einer Sepsis während eines Untersuchungszeitraums aufgrund der im vorliegenden Patientengut beobachteten verlängerten Behandlungsdauer mit einer Zunahme der Behandlungskosten rechnen. Gegenüber der Verwaltungsbehörde könnte die Anwendung der Risikomodelle frühzeitige Argumentationshilfen für eine patientenbedingte Kostenzunahme ermöglichen. Eine individuelle Vorhersage des Kostenrisikos für den einzelnen Patienten während der intensivmedizinischen Behandlung ist mit den vorgestellten Risikomodellen jedoch nicht möglich und erscheint auch nicht sinnvoll.


© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.

DiML DTD Version 2.0
Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML - Version erstellt am:
Thu Dec 6 15:40:32 2001