6 Diskussion

Liegen in einer Entscheidungssituation relevante Ergebnisse qualitativ adäquater randomisierter Studien vor, sollte die Entscheidung auf diese Ergebnisse gestützt werden. Untersuchungen zeigen, dass Kliniker eher bereit sind, neue Vorgehensweisen zu akzeptieren, wenn diese durch randomisierte Studien belegt sind [49]. Damit die Ergebnisse randomisierter Studien für die Entscheidungsfindung genutzt werden können, müssen diese in ausreichender Qualität publiziert sein. Wie in dieser Arbeit gezeigt, ist dies keineswegs selbstverständlich [50]. Bis hier die bereits laufenden Qualitätsinitiativen greifen [11], bleibt es um so wichtiger, dass die Entscheidungsträger das notwendige Methodenwissen haben, um die publizierten Ergebnisse interpretieren zu können [51]. In dieser Arbeit konnte gezeigt werden, dass dieses Wissen durch geeignete Schulungsmaßnahmen vermittelt werden kann [52]. Hier wurde erstmals „evidence“ für die Effektivität des Schulungsansatzes der Evidence-based Medicine erbracht. Wie auch die Daten der in dieser Studie als „Positiv-Kontrollen“ eingeschlossenen Experten zeigen, lässt sich dieses Wissen selbstverständlich auch anders (insbesondere im akademischen epidemiologisch geprägten Umfeld) erwerben.

Diese Ergebnisse stellen auf keinen Fall das Primat der Kombination aus Aufdeckung der Mechanismen in der Grundlagenforschung und der anschließenden Sicherung der klinischen Wirksamkeit in randomisierten Studien in Frage. Es sollte aber deutlich werden, dass über die Durchführung randomisierter Studien hinaus weitere Faktoren die Qualität der klinischen Entscheidungsfindung beeinflussen.

Für viele klinische Probleme liegen noch keine randomisierten Studien vor. Welches Ausmaß dieses Defizit hat, ist umstritten und die Angaben in der Literatur streuen erheblich, je nach dem, ob die Zahl der behandelten Patienten oder die Zahl der untersuchten Verfahren als Nenner verwendet wird (bei vielen Patienten angewendete Therapien sind meist besser untersucht – wird die Patientenzahl als Nenner verwendet, sind diese Therapien stärker gewichtet und der durch Studien belegte Anteil ist relativ höher) [53, 54, 55].

In Bereichen mit unzureichender Studienlage stellt sich die Frage, wie die klinische Entscheidungsfindung unterstützt werden kann, bis Ergebnisse randomisierter Studien verfügbar werden. Die in dieser Arbeit am Beispiel der Vorbereitung von Nierentransplantationskandidaten dargestellte strukturierte Expertenbefragung ist jedoch in erster Linie zur objektiven Beschreibung von Bereichen geeignet, in denen Unsicherheit über [Seite 21↓]das beste diagnostische oder therapeutische Vorgehen besteht. Mittlerweile existieren sowohl für Europa als auch für die USA detaillierte Leitlinien [56, 57], die auch die unzureichende Studienlage in vielen Fragen aufzeigen. In diesen Bereichen sind in der durchgeführten Befragung stark uneinheitliche Antworten (practice variations) zu verzeichnen [58]. Die Ergebnisse der Befragung unterstreichen so die Notwendigkeit hier adäquate Studien durchzuführen.

Ein direkter Nutzen für die klinische Entscheidungsfindung kann aus den Befragungsergebnissen dort gezogen werden, wo gezeigt werden kann, dass ein erheblicher Teil der Befragten ein Verfahren nicht routinemäßig anwendet, obwohl es andernorts grundsätzlich bei jedem Patienten angewendet wird. Hier legen die Befragungsergebnisse nahe, dass eine ubiquitäre Anwendung wahrscheinlich verzichtbar ist. Für das Transplantationsprogramm Charité Campus Mitte wurden aufgrund der Befragungsergebnisse mehrere Untersuchungen aus dem Routineprogramm zur Transplantationsvorbereitung genommen. Die aus der Befragung entstandene Vermutung, dass diese Untersuchungen nicht unbedingt so notwendig waren, wie zuvor angenommen, scheint durch die Erfahrungen bestätigt, die nach der Änderung des Programms gemacht wurden (dies wurde jedoch nicht systematisch untersucht). Für die Patienten hatte diese Entscheidung zumindest den Effekt, dass die Vorbereitung für sie weniger belastend und damit die Zugangshürde zur Nierentransplantation gesenkt wurde. Beispielsweise wurde die Routine-Gastroskopie aus dem Programm genommen, gegen die zahlreiche Patienten erhebliche psychische Widerstände hatten.

Ähnlich den randomisierten Studien bedeuten strukturierte Expertenbefragungen erheblichen Aufwand. Zudem können Experten nicht beliebig häufig befragt werden. Im Gegensatz dazu können klinische Datenbanken vergleichsweise schnell und (so sie bereits vorhanden sind) mit relativ geringem Aufwand genutzt werden. Mit klinischen Datenbanken sind prinzipiell alle Studiendesigns möglich, die auch sonst für Beobachtungsstudien anwendbar sind. Hier vorgestellt sind Kohortenstudien [59, 60, 61] und eine Fall-Kontroll-Studie [62]. Ein neuer – hier noch nicht erprobter – Ansatz ist die Randomisierung innerhalb klinischer Datenbanken [63]. Diese Methode kann möglicherweise eine Brücke zwischen experimentellen (=randomisierten) und beobachtenden Studiendesigns bilden.

Bisher werden experimentelle Studien und Beobachtungsstudien oft als gegensätzliche Methoden angesehen und die Befürworter jeder Methode neigen dazu, die jeweils andere Methode zu kritisieren [63]. Die Stärke der Randomisierung liegt in der wahrscheinlichen Gleichverteilung aller bekannten und unbekannten Faktoren zwischen den verschiedenen [Seite 22↓]Gruppen: „Randomization relieves the investigator from the anxiety of considering and estimating the magnitude of the innumerable causes by which his data may be disturbed” [64]. Durch die Randomisierung wird die Gefahr, dass das Ergebnis durch einen zwischen den Gruppen ungleich verteilten Faktor (Confounder) verzerrt oder gar umgekehrt wird, erheblich verringert. Beobachtungsstudien erfordern hingegen komplizierte statistische Techniken (Matching, Stratifizierung und Multivariate Modellierung), mit denen die Ungleichverteilung bekannter Faktoren (z. B. Schwere der Erkrankung, Begleiterkrankungen, Alter, Geschlecht etc.) korrigiert wird. Wenn relevante Confounder nicht in diese Korrektur einbezogen werden (weil sie nicht erfasst wurden oder nicht bekannt sind), können die Schlussfolgerungen trotz statistischer Korrekturtechniken ungültig sein [65]. Egal wie viele Faktoren einbezogen werden und wie sorgfältig die statistischen Methoden angewandt werden – es werden immer Bedenken bezüglich der Effekte unbekannter Confounder bestehen [66].

Dem Problem der Confounder verwandt ist das Problem des Selection-Bias: Systematische Unterschiede bei der Zusammenstellung der Patienten für die verschiedenen Gruppen können ebenfalls das Ergebnis verfälschen. Bei wirksam randomisierten Studien erfolgt die Gruppenzusammenstellung zufällig und unbeeinflusst von Erwartungen und Einschätzungen der Untersucher. Chalmers et al. fanden dementsprechend bei der Analyse von 145 kardiologischen Studien für nicht-randomisierte Studien im Vergleich zu randomisierten Studien eine 14-fach höhere Wahrscheinlichkeit eines statistisch signifikanten Ergebnisses [67]. Die Gefahr eines Selection-Bias in Beobachtungsstudien kann jedoch gesenkt werden, wenn alle oder nahezu alle Patienten erfasst werden [65], wie es in der in dieser Arbeit verwendeten Datenbank der Fall ist. Es bleibt jedoch auch in diesem Fall die Gefahr, dass Eigenschaften der Patienten die Auswahl eines diagnostischen oder therapeutischen Verfahrens beeinflussen (bias by indication) [68].

Ein weiteres Argument gegen die Aussagekraft von Datenbankanalysen ist die potentielle Durchführung von multiplen Auswertungen, da die Daten bereits vor der Formulierung einer Hypothese gesammelt wurden. Werden ohne ein vorher festgelegtes Auswertungsprotokoll eine große Zahl von Endpunkten und viele Subgruppen analysiert, steigt die Wahrscheinlichkeit, dass allein durch Zufall statistisch signifikante Ergebnisse gefunden werden [69]. Aber auch bei der Auswertung randomisierter Studien können Endpunkte und Subgruppen im Nachhinein manipuliert werden, bis ein statistisch signifikantes Ergebnis gefunden wird. Multiple Analysen sind damit eher ein Kriterium zur Unterscheidung zwischen methodisch sauberen und unsauberen Studien als zwischen randomisierten und Beobachtungsstudien.


[Seite 23↓]

In der Diskussion um die Vor- und Nachteile der verschiedenen Studienarten wird oft übersehen, dass randomisierte Studien und Beobachtungsstudien unterschiedliche Bedingungen untersuchen: In randomisierten Studien wird die Frage untersucht, ob eine Intervention unter „idealen“ Umständen (ausgewählte Patienten, intensive Beobachtung, rigide Untersuchungs- und Therapieschemata) wirksam ist [70]. Beobachtungsstudien hingegen untersuchen „Alltags“-Situationen. Aus den oben angeführten Gründen besitzen randomisierte Studien in der Regel eine höhere „interne Validität“ (unter den Studienbedingungen entspricht das gefundene Ergebnis dem wahren Effekt). Die Ergebnisse intern valider randomisierter Studien müssen aber nicht unbedingt auf den klinischen Alltag übertragbar (generalisierbar) sein [29]. Zum Beispiel zeigte sich die primäre Coronarangioplastie in drei hochrangig publizierten randomisierten Studien als überlegenes Behandlungsverfahren beim akuten Myokardinfarkt [71, 72, 73]. Diese Ergebnisse ließen sich jedoch im nationalen Herzinfarkt-Register nicht nachvollziehen. Die Diskrepanz beruht am wahrscheinlichsten auf der im Register festgestellten gegenüber den Studien deutlich höheren Zeitspanne bis zur Ballonintervention [74]. Durch das unter Alltagsbedingungen spätere Stattfinden der Angioplastie wurde deren in den Studien gefundener Vorteil völlig aufgehoben. In der später durchgeführten Gusto IIb Studie wurde dieser Umstand dann bestätigt [75]. Beobachtungsstudien können so einen wertvollen Beitrag zur Beurteilung der Generalisierbarkeit von Ergebnissen randomisierter Studien leisten.

Angesichts mancher Eigenschaften randomisierter Studien sind Beobachtungsstudien für einige Fragestellungen sogar besser geeignet:


[Seite 24↓]

Der Einfluss von Beobachtungsstudien auf klinische Entscheidungen wurde bisher kaum untersucht [77]. Es gibt aber zahlreiche Beispiele für Änderungen der klinischen Praxis, die allein auf der Basis von Beobachtungsstudien erfolgten:

Auch die in der vorliegenden Arbeit enthaltenen Beobachtungsstudien haben mittelbare oder unmittelbare Implikationen für die klinische Praxis:

Dem hier dargestellten Wert von nicht-experimentellen Studien entsprechend publizieren auch hochrangige medizinische Fachzeitschriften in erheblichem Umfang Beobachtungsstudien. In einer Stichprobe im Jahr 1998 waren 68% bis 87% der veröffentlichten Studien im New England Journal, BMJ und den Annals of Internal Medicine Publikationen von Beobachtungsstudien, während im gleichen Zeitraum der Anteil der Publikationen randomisierter Studien nur zwischen 13% und 32% lag [89]. Dies legt nahe, dass sowohl die Autoren als auch die Editoren der Meinung sind, dass Beobachtungsstudien für die Leser von Interesse sind.


[Seite 26↓]

Der Konflikt zwischen Verfechtern randomisierter Studien und Befürwortern von Beobachtungsstudien scheint angesichts dieser Tatsachen unangebracht. Keine Methode ist perfekt, sondern jede Methode hat ihre speziellen Stärken und Schwächen. Experimentelle und Beobachtungsstudien sollten daher als komplementäre Ansätze verstanden werden, die sich – wie oben gezeigt – zur optimalen Unterstützung der klinischen Entscheidungsfindung gut kombinieren lassen. Für die Durchführung experimenteller Studien können mit Beobachtungsstudien und Expertenbefragungen Bereiche klinischer Unsicherheit beschrieben, Hypothesen generiert und sinnvolle Endpunkte sowie Fallzahlen definiert werden. Dort wo sich randomisierte Studien nicht durchführen lassen, bieten Beobachtungsstudien eine sinnvolle Alternative. Und dort wo randomisierte Studien durchgeführt werden konnten, ermöglichen Beobachtungsstudien die Überprüfung der Generalisierbarkeit der gefundenen Ergebnisse.

Im Gegensatz zu den bisher diskutierten statistischen Verfahren und Studiendesigns ist der im letzten Beispiel für die Nutzung klinischer Datenbanken verwendete Ansatz der künstlichen Intelligenz (KI) in der Medizin relativ neu. Die erste Publikation zu diesem Thema erschien im Jahr 1971 [90]. Dabei haben die Verfahren der KI eine Reihe von Eigenschaften, die gerade beim Einsatz in der Medizin Vorteile gegenüber den konventionellen statistischen Verfahren bedeuten: KI-Verfahren sind

Diese Vorteile haben sich bereits in zahlreichen erfolgreichen Anwendungen im klinischen Alltag bestätigt:

Die KI-Verfahren erzielen dabei oft eine deutlich höhere Diagnosegenauigkeit als erfahrene Ärzte. Zum Beispiel erreicht ein auf einem neuronalen Netzwerk basierendes System bei der Beurteilung von Patienten, die mit akuten Brustschmerzen in der Notaufnahme aufgenommen wurden, eine Sensitivität von 97% und eine Spezifität 96% [96]. Der weiteren Verbreitung dieser Verfahren stehen jedoch Hindernisse entgegen: Die Funktionsweise der meisten Verfahren (z. B. neuronale Netze, Markov Modelle) ist nicht nachvollziehbar (Black Box) [Seite 27↓]und damit für Kliniker schwerer zu akzeptieren [97]. Notwendige Voraussetzung für den Einsatz von KI ist zudem das Vorhandensein einer ausgedehnten Datenverarbeitungsinfrastruktur [98]. Die in dieser Arbeit verwendete elektronische Patientenakte erfüllt diese Voraussetzung bereits. Hier ist der nächste Schritt zur Nutzung des in dieser Arbeit erprobten CBR-Verfahrens für die klinische Entscheidungsfindung die Echtzeit-Integration der KI in die Patientenakte. Über die Nutzeroberfläche können dann Diagnosen der KI direkt dem behandelnden Arzt übermittelt werden. Verbesserungen der klinischen Versorgung durch solche Hinweissysteme wurden bereits mehrfach belegt [99].

Sowohl für diese neueren Verfahren als auch die klassischen Methoden der Datenbank-Analyse steigt mit zunehmender Größe der Datenbasis die Verlässlichkeit der Ergebnisse. Eine Ausweitung der Datenbasis verbessert damit die Unterstützungsmöglichkeiten für die klinische Entscheidungsfindung. Die Ausweitung erfolgt einerseits über die Zunahme der Informationen pro Patient (Datentiefe) als auch über die Einbeziehung von mehr Patienten (Datenbreite). Die Deutsche Transplantationsgesellschaft hat das in dieser Arbeit verwendete System übernommen und stellt es anderen Transplantationszentren zur Verfügung. Das in dieser Arbeit genutzte Pooling kann mit beliebig vielen Zentren durchgeführt werden. Perspektivisch kann damit eine Datenbasis entstehen, die einen repräsentativen Anteil der in Deutschland nierentransplantierten Patienten umfasst. Da die Datentiefe einer solchen Datenbasis die Datentiefe von Registern naturgemäß bei weitem übersteigt, ergeben sich für alle in dieser Arbeit vorgestellten Ansätze Einsatzmöglichkeiten auf einer bisher unerreichten Qualitätsstufe.


© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.
DiML DTD Version 3.0Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML-Version erstellt am:
01.09.2004