Einleitung

1.1  Einführung: "Wanderer, kommst du nach 7q31.2" (FAZ, 7.3.00) oder "Wohin mit drei Milliarden Buchstaben?" (FAZ, 9.10.01).

↓1

"Doch noch ein deutsches Genomprojekt. Aufholjagd beginnt mit der Entwicklung von Technologien. Im Juni des vergangenen Jahres wurde das deutsche Genomprojekt aus der Taufe gehoben." (FAZ, 21.2.96), "Richtfest: Die Entschlüsselung des Erbguts. 10. Januar 2000." (FAZ, 30.12.00), "Informationsflut aus dem Erbgut. Mehr als 135 Lebewesen vor der genetischen Entzifferung ." (FAZ, 19.4.00), "Goliath ganz groß. Das Genomprojekt floriert." (FAZ, 22.5.00), "Den Deutschen ist das Genom wichtiger als die Mondlandung." (FAZ, 17.8.00), "Wer soll das alles lesen? Noch ertrinken auch Spitzenforscher in den Buchstaben des Genoms, [...]" (FAZ, 10.2.01), "Entschlüsselung der Banane naht" (FAZ, 19.07.01), "Materialschlacht um die Bausteine des Lebens. Das "Humanproteom-Projekt" wird von Ingenieuren und Industrie immer schneller vorangetrieben." (FAZ, 13.2.02).

Diese kleine Chronologie von Schlagzeilen zur Genomanalyse deutet die Brisanz des Themas und das Tempo der Entwicklung auf diesem Gebiet an. Die Entschlüsselung des gesamten menschlichen Genoms und des Genoms anderer Organismen wie der Maus ist inzwischen abgeschlossen (Internationales Human Genome Sequencing Consortium 2001). Doch die eigentliche Arbeit beginnt damit erst. Denn um die komplexen physiologischen und krankhaften Vorgänge auf molekularer Ebene zu verstehen, reicht die vollständige Sequenzierung des Genoms nicht aus. Daher rückt in der gegenwärtigen Postgenomära (Bertelsen und Velculescu 1998) die Analyse der Funktionsweise des Genoms und damit die Untersuchung des sogenannten Transkriptoms in den Fokus medizinisch-biologischen Interesses. In diesen Kontext ist auch die vorliegende Arbeit einzuordnen, da sie eine der zentralen Methoden der Transkriptomanalyse - SAGE (serielle Analyse der Genexpression) - am Beispiel des murinen Gehirns untersucht und unter besonderer Berücksichtigung der Reliabilität evaluiert.

Um die Hintergründe und Potentiale der Postgenomära und von SAGE verständlich erläutern zu können, werden im folgenden die Definitionen einiger zentraler Begriffe geklärt.

1.2 Definitionen

↓2

Der Begriff Genom ist mehr als 75 Jahre alt und bezeichnet den kompletten Gen- und Chromosomensatz eines Organismus. Das Wort 'genomics' (Genomanalyse) wird seit 1986 verwendet und beinhaltet das Kartieren, Sequenzieren und Analysieren eines Genoms. Im Laufe der 90er Jahre fiel unter diesen Begriff zunehmend auch die Untersuchung der Funktionen des Genoms. Inzwischen wird die strukturelle Genomanalyse von der funktionellen ("functional genomics") unterschieden. Während erstere die Kenntnisse der kompletten DNA Sequenz und (abnormer) Varianten des Genoms zum Ziel hat, widmet sich letztere der systematischen Untersuchung des Transkriptoms und Proteoms (Hieter und Boguski 1997, Fields et al. 1999) und damit dem Verstehen der Funktionsweise des Genoms. Das Transkriptom stellt die Gesamtheit der Boten-RNS dar, welche zu einem gegebenen Zeitpunkt in einer definierten Zellpopulation vorhanden ist. Es umfaßt alle Transkriptionsprodukte der aktiven Gene dieser Zellen (Velculescu et al. 1997). Durch die Translation der Boten-RNS an den Ribosomen entsteht aus dem Transkriptom das Proteom, welches wiederum sämtliche Proteine umfaßt.

1.3 Hintergründe und Potential der Transkriptomanalyse

Aus dreierlei Gründen ist es interessant, das Transkriptom in seiner Gesamtheit zu untersuchen.

Zum einen können bisher unbekannte Gene entdeckt und ihre Funktionsbereiche eingegrenzt werden. Zweitens können durch die Bestimmung differentiell exprimierter Gene Interessensschwerpunkte herausgearbeitet werden. Forschung soll auf diese Weise gezielt durchgeführt werden können und damit beschleunigt werden. Drittens können durch die Untersuchung des gesamten Transkriptoms umfassende Erkenntnisse über physiologische und krankhafte Prozesse auf molekularer Ebene gewonnen und medizinisch genutzt werden. All diese Forschungsmotive sollen im Folgenden kurz erläutert werden.

Entdeckung bisher unbekannter Gene und Eingrenzung ihrer Funktion

↓3

Viele Gene, ihre korrespondierenden Boten-RNS-Varianten sowie ihre Funktionen sind noch nicht bekannt. Durch eine Analyse des gesamten Transkriptoms läßt sich diese Wissenslücke verringern. Veculescu et al. (1999) zeigten in einer Metaanalyse von 84 menschlichen Transkript-Bibliotheken, die mittels einer Methode zur Transkriptomanalyse (serielle Analyse der Genexpression, SAGE) erstellt wurden, daß von 84000 Transkriptvarianten 46% nicht in eine Gendatenbank eingetragen sind. Eine Untersuchung von fast 30000 Transkripten des menschlichen Gehirns (Lal et al. 1999) ergab, daß 23% dieser Boten-RNS Sequenzen keinem Gen in einer Gendatenbank zuzuordnen waren. Die SAGE Analyse des Transkriptoms von Saccharomyces cervisicae (Velculescu et al. 1997) ermöglichte die Identifizierung mehrerer hundert neuer Gene, welche sich zuvor bei der computergestützten Analyse des Genoms anhand von offenen Leserahmen nicht hatten vorhersagen lassen. Der experimentelle Nachweis von Boten-RNS per SAGE macht die Annahme wahrscheinlich, daß sich die computergestützten Untersuchungen auf Genomebene zur Vorhersage von Genen nur begrenzt eignen und die Annahme von 30.000 Transkripten beziehungsweise Transkriptvarianten für das menschliche Genom verdoppelt werden muß (Chen et al. 2002). Diese Beispiele - eine Liste, die sich noch wesentlich verlängern ließe - zeigen, daß hier noch ein enormer Forschungsbedarf besteht.

Bestimmung primär interessanter Gene

Durch die Analyse der differentiellen Genexpression lassen sich aus der Masse bereits vorhandener Daten, Gene auswählen, die dadurch, daß sie in bestimmten Zusammenhängen signifikant reguliert erscheinen, besondere Wichtigkeit indizieren. Diesen Genen kann dann in weiteren Untersuchungen Priorität gewährt werden. Durch eine solche gezielte Vorgehensweise verspricht man sich eine Beschleunigung medizinisch-biologischer Forschung. Durch Datenbanken, die aus großangelegten Genexpressionsanalyseprojekten stammen und per Internet öffentlich zugänglich sind (Hough et al. 2000, Lal et al. 1999, Velculescu et al. 1999), wird diese Strategie zusätzlich unterstützt. So können Daten zur Genexpression von mehr WissenschaftlerInnen in Analysen miteinbezogen werden. Außerdem können durch die dort vorhandene Datenbreite Expressionsmuster in einem weitaus größeren Umfang herausgearbeitet werden, als das bisher möglich war.

Charakterisierung molekularer Mechanismen und deren medizinische Nutzung

Es wird davon ausgegangen, daß fast jeder biologische Prozeß mit Veränderungen in der Genexpression assoziiert ist (Velculescu et al. 1997). Durch die Analyse der differentiellen Expression können daher Einblicke in molekulare Abläufe bestimmter Krankheiten oder pathologischer Zustände gewonnen werden und diese charakterisiert werden. So konnten Polyak et al. (1997) auf diese Weise ein Modell für p53 induzierte Apoptose aufstellen.

↓4

Zusätzlich lassen sich potentielle Ansatzpunkte für therapeutische und diagnostische Strategien beleuchten. Für einen pulmonalen und einen pankreatischen Tumortypus wurden beispielsweise anhand der Analyse der entsprechenden Transkriptome mittels SAGE neue diagnostisch und prognostisch sinnvolle Markergene gefunden (Madden et al. 2000). Lal et al. (1999) weisen auf die Möglichkeit hin, durch Transkriptomanalyse Kandidatengene für Tumorimmuntherapien zu finden. Auch für die Gentherapie kann die umfassende Kenntnis der gewebsspezifischen Genexpression für das therapeutische Vorgehen entscheidend sein.

Angesichts der Tatsache, daß nur 4% der klassischen 'drug discovery' Projekte letztendlich neue Medikamente auf den Markt bringen (Madden et al. 2000), ist eine Entwicklung effektiverer neuer pharmakologischer Ansätze wünschenswert. Diese setzen jedoch im Gegensatz zur klassischen Vorgehensweise, die Substanzen nach möglichen therapeutischen Effekten auf viele verschiedene Angriffsstellen abtastet, eine bessere Kenntnis der molekularen (Patho-) Physiologie voraus. Anhand in diesem Bereich neu gewonnen Wissens kann dann die Forschung gezielt ihre Bemühungen auf biologisch relevante therapeutische Ansatzpunkte richten.

Des weiteren können Substanzen bereits während einer frühen Entwicklungsphase auf Einflüsse in der Genexpression getestet werden, was die Effizienz pharmakologischer Forschung weiter steigern und die Kosten sowie die Anzahl der Versuchstiere für die Entwicklung neuer Medikamente senken würde (Cox 2001, Madden et al. 2000).

1.4 Verhältnis Boten-RNS und molekularer Phänotyp

↓5

Angesichts all dieser Vorteile, die umfassende Untersuchungen der Genexpression wie oben erläutert in Aussicht stellen, gilt es sich dem Einwurf zu stellen, daß das Niveau der Boten-RNS nicht oder nicht exakt mit dem Niveau der entsprechenden Proteine und damit der Funktion einer Zelle einhergeht. Dies würde den Sinn aller aufwendigen Transkriptomuntersuchungen in Frage stellen und die dargestellten Beweggründe nichtig machen.

Der molekulare Phänotyp einer Zelle oder eines Zellverbandes wird nicht nur von der Quantität der Boten-RNS, sondern auch von deren Stabilität und derjenigen der korrespondierenden Proteine und von anderen post-transkriptionale oder post-translationalen Regulations-mechanismen beeinflußt. Die Kenntnis der Menge einer Boten-RNS erlaubt daher keine 100% präzise Vorhersage über die Menge des entsprechenden Proteins und über den molekularen Phänotyp (Gygi et al. 1999). Dennoch kann sie als Indikator für Zellvorgänge fungieren. Es müssen - bei Bedarf, das heißt, falls ein solcher Hinweis nicht ausreichend ist - weiterführende Studien folgen. Chen et al. (1998) zeigten beispielsweise mit einer Untersuchung (SAGE) zur allergischen Mastzellaktivierung, daß die Expression von MIF Boten-RNS (Makrophagen-Migrationsinhibitionsfaktor) der Menge des zugehörigen Proteins entspricht (Western Blot), was auf eine Beteiligung von Mastzellen an der Infektionsabwehr hinweist. Diese Funde wurden in Studien mit Mäusen, welchen es an Mastzellen mangelte, bestätigt.

Wenn man die komplexen (patho-)physiologischen Vorgänge auf molekularer Ebene genau verstehen möchte, ist die Kenntnis der Transkription (qualitativ und quantitativ) zudem wesentlich, weil sie einen essentiellen Schritt in der Achse Genom - molekularer Phänotyp darstellt. Ohne die Kenntnis der Vorgänge auf der Ebene der Boten-RNS würde in der Erforschung zellulärer Ereignisse eine Wissenslücke existieren.

1.5 Methoden der Transkriptomanalyse

↓6

Es stellt sich nun die Frage, welche Methoden zur Verfügung stehen, um eine Transkriptomanalyse durchzuführen.

Angesichts der Komplexität der Genexpression - es werden abhängig vom Gewebe bis zu Zehntausende von Genen in je unterschiedlicher Menge abgeschrieben (Internationales Human Genome Sequencing Consortium 2001) - ist die Charakterisierung des Transkriptoms kein simples Unterfangen und erfordert Verfahren, welcher dieser Komplexität gerecht werden können. Im folgenden werden einige zentrale Methoden der Genexpressionsanalyse vorgestellt und bezüglich ihrer Tauglichkeit für die Untersuchung des gesamten Transkriptoms diskutiert, um so deutlich zu machen, weshalb für die vorliegende Untersuchung SAGE gewählt wurde.

1.5.1  Klassische Technologien der Genexpressionsanalyse

Klassische Verfahren wie zum Beispiel die seit 1977 (Kozian und Kirschbaum 1999) existierende Northern Blot Analyse beruhen auf Kandidatenansätzen. Das heißt, daß sie lediglich in Einzelexperimenten die Expression bereits bekannter Gene analysieren. Derartige Methoden sind bei weitem zu arbeits- und materialintensiv, um für die primäre Analyse des gesamten Transkriptoms eine Bedeutung zu haben. Ihre Stärke liegt in der sekundären Validierung von Daten, welche mit neuen komplexeren Methoden der pauschalen Transkriptomanalyse erhoben wurden.

1.5.2 Neue Verfahren zur Untersuchung der gesamten Expression einer Zellpopulation

↓7

In den letzten zehn bis fünfzehn Jahren wurden Verfahren entwickelt, die nicht die Expression einzelner Kandidatengene untersuchen, sondern versuchen, das Transkriptom in seiner Gesamtheit zu erfassen.

Diese Verfahren lassen sich in geschlossene und offene Systeme einteilen. Erstere müssen sich auf die Analyse bereits bekannter Gene beschränken, während sich die offenen Techniken dadurch auszeichnen, daß sie bisher unbekannte Gene in ihre Untersuchung mit einbeziehen können und keinerlei schon vorhandene Information über die Sequenz oder den biologischen Hintergrund des Untersuchungsgegenstandes benötigen (Green 2001).

Des weiteren können diese neuen Verfahren anhand ihre Meßweise in zwei Gruppen geteilt werden. So werden analoge, das heißt ablesende Techniken, die ein figuratives Signal produzieren, das durch seine Intensität die Stärke der Genexpression widerspiegelt, von digitalen, das heißt zählenden Methoden unterschieden.

↓8

Im Folgenden werden häufig verwendete Verfahren zur Untersuchung der gesamten Genexpression einer Zellpopulation unter dem Gesichtspunkt ihrer Meßweise zusammengefaßt (siehe auch Green et al. 2001, Kozian und Kirschbaum 1999 und Carulli et al. 1998).

Analoge Verfahren

Methoden dieser Art sind in Tabelle 1 aufgeführt, wobei die Chip- und Filtertechniken bei weiten am häufigsten zur Untersuchung der Genexpression angewandt werden.

Tabelle 1. Analoge Methoden.

Methode

System

Literatur

Chip- und Filtertechniken

geschlossen

Überblick: Cox (2001), Ivanov et al. (2000), Lockhard und Winzler (2000)

Differential Display

offen

Liang und Pardee (1992), Jakob et al. (1999)

Subtraktives Klonieren

offen

Hubank und Schatz (1994)

TOGA

offen

Sutcliffe et al. (2000), Thomas et al. (2001)

GeneCalling

offen

Shimkets et al. (2001)

↓9

Bei den analogen Verfahren ergibt sich aus der Übersetzung der Intensität des figurativen Signals in Zahlenwerte ein wesentlicher Nachteil gegenüber direkt quantifizierenden, das heißt digitalen Methoden (Audic und Claverie 1997, Spanakis und Bouty - Boyé 1994, Spanakis 1993). Durch die Tatsache, daß die Quantifizierung der Genexpression erst sekundär erfolgt, besteht hier im Vergleich zu digitalen Verfahren eine weitaus größere Gefahr der Ungenauigkeit der quantitativen Resultate.

Um Vergleiche innerhalb eines Experimentes möglich zu machen, sind darüber hinaus diverse aufwendige Normalisierungs- und Standardisierungsprozesse notwendig, da das Niveau der Genexpression bei dieser Verfahrensweise nur relativ gemessen wird.

Digitale Verfahren

Die gebräuchlichsten digitalen Methoden faßt Tabelle 2 zusammen. Die Attraktivität dieser digitalen Verfahren liegt darin, daß sie im Gegensatz zu analogen Methoden die Genexpression unmittelbar zählen und so Boten-RNS Mengen absolut quantifizierbar machen. Die Gefahr unpräziser Meßergebnisse sollte also theoretisch bei einer solchen Vorgehensweise niedriger sein als bei analogen Verfahren. Wie aus der Tabelle 2 hervorgeht, bieten außerdem alle genannten Verfahren die Möglichkeit, neue Transkripte zu erfassen, das heißt, daß es sich um offene Systeme handelt.

↓10

Tabelle 2. Digitale Methoden.

Methode

System

Literatur

"expressed sequence tags" (EST) Sequenzierung

offen

Adams et al. (1991 und 1995), Wilcox et al. (1991)

SAGE

offen

Velculescu et al. (1995)

Oligonukleotid Fingerprinting

offen

Meier-Ewert et al. (1998)

MPSS

offen

Brenner et al. (2000)

1.5.3  Wahl einer geeigneten Methode zur globalen Untersuchung der Genexpression

Zur Umsetzung des Ziels, Transkriptome umfassend zu untersuchen, wurde die Etablierung folgender Methoden diskutiert: Filtertechniken, subtraktives Klonieren, Differential Display, EST Sequenzierung und SAGE.

Wie bereits erwähnt stellen Chip- und Filterverfahren häufig verwendete analog arbeitenden Techniken dar. Expressionsprofile können hier durch parallele Analyse vergleichsweise schnell für eine Vielzahl verschiedener Gewebe, Pathologien und experimenteller Bedingungen (Heller et al. 1997, Welsh et al. 2001) und - je nach Subtyp der Technologie - auch für eine großen Anzahl von Genen erfaßt werden. Deswegen wird dieser Methodik eine Zukunft als "zentrale Plattform" der funktionellen Genomanalyse vorausgesagt (Fields et al. 1999, Schena et al. 1998). Ohne im Besitz automatisierter Vorrichtungen zu eigener Herstellung zu sein, ist man jedoch auf die kommerziell vertriebenen Filter oder Chips angewiesen (zum Beispiel AtlasTM Array, Clontech). Dies bedeutet, auf die parallele Analyse einer begrenzten Anzahl von bereits bekannten und vorausgewählten Genen beschränkt zu sein.

↓11

Zwei weitere analoge Verfahren - Differential Display und subtraktives Klonieren - eignen sich tendenziell nur zur Erforschung der qualitativen Seite der Genexpression (Madden et al. 1997). Zudem wurde von beiden Verfahren eine hohe Rate an fasch positiven Ergebnissen berichtet. Bei Differential Display kann diese bei bis zu 50% liegen (Martin und Pardee 2000). Zudem wird berichtet, daß diese Methode nicht sehr zuverlässig sei (Spinella et al. 1999). Subtraktives Klonieren ist außerdem durch das Problem, viele falsch negative Resultat zu liefern, gekennzeichnet (Hubank und Schatz 1999). Wenn man die Grenzen dieser analogen Verfahren nicht akzeptieren möchte, bleiben die beiden genannten digitalen Methoden (SAGE und EST Sequenzieren) zur Auswahl, wobei SAGE durch den höheren Durchlauf gegenüber dem reinen EST Sequenzieren wesentliche Vorteile bietet (Larsson et al. 2000, Man et al. 2000, Bertelsen und Velculescu 1998, Audic und Claverie 1997). Um dies zu verdeutlichen, werden im folgenden Abschnitt die grundlegenden Prinzipien von SAGE skizziert.

1.5.4 Serielle Analyse der Genexpression (SAGE)

Abb. 1: Das Prinzip von SAGE.

Das Prinzip der seriellen Analyse der Genexpression basiert auf der Herstellung von 14 bis 15 Basen langen Fragmenten, sogenannten 'tags' (siehe Abb. 1). Diese sind einer definierten Position am 3'- Ende der Boten-RNS entnommen und charakterisieren so spezifische Transkripte. Diese kurzen Fragmente werden zu langen Ketten ligiert, kloniert, seriell sequenziert und durch Auszählung quantifiziert. Durch einen Vergleich dieser kurzen Sequenzen mit in Genbanken vorhandenen Daten werden bereits bekannte Gene identifiziert. Variationen in der Häufigkeit der Tags zwischen verschiedenen Expressionsprofilen können dazu benutzt werden, um statistisch signifikante Unterschiede in der Genexpression zwischen beispielsweise gesunden und pathologisch verändertem Gewebe herauszuarbeiten. Gegenüber dem EST Sequenzieren ergibt sich aus der Kürze der Tags und deren Verkettung für SAGE der Vorteil, daß seriell - und je nach vorhandenen Kapazitäten auch parallel - sequenziert werden kann, was einen wesentlich höheren Durchlauf ermöglicht. So bietet bei SAGE die Sequenzierung eines Klons die Identifizierung von 30 - 50 Boten-RNS (Tyagi 2000), beim EST Sequenzieren jedoch nur von einer RNS. Dies ist für die Herausarbeitung von statistisch signifikanten Expressionsunterschieden essentiell und senkt die Kosten pro Gen (Man et al. 2000, Spinella et al. 1999). Die Möglichkeit, Transkripthäufigkeiten (an Stichproben) absolut zu zählen, läßt bei standardisiertem Datenmanagement Metaanalysen zu (Velculescu et al. 1999, Lal et al. 1999). Als Methode zur Analyse des Transkriptoms ist SAGE nicht nur dadurch attraktiv, daß dieses Verfahren die Genexpression umfassend und differenziert erfassen kann, sondern auch als offenes System bisher unbekannte Gene entdecken kann. SAGE wird aus all diesen Gründen als der beste Vertreter der offenen Systeme bezeichnet (Nacht et al.1999). Dies hat zur Folge, daß die Anwendung von SAGE weltweit zunimmt (Ye und Zhang 2000) und die Anzahl der per SAGE analysierten Transkripte im Jahr 1999 fast fünf Millionen betrug (Yamamoto et al. 2001).

↓12

In unserer Arbeitsgruppe sollte daher diese Methode etabliert werden mit dem Ziel, Fragen der Genexpression in relevanten Tier- und Zellkulturmodellen (zum Beispiel zerebralen Ischämie) umfassend beantworten zu können. Bevor jedoch derartige inhaltliche Fragestellungen angegangen werden können, sollte - wie bei allen neu entwickelten Verfahren - sichergestellt werden, daß SAGE wissenschaftlichen Gütekriterien entspricht. Im Folgenden sollen diese Kriterien kurz zusammengefaßt werden. Zugleich soll dargestellt werden, ob und inwiefern SAGE sie erfüllt, beziehungsweise ob hier noch Forschungsbedarf besteht.

1.6 Verfahrensetablierung und Testgütekriterien

Die Gütekriterien eines Verfahrens lassen sich in Haupt- und Nebenkriterien unterteilen. Bei ersteren handelt es sich um Objektivität, Reliabilität und Validität. Die Nebengütekriterien - Utilität, Ökonomie und Vergleichbarkeit - sind vor allem bezüglich der praktischen Umsetzbarkeit des Verfahrens von Bedeutung (Weineck 19969). Als Verfahren der pauschalen Messung der Genexpression sollten die Ergebnisse eines SAGE-Durchlaufes zudem repräsentativ für die betrachtete RNS-Population sein, weswegen an dieser Stelle darauf zusätzlich eingegangen werden soll.

1.6.1  Nebengütekriterien

Utilität

Die wissenschaftliche Nützlichkeit der umfassenden Genexpressionsanalyse und die Utilität von SAGE als einem Verfahren, das wesentliche Neuerungen erbringen kann und theoretisch in einem Standardlabor umsetzbar sein sollte, ist aus dem oben Gesagten evident. Im Wesentlichen besteht sie darin, daß SAGE Transkriptome ganz und digital erfassen kann, wobei bisher nicht bekannte Gene entdeckt werden können.

Ökonomie

↓13

Da SAGE im Vergleich zur Sequenzierung von ESTs wesentlich effizienter arbeitet, handelt es sich hierbei um ein relativ ökonomisches Verfahren, das nichtsdestotrotz durch seine methodische Komplexität und den hohen erforderlichen Sequenzieraufwand arbeits- und kostenintensiv ist. Dies muß jedoch in Relation zur Größe des Unterfangens, Transkriptome in ihrer Ganzheit zu analysieren, gesehen werden.

Vergleichbarkeit

Die Tatsache, daß SAGE Stichproben absolut zählt, erlaubt bei einem geregeltem Umgang mit den resultierenden Daten einen Vergleich von Expressionsprofilen, welche in verschiedenen Arbeitsgruppen erstellt wurden. Die Vergleichbarkeit von Daten wird durch das Ausmaß der Übereinstimmung beeinflußt (siehe unten). Zur Verdeutlichung: Expressionsdaten, die mittels eines relativ messenden Verfahrens wie beispielsweise dem Northern Blotting erstellt werden, bieten im Gegensatz dazu jenseits des Rahmens eines einzelnen Experimentes keine Möglichkeit des Vergleichs.

Repräsentativität

Eine andere Eigenschaft, welche von einer das Transkriptom analysierenden Methode gefordert werden muß, ist Repräsentativität. Dies impliziert, daß das beobachtete Expressionsprofil ein mit der untersuchten Boten-RNS Population sowohl qualitativ wie auch quantitativ übereinstimmendes Abbild liefert. Da SAGE jedoch mit einem zählenden und kategorisierenden Sammelverfahren verglichen werden kann und somit von wahrscheinlichkeitstheoretischer Natur ist (Man et al. 2000), kann die Repräsentativität eines SAGE Projektes lediglich in der Sprache der Wahrscheinlichkeit ausgedrückt werden. Die Repräsentativität von SAGE hängt einerseits von der in dem jeweiligen Forschungsprojekt sequenzierten Transkriptmenge ab und steigt mit deren Größe1, andererseits von der Komplexität der Genexpression des jeweiligen Gewebes oder Zustandes. Hierbei ist zu beachten, daß in der vorliegenden Arbeit mit dem Gehirn ein Gewebe untersucht wurde, welches eine Vielzahl an unterschiedlichen Zelltypen aufweist, die wiederum viele verschiedenen Gene in Boten-RNS und Proteine umsetzen.2 Ein repräsentatives Abbild der zugrundeliegenden Transkriptpopulation in einem derart komplexen Gewebe zu erreichen, erfordert einen höheren Sequenzierungsaufwand als für einen Zellverband, der ein einheitlicheres Zellmuster und nur wenige aktive Gene aufweist.

1.6.2 Hauptgütekriterien

Objektivität

↓14

An erster Stelle der Hauptgütekriterien steht die Objektivität eines Verfahrens, worunter verstanden wird, daß "die Registrierung der Beobachtung so weit wie möglich unabhängig von (subjektiven) Einflüssen seitens der Beobachter erfolgt" (Bortz 1990, S.39). Das heißt, daß dieses Gütekriterium lediglich den Ablese- und Bewertungsfehler involviert. Solange bei der Auswertung der sich aus der Sequenzierung ergebenden Rohdaten sowie beim Zuordnen der Genidentität allgemein anerkannte Regeln wie zum Beispiel Subtraktion der Linkersequenzen und Elimination doppelter Ditags (siehe unten) beachtet werden, kann die Objektivität von SAGE als sehr hoch erachtet werden. Bei einer derart regulierten Registrierung ist die Objektivität also evident.

Reliabilität

Die Objektivität einer Beobachtung stellt eine notwendige, wenn auch nicht hinreichende Voraussetzung für das zweite Hauptgütekriterium, die Reliabilität (Zuverlässigkeit, Präzision), dar. In diese gehen zufällige Fehler einer Messung ein, welche so deren Exaktheit beeinflußen (Bortz 1990, S. 60). Da die Reliabilität von SAGE neben der methodischen Etablierung das Thema der vorliegenden Arbeit ist, wird auf die ausführliche Definition und die Implikationen dieses Gütekriteriums gesondert eingegangen werden (siehe unten).

Validität

Die Zuverlässigkeit eines Testes wiederum ist eine notwendige, wenn auch nicht hinreichende Bedingung für die Validität, die Gültigkeit, eines Resultates. Diese sagt also aus, inwiefern ein Verfahren auch das mißt, was es messen soll. Im Rahmen eines SAGE-Projektes wird die Validität von interessanten Transkripten, das heißt in der Regel von Transkripten, welche differentiell exprimiert erschienen, üblicherweise mittels eines zweiten anerkannten (klassischen) Verfahrens, welches als Außenkriterium fungiert, wie zum Beispiel der Northern Blot, eruiert.

1.7 Reliabilität

1.7.1  Reliabilität und ihre verschiedenen Komponenten

↓15

Bevor man sich mit dem Thema Reliabilität sinnvoll auseinandersetzen kann, gilt es diesen und verwandte Begriffe wie Wiederholbarkeit, Reproduzierbarkeit, Stabilität und Übereinstimmung genau zu definieren, da in der Literatur diverse Begriffe zum Thema voneinander abweichend eingesetzt werden (Daly 2000, S. 391).

Verwendung und Definition des Begriffes Reliabilität

Der Ausdruck Reliabilität wird auf zwei gänzlich unterschiedliche Weisen benutzt. Im Kontext industrieller Statistik und Qualitätskontrolle bezeichnet er die Wahrscheinlichkeit des Versagens eines Produktes als Funktion der Zeit (www.statsoft.com/textbook/stprocan.html). Das gleiche theoretische Konzept liegt der Verwendung dieses Begriffs in medizinischen Überlebensstudien zugrunde (Fisher 1993, S. 786).

In dieser Arbeit bezeichnet Reliabilität das Maß der Entsprechung von Messungen, die mit derselben Methode unter gleichbleibenden Bedingungen am selben Testmaterial durchgeführt wurden (Bortz 1990, S. 60). In diesem Sinne verwendet, mißt Reliabilität das Ausmaß, in dem ein Testresultat repliziert werden kann. Ein Meßprozeß ist also dann als reliabel zu betrachten, wenn er bei wiederholter Anwendung konsistente Ergebnisse liefert (Daly 2000, S. 391). In dieses Konzept der Genauigkeit von Messungen gehen sämtliche zufällige3 Fehlerquellen der Datengewinnung und -verarbeitung, der Fixation der Daten sowie der Ablesung oder Bewertung ein (Bortz 1990, S. 39). Die Ermittlung der Reliabilität einer Methode klärt nicht, ob der gemessene Wert auch der zu messende ist (Validität, Richtigkeit, Treffsicherheit - Lorenz 19964, S. 9), sondern bezieht sich auf die zufällige Streuung der Meßwerte (Lorenz 19964, S. 8).

Die verschiedenen Aspekte der Reliabilität

↓16

Es können diverse Aspekte dieses Begriffs unterschieden werden, welche das Maß der Gesamtreliabilität beeinflussen und anhand je verschiedener Untersuchungsdesigns und statistischer Verfahren bestimmt werden. Dies hat wiederum je unterschiedliche Interpretationen der Reliabilität zur Folge. Im folgenden werden diese Begriffe - Reproduzierbarkeit, Wiederholbarkeit, Stabilität und Übereinstimmung - kurz vorgestellt.

Reproduzierbarkeit ist definiert als das Ausmaß der Variabilität von Messungen, die durch den Einfluß der Anwender verursacht wird (www.statsoft.com/textbook/stprocan.html). In Abgrenzung zur Objektivität (subjektiver Ablese- und Bewertungsfehler) handelt es sich hierbei um zufällige Anwendungsfehler im Meßverlauf. Es kann also von einer reproduzierbaren Meßmethode gesprochen werden, wenn verschiedene Nutzer einer Meßmethode Ergebnisse liefern, die statistisch nicht signifikant differieren (www.statsoft.com/ textbook/stprocan.html).

Ob oder inwieweit eine Messung eine gute Wiederholbarkeit (repeatability) aufweist, hängt per definitionem allein von den durch die Methode verursachten Ungenauigkeiten ab (Altmann 1991). Überprüfbar ist dieser Aspekt der Reliabilität anhand von wiederholten Messungen durch denselben Untersucher am selben Material.

↓17

Reproduzierbarkeit und Wiederholbarkeit beziehen sich folglich grundsätzlich auf verwandte Gesichtpunkte, allein die Ursache eventueller Variabilitäten der Meßergebnisse liegt im Fall von ersterer bei der messenden Person, während sie bei der Wiederholbarkeit der Methode selbst angelastet werden.

Weitere Begriffe, die im Zusammenhang mit Reliabilität verwendet werden, sind Verfahrens- oder Meßstabilitätund Übereinstimmung.

Wenn eine Messung nach einem gewissen Zeitabstand im Sinne eines Retests am selben Testmaterial wiederholt wird, wird von der Kurz- und Langzeitstabilität(Lienert 1994) einer Messung gesprochen. Diese hängt in biologischen Zusammenhängen von der natürlichen Variabilität des "Testmaterials", der Reproduzierbarkeit und der Wiederholbarkeit einer Methode ab. Hier wird Reliabilität also aus dem Blickwinkel der zeitlichen Fluktuation definiert.

↓18

Der Begriff Übereinstimmungwird vor allem im Zusammenhang mit Vergleichen verschiedener Anwender eines Verfahrens oder verschiedener Methoden, die die Messung derselben Parameter zum Ziel haben, verwendet (Altman 1991). In Abgrenzung zur Reproduzierbarkeit bezieht sich dieser Benutzervergleich nicht nur auf die Genauigkeit der Anwendung einer Methode, sondern auch auf ihre Güte, das heißt ihre Validität. In dem Fall, daß es sich bei einer der beiden Methoden, welche miteinander verglichen werden, um einen etablierten Standard handelt, der als Außenkriterium verwendet werden kann, fällt die Studie in die Kategorie der Überprüfung der Validität der nicht etablierten Methode.

Reliabilität und Repräsentativität

Im Falle von SAGE ist die Frage nach der Meßgenauigkeit des Verfahrens an die Problematik seiner Repräsentativität gekoppelt, da SAGE nicht die gesamte Transkriptpopulation mißt, sondern Stichproben auszählt. Dies bedeutet, daß - selbst wenn ein SAGE Durchlauf keinerlei Meßungenauigkeiten induzieren würde - die Tagzahl für ein bestimmtes Transkript bei wiederholten Messungen im Rahmen stochastischer Wahrscheinlichkeiten schwanken würde. Eine absolute Deckung der Ergebnisse wiederholter Messungen im Rahmen einer Überprüfung der Reliabilität ist also nicht zu erwarten. Dies heißt jedoch auch, daß der Meßgenauigkeit von solch einem "sammelnden" Verfahren wie SAGE a priori bestimmte Grenzen gesetzt sind. Das bedeutet, daß die Genauigkeit in Projekten, die weniger Tags sequenzieren immer geringer ist als dies bei Projekten der Fall ist, die große Stichproben eines Transkriptoms auszählen. Erstere entnehmen eine kleinere Stichprobe und unterliegen damit größeren stochastischen Schwankung. Ganz genau zu messen (vorausgesetzt SAGE könnte das methodisch) wäre nur möglich, wenn Gesamtpopulationen ausgezählt werden würden. Da dies nicht realistisch ist, ist von SAGE keine 100%e Meßgenauigkeit zu erwarten.

Doch weshalb ist es von Interesse sich mit der Reliabilität eines Verfahrens gezielt auseinanderzusetzen? Darauf soll im nächsten Abschnitt eingegangen werden.

1.7.2 Gründe für die Messung der Reliabilität

↓19

Die Notwendigkeit einer Überprüfung der Reliabilität eines Verfahrens ergibt sich aus den folgenden drei Gründen.

Der erste ist trivial. Ein unreliabler Test wäre der Forschung wenig nützlich und eine Verschwendung finanzieller, menschlicher und tierischer Ressourcen.

Zweitens wäre im gegenwärtigen Wettstreit der verschiedenen Methoden, welche die Messung der gesamten Genexpression zum Ziel haben, derjenigen ein Pluspunkt zuzurechnen, die eine höhere Meßgenauigkeit aufweist. Um einen solchen Vergleich durchführen zu können, muß die Reliabilität jeder Methode jedoch erst einmal bekannt sein.

↓20

Drittens wird eine Einschätzung der Reliabilität benötigt, um bestimmen zu können, ob beobachtete Differenzen in der Genexpression zwischen verschiedenen Geweben oder Zuständen durch tatsächlich vorhandene Unterschiede oder von zufälligen methodischen Variabilitäten verursacht werden (Daly 2000, S. 392f).

Die Untersuchung der Reliabilität von SAGE ist also unerläßlich und deswegen Standard bei der Entwicklung eines neuen Verfahren. Im folgenden wird zusammengefaßt, inwiefern dies bereits geschehen ist.

1.7.3 Die Reliabilität von SAGE in der Literatur

Hieter und Boguski (1997) bekräftigen in ihrem Überblicksartikel zum Gebiet 'functional genomics' die wissenschaftliche Vorgehensweise, Gütekriterien zu überprüfen, durch die Forderung nach einem reliablen Design der Verfahren, welche das Transkriptom untersuchen, um eine aussagekräftige Evaluation der Daten zu gewährleisten. Dennoch finden sich in der ersten Publikation von Velculescu et al. (1995) keine Aussagen zur Reliabilität von SAGE. In späteren Veröffentlichungen wird, wenn auf das Thema Reliabilität eingegangen wird, entweder behauptet, daß selbige vorhanden sei, ohne dies jedoch gesondert zu belegen (zum Beispiel Peters et al. 1999 oder Bertelsen und Velculescu 1998) oder es werden zur Überprüfung in einem quasiexperimentellen Setting die Häufigkeiten einiger 'Housekeeping'- Gene herangezogen (Madden et al. 1997 und Angelastro et al. 2000a). Eine experimentelle Reliabiltätsstudie, die Expressionsprofile insgesamt vergleicht, ist nicht vorhanden.

↓21

Die Literatur zur Reliabilität von SAGE gibt also ein lückenhaftes Bild wider. Dies macht deutlich, daß in diesem Bereich noch Nachholbedarf besteht, um eine zukunftsträchtige Methode wie SAGE auf solide wissenschaftliche Fundamente zu stellen. Bevor eine solche Studie im Rahmen der vorliegenden Arbeit durchgeführt wurde, sollte eingeschätzt werden, wie sich die Reliabilität von SAGE verhalten könnte. Dazu folgt im nächsten Abschnitt die Entwicklung der Problemstellung und Hypothese.

1.8 Problemstellung und Hypothese

Gibt es eine Möglichkeit vorab einzuschätzen, ob SAGE reliabel mißt?

Diejenigen Ergebnisse, welche bisher im Rahmen von SAGE Projekten veröffentlicht wurden, erwiesen sich anhand Überprüfung einzelner Resultate durch zum Beispiel Northern Blots als valide (zum Beispiel Angelastro et al. 2000a, Chen et al. 1998, Polyak et al. 1997, Zhang et al. 1997). Ein Verfahren mit schlechter Reliabilität würde nicht gut mit einem anderen Verfahren, das als externe Kontrolle im Sinne einer Validitätsprüfung fungiert, übereinstimmen (Altman 1991, S. 401). Dies bedeutet, daß ohne ein gewisses Maß an Meßgenauigkeit keine validen Resultate im Rahmen der einzelnen Northern Blot - Kontrolle zu erwarten wären (siehe Abbildung 2). Dies leitet im Rückschluß zu der Hypothese, daß es sich bei SAGE um ein reliables Verfahren handeln müßte. Um diese Annahme zu überprüfen, ist eine explizite Untersuchung zur Abschätzung der Reliabilität notwendig und neben der praktischen Etablierung und Modifizierung der Methode sowie der Evaluierung der statistischen Auswertung von SAGE Projekten Thema dieser Arbeit.

↓22

Abb. 2: Unreliable (A) und reliable (B) Messungen.

In A streuen die verschiedenen Meßpunkte weit um den wahren Wert (großer schwarzer Punkt), während sie in B sehr nahe beieinander und beim wahren Wert liegen (womit sie auch valide wären). Im Fall von A würde ein Vergleich mit den Ergebnissen eines Northern Blots (schwarzer Punkt) meistens negativ ausfallen, im Fall von B positiv.

Um die verschiedenen Aspekte der Reliabilität (Reproduzierbarkeit, Wiederholbarkeit), wie sie oben dargestellt wurden, abzuklären, wäre es notwendig, SAGE-Durchläufe in den unterschiedlichsten Konstellationen durchzuführen (Reproduzierbarkeit). Dies würde beispielsweise bedeuten, daß diverse Untersucher SAGE parallel am gleichen Material durchführen. Um genau abzuklären, welcher der Schritte von SAGE Meßungenauigkeiten induziert, wäre es notwendig, diverse Durchläufe an den verschiedenen Stufen von SAGE zu unterbrechen, das bis dahin erhaltene Material zu teilen, die Untergruppen parallel weiterzuführen und anschließend zu vergleichen.

Dies alles ist jedoch aus ökonomischen Gründen nicht möglich. Umsetzen ließ sich, mit einer Arbeitsgruppe zwei SAGE Durchläufe parallel an einer zweigeteilten Grundmenge an Boten-RNS (K1 und K2) durchzuführen und damit eine Überprüfung der Wiederholbarkeit.

↓23

Doch ist eine technisch derart komplexe Methode wie SAGE in einem molekularbiologischen universitären Standardlabor überhaupt durchführbar? Die Darstellung und Diskussion der Etablierung soll diese Frage im ersten Teil der Arbeit beantworten (4 Etablierung: S. 52 bis S. 114).

Im zweiten Teil der Arbeit (5 Statistische Evaluation und Reliabilität von SAGE) werden statistischen Aspekte von SAGE thematisiert, inklusive der Reliabilität. Da in der Literatur diverse Tests zur Berechnung der statistischen Signifikanz verwendet werden, werden diese evaluiert, um so in der Vielzahl der vorhandenen Tests eine Orientierung zu ermöglichen. Dabei werden ausgewählte Tests anhand der Daten der vorliegenden Arbeit daraufhinüberprüft, ob sie unterschiedliche Ergebnisse (Anzahl der statistisch signifikant verschiedenen Tagpaare) liefern. Dazu werden die beiden Untergruppen K1 und K2 als zu vergleichende Expressionsprofile interpretiert und die Anzahl der als statistisch verschieden ermittelten Tagpaare der untersuchten Tests miteinander verglichen. Einer der so untersuchten Test wurde im Kontext von SAGE bisher noch nicht angewandt.

Zur Ermittlung der Reliabilität werden die beiden Subgruppen K1 und K2 auf Homogenität getestet. Zusätzlich wird der Kontingenzkoeffizient zur weiteren Beurteilung der Wiederholbarkeit berechnet.

↓24

Im Rahmen der Diskussion des statistischen Abschnitts werden zuerst die für SAGE relevanten statistische Entscheidungsprozesse erläutert (S. 137ff) und die Tests aus der Literatur vorgestellt und bewertet (S. 146ff), um so Empfehlungen aussprechen zu können, welche Tests überhaupt beziehungsweise im Rahmen unterschiedlicher SAGE Projekte sinnvoll anzuwenden seien.

Im letzten Abschnitt der Diskussion (S. 162ff) werden die Ergebnisse zur Reliabilität von SAGE evaluiert und diskutiert.


Fußnoten und Endnoten

1  Velculescu et al. (1999) zeigen für humane Kolonkarzinomzellinien, daß die Rate der noch neu zu entdeckenden Transkripte erst ab einer sequenzierten Tagmenge von 650 000 gegen Null geht.

2  Die Anzahl der exprimierenden Gene im Gehirn wird auf 30000 geschätzt (Michiels et al. 1999), wobei die meisten Boten-RNS Moleküle vermutlich nur selten auftreten (Sutcliffe 1988). Dies führt zu einer vergleichsweise ausgeprägten Heterogenität des zerebralen Expressionsprofils (Dokas 1983).

3  Das Modell, mit welchem dieser zufällige Fehler beschrieben werden kann, lautet: W = X + U, wobei die Variable W die beobachteten Werte darstellt. Die Variable X bezeichnet die wahren Werte und ist latent, das heißt, sie kann nie selbst beobachtet werden. Der gemessene Wert W weicht unter Umständen von X ab. U ist dieser als von X unabhängig betrachtete Fehler, von dem angenommen wird, daß es um einen Mittelwert von 0 streut (Spiegelman 1998). Dem gegenüberzustellen wären systematische Fehler, welche zum Beispiel durch regelhafte unterschiedliche Handhabung bestimmter Abläufe von verschiedenen Anwendern einer Methode oder durch falsche Kalibrierung von Geräten zustande kommen können. Diese beeinflussen die Validität einer Meßmethode. Gerichtete Änderungen des biologischen Materials, das heißt in unserem Fall der Genexpression, würden ebenso in einen systematischen Bias resultieren. Diesen zu messen, ist das Ziel vergleichender Untersuchungen der Genexpression.



© Die inhaltliche Zusammenstellung und Aufmachung dieser Publikation sowie die elektronische Verarbeitung sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung. Das gilt insbesondere für die Vervielfältigung, die Bearbeitung und Einspeicherung und Verarbeitung in elektronische Systeme.
DiML DTD Version 4.0Zertifizierter Dokumentenserver
der Humboldt-Universität zu Berlin
HTML-Version erstellt am:
23.08.2006