.zurück zur auswahl          zur           weiter
 
.  
.
  Postgenomik (Teil I)
.
.
 
Das menschliche Genom ist (weitgehend) erschlossen – Was nun? 
Wie kann man es nutzen? – zum Forschen? – als Goldgrube? 
Wie gestaltet sich die wissenschaftliche Weiterarbeit unter den 
extrem veränderten Bedingungen?
Vorwort

Vor einem Jahr wurde der Abschluss des "Manhattan"-Projektes der Gentechnik verkündet: die Total-Sequenzierung des menschlichen Genoms. Was geschieht seitdem in diesem Zweig der Forschung? Wozu werden die Kenntnisse aus dem Genom genutzt? In der Tagespresse oder dem Fernsehen erscheint darüber so gut wie nichts. Vielleicht ist die Materie zu kompliziert, um sie in kurzen Artikeln verständlich zu machen, vielleicht stehen diese Entwicklungen auch zu sehr im Schatten der Stammzelldiskussion. 

Ich habe mich bemüht, einerseits so verständlich zu schreiben, dass interessierte Laien hindurchfinden können, und andererseits auf die Mitteilung interessanter Details nicht zu verzichten. Dabei kam es mir auf Schlussfolgerungen und gedankliche Querverbindungen an, die daraus gezogen werden können. Ich hoffe, dem Leser damit Ansatzpunkte für weitere Überlegungen an die Hand zu geben. Hauptschwerpunkt des Textes soll es sein, sachlich begründete Kritikpunkte aufzuzeigen und die fragwürdigen Aspekte der neuen Technologien zu diskutieren. (Jubeltexte können Sie unter den jeweiligen Stichworten auf anderen Webseiten finden).

I. Am Beginn einer neuen Ära
 
 

Das menschliche Genom ist noch nicht vollständig entziffert

Das menschliche Genomprojekt gilt seit Anfang des Jahres 2001 als abgeschlossen, obwohl nur 93% der Sequenzen aufgeklärt sind und nur etwa 50% in ununterbrochenen Ketten von mindestens 82 000 Basen ( = 82 kb) vorliegen. (Stand Ende Januar 2001) (1). Die andere Hälfte liegt nur in einer weniger genauen, so genannten Entwurfsform vor. Sie ist weniger genau als für die Endfassung geplant und enthält mehrere Löcher unbekannter Länge mit völlig unidentifizierten Sequenzen. Ausserdem besteht die Entwurfsform aus mehreren längeren Abschnitten, deren Reihenfolge untereinander nicht bekannt ist. Insgesamt ist nur ein Viertel des Genoms mit der höheren Genauigkeit sequenziert (2). Da aber die aufgeklärten Bereiche eine erhöhte Dichte an Genen enthalten, gibt man sich offenbar mit dem Stand der Arbeit zufrieden und erklärt das menschliche Genom für sequenziert. 
 
 

Was wäre ohne das Projekt?

Bevor ich erörtere, was das Projekt gebracht hat, will ich die Frage stellen: Wo wäre die Forschung heute ohne das Projekt? Es wird wohl niemand bezweifeln, dass man alles, was heute bekannt ist, auch ohne das Projekt irgenwann herausgefunden hätte. Aber die Ergebnisse wären eher entlang funktioneller Fragen erarbeitet worden – und das wesentlich langsamer, denn durch die begleitende Werbung flossen erhöhte Geldbeträge in diesen Sektor. Das war erklärtermassen auch einer der Gründe, warum der Nobelpreisträger James Watson sein "Manhattan-Projekt", wie er es nannte, so vorangetrieben hat. 
 
 

Fortsetzung nur mit Automaten?

In den vergangenen Jahren haben automatische Sequenziergeräte mit zunehmender Geschwindigkeit nicht nur die menschlichen DNA-Sequenzen ausgespuckt, sondern auch die Sequenzen von 40 anderen Lebewesen, so genannten Modellorganismen. Weitere 100 sind in Arbeit. All diese Daten bilden eine breite Grundlage für die Bearbeitung neuer Fragestellungen. Um die Zäsur zu verdeutlichen, wurde gleich ein neues Zeitalter ausgerufen, die postgenomische Ära hätte begonnen. Tatsächlich könnte der Bruch zwischen dem, was war, und dem, was kommt, kaum grösser sein. Noch nie warteten so viele Daten auf eine Weiterverarbeitung. Daher wäre es nicht sinnvoll, nun vom Automaten zum Reagenzglas zurückzukehren. Und so stehen wir wirklich am Anfang einer neuen Ära, am Beginn einer Forschung mit Automaten und Software. Parallelversuche in grosser Zahl und miniaturisierter Form sollen mit so genannten Hochdurchsatz-Techologien die grosse Zahl von Daten weiterverarbeiten und eine noch grössere Zahl neuer Daten liefern. Die Aufklärung einzelner Reaktionen mit einzelnen Substanzen – und der reagenzgläschenschüttelnde Chemiker im Labor - gehören wahrscheinlich der Vergangenheit an. 
 
 

Neusprech für die neue Zeit

Parallel zu den methodischen Umbrüchen entsteht eine neue Begriffswelt. Da man nicht mehr mit einzelnen Substanzen arbeitet, tauchen auch die Namen einzelner Verbindungen nicht mehr auf. Statt von bestimmten Proteinen, Aminosäuren und Nucleotiden wird nun von "Zielstrukturen" und "Leitstrukturen" ("targets" und "leads") gesprochen. Die Schilderungen bleiben möglichst allgemein – um die umfassenden Kapazitäten der Methoden zu betonen – und sind oft unklar und schwammig. 
 

Dazu kommt, dass die Sprache eher Werbeträgerin als Kenntnisvermittlerin zu sein scheint. Bei Wortbildungen, die das Gigantische betonen und z.T. aus der Raumfahrt entlehnt sind, fühlt man sich als Leser eher zum Staunen als zum Verstehen aufgerufen. Es geht um Begriffe wie "Diversitätsraum" ("diversity space"), "chemischer Raum" ("chemical space"), Gen-Raum (gene space) (3), Eigenschaftsraum ("property space") (gemeint ist die Gesamtheit aller Möglichkeiten z.B. in einem bestimmten Versuchsansatz), "proteomische Welt" (4) (die Gesamtheit aller Proteine eines Organismus) oder multifaktorielle Welt (die neu entdeckte Komplexität, die höher ist als zuvor angenommen) (5). Die diversen Arbeitsbereiche werden mit Modeworten klassifiziert wie Transkriptomik, Proteomik, Phenomik oder Operomik. (6). Reaktionsbedingungen heissen Formate. Die konservierte Reihenfolge mehrer Gene wird "Syntenie" genannt. Auch das Wort "global" kommt oft vor und soll heissen, dass sich etwas auf das gesamte Genom bezieht. Ein globaler Transkriptionsfaktor z.B. ist einer, dessen Funktion nicht auf einen Teil des Genoms beschränkt ist. Oder man findet Formulierungen wie: "Proteomik zeichnet ein globales Bild". Hier wird der Arbeitsbereich (Proteomik) zum Akteur (und zum Singular, denn im Englischen verwendet man sonst  im Allgemeinen den Plural: "proteomics"). Das Gleiche in: "Proteomik verspricht aufregende Einblicke". Auch Eigenschaften von Chemikalien werden personalisiert, denn sie werden als "Deskriptoren" bezeichnet, z.B. ist die elektrische Ladung eines Moleküls ein Deskriptor (7) und funktionelle Gruppen an einem Molekül sind "Dekorationen" (7). 
 

Dass ich mit diesem Sprachunbehagen nicht allein dastehe, soll ein Zitat zeigen: Ausgerechnet zwei Autoren des "Genomics Institute of the Novartis Research Foundation" schrieben "Leider ist es eine Tatsache, dass die wissenschaftliche Literatur einigermassen planlos entstanden ist, ohne den Vorteil eines kontrollierten oder eingeschränkten Vokabulars und einer wohl-definierten Semantik und Grammatik" und: "Es ist absolut notwendig, die Fakten, Ideen, Beobachtungen usw., die in der wissenschaftlichen Literatur und in den Köpfen von Wissenschaftlern existieren, in eine Form einzupassen, die systematisch, organisiert, verknüpft und visualisiert ist und ihre Verwendung als Suchworte erlaubt"(3). 
 
 

Das menschliche Genom ist kleiner als gedacht – nur 32 000 Gene 
statt 100 000

Der "Abschluss" des Genomprojektes brachte ein Ergebnis, das laut Tagespresse und Wissenschaftlichen Zeitschriften sowohl bei Gentechnikbefürwortern wie –gegnern einen Schock auslöste: Der Mensch hat statt der bisher meist mit 80 bis 100 000 angegebenen nur etwa 30 – 40 000 Gene. Zwar war die Zahl bis kurz davor umstritten gewesen, einige Forscher hatten Werte herunter bis 25 000 angenommen und waren dafür als "low baller" belächelt worden. Die höchsten Annahmen lagen bei 150 000. Beim hoch renommierten jährlichen Cold-Spring-Harbor-Symposium in den USA wurde im Mai 2000 auf die Zahl der Gene gewettet, die Spanne lag zwischen <28 000 und 200 000 (8). 80 bis 100 000 galt in den vergangenen Jahren als Konsens. Peinlich ist natürlich, dass sich einige Datenbankbetreiber gebrüstet hatten, sie besässen in ihren Banken 100 000 Gene (HGS = Human Genome Sciences) oder 125 000 Gene (Incyte) (9). Incyte räumt jetzt ein, dass sie die Zahl ihrer Gene nicht genau kennen, ein Fehler könne sein, dass unter den Messenger-RNAs (mRNAs), die sie gezählt haben, sich auch Pseudogene befinden, die zwar eine mRNA bilden, aber keine Funktion haben, und es könnte weiterhin sein, dass sie verschiedene mRNAs, die durch alternatives Spleissen (s.Teil II ) von ein und demselben Gen gebildet wurden, mitgezählt haben (9). 
 
 

Diese drastische Korrektur eines vorher sehr oft zitierten Ergebnisses ist ein erschreckendes Zeichen dafür, wie dünn die Grundlagen für einige als sicher dargestellte Fakten sein können. Bei ehrlicher Berichterstattung hätte es in den Jahren davor heissen müssen, 
dass es keinerlei Beweise, sondern nur Anhaltspunkte für die Zahl menschlicher Gene gebe, und dass der mögliche Wert zwischen 25 000 und 150 000 läge. Aber die Blösse einer so grossen Unsicherheitsspanne hatte man sich offenbar nicht geben wollen. 
 
 

Was macht einen hoch organisierten Organismus aus?

Nach dem Bekanntwerden der neuen Zahlen beeilte man sich zu sagen, das bedeute, dass die Komplexität der Gen-Phänotyp-Beziehungen entsprechend höher sei und dass daher jedes Gen im Durchschnitt zwei bis drei Proteine produzieren müsse. Wenn es nur ein Drittel der bisher vermuteten Gene gibt, muss eben jedes Gen drei Proteine produzieren – meint man. Aber wie sicher ist das? Die Wissenschfatsgemeinde musste doch gerade eine erschreckende Unkenntnis der Zahl der Gene zugegeben und am nächsten Tag ist sie wieder Herr der Zahlen – so scheint es. Offenbar meint man, dass die angenommene Zahl der Proteine trotz der nach unten korrigierten Zahl der Gene gleich geblieben ist und 100 000 beträgt. War die Zahl 100 000 nicht in erster Linie deswegen angenommen worden, weil man 100 000 Gene vermutete? Über die Gesamtzahl menschlicher Proteine findet man kaum Angaben. Das Biochemie-Institut der Universität Erlangen nennt 250 000 (10). An anderer Stelle heisst es vage: "Die Anzahl der verschiedenen, vom menschlichen Genom exprimierten Proteinmoleküle liegt wahrscheinlich näher bei einer Million als bei 100 000, wie generell von Genom-Wissenschaftlern angenommen (11,12)." Demnach müsste jedes Gen im Schnitt fast zehn Proteine bilden. Ich will später ausführen (s. Teil II), dass wir es hier vermutlich mit einer Art von Komplexität zu tun haben, die sich einer Abzählung entzieht.


 
    (1)  C. Lee, The incredible shrinking human genome, Trends in Genetics, 
           Bd.17, S. 187-188 (Apr. 2001).

    (2)  V.D. Demidov, Human genome: how much do we know? Trends in Biotechnology, 
           Bd. 19, S. 90 (März 2001).

    (3)  D.J. Lockhart u. E.A. Winzeler, Genomics, gene expression and DNA arrays, Nature, 
          Bd. 405, S.827-836 (Juni 2000).

    (4)  B.R. Graveley, Alternative splicing: increasing diversity in the proteomic world, Trends
          in Genetics Bd. 17 S.100-107 (Feb. 2001).

    (5)  G. I. R. Adams, R. Sanders u. J. Jonsson, The development of pharmacogenomic models 
          to predict drug response, Pharmainformatics, Supplement-Band der "Trend"-Zeitschriften
          von Elsevier Science Ltd., S. 30-33 (1999).

    (6)  A. Abbot, A post-genomic challenge: learning to read patterns of protein synthesis, 
           Nature Bd. 402 S.715-720 (Dez. 1999).

    (7)  D.S. Bailey, L. M. Furness u. P. M. Dean, New tools for quantifying molecular diversity, 
           Pharmainformatics, Supplement-Band der "Trend"-Zeitschriften von Elsevier Science 
           Ltd., S. 6-9 (1999).

    (8)  http://www.google.com/search?q=cache:PIW9MdVcnnc:
         www.biosino.org/bioinformatics/Impact%
         2520of%2520human%2520genome%
         2520sequencing%2520for%2520in%2520silico%2520target%
         2520discovery.pdf+Structural+genomics+consortium+SGC&hl=de = P. Sanseau, Impact 
           of human genome sequencing for in silico target discovery, Drug Discovery Today, 
           Bd.6, S. 316-323, (März 2001).

    (9)  Die Zeit 22. Feb. 2001.

    (10) http://www.biochem.uni-erlangen.de/Pages/Stamm/Spleissen.pdf.

    (11) R. Apweiler u. A. Bairoch, The human proteomics initiative of SIB and EBI (Aug. 1999) 
          http://bioinformer.ebi.ac.uk/newsletter/archives/5/hpi.html

    (12) C. O´Donovan, R. Apweiler u. A. Bairoch, The human proteomics initiative (HPI), 
           Trends in Biotechnology, Bd. 19, S. 178-181 (Mai 2001).


 
II. Alternatives Spleissen - mehrere Proteine aus einem Gen

Wie können aus einem Gen mehrere Proteine entstehen? 
Die Antwort heisst: hauptsächlich durch alternatives Spleissen. [ mehr ]


III. Die Suche nach den Genen

Die Sequenz des menschlichen Genoms liegt nun also mehr oder weniger vor. Von den drei Milliarden Basenpaaren gehören nur 1.5% zu einem Gen. Noch bis vor kurzem glaubte man, dass es 3 – 5% seien, aber mit dem Absturz der Zahl der Gene musste auch dieser Anteil entsprechend nach unten korrigiert werden. Wie findet man diese Stecknadeln im Heuhaufen? [ mehr ]


IV. Die Funktionsaufklärung von Genen

Den Ort eines Gens zu kennen, hat nur dann einen Sinn, wenn man etwas über seine Funktion weiss. Deshalb ist die Aufklärung der Genfunktionen  nach dem Abschluss der Sequenzierung die Hauptaufgabe der Forschung. [ mehr ]


V. Proteomik, die Gesamtheit aller Proteine, ihrer Aktivitäten und Regulationen

         Zum Verständnis der Genfunktionen gehören Kenntnisse über die Beschaffenheit, 
         Aktivität und Wechselwirkungen ihrer Produkte, der Proteine. Das Arbeiten mit 
         Proteinen ist schwerer zu automatisieren und daher sehr aufwendig.[ mehr ]

VI. Die Raumstruktur der Proteine

Die Aufklärung der räumliche Strukturen von Proteinen ist ein ganz entscheidendes Problem der postgenomischen Forschung. Die Kenntnis der räumlichen Beschaffenheit, besonders die der aktiven Zentren und Bindungsstellen, ist unverzichtbar für das ursächliche Verstehen ihrer Funktionen und sie bildet die Grundlage für die Bindung möglicher Wirkstoffe und damit für die neue Art, Medikamente zu entwickeln. Aber gerade hier gibt es Probleme, deren Lösung noch in den Anfängen steckt. [ mehr ]


VII. Entdeckung von Medikamenten 
mit den neuen Technologien

Das Hauptziel aller geschilderter Bemühungen, die Funktion der Gene aufzuklären, ist es, auf eine neue Art Wirkstoffe zu finden, die als Medikamente verwendet werden können. Neu ist dabei in jedem Fall die Art der Suche. Die Wirkstoffe selbst sind generell nicht neuartig. Grundsätzlich geht es darum, auf der Grundlage der Kenntnisse aus der Genomsequenz mit Hilfe automatischer Methoden Substanzen zu finden, die in ein Krankheitsgeschehen eingreifen können. [ mehr ]


VIII. Wieviel kostet die Entwicklung eines Medikamentes?

Die angegebenen Kosten für die Entwicklung eines Medikamentes sind astronomisch hoch und steigen weiter an. Aufgrund der letzten Studie vom November 2001 liegen sie bei 802 Mio.$. Verbraucherorganisationen kommen zu anderen Ergebnissen.  [ mehr ]
 
 


Linde Peters 
linde.peters@t-online.de
.
. .. Erstellt am 26.07.02 / Letzte Änderung am 27.01.03

zurück zur auswahl          zurück        weiter       nach oben            home