.zurück zur auswahl        zurück       weiter
 
.  
.
  Postgenomik (Teil VII)
.
 
VII. Entdeckung von Medikamenten 
mit den neuen Technologien
 

Das Hauptziel aller geschilderter Bemühungen, die Funktion der Gene aufzuklären, ist es, auf eine neue Art Wirkstoffe zu finden, die als Medikamente verwendet werden können. Neu ist dabei in jedem Fall die Art der Suche. Die Wirkstoffe selbst sind generell nicht neuartig. Grundsätzlich geht es darum, auf der Grundlage der Kenntnisse aus der Genomsequenz mit Hilfe automatischer Methoden Substanzen zu finden, die in ein Krankheitsgeschehen eingreifen können. 
 
 

A) Rückblick: Die Entwicklung bis heute
 

Ein kurzer Rückblick auf die Geschichte der Medikamenteherstellung in den vergangenen Jahrzehnten: Der überwiegende Teil aller Medikamente besteht bis heute aus organisch-chemischen Verbindungen. Zu diesem Zweck wurde das gesamte Terrain dieser Chemikalien jahrzehntelang systematisch durchkämmt. War eine Substanz als wirksam erkannt worden (z.B. ein Barbiturat oder ein Vertreter der Tetracycline), so wurden in grosser Zahl Derivate hergestellt - oder Substanzen mit ähnlichem Grundgerüst, in der Hoffnung, die Wirkung zu verbessern oder zu variieren. 
 

Mit dem Anspruch, das neueste sei auch vom wissenschaftlichen Standpunkt her das beste Medikament, wurden Ärzte unter Druck gesetzt, wenn sie neue (und neu patentierte) Mittel nicht verschreiben wollten. Dieser Anspruch war mit Sicherheit für eine Vielzahl der neu auf  den Markt gelangten Medikamente unberechtigt, denn für eine Zulassung war nur nötig, die behauptete Wirkung  und eine Sicherheit nach vorgeschriebenen Kriterien nachzuweisen, nicht aber den Beweis für einen Fortschritt gegenüber den bisherigen Mitteln zu liefern. 
 
 

Nachträglich als unwissenschaftlich diffamiert

Heute verabschiedet man sich locker von den damas erhobenen wissenschaftlichen Ansprüchen und diffamiert das bisherige Vorgehen nachträglich als "hypothesis poor", oder "try and error" am Patienten. Vor 1980 sei die Pharmazeutische Industrie reich an Chemie und arm am Verstehen von pathologischen molekularen Zusammenhängen gewesen. "Das änderte sich, als wir das Zeitalter der molekularen Wirkstoff-Entdeckungen betraten (1)." Heute, so heisst es, würden erstmalig Medikamente auf der Grundlage erkannter Wirkungsmechanismen erarbeitet. 

Mit der – trotz 20 Jahren Gentechnik – bis heute überwiegend praktizierten Suchmethode war im Laufe der Jahrzehnte das Feld aller organisch- chemischen Verbindungen so stark abgegrast worden, dass man immer seltener auf neue Wirkstoffe stiess. Damit stieg der Aufwand an Zeit und Geld für Neuentwicklungen.
 
 

Die Dynamik im Körper kann nicht imitiert werden

In dieser Situation erschien in den 70er Jahren die Gentechnik und mit ihr die Hoffnung auf neuartige Medikamente. Es war eine naheliegende und folglich auch schon sehr bald diskutierte Idee, mit Hilfe von Genen, gezielt die Proteine herstellen zu können, die bei bestimmten Erkrankungen fehlten oder defekt waren. Die als "humanidentische Wirkstoffe" (im Englischen als "Biologics") bezeichneten zu erwartenden Arzneien wurden euphorisch bejubelt, man könne damit den ursprünglichen (gesunden) Zustand wieder herstellen. Bereits damals wurde argumentiert, man verfüge damit über die ersten wahrhaft an den Ursachen angreifenden Therapien. Fakt ist, dass man damit dem Körper ausgefallene Substanzen zurückgeben kann, aber nicht in der richtigen zeitlichen und räumlichen Verteilung. Proteine kann man nicht 
oral verabreichen, da sie den Abbau im Magen-Darmtrakt nicht überstehen. 
Sie müssen also injiziert werden. Die Halbwertsverweildauer der Proteine 
im Körper beträgt in vielen Fällen (z.B. beim blutbildenden Hormon Erythropoietin = Epo) einige Stunden, aber Injektionen erhalten die Patienten nur zwei- bis dreimal pro Woche. Das führt zu Konzentrationsschwankungen um das Mehrhundertfache, und ist mit entsprechend gravierenden Nebenwirkungen verbunden. 
 

Weitere Nachteile von Protein-Medikamenten

Die Dosis-Wirkungskurven  sind nicht immer linear

  -  Die Dosis-Wirkungskurven sind oft nicht linear. Das kann so weit gehen, 
     dass sie umkippen. z.B. können der Tumor-Nekrose-Faktor-alpha
     (TNF-alpha) und Interleukin-12 (IL-12) Entzündungen hemmen oder 
     verstärken, je nach Dosierung. Ähnliche Effekte sind auch für 
     transformierenden Wachstumsfaktor (TGF-ß) beobachtet worden.(2) 
     (Mit Transformation ist  hier die Umwandlung in Krebszellen gemeint). 
     Man bezeichnet ins Gegenteil umschlagenden Wirkungen als janusköpfig 
     oder zweischneidig. 
 

Die wichtigsten Targets sind redundant

  -  Rezeptoren sind die am häufigsten verwendeten Targets, aber 
     Rezeptor-Liganden als Medikamente zu entwickeln, ist kompliziert wegen 
     der Redundanz der Rezeptoren, d.h. dass es für eine Bindungsspezifität 
     mehr als einen Rezeptor gibt.(2) 
 

Neue Technologien erfordern eigentlich andere Versorgungsstrukturen

Könnte eine andere Organisation der Verabreichungspraxis den Einsatz von Protein-Medikamenten erleichtern? 

Nur ein Gedanke nebenbei: wenn man bei der Medikamentierung in das letzte Glied der Kette, nämlich bei der Verabreichung an die Patienten, nur einen Teil des Geldes und der Phantasie investieren würde, die in die Entwicklung neuer Medikamente fliessen (vgl. Teil VIII über die Kosten der Medikamenteherstellung), so wären hier wohl auch andere Lösungen möglich: z.B. zahlreiche kleine medizinische Versorgungsstellen, so dass die Patienten vor dem Dienst und/oder nach dem Dienst vorbeikommen können. Dazu braucht es bei wenig frequentierten Anlaufstellen jeweils nur eine Krankenschwester oder Sprechstundenhilfe, die Früh- oder Spätdienst macht.  Wenn wir nicht in der letzten Zeit einen so einschneidenden Rückgang von Arbeitsplätzen und als Folge davon auch eine Verminderung von Arbeitsschutz und sozialer Absicherung erlebt hätten, wäre grundsätzlich auch an eine Teilkrankschreibung mit Teilkrankengeldanspruch zu denken, damit sich die Patienten täglich versorgen lassen können. Wie weit so etwas durchführbar wäre, hängt sicher auch von der Zahl der Patienten ab, die davon Gebrauch machen und damit von der Grösse der Ortschaft. 

Denjenigen, die jetzt vielleicht die Hände über dem Kopf zusammenschlagen, weil die Vorschläge nicht praktikabel sind, möchte ich sagen, dass ich das sozusagen nur skizzenhaft angedacht habe. Ich bin keine Expertin in der Organisation solcher Einrichtungen, aber ist es nicht ein augenfälliger Widerspruch, auf der einen Seite Medikamente mit einem enormen Aufwand an neuesten Technologien herzustellen und ihre potentiellen Wirkungen in sündhaft teuren Werbekampagnien anzupreisen, und dann andererseits  zuzulassen, dass die Patienten einem Vielfachen der unvermeidbaren Nebenwirkungen ausgesetzt werden, weil die Strukturen der ambulanten Versorgung die gleichen geblieben sind, wie für die konventionellen Medikamente. 

Andere, sehr viel problematischere Änderungen werden dagegen immer 
wieder in die Diskussion gebracht. Unter dem Motto: Leben retten und Leid vermeiden wird gefordert, ethische Grundsätze fallen zu lassen. Denken wir an nicht-reproduktives Klonen, Bezahlung von Lebend-Organspendern oder Organentnahme aus Sterbenden, für die es zwar (nach menschlichen Ermessen) keine Rettung mehr gibt, die aber nach bisher geltenden Kriterien Sterbende sind und keine Toten. 
 

"Nur für die Klinik" ist ein zu kleiner Markt

Die humanidentischen Wirkstoffe haben zwar oft die erwarteten Wirkungen, aber auch den Nachteil, dass sie eher für den klinischen Einssatz geeignet sind als für den ambulanten. Eine Beschränkung auf den klinischen Einsatz bedeutet kleine Märkte. So heisst es in den Obesity Meds and Research News vom 16. 03.02 unter dem Titel "Medikamente auf den Markt bringen": 
"Ein injizierbares Medikament wird von viel weniger Patienten benutzt werden als ein oral verabreichbares, und wenn so ein Medikament nicht mit einiger Wahrscheinlichkeit von solchen Patienten genutzt wird, die ohnehin Injektionen erhalten, wie Insulin-abhängige Diabetiker, so kann es sein, dass es allein aus diesem Grunde fallengelassen wird." (3) 

Zur Umgehung dieser Nachteile kann man längerlebige Varianten der 
Proteine herstellen und davon sind auch einige im Einsatz. Bis Ende 2001 gab es 34 zugelassene rekombinante Proteinwirkstoffe in etwa 100 Präparaten (4). Es wird vorausgesagt, dass ihre Zahl künftig etwas schneller steigen soll, 
Für einige schwere Erkrankungen stellen sie verbesserte Therapiemöglichkeiten dar, aber mit der lauten Diskussion über neue Medikamente sind sie nicht gemeint. 

In der oben angegebenen Zahl von 34 sind die  monoklonalen Antikörper mit enthalten. Sie haben  in letzter Zeit an Bedeutung zugenommen und ihre Zahl wird in nächster Zeit steigen. Sie sind aber keine Wirkstoffe, die eine ausgefallene Funktion ersetzen, sondern sie sollen eingesetzt werden, um bestimmte Funktionen zu blockieren, die in einem Krankheitszusammenhang stehen und – besonders bei verschiedenen Krebsformen – eine schädigende Wirkung haben. Mit dieser Wirkungsstrategie sind sie den klassischen Medikamenten ähnlicher und haben nichts zu tun mit dem Traum, mit Hilfe von Gentechnik einen gesunden Zustand wiederherzustellen.

Stammzellen als Produzenten humanidentischer Wirkstoffe?
Mit der Diskussion um die Stammzellen tritt jetzt die Frage auf, ob man sie  nicht auch für die Produktion von humanidentischen Medikamenten verwenden könne. Vertreter der Industrie erteilen dem eine klare Absage – aus den oben genannten Gründen, weil das Ergebnis zu Behandlungsformen führe, "die nur in Krankenhäusern angeboten und verabreicht werden." Fazit: Es sei nicht zu erwarten, dass neue Heilmittel entwickelt werden können, die grosse Umsätze garantieren, sagt Andreas Barner von Boehringer Imgelheim. Und so lange er "für grosse Firmen (...) keinen explodierenden Markt" sehe, gebe er kein Geld dafür aus (5). Das wurde zwar für die Stammzelltechnik gesagt, aber soweit es sich auf daraus zu gewinnende biologische Medikamente bezieht, gilt es auch für die automatisierte, pharmakogenetisch begleitete Medikamenteproduktion. 
 

Neue Heilmittel für alle oder nur für die, die sie zahlen können?
Ein Erfolg dieser Strategie ist es wohl, dass  nur 0.5% der Präparate (100 von 50 000, s.o.) einen Marktanteil von 10% haben (4)!. Auch die soziale Frage wird in diesem Zusammenhang unverblümt angesprochen. Gudrun Tiedemann, Geschäftsführerin beim Bundesverband der Pharmazeutischen Industrie (BPI) meint: Wenn die Behandlungen sehr teuer seien, müsse noch geklärt werden, wer sie bezahlt. "Mit dem jetzigen Gesundheitssystem wird das wohl eher nicht gehen"(5). 
 

Bis vor kurzem richteten sich die Hoffnungen noch auf Protein-Medikamente

In einem Papier des US-National Insitute of General Medical Sciences (NIGMS, einer Abteilung der NIH) von 1997 wird in den Proteinen noch eine grosse Bedeutung für die Zukunft gesehen: z.B. dachte man an gentechnisch hergestellte Antikörper, die Krebszellen radioaktiv markieren, um sie daraufhin gezielter zerstört zu können, oder an verschiedene Cytokine (Interleukine, Interferone, Tumornekrosefaktor), oder verschiedene zellspezifische Wachstumsfaktoren (6). 

Nachtrag im Herbst 2002: Im Moment sieht es so aus, als würde man sich nach Misserfolgen mit den reinen Roboter-Ansätzen auf die hypothesenorientierte Forschung zurückbesinnen Das bedeutet, kleine Moleküle, wenn der Mechanismus erkannt ist, in dem sie wirken sollen, und Proteine, besonders die leichter handhabbaren monoklonalen Antikörper (7).

Noch im Herbst 1999 wird im Begleittext zum EuropaBio-Kongress den biologischen Substanzen der Vorrang eingeräumt: "Die biotechnische Industrie wird sich eher auf die Entwicklung biologischer als auf chemische Substanzen konzentrieren. Sie wird Proteine, Hormone 
und andere Substanzen einsetzen (...)." (8) 
 
 

Heute gilt das Hauptinteresse kleinen Molekülen

Heute liegt das Hauptinteresse erklärtermassen auf kleinen organisch-chemischen Verbindungen (9,10) mit einer Molekularmasse - je nach Angaben -  bis 400 (11), 500 (12) oder 700 Da (13). Der Hauptvorteil ist, dass die meisten von ihnen oral verabreicht werden können und auch sonst leichter zu handhaben und zu lagern sind. 

Einen anderen Vorteil können kleine Moleküle bei der folgenden vorgeschlagenen Strategie einer Medikamentesuche haben: Die aktiven Zentren von Proteinen bleiben im allgemeinen während der Evolution gut erhalten, wogegen sich die Bereiche um sie herum stärker verändern. (Der Grund dafür ist der grössere Selektionsdruck bei Mutationen von funktionellen Stellen.) Das führte zu der Überlegung, dass Mutationen in der Nähe eines aktiven Zentrums in ihren Auswirkungen eine Zwischenstellung einnehmen könnten, indem sie zu Veränderungen von nur subtilen Ausmassen führen. Solche feinen Funktionsunterschiede könnten Ansatzpunkte für die Evolution gewesen sein, die  zur Entstehenung der Unterklassen innerhalb der Proteinfamilien führten. Und da sich hier die mutierten Stellen zusammen mit dem aktiven Zentren auf engem Raum befinden, sollten es gerade kleine Moleküle sein, die als spezifische, die Unterklassen unterscheidende Inhibitoren eingesetzt werden können. (14)

Für Enzyme, die Phosphatgruppen auf Proteine übertragen, genannt Protein-Kinasen, die eine grosse Bedeutung für die Krebsentstehung haben, wurde gefunden, dass an der Bindung ihrer Reaktionspartner (Substrate) Erkennungselemente beteiligt sind, die sich in einem gewissen Abstand vom aktiven Zentrum befinden. Kleine Moleküle (in diesem Fall sind es Peptide) reichen gar nicht vom Zentrum bis zu diesen Elementen hin, so dass eine Bindung nicht die volle Stärke erreichen kann. (15) 
 

Die Bevorzugung  der kleinen Moleküle ist bemerkenswert, denn mit der Aufklärung des Genoms werden immer mehr Proteine und ihre Wirkungszusammenhänge bekannt. Und schliesslich war eins der grossen Versprechen der Gentechnik, dass die Synthese von Proteinen kein Problem mehr darstellen sollte. D.h. unter den Proteinen steigt die Zahl der als therapeutisch wirksam erkannten Substanzen. Auf der anderen Seite sind die organisch-chemischen Verbindungen schon stark ausgesiebt und es wird – wie bereits beschrieben - immer schwerer, hier noch neue Wirkstoffe zu finden. Man hofft zwar, dass die neuen Suchmethoden effektiver sein werden, aber davon steigt nicht die Zahl der  Chemikalien, unter denen die Auswahl getroffen wird. Das Problem verschärft sich noch dadurch, dass man den Einzugsbereich für Wirkstoffe noch weiter eingrenzt, weil eine bestimmte Art von molekularer Toxizitätsprüfung nur mit einem Teil der chemischen Verbindungen möglich ist (s.später). 
 

Die Anwendung der technischen Neuerungen hat paradoxe Züge

Wir stehen vor einem Paradox: Eine durch die Gentechnologie erschlossene neue Quelle von Wirkstoffen bleibt weitgehend ungenutzt und eine bereits versiegende Quelle wird unter Aufbietung aller technischen Möglichkeiten intensiver genutzt als bisher. Das ist einer der Gründe für die stetig weitersteigenden Kosten und eine sich anbahnenden Krise in der Pharmaindustrie (s.Teil VIII). 
 

Kranke Funktionen abschalten oder gesunde wieder herstellen?

Die Entscheidung zwischen körperidentischen (oder körperähnlichen), meist höhermolekularen, und niedermolekularen, körperfremden Wirkstoffen hat noch einen weiteren Aspekt: Die kleinen Moleküle haben eher antagonistische als agonistische Wirkung (16), d. h. sie wirken durch das Ausschalten und nicht durch die Imitation einer Funktion. Das ist im Grunde immer eine Giftwirkung und somit etwas grundsätzlich anderes als der Versuch, einen gesunden Zustand wieder herzustellen. 


 

B) Die neue Art der Suche nach Medikamenten
 

Suchkriterien waren früher messbare Effekte

Die Aufgabe heisst, wie findet man solche, meist kleinen Moleküle, die in ein Krankheitsgeschehen eingreifen können? Früher waren die Suchkriterien für neue Medikamente messbare Effekte, die man (meist in Tierversuchen aber manchmal auch in Zellkulturen) messen konnte, wie z.B. Blutdruck, Zellwachstum, die Aktivität bestimmter Enzyme oder die Konzentration verschiedener Stoffwechselprodukte. Heute dagegen sind die Kriterien von Automaten feststellbare, molekulare Reaktionen. 
 

Heute arbeitet man mit molekularen Zielen

Über die Natur der für die Suche verwendeten Substanzen schweigen sich die allermeisten Veröffentlichungen aus und benutzen statt dessen die dafür geschaffenen allgemeinen Begriffe: Target (Zielstruktur) für das Protein und Lead (Leitstruktur) für den Liganden. Man ist begeistert von der Idee, eine Zielstruktur zu finden, die an einem Krankheitsmechanismus beteiligt ist, dann aus einem Sortiment beliebiger Substanzen diejenigen herauszufischen, die spezifisch an dieses "Ziel" binden, und auf diese Weise eine Wirksubstanz für die Krankheit zu gewinnen, alles vollautomatisch. Medikamente für (fast) alle Krankheiten sollen so gewonnen werden und, so wird behauptet, dank genetischer Tests nebenwirkungsfrei. 
 

Nebenwirkungen werden nicht der Vergangeheit angehören

Es ist zwar anzunehmen, dass man in Zukunft diejenigen Nebenwirkungen wird vermeiden können, die nur bei einem Teil der Patienten auftreten und für die eine eindeutige genetische Ursache nachgewiesen ist. Die Behauptung, dass Nebenwirkungen dann der Vergangenheit angehören würden, ist aber mit Sicherheit ungerechtfertigt. 
Erstens haben vermutlich 15-20% der Nebenwirkungen keine genetische Ursache (17). 
Zweitens ist nicht anzunehmen, dass tatsächlich vorhandene genetische Ursachen immer eine klare Ja-Nein-Entscheidung für ein Risiko erlauben werden, sondern dass sie in einigen Fällen nur ein mehr oder weniger stark erhöhtes Risiko anzeigen. 
Drittens ist es denkbar, dass Nebenwirkungen durch mehr als einen genetischen Faktor verursacht werden. Die Folge wäre eine Aufsplittung in mehrere kleine Patientengruppen mit den verschiedenen möglichen Gen-Kombinationen und jeweils unterschiedlichen Reaktionen auf das Medikament. 
Und viertens gibt es auch Nebenwirkungen, die untrennbar an die therapeutische Wirkung gekoppelt sind und daher bei allen Patienten auftreten, bei denen das Medikament wirkt. 
Schon allein die Tatsache, dass die meisten dieser Medikamente ihrer Natur nach Gifte sind (s.o.), bedeutet, dass auch bei den genetisch geeigneteren Patienten mit Nebenwirkungen gerechnet werden muss. 
 

Kann Medizin  "intelligent" sein?

Und ist die als "intelligente Medizin" apostrophierte Vorgehensweise wirklich so intelligent? Computerisierte Tests von Millionen von chemischen Substanzen ohne gedankliches Konzept bedeuten, dass Intelligenz in die Software und Hardware investiert wird, nicht in den Wirkmechanismus des Medikamentes. Die Bezeichnung "brute force" für computerbegleitetes Arbeiten ohne Hypothesen passt da viel besser. Wie später ausgeführt werden soll, sind die an diese Methode geknüpften Erwartungen aber bereits wieder im Abklingen, die biologischen Eigenschaften entsprechen oft nicht dem, was man sich aus den molekularen Bindungstests erwartet hat (18-20). 


 

C) Die Wahl der richtigen Zielstruktur (Target)

Als Targets kommen Proteine oder Nucleinsäuren in Frage. Fast die Hälfte sind Rezeptorproteine (21). (Das sind so genannte "Andockproteine", an die z.B. Hormone gebunden werden müssen, um ihre Wirkung auszuüben. Sie gehören meistens zu den Membranproteinen, die bei verschiedenen Analysen ausgesprochene Sorgenkinder sind). Aber auch Antikörper, Enzyme oder andere Eiweissstoffe, z.B. Ionenkanal-Proteine sind mögliche Targets. Wichtig ist, dass sie mit einer zweiten Substanz, der Leitstruktur, eine vom Computersystem erfassbare Reaktion eingehen können. 
 
 

Die Auswahl von Targets ist ein Flaschenhals

Wieder einmal gibt es einen Flaschenhals. (Dieser anschauliche Begriff wird bei der Schilderung von Problemen der neuen Techniken recht oft eingesetzt.) Für die Entwicklung von Medikamenten ist es die Wahl der richtigen Zielstruktur,   weil sie der finanziell folgenschwerste Schritt ist und deshalb nach verschiedenen Kriterien gründlich überdacht werden muss. "Ist das Target falsch, kann man hinterher machen, was man will, man kommt nie zu einem Medikament", sagt z.B. Jonathan Knowles von Hoffmann-LaRoche (22). 
 

"Endeckungsgenetik" mit Genen von Patienten

Vorbedingung für eine gute Wahl eines Targets sind 

  • vergleichende Daten über Genotypen von Kranken und Gesunden,
  • Daten über die Expressionshöhe von Genen in verschiedenen Situationen und 
  • Daten darüber, wie die Gene auf verschiedene Stimuli reagieren. 
Um für die Targetauswahl geeignete Gene zu finden, geht man auf "Entdeckungsreise". Diese Phase der Target-Suche wird nämlich wirklich "Entdeckungsgenetik" genannt (23). Gesucht wird bei Patienten nach Genen, 
in denen sie sich von gesunden Vergleichspersonen unterscheiden. Hierfür werden in Reha-Kliniken Fragebögen verteilt, mit Fragen nach Blutdruck, Blutgerinnungswerten, Körpergewicht und Art der Lipidzusammensetzung. 
Die Antworten werden mit den bei ihnen gefundenen genetischen Daten verglichen (24). 

Durch Vergleiche mit gesunden Personen sollen die Gene gefunden werden, die ihre Träger für eine Krankheit empfänglich machen. Hat man ein solches Gen, kann man auf den Stoffwechselschritt schliessen, den es steuert, und der folglich bei den Erkrankten verändert ist und durch ein Medikament korrigiert werden sollte. Es gilt nun, im unmittelbaren Umfeld dieses Stoffwechselschrittes einen Faktor zu finden, der als Target, als Zielstruktur für ein Medikament, geeignet ist. Das kann z.B. ein Rezeptorprotein für eine an der Reaktion beteiligte Substanz sein. Diese Arbeitsabfolge wird "Vom-Gen-zur-Funktion-zum-Target-Strategie" genannt (23). 

Targets aus einem Fadenwurm
 

Kurzer Lebenszyklus – schnelle Ergebnisse

Die oben genannte Strategie kann sinnvoll sein, wenn mit menschlichen Genen gearbeitet wird und wenn der Bezug zur Krankheit sachlich richtig ist. Leider wird von dieser Strategie oft abgewichen. Wenn es praktisch erscheint, greift man auch auf biologische Systeme zurück, die vom Menschen sehr weit entfernt sind. Ein Lieblingstier der Medikamente-Sucher ist der Nematode (Fadenwurm) Caenorhabditis elegans (25). Sein Hauptvorteil ist sein kurzer Lebenszyklus von nur 3-4 Tagen. Das lässt schnelle Ergebnisse erwarten. Für diesen Zeitvorteil wird aber in Kauf genommen, daß es sich um einen Organismus handelt, der vom Menschen grundverschieden ist. 
 
 

Wie ähnlich sind die Gene von Caenorhabditis und Mensch?

Statt die biologischen Unterschiede zu diskutieren, wird einfach abgezählt, wieviele Gene mit denen des Menschen homolog sind. ¾ der Gene von C. elegans stimmten mit denen des Menschen überein, wird gesagt (26), und deshalb könne man davon ausgehen, dass grundlegende chemische Vorgänge ähnlich seien wie beim Menschen.

Das ist erstens ein in seiner Pauschalität völlig unpräzises Argument, denn für eine gültige Beurteilung muss man wissen, wo genau Übereinstimmungen existieren und wo nicht. Zweitens stimmt das Argument möglicherweise gar nicht. Andere Autoren schreiben nämlich, dass die Homologien von C. elegans mit allen Nicht-Nematoden nur 42% (27) oder 40% (28). C. elegans hat aber nur 19 000 Gene, d.h. vom Menschen mit seinen 30 – 32 000 Genen aus betrachtet, werden die Zahlen noch kleiner. Aus 42% werden dann 25%, das hiesse, dass - umgekehrt - ¾ der Gene des Menschen nicht mit einem Gen des Nematoden homolog sind, womit sich eigentlich auch das oben zitierte Argument umkehrt. Ausserdem kommt es nicht nur auf die Anzahl der homologen Moleküle an, sondern auch auf den Grad der Homologien zwischen ihnen. Und der ist bei einem in Bezug auf die Evolution so weit entfernten Tier natürlich viel geringer ist als bei Säugern. 

Einzelne Homologien zwischen Menschen und Nematoden wurden tatsächlich gefunden, z.B. für Insulin-Faktoren, für Alzheimer-verursachende Proteine (29), für ein Enzym der Synthese des Signalstoffes Interleukin-1ß und den Inhibitor des programmierten Zelltods, der Apoptose (30). Allerdings ist Apoptose nicht gleich Apoptose. Sie kann durch verschiedene Gene 
ausgelöst werden, reagiert auf verschiedene Signale und hat unterschiedliche Funktionen. Bei Säugern tritt Apoptose einerseits in bestimmten Phasen der Embryonalentwicklung auf, z.B. werden bei der Bildung von Fingern und Zehen, die Einkerbungen dazwischen durch Apoptose sozusagen „ausgefräst“. Eine ganz andere Funktion hat der programmierte Zelltod als Schutzmechanismus gegen die Entstehung von Krebs. Bei Nematoden tritt Apoptose während der Entwicklung auf, so dass seine Funktion vermutlich  der embryonalen Wirkung beim Menschen ähnelt und wohl eher nicht für die Erforschung von Krebstherapien  geeignet ist. (s.u.). 
 
 

Kreislaufmittel aus einem Tier, das keinen Kreislauf hat?

Die biologische Organisation dieses kleinen, kurzlebigen Würmchens unterscheidet sich von der unsrigen dramatisch. Nematoden haben keinen Kreislauf, trotzdem will man mit ihnen Kreislaufmittel entwicklen (s.u.). Gleiches gilt für Knochenerkrankungen, obwohl sie keine Knochen haben, und vieles mehr. 

Zur Biologie des Nematoden  Caenorhabditis elegans
Nematoden weisen in ihrer Entwicklung Besonderheiten auf, die sie mit keiner anderen Tiergruppe gemeinsam haben (ausser partiell mit den Rotatorien (Rädertierchen)). Sie entwickeln sich streng determiniert. Schon nach der ersten Zellteilung werden aus der einen Tochterzelle nur Körperzellen und aus der anderen nur Keimbahnzellen. Mit jeder weiteren Teilung ist auch ein weiterer Differenzierungsschritt verbunden. Eine Folge dieser strengen Determinierung ist, dass Nematoden eine absolut festgelegte Anzahl 
von Zellen besitzen. Diese Zahl ist von Art zu Art verschieden, aber zwischen Tieren derselben Art identisch. In manchen Organen gibt es nach der Embryonalentwicklung keine Zellteilungen mehr, die Tiere wachsen dann nur durch Zellvergrösserung weiter. Nach Abschluss des Wachstums sind Zellteilungen bei keinem Nematoden mehr möglich. Zugrundegegangene Zellen werden nicht ersetzt. Wegen des Wachstumsstops haben sie nie Krebs und folglich auch nicht den Schutzmechanismus, der bei uns über die Apoptose abläuft und alle Zellen abtötet, die sich ohne ein Signal von einem Wachstumsfaktor – also sozusagen ohne ausdrückliche Erlaubnis - anfangen zu vermehren. Zwar gibt es, wie erwähnt, auch bei Nematoden eine Form von Apoptose, aber diese betrifft eine feststehende Zahl von Zellen in bestimmten Phasen der Entwicklung, sie ist also von der Funktion her etwas anderes. Das ist eins von zahlreichen Beispielen dafür, dass homologe Sequenzen Funktionen haben können, 
die zwar im Mechanismus vergleichbar, in ihrer biologischen Bedeutung aber sehr unterschiedlich sind.
 

Nematoden sind sehr einfach organisiert, aber diese Einfachheit ist kein Anzeichen für eine frühe Entwicklungsstufe in der Evolution, sondern sie ist sekundär entstanden (31). Wir haben es hier also mit einem sehr spezialisierten Organismus zu tun, ein Umstand, der die Fragwürdigkeit von Rückschlüssen auf den Menschen erhöht.
 
 

Ein gentechnisch veränderter Fadenwurm als Modell für herzkranke Menschen?

Nicht vorhandene Übereinstimmungen zwischen Mensch und Wurm versucht man z.T. gentechnisch zu erzeugen. Z.B.: Eine mögliche Ursache für Herzkrankheiten kann eine Calcium-Überladung der Herzmuskelzellen sein. Nematoden haben zwar keine Herzen, aber sie haben Muskeln. Es gelang, 
auf gentechnischem Wege, ein transgenes C. elegans zu züchten, dessen Muskelzellen ebenfalls mit Calcium überladen sind. Aus diesen Zellen wurde eine Zielstruktur entwickelt, um damit nach einer Substanz zu suchen, die einen Effekt auf diesen gentechnisch induzierten Calciumgehalt der Muskelzellen zeigt - in der Hoffnung damit ein Mittel gegen Herzkrankheiten beim Menschen zu finden. 
 
 

Menschliche Gene sollen in fremder Umgebung ihre Funktion zeigen

Ein Teil der Caenorhabditis-Gene, ist wie gesagt, mit unseren homolog. Von einigen dieser menschlichen Gene sind die Funktionen noch nicht bekannt. Solche Gene wurden den Nematoden eingebaut, in der Hoffnung, dass die Homologie ausreicht, um sie in einem Funktionszusammenhang aktiv werden 
zu lassen, der einem Vorgang beim Menschen entspricht. Nun sucht man in 
den gentechnisch leicht vermenschlichten Würmern nach Funktionen für  menschlichen Gene, deren Funktion beim Menschen man noch nicht kennt. 
In welchen Zellen werden sie exprimiert? Wo sind die Genprodukte lokalisiert? Auf diese Weise wurden eine ganze Reihe von "drug discovery"-Programmen entwickelt, die sich auf einzelne Stoffwechselprodukte richten (Glutamat, Dopamin, Acetylcholin) oder auf Stoffwechselbereiche (Calcium-Regulation, Glucose-Stoffwechsel), auf Organe (z.B. das Gehirn) oder Krankheiten (Herzversagen, Lungenentzündung, Autoimmunkrankheiten, polycystische Niere, Alzheimersche Erkrankung, Diabetes). Sogar psychische Zustände wurden genannt: Depressionen, Angst, Psychosen sollen durch Beeinflussung des Serotonin-Stoffwechsels therapiert werden, wobei die Art der Stoffwechselveränderung an diesen Würmern erarbeitet wird (26) (s. zum Serotonin auch Beispiel Nr.9 im Abschnitt über alternatives Spleissen, Teil II). 

Hat man sich für eine Zielstruktur entschieden, geht man auf die Suche nach einer dazu passenden Verbindung, einem Kandidaten für ein Medikament, genannt Leitstruktur. 

Ehe wir dazu kommen, muss geschildert werden, wie mit Hilfe der neu entwickelten kombinatorischen Chemie solche Substanzen in grosser Zahl automatisch synthetisiert werden können, aber zuvor soll über die dazu erforderlichen, ebenfalls neu entwickelten Mikrotechnologien berichtet werden. 


 

D) Die neuen Hochdurchsatz-Technologien
 
 

Der DNA-Chip – eine wichtige Erfindung

Voraussetzung für das, was jetzt als neue Ära in den Biowissenschaften gilt, war nicht nur der Abschluss der DNA-Sequenzierung zusammen mit der Entwicklung hochleistungsfähiger automatischer Sequenziermaschinen, sondern auch eine Erfindung, die vor einigen Jahren von der Firma Affymetrix bekannt gegeben wurde: die Einführung von Chips (oder später anderer miniaturisierter Reaktionsträger) für chemische Reaktionen und deren Auswertung durch Computer. 
 
 

Chips für Gentests

Zunächst wurde die Chip-Methode für genetische Tests angeboten: Denken wir z.B. an einen Test auf das CFTR-Gen, (CFTR = Cystic Fibrosis Transmembrane Conductance Regulator). Von diesem Gen sind viele hundert Mutanten bekannt. Das machte bis vor einigen Jahren zuverlässige Tests unmöglich. Die häufigste der Mutanten wird bei 70% der Cystische-Fibrose-Patienten in unserer Ethnie (Kaukasier) gefunden. Nimmt man die fünf nächsthäufigen hinzu, kommt man auf 85%. Das bedeutete immer noch 15% falsch Negative im Testergebnis. Da aber alle weiteren Mutanten sehr selten sind, waren bessere Werte mit einem vertretbaren Aufwand nicht erhältlich. Nun aber können DNA-Sonden für alle Mutanten auf einen Chip aufgetragen und in einem Arbeitsgang getestet werden. Im Falle eines Treffers wird eine Fluoreszenz ausgelöst. Der Computer erkennt deren genauen Ort und damit ist die Mutante identifiziert. 
 
 

Ein ganzes Labor auf einem Chip?

Die Chips waren der Auftakt für eine äusserst facettenreiche Entwicklung, 
die heute ein Volumen von mehreren Milliarden Euro pro Jahr hat und eine Zuwachsrate von 65% pro Jahr. Das Spektrum der Aufgaben, die sie bewältigen, reicht von den verschiedensten Analysen, Synthesen und der Isolierung von Substanzen aus Gemischen bis zur Auftrennung von Zellen. 
Man spricht auch vom "Lab-on-a-chip". Bei der grossen Anzahl anfallender Analysen und Synthesen müssen die Einzelreaktionen billig sein. Um billig zu sein, müssen sie schnell sein und um schnell zu sein, müssen sie in miniaturisierten Dimensionen ablaufen. 

 

Andere Mini-Träger sind aus Glas oder Harz

Ausser den Chips finden auch andere Trägermaterialien Verwendung, wie Glas, chemisch definierte Harze und Agarose (ein Gel). Statt Mikroplatten können sie die Form winziger Kugeln haben. Es gibt auch Kombinationen aus Plättchen und Kugeln, nämlich Mikroplatten mit kleinen Gruben, von denen jede eine substanzbeschichtete Kugel aufnehmen kann. Mit äusserst kleinen Kugeln und entsprechend verdünnten Lösungen kann man erreichen, dass eine Kugel nicht mehr als ein Molekül trägt. Je nach Art des anzuheftenden Moleküls kann die Farbe des Trägermaterials verschieden gewählt werden. Erfolgt eine Reaktion, so sorgen eingebaute, so genannte Reportermoleküle dafür dass ein Fluoreszenzblitz erzeugt wird, der von einem photo-optischen System wahrgenommen und als Signal an einen Computer weitergeleitet werden kann. Zusammen mit der zuvor gewählten Farbe für das Trägermaterial der Ausgangssubstanz ist nun ein mechanisches Sortieren der Produkte möglich. Das ist eine ganz neue Art von Chemie: mechanisches Sortieren von Molekülen mit Hilfe von Nanotechnologie statt Fraktionierung verschiedener Molekülarten aufgrund ihrer chemischen Eigenschaften. Auf Platten oder Chips können Flüssigkeitströpfchen aufgetragen werden, so klein wie eine Bakterienzelle. Es können auch beide Reaktionspartner in Lösung vorliegen und über entsprechende Reportermoleküle registriert werden. 
 
 

Microfluidics - Zelltrennungen in haarfeinen Röhrchen

Rein empirisch – d.h. zufällig - wurde gefunden, dass Bakterien in elektrischen Wechselfeldern bestimmter Frequenzen (z.B. 10 Hz) zu den Elektroden wandern, während sich rote und weisse Blutzellen dazwischen ansammeln. Daraufhin hat man haarfeine Halbtunnel aus Kunsstoff auf Chips aufgeschweisst. Durch Verwendung verschiedener Kapillarsysteme und Variation der übrigen Versuchsbedingungen kann man nun verschiedene Zelltrennungen durchführen, danach kann man ihre Zellkerne isolieren, daraus die DNA entnehmen und mit Hilfe der Polymerase-Kettenreaktion (PCR) und der Retro-PCR-Technik einzelne Zellen genetisch analysieren, alles vollautomatisch. 
 
 

Feindiagnosen durch Analysen einzelner Zellen

Damit sind u.a. Feindiagnosen von Infektionen möglich: es gibt Chips, mit denen die DNA von E.-coli-Bakterien aus Blutproben vollautomatisch untersucht werden kann. Auch für die Krebsdiagnose ist die neue Miniaturmethode einsetzbar. Im Zentrum für Mikroinvasive Medizin in Pennsylvanien werden damit Krebsuntersuchungen im grossen Massstab durchgeführt. So ist es möglich, das Krebsstadium einzelner Zellen 
festzustellen (22). 
 

Eine kranke Zelle ist kein kranker Mensch

Eine solche Diagnose ist allerdings nicht ohne Probleme: Ein Rückschluss von einem Befund an einzelnen Zellen auf den ganzen Organismus ist interpretationsbedürftig. Einzelne Krebszellen sind immer im Körper anzutreffen. Die Frage ist, wie gross ist der Anteil dieser Zellen, und wie gross ist bei einem bestimmten Anteil die Wahrscheinlichkeit, an Krebs zu erkranken. Das erfordert eine Untersuchung dieser Zusammenhänge für jede Form von Krebs. 
Um den Anteil von Krebszellen unter den Zellen des Gewebes festzustellen – und nicht nur ihr Vorhandensein – ist für jede 
Diagnose die Analyse einer ganzen Reihe von Zellen erforderlich. 
Und was man dann erhält, ist keine eindeutige Vorhersage, sondern eine Wahrscheinlichkeit für den Ausbruch des Krebses. Das kann 
eine sinnvolle Indikation für eine prophylaktische Behandlung sein, aber erst nach einer Schaden/Nutzen-Abwägung für den betroffenen Menschen, der schliesslich zu dem Zeitpunkt  keine Patient ist. Für solche Entscheidungen müssten Kriterien aufgestellt werden als Handlungsrichtlinie für die Ärzte.
 

Krebsdiagnose aufgrund einzelner Krebszellen?

Auch die Feststellung des Krebsstadiums aus einzelnen Zellen ist nicht unproblematisch. Krebsgewebe werden mit fortschreitender Krankheit zunehmend bösartiger. Das erfolgt so: Eine Zelle wird zur Krebszelle, wenn mehrere Mutationen ihre Ansprechbarkeit auf Wachstumskontrollen abgeschaltet haben. Sie teilen sich von da ab unkontrolliert weiter. Das 
erhöht die Mutationsrate. Unter den Mutationen können – rein zufällig - 
auch solche sein, die das Wachstum der Zelle beschleunigen oder sie befähigen, verstärkt infiltrierend (d.h. in Nachbargewebe eindringend) zu wachsen. Solche Zellen sind bösartiger und haben einen Vermehrungsvorteil gegenüber den benachbarten Krebszellen. So bilden sich Zellklone mit erhöhter Bösartigkeit innerhalb der Tumore. Die Kenntis dieser Stadien kann wichtig für Therapieentscheidungen sein. Man muss aber auch hier, um sichere Angaben zu erhalten, eine Reihe von Proben entnehmen und die Entnahmestellen möglichst über den Tumor verteilt wählen, denn Zellen mit einem ähnlichen Grad an Bösartigkeit liegen, wenn sie aus derselben Zelle hervorgegangen sind, meist nebeneinander. Auch hier werden die neuen Analysemöglichkeiten zwangsläufig von Abwägungen begleitet sein müssen: Welchen Grad 
an Entscheidungssicherheit erhält man mit wieviel Messaufwand? Wieviel davon ist bei welcher Diagnose nötig? Da mit der Zahl der Einzelanalysen die Kosten steigen, muss auch gefragt werden: Wieviel trägt das Gesundheitssystem, d.h. wem kommen die aufwendigen Diagnosen schliesslich zugute?
 

Vorteil bei risikoreichen Therapie-Entscheidungen

Es soll nicht unerwähnt bleiben, dass die höhere Empfindlichkeit von 
Analysen auch wirkliche Verbesserungen bringen kann: Gibt es für 
einen Leukämiekranken keinen Knochenmarkspender mit geeigneter Gewebsverträglichkeit, so kann eine Behandlungsmöglichkeit darin 
bestehen, ihm Blutstammzellen aus seinem eigenen Knochenmark zu entnehmen, dann sein Knochenmark durch Bestrahlung zu zerstören 
und anschliessend mit den konservierten Stammzellen neu zu besiedeln. 
Die Gefahr dabei ist, dass sich unter den transferierten Zellen einzelne Leukämiezellen befinden können, so dass die Krankheit erneut ausbricht. 
Mit Einzelzellanalysen kann man erkennen, ob das zu transferierende 
Gewebe von Krebszellen durchseucht ist. Ganz ist die Gefahr zwar 
nicht zu beheben, aber sie kann  erheblich verringert werden (32). 
 
 

E) Kombinatorische Chemie
 

Um beim Screenen der Zielstrukturen eine grosse Zahl ähnlicher Substanzen gleichzeitig einsetzen zu können, wurden Methoden für automatische und in grosser Zahl parallel ablaufende chemische Synthesen entwickelt. Das neue Gebiet wird "Kombinatorische Chemie" genannt. Grundlage hierfür sind die beschriebenen Mikrosysteme. 

In der klassischen Chemie wurden Synthesen durchgeführt, indem man zwei Reaktionspartner unter geeigneten Bedingungen zusammenbrachte und miteinander reagieren liess. So entstand aus einer Substanz A und einer Substanz B das Produkt C
 

A + B ® C
 

Mit der neuen Technologie wird daraus: 
 

A-X + B-Y ® X-C-Y
 

Das bedeutet: eine ganze Stoffklasse A mit verschiedenen Resten X reagiert mit einer anderen Stoffklasse B mit verschiedenen Resten Y zu einer grossen Zahl von Produkten, die in ihrem Molekülteil C identisch sind und die alle einen der Reste X und einen der Reste Y tragen. Dasselbe ausführlicher dargestellt: 
 
 

A-X1        B-Y1           X1-C-Y1,   X2-C-Y1,   X3-C-Y1

A-X2   +   B-Y2   ®   X1-C-Y2,   X2-C-Y2,   X3-C-Y2

A-X3        B-Y3           X1-C-Y3,   X2-C-Y3,   X3-C-Y3
 
 

Man sieht, dass die Anzahl der entstandenen Verbindungen das Produkt aus den Anzahlen der beiden Arten von Ausgangssubstanzen ist. Setzt man z.B. 50 Verbindungen der Substanzgruppe A ein und 100 der Substanzgruppe B so erhält man 5 000 verschiedene Produkte, mit allen denkbaren Kombinationen von X und Y. Deshalb die Bezeichnung "Kombinatorische Chemie". 

Wird eine der Ausgangs-Stoffgruppen an kleine Kugeln gebunden, so kann, wie schon erwähnt, für jede Substanz eine andere Farbe der Kugel gewählt werden. Automatische Lesegeräte können sowohl die Farbe der Kugel als auch die Fluoreszenzfarbe der Reaktion erkennen. So kann automatisch analysiert werden, ob alle Reaktionsteilnehmer reagieren und welche evtl. nicht. Die Farberkennung kann sogar dazu benutzt werden, die Kugeln nach ihrer chemischen Beladung mechanisch zu trennen (s.o.). 

Auch mehrstufige Synthesen können nach diesem Prinzip durchgeführt und die entstandenen Produkte analysiert werden. Nehmen wir eine Synthese eines Kettenmoleküls aus gleichartigen Bausteinmolekülen an (ein Oligonucleotid, Peptid oder Oligosaccharid). Der Einfachheit halber nehmen wir nur drei verschiedene Bausteine an (A, B, C) und verfolgen nur zwei Syntheseschritte, also bis zum dreigliedrigen Molekül. 

Als Erstes wird die Ausgangsmischung in drei Teile unterteilt und jede dieser Teillösungen mit einem anderen Bausteinmolekül versetzt. 
 
 
 

 A,B,C
A,B,C
A,B,C
+
+
+
B
C
¯
¯
¯
AA, BA, CA
AB, BB, CB
AC, BC, CC

 

Von den drei entstandenen Mischungen aus jeweils drei verschiedenen Doppelmolekülen wird je eine Probe zurückbehalten. Die Reste der drei Mischungen werden dann vereinigt und erneut in drei gleiche Teile unterteilt. Wieder wird zu jedem der Teile ein anderes Bausteinmolekül gegeben. 
 
 

AA, BA, CA AA, BA, CA AA, BA, CA
AB, BB, CB AB, BB, CB AB, BB, CB
AC, BC, CC AC, BC, CC AC, BC, CC
+ + +
A B C
¯ ¯ ¯
AAA, BAA, CAA AAB, BAB, CAB AAC, BAC, CAC
ABA, BBA, CBA ABB, BBB, CBB ABC, BBC, CBC
ACA, BCA, CCA ACB, BCB, CCB ACC, BCC, CCC

So hat man nun alle 27 möglichen Dreifachmoleküle hergestellt (z.B. Tripeptide) und möchte jetzt wissen, ob eins davon die gewünschte Aktivität zeigt, und wenn ja, welches. Als erstes werden die drei zuletzt erhaltenen Gemische getestet. Angenommen im links dargestellten Block tritt eine Aktivität auf. Dann weiss man, dass der letzte Baustein ein A ist. Nun geht man zurück zu den zurückbehaltenen Proben der vorigen Synthesestufe und hängt an jede dieser Doppelsubstanzen ein A an. Man erhält dann: 
 
 
AA, BA, CA AB, BB, CB AC, BC, CC
+ + +
A A A
¯ ¯ ¯
AAA, BAA, CAA ABA, BBA, CBA ABA, BBA, CBA (33)

Diese Mischungen werden nun erneut getestet. Angenommen, nun wird in der mittleren Gruppe Aktivität gefunden. Dann weiss man, dass der vorletzte Baustein der aktiven Substanz ein B ist. Zum Schluss geht man zu den Ausgangssubstanzen zurück und hängt an jede zuerst ein B und danach ein A. Angenommen die Substanz, deren Synthese mit A gestartet wurde, enthält die Aktivität, dann ist klar, dass die aktive Substanz die Sequenz ABA haben muss. 

Die ersten Substanz-Bibliotheken bestanden überwiegend aus Peptiden, aber es gelang nicht, aus ihnen Medikamente zu gewinnen. Die Rückführungsmethoden aus den grossen Mischungsansätzen (s. oben) erwiesen sich nicht immer als reproduzierbar (34).


 

F) Die Auswahl von Leitstrukturen (Leads) aus Substanz-Bibliotheken
 

Die Leitstrukturen sind, wie schon erwähnt, durchwegs kleinere organisch chemische Moleküle von 400 bis 700 Da (11-13). Das entspricht bei den Proteinen 5 Aminosäureresten (ca. 550 Da) und bei Nucleinsäuredoppelsträngen nur 2 Nucleotiden (ca. 660 Da). Das bedeutet also, dass man sich von naturähnlichen oder natürlichen Bausteinmolekülen 
verabschiedet, möglicherweise wegen der oben erwähnten Misserfolge. Andere genannte Substanzklassen sind Steroide, Catecholamine oder Umwandlungsprodukte der hochungesätigten Fettsäure Arachidonsäure. 
 

Neuere Trends lassen allerdings hier eine erneute Wende erkennen: Die automatische, computergesteuerte Arbeitsweise kommt - wenigstens partiell – wieder aus der Mode. An ihre Stelle tritt eine Rückkehr zur alten hypothesengestützten Forschung, die man aus Kostengründen hatte verlassen wollen. Damit kommen auch wieder einzelne höhermolekulare Biomoleküle als Medikamente in Frage, z.B. Antikörper, gentechnisch hergestellte Rezeptoren oder Antisense-Polynucleotide. (13) Dieses Hin und Her zeigt die Hektik und Aufgeregtheit der Akteure auf diesem hochinnovativen und finanziell hochriskanten Gebiet. 

Die automatisch erfassbare Reaktion eines Medikamente-Kandidaten mit 
dem Target kann die Bindung eines Antikörpers mit seinem Antigen sein oder die Hemmung einer Enzymaktivität. In den meisten Fällen ist es aber die Bindung eines Rezeptors an einen Liganden. Wichtig ist, dass die Bindung fest und spezifisch ist. Die Stoffgruppen, deren Bindungsfähigkeit mit einem Target getestet werden, entstammen entweder grossen Substanzsammlungen oder sie werden eigens für diesen Zweck mit den Mitteln der kombinatorischen Chemie hergestellt. 
 
 

Substanz-Bibliotheken und Datenbanken

Ob man einstufige oder mehrstufige Synthesen durchführt, in jedem Fall erhält man mit der kombintorischen Chemie Substanzfamilien, die über genau definierte Gemeinsamkeiten verfügen. Sie werden, gebunden an ein Trägermaterial, in so genannten Substanz-Bibliotheken aufbewahrt und die dazugehörigen Daten werden in Datenbanken eingelagert. Solche Familien von Substanzen, die nach demselben Reaktionsschema synthetisiert wurden, sind auch als Ganzes patentierbar. Für das spätere Arbeiten damit wird grosser Wert darauf gelegt, dass das Diversitätsspektrum möglichst vollständig ist, d.h. dass möglichst wenige der theoretisch denkbaren Kombinationen fehlen. Damit sollte gewährleistet sein, dass ein Target auch eine vernünftige Chance hat, einen Bindungspartner zu finden. Werden Lücken entdeckt, so erstellt man Ergänzungsbibliotheken (34). 

Ende 1999 wurde die Zahl der chemischen Bibliotheken mit 300 angegeben (35). Von 86 veröffentlichten Bibliotheken enthielt die Hälfte mehr als 1000 Substanzen, die grösste umfasste 200 Millionen Hexapeptide (35). 20 Aminosäuren können aber nur 64 Millionen verschiedene Hexapeptide bilden. Es müssen also viele Peptide mit anderen als den üblichen Aminosäuren (vielleicht mit D-Formen) darunter sein. Die Firma Pharmacopeia besitzt Sammlungen mit 5.7 Millionen Substanzen und jedes Jahr kommt eine Million 
dazu (34). 
 

 
Eräuterungen:

Als D- und L-Formen werden in der biologischen Chemie Verbindungen bezeichnet, deren Strukturen sich wie Bild und Spiegelbild zueinander verhalten. Bei den Aminosäuren kommt in der Natur normalerweise die L-Form vor. (Deshalb bedeutet das Fehlen einer Angabe definitionsgemäss, dass die L-Form gemeint ist). D-Formen werden in einigen Peptid-Toxinen gefunden. Es wäre daher denkbar, dass man durch Einbau von solchen spiegelbildlich "falschen" Aminosäuren zu pharmakologisch wirksamen Subtanzen gelangt.

 
Ein Mass für Diversität wurde definiert

Da Diversität ein wichtiges Kriterium für die Brauchbarkeit einer Substanz-Bibliothek ist, braucht man ein Mass für dieses Phänomen. Zu diesem Zweck wurden Ähnlichkeitskoeffizienten definiert, die jeweils für ein beliebiges Molekülpaar bestimmt werden (ein Koeffizient von 1 bedeutet "identisch"; einer von 0 bedeutet "keine Ähnlichkeit"). Aus den Koeffizienten aller denkbaren Paare eines Gemisches kann dann für einen Satz von Molekülen eine Ähnlichkeitsmatrix erstellt werden (36). 
 

Neue Technologie für alte Chemikalien 

Die neuen Suchmethoden werden meist auf klassische, organisch-chemische Verbindungen angewendet. Dafür greift man auf die Substanzarchive zurück, in die die grossen chemischen Unternehmen seit Anfang des 20. Jahrhunderts die Zwischen- und Nebenprodukte ihrer Synthesen eingelagert haben. Die Firma Merck (USA) z.B. testet jetzt an natürlichen Targets (meist an Rezeptoren) 10 – 100 000 mögliche Leitsubstanzen, die bei ihnen im Verlaufe ihrer 100jährigen Geschichte medizinisch-chemischer Forschung angefallen sind und aufbewahrt wurden ("eingekellert wie guter Wein") (22). Die Möglichkeiten der Kombinatorischen Chemie verhelfen diesen Substanzen aus dem Arsenal der alten konventionellen Chemie zu neuem Leben. Das Interesse an diesen alten Substanzen zeigt, dass der überwiegende Teil der zur Zeit konzipierten Medikamente seiner Natur nach nicht neuartig sein wird (s.a. später). 
 

Diese Substanzsammlungen haben aber den Nachteil, dass ihre Zusamensetzungen von den früheren Arbeitsgebieten des jeweiligen Unternehmens abhängen, also nicht neutral sind, was ihre chemische Vielfalt und damit ihren Wert als Quelle für Medikamente-Kandidaten einschränkt. (13) 

Ein Zeichen für die aufgekommenen Zweifel an den neuen Methoden, ist, dass an Substanzsammlungen die Forderung gestellt wird, sie sollten möglichst Substanzen enthalten, die bereits Medikamente-ähnlich sind. So heisst es z.B.: „Es sollte angemerkt werden, dass der Focus für die Ausstattung von Bibliotheken chemischer Verbindungen unlängst von einer Maximierung der Bibliotheksgrösse und der chemischen Diversität gewechselt hat zur Einlagerung von mehr Lead- und Medikamente-ähnlichen physikochemischen Eigenschaften in kleineren Bibliotheken.“ (11) Was hier als Ausgangssituation gefordert wird, ist eigentlich das, was nach den ursprünglichen Plänen in der zweiten Stufe anfallen sollte, nämlich eine verringerte Zahl von Verbindungen, die wegen ihrer günstigeren Eigenschaften aus der grossen Anfangsmenge herausgesiebt worden sind. Offenbar hat das nicht geklappt. Warum sonst ersetzt man die erste Screenrunde durch eine Forderung. Das kann nur heissen, dass der Anfang wieder auf konventionellem Wege gemacht werden muss. 
 

Optimierung der Leitstrukturen (Leads)

In den vorausgehenden Abschnitte haben wir besprochen, wie man Substanzsammlungen mit einem gewünschten Spektruk von Eigenschaften erstellt und wie man Reaktionsanordnungen schafft, die Substanzen herauszufiltern, die mit dem Target eine Bindung eingehen. Hat der Test 
einer Substanz-Bibliothek an einem Target einen oder mehrere Treffer 
ergeben, so sind damit Substanzen angezeigt, die für ein Medikament grundsätzlich in Frage kommen. Aber handelt es sich bereits auch um die optimalen Verbindungen? Wahrscheinlich nicht. Deshalb ist der nächste 
Schritt eine Optimierung der Leitstruktur. 

Hierzu werden in wiederholten Syntheserunden analoge Verbindungen hergestellt und jede der Substanzen wird auf ihre Wirkung, auf Sicherheit und auf "ADME" getestet. ADME steht für Absorption, Verteilung (distribution), Stoffwechsel (metabolism) und Ausscheidung (elimination). 

Mit Absorption ist meist der Durchtritt durch die Darmwand oder durch die Blut-Hirnschranke gemeint, 
mit Verteilung der Transfer vom Ort der Verabreichung (also meist vom Mund) zu den verschiedenen Geweben, 
mit Stoffwechsel die Umwandlung in eine andere chemische Verbindung (also nicht der totale Abbau zu Wasser und Kohlendioxid) 
und Ausscheidung bedeutet einen der Ausscheidungswege, meist über den Harn oder die Galle. Zur Eliminierung gehört auch das Endlagern in Speicherzellen. Letzteres ist problematisch, weil solche Medikamente nur so lange verträglich sind, wie dieser Speicherplatz zur Verfügung steht, das können ein paar Jahre sein. 

Automatische Tests – notwendig, aber nur partiell möglich
Im Stadium der Lead-Optimierung werden meist auch schon Tests auf Toxizität durchgeführt, um ungeeignete Verbindungen möglichst früh 
zu erkennen und unnötige, teure Weiterentwicklungen zu vermeiden (Phase-Null-Tests). Man spricht dann von ADME/Tox-Tests. Hier treten 
die gleichen Probleme auf wie bei der Funktionsaufklärung der Gene (s.Absatz über Expressionsprofile in Teil IV, B): der Zeitgewinn  automatisierter Abläufe geht weitgehend verloren, wenn einzelne Teilschritte des Arbeitsprozesses sich nicht in das Automationsschema einfügen lassen.

Deshalb wird daran gearbeitet, alle vorklinischen Tests zu automatisieren. Dazu kommt, dass man besonders die Toxizitätstests in einem möglichst frühen Stadium durchführen will, denn jede Arbeitsstufe, über die ein Durchfall-Kandidat noch mitgezogen wird, erhöht die Kosten. Zu Anfang ist aber die Zahl der Substanzen, die getestet werden müssen am höchsten.  Ein weiteres Argument also für eine Automatisierung. 

Kann man mit Molekülen Giftwirkungen erkennen?
Gifte sind Substanzen, die ab einer bestimmten Konzentration Lebenszusammenhänge stören oder zerstören, also den Tod bewirken. Das 
gilt für Lebewesen und Zellen. Die Stärke von Giften wird in LD50-Werten angegeben, definiert als die Konzentration, bei der 50% der Versuchstiere sterben. Wie kann man diese Definition auf eine Interaktion zwischen Molekülen übertragen? Die Antwort: Das kann man letztlich nicht. Was man statt dessen macht, sind Vergleiche mit bekannten Giftstoffen. Damit treten 
hier ähnliche Probleme auf wie bei den Homologievergleichen, d.h 
Neuartiges bleibt unentdeckt.

Es ist zu erwarten, dass Toxizitätstests auf molekularer Ebene unzulänglich sind, weil viele Reaktionen, die auf dem Zusammenspiel verschiedener Faktoren im lebenden Organismus beruhen, nicht miterfasst werden können. „Sogar Moleküle mit starker und 
selektiver Wirkung und passenden Sicherheitsprofilen erweisen 
sich als Versager ohne adäquaten Nutzen für die Patienten“(20). Diese Unzulänglichkeit wird besonders dann bedenklich, wenn die - ohne gesetzliche Verpflichtungen – vorgezogenen molekularen Toxizitätstests als Argument dafür dienen, die gesetzlich vorgeschriebenen klinischen Tests zu verringern (s.a. später)

Expressionsprofile zum Abschätzen von (toxischen) Wirkungen
Eine automatisierbare Methode zur Charakterisierung der Wirkungsweise von Medikamenten - und damit möglicherweise auch zur Entdeckung von toxischen Nebenwirkungen - ist die Erstellung von Expressionsprofilen (vgl. Teil IV, B). Expressionsprofile geben Auskunft darüber, welche Gene zu einem bestimmten Zeitpunkt aktiv sind. Sie sind also eine Art Schnappschuss des Aktivitätsmusters der Gene. Wie in Teil IV ausgeführt wurde, ändern sich 
die Profile mit dem physiologischen Zustand. Auch Medikamente und 
Giftstoffe beeinflussen die Profile. So kann man durch sorfältigen Vergleich gewisse Rückschlüsse über die Art der Wirkungen ziehen. Findet man für 
eine Leitstruktur ein Profil, das dem eines Giftes ähnlich sieht, so heisst das: 
Vorsicht! Auch dieser Stoff könnte giftig sein. Sicher ist das aber nicht. 

Neuartig wirkende Giftstoffe - für die keine Vergleichsprofile existieren - 
kann man so nicht erkennen. Wenn aber die Zahl der Angriffspunkte für Medikamente im Körper (d.h. der Targets) wie vorhergesagt von 500 auf 
10 000 steigt, ist mit sehr vielen neuen Wirkungsweisen zu rechnen. Genau 
das strebt man ja auch an, denn nur neue Wirkungswege können innovativ genannt werden. Neuartige Wirkungen können aber nicht durch  Vergleiche mit den bereits existierenden abgeschätzt werden.

Bei Vergleichen von Expressionsprofilen ist die Wahrscheinlichkeit, dass eine Schlussfolgerung richtig ist, um so grösser, je ähnlicher sich die verglichenen Substanzen chemisch sind. Dann ist aber das "neue" Medikament nicht wirklich neu, sondern eher eine Variante von bereits Bekanntem. 
 

Leider sind die Expressionsprofile äusserst komplex. Das folgende Beispiel 
mit drei Wirkstoffen soll zeigen, wie gross die Zahl der Gene ist, die mit Aktivitätsänderungen auf Medikamente reagieren.Die Abbildung zeigt das Ergebnis einer Expressionsanalyse in grossem Massstab. Nach Verabreichung von Acetaminophen, Benzo(a)pyren und Clofibrat an Ratten wurden in ihren Lebern die Expressionen von 4332 Genen untersucht. Von ihnen reagierten insgesamt 40%! (1777). Weitere Zahlen sind in der Legende erläutert. 
 
 


Abb.: Zu den Zahlenangaben. Auf Acetaminophen reagierten insgesamt 1162 Gene (von 4332). 488 davon reagierten ausschliesslich auf Acetaminophen und nicht auf die anderen beiden Chemikalien. 114 reagierten auf Acetaminophen und Penzo(a)pyren. 315 Gene reagierten auf alle drei Substanzen. Die Bedeutung der übrigen Zahlen ist entsprechend. (nach R. Somogyi (37) )
 

 
Erläuterungen:
Acetaminophen ist ein Wirkstoff für schmerzlindernde und fiebersenkende Medikamente, der in den USA die häufigste Ursache für Leberzirrhose ist; Benzo(a)pyren ist ein krebsererregendes Umweltgift und Clofibrat ist ein Lipidsenker; der zu Nierenversagen führen kann.
 
 

Auch andere Untersuchungen kommen zu vergleichbar hohen Zahlen von Genen, deren Expresskion durch einzelne Wirkstoffe verändert wird. Die Wirkstoffe Tacrine, Donezepil, Physostigmine, alle drei Hemmstoffe des Enzyms Acetylcholinesterase, die zur Verlangsamung der Alzheimerschen Krankheit gegeben werden, verändern jeweils zwischen 300 und 400 Gen-Expressionen. In diesem Fall wurden nur die Expressionsänderungen gezählt, die um mindestens den Faktor 2 erfolgten.(38) 

Lassen Sie uns noch einen Blick auf die hohen Zahlen ein- oder ausgeschalteter Gene werfen. Bei jedem der drei Wirkstoffe sind es Hunderte. Geht die Target-Lead-Strategie der Medikamente-Suche nicht davon aus, dass man nun – im Gegensatz zu früher - wüsste, welche Reaktionen ausgelöst werden? Man sucht nach Targets, die mit dem Krankheitsgeschehen in Zusammenhang stehen. Dann sucht man für sie nach geeigneten Bindungspartnern, die über eine spezifische Bindung das Krankheitsgeschehens verändern sollen. (Meist durch Ausschalten des Targets). Eine einfache Sicht, einleuchtend und plausibel. Und nun diese Flut von Effekten. Zeigt das nicht, wie 
wenig wir im Detail wissen, was geschieht? Wie kann  man dann 
z.B. vorhersagen, dass sich mit Gentests künftig Nebenwirkungen vermeiden lassen, wenn so viele Gene im Spiel sind? Jedes der mitagierenden Gene kann bei einzelnen Patienten in einer anderen Variante vorliegen und die Wirkung des Medikamentes beeinflussen.
 

Expressionsdaten erhöhen die Einsatzmöglichkeiten für Medikament
Da Expressionsprofile vergleichende Rückschlüsse auf die Wirkungsweise eines Medikamentes zulassen, können auf diesem Wege auch bisher unbekannte Wirkungen eines Medikamentes sichtbar werden, die in manchen Fällen zu einer zusätzlichen Einsatzmöglichkeit führen (23). 

Beispiele: Carbamazepin wurde ursprünglich gegen Neuralgien des Nerven Trigeminus verschrieben. Später wurde entdeckt, dass es auch gegen verschiedene Formen von Epilepsie eingesetzt werden kann (23).

Dopamin-Antagonisten, die mit dem Rezeptor für Dopamin reagieren und ihn abschalten, wurden zunächst nur bei Schizophrenie eingesetzt. Dann fand man eine Variante des Rezeptors, die mit einer Untergruppe von Migräne assoziiert ist, sodass man nun dieser Gruppe von Migräne-Patienten auch mit dem Mittel helfen kann (39). Es fragt sich allerdings, was bei dem psychisch Gesunden an dem Wirkort geschieht, an dem das Mittel bei Schizophrenen zur Wirkung kommt.  Könnte diese doppelte Wirkung nicht die Grundlage für Nebenwirkungen sein? Schliesslich werden Schizophrene durch Psychopharmaka nicht geheilt, sondern Bereiche ihres Gehirns werden gedämpft, um die Wahnvorstellungen zu mindern. Welche Einbussen bewirkt das aber bei einer Person mit normalen realitätsbezogenen Vorstellungen?
 

So eine zusätzliche Anwendungsmöglichkeit ist für den Hersteller finanziell lukrativ, weil auch hier der Grossteil der Entwicklungskosten nicht noch 
einmal gezahlt werden muss. Wie aber das Beispiel mit dem Dopamin 
zeigt, sind solche zusätzlichen Wirkungen mit entsprechenden zusätzlichen Nebenwirkungen verbunden. Das heisst natürlich nicht, dass die Nebenwirkungen dadurch entstünden, dass ein Mittel eine weitere 
Anwendung findet, aber dadurch wird ein Medikament, das wegen seiner Mehrfachverwendbarkeit von Haus aus ein höheres Nebenwirkungspotential hat, vermehrt eingesetzt. Wer jetzt meint, die Zulassungsprüfung hätte schliesslich erwiesen, dass sich die Gefahren im gesetzlichen Rahmen bewegen, und damit sei eine solche Kritik unangebracht, der sei an die vielen  Opfer von Nebenwirkungen erinnert und an die Äusserungen von Fachleuten, dass ihre Zahl drastisch verrringert werden könne. 
 

Ab-initio-Methoden zur Vorhersage toxischer Wirkungen?
Bei einer Reihe von Problemen in der gesamten postgenomischen Forschung hofft man, eines Tages die notwendigen Rückschlüsse direkt aus der DNA-Sequenz ziehen zu können (vgl. Teil III, G). Dem liegt die Überlegung zugrunde, dass wenn das gesamte Zellgeschehen in der DNA-Sequenz programmiert vorliegt, es auch Wege geben muss, diese Programmierung eines Tages lesen zu können. Wie in Teil VI,  beschrieben, versucht man, aus der Aminosäuresequenz der Proteine auf ihre Faltung, daraus auf die räumliche Anordnung von Bindungsstellen und aus diesen auf die Beschaffenheit der Bindungspartner zu schliessen (vgl. Teil VI, Abs. Nachteile der automatischen Funktionsaufklärung). Da Giftwirkungen im Allgemeinen dadurch zustande kommen, dass das Gift Bindungsstellen physiologisch wichtiger Bindungspartner stört oder blockiert, wäre über diesen Weg auch an eine Ab-initio-Erkennung zu denken. Modellversuche in diese Richtung wurden bereits durchgeführt. Von über 40 Benzolverbindungen wurden die LD50-Werte aus Tierversuchen mittels einer Software mit räumlichen Daten der Moleküle in Beziehung gesetzt. Dabei wurde ein gewisses Mass an Korrelationen gefunden. Die Korrelationskoeffizienten lagen zwischen 0.4 und 0.8) (18 ). Das sieht nach einem Anfangserfolg aus. Es bleibt aber abzuwarten, ob sich die Erfolge verbessern und auf andere – meist wesentlich komplizierter gebaute – Substanzen ausdehnen lassen. 

Insgesamt bräuchte man für sichere Aussagen über das Bindungesverhalten eines Stoffes die räumlichen Daten aller für die Abläufe in der Zelle wichtigen Proteinbindungsstellen und das sind die Targets, deren Zahl nun bis zu 10 000 geschätzt wird. Wie im Teil VI gezeigt wurde, liegen in der Erforschung der Raumstrukturen die z.Zt. gravierendsten Probleme. 
 
 

Wie schon erwähnt, werden die künftig zu erwartenden Therapien mit diesen Mitteln als "intelligente Medizin" den bisherigen entgegen gestellt. Aber sie sind ihrer chemischen Natur nach nicht neu und ihre Auswahl erfolgt eher auf grund erkannter Effekte als auf Grund verstandener Zusammenhänge. Ist die Registrierung von Fluoreszenzblitzen wirklich intelligenter als die Beobachtung von Symptomen?
 
 

G) Virtuelle Chemie und virtuelle Zellen
 

Der Chemiker zeichnet, der Computer versteht

Bei der Besprechung räumlicher Strukturanalysen wurde das Einpassen virtueller Liganden in virtuelle Bindungszentren bereits geschildert. Für virtuelle Liganden gibt es virtuelle Bibliotheken. Das sind Datenbanken, die alle Daten und Aktivitäten von Verbindungen enthalten, die durch ein bestimmtes Reaktionsschema herstellbar sind (34). Ein möglicher Weg, eine virtuelle Bibliothek zu erstellen, führt über ein Zeichenprogramm. Wenn der Chemiker die Struktur der gewünschten Verbindungen nach einem bestimmten Programm (ChemDraw™) zeichnet, dann erstellt eine weitere Software (LibDraw™) die resultierende virtuelle Bibliothek. Die Software informiert den Chemiker über den Gesamtbereich der darin enthaltenen Eigenschaften und hilft ihm, den Bereich einzuengen bis zu den Verbindungen, die dann später tatsächlich synthetisiert werden (34). 
 
 

Virtuelle Trockenläufe bringen manche Vorteile

Mit Trockenläufen (auch virtuelles Screening oder Computerscreening genannt) kann man Vorauswahlen treffen, um Zeit und Geld zu sparen. Konkrete Ziele dabei sind: 
 

  • Ähnlichkeiten zwischen Verbindungen zu erkennen, und Untergruppen untereinander ähnlicher Substanzen zusammenzustellen. Damit sind dann sogenannte Cluster-Analysen möglich. Beim Screenen braucht dann nur ein einzelner repräsentativer Vertreter jeder Untergruppe getestet zu werden. Erst wenn so ein Test positiv ausfällt, untersucht man auch die verwandten Substanzen der Gruppe, in der Hoffnung, auf eine höhere Aktivität zu stossen. Bei einem negativen Ausfall des Tests kann man alle anderen Verbindungen ausschliessen. Voraussetzung dafür ist, dass die Diversitätsverteilung der Substanzen keine Löcher hat.

  •  
  • Verbindungen zu identifizieren, die eine ähnliche biologische Aktivität, aber eine andere chemische Struktur haben als bereits bekannte Substanzen. Vorteile davon können sein, dass die neuen Substanzen medizinisch günstigere Eigenschaften haben, oder dass damit Patentansprüche auf Verbindungen mit der gleichen Aktivität umgangen werden können (39). Das geschieht aber um den Preis möglicher neuer Nebenwirkungen. Jedes neu eingeführte Medikament bringt die Gefahr neuer Nebenwirkungen mit sich, denn klinische Versuche sind so konzipiert sind, dass sie Risiken nur bis zu einer bestimmten Seltenheit (etwa 1:1000) aufspüren können. Alle Risiken unterhalb dieser Grenze können erst durch die klinische Praxis erkannt werden.

  •  
  • Hierher gehört auch das bereits beschriebene virtuelle Ausloten der 3-dimensionalen Beschaffenheit von Bindungsstellen. Virtuelle Methoden gewinnen für Strukturanalysen wegen der grossen Probleme bei der räumlichen Strukturaufklärung (s.o.) immer mehr Bedeutung. 

  •  
  • "In silicio" ein Netzwerk zu etablieren, um die Auswirkungen aller Modifikationen auf allen Ebenen simulieren zu können, einschliesslich Mutationen, Umweltschäden und Wechselwirkungen zwischen Rezeptoren und Wirkstoffen (40) und – als Steigerung davon – unter Einbeziehung interner und externer Signale eine virtuelle Zelle zu schaffen.  Man meint, wenn alle nur denkbaren Aspekte einer Zelle richtig verknüpft im Computer gespeichert sind, könne man sich  jede denkbare Frage über die Zelle beantworten lassen. Letztlich soll alles auf die "ultimative Frage" reduziert werden: "Wie funktionieren lebende Organismen als Systeme auf der molekularen Ebene?" (41). 
  • Die virtuelle Zelle – Nachschlagewerk oder Leben im Computer?

    Die Arbeiten an Zellmodellen haben längst begonnen. Das DOE (Department of Energy, USA) hat ein mikrobielles Zellprojekt (MCP) eingerichtet, das eine virtuelle Mikrobenzelle erstellen soll. Ausserdem wurde eine "Spezielle Interessengruppe für Biologische Simulationen" (SIGSIM) gebildet. Sie ist innerhalb der "Internationalen Gesellschaft für Computerbiologie" (ISCB) angesiedelt und soll für eine effiziente Kommunikation zwischen den an Zellmodellen arbeitenden Wissenschaftlern sorgen (42). 
     

  • Ein Zellmodell für Mycoplasma genitalium. 
  • M. genitalium hat von allen bekannten Organismen die geringste Anzahl 
    von Genen: nur 480. Das macht diesen Mokroorganismus zum geeignetsten 
    Organismus für das erste Modell dieser Art. Die Arbeiten hierzu begannen 1996 
    an der japanischen Universität Campus of Keio in Fujisawa. In Zusammenarbeit 
    mit der von Craig Venter gegründeten Firma The Institute of Genome Research 
    (TIGR) ermittelte man eine Zahl von nur 127 Genen als wirklich essentiell. 

    Das auf dieser Grundlage erarbeitete Modell besteht aus 120 Genen von 
    M. genitalium und 7 Genen von E. coli sowie aus 495 Reaktionsregeln. 
    Das Modell arbeitet über weite Bereiche sinnvoll und es gibt eine Reihe 
    von erstaunlichen Angaben über seine Leistungsfähigkeit:

      • es lässt die Membranen altern,
      • es nimmt benutzerdefinierte Fragen auf,
      • das Gesamtverhalten der Zelle kann auf Computergrafiken abgelesen 

      • werden, 
      • "hinzugefügte" Glucose nimmt langsam ab, während Lactat gleichzeitig "gebildet" wird,
      • wenn die Glucosemenge auf Null gesetzt wird, stellt sich eine Art Hungerzustand ein. Einige Zeit später erlischt die Fähigkeit, Glucose aufzunehmen. Das entspricht dem Absterben einer Zelle. 
    Diese Schilderung strahlt eine gewisse Faszination aus. Zwischenzeitlich 
    trat allerdings ein unerwartetes Ereignis auf, das heute in anekdotischer 
    Form geschildert wird. Wurde nämlich die Glucose auf Null gesetzt, so 
    stieg der Wert für das Energietransportmolekül ATP zunächst an. Das 
    schien unerklärlich zu sein, da ATP in diesem System ausschliesslich über 
    den Abbau von Glucose "gebildet" wird. Man suchte monatelang 
    nach dem vermeintlichen Fehler (!), dabei war die Lösung so simpel, 
    dass sie auf einem Lehrbuch-Niveau verstehbar ist: Beim Abbau der 
    Glucose über den Stoffwechselweg der Glykolyse wird zunächst eine 
    kleine Menge ATP abgebaut, bevor in den darauffolgenden Reaktionen 
    eine grössere ATP-Menge neu gebildet wird. Und da dieser Abbau mit 
    dem Entzug von Glucose wegfiel, stieg die ATP-Menge vorübergehend 
    an (43). 
     
     

    Die Lösung muss bei den Beteiligten ein echtes Aha-Erlebnis 
    ausgelöst haben. Aber zeigt es nicht, wie leicht bei komplexen 
    Zusammenhängen Fehleinschätzungen möglich sind, sogar wenn
    – wie in diesem Fall – die Zusammenhänge eigentlich sehr überschaubar sind. Wenn ein so einfacher Umstand monatelanges Rätselraten aller beteiligten Experten auslösen kann, wie will man 
    dann sicher sein, dass virtuell erhaltene Ergebnisse hochkomplexer, 
    fein abgestufter und vernetzter Regulationssysteme der Wirklichkeit entsprechen? 
     

    Ein Zellmodell für Erythrozyten.

    Eine andere Zellart, für die ein Modell in Arbeit ist, sind die 
    Erythrozyten. Sie wurden gewählt, weil sie im ausgereiften Zustand 
    keinen Zellkern mehr besitzen, so dass keinerlei Einflüsse durch Gene 
    oder durch den Zellteilungszyklus berücksichtigt werden müssen. 
    In Erythrozyten läuft nur eine vergleichsweise kleine Zahl von Haupt-Stoffwechselwegen ab, die – wegen der fehlenden Gene – ausschliesslich über Stoffgleichgewichte reguliert werden. Das 
    System ist auch für Diagnosen bei Stoffwechselkrankheiten gedacht, 
    z.B. lieferte eine künstliche Verringerung des Enzyms Aldolase, 
    wie sie bei der Erkrankung Aldolase-Mangel bekannt ist, die zu 
    erwartenden Werte (43). 
     

    Berechnungen ähnlicher Art gibt es schon seit etlichen Jahren und 
    darauf aufbauende Computer-erstellte Diagnosen haben vor 
    einigen Jahren zu kontroversen Diskussionen geführt, denn 
    sie normieren die Diagnosen auf personenunabhängige Weise.
    D.h. sie klammern die Bewertung von Messdaten durch den erfahrenen 
    Arzt aus, der z.B. am Typ eines Patienten erkennen kann, wer eher 
    zu hohem oder eher zu niedrigem Blutdruck neigt, und der das in 
    seine Entscheidung mit einfliessen lässt. Existieren aber Diagnose- 
    Programme, so müssen die Ärzte, die davon abweichend 
    diagnostizieren, befürchten, dass sie im Falle eines Irrtums 
    verschärft zur Rechenschaft gezogen werden. 

    Chipkarten mit Diagnosedaten gibt es in Frankreich seit 1985 und von 1988 bis 
    1994 hat die (damals noch EG genannte) EU ein Rahmenprogramm mit dem 
    Titel Advanced Informatics in Medicine (AIM) gefördert. Eins der Ziele lautete Kostensenkung durch Effizienzerhöhung. Cornelia Gunsser schreibt 1993 hierzu 
    in der Zeitschrift Wechselwirkung: "Der Zwang zur EDV-mässigen Erfassung aller 
    Daten und die Kontrolle der ÄrztInnen auf Einhaltung von Durchschnittswerten 
    und Richtgrössen bewirkt einen Druck zur Standardbehandlung , (...) .Wer etwas 
    nicht `normgemässes´ macht, z.B. mehr Krankengymnastik als Spritzen verschreibt, 
    länger mit PatientInnen redet oder häufiger krankschreibt als andere ÄrztInnen, 
    wird mit Honorarabzug bestraft (44)." 

    In den USA hatten schon 1994 die Intensivstationen von 200 Kliniken ein Computersystem namens APACHE III installiert, das errechnen soll, ob ein 
    Patient noch eine Überlebenschance hat oder ob die Geräte abgeschaltet 
    werden sollen (45).

    1997 hat die Bremer Gesundheitsbehörde das Zentralkrankenhaus Links der 
    Weser angewiesen, das umstrittene Computerprogram RIYADH vorläufig 
    nicht mehr einzusetzen, das ähnlich wie das US-System APACHE III die Überlebenschancen von Intensivpatienten berechnete, und sich in der 
    Erprobungsphase befand. Bei 53 Patienten sei die Sterbewahrscheinlichkeit 
    mit 99.9% angegeben worden, die Patienten hätten aber überlebt. Dieselbe 
    Software wurde in England bereits in 50 Kliniken eingesetzt. Die Anästhesistin 
    vom Vorstand der Berliner Ärtztekammer meinte dazu, es sei unmöglich, dem 
    Arzt die ethische Verantwortung von einem Computer abnemen lassen zu 
    wollen (46). In England dringen die Ärzte allerdings selbst auf 
    Computer-versachlichte Kriterien, weil die Mittel im Gesundheitssystem 
    so gekürzte worden sind, dass sie die versachlichten Entscheidungen 
    offenbar als Entlastung empfinden (47).
     
     
     

    Ein Zellmodell für Escherichia coli.

    EcoCyc heisst eine Datenbank für die E.-coli-Zelle, in der 
    Reaktionsketten aus anderen Datenbanken mit Informationen aus 
    dem E.-coli-Genom kombiniert werden. Der Benutzer kann eine 
    Reihe von Kriterien zu den eingespeisten Reaktionsketten abfragen. 
    Auf dem Display erscheinen grafische Darstellungen der 
    Stoffwechselwege, Reaktionen, chemischer Verbindungen und Transkriptionseinheiten. Z.B. kann für einen Metaboliten abgefragt 
    werden, welche Reaktionswege er hemmt oder aktiviert; oder welche Transkriptionen (Ablesungen von Genen) durch ein und denselben 
    Faktor kontrolliert werden. 

    Mit diesem Modell soll die Regulation des Stoffwechselnetzwerkes verstanden 
    und es sollen Hypothesen gestestet werden. So wurde gefunden, 

      • dass E. coli 100 Enzyme hat, die mehr als eine Reaktion katalysieren, 
      • dass für 68 Reaktionen mehr als ein Enzym zuständig ist, 
      • dass 99 Reaktionen in verschiedenen Reaktionsketten genutzt werden, 
      • dass 35 der 85 Transkriptionsfaktoren andere Transkriptionsfaktoren regulieren 

      • (die übrigen 50 regulieren nur solche Gene, die keine Wirkung auf 
        Transkriptionsfaktoren haben) und 
      • dass manche Transkriptionsfaktoren sich selbst regulieren. 
      Insgesamt enthält das System 629 Transkriptionseinheiten für 165 Reaktionsketten 
      (48).

      Bei der Aufstellung verwundern die detaillierten Zahlenangaben, die 
      offenbar alle auf zweifelsfreien Ja/Nein-Antworten basieren, keine 
      Erwähnung, dass es (wahrscheinlich) in einigen Fällen sehr geringe Einwirkungen oder Aktivitäten gibt, die fast nicht feststellbar sind, oder 
      dass weitere unterhalb der Nachweisgrenze der Bestimmungsmethode 
      zu vermuten sind. Solche Übergänge zwischen Null und messbaren Werten treten in der Natur überall auf und hier zwischen "Ja" 
      oder "Nein" zu entscheiden, ist entweder eine Frage der Messgenauigkeit oder einer Definition darüber, unterhalb 
      welcher, sinnvoll erscheinenden Höhe ein Wert als "Null" 
      gelten soll. Diese Unschärfen müssen mitgeteilt werden. Uneingeschränkte Angaben in ganzen Zahlen, die eine 
      Abzählbarkeit vortäuschen, sind grundsätzlich fragwürdig.

      Andere Unschärfen betreffen nicht die Höhe einer Aktivität, sondern 
      ihr Auftreten. Manche Aktivitäten werden selten realisiert, z.B. wird 
      unter Hitzeschock-Bedingungen bei E. coli eine andere RNA-Polymerase eingeschaltet, wieder andere Polymerasen werden bei Phageninfektion 
      gebildet und bei Stickstoffmangel werden andere Gene eingeschaltet als 
      sonst (49). Kann man jemals sicher sein, alle solchen situationsbedingten Variationen gefunden zu haben? 

      Einige andere Unzulänglichkeiten des EcoCyc-Modells werden von den Betreibern selbst mitgeteilt: 

      1. Bei Vergleichen zwischen Testläufen und der Wirklichkeit sind Fehler 
          aufgetreten, die anschliessend behoben werden konnten. 
      2. In einem bekannten E.-coli-Medium konnte ein essentieller 
         Wachstumsfaktor nicht hergestellt werden. 
      3. Für die Produktion einiger essentieller Faktoren zeigte das System 
          an, dass bestimmte Stoffwechselprodukte gebraucht wurden, aber 
          der Syntheseweg für die benötigten Faktoren blieb unbekannt. 
      4. Bei einigen Simulationen hatte man wichtige Vorstufen vergessen, 
          in das System einzugeben, z.B. das Wasserstoff-Trägermolekül 
          Thioredoxin und das Säuregruppen-transportierende 
         Acyl-carrier-Protein. 
      5. Bei E.-coli-Deletionsmutanten wurde das Wachstumspotential 
          für 14% der deletierten Gene nicht richtig angegeben (48).
       
       

     
    Erläuterung:
    Deletionsmutanten sind Mutanten, bei denen ein Stück der DNA verloren gegangen ist.
     

     
      Es existieren weitere Modelle für einzelne Funktionen, z.B. 
      • eins für die Verwertung von Galaktose (ein Zucker) durch Hefe (50,51),
      • eins für das Zusammenspiel zwischen Hormonen, Transmembran-Signalen 

      • und dem Fluss von Calciumionen in Leberzellen (50), 
      • eins für die Simulation nervenentzündlicher Vorgänge bei der 

      • Alzheimerschen Krankheit (50) und 
      • eine Software für den Durchgang der Neurotransmitter durch die 

      • Synapsen (das sind Schaltstellen im Nervengewebe) (51). 


      Grosse Probleme Beim Simulieren von Vorgängen gibt es dort, wo sich die Geometrie der Objekte ändert, z.B. bei wandernden Zellen oder bei 
      Zellteilungen oder auch dort, wo zufallsgesteuerte Vorgänge mit hineinspielen, 
      z.B. die Bewegung von Partikeln durch Mikrotubuli (das sind molekularfeine 
      Röhren für den Stoffaustausch in den Zellen) (51). 
       
       

      Nachschlagewerk oder "Leben" im Computer?

      Während manche Autoren den Eindruck erwecken möchten, sie hätten 
      das Prinzip "Leben" in ihrem Computer, gibt es auch realistische, kritische 
      Stimmen: Datenbanken, die auf den bisher veröffentlichten Daten 
      basieren, seien notwendig, wenn das Geschehen so komplex wird, 
      dass es das Fassungsvermögen eines einzelnen menschlichen Gehirns übersteigt.

      "Jahrzehntlange Experimente von Molekularbiologen zur 
      Charakterisierung der molekularen Komponenten einzelner Zellen, 
      kombiniert mit den jüngsten Fortschritten in der Genomik haben die 
      Biologie in eine Position gebracht, in der das theoretische Verstehen 
      eines Systems, wie z.B. das biochemische Netzwerk von E. coli, zu 
      gross ist, um von einem einzelnen Wissenschaftler erfasst zu werden."
      Diese Situation habe eine Reihe von beunruhigenden Konsequenzen: 
      "Es wird extrem schwierig, zu bestimmen, ob solche Theorien in 
      sich konsistent sind, oder ob sie mit externen Daten konsistent sind,
      um Theorien zu verfeinern, die inkonsistent sind (48)."
      "Wenn wissenschaftliche Theorien eine bestimmte Komplexität erreichen, 
      wird es essentiell, diese Theorien in symbolischer Darstellung in einer Computerdatenbank zu codieren." Das gelte besonders deswegen, weil 
      die Ergebnisse der biologischen Wissenschaften nicht wie bei anderen Naturwissenschaften in Formeln ausgedrückt werden könnten, sondern 
      mehr von qualitativer Natur seien, die semantisch beschrieben würden (48). 
      In dem zitierten Artikel wird die Datenbank auch nicht zur virtuellen 
      Zelle aufgewertet, sondern als eine Art Nachschlagewerk bezeichnet, 
      in dem die aus der Literatur zugänglichen Ergebnisse eingefüttert und sinnvoll zueinander in Beziehung gesetzt werden. 

      Andere Autoren sagen sogar, solche Modelle sind dort am nützlichsten, wo 
      sie nicht mit den experimentellen Beobachtungen übereinstimmen, weil sie 
      dann zu neuen Experimenten Anlass geben sowie auch zu einer Verbesserung 
      des Modells führen (50). Modelle als Forschungsinstrumente also, die auch 
      in diesem neuen Gebiet der automatisch erstellten Datenmassen eine hypothesengestützte Forschung ermöglichen könnten (16). Möglicherweise
      zeigt sich hier ein Weg, der aus der Brute-force-Denkweise herausführt. 
      Es gibt erste Erfolge einer Medikamente-Entwicklung mit den neuen Bioinformatik/Chip-Methoden, bei der auf der Grundlage eines erkannten Krankheitsmechanismus eine Hypothese für einen Eingriff durch einen 
      Wirkstoff aufgestellt wurde, die dann zu Suchkriterien für ein Medikament 
      führte. 

      Das berührt einen wichtigen Punkt: Modelle können nicht selbst Objekte 
      der Forschung sein, wie manche unkritischen Formulierungen suggerieren 
      möchten, denn schliesslich kann in einer Datenbank grundsätzlich nichts 
      gefunden werden, was nicht eingefüttert wurde, d.h. was nicht in irgendeiner 
      Form bereits bekannt ist. Forscht ein Wissenschaftler an einer lebenden 
      Zelle, so hat er in Gestalt dieser Zelle auch alle die vielen noch unbekannten 
      Fakten vor sich. Bei der Verfolgung seines Arbeitsthemas kann er in bisher unbekannte Bereiche vordringen oder durch einen Zufall auf etwas 
      Unbekanntes stossen und das weiterverfolgen. Das ist schliesslich der Kern 
      seiner Forschungstätigkeit. Beim Abfragen einer Datei dagegen kann er 
      allenfalls eine neue Kombination von bereits Bekanntem finden. Solche 
      Dateien ernsthaft (und nicht nur wegen der Anschaulichkeit des Begriffes) 
      als virtuelle Zellen zu bezeichnen, ist sachlich falsch und irreführend. 
      Das gehört zu den propagandistisch überhöhten Formulierungen, 
      die leider seit einigen Jahren in das wissenschaftliche Schrifttum 
      Eingang gefunden haben.
       
       

      Der Mensch als Schöpfer neuartigen Lebens?

      Aber die Hybris einiger Forscher geht noch weiter. Sie planen, auf Grund von Computerdaten ein neues Genom zu kreieren und mit Hilfe von "Genom 
      Engineering" eine reale menschengemachte Zelle mit einem neuartigen 
      Genom zu erschaffen (12, 52-54). 

      Ein Problem bei den Arbeiten mit Computermodellen von Zellen ist das der Sprachen. In welcher Computersprache sollen die Modelle der verchiedenen Arbeitsgruppen miteinander kommunizieren? Die Forschergruppen müssen 
      in dieser Frage eng zusammenarbeiten, damit kein Sprachengewirr entsteht. 
      Bisher wurden zwei Sprachen entwickelt, eine für die mehr allgemeine 
      Beschreibung und eine für den detaillierten Datenaustausch über 
      Stoffwechselwege. Die Teilnehmer einer Fachtagung über biologische 
      Modellsysteme in San Francisco im Juni 2001 waren besorgt, dass die 
      Entwicklung verschiedener Computersprachen zu Barrieren für den Informationsaustausch führen könnten (50).

     
       

      (1)  S.T. Crooke, Genotyping drug discovery: what does the future hold?, 
            Pharmainformatics, Supplement-Band der "Trend"-Zeitschriften von Elsevier 
            Science Ltd., S. 10-11, 1999.

      (2)  M.M. Khodadoust u. T.P. Klein, Redefining priorities in gene-based 
           drug discovery, Nat. Biotech. Bd. 19 S.707   (Aug. 2001)

      (3)  http://www.obesity-101.com/drugdev.htm  Obesity Meds and Research  
           News 101 Bringingn a new drug to market, März 2002.

      (4)  http://bioprofile.gbf.de/downloads/symposium_pdf/1_ziehr.pdf  Seminar am 
            4. 12. 2002 in Braunschweig, Titel: Von der Idee zum Medikament,
            Veranstalter: GBF  (Gesellschaft für Biotechnologieforschung), BioRegio  
            und BioProfil (funktionelle Genomanalyse).

      (5)  T. Schwitalla: "Noch weit weg" Die Woche 1. 2. 2001. 

      (6)  http://www.nigms.nih.gov/news/science_ed/medbydes.html#n,
            Informationsseite des National Institute of General Medical Sciences 
            (NIGMS), Apr. 1997. 

      (7) A.B. Haberman, Effective genomic-based drug discovery: you still have to
             do the  biology.  http://www.pancreatica.org/full_articles/f2002_04_08b.html

      (8)  Programmheft des EuropaBio-Kongresses in München, 16.-19. Nov. 1999,
            S.17. 

      (9)  E.F. Schmid u. D.A.Smith, Discovery, Innovation and the cyclical nature of 
             the  pharmaceutical business, Drug Dicovery Today, Bd. 7 S.563-568 (Mai 
             2002).  (Die Autoren sind von Pfizer Global R&D.)

      (10)  G. Wess, How to escape the bottleneck of medical chemistry, Drug 
              Discovery Today, Bd. 7, S. 533-535 (Mai 2002). (Der Autor ist von Aventis 
              Pharma.) 

       (11)  M. van Dongen, J. Weigelt, J. Uppenberg, J. Schultz u. M. Wikström, 
               Structure-based screening and design in drug discovery, Drug Discovery 
              Today, Bd.7 S. 471-478 (Apr. 2002). 

      (12)  P.M. Dean, E.D. Zanders u. D.S. Bailey, Industrial-scale, genomic-based 
             drug design and discovery, Trends in Biotechnology, Bd. 19, S. 288-292
              (Aug. 2001) (Die Autoren sind von De Novo Pharmaceuticals). 

      (13)  E.D. Zanders, D.S: Bailey u. P.M. Dean, Probes for chemical genomics by 
              design, Drug Discovery Today, Bd. 7, S. 711-718 (Juli 2002). (Die Autoren 
              sind von De Novo Pharmaceuticals.)

      (14)  S.F. Betz, S.M. Baxter u. J.S. Fetrow, Function first: a powerful approach to
              post-genomic drug discovery, Drug Discovery Today, Bd. 7, S. 865-871
              (Aug. 2002). (Die Autoren sind von GeneFormatics.)

      (15)  G. Scapin, Structural biology in drug design: selective protein kinase 
              inhibitors, Drug Discovery Today, Bd. 7, S. 601-611 (Juni 2002). (Die  
              Autorin ist von den Merck Research Laboratories.)

      (16) T. Reiss, Drug discovery of the future: the implications of the human
            genome project, Trends in Biotechnology Bd. 19, S. 496-49 (Dez. 2001).

      (17)  http://www.nature.com/nsu/981015/981015-4.html H. Hee, A drug to suit 
            your genotype, Nature (1998)

      (18)  C.J. Manly, S. Louise-May u. J.D. Hammer, The impact of informatics and 
            computational chemistry on synthesis and screening, Drug Discovery 
            Today, Bd.6, S. 1101-1110 (Nov. 2001). (Die Autoren sind von der 
            Neurogen Corporation.)

      (19) J. Bajorath, Rational drug discovery revisited: interfacing experimental
             programs with bio- and chemo-informatics, Drug Discovery Today, 
             Bd.6, S. 989-995 (Okt. 2001). 

      (20) G.J. Boulnois, Drug discovery in the new millennium: the pivotal reole of
             biotechnology, Trends in Biotechnology, Bd.18, S.31-33 (Jan. 2000). (Der
            Autor ist von AstraZeneca Pharmaceuticals). 

      (21)  http://www.google.com/search?q=cache:PIW9MdVcnnc:
              www.biosino.org/bioinformatics/Impact%2520of%2520human%
              2520genome%2520sequencing%2520for%2520in%2520silico%
              2520target%2520discovery.pdf+Structural+genomics+consortium
              +SGC&hl=de, (P. Sanseau , Impact of human genome  sequencing 

              for in silico target discovery, Drug Discovery Today, Bd.6, S. 
              316-323,  März 2001).

      (22)  http://pubs.acs.org/hotartcl/cenear/990308/combl html, (S. Borman, 
              Reducing Time to Drug Discovery, Cenear, Bd.77 S.35-48, März 1999). 

      (23) A.D. Roses, Pharmacogenetics and the practice of medicine, Nature, 
              Bd. 405 S. 857-865 (Juni 2000).

      (24)  H. Schuster, A family based approach to Pharmacogenomics, 
              EuropaBio-Kongress 16.-19.Nov. 1999 in München.

      (25) T. Bogaert, C.elegans, the rapid route from disease related gene to lead 
             compound in drug discovery,EuropaBio-Kongress 16.-19.Nov. 1999 in
             München. 

      (26)  T. Bogaert (wie Nr. 18, eigene Mitschrift des Vortrages). 

      (27)  O.G. Vukmirovic u. S.M.Tilghman, Exploring genome space, Nature, 
              Bd. 405, S.820-822 (Juni 2000). 

      (28)  s. Lit.- St. 8 in Teil III.

      (29)  N. N. Dewji u. S. J. Singer, Genetic clues to Alzheimer´s disease, Science, 
              Bd. 271, S. 159-160 (Jan. 1996). 

      (30)  B. A. Osborne u. Lawrence M. Schartz, Essential genes that regulate
              apoptosis, Trends in Cell Biology, Bd. 4, S. 394-399 (Nov. 1994). 

      (31) A. Kaestner, Lehrbuch der Speziellen Zoologie, Teil I: Wirbellose,
             Fischer-Verlag Jena, 1954, S. 201.

      (32)  http://www.leukemia.org/all_news_detail?news_type=4&
            source_id=4&item_id=51640&cat_id=140 Stem cell transplantation
              in the treatment of CLL (CLL=chronische lymphatische Leukämie),

              eine Mitteilung der Leukemia&Lymphoma Society, Nov. 2001. 

      (33)  Darstellung verändert und stark vereinfacht nach Tim Clark,
              Computer-Chemie-Centrum Erlangen 
            http://www.chemie.uni-erlangen.de/vorlesungen/oc/oc5/
              download/pdf/combichem1.pdf

      (34)  P. Gund u. N. H. Sigal, Applying informatics systems to high-throughput
              screening and analysis, Pharmainformatics, Supplement-Band der 
              "Trend"-Zeitschriften von Elsevier Science Ltd., S. 25-29, (1999)
              (Die Autoren sind von Pharmacopeia).

      (35)  F. v. Bohlen u. Halbach, I-Biology: Reengineering R&D through integrated
              data and information management, EuropaBio-Kongress 16.-19.11.99 in
              München u. eigene Mitschrift des Vortrages.

      (36)  D.S. Bailey, L.M. Furness u. P.M. Dean, New tools for quantifying molecular
              diversity, Pharmainformatics,Supplement-Band der "Trend"-Zeitschriften
               von Elsevier Science Ltd., S. 6-9, (1999). (Die beiden ersten Autoren sind 
               von Incyte Europe).

      (37) R. Somogyi, Making sense of gene-expression data, Pharmainformatics, 
              Supplement-Band der  „Trend“-Zeitschriften von Elsevier Science Ltd., S.
             17-24 (1999)

      (38)  A.L. Castle, P. Carver u. D.L. Mendrick, Toxicogenomics: a new revolution
             in drug safety, Drug Discovery Today, Bd. 7, S. 728-736 (Juli 2002). (Die
             Autoren sind von Gene Logic und von Wyeth.)

      (39) http://ihumans.com/news_comments_archive/pharmacogenomics_snps.htm
              Kein Autor genannt, Pharmacogenomics: single nucleotide polymorphisms
              (SNPs) and personalized medicines, Juni 1998.

      (40)  J. S. Mason, Computational screening: large-scale drug discovery,
               Pharmainformatics, Supplement-Band der "Trend"-Zeitschriften von
               ElsevierScience Ltd., S. 34-36 (1999).(Der Autor ist von Bristol-Myers
               Squibb).

      (41)  Paul Spence u. Rajeev Aurora, From reductionist to constructionist, but 
               only if we integrate, Pharmainformatics, Supplement-Band der
               "Trend"-Zeitschriften von Elsevier Science Ltd., S. 37-39 (1999). (Die
               Autoren sind von Monsanto).

      (42)  A. Abbot, A post-genomic challenge: learning to read patterns of protein
              synthesis, Nature, Bd. 402, S.715-720 (Dez. 1999).

      (43)  M. Tomita, Whole-cell simulation: a grand challenge of the 21st century,
              Trends in Biotechnology, Bd. 19, 205-210 (Juni 2001).

      (44)  K. Gunsser, Die Krankenversichertenkarte – Baustein zur Verdatung,
               Rationierung und Selektion im Gesundheitswesen, Wechselwirkung, 
               Heft 62, S.4-8, Aug. 1993. 

      (45)  Taz, 3.Jan. 1994.

      (46)  FR 28. Feb. 1997. 

      (47)  G. Traufetter, Der digitale Todesbote – Weil die Kosten der Intensivmedizin
              explodieren, sollen Computer in Zukunft mitentscheiden, wann sich der 
              Kampf der Ärzte um das Leben von Schwerstkranken noch lohnt, Die
              Woche 28. Feb. 1997.

      (48)  P.D. Karp, Pathway databases: A case study in computational symbolic
              theories, Science, Bd. 293, S. 2040-2044 (Sep 2001). 

      (49)  G. Zubay, Genetic, Benjamin-Cummings Publ. Co., 1987, S. 451 ff.

      (50) Y. Fai Leung, D. Shun Lam u. C. Pui Pang, In silicio biology: obervation,
             modeling, hypothesis and verification, Trends in Genetics, Bd. 17, S. 
              622-623 (Nov. 2001). 

      (51)  L.M. Loew u. J.C. Schaff, The virtual cell: a software environment of 
              computational cell biology, Trends in Biotechnology, Bd. 19, S. 401-406
              (Okt. 2001).

      (52)  SZ 2. Feb. 1999.

      (53)  Genet-e-mail: President of TIGR/US predicted to build new life form
              within an decade, 26. Jan. 1999.

      (54)  Kein Autor, More gods and monsters, Nature Biotechnology, Bd. 17, S.207
              (März 1999).
       
       
       
       


     
    VIII. Wieviel kostet die Entwicklung eines Medikamentes?

    Die angegebenen Kosten für die Entwicklung eines Medikamentes sind 
    astronomisch hoch und steigen weiter an. Aufgrund der letzten Studie vom
    November 2001 liegen sie bei 802 Mio.$. Verbraucherorganisationen 
    kommen zu anderen Ergebnissen.  [mehr ]
     
     


     

    Linde Peters 
    linde.peters@t-online.de
    v
    . .. Erstellt am 26.07.02 / ergänzt am 25.03.03

    auswahl        zurück     weiter     nach oben       home