04.11.2024 05:38 - Über uns - Mediadaten - Impressum & Kontakt - succidia AG
L&M-5-2010 > Computer-Aided Drug Design mit Moleküloberflächen

Computer-Aided Drug Design mit Moleküloberflächen

Wissenschaftler und Wahrsager

Wir kennen die Argumente – in silico-Wirkstoffdesign hilft, die Synthese auf die viel versprechendsten Verbindungen zu beschränken und spart Geld sowie Tierversuche. Kaum ein Antrag auf Fördergelder auf diesem Gebiet lässt die Tatsache unerwähnt, dass computer-aided drug design (CADD) ein fester Bestandteil der Entwicklung von new chemical entities (NCEs) sei. Fast alle F&E-Abteilungen bei großen Pharmaunternehmen beschäftigen eine große Anzahl von Computerchemikern.

Wir liegen zu 95 % falsch

Objektiv gesehen ist die Situation weniger rosig. Fachleute wissen, dass zum Beispiel die Trefferquote in prospektives high-throughput virtual screening selten 5 % übersteigt. Anders ausgedrückt – wir liegen zu 95 % der Zeit falsch. Es gibt viele weitere Beispiele, die zeigen, dass heutige in silico-Techniken höchstens als semiquantitativ einzustufen sind. Warum? Die Antwort liegt in der Komplexität biologischer Systeme und im Rauschniveau sowohl von computerbasierten als auch experimentellen Techniken in der Wirkstof fentwicklung. Idealerweise sollte CADD genau so zuverlässig sein wie Crashsimulationen in der Autoindustrie, die als prädiktiv anzusehen sind und es uns wirklich ersparen, dass endlos Autos gegen harte Gegenstände gefahren werden müssen. Crashsimulationen basieren aber auf relativ einfachen physikalischen Prinzipien.
Darüber hinaus liefern zwei oder mehr vorsichtig hergestellte Autos innerhalb von engen Grenzen die gleichen Ergebnisse wenn sie mit der gleichen Geschwindigkeit im gleichen Winkel gegen den gleichen harten Gegenstand gefahren werden. Biologische Systeme sind nicht so brav – insbesondere in Testreihen, die mit hohem Durchsatz gemessen werden.
Viele Fehlerquellen sind unvermeidbar. Experimentelle Daten zum Beispiel sind selten zuverlässig genug, um wirklich prädiktive in silico-Modelle zu bauen. Das Ergebnis ist eine Reihe von verschiedenen Computermodellen, die, obwohl sie auf ganz verschiedenen Prinzipien aufgebaut sind, alle ähnlich zuverlässige Ergebnisse liefern. Selbst grundlegende Eigenschaften wie wässrige Löslichkeit leiden unter diesem Problem. Die mangelnde Qualität von experimentellen Daten begrenzt die Genauigkeit von Computermodellen im recall-Modus auf ungefähr ±0,5 log Einheiten. [1] Selbst einfache Klassifizierungsmodelle („löslich”, „moderat löslich” oder „unlöslich”) können nur höchstens zu 70 % der Zeit richtig liegen. [2]

Der Fluch der Vereinfachung

Schlechte Daten sind aber nicht das einzige Problem. CADD leidet unter seiner eigenen Geschichte. Die erste Ausgabe von Yvonne Martin’s Quantitative Drug Design: A Critical Evaluation [3] wurde vor drei Jahrzehnten veröffentlicht. Zu dieser Zeit dauerte eine MNDO-Optimierung der Ascorbinsäure auf einem „Mini-Supercomputer” vierzig Minuten (bei einem Listenpreis von 1,2 Millionen Dollar) im Vergleich zu weniger als einer Sekunde auf einem modernen Laptop.
Beschränkungen in der Computerleistung bedeuteten deshalb, dass Techniken, die für dutzende oder hunderte von Verbindungen eingesetzt werden sollten, sehr schnell sein mussten, was zu extremen Vereinfachungen in den Methoden führte. Die Graphentheorie war Königin und sehr einfache 2D-Techniken waren die einzige praktische Möglichkeit für echte Anwendungen. Das Problem mit dem modernen CADD liegt wahrscheinlich in der Tatsache, dass raffiniertere Techniken gewöhnlicherweise nicht zu besseren Ergebnissen als die ursprünglichen geführt haben. Manchmal funktioniert 3D-CADD besser als einfache 2D-Techniken, aber nicht oft. Dies geschieht, weil 3D-CADD nur dann richtig funktionieren kann, wenn die biologischaktive Konformation zur Vorhersage der Aktivität benutzt wird (oder eine Gleichgewichtsverteilung der Konformationen für physikalische Eigenschaften). Die Motivation, „raffiniertere“ (und langsamere) Rechentechniken einzusetzen, bleibt deshalb gering. Ein weiterer wichtiger Faktor ist die über die Jahre ständige Tendenz, immer größere Anzahlen von Verbindungen zu behandeln. Die hohe Leistung moderner Hard- und Software wurde überwiegend benutzt, um Antwortzeiten zu verkürzen und um Millionen von Verbindungen behandeln zu können. Das Ergebnis ist eine Vielzahl von Techniken (fast so viele wie die Anzahl der Anwendungen), von denen keine als wirklich prädiktiv für alle Ziele oder in allen Situationen angesehen werden kann [4].

Das Problem der Wechselwirkungen

Die jetzige Situation ist ungewöhnlich. Das Problem der Berechnung der Wechselwirkungsenergie zwischen zwei Molekülen ist komplett verstanden – selbst wenn eins davon ein Makromolekül ist. Klassische Kraftfelder von hoher Qualität beherrschen solche Aufgaben problemlos. Moderne Kombinationen von Hard- und Software können biologische Systeme in relativ kurzen Zeiten berechnen. Dieses Wissen für biologische Systeme umzusetzen, ist aber aufgrund zweier Hauptprobleme sehr schwierig – Solvatation und Konformationssuche.
Die Bindungsenergien von modernen Wirkstoffen stammen überwiegend aus hydrophoben Wechselwirkungen, die eng mit der Wechselwirkung des Wirkstoffes mit Wasser verknüpft sind. Dies ist ein Hauptgrund, dass scoring functions, die in Docking eingesetzt werden, nur für sehr begrenzte Typen von Rezeptoren funktionieren. Mit wenigen lobenswerten Ausnahmen [5] basieren sie auf spezifischen Wechselwirkungen wie Wasserstoff-Brücken-bindungen innerhalb des Rezeptors, die aber nur für einen kleinen Teil der Bindungsenergie zuständig sind. Der Rest ist im Grunde genommen in Essenz ein Desolvatationsterm. Das Problem der Konformationssuche wird zusätzlich durch die Anwesenheit des Lösungsmittels kompliziert, sodass wir sowohl das biologische System als auch das Lösungsmittel explizit behandeln müssen. Bis heute ist keine Simulationstechnik in der Lage, absolute freie Bindungsenergien für biologische Systeme zuverlässig vorherzusagen – selbst mit heutigen vereinfachten Kraftfeldern. Neue Ansätze zur Abschätzung der freien Bindungsenergie sind dringend notwendig.

Moleküle sind anders

Ein Problem der heutigen Techniken ist, dass sie auf nichtphysikalischen Molekülmodellen basieren. Streng genommen existieren Atome und Bindungen nicht innerhalb von Molekülen. Kraftfelder funktionieren, weil die Eigenschaften von Atomen oder Gruppen innerhalb von Molekülen normalerweise transferierbar sind – aber auch weil wir frei sind, so viele verschiedene Atomtypen zu definieren, wie wir brauchen. Innerhalb der Born-Oppenheimer-Näherung sind „echte“ Moleküle ein Meer von nicht unterscheidbaren Elektronen im Feld der stationären, positiv geladenen Atomkerne. Chemiker können wenig mit dieser Beschreibung anfangen. Sie führt aber zu einer Sicht von Molekülen als unregelmäßigen flexiblen Festkörpern, die über die bekannten intermolekularen Kräfte (Pauli-Abstoßung, Coulomb-Wechselwirkungen, Dispersion und Ladungstransfer) mit ihrer Umgebung (einschließlich mit anderen Molekülen) wechselwirken. Durch diese veränderte Sichtweise mutiert das „ball and stick“-Modell (Abb. 1) in eine Darstellung der Moleküloberfläche. Das MEP (molekulare elektrostatische Potential), das Coulomb-Wechselwirkungen zwischen Molekülen beschreibt, stellt nur eine einer Reihe von lokalen Eigenschaften dar, die die verschiedenen intermolekularen Wechselwirkungen beschreiben [6]. Diese Eigenschaften können eingeingesetzt werden, um Funktionen zu konstruieren, die die Solvatation des Moleküls in Wasser, seine Hydrophobizität und seine intermolekularen Bindungseigenschaften beschreiben. Diese Funktionen können wiederum für Analyse- oder Visualisierungszwecke auf Moleküloberflächen projiziert werden.

Das Ende vom Lied – Moleküle als Felder

Molekulare Felder beinhalten noch mehr Information. Das elektrostatische Feld zum Beispiel wird als die erste Ableitung des MEP gerechnet. Da das Feld eine Vektoreigenschaft darstellt, beinhaltet es Richtungsinformation, die im MEP nicht enthalten ist. Die doppelseitige Abbildung zeigt das Beispiel der Überlagerung des elektrostatischen Feldes eines Wirkstoffmoleküls (gelbe Pfeile) und seines Rezeptors (grüne Pfeile) im Ligand-Rezeptor-Komplex. Die Komplementarität der Felder der zwei Komponenten kodiert Information über ihre Coulomb-Wechselwirkung. Gewöhnlich stellen Moleküloberflächen unhandliche mathematische Objekte dar, sodass neue Methoden vonnöten sind, um sie kompakt analytisch darzustellen. Eine solche Methode stellt das Anpassen der Oberfläche an eine Reihe von sphärischen Kugelfunktionen dar. Dies ermöglicht gleichzeitig sehr kompakte Speicherung der Oberfläche und schnelle analytische Handhabung im Computer mit der zusätzlichen Möglichkeit, die räumliche Auflösung der Oberfläche zu ändern [7]. Die ersten Schritte Richtung eines umfassenden oberflächenbasierten Modellierungssystems sind schon gemacht – es bleibt aber viel zu tun.

tim.clark@chemie.uni-erlangen.de

Abb. 1 „Balls and sticks" Darstellung einer möglichen Konformation von Lipitor.

Literatur

[1] Modelling the Chemistry: time to break the mould? , T. Clark in EuroQSAR 2002: Designing drugs and crop protectants, M. Ford, D. Livingstone, J. Dearden and H. V. d. Waterbeemd (Eds) Blackwell Publishing, Oxford, 2003 , 111-121.
[2] Insolubility classification with accurate prediction probabilities using a MetaClassifier, C. Kramer, B. Beck and T. Clark, J. Chem. Inf. Model., 2010, 50, 404-414.
[3] Quantitative Drug Design: A Critical Introduction, Y. Connolly Martin, Second Edition, CRC Press, Boca Raton, 2010.
[4] Virtual screening: An endless staircase? G. Schneider, Nat. Rev. Drug Discov. 2010, 9, 273-276.
[5] Towards an Integrated Description of Hydrogen Bonding and Dehydration: Decreasing False Positives in Virtual Screening with the HYDE Scoring Function, I. Reulecke, G. Lange, J. Albrecht, R. Klein and M. Rarey, ChemMed- Chem, 2008, 3, 885-897.
[6] Biological Communication via Molecular Surfaces, T. Clark, K. G. Byler, and M. J. de Groot in, Molecular Interactions - Bringing Chemistry to Life (Proceedings of
the International Beilstein Workshop, Bozen, Italy, May 15-19, 2006), Logos Verlag, Berlin, 2008, 129-146 (http://www.beilstein-institut.de/bozen2006/proceedings/
Clark/Clark.pdf).
[7] An Analytical, Variable Resolution, Complete Description of Static Molecules and Their Intermolecular Binding Properties, J.-H. Lin and T. Clark, J. Chem. Inf. Model., 2005, 45, 1010?1016.

Foto: © Molcad GmbH, Darmstadt

L&M 5 / 2010

Diese Artikel wurden veröffentlicht in Ausgabe L&M 5 / 2010.
Das komplette Heft zum kostenlosen Download finden Sie hier: zum Download

Der Autor:

Weitere Artikel online lesen

News

Schnell und einfach die passende Trennsäule finden

Schnell und einfach die passende Trennsäule finden
Mit dem HPLC-Säulenkonfigurator unter www.analytics-shop.com können Sie stets die passende Säule für jedes Trennproblem finden. Dank innovativer Filtermöglichkeiten können Sie in Sekundenschnelle nach gewünschtem Durchmesser, Länge, Porengröße, Säulenbezeichnung u.v.m. selektieren. So erhalten Sie aus über 70.000 verschiedenen HPLC-Säulen das passende Ergebnis für Ihre Anwendung und können zwischen allen gängigen Herstellern wie Agilent, Waters, ThermoScientific, Merck, Sigma-Aldrich, Chiral, Macherey-Nagel u.v.a. wählen. Ergänzend stehen Ihnen die HPLC-Experten von Altmann Analytik beratend zur Seite – testen Sie jetzt den kostenlosen HPLC-Säulenkonfigurator!

© Text und Bild: Altmann Analytik

ZEISS stellt neue Stereomikroskope vor

ZEISS stellt neue Stereomikroskope vor
Aufnahme, Dokumentation und Teilen von Ergebnissen mit ZEISS Stemi 305 und ZEISS Stemi 508

ZEISS stellt zwei neue kompakte Greenough-Stereomikroskope für Ausbildung, Laborroutine und industrielle Inspektion vor: ZEISS Stemi 305 und ZEISS Stemi 508. Anwender sehen ihre Proben farbig, dreidimensional, kontrastreich sowie frei von Verzerrungen oder Farbsäumen.

© Text und Bild: Carl Zeiss Microscopy GmbH