Bildschirmwissenschaft
vom 13.12.2006
Digitalisierung und Simulationsverfahren, Datenbanken und geballte Rechenpower haben die Naturwissenschaften revolutioniert. Die Forschung entfernt sich von ihren Gegenständen. Das ist der einzige Weg diesen näherzukommen.
Das Labor im Computer. Christoph Dellago erforscht molekulare Prozesse in Flüssigkeiten und Festkörpern. Also etwa die Leitfähigkeit von Protonen in wässrigen Lösungen oder die Eigenschaften von Goldkristallen auf Nanoebene. Nur, Reagenzgläser oder Rastertunnelmikroskope wird man in den Räumen seiner Abteilung für Computational Physics an der Universität Wien vergeblich suchen.
"Bei uns geschieht alles im Computer, in silico", sagt Christoph Dellago. Er und seine Mitarbeiter setzen bei ihren Untersuchungen von Materialeigenschaften ganz auf Simulationen. Aber zweifeln die Experimentalphysiker die Verlässlichkeit von solchen Verfahren nicht an? "Die guten nicht!", erwidert Dellago lachend. Für ihn ergänzen sich Experiment und Simulation.
Letztere vermag molekulare Vorgänge zeitlich und räumlich viel besser aufzulösen, sprich: was an sich rasend schnell auf atomarer Ebene abläuft, kann man sich in Ruhe am Computer anschauen. Die Beschränkungen bei der Simulation sind Speicherkapazität und vor allem Rechenzeit. Komplexe Systeme werden meist nur für einen kurzen Zeitraum simuliert, da man nicht Monate lang auf die Ergebnisse warten will.
Revolution durch Simulation. Als-ob-Versuche haben in den Naturwissenschaften eine lange Tradition. Chemische Gleichungen etwa sind im Prinzip Simulationen mit Papier und Bleistift. Und sobald es die ersten Computer gab, wurde auch sofort zu simulieren begonnen. Der erste Versuch in silico war im Dezember 1945 die Explosion einer virtuellen Wasserstoffbombe. Mittlerweile haben schiere Rechenpower und ausgeklügelte Software die Natur-und Technikwissenschaften und auch die medizinische Forschung schlicht revolutioniert.
Ein Blick auf den Newsticker der letzten Wochen zeigt die Breite der möglichen Anwendungen: US-Mediziner erforschen durch einen simulierten Autounfall, bei dem sie einen virtuellen Kopf gegen die Windschutzscheibe knallen lassen, welche Schäden bei einem Schädel-Hirn-Trauma entstehen.
Ingenieure an der Universität Stuttgart versuchen die Aerodynamik von Flugzeugen zu verbessern, indem sie winzige Löcher und Schlitze in die Tragflächen einbauen. Die Simulation verspricht "gute Wirbel" und enorme Treibstoffersparnis.
Italienische Forscher haben aus dem Vesuv einen virtuellen Vulkan gemacht, um auf alle Ausbruchsszenarien vorbereitet zu sein und entsprechende Rettungsmaßnahmen einleiten zu können.
In silico veritas? Von den Quantenkräften auf atomarer Ebene bis zum Ablauf des Urknalls simuliert die Wissenschaft heutzutage alles in bunten, dreidimensionalen Clips. Der Bildschirm wird zum Fenster auf die Welt. Von der Grundlagenforschung bis weit in die Anwendung hinein kreieren Prozessoren und Programme Parallelwelten. Biomediziner versuchen neue Wirkstoffe virtuell zu modellieren, indem sie diese auf molekularer Ebene "testen". Gesundheitsbehörden simulieren die Verbreitung von Grippeviren - inklusive der Parameter Medikamenteneinsatz und Grenzsperren -, um zu sehen, ob sich Geschwindigkeit und Ausmaß der Epidemie beeinflussen lassen.
Der Harvard-Wissenschaftshistoriker Peter Galison sieht deshalb längst eine Entwicklung vom "Computer als Werkzeug" hin zum "Computer als Natur". Für den Wiener Medienwissenschaftler Claus Pias sind eine Vielzahl von Wissenschaften - implizit oder explizit - bereits zu Computerwissenschaften geworden: "Erkannt werden kann nur noch, was sich auch modellieren lässt."
Disziplinen wie die Nanotechnologie etwa oder die Klimaforschung sind ohne Simulationen gar nicht denkbar. Ohne Supercomputer, die verschiedenste Szenarien durchrechnen, gäbe es nämlich weder eine Klimaprognose noch eine Klimarekonstruktion. Letztere geht zwar auf tatsächlich gemessene Einzeldaten zurück, das Klima aber bleibt immer eine Rekonstruktion mit unzähligen Variablen, die in ein Modell eingespeist werden.
Mit anderen Worten: wenn vom Temperaturanstieg im 21. Jahrhundert die Rede ist, werden Simulationen mit Simulationen verglichen. Wenn man so will, ist in der Klimaforschung alles simuliert (was ihr von notorischen Skeptikern des anthropogenen Klimawandels auch immer wieder vorgehalten wird). Denn im Experiment überprüfen lassen sich die Ergebnisse nicht. Das Experiment ist ja die Wirklichkeit selbst.
Komplexität meistern. Wenn wie in der Klimaforschung Gleichungen mit hunderttausend oder Millionen Unbekannten zu lösen sind, hilft nur noch die Maschine. Denn eine Simulation ist letztlich nichts anderes als eine gigantische Rechnung, wobei die Simulation freilich immer ein Annäherungsverfahren bleibt. Die Bewältigung von Komplexität ist der wesentliche, aber nicht der einzige Grund für den Boom der Als-ob-Verfahren.
Simuliert wird auch einfach nur, um Geld zu sparen, denn Autos im virtuellen Raum auf eine Mauer auffahren zu lassen, kommt ungleich günstiger als ein realer Crashtest. Und bevor Ölfirmen Bohrer in den Wüstensand oder den Meeresboden rammen, spielen sie das Vorhaben erst einmal im Computer durch. Im biomedizinischen Bereich soll durch Simulationen nicht zuletzt die Zahl der Tierversuche reduziert werden. Simulation ist also, je nachdem, eine Vorbereitung, ein Ersatz oder eine Überprüfung für das Experiment.
Simulation klingt mitunter wie ein Zaubertrick: man füttert den Rechner mit Daten und der spuckt das Ergebnis aus. So einfach ist es aber beileibe nicht. Oft sei die innere Dynamik von Simulationsmodellen für die Forscher gar mehr nicht durchschaubar, sagt der Bielefelder Wissenschaftsforscher Johannes Lenhard. Sprich: man versteht erst mal gar nicht, wie es zu einem bestimmten (simulierten) Ergebnis gekommen ist.
Sinnvolles sichtbar machen. Für den Physiker Christoph Dellago ist klar: "Wenn die Daten der Simulationsrechnung vorliegen, beginnt die eigentliche Arbeit erst. Wir müssen uns fragen: Welche Parameter sind wichtig? Was ist das bloße Rauschen der Daten?" Hier gebe es zwei komplementäre Herangehensweisen: statistische Verfahren, um aus riesigen Datenmengen die relevante Informationen herauszufiltern, und Visualisierungen.
Die simulationsbasierte Wissenschaft wird paradoxerweise also einerseits in höchstem Maße mathematisch und damit unanschaulich und andererseits fast psychedelisch, was die Farbenpracht von Visualisierungen etwa von sogenannten Phasenübergängen oder chaotischen Systemen angeht.
"Um uns chemische Reaktionen oder den Übergang eines Kristalls von einer Struktur in die nächste anzuschauen, machen wir uns einen Film", so Christoph Dellago: Visualisierung könne helfen, neue Ideen zu entwickeln. Man dürfe freilich nicht der Illusion erliegen, dass diese bewegten Bilder die "Wirklichkeit" seien.
Verlust an Realität? Aber hat man denn nicht das Gefühl, den Kontakt zur "Wirklichkeit" zu verlieren? "Nein, nie. Eine gute Simulation muss immer möglichst nahe der Wirklichkeit sein", sagt Gernot Beer von der TU Graz. Beer entwickelt Simulationsmethoden für Tunnelbau und-sicherheit. Hier ist ein Abgleich mit der Realität auch noch vergleichsweise unproblematisch. Um wie viele Millimeter sich eine Tunnelwand verschiebt, kann man nachmessen.
Was aber, wenn diese Wirklichkeit unendlich weit entfernt ist? Astronomen schauen längst nicht mehr in Fernrohre, Die Beobachtungsdaten liegen von Anfang an digital vor. Systematische Fehler, also etwa unterschiedliche Empfindlichkeit der Pixel und Pixelfehler werden automatisch herausgerechnet. "Ich fühle mich näher dran als vorher", sagt die Innsbrucker Astronomin Sabine Schindler: "Vorher waren das irgendwelche diffusen Gasbälle." Ja, natürlich stünden da enorme Übersetzungsvorgänge dazwischen. "Aber es ist, wie wenn man eine Brille aufsetzt. Nun ist zwar Glas zwischen einem und der Welt da draußen, aber man sieht besser."
Die Wissenschaft entfernt sich von ihren Gegenständen, weil sie ihnen anders nicht nahekommt. Ein extrem manipulativer (wertfrei gemeint!) Umgang mit Daten ist die einzige Möglichkeit, diese zu nutzen.
Quantität wird Qualität. Die neuen Medien bieten der Wissenschaft auch jenseits von Simulationen im engeren Sinne ungeahnte Möglichkeiten. Es ist nicht nur ökonomischer und bequemer Informationen in Datenbanken aufzubereiten, es bieten sich durch die digitale Form völlig neue Zugriffe. Philosophisch ausgedrückt: Quantität schlägt in Qualität um. Das gilt auch und insbesondere für die biologischen Wissenschaften, die mit der Sequenzierung des Genoms von Mensch, Maus und diversen anderen Modellorganismen den Übergang zur computerbasierten Wissenschaft vollzogen haben.
Die Abfolge der Basenpaare der DNA (AT und CG) ist ihrer Natur nach ja digital. Und dank des Netzes ist digitalisierte Information enorm beweglich und schnell. "Eigentlich ist unsere Arbeit nur noch mit dem Internet möglich", sagt Carlos Ribeiro, Postdoc am Wiener IMP (Institut für Molekulare Pathologie) und Fliegen-bzw. Drosophila-Forscher. "Wenn wir experimentell das Gen einer Fruchtfliege identifizieren, machen wir uns mithilfe von Genomdatenbanken und E-Journals ein Bild davon, wie dieses Gen seine Funktion erfüllt. Dann bestellen wiederum online entweder bei Kollegen oder bei zentralen internationalen Ressourcezentren Fliegenstämme, um unsere Hypothese zu testen."
Virtualisierte Anthropologie. Gänzlich neue Möglichkeiten bieten die digitalen Verfahren auch den Paläoanthropologen, deren Gegenstände sich nicht wie die Fliegen vermehren, sondern allesamt zerbrechliche Unikate sind. Noch vor einigen Jahren wurden die fossilen Überreste unserer Vorfahren mit Zirkeln vermessen (und zerkratzt), mit Kleber zusammengepickt und Ablagerungen mit Hammer und Meisel entfernt, berichtet Gerhard Weber vom Department für Anthropologie der Universität Wien.
All das erledigt nun die Maus, sobald die Fossilien durch Computertomografen virtualisiert wurden. Dutzende von Schädelfragmenten werden zu einem 3-D-Puzzle zusammengefügt, fehlende Stücke in anderer Farbe eingepasst. All dies lässt sich beliebig oft wiederholen, die Rekonstruktion mit jenen anderer Wissenschaftler vergleichen.
Die Virtuelle Anthropologie zielt auch auf die großen biologischen Fragen. Die gescannten Fossilien werden in Datenbanken eingespeist. So lassen sich das Wachstum und die individuelle Variationsbreite des Neandertalers darstellen und etwa mit jener des Homo sapiens vergleichen. Und all das, ohne von Museum zu Museum zu jetten zu müssen.
Strukturwandel der Wissenschaft. Durch all diese Entwicklungen verändert sich auch die Organisation der Forschung: sie wird interdisziplinärer und arbeitsteiliger. Verschiedene Gruppen beschäftigen sich mit Teilproblemen, am Ende werde alles zusammengekoppelt, auch technologisch, so Wissenschaftsforscher Lenhard. In vielen Instituten gibt es neben der theoretischen und der experimentellen Abteilung mittlerweile auch eine für "computation", also einen dritten eigenständigen Bereich, so die Berliner Wissenschaftsforscherin Gabriele Gramelsberger. Es entstehen völlig neue Disziplinen wie die Bioinformatik, die für die Datenaufbereitung und -analyse inklusive Simulationen zuständig ist. Auch die Anforderungen an den individuellen Wissenschaftler ändern sich: Selbst programmieren zu können ist in vielen Disziplinen längst Voraussetzung.
Die Wissenschaft wächst im virtuellen Raum zusammen. Die Digitalisierung der Information erleichtert den Datenaustausch, die zunehmende Bedeutung des Online-Publizierens beschleunigt die Kommunikation in der jeweiligen Scientific Community (s. S. 14-16). Man teilt sich Rechenzeiten an Supercomputern und Arbeitszeiten an Observatorien und Teilchenbeschleunigern. Sogenannte Collaboratories ermöglichen die gemeinsame Bearbeitung von Daten, den Zugang zu fachspezifischen Ressourcen bis hin zur Nutzung von Laborgeräten und Messgeräten per Distanz.
Schöne, neue Wissenschaft? Ja, aber auch ein bisschen nein oder zumindest noch nicht. Denn die Probleme sind auch in der E-Science Legion. Das beginnt schon bei simplen Dingen wie inkompatibler Datenformate und Digitalisierungsstandards. Der Kommunikationsaufwand - etwa zwischen Informatikern und den "eigentlichen" Wissenschaftlern - in einer zunehmend interdisziplinär agierenden Forschung ist enorm und nicht immer von Erfolg gekrönt.
Und E-Science ist hungrig, sie verschlingt ungeheure Rechen-und Speicherkapazitäten. Wer nicht über die entsprechende Cyberinfrastruktur verfügt, wird schnell den Anschluss verlieren. In Österreich etwa sind Superrechner Mangelware.
Digitalisierung allein genügt nicht. In der Molekularbiologie etwa war die Sequenzierung des Genoms letztlich eine leichte, weil bloß mechanische Übung. Was Gene "tun" und wie sie miteinander interagieren, hat sich als unerwartet schwieriges Forschungsfeld erwiesen, in dem auch mathematische und statistische Methoden noch keinen Durchbruch gebracht haben.
Und schließlich: das schöne Ideal einer "kommunistischen" Wissenschaft erweist sich oft als realitätsfremd. Digital aufbereitete Schätze werden mit Argusaugen gehütet und gerade nicht geteilt.
Warum soll man Konkurrenten schließlich auch Daten zur freien Verfügung stellen, für deren Gewinnung man literweise Forschungsschweiß vergossen hat? Die Spannung zwischen der "alten" Wissenschaft, die darauf basiert, Anerkennung und damit auch Ressourcen Individuen zuzuerkennen, und der neuen Cyberscience, in der die Leistung des Einzelnen im Strom der Daten und einer vernetzten Erkenntnisproduktion immer weniger erkennbar ist, lässt sich nicht in Bits und Bytes auflösen.
Literatur
Gabriele Gramelsberger: www.sciencepolicystudies.de/dok/explorationsstudie_
computersimulationen/inhaltsverzeichnis.html
Johannes Lenhard: Mit dem Unerwarteten rechnen? Computersimulation und Nanowissenschaft, in: Alfred Nordmann et. al. (Hg.): Nanotechnologien im Kontext: Philosophische, ethische und gesellschaftliche Perspektiven. Berlin 2006 (Akademische Verlagsanstalt), 151-168.