Simulation – die dritte Säule der Wissenschaft

Beitrag von Prof. Dr.-Ing. Dr. h. c. Wolfgang Ehlers, Sprecher des Exzellenzclusters Simulation Technology (SimTech), Universität Stuttgart

Die Simulationstechnologie hat sich als Instrument und Methode der Erkenntnisgewinnung in den vergangenen 50 Jahren in der Forschung durchgesetzt und kann heute neben Theorie und Experiment als dritte Säule der modernen Wissenschaft gelten. Im nachfolgenden Bericht erfahren Sie mehr über die Geschichte und Anwendungsbereiche der Simulationstechnologie sowie über die Bedeutung des SimTech an der Universität Stuttgart.

Berechenbare Modelle durch Simulation

Modelle geben reale Prozesse und Systeme reduziert wieder und machen sie mit Hilfe moderner Simulationen „berechenbar“. Im Begriff Simulationstechnologie steckt bereits der Verweis auf den anspruchsvollen handwerklichen Charakter: Heutige Simulationen sind fast immer Computersimulationen, hinter denen komplexe Modelle, mächtige Algorithmen sowie leistungsfähige Rechen- und Speicherleistungen stehen.

Geschichte der Simulationstechnologie

Numerische Lösung partieller Differenzialgleichungen

Die mathematischen Anfänge der Modellbildung und damit auch der Simulation sind bereits im sogenannten Nadelproblem von Buffon und Laplace im 18. Jahrhundert zu finden. Dabei sollte die Wahrscheinlichkeit berechnet werden, mit der eine Nadel auf der Linie eines vorgezeichneten Gitternetzes landet. Es war das Grundprinzip dieser ersten „Simulation“, die Schlussfolgerung von einer großen Zahl an Einzelfällen auf grundlegende Gesetzmäßigkeiten und die Ableitung ihrer Unsicherheiten und Wahrscheinlichkeiten zurückzuführen.

Auf Zufallsexperimente gründet sich auch die erste und bis heute grundlegende Simulationsmethode, mit der der Mathematiker John von Neumann 1946 gemeinsam mit Stanislaw Ulam ein Verfahren definierte, mit dessen Hilfe sich partielle Differentialgleichungen numerisch lösen lassen, die sogenannte Monte-Carlo-Methode. Mit dieser Methode lässt sich die Wahrscheinlichkeit oder aber die Ungewissheit bestimmter Ergebnisse berechnen, so dass diese Methode bis heute wesentlich ist für die Modellierung und Simulation.

Lösung von partiellen Differentialgleichungen durch Weiterentwicklung der FEM

Eine weitere computergestützte Berechnungsmethode wurde in den 1960er Jahren maßgeblich an der Universität Stuttgart mitentwickelt: John Argyris, Begründer und langjähriger Leiter des Instituts für Statik und Dynamik der Luft- und Raumfahrtkonstruktionen, suchte nach einer Lösung zur Überprüfung von Festigkeit und Elastizität einzelner Flugzeugteile wie der Tragflächen. Dabei bestand die Herausforderung darin, partielle Differentialgleichungen zu lösen, also Gleichungen, die Prozesse mit mehr als einer unabhängig veränderlichen Variablen beschreiben.

Für die Lösung dieser Aufgaben lieferte Argyris wesentliche Beiträge durch die Weiterentwicklung der Finite-Elemente-Methode (FEM), die zunächst vor allem in der Simulation von Festkörpern, heute aber auch in vielen weiteren physikalischen Fragestellungen wie Wettervorhersagen oder Anwendungen in der Medizintechnik eingesetzt wird.

Simulationen: Entwicklung und Anwendungsbereiche

Neben den methodischen Verfahren waren es die bahnbrechenden technischen Entwicklungen der Computertechnologie, die entscheidend für die Durchsetzung der Simulationsverfahren waren. Erst durch die stetig gestiegene Speicher- und Rechenleistung wurde es möglich, Simulationen in einer Geschwindigkeit und in einer Komplexität zu durchzuführen, mit der sich heute dynamische Systeme vom Nanobereich bis zur Supernova in überschaubarer Zeit simulieren lassen.

Mit der steigenden Leistungsfähigkeit der Computer seit den 1970er Jahren wurde es möglich, zunehmend komplexe Szenarien und Modelle zu simulieren. Die prominentesten Anwendungsbereiche sind hier die Wettervorhersage, Wahlprognosen oder die Weiterentwicklung von Hochrisikotechnologien. Das Produkt dieser Simulationen war dabei lange frei von Abbildungen, Ergebnisse wurden in Zahlenreihen und Diagrammen dargestellt. Abhilfe liefern inzwischen Visualisierungen, die die Ergebnisse der Simulationen quasi auf einen Blick sichtbar und damit leicht interpretierbar machen.
 

Gerade die heute möglichen Rechenleistungen erzwingen die visuelle Fokussierung auf das Wesentliche. Die bildhafte Darstellung hilft hier also, aus den immer größeren Datenmengen die entscheidenden Erkenntnisse hervorzuheben. So schaffen moderne Supercomputer am Höchstleistungsrechenzentrum Stuttgart (HLRS) pro Sekunde durchschnittlich eine Billiarde (1015) Rechenoperationen. Es schlummern hier aber noch viele Möglichkeiten, Einblicke in zeitlich oder räumlich bislang unüberschaubare Gebiete zu werfen.

Chancen und Herausforderungen

Die Erfassung realer Prozesse in Modellen, ihre numerische Simulation und Visualisierung wird heute standardmäßig überall dort eingesetzt, wo Theorie und Experiment zu kurz greifen.

Die offenkundigen Vorteile, die der Simulation den Vorrang vor einer rein theoretischen oder aber experimentellen Methode geben, liegen etwa in der Kosten- und Zeitersparnis. Weiterhin bietet die Simulation in vielen Bereichen eine ethisch unbedenkliche Überprüfung bestimmter Annahmen und Szenarien, etwa in der Entwicklung und Überprüfung neuer Arzneistoffe. Die Lösung analytisch nicht lösbarer (partieller Differential-)Gleichungen lässt sich heute dank der numerischen Methoden der Simulation mit einer nahezu beliebigen Genauigkeit näherungsweise bestimmen. Mit der Öffnung eines virtuellen Forschungsraums können erstmals auch Prozesse erfasst werden, die zu klein oder zu groß sind, um mit Messmethoden untersucht zu werden, oder die im Versuch zu lange dauern würden. Simulationen bieten darüber hinaus nicht nur Auskunft über das, was ist, sondern auch über das, was sein könnte. Wissenschaftliche Simulationen stellen eben nicht nur das bereits Bekannte nach, sondern ermöglichen auch die Ableitung von Vorhersagen oder die Berechnung von Wahrscheinlichkeiten.

Allerdings bedarf auch die moderne Simulation der stetigen Kontrolle und methodischen Reflexion. Insbesondere die Schwierigkeit, Unsicherheiten in bestimmten Systemen exakt zu bestimmen, macht es erforderlich, die simulierten Ergebnisse stets zu hinterfragen oder mit begleitenden Experimenten abzugleichen. Der Einzug der Simulationstechnologie als alternativer Weg zur Erkenntnis kommt einer Revolution gleich, eröffnet er doch neuartige Schnittstellen zwischen realen und virtuellen Forschungswelten, die neue Formen der Wissensproduktion – vom Materialdesign bis zur Biomechanik – ermöglichen und erfordern.

Simulationstechnologie an der Universität Stuttgart

Mit dem Exzellenzcluster Simulation Technology (SimTech) hat die Universität Stuttgart der neuen Forschungsmethode vor rund zehn Jahren eine Heimat und einen institutionellen Schwerpunkt gegeben: Mit dem Cluster werden die ursprünglich nur isoliert entwickelten Simulationsmodelle und -methoden zu einer umfassenden Systemwissenschaft gebündelt. Inzwischen hat die Simulationsforschung im 2015 gegründeten Stuttgarter Zentrum für Simulationswissenschaften (SC SimTech) einen dauerhaften Ort an der Universität Stuttgart erhalten.

Mehr über den SimTech erfahren Sie unter www.simtech.uni-stuttgart.de.

Erstmals erschienen in: TiB Ausgabe 2017 September/Oktober