Home Veranstaltungsort Teilnehmer Programm Überblick

SAS Workshop 2017

Program

Donnerstag, 2. November 2017
10:30 Eröffnung
10:45 Simulationen ohne Computer? Algorithmische Wissenskulturen und numerische Experimente in der Himmelsmechanik im frühen 20. Jahrhundert
Ulf Hashagen, Deutsches Museum München
Abstract Die Wissenschaftsphilosophie der Simulation geht in ihrem vielfach beschriebenen „Urmythos der Simulationsgeschichte“ davon aus, dass der Mathematiker John von Neumann in den 1940er Jahren den entscheidenden Anstoß zu dem Prozess gegeben hat, der zur heute in den Natur- und Technikwissenschaften allgegenwärtigen Methode der computerbasierten Simulation führte. Neumanns oft angeführtes Zitat „Our present analytical methods seem unsuitable for the solution of the important problems arising in connection with non-linear partial differential equations and, in fact, with virtually all types of non-linear problems in pure mathematics“ (1946) über die wissenschaftlichen Schranken, die sich der Lösung der im Zusammenhang mit dem Bau der Atombombe auftretenden nichtlinearen partiellen Differentialgleichungen (Navier-Stokes-Gleichungen) in den Weg stellten, erscheint dabei als perfekter Quellenbeleg für einen erst durch den elektronischen Computer ermöglichten revolutionären neuen Weg zur Beherrschung von nichtlinearen mathematischen Problemen, der in der Folge das Verhältnis von Experiment, Theorie und Modellbildung entscheidend veränderte.
\ Der wissenschaftshistorische Vortrag will diesen „Urmythos der Simulationsgeschichte“ hinterfragen. Als Untersuchungsfeld wird dabei die Astronomie im späten 19. und frühen 20. Jahrhundert analysiert, da die klassischen Astronomen die Lösung von (analytisch nicht lösbaren) nichtlinearen gewöhnlichen Differentialgleichungen der Himmelsmechanik als zentrales Problem ihrer Forschungsagenda ansahen. Der Vortrag zeigt dabei, dass diese Forschungsagenda der klassischen Astronomie nicht nur zur Ausbildung von "reinen" mathematischen Methoden, sondern auch von (numerischen) mathematischen Näherungsmethoden zur Lösung des Dreikörperproblems führte, während die angestrebte Begründung einer neuen Disziplin des "wissenschaftlichen Rechnens" wie die (versuchte) Gründung großer "Rechenzentren" nur teilweise erfolgreich war. Weiterhin wird diskutiert, ob die Idee "mathematischer Experimente" in der Astronomie nicht schon weit vor der Erfindung des modernen Computers auftrat. Dabei soll hinterfragt werden, ob und wie Wissenschaftler nicht schon vor der Erfindung des Computers numerische und instrumentell basierte "Simulationen" zur Lösung nichtlinearer mathematischer Probleme in den Naturwissenschaften durchführten. Weiterhin wird das Verhältnis dieser Simulationstechniken des frühen 20. Jahrhunderts zu den damals typischen Visualisierungstechniken untersucht. Abschließend soll die Frage gestellt werden, ob eine Simulation notwendigerweise eine Computersimulation ist.
11:15 Diskussion
12:00 Mittagessen
13:30 Simulation and Images in Data-Intensive Science: The Case of the Higgs Search
Martina Merz, Alpen-Adria-Universität Klagenfurt
Abstract Contemporary experimental particle physics is amongst the most data-intensive sciences. Approximately 30 petabytes of data produced annually at CERN’s Large Hadron Collider (LHC) need to be controlled and processed in multiple ways before physicists are ready to claim novel results: data are filtered, stored, distributed, analyzed, reconstructed, synthesized, etc. involving collaborations of 3000 scientists and heavily distributed work. Adopting a science-as-practice approach, this paper focuses on the associated challenges of data analysis using as an example the recent Higgs search at the LHC. In particle physics, data analysis relies on statistical reasoning. Physicists thus use a variety of standard and advanced statistical tools and procedures. Based on interviews and document analysis, I will emphasize that, and show how, the computational practice of data analysis is inextricably tied to the production and use of specific visual representations. These “statistical images” constitute “the Higgs” (or its absence) in the sense of making it “observable” and intelligible. The paper puts forward two main theses: (1) that images are constitutive of the prime analysis results due to the direct visual grasp of the data that they afford within large-scale collaborations and (2) that data analysis decisively relies on the computational and pictorial juxtaposition of “real” and “simulated data”, based on multiple models of different kind. In data-intensive sciences such as particle physics images thus become essential sites for evidential exploration and debate through procedures of black-boxing, synthesis, and contrasting.
14:00 Diskussion
14:30 Kaffeepause
15:00 Die Krise der Reproduzierbarkeit in exakten Wissenschaften Computersimulation und die Identität mathematischer Modelle
Hans Hasse, TU Kaiserslautern; Johannes Lenhard, Universität Bielefeld
Abstract Wissenschaftliches Wissen gilt als objektiv, insofern die Ergebnisse, auf denen es beruht, von verschiedenen Personen oder Gruppen und an verschiedenen Orten reproduziert werden können. Wenn in Frage gestellt wird, ob bestimmte Ergebnisse von Untersuchungen wiederholbar sind, so wird deren wissenschaftlicher Charakter in Frage gestellt. Genau das ist in den letzten Jahren auf verschiedenen Gebieten geschehen, unter anderem in der Psychologie und Medizin. Die „Krise der Reproduzierbarkeit“ (replicability crisis) hat bereits einen Eintrag in Wikipedia.
Reproduzierbarkeit scheint für mathematische Modelle kein Problem zu sein. Und erst recht nicht für Computermodelle, deren diskrete Struktur ja sogar identisch kopiert werden kann, heruntergeladen usw. Wir zeigen, dass diese Auffassung falsch ist.
Unsere These lautet: Es gibt eine gerade entstehende Krise der Reproduzierbarkeit auch in exakten Wissenschaften, die durch die Methodologie und Organisationsweise von Computersimulationen ausgelöst wird.
Unser Argument wird in zwei Schritten entwickelt. Zunächst analysieren wir die Methodologie der Simulation und zeigen, wie dieses Problem überhaupt entstehen kann. Ein Gesichtspunkt ist dabei die Komplexität der Modelle, ihrer Entwicklung und ihrer Codierung auf dem Computer. Verschiedene Forschergruppen handhaben dies auf verschiedene Weise. Aber gefährdet das auch wirklich die Reproduzierbarkeit? Die philosophische Möglichkeit einer Krise bedeutet ja keineswegs deren praktische Realität. Dies zu betrachten ist Gegenstand des zweiten Schritts.
Wir berichten von einer aktuellen Modellvergleichsstudie, in der nicht verschiedene Modelle verglichen wurden, sondern (vorderhand) gleiche Simulationsmodelle. Tatsächlich liefern diese Modelle „hart“ verschiedene Resultate, also Differenzen, die über statistische Abweichungen hinausgehen.
Die beobachtete Krise der Reproduzierbarkeit wirft Fragen auf, die wir kritisch diskutieren wollen:
  • Historisch-philosophische Vergleichsfrage: Was kann man für die Simulation aus dem Vergleich mit klassischen Experimenten lernen?
  • Methodologische Frage: Inwiefern ist eine große Masse an Vergleichsdaten hilfreich, inwiefern nicht?
  • Wertfrage: Was sind Vor- und Nachteile des Pluralismus von Modellen?
  • Identitätsfrage: Inwiefern geht die Identität „des“ Modells in der Simulationspraxis operativ verloren?
15:30 Diskussion
16:00 Kaffeepause
16:30 Was ist eine numerische Lösung?
Michael Herrmann, HRLS; Nico Formanek, HLRS
Abstract Numerische Lösungen und Approximationsmethoden befinden sich an der Schnittstelle von Mathematik und Computersimulationen, wobei sie häufig mit exakten Lösungen kontrastiert werden. Exakte wie numerische Lösungen sind zunächst nur Funktionen, für Simulationen ist aber die Auswertung von Funktionen relevant. Auswertungen von exakten wie numerischen Lösungen sind Algorithmen. Kann der Unterschied exakt-numerisch auf der Ebene von Algorithmen eingefangen werden? Wir argumentieren, dass sich dieser mit üblichen Berechenbarkeitsmodellen wie Turingmaschinen, λ-Kalkül oder rekursive Funktionen nicht treffen lässt. \ Alternativen für eine Charakterisierung von Lösungsfunktionen bieten die Begriffe numerische Stabilität und Komplexität, diese fallen aber im Allgemeinen nicht mehr mit dem Unterschied numerisch-exakt zusammen.
17:00 Diskussion
18:30 Abendessen
Freitag, 3. November 2017
9:00 Die Rollen der Mathematik im Computerzeitalter
Rudolf Seising, Deutsches Museum München Berechnen, Schätzen, Adaptieren
Abstract "Mathematik" ist der altgriechischen Wortbedeutung nach die Kunst des Lernens (μαθηματική τέχνη). Lernen zu können, wurde bis zum Aufkommen der Computer im 20. Jahrhundert als eine Eigenschaft lebendiger Systeme angesehen, neues Wissen zu erlangen. Der Begriff „Machine Learning“ - zu Deutsch „maschinelles Lernen“ - erscheint vor diesem Hintergrund als Produkt eines Kategorienfehlers, doch hat sich unter diesem Namen mittlerweile eine mächtige Fach in der Informatik entwickelt. Was bedeuten hier Lernen bzw. Lehren und auch Wissen? – Aus wissenschaftsphilosophischer Sicht lässt sich behaupten, dass die Erlangung von Wissen über ein reales System, 1) die Erhebung von Daten und 2) die Aufstellung eines theoretisch-begrifflichen Konstruktes voraussetzt, das „Modell“ genannt wird. Dem Modell und dann auch dem realen System wird eine Struktur zugeschrieben. „Wie dies genau geschieht, ist weithin unklar und darf wohl als eines der zentralen Probleme der Wissenschaftstheorie bezeichnet werden“ schrieb der Wissenschaftstheoretiker Wolfgang Balzer 1982 „Das Problem besteht darin, einen Zusammenhang zwischen konkreten Systemen und „theoretischen“ Strukturen herzustellen.“[1] Insbesondere erfüllen Modellkomponenten gewisse Gesetze, die als mathematische Verknüpfungsrelationen, z. B. Gleichungen formuliert werden. In diese Relationen können nach Eingabe von Beobachtungsdaten Ergebnisse „berechnet“ werden. Diesem deduktiven Vorgehen steht das induktive Vorgehen gegenüber, das wir nutzen, wenn wir ein die Beobachtungsdaten erklärendes Modell überhaupt erst aufstellen, bzw. anpassen. Als wissenschaftliche Disziplin zum Umgang mit Daten blieb die Statistik seit über zweihundert Jahren unangefochten. „Wir sind nun an einem Punkt angelangt, an dem solche Datenanalysen nicht länger von Menschen vorgenommen werden können, da zum einen die Menge an Daten riesig ist und zum anderen qualifizierte Kräfte für solche Analysen rar und manuelle Analysen kostspielig sind. Daher besteht wachsendes Interesse an Computermodellen, die Daten analysieren und automatisch Information aus ihnen extrahieren können“ schrieb vor acht Jahren Ethem Alpaydin, einer der Pioniere auf dem Gebiet des maschinellen Lernens [2].
Schon in den 1960er Jahren hatte der Statistiker John W. Tukey das neue Feld der “Data Analysis” in die „statistical community“ eingeführt [3] und in den frühen 1980ern näherten sich Methoden der Statistik und Informatik an, etwa in der Visualisierungstechnik oder bei analytischen Assistenten[4]. Von ganz anderer Qualität war dann aber die Entwicklung der „new Artificial Intelligence“ seit den späten 1980ern. Ihr Aufschwung eröffnete den Lernalgorithmen (z. b. Künstliche Neuronale Netze, Bäume etc.) riesige Anwendungsgebiete und im Jahre 2001 befand der Statistiker Leo Breiman, das sich zwei völlig verschiedene Modellierungsarten etabliert haben: „Datenmodellierung“ und „algorithmische Modellierung“:1 Während erstere auf der Annahme beruht, dass die Daten durch einen gegebenen stochastischen Prozess generiert werden, zu dem der Statistiker die Wahrscheinlichkeitsverteilung schätzen will, geht letztere davon aus, dass die Daten zwar durch einen komplexen, allerdings unbekannten „Mechanismus“ erzeugt werden, den es durch einen Algorithmus zu simulieren gilt. Damit setzte der große Erfolg des „maschinellen Lernens“ als ein Lernen von Mustern bzw. Gesetzmäßigkeiten „aus Erfahrung“ ein.
1. Balzer, W.: Empirische Theorien: Modelle – Strukturen – Beispiele. Die Grundzüge der modernen Wissenschaftstheorie. Braunschweig/ Wiesbaden: Fr. Vieweg & Sohn 1982, S. 289.
2. Ethem Alpaydin: Introduction to Machine Learning, Boston, Mass.: The MIT Press, 2004; zitiert nach der deutschen Ausgabe: Maschinelles Lernen, München: Oldenbourg, 2008.
3. J. W. Tukey: The Future of Data Analysis, The Annals of Mathematical Statistics 33 (1), 1962, pp. 1-67.
4. J. W. Tukey: Another Look at the Future, in: K. W. Heiner et al. (eds.): Computer Science and Statistics, Springer 1982, pp. 2-8.
9:30 Diskussion
10:15 Kaffeepause
10:30 Manipulating Molecules by Physical (and Mathematical) Methods
Carsten Reinhard, Universität Bielefeld
Abstract The talk covers the application of physical methods in key areas of the natural and life sciences during the second half of the twentieth century. This period has seen deep changes in the practice of science, many of them due to the impact of high-tech instrumentation in all fields of science and technology. As a result, historians have characterized the period approx. 1950 to 2000 either as technology-driven or at least as heavily imprinted by the novel instrumentation. By some the universal use of instruments has led to calls for a unification of the sciences under the umbrella of its research infrastructure or to an analysis of science as being constituted by three major layers: theory, experiment, and instrumentation. Others have characterized the adaptation of instruments stemming largely from physics by chemistry, biology, and many other fields as the advent of a novel type of scientist, interested in the continuous supply of methods, and not primarily in the solution of problems. Crucially, both traditions focus on the intersection of technology-driven instrumentation and the theoretical traditions of the diverse research fields. Both sides, however, have neglected so far the crucial role of mathematics as a bundle of methods that has supplied the necessary interactive “glue."
\ Connected to the rise of high-tech instrumentation, the “molecularization” of scientific fields has taken place at an astonishing speed. The most famous is certainly molecular biology, but also solid-state physics, materials science, and nanotechnology come to mind. In contrast to the previous era, characterized by wet (test-tube) methods of classical chemistry, the new era of molecular science has universally applied novel, instrument-based spectroscopies of various kinds. Particularly, these fields spawned applications in early Artificial Intelligence, and these will be at the center of analysis.
11:00 Diskussion
11:30 Kaffeepause
11:45 Computer Simmulation als Mythos
Michael Resch, HLRS; Uwe Küster, HLRS
Abstract Roland Barthes entwickelt ein Konzept des Begriffs Mythos, über den nachzudenken sich auch im wissenschaftichen Bereich lohnen kann. In diesem Vortrag soll untersucht werden, inwieweit der Begriff des Mythos auf die Computersimulation angewendet werden kann. Insbesondere interessiert dabei die Frage, in welcher Form eine Sichtweise der Computersimulation unter dem Aspekt des Mythos das Potenzial der Technologie einschränkt oder es sogar erweitert. Dabei werfen wir den Blick auch auf das allgemeine Phänomen der Digitalisierung bzw. der Informationsgesellschaft um die Computersimulation in einen breiteren Kontext zu stellen.
12:15 Diskussion
12:45 Mittagessen
14:00 Numerische Sensitivität: Soziale, technische und mathematische Opazität in Crashtest Simulationen
Andreas Kaminski, HLRS; Ralf Schneider, HLRS
Abstract Simulationsmodelle scheinen sich von klassischen Modellen grundlegend zu unterscheiden. Die Vorzüge klassischer (mathematisch-mechanischer)  Modelle bestehen insbesondere darin, dass sie eine internalistische Einsicht in ihre Struktur und Funktionsweise erlauben. Schritt für Schritt kann ein Prozess nachvollzogen werden. Simulationsmodelle können dagegen in der Regel primär externalistisch in ihrem Verhalten beobachtet werden; die Einsicht in ihre Struktur kann daher nur über jenes Verhalten erschlossen werden (mit den entsprechenden Limitierungen). Entsprechend scheinen in der Computersimulation an die Stelle von internalistischen externalisitische Rechtfertigungsstrategien zu treten. Das andere Verhältnis, welches Wissenschaftler zu solchen Modellen haben, kann daher mit Paul Humphreys als opak bezeichnet werden. Dabei tritt Opazität jedoch in verschiedenen Formen auf:
\
  • sozial mit Blick auf die vielen beteiligten Personen mit ihrer jeweiligen Expertise.
  • technisch, insofern das Expertenwissen in Form von Technik (funktionierende Black Box) weitergegeben wird, und schließlich.
  • mathematisch, insofern als die verwendeten Gleichungssystem eine Undurchsichtigkeit aufweisen, deren Interaktion mit den spezifisch algorithmischen Techniken kaum internalistisch nachvollzogen werden kann.
Im Vortrag untersuchen wir Crash-Test-Simulationen, um am Problemfall numerischer Sensitivität, das Zusammenwirken dieser Opazitätsformen darzustellen.
14:30 Diskussion
15:00 Kaffeepause
15:30 End