Donnerstag, 31. März 2011

Kein Grund zur Häme

So, wieder in Deutschland. Zum Glück war die Umstellung auf Sommerzeit in den USA schon vor zwei Wochen, deswegen nur acht Stunden Jetlag. Heute also wie angekündigt etwas über High Schools. Jeder kennt wohl mehrere Highschool-Filme oder Serien und weiß bestens Bescheid? Vielleicht auch nicht, denn ich glaube es gibt keinen Grund zur Häme. Und nun, ohne eine Gerd-Delling-Gedächtnis-Überleitung ein kleiner Sprung.

Die Gewerkschaften in den USA sind im großen und ganzen nicht besonders stark und die Arbeitnehmerrechte nicht besonders ausgeprägt. Mit einer wichtigen Ausnahme, und zwar dem öffentlichen Dienst, insbesondere den Lehrern. Die US-Bundesstaaten, von der Finanzkrise darauf gestossen, dass sie seit Jahrzehnten Schulden machen, müssen sparen und insbesondere die republikanischen Gouverneure haben entdeckt, dass man mal die Lehrer angehen müsste. Diese bieten erstaunlicherweise ein leichtes Feindbild: Weil die normalen Arbeitnehmer keine Rechte mehr haben, wirken Lehrer, die das haben, was man in Europa als normale Arbeitnehmerrechte ansehen würde, wie die totalen Schmarotzer mit archaischen Privilegien.

Chris Christie; Dampfwalze gegen
die Lehrergewerkschaft;
Nightscream, CC-by-sa
Scott Walker, Mutterns liebster Schwiegersohn
gegen die Lehrergewerkschaft;
Megan McCormick, CC-by-sa
Spannendstes Beispiel ist neben Governor Christie in New Jersey insbesondere der neue Gouverneur von Wisconsin und selbstverständlich Tea-Party-Held, Scott Walker. Dieser nett und vertrauenswürdig aussehende Mann hat ebenfalls ein Haushaltsproblem und um es anzugehen, verlangte er von den Lehrern und anderen Mitarbeitern im öffentlichen Dienst massive Zugeständnisse, sowie dass die Lehrergewerkschaft ihr Recht, Tarifverhandlungen zu führen, verlöre. Nanu? Eine Gewerkschaft, ohne das Recht, Tarifverhandlungen zu führen? Jenun sagt er: Wie soll ich denn je die Kürzungen durchkriegen, wenn ich mit den Gewerkschaften verhandeln soll? Klingt plausibel, nur gab die Gewerkschaft nach. Gut für sein Budget, schlecht für sein eigentliches Anliegen. Also sagt er: Ihr könnt ja machen was ihr wollt, aber in jedem Fall sollen Gewerkschaften nicht mehr das Recht haben, Tarifverhandlungen zu führen, denn schließlich will ich das so.

Was nun folgt, ist absolut haarsträubend. Während im und vor dem Parlamentsgebäude zehntausende tagelang gegen Walker demonstrieren, will er abstimmen lassen. Die Opposition verlässt aber geschlossen den Staat! Damit hat er kein Quorum mehr im Parlament und kann über das Gesetz nicht abstimmen lassen. Die Republikaner jammern, das sei alles verfassungswiedrig. Die geflohenen Demokraten höhnen, dass der grosse republikanische Held Abraham Lincoln einmal, um eine Abstimmung zu verhindern, aus dem Fenster gesprungen sei. Das Restparlament beauftragt dann die Polizei, die flüchtigen Senatoren einfangen zu lassenn. Das geht aber nicht, weil die Polizei von Wisconsin in den Nachbarstaaten keine Rechte hat.

Walker und seine Komparsen, zwischendurch von einem Blogger über einen fingierten Telephonanruf ziemlich peinlich bloßgestellt, finden aber eine Lücke in der Verfassung und stimmen ohne die Demokraten ab. Diese kehren daraufhin zurück, nun als Wisconsin 14 gefeiert. Und klagen erstmal gegen das neue Gesetz. Stand: Einstweilige Verfügung erwirkt, ansonsten schwebend.

Wie ist das denn nun mit den Schulen? Ist das amerikanische Schulsystem schlecht und ungerecht, wie viele hierzulande meinen? Klar dachte ich mir, das Blogposting wird zügig gehen. Nur zeigten die Recherchen ein wesentlich differenzierteres Bild, was weniger daran liegt, dass die USA ein Bildungsparadies wären, sondern wie schlecht die Situation in Deutschland ist und es überhaupt keinen Grund gibt, auf die USA runterzuschauen. Interessantes Blog: Was ist der deutsche Traum? von der Friedrich-Böll-Stiftung.

Schaut man sich die letzte PISA-Studie an, so stellt man erstmal fest, dass die USA nicht gut abgeschnitten haben, konkret knapp hinter Deutschland. Das heißt aber erstmal nur, dass das Schulsystem insgesamt nicht gut ist und sagt nichts über Ungerechtigkeit aus. Es ist nun ziemlich schwierig, Ungerechtigkeit festzumachen und selbst wenn man sich beispielsweise auf wirtschaftliche Faktoren festlegt, ist die Frage inwieweit das Bildungssystem dafür verantwortlich ist. Festhalten lässt sich aber, dass die Kluft zwischen arm und reich in den USA größer ist als in Deutschland, die Kluft in Deutschland aber rasant steigt.

Bei der Tellerwäscher-zum-Millionär-Geschichte ergibt sich ein etwas differenziertes Bild. Während die amerikanische Gesellschaft insgesamt entgegen des Mythos vom American Dream wenig durchlässig für Aufstieg ist und zwar auch deutlich weniger als die deutsche, ist der Umgang mit Einwanderern in den USA gelungener: sozialer Aufstieg hängt weniger vom Migrationshintergrund ab als in Deutschland. Muslimische Einwanderer sind dort beispielsweise eher in Mittel- und Oberschicht anzutreffen. Sprich: Von Bildungsgerechtigkeit kann man in den USA nicht sprechen, wer arm ist, bleibt arm, aber das unabhängig von der Herkunft.

Es bleibt, dass die Situation des Schulsystems in den USA bedrohlich ist, zumindest für die Amerikaner. Einen PISA-Schock hat es dort nicht gegeben, die Studie wurde nicht breit diskutiert, obwohl das Land wie gesagt noch schlechter abgeschnitten hat als Deutschland. Großes Problem sind in meinen Augen nicht die Unis, sondern die High Schools, die schon dafür sorgen, dass viele nie eine gute Bildung erhalten. Die Finanzierung der High Schools basiert dabei auf drei Säulen, wie hier der Bundes- und Landesregierung und auf dem County bzw. der Stadt. Der Bund liefert dabei unter 10% der Finanzierung. George W. Bush hatte die gute Idee, das Monitoring der Schulen zu verbessern, es wird also Bildungserfolg der Schüler nach Schule gemessen. Gleichzeitig hat er im No Child Left Behind Act dafür gesorgt, dass zum einen schlechte Schulen weniger Geld vom Bund kriegen, damit sie noch schlechter werden und ferner Eltern in manchen Fällen Ansprich auf Bildungsgutscheine erhalten, damit sie ihre Kinder auf Privatschulen schicken können.

Das ist nicht gut, aber aufgrund der relativ geringen Beteiligung des Bundes an der Finanzierung der Schulen zu verschmerzen. Dramatischer ist die Situation der Bundesstaaten wie oben angedeutet: Lehrer verdienen im Schnitt etwas über 50.000$. Das ist kein Premiumgehalt, aber anstatt das zu erhöhen, wollen viele republikanische Gouverneure das noch senken...

Am kritischsten ist allerdings der letzte Punkte, die Finanzierung über die Counties bzw. Städte. Diese geschieht nämlich fast ausschließlich über Grundsteuern, die sich nach dem Wert eines Grundstücks bemisst. Anders ausgesagt: Eine Stadt wie Palo Alto mit einem Immobilienboom der durch Nachfrage und ein Durchschnittseinkommen von gruseligen 100.000$ gesteuert wird, kann schon mit geringen Grundsteuersätzen riesige Summen auftreiben. Eine Stadt wie Oakland, in der nur arme Leute wohnen die 2 Stunden nach San Francisco pendeln, kann auch mit hohen Grundsteuern keine riesigen Summen auftreiben. Und da entscheidet sich das eigentliche: Arme Gegenden haben schlechte Schulen, reiche Gegenden haben gute Schulen.

On another note:

      Mittwoch, 23. März 2011

      Schon Jodtabletten gekauft?

      „Last Tuesday, the 2nd, was Candlemas day, the day on which, the Groundhog peeps out of his winter quarters and if he sees his shadow he pops back for another six weeks nap, but if the day be cloudy he remains out, as the weather is to be moderate.“ James Morris, Berks County, 4. Februar 1841
      Im letzten Blogpost hatte ich mich mit den Grundlagen von Tsunami-Simulation auseinandergesetzt, woraufhin in den Kommentaren die Frage aufkam, wie es denn mit der Zuverlässigkeit von Vorhersagen zum nuklearen Fallout aussieht, beziehungsweise von Wettervorhersagen. Und nicht nur in Deutschland, wo Jodtabletten und Geigerzähler kaum noch zu kriegen sind, sondern auch an der amerikanischen Westküste gibt es naturwissenschaftliche Nieten, die sich Sorgen machen. Also, wie macht man eine Wettervorhersage wenn man gerade kein Murmeltier zur Hand hat? Heutzutage nur noch mit dem Computer, also mit einer numerischen Simulation. Grundlage sind, was denn auch sonst wird der regelmässige Leser einwerfen, die Navier-Stokes-Gleichungen. Diese beschreiben newtonsche Fluide, also Gas und Wasser und man kann sie auch für Dampf, Wolken etc. verwenden.

      Bei der Sache treten neben unzähligen kleinen und mittelgroßen Problem zwei große Probleme auf. Das erste ist, dass die Erde ziemlich groß ist. Wenn wir also die ersten zehn Kilometer Atmosphäre nehmen und die einmal um die Erde rum als das uns interessierende Gebiet betrachten, ergibt das mit 550 Millionen km^2 Oberfläche 5.5 Millarden Kubikkilometer. Bei einer Auflösung von einem Kubikkilometer sind das, da die Navier-Stokes-Gleichungen in drei Dimensionen aus 5 Gleichungen bestehen, 27.5 Millarden Unbekannte. Damit kann noch nicht mal der Earth Simulator 2 sinnvoll umgehen. Und wir reden hier noch gar nicht davon, den Einfluss der Ozeane, der Sonneneinstrahlung, der Bodenrauigkeit (Kornfelder bremsen Wind weniger als Wälder), der Gebirge oder sonstiger relevanter Schwierigkeiten zu berücksichtigen.

      Die Lösung dieses Problems ist die mathematische Modellierung. Es werden also unter bestimmten Annahmen Vereinfachungen der Navier-Stokes-Gleichungen betrachtet oder komplexe Effekte durch einfache Terme approximiert. Eine wichtige Annahme in sehr vielen Klima-Berechnungen ist beispielsweise die des hydrostatischen Gleichgewichts, bei dem man annimmt, dass sich unter- bzw. übereinanderliegende Luftschichten nicht beeinflussen. Im Ergebnis hat man das Problem um eine Dimension reduziert und erhält eine zweidimensionale Analyse des Wetters. Eine weitere Möglichkeit ist, das Gebiet zu verkleinern. Wenn ich mich nur für das Wetter um Japan in einem 24-Stunden-Zeitraum interessiere, kann ich ohne Genauigkeitsverlust einen Grossteil der Welt ignorieren.

      Und schliesslich ist da noch die asymptotische Analyse, für deren Einsatz in der Meteorologie Rupert Klein einen Leibniz-Preis erhalten hat, indem er bestehende Modelle der Meteorologie erstmals mathematisch fundiert zueinander in Beziehung setzen konnte. Dabei geht es darum, auf systematische Weise herauszufinden, welche Effekte denn nun relevant sind für das vorliegende Problem. Beispielsweise kann man die Geschwindigkeit einer Strömung über die Machzahl charakterisieren, das ist das Verhältnis von Strömungs- zu Schallgeschwindigkeit. Die Reisegeschwindigkeit eines Verkehrsflugzeugs ist etwa Mach 0.8, also knapp unterhalb der Schallgeschwindigkeit, der Jetstream bewegt sich mit Mach 0.3, am Boden typische Windgeschwindigkeiten sind aber unterhalb von Mach 0.1. Damit befasst sich die Meteorologie fast ausschliesslich mit Strömungen kleiner Machzahl und die asymptotische Analyse ergibt, dass man für Machzahl gegen Null die so genannten inkompressiblen Navier-Stokes-Gleichungen mit variabler Dichte erhält.

      Für den Wind in Fukushima derzeit irrelevant:
      Kármánsche Wirbelstraße bei den Juan-Fernandez-Inseln
      Auf diese Weise kommt man auch der Frage näher, wie man mit unterschiedlichen Zeitskalen umgeht: Der Wind in Fukushima diese Woche hängt nicht davon ab, ob ein Sack Reis umfällt, wie schnell die Gletscher schmelzen oder ob mal wieder Kármánsche Wirbelstraße bei den Juan-Fernandez-Inseln angesagt ist. Wenn ich vorhersagen will, ob ein Hurrikan entsteht, ist letzteres dagegen wichtig, während die Gletscher dann relevant sind, wenn ich Langzeitklimaprognosen betrachte. Unterschiedliche Aspekte des Wetters beeinflussen sich also auf unterschiedlichen Zeit- und Raumskalen. Hier die richtigen auszuwählen und gleichzeitig ein Modell zu finden, das die interessierenden Probleme berücksichtigt und irrelevante Phänomene ohne Genauigkeitsverluste ausblendet ist hochgradig komplex und wird noch lange Gegenstand von mathematischer und meteorologischer Forschung bleiben.

      Das zweite Problem beginnt damit, dass der ganze Punkt an der Wettervorhersage ja ist, dass wir in die Zukunft schauen wollen. Naja, das haben wir beim Tsunami ja auch schon, was ist also der Big Deal? Nun, wenn ich eine Wettervorhersage 24 Stunden im voraus machen will, kann ich zum Beispiel anschauen, wie sich das Wetter von Sekunde zu Sekunde ändert. Das klingt sinnvoll, weil es bestimmt eine ziemlich gute Vorhersage wird, nur wird die Simulationszeit vermutlich länger als 24 Stunden sein. Also wären grössere Zeitintervalle sinnvoll. Genauer gesagt erlaubt die räumliche Auflösung eine gewisse Genauigkeit und die zeitliche Auflösung sollte versuchen dieselbe zu erzielen, um sowohl unnötige Rechnungen zu vermeiden, als auch keine Genauigkeit zu verlieren. Es gibt nun grob gesagt zwei Arten von Methoden, mit denen man in die Zukunft schauen kann, explizite und implizite.

      Explizite machen wenig Arbeit pro Zeitschritt und müssen jede Unbekannte etwa dreimal speichern (ja, bei der Kubikkilometerauflösung alle 27.5 Milliarden mal drei), allerdings orientiert sich der maximale Zeitschritt an der Geschindigkeit der schnellsten Welle, das ist hier die Schallwelle mit etwas über 3000 Metern pro Sekunde, und zwar in der Hinsicht, dass diese sich pro Zeitschritt maximal einen Punkt bewegen darf. Bei einer Auflösung von "nur" zehn Kubikkilometern wären das maximal 3 Sekunden, die ein Zeitschritt lang sein darf, bei einem Kubikkilometer Auflösung nur noch 0.3 Sekunden. Das klingt nicht gut. Beim Tsunami ist es so, dass die Geschwindigkeit der Tsunamiwelle nicht wesentlich kleiner ist als der Schall, im Gegensatz zur Windgeschwindigkeit.

      Die Alternative sind implizite Verfahren, die pro Zeitschritt zwischen 10 und 100 mal teurer sind als explizite Verfahren und ausserdem noch zwischen zwei und zehnmal so viel Speicher benötigen. Wir kommen hier also in die Größenordnung von einer Trillion Werten, also soviel Geld wie Bryn und Page haben, aber noch nicht mal die haben einen Cluster, auf dem das noch handlen kann. Dafür haben implizite Verfahren nicht das obige Stabilitätsproblem, der Zeitschritt muss sich also nicht an den schnellsten Wellen orientieren, sondern nur nach Genauigkeit. Probleme, bei denen implizite Verfahren trotz der deutlich größeren Kosten pro Zeitschritt besser abschneiden als explizite Verfahren, heißen "steif" und waren Thema meiner Vorlesung in Stanford. Fans können sich das ganze ab April in Kassel nochmal anhören.

      Die neusten Arbeiten krasser Forscher zu diesem Thema sollten im April auf einem Workshop am Hochleistungsrechenzentrum in Stuttgart vorgetragen werden, aber die Organisatoren sind von NEC in Japan und haben das ganze abgesagt und murmelten etwas von Erdbeben, Tsunami und Stromausfällen wegen Reaktorunglücken...

      Es bleibt nun noch die Eingangsfrage: Wie genau sind Wettervorhersagen? Wie bei den Tsunamis werden die Simulationen vorher an den bestehenden Daten validiert, das sind dank der Wetteraufzeichnungen mittlerweile ziemlich viele gute Datensätze. Es bleibt, dass es keine mathematisch beweisbaren beliebig genauen Verfahren für das Problem gibt und für fast alle Probleme die bestehenden Verfahren auf den bestehenden Rechnern auch keine beliebig gute Genauigkeit erzielen könnten. Grob gesagt: Kurzfristige Wettervorhersagen für ein Land wie Japan können schon jetzt ausreichend genau sein, mittelfristige Wettervorhersagen sind sehr schwierig, weil die bestehenden Modelle große Probleme haben, die relevanten Phänomene rauszufiltern, Langzeitvorhersagen sind was konkrete Gebiete angeht (In Holland wird in 100 Jahren die Temperatur um X angestiegen sein), rein spekulativ, globale Aussagen lassen sich allerdings mit gewissen Techniken treffen (Im Mittel wird die Temperatur in 100 Jahren unter diesen und jenen Annahmen über Entwicklung von Gletschern und Ozeanen und Treibhausgasen um Y angestiegen sein).

      Zum Fallout in Deutschland lässt sich noch festhalten; Bei den bis jetzt ausgetretenen Mengen an Radioaktivität kann kein Wetter der Welt die radioaktiven Isotope so schnell nach Deutschland tragen, dass sie dort noch in gefährlicher Weise ankommen. Wer Angst hat, sollte deswegen nicht die Fenster zu, sondern aufmachen, um die Radonmenge zu reduzieren, das ist gerade im Winter wichtig wenn man im Erdgeschoss wohnt.

      Wers durch die diesmalige Textwüste bis hierher geschafft hat, hat natürlich wieder etwas Ablenkung verdient:
      • Habt ihr das auch manchmal, dass ihr Euch sicher seid, etwas getan zu haben, es aber nicht getan habt? Tjaha, nicht eure Schuld!
      • Angenehm nüchterner Artikel zur Frage des Islam in Deutschland, sowohl Multikulti als auch die deutsche Leitkultur sind eben nur sinnfreie Schlagworte, die nicht erklären, wie das notwendige Zusammenleben von Menschen unterschiedlicher Kultur in Deutschland funktionieren soll.
      • Wenn ihr wüsstet, dass ihr keinen freien Willen hättet, würdet ihr mehr Betrügen?
      • Visualisierung der massiven kulturellen Schieflage der englischen Wikipedia. Ich vermute, die Visualisierung der deutschen wäre noch dramatischer. 

      Dienstag, 15. März 2011

      Trifft Dich der Tsunami?

      Die Frage, wann ein Tsunami, der an einem bestimmten Ort ausgelöst wurde, eine Küste erreicht, kann mit heutigen Frühwarnsystemen recht gut beantwortet werden. Kalifornien hatte etwa zehn Stunden Zeit, sich vorzubereiten. Das reicht, um in Ruhe zu frühstücken, ein Mittagessen, eine gemütliche Fahrt zum Strand, um dann pünktlich zum Eintreffen des Tsunamis das ganze Spektakel zu beobachten oder, wie im Falle des einzigen Opfers in Kalifornien, den letzten Schnappschuss seines Lebens zu tätigen. Reif für den Darwin-Award.

      Am Tag des Tsunamis produzierten die Kollegen vom NOAA Center for Tsunami Research bereits das folgenden Video.


      Wie man sieht, ist die Frage, ob ich von einem Tsunami getroffen werde, nicht so klar zu beantworten, da die Frontwelle durch Inseln gestört, reflektiert und überlagert wird, siehe etwa die Antarktis in diesem Fall oder Teile Chiles.

      Ich dachte mir, ich versuche mal zu erklären, wie solche numerischen Simulationen eigentlich gemacht werden. Dies ist auch ein Versuch, mathematische Sachen ohne Formeln zu erklären. Nicht, weil ich das für besonders dufte halte, sondern weil Blogger leider nichts bereitstellt, um vernünftig Formeln einzugeben. Deswegen wieder mal ne Umfrage, bitte beantworten.

      Erster Schritt einer Simulation ist die Frage, welche physikalischen Gleichungen dem ganzen zu Grunde gelegt werden sollen. Als Standardgleichungen zur Beschreibung der Ausbreitung eines Tsunamis haben sich mittlerweile die so genannten Flachwassergleichungen etabliert. Diese wurden im 19. Jahrhundert vom Franzosen St. Venant aufgestellt, heißen deswegen in Frankreich auch St.-Venant-Gleichungen und stellen eine Vereinfachung der Navier-Stokes-Gleichungen unter bestimmten Annahmen dar. Nicht ganz überraschend war St. Venant am Prozess der Identifikation der Navier-Stokes-Gleichungen als Modell für Fluide beteiligt, eine der, wie treue Birchlogleser wissen, grössten wissenschaftlichen Leistungen des 19. Jahrhunderts. Die Flachwassergleichungen beschreiben, wie der Name schon andeutet, die Ausbreitung von Wellen in flachen Gewässern in Abhängigkeit vom Bodenprofil. Für Leute, die beim Anblick von Formeln nicht gleich zu Lesen aufhören, findet sich eine interessante Herleitung durch Terry Tao hier.

      Spätestens hier dürften die meisten allerdings sagen: Was haben flache Gewässer mit Tsunamis im Pazifik zu tun, der immerhin elf Kilometer tief ist? Nun, hier kommt eine der Modellannahmen ins Spiel, unter der die Gleichungen aus den Navier-Stokes-Gleichungen hergeleitet wurden: Die Wellenlänge muss im Vergleich zur Tiefe groß sein. Eine typische Wasserwelle hat eine Wellenlänge von 100 Metern, eine Tsunamiwelle dagegen jedoch von 200 Kilometern (!), was im Vergleich zur Bodentiefe des Pazifiks groß ist. Anders gesagt: Für den Tsunami ist der Pazifik flach. Zumindest bis er an den Strand kommt, woraufhin er alles kaputt macht.

      Hat man sich für eine Gleichung entschieden, muss man Daten bereitstellen, hier das Bodenprofil des Pazifiks, die Küstenlinien und Anfangsdaten wie initiale Wellengeschwindigkeiten. Diese sind nicht exakt bekannt, insbesondere ist das mit den Messstationen im Pazifik so eine Sache, dazu aber später mehr.

      Schließlich kommt die so genannte Diskretisierung. Exakte Lösungsformeln für die Flachwassergleichungen gibt es nicht. Darüberhinaus hat der Pazifik als mathematisches Gebiet betrachtet unendlich viele Punkte und damit unendlich mehr als in den Speicher eines Computers passen. Entsprechend muss eine endliche Zahl (deswegen diskret) von Punkten im Ozean ausgewählt werden (entsprechend des Bodenprofils, der Küstenlinie), mit denen im Folgenden gearbeitet wird. Damit muss nun ein Kompromiss zwischen Genauigkeit und Aufwand geschlossen werden. Gleichzeitig müssen es mindestens so viele Punkte sein, dass die relevanten Phänomene überhaupt dargestellbar sind. Eine normale Wasserwelle ist bei einer Auflösung von einem Kilometer gar nicht sichtbar. Freak Waves sowieso nicht. Eine Tsunamiwelle ist dagegen sogar bei einer geringeren Auflösung sichtbar. Das ist gut, denn bei einem Kilometer Auflösung, also einem Punkt pro Quadratkilometer wären das schon 500 Millionen Unbekannte für diese Simulation. Hinweis: Auf jedem Punkt brauchen wir zwei Geschwindigkeitskomponenten, sowie den Druck). Bei 10 Kilometern Auflösung immerhin noch 5 Millionen, das geht problemlos auf einem kleinen Cluster.

      Die diskrete Auswahl der Punkte hat ein weiteres Problem beschert: Die Flachwassergleichungen sind ein System von, jetzt kommts, hyperbolischen partiellen Differentialgleichungen, was mathematisch dafür ist, dass sie Wellenphänomene beschreiben. Der entscheidende Punkt ist, dass das Wort Differentialgleichung davon kommt dass Differentiale, also Ableitungen auftauchen. Und zwar im Raum und in der Zeit. Die Ableitung beschreibt die Steigung einer Funktion in einem Punkt. Punkte haben wir nach der eben getätigten Auswahl aber nur noch endlich viele und Funktionen gibt es überhaupt nicht mehr, eben weil die Punkte diskret sind.

      Ableitung, CC-by-sa 3.0, Honina
      Schaut man sich die obige Grafik an, wird klar, dass ich in unserem Fall in Ermangelung der Zwischenpunkte nicht von einer Sekante zur Tangente übergehen kann, indem ich den rechten Punkt auf den linken zulaufen lasse. Allerdings kann ich einfach eine Sekante durch zwei gegebene Punkte als Annäherung der Tangenten nehmen! Das nennt sich Finite-Differenzen-Verfahren. Etwas intelligenter als diese erste Idee sind Finite-Elemente- oder Finite-Volumen-Verfahren, wobei sich letztere sehr gut für die Flachwassergleichungen eignen. Sobald eine dieser Konstruktionen sowohl auf die Raum- als auch auf die Zeitableitungen angewandt wurde, ist eine, zugegebenermassen ziemlich komplizierte, Vorschrift vorhanden, wie sich die Informationen etwa zu den Wellengeschwindigkeiten mit der Zeit näherungsweise verändern. Diese programmiert man, füllt sie mit Anfangsdaten und lässt das ganze laufen.

      Wie weiß man nun, ob das ganze bei all diesen Vereinfachungen und Approximationen etwas mit der Realität zu tun hat? Die penible Antwort des Mathematikers ist: Genau weiß man es nicht. Nötig wäre für jeden der genannten Schritte eine Aussage, wie groß der entstandene Fehler ist. Nur, wie groß ist der Modellierungsfehler dadurch, dass statt der Navier-Stokes-Gleichungen die viel einfacheren Flachwassergleichungen verwendet wurden? Durch das Ignorieren des Wetters und alleinige Betrachten des Wassers? Wie ist es mit den Messfehlern im Bodenprofil und den anderen Anfangsdaten? Und die Approximation der Ableitungen? Zumindest zu letzterem gibt es mathematische Aussagen, die so etwas sagen wie: Packe mehr Punkte in die Gegend von Japan. Nur ist das manchmal gar nicht möglich oder sinnvoll, weil die dortigen Daten zu fehlerbehaftet sind. Die Kollegen vom NOAA benutzen beispielsweise "Nested Grids", das heisst wenn sie küstennahe Gebiete simulieren, werden unter die bisherigen Punkte viel feiner aufgelöste weitere Gitter gelegt. Alles in allem müssen letztlich Vergleiche mit realen Daten gemacht werden, die Simulation muss validiert werden. Konkret heisst das also, vorab Rechnungen durchzuführen, bei denen mit bereits vorhanden Tsunamidaten verglichen werden kann.

      Und das ist die Antwort des Ingenieurs: Über die Validierung kann eine Simulationssoftware soweit mit der Realität abgeglichen werden, dass man ihr vertrauen kann. Beispielsweise werden Flugzeuge heutzutage vollständig am Rechner entwickelt. Ein Gegenbeispiel war der Vulkanausbruch im April: Die von einer Londoner Meteorologengruppe bereitgestellten Schätzungen, wo sich die Aschewolke befindet, waren erheblich fehlerhaft. Ohne detaillierte Wetterdaten und in Ermangelung von Daten, wie sich Asche in dieser speziellen Zusammensetzung in der Luft ausbreitet, waren sie chancenlos, genaue Vorhersagen zu liefern. Nur ärgerlich, dass dies in der Presse nicht aufgenommen wird. Ist eben wie die Wahlumfragen, bei denen die Ungenauigkeit standardmässig nicht mitgeteilt wird. Meiner Meinung nach fahrlässige Irreführung.

      Was ist nun, wenn die Validierung ergibt, dass die Simulation fehlerhaft ist? Dann muss man die vorherigen Schritte nochmal durchgehen und überlegen, wo etwas falsch gemacht wurde. Wurde in den Modellgleichungen etwas wesentliches vergessen? Waren die Daten zu schlecht? Zu wenig Punkte? Das Verfahren zur Approximation der Ableitungen ungenügend? Dann gilt es, nachzubessern und erneut zu validieren.

      Ansonsten:
      • Aufklärung erbeten: Steve Nash schwanger?
      • Erde dreht sich nun schneller. 
      • Für den Fall, dass sich unter den Lesern nichtregelmäßige XKCD-Leser befinden. 
      • Der neue Denis Rodman ist ein guter Junge? That ain't right! "So that's why, every time I play, I just tell myself every rebound I get is going to add an extra day to her life."
      • Sommerzeit for the win: Hier war schon Umstellung, fliege in zehn Tagen vor der deutschen Umstellung, also eine Stunde weniger Jetlag!

      Dienstag, 8. März 2011

      Mathematik ist ueberall

      Vor ein paar Wochen hatte ich mich mit der Frage auseinandergesetzt, ob die Mathematik geeignet ist, die Welt zu erklaeren und dazu gesagt, das Mathematik unglaublich nuetzlich dafuer ist, Simulationen zu liefern, aber nicht unbedingt, um die Welt zu erklaeren. Dies fuehrte zu sehr lesenswerten Kommentaren der Maeusezuechterfraktion, in denen insbesondere gefragt wurde, wann denn die Mathematik endlich aus ihrem Elfenbeinturm komme, um ihren rechtmaessigen Platz im Kampf gegen die Unbildung aufzunehmen.

      Letzte Woche war ich in Reno auf einer Konferenz zu dem, was sich heute Computational Mathematics and Engineering nennt. Kurz zu Reno: Wie Lawrence Friedman mir erklaert hat, hatte Nevada, obwohl ein Staat seit 1864, Ende des 19. Jahrhunderts unter 100.000 Einwohner. Ein Staat zu sein, bedeutete aber auch viele Freiheiten und damit wurde in Nevada im wesentlichen alles erlaubt, was in allen anderen Staaten verboten war: Unkomplizierte Heiratsschliessungen und Scheidungen, Gluecksspiel und Prostitution (Ja, in Kalifornien darf man Leute dafuer bezahlen, es miteinander zu treiben und sie dabei zu filmen, aber nicht, es mit einem selbst zu tun). Die Massnahmen griffen und so hat Nevada heutzutage eine ansehnliche Population, die aber oekonomisch fast ausschliesslich vom Tourismus abhaengt. Reno ist also wie Las Vegas, nur in haesslich und nicht in der Wueste. Und mein Laptop ist kaputt gegangen. Bin jetzt Mac-Besitzer (der Dual Core i7 im MacBook Pro hat mich schwach gemacht) und muss sagen: TeXShop begeistert.

      Wie dem auch sei, die Konferenz war hochinteressant, alle haben dieselben Probleme was Softwareentwicklung im akademischen Bereich angeht und es herrscht eine gewisse Unsicherheit, wie mit der zukuenftigen Hardwareentwicklung umzugehen ist, etwa mit GPUs. Ich moechte kurz die Eingangsfrage beantworten: Mathematik ist ueberall. Das ist ein Slogan, der beispielsweise im Jahr der Mathematik benutzt wurde. Er ist abgedroschen. Aber er ist wahr.

      Folgende Anwendungen wurden nur in den Vortraegen die ich besucht habe, behandelt:
      -Flattern einer F-16 und wie man dies mit einem kleinen Onboard-Computer vorhersagen kann. Sauschwierig. Geht jetzt wohl mit einer iPhone-App.
      -Statik beim Brueckenbau
      -Simulation des Wachstums von Krebszellen (noch nicht in realistischer Weise moeglich)
      -Simulation des Blutflusses im Hirn bei der Behandlung von Aneurismen (mittlerweile moeglich, das Thema fuehrte aber bei einem Anwesenden zur Ohnmacht)
      -Simulation der elektrischen Stroeme in Halbleitern zwecks Chip-Design (Standard bei Infineon et. al.)
      -Nukleare Reaktoren vom Tokamak-Typ. Anders gesagt: Die amerikanischen National Laboratories erhalten 100 Millionen aus dem ITER-Projekt, um bei Beginn der Experimente den Experimentatoren ueber numerische Simulationen die wichtigen Experimente nennen zu koennen, um so die Zahl der Experimente und damit Kosten und Zeit massiv zu reduzieren.
      -Der Film Avatar: Die Firma Weta, die nicht nur fuer diesen Film die digitalen Effekte gemacht hat, ist bekannt dafuer, realistische digitale Effekte zu produzieren. Warum ist das so? Weil sie versuchen, die Welt durch numerische Simulation so gut wie moeglich nachzuempfinden. Grobe numerische Fluidsimulation fuer die Generation von realistisch aussehenden Wellen ist mittlerweile Standard in der Computergrafik. Ebenso bei der Darstellung von Stoff in Kleidung oder wehendem Haar. Neu bei Avatar war, dass die Gesichter der Aliens ebenfalls simuliert wurden. Hinter der Mimik steckt also ein Modell von partiellen Differentialgleichungen fuer die Mechanik der Muskeln und Knochen, gepaart mit einem Finite-Elemente-Verfahren fuer deren Loesung.
      -Simulation von Oelreservoirs
      -Verarbeitung von gigantischen Datenmengen am Beispiel des Planetary Skin Institutes, welches Fotos von NASA-Satelliten nutzt, die von jeden Punkt der Erde einmal am Tag ein Bild liefern, um Zeitreihen von Dingen auf der Erde zu gestalten, beispielsweise der Entwicklung von Waeldern oder Nahrungsquellen.
      -Wettervorhersage (wird schon seit Ewigkeiten nicht mehr vom Wetterfrosch, sondern mittels numerischer Simulation gemacht).
      -Simulation von Sonneneruptionen zur Vorhersage von magnetischen Stuermen
      -Bestimmung der Flugform von Fledermausfluegeln
      -Kuehlstrategien bei der Stahlumformung (ganz krasse Forscher!).
      -Design von Formel-1-Autos (Dort ist numerische Stroemungssimulation mittlerweile Standard)

      Diese Entwicklung wird noch laenger so weitergehen: Die bahnbrechenden Resultate der Mathematik des 20. Jahrhunderts, gepaart mit der Entwicklung von Computern erlauben es nun schon kleinen Firmen, numerische Simulationen zu verwenden. In zehn Jahren wird das Handy-Taschencomputerdingens vibrieren, wenn wir beim Rausgehen keinen Schirm dabei haben, obwohl unsere Terminkalender-Software berechnet hat, dass wir am Nachmittag im Regen auf den Bus warten werden. Die Mathematik dahinter: Nur mit Promotion in Mathematik nachvollziehbar und fuer den Anwender absolut unsichtbar.

      Und mal wieder ein paar Schnipsel:
      Creative Commons Lizenzvertrag
      Birchlog von P. Birken steht unter einer Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz.
      Beruht auf einem Inhalt unter birchlog.blogspot.com.