Hurrikan Milton: Wie Game-Engines bei Extremwetter eingesetzt werden
Extremwetterereignisse, die viele Todesopfer fordern können, werden durch den Klimawandel immer häufiger. Doch trotz eindringlicher Warnungen von Meteorologen und den Behörden vor Ort klammern sich manche Menschen in den betroffenen Regionen an die irrationale Hoffnung, dass letztendlich alles vielleicht doch nicht so schlimm kommen wird, wie befürchtet.
Um die Menschen in Miami vor dem aktuell wütenden Hurrikan Milton zu warnen, der im Vorfeld bereits als Jahrhundertsturm eingestuft wurde, hat sich The Weather Channel eines immersiven und eigens für derartige Ereignisse entwickelten Tools bedient. Die sogenannte FloodFX-Simulation basiert auf der Unreal Engine von Epic Games und nutzt neben Wetterdaten Mixed Reality, um Vorhersagen so anschaulich wie möglich zu präsentieren
Die Simulation soll die drohende Gefahr drastisch verdeutlichen
Das Ziel dahinter: Wer derart realistisch vor Augen geführt bekommt, wie hoch in diesem Fall die Sturmflut des Hurrikans werden wird und was das konkret bedeutet, wird sein Zuhause eher verlassen und sich hoffentlich an einem geeigneten Ort in Sicherheit bringen.
Wie genau diese Simulation aussieht, zeigt ein auf X geteiltes Video der Wettervorhersage. Inmitten des virtuellen Raums des Fernsehstudios wird die Moderatorin Stephanie Abrams von Wasser in verschiedenen Höhen umspült.
Flutwellen sind schon ab 1 Meter Höhe lebensgefährlich
Dabei erläutert sie, dass Wasser schon in Höhe von einem Meter Autofahren und damit eigenständige Evakuierungen unmöglich macht und bereits lebensgefährlich ist. Bei einem höheren Pegel schwimmen Fahrzeuge bereits unkontrolliert auf den Fluten, Gebäude stürzen ein und selbst in stabilen Bauten sollte man sich dann in einem höheren Stockwerk befinden.
Das ist besonders wichtig, weil bei Milton in manchen Gegenden eine Flutwelle von bis zu 4,5 Metern vorhergesagt wurde. Gegenüber der auf Computerspiel-Berichterstattung spezialisierten Webseite Kotaku.com hat Unreal erläutert, wie Live-Wetterdaten und die eigene Grafik-Engine für die Mixed-Reality-Präsentationen zusammenarbeiten.
Die Mixed-Reality-Präsentationen beziehen Live-Wetterdaten ein
Das traditionelle Broadcast-Setup mit Kameras und Greenscreen-Set laufe parallel mit der Reality Engine von Zero Density, einem Echtzeit-Broadcasting-Compositing-System auf Basis der Unreal Engine. VFX-Künstler erstellten Wettereffekte wie Regen, Flutwellen, Schnee oder Feuer im Niagara VFX-System der Unreal Engine und Animationen würden vom nichtlinearen und mehrspurigen Editor Sequencer gesteuert.
Dazu würden Live-Wetterdaten über die API importiert und zum Erstellen von Grafiken und 3D-Diagrammen benutzt. Mike Chesterfield, Vizepräsident für Wetterpräsentation und Datenvisualisierung beim Weather Channel, fasst die Bedeutung der Technologie so zusammen:
„Dieser Ansatz macht die potenzielle Verwüstung auf eine Weise lebendig, die Worte und Warnungen allein oft nicht können.“ Es sei schwer, die Bedrohung zu ignorieren, wenn man sie erst einmal mit eigenen Augen gesehen habe.
7 Games, die den Klimawandel spielbar machen: