POPULARITY
Tonight's Guest WeatherBrain is the Chief Editor of the Monthly Weather Review and previously appeared on the show back in May and is one of the most well respected and well-known meteorologists on the planet. He is is Professor of Synoptic Meteorology in the School of Earth, Atmospheric and Environmental Sciences at the University of Manchester. Dr. David Schultz, welcome back to the show!
Tonight's Guest WeatherBrain is the Chief Editor of the Monthly Weather Review. He's at the University of Manchester in the UK. He earned his undergraduate degree at MIT and then studied at the University of Washington for his Masters. He then attended New York State University for his phD. He then worked at NSSL, and then became a Professor of Experimental Meteorology at the University of Helsinki. David Shultz, welcome! Joining as Guest Panelist is meteorologist and weather historian Sean Potter. Thanks for joining us!
As part of our celebration of 150 years of Monthly Weather Review, we are sharing a wonderful conversation between Lance Bosart, Distinguished Professor of Atmospheric & Environmental Sciences at the University at Albany, State University of New York, and Louis Uccellini, recently retired director of the National Weather Service, about their seminal research around the Presidents' Day Cyclone of 1979, which sparked a lot of debate on extratropical cyclone development. This conversation was moderated by the Monthly Weather Review's Chief Editor David Schultz, and recorded in front of a live audience at the University at Albany on 17 November 2021. A very special thanks to Professor Emeritus Vince Idone for recording this conversation. Learn more about Monthly Weather Review's 150th Anniversary celebration at www.ametsoc.org/MWR150.Follow us on...Twitter: www.twitter.com/AMSontheAirFacebook: www.facebook.com/AMSontheAirInstagram: www.instagram.com/amsontheair AMS website: www.ametsoc.org/ontheairMusic used in this podcast is from...Nostalgia by The Zombie Dandies is licensed under an Attribution License.Makie Elkino by William Ross Chernoff's Nomads is licensed under an Attribution License.
In this weeks Prophecy Update with Tom Hughes “It's Worse Than We Think” we look at what they are telling us versus what they are actually doing! In the opening article of this update, note that the original article was actually from the November 1922 Monthly Weather Review and the Washington Post used some of the info. You can click on the link below and download the .pdf to find the wording from the Washington Post article starting towards the bottom left column, under “Changing Arctic.” Articles featured in this weeks update: https://journals.ametsoc.org/view/journals/mwre/50/11/1520-0493_1922_50_589a_tca_2_0_co_2.xml https://agendaweekly.com/the-art-of-war-understanding-the-ancient-strategy-used-by-marxists-today/ If you'd like to support our ministry, please visit: https://hopeforourtimes.churchcenter.com/giving Connect with Pastor Tom! --- Stay Connected: https://hopeforourtimes.com/connect/ Facebook: https://www.facebook.com/TomHughesEndTimes Instagram: https://www.instagram.com/pastortomhughes/ Rumble: https://rumble.com/c/HopeForOurTimes Website: https://hopeforourtimes.com
Gudrun spricht mit Sebastian Lerch vom Institut für Stochastik in der KIT-Fakultät für Mathematik. Vor einiger Zeit - Anfang 2015 - hatten die beiden schon darüber gesprochen, wie extreme Wetterereignisse stochastisch modelliert werden können. Diesmal geht es um eine Lehrveranstaltung, die Sebastian extra konzipiert hat, um für Promovierende aller Fachrichtungen am KIT eine Einführung in Machine Learning zu ermöglichen. Der Rahmen hierfür ist die Graduiertenschule MathSEED, die ein Teil des im Oktober 2018 gegründeten KIT-Zentrums MathSEE ist. Es gab schon lange (und vielleicht immer) Angebote am KIT, die insbesondere Ingenieure an moderne Mathematik heranführten, weil sie deren Methoden schon in der Masterphase oder spätestens während der Promotion brauchten, aber nicht durch die klassischen Inhalten der Höheren Mathematik abgedeckt werden. All das wird nun gebündelt und ergänzt unter dem Dach von MathSEED. Außerdem funktioniert das nun in beide Richtungen: Mathematiker:innen, werden ebenso zu einführenden Angeboten der anderen beteiligten Fakultäten eingeladen. Das Thema Maschinelles Lernen und Künstliche Intelligenz war ganz oben auf der Wunschliste für neu zu schaffende Angebote. Im Februar 2020 hat Sebastian diese Vorlesung erstmalig konzipiert und gehalten - die Übungen wurden von Eva-Maria Walz betreut. Die Veranstaltung wird im Herbst 2020 wieder angeboten. Es ist nicht ganz einfach, die unterschiedlichen Begriffe, die für Künstliche Intelligenz (kurz: KI) benutzt werden gegeneinander abzutrennen, zumal die Sprechweisen in unterschiedlichen Kontexten unterschiedlich sind. Hinzu tritt, dass mit der Verfügbarkeit großer Datenmengen und der häufigen Nutzung von KI und Big Data gemeinsam auch hier vieles vermischt wird. Sebastian defininiert Maschinelles Lernen als echte Teilmenge von KI und denkt dabei auch daran, dass z.B. symbolisches Rechnen KI ist. Ebenso geben schon lange sogenannte Expertensysteme Hilfestellung für Entscheidungen. Hier geben Regeln ein Programm vor, das Daten-Input zu einem Output verwandelt. Heute denken wir bei KI eher daran, dass z.B. der Computer lernt wie ein Bild eines Autos aussieht, ohne dass dafür klare Regeln vorgegeben werden. Dies ist eher vergleichbar damit, wie Kinder lernen. Die modernste Variante ist sogenanntes Deep Learning auf der Basis von Neuronalen Netzen. Die Abgrenzung zu statistischen Verfahren ist mitunter nicht so klar. Das Neuronale Netz wird dabei eine Black Box, was wissenschaftlich arbeitende Menschen nicht ganz befriedigt. Aber mit ihrer Hilfe werden komplexere Probleme lösbar. Forschung muss versuchen, die Entscheidungen der Black Box nachvollziehbar zu machen und entscheiden, wann die Qualität ausreicht. Dazu muss man sich überlegen: Wie misst man Fehler? In der Bildverarbeitung kann es genügen, z.B. falsch erkannte Autos zu zählen. In der Wettervorhersage lässt sich im Nachhinein feststellen, welche Fehler in der Vorhersage gemacht wurden. Es wird unterschiedliche Fehlertoleranzen geben für Erkennung von Fußgängern für selbst fahrende Autos und für die Genauigkeit von Wettervorhersage. Ein Beispiel in der Übung war die Temperaturvorhersage anhand von vorliegenden Daten. Die Vorhersage beruht ja auf physikalischen Modelle in denen die Entwicklung von Temperatur, Luftdruck und Windgeschwindigkeit durch Gleichungssysteme nachgebildet wird. Aber diese Modelle können nicht fehlerfrei berechnet werden und sind auch recht stark vereinfacht. Diese Fehler werden mit Hilfe von KI analysiert und die Ergebnisse für die Verbesserung der Vorhersage benutzt. Ein populäres Verfahren sind Random Forests oder Entscheidungsbäume. Hier werden komplexe Fragen stufenweise zerlegt und in den Stufen einfache Ja- oder Nein-Fragen beantwortet. Dies wird z.B. angewandt in der Entscheidung ob und wo eine Warnung vor einer Gewitterzelle erfolgen sollte. Sehr bekannt und im praktischen Einsatz erprobt (beispielsweise in der Bildverarbeitung und in der Übersetzung zwischen gebräuchlichen Sprachen) sind Neuronale Netze. In mehrern Schichten sind hier sogenannte Neuronen angeordnet. Man kann sich diese wie Knoten in einem Netz vorstellen, in dem Daten von Knoten zu Knoten transportiert werden. In den Knoten werden die ankommenden Daten gewichtet aufaddiert und eine vorher festgelegte Aktivierungsfunktion entscheidet, was an die nächsten Knoten oder die nächste Schicht von Neuronen weitergegeben wird. Die einzelnen Rechenoperationen sind hier also ganz elementar, aber das Zusammenwirken ist schwer zu analysieren. Bei vielen Schichten spricht man von Deep Learning. Das ist momentan noch in den Kinderschuhen, aber es kann weit reichende Konsequenzen haben. In jedem Fall sollte man Menschen im Entscheidungsprozess beteiligen. Die konkrete Umsetzung hat Sebastian als Vorlesung und Übung zu gleichen Teilen gewählt. Er hat einen Schwerpunkt auf einen Überblick zu methodischen Aspekten gelegt, die die Teilnehmenden dazu befähigt, später selbst weiter zu lernen. Es ging also unter anderem darum, wie man Trainingsdaten auswählt, wie Qualitätssicherung funktioniert, wie populäre Modelle funktionieren und wie man einschätzt, dass die Anpassung an Daten nicht zu stark erfolgt. In der Übung fand großen Anklang, dass ein Vorhersagewettbewerb der entwickelten Modelle durch Kaggle competions online live möglich war. Literatur und weiterführende Informationen Forschungsergebnisse mit Hilfe von Maschinen Lernen, an denen Sebastian Lerch beteiligt ist: M.N. Lang e.a.: Remember the past: A comparison of time-adaptive training schemes for non-homogeneous regression Nonlinear Processes in Geophysics, 27: 23–34 2020. (eher stochastisch) S. Rasp und S. Lerch: Neural networks for post-processing ensemble weather forecasts Monthly Weather Review, 146(11): 3885–3900 2018. Lehrbücher T. Hastie, R. Tibshirani, J. Friedman: The Elements of Statistical Learning Springer 2017 (2nd Edition). G. James, D. Witten, T. Hastie and R. Tibshirani: An Introduction to Statistical Learning Springer 2013 (7nd Edition) I. Goodfellow and Y. Bengio and A. Courville: Deep Learning MIT-Press 2016. Online Kurse Pytorch-based Python library fastai Deeplearning Dystopie für alltägliche KI C. Doctorow: Little Brother Tor Teen, 2008. download beim Author C. Doctorow: Homeland Tor Books, 2013, ISBN 978-0-7653-3369-8 im Gespräch angesprochene Bildbearbeitung, die eigene Fotos mit Kunstwerken verschmilzt Meetups im Umland von Karlsruhe Karlsruhe ai Meetup Heidelberg ai Meetup Machine Learning Rhein-Neckar (Mannheim) Podcasts Leben X0 - Episode 6: Was ist Machine Learning? November 2019. Streitraum: Intelligenz und Vorurteil Carolin Emcke im Gespräch mit Anke Domscheit-Berg und Julia Krüger, 26. Januar 2020 P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019.
Jeff sits down with Monthly Weather Review Chief Editor Dave Schultz and authors Clark Evans, Kimberly Wood, and Julia Keller to discuss the finding of their two-part review article as well as their experience with the Monthly Weather Review peer review process. The Extratropical Transition of Tropical Cyclones. Part I: Cyclone Evolution and Direct Impacts by Evans et al. (2017) The Extratropical Transition of Tropical Cyclones. Part II: Interaction with the Midlatitude Flow, Downstream Impacts, and Implications for Predictability by Keller et al. (2019) If you have an article or review paper you'd like to submit to the Monthly Weather Review, visit www.ametsoc.org/submit. Follow us on... Twitter: twitter.com/AMSontheAir Facebook: facebook.com/AMSontheAir Instagram: instagram.com/amsontheair AMS website: ametsoc.org/ams/index.cfm/about-ams/ams-on-the-air/ Music used in this podcast is from... Dandy's Little Monsters by The Zombie Dandies is licensed under an Attribution License. Aim to Stay by William Ross is licensed under an Attribution License.
Jeff sits down with Monthly Weather Review Chief Editor Dave Schultz and authors Clark Evans, Kimberly Wood, and Julia Keller to discuss the finding of their two-part review article as well as their experience with the Monthly Weather Review peer review process. The Extratropical Transition of Tropical Cyclones. Part I: Cyclone Evolution and Direct Impacts by Evans et al. (2017) The Extratropical Transition of Tropical Cyclones. Part II: Interaction with the Midlatitude Flow, Downstream Impacts, and Implications for Predictability by Keller et al. (2019) If you have an article or review paper you'd like to submit to the Monthly Weather Review, visit www.ametsoc.org/submit. Follow us on... Twitter: twitter.com/AMSontheAir Facebook: facebook.com/AMSontheAir Instagram: instagram.com/amsontheair AMS website: ametsoc.org/ams/index.cfm/about-ams/ams-on-the-air/ Music used in this podcast is from... Dandy's Little Monsters by The Zombie Dandies is licensed under an Attribution License. Aim to Stay by William Ross is licensed under an Attribution License.
Bombogenesis Stella’s Bombogenesis Explosive cyclogenesis Rossby Waves Smarter Every Day : Prince Rupert’s Drop GEMPAK Bergen School of Meteorology Norwegian Cyclone Model Trough Sanders, Frederick, and John R. Gyakum. “Synoptic-dynamic climatology of the “bomb”.” Monthly Weather Review 108.10 (1980): 1589–1606. Fun Paper Friday Freezing water can explode? Yep! Find out how in this week’s fun paper friday! Live Science Summary w/ Video Wildeman, Sander, et al. “Fast Dynamics of Water Droplets Freezing from the Outside In.” Physical Review Letters 118.8 (2017): 084101. Sessile drop (contact angle) technique Contact us: Show - www.dontpanicgeocast.com - SWUNG Slack - @dontpanicgeo - show@dontpanicgeocast.com John Leeman - www.johnrleeman.com - @geo_leeman Shannon Dulin - @ShannonDulin
Stephan Hemri hat an der ETH in Zürich einen Bachelorstudiengang Umweltwissenschaften absolviert und sein Studium mit einem Master in Statistik abgerundet. Seine Masterarbeit entstand an der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft (WSL). Hierbei hat er auch statistisches Postprocessing kennengelernt. Mit diesem Wissen und dem vorhandenen Interesse übernahm er ein Promotionsthema von Tilmann Gneitling am Lehrstuhl für Computational Statstics an der KIT-Fakultät für Mathematik und am Heidelberger Institut für Theoretische Studien. Zu den Höhepunkten dieser Zeit zählt er die vier Monate, die er am Europäischen Wetterzentrum (Zentrum für Mittelfristprognose) in Reading mitforschen konnte. Schon seit langem werden für die Wettervorhersage numerische Modelle eingesetzt. Dabei werden Größen wie zum Beispiel Temperatur und Niederschlag auf einem globalen 3-dimensionale Gitter durch das Lösen von großen gekoppelten und nichtlinearen Gleichungssystemen bestimmt, die aus physikalischen Modellen hergeleitet sind, nach denen sich Luftmassen und Wasser in der Atmosphäre in etwa bewegen und dabei unser Wetter erzeugen. Ebenso wichtig - wenn auch weniger bekannt - sind hydrologische Vorhersagen zu Pegelständen an Flüssen, die mit ähnlichen Methoden für einige Zeit im voraus berechnet werden. Zu Beginn waren die damit verbundenen Rechnungen rein deterministisch, was den großen Nachteil hatte, dass die Ergebnisse der Modellläufe nichts über Unsicherheiten der Vorhersage aussagen konnten. Eine Idee, um Ungenauigkeiten der Modellrechnungen zu bestimmen, ist zu Ensemblevorhersagen überzugehen. Das heißt, man berechnet nicht nur eine Vorhersage, sondern mehrere Modelläufe, jeweils zu abgeänderten (gestörten) Anfangsbedingungen oder mit verschiedenen Modellen, um zu sehen, wie stark sie sich in den Ergebnissen unterscheiden. Sind sich die verschiedenen Rechnungen weitestgehend einig, ist die Vorhersage recht sicher zutreffend. Weichen sie stark voneinander ab, sind sie entsprechend wenig sicher. Die Datenlage in der Wettervorhersage ist sehr gut. Insofern, kann man natürlich im Nachgang immer abgleichen, inwiefern Vorhersagen eingetroffen sind und dies zur Verbesserung der Modelle benutzen. Aber trotzdem bleiben konkrete Aussagen wie z.B. Hochwasservorhersagen oder Vorhersagen zu Pegeln anhand von Niederschlags-Daten sehr schwierig, weil die Modelle nicht ausgereift sind und die Verbesserung nicht auf der Hand liegt. Zum Beispiel am Europäischen Wetterzentrum in Reading ist derzeit ein Ensemble bestehend aus 51 Modellenvarianten verfügbar. Zusammen mit einem deterministischen Modell höherer Auflösung, führt dies zu einem recht großen Ensemble von Vorhersagen. In der statistischen Nachbearbeitung (dem Postprocessing) wird vor allem nach systematischen Fehlern Ausschau gehalten. Dabei werden bedingte Wahrscheinlichkeits-Vorhersagen auf das Ensemble bezogen und parametrische Dichtefunktionen erzeugt. Als Trainingsperiode werden dabei z.B. die letzten 30 Tage gewählt. Bei hydrologischen Abschätzungen sind jahreszeitliche Trainingsperioden (gleiche Jahreszeiten, aber andere Jahre) häufig sehr hilfreich. Dieses Vorgehen führt in der Regel zu einer besseren Schätzung des zukünftigen Wetters und Pegelständen. Für die Temperatur kann man sich das Vorgehen am einfachsten vorstellen: Es gibt einen Ensemble-Mittelwert, dessen Fehler in etwa normalverteilt ist. Bei der Nachbearbeitung wird z.B. der Mittelwert-Parameter an den Mittelwert des Ensembles in linearer Weise angepasst. Auch die Varianz ist in erster Näherung eine lineare Funktion der Varianz des Ensembles. Das ist ein sehr einfaches Modell, aber schon hilfreich. Zwei grundlegende Ideen gehen in der Parameterschätzung ein. Zum einen nichthomogene Regression, die gut verstanden aber nicht so flexibel ist - zum anderen Baysean Model averaging. Über allen statistischen Verfahren und Verbesserungen bleibt jedoch auch die Forderung, dass die Nutzbarkeit der Ergebnisse für den Endnutzer gegeben sein muss. Deshalb wird - gerade bei Wasserstandsvorhersagen - manchmal dann doch nur ein zu erwartender Pegelstand übermittelt ohne alle im Prozess gewonnenen Erkenntnisse über mögliche Abweichungen von diesem approximativen Wert mitzuteilen. Literatur und weiterführende Informationen Cloke, H. L. and F. Pappenberger (2009). Ensemble flood forecasting: a review. Journal of Hydrology 375, 613--626. Gneiting, T., A. E. Raftery, A. H. Westveld, and T. Goldman (2005). Calibrated probabilistic forecasting using ensemble model output statistics and minimum CRPS estimation. Monthly Weather Review 133, 1098--1118. Raftery, A. E., T. Gneiting, F. Balabdoui, and M. Polakowski (2005). Using Bayesian model averaging to calibrate forecast ensembles, Monthly Weather Review 133, 1155--1174. Thorarinsdottir, T. L. and T. Gneiting (2010). Probabilistic forecasts of wind speed: ensemble model output statistics by using heteroscedastic censored regression, Journal of the Royal Statistical Society (Series A) 173, 371--388.
In this episode: NOS Responds to Yellowstone River Oil Spill. NOS is on hand to assist with last month's oil spill on the Yellowstone River in Montana. NOAA Study May Help East Coast Prepare for El Nino Years. Coastal communities along the U.S. East Coast may be at risk of higher sea levels accompanied by more destructive storm surges during future El Nino years, according to a new NOAA study published in the Monthly Weather Review, a journal of the American Meteorological Society (AMS). NOS Ocean Fact. What does peanut butter have to do with the ocean?