Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erf…
Gudrun Thäter, Sebastian Ritterbusch
In this episode Gudrun speaks with Nadja Klein and Moussa Kassem Sbeyti who work at the Scientific Computing Center (SCC) at KIT in Karlsruhe. Since August 2024, Nadja has been professor at KIT leading the research group Methods for Big Data (MBD) there. She is an Emmy Noether Research Group Leader, and a member of AcademiaNet, and Die Junge Akademie, among others. In 2025, Nadja was awarded the Committee of Presidents of Statistical Societies (COPSS) Emerging Leader Award (ELA). The COPSS ELA recognizes early career statistical scientists who show evidence of and potential for leadership and who will help shape and strengthen the field. She finished her doctoral studies in Mathematics at the Universität Göttingen before conducting a postdoc at the University of Melbourne as a Feodor-Lynen fellow by the Alexander von Humboldt Foundation. Afterwards she was a Professor for Statistics and Data Science at the Humboldt-Universität zu Berlin before joining KIT. Moussa joined Nadja's lab as an associated member in 2023 and later as a postdoctoral researcher in 2024. He pursued a PhD at the TU Berlin while working as an AI Research Scientist at the Continental AI Lab in Berlin. His research primarily focuses on deep learning, developing uncertainty-based automated labeling methods for 2D object detection in autonomous driving. Prior to this, Moussa earned his M.Sc. in Mechatronics Engineering from the TU Darmstadt in 2021. The research of Nadja and Moussa is at the intersection of statistics and machine learning. In Nadja's MBD Lab the research spans theoretical analysis, method development and real-world applications. One of their key focuses is Bayesian methods, which allow to incorporate prior knowledge, quantify uncertainties, and bring insights to the “black boxes” of machine learning. By fusing the precision and reliability of Bayesian statistics with the adaptability of machine and deep learning, these methods aim to leverage the best of both worlds. The KIT offers a strong research environment, making it an ideal place to continue their work. They bring new expertise that can be leveraged in various applications and on the other hand Helmholtz offers a great platform in that respect to explore new application areas. For example Moussa decided to join the group at KIT as part of the Helmholtz Pilot Program Core-Informatics at KIT (KiKIT), which is an initiative focused on advancing fundamental research in informatics within the Helmholtz Association. Vision models typically depend on large volumes of labeled data, but collecting and labeling this data is both expensive and prone to errors. During his PhD, his research centered on data-efficient learning using uncertainty-based automated labeling techniques. That means estimating and using the uncertainty of models to select the helpful data samples to train the models to label the rest themselves. Now, within KiKIT, his work has evolved to include knowledge-based approaches in multi-task models, eg. detection and depth estimation — with the broader goal of enabling the development and deployment of reliable, accurate vision systems in real-world applications. Statistics and data science are fascinating fields, offering a wide variety of methods and applications that constantly lead to new insights. Within this domain, Bayesian methods are especially compelling, as they enable the quantification of uncertainty and the incorporation of prior knowledge. These capabilities contribute to making machine learning models more data-efficient, interpretable, and robust, which are essential qualities in safety-critical domains such as autonomous driving and personalized medicine. Nadja is also enthusiastic about the interdisciplinarity of the subject — repeatedly changing the focus from mathematics to economics to statistics to computer science. The combination of theoretical fundamentals and practical applications makes statistics an agile and important field of research in data science. From a deep learning perspective, the focus is on making models both more efficient and more reliable when dealing with large-scale data and complex dependencies. One way to do this is by reducing the need for extensive labeled data. They also work on developing self-aware models that can recognize when they're unsure and even reject their own predictions when necessary. Additionally, they explore model pruning techniques to improve computational efficiency, and specialize in Bayesian deep learning, allowing machine learning models to better handle uncertainty and complex dependencies. Beyond the methods themselves, they also contribute by publishing datasets that help push the development of next-generation, state-of-the-art models. The learning methods are applied across different domains such as object detection, depth estimation, semantic segmentation, and trajectory prediction — especially in the context of autonomous driving and agricultural applications. As deep learning technologies continue to evolve, they're also expanding into new application areas such as medical imaging. Unlike traditional deep learning, Bayesian deep learning provides uncertainty estimates alongside predictions, allowing for more principled decision-making and reducing catastrophic failures in safety-critical application. It has had a growing impact in several real-world domains where uncertainty really matters. Bayesian learning incorporates prior knowledge and updates beliefs as new data comes in, rather than relying purely on data-driven optimization. In healthcare, for example, Bayesian models help quantify uncertainty in medical diagnoses, which supports more risk-aware treatment decisions and can ultimately lead to better patient outcomes. In autonomous vehicles, Bayesian models play a key role in improving safety. By recognizing when the system is uncertain, they help capture edge cases more effectively, reduce false positives and negatives in object detection, and navigate complex, dynamic environments — like bad weather or unexpected road conditions — more reliably. In finance, Bayesian deep learning enhances both risk assessment and fraud detection by allowing the system to assess how confident it is in its predictions. That added layer of information supports more informed decision-making and helps reduce costly errors. Across all these areas, the key advantage is the ability to move beyond just accuracy and incorporate trust and reliability into AI systems. Bayesian methods are traditionally more expensive, but modern approximations (e.g., variational inference or last layer inference) make them feasible. Computational costs depend on the problem — sometimes Bayesian models require fewer data points to achieve better performance. The trade-off is between interpretability and computational efficiency, but hardware improvements are helping bridge this gap. Their research on uncertainty-based automated labeling is designed to make models not just safer and more reliable, but also more efficient. By reducing the need for extensive manual labeling, one improves the overall quality of the dataset while cutting down on human effort and potential labeling errors. Importantly, by selecting informative samples, the model learns from better data — which means it can reach higher performance with fewer training examples. This leads to faster training and better generalization without sacrificing accuracy. They also focus on developing lightweight uncertainty estimation techniques that are computationally efficient, so these benefits don't come with heavy resource demands. In short, this approach helps build models that are more robust, more adaptive to new data, and significantly more efficient to train and deploy — which is critical for real-world systems where both accuracy and speed matter. Statisticians and deep learning researchers often use distinct methodologies, vocabulary and frameworks, making communication and collaboration challenging. Unfortunately, there is a lack of Interdisciplinary education: Traditional academic programs rarely integrate both fields. It is necessary to foster joint programs, workshops, and cross-disciplinary training can help bridge this gap. From Moussa's experience coming through an industrial PhD, he has seen how many industry settings tend to prioritize short-term gains — favoring quick wins in deep learning over deeper, more fundamental improvements. To overcome this, we need to build long-term research partnerships between academia and industry — ones that allow for foundational work to evolve alongside practical applications. That kind of collaboration can drive more sustainable, impactful innovation in the long run, something we do at methods for big data. Looking ahead, one of the major directions for deep learning in the next five to ten years is the shift toward trustworthy AI. We're already seeing growing attention on making models more explainable, fair, and robust — especially as AI systems are being deployed in critical areas like healthcare, mobility, and finance. The group also expect to see more hybrid models — combining deep learning with Bayesian methods, physics-based models, or symbolic reasoning. These approaches can help bridge the gap between raw performance and interpretability, and often lead to more data-efficient solutions. Another big trend is the rise of uncertainty-aware AI. As AI moves into more high-risk, real-world applications, it becomes essential that systems understand and communicate their own confidence. This is where uncertainty modeling will play a key role — helping to make AI not just more powerful, but also more safe and reliable. The lecture "Advanced Bayesian Data Analysis" covers fundamental concepts in Bayesian statistics, including parametric and non-parametric regression, computational techniques such as MCMC and variational inference, and Bayesian priors for handling high-dimensional data. Additionally, the lecturers offer a Research Seminar on Selected Topics in Statistical Learning and Data Science. The workgroup offers a variety of Master's thesis topics at the intersection of statistics and deep learning, focusing on Bayesian modeling, uncertainty quantification, and high-dimensional methods. Current topics include predictive information criteria for Bayesian models and uncertainty quantification in deep learning. Topics span theoretical, methodological, computational and applied projects. Students interested in rigorous theoretical and applied research are encouraged to explore our available projects and contact us for further details. The general advice of Nadja and Moussa for everybody interested to enter the field is: "Develop a strong foundation in statistical and mathematical principles, rather than focusing solely on the latest trends. Gain expertise in both theory and practical applications, as real-world impact requires a balance of both. Be open to interdisciplinary collaboration. Some of the most exciting and meaningful innovations happen at the intersection of fields — whether that's statistics and deep learning, or AI and domain-specific areas like medicine or mobility. So don't be afraid to step outside your comfort zone, ask questions across disciplines, and look for ways to connect different perspectives. That's often where real breakthroughs happen. With every new challenge comes an opportunity to innovate, and that's what keeps this work exciting. We're always pushing for more robust, efficient, and trustworthy AI. And we're also growing — so if you're a motivated researcher interested in this space, we'd love to hear from you." Literature and further information Webpage of the group G. Nuti, Lluis A.J. Rugama, A.-I. Cross: Efficient Bayesian Decision Tree Algorithm, arxiv Jan 2019 Wikipedia: Expected value of sample information C. Howson & P. Urbach: Scientific Reasoning: The Bayesian Approach (3rd ed.). Open Court Publishing Company. ISBN 978-0-8126-9578-6, 2005. A.Gelman e.a.: Bayesian Data Analysis Third Edition. Chapman and Hall/CRC. ISBN 978-1-4398-4095-5, 2013. Yu, Angela: Introduction to Bayesian Decision Theory cogsci.ucsd.edu, 2013. Devin Soni: Introduction to Bayesian Networks, 2015. G. Nuti, L. Rugama, A.-I. Cross: Efficient Bayesian Decision Tree Algorithm, arXiv:1901.03214 stat.ML, 2019. M. Carlan, T. Kneib and N. Klein: Bayesian conditional transformation models, Journal of the American Statistical Association, 119(546):1360-1373, 2024. N. Klein: Distributional regression for data analysis , Annual Review of Statistics and Its Application, 11:321-346, 2024 C.Hoffmann and N.Klein: Marginally calibrated response distributions for end-to-end learning in autonomous driving, Annals of Applied Statistics, 17(2):1740-1763, 2023 Kassem Sbeyti, M., Karg, M., Wirth, C., Klein, N., & Albayrak, S. (2024, September). Cost-Sensitive Uncertainty-Based Failure Recognition for Object Detection. In Uncertainty in Artificial Intelligence (pp. 1890-1900). PMLR. M. K. Sbeyti, N. Klein, A. Nowzad, F. Sivrikaya and S. Albayrak: Building Blocks for Robust and Effective Semi-Supervised Real-World Object Detection pdf. To appear in Transactions on Machine Learning Research, 2025 Podcasts Learning, Teaching, and Building in the Age of AI Ep 42 of Vanishing Gradient, Jan 2025. O. Beige, G. Thäter: Risikoentscheidungsprozesse, Gespräch im Modellansatz Podcast, Folge 193, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
Gudrun sprach im Januar 2024 mit zwei Studenten ihrer Vorlesung Mathematical Modelling and Simulation: Lukas Ullmer und Moritz Vogel. Sie hatten in ihrem Projekt Wahlmodelle ananlysiert. In dem Gespräch geht es darum, wie man hierfür mathematische Modelle findet, ob man Wahlsysteme fair gestalten kann und was sie aus den von ihnen gewählten Beispielen gelernt haben. Der Fokus ihrer Projektarbeit liegt auf der Betrachtung und Analyse von Wahlen, in denen mehrere verschiedene Wähler zu einem Thema abstimmen. Formal von Relevanz sind hierbei die sogenannten Wahlsysteme, welche die Art der Aggregation der Wählerstimmen beschreiben. Diese fallen in der Praxis recht vielfältig aus und über die Jahre wurden verschiedenste Wahlsysteme vorgeschlagen, angewendet und auch analysiert. In dieser Arbeit werden drei Kategorien präferenzbasierter Wahlsysteme analysiert: vergleichsbasierte Systeme, Scoring-Systeme sowie Approval-Systeme. Aufbauend darauf erfolgt die Konstruktion mehrstufiger und hybrider Wahlsysteme. Desweiteren werden verschiedenen Wahleigenschaften wie z.B. die Nicht-Diktatur oder die Strategiesicherheit betrachtet. Diese meist wünschenswerten Eigenschaften schließen sich teilweise gegenseitig aus. Die Themen Wahlmanipulation und Wahlkontrolle liegen deshalb besonders im Fokus. Literatur und weiterführende Informationen J. Rothe u.a. Einführung in Computational Social Choice: Individuelle Strategien und kollektive Entscheidungen beim Spielen, Wählen und Teilen. Spektrum Akademischer Verlag Heidelberg, 2012. doi: 10.1007/978-3-8274-2571-3. A.D. Taylor and A.M. Pacelli: Mathematics and Politics - Strategy, Voting, Power, and Proof. Springer-Verlag, Berlin Heidelberg, 2nd corrected ed. 2008, corr. 3rd printing, 2009. H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W.D. Wallis. The Mathematics of Elections and Voting. Springer, Berlin, Heidelberg, 2014. K. Loewenstein: Verfassungsrecht und Verfassungspraxis der Vereinigten Staaten, Springer-Verlag, Berlin Heidelberg New York, 1959. Podcasts P. Stursberg, G. Thäter: Social Choice, Gespräch im Modellansatz Podcast, Folge 129, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Lübbecke, S. Ritterbusch: Operations Research, Gespräch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt, G. Thäter: Wahlsysteme, Gespräch im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich, T. Pritlove: Wahlrecht und Wahlsysteme, Gespräch im CRE Podcast, Folge 128, Metaebene Personal Media, 2009. S. Gassama, L. Harms, D. Schneiderhan, G. Thaeter: Gruppenentscheidungen, Gespräch im Modellansatz Podcast, Folge 229, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020.
In dieser Folge geht es darum, wie Sebastian und Gudrun Mathematik an Hochschulen unterrichten und welche Rollen das Medium Podcast und konkret unser Podcast Modellansatz dabei spielen. Die Fragen stellte unsere Hörerin Franziska Blendin, die in der Folge 233 im Jahr 2020 über Ihr Fernstudium Bachelor Maschinenbau berichtet hatte. Sie hatte uns vorab gefragt: "Was versprecht ihr euch von dem Podcast - was ist euer Fazit nach den Jahren den ihr ihn schon macht und wie gestaltet ihr warum Lehre? Was macht euch Spaß, was sind Herausforderungen, was frustriert euch? Warum und wie gestaltet ihr Lehre für Studierende außerhalb der Mathematik, also beispielsweise Maschinenbau?" Es ist ein bisschen lustig, dass die erste Folge Modellansatz, in der Sebastian und Gudrun sich spontan ein Thema zum reden suchten ausgerechnet ein Gespräch über eine neu konzipierte Vorlesung war und der Podcast diese Vorlesung bis heute in unterschiedlichen Rollen begleitet, obwohl das nicht zum ursprünglichen Plan gehörte, wie wir uns einen Podcast über Mathematik vorgestellt hatten. Einerseits haben viele kein Verständnis dafür, was alles mit Mathe gemacht werden kann, andererseits erleben wir intern andauernd so viele spannenden Vorträge und Personen. Eigentlich bringen wir die beiden Sachen in unserem Podcast nur zusammen. Das Medium Podcast ist dabei durch das Gespräch sehr niederschwellig: Es ist so sehr leicht mit den Gesprächen in die Themen einzusteigen und auch auf viel weiteren Ebenen sich darüber zu unterhalten. Wir sind überzeugt, dass wir mit Text oder Video nie so viele und so umfangreiche Austauschsformen einfangen können, mal ganz abgesehen davon, dass die Formate dann an sich für uns zu einer viel größeren Herausforderung in Form und Darstellung geworden wären. Wir hoffen, dass sich irgendwann auch mal eine Person dazu bekennt, wegen unseres Podcasts ein Mathe- oder Informatikstudium zu erwägen, aber bisher ist das tolle Feedback an sich ja schon eine ganz ausgezeichnete Bestätigung, dass diese Gespräche und Themen nicht nur uns interessieren. Viele der Gespräche haben sich auch schon vielfach für uns gelohnt: Sebastian hat aus vielen Gesprächen Inspirationen für Vorlesungen oder andere Umsetzungen gewonnen. Ein Fazit ist auf jeden Fall, dass das Ganze noch lange nicht auserzählt ist, aber wir auch nicht außerhalb unserer Umgebung leben. In der Pandemie sind einerseits Gespräche am Tisch gegenüber, wie wir sie gerne führen, schwierig geworden, und gleichzeitig ist die Lehre so viel aufwendiger geworden, dass kaum Zeit verblieb. Aufnahmen, waren zuletzt hauptsächlich "interne" Podcasts für Vorlesungen, damit die Studierenden daheim und unterwegs sich mit den Inhalten auseinandersetzen können. Gudrun hat damit auch Themen vorbereitet, die sie anschließend in die Zeitschrift Mitteilungen der Deutschen Mathematiker-Vereinigung als Artikel geschrieben hat. Das betrifft insbesondere die Folgen zu Allyship und zum Mentoring in der Mathematik. In der Vermittlung von Mathematik im Studium gibt es kaum Themen, die nicht irgendwo spannend und interessant sind. Um die Themen zu verstehen oder wie dort die Lösungen oder Verfahren gefunden wurden, muss die Theorie behandelt und in weiten Teilen verstanden werden. Da aber "Rosinenpickerei" nichts bringt (also nur die nötigsten Teile von Theorie zu erzählen), geht es darum, ein sinnvolles Mittelmaß zu finden. Also auf der einen Seite ein gutes Fundament aufzubauen zu einem Thema, aber gleichzeitig noch Zeit für Einblicke in spannende und interessante Teile zu haben. Es ist in der Vorbereitung auf der einen Seite total schön, wenn dann eine Anwendung perfekt in die Theorie passt, beispielsweise entwirft Sebastian gerade ein Skript zu formalen Sprachen und Grammatiken, und dann kann man das Komprimierverfahren LZW als eine dynamische Grammatik sehen. Oder es geht um theoretische und "langweilige" Zustandsmaschinen und dann gibt es das Beispiel, dass die Raspberry Pi Foundation gerade dazu einen eigenen Chip (RP2040) mit solchen Komponenten veröffentlicht, oder mit dem Newton-Verfahren wurde die schnelle Quadratwurzel für das Computerspiel Quake erst möglich. Ob das dann auch so toll in der Vorlesung herüberkommt, ist nochmal ein eigenes Thema, aber wenn es klappt, so ist das natürlich großartig. Umgekehrt frustriert es dann schon, wenn die Grundlagen nicht bei möglichst vielen ankommen- nicht jede Person muss sich ja bis ins letzte für ein Thema begeistern, aber am Ende sollte der Großteil die wichtigen Hauptsachen mitnehmen. Leider gibt es immer ein paar Leute, wo das dann trotz vieler Angebote leider nicht so gut klappt, und das frustriert natürlich. Dann muss geschaut werden, woran es liegen könnte. Aktuell hilft das Nörgeln und Nerven, wenn nicht regelmäßig die angebotenen Übungsaufgaben abgegeben werden, wohl mit am Besten. Warum werden mathematische Themen im Ingenieurstudium relevant: Das hängt ganz davon ab, welche Kurse wir haben, und was gebraucht wird... Sebastian unterrichtet jetzt gerade Informatik-Studierende und in den Wirtschaftswissenschaften, früher außer MACH/CIW/BIW/MAGE... auch mal Mathe-Lehrende. Das "Wie" ist dann jeweils auf die Gruppe zugeschnitten: Zunächst gibt es ja unterschiedliche Voraussetzungen: Curriculum, Haupt- & Nebenfächer, etc.. Dann gibt es eine Liste von Fertigkeiten, die vermittelt werden sollen und können, und dann besonders in den Vorlesungen außerhalb des Mathematik-Studiums die lästige Beschränkung des Umfangs der Veranstaltung, und wieviel Eigenarbeit erwartet werden kann. Grundsätzlich möchten wir auch bei den Nicht-Hauptfächlern so viel davon erzählen, was dahinter steht- statt "ist halt so"- und was heute damit gemacht werden kann. Diese Motivation macht vielen das Lernen leichter. Es muss aber auch immer viel selbst gemacht werden, dh. viele Aufgaben und prototypische Problemlösungen, denn Mathe lernt sich nicht durchs zuhören alleine. (leider... ;) Damit geht das Puzzle-Spiel los: Welche Grundlagen müssen aufgebaut werden, und was kann wie in der gegebenen Zeit sinnvoll behandelt werden... Und natürlich immer mit dem Blick darauf, ob es Anküpfungspunkte in die Studienrichtungen der Studierenden gibt. Literatur und weiterführende Informationen F. Blendin: Fußballfibel FSV Frankfurt MINT-Kolleg Baden-Württemberg fyyd - Die Podcast-Suchmaschine F. Blendin, S. Düerkop: Die Suche nach der ersten Frau, Zeit, 2.9.2020. GanzOhr-Konferenzen auf Wissenschaftspodcasts.de. RP2040 Dokumentation, Prozessor mit 8 Zustandsmaschinen. Schülerlabor Mathelabor der Fakultät für Mathematik am KIT und das Onlinelabor Einsetzungsverfahren gegenüber dem Gauß-Jordan-Verfahren Vom traditionellen Riemann-Integral zum modernen Lebesgue-Integral mit Nullmengen, das natürlich kompatibel ist zur Maßtheorie, Fourier-Transformation und zu den Sobolev-Räumen für Finite-Elemente Farbwahrnehmung durch Sinneszellen - Sinneszellen für langwelliges Licht werden auch durch kurzwelliges Licht angesprochen und das schließt die Illusion des Farbkreises Podcasts von Franziska Legende verloren Der Podcast über die vergessenen Geschichten des deutschen und internationalen Frauenfußballs, Produziert von Sascha, Sven, Petra, Freddy, Helga, Sunny, Franzi G4 Podcast über CNC-Maschinen (Thema Zerspanung, zuletzt mit Sonderfolgen zum Lernen im Studium) Braucast - Ein Hobbybrau-Podcast. Podcasts zum Thema Mathe in der Hochschullehre A. Chauhan, G. Thäter: CSE, Gespräch im Modellansatz Podcast, Folge 249, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2022. F. Blendlin, G. Thäter: Fernstudium Maschinenbau, Gespräch im Modellansatz Podcast, Folge 233, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020. Y. Cai, S. Dhanrajani, G. Thäter: Mechanical Engineering, Gespräch im Modellansatz Podcast, Folge 176, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. ]http://modellansatz.de/maschinenbau-hm|G. Thäter, G. Thäter: Maschinenbau HM], Gespräch im Modellansatz Podcast, Folge 169, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, J. Rollin: Advanced Mathematics, Conversation in the Modellansatz Podcast, Episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. A. Kirsch: Lehramtsausbildung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. F. Hettlich, G. Thäter: Höhere Mathematik, Gespräch im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M.-L. Maier, S. Ritterbusch: Rotierender 3d-Druck, Gespräch im Modellansatz Podcast, Folge 9, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. C. Spannagel, S. Ritterbusch: Flipped Classroom, Gespräch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. M. Lübbecke, S. Ritterbusch: Operations Research, Gespräch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Podcasts als Projektabschluss S. Bischof, T. Bohlig, J. Albrecht, G. Thäter: Benchmark OpenLB, Gespräch im Modellansatz Podcast, Folge 243, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2021. Y. Brenner, B. Hasenclever, U. Malottke, G. Thäter: Oszillationen, Gespräch im Modellansatz Podcast, Folge 239, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2021. S. Gassama, L. Harms, D. Schneiderhan, G. Thäter: Gruppenentscheidungen, Gespräch im Modellansatz Podcast, Folge 229, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020. L. Dietz, J. Jeppener, G. Thäter: Gastransport - Gespräch im Modellansatz Podcast, Folge 214, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019. A. Akboyraz, A. Castillo, G. Thäter: Poiseuillestrom - Gespräch im Modellansatz Podcast, Folge 215, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019.A. Bayer, T. Braun, G. Thäter: Binärströmung, Gespräch im Modellansatz Podcast, Folge 218, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. C. Brett, N. Wilhelm, G. Thäter: Fluglotsen, Gespräch im Modellansatz Podcast, Folge 196, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. Weitere erwähnte Podcasts, Artikel und Vorträge J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, Gespräch im Modellansatz Podcast, Folge 184, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Ritterbusch: 0x5f3759df - ein WTF für mehr FPS, Vortrag auf der GPN20, 2022. M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Heidelberger: Bilderkennung zeigt Wege als Klang, Presseinformation 029/2018, Karlsruher Institut für Technologie (KIT), 2018. N. Ranosch, G. Thäter: Klavierstimmung. Gespräch im Modellansatz Podcast, Folge 67, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
Gudrun unterhält sich in dieser Folge mit Waltraud Kahle. Sie war bis 2018 als außerplanmäßige Professorin in der Fakultät für Mathematik an der Otto von Guericke Universität in Magdeburg beschäftigt und war Mitglied des Instituts für Mathematische Stochastik. Das Thema des Gespräches ist das Forschungsthema von Waltraud: Statistik für zensierte Daten und in Abnutzungsprozessen sowie unvollständige Reparatur. Das Gespräch beginnt mit der Frage: Wie kann man Aussagen darüber treffen, wie lange technische Objekte oder auch Menschen "leben" . Ungefähre Aussagen hierzu für große Gruppen sind in der Industrie, der Demographie und Versicherungsmathematik und Medizin nötig. Es ist ein statistisches Problem, das sich in der Theorie auf eine (möglichst große) Anzahl von Beobachtungen bezieht aus denen dann Schlussfolgerungen abgeleitet werden, die für ähnliche Prozesse auch zu Vorhersagen dienen können. In der Praxis liegen aber in der Regel nur zensierte Daten vor, denn die Beobachtung muss abgebrochen werden, bevor die vollständige Information vorliegt. Ein alternativer Zugang ist es nun, nicht nach der Lebensdauer zu fragen sondern die der Lebensdauer zugrunde liegenden Abnutzungsprozesse zu modellieren (z.B. Verschleiß und Ermüdung). Hier verwendet man stochastische Prozesse, wie zum Beispiel den Wienerprozess. Grundlegende Eigenschaft des Wienerprozesses ist es, dass in jedem Zeitintervall ein normalverteilter Zuwachs erfolgt und alle diese Zuwächse voneinander unabhängig sind. Ein Ausfall erfolgt, wenn der Abnutzungsprozess ein vorgegebenes Niveau erstmalig erreicht. Man fragt sich folglich: Wie ist die Verteilung dieser "Erstüberschreitungszeit". Zur Vermeidung von Ausfällen können regelmäßig vorbeugende Instandhaltungsmaßnahmen durchgeführt werden, die das Abnutzungsniveau verringern. Das kann mit festen Intervallen oder nach vorgegebenen Ereignissen stattfinden. Zu DDR-Zeiten gab es z.B. ein Projekt, dass sicherstellen konnte, das notwendige Wartungsarbeiten von Mähdreschern nur im Winter erfolgten, damit sie zur Erntesaison voll einsatzfähig waren. Das statistische Modell muss Aussagen zu folgenden Fragen treffen können Einfluß der Instandhaltung auf die Lebensdauerverteilung, Definition von Kostenfunktionen der vorbeugenden Instandhaltung in Abhängigkeit vom Reparaturgrad, Kostenoptimale Instandhaltung. Andere Modellierungsmöglichkeiten bieten Gammaprozesse oder inhomogene Poissonprozesse. Im Gespräch gehen Gudrun und Waltraud auf Eigenschaften der Normalverteilung ein. Sie besprechen die Exponentialverteilung (diese hat eine konstante Ausfallrate). Das beschreibt elektronische Bauteile mit langer Lebensdauer sehr gut. Außerdem geht es um die Weibull-Verteilung. Diese passt auf Systeme mit sehr vielen Teilen (das Modell nimmt hier sogar unendlich viele Teile), die mit geringer Wahrscheinlichkeit ausfallen und wo das System ausfällt, sobald das erste Glied ausgefallen ist. Diese Verteilung hat die praktische Eigenschaft, dass die in der Medizin verwendeten Modelle der proportionalen Ausfallrate und der proportionalen Lebensdauer übereinstimmen. Waltraud engaiert sich im eLeMeNTe e.V.. Das ist der Landesverein Sachsen-Anhalt zur Förderung mathematisch, naturwissenschaftlich und technisch interessierter und talentierter Schülerinnen, Schüler und Studierender. Ein Ziel ist es, die Landesolympiaden Mathematik in Sachsen-Anhalt durchzuführen und Schülerinnen und Schüler mit speziellen Arbeitsgemeinschaften auf die Wettbewerbe vorzubereiten. Waltraud findet es spannend, dort oft überraschenden Ideen der Kinder und jungen Leute zu begegnen, die noch nicht in den ausgetretenen Denkpfaden unterwegs sind. Zur Geschichte der Mathe-Olympiaden finden sich auf Wikipedia folgende Informationen (die Gudrun aus eigenem Erleben bestätigen kann): "Die erste Mathematik-Olympiade in der DDR fand 1961/62 als „Olympiade Junger Mathematiker“ statt. Seitdem gab es dort ab der 5. Klassenstufe Schul- und Kreisolympiaden, ab der 7. Klassenstufe Bezirksolympiaden und ab der 10. Klassenstufe DDR-Olympiaden, an der aber auch sogenannte Frühstarter aus tieferen Klassenstufen teilnahmen. Der DDR-Ausscheid fand zunächst in der Woche vor Ostern jeden Jahres in der Jugendhochschule „Wilhelm Pieck“ bei Berlin, später im Mai in Erfurt statt. ... Auf allen Ebenen gab es zur Unterstützung begabter Schüler Mathematikzirkel....Nach der Wiedervereinigung Deutschlands entwickelte sich die Mathematikolympiade schnell zu einem bundesweiten Schülerwettbewerb. Seit 1994 ist der Mathematik-Olympiaden e.V. Träger des Wettbewerbs, der in Kooperation mit dem Talentförderzentrum Bildung & Begabung jährlich ausgeschrieben wird. Seit 1996 nehmen alle 16 Bundesländer an der Bundesrunde teil." Die Bundesrunde fand 1993, 1994 und 2001 in Magdeburg stattt. Referenzen und weitere Informationen Kahle, Waltraud; Mercier, Sophie; Paroissin, Christian: Mathematical models and methods in reliability set. volume 3: Degradation processes in reliability. In: Hoboken, NJ: Wiley, 2016 (Mathematics and statistics series) Kahle, Waltraud; Liebscher, Eckhard: Zuverlässigkeitsanalyse und Qualitätssicherung, Oldenbourg Wissenschaftsverlag, 2013 Elemente e.V. Landesolympiade Mathematik in Sachsen-Anhalt Matheolympiade in Deutschland
Gudrun spricht in dieser Folge mit Anshuman Chauhan über sein Masterstudium Computational Sciences in Engineering (CSE) an der TU Braunschweig. CSE ist dort ein viersemestriger Masterstudiengang, der etwa zur Hälfte in Englisch und zur anderen Hälfte in Deutsch unterrichtet wird. Er ist an der Fakultät Architektur, Bauingenieurwesen und Umweltwissenschaften angesiedelt, kombiniert aber in der Ausbildung Ingenieurwissenschaften, Mathematik und angewandte Informatik. In gewisser Weise ist es eine konsequente Weiterentwicklung der Idee der Technischen Universitäten deutscher Prägung, dass heute solche interdisziplinären Studiengänge angeboten werden. So wie das heutige KIT wurden sie ja häufig als Polytechnische Schulen gegründet, in denen zunächst das was wir heute Maschinenbau nennen mathematisiert wurde, um mit der Entwicklung der Technik Schritt halten zu können. In zunehmenden Maße waren dann immer mehr technische Fächer ohne eigene Forschung und auch ohne eine Grundausbildung in Mathematik nicht mehr denkbar. Heute hält nun endgülitg zunächst die Computersimulation aber zunehmend auch die Benutzung von Algorithmischem Lernen und Big Data Einzug in die Ingenieurwissenschaften. Diese Entwicklung wird mit Spezialisierungen in der Mathematik, insbesondere in den Studiengängen Technomathematik, in Spezialisierungen in den Ingenieurwissenschaften, aber auch durch die Schaffung von neuartigen Studiengängen begleitet, die im Namen wie in der Ausbildung mindestens zwei, oft aber drei Standbeine haben: Mathematik, Informatik und eine technische Anwendung. Anshuman ist in Neu-Dehli aufgewachsen. Nach seiner Bachelorarbeit zu Finite Element Methoden hatte er sich weltweit nach Studiengängen umgeschaut, die mit Computersimulation zu tun haben - am liebsten mit Aerodynamik für Autos. Deutschland war für ihn dabei attraktiv, weil es renommierte Technische Universitäten hat und die Kosten nicht exorbitant sind. Er entschied sich für die TU in Braunschweig aufgrund eben dieses Renomees der deutschen TU9. Sie hat zur Zeit etwa 20.000 Studierende in fast 80 Studiengänge. Seit 2018 gibt es einen Exzellenzcluster in Luftfahrt und Metrologie und der DLR ist in der Nähe. Im Gespräch erläutert Anshuman, dass er mit der Entscheidung für Braunschweig und für diesen Studiengang sehr zufrieden ist. Er ist nun nach erfolgreichem Abschluss und einiger Zeit in der Wirtschaft seit 2020 am KIT im Graduiertenkolleg SiMet, wo der Kontakt mit dem Podcast zustande kam. Braunschweig hat ein richtiges Stadtleben, das von den vielen Studierenden dort mit geprägt ist. Anshuman ist dort in einem Studentenwohnheim untergekommen und hatte sofort sozial Anschluss. In dem von ihm in Braunschweig belegten Masterprogramm CSE ist jedes Semester aufgeteilt zwischen Ingenieurfächern, Mathematik und Informatik. Zum Beispiel die Fächer Strömungsdynamik und Thermodynamik zusammen mit partiellen Differentialgleichungen in der Mathematik und Visualisierung im Informatikteil. Später sind dann Vertiefungskurse in z.B. Maschinenbau, Elektrotechnik, Bauingenieurwesen oder Informatik wählbar. Die Numerischen Methoden in der Aerodynamik z.B. waren sehr praxisnah. Er wollte seine Masterarbeit unbedingt in der Industrie schreiben, um Erfahrung in einem Unternehmen zu sammeln. Er sah aber sehr schnell, dass richtig Deutsch zu lernen dafür eine notwendige Voraussetzung ist. Deshalb nahm er sich ein Semester Zeit, um die Sprache noch besser zu üben und außerdem einige für ihn sehr interessante Kurse zu belegen, zu denen er vorher keine Zeit gehabt hatte. Überdies hat er auch noch spanisch belegt. Mit der deutschen Bewerbung hat es schließlich mit einer Masterarbeit in Stuttgart geklappt. Der Wechsel von Braunschweig in Norddeutschland nach Stuttgart in Süddeutschland war für ihn sehr spürbar - es ist einfach ein anderer Schlag Menschen. In der Firma gibt es natürlich vorgeschriebene Prozesse, in die man sich erst einarbeiten muss. Sie bringen aber eine gewisse Robustheit in die Entwicklung. Als Masterstudent hatte er trotzdem genug Freiheit und eine tolle Betreuung. In der Industrietätigkeit nach seinem Masterabschluss musste er sich oft schnell in die Probleme einarbeiten und konnte nicht so gründlich, sein wie er es aus der Studienzeit gewohnt war. Er beschäftigte sich mit der Optimierung am Einlasskanal in einem Motor mit Hilfe von Strömungsrechnung (CFD). D.h. er hatte sein ursprüngliches Traumziel eigentlich erreicht. Trotzdem war es ihm dann zu viel Routine und er wollte noch mehr über ein Zukunftsthema für Autos lernen: konkret über Batterien. Das kann er nun während der Promotion im Rahmen von SiMET tun. Hier ist er wieder in einem Umfeld von anderen jungen Menschen, die sehr unterschiedliche Masterabschlüsse erworben haben und Mathematik, Computer und die Anwendungsthemen alle verstehen müssen. Podcasts F. Blendlin, G. Thaeter: Fernstudium Maschinenbau, Gespräch im Modellansatz Podcast, Folge 233, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020. S. Carelli, G. Thäter: Batteries, Gespräch im Modellansatz Podcast, Folge 211, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.Y. Cai, S. Dhanrajani, G. Thäter: Mechanical Engineering, Gespräch im Modellansatz Podcast, Folge 176, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
Gudrun hatte 2018 mit Carla Cederbaum über mathematische Konzepte gesprochen, mit denen man z.B. den Schwerpunkt von Sternen bestimmen kann. Im April 2022 trafen sich beide erneut zum Gespräch - diesmal per Videokonferenz. Carla ist inzwischen Professorin an der Uni Tübingen in der AG Geometrische Analysis, Differentialgeometrie und Relativitätstheorie und erhielt den Tübinger Preis für Wissenschaftskommunikation des Jahres 2022. Seit 2021 arbeiten Gudrun und Carla zusammen bei der Gestaltung der Zeitschrift Mitteilungen der Deutschen Mathematiker Vereinigung (MDMV). Gudrun ist 2021-24 als Herausgeberin verantwortlich für die Inhalte und hat neben drei anderen Kolleginnen und Kollegen auch Carla als Mitherausgeberin gewonnen. Im Gespräch geht es um das Praxishandbuch zum Mentoring von Frauen in der mathematischen Forschung, das unter der Creative Commons Lizenz CC-BY-SA 4.0 allen Interessierten zur Verfügung steht und an dessen Weiterentwicklung (auch aufgrund der offenen Lizenz) alle mitarbeiten können. Das Handbuch wurde von Carla Cederbaum, Sophia Jahns und Anna Wienhard im Rahmen des Schwerpunktprogramms SPP2026 Geometrie im Unendlichen der Deutschen Forschungsgemeinschaft (DFG) verfasst und basiert auf den Erfahrungen mit dem Math Ment♀ring Programm an der Universität Tübingen unter der Leitung von Carla einerseits und dem UPSTREAM Mentoring Netzwerk an der Universität Heidelberg unter der Leitung von Anna (und Michael Winckler) andererseits. (*) Mentoring gibt es heutzutage in vielen Zusammenhängen und kann konkret sehr viel Unterschiedliches bedeuten. Die Idee, ein spezielles Mentoring für Frauen an ihrem Fachbereich in Tübingen anzubieten, erwuchs aus Carlas eigenen Erfahrungen. Seit ihrem Studium in Freiburg erlebte sie, wie die Tatsache, einer Minderheit im Fach anzugehören, Frauen auf vielfältige Weise dabei behindert, sich in der Mathematik kompetent und in der Fachkultur heimisch zu fühlen. Inzwischen ist gut mit konkreten Zahlen belegt, dass beim Übergang von jeder Entwicklungsstufe auf die nächste in der akademischen Laufbahn mehr Frauen als Männer das Fach verlassen. D.h. bei jedem Karriereschritt sinkt der Anteil von Frauen. So gehen Talente verloren und das Fach Mathematik verliert als Ganzes. In vielen Universitäten hat man das inzwischen als Problem erkannt, dem man strukturell begegnen möchte, aber es gibt oft eine gewisse Ratlosigkeit, wie das geschehen kann. Carla und ihre Mitstreiterinnen sehen als einen Baustein in der Lösung dieses Problems die Wichtigkeit des Austauschs unter Frauen in einem geschützten Rahmen. Dies ist ein effektiver und vergleichsweise kostengünsitger Ansatz. Es geht nicht darum, Frauen zu einer Karriere in der Mathematik zu überreden, sondern diejenigen zu finden und zu unterstützen, die Lust und Talent dazu haben. Unterschiedliche Ausgangssituationen und fehlende Privilegien können so abgemildert werden. An der Duke University baute Carla erstmals Mentoring von und für Frauen in der Mathematik auf, u.a. mit Ingrid Daubechies. Für Tübingen hat sie daraus das Format übernommen, dass die Mentorin der Mentee in der Regel eine Stufe in der Karriereleiter voraus ist. So kann man sich noch recht einfach hineindenken, wie man selbst noch vor kurzem gedacht und gearbeitet hat - außerdem ist es ideal, wenn man selbst als Mentee in einem weiteren "Gespann" die "andere Seite" des Mentorings erlebt. In jedem Fall ist es hilfreich, wenn Mentorinnen eine Schulung oder zumindest eine Handreichung bekommen, bevor sie diese Rolle übernehmen. Im Handbuch ist erprobtes Material für die Schulung der Mentorinnen zusammengetragen (inkl. aller möglicher Vorlagen für Anschreiben, Aushänge etc.). Eine ausführliche und weiter wachsende Literatursammlung zu Mentoring und Gender Studies rundet das Material ab. Die grundlegende Struktur des Mentorings ruht außerdem auf folgenden Prinzipien: Vertraulichkeit zwischen Mentor*in und Mentee geht in beide Richtungen. Die Individualität der Mentee zu respektieren ist oberstes Gebot. Regelmäßige Treffen von Mentor*in und Mentee helfen, Vertrauen aufzubauen - möglichst bevor ernsthaftere Probleme auftreten. In Tübingen dauert die Mentorinnenschulung 1/2 Tag und konzentriert sich auf die Frage: Was ist Mentoring und was nicht und wie kann ich das konkret gestalten. In einem ersten Teil der Schulung werden typische Argumente und belegte Fakten erörtert, die für und gegen die Notwendigkeit der Unterstützung von Frauen in der Mathematik sprechen. Dafür hat sich das Format der Fishbowl-Diskussion zwischen zwei ausgelosten Gruppen bewährt. Danach werden offenes und proaktives Zuhören geübt und Antworten auf typische Mentoringfragen in unterschiedlichen Karrierestufen gesammelt. Das geschieht in 3er-Gruppen mit den Rollen Mentee/Mentorin/Beobachterin. Jede Gruppe zieht zufällig eine Vignette und spielt ein Gespräch zur dort geschilderten Situation durch. Anschließend erfolgt jeweils eine Besprechung dazu, wie die Personen die Gespräche in den unterschiedlichen Rollen wahrgenommen haben, was gut funktioniert hat und was vielleicht nicht so gut gelaufen ist. Danach werden die Rollen getauscht. Schließlich wird im dritten Teil der Schulung das erste Treffen mit einer Mentee vorbereitet, um eventuelle Nervosität oder Anspannung abzubauen. Man arbeitet in Paaren, um sich das erste Treffen möglichst genau vorzustellen. Hierbei werden die Paare von Schlüsselfragen geleitet. Auch werden Anlaufstellen für über das Mentoring hinausgehende Fragestellungen vorgestellt. Im Handbuch sind zu allen Teilen der Schulung viele Fallbeispiele und Schlüsselfragen gesammelt. Daneben finden sich Vorlagen für Werbung, Organisatorisches zu Treffen und zur Kontaktaufnahme. Es sind aber auch Verweise auf Ressourcen gesammelt, falls es ernsthafte Probleme gibt, die im Mentoringgespräch nicht gelöst werden können (wie z.B. Prüfungsangst, finanzielle Sorgen oder eine psychische Krise). Es wird dafür sensibilisiert, wie man erkennen kann, für welche Fragen man selbst eine kompetente Ansprechperson ist und dass es im Mentoring nicht darum geht ein "Mini-me" zu erziehen - nicht alles was für mich funktioniert hat, ist auch für das Gegenüber gut. Deshalb ist es wichtig, die Werte des Gegenübers herausfinden und dann die Zielsetzung der gemeinsamen Zeit möglichst danach auszurichten. Das Mentoring in Tübingen hat 2014/15 begonnen - der Übergang zur Postdoc-Phase scheint vor Ort das größte Leck zu sein. Als Gründe nennen die Mentees, dass eine akademische Laufbahn sich schwer mit Familiengründung und Partnerschaft vertrage, wenn in der Postdoc-Phase 2-3 längere Auslansdaufenthalte oder wenigstens Wechsel zwischen deutschen Universitäten erwartet werden. Gudrun hat für den Podcast mit drei Frauen gesprochen, die in Tübingen am Mentoringprogramm teilgenommen haben und inzwischen auf der nächsten Karrierestufe arbeiten. Das Gespräch mit Polyxeni Spiloti ist schon veröffentlicht. Die Gespräche mit Cornelia Vogel und Alix Richter folgen bald. Cornelia und Alix waren als Studentinnen Mentees und haben sich jeweils für eine Promotion entschieden, an der sie zur Zeit des Gespräches in Tübingen bzw. Paderborn arbeiteten. (*) Zusätzliche Förderung erhielt das Projekt durch die Duke University, das Zukunftskonzept der Universität Tübingen (DFG, ZUK 63) und durch das Athene-Mentoring Programm, Universität Tübingen, die HGS MathComp am IWR Heidelberg, den Exzellenzcluster STRUCTURES und die Research Station Geometry & Dynamics der Universität Heidelberg. Referenzen und weitere Informationen C. Cederbaum: Wo liegt der Schwerpunkt eines Sternes? Vortrag Faszination Astronomie Online vom 4. Februar 2021. Mentoring Material Podcasts C. Cederbaum, G. Thäter: Sternenschwerpunkt, Gespräch im Modellansatz Podcast, Folge 172, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. P. Spilioti, G. Thaeter: Spectral Geometry, Gespräch im Modellansatz Podcast, Folge 247, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2022.
Gudrun talks with Polyxeni Spilioti at Aarhus university about spectral geometry. Before working in Aarhus Polyxeni was a postdoctoral researcher in the group of Anton Deitmar at the University of Tübingen. She received her PhD from the University of Bonn, under the supervision of Werner Mueller after earning her Master's at the National and Technical University of Athens (Faculty of Applied Mathematics and Physics). As postdoc she was also guest at the MPI for Mathematics in Bonn, the Institut des Hautes Etudes Scientifiques in Paris and the Oberwolfach Research Institute for Mathematics. In her research she works on questions like: How can one obtain information about the geometry of a manifold, such as the volume, the curvature, or the length of the closed geodesics, provided that we can study the spectrum of certain differential operators? Harmonic analysis on locally symmetric spaces provides a powerful machinery in studying various invariants, such as the analytic torsion, as well as the dynamical zeta functions of Ruelle and Selberg. References and further information P. Spiliotti: Ruelle and Selberg zeta functions on compact hyperbolic odd dimensional manifolds PhD thesis, Bonn, 2015. Greek Women in Mathematics Website Celebration of Greek Women in mathematics, May 12 2022 Greek women in mathematics - First podcast episode Eberhard Zeidler on Wikipedia Podcasts A. Pohl: Quantenchaos, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 79, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Gudrun spricht in dieser Folge mit Ute Badde in der Landesanstalt für Umwelt Baden-Württemberg (LUBW) am Südende von Karlsruhe. Am 3. Februar, hatte Gudrun mit der Vorlesung Mathematical Modelling and Simulation eine Exkursion in die LUBW unternommen. Geplant war, den Studierenden zu zeigen, wie dort Modelle und Simulationen der Wasserläufe in Karlsruhe eingesetzt werden und mit den Wettervorhersagen als Eingangsdaten arbeiten. Zufällig war es so, dass an diesem Tag eine recht massive Hochwasserlage herrschte. Und zwar nicht aufgrund von außergewöhnlichen oder überraschend heftigen Niederschlägen, sondern aufgrund eines mehrstündigen Landregens. Tatsächlich hätte aufgrund der außerdem noch ungewöhnlich hohen Temperatur noch mehr Wasser unterwegs sein können, wenn auch noch Tauwasser aus den Bergen hinzugekommen wäre. Da es aber in dem Winter zuvor kaum Schnee gegeben hatte, war der Regen der wesentliche Wassereintrag, Jedenfalls war die eigentliche Hochwasserzentrale am Tag der Exkursion besetzt und die Gruppe wich in einen anderen Raum aus. Zum aktuellen Hochwassergeschehen konnte sie aber sehr eindrückliche Informationen mitnehmen. Hochwasser war dann auch ein Thema im späten Frühjahr und in den Sommermonaten 2021. Es gab einige Starkregenereignisse mit Überschwemmungen südlich von Stuttgart und der Rhein war lange Wochen nicht schiffbar und es gab einige Perioden, wo der Auenwald am Rhein überflutet war. Dieses Geschehen in Baden-Württemberg im Auge zu haben und zwar in der Messung und für kurzzeitige und mittelfristige Prognosen ist die Aufgabe der Arbeitsgruppe von Ute Badde an der LUBW. Als Bürger hat man auf diese Daten z.B. Zugriff über die Seiten der Hochwasservorhersage in Baden-Württemberg. Dafür gibt es Zugang zu Messdaten (z.B. Pegelstände) zu unterschiedlichen meteorologischen Modellen und zu einer Armee leistungsstarker Rechner, die dann aus den Daten und den Wettervorhersagen eine Prognose für die Wasserstände der Flüsse wie Rhein, Neckar oder auch den Bodensee berechnen. Damit ist es dann möglich, wenn es brenzlig wird, Gemeinden und Gewerbetreibende zu beraten ob und wenn ja welche Vorsorge vor Ort getroffen werden sollte. Ute hat Bauingenieurwesen am KIT studiert und sich anschließend in der Hydrologie spezialisiert. In die LUBW ist sie zunächst auf einer Projektstelle eingestiegen. Inzwischen hat sie dort eine feste Stelle. Ihr gefällt nach wie vor sehr gut, dass sie an der Schnittstelle von Computern und Modellen ganz Praxis-relevante Fragen beantworten kann und insbesodere in Extremsituationen Entscheidungshilfen geben kann. Außerdem ist es eine schöne Herausforderung, über ihre Arbeit zu berichten. Oft für Zeitungen und das lokale Fernsehen aber diesmal auch im Podcast. Referenzen und weiterführende Informationen Einschätzung des Hochwassers am 3. Februar 2020 vom Center for Disaster Management and Risk Reduction Technology (CEDIM) am KIT Podcasts F. Simons, A. Rothert, G. Thäter: Hybride Strömungsmodelle, Gespräch im Modellansatz Podcast, Folge 180, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. P. Darscheid: Shannon Information, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 139, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. R. Kopman, G. Thäter: Wasserstraßen, Gespräch im Modellansatz Podcast, Folge 24, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
One of the reasons we started this podcast in 2013 was to provide a more realistic picture of mathematics and of the way mathematicians work. On Nov. 19 2021 Gudrun talked to Stephanie Anne Salomone who is Professor and Chair in Mathematics at the University of Portland. She is also Director of the STEM Education and Outreach Center and Faculty Athletic Representative at UP. She is an Associate Director of Project NExT, a program of the Mathematical Association of America that provides networking and professional development opportunities to mathematics faculty who are new to our profession. She is a wife and mother of three boys, Milo (13), Jude (10), and Theodore (8). This conversation started on Twitter in the summer of 2021. There Stephanie (under the twitter handle @SitDownPee) and @stanyoshinobu Dr. Stan Yoshinobu invited their fellow mathematicians to the following workshop: Come help us build gender equity in mathematics! Picture a Mathematician workshop led by @stanyoshinobu Dr. Stan Yoshinobu and me, designed for men in math, but all genders welcome. Gudrun was curious to learn more and followed the provided link: Workshop Abstract Gender equity in the mathematical sciences and in the academy broadly is not yet a reality. Women (and people of color, and other historically excluded groups) are confronted with systemic biases, daily experiences, feelings of not being welcome or included, that in the aggregate push them out of the mathematical sciences. This workshop is designed primarily for men in math (although all genders are welcome to participate) to inform and inspire them to better see some of the key issues with empathy, and then to take action in creating a level-playing field in the academy. Workshop activities include viewing “Picture a Scientist” before the workshop, a 2-hour synchronous workshop via zoom, and follow-up discussions via email and Discord server. *All genders welcome AND this workshop is designed for men to be allies. This idea resonated strongly with Gudrun's experiences: Of course women and other groups which are minorities in research have to speak out to fight for their place but things move forward only if people with power join the cause. At the moment people with power in mathematical research mostly means white men. That is true for the US where Stephanie is working as well as in Germany. Allyship is a concept which was introduced by people of colour to name white people fighting for racial justice at their side. Of course, it is a concept which helps in all situations where a group is less powerful than another. Men working for the advancement of non-male mathematicians is strictly necessary in order for equality of chances and a diversity of people in mathematics to be achieved in the next generation. And to be clear: this has nothing to do with counting heads but it is about not ruining the future of mathematics as a discipline by creating obstacles for mathematicians with minoritized identities. The important question is: How is it possible to educate men and especially powerful white men to become allies? The idea of this first workshop designed by Stephanie and Stan was to invite men already interested in learning more and to build a basis with the documentary Picture a scientist (2020). SYNOPSIS PICTURE A SCIENTIST chronicles the groundswell of researchers who are writing a new chapter for women scientists. Biologist Nancy Hopkins, chemist Raychelle Burks, and geologist Jane Willenbring lead viewers on a journey deep into their own experiences in the sciences, ranging from brutal harassment to years of subtle slights. Along the way, from cramped laboratories to spectacular field stations, we encounter scientific luminaries - including social scientists, neuroscientists, and psychologists - who provide new perspectives on how to make science itself more diverse, equitable, and open to all. (from the webpage) In this film there are no mathematicians, but the situations in sciences and mathematics are very similar and for that it lends itself to show the situation. In the podcast conversation Gudrun and Stephanie talk about why and in what way the documentary spoke to them. The huge and small obstacles in their own work as women mathematicians which do not make them feel welcome in a field they feel passionate about. The film shows what happens to women in Science. It shows also men in different roles. Obviously there are the bullies. Then there are the bystanders. There are universities which allow women to be hired and give them the smallest space available. But there are also men who consider themselves friends of their female collaegues who cannot believe that they did not notice how the behaviour of other men (and their own behavior in not taking a side). Seeing this play out over the course of the film is not a comfortable watch, and perhaps because of this discomfort, we hope to build empathy. On the other hand, there is a story of women scientists who noticed that they were not treated as well as their male colleagues and who found each other to fight for office space and the recognition of their work. They succeded a generation ago. The general idea of the workshop was to start with the documentary and to talk about different people and their role in the film in order to take them as prototypical for roles which we happen to observe in our life and which we might happen to play. This discussion in groups was moderated and guided in order to make this a safe space for everyone. Stephanie spoke about how we have to let men grow into their responsibility to speak out against a hostile atmosphere at university created mostly by men. In the workshop it was possible to first develop and then train for possible responses in situations which ask for men stepping in as an ally. The next iteration of the workshop Picture a Mathematician will be on May 11. Biography: Stephanie Salomone earned her Ph.D. in Mathematics from UCLA in 2005 and joined the faculty at the University of Portland that year. She serves as Professor and Chair of Mathematics and Director of the STEM Education and Outreach Center at UP, as well as the Faculty Athletic Representative. She is an Associate Director of Project NExT, a national professional development program for new higher-education mathematics faculty. She was the PI on the NSF REFLECT program, advancing the use of evidence-based practices in STEM teaching at UP and the use of peer-observation for formative assessment of teaching, and has managed a combined $1.6 million as the PI on a subaward of the Western Regional Noyce Alliance grant and as PI of the NSF Noyce Program at UP. She is on the Board of Directors for Saturday Academy, a local 501c3 whose mission is to engage children in hands-on STEM learning. Dr. Salomone is the recipient of UP's 2009 Outstanding Teaching Award and the recipient of the 2019 Oregon Academy of Sciences Outstanding Educator in STEM Higher Education Award. Literature and further information Allyship: What It Means to Be an Ally, Tulane university, School of social work Guide to allyship Ernest, Reinholz, and Shah: Hidden Competence: women's mathematical participation in public and private classroom spaces, Educ Stud Math 102, 153–172 (2019). https://doi.org/10.1007/s10649-019-09910-w J.R. Cimpian, T.H. Kimand, Z.T. McDermott: Understanding persistent gender gaps in STEM, Science 368, Issue 6497, 1317-1319 (2020). https://doi.org/10.1126/science.aba7377 S.J. Ceci and W.M. Williams: Understanding current causes of women's underrepresentation in science PNAS 108 3157–3162 (2011). https://doi.org/10.1073/pnas.1014871108 Inquirybased learning site Equatiy and teaching math Blog post by Stan Yoshinobu Podcasts Mathematically uncensored Podcast
Gudrun spricht in dieser Folge mit Pauline Brumm von der TU Darmstadt über Benetzung im Tiefdruck. Sie ist wissenschaftliche Mitarbeiterin am Institut für Druckmaschinen und Druckverfahren und promoviert im SFB 1194 zur Mechanischen Zwangsbenetzung von Oberflächen durch gravierte Tiefdruckzylinder im Teilprojekt C01. Es handelt sich um eine Weiterführung des Gesprächs mit Dr. Mathis Fricke im Modellansatz-Podcast Folge 242 über Dynamische Benetzung. Herr Fricke hatte über die Arbeit im SFB 1194 aus Sicht der Mathematik berichtet, Frau Brumm liefert in dieser Folge nun einen Beitrag aus Sicht der Anwendung. Sie hat Maschinenbau im Bachelor und Master an der TU Darmstadt studiert und sich auf Drucktechnik spezialisiert. Drucken wird seit hunderten von Jahren praktiziert und angewendet, jedoch gibt es bisher noch keine umfassende Modellbildung für viele Druckprozesse. Das bedeutet, dass ein Großteil des Wissens empirisch geprägt ist. Firmen stützen sich auf die Erfahrung von gelernten Drucktechnikern, jedoch ist diese Erfahrung nur selten öffentlich zugänglich und es gibt wenige Forschungsinstitute weltweit zum Thema Drucktechnik. Um innovative Anwendungen zu entwickeln, zum Beispiel aus dem Bereich der gedruckten Elektronik, bedarf es jedoch einer detaillierten Modellvorstellung des Druckprozesses, um klassische Druckverfahren aus dem grafischen Druck (Zeitungsdruck, Verpackungsdruck etc.) für den sogenannten „funktionalen Druck“ nutzbar zu machen. Die Schwierigkeit liegt darin, dass an den funktionalen Druck ganz andere Anforderungen gestellt werden, zum Beispiel müssen die gedruckten, häufig ultradünnen Schichten geschlossen, fehlerfrei und von konstanter Schichtdicke sein. Ein häufiger Druckfehler ist das sogenannte „Viscous Fingering“, eine hochdynamische Grenzflächeninstabilität bei der Fluidübertragung, die sich in Form von faszinierenden, verästelten, fingerartigen Strukturen in der gedruckten Schicht bemerkbar macht. Sie sehen so ähnlich aus wie die Arme eines Flussdeltas aus Vogelperspektive oder die Wurzeln von Bäumen. In ihrer Forschung untersucht Frau Brumm diese verästelten Strukturen im Tiefdruck, um sie besser zu verstehen und um den Druckfehler in Zukunft zu verhindern oder für spezielle Anwendungen nutzbar zu machen. Beim Tiefdruck wird die Farbe über gravierte Näpfchen in einem Druckzylinder übertragen. Die Näpfchen liegen vertieft und sind nur wenige zehn Mikrometer groß. Beim Kontakt mit dem zu bedruckenden Substrat (Papier, Folie, Glas…) wird die Druckfarbe unter hohem Druck und hoher Geschwindigkeit aus den Näpfchen herausgesaugt. Es kommt zur Zwangsbenetzung des Substrats. Mit Stokes-Gleichungen kann man Parametermodelle herleiten, welche das Skalierungsverhalten der verästelten, gedruckten Strukturen beschreiben. Zum Beispiel skaliert der dominante Abstand der gedruckten Strukturen mit der Druckgeschwindigkeit hoch minus ein Halb laut Sauer et al. (2015), welches dem 60 Jahre alten Skalengesetz von Saffman und Taylor (1958) entspricht. Mit Experimenten können diese Modelle bestätigt oder widerlegt werden. Die Planung von Experimenten geschieht zielgerichtet. Im Vorfeld muss überlegt werden, welche Parameter im Experiment variiert werden sollen und wie viele Messpunkte benötigt werden, um statistisch abgesicherte Aussagen treffen zu können. Meistens ist die Herausforderung, die Vielzahl der Parameterkombinationen auf ein Minimum zu reduzieren und dennoch die gewünschten Aussagen treffen zu können. Die gedruckten Proben werden hochauflösend mit einem Flachbettscanner digitalisiert und danach werden Bildverarbeitungsmethoden in den ingenieurstypischen Programmiersprachen Matlab oder Python angewendet. Beispielsweise wird eine Fast Fourier Transformation (FFT) benutzt, um den dominanten Abstand der gedruckten Strukturen zu ermitteln. Die Automatisierung des Experiments und vor allem der anschließenden Auswertung ist ein weiterer wichtiger Punkt. Um zehntausende von gedruckten Mustern zu analysieren, wurde ein hochautomatisierter computergestützter Workflow entwickelt. Seit kurzem wird von Frau Brumm auch Künstliche Intelligenz, genauer gesagt Deep Learning, zur Klassifizierung der gedruckten Muster verwendet. Dies ist notwendig, um die Skalierbarkeit hin zu industriellen Prozessen zu ermöglichen, indem umfangreiche Versuchsreihen an industriellen Maschinen durchgeführt und automatisiert ausgewertet werden. Diese werden anschließend mit kleineren Versuchsreihen an speziell entwickelten Labormaschinen verglichen, bei denen teilweise auch Modellfluide anstelle von realen Druckfarben verwendet werden. Bei Laborexperimenten werden in Teilprojekt C01 im SFB 1194 auch Hochgeschwindigkeitsvideos der hochdynamischen Grenzflächeninstabilität aufgenommen, die noch tiefere Einblicke in die Strömungsdynamik bieten und die industriellen Experimente ergänzen und erklären sollen. Der Maschinenbau ist sehr breit gefächert und das Studium muss dementsprechend auch breite Kenntnisse vermitteln. Beispielsweise werden umfangreiche Methoden aus der Mathematik gelehrt, damit ein/e Maschinenbau-Absolvent/in für die diversen Anwendungsaufgaben gerüstet ist. In der modernen Forschung ist die Fähigkeit zur interdisziplinären Zusammenarbeit und zur Wissenschaftskommunikation sehr entscheidend. Maschinenbauer/innen im SFB 1194 arbeiten beispielsweise mit Mathematikern/innen, Physikern/innen und Informatikern/innen zusammen, um eine größere Forschungsfrage zu beantworten. In dieser Podcast-Folge wird auch an junge Frauen appelliert, ein MINT-Studium auszuprobieren, um mehr Diversität im Studium, Forschung und Industrie zu erreichen, um am Ende noch innovativere Lösungen zu schaffen, die der Welt einen Nutzen bringen. Literatur und weiterführende Informationen Pauline Brumm, Tim Eike Weber, Hans Martin Sauer, and Edgar Dörsam: Ink splitting in gravure printing: localization of the transition from dots to fingers. J. Print Media Technol. Res. Vol. 10 No. 2 (2021), 81-93 Pauline Brumm, Hans Martin Sauer, and Edgar Dörsam: Scaling Behavior of Pattern Formation in the Flexographic Ink Splitting Process. Colloids and Interfaces, Vol. 3 No. 1 (2019), 37 Hans Martin Sauer; Dominik Daume, and Edgar Dörsam: Lubrication theory of ink hydrodynamics in the flexographic printing nip. Journal of Print and Media Technology Research, Vol. 4 No. 3 (2015), 163-172 Julian Schäfer, Ilia V. Roisman, Hans Martin Sauer, and Edgar Dörsam: Millisecond fluid pattern formation in the nip of a gravure printing machine. Colloids and Surfaces A: Physicochemical and Engineering Aspects, Vol. 575 (2019), 222-229 Philip Geoffrey Saffman, and Geoffrey Ingram Taylor: The penetration of a fluid into a porous medium or Hele-Shaw cell containing a more viscous liquid. Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences Vol. 245 No. 1242 (1958), 312-329 Podcasts M. Fricke, G. Thäter: Dynamische Benetzung, Gespräch im Modellansatz Podcast, Folge 242, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2021. M. Haragus, G. Thäter: Pattern Formation, Conversation im Modellansatz Podcast, Episode 227, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2019. S. Winter: Fraktale Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 120, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Lerch, G. Thaeter: Machine Learning, Gespräch im Modellansatz Podcast, Folge 232, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020.
Gudrun spricht in dieser Folge mit Sarah Bischof, Timo Bohlig und Jonas Albrecht. Die drei haben im Sommersemester 2021 am Projektorientiertes Softwarepraktikum teilgenommen. Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle, die Idee von Lattice-Boltzmann-Methoden und die Nutzung der Hochleistungrechner am KIT. Außerdem finden sie sich für ein einführendes kleines Projekt in Gruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert oder es wird eine Podcastfolge aufgenommen. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Sarah, Timo und Jonas sind am KIT im Masterstudiengang Chemieingenieurwesen eingeschrieben. Neben den verschiedenen Masterstudiengängen Mathematik kommen aus diesem Studiengang die meisten Interessenten für das Softwarepraktikum. Im Podcast erläutern sie, was sie an der Strömungssimulation interessiert und inwieweit sie sich gut oder auch nicht so gut auf die Anforderungen vorbereitet gefühlt haben, wie sie sich die Arbeit in der Gruppe aufgeteilt haben und was sie an fachlichen und überfachlichen Dingen dort gelernt haben. Das Thema des Projektes war ein Benchmark für die Durchströmung der Aorta. Dies ist einer der Showcases für OpenLB, die auf den ersten Blick die Leistungsfähigkeit der Software demonstrieren sollen. Das Projekt wurde von der Gruppe in drei Teile gegliedert: Benchmark Test auf dem bwUniCluster 2.0 (High Performance Computer) Performance Analyse mit selbstgeschriebener Source Code Erweiterung Performance Analyse mit externer Software (Validierung der Source Code Erweiterung) Mit Hilfe der Benchmark Tests auf dem HPC konnte die maximale Skalierbarkeit des Aorta Source Codes in Abhängigkeit der Problemgröße gefunden werden. Sie gibt an, auf wie vielen Computerprozessoren der Showcase mit der höchsten Performance simuliert werden kann. Des Weiteren wurde die parallele Effizienz mit Hilfe der Speedup Kennzahl untersucht. Diese beschreibt inwiefern sich die Simulationszeit infolge von Erhöhung der Prozessoranzahl verringert. In beiden Fällen zeigten die Performanceindikatoren ein Maximum bei 400-700 Prozessoreinheiten für Problemgrößen bis zu einer Resolution von N = 80. Das Softwarepaket OpenLB beinhaltet in Release 1.4r0 keine detaillierten Schnittstellen zur Performancemessung. Durch eine Source Code Erweiterung konnte eine interne Zeitmessung der einzelnen Funktionen des Codes realisiert werden. Dabei wurden so genannte Bottlenecks identifiziert und dokumentiert, welche durch Updates in zukünftigen Versionen der Software eliminiert werden sollen. Des Weiteren konnte auch durch die Code Erweiterung eine Aussage über die Parallelisierung getroffen werden. Im Vergleich zu den Benchmark Tests können direkt Funktionen des Source Codes, die die Parallelisierung hemmen, bestimmt werden. Die Performance Analyse durch das externe Programm und durch die Source Code Erweiterung bestätigen eine gut funktionierende Parallelisierung. Die Realisierung erfolgte dabei durch die Messung der Laufzeit der Hauptschritte einer OpenLB Simulation, sowie der detaillierten Analyse einzelner Funktionen. Diese finden sich zum aktuellen Zeitpunkt im Post-Processing des "Collide And Stream" Schrittes der Simulation. Collide And Stream beschreibt einen lokalen Berechnungsschritt, einen lokalen und einen nicht lokalen Übertragungsschritt. Der Kollisionsschritt bestimmt ein lokales Gleichgewicht der Massen-, Momenten- und Energiebilanzen. Im nicht-lokalen Streaming Schritt werden diese Werte auf die angrenzenden Blöcke des Simulationsgitters übertragen. Dies ermöglicht im Vergleich zu CFD-Simulationen, die auf Basis der Finite-Volumen-Methode (FVM) die Navier-Stokes Gleichungen lösen, effizientere Parallelisierung insbesondere bei Einsatz einer HPC-Einheit. Die Post Prozessoren im Collide And Stream wenden unter anderem bestimmte, im vorangegangenen Schritt gesetzte Randbedingungen auf definierte Bereiche der Simulationsgeometrie an. Sie werden dabei nur für nicht-lokale Randbedingungen verwendet, weitere Randbedingungen können auch innerhalb des Kollisionsschrittes modelliert werden. Im Showcase der Aorta ist für das Fluid (Blut) am Eingang der Simulation eine Geschwindigkeits-Randbedingung nach Bouzidi mit Poiseuille-Strömungsprofil und am Ausgang eine "stress-free" Bedingung gewählt. Für die Aortawand ist eine no-slip Bedingung mit Fluidgeschwindigkeit null implementiert (Für genauere Informationen zum Simulationsaufbau hier und hier. Die Laufzeit der Post-Processor Funktionen, deren Aufgabe es ist die Randbedingungen anzuwenden, können mit dem Timer des Release 1.4r0 nicht analysiert werden. Mit Blick auf spätere Releases ist es mit der Source Code Erweiterung nun möglich mit geringem Aufwand Daten über die Effizienz der vorhandenen, neuer oder verbesserter Funktionen in OpenLB zu gewinnen. Eine integrierte Zeitmessung als Analysetool kann einen direkten Einfluss auf die Performance des Source Codes haben, weshalb mit Hilfe der externen Software AMDµProf die Bottlenecks validiert wurden. Sowohl bei der internen als auch externe Performance Analyse sind die selben Post-Processing Schritte als Bottlenecks erkennbar, welches die Code Erweiterung validiert. Zusätzlich konnte mit der AMDμProf-Software die aktuelle OpenLB Version 1.4r0 mit der vorherigen Version 1.3r1 verglichen werden. Dabei fällt auf, dass sich die Bottlenecks vom Berechnungsschritt in Collide And Stream (Release 1.3r1) zum Post-Processing Schritt in Collide And Stream (Release 1.4r0) verschoben haben. Abschließend wurde eine vektorisierte Version von OpenLB erfolgreich getestet und ebenfalls auf Bottlenecks untersucht. Eine Vektorisierung eines Codes, auch bekannt als SIMD, soll die Parallelisierung verbessern und der Aorta Simulation eine bessere Performance verleihen. Das Bottleneck des Post-Processing Schritts in Collide And Stream, speziell durch Implementierung neuer Bouzidi Boundaries, wurde durch eine weitere Gruppe im Rahmen des Projektorientierten Softwarepraktikums optimiert. Es konnte eine Performance Verbesserung um einen Faktor 3 erreicht werden (mit OpenMP Compiler). Durch eine gezielte Analyse der Bottlenecks im Code konnte das Potential für die Beschleunigung der Simulation erweitert werden. Aber natürlich lohnt es sich hier weiterhin anzusehen, wo noch konkretes Potential für die Beschleunigung der Simulation liegt. Zumal seit dem letzten Relounch einige Pardigmen in der Software OpenLB verändert wurden. Podcasts L. Dietz, J. Jeppener, G. Thäter: Gastransport - Gespräch im Modellansatz Podcast, Folge 214, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019. A. Akboyraz, A. Castillo, G. Thäter: Poiseuillestrom - Gespräch im Modellansatz Podcast, Folge 215, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019.A. Bayer, T. Braun, G. Thäter: Binärströmung, Gespräch im Modellansatz Podcast, Folge 218, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. Literatur und weiterführende Informationen Showcase blood flow simulation auf der Seite der Software OpenLBAortic Coarctation Simulation Based on the Lattice Boltzmann Method: Benchmark Results, Henn, Thomas;Heuveline, Vincent;Krause, Mathias J.;Ritterbusch, SebastianMRI-based computational hemodynamics in patients with aortic coarctation using the lattice Boltzmann methods: Clinical validation study; Mirzaee, Hanieh;Henn, Thomas;Krause, Mathias J.;Goubergrits, Leonid; Schumann, Christian; Neugebauer, Mathias; Kuehne, Titus; Preusser, Tobias; Hennemuth, Anja
Gudrun spricht in dieser Folge mit Mathis Fricke von der TU Darmstadt über Dynamische Benetzungsphänomene. Er hat 2020 in der Gruppe Mathematical Modeling and Analysis bei Prof. Dieter Bothe promoviert. Diese Gruppe ist in der Analysis und damit in der Fakultät für Mathematik angesiedelt, arbeitet aber stark interdisziplinär vernetzt, weil dort Probleme aus der Verfahrenstechnik modelliert und simuliert werden. Viele Anwendungen in den Ingenieurwissenschaften erfordern ein tiefes Verständnis der physikalischen Vorgänge in mehrphasigen Strömungen, d.h. Strömungen mit mehreren Komponenten. Eine sog. "Kontaktlinie" entsteht, wenn drei thermodynamische Phasen zusammenkommen und ein komplexes System bilden. Ein typisches Beispiel ist ein Flüssigkeitströpfchen, das auf einer Wand sitzt (oder sich bewegt) und von der Umgebungsluft umgeben ist. Ein wichtiger physikalischer Parameter ist dabei der "Kontaktwinkel" zwischen der Gas/Flüssig-Grenzfläche und der festen Oberfläche. Ist der Kontaktwinkel klein ist die Oberfläche hydrophil (also gut benetzend), ist der Kontaktwinkel groß ist die Oberläche hydrophob (schlecht benetzend). Je nach Anwendungsfall können beide Situationen in der Praxis gewollt sein. Zum Beispiel können stark hydrophobe Oberflächen einen Selbstreinigungseffekt aufweisen weil Wassertropfen von der Oberfläche abrollen und dabei Schmutzpartikel abtransportieren (siehe z.B. https://de.wikipedia.org/wiki/Lotoseffekt). Dynamische Benetzungsphänomene sind in Natur und Technik allgegenwärtig. Die Beine eines Wasserläufers nutzen eine ausgeklügelte hierarchische Oberflächenstruktur, um Superhydrophobie zu erreichen und das Insekt auf einer Wasseroberfläche leicht stehen und laufen zu lassen. Die Fähigkeit, dynamische Benetzungsprozesse zu verstehen und zu steuern, ist entscheidend für eine Vielzahl industrieller und technischer Prozesse wie Bioprinting und Tintenstrahldruck oder Massentransport in Mikrofluidikgeräten. Andererseits birgt das Problem der beweglichen Kontaktlinie selbst in einer stark vereinfachten Formulierung immer noch erhebliche Herausforderungen hinsichtlich der fundamentalen mathematischen Modellierung sowie der numerischen Methoden. Ein übliche Ansatz zur Beschreibung eines Mehrphasensystems auf einer makroskopischen Skala ist die Kontinuumsphysik, bei der die mikroskopische Struktur der Materie nicht explizit aufgelöst wird. Andererseits finden die physikalischen Prozesse an der Kontaktlinie auf einer sehr kleinen Längenskala statt. Man muss daher das Standardmodell der Kontinuumsphysik erweitern, um zu einer korrekten Beschreibung des Systems zu gelangen. Ein wichtiges Leitprinzip bei der mathematischen Modellierung ist dabei der zweite Hauptsatz der Thermodynamik, der besagt, dass die Entropie eines isolierten Systems niemals abnimmt. Dieses tiefe physikalische Prinzip hilft, zu einem geschlossenen und zuverlässigen Modell zu kommen. Die größte Herausforderung in der kontinuumsmechanischen Modellierung von dynamischen Benetzungsprozessen ist die Formulierung der Randbedingungen für die Navier Stokes Gleichungen an der Festkörperoberfläche sowie am freien Rand zwischen Gas und Flüssigkeit. Die klassische Arbeit von Huh und Scriven hat gezeigt, dass die übliche Haftbedingung ("no slip") an der Festkörperoberfläche nicht mit einer bewegten Kontaktlinie und damit mit einem dynamischen Benetzungsprozess verträglich ist. Man kann nämlich leicht zeigen, dass die Lösung für die Geschwindigkeit in diesem Fall unstetig an der Kontaktlinie wäre. Weil das Fluid (z.B. Wasser) aber eine innere Reibung (Viskosität) besitzt, würde dann mit einer unendlichen Rate ("singulär") innere Energie in Wärme umgewandelt ("dissipiert"). Dieses Verhalten ist offensichtlich unphysikalisch und zeigt dass eine Anpassung des Modells nötig ist. Einer der wesentlichen Beiträge von Mathis Dissertation ist die qualitative Analyse von solchen angepassten Modellen (zur Vermeidung der unphysikalischen Singularität) mit Methoden aus der Geometrie. Die Idee ist hierbei eine systematische Untersuchung der "Kinematik", d.h. der Geometrie der Bewegung der Kontaktlinie und des Kontaktwinkels. Nimmt man das transportierende Geschwindigkeitsfeld als gegeben an, so kann man einen fundamentalen geometrischen Zusammenhang zwischen der Änderungsrate des Kontaktwinkels und der Struktur des Geschwindigkeitsfeldes herleiten. Dieser geometrische (bzw. kinematische) Zusammenhang gilt universell für alle Modelle (in der betrachteten Modellklasse) und erlaubt tiefe Einsichten in das qualitative Verhalten von Lösungen. Neben der mathematischen Modellierung braucht man auch numerische Werkzeuge und Algorithmen zur Lösung der resultierenden partiellen Differentialgleichungen, die typischerweise eine Variante der bekannten Navier-Stokes-Gleichungen sind. Diese nichtlinearen PDE-Modelle erfordern eine sorgfältige Auswahl der numerischen Methoden und einen hohen Rechenaufwand. Mathis entschied sich für numerische Methoden auf der Grundlage der geometrischen VOF (Volume-of-Fluid) Methode. Die VOF Methode ist eine Finite Volumen Methode und basiert auf einem diskreten Gitter von würfelförmigen Kontrollvolumen auf dem die Lösung des PDE Systems angenähert wird. Wichtig ist hier insbesondere die Verfolgung der räumlichen Position der freien Grenzfläche und der Kontaktlinie. In der VOF Methode wird dazu für jede Gitterzelle gespeichert zu welchem Anteil sie mit Flüssigkeit bzw. Gas gefüllt ist. Aus dieser Information kann später die Form der freien Grenzfläche rekonstruiert werden. Im Rahmen von Mathis Dissertation wurden diese Rekonstruktionsverfahren hinsichtlich Ihrer Genauigkeit nahe der Kontaktlinie weiterentwickelt. Zusammen mit komplementären numerischen Methoden sowie Experimenten im Sonderforschungsbereich 1194 können die Methoden in realistischen Testfällen validiert werden. Mathis hat sich in seiner Arbeit vor allem mit der Dynamik des Anstiegs einer Flüssigkeitssäule in einer Kapillare sowie der Aufbruchdynamik von Flüssigkeitsbrücken (sog. "Kapillarbrücken") auf strukturierten Oberflächen beschäftigt. Die Simulation kann hier als eine numerische "Lupe" dienen und Phänomene sichtbar machen die, z.B wegen einer limitierten zeitlichen Auflösung, im Experiment nur schwer sichtbar gemacht werden können. Gleichzeitig werden die experimentellen Daten genutzt um die Korrektheit des Modells und des numerischen Verfahrens zu überprüfen. Literatur und weiterführende Informationen Fricke, M.: Mathematical modeling and Volume-of-Fluid based simulation of dynamic wetting Promotionsschrift (2021). de Gennes, P., Brochard-Wyart, F., Quere, D.: Capillarity and Wetting Phenomena, Springer (2004). Fricke, M., Köhne, M., Bothe, D.: A kinematic evolution equation for the dynamic contact angle and some consequences. Physica D: Nonlinear Phenomena, 394, 26–43 (2019) (siehe auch arXiv). Fricke, M., Bothe, D.: Boundary conditions for dynamic wetting – A mathematical analysis. The European Physical Journal Special Topics, 229(10), 1849–1865 (2020). Gründing, D., Smuda, M., Antritter, T., Fricke, M., Rettenmaier, D., Kummer, F., Stephan, P., Marschall, H., Bothe, D.: A comparative study of transient capillary rise using direct numerical simulations, Applied Mathematical Modelling (2020) Fricke, M., Marić, T. and Bothe, D.: Contact line advection using the geometrical Volume-of-Fluid method, Journal of Computational Physics (2020) (siehe auch arXiv) Hartmann, M., Fricke, M., Weimar, L., Gründing, D., Marić, T., Bothe, D., Hardt, S.: Breakup dynamics of Capillary Bridges on Hydrophobic Stripes, International Journal of Multiphase Flow (2021) Fricke, M., Köhne, M. and Bothe, D.: On the kinematics of contact line motion, Proceedings in Applied Mathematics and Mechanics (2018) Fricke, M., Marić, T. and Bothe, D.: Contact line advection using the Level Set method, Proceedings in Applied Mathematics and Mechanics (2019) Huh, C. and Scriven, L.E: Hydrodynamic model of steady movement of a solid/liquid/fluid contact line, Journal of Colloid and Interface Science (1971) Bothe, D., Dreyer, W.: Continuum thermodynamics of chemically reacting fluid mixtures. Acta Mechanica, 226(6), 1757–1805. (2015). Bothe, D., Prüss, J.: On the Interface Formation Model for Dynamic Triple Lines. In H. Amann, Y. Giga, H. Kozono, H. Okamoto, & M. Yamazaki (Eds.), Recent Developments of Mathematical Fluid Mechanics (pp. 25–47). Springer (2016). Podcasts Sachgeschichte: Wie läuft der Wasserläufer übers Wasser? G. Thäter, S. Claus: Zweiphasenströmungen, Gespräch im Modellansatz Podcast, Folge 164, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018 M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016
Gudrun spricht in dieser Folge mit Attila Genda über sein Praktikum bei Dassault Systèmes (Standort Karlsruhe), das er m Frühjahr und Sommer 2020 im Rahmen seines Masterstudiums Technomathematik absolviert hat. Bei Dassault Systèmes in Karlsruhe wird schon seit einigen Jahrzehnten Strukturoptimierung betrieben. Wir haben dort auch schon einige Podcastfolgen zu den mathematischen Hintergründen und den aktuellen Weiterentwicklungen aufgenommen (s.u.). Für die numerische Lösung der betrachteten partiellen Differentialgleichungen werden Finite Elemente Verfahren eingesetzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”zulässig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um konkrete Probleme zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, die jeweils auf die Aufgabenstellung zugeschnitten werden. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Strukturoptimierung verändert die Form eines Bauteils oder einer Baugruppe so, dass weniger Material nötig ist, aber vorgegebene Festigkeitsanforderungen (z.B. Spannungen, denen das Teil typischerweise ausgesetzt ist) erfüllt sind. Dabei darf sich die Materialverteilung frei in approximativen Schritten verändern und ist nicht durch eine Vorplanung der prinzipiell einzuhaltenden äußeren Form begrenzt. Dies führt z.B. zur Entstehung von Löchern in der Form des Bauteils, was die Topologie auch im mathematischen Sinne verändert. Das ist kompliziert und einfach zugleich - je nachdem, unter welchem Blickwinkel man es betrachtet. Die Einfachheit ergibt sich aus der Tatsache, dass keine Zellen aus dem numerischen Netz der Numerik entfernt werden. Man setzt einfach eine Variable, die angibt, ob dort Material vorhanden ist oder nicht. Anstatt dies jedoch mit binären Werten zu tun (d.h. Material "an" oder "aus"), ändert man die Materialdichte der Zelle kontinuierlich zwischen [0, 1]. Dabei steht 0 für kein Material und 1 für die volle Materialmenge. Um numerische Probleme zu vermeiden wird statt 0 eine kleine Zahl verwendet. Da diese Modellierung im Allgemeinen zu physikalisch nicht interpretierbaren Ergebnissen führt, bei denen die Zellen weder leer sind noch die volle Menge an Material enthalten, müssen wir sicherstellen, dass der Optimierer dazu neigt, Ergebnisse zu finden, bei denen die Anzahl der Zellen mit mittlerer Dichte minimal ist. Dazu bestrafen wir solche Konstruktionen. Diese Verfahren heißen Solid Isotropic Material with Penalization Method - kurz SIMP-Methode. Strukturoptimierungsaufgaben enthalten in der Regel eine sehr große Anzahl von Designvariablen, in der Praxis sind es nicht selten mehrere Millionen von Variablen, die die Zielfunktion beeinflussen. Demgegenüber ist die Zahl der Nebenbedingungen viel kleiner - oft gibt es sogar nur ein paar wenige. Da Strukturoptimierungsprobleme im Allgemeinem keine konvexen Promleme sind und oft auch keine linearen Probleme, ist die Auswertung des Zielfunktionals und der Nebenbedingungen sehr rechenintensiv. Deshalb wurden spezielle Algorithmen entwickelt, die besonders geeignet für die Lösung solcher Probleme sind, weil sie vermeiden können, dass bis zur Konvergenz eine große Anzahl von Funktionsauswertungen stattfinden müssen. Der wahrscheinlich meist verbreitete Algorithmus heißt Method of Moving Asymptotes (MAA). Er wird in der Podcastepisode diskutiert. Die Aufgabe von Attila in seiner Zeit des Praktikums war es nämlich, diese Methode zu verallgemeinern, dann zum implementieren und die Implementierung zu testen. Die ursprünglich angewandte MAA-Methode, die von Svanberg vorgeschlagen wurde, verwendet nur einen sehr einfachen Ansatz zur Behandlung der Länge des Intervalls zwischen der unteren und oberen Asymptote. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. doi C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. K. Svanberg: The method of moving asymptotes—a new method for structural optimization, International Journal for Numerical Methods in Engineering, 1987 Podcasts H. Benner, G. Thäter: Formoptimierung, Gespräch im Modellansatz Podcast, Folge 212, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
Gudrun spricht mit Hartwig Anzt. Er leitet die Helmholtz-Nachwuchsgruppe Fixed-point methods for numerics at Exascale (FiNE) am SCC. Seine Forschung beschäftigt sich mit numerischer linearer Algebra in modernen Hochleistungsrechnersystemen. Angesichts des explosionsartigen Anstiegs der Hardware-Parallelität erfordert die effiziente Ausführung von Anwendungen auf solchen Systemen eine völlige Neugestaltung der zugrunde liegenden numerischen Methoden. Dieses neue Paradigma muss Implementierungen umfassen, die sich auf die Parallelität auf Knotenebene, ein reduziertes globales Kommunikationsvolumen und abgeschwächte Synchronisationsanforderungen konzentrieren. Hartwig ist Teil des PEEKS und xSDK-Projekts und leitet die Multiprecision-Initiative im US Exascale Computing Project (ECP). Das Ziel dieser Initiative besteht darin, die Nutzung verschiedener arithmetischer Präzisionen in numerische Algorithmen zu erforschen, wodurch viele Algorithmen beschleunigt werden können, ohne dabei Genauigkeit einzubüßen. Hartwigs Forschungsschwerpunkt liegt auf der Entwicklung und Optimierung numerischer Methoden für effizientes Hochleistungsrechnen. Insbesondere interessiert er sich für lineare Algebra für dünn besetzte Matrizen, iterative und asynchrone Methoden, Krylov-Löser und Vorkonditionierung. Die zugrundeliegende Idee besteht darin, numerische Probleme als Fixpunktprobleme umzuformulieren, um höhere Parallelisierungsgrade zu ermöglichen. Die Implementierung der Fixpunktmethoden macht typischerweise starken Gebrauch von (datenparallelen) Batch-Routinen und weist schwache Synchronisationsanforderungen auf. Die Algorithmenforschung wird ergänzt durch Bemühungen, die auf eine nachhaltige Software-Entwicklung in einem akademischen Umfeld und einen gesunden Software-Lebenszyklus abzielen. Ein Ergebnis dieser Bemühungen ist Ginkgo, eine Open Source Softwarebibliothek für numerische lineare Algebra mit dem Fokus auf Löser für dünn besetzte Systeme, die Hartwig ins Leben gerufen hat. Bei dem Stichwort Software-Nachhaltigkeit könnte man an das Vorhandensein eines Continuous Integration (CI)-Frameworks denken, also das Vorhandensein eines Test-Frameworks, das aus Unit-Tests, Integrationstests und End-to-End-Tests besteht (inkl. das Vorhandensein einer Software-Dokumentation). Wenn man jedoch fragt, was der übliche Todesstoß für ein wissenschaftliches Softwareprodukt ist, ist es oft die fehlende Plattform- und Leistungsportabilität. Vor diesem Hintergrund haben Hartwig und seine Gruppe wir Ginkgo-Bibliothek mit dem primären Fokus auf Plattform-Portabilität und der Fähigkeit, nicht nur auf neue Hardware-Architekturen zu portieren, sondern auch eine gute Performance zu erreichen, entwickelt. Die grundlegende Idee beim Design der Ginkgo-Bibliothek ist eine radikale Trennung der Algorithmen von den hardwarespezifischen Dingen. Daneben sprechen Gudrun und Hartwig über die Nutzung von Kalkülen mit geringer Genauigkeit für letztendlich präzise Algorithmen. Die Hardware-Anbieter haben nämlich damit begonnen, spezielle Funktionseinheiten mit geringer Genauigkeit zu entwickeln, um der Nachfrage z.B. der Machine-Learning-Community und deren Bedarf an hoher Rechenleistung in Formaten mit geringer Genauigkeit zu entsprechen. Hartwig konzentriert sich darauf, wie dann Mixed- und Multiprecision-Technologie helfen kann, die Leistung dieser Methoden zu verbessern und findet Anwendungen, die die traditionellen Methoden mit fester Genauigkeit deutlich übertreffen. Literatur und weiterführende Informationen Hartwig Anzt e.a.: Iterative sparse triangular solves for preconditioning European conference on parallel processing, 650-661 (2015). Ginkgo Numerik für lineare Algebra Paket Terry Cojean, Yu-Hsiang -Mike- Tsai, Hartwig Anzt: Ginkgo - A Math Library designed for Platform Portability 2020. Hartwig Anzt e.a.: An Environment for Sustainable Research Software in Germany and Beyond: Current State, Open Challenges, and Call for Action 2020. Podcasts Exascale Computing Project Episode 47: Hartwig Anzt - Developing Multiprecision Algorithms with the Ginkgo Library Project, 2019. Exascale Computing Project - alle Folgen. C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. S. Janosch, K. Förstner: Forschungssoftware in Deutschland, Open Science Radio, OSR091, 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
Diese Folge entstand im Rahmen eines Projekts zur Modellbildungsvorlesung von Gudrun. Es ist eine Arbeit von Yannik Brenner, Bastian Hasenclever und Urs Malottke, die das Ziel haben, in einigen Jahren Mathematik und Physik am Gymnasium zu unterrichten. Außerdem macht Yannik selbst Musik und hat sich deshalb ganz praktisch mit Schwingungen an der Gitarre beschäftigt. Die drei hatten die Idee, dass man das Thema Schwingunge interessant für die Schule aufbereiten kann, wenn es dazu auch Hörbeispiele gibt. Deshalb haben Sie sich an einen Tisch gesetzt, das Gespräch und die Hörbeispiele aufgenommen und schließlich den Text dazu aufgeschrieben. Der harmonische Oszillator spielt eine wichtige Rolle zur Modellierung verschiedenster physikalischer Sachverhalte. Daher bietet es sich an, ihn schon in der Schule zu thematisieren, wo er auch in der Oberstufe im Bildungsplan zu finden ist. Während im Podcast der Versuch unternommen wurde, ein Grundverständnis für das Thema ohne formale Zusammenhänge zu entwickeln, sollen hier zusätzlich die mathematischen Hintergründe gemeinsam mit einigen Abbildungen ergänzt werden. Die didaktischen Aspekte, die in der Episode zur Sprache kommen, spielen im folgenden Text jedoch nur eine untergeordnete Rolle. Grundlegendes Ein Oszillator ist ein System, das um einen bestimmten Punkt, in der Regel Ruhepunkt oder auch die Ruhelage genannt, schwingen kann. Befindet sich das System in Ruhe in dieser Ruhelage, passiert ohne die Einwirkung äußerer Kräfte nichts; wird das System von diesem Punkt ausgelenkt, wird es durch eine rückstellende Kraft wieder Richtung Ruhepunkt beschleunigt. Der Zusatz "harmonisch" bedeutet, dass die Rückstellkraft linear von der Auslenkung zum Ruhepunkt abhängt, also proportional zur Auslenkung zunimmt. Der Graph der Bewegungsfunktion ist eine Sinus- oder Cosinus-Kurve. Die einfachsten und wohl auch bekanntesten Beispiele eines Oszillators im Bereich der Mechanik sind das Faden- und das Federpendel. Beim Fadenpendel ist der niedrigste Punkt die Ruhelage und die Rückstellkraft resultiert aus der Gravitationskraft. Beim Federpendel stellt die Federkraft die rückstellende Kraft dar. Eigenschaften eines harmonischen Oszillators Ein schwingfähiges System besitzt verschiedene Eigenschaften, mit deren Hilfe das gesamte System beschrieben werden kann. Um den harmonischen Oszillator zu verstehen, kann man sich zuerst die Bewegungsgleichung ansehen, also die Gleichung, die die aktuelle Lage des Systems beschreibt. Ausgangspunkt ist die Rückstellkraft, die im mechanischen Fall linear von der Auslenkung zur Ruhelage, also dem aktuellen Ort, abhängt (auf nicht-mechanische Einsatzgebiete wird später eingegangen). Die Rückstellkraft kann mit einer Variablen , die von verschiedenen Merkmalen des Systems abhängt, gemeinsam mit dem Ort also als dargestellt werden. Die Kraft kann auch als Beschleunigung , also der zweifachen Ableitung des Ortes, mal der Masse ausgedrückt werden, wodurch die Formel auch folgendermaßen aussehen kann: Diese Art von Formeln, in der eine Größe gemeinsam mit einer ihrer Ableitungen auftritt, wird Differentialgleichung genannt. Das Erarbeiten einer Lösung ist leichter, wenn durch die Gleichung vereinfacht wird. wird die Eigenfrequenz des Systems genannt und gibt außerdem an, wie viele Schwingungen das System in einer bestimmten Zeit, oftmals einer Sekunde, macht, wenn keine anderen Kräfte vorliegen. Somit ergibt sich Die Lösung der Funktion für den Ort muss eine Funktion sein, die nach zweimaligem Ableiten bis auf einen Vorfaktor und das Vorzeichen wieder die Ursprungsfunktion ist. Deshalb sind Sinus- und Cosinus-Funktionen, oder die äquivalente Darstellung durch die e-Funktion (siehe Eulersche Formel), Lösungen. Werden nun gewählt, wobei und die Amplituden, also maximalen Auslenkungen der Schwingungen darstellen, kann mit den Ableitungsregeln überprüft werden, dass dies Lösungen für die Bewegungsgleichung sind. Als Summe zweier Lösungen ist auch Eine Lösung, die die allgemeine Lösung genannt wird. Die beiden Amplituden der einzelnen Sinus-/Kosinus-Funktion müssen dabei aus Anfangsbedingungen bestimmt werden. Man sieht, dass die Amplitude der beobachtbaren Schwingung sein muss, also der maximalen Auslenkung, die beim Zeitpunkt vorliegt, da die Gesamtschwingung zum Zeitpunkt diese Auslenkung annehmen muss und zu diesem Zeitpunkt der Sinus verschwindet: Die Amplitude der Sinus-Funktion bestimmt sich nach und spielt daher dann eine Rolle, wenn zum Zeitpunkt bereits eine Geschwindigkeit vorliegt, das System also nicht aus der Ruhe losgelassen, sondern angestoßen wird. Zu besprechen ist allerdings noch, wie die Gleichung bei einem anderen Pendel als dem Federpendel aussieht. Das Prinzip des Oszillators bleibt gleich und somit natürlich auch die Mathematik, die ihn beschreibt. Allerdings setzt sich bei anderen Pendeln anders zusammen, da bei ihnen andere Rückstellkräfte und andere Systemeigenschaften eine Rolle spielen und nicht die Federkonstante und Masse wie beim Federpendel. So gilt beim Fadenpendel wobei die klassische Gravitationskonstante ist, die beim Fadenpendel eine große Rolle für die Rückstellkraft einnimmt, und die Fadenlänge darstellt. Werden Oszillatoren außerhalb der Mechanik betrachtet, beispielsweise der elektrische Schwingkreis, ergibt sich aus den Eigenschaften, die dieses System beschreiben. Beim elektrischen Schwingkreis z.B. aus der Induktivität der Spule und der Kapazität des Kondensators: Um die Sinus-förmige Schwingung eines Oszillators zu beschreiben, werden noch weitere Begriffe verwendet, die jedoch aus den bisher vorgestellten Eigenschaften bestimmt werden können. So wird unter der Schwingungs- oder Periodendauer die Zeit verstanden, die das System für eine vollständige Schwingung benötigt. Da sie als Informationen die Anzahl an Schwingungen und eine Zeit enthält, muss sie eng mit der Eigenfrequenz zusammenhängen: Überblick über die wichtigsten Begriffe zur Beschreibung einer Schwingung (Quelle: leifiphysik.de) Ungedämpfter harmonischer Oszillator Immer dann, wenn ein schwingfähiges System mit der obigen Gleichung beschrieben werden kann, handelt es sich um einen ungedämpften harmonischen Oszillator. Denn an der Gleichung wird klar, dass die Amplitude, also die maximale Auslenkung, auch bei der 20ten, 100ten, 10.000ten Schwingung wieder erreicht wird. Da sich die Systemeigenschaften ohne äußere Einflüsse ebenfalls nicht ändern, ändert sich das Verhalten dieses Oszillators nie und er schwingt stets gleich um die Ruhelage. Nach der mathematischen Herleitung ist schon fast alles zum ungedämpften harmonischen Oszillator gesagt, denn: Reale Beispiele und Anwendungen gibt es nicht! In der Realität gibt es immer einen Widerstand, der den Oszillator ausbremst und die Auslenkung langsam kleiner werden lässt. Aus diesem Grund ist der ungedämpfte Oszillator nur zum Kennenlernen und Verstehen des Verhaltens sowie als Näherungslösung geeignet. Gedämpfter harmonischer Oszillator Beim gedämpften harmonischen Oszillator existiert eine bremsende Kraft. Das ändert die mathematische Beschreibung in der Differentialgleichung. Die Bewegungsgleichung des Federpendels (und äquivalent die Gleichungen anderer Oszillatoren) wird um einen Term ergänzt, der im einfachen Fall der Reibung in der Luft, also einem Reibungskoeffizienten und proportional zur Geschwindigkeit ist: Oft wird zu zusammengefasst, um das rechnen zu vereinfachen. Die zu lösende Differentialgleichung wird auf die gleiche Art gelöst, wird aber natürlich komplizierter. Als Lösungsansätze empfehlen sich wieder Sinus-, Cosinus- oder e-Funktion. Mit dem Ansatz ergeben sich Lösungen, wenn die folgende Gleichung erfüllt: Je nachdem, wie das Verhältnis von Dämpfung und Eigenfrequenz sind, werden verschiedene Fälle unterschieden: Schwach gedämpfter Fall Der schwach gedämpfte Fall tritt auf, wenn gilt. Somit ist die Zahl unter der Wurzel bei der Berechnung von negativ und die Wurzel selbst imaginär. Mit der verkürzten Schreibweise ergibt sich die allgemeine Lösung zu was im Vergleich mit der ungedämpften Schwingung eine Schwingung mit kleinerer Frequenz (da ) und einer mit der Zeit exponentiell abnehmenden Amplitude darstellt. Eine andere Darstellungsweise ist folgende: Hier ist die exponentielle Abnahme der Amplitude besser ersichtlich, allerdings ist dazu das Verständnis des Zusammenfassens zweier auftretender periodischer Funktionen mittels Phasenverschiebung nötig. Die Schwingung schwingt in diesem Fall weiterhin um die Ruhelage, allerdings wird, wie bereits gesagt, die maximale Auslenkung mit jeder Schwingung geringer. Die Einhüllende zu einer gedämpften Schwingung (Quelle: Wikipedia/Harmonischer-Oszillator) Aperiodischer Grenzfall In Anwendungen ist es oft gewollt, eine Schwingung schnellstmöglich zu stoppen und zur Ruhelage zurückzukehren. Wenn eine Dämpfung keine komplette Fixierung in einem Zustand beinhaltet, ist eine überstarke Dämpfung dabei aber nicht zielführend, wie intuitiv oft angenommen wird. Um die Schwingung schnellstmöglich zu stoppen, ist die Bedingung nötig. Somit verschwindet in der Berechnung von die Wurzel und es bleibt nur eine Lösung übrig, was für die Schwingung zu führt, wobei und aus den Anfangsbedingungen, also Auslenkung und Startgeschwindigkeit, bestimmt werden. Beim aperiodischen Grenzfall, manchmal auch mit kritischer Dämpfung bezeichnet, findet keine Schwingung mehr statt. Je nach Anfangsbedingungen kann die Ruhelage einmal durchlaufen werden, spätestens dann wird sich dieser allerdings exponentiell angenährt. Darstellung des aperiodischen Grenzfalls mit unterschiedlichen Startgeschwindigkeiten (Quelle: https://de.wikipedia.org/wiki/Aperiodischer_Grenzfall) Starke Dämpfung Zwar führt eine starke Dämpfung auch dazu, dass keine Schwingung stattfindet, allerdings braucht das System lange, um wieder in die Ruhelage zurückzukehren. Deshalb wird dieser Fall auch als Kriechfall bezeichnet. Mathematisch wird er mit der Bedingung beschrieben, was zu zwei reellen, negativen Ergebnissen für führt. Die Bewegungsgleichung ergibt damit vereinfacht wobei und wieder aus den Anfangsbedingungen bestimmt werden. Vergleich des Kriechfalls mit dem aperiodischen Grenzfall Um zu zeigen, dass die vorgestellten Fälle alle von Nutzen sind, werden nun einige Anwendungsbeispiele vorgestellt. So ist der Fall der schwachen Dämpfung für Saiteninstrumente wichtig, da die einzelnen Saiten sich nicht sofort wieder in die Ruhelage begeben dürfen, sondern schwingen müssen, um überhaupt einen Ton erzeugen zu können. Der aperiodische Grenzfall ist beispielsweise für Autofahrer sehr wichtig, da die Stoßdämpfer nach diesem Prinzip funktionieren. Das hat den einfachen Grund, dass das Auto nach der Beanspruchung der Stoßdämpfer schnell wieder in die ideale Straßenlage kommen soll. Würde eine schwache Dämpfung verwendet werden, so würde das Auto noch für längere Zeit auf und ab wippen und die Fahrt eher einer Bootstour ähneln, was wenig komfortabel ist. Bei starker Dämpfung könnte es vorkommen, dass die nächste Beanspruchung nicht ausreichend abgefedert werden kann, da die Feder noch zu stark eingefedert ist. Aber auch die starke Dämpfung hat ihre Anwendungsgebiete. So sind beispielsweise viele Türen in öffentlichen Gebäuden stark gedämpft. Das sorgt für ein langsames und leises Schließen der Türen und verhindert, dass die Tür einer unaufmerksamen Person mit zu viel Geschwindigkeit entgegenfällt und diese eventuell verletzt. Getriebener Oszillator Bisher wurde der Oszillator ohne äußere Kräfte betrachtet. Liegt solch eine Kraft vor, muss diese in die Bewegungsgleichung integriert werden: Interessant ist dieser Fall besonders dann, wenn es sich bei der Kraft um eine periodische Kraft handelt, also . Dieser Fall ist sehr gut mit einem schaukelndem Kind zu vergleichen, welches immer zum gleichen Zeitpunkt mit der gleichen Kraft angeschubst wird. Durch diese von außen aufgebrachte Kraft wird aus der homogenen eine inhomogene Differentialgleichung. Um diese zu lösen muss die Lösung der homogenen Differentialgleichung, welche in dem Abschnitt zu dem gedämpften harmonische Oszillator zu finden ist, mit der sogenannten partikulären Lösung addiert werden. Die partikuläre Lösung lässt sich mit dem Ansatz des Typs der rechten Seite lösen und ergibt sich zu dabei handelt es sich bei um eine Phasenverschiebung zwischen der antreibenden Kraft und dem um den Ruhepunkt schwingenden Massepunkt. Von besonderem Interesse ist dabei das Verhalten des gesamten Systems für verschiedene Frequenzen der treibenden Kraft. Dabei werden drei verschiedene Fälle betrachtet. Niederfrequenter Bereich: Für den niederfrequenten Bereich gilt, dass die Frequenz der antreibenden Kraft sehr viel kleiner ist als die Eigenfrequenz des Oszillators. Aufgrund dessen ist die Amplitude der anregenden Kraft in etwa so groß wie die Amplitude des Massepunktes. Das Amplitudenverhältnis beträgt also ungefähr 1. Der Phasenunterschied zwischen den beiden Schwingungen ist in etwa 0. Resonanzfall: Von Resonanz wird gesprochen, wenn die Frequenz der antreibenden Kraft der Eigenfrequenz des Oszillators gleicht. Infolgedessen erhöht sich die Amplitude des Oszillators gegenüber der Amplitude des Erregers, sodass sich ein Amplitudenverhätnis ergibt, welches größer 1 ist. Die Phasendifferenz beträgt , wobei der Erreger dem Massepunkt vorauseilt. Hochfrequenter Bereich: Sollte die Frequenz der antreibenden Kraft viel größer sein als die Eigenfrequenz des Oszillators so fällt auch die Amplitude des Oszillators wesentlich kleiner aus. Es ergibt sich ein Amplitudenverhätnis, welches gegen 0 geht. Auch in diesem Fall gibt es eine Phasendifferenz , die Schwingungen laufen also fast gegenphasig ab. Auch diese Eigenschaften der Oszillatoren sind im Alltag von Bedeutung. So ist es für Autos wichtig, dass die Eigenfrequenz einzelner Teilsysteme oder des Gesamtsystems nicht im Bereich der Motorendrehzahl liegen um eine komfortable und sichere Fahrt zu gewährleisten. Insbesondere der Resonanzfall kann gefährliche Auswirkungen haben, da in diesem Fall das System immer weiter aufgeschaukelt wird und die Amplitude des Oszillators sich immer weiter erhöht. Falls das System nicht gedämpft ist, kann die Amplitude bis ins Unedliche steigen, was zur Zerstörung des Systems führt. Eine starke Dämpfung kann die maximale Amplitude zwar begrenzen, aber auch in diesem Fall komm es für den Resonanzfall zu einer starken Belastung des Systems, was in den meisten Fällen vermieden werden sollte. Ein gutes Beispiel für eine Resonanzkatastrophe ist die Tacoma Narrows Bridge, welche durch starke Winde in Schwingung versetzt wurde, welche sich dann selbsterregt immer weiter verstärkte, was den Einbruch der Brücke zur Folge hatte. Demgegenüber bleibt aber zu sagen, dass ohne Resonanz auch viele alltägliche Dinge nicht möglich wären, es also auch einen positiven Aspekt gibt. So würde Schaukeln nicht halb so viel Spaß machen, wenn es nicht möglich wäre seine eigene Schwingung zu verstärken und somit immer höher Schaukeln zu können. Ein weiteres typisches Beispiel für den getriebenen harmonischen Oszillator stellt der elektrische Schwingkreis da, der bei der drahtlosen Energieübertragung genutzt wird. Das System wird dabei ständig neu mit Energie aufgeladen, die es dann mittels sogenannter resonant induktiver Kopplung an einen Empfänger weitergeben kann, der so kabellos geladen wird. Weiterführendes Viele weiterführende Beispiele, die sich des Oszillators mit schwacher Dämpfung bedienen, sind in der Akustik respektive Musik zu finden, wie die Schwingung einer (Gitarren-)Seite, die nach einmaligem Anschlag möglichst lange klingen soll. Doch hier handelt es sich nicht um einen einfachen harmonischen Oszillator, sondern um ein komplexeres System. Literatur und weiterführende Informationen Viele Experimente und Material zum Fadenpendel für die Schule findet man z.B. auf leifiphysik.de Physik des Aufschaukelns Anschubsen K. Magnus: Schwingungen, Teubner 1976. Juan R. Sanmartin: O Botafumeiro: Parametric pumping in the Middle Ages Anwendung auf das Schwenken des berühmten Weihrauchfasses in der Kathedrale von Santiago de Compostela, 1984. Podcasts Helen: Schaukeln, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 114, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Im Rahmen der Vorlesung Mathematical Modelling and Simulation haben Jan Dietrich und Alexander Grötz ein Projekt bearbeitet, wo sie Verkehr mit Hilfe der Software VISSIM simulieren. Die Idee kam ihnen durch ein Praktikum Firma ptvgroup an der Verkehrsmodellierung, das Jan Dietrich kürzlich dort absovliert hat. Im Gespräch geht es um verschiedene Formen der Modellierung von Verkehrsflüssen und um konkrete Umsetzung des Modells in VISSIM. Der ersten Teil des Podcasts ist dabei der theorietischen Ausgestaltung von Verkehrsmodellen gewidmet. Im Wesentlichen unterschiedet man zwischen zwei Gruppen von Verkehrsmodellen. Während die so genannten Verkehrsflussmodelle, die die zeitliche Veränderung des Verkehrsaufkommens untersuchen, werden Verkehrsnachfragemodelle dazu verwendet, um Aussagen über das Verkehrsaufkommen in einem Jahr oder die Aufteilung dieser Nachfrage auf die verschiedenen Transportmittel zu treffen. Weiter werden diese beiden Gruppen nochmals in drei Kategorien uterteilt; genauer in Makroskopische Modelle, Mesoskopische Modelle und Mikroskopische Modelle.Eine letzte Unterscheidungsmöglichkeit zwischen einzelnen (Verkehrs-)Modellen ist der Zufall: Wenn jede Modellvariable in dem Sinn "vorhersehbar", dass die quantitative Ausprägung der einzelnen Variablen für alle betrachteten Zeiten exakt berechenbar sind und über deren Ausprägung keine Unsicherheit herrscht, sprich man von deterministischen Modellen. Oft ist es jedoch so, dass man bestimmte Ereignisse oder auch Handlungen der einzelnen Verkehrsteilnehmer nicht exakt vorhersehen kann. Dadurch erhält man aber gewisse Unsicherheiten bei der Berechnung zukünftiger Zustände, weil man die genaue Ausprägung der zufälligen Größen erst ex post kennt. Man wird im Allgemeinen also nie den exakten Zustand eines Modells mit solchen zufälligen Einflussgrößen bestimmen können. Solche Modelle, die Zufallsvariablen beinhalten, nennt man stochastisch. Im zweiten Teil des Podcasts, geht es um die praktische Umsetzung von Verkehrsmodellen mit Hilfe der Software PTV VISSIM. In VISSIM werden zahlreiche Aspekte des Straßenverkehrs sehr realitätsnah und graphisch ansprechend abgebildet. Neben der reinen Simulation der Bewegung von Fahrzeugen wird dabei auch auf viele Details, die das Verhalten der Fahrzeuge in der Realität beeinßussen, Rücksicht genommen. Unter anderem werden verschiedene Fahrzeugklassen und deren unterschiedliches Verhalten beim Bremsvorgang berücksichtigt, aber auch Dinge wie Vorfahrtsregelungen und Spurwechsel können modelliert werden. Mit der Erweiterung PTV Viswalk kann sogar auf das Verhalten einzelner Fußgänger Rücksicht genommen werden. Die Modellierung der Bewegung der einzelnen Verkehrsteilnehmer in PTV Vissim basiert dabei grundlegend auf dem Fahrzeugfolgemodell von Rainer Wiedemann, einem s.g. mikroskopischen, stochastischen Verkehrsfolgemodell, in welches auch psychologische Aspekte der Verkehrsmodellierung mit einfließen. Um auch den Zuhörern des Podcasts, einen ersten Eindruck von VISSIM vermitteln zu können, hat Jan sich bereit erklärt, die grundlgenden Funktionen von VISSIM in einem kurzen Einführungsvideo vorzustellen. Weitere Modellierungsmöglichkeiten mit VISSIM findet man z.B in der zum Podcas gehörenden Ausarbeitung, die neben der Einführung in VISSIM auch einen Überblick über das Verkhsmodellierung im Allgemeinen gibt. Wie man im Einführungsvideo gut sehen kann, muss man für eine möglichst realitätsnahe Modellierung des Straßenverkehrs einige Parameter einstellen. Sinnvolle Kenngrößen für in die Simulation eingehenden Daten (wie z.B. das Verkehrsaufkommen in den einzelnen Fahrbahnen, Beschleunigung und Bremsstärke für einzelne Fahrzeugklassen, die Schaltung der Ampeln, etc.) müssen vor der Eingabe in Vissim zuerst aber noch ermittelt werden. Oft, wie beispielsweise beim erwarteten Verkehrsaufkommen, erfordert dies wiederum eigene Modelle. Einen guten Überblick über das Thema Verkehrsplanung, insbesondere im Zusammenhang mit dem Thema der Verkehrsnachfrage, bietet beispielsweise das Paper von Firedrich. Literatur und weiterführende Informationen U. Clausen, C. Geiger: Verkehrs- und Transportlogistik VDI-Buch, 2013. ISBN 978-3-540-34299-1 M. Treiber, A. Kesting: Verkehrsdynamik Springer, 2010. ISBN 978-3-642-32459-8 Friedrich, Markus. "Wie viele? Wohin? Womit? Was können uns Verkehrsnachfragemodelle wirklich sagen.Tagungsbericht Heureka 11 (2011). Fellendorf, Martin. VISSIM: Ein Instrument zur Beurteilung verkehrsabhängiger Steuerungen. In: Tagungsband zum Kolloquium "Verkehrsabhängige Steuerung am Knotenpunkt", Forschungsgesellschaft für Strassen- und Verkehrswesen, Köln, (1994) Wiedemann, Rainer. Simulation des Verkehrsflusses. Schriftenreihe des Instituts für Verkehrswesen, Heft 8, Universität (TH) Karlsruhe (seit 2009 KIT - Karlsruher Institut für Technologie), (1974) PTV Youtube-Kanal Podcasts P. Vortisch, G. Thäter: Verkehrsmodellierung I, Gespräch im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. U. Leyn, G. Thäter: Verkehrswesen, Gespräch im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. K. Nökel, G. Thäter: ÖPNV, Gespräch im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. T. Kretz, G. Thäter: Fußgängermodelle, Gespräch im Modellansatz Podcast, Folge 90, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Göttlich, G. Thäter: Verkehrsoptimierung, Gespräch im Modellansatz Podcast, Folge 209, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
Im Mai 2020 sprach Gudrun mit Verena Knoblauch. Sie ist Lehrerin und Medienpädagogin. Sie arbeitet in einer Nürnberger Grundschule und hat dort Tabletklassen im dritten und vierten Schuljahr unterrichtet. Gudrun und Verena sind sich auf Twitter begegnet. Dort gibt es eine sehr aktive und bunte Gruppe von Lehrpersonen, die sich unter dem Hashtag #twitterlehrerzimmer austauschen. Es gibt auch schon ein anderes Podcastgespräch "aus dem twitterlehrerzimmer" mit Jan-Martin Klinge zu den von ihm verwendeten Lerntheken. Unter dem Eindruck der Corona-Einschränkungen wollte Gudrun gern aus erster Hand erfahren, wie Verena den Unterricht aus der Ferne für die jüngsten Schülerinnen und Schüler gestaltet und erlebt. Verena berichtete, dass es für die Kleinen ohne Präsenzunterricht schwierig ist, da für sie neben den Inhalten des Unterrichts der Kontakt zu Lehrern und Mitschülern mindestens ebenso wichtig ist. Die Gemeinschaft in der Klasse lässt sich aber im Fernunterricht nicht gut herstellen. Verena steht im Zwiespalt wie alle Lehrpersonen: Verteilt man Arbeitsblätter, dann ist den Kindern und deren Eltern recht klar, was genau erledigt werden soll. Aber das ist nach kurzer Zeit schon langweilig. Auch für die Lehrpersonen. Deshalb werden Kolleginnnen und Kollegen auch sehr kreativ bei der Erstellung von freieren Aufgaben. Leider sind dann aber oft die Eltern überfordert und ohne Eltern geht Fernunterricht in der Grundschule nicht. In ihrer Tätigkeit als Grundschullehrerin - auch ohne Corona - gibt es eigentlich keinen Alltag und keine Routine. Verena sieht eine wichtige Rolle darin, zu unterichten wie man sich bei Fragen zu helfen weiß, z.B. mit der Kindersuchmaschine fragFinn. Sie stellt sich nicht als allwissende Lehrperson mit Wissenshoheit vor die Klasse, denn es ist auch für die Kinder wichtig zu lernen: Keiner weiß alles. Und es ist eine wichtige Kompetenz, nicht nur die Eltern oder andere Erwachsene fragen zu müssen, sondern selbst zu suchen und zu finden und mit den Ergebnissen souverän umgehen zu können. Was ist vernünftig, was stimmt, was ist ganz bestimmt Quatsch? Seit einigen Jahren schon setzt Verena in ihren 3. und 4. Klassen auf die Unterstützung durch Tablets für den Unterricht. Die Anregung hierzu kam von außen in Form einer Spende von zwei Klassensätzen Tablets für die Grundschule. Nachdem sie spontan zugesagt hatte, dass sie diese gern für ihren Unterricht einsetzen möchte, musste sie sich zunächst einmal damit beschäftigen, wie man das verwaltet, versichert, aufbewahrt und pflegt. Und mehr darüber lernen, was man nun damit anfangen kann. Hierzu hilft der Austausch mit Kolleginnen aus nah und fern. Verena hat sich aber sogar entschieden dafür noch Medienpädagogik zu studieren. Als erstes fallen einem im Zusammenhang mit Tablets im Unterricht natürlich Übungsapps ein, die es für viele Fächer gibt, wo die Kinder auf sie zugeschnittene Aufgaben finden und gleich Rückmeldung bekommen, was sie richtig gemacht haben. Verena stellte jedoch fest, dass man mit Tablets viel viel mehr machen kann. In Film und Ton und mit Bildern können die Kinder ihre Ideen ausdrücken und sogar erklären, warum sie Sachen so machen und damit zeigen, was sie wie verstanden haben. In einem Projekt haben die Kinder Informationen zu bestimmten Ländern als Reportagen präsentiert, die vor einem Greenscreen aufgezeichnet wurden. Dann konnte ein Bild des Landes als Hintergrund eingefügt werden und schon wirkte es wie ein Bericht vor Ort. Oder eine Lesekiste wird gebastelt, wo eine Szene aus einem Buch nachgebaut wird. "Darin" kann man dann über das Buch berichten, nachdem ein Foto, das in der Kiste aufgenommen wird hinter den Filmbericht gelegt wird. Von dort ist es nur ein kleiner Schritt, zu verstehen wie leicht es ist, nur den Anschein von Wahrheit zu erwecken. Verena ist dann noch etwas weiter gegangen und hat die Schülerinnen und Schüler Fake News produzieren lassen, die professionell aussehen. Wenn man als Drittklässler mit drei Clicks Bilder fälschen kann, dann schaut man sich anderswo Informationen automatisch viel kritischer an. Inzwischen arbeitet Verena in der Fortbildung für Kollegen. Zur Zeit auschließlich in der Form von Webinaren. So kann sie Ihre Erfahrung mit den Möglichkeiten der Tablets im Unterricht recht niederschwellig an Kolleginnen und Kollegen weiter geben. Außerdem ist es interessant, auch Lehrerin für Erwachsene zu sein. Und es hilft ihr davon weg zu kommen als Einzelkämpferin zu arbeiten, wie es in der Schulzeit und im Examen an der Uni gelernt wird. Statt dessen ist es für sie und alle Lehrpersonen ein großer Gewinn, sich zu öffnen und z.B. bei Twitter oder in Fortbildungen neues lernen und von den Ideen der anderen zu profitieren. Literatur und weiterführende Informationen Der Zauberer Korinthe - ein Medienprojekt Stop Motion Film nach einem Gedicht von James Krüss (mit zwei selbst gedichteten Strophen) Blog von V. Knoblauch B. Vorsamer: Besser selber machen SZ vom 26.07.2019 V. Knoblauch: Tablets in der Grundschule. Konzepte und Beispiele für digitales Lernen AOL-Verlag, 2020, ISBN: 978-3-403-10596-1. V. Knoblauch: Escape Rooms für die Grundschule - Klasse 3/4. Auer Verlag, 2020, ISBN: 978-3-403-08435-8. Exciting Edu Talk 2018 YouTube 2019. Plattform Bildung und Digitalität V. Knoblauch, S. Maurer und W. Tiedmann: Grundschule in Zeiten von Homeschooling Vortrag für Pacemaker Initiative auf Vimeo, April 2020. Sketch Notes, Webinar von Verena Wibke Tiedmann, 28.04.2020 Podcasts V. Knoblauch: Die pädagogische Ausbrecherin. Der Durchfechter Podcast Folge 26, April 2020. B. Lutz-Westphal, G. Thäter: Forschendes Lernen, Gespräch im Modellansatz Podcast, Folge 181, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. J.-M. Klinge, G. Thäter: Lerntheken, Gespräch im Modellansatz Podcast, Folge 178, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
Gudrun sprach im Mai 2020 mit Andreas Bischof. Zu dem Zeitpunkt leitete er eine Forschungsgruppe mit dem Namen Nebeneinander wird Miteinander an der Technischen Universität Chemnitz am Lehrstuhl Medieninformatik. Er hat sich mit der Problematik beschäftigt, falls technische Entwicklungen lediglich vom technisch möglichen gedacht werden statt vom gewollten Ergebnis her. Konkret spiegelt sich das in seiner Forschung zu alternativen Anwendungen für die Gesundheitsrobotik. Er arbeitet in einem interdisziplinären Netzwerk, das Medien und Kommunikation, Mensch-Maschine-Interaktion, Soziologie, Medieninformatik, Design, Wissenschafts- und Technikwissenschaften sowie Soziogerontologie umspannt. Er hat an der Universität Leipzig Kulturwissenschaften studiert. Nach seiner Promotion in der Graduiertenschule Crossworlds an der TU Chemnitz schloss er sich einer Forschungsgruppe an, die sich mit der Integration von Nutzern bei der Gestaltung des Internet der Dinge befasst. 2018 erhielt er eine Förderung des Bundesministeriums für Bildung und Forschung (BMBF) zum Aufbau eines CityLab in Chemnitz. Was macht Roboter sozial? Auf der Suche nach Antworten auf diese Frage besuchte Andreas Bischof Forschungslabors und Konferenzen in Europa und Nordamerika: In der Zukunft sollen Roboter die Fabrikhallen verlassen und Teil von Alltagswelten wie Krankenhäusern, Kindergärten und Privatwohnungen werden. Die Konstrukteur_innen der zahlreichen Forschungsprojekte hierzu stehen vor der Herausforderung, die Ambivalenzen und Kontingenzen alltäglicher Interaktionen in die diskrete Sprache der Maschinen zu übersetzen. Die ethnografische Studie zeichnet nach, welche Forschungsziele in der Sozialrobotik vorherrschen und welche Implikationen die jeweiligen epistemischen Praktiken der Ingenieur_innen für die Konstruktion von Sozialrobotern haben. Wenn derzeit die gesellschaftliche Relevanz von Robotern thematisiert wird, dann fast immer der Einsatz in Pflegesettings. Roboter sind Teil der Lösungen des »Pflegenotstands«, auch wenn keine marktreifen Pflegeroboter existieren und weder Gepflegte noch Pflegende Interesse an solcher Technologie artikulieren. Ebenso gibt es auf Seiten der Entwickler wenige Bestrebungen, die Forschung an den tatsächlichen Bedarfen der Pflege auszurichten. Gudrun und Andreas hatten seit 2012 immer mal wieder virtuell Kontakt, weil Andreas das ehemalige Leipziger Label analogsoul mitgeführt hat. Dort hat Gudrun Musik gekauft und am Projekt I Am A Forest teilgenommen. Die Idee, dieses Gespräch für den Modellansatz zu führen entstand allerdings aus einem kurzen Gedankenaustausch auf dem Podcaster Forum sendegate. Andreas fand, dass sich doch ein Format wie der Modellansatz gut eignen würde, um Forschung an einer TU zu präsentieren. So wurde er zum Mitinitiator des TUCscicasts, der forschende an der TU Chemnitz ausführlich zu Wort kommen lässt und direkt am Rektorat angebunden ist. Literatur und weiterführende Informationen A. Bischof: Soziale Maschinen bauen – Epistemische Praktiken der Sozialrobotik Transkript Verlag 2017. A. Bischof: Problematische Aspekte der MRI-Forschung, Epistemologische und methodologische Kritik des Zustands eines Feldes Mensch und Computer 2019 - Workshopband. Bonn: Gesellschaft für Informatik e.V., 2019. DOI: 10.18420/muc2019-ws-658 A. Bischof: „Wir wollten halt etwas mit Robotern in Care machen“. Epistemische Bedingungen der Entwicklungen von Robotern für die Pflege in J. Hergesell, A. Maibaum, M. Meister (Hrsg.) Genese und Folgen der »Pflegerobotik«, Beltz Juventa, 2020. A. Bischof: Musicians - from Genius to Participation TED-Talk 2015. Rezo: Die Zerstörung der CDU YouTube, 18.05.2019. Thread zu Rezo-Video als Vorlesung Pepper Roboter Pflege Roboter Paro N. Rößler: Soziale Pflege-Roboter setzen sich nur langsam durch Deutschlandfunk: Hintergrund vom 18.02.2019. Podcasts J. Ehlers, G. Thäter: Mensch-Maschine-Interaktion, Gespräch im Modellansatz Podcast, Folge 187, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. P. Purgathofer, T. Pritlove: Mensch-Maschine Interaktion, CRE Folge 131, Technik Kultur Gesellschaft, Metaebene Personal Media, 2009. Soziale Roboter – fehlendes Fingerspitzengefühl detektor.fm 11.07.2017. Episode 17: Gebt Oma & Opa einen Roboter! – Soziale Maschinen in der Pflege Das neue Berlin: Wie Roboter auf die Welt kommen Episode 33 vom 29. Juni 2019 Schaubühne Podcast: Heinz Bude im Gespräch mit Elisabeth André 25. November 2019
Gudrun spricht mit Petra Schwer und Thomas Kahle. Alle drei sind während des Gesprächs jeweils in ihrem Wohnzimmer und treffen sich auf einer Videoplattform. Deshalb ist es etwas schwieriger, stets nur nacheinander zu sprechen. Petra und Thomas sind an der Otto von Guericke Universität in Magdeburg Professorin bzw. Professor am Institut für Algebra und Geometrie. Der Anlass des Gespräches ist, dass die beiden kürzlich einen Mathepodcast gestartet haben, nämlich Pi ist genau drei. Zur Zeit des Gespräches, im April 2020, waren dort die ersten drei Episoden veröffentlicht mit den Themen Was ist Mathematik, Beweise, Offene Probleme. Im Podcast Pi ist genau drei ist jeweils eine der beiden Personen auf das Thema vorbereitet, die andere wird "überrascht". Als Publikum kann man auf diese Art und Weise die beiden beim Denken und Ideen entwickeln beobachten und sich zum mitdenken anregen lassen. Im Gespräch von Gudrun, Thomas und Petra geht es darum, wie man Mathematik im Podcastformat darstellen kann. Welche Erfahrungen und Wünsche wurden von ihnen gemacht? Inwieweit gehört Mut dazu, sich relativ ungeschützt beim Diskutieren und Ideen Entwickeln zu zeigen und welche Vorteile hat es, diesen Mut aufzubringen? Davon ausgehend reden Sie auch darüber, wie sich Aspekte des Nachfragens und des offenen Denk-Raumes auch in der Lehre realisieren lassen sollten. Weil sie selbst durch andere Podcasts inspiriert worden sind, es selbst zu versuchen, empfehlen sie auch ihre Lieblingspodcasts. weitere Informationen Der Titel des Podcasts spielt auf eine Szene der Serie Die Simpsons an. In dieser Episode (S12E16 „Bye Bye Nerdy“, dt: „Lisa knackt den Rowdy-Code“) verschafft sich Professor Frink durch die schockierende Aussage „Pi ist genau drei!“ die Aufmerksamkeit seiner Kollegen. Podcasts Pi ist genau drei - der irgendwas mit Mathe Podcast aus Magdeburg P. Schwer: Metrische Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Podcast-Empfehlungen von Thomas, Gudrun und Petra: Anekdotisch Evident Hotel Matze Was denkst Du denn Mein Freund der Baum Thomas hat den Modellansatz kennengelernt über die Folge: G. Thäter, E. Duarte: Algebraic Geometry, Gespräch im Modellansatz Podcast, Folge 171, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
Gudrun sprach im März 2020 mit Nicole Ludwig. Sie ist eine Kollegin am KIT am Campus Nord und gehört dem Institut für Automation und angewandte Informatik an. Sie war Mitglied des DFG Graduiertenkollegs Energiezustandsdaten Informatikmethoden zur Analyse, Erfassung und Nutzung und ist dabei, ihre Promotion abzuschließen. Im Studium wurde sie von den Themen der Ökonometrie und Statistik eingefangen und von der Freude, aus empirischen Daten verlässliche Ergebnisse ableiten zu können. Sie hat schon in ihrer Bachelorarbeit Maschinelles Lernen für Prognosen benutzt. Deshalb war es sehr spannend für sie, diese Kenntnisse und ihre Freude am Thema in das Graduiertenkolleg zu Energiedaten und Informatik einzubringen. Als Gesellschaft müssen wir in naher Zukunft eine Energieproduktion ohne fossile Brennstoffe erreichen. Es ist jedoch nötig, beim Nutzen von erneuerbaren Energien im Vergleich zu konventioneller Energieerzeugung umzulernen, um einerseits für eine stabile Versorgung von Wirtschaft und Haushalten zu sorgen und andererseits dabei alle Lasten der nötigen Veränderungen fair zu verteilen. Es gibt zwei Möglichkeiten, die Energieproduktion zu optimieren. Zum einen können wir den Produktionszeitplan besser auf die Nachfrage abstimmen. Zum anderen können wir das Verbrauchsverhalten ändern, um eine optimale Versorgungsstrategie zu unterstützen. Traditionell kennt man Prognosen für die Energienachfrage in unterschiedlichen Zeithorizonten und macht diese zur Grundlage für Produktionspläne. Mit einer zunehmenden und sich ändernden Menge an Variablen, die das System beeinflussen, sind perfekte Vorhersagen jedoch sehr unrealistisch und wahrscheinlich nicht der richtige Ansatz für die Zukunft. Man muss sich hierzu nur vor Augen halten, dass die Energieernte sowohl bei Windkraft als auch für Solarstrom stark vom Wetter abhängen. Wenn auch die Wettervorhersage schon sehr viel besser geworden ist, so ist es doch noch nicht möglich, auf ihrer Grundlage hinreichend sichere Vorhersagen für die Energieerzeugung machen zu können. Andererseits gibt es heute auch bessere Möglichkeiten, die Energieabnahme zumindest im Prinzip von außen zu steuern. Das was früher als Nachtstrom die Abnahme von Stromspitzen mit niedrigen Preisen versüßte, kann heute ganz regional und sich täglich anpassend nicht nur in Betrieben sondern sogar im Haushalt steuern, wann beispielsweise die Waschmaschine läuft oder ein Warmwasserspeicher lädt. Bald kann auch die Flotte an E-Fahrzeugen mit ihren Akkumulatoren Energie zum passenden Zeitpunkt abnehmen und auch in Spitzenzeiten wieder abgeben. Die Gesetzgebung ist hier noch nicht so weit wie die technischen Möglichkeiten. Aber man muss sicher auch noch einmal gründlich darüber nachdenken, in welcher Art und Weise man Personen dazu zwingen will, Daten dafür zur Verfügung zu stellen und wie man sie anschließend vor dem Missbrauch dieses Wissens durch Unbefugte schützen kann. Schon heute ist die Energieversorgung viel verwundbarer durch Angriffe von Hackern als wir uns eingestehen wollen. Prinzipiell liegen aber - schon allein in Bezug auf Wetterdaten - aber auch in feingranularem Wissen über Energieverbrauch - sehr viele Daten vor, die man nutzen kann, um neuartige Prognosen zu erarbeiten. Man geht also über von rein Physik-basierten Modellen und Expertenwissen über zu neuronalen Netzen und Datamining. Diese arbeiten natürlich nicht sinnvoll ohne den Expertenblick, denn welche Fragen die vorliegenden Daten sinnvoll und recht sicher beantworten können, ist naiv geplant sicher nicht möglich. Nicole gefällt es gut, an der Schnittstelle sehr unterschiedlicher Wissensgebiete (Wirtschaft, Physik/Meteorologie, Ingenieurswissenschaft und Informatik) zu forschen. Literatur und weiterführende Informationen L. Barth e.a.: How much demand side flexibility do we need? - Analyzing where to exploit flexibility in industrial processes 9th ACM International Conference on Future Energy Systems (ACM e-Energy), 2018, Karlsruhe, Germany J.A. Gonzalez Ordiano e.a.: Concept and benchmark results for Big Data energy forecasting based on Apache Spark. Journal of Big Data 5, Article number: 11 (2018) R.R Appino e.a. : On the use of probabilistic forecasts in scheduling of renewable energy sources coupled to storages Applied Energy 210 (2018) L. Barth e.a.: A comprehensive modelling framework for demand side flexibility in smart grids Computer science - research and development 33,13-23 (2018) M. Lösch: Digitalisierte Stromnetze und Smart Meter in Deutschland, Ein Überblick, Vortrag auf der GPN17, 2017. B. Becker, F. Kern, M. Lösch, I. Mauser, H. Schmeck: Building Energy Management in the FZI House of Living Labs, In Proceedings of the D-A-CH Conference on Energy Informatics (pp. 95-112). Springer International Publishing, 2015. M. Lösch, D. Hufnagel, S. Steuer, T. Faßnacht, H. Schmeck: Demand Side Management in Smart Buildings by Intelligent Scheduling of Heat Pumps, In Proceedings of the IEEE International Conference on Intelligent Energy and Power Systems (IEPS), 2014. T. Fassnacht, M. Lösch, A. Wagner: Simulation Study of a Heuristic Predictive Optimization Scheme for Grid-reactive Heat Pump Operation, In Proceedings of the REHVA Annual Conference, 2015. Podcasts S. Coşkun, G. Thäter: Energy Markets, Gespräch im Modellansatz Podcast, Folge 190, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. C. Harvey, G. Thäter: Micro Grids, Gespräch im Modellansatz Podcast, Folge 186, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Z. Ahamed, G. Thäter: Electric Vehicles on the Grid, Gespräch im Modellansatz Podcast, Folge 183, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, B. Pousinho: Weather Generator, Gespräch im Modellansatz Podcast, Folge 148, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Lösch, S. Ritterbusch: Smart Meter Gateway Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Völter, V. Hagenmeyer: Stromnetze, ein Überblick, omega tau Podcast, Episode 246, 2017. J. Müller-Quade, A. Rupp, B. Löwe, K. Bao: Kryptographie und Privatssphäre im Stromnetz, Feature von Jan Rähm im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, Folge 6, 2017. S. Seier, T. Alexandrin: Mieterstrom-Krimi, Abgrund oder Cliffhanger? Episode 16 im Blindstrom Podcast, 2017. M. Dalheimer, P. Hecko: Der Strom, Folge 5 im Pietcast, 2014.
Gudrun sprach Mitte März 2020 mit Franziska Blendin. Das Gespräch fand statt, während beide sich in ihrem jeweiligen Wohnzimmern aufhielten: Gudrun in Karlsruhe und Franziska in Frankfurt (Main). Seit drei Semestern absolviert Franziska ein Online Studium an der Fachhochschule Frankfurt und strebt einen Bachelor in Maschinenbau an. Gudrun wollte gern von ihr erfahren, wieso sie sich für diesen Weg entschieden hat und was ihre Erfahrungen mit dieser besonderen Art des Studiums sind. Franziska hat nicht im Gymnasium Abitur gemacht, sondern ein Fachabitur im Rahmen einer Ausblidung zur Sozialassistentin im Fachbereich Pflege. Während ihrer Tätigkeit als Assistentin einer Rollstuhlfahrerin kam die Idee auf, dass sich Franziska bei dem Rollstuhlhersteller schlau machen könnte, um auch kleine Reparaturen oder Anpassungen an dem Gerät übernehmen zu können. So kam es zu einem Praktikum in dem mittelständischen Unternehmen, das den Rollstuhl herstellt. In der Zeit wuchs ihr die Flex ans Herz und es wurde die Idee geboren, so einen Beruf zu erlernen. Sie hat als Zerspanerin und Schlosserin gearbeitet, wollte allerdings auf jedenfall noch eine Fortbildung machen. Im Prinzip hätten zunächst die Möglichkeiten, einen Meister zu machen oder eine Techniker-Ausbildung neben dem Beruf zu absolvieren nahe gelegen. Aber die Erfahrung zeigte Franziska, dass es als Frau ohnehin nicht so leicht ist, für diese Stellen in die engere Wahl zu kommen und dass diese handwerkstypischen Abschlüsse häufig nicht entsprechend gewürdigt werden. Vom Lernaufwand neben der Erwerbsarbeit sind diese Wege aber ähnlich. So hat sich Franziska für ein online Studium entschieden. Der große Vorteil ist, dass es zeitlich flexibler ist und deshalb leichter mit einer Berufstätigkeit passend gemacht werden kann. Bei 100% Job schafft man aber nicht so viel, wie der ideale Plan bis zum Bachelor vorsieht, sondern eher so 3-4 Fächer (das sind 15-20 Leistungspunkte statt der im Plan avisierten 30 Punkte pro Semester - jeder Leistungspunkt entspricht dabei etwa 30 Zeitstunden Aufwand). Hinzu kommt, dass eigentlich alle, deren Abitur schon eine Weile zurück liegt und die vielleicht ein Schmalspurabi wie Franziska haben, Probleme mit Mathe und anderen Naturwissenschaften haben. Franziska ist z.B. sehr froh, dass sie nun nach drei Semestern endlich Mathe 1 bestanden hat (Mathe 2 fiel ihr dann nicht so schwer). Für jedes Modul sind drei Anwesenheitszeiten pro Semester geplant, die ausnahmsweise auch als Webkonferenz durchgeführt werden, in der die Studierenden Fragen stellen können. Den Stoff muss man sich vorher selbst z.B. mit Hilfe eines Lernprogramms oder dem Skript erarbeiten. Wöchentlich gibt es 60-90 min Vorlesung als Webkonferenz - das ist aber mehr eine Zusammenfassung des Stoffs und reicht nicht, um den Stoff zu verstehen. Außerdem müssen noch zwei Hausarbeiten eingesendet werden, um zur Prüfung zugelassen zu werden. Franziska freut sich darauf, bald Anwendungen der Mathematik im Fach Technische Schwingungen und Regelungstechnik zu sehen. Und auch die Module Technische Mechanik 1,2 und 3 waren schon viel Mathematik, haben aber Spaß gemacht. Sie hat die drei Module sofort bestanden obwohl das als schwieriges Fach gilt. In der Thermodynamik hilft ihr auch die Erfahrung aus der Berufspraxis sehr. Franziskas Vater war Mathelehrer und ist eigentlich im Ruhestand. Allerdings ist er inzwischen als Tutor für Mathe 1 an der Hochschule in Frankfurt tätig und als Team haben er und Franziska nun die Prüfung in Mathe 1 zu den Akten gelegt. Gudrun und Franziska haben sich im November 2017 beim Podäppler Workshop in Frankfurt kennengelernt. Gudrun kannte zu dem Zeitpunkt Tine Nowak aus Frankfurt aus dem Netzwerk der Wissenschaftspodcaster und Tine hatte Gudrun schon mehrfach nach Frankfurt zum Podcaster Stammtisch eingeladen bis es endlich für den Workshop geklappt hat. Franziska macht mehrere Podcasts und zwar über Fußball, Kinderbücher und Zerspanungsmaschinen. Außerdem malt sie Mathecomics - vor allem in heißen Lernphasen. Und weil das noch nicht genug ist, hat sie eine Fußballfibel über den FSV Frankfurt geschrieben, die gerade erschienen ist. Die wegen der Corona-Quarantäne ausgefallene Lesereise holt sie gerade per Youtube Livestreams nach. Literatur und weiterführende Informationen Veranstaltung zum Erscheinen der Fußballfibel F. Blendin: Fußballfibel FSV Frankfurt Redtenbacher als Mathematisierer des Maschinenbaus MINT-Kolleg Baden-Württemberg Podcasts von Franziska Hangcasting - Neues aus Bernem FSV Frankfurt Fan Podcast von Jörg und Franzi. Kinderbücher G4 Pocast über CNC-Maschinen (Thema Zerspanung, zuletzt mit Sonderfolgen zum Lernen im Studium) Von Hamstern, Monstern und Suppenkaspern - ein Kinder- und Jugendliteratur Podcast Podcasts zum Thema Y. Cai, S. Dhanrajani, G. Thäter: Mechanical Engineering, Gespräch im Modellansatz Podcast, Folge 176, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, J. Rollin: Advanced Mathematics, Conversation in the Modellansatz Podcast, Episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. F. Hettlich, G. Thäter: Höhere Mathematik, Gespräch im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
Gudrun spricht mit Sebastian Lerch vom Institut für Stochastik in der KIT-Fakultät für Mathematik. Vor einiger Zeit - Anfang 2015 - hatten die beiden schon darüber gesprochen, wie extreme Wetterereignisse stochastisch modelliert werden können. Diesmal geht es um eine Lehrveranstaltung, die Sebastian extra konzipiert hat, um für Promovierende aller Fachrichtungen am KIT eine Einführung in Machine Learning zu ermöglichen. Der Rahmen hierfür ist die Graduiertenschule MathSEED, die ein Teil des im Oktober 2018 gegründeten KIT-Zentrums MathSEE ist. Es gab schon lange (und vielleicht immer) Angebote am KIT, die insbesondere Ingenieure an moderne Mathematik heranführten, weil sie deren Methoden schon in der Masterphase oder spätestens während der Promotion brauchten, aber nicht durch die klassischen Inhalten der Höheren Mathematik abgedeckt werden. All das wird nun gebündelt und ergänzt unter dem Dach von MathSEED. Außerdem funktioniert das nun in beide Richtungen: Mathematiker:innen, werden ebenso zu einführenden Angeboten der anderen beteiligten Fakultäten eingeladen. Das Thema Maschinelles Lernen und Künstliche Intelligenz war ganz oben auf der Wunschliste für neu zu schaffende Angebote. Im Februar 2020 hat Sebastian diese Vorlesung erstmalig konzipiert und gehalten - die Übungen wurden von Eva-Maria Walz betreut. Die Veranstaltung wird im Herbst 2020 wieder angeboten. Es ist nicht ganz einfach, die unterschiedlichen Begriffe, die für Künstliche Intelligenz (kurz: KI) benutzt werden gegeneinander abzutrennen, zumal die Sprechweisen in unterschiedlichen Kontexten unterschiedlich sind. Hinzu tritt, dass mit der Verfügbarkeit großer Datenmengen und der häufigen Nutzung von KI und Big Data gemeinsam auch hier vieles vermischt wird. Sebastian defininiert Maschinelles Lernen als echte Teilmenge von KI und denkt dabei auch daran, dass z.B. symbolisches Rechnen KI ist. Ebenso geben schon lange sogenannte Expertensysteme Hilfestellung für Entscheidungen. Hier geben Regeln ein Programm vor, das Daten-Input zu einem Output verwandelt. Heute denken wir bei KI eher daran, dass z.B. der Computer lernt wie ein Bild eines Autos aussieht, ohne dass dafür klare Regeln vorgegeben werden. Dies ist eher vergleichbar damit, wie Kinder lernen. Die modernste Variante ist sogenanntes Deep Learning auf der Basis von Neuronalen Netzen. Die Abgrenzung zu statistischen Verfahren ist mitunter nicht so klar. Das Neuronale Netz wird dabei eine Black Box, was wissenschaftlich arbeitende Menschen nicht ganz befriedigt. Aber mit ihrer Hilfe werden komplexere Probleme lösbar. Forschung muss versuchen, die Entscheidungen der Black Box nachvollziehbar zu machen und entscheiden, wann die Qualität ausreicht. Dazu muss man sich überlegen: Wie misst man Fehler? In der Bildverarbeitung kann es genügen, z.B. falsch erkannte Autos zu zählen. In der Wettervorhersage lässt sich im Nachhinein feststellen, welche Fehler in der Vorhersage gemacht wurden. Es wird unterschiedliche Fehlertoleranzen geben für Erkennung von Fußgängern für selbst fahrende Autos und für die Genauigkeit von Wettervorhersage. Ein Beispiel in der Übung war die Temperaturvorhersage anhand von vorliegenden Daten. Die Vorhersage beruht ja auf physikalischen Modelle in denen die Entwicklung von Temperatur, Luftdruck und Windgeschwindigkeit durch Gleichungssysteme nachgebildet wird. Aber diese Modelle können nicht fehlerfrei berechnet werden und sind auch recht stark vereinfacht. Diese Fehler werden mit Hilfe von KI analysiert und die Ergebnisse für die Verbesserung der Vorhersage benutzt. Ein populäres Verfahren sind Random Forests oder Entscheidungsbäume. Hier werden komplexe Fragen stufenweise zerlegt und in den Stufen einfache Ja- oder Nein-Fragen beantwortet. Dies wird z.B. angewandt in der Entscheidung ob und wo eine Warnung vor einer Gewitterzelle erfolgen sollte. Sehr bekannt und im praktischen Einsatz erprobt (beispielsweise in der Bildverarbeitung und in der Übersetzung zwischen gebräuchlichen Sprachen) sind Neuronale Netze. In mehrern Schichten sind hier sogenannte Neuronen angeordnet. Man kann sich diese wie Knoten in einem Netz vorstellen, in dem Daten von Knoten zu Knoten transportiert werden. In den Knoten werden die ankommenden Daten gewichtet aufaddiert und eine vorher festgelegte Aktivierungsfunktion entscheidet, was an die nächsten Knoten oder die nächste Schicht von Neuronen weitergegeben wird. Die einzelnen Rechenoperationen sind hier also ganz elementar, aber das Zusammenwirken ist schwer zu analysieren. Bei vielen Schichten spricht man von Deep Learning. Das ist momentan noch in den Kinderschuhen, aber es kann weit reichende Konsequenzen haben. In jedem Fall sollte man Menschen im Entscheidungsprozess beteiligen. Die konkrete Umsetzung hat Sebastian als Vorlesung und Übung zu gleichen Teilen gewählt. Er hat einen Schwerpunkt auf einen Überblick zu methodischen Aspekten gelegt, die die Teilnehmenden dazu befähigt, später selbst weiter zu lernen. Es ging also unter anderem darum, wie man Trainingsdaten auswählt, wie Qualitätssicherung funktioniert, wie populäre Modelle funktionieren und wie man einschätzt, dass die Anpassung an Daten nicht zu stark erfolgt. In der Übung fand großen Anklang, dass ein Vorhersagewettbewerb der entwickelten Modelle durch Kaggle competions online live möglich war. Literatur und weiterführende Informationen Forschungsergebnisse mit Hilfe von Maschinen Lernen, an denen Sebastian Lerch beteiligt ist: M.N. Lang e.a.: Remember the past: A comparison of time-adaptive training schemes for non-homogeneous regression Nonlinear Processes in Geophysics, 27: 23–34 2020. (eher stochastisch) S. Rasp und S. Lerch: Neural networks for post-processing ensemble weather forecasts Monthly Weather Review, 146(11): 3885–3900 2018. Lehrbücher T. Hastie, R. Tibshirani, J. Friedman: The Elements of Statistical Learning Springer 2017 (2nd Edition). G. James, D. Witten, T. Hastie and R. Tibshirani: An Introduction to Statistical Learning Springer 2013 (7nd Edition) I. Goodfellow and Y. Bengio and A. Courville: Deep Learning MIT-Press 2016. Online Kurse Pytorch-based Python library fastai Deeplearning Dystopie für alltägliche KI C. Doctorow: Little Brother Tor Teen, 2008. download beim Author C. Doctorow: Homeland Tor Books, 2013, ISBN 978-0-7653-3369-8 im Gespräch angesprochene Bildbearbeitung, die eigene Fotos mit Kunstwerken verschmilzt Meetups im Umland von Karlsruhe Karlsruhe ai Meetup Heidelberg ai Meetup Machine Learning Rhein-Neckar (Mannheim) Podcasts Leben X0 - Episode 6: Was ist Machine Learning? November 2019. Streitraum: Intelligenz und Vorurteil Carolin Emcke im Gespräch mit Anke Domscheit-Berg und Julia Krüger, 26. Januar 2020 P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019.
In March 2018 Gudrun had a day available in London when travelling back from the FENICS workshop in Oxford. She contacted a few people working in mathematics at the University College London (ULC) and asked for their time in order to talk about their research. In the end she brought back three episodes for the podcast. This is the second of these conversations. Gudrun talks to Marta Betcke. Marta is associate professor at the UCL Department of Computer Science, member of Centre for Inverse Problems and Centre for Medical Image Computing. She has been in London since 2009. Before that she was a postdoc in the Department of Mathematics at the University of Manchester working on novel X-ray CT scanners for airport baggage screening. This was her entrance into Photoacoustic tomography (PAT), the topic Gudrun and Marta talk about at length in the episode. PAT is a way to see inside objects without destroying them. It makes images of body interiors. There the contrast is due to optical absorption, while the information is carried to the surface of the tissue by ultrasound. This is like measuring the sound of thunder after lightning. Measurements together with mathematics provide ideas about the inside. The technique combines the best of light and sound since good contrast from optical part - though with low resolution - while ultrasound has good resolution but poor contrast (since not enough absorption is going on). In PAT, the measurements are recorded at the surface of the tissue by an array of ultrasound sensors. Each of that only detects the field over a small volume of space, and the measurement continues only for a finite time. In order to form a PAT image, it is necessary to solve an inverse initial value problem by inferring an initial acoustic pressure distribution from measured acoustic time series. In many practical imaging scenarios it is not possible to obtain the full data, or the data may be sub-sampled for faster data acquisition. Then numerical models of wave propagation can be used within the variational image reconstruction framework to find a regularized least-squares solution of an optimization problem. Assuming homogeneous acoustic properties and the absence of acoustic absorption the measured time series can be related to the initial pressure distribution via the spherical mean Radon transform. Integral geometry can be used to derive direct, explicit inversion formulae for certain sensor geometries, such as e.g. spherical arrays. At the moment PAT is predominantly used in preclinical setting, to image tomours and vasculature in small animals. Breast imaging, endoscopic fetus imaging as well as monitoring of perfusion and drug metabolism are subject of intensive ongoing research. The forward problem is related to the absorption of the light and modeled by the wave equation assuming instanteneous absorption and the resulting thearmal expansion. In our case, an optical ultrasound sensor records acoustic waves over time, i.e. providing time series with desired spacial and temporal resolution. Given complete data, then one can mathematically reverse the time direction and find out the original object. Often it is not possible to collect a complete data due to e.g. single sided access to the object as in breast imaging or underlying dynamics happening on a faster rate than one can collect data. In such situations one can formulate the problem in variational framework using regularisation to compensate for the missing data. In particular in subsampling scenario, one would like to use raytracing methods as they scale linearly with the number of sensors. Marta's group is developing flexible acoustic solvers based on ray tracing discretisation of the Green's formulas. They cannot handle reflections but it is approximately correct to assume this to be true as the soundspeed variation is soft tissue is subtle. These solvers can be deployed alongside with stochastic iterative solvers for efficient solution of the variational formulation. Marta went to school in Poland. She finished her education there in a very selected school and loved math due to a great math teacher (which was also her aunt). She decidede to study Computer Sciences, since there she saw more chances on the job market. When moving to Germany her degree was not accepted, so she had to enrol again. This time for Computer Sciences and Engineering at the Hamburg University of Technology. After that she worked on her PhD in the small group of Heinrich Voss there. She had good computing skills and fit in very well. When she finished there she was married and had to solve a two body problem, which brought the couple to Manchester, where a double position was offered. Now both have a permanent position in London. References M. Betcke e.a.: Model-Based Learning for Accelerated, Limited-View 3-D Photoacoustic Tomography IEEE Transactions on Medical Imaging 37, 1382 - 1393, 2018. F. Rullan & M. Betcke: Hamilton-Green solver for the forward and adjoint problems in photoacoustic tomography archive, 2018. M. Betcke e.a.: On the adjoint operator in photoacoustic tomography Inverse Problems 32, 115012, 2016. doi C. Lutzweiler and D. Razansky: Optoacoustic imaging and tomography - reconstruction approaches and outstanding challenges in image performance and quantification, Sensors 13 7345, 2013. doi: 10.3390/s130607345 Podcasts G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. F. Cakoni, G. Thäter: Linear Sampling, Conversation im Modellansatz Podcast, Episode 226, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2019. G. Thäter, R. Aceska: Dynamic Sampling, Gespräch im Modellansatz Podcast, Folge 173, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Fliss, G. Thäter: Transparent Boundaries. Conversation in the Modellansatz Podcast episode 75, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. S. Hollborn: Impedanztomographie. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 68, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. M. Kray, G. Thäter: Splitting Waves. Conversation in the Modellansatz Podcast episode 62, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering. Conversation in the Modellansatz Podcast episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
This is the third of three conversation recorded during the Conference on mathematics of wave phenomena 23-27 July 2018 in Karlsruhe. Gudrun is in conversation with Anne-Sophie Bonnet-BenDhia from ENSTA in Paris about transmission properties in perturbed waveguides. The spectral theory is essential to study wave phenomena. For instance, everybody has experimented with resonating frequencies in a bathtube filled with water. These resonant eigenfrequencies are eigenvalues of some operator which models the flow behaviour of the water. Eigenvalue problems are better known for matrices. For wave problems, we have to study eigenvalue problems in infinite dimension. Like the eigenvalues for a finite dimensional matrix the Spectral theory gives access to intrinisic properties of the operator and the corresponding wave phenomena. Anne-Sophie is interested in waveguides. For example, optical fibres can guide optical waves while wind instruments are guides for acoustic waves. Electromagnetic waveguides also have important applications. A practical objective is to optimize the transmission in a waveguide, even if there are some perturbations inside. It is known that for certain frequencies, there is no reflection by the perturbations but it is not apriori clear how to find these frequencies. Anne-Sophie uses complex analysis for that. The idea is to complexify the (originally real) coordinates by analytic extension. It is a classic idea for resonances that she adapts to the problem of transmission. This mathematical method of complex scaling is linked to the method of perfectly matched layers in numerics. It is used to solve problems set in unbounded domains on a computer by finite elements. Thanks to the complex scaling, she can solve a problem in a bounded domain, which reproduces the same behaviour as in the infinite domain. Finally, Anne-Sophie is able to get numerically a complex spectrum of frequencies, related to the quality of the transmission in a perturbed waveguide. The imaginary part of the complex quantity gives an indication of the quality of the transmission in the waveguide. The closer to the real axis the better the transmission. References A-S. Bonnet-BenDhia, L. Chesnel and V. Pagneux:Trapped modes and reflectionless modes as eigenfunctions of the same spectral problem Proceedings of the Royal Society A, 2018, doi 10.1098/rspa.2018.0050 A-S. Bonnet-BenDhia: Mathematical and numerical treatment of plasmonic waves at corners of metals and metamaterials Emerging Topics in Optics, IMA, Minneapolis, 2017 A-S. Bonnet-BenDhia, L. Chesnel and S. Nazarov: Perfect transmission invisibility for waveguides with sound hard walls Journal de Mathématiques Pures et Appliquées, 2017, doi 10.1016/j.matpur.2017.07.020 A.-S. Bonnet-BenDhia e.a.: A method to build non-scattering perturbations of two-dimensional acoustic waveguides Math. meth. appl. sci., vol. 40, pp. 335–349, 2015 doi 10.1002/mma.3447 Podcasts S. Fliss, G. Thäter: Transparent Boundaries. Conversation in the Modellansatz Podcast episode 75, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. M. Kray, G. Thäter: Splitting Waves. Conversation in the Modellansatz Podcast episode 62, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering. Conversation in the Modellansatz Podcast episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. Gudrun sprach im Januar 2020 mit drei Studenten ihrer Vorlesung Mathematical Modelling and Simulation: Samory Gassama, Lennart Harms und David Schneiderhan. Sie hatten in ihrem Projekt Gruppenentscheidungen modelliert. In dem Gespräch geht es darum, wie man hierfür mathematische Modelle findet, ob man Wahlsysteme fair gestalten kann und was sie aus den von ihnen gewählten Beispielen gelernt haben. Wie lassen sich Entscheidungen von Wählergruppen fair in demokratische Willensbildung einbringen? Mit diesem Thema beschäftigt sich u.a. auch die Volkswirtschaftslehre. Die dafür benutzten Modelle sollten einige Eigenschaften haben. Ein grundlegendes Kriterium wäre beispielsweise: Wenn alle der gleichen Meinung sind, sollte diese Meinung auch immer die Gruppenentscheidung sein. Ein weiteres Kriterum könnte verlangen, dass das Ergebnis Pareto-optimal ist, es also kein anderes Ergebnis gibt, mit dem jedes Gruppenmitglied zufriedener wäre. Um die Präferenz der Gruppe auszudrücken, führen die Studenten die Wohlfahrtsfunktion ein. Das ist eine Abbildung, welche als Input die Präferenzen der einzelnen Wähler verknüpft. Das Wahlverfahren wird sozusagen in dieser Abbildung modelliert. Man wünscht sich Anonymität: Jede Stimme sollte gleich gewertet werden. Neutralität: Wenn die Relationen im Input invertiert werden, bewirkt dies das Selbe beim Output. Monotonie: Falls eine Relation aus dem Input, welche nicht den Präferenzen des Outputs entspricht, sich zur Präferenzrelation des Outputs ändert, bleibt dieser gleich. Verfahren wie Rangaddition und Condorcet-Methode sind klassisch und erfüllen leider nicht alle diese Bedingungen. Die Studenten fügen eine weitere Entscheidungsebene im Modell hinzu. Man nennt dies geschachtelte Wahl. Als Beispiele dienen die US Präsidentschaftswahl 2016 und der Eurovision Song Contest 2019. Bei den Präsidentschaftswahlen in den VereinigtenStaaten von Amerika, wird der Präsident von den Wahlleuten der Bundesstaaten für eine Amtszeit bestimmt. Jeder Bundesstaat hat unterschiedlich viele Wahlleute. Die Wahlberechtigten legen unmittelbar nur die Wahlleute fest. Deshalb ist das Modell der US Präsidentschaftswahlen ist ein geschachteltes Modell. Im ersten Schritt, werden in allen 52 Staaten die Wahlen, mit den US Bürgern des jeweiligen Staates als Wähler, mithilfe des Condorcet Modells durchgeführt. Im zweiten Schritt bilden eben jene 52 Staaten die neue Wählermenge, welche dann über eine gewichtete Rangaddition den endgültigen Präsidenten bestimmt. Die Studenten haben im Projekt zwei Datensätze verwendet, um die Präsidentschaftswahlen 2016 in den USA zwischen Donald Trump und Hillary Clinton zu simulieren. Sie geben die Anzahl der Stimmen für Donald Trump und Hillary Clinton in den verschiedenen Wahlbezirken der USA an. Um die Simulation durchzuführen, wurde Google Colab verwendet. Die benutzte Programmiersprache ist Python. Die Wahl wurde folgendermaßen simuliert: Man summiert die Anzahl der Stimmen für alle Kandidaten in jedem Staat. Anschließend vergleicht man die Anzahl der Stimmen für Trump und Clinton in jedem Bundesstaat. Dem Gewinner eines Staates werden die Anzahl der Wahlleute dieses Bundesstaates in das Endergebnis addiert. Zum Schluss werden die Anzahl der Wahlleute, welche für die Kandidaten gestimmt haben verglichen. Trump gewinnt die Wahlen in 30 Bundesstaaten und Clinton in 20 Bundesstaaten, genauer gesagt erhält Trump 304 Wahlleute und Clinton 227. Somit wäre gewinnt Trump gegen Clinton. Alternativ zum geschachtelten Modell, wird anschließend die Abstimmungsmethode direkt auf alle Wahlstimmen angewandt. Dabei erhält Trump 62.984.828 Stimmen, während Clinton 65.853.514 bekommt. Bei diesem Verfahren gewinnt Clinton gegen Trump. Im Gespräch wird besprochen, dass es ein Problem ist, wenn bei recht knappem Wahlausgang pro Bundesstaat eine "Rundung" auf Wahlleute erfolgt und diese dann addiert wird. Im Vergleich hierzu kann es bei vielen Parteien auch durch Instrumente wie die 5%-Hürde, die wir in Deutschland implementiert haben, zu unfairen Effekten kommen. Die Regeln beim Eurovision Song Contest sind wie folgt: Aus den Televoting-Ergebnissen und den Jurywertungen jedes einzelnen Landes setzt sich das Gesamtergebnis für alle Teilnehmenden zusammen. Die besten zehn Titel werden mit eins, zwei, drei, vier, fünf, sechs, sieben, acht, zehn und zwölf Punkten bewertet. Dabei werden die Jury- und Zuschauerwertungen seit 2016 voneinander getrennt. Jedes Land kann einem Teilnehmenden also bis zu 24 Punkte geben - zwölf durch die Jury, zwölf durch die Zuschauer. Wenn zwei Songs auf die gleiche Punktzahl kommen, bekommt das Land die höhere Punktzahl, das vom Publikum höher bewertet wurde. Abgesehen davon, dass es sich auch hierbei wieder um ein geschachteltes Modell handelt, werden hierbei auch noch die gewichtete Rangaddition und ein externes Diktator Modell verwendet. Literatur und weiterführende Informationen A.D. Taylor and A.M. Pacelli: Mathematics and Politics - Strategy, Voting, Power, and Proof. Springer-Verlag, Berlin Heidelberg, 2nd corrected ed. 2008, corr. 3rd printing, 2009. H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W.D. Wallis. The Mathematics of Elections and Voting. Springer, Berlin, Heidelberg, 2014. au. edition, 2014. K. Loewenstein: Verfassungsrecht und Verfassungspraxis der Vereinigten Staaten, Springer-Verlag, Berlin Heidelberg New York, 1959. US Election Tracker as xlsx, 2016. nytimes presidential elections 2016 results as csv, 2016. ESC Regelwerk, 2019. ESC Datensatz, 2019. S. Gassama, L. Harms, D. Schneiderhan: Gruppenentscheidungen. Jupyter Notebooks: Eurocontest_2019.ipynb (Web-Viewer), MS_USA_2016.ipynb (Web-Viewer) Podcasts P. Stursberg, G. Thäter: Social Choice, Gespräch im Modellansatz Podcast, Folge 129, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Lübbecke, S. Ritterbusch: Operations Research, Gespräch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt, G. Thäter: Wahlsysteme, Gespräch im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich, T. Pritlove: Wahlrecht und Wahlsysteme, Gespräch im CRE Podcast, Folge 128, Metaebene Personal Media, 2009.
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. Gudruns Arbeitsgruppe begrüßte im Januar 2020 Andrea Walther als Gast. Sie ist Expertin für das algorithmische Differenzieren (AD) und ihre Arbeitsgruppe ist verantwortlich für das ADOL-C Programmpaket zum algorithmischen Differenzieren. Zusammen mit Andreas Griewank hat sie 2008 das Standardbuch zu AD veröffentlicht. Im Abitur und im mathematischen Grundstudium lernt jede und jeder Anwendungen kennen, wo Ableitungen von Funktionen gebraucht werden. Insbesondere beim Auffinden von Minima und Maxima von Funktionen ist es sehr praktisch, dies als Nullstellen der Ableitung zu finden. Bei der Modellierung komplexer Zusammenhänge mit Hilfe von partiellen Differentialgleichungen ist es möglich, diese Idee in ein abstrakteres Setting zu Übertragen. Eine sogenannte Kostenfunktion misst, wie gut Lösungen von partiellen Differentialgleichungen einer vorgegebenen Bedingung genügen. Man kann sich beispielsweise einen Backofen vorstellen, der aufgeheizt wird, indem am oberen und unteren Rand eine Heizspirale Wärme in den Ofen überträgt. Für den Braten wünscht man sich eine bestimmte Endtemperaturverteilung. Die Wärmeverteilung lässt sich mit Hilfe der Wärmeleitungsgleichung berechnen. In der Kostenfunktion wird dann neben der gewünschten Temperatur auch noch Energieeffizienz gemessen und die Abweichung von der Endtemperatur wird zusammen mit der benötigten Energie minimiert. Auch hierzu werden Ableitungen berechnet, deren Nullstellen helfen, diese Kosten zu minimeren. Man spricht hier von optimaler Steuerung. Eine Möglichkeit, die abstrakte Ableitung auszudrücken, ist das Lösen eines sogenannten adjungierten partiellen Differenzialgleichungsproblems. Aber hier wird es sehr schwierig, immer schnell und fehlerfrei Ableitungen von sehr komplexen und verschachtelten Funktionen zu berechnen, zumal sie für jedes Problem immer wieder neu und anders aussehen. Außerdem braucht man in der numerischen Auswertung des Algorithmus oft nur Werte dieser Ableitung an bestimmten Stellen. Deshalb ist die effiziente Berechnung von Funktionswerten der Ableitung ein unverzichtbarer Baustein in zahlreichen Anwendungen, die von Methoden zur Lösung nichtlinearer Gleichungen bis hin zu ausgefeilten Simulationen in der Optimierung und optimalen Kontrolle reichen. Am liebsten sollte dies der Computer fehlerfrei oder doch mit sehr kleinen Fehlern übernehmen können. Auch für das Newtonverfahren braucht man die Ableitung der Funktion. Es ist das Standardverfahren zur Lösung nichtlinearer Gleichungen und Gleichungssysteme. Das algorithmische Differenzieren (AD) liefert genaue Werte für jede Funktion, die in einer höheren Programmiersprache gegeben ist, und zwar mit einer zeitlichen und räumlichen Komplexität, die durch die Komplexität der Auswertung der Funktion beschränkt ist. Der Kerngedanke der AD ist die systematische Anwendung der Kettenregel der Analysis. Zu diesem Zweck wird die Berechnung der Funktion in eine (typischerweise lange) Folge einfacher Auswertungen zerlegt, z.B. Additionen, Multiplikationen und Aufrufe von elementaren Funktionen wie zum Beispiel Exponentialfunktion oder Potenzen. Die Ableitungen bezüglich der Argumente dieser einfachen Operationen können leicht berechnet werden. Eine systematische Anwendung der Kettenregel ergibt dann die Ableitungen der gesamten Sequenz in Bezug auf die Eingangsvariablen Man unterscheidet zwei Verfahren: den Vorwärts- und den Rückwärtsmodus. Im Vorwärtsmodus berechnet man das Matrizenprodukt der Jacobi-Matrix mit einer beliebigen Matrix (sogenannte Seedmatrix), ohne vorher die Komponenten der Jacobi-Matrix zu bestimmen. Der Rückwärtsmodus besteht aus zwei Phasen. Die Originalfunktion wird zunächst ausgeführt und gewisse Daten abgespeichert. Anschließend rechnet man rückwärts. Dabei werden Richtungsableitungen übergeben und es werden die im ersten Schritt gespeicherten Daten verwendet. Mit dem Rückwärtsmodus von AD ist es möglich, den Gradienten einer skalarwertigen Funktion mit Laufzeitkosten von weniger als vier Funktionsauswertungen zu berechnen. Diese Grenze ist auch noch völlig unabhängig von der Anzahl der Eingangsvariablen. Das ist phänomenal effektiv, aber er ist mit einem erhöhten Speicherbedarf verbunden. Im Laufe der Jahre wurden Checkpointing-Strategien entwickelt, um einen goldenen Mittelweg zu finden. Die Methoden sind für viele und sehr unterschiedliche Anwendungen interessant. In DFG-Projekten an denen Andrea beteiligt war und ist, wurde das unter anderem für die Modellierung von Piezokeramiken und für die Maxwellsche Wellengleichung umgesetzt. Außerdem sprechen Gudrun und Andrea über die Optimierung der Form einer Turbinenschaufel. Andrea begann ihre berufliche Laufbahn mit einer Ausbildung zur Bankkauffrau in Bremerhaven. Sie entschied sich anschließend für ein Studium der Wirtschaftsmathematik, um Mathematik und ihren erlernten Beruf zusammen zu halten. Unter den wenigen verfügbaren Standorten für so ein Studium in Deutschland entschied sie sich für die Universität Bayreuth. Nach Abschluss des Diploms gab es die Chance, an der TU Dresden im Optimierungsfeld zu arbeiten. Dort promovierte sie, wurde es später Leiterin der selbständigen Nachwuchsgruppe "Analyse und Optimierung von Computermodellen", Juniorprofessorin für "Analyse und Optimierung von Computermodellen" und habilitierte sich. 2009-2019 war sie als Professorin für "Mathematik und ihre Anwendungen" an der Universität Paderborn tätig. Seit Oktober 2019 ist sie Professorin für "Mathematische Optimierung", Humboldt-Universität zu Berlin. Literatur und weiterführende Informationen A. Griewank und A. Walther: Evaluating Derivatives: Principles and Techniques of Algorithmic Differentiation, Second Edition. SIAM (2008). A. Gebremedhin und A. Walther: An Introduction to Algorithmic Differentiation. in WIREs Data Mining and Knowledge Discovery. S. Fiege, A. Walther und A. Griewank: An algorithm for nonsmooth optimization by successive piecewise linearization. Mathematical Programming 177(1-2):343-370 (2019). A. Walther und A. Griewank: Characterizing and testing subdifferential regularity for piecewise smooth objective functions. SIAM Journal on Optimization 29(2):1473-1501 (2019). Podcasts G. Thäter, A. Zarth: Automatic Differentiation, Gespräch im Modellansatz Podcast, Folge 167, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, P. Allinger und N. Stockelkamp: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. In the coming weeks until February 20, 2020, Anna Hein, student of science communication at KIT, intends to conduct a study on the Modellansatz Podcast within her master's thesis. For this purpose, she would like to conduct some interviews with you, the listeners of the Modellansatz Podcast, to find out who listens to the podcast and how and for what purpose it is used. The interviews will be anonymous and will take about 15 minutes each. To participate in the study, you can register with Anna Hein until 20.2.2020 at studie.modellansatz@web.de . We would be very pleased if many interested parties would contact us. This is the second of three conversation recorded Conference on mathematics of wave phenomena 23-27 July 2018 in Karlsruhe. Gudrun is in conversation with Mariana Haragus about Benard-Rayleigh problems. On the one hand this is a much studied model problem in Partial Differential Equations. There it has connections to different fields of research due to the different ways to derive and read the stability properties and to work with nonlinearity. On the other hand it is a model for various applications where we observe an interplay between boyancy and gravity and for pattern formation in general. An everyday application is the following: If one puts a pan with a layer of oil on the hot oven (in order to heat it up) one observes different flow patterns over time. In the beginning it is easy to see that the oil is at rest and not moving at all. But if one waits long enough the still layer breaks up into small cells which makes it more difficult to see the bottom clearly. This is due to the fact that the oil starts to move in circular patterns in these cells. For the problem this means that the system has more than one solutions and depending on physical parameters one solution is stable (and observed in real life) while the others are unstable. In our example the temperature difference between bottom and top of the oil gets bigger as the pan is heating up. For a while the viscosity and the weight of the oil keep it still. But if the temperature difference is too big it is easier to redistribute the different temperature levels with the help of convection of the oil. The question for engineers as well as mathematicians is to find the point where these convection cells evolve in theory in order to keep processes on either side of this switch. In theory (not for real oil because it would start to burn) for even bigger temperature differences the original cells would break up into even smaller cells to make the exchange of energy faster. In 1903 Benard did experiments similar to the one described in the conversation which fascinated a lot of his colleagues at the time. The equations where derived a bit later and already in 1916 Lord Rayleigh found the 'switch', which nowadays is called the critical Rayleigh number. Its size depends on the thickness of the configuration, the viscositiy of the fluid, the gravity force and the temperature difference. Only in the 1980th it became clear that Benards' experiments and Rayleigh's analysis did not really cover the same problem since in the experiment the upper boundary is a free boundary to the surrounding air while Rayleigh considered fixed boundaries. And this changes the size of the critical Rayleigh number. For each person doing experiments it is also an observation that the shape of the container with small perturbations in the ideal shape changes the convection patterns. Maria does study the dynamics of nonlinear waves and patterns. This means she is interested in understanding processes which change over time. Her main questions are: Existence of observed waves as solutions of the equations The stability of certain types of solutions How is the interaction of different waves She treats her problems with the theory of dynamical systems and bifurcations. The simplest tools go back to Poincaré when understanding ordinary differential equations. One could consider the partial differential equations to be the evolution in an infinite dimensional phase space. Here, in the 1980s, Klaus Kirchgässner had a few crucial ideas how to construct special solutions to nonlinear partial differential equations. It is possible to investigate waterwave problems which are dispersive equations as well as flow problems which are dissipative. Together with her colleagues in Besancon she is also very keen to match experiments for optical waves with her mathematical analysis. There Mariana is working with a variant of the Nonlinear Schrödinger equation called Lugiato-Lefever Equation. It has many different solutions, e.g. periodic solutions and solitons. Since 2002 Mariana has been Professor in Besancon (University of Franche-Comté, France). Before that she studied and worked in a lot of different places, namely in Bordeaux, Stuttgart, Bucharest, Nice, and Timisoara. References V.A. Getling: Rayleigh-Bénard Convection Structures and Dynamics, Advanced Series in Nonlinear Dynamics, Volume 11, World Scientific, Oxford (1998) P. H. Rabinowitz: Existence and nonuniqueness of rectangular solutions of the Bénard problem. Arch. Rational Mech. Anal. (1968) 29: 32. M. Haragus and G. Iooss: Local bifurcations, center manifolds, and normal forms in infinite-dimensional dynamical systems. Universitext. Springer-Verlag London, Ltd., London; EDP Sciences, Les Ulis, 2011. Newell, Alan C. Solitons in mathematics and physics. CBMS-NSF Regional Conference Series in Applied Mathematics, 48. Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 1985. Y. K. Chembo, D. Gomila, M. Tlidi, C. R. Menyuk: Topical Issue: Theory and Applications of the Lugiato-Lefever Equation. Eur. Phys. J. D 71 (2017). Podcasts S. Fliss, G. Thäter: Transparent Boundaries. Conversation in the Modellansatz Podcast episode 75, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. M. Kray, G. Thäter: Splitting Waves. Conversation in the Modellansatz Podcast episode 62, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering. Conversation in the Modellansatz Podcast episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. In the coming weeks until February 20, 2020, Anna Hein, student of science communication at KIT, intends to conduct a study on the Modellansatz Podcast within her master's thesis. For this purpose, she would like to conduct some interviews with you, the listeners of the Modellansatz Podcast, to find out who listens to the podcast and how and for what purpose it is used. The interviews will be anonymous and will take about 15 minutes each. To participate in the study, you can register with Anna Hein until 20.2.2020 at studie.modellansatz@web.de . We would be very pleased if many interested parties would contact us. This is the first of three conversation recorded Conference on mathematics of wave phenomena 23-27 July 2018 in Karlsruhe. Gudrun talked to Fioralba Cakoni about the Linear Sampling Method and Scattering. The linear sampling method is a method to reconstruct the shape of an obstacle without a priori knowledge of either the physical properties or the number of disconnected components of the scatterer. The principal problem is to detect objects inside an object without seeing it with our eyes. So we send waves of a certain frequency range into an object and then measure the response on the surface of the body. The waves can be absorbed, reflected and scattered inside the body. From this answer we would like to detect if there is something like a tumor inside the body and if yes where. Or to be more precise what is the shape of the tumor. Since the problem is non-linear and ill posed this is a difficult question and needs severyl mathematical steps on the analytical as well as the numerical side. In 1996 Colton and Kirsch (reference below) proposed a new method for the obstacle reconstruction problem in inverse scattering which is today known as the linear sampling method. It is a method to solve the above stated problem, which scientists call an inverse scattering problem. The method of linear sampling combines the answers to lots of frequencies but stays linear. So the problem in itself is not approximated but the interpretation of the response is. The central idea is to invert a bounded operator which is constructed with the help of the integral over the boundary of the body. Fioralba got her Diploma (honor’s program) and her Master's in Mathematics at the University of Tirana. For her Ph.D. she worked with George Dassios from the University of Patras but stayed at the University of Tirana. After that she worked with Wolfgang Wendland at the University of Stuttgart as Alexander von Humboldt Research Fellow. During her second year in Stuttgart she got a position at the University of Delaware in Newark. Since 2015 she has been Professor at Rutgers University. She works at the Campus in Piscataway near New Brunswick (New Jersey). References F. Cakoni, D. Colton and H. Haddar, Inverse Scattering Theory and Transmission Eigenvalues, CBMS-NSF Regional Conference Series in Applied Mathematics, 88, SIAM Publications, 2016. F. Cakoni, D. Colton, A Qualitative Approach to Inverse Scattering Theory, Springer, Applied Mathematical Series, Vol. 188, 2014. T. Arens: Why linear sampling works, Inverse Problems 20 163-173, 2003. https://doi.org/10.1088/0266-5611/20/1/010 A. Kirsch: Characterization of the shape of a scattering obstacle using the spectral data of the far field operator, Inverse Problems 14 1489-512, 1998 D. Colton, A. Kirsch: A simple method for solving inverse scattering problems in the resonance region, Inverse Problems 12 383-93, 1996. Podcasts S. Fliss, G. Thäter: Transparent Boundaries. Conversation in the Modellansatz Podcast episode 75, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. M. Kray, G. Thäter: Splitting Waves. Conversation in the Modellansatz Podcast episode 62, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering. Conversation in the Modellansatz Podcast episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
Emmy Noether, eine der bedeutendsten Mathematiker*innen weltweit, prägte mit ihren „Arbeits- und Auffassungsmethoden“ die moderne Algebra und trug entscheidend zur Algebraisierung mathematischer Disziplinen bei. Mit ihrer 1918 publizierten Habilitationsschrift löste sie zentrale mathematische Probleme der allgemeinen Relativitätstheorie. Am 4. Juni 1919 hielt Emmy Noether ihren Habilitationsvortrag. Sie war die erste Frau, die in Preußen habilitiert wurde. Genau 100 Jahre später stellte in Berlin eine interdisziplinäre Fachkonferenz deshalb die Frage: „Wie kommt das Neue in die Welt?“ Die Tagung wurde gemeinsam veranstaltet vom Berliner Exzellenzcluster MATH+, der Zentralen Frauenbeauftragten der Freien Universität Berlin und dem Max-Planck-Institut für Wissenschaftsgeschichte. Aus mathematischer, physikalischer, wissenschaftstheoretischer und ‑historischer Perspektive beleuchtete die Konferenz die Bedeutung Noethers bis in die Gegenwart. Darüber hinaus nahm sie Strukturen und Prozesse der Diskriminierung und Marginalisierung in den Blick, die Noether als Frau jüdischer Herkunft im deutschen Wissenschaftssystem widerfuhren und die Rezeption ihrer mathematischen Leistungen auch über ihren Tod hinaus beeinträchtigten. Den Abschluss bildete am 6. Juni 2019 eine öffentliche Podiumsdiskussion zur Frage "Wie kommt das Neue in die Welt? Reflexionen über das Verhältnis von Mathematik, Gesellschaft, Geschlecht und Diversität" unter Moderation von Jan-Martin Wiarda (Wissenschaftsjournalist). Das Gespräch hat Gudrun für unseren Podcast mitgeschnitten. Auf dem Podium waren vertreten: Prof. Dr. Katja Eilerts, Abteilung Grundschulpädagogik – Mathematik im Primarbereich, Humboldt-Universität zu Berlin Prof. Dr. Rupert Klein, Vorstandsmitglied des Exzellenzclusters MATH+ und Sprecher des Mathematik-SFB 1114, Freie Universität Berlin Prof. Dr. Helena Mihaljević, Professorin für Data Science und Analytics des Einstein Center Digital Future, Hochschule für Technik und Wirtschaft Berlin Dr. Anina Mischau, Leiterin der Arbeitsstelle Gender Studies in der Mathematik, Freie Universität Berlin Prof. Dr. Caren Tischendorf, Vorstandsmitglied des Exzellenzclusters MATH+, Humboldt-Universität zu Berlin Außerdem spricht am Ende des Mitschnittes Dr. Mechthild Koreuber Frauenbeauftragte der Freien Universität Berlin. Im Gespräch wird erörtert, inwieweit es zu Konflikten mit der Fachdisziplin Mathematik führt, wenn der Blick auch auf geschlechtergerechte Ausbildung - insbesondere im Lehramt - gelenkt wird. Anina Mischau hat hier Pionierarbeit in der Mathematik an der FU Berlin geleistet. Dort hat sie inzwischen den Eindruck, dass die Arbeit geschätzt wird. Bei der Untersuchung des Anteils von Frauen in den hoch renommierten Fachzeitschriften und auf den alle vier Jahre stattfindenden Intermationalen Konferenzen für Mathematik sind die Zahlen allerdings noch nicht sehr ermutigend. Selbst die relativ gibt es kaum Verbesserungen. Es stellt sich automatisch die Frage, wo diese Unterschiede herkommen. Im Gespräch wird erläutert, inwieweit der fachinterne Wettbewerb männlich geprägt ist und durch welche Maßnahmen es hier eine Veränderung geben kann. Für jede einzelne Berufung ist es nicht so offensichtlich, wie man hier Gerechtigkeit schaffen kann, wenn die Bewerberlage schon eine Schieflage hat. Die massive Nutzung von zählbaren Größen als wichtiges Kriterium im Vergleich ist ja eigentlich erst sehr jungen Datums und ist für die Arbeit als Professor bzw. Professorin nur ein Anhaltspunkt unter vielen für die Eignung. Die DFG hat hier schon einige ganz gute Ideen implementiert. z.B. in der Vorgabe nur eine vorgegebene Anzahl von Veröffentlichungen beizufügen, die relevant sind und auch von Gutachtern in ihr Bild einbezogen werden können (statt Anzahlen zu vergleichen). Frauen müssen schon früh von außen Bestätigung bekommen, wenn sie sich als begabt und geeignet zeigen. Das Übersehen von Talent abseits der ausgetretenen Pfade wird sich in jedem Fall als Nachteil für jede Bildungseinrichtung auswirken. Häufig geht es hier auch um Themenfelder, die etwa abseits der Trends liegen. Das Theaterstück „Mathematische Spaziergänge mit Emmy Noether" kann am 10. Dezember 2019 in Göttingen sowie am 12. Mai 2020 in München besucht werden. Das Exzellenzclusters MATH+ ist ein institutionenübergreifender und transdisziplinärer Exzellenzcluster. Ziel ist es, neue Ansätze in der anwendungsorientierten Mathematik zu erforschen und weiterzuentwickeln. Der Schwerpunkt liegt auf mathematischen Prinzipien zur Nutzung immer größerer Datenmengen in den Lebens- und Materialwissenschaften, in der Energie- und Netzwerkforschung sowie in den Geistes- und Sozialwissenschaften. Innerhalt des Clusters gibt es auch ein soziologisches Projekt, das die Karrierewege der beteiligten jungen Wissenschaftler und Wissenschaftlerinnen über einen längeren Zeitraum begleiten und untersuchen wird. MATH+ wird von der DFG für einen ersten Zeitraum von sieben Jahren seit Januar 2019 gefördert. Es ist ein Gemeinschaftsprojekt der drei großen Berliner Universitäten - Freie Universität Berlin, Humboldt-Universität zu Berlin und Technische Universität Berlin - sowie des Weierstraß-Instituts für Angewandte Analysis und Stochastik (WIAS) und des Zuse Instituts Berlin (ZIB). MATH+ setzt die Erfolgsgeschichten des renommierten Forschungszentrums MATHEON und der Excellence-Graduate School Berlin Mathematical School (BMS) fort. Die Referent*innen im Detail Prof. Dr. Katja Eilerts Professorin für Grundschulpädagogik, Dr. rer. nat., promovierte in der Fakultät für Informatik, Elektrotechnik und Mathematik an der Universität Paderborn; 1997-2000 Studium des Lehramtes für die Primarstufe, Universität Paderborn; seit 2014 W2-Professorin für Grundschulpädagogik - Lernbereich Mathematik an der Humboldt Universität zu Berlin; 2012 Ruf auf eine W2-Professur an der Freien Universität Berlin (abgelehnt); 2012-2014 W2-Professorin für Grundschulpädagogik/Mathematik an der Universität Potsdam; 2011-2012 Gast-Professorin an der Freien Universität Berlin; 2009-2011 Vertretungs-Professorin an der Universität Kassel im Bereich der Mathematik-Didaktik; 2007-2009 Wissenschaftliche Mitarbeiterin, Fakultät für Informatik, Elektrotechnik und Mathematik, Universität Paderborn; 2005-2007 Stipendiatin des Graduiertenkollegs der Universität Paderborn & Lehrauftrag an der Fakultät für Informatik, Elektrotechnik und Mathematik, Universität Paderborn. Prof. Dr. Rupert Klein Professor für numerische Strömungsmechanik an der Freien Universität Berlin. 1979-1983 Studium Maschinenbau an der RWTH Aachen; Promotion 1988 in Maschinenbau; 1988-1990 Post-Doktorand, Mathematik, Princeton University; ab 1991 wissenschaftlicher Assistent in Aachen; 1995 Habilitation; 1996/97 Professor für Sicherheitstechnik an der Bergischen Universität Wuppertal; 1997-2007 Abteilungsleiter Data & Computation am Potsdam-Institut für Klimafolgenforschung (2006-2007 stellv. Direktor); ab 1997 Professor für Wissenschaftliches Rechnen (Scientific Computing) und Modellierung und Simulation globaler Umweltsysteme an der FU Berlin. Dr. Mechthild Koreuber Dipl. Mathematikerin, promovierte Mathematikhistorikerin; Studium der Mathematik, Geschichte, Politikwissenschaften und Philosophie an der Freien Universität Berlin; 1990–1998 wissenschaftliche Mitarbeiterin in der theoretischen Informatik an der Technischen Universität Berlin; seit 1999 hauptberufliche Zentrale Frauenbeauftragte der Freien Universität Berlin; 2015 Promotion über Emmy Noether und die Noether-Schule. Prof. Dr. Helena Mihaljević Promovierte Mathematikerin, Studium der Mathematik an der Georg-August-Universität Göttingen; 2006–2009 Promotion in Mathematik an der University of Liverpool zu Topologischer Dynamik ganzer transzendenter Funktionen; 2009–2011 wissenschaftliche Mitarbeiterin am Mathematischen Seminar der Christian-Albrechts-Universität zu Kiel; 2011–2014 Editorin und stellvertretende Abteilungsleiterin bei FIZ Karlsruhe – Leibniz Institut für Informationsinfrastruktur, Abteilung Mathematik und Informatik; 2014–2018 Senior Data Scientist bei The unbelievable Machine Company, Berlin; seit 2018 Professorin für Data Science an der Hochschule für Technik und Wirtschaft (HTW) Berlin (Professur gehört zum Einstein Center Digital Future). Dr. Anina Mischau Soziologin 2002-2013 wissenschaftliche Mitarbeiterin am Interdisziplinären Zentrum für Frauen- und Geschlechterforschung (IFF) der Universität Bielefeld; 2012-2015 Gastprofessur für „Gender Studies in der Mathematik und Didaktik der Mathematik“ am FB Mathematik und Informatik der Freien Universität Berlin; 2015-2016 Gastprofessur zur „Integration von Genderkompetenz in die Lehramtsausbildung Primarstufe Mathematik“ am Institut für Erziehungswissenschaften, Abteilung Grundschulpädagogik – Lernbereich Mathematik der Humboldt-Universität zu Berlin; seit 2016 wissenschaftliche Mitarbeiterin am FB Mathematik und Informatik der FU Berlin, Leiterin der Arbeitsstelle „Gender Studies in der Mathematik“. Prof. Dr. Caren Tischendorf Studium der Mathematik in Berlin und Moskau; 1996 Promotion an der Humboldt-Universität zu Berlin in Numerischer Analysis, 2002-2004 Vorsitzende der Nachwuchsforschungsgruppe Numerische Analysis am DFG-Forschungszentrum MATHEON; 2004 Habilitation in Mathematik an der Humboldt-Universität zu Berlin; 2004-2006 Gastprofessorin an der TU; 2006-2012 Professorin für Mathematik/Numerische Analysis (W2) an der Universität zu Köln; seit Mai 2012 Professorin für Angewandte Mathematik am Institut für Mathematik an der Humboldt-Universität. Literatur und weiterführende Informationen Noether Konferenz im Juni 2019 in Berlin MATH+ K. Eilerts & K. Skutella (Hrsg.): Materialien für einen realitätsbezogenen Mathematikunterricht. (ISTRON, Bd. 5). Hildesheim: Franzbecker, 2019. H. Mihaljević e.a.: Reflections on Gender Analyses of Bibliographic Corpora. In: Frontiers in Big Data, S. 1-9, 2019, ISSN 2624-909X M. Koreuber, A. Mischau: Mathematik: Geschlechterforschung in disziplinären Zwischenräumen. In B. Kortendiek e.a. (Hrsg.), Handbuch Interdisziplinäre Geschlechterforschung. Geschlecht und Gesellschaft, Bd. 65 (S. 719-728), Wiesbaden: Springer VS (2019). H. Mihaljević: A data analysis of women's trails among ICM speakers. In World Women in Mathematics 2018. Proceedings of the First World meeting for Women in Mathematics (WM)² , S. 1-18, Springer, L. Santamaria, H. Mihaljević: Comparison and benchmark of name-to-gender inference services. In: Peer J Computer Science, 2018, ISSN 2376-5992 K. Eilerts & A. Mischau: Importance and possibility of integrating gender competence as a key qualification in mathematics teacher education. Paper für CERME10 vom 01.-05.02.2017, Dublin. H. Mihaljević e.a.: The Effect of Gender in the Publication Patterns in Mathematics. In: PLOS ONE, S. 1-23, 2016 Gendergap in science Bericht des Oberwolfach Mini-Workshops Women in Mathematics: Historical and Modern Perspectives 8.-14.1. 2017. Podcasts M. Koreuber, R. Klein, G. Thäter: Emmy Noether, Gespräch im Modellansatz Podcast, Folge 203, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Mischau, M. Koreuber, G. Thäter: Gender und Mathematik, Gespräch im Modellansatz Podcast, Folge 142, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Jungbauer-Gans: Frauen in der Wissenschaft – Gleiche Chancen, Ungleiche Voraussetzungen? Zentrum für Gender Studies und feministische Zukunftsforschung, Podcast Kombinat, Universität Marburg, 2016.
Gudrun traf im November 2019 Jan Richter. Er ist einer der Gründer der Batemo GmbH in Karlsruhe. Mit den Kollegiaten von SiMET hatte Gudrun das Unternehmen kurz vorher in der Technologiefabrik besucht und dabei das Podcast-Gespräch vereinbart. Batemo ist noch ein recht junges Unternehmen. Es wurde im März 2017 von Michael Schönleber und Jan Richter gegründet. Die beiden haben an der KIT-Fakultät für Elektrotechnik und Informationstechnik promoviert. Sie hatten sich schon länger mit der Idee auseinandergesetzt, im Anschluss an die Promotionszeit den Schritt zur Unternehmensgründung zu wagen. Es war klar, dass sie sich mit einem Thema beschäftigen möchten, das Ihnen ermöglicht, die Entwicklung von Akkus zu beeinflussen. Außerdem wollten sie gern ohne finanzielle Fremdmittel auskommen, um in jedem Moment die volle Kontrolle zu behalten. Inzwischen ist das gut gelungen und die Firma ist auf Simulationssoftware für Lithium-Ionen-Batterien spezialisiert. Für beliebige Lithium-Ionen-Zellen erstellen sie einen digitalen Zwilling, also ein Modell im Computer. Dass sie damit glaubwürdig für zahlungsfähige Kunden sind, liegt daran, dass sie auch die Validität dieser Modelle im gesamten Betriebsbereich nachweisen. Die Modelle sind sehr komplexe und stark nichtlinear gekoppelte Systeme aus algebraischen und partiellen Differentialgleichungen, die die physikalischen, chemischen und thermodynamische Prozesse abbilden. Sie sind auch dafür geeignet, das Verhalten der Akkus über die Lebenszeit der Zellen hin nachzubilden. Es ist besonders herausfordernd, da die Prozesse in unterschiedlichen Längen- und Zeitskalen ablaufen. Zwei Fragen, die beim Besuch mit den SiMET-Kollegiaten im Mittelpunkt des Gespräches standen, sind: Mit welchen Betriebsstrategien wird die Lebensdauer der Zellen erhöht? Wie werden innovative Schnellladeverfahren entwickelt, die die Zellen nicht zu schnell altern lassen? Im Gespräch berichtet Jan auch davon, wieso er sich für ein Studium der Elektrotechnik entschieden hat und wie er den Weg in die Selbstständigkeit von heute aus bewertet. Literatur und weiterführende Informationen A. Latz, J. Zausch: Thermodynamic consistent transport theory of Li-ion batteries, Journal of Power Sources 196 3296--3302, 2011. M. Maier: The Mathematical Analysis of a Micro Scale Model for Lithium-Ion Batteries. PhD Thesis KIT 2016 M. Kespe, H. Nirschl: Numerical simulation of lithium-ion battery performance considering electrode microstructure, International Journal of Energy Research 39 2062-2074, 2015. Podcasts A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016. M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. V. Auinger: Optimale Akkuladung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 160, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Carelli, G. Thäter: Batteries, Gespräch im Modellansatz Podcast, Folge 211, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
Gudrun spricht mit Axel Voigt. Er ist Professor für Wissenschaftliches Rechnen und Angewandte Mathematik an der TU Dresden. Axel war Ende Oktober 2019 zu Gast in Gudruns Arbeitsgruppe, um seine Modelle für Kristallgitter zu diskutieren. Der Wunsch der Gruppe war, sowohl die Modelle als auch die dafür passenden numerischen Verfahren besser zu verstehen. Sie sind insbesondere für die Simulation der Vorgänge in Akkumulatoren interessant, die im Rahmen das Graduiertenkollegs SiMET vorangetrieben werden. Viele feste Körper haben eine Gitterstruktur. Für z.B. Silizium, Aluminium und Stahl ist dies ein Kristallgitter. In der Schule wird es der Einfachheit halber oft so dargestellt, als wäre das Kristallgitter eine feste Größe für solche Stoffe. In der Natur sind es aber polykristalline Materialien. D.h. sie bestehen aus vielen unterschiedlichen Einzelkristallen. Diese sind durch Korngrenzen voneinander getrennt. Das Studium polykristalliner Materialien erfordert theoretische und rechnerische Techniken, die Untersuchungen auf unterschiedlich großen Skalen ermöglichen. Kristallgitterverformungen können mikroskopisch beschrieben werden, indem die Position der Atome explizit berücksichtigt wird, oder makroskopisch durch Kontinuumselastizität. Grobkörnige, mesoskalige Ansätze sind daher geeignete Werkzeuge, um Informationen über polykristalline Materialien bereitzustellen. In seiner Forschung betrachtet Axel sie als kontinuierliche elastische Felder, die aus einer atomistischen Darstellung der kristallinen Strukturen abgeleitet sind. So enthält sie auch wichtige Merkmale, die für die mikroskopische Skala typisch sind. Die Größe und Phase der Amplituden der Fourierspektrum, zusammen mit der kontinuierlichen Beschreibung der Dehnungen, sind in der Lage, Kristalldrehungen, Gitterverformungen und Versetzungen zu charakterisieren. Darüber hinaus stellen sie in Kombination mit der so genannten Amplitudenerweiterung des Phasenfeld-Kristallmodells ein geeignetes Werkzeug zur Überbrückung mikroskopischer bis makroskopischer Skalen dar. Die Amplitudenerweiterung des Phasenfeld-Kristallmodells ermöglicht es, die Kristallgittereigenschaften auf diffusen Zeitskalen zu beschreiben, indem sie sich auf kontinuierliche Felder konzentriert, die auf Längenskalen variieren, die größer als der Atomabstand sind. So ermöglicht es die Simulation großer Systeme, die noch Details des Kristallgitters beibehalten. Axel Voigt hat an der TU München studiert und promoviert. Nach einem Ausflug in die Wirtschaft war er ab 2001 Gruppenleiter am Forschungsinstitut caesar in Bonn und hat sich dort auch habilitiert. Seit 2007 ist er in Dresden an der TU als Professor tätig. Literatur und weiterführende Informationen M. Salvalaglio, A. Voigt, K. R. Elder: Closing the gap between atomic-scale lattice deformations and continuum elasticity. npj Computational Materials 5 (2019), 48 S. Praetorius, M. Salvalaglio, A. Voigt: An efficient numerical framework for the amplitude expansion of the phase-field crystal model. Modelling Simul. Mater. Sci. Eng. 27 (4) (2019), 044004 M. Salvalaglio, R. Backofen, K. R. Elder, A. Voigt: Defects at grain boundaries: a coarse-grained, three-dimensional description by the amplitude expansion of the phase-field crystal model. Phys. Rev. Materials 2 (2018), 053804 Podcasts S. Carelli, G. Thäter: Batteries, Conversation im Modellansatz Podcast, Episode 211, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2019. L. Wagner, G. Thäter: Elastoplastizität, Gespräch im Modellansatz Podcast, Folge 210, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
Gudrun talks to Anna Geyer. Anna is Assistant professer at TU Delft in the Mathematical Physics group at the Delft Institute of Applied Mathematics. She is interested in the behaviour of solutions to equations which model shallow water waves. The day before (04.07.2019) Anna gave a talk at the Kick-off meeting for the second funding period of the CRC Wave phenomena at the mathematics faculty in Karlsruhe, where she discussed instability of peaked periodic waves. Therefore, Gudrun asks her about the different models for waves, the meaning of stability and instability, and the mathematical tools used in her field. For shallow water flows the solitary waves are especially fascinating and interesting. Traveling waves are solutions of the form representing waves of permanent shape f that propagate at constant speed c. These waves are called solitary waves if they are localized disturbances, that is, if the wave profile f decays at infinity. If the solitary waves retain their shape and speed after interacting with other waves of the same type, we say that the solitary waves are solitons. One can ask the question if a given model equation (sometimes depending on parameters in the equation or the size of the initial conditions) allows for solitary or periodic traveling waves, and secondly whether these waves are stable or unstable. Peaked periodic waves are an interesting phenomenon because at the wave crest (the peak) they are not smooth, a situation which might lead to wave breaking. For which equations are peaked waves solutions? And how stable are they? Anna answers these questions for the reduced Ostrovsky equation, which serves as model for weakly nonlinear surface and internal waves in a rotating ocean. The reduced Ostrovsky equation is a modification of the Korteweg-de Vries equation, for which the usual linear dispersive term with a third-order derivative is replaced by a linear nonlocal integral term, representing the effect of background rotation. Peaked periodic waves of this equation are known to exist since the late 1970's. Anna presented recent results in which she answers the long standing open question whether these solutions are stable. In particular, she proved linear instability of the peaked periodic waves using semi-group theory and energy estimates. Moreover, she showed that the peaked wave is unique and that the equation does not admit Hölder continuous solutions, which implies that the reduced Ostrovsky equation does not admit cusps. Finally, it turns out that the peaked wave is also spectrally unstable. This is joint work with Dmitry Pelinovsky. For the stability analysis it is really delicate how to choose the right spaces such that their norms measure the behaviour of the solution. The Camassa-Holm equation allows for solutions with peaks which are stable with respect to certain perturbations and unstable with respect to others, and can model breaking waves. Anna studied mathematics in Vienna. Adrian Constantin attracted her to the topic of partial differential equations applied to water waves. She worked with him during her PhD which she finished in 2013. Then she worked as Postdoc at the Universitat Autònoma de Barcelona and in Vienna before she accepted a tenure track position in Delft in 2017. References A. Geyer, D.E. Pelinovsky: Spectral instability of the peaked periodic wave in the reduced Ostrovsky equations, submitted (arXiv) A. Geyer, D.E. Pelinovsky: Linear instability and uniqueness of the peaked periodic wave in the reduced Ostrovsky equation, SIAM J. Math. Analysis, 51 (2019) 1188–1208 A. Geyer, D.E. Pelinovsky: Spectral stability of periodic waves in the generalized reduced Ostrovsky equation, Lett. Math. Phys. 107(7) (2017) 1293–1314 R. Grimshaw, L. Ostrovsky, V. Shrira, et al.: Long Nonlinear Surface and Internal Gravity Waves in a Rotating Ocean, Surveys in Geophysics (1998) 19: 289. A. Constantin, W. Strauss: Stability of peakons, Commun. Pure Appl. Math. 53 (2000) 603–610. F. Natali, D.E. Pelinovsky: Instability of H1-stable peakons in the Camassa-Holm equation, submitted (arXiv) Related Podcasts X. Liao, G. Thäter: Nonhomogenous Fluids, Conversation in the Modellansatz Podcast, Episode 189, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2018. M. Lopez-Fernandez, G. Thäter: Convolution Quadrature, Conversation in the Modellansatz Podcast, Episode 133, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2017. S. Fliss, G. Thäter: Transparent Boundaries, Conversation in the Modellansatz Podcast episode 075, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering, Conversation in the Modellansatz Podcast episode 058, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. E. Zuazua, G. Thäter: Waves Conversation in the Modellansatz Podcast episode 054, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
Gudrun spricht in dieser Folge mit Maren Hattebur, Nils Rauscher und Moritz Müller über die Teilnahme von Nils und Moritz beim Wettbewerb Jugend forscht. Die beiden jungen Männer haben im Sommer 2019 ihr Abitur am Tulla-Gymnasium in Rastatt gemacht. Im Gespräch schauen sie noch einmal zurück auf den Weg, der zur Teilnahme an Jugend forscht führte und im Sommer 2018 mit der Teilnahme an der CAMMP week in Voeren (Belgien) begann. Maren hat die beiden in der ganzen Zeit begleitet. Sie ist Doktorandin in der KIT-Fakultät für Mathematik und trägt in der Arbeistgruppe Computational Science and Mathematical Methods sehr aktiv die Projekte CAMMP week und Simulierte Welten mit. Moritz und Nils hatten bis 2018 kein ausgeprägtes Interesse an mathematischen Themen und hätten sich auch eher kein technisches Studium für sich selbst vorgestellt. Die Einladung, eine Woche in einer Gruppe ein Problem aus der Praxis zu knacken, nahmen sie allerdings gern an. In ihrer Gruppe ging es um die Beladung von Lastwagen. Zusammen mit Gleichaltrigen haben sie sich einen Algorithmus überlegt, anschließend implementieren und getestet, der sicherstellt, dass vorbereitete Euor-Paletten in der passenden Reihenfolge entladen werden können. Dabei muss gewährleistet sein, dass Paletten aufeinander auch stapelbar sind. In Voeren gab es eine Lösung der Gruppe. Das Thema war aber noch nicht richtig durch. Deshalb entschlossen sich Moritz und Nils, damit noch weiter zu machen und wurden durch ein Förderstipendium des Programms Simulierte Welten dabei unterstützt. Das Ergebnis reichten sie schließlich im Wettbewerb Jugend forscht ein. Dort gibt es unterschiedliche Fachgebiete. Das Thema passte in den Bereich Arbeitswelten. Im Wettbewerb Junged forscht ist in jedem Jahr Anmeldeschluss am 30. November. Die Teilnehmend Gruppen erhalten bis Ende Dezember die Einladung zu einem Wettbewerb in ihrer Region. Im Januar reichen sie eine schriftliche Ausarbeitung ihres Projekts von maximal 15 Seiten beim zuständigen Wettbewerbsleiter ein. Am ersten Tag des Wettbewerbs bauen die Jungforscherinnen und Jungforscher ihre Stände auf, es findet ein erstes Kennenlernen mit den Organisatoren und vor allem mit den anderen statt. Am zweiten Tag kommt die Jury und schaut sich die Projekte an. Die Gruppen präsentieren und werden anschließend ausgiebig befragt. Bei der Abendveranstaltung werden bereits die Sieger verkündet. Am dritten Tag kommt die Öffentlichkeit und die Presse dazu. Außer den Siegern sind noch keine Preisträger bekannt, so dass es bei der abschließenden Feierstunde noch einmal richtig spannend wird. Moritz und Nils haben die Veranstaltung als tollen Höhepunkt erlebt. Durch die eigene Forschertätigkeit hat sich auch ihr Blick auf Mathematik und ihre Anwendungen im Alltag stark verändert. Sie würden jederzeit empfehlen, sich auf das Experiment einer CAMMP week einzulassen oder ein Projekt für Jugend forscht zu entwickeln. Literatur und weiterführende Informationen CAMMP week Förderstipendium Simulierte Welten Erfahrungsberichte CAMMP week M. Hattebuhr, K. Wohak, G. Thäter: Simulierte Welten, Gespräch im Modellansatz Podcast, Folge 179, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Erklärfilm Jugend forscht Podcasts E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Schäfer, I. Häuser, G. Thäter: Schülermarketing, Gespräch im Modellansatz Podcast, Folge 191, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
Gudrun talks with Changjing Zhuge. He is a guest in the group of Lennart Hilbert and works at the College of applied sciences and the Beijing Institute for Scientific and Engineering Computing (BISEC) at the Beijing University of Technology. He is a mathematician who is interested in system biology. In some cases he studies delay differential equations or systems of ordinary differential equations to characterize processes and interactions in the context of cancer research. The inbuilt delays originate e.g. from the modeling of hematopoietic stem cell populations. Hematopoietic stem cells give rise to other blood cells. Chemotherapy is frequently accompanied by unwished for side effects to the blood cell production due to the character of the drugs used. Often the production of white blood cells is hindered, which is called neutropenia. In an effort to circumvent that, together with chemotherapy, one treats the patient with granulocyte colony stimulating factor (G-CSF). To examine the effects of the typical periodic chemotherapy in generating neutropenia, and the corresponding response of this system to given to G-CSF Changjing and his colleagues studied relatively simple but physiologically realistic mathematical models for the hematopoietic stem cells. And these models are potential for modeling of other stem-like biosystems such as cancers. The delay in the system is related to the platelet maturation time and the differentiation rate from hematopoietic stem cells into the platelet cell. Changjing did his Bachelor in Mathematics at the Beijing University of Technology (2008) and continued with a PhD-program in Mathematics at the Zhou-Peiyuan Center for Applied Mathematics, Tsinghua University, China. He finished his PhD in 2014. During his time as PhD student he also worked for one year in Michael C Mackey's Lab at the Centre for Applied Mathematics in Bioscience and Medicine of the McGill University in Montreal (Canada). References C. Zhuge, M.C. Mackey, J. Lei: Origins of oscillation patterns in cyclical thrombocytopeniaJournal of Theoretical Biology 462,432-445, 2019. C. Zhuge, X. Sun, J. Lei: On positive solutions and the Omega limit set for a class of delay differential equations. Discrete and Continuous Dynamical Systems - Series B, 18(9), 2487~2503, 2013. C. Zhuge, M.C. Mackey, J. Lei: Neutrophil dynamics in response to chemotherapy and G-CSF Journal of Theoretical Biology 293, 111-120 2012.Podcasts L. Hilbert, G. Thäter: Zellkerne, Gespräch im Modellansatz Podcast, Folge 206, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Gonciarz, G. Thäter: Portrait of Science, Gespräch im Modellansatz Podcast, Folge 197, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. L. Adlung, G. Thäter, S. Ritterbusch: Systembiologie, Gespräch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Omega Tau-Podcast 072: Forschung in der Zellbiologie, 2011. J. Schmoranze, I. Wessolowski: Beim Herrn der Mikroskope – AMBIO Core Facility, Sciencekompass Podcast, Episode 009 B, 2017.
Gudrun war in Dresden zu Gast am Leibniz Institut für Polymerforschung. Sie spricht dort mit Axel Spickenheuer und Lars Bittrich über deren Forschungsfeld, das Tailored-Fiber-Placement-Verfahren (TFP). Anlass des Treffens in Dresden war der Beginn einer gemeinsamen Masterarbeit. Das Institut für Polymerforschung hat - zusammen mit Vorgängerinstitutionen - eine längere Geschichte in Dresden. Seit 1950 gab es dort ein Institut für Technologie der Fasern (als Teil der Akademie der Wissenschaften der DDR). Dieses wurde 1984 zum Institut für Technolgie der Polymere und nach der Gründung des Freistaates Sachsen schließlich am 1.1. 1992 neu als Institut für Polymerforschung Dresden e.V. gegründet. Seitdem wird dort auch schon an der TFP-Technologie gearbeitet. Seit 2004 gehört das Institut der Leibniz-Gemeinschaft an. Es ist damit der anwendungsnahen Grundlagenforschung verpflichtet. Ein wichtiges Thema im Haus ist Leichtbauforschung. Die TFP-Verfahren beinhalten Verstärkung von Geweben oder Thermoplasten durch feste Fasern aus z.B. Glas, Kohlenstoff und Aramiden. Diese Verstärkung kann man so aufbringen, dass sie in allen Richtungen gleich stark wirkt (isotrop) oder aber so, dass sich sehr unterschiedliche Materialeigenschaften bei Beanspruchung in unterschiedlichen Richtungen ergeben (anisotrop). In den so entstehenden zusammengesetzten Materialien geht es darum, für die Bauteile Masse zu reduzieren, aber Steifigkeit und/oder Tragfähigkeit stark zu erhöhen. Besonderes Potential für Einsparungen hat die anisotrope Verstärkung, also die (teuren) Fasern genau so zu einzusetzen, wie es den berechneten Anforderungen von Bauteilen am besten entspricht. Das führt auf sehr unterschiedliche Fragen, die in der Forschungstätigkeit des Dresdner Instituts beantwortet werden. Sie betreffen u.a. die tatsächliche Herstellung an konkreten Maschinen, die Kommunikation zwischen Planung und Maschine, die Optimierung des Faserverlaufs im Vorfeld und die Prüfung der physikalischen Eigenschaften. Die Verstärkungsstruktur wird durch das Aufnähen einzelner sogenannter Rovings auf dem Basismaterial erzeugt. Das Grundmaterial kann eine textile Flächenstruktur (Glasgewebe, Carbongewebe, Multiaxialgelege) oder für thermoplastische Verstärkungsstrukturen ein vernähfähiges Folienmaterial sein. Die Verstärkungsstrukturen werden durch die Bewegung des Grundmaterials mit Hilfe einer CNC-Steuerung und der gleichzeitigen Fixierung des Rovings mit Hilfe des Nähkopfes gefertigt. Um eine hohe Effektivität zu erhalten, können Verstärkungsstrukturen mit bis zu 1000 Stichen pro Minute hergestellt werden. Für die Mathematik besonders interessant ist die Simulation und Optimierung der sehr komplexen Verbundstoffe. Um optimale Faseranordnungen umsetzen zu können, braucht es natürlich numerische Methoden und prozessorientierte Software, die möglichst alle Schritte der Planung und Herstellung automatisiert. Traditionell wurde oft die Natur zum Vorbild genommen, um optimale Verstärkungen - vor allem an Verzweigungen - nachzuahmen. Hier gibt es einen Verbindung nach Karlsruhe ans KIT, denn Claus Mattheck hat hier über viele Jahrzehnte als Leiter der Abteilung Biomechanik im Forschungszentrum Karlsruhe richtungsweisend gearbeitet und auch mit dem Institut für Polymerforschung kooperiert. Ein weiterer Ansatz, um gute Faserverläufe zu konstruieren ist es, die Hauptspannungsverläufe (insbesondere 1. und 2. Hauptspannung) zu berechnen und das Material entsprechend zu verstärken. Dies ist aber für die komplexen Materialien gar nicht fundiert möglich. Eine der derzeit wichtigsten Problemstellung dabei ist die hinreichend genaue Modellbildung für eine Finite Elemente Analyse (FEA). Erst dadurch lassen sich exakte Vorhersagen zum späteren Bauteilverhalten bzgl. Steifigkeits- und Festigkeitsverhalten treffen. Besonders schwierig sind dabei die Berücksichtigung der lokal variablen Dicken im FE-Modell bzw. die genaue Wiedergabe der lokalen Faserorientierung darin. Vorzeigebeispiele für die Leistungsfähigkeit der Technologie sind die Fenster des Airbus und ein sehr leichtgewichtiger Hocker (650g), der bis zu 200 kg Last tragen kann und auch noch schick aussieht. Er wurde inzwischen in vielen technischen Ausstellungen gezeigt, z.B. im Deutschen Museum München. Mit Hilfe der am Institut entwickelten Softwaretools EDOPunch und AOPS (nach der Kommerzialisierung wurden daraus die Produkte EDOpath und EDOstructure der Complex Fiber Structures GmbH) ist es nun möglich, ausgehend von einem nahezu beliebigen TFP-Stickmuster, 3D-FEA-Simulationsmodelle zu erstellen, die in einem makroskopischen Maßstab sowohl die lokale Dickenkontur (sozusagen den Querschnitt) als auch die lokale Faserorientierung entsprechend abbilden können. Erste Ergebnisse zeigen, dass sich hierdurch sehr gut das Steifigkeitsverhalten solcher variabelaxialer Faserverbundbauteile berechnen lässt. Neben dem Vorgehen zum Erstellen entsprechender Simulationsmodelle wird anhand verschiedener experimentell ermittelter Bauteilkennwerte die Leistungsfähigkeit des verwendeten Modellansatzes immer wieder demonstriert. Die Weiterentwicklung dieser Software geht über die Ziele des Instituts für Polymerforschung hinaus und wird seit März 2013 in der Ausgründung Complex Fiber Structures erledigt. Ziel ist es, allen Ingenieuren die mit Faserverbünden arbeiten, sehr einfach handhabbare Tools zur Planung und Entwicklung zur Verfügung stellen zu können. Es gibt hierfür sehr unterschiedliche typische Nutzungsfälle. Im Gespräch geht es z.B. darum, dass Löcher in klassischen Bauteilen regelmäßig zu starken Festigkeitseinbußen führen. Allerdings kann man sehr oft nicht auf Löcher im Bauteil verzichten. TFP-Lösungen können aber so umgesetzt werden, dass im Verbundmaterial die Festigkeitseinbuße durch Löcher nicht mehr vorhanden ist. Damit Ingenieure diesen Vorteil für sich nutzen können, brauchen sie aber gute Software, die ihnen solche Standardprobleme schnell zu lösen hilft, ohne sich erst in den ganzen Hintergrund einzuarbeiten. Axel Spickenheuer hat Luft-und Raumfahrttechnik an der TU Dresden studiert und arbeitet seit 2005 am Institut für Polymerforschung. Seit vielen Jahren leitet er die Gruppe für Komplexe Strukturkomponenten und hat 2014 zum Thema TFP-Verfahren promoviert. Lars Bittrich hat an der TU Dresden Physik studiert und zu Quantenchaos promoviert. Dabei hat er schon viel mit numerischen Verfahren gearbeitet. Seit Ende 2010 ist er Mitglieder von Axels Gruppe. Literatur und weiterführende Informationen L. Bittrich e.a.: Buckling optimization of composite cylinders for axial compression: A design methodology considering a variable-axial fiber layout more. Composite Structures 222 (2019) ID110928 L. Bittrich e.a.: Optimizing variable-axial fiber-reinforced composite laminates: The direct fiber path optimization concept more. Mathematical Problems in Engineering (2019) ID 8260563 A. Spickenheuer: Zur fertigungsgerechten Auslegung von Faser-Kunststoff-Verbundbauteilen für den extremen Leichtbau auf Basis des variabelaxialen Fadenablageverfahrens Tailored Fiber Placement Promotionsschrift TU Dresden, 2014. Podcasts H. Benner, G. Thäter: Formoptimierung, Gespräch im Modellansatz Podcast, Folge 212, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
In dieser Folge spricht Gudrun mit Anne Bayer und Tom Braun. Sie sind im Bachelorstudiengang Wirtschaftsmathematik bzw. Mathematik am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Das Projektorientierte Softwarepraktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. Anne und Tom betrachten einen Würfel, in dem zwei Flüssigkeiten enthalten sind, die sich nicht mischen können. Konkret ist eine Tropfen von Fluid 1 ist in ein Fluid 2 eingebettet. Dadurch entsteht insbesondere eine diffuse Grenzfläche zwischen beiden, die durch mehrere physikalische Faktoren beeinflusst ist, wie z.B. die Viskosität der Flüssigkeiten oder die Größe des Tropfens. Wo die Grenzfläche verläuft ist Teil des physikalischen Problems. Grundlage des verwendeten sehr einfachen Modells ist die Oberflächenspannung. Der Tropfen hat aufgrund dieser Oberflächenspannung einen anderen Druck im Inneren als im das Fluid im außen. Dies kann mit dem Laplace-Operator modelliert und berechnet werden. Sie berechnen die im numerischen Modell vorliegende Druckdifferenz, indem der Druck im kugelförmigen Tropfen und dem Punkt am weitesten entfernt betrachtet wird (in diesem Fall den Punkt aus der linken unteren Ecke). Literatur und weiterführende Informationen A. Komrakova e.a.: Lattice Boltzmann simulations of drop deformation and breakup in shear flow International Journal of Multiphase Flow 59, 24-43, 2014. Podcasts L. Dietz, J. Jeppener, G. Thäter: Gastransport - Gespräch im Modellansatz Podcast, Folge 214, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019. A. Akboyraz, A. Castillo, G. Thäter: Poiseuillestrom - Gespräch im Modellansatz Podcast, Folge 215, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019.
Gudrun traf sich im August 2019 in Karlsruhe zum Gespräch mit Kerstin Göpfrich. Die beiden hatten sich im April 2019 persönlich beim Nawik Symposium 'Und jetzt Du' kennengelernt, wo Kerstin ihr Projekt Ring-a-Scientist vorgestellt hat. Dieses Projekt hat sie gemeinsam mit Karl Gödel initiiert und umgesetzt. Ring-a-Scientist wurde initial durch Wikimedia, die VolkswagenStiftung und den Stifterverband im Fellowverband Freies Wissen gefördert. Ring-a-Scientist ist ein moderner Weg, wie Wissenschaft in die Schulen kommen kann – per Videokonferenz und Live-Schalte aus dem Labor. Ring-a-Scientist möchte Wissenschaft ins Klassenzimmer bringen. Dies geschieht ohne Reisen und viel Organisationsaufwand einfach live per Videokonferenz. Die Inhalte können dabei von der Studienberatung über Diskussionsrunden mit Expertinnen und Experten bis hin zu virtuellen Laborführungen, Experimenten und Einblicken in die aktuelle Forschung reichen. Wie? www.Ring-a-Scientist.org ist eine Webplattform, über die Lehrerende und Wissenschaftler unbürokratisch Termine für ein Videotelefonat vereinbaren können. Auf der Plattform legen Wissenschaftler – vom Erstsemester zur Professorin – ein Profil an. Lehrpersonen können Wissenschaftler ihrer Wahl kontaktieren und den Inhalt des Videotelefonats abstecken. Ring-a-Scientist freut sich auf viele Anfragen von Lehrerinnen und Lehrern! Wieso? Ein Videotelefonat ist weniger zeit- und kostenaufwendig als Schulbesuche. Es lässt sich einfach und flexibel im Unterricht einsetzen und ist mit dem Tagesgeschäft in der Wissenschaft gut ver- einbar. Das soll Schul- und Laborbesuche nicht ersetzen sondern ergänzen und Schulen über das lokale Umfeld hinaus erreichen – denn Unterricht im 21. Jahrhundert verdient Technologie des 21. Jahrhunderts! Kerstin Göpfrich war zum Zeitpunkt des Gespräches Marie Skłodowska-Curie Fellow am Max-Planck-Institut für medizinische Forschung in Stuttgart. Ab dem 1. Oktober leitet sie eine Max-Planck-Forschungsgruppe in Heidelberg. Im April 2017 schloss sie ihre Promotion in Physik an der University of Cambridge (UK) ab, wo sie bei Prof. Ulrich Keyser an DNA Origami Nanoporen arbeitete. Nebenbei hat Sie für verschiedene Medien gearbeitet, darunter The Naked Scientists (BBC - Radio 5 live), Cambridge TV, Spektrum der Wissenschaft und The Huffington Post. In ihrer Forschung beschäftigt sie sich mit der Frage: Was ist Leben und könnte es auch anders sein? Anstatt das Leben, wie wir es kennen, zu kopieren, versucht sie, synthetische Zellen zu entwickeln, die nicht nur aus natürlichen Bausteinen bestehen und neue Arten der Informationsverbreitung und Replikation aufweisen. Dadurch wird es möglich sein, die Randbedingungen des Lebens zu erforschen und aus praktischer Sicht neue Schnittstellen zwischen natürlichen und synthetischen Zellen aufzubauen. Bioorthogonale synthetische Zellen werden als biokompatible aktive Sonden ("Phantomzellen") in lebenden Geweben und Organismen einsetzbar sein, die in der Lage sind, die Zellumgebung zu erfassen, zu berechnen und eine Reaktion auszuführen. Literatur und weiterführende Informationen Göpfrich, K., Gödel, K.C. Ring-a-Scientist - der direkte Draht ins Labor, Biospektrum, 2019. Göpfrich, K., Platzman, P. & Spatz, J. P. Mastering Complexity: Towards Bottom-up Construction of Multifunctional Eukaryotic Synthetic Cells. Trends in Biotechnology, 2018. Göpfrich, K., Rational Design of DNA-Based Lipid Membrane Pores. PhD Thesis, 2017. K. Göpfrich:THE BLOG - DNA Sequencing In The Palm Of Your Hand, 2017. K. Göpfrich: Übersicht ihrer populärwissenschaftlichen Artikel, Video und Audio Gudruns Profil bei Ring-a-scientist Podcasts L. Hilbert, G. Thäter: Zellkerne, Gespräch im Modellansatz Podcast, Folge 206, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Gonciarz, G. Thäter: Portrait of Science, Gespräch im Modellansatz Podcast, Folge 197, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Omega Tau-Podcast 072: Forschung in der Zellbiologie, 2011. J. Schmoranze, I. Wessolowski: Beim Herrn der Mikroskope – AMBIO Core Facility, Sciencekompass Podcast, Episode 009 B, 2017.
Stephan Ajuvo (@ajuvo) vom damals(tm) Podcast, Damon Lee von der Hochschule für Musik und Sebastian Ritterbusch trafen sich zu Gulasch-Programmiernacht 2019 des CCC-Erfakreises Entropia e.V., die wieder im ZKM und der HfG Karlsruhe stattfand. Es geht um Musik, Mathematik und wie es so dazu kam, wie es ist. Damon Lee unterrichtet seit einem Jahr an der Hochschule für Musik und befasst sich mit Musik für Film, Theater, Medien und Videospielen. Im aktuellen Semester verwendet er Unity 3D um mit räumlicher Musik und Klängen virtuelle Räume im Gaming-Umfeld umzusetzen. Auch im Forschungsprojekt Terrain wird untersucht, in wie weit räumliche Klänge eine bessere Orientierungsfähigkeit im urbanen Umfeld unterstützen können. Die Idee zu dieser Folge entstand im Nachgang zur gemeinsamen Aufnahme von Stephan und Sebastian zum Thema Rechenschieber, da die Musik, wie wir sie kennen, auch ein Rechenproblem besitzt, und man dieses an jedem Klavier wiederfinden kann. Dazu spielte Musik auch eine wichtige Rolle in der Technikgeschichte, wie beispielsweise das Theremin und das Trautonium. Die Klaviatur eines herkömmlichen Klaviers erscheint mit den weißen und schwarzen Tasten alle Töne abzubilden, die unser gewöhnliches Tonsystem mit Noten abbilden kann. Der Ursprung dieses Tonsystems entstammt aus recht einfachen physikalischen und mathematischen Eigenschaften: Wird eine Saite halbiert und im Vergleich zu zuvor in Schwingung gebracht, so verdoppelt sich die Frequenz und wir hören den einen gleichartigen höheren Ton, der im Tonsystem auch gleich benannt wird, er ist nur um eine Oktave höher. Aus einem Kammerton a' mit 440Hz ändert sich in der Tonhöhe zu a'' mit 880Hz. Neben einer Verdopplung ergibt auch eine Verdreifachung der Frequenz einen für uns Menschen angenehmen Klang. Da aber der Ton über eine Oktave höher liegt, wird dazu der wieder um eine Oktave tiefere Ton, also der Ton mit 1,5-facher Frequenz betrachtet. Dieses Tonintervall wie beispielsweise von a' mit 440Hz zu e'' mit 660Hz ist eine (reine) Quinte. Entsprechend des Quintenzirkels werden so alle 12 unterschiedlichen Halbtöne des Notensystems innerhalb einer Oktave erreicht. Nur gibt es hier ein grundsätzliches mathematisches Problem: Gemäß des Fundamentalsatzes der Arithmetik hat jede Zahl eine eindeutige Primfaktorzerlegung. Es ist also nicht möglich mit mehreren Multiplikationen mit 2 zur gleichen Zahl zu gelangen, die durch Multiplikationen mit 3 erreicht wird. Somit kann der Quintenzirkel nicht geschlossen sein, sondern ist eigentlich eine niemals endende Quintenspirale und wir müssten unendlich viele unterschiedliche Töne statt nur zwölf in einer Oktave haben. In Zahlen ist . Nach 12 reinen Quinten erreichen wir also nicht genau den ursprünglichen Ton um 7 Oktaven höher, doch der Abstand ist nicht sehr groß. Es ist grundsätzlich unmöglich ein endliches Tonsystem auf der Basis von reinen Oktaven und reinen Quinten zu erzeugen, und es wurden unterschiedliche Strategien entwickelt, mit diesem Problem zurecht zu kommen. Wird das Problem ignoriert und nur die letzte Quinte verkleinert, damit sie auf den ursprünglichen Ton um sieben Oktaven höher trifft, so entsteht eine schlimm klingende Wolfsquinte. Auch im Cello-Bau können durch Wahl der Verhältnisse der Saiten und der Schwingungsfrequenzen des Korpus fast unspielbare Töne entstehen, diese werden Wolfston genannt. In der Musik wird die erforderliche Korrektur von Intervallen auch Komma-Anpassung genannt, die beispielsweise bei Streichinstrumenten automatisch, da hier die Töne nicht auf festen Frequenzen festgelegt sind, sondern durch die Fingerposition auf dem Griffbrett individuell gespielt wird. Bei Tasteninstrumenten müssen die Töne aber im Vorfeld vollständig in ihrer Frequenz festgelegt werden, und hier haben sich historisch verschiedene Stimmungen ergeben: Nach vielen Variationen, die immer durch die Wolfsquinte unspielbare Tonarten beinhalteten, wurde ab 1681 in der Barockzeit von Andreas Werkmeister die Wohltemperierte Stimmung eingeführt, in der zwar jede Tonart spielbar, aber jeweils individuelle Stimmungen und Charaktäre vermittelten. Diese Unterschiede sollen Johann Sebastian Bach bis 1742 zum Werk Das wohltemperierte Klavier inspiriert haben, wo er die jeweiligen Eigenheiten aller Tonarten musikalisch umsetzte. Die heute am häufigsten verwendete Gleichtstufige oder Gleichmäßige Stimmung verkleinert alle Quinten statt 1,5 auf den gleichen Faktor , so dass alle Töne auf die Frequenzen festgelegt sind. Damit sind alle Tonarten absolut gleichberechtigt gut spielbar, sie klingen aber auch alle gleich, und haben alle den gleichen kleinen Fehler. Da aber gerade bei Streichinstrumenten natürlich passendere Frequenzen gewählt werden, klingen gerade synthetisch erzeugte Streicher unrealistisch, wenn sie der exakten gleichstufigen Stimmung folgen. Während bei der Klavierstimmung die Töne durch die Spannung der Saiten eingestellt werden können, so werden metallische Orgelpfeifen mechanisch mit einem Stimmeisen in ihrer Frequenz angepasst. Die Porzellanorgel ist eine ungewöhnliche unter anderem in Meissen hergestellte Form, deren Pfeifen natürlich auch mit Luft und nicht durch Vibration, wie beim Schlaginstrument des Vibraphons klingen. György Ligeti, populär bekannt durch Filmmusiken in 2001: Odyssee im Weltraum und Eyes Wide Shut, hat sich in seinem späteren Schaffenswerk auch mit exotischeren Tonsystemen auf Basis reiner Intervalle mit Streichern befasst. Beispielsweise sollte Continuum, für Cembalo, mit Mitteltöniger Stimmung gespielt werden. Um in der herkömmlichen Notation auf der Basis von 12 Halbtönen auch feinere Tonschritte bezeichnen zu können, wurden die Zeichen Halb-Kreuz und Halb-b eingeführt, die auf die Viertelton-Musik führten. Hier stellt sich die interessante Frage, ob eine Erhöhung auf 24 Tönen pro Oktave bei reinen Intervallen sich der Fehler reduziert. Diese Frage beantwortet die Berechnung des entsprechenden Faktors aus Quinten mit dem nächsten Faktor aus Oktaven und die Berechnung des relativen Fehlers, der korrigiert werden muss. Bis 53 Quinten haben folgende Kombinationen einen Fehler von weniger als 7%: Quinten n 5 7 12 17 24 29 36 41 46 48 53 Oktaven m 3 4 7 10 14 17 21 24 27 28 31 Fehler5,1%6,8%1,4%3,8%2,8%2,5%4,2%1,1%6,6%5,6%0,2% Ein sehr primitives Tonsystem kann also mit 5 Tönen aufgestellt werden, aber offensichtlich treffen 12 Töne deutlich besser. 24 Töne ermöglichen zwar mehr Tonvielfalt, verbessern aber den Fehler nicht. Erst ein Tonsystem mit 29 Tönen würde bei gleichstufiger Stimmung einen exakteren Klang als bei 12 Tönen ermöglichen. Noch besser wäre dann nur noch ein Tonsystem mit 41 Tönen pro Oktave, eine extreme Verbesserung ergibt sich bei 51 Tönen pro Oktave bei entsprechenden Problemen beim Bau einer solchen Klaviatur. Dazu haben Tonsystemerweiterungen in Vielfachen von 12 eine höhere Kompatibilität zum herkömmlichen System, und die Nähe der besseren Tonsysteme mit 29 zu 24 und 53 zu 48 zeigt, dass die Vielfachen in der Aufführung als Näherungen zu den besseren Darstellungen betrachtet werden können. Gérard Grisey (z.B. Les espaces acoustiques) und Tristan Murail sind Vertreter der Spektralisten, die in ihren Partituren erweiterte Tonsysteme verwenden. Hier sind die Tonangaben jedoch harmonisch statt melodisch gedacht, sind also in der Aufführung entsprechend zu interpretieren. YouTube: Gérard Grisey - Vortex Temporum - Ensemble Recherche Natürlich dürfen die Töne von Instrumenten nicht nur mit ihrer Grundfrequenz betrachtet werden, sondern erst das Zusammenspiel aller Harmonischen und Obertöne in Vielfachen der Grundfrequenz machen den charakteristischen Klang eines Instruments aus. Durch eine Fourier-Analyse kann mathematisch ein solches Frequenzspektrum eines Geräusches oder eines Tons berechnet werden. Oft ist hier eine überraschende Anzahl von Obertönen zu sehen, die von Menschen nicht unabhängig vom Grundton gehört werden. In der Ottoman Musik finden sich oft für west-europäische Ohren ungewohnte Harmonien, die aus ihrer langen orientalischen Geschichte andere Formen der Komposition und Tonsysteme entwickelt haben. In der Audioelektronik wurden ab etwa 1912 Röhren für Verstärker und insbesondere in der Musik verwendet, und die exakte Bauform der Bleche und Elektroden hatte deutliche Auswirkungen auf die Übertragung und Erzeugung von Spektren und Audiowellen durch Verzerrungen. Die Hammondorgel war eine sehr beliebte elektromechanische Orgel, wo anstatt von Pfeifen rotierende Zahnräder vor elektrischen Abnehmern die Töne erzeugten. Mit Hilfe von Röhren wurde in der DDR versucht, Silbermann-Orgeln als elektronische Orgeln auf Basis des Prinzips der Hammondorgel nachzubilden. Die Klangfarben der Silbermann-Orgeln wurden hier durch elektronische Rekonstruktion der Obertöne nachempfunden. Was als angenehmer Klang empfunden wird, ist eine persönliche Sache. Jedoch ist auffällig, dass der harmonische Grundklang eines Dur-Akkords einen sehr mathematischen Hintergrund hat: Die Quinte integriert den Faktor 3, bzw. 3/2, also 1.5, die große Terz den Faktor 5, bzw. 5/4 also 1.25, und die Quarte zur nächsten Oktave mit Faktor 2 ist der Faktor 4/3. Ein Zusammenspiel von so kleinen Faktoren wird bei kleinem kleinsten gemeinsamen Vielfachen wieder periodisch und ergibt einen gleichmäßigen Klang. Das persönliche Empfinden kann physiologisch mit dem Aufbau der Hörschnecke zusammenhängen, wird aber auch stark durch Erfahrungen geprägt. Musik besteht aber nicht aus einem Klang, sondern einer zeitlichen Abfolge von Konsonanz und Dissonanz, und das gilt nicht nur für neue Veröffentlichungen alter Meister von Wolfgang Rehm. So spielt Ornette Coleman mit den Erwartungen der Hörenden bis ins Chaos. YouTube: Ornette Coleman Solo - Rare! Im Google-Doodle zu Ehren von Johann Sebastian Bach hingegen versucht aus eine Vorgabe mit einem neuronalen Netz gerade die erwartete Vervollständigung im Stil von Bach zu komponieren. Eine Regelmäßigkeit oder Überraschung in der Musik kann auch im Sinne eines Informationsgehalts interpretiert werden: Sehr regelmäßige Formen sind vorhersagbar und enthalten wenig Information, die unerwartete Wendung hingegen trägt viel Information. Die als algorithmischen Komposition bezeichneten Werkzeuge werden in vielen Programmen und Geräten angeboten, beispielsweise als automatische Begleitung. Die Ergebnisse erscheinen aber nicht sehr kreativ. Bei der Verwendung von künstlichen neuronalen Netzen für die Komposition ist es leider nicht möglich im Nachhinein zu analysieren, warum und wie bestimmte Passagen erzeugt wurden: Auch wenn sie mit existierenden Beispielen mit Backpropagation trainiert wurden, arbeiten dann als Black Box, aus der nicht direkt abstrakte Entscheidungsgrundlagen reproduziert werden können. Alles Lernen setzt voraus, dass es ein Maß für die Güte gibt, was ist demnach die Qualität einer Komposition, was unterscheidet Kreativität vom Zufall und wo stimmt dies zwischen unterschiedlichen Menschen überein? Wie an prähistorischen Instrumenten zu erkennen, ist Klangerzeugung und Musik mit der Stimmbildung eng mit der Evolution des Menschen verknüpft. Recht spät entstanden Techniken zur Kodifizierung von Tonfolgen, wie beispielsweise in der Gregorianik. Es ist anzunehmen, dass der gesellschaftliche Einfluss auf die Kompositionen ihrer Zeit sehr groß war, und es jeweils auch besondere Auswirkungen wie die Blue Notes gegeben hat. Heute wird Komposition in vielen Schritten gelehrt: Angefangen von der Musiktheorie, Erlernen von Instrumenten und Musikgeschichte wird dann in Kompositionstechniken unterschiedlicher Musikepochen eingeführt. Ausgehend von den Techniken von Josquin Desprez im 15. Jahrhundert zur Verwendung des Kontrapunkt im 16. Jahrhundert, oder wie Johann Sebastian Bach den Kontrapunkt im 18. Jahrhundert nutzte. In den Notenblättern von Ludwig van Beethoven ist zu erkennen, wie er von Joseph Haydn das Komponieren auf Basis von Kontrapunkten erlernte, und auch heute mit seinen inzwischen vom Betthoven-Haus umfangreich digitalisierte Werk die Musikforschung begeistert. Ein Lehrkanon kann sich wie Kompositionstechniken über die Zeit ändern, so wie in der Mathematik früher das Riemannsche Integral Standard war, so sehen wir inzwischen den Übergang zum mächtigeren und der Wirklichkeit näheren Integralbegriff nach Lebesgue. So wie heute häufiger der neuere Begriff zum Einsatz kommt, so ist es sinnvoll und gut, auch frühere Techniken, wie auch frühere Kompositionstechniken, zu kennen und daraus lernen zu können. Im Berufsbild einer Komponistin oder eines Komponisten ist es heute meisstens nicht so, dass der Kreativität freien Lauf gelassen wird, sondern die Arbeit erfolgt in interdisziplinärer Zusammenarbeit in einem Team. Besonders für Videospielmusik oder Filmmusik wird die Komposition auf besondere Situationen hin entwickelt und erarbeitet. Wie Kreativität, Teamwork, Künstliche Intelligenz und Programmieren zu neuen Lösungen zusammenwirken kann, war auf der Gulaschprogrammiernacht auch in der Projektion der Schlangenprogrammiernacht zu sehen, wo verschiedene Programme als Schlangen in einer virtuellen Welt miteinander lebten. Der spielerische Umgang mit Algorithmen wie bei Schere, Stein, Papier führt schnell auf Spieltheorie und Herausforderungen im Hochfrequenzhandel. Literatur und weiterführende Informationen C.-Z. A. Huang, C. Hawthorne, A. Roberts, M. Dinculescu, J. Wexler, L. Hong, J. Howcroft: The Bach Doodle: Approachable music composition with machine learning at scale, ISMIR 2019. U. Peil: Die chromatische Tonleiter - Mathematik und Physik, Jahrbuch der Braunschweigischen Wissenschaftlichen Gesellschaft, 2012. M. Schönewolf: Der Wolf in der Musik. Podcasts U. Häse, S. Ajuvo: Theremin, Folge 56 im damals(tm) Podcast, 2018. N. Ranosch, G. Thäter: Klavierstimmung, Gespräch im Modellansatz Podcast, Folge 67, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. P. Modler, S. Ritterbusch: Raumklang, Folge 8 im Podcast Neues Terrain, 2019. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, Gespräch im damals(tm) und Modellansatz Podcast, Folge 184, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Brill, T. Pritlove: Das Ohr, CRE: Technik, Kultur, Gesellschaft, Folge 206, 2014. C. Conradi: Der erste letzte Ton, Systemfehler Podcast, Folge 26, 12.4.2018. C. Conradi: Elektronische Orgel made in DDR, Zeitfragen, Deutschlandfunk Kultur, 12.6.2019. G. Follmer, H. Klein: WR051 Ortsgespräch, WRINT: Wer redet ist nicht tot, Folge 51, 2012. Audiospuren Tonbeispiele von D. Lee und S. Ritterbusch MuWi: C-g pythagoräischer Wolf, CC-BY-SA, 2007. Mdd4696: WolfTone, Public Domain, 2005. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/research-software-engineering D. Lee, S. Ajuvo, S. Ritterbusch: Tonsysteme, Gespräch im Modellansatz Podcast, Folge 216, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/tonsysteme GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
In dieser Folge spricht Gudrun mit Ayca Akboyraz und Alejandro Castillo. Beide sind im Masterstudiengang Chemieingenieurwesen bzw. Bioingenieurwesen am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Ayca stammt aus der Türkei und Alejandro ist in Mexico aufgewachsen. Beide haben in ihren Heimatländern deutsche Schulen besucht. Anschließend haben sie sich jeweils um ein Studium in Deutschland beworben. Ayca hatte sich zunächst für Wirtschaftsingenieurwesen entschieden, hat aber nach einiger Zeit gemerkt, dass ihr Chemieingenieurwesen viel mehr liegt. Das Projektorientierte Softwarepraktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. In der klassischen Theorie der Strömungsmechanik werden auf der Grundlage der Erhaltung von Masse, Impuls und Energie und unter berücksichtigung typischer Materialeigenschaften die Navier-Stokes-Gleichungen als Modell für das Strömungsverhalten von z.B. Wasser hergeleitet. Die beiden unbekannten Größen in diesem System partieller Differentialgleichungen sind das Geschwindigkeitsfeld und der Druckgradient. Wenn geeigneten Rand- und Anfangsbedingungen für die Geschwindigkeit vorgeschrieben werden, liegt im Prinzip die Lösung des Gleichungssystem fest. Sie kann aber in der Regel nur numerisch angenähert berechnet werden. Eine wichtige Ausnahme ist die Strömung durch einen Zylinder mit kreisförmigem Querschnitt. Wenn am Rand des Zylinders als Randbedingung vorgeschrieben wird, dass dort das Fluid anhaftet, also die Geschwindigkeit ganz am Rand Null ist, dann stellt sich eine zeitlich unveränderliche (stationäre) Strömung ein, die am Rand des Zylinders still steht und in der Mitte am schnellsten ist. Der Verlauf zwischen diesen beiden Extremen entspricht genau dem einer Parabel. Diese Lösung heißt Poiseuille-Strömung. Der Durchfluss ergibt sich dann aus dem Druckgradienten. Wenn der Querschnitt des Kanals nicht genau kreisförmig ist, lässt sich das Prinzip noch übertragen, aber in der Regel ist die Lösung dann nicht mehr analytisch berechenbar. Die Poiseuille-Strömung ist ein häufiges Test- oder Benchmark-Problem in der numerischen Strömungsmechanik, zumal diese Strömungskonfiguration einer der wenigen Fälle der Navier-Stokes-Gleichungen ist, die analytisch gelöst werden können. Der Sinn des Tests besteht darin, zunächst sicherzustellen, dass die Berechnung mit Hilfe von OpenLB, eine gewisse Genauigkeit aufweist. Zweitens wird die Genauigkeit der Methode überprüft, indem analysiert wird, wie der numerische Fehler mit der Gitterverfeinerung skaliert. Ayca und Alejandro haben in ihrem Projekt diesen Benchmark vollzogen und dafür Simulationen im 2D und 3D Fall mit verschiedenen Randbedingungen, die in der Lattice Boltzmann Methode vorkommen (und in OpenLB implementiert vorliegen), und Gitterverfeinerungen mit Auflösung von 25, 50, 75, 100 Unterteilungen durchgeführt. Obwohl die Randbedingungen in numerischen Verfahren die gleichen grundlegenden Ziele wie im analytischen Fall haben, entwickeln sie sich entlang konzeptionell degenerativer Linien. Während analytische Randbedingungen die zugehörige Lösung aus einer Schar von zulässigen Lösungen der Gleichungen auswählen, wirken die Randbedingungen im Lattice Boltzmann Modell dynamisch mit. Sie sind ein Teil des Lösungsprozesses, der für die Änderung des Systemzustands in Richtung der Lösung zuständig ist. Eine der häufigsten Ursachen für die Divergenz der numerischen Lösung ist die falsche Umsetzung von Randbedingungen. Daher ist es für die Genauigkeit und Konvergenz sehr wichtig, dass die geeigneten Randbedingungen für die untersuchte Geometrie und den Strömungsfall ausgewählt werden. Es gibt eine große Familie Randbedingungen, die für die Lattice Boltzmann Methode entwickelt wurden. Für das Praktikum liegt der Fokus für die Wand auf den Randbedingungen "bounce-back" (Haftbedingung), "local", "interpolated" und "bouzidi". Alle genannten Randbedingungen erzeugen ein parabolisches Strömungsprofil passend zur analytischer Lösung. Unterschiede zeigen sich darin, wie groß die numerische Fehler ist, und in welchem Maß sich der numerische Fehler durch Gitterverfeinerung reduzieren lässt. Der graphische Vergleich der Simultionsergebnisse mit der analytischen Lösung hat gezeigt, dass bouzidi Randbedingung den kleinsten numerischen Fehler und die höchste Konvergenzordnung für den 3D-Fall erzeugt, während local und interpolated Randbedingungen für den 2D-Fall bessere Ergebnisse liefern. Zu beachten ist aber, dass mit erhöhter Gitterverfeinerung die Unterschiede zwischen diesen Randbedingungen verschwinden. Bei der Auswahl der Randbedingung sollte dementsprechend ein Kompromiss zwischen Aufwand und Güte der Lösung gefunden werden. Literatur und weiterführende Informationen T. Krüger e.a.: The Lattice Boltzmann Method. Graduate Texts in Physics. Springer, 2017. M. Portinari: 2D and 3D Verification and Validation of the Lattice Boltzmann Method. Master Thesis, Montréal 2015. C.J. Amick: Steady solutions of the Navier-Stokes equations in unbounded channels and pipes. Ann. Scuola Norm. Sup. Pisa Cl. Sci. (4), 4, 473–513 (1977). A. Akboyraz und A. Castillo, Ausarbeitung Softwarepraktikum 2019. M.J. Krause e.a.: OpenLB Release 1.3: Open Source Lattice Boltzmann Code. Podcasts L. Dietz, J. Jeppener, G. Thäter: Flache Photobioreaktoren - Gespräch im Modellansatz Podcast, Folge 213, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. T. Hoffmann, G. Thäter: Luftspalt, Gespräch im Modellansatz Podcast, Folge 153, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
In dieser Folge spricht Gudrun mit Larissa Dietz und Jonathan Jeppener. Beide sind im Masterstudiengang Verfahrenstechnik am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. Das Projekt von Larissa und Jonathan betrachtete den Stofftransport von CO2-Gas in flachen Photobioreaktoren. Mit ihrer großen Oberfläche erlauben sie viel einfallendes Licht. Algenzucht im industriellen Maßstab ist unerlässlich, um die weltweite Nachfrage nach schnell nachwachsender Nahrung und erneuerbaren Energiequellen zu befriedigen. Derzeit nutzen die meisten Produzenten kosteneffiziente und einfach zu bedienende offene Teiche. Die Nachfrage nach gut steuerbaren geschlossenen Photobioreaktoren steigt durch die erhöhte Effizienz der gut einstellbaren Reaktorbedingungen. Weitere Vorteile gegenüber offenen Reaktoren sind ein geringerer CO2- und Wasserverlust und eine größere Vielfalt an kultivierbaren Arten. Für ein optimales Algenwachstum müssen die regulierende Flüssigkeitsdynamik, der Lichttransfer, biochemische Reaktionen und deren gegenseitige Wechselwirkung optimiert werden. Die Untersuchung dieser Parameter mit Hilfe gekoppelter numerischer Simulationen vermeidet teure Experimente und trägt somit zur Verbesserung geschlossener Photobioreaktoren bei. Larissa und Jonathan beschränkten sich für ihr Projekt auf die Modellierung des Stofftransports aller Komponenten und den Lichteinfall. Konkret ergeben sich dabei eine Advektions-Diffusions-Gleichung für den Gastransport und die Navier-Stokes Gleichungen für das Fluid. Die Photosynthese für CO2-Umsatz wurde daran als Quelle gekoppelt. Aufgrund der hohen Parallelisierbarkeit und der Einfachheit der Berechnungsgitterkopplungen ist die Lattice-Boltzmann-Methode (LBM) geeignet, dieses System von interagierenden Differentialgleichungen zu lösen, die Fluidströmung, Stofftransport und Strahlungsfeld beschreiben. Der Bericht von Larissa und Jonathan schlägt stabile Diffusionsparameter und eine Betriebslichtkopplung vor, die sie in ihrer Projektarbeit ermittelt haben. Der von ihnen betrachtete Testfall basiert auf der Simulation der Partikelströmung durch Trunk et al. (Quelle unten). Die beiden mussten außerdem geeignete Randbedingungen finden. Die von ihnen gefundenen Simulationsparameter gewährleisten eine stabile Simulation. Literatur und weiterführende Informationen E. Sierra e.a.: Characterization of a flat plate photobioreactor for the production of microalgae. Chemical Engineering Journal, 138:136–147, 03 2008. R. Trunk e.a.: Inertial dilute particulate fluid flow simulations with an euler–euler lattice boltzmann method. Journal of Computational Science, 17:438–445, 2016. T. Krüger e.a.: The Lattice Boltzmann Method. Graduate Texts in Physics. Springer, 2017. C. Posten and R. Rosello-Sastre: Microalgae Reactors. American Cancer Society, 2011. L. Dietz und J. Jeppener: Simulation of CO2 Distribution in Photobioreactors with the Lattice Boltzmann Method, Ausarbeitung Softwarepraktikum 2019. M.J. Krause e.a.: OpenLB Release 1.3: Open Source Lattice Boltzmann Code. Podcasts J. Kolbe, G. Thäter: Photobioreaktoren - Gespräch im Modellansatz Podcast, Folge 065, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2015.
Gudrun hat sich Ende Mai 2019 in Mannheim mit Kerstin Lux und Benjamin Unger verabredet, um mit ihnen über ihre Erfahrungen als GAMM Junioren zu sprechen. Benjamin ist aktuell Sprecher dieses Nachwuchsgremiums der Gesellschaft für Angewandte Mathematik und Mechanik (kurz GAMM). Kerstin wurde Ende 2018 als GAMM Juniorin vorgeschlagen und ist jetzt das erste Jahr dabei. Gudrun und Kerstin hatten sich im März 2019 in Bonn bei einer Konferenz über Optimierung kennengelernt und das Podcastgespräch verabredet. Kerstin ist zur Zeit Doktorandin in der Arbeitsgruppe von Simone Göttlich an der Uni in Mannheim, weshalb sich Mannheim als guter Treffpunkt für ein ruhiges Gespräch anbot. Etwas später am gleichen Tag wurde auch das Podcastgespräch mit Simone Göttlich geführt. Die GAMM sagt über das Gremium: "GAMM-Junioren sind junge NachwuchswissenschaftlerInnen und Mitglieder der GAMM, die für die Jahre 2012 bis 2014 erstmals aus einer Reihe an Vorschlägen ernannt wurden. In der Hauptversammlung der GAMM im Rahmen der Jahrestagung 2011 in Graz wurde die Nominierung junger Nachwuchswissenschaftler beschlossen, die sich durch herausragende Leistungen in Diplom- und/oder Doktorarbeiten auf dem Gebiet der Angewandten Mathematik oder Mechanik auszeichnen. Ende 2011 wurden daraufhin die ersten 10 GAMM-Junioren nominiert, wobei eine Vorauswahl auf Basis von Vorschlägen durch die Hochschulvertreter der GAMM getroffen wurde. In jedem Jahr werden 10 weitere GAMM-Junioren ernannt, so dass die Gruppe nach einer Anlaufphase von drei Jahren auf 30 Personen angewachsen sein wird. Nach drei Jahren endet automatisch die Mitgliedschaft als GAMM-Junior. Während dieser Zeit sind die GAMM-Junioren beitragsbefreit. Mittels der kostenfreien GAMM-Mitgliedschaft und der dynamischen personellen Zusammensetzung der Gruppe soll eine zusätzliche finanzielle und ideelle Förderung von Nachwuchswissenschaftlern erreicht werden. Durch die Überschneidung der Amtszeit der Mitglieder können diese ihr fachliches und organisatorisches Wissen an die nachfolgenden Generationen der GAMM Juniors weitergeben." Die Rolle GAMM-Junior wird also als Preis für Studierende, Doktoranden und Post-Doktoranden verliehen und beinhaltet eine kostenlose Mitgliedschaft in der GAMM für drei Jahre. Kerstin und Benjamin erleben es als lebendiges Netzwerk von gleichgesinnten, die voneinander sowohl fachlich als auch darüber hinaus lernen und die sich gegenseitig unterstützen. Die GAMM vertritt Interessen der angewandten Mathematik und Mechanik vor allem auf europäischer und deutscher Ebene. Kerstin und Benjamin erleben insbesondere die Jahrestagungen als Familientreffen. Die Forschungsthemen sind oft Disziplinen übergreifend und die GAMM ermöglicht es, eine gemeinsame Sprache zu erarbeiten zwischen Mathematik und Mechanik. Die GAMM gibt drei Zeitschriften heraus: die GAMM-Mitteilungen, die ZAMM und die PAMM (Proceedings der Jahrestagung). Natürlich sind die Jahrestagungen stets offen für nicht-Mitglieder. Neben den GAMM-Junioren gibt es auch GAMM Nachwuchsgruppen an Universitäten in Augsburg, Berlin, Chemnitz, Dortmund, Hamburg, Ulm. Im Rahmen der Jahrestagung der GAMM gibt es inzwischen schon traditionelle Beiträge der 30 jungen Leute. Z.B. das YAMM-lunch (Young Academics meet mentors) für den nichtfachlichen Austausch mit Mentoren, eine Postersession aus Beiträgen der GAMM Junioren, wo sich auch Alumni (also ehemalige GAMM-Junioren) einfinden, um zu sehen, wie der Staffelstab weitergetragen wird und ein Treffen am Rande der Jahrestagung am Freitagnachmittag. Darüber hinaus gibt es auch jedes Jahr ein Herbsttreffen für den Forschungsaustausch und die Planung eigener Aktivitäten. Bewährt haben sich z.B. Sommerschulen (sogenannte SAMM) zu bestimmten Themen, die dann offen für alle Interessierten sind. Im Moment arbeiten die Junioren daran, auch einen Hauptvortrag auf der nächsten GAMM Jahrestagung durch eine Sommerschule vorzubereiten, um den Stoff für junge Forschende besser zu erschließen. Ein weiteres Abenteuer für die GAMM-Junioren war die Gründung des Journals GAMMAS für Studierende und deren Forschungsergebnisse. Es zeigte sich, dass die Gründung ohne Verlag im Hintergrund ein aufwändiger Prozess war. Es braucht eine Plattform, auf der Beiträge strukturiert eingereicht werden können und wo der Peer-Review Prozess ablaufen kann. Man muss auch automatisch generierte E-Mails für die Stufen des Veröffentlichungs-Prozesses formulieren. Als Grundlage konnte das Open Journal System dienen. Außerdem gibt es Unterstützung durch Universität in Chemnitz - z.B. durch Bereitstelung des Servers. Das Editorial Board besteht aus den Sprechern der GAMM Junioren, die Gutachten werden von den 30 GAMM Junioren erstellt. Darüber hinaus fungiert Prof. Dr. Martin Stoll als Chief Editor. Vorgesehen sind drei Formate: kurze sogenannte Technical reports, "normale" Artikel und Arbeiten mit didaktischem Inhalt (educational articles). Bis ein Jahr nach Abschluss des Masters sind Personen berechtigt, ihre Arbeiten für die ersten zwei Formate einzureichen. Didaktische Arbeiten können auch von Lehrenden aller Ausbildungsstufen eingereicht werden.Thematisch ist GAMMAS offen für Forschungsbeiträge aus allen in der GAMM vertretenen Bereichen. Wichtig ist es vor allem, wissenschaftlich sauber zu arbeiten. Explizit wird auch die Veröffentlichung von negativen Resultaten ermöglicht. Benjamin hat in Karlsruhe seine Bachelorarbeit geschrieben (in der gleichen Arbeitsgruppe, in der auch Gudrun tätig war). Anschließend hat er während eines Jahres an der Virginia Tech in den USA einen (eigentlich zweijährigen) Masterstudiengang Mathematik abgeschlossen. Das war im Rahmen eines Partnerschaftsprogrammes der Uni in Karlsruhe mit der Virginia Tech möglich. Zur Zeit arbeitet er an der TU Berlin an einer mathematischen Promotion im Thema "Delay differential-algebraic equations" in der Arbeitsgruppe von Volker Mehrmann. Kerstin hat ihren Bachelor und Master in Wirtschaftsmathematik an der Uni in Mannheim abgeschlossen inklusive eines Auslandssemesters an der Université Nice Sophia Antipolis in Frankreich. Nun arbeitet sie als Doktorandin in der AG wissenschaftliches Rechnen zu Methoden der optimalen Einspeisung in Versorgungssysteme unter Berücksichtigung unsicherer Nachfrage. Literatur und weiterführende Informationen D. Kern, M. Bartelt und B. Unger: How to write an article for GAMMAS and a longer title, GAMM Archive for Students, Vol. 1, 2019, pp. 1-5. Wie wird ein Artikel bei GAMMAS eingereicht? GAMM Wikipedia. Podcasts S. Göttlich, G. Thäter: Verkehrsoptimierung, Gespräch im Modellansatz Podcast, Folge 209, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
Gudrun spricht mit Henrieke Benner über deren Masterarbeit "Adaption and Implementation of Conventional Mesh Smoothing Techniques for the Applicability in the Industrial Process of Automated Shape Optimization", die in Zusammenarbeit von Henrieke und Gudrun mit der Firma Dassault entstanden ist. Unser Leben wird bestimmt durch industriell hergestellte Dinge. Im Alltag nutzen wir zum Beispiel Toaster, Waschmaschinen, Fernseher und Smartphones. Fahrräder, Autos, Züge und Flugzeuge transportieren uns und wir denken wenig darüber nach, wie es dazu kam, dass sie genau diese Form und das gewählte Material haben, solange alles funktioniert. Für die Industrie, die all diese Gegenstände baut, zerfällt der Prozess der Entwicklung neuer Produkte in viele Entscheidungen über Form und Material einzelner Bauteile. Traditionell wurde hier verändert und ausprobiert, aber seit einigen Jahrzehnten sind Computer eine große Hilfe. Mit Ihnen können Bilder von noch nicht existierenden Produkten erschafft werden, die sich diese von allen Seiten, auch von innen und in Bewegung darstellen, mit Hilfe von Simulationsprogrammen Experimente zur Qualität gemacht werden, bestmögliche Formen gefunden werden. In der Masterarbeit geht es um die Optimierung der Form von Objekten am Computer - schnell und möglichst automatisch. Es liegt in der Natur der Aufgabe, dass hier mehrere Wissensfelder zusammentreffen: mechanische Modelle, Computer Strukturen und wie man dort beispielsweise Modelle von Objekten abbilden kann, Optimierungsmethoden, numerische Verfahren. Als Rahmen dient für Arbeit das Strukturoptimierungsprogrammpaket TOSCA, das von Dassault Systèmes am Standort in Karlsruhe (weiter)entwickelt wird und weltweit als Software-Tool, eingebunden in Simulationsschleifen, genutzt wird, um Bauteile zu optimieren. Für die Numerik werden Finite Elemente Verfahren genutzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”gültig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um das Problem zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, jeweils zugeschnitten auf das genaue Problem. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Wenden wir uns nun dem Gebiet der Strukturoptimierung zu, so besteht anfangs zunächst die Hüde, ein mechanisches Problem mit Hilfe von Computer-Aided-Design Software (CAD) auszudrücken. Um die Belastungen des Bauteils zu berechnen, nutzt man anschließend Finite-Element-Analysis Software (FEA). Das Strukturoptimierungspaket TOSCA bietet anschließend mehrere Möglichkeiten zur Optimierung an. Relevant ist für das vorliegende Problem jedoch nur die Formoptimierung. Sie setzt ihre Ziel- und Restriktionsfunktionen aus Steifigkeit, Volumen, Verschiebung, inneren Kräften und Widerstandsmoment zusammen. Um eine Formoptimierung zu starten, muss zunächst vom Nutzer eine Triangulierung zur Verfügung gestellt werden, mit der die Werte der Ziel und Restriktionsfunktion berechnet werden. Während der Optimierung werden die Positionen der Oberflächenknoten variiert. Beispielsweise wird Material an Stellen hoher Spannung hinzugefügt und an Stellen niedriger Spannung entfernt. Problematisch an der Formoptimierung ist, dass sich die Qualität der finiten Elemente durch die Bewegung der Oberflächenknoten verändert. Modifiziert man nur die Oberflächenknoten, so entsteht ein unregelmäßiges Netz, welches keine gleichmäßigen finiten Elemente enthält oder schlimmstenfalls keine gültige Zerlegung der modifizierten Komponente ist. Die auf der ungültigen Triangulierten durchgeführten Berechnungen der Zielgrößen sind daher nicht mehr zuverlässig. Abhilfe kann nur geschaffen werden, wenn das Netz nach jedem Iterationschritt geglättet wird. Im Rahmen von Henriekes Arbeit werden zwei Ansätze zur Netzglättung implementiert, diskutiert und miteinander verglichen: Glättung durch den Laplace Operator und Qualitätsmaße für das Finite Elemente Gitter. Die Anwendung des Laplace Operators ist theoretisch die fundiertere Variante, aber in der numerischen Umsetzung sehr aufwändig. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. http://dx.doi.org/10.4172/2090-0902.1000181 C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. Podcasts M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. G. Thäter, H. Benner: Fußgänger, Gespräch im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015
In June 2019 Gudrun talked with Serena Carelli. Serena is member of the Research Training Group (RTG) Simet, which is based in Karlsruhe, Ulm and Offenburg. It started its work in 2017 and Gudrun is associated postdoc therein. The aim of that graduate school is to work on the better understanding of Lithium-ion batteries. For that it covers all scales, namley from micro (particles), meso (electrodes as pairs) to macro (cell) and involves scientists from chemistry, chemical engineering, material sciences, electro engineering, physics and mathematics. The group covers the experimental side as well as modeling and computer simulations. Serena is one of the PhD-students of the program. She is based in Offenburg in the group of Wolfgang Bessler (the deputy speaker of the RTG). Her research focusses on End-of-life prediction of a lithium-ion battery cell by studying the mechanistic ageing models of the graphite electrode among other things. Mathematical modelling and numerical simulation have become standard techniques in Li-ion battery research and development, with the purpose of studying the issues of batteries, including performance and ageing, and consequently increasing the model-based predictability of life expectancy. Serena and others work on an electrochemical model of a graphite-based lithium-ion cell that includes combined ageing mechanisms: Electrochemical formation of the solid electrolyte interphase (SEI) at the anode, breaking of the SEI due to mechanical stress from volume changes of the graphite particles, causing accelerated SEI growth, gas formation and dry-out of the electrodes, percolation theory for describing the loss of contact of graphite particles to the liquid electrolyte, formation of reversible and irreversible Li plating. The electrochemistry is coupled to a multi-scale heat and mass transport model based on a pseudo-3D approach. A time-upscaling methodology is developed that allows to simulate large time spans (thousands of operating hours). The combined modeling and simulation framework is able to predict calendaric and cyclic ageing up to the end of life of the battery cells. The results show a qualitative agreement with ageing behavior known from experimental literature. Serena has a Bachelor in Chemistry and a Master's in Forensic Chemistry from the University of Torino. She worked in Spain, the Politécnico de Torino and in Greece (there she was Marie Curie fellow at the Foundation for Research and Technology - Hellas) before she decided to spend time in Australia and India. References Serena's Linked in site A. Latz & J. Zausch: Thermodynamic consistent transport theory of Li-ion batteries, Journal of Power Sources 196 3296--3302, 2011. T. Seger: Elliptic-Parabolic Systems with Applications to Lithium-Ion Battery Models, Doktorarbeit Universität Konstanz, 2013. M. Kespe & H. Nirschl: Numerical simulation of lithium-ion battery performance considering electrode microstructure, International Journal of Energy Research 39 2062-2074, 2015. J.-M. Tarascon & M. Armand: Issues and challenges facing rechargeable lithium batteries, Nature 414 359-367, 2001. W.G. Bessler: Elektrische Energiespeicherung mit Batterien und Brennstoffzellen, Forschung im Fokus, Hochschule Offenburg (2018). Podcasts A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016. M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. V. Auinger: Optimale Akkuladung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 160, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
Gudrun spricht mit Lydia Wagner über Elastoplastizität. Lydia hat im Rahmen ihrer im Mai 2019 abgeschlossenen Promotion Versetzungen in kristallinen Festkörpern numerisch simuliert. Elastizität beschreibt die (reversible) Verformung von Festkörpern unter Belastung. Bei zu großer Belastung reagieren Materialien nicht mehr elastisch, sondern es entstehen irreversible Deformationen. Das nennt man Plastizität. Im Rahmen der Kontinuumsmechanik wird die Deformation durch ein Kräftegleichgewicht basierend auf der Impuls- und Drehimpulserhaltung modelliert. Die konkreten Eigenschaften des Materials werden hierbei über eine spezifische Spannungs-Dehnungs-Relation berücksichtigt. Dabei tritt Plastizität auf, wenn im Material eine kritische Spannung erreicht wird. In klassischen phänomenologischen Plastizitätsmodellen der Kontinuumsmechanik wird dieses Verhalten über eine Fließbedingung in Abhängigkeit der Spannung modelliert. Diese wird durch eine Fließregel und ggf. eine Verfestigungsregel ergänzt, die das plastische Materialverhalten nach Erreichen der Fließgrenze beschreiben. Plastizität ist ein physikalischer Prozess, der auf Kristallebene stattfindet. Ein kristalliner Festkörper wird plastisch verformt, wenn sich eindimensionale Gitterfehler – Versetzungen – durch Belastung im Kristallgitter bewegen, d. h. wenn sich die atomaren Bindungen umordnen. Durch Mittelungsprozesse kann dieses diskrete Verhalten in einem Kontinuumsmodell, dem Continuum dislocation dynamics (CDD) Modell, beschrieben werden. Eine numerische Realisierung von diesem erweiterten Modell und die Evaluation im Vergleich zu diskreten Simulationen ist die Themenstellung der Dissertation von Lydia. Die Physik erarbeitete sich Lydia in Zusammenarbeit mit Materialwissenschaftlern und Ingenieuren in der DFG-Forschergruppe Dislocation based Plasticity am KIT. Literatur und weiterführende Informationen C. Wieners: Effiziente numerische Methoden in der Elasto-Plastizität, Vortragsfolien. P.M. Anderson, J.P. Hirth, J. Lothe: Theory of dislocations Cambridge University Press, New York, 2017, ISBN: 978-0-521-86436-7 T. Hochrainer et al.: Continuum dislocation dynamics: Towards a physical theory of crystal plasticity Journal of the Mechanics and Physics of Solids, 63, 167–178,2014. doi:10.1016/j.jmps.2013.09.012 K. Schulz, L. Wagner and C. Wieners: A mesoscale continuum approach of dislocation dynamics and the approximation by a Runge-Kutta discontinuous Galerkin method International Journal of Plasticity. doi:10.1016/j.ijplas.2019.05.003 Podcasts J. Fröhlich: Poroelastische Medien, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 156, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. August: Materialschaum Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 037, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
Gudrun spricht in dieser Folge mit Simone Göttlich über Verkehrsoptimierung. Die Verabredung zum Gespräch war im März am Rande einer Tagung in Bonn erfolgt. Am 23. Mai 2019 war Gudrun dann einen Tag zu Gast in der Arbeitsgruppe von Simone an der Universität in Mannheim. Im Sport starten sie gemeinsam unter dem doppeldeutigen Namen "Team Göttlich". Verkehr erleben wir täglich zu Fuß, im Auto, auf dem Fahrrad oder im ÖPNV. Wir haben oft das Gefühl, dass einiges besser geregelt sein könnte, um den Verkehrsfluss zu verbessern. In der Stadt vermischen sich viele unterschiedliche Fragen sehr komplex, da viele unterschiedliche Verkehrsmittel um den Raum konkurrieren. Auf der Autobahn kann man sich auf den Autoverkehr konzentrieren. Aber auch dort muss das unterschiedliche Verhalten von schnell fahrenden Autos und langsamen Lastwagen berücksichtigt werden. Außerdem beeinflussen auch Auf- und Abfahrten die Durchlässigkeit der Autobahnspuren. Es gibt also viele Fragen und Probleme im Zusammenhang mit Verkehr. Ihre Beantwortung kann allen das Leben erleichtern und Kosten erheblich senken. Das Gespräch mit Simone beginnt beim Thema Daten. Wie viele Autos, Personen und Fahrräder bestimmte Strecken zu bestimmten Zeiten nutzen, wird stichprobenhaft recht genau gezählt. Zu einigen Zeiten fließt der Verkehr gut, aber z.B. zur sogenannten Rushhour kommt er ins stocken. Die gezählten Daten fließen in Verkehrsprognosemodelle beispielsweise für Routenplanung ein. Wir rufen dann einfach eine App auf und lassen uns die besten Routen vorschlagen. Für jede wird von der App eine voraussichtliche Reisedauer geschätzt. Für Autobahnverkehr werden außerdem auch ganz aktuelle Daten ergänzt. Um gemeldete Staus aber auch um die Verkehrsdichte auf besonders wichtigen Autobahnabschnitten, wo das automatisiert beobachtet wird. Als ein Beispiel dient im Gespräch von Gudrun und Simone die Autobahn A5 in der Nähe von Frankfurt, wo schon lange Jahre eine Anzeige gute Dienste leistet, die bei Einfahrt in den Ballungsraum die aktuell zu erwartende Fahrtzeit zu markanten Punkten wie beispielsweise dem Flughafen angibt. Als jemand, der sein Flugzeug erreichen muss, kann man dann ruhiger durch den dichten Verkehr reisen und sich an die reduzierte Höchstgeschwindigkeit halten, da man Planungssicherheit hat. Als Nebeneffekt senkt dies die Unfallwahrscheinlichkeit, weil auf hektische Überholmanöver verzichtet wird. Effekte, die man mit Verkehrsflußmodellen simulieren möchte sind erwartbare Engpässe beim Einziehen von Fahrspuren oder auch der sogenannte Stau aus dem Nichts, der bei hoher Verkehrsdichte auftreten kann. Wir alle wissen, dass auf Autobahnen Geschwindigkeitseinschränkungen auf Baustellen vorbereiten, um das Einfädeln der Spuren zu vereinfachen. Wenn der Verkehr dicht genug ist, breitet sich die Störung, die beim Einfädeln entsteht, entgegen der Fahrtrichtung wie eine Schockwelle aus. Das ist eine Beobachtung, die sicher alle schon einmal gemacht haben. Für das Modell heißt das aber, dass es geeignet sein muss Schockwellen als Lösungen zuzulassen. Traditionell gibt es sogenannte mikroskopische und makroskopische Modelle für Verkehr. In den Ersteren schaut man die Fahrzeuge einzeln in ihrem typischen Verhalten an. Die Modelle beruhen auf der Idee des zellulären Automaten. In den makroskopischen Modellen sieht man als wesentlichen Vorgang das Fließen und charakterisiert das Verkehrsgeschehen mit den Variablen Dichte und Fluss. Man kann recht schnell ein erstes Modell aufstellen, indem man folgende elementare Beobachtungen: wenn kein Verkehr ist, ist der Fluß Null (Dichte Null -> Fluß Null) wenn die Dichte maximal ist, stehen alle im Stau und der Fluß Nullmit Hilfe einer konkaven Funktion des Flusses in Abhängigkeit von der Dichte verbindet. Diese hat ein Maximum für eine gewisse Dichte. Die entspricht auch einer Geschwindigkeit des Verkehrsgeschehens, die man mit Bezug auf den besten Fluß als Optimum ansehen kann. Komplexere Modelle nehmen die Masseerhaltung als Grundlage (Autos bleiben in der Summe erhalten) und führen auf die sogenannte Transportgleichung, die hyperbolisch ist. Hyperbolische Gleichungen haben auch unstetige Lösungen, was dem Verkehrsgeschehen entspricht, aber ihre Behandlung schwieriger macht. In der Numerik muss auf die besonderen Eigenschaften Rücksicht genommen werden. Das erfolgt beispielsweise über die sogenannte CFL-Bedingung, die Zeit- und Raumdiskretisierung koppelt. Oder man benutzt Upwind-Schemata für finite Differenzen. Am besten angepasst an hyperbolische Probleme sind jedoch Finite Volumen Verfahren. Sie arbeiten mit der Approximation des Flusses über deren Ränder von Zellen. Simone hat Wirtschaftsmathematik in Darmstadt studiert und anschließend in Kaiserslautern promoviert. Als Akademische Rätin blieb sie einige Jahre in Kaiserslautern und hat sich dann dort auch habilitiert. Seit 2011 ist sie Mathematikprofessorin an der Universität Mannheim am Institut für Wirtschaftsinformatik und Wirtschaftsmathematik. Literatur und weiterführende Informationen J. Kötz, O. Kolb, S. Göttlich - A combined first and second order traffic network model - preprint, March 2019. M. Burger, S. Göttlich, T. Jung - Derivation of second order traffic flow models with time delays Networks and Heterogeneous Media, Vol. 14(2), pp. 265-288, 2019. U. Clausen, C. Geiger: Verkehrs- und Transportlogistik VDI-Buch, 2013. ISBN 978-3-540-34299-1 M. Treiber, A. Kesting: Verkehrsdynamik Springer, 2010. ISBN 978-3-642-32459-8 Podcasts P. Vortisch, G. Thäter: Verkehrsmodellierung I, Gespräch im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. U. Leyn, G. Thäter: Verkehrswesen, Gespräch im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. K. Nökel, G. Thäter: ÖPNV, Gespräch im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. T. Kretz, G. Thäter: Fußgängermodelle, Gespräch im Modellansatz Podcast, Folge 90, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Vom 30. Mai - 2. Juni 2019 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN19 statt. Dort traf Sebastian auf Carina Haupt, die schon auf der GPN18 von der öffentlich finanzierten Wissenschaft forderte: Publish Your Research! Carina Haupt studierte Informatik an der Hochschule Bonn-Rhein-Sieg. Aktuell befasst Sie sich wissenschaftlich mit Forschungssoftware, die meist von Wissenschaftlerinnen und Wissenschaftlern nur geringfügiger Kenntnis von Softwaretechnik oder unter Aspekten von Nachhaltigkeit entwickelt wird, da die Software nur als Mittel zum Zweck gesehen wird. Ziel der Wissenschaftlerinnen und Wissenschaftlern ist es schließlich Forschung zu betreiben und nicht Software zu entwickeln. Dabei zeigt die anhaltende Replication Crisis, die darin besteht, dass etliche publizierte wissenschaftliche Arbeiten nicht reproduzierbar sind, und somit alle abgeleiteten Arbeiten auf unsicheren Füßen stehen und eigentlich unter den geänderten Voraussetzungen wiederholt werden müssten. Eine Herausforderung ist, dass für viele Forschende, wie beispielsweise in der Mathematik, oft die Software nur zur Verifikation der eigentlichen wissenschaftlichen Aussagen verwendet wird, und daher eine deutlich geringere Wertschätzung erfährt. Auch wird ein Reputationsverlust befürchtet, wenn die Softwarequalität nicht den Ansprüchen im Kernbereich der Forschung entspricht, so dass oft von einer veröffentlichung des Source Codes und der Daten abgesehen wird. Dabei muss die Offenlegung der verwendeten Verfahren und Daten ein Grundanliegen ernsthafter Forschung sein und eine Kennzeichnung von Software beispielsweise als Proof-of-Concept sollte einen angemessenen Anspruch an die Software sicherstellen. Am Deutschen Zentrum für Luft- und Raumfahrt (DLR), leitet Carina eine Gruppe zum Software Engineering und ist dort mit ihren Kolleginnen und Kollegen für 40 Institute an 20 Standorten Ansprech- und Kooperationspartnerin für Softwareentwicklung unter anderem im wissenschaftlichen Umfeld von Luft- und Raumfahrt, Energie und Verkehr. Inzwischen ist dort ihr Enthusiasmus für Open Source, und Forschenden in der Softwareentwicklung zu unterstützen, zu ihrem eigenen Forschungsgebiet geworden. Bevor sie zum DLR kam, war sie beim Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI) im Bereich der Bioinformatik und dem Semantic Web, sowie in der Industrie und nebenberuflich bei der Froscon tätig, bis sie dem Ruf von Andreas Schreiber in ihre aktuelle Gruppe folgte. Um Außenstehenden einen schnellen und sehr unterhaltsamen Einstieg in und wichtige Motivation für das Software Engineering bei der DLR zu bieten, hat sie auf der GPN18 einen Vortrag Software-Fehler in der Raumfahrt: Disintegrating Rockets mit großem Anklang gehalten. Aber kann die Publikation von Forschungsdaten bei Auswirkungen der Replikationskrise wie der Analyse, dass über die Hälfte von Psychologiepapern nicht nachvollzogen werden können, helfen? Auf jeden Fall hätte die Veröffentlichung schon frühere Diskussionen und Verbesserungen der Ergebnisse ermöglicht, da abgeleitete Arbeiten statt der geschriebenen Darstellung auf den echten Daten ihre erweiterten Analysen hätten durchführen können. Soweit die Theorie, praktisch muss man sich eingehend damit befassen, was genau erforderlich ist, um eine Reproduzierbarkeit schon auf Seiten der Daten und Software zu ermöglichen. Das Befassen mit diesen Themen führt von einer Erstellung einer Publikation zum Begriff der Open Science oder offener Wissenschaft, die unter anderem Open Access, Open Data als auch Open Source betrifft. Hier konzentriert sich Carina in ihrer Forschung besonders auf den letzten Teil, insbesondere wie Erkenntnisse aus der Softwaretechnik dazu beitragen können, dem großen Ziel der Reproduzierbarkeit auch über die Zeit hinweg zumindest näher zu kommen. Wichtig ist auch den Entstehensprozess von Software zu betrachten. Die Fernseh-Show Bares für Rares demonstriert, wie die Wertigkeit eines Objekts durch eine nachgewiesene Herkunft signifikant beeinflusst wird. Dies erfolgt durch Nachweis der sogenannten Provenience. Der Begriff Provenience bedeutet die Aufzeichnung der Geschichte der Entstehung eines Objektes. Dies läßt sich auf Software übertragen. Die Wertigkeit und Qualität von einer Software-Publikation könnte zum Beispiel dadruch evaluiert werden indem der Build- und Entwicklungsprozess aufgezeichnet, und mit dem PROV W3C-Standards dokumentiert. Neben der Dokumentation liegt der nächste Schritt für reproduzierbare Software (vgl. E. Heitlinger: Reproduzierbarkeit – Wissenschaftliche Arbeit als Software-Projekt) darin, die erforderlichen zusätzlichen Bestandteile auch zur Verfügung zu stellen. Die nachhaltige Softwareentwicklung befasst sich in besonderem Maße damit, dass die Software von anderen sowohl genutzt als auch in Zukunft weiterentwickelt werden kann. Natürlich sollten wissenschaftliche Veröffentlichungen grundsätzlich die Wissensgewinnung und Validierung genau beschreiben, nur ist dies im gängigen Rahmen und Form normaler Publikationsformen weder in Form noch im Umfang abzubilden. Daher fordern viele Journals und Konferenzen, die Daten und Methoden in der Form von ausführbaren, web-basierten Jupyter Notebooks zur Verfügung zu stellen. Ein neuer Ansatz ist eine "Software Zitierbarkeit" zu ermöglichen, also sowohl die Form mit Weblinks und Versionierung, also auch mit Infrastruktur wie dem Dienst Zenodo, das einen Digital Object Indentifier (DOI) für Software mit einem Langzeitarchiv bereitstellt. Das ist ein Service, der in etwas weniger spezialisierter Form für unterschiedliche Medien auch von vielen Hochschulbibliotheken angeboten wird. Am DLR widmet sich die Software Engineering Initiative mit vielen Ansätzen, um Forschenden zu helfen nachhaltige Software zu entwickeln. Ein wichtiger Bestandteil sind hier Trainings, wie beispielsweise Repositories verwendet werden sollten: Hinweise für sinnvolle Commit-Messages verwenden. Wie sollten Versionen vergeben werden? Neben den eigentlichen Sourcen sollte auch der Build-Prozess und Testdaten im Repository sein Sinnvolle Struktur von Dateibäumen und sprechende Bennenung von Dateien Jedes Repository sollte eine README-Datei haben, die am Anfang kurz die Funktion der Sourcen beschreibt und in welchem Scope und in welchen Constraints die Ziele erreicht werden sollen, wie sie installiert, ausgeführt und getestet wird und wie sollte die Software zitiert werden? Unter welcher Lizenz steht die Software? Unterstützung gibt es auch durch zentrale Infrastruktur, die vom DLR beispielsweise durch eine eigene GitLab bald zur Verfügung stehen wird, und allen Forschenden einen eigenen persönlichen Bereich anbieten, sowie Projekten sofort entsprechende Strukturen bereitstellen. Die im Gespräch erwähnte SHA1-Kollision Shattered hatte einen Stillstand der für mehrere Browser grundlegende WebKit-Entwicklung zur Folge, da deren Subversion-Repository nicht mit der Hash-Kollision zurecht gekommen ist. Es gibt vielseitige Motivationsgründe für Forschende die Unterstützung der Software Engineering Initiative anzunehmen: Entweder sind sie aus einem füngeren universitären Umfeld schon mit der Thematik vertraut, oder haben Probleme durch fehlene Softwarequalität schon kennengelernt, lassen sich von Beispielen überzeugen oder Qualitätsanforderungen überreden, oder es wird ihnen durch Vorgesetzte nahe gelegt. Ein Mittel zur Motivation sind insbesondere die am DLR entwickelten Software Engineering Guidelines, die Kolleginnen und Kollegen zur Verfügung gestellt werden können. Darin sind sowohl Begründungen für das Vorgehen, aber auch einfach zur verfolgende Entscheidungsbäume und Checklisten, die je nach Größe und Kritikalität von Projekt unterschiedlich aufwendige Empfehlungen vorschlagen. Dies kann von einer TODO-Datei bis zur Integration eines vollständigen Issue-Tracker gehen, der in der höchsten Qualitätsstufe auch mit dem kompletten Code-Management integriert werden sollte. Diese Guidelines sind am DLR in eine Qualitätsinitiative integriert, bei der in jedem Institut ein Qualitätsbeauftragter oder eine Qualitätsbeauftragte zumindest erfassen sollte, warum bestimmte Empfehlungen nicht entsprochen wird, oder idealerweise das Institut dabei dazu zu motivieren diese einfach genau so umsetzen. Die erforderliche Bereitstellung digitaler Infrastruktur durch Organisationen spielt für Hochschulen neben den Bereichen des Software Engineerings auch in der Lehre eine wichtige Rolle: "Wenn technische Möglichkeiten wie Vorlesungsaufzeichnungen auch im Rahmen obligatorischer Lehrveranstaltungen genutzt werden sollen, müssen Hochschulen daher auch aus datenschutzrechtlichen Gründen entweder eine eigene Infrastruktur aufbauen oder datenschutzkonforme Dienstleistungen gegen Entgelt in Anspruch nehmen." A. Lauber-Rönsberg in Videocampus Sachsen – Machbarkeitsuntersuchung. Was alles bei der Nutzung mit Software-Repositories am Beispiel von GIT passieren kann, erzählt Sujeevan Vijayakumaran im GPN19-Vortrag Dämliche Dinge mit git anstellen. Grundlage für viele Aktivitäten der Software Engineering Group basieren auf Software Carpentries, beispielsweise mit einer GIT Einführung, die auch auf die Nachhaltigkeit abzielt. In der Helmholtz-Gesellschaft wurde das HIFIS-Projekt (Helmholtz Infrastructure for Federated ICT Services) gestartet, um die Initiativen und Erfahrungen in der Bereitstellung von Infrastrukturen innerhalb der Helmholtz Gesellschaft zu bündeln. Hier geht es nicht nur um den Betrieb der Software, sondern auch um das Training für die Services und im Allgemeinen. Dazu sollen Communities für Software Engineering und weiteren Themen gebildet werden, damit der Austausch über Erfahrungen und Wissen leichter ablaufen kann. Die Initiativen im Bereich der Research Software Engineers werden im neu gegründeten Verein DE-RSE e.V. gegründet, der vom 4.-6. Juni im Potsdam die erste Konferenz für ForschungssoftwareentwicklerInnen in Deutschland deRSE19 veranstaltet. Der Ursprung dieser Initiative liegt im WSSSPE Workshop (Working towards sustainable software for science: practice and experiences) und der Konferenz der Research Software Egineers Association. Die #deRSE19 wird auch besonders durch die TIB, dem Leibniz-Informationszentrum, Technik und Naturwissenschaften, Universitätsbibliothek, unterstützt. In der Zukunft muss es auch darum gehen, Infrastrukturen bereit zu stellen, über gute Verfahren zu informieren und auch Anreize für Forschenden zu schaffen, die verschiedenen Ansätze aufnehmen. Der Verein und das HIFIS-Projekt möchten hier mit unterschiedlichen Ansätzen dazu beitragen die Situation zu verbessern, und insbesondere die aktuelle Dynamik in Richtung Open Journals, Open Data, Open Source und Open Science zu nutzen. Für einzelne Gruppen und Instituten sollte die Wichtigkeit sich mit Open Source Lizenzen nicht unterschätzt werden: Es kann sonst zu Inkopatibilitäten zwischen verschiedenen Lizenzen kommen, oder es fehlen Einverständniserklärungen von einzelnen, nicht vertraglich verbundenen Personen. Diese können beispielsweise Studierende sein, die im Rahmen einer Abschlussarbeit an einem Projekt mitgearbeitet haben. Hier muss ein Contributor Licence Agreement bereit sein, die von sonst nicht vertraglich gebunden Beitragenden unterschrieben werden kann. Literatur und weiterführende Informationen C. Haupt, T. Schlauch: The Software Engineering Community at DLR—How We Got Where We Are, Proceedings of the Workshop on Sustainable Software for Science: Practice and Experiences (WSSSPE5. 1), 2017. A. Schreiber, C. Haupt: Raising awareness about open source licensing at the German aerospace center, 2018 IEEE Aerospace Conference. IEEE, 2018. D. A. Almeida, G. C. Murphy, G. Wilson, M. Hoye: Do software developers understand open source licenses?, Proceedings of the 25th International Conference on Program Comprehension (pp. 1-11), IEEE Press, 2017. R. Krishnamurthy, M. Meinel, C. Haupt, A. Schreiber, P. Mäder: DLR secure software engineering: position and vision paper. Proceedings of the 1st International Workshop on Security Awareness from Design to Deployment (pp. 49-50). ACM, 2018. Podcasts M. Fromm, K. Förstner: Open Science Radio C. Haupt, S. Janosch, K. Förstner: Voices from de-RSE Conference 2019, Open Science Radio, OSR171, 2019. C. Haupt, S. Druskat, K. Förstner: de-RSE Association and Conference for Research Software Engineers in Germany, Open Science Radio, OSR140, 2019. S. Janosch, K. Förstner: Forschungssoftware in Deutschland, Open Science Radio, OSR091, 2017. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/research-software-engineering GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
Auf der Gulaschprogrammiernacht 2019 traf Sebastian auf den Podcaster Data Science Phil Philipp Packmohr @PPackmohr. Sein Interesse zur Data Science entstand während seines Studiums in den Life Sciences an der Hochschule Furtwangen in den Bereichen der molekularen und technischen Medizin und zu Medical Diagnostic Technologies. In seiner Masterarbeit hat er sich betreut von Prof. Dr. Matthias Kohl mit der statistischen Aufbereitung von Beobachtungsstudien befasst, genauer mit der kausalen Inferenz aus Observationsdaten mit Propensity Score Matching Algorithmen. Kausale Inferenz, das Schließen von Beobachtungen auf kausale Zusammenhänge, ist tatsächlich sehr wichtig in allen empirischen Wissenschaften wie zum Beispiel der Ökonomie, der Psychologie, der Politologie, der Soziologie und auch der Medizin. Idealerweise sollten Studien in der Form von randomisierten kontrollierten Studien durchgeführt werden, da nur so eine bewusste oder unbewusste Einflussnahme auf den Ergebnisse verhindert werden kann. Beispielsweise leiden Evaluationen an Hochschulen am Ende von Vorlesungen oder Studiengängen oft unter einem Survivorship Bias, da nur noch die Personen befragt werden, die bis zum Ende durchgehalten haben. Doch werden nicht alle Studien aufgrund von verschiedenen Gründen (wie zum Beispiel der hohen Kosten) randomisiert durchgeführt, und so war es auch bei dem für seine Arbeit zentralen Observationsdatensatz von Prof. Dr. Konrad Reinhart an der Klinik für Intensivmedizin vom Universitätsklinikum Jena zu Therapien zur Vermeidung von akutem Nierenversagen. Der Datensatz behandelte 21757 Patienten mit soziodemographischen und biologischen Merkmalen aus der elektronischen Gesundheitsakte mit bis zu 209 Variablen, sowie der gewählten Therapie und ob es zu Nierenversagen kam oder nicht. Die Variablen werden bei der Untersuchung als Confounder, Störfaktoren oder Kovariate benannt, die nicht als ursächlich für den Therapieverlauf gesehen werden, aber diesen sowohl beeinflussen können. In einer nicht-randomisierten Studie werden die Confounder nicht gleichmäßig über die Therapiearten verteilt sein, und damit die zusammengefassten Ergebnisse unerwünscht verfälschen. Eine Aufbereitung anhand der Confounder kann aber nie eine völlig randomisierte Studie ersetzen, da in den Daten nicht auftretende Confounder, wie bespielsweise dem athletischen Status, nicht berücksichtigt werden können. Im Propensity Score Matching werden nun die Erfolgsquoten von Therapien vereinfacht gesagt als durch einen Score gewichtete Erfolgsquote unter Berücksichtigung der aufgetretenen Häufigkeiten der Confounder zur erwarteten Häufigkeit der Confounder berechnet. Problematisch ist dabei der Umgang mit fehlenden Datenwerten, da nur ein Bruchteil der Datensätze wirklich alle Variablen definiert. Hier mussten sinnvolle Datenergänzungsverfahren eingesetzt werden. Die Auswertung erfolgte mit dem kostenlosen Open Source Projekt R (Plattform für statistische Berechnungen), das eine Vielzahl Verfahren und Algorithmen zur Verfügung stellt. Die im Laufe der Arbeit entwickelten Verfahren finden sich im Github Repository zu den Analyseverfahren. Die Analyse des Observationsdatensatz ergab nun Risikoraten von 15.6% bis 11.5% für Nierenversagen. Dies muss aber nicht bedeuten, dass die eine Therapie immer der anderen Therapie vorzuziehen ist, da viele Kriterien für die Wahl einer Therapie einbezogen werden müssen. In der personalisierte oder prädiktiven Medizin wird versucht, an Hand von Observationsanalysen sogar weitergehende Therapiehinweise in Abhängigkeit von Confoundern der einzelnen Patienten zu geben. Den Anstoß für den Data Science Phil Podcast fand Philipp in einem Aufruf vom YouTuber Martin Jung. Im englisch-sprachigen Podcast geht es um grundlegende Verfahren der Data Science, aber auch um weiterführende Themen, die er auf Konferenzen mit Gästen diskutiert. Literatur und weiterführende Informationen P. R. Rosenbaum, D. B. Rubin, Donald B: The Central Role of the Propensity Score in Observational Studies for Causal Effects, Biometrika. 70 (1): 41–55 , 1983. J. Pearl: Causality: Models, Reasoning, and Inference , Cambridge University Press, 2019. D. Ho, K. Imai, G. King, E. Stuart: MatchIt - Nonparametric Preprocessing for Parametric Causal Inference, Journal of Statistical Software, 42(8), 1 - 28, 2011. D. Ho, K. Imai, G. King, E. Stuart: MatchIt: Nonparametric Preprocessing for Parametric Causal Inference, R-Module, 2018. E. A. Stuart: Matching Methods for Causal Inference: A review and a look forward, Statistical Science 25(1): 1-21, 2010. Research Gate Profil von Philipp Packmohr Github Profil von Philipp Packmohr Science Days im Europapark Rust Data Science Blog von Philipp Packmohr stamats von Prof. Dr. Matthias Kohl Podcasts Data Science Phil Podcast P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. I. Hinneburg: EbPharm-Magazin im September, Adjustierung in epidemiologischen Studien, Podcast Evidenzbasierte Pharmazie, 2017. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
Gudrun unterhält sich in dieser Folge mit Lennart Hilbert, dem Leiter des Hilbert Labs am KIT. Das Labor ist Teil des Instituts für Toxikologie und Genetik (ITG), einem multidisziplinären Zentrum für biologische und chemische Forschung am KIT. Lennart Hilbert ist außerdem Juniorprofessor für Systembiologie/Bioinformatik am Zoologischen Institut des KIT. Das Thema von Lennarts Gruppe ist Computational Architectures in the Cell Nucleus. Das kann man auf zwei unterschiedliche Arten interpretieren. Einerseits untersucht Lennarts Gruppe den räumlichen Aufbau des Zellkerns mit Hilfe von Computern. Es heißt aber auch dass man aufgrund der dabei gewonnenen Erkenntnisse als Fernziel Datenverarbeitung mit Hilfe des Zellkernes als Informationsspeicher ermöglichen will. Gudrun und Lennart haben sich im Rahmen eines Treffens des KIT-Zentrums MathSEE kennengelernt, das im letzten Gespräch vorgestellt wurde. Mit der Hilfe von Super Auflösungs Mikroskopie schauen Lennart und seine Gruppe in das Innere von Zellkernen und sehen dabei dreidimensionale Bilder. Diese Bilder gleichen sie mit den Ergebnissen von den bisher standardmäßig durchgeführten Sequenzierexperimenten von Molekularbiologen ab. "Sehen" erfolgt mit empfindlichen Digitalkameras, deren Bilder geeignet gefiltert werden. Dabei ist eine einschränkende Randbedingung, dass die betrachteten Samples gegen Licht empfindlich sind, aber Licht für die visuelle Darstellung unabdingbar nötig ist - je kleiner die Details, desto mehr Licht. Man kann sich unschwer vorstellen, dass zur Bearbeitung diese Art von Fragen Informatik, Physik, Biologie und Mathematik nötig sind. Damit sich im Rahmen der Zusammenarbeit alle einbringen können, ist es hilfreich, wenn die Methoden einfach und die Ergebnisse visuell unmittelbar verständlich sind. Eine Grundannahme ist, dass die räumliche Organisation im Zellkern den Informationsflüssen aus der DNA-Sequenz entspricht. Die treibende Frage ist: Wie funktioniert Gensteuerung? Der betrachtete Regelkreis ist, dass die DNA als Bibliothek funktioniert. Aus einem Teil wird eine RNA-Kopie erstellt, sodass bestimmte Proteine hergestellt werden können. Diese Eiweiße aber steuern anschließend, welche Teile der DNA als nächstes gelesen werden (das schließt den Regelkreis). In der Systembiologie untersucht man dies bisher in Form von Differentialgleichungssystemen auf einer Metaebene. Wie das aber passiert ist aber noch relativ unklar. Die Hoffnung ist: Neues Sehen hilft hier, neues zu lernen und hierfür ist neueste Technik hilfreich. Die Molekulare Ebene ist der Teil der Biologie, wo im Moment am meisten Neues passiert. Lennart hat in Bremen Physik studiert und anschließend an der McGill University in Montréal in Physiologie promoviert. Hier hat er zum ersten Mal zwischen Theorie und Experiment in zwei Gruppen gleichzeitig gearbeitet. In Dresden am Zentrum für Systembiologie (Max Planck Institut für Molekulare Zellbiolgie und Genetik und Max Planck Institut für die Physik komplexer Systeme) konnte er als Postdoc weiterhin interdisziplinär arbeiten. Seit 2018 ist er am KIT tätig. Lennart und seine Gruppe arbeiten mit Zebrafischen, Bakterienstämmen, Zeitreihenanalyse und anderen mathematischen Modellen. Sie benötigen hoch parallele Simulationen und Machine Learning (z.B. um Mikroskopie-Daten zu entrauschen und mehr Farben gleichzeitig darzustellen). Lennart drückt es im Gespräch so aus: "Ich hab keine Disziplin mehr, ich habe nur noch Fragen." Die beiden Teile seiner Arbeit unterscheiden sich stark: Im Labor sind Gruppentreffen nötig, weil alle aufeinander angewiesen sind. Es wird viel geredet und präzise Handarbeit ist wichtig. In der theoretischen Arbeit ist man auf sich selbst angewiesen und es gibt weniger Interaktion. Any doubts #activematter is a relevant framework to understand nuclear and chromatin organization? Please look at this time-lapse. Zebrafish blastula nucleus, DNA label is Hoechst 33342, single optical section, recorded last night using @VisiTech_UK iSIM. @LennartHilbert, 16.3.2019 Literatur und weiterführende Informationen Y. Sate e.a.: Quantitative measurements of chromatin modification dynamics during zygotic genome activation, bioRxiv preprint, 2019. Lennart Hilbert: Stress-induced hypermutation as a physical property of life, a force of natural selection and its role in four thought experiments. Physical Biology 10(2):026001, 2013 Portrait of Science über Lennart Teil 1 Portrait of Science über Lennart Teil 2 A. Lampe: Hochauflösungsmikroskopie, Die kleinen Dinge, ScienceBlogs, 2017. A. Lampe: Es sind die kleinen Dinge im Leben, 33c3, 2016. Podcasts T. Hagedorn, G. Thäter: MathSEE, Gespräch im Modellansatz Podcast, Folge 205, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Gonciarz, G. Thäter: Portrait of Science, Gespräch im Modellansatz Podcast, Folge 197, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Omega Tau-Podcast 072: Forschung in der Zellbiologie, 2011. J. Schmoranze, I. Wessolowski: Beim Herrn der Mikroskope – AMBIO Core Facility, Sciencekompass Podcast, Episode 009 B, 2017.
Gudrun spricht in dieser Folge mit Tanja Hagedorn, die Geschäftsführerin des KIT-Zentrums MathSEE ist. Das Karlsruher Zentrum für Technologie (KIT) besteht aus sehr vielen Instituten, die in fünf thematischen Bereichen zusammengeschlossen sind. Andererseits gibt es die eher horizontal durch alle Bereiche hindurch sortierenden Gremien, die KIT-Zentren heißen. Hier sind Forscherinnen und Forscher Mitglied und es "werden Fragestellungen, die von fundamentaler Bedeutung für die Existenz und Weiterentwicklung der Gesellschaft sind oder die aus dem Streben nach Erkenntnis resultieren, bearbeitet." ( lt. Webseite). Sieben solche Zentren gibt es seit Gründung des KITs: Energie Information · Systeme · Technologien Mobilitätssysteme Elementarteilchen- und Astroteilchenphysik Klima und Umwelt Materialien Mensch und Technik Allerdings gab es ursprünglich kein Thema, unter dem die vielen Aktivitäten, die die Mathematik am KIT für die Gesellschaft leistet (und die auch nicht nur in der KIT-Fakultät für Mathematik stattfinden), ein Zuhause finden könnte. Deshalb entstand der Wunsch nach einem passenden Zentrum im KIT. Das KIT-Zentrum Mathematics in Sciences, Engineering, and Economics, kurz "MathSEE", gibt es nun seit Oktober 2018. In MathSEE kooperieren theoretisch-mathematisch und anwendungsorientiert arbeitenden Wissenschaftlerinnen und Wissenschaftler in gemeinsamen Forschungsprojekten. Aufgabe von MathSEE ist es auch, diese Forschung nach außen hin sichtbar zu machen sowie neue interdisziplinäre mathematische Forschung am KIT zu fördern. Da gilt es vor allen Dingen auch, Vermittlung zwischen Großforschungs- und Universitätsbereich zu betreiben. MathSEE bietet unter anderem eine Anschubförderung für neue interdisziplinäre Projekte] an, deren erste Ausschreibungsrunde gerade erfolgreich abgeschlossen wurde und die ersten sieben Projekte eine Förderung erhalten haben. Die nächste Bewerbungsfrist ist Ende Juni 2019. Keimzelle von MathSEE war insbesondere der Sonderforschungsbereich 1173: Wellenphänomene: Analysis und Numerik. Doch auch andere bestehende große Drittmittelprojekte in der Mathematik wie das Graduiertenkolleg 2229: Asymptotic Invariants and Limits of Groups and Spaces bilden die Grundlage für die Entstehung von MathSEE. Sie haben dazu geführt, dass die besondere Stellung der Mathematik an der technischen Forschungseinrichtung KIT und die Forschungsstärke der Mathematik sichtbarer wurden. Die Initiative der Sprecherin Marlis Hochbruck hat die Gründung von MathSEE dann ins Rollen gebracht. Der engagierte Wissenschaftliche Sprecher von MathSEE, Prof. Martin Frank, ist in seiner Doppelrolle als Professor in der Mathematik und SCC-Direktor perfekt für die Aufgabe. Um gezielter zusammen arbeiten zu können, ist MathSEE mit seinen momentan knapp 130 Mitgliedern weiter untergliedert in Methodenbereiche: MB 1: Mathematische Strukturen: Formen, Geometrie, Zahlentheorie und Algebra MB 2: Mathematische Modellbildung, Differentialgleichungen, Numerik, Simulation MB 3: Inverse Probleme, Optimierung MB 4: Stochastische Modellbildung, statistische Datenanalyse und Vorhersage Mitglieder arbeiten oft in mehreren Methodenbereichen mit. Die Methodenbereiche werden jeweils durch ein Paar interdisziplinär geleitet, d.h. eine Person aus der Mathematiker und eine Person aus einem anderen Forschungsbereich. Wichtig in MathSEE ist, dass insbesondere auch Promovierende Mitglied sein können und hier Kooperationspartner für Fragestellungen in ihrem Promotionsprojekt finden können. Für sie bietet die Graduiertenschule MathSEED außerdem ein umfassendes Qualifikationsprogramm an. MathSEE fördert darüber hinaus zwei Veranstaltungsformate: In der MathSEE Modellierungswoche im August entwickeln Studierende Lösungsansätze zu aktuellen interdisziplinären mathematischen Fragestellungen von Problemstellenden aus MathSEE. Studierende erhalten dabei einen ersten Eindruck von der Forschung in angewandter Mathematik und die Problemstellenden können erste Ergebnisse erwarten. Bald wird auch ein MathSEE ScienceSlam stattfinden, da MathSEE versucht, auch für Mathematik bei einem größeren Publikum zu werben. Literatur und weiterführende Informationen MathSEE Veranstaltungen und Termine Podcasts M. Frank, G. Thäter: Kinetische Theorie, Gespräch im Modellansatz Podcast, Folge 152, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. M. Hattebuhr, K. Wohak, G. Thäter: Simulierte Welten, Gespräch im Modellansatz Podcast, Folge 179, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
Gudrun spricht mit Alina Sage, die gerade eine Masterarbeit am Deutschen Krebsforschungszentrum in Heidelberg (DKFZ) abgeschlossen hat. Mit Mark Bangert, dem Leiter der Arbeitsgruppe dort hatte Gudrun vo einigen Monaten über die Physik der Strahlentherapie gesprochen. Auch mit Alina gibt es schon eine Folge im Modellansatz, denn sie hat über ihre Erfahrungen als Studienbotschafterin berichtet. In der Masterarbeit von Alina geht es darum, die Unsicherheiten beim Bestrahlungsvorgang besser zu modellieren. In der Fachsprache heißt das noch recht junge Forschungsgebiet Uncertainty Quantification. Es gibt natürlich unterschiedliche Ursachen, die zu einer nicht punktgenauen Umsetzung des Bestrahlungsplanes für Patienten führen. Alina wählte daraus zwei, die ihr besonders wichtig erschienen: dass der Strahl nicht aus einer Punktquelle kommt, sondern die Quelle um ein Zentrum herum streut dass der Patient nicht ganz exakt an dem Ort liegt, wie er in der Simulation angenommen wird, sondern etwas verschoben dazu. Beide Prozesse lassen sich recht gut mit einer Normalverteilung beschreiben. Eine Normalverteilung wird durch eine glockenförmige Kurve dargestellt. Das Maximum ist der Wert, der als der wahrscheinlichste angenommen wird. Er heißt Erwartungswert. Wie stark die Prozesse von diesem Wert abweichen, ist in der Glockenkurve dadurch ausgedrückt, ob die Kurve steil zu diesem Maximum hin anssteigt und anschließend wieder fällt (dann weicht sie wenig ab) oder eher breit aussieht. Das wird im Parameter Varianz (oder Standardabweichung) ausgedrückt. Um mit Hilfe von Simulationen die Unsicherheit zu beziffern, verwendet Alina das Instrument der Monte-Carlo-Simulation. Sie benutzt die Open source software TOPAS. Insbesondere heißt Monte-Carlo-Simulation, dass sie eine riesige Anzahl von möglichen Pfaden der Strahlungspartikel simulieren lässt, um dann aus Tausenden von solchen Verläufen eine Näherung für den Erwartungswert der im Gewebe deponierten Bestrahlungsdosis zu errechnen. Die Partikel folgen dabei jeweils einem Random Walk. Im Prinzip muss man diese Simulationen für beide Prozesse machen, die mit ihrer Unsicherheit betrachtet werden. Hier kommt Alina jedoch eine Eigenschaft der Normalverteilung zu Gute: wenn zwei normal verteilte Prozesse unabhängig voneinander einwirken, lässt sich die Summe ihrer Wirkungen in einem einzigen normal verteilten Prozess ausdrücken. D.h. hier, dass Alina für diesen Prozess nur einmal die Monte-Carlo-Simulation durchführen muss. Das spart extrem viel Rechenleistung ein. Im Prozess der unabsichtlichen Verschiebung des Patienten um kleine Längen ist es insbesondere von Belang, wenn z.B. in der Nähe der Lunge bestrahlt wird. Fast alle Organe und Gewebe im Körper haben eine Dichte, die der von Wasser entspricht. Damit kann man den Weg der Partikel in Wechselwirkung mit dem Körper recht einfach modellieren. Wenn jedoch die Luft gefüllte Lunge auf dem Partikelweg ist, wird viel weniger Energie deponiert und das Partikel landet an einem Ort, der viel weiter von der Strahlungsquelle entfernt ist als für normales Gewebe. In diesem Fall kann man in der Bestrahlung z.B. den Hinweis geben, besonders auf Verschiebungsvermeidung in bestimmt gefährdete Richtungen zu achten. Literatur und weiterführende Informationen H. Paganetti: Range uncertainties in proton therapy and the role of Monte Carlo simulation. Phys. Med. Biol. 7.06.2012 57(11). A.E. Feiguin: Monte Carlos error analysis online lecture course B. Bednarz, M. Engelsman, and H. Paganetti: Uncertainties and correction methods when modeling passive scattering proton therapy treatment heads with Monte Carlo. Phys Med Biol. 2011;56:2837–2854. Podcasts M. Bangert, G. Thäter: Bestrahlungstherapie, Gespräch im Modellansatz Podcast, Folge 201, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
Gudrun war im Dezember 2018 wieder zu Gast an der FU in Berlin. Schon zum dritten Mal ist Mechthild Koreuber ihre Gesprächspartnerin für den Podcast Modellansatz. Der Anlass des Gespräches war, dass im November 2018 unter dem Schlagwort Noethember die Mathematikerin Emmy Noether in den Fokus gerückt wurde. Auf unterschiedlichen Plattformen und in vielseitigen Formaten wurden die einzelnen Tage eines ganzen Monats der Darstellung ihres Lebens und Werks gewidmet. Für jeden Tag gab es Vorschläge für einzelne Stationen und Aspekte ihres Lebens, die in unterschiedlicher Art und Weise aufgenommen und dargestellt wurden. Unser Episodenbild entstand auch im Rahmen dieser Aktion und wurde uns von Constanza Rojas-Molina zur Verfügung gestellt. Unser Podcast hat im Dezember etwas verspätet auch zum Noethember beigetragen. Die Veröffentlichung des zweiten der beiden aufgezeichneten Emmy-Noether-Gespräche hat nun einige Monate Abstand zum November 2018. Das hat einen guten Grund: im Gespräch geht es neben der Person Emmy Noether auch um die Idee einer Konferenz aus Anlass des 100. Jahrestages ihrer Habilitation. Die Details der Konferenz waren im Gespräch noch etwas vage, aber die im Dezember gemachten Pläne werden Anfang Juni in Berlin tatsächlich Realität. Für diesen Teil des Gespräches stieß Rupert Klein dazu. Gudrun hatte sich im Rahmen des Noethember an Mechthild Koreuber gewandt, weil diese ein Buch über Emmy Noether und ihre Schule geschrieben hat, das 2015 im Springer Verlag erschienen ist. Schon beim ersten Gespräch zu Gender und Mathematik entstand der Plan, später eine Folge zu der Seite von Emmy Noether zu führen, die im Buch dargestellt wird. Nun gab es dafür zwei konkrete Anlässe, den Plan zu realisieren. Was hat Mechthild so sehr an der Person Noethers fasziniert, dass sie sich viele Jahre mit der Person und der daraus entstandenen Schule beschäftigt hat neben ihren anderen beruflichen Aufgaben? Dabei hatte sie erst sehr spät im Mathematikstudium den Namen Emmy Noether zum ersten mal gehört. Schon damals faszinierte sie der Widerspruch zwischen der Leistung der Pionierin und ihrer Anziehungskraft auf den mathematischen Nachwuchs zur eigenen prekären Stellung im Wissenschaftsbetrieb und ihrer Außenseiterrolle als Frau. Sie wollte ergründen, woher das starkes Streben nach Wissen und dem Verbleiben in der Mathematik unter schwierigsten Bedingungen kam. Der sehr berühmte und gestandene Kollege Hermann Weyl sagte selbst "Sie war mir intellektuell überlegen". Am Beispiel Emmy Noethers schärft sich die Frage danach: was ist mathematische Produktivität, unter welchen Rahmenbedingungen kann sie entstehen, unterschiedliche Felder verbinden und ganz neue Theorierahmen für Mathematik entwickeln. Warum ist gerade Emmy Noether das gelungen? Im Umfeld von Noether gibt es weitere sehr interessante Frauen, die heute größtenteils fast vergessen sind wie Marie-Louise Dubreil-Jacotin, die erste französische Mathematikprofessorin. Sie war Schülerin bei Emmy Noether in Frankfurt am Main und Göttingen. Außerdem eine türkische Mathematikerin, die nach Deutschland kam um mit diesen Frauen zu arbeiten. Es entsteht der Verdacht, dass sie als Außenseiterin im Feld der Wissenschaft tradierte Denkmuster nicht so leicht übernahm, weil sie auf ihrem eigenen Weg in die Wissenschaft ständig Grenzen überschreiten musste. Um überhaupt Mathematik betreiben zu können, musste sie sich einen Platz definieren und erkämpfen, den es so noch nicht gab. So konnte sie sogar in Feldern der Mathematik, in denen sie selbst nicht geforscht hat, revolutionäre Ideen einbringen. Beispiel hierfür ist die Topologie in Göttingen vertreten durch Brower und Alexandrow. Hier schuf sie die Betti Zahlen und lieferte den Kern für ein ganz neue Feld: Algebraische Topologie. Sie lebte den Zusammenstoß von Denkstilen und eröffnete sich und anderen damit einen Raum für Kreativität. Davon möchten wir auch heute lernen. Unter den heutigen Bedingungen wäre es wichtig, mehr Brücken zu schlagen und Kreativität zu leben, die Wissensvorstellung verändern darf. Der Trend ist aber eher Kontrolle und Quantifizierung. Ein Ausweg aus diesem engen Korsett ist in Berlin der 2018 gegründete Mathematik-Cluster MATH+. Die Idee dahinter ist es, Mathematik in einen viel breiteren Kontext als Technik und Ökonomie zu setzen. Dieses interdisziplinäre Gespräch wird auch die Noether Tagung möglich machen und insbesondere auch Wissenschaftsgeschichte sowie marginalisierte Perspektiven einbeziehen. Dialogisches Arbeiten zwischen Mathematik und anderen Disziplinen soll in der Konferenz exemplarisch abgebildet und gelebt werden. Für die Öffentlichkeit wird ein Theaterstück geschrieben und aufgeführt, das Mathematik ernst nehmen wird. Die Hoffnung der Organisator_innen ist, dass Personen, die skeptisch zu einer Sitzung der Konferenz gehen, begeistert wieder gehen. Rupert Klein ist in seinen Worten ein "sehr angewandter Mathematiker", Er hat Maschinenbau studiert und in Potsdam Klimafolgeforschung betrieben. Inzwischen ist er an der FU in der Mathematik und arbeitet im SFB Skalenkaskaden mit Lebenswissenschaftlern und Physikern zusammen. Er ist im Vorstand des Mathe Clusters MATH+ und beteiligt am Schwerpunkt: Emerging Field: Concepts of Change. Podcasts M. Pössel, G. Thäter: Noether-Theorem, Gespräch im Modellansatz Podcast, Folge 192, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Mischau, M. Koreuber, G. Thäter: Gender und Mathematik, Gespräch im Modellansatz Podcast, Folge 142, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. In our time: Emmy Noether - M. Bragg and guests. BBC Radio 3, Sendung vom 24.01.2019 (archiviert) Literatur und weiterführende Informationen Noether Konferenz im Juni 2019 in Berlin MATH+ M. Koreuber: Emmy Noether, die Noether-Schule und die moderne Algebra. Zur Geschichte einer kulturellen Bewegung, Heidelberg: Springer, 2015. James W. Brewer and Martha K. Smith (eds.), Emmy Noether: A Tribute to Her Life and Work Marcel Dekker, 1981. Auguste Dick (trans. H. I. Blocher), Emmy Noether 1882-1935 Birkhäuser, 1981. Israel Kleiner, A History of Abstract Algebra Birkhäuser, 2007. Yvette Kosmann-Schwarzbach (trans. Bertram E. Schwarzbach), The Noether Theorems: Invariance and Conservation Laws in the Twentieth Century Springer, 2010. Leon M. Lederman and Christopher T. Hill, Symmetry and the Beautiful Universe Prometheus Books, 2008. Ressourcen zum #noethember Francesca Arici: Noethember - drawing a life Alle Bilder im Noethember von Constanza Rojas-Molina Noethember - ein ganzer Monat für Emmy Noether Der schönste Satz der klassischen Physik