POPULARITY
Die Bierdusche (BD) ist ein soziokulturelles Phänomen, das in sportlichen und gesellschaftlichen Kontexten auftritt und durch die zielgerichtete Versprühung eines alkoholhaltigen Getränks, typischerweise Bier, charakterisiert ist. Dieses Verhalten wird als Ausdruck intensiver emotionaler Zustände, wie Freude, Enthusiasmus oder Feierlichkeit, interpretiert und dient oft der symbolischen Verstärkung der Gruppenzugehörigkeit und der kollektiven Identität innerhalb einer Gemeinschaft. Mathematisch lässt sich die Bierdusche wie folgt formulieren: BD=f(B,E,C,t). Hierbei steht B für das verwendete Getränk (Bier), E für die emotionale Erregung des Ausführenden, C für den kulturellen Kontext und t für die Zeit, zu der die Handlung ausgeführt wird. Die Funktion f beschreibt die Wahrscheinlichkeit oder Intensität der Bierdusche als Funktion dieser Variablen. Die Bierdusche wird in der Regel in einer Gruppensituation durchgeführt und kann als performative Handlung betrachtet werden, die soziale Normen und Erwartungen innerhalb einer bestimmten Gemeinschaft verstärkt. Sie kann spontan oder ritualisiert auftreten und dient der Verstärkung der sozialen Bindungen und der gemeinsamen Erlebnisgestaltung bei sportlichen Veranstaltungen oder anderen festlichen Anlässen. Empirische Untersuchungen haben gezeigt, dass die Bierdusche eine komplexe psychosoziale Funktion erfüllt, indem sie nicht nur die individuelle emotionale Befindlichkeit ausdrückt, sondern auch eine kollektive Identität und ein Zusammengehörigkeitsgefühl innerhalb der Gruppe stärkt. In der Literatur zur soziokulturellen Phänomenologie wird die Bierdusche als eine kulturell gebundene und ritualisierte Praxis untersucht, die tief in die kollektive Erfahrung und soziale Interaktion eingebettet ist. Ihre Bedeutung variiert je nach kulturellem Kontext und kann als Indikator für bestimmte soziale Werte und Normen innerhalb einer Gesellschaft interpretiert werden. Die wissenschaftliche Auseinandersetzung mit der Bierdusche verdeutlicht ihre Vielschichtigkeit als Ausdrucksmittel sozialer Interaktion, emotionaler Entladung und kultureller Identität, was sie zu einem faszinierenden Gegenstand der soziologischen und anthropologischen Forschung macht.
Elon Musk und sein Drogenkonsum. Wir sprechen darüber, bevor wir alle im Netz zu diesem Thema die Krise kriegen. Außerdem dribbeln wir heute Musk mathematisch aus: Wie die Zahlen, mit denen X sich brüstet, eigentlich zeigen, dass es wirklich nicht gut läuft für das Netzwerk, das mal Twitter hieß. Ach und: Warum jetzt bewiesen ist, dass Threads uns nur Unfug anzeigt. ➡️ Die WAN Show von Linus' Tech Tips über MrBeast und die YouTube-Einnahmen: https://www.youtube.com/watch?v=KtSabkVT8y4 ➡️ Haken dran unterstützen – oder mit der Haki-Community ins Gespräch kommen könnt ihr hier: http://www.hakendran.org
Der Witz des Tages vom 24.12.2023 mit dem Titel 'Die mathematisch-kreative Antwort des Obers' als Video.
Der Witz des Tages vom 24.12.2023 mit dem Titel 'Die mathematisch-kreative Antwort des Obers' zum Hören.
In der aktuellen Folge widmen wir uns Marges Hausaufgabe "Empire of Light". Mathematisch geht es im Anschluss weiter mit der romantischen Komödie "Die statistische Wahrscheinlichkeit von Liebe auf den ersten Blick", um dann direkt in ein Endzeitszenario geschmissen zu werden bei dem top besetzten Thriller "Leave the world behind". Viel Spaß beim Anhören!
In der 28. Folge diskutieren wir ausführlich die siebte Episode der dritten Staffel mit dem Titel "Eine mathematisch perfekte Vergeltung" unserer Lieblingsserie. Wir ermutigen unsere Hörerinnen und Hörer, uns ihre Audiokommentare zukommen zu lassen oder uns eine Nachricht zu schreiben. Boris hebt hervor, dass der Zeichenstil in dieser Episode auffällig anders ist als gewohnt. In der Episode sehen wir zunächst einen Rückblick auf das Ende der ersten Staffel und wie Peanut Hamper die Cerritos verlässt. Danach wird über die epische Schlacht von Kalar gesprochen, bei der die Titan entscheidend geholfen hat. Besonders eindrucksvoll sind die neu eingeführten Pakled, eine interessante Spezies, auf die die Charaktere in dieser Serie stoßen. In einem weiteren Rückblick wird gezeigt, wie Peanut Hamper gerettet wird. Der Vorspann dieser Episode ist äußerst beeindruckend gestaltet und passt perfekt zu Peanut Hampers Charakter. Mike McMahon hat sogar persönlich den Supervising Director gefragt, wie schwierig es war, einen neuen Vorspann zu erstellen. Es wird erklärt, dass sorgfältig ausgewählte Szenen verwendet wurden und der Vorspann eine etwas andere Version des Eingangssongs präsentiert. In unserer ausführlichen Besprechung der Episode gehen wir auf den Handlungsverlauf ein, insbesondere auf die Begegnung mit Caltorus und seiner Kultur. Dabei diskutieren wir unter anderem die Themen Vorurteile gegenüber Maschinen sowie die Dynamik zwischen den Charakteren und deren persönliche Entwicklung. Außerdem erwähnen wir immer wieder die beeindruckende Animation und die hohe Kunstfertigkeit bei der Darstellung der Charaktere. Wir stellen fest, dass diese Episode weniger über die Hauptcharaktere erzählt, sondern sich stark auf Peanut Hampers Geschichte fokussiert. Unsere Meinungen sind gespalten, aber wir schätzen den Mut der Macher, neue Wege zu gehen. Obwohl die Folge inhaltlich vielleicht nicht die stärkste der Staffel ist, funktioniert sie dennoch insgesamt gut. Wir freuen uns bereits auf die kommenden Episoden, in denen wieder vermehrt die Charaktere im Mittelpunkt stehen, die uns bereits gut bekannt sind.
Autor Hartmut Neudeck berichtet uns in dieser Folge von seinen Reisen nach Südamerika und gibt uns einen kleinen Einblick in sein Buch, "Mathematische Codierte Botschaften unserer Frühgeschichte". --- Send in a voice message: https://podcasters.spotify.com/pod/show/neugierigkontakt/message
Radiorebell- Ein Podcast von Vater & Sohn über Autismus, Wissenschaft und Weltverbesserung
Stellt euch einmal Folgendes vor: Der Menschheit gelingt es, Malaria auszurotten, eine der tödlichsten Krankheiten der Welt, Millionen Leben werden gerettet. Mit gigantischen Investitionen holt der Staat Menschen aus der Armut. In den von der Klimakrise geplagten Staaten nahe des Äquators wird eine saubere Trinkwasserversorgung sowie eine sanitäre Infrastruktur für alle errichtet, kein Mensch auf der Welt muss mehr verdursten - doch gleichzeitig gehen die Treibhausgasemissionen massiv zurück. Und jetzt kommt der Hammer: All das wird mit dem Geld von nur 400 Menschen erreicht, die auch im Anschluss alle noch Milliardär*innen sind. Mathematisch passt das. Der Kommunismus verspricht eine ganz neue Stufe menschlicher Entwicklung. Die abartige Menge, widerrechtlich angeeigneter Reichtümer in den Händen einiger weniger soll dem Gemeinwohl dienen. Eine radikale Antwort auf eine radikale Wirklichkeit? Doch gleichzeitig wurden und werden unter der Bezeichnung "Kommunismus" schrecklichste Verbrechen begangen, Antisemitismus und Autoritarismus sind in sich kommunistisch nennenden Gruppen und Parteien weit verbreitet. Wie geht man damit um, wenn die aktuelle Ordnung in Zeiten des Klimanotstands offensichtlich versagt hat, doch die Alternative so utopisch unerreichbar scheint? Kann ein System. das sich vielleicht in unserer Familie bewährt hat, tatsächlich auch global funktionieren? Über all das diskutieren wir in unserer neuen Episode über Kommunismus. Ohne Krach. Hier geht es zur in der Episode erwähnten maßstabsgetreuen Darstellung von Reichtum. Ein Pixel entspricht 1.000 US-Dollar.
Warum wird Priorisierung in der heutigen Zeit immer wichtiger? In der heutigen Zeit prasselt eine unfassbare Informationsdichte auf uns ein. Dabei bekommen wir es oft nicht hin, die Informationen richtig einzuordnen, daraus die richtigen Aufgaben abzuleiten und schließlich auch voranzukommen, indem man Aufgaben abarbeitet. Wir Menschen fallen oft in die Routine 1000 Dinge gleichzeitig erledigen zu wollen, dabei verzetteln wir uns allerdings zu oft. Multitasking verbrennt unfassbar viel Zeit und Energie. Wir arbeiten zwar ständig, aber können nichts erledigen. Wie sieht es auf Teamebene aus? Tatsächlich ist das auch ein häufiger Grund, warum Unternehmen mit uns kontakt aufnehmen: Die Teams bekommen ihre Projekte nicht fertig. Schauen wir uns das Unternehmen dann genau an, stoßen wir auf riesige Excel-Listen, wo man die Projektplanung ablesen kann. Mathematisch ist das durchaus logisch, aber praktisch überhaupt nicht funktional. Wie soll man sich denn zu 13% in ein Projekt einbinden, zu 63% in ein zweites und womöglich sogar noch irgendwie in ein drittes? Bis man sich bei einem Projekt halbwegs einen Überblick verschafft hat, muss man ja schon wieder ins nächste switchen. Die Ebene der Organisation: Natürlich ist das Thema auch für die Gesamtorganisation von höchster Wichtigkeit. Um sich als Company zu entwickeln, muss man bestimmte Fokui setzen. Das fällt den meisten Organisationen immer schwerer. Ein Klassiker in Organisationen: Jeden Monat wird eine neue Projektidee auf Hochglanz Folie dem Topmanagement präsentiert und jedes Mal ist die Reaktion: „Super Sache, machen wir!“. Nächsten Monat kommt der nächste und auch dessen Idee ist wunderbar und soll umgesetzt werden. Keiner fragt jedoch auch mal danach, ob andere Projekte dafür gestoppt werden müssen. Wie kann Priorisierung funktionieren? In der neuesten Episode des Kurswechsel Podcast besprechen die Kurswechsler Frank Wulfes und Dietmar Heijenga, wie es funktionieren kann. Grundsätzlich muss Multitasking verhindert werden und die Themen erstmal konkret benannt und eingeordnet werden, sonst verzetteln wir uns zu schnell in unserer komplexen Welt. Frank und Dietmar teilen außerdem einige weitere Tipps und Tricks, damit Priorisierung gelingen kann. Sowohl für den Einzelnen als auch für eine gesamte Organisation. Wir wünschen viel Spaß beim Hören!
Im Interview mit GothaerPersönlich spricht Dr. Rafael Knop über das Risiko Biometrie und wie es mathematisch zu berechnen ist.
Die Zeitrechnung orientiert sich nicht etwa am Anfang der Zeit, sondern an einem Datum mitten der Geschichte: Jesu Geburt. Das mag absurd klingen, hat neben der religiösen Bedeutung aber auch praktische Vorteile. Mathematisch kompliziert bleibt die Zeiteinteilung dennoch.
Henni Arigato, Maxi Roboto! Die Nachtsheims sprechen heute ausführlich über den Film „I, Robot“ von 2004 und dessen Hauptdarsteller Will Smith. Mathematisch korrekt analysieren Papa und Sohn die Karriere des Ausnahme-Entertainers von seinen Anfängen als Prinz von Bel-Air bis hin zu seiner jüngsten Rolle als King Richard. Außerdem teilen Max und Henni ihre (un)liebsten Film-Dystopien und verraten, was ihre ganz persönlichen Robo-Freunde können müssten. Max beweist bei der Filmzusammenfassung seine künstliche Intelligenz inklusive Method Acting und Henni verrät von einer Einladung zum Promi-Ochsenreiten.
Nachdem seine Frau bei einem U-Bahn-Attentat ums Leben gekommen ist, sinnt ein Soldat auf Rache an rechtsradikalen Bikern. Mit dabei: ein Mathematiker und ein Hacker. Die Tragikomödie "Helden der Wahrscheinlichkeit" ist ein gelungener Ensemblefilm.Von Jörg TaszmanHören bis: 19. Januar 2038, 04:14Direkter Link zur Audiodatei
Nachdem seine Frau bei einem U-Bahn-Attentat ums Leben gekommen ist, sinnt ein Soldat auf Rache an rechtsradikalen Bikern. Mit dabei: ein Mathematiker und ein Hacker. Die Tragikomödie "Helden der Wahrscheinlichkeit" ist ein gelungener Ensemblefilm. Von Jörg Taszman www.deutschlandfunkkultur.de, Frühkritik Hören bis: 19.01.2038 04:14 Direkter Link zur Audiodatei
Die Inzidenzen steigen aber die Krankenhausbetten bleiben leer. Sind wir bereits mitten in der vierten Welle? Mathematisch, so DocFalk, ist das so. Aber was bedeutet das konkret?Außerdem stellend sich die Podcaster heute die Frage, ob man Kinder unter 12 Jahren impfen sollte, warum die Zulassungsstudien für diese Altersgruppe so lange dauern und was man gegen das Verwerfen von Impfstoff tun kann. Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Diese Folge entstand im Rahmen eines Projekts zur Modellbildungsvorlesung von Gudrun. Es ist eine Arbeit von Yannik Brenner, Bastian Hasenclever und Urs Malottke, die das Ziel haben, in einigen Jahren Mathematik und Physik am Gymnasium zu unterrichten. Außerdem macht Yannik selbst Musik und hat sich deshalb ganz praktisch mit Schwingungen an der Gitarre beschäftigt. Die drei hatten die Idee, dass man das Thema Schwingunge interessant für die Schule aufbereiten kann, wenn es dazu auch Hörbeispiele gibt. Deshalb haben Sie sich an einen Tisch gesetzt, das Gespräch und die Hörbeispiele aufgenommen und schließlich den Text dazu aufgeschrieben. Der harmonische Oszillator spielt eine wichtige Rolle zur Modellierung verschiedenster physikalischer Sachverhalte. Daher bietet es sich an, ihn schon in der Schule zu thematisieren, wo er auch in der Oberstufe im Bildungsplan zu finden ist. Während im Podcast der Versuch unternommen wurde, ein Grundverständnis für das Thema ohne formale Zusammenhänge zu entwickeln, sollen hier zusätzlich die mathematischen Hintergründe gemeinsam mit einigen Abbildungen ergänzt werden. Die didaktischen Aspekte, die in der Episode zur Sprache kommen, spielen im folgenden Text jedoch nur eine untergeordnete Rolle. Grundlegendes Ein Oszillator ist ein System, das um einen bestimmten Punkt, in der Regel Ruhepunkt oder auch die Ruhelage genannt, schwingen kann. Befindet sich das System in Ruhe in dieser Ruhelage, passiert ohne die Einwirkung äußerer Kräfte nichts; wird das System von diesem Punkt ausgelenkt, wird es durch eine rückstellende Kraft wieder Richtung Ruhepunkt beschleunigt. Der Zusatz "harmonisch" bedeutet, dass die Rückstellkraft linear von der Auslenkung zum Ruhepunkt abhängt, also proportional zur Auslenkung zunimmt. Der Graph der Bewegungsfunktion ist eine Sinus- oder Cosinus-Kurve. Die einfachsten und wohl auch bekanntesten Beispiele eines Oszillators im Bereich der Mechanik sind das Faden- und das Federpendel. Beim Fadenpendel ist der niedrigste Punkt die Ruhelage und die Rückstellkraft resultiert aus der Gravitationskraft. Beim Federpendel stellt die Federkraft die rückstellende Kraft dar. Eigenschaften eines harmonischen Oszillators Ein schwingfähiges System besitzt verschiedene Eigenschaften, mit deren Hilfe das gesamte System beschrieben werden kann. Um den harmonischen Oszillator zu verstehen, kann man sich zuerst die Bewegungsgleichung ansehen, also die Gleichung, die die aktuelle Lage des Systems beschreibt. Ausgangspunkt ist die Rückstellkraft, die im mechanischen Fall linear von der Auslenkung zur Ruhelage, also dem aktuellen Ort, abhängt (auf nicht-mechanische Einsatzgebiete wird später eingegangen). Die Rückstellkraft kann mit einer Variablen , die von verschiedenen Merkmalen des Systems abhängt, gemeinsam mit dem Ort also als dargestellt werden. Die Kraft kann auch als Beschleunigung , also der zweifachen Ableitung des Ortes, mal der Masse ausgedrückt werden, wodurch die Formel auch folgendermaßen aussehen kann: Diese Art von Formeln, in der eine Größe gemeinsam mit einer ihrer Ableitungen auftritt, wird Differentialgleichung genannt. Das Erarbeiten einer Lösung ist leichter, wenn durch die Gleichung vereinfacht wird. wird die Eigenfrequenz des Systems genannt und gibt außerdem an, wie viele Schwingungen das System in einer bestimmten Zeit, oftmals einer Sekunde, macht, wenn keine anderen Kräfte vorliegen. Somit ergibt sich Die Lösung der Funktion für den Ort muss eine Funktion sein, die nach zweimaligem Ableiten bis auf einen Vorfaktor und das Vorzeichen wieder die Ursprungsfunktion ist. Deshalb sind Sinus- und Cosinus-Funktionen, oder die äquivalente Darstellung durch die e-Funktion (siehe Eulersche Formel), Lösungen. Werden nun gewählt, wobei und die Amplituden, also maximalen Auslenkungen der Schwingungen darstellen, kann mit den Ableitungsregeln überprüft werden, dass dies Lösungen für die Bewegungsgleichung sind. Als Summe zweier Lösungen ist auch Eine Lösung, die die allgemeine Lösung genannt wird. Die beiden Amplituden der einzelnen Sinus-/Kosinus-Funktion müssen dabei aus Anfangsbedingungen bestimmt werden. Man sieht, dass die Amplitude der beobachtbaren Schwingung sein muss, also der maximalen Auslenkung, die beim Zeitpunkt vorliegt, da die Gesamtschwingung zum Zeitpunkt diese Auslenkung annehmen muss und zu diesem Zeitpunkt der Sinus verschwindet: Die Amplitude der Sinus-Funktion bestimmt sich nach und spielt daher dann eine Rolle, wenn zum Zeitpunkt bereits eine Geschwindigkeit vorliegt, das System also nicht aus der Ruhe losgelassen, sondern angestoßen wird. Zu besprechen ist allerdings noch, wie die Gleichung bei einem anderen Pendel als dem Federpendel aussieht. Das Prinzip des Oszillators bleibt gleich und somit natürlich auch die Mathematik, die ihn beschreibt. Allerdings setzt sich bei anderen Pendeln anders zusammen, da bei ihnen andere Rückstellkräfte und andere Systemeigenschaften eine Rolle spielen und nicht die Federkonstante und Masse wie beim Federpendel. So gilt beim Fadenpendel wobei die klassische Gravitationskonstante ist, die beim Fadenpendel eine große Rolle für die Rückstellkraft einnimmt, und die Fadenlänge darstellt. Werden Oszillatoren außerhalb der Mechanik betrachtet, beispielsweise der elektrische Schwingkreis, ergibt sich aus den Eigenschaften, die dieses System beschreiben. Beim elektrischen Schwingkreis z.B. aus der Induktivität der Spule und der Kapazität des Kondensators: Um die Sinus-förmige Schwingung eines Oszillators zu beschreiben, werden noch weitere Begriffe verwendet, die jedoch aus den bisher vorgestellten Eigenschaften bestimmt werden können. So wird unter der Schwingungs- oder Periodendauer die Zeit verstanden, die das System für eine vollständige Schwingung benötigt. Da sie als Informationen die Anzahl an Schwingungen und eine Zeit enthält, muss sie eng mit der Eigenfrequenz zusammenhängen: Überblick über die wichtigsten Begriffe zur Beschreibung einer Schwingung (Quelle: leifiphysik.de) Ungedämpfter harmonischer Oszillator Immer dann, wenn ein schwingfähiges System mit der obigen Gleichung beschrieben werden kann, handelt es sich um einen ungedämpften harmonischen Oszillator. Denn an der Gleichung wird klar, dass die Amplitude, also die maximale Auslenkung, auch bei der 20ten, 100ten, 10.000ten Schwingung wieder erreicht wird. Da sich die Systemeigenschaften ohne äußere Einflüsse ebenfalls nicht ändern, ändert sich das Verhalten dieses Oszillators nie und er schwingt stets gleich um die Ruhelage. Nach der mathematischen Herleitung ist schon fast alles zum ungedämpften harmonischen Oszillator gesagt, denn: Reale Beispiele und Anwendungen gibt es nicht! In der Realität gibt es immer einen Widerstand, der den Oszillator ausbremst und die Auslenkung langsam kleiner werden lässt. Aus diesem Grund ist der ungedämpfte Oszillator nur zum Kennenlernen und Verstehen des Verhaltens sowie als Näherungslösung geeignet. Gedämpfter harmonischer Oszillator Beim gedämpften harmonischen Oszillator existiert eine bremsende Kraft. Das ändert die mathematische Beschreibung in der Differentialgleichung. Die Bewegungsgleichung des Federpendels (und äquivalent die Gleichungen anderer Oszillatoren) wird um einen Term ergänzt, der im einfachen Fall der Reibung in der Luft, also einem Reibungskoeffizienten und proportional zur Geschwindigkeit ist: Oft wird zu zusammengefasst, um das rechnen zu vereinfachen. Die zu lösende Differentialgleichung wird auf die gleiche Art gelöst, wird aber natürlich komplizierter. Als Lösungsansätze empfehlen sich wieder Sinus-, Cosinus- oder e-Funktion. Mit dem Ansatz ergeben sich Lösungen, wenn die folgende Gleichung erfüllt: Je nachdem, wie das Verhältnis von Dämpfung und Eigenfrequenz sind, werden verschiedene Fälle unterschieden: Schwach gedämpfter Fall Der schwach gedämpfte Fall tritt auf, wenn gilt. Somit ist die Zahl unter der Wurzel bei der Berechnung von negativ und die Wurzel selbst imaginär. Mit der verkürzten Schreibweise ergibt sich die allgemeine Lösung zu was im Vergleich mit der ungedämpften Schwingung eine Schwingung mit kleinerer Frequenz (da ) und einer mit der Zeit exponentiell abnehmenden Amplitude darstellt. Eine andere Darstellungsweise ist folgende: Hier ist die exponentielle Abnahme der Amplitude besser ersichtlich, allerdings ist dazu das Verständnis des Zusammenfassens zweier auftretender periodischer Funktionen mittels Phasenverschiebung nötig. Die Schwingung schwingt in diesem Fall weiterhin um die Ruhelage, allerdings wird, wie bereits gesagt, die maximale Auslenkung mit jeder Schwingung geringer. Die Einhüllende zu einer gedämpften Schwingung (Quelle: Wikipedia/Harmonischer-Oszillator) Aperiodischer Grenzfall In Anwendungen ist es oft gewollt, eine Schwingung schnellstmöglich zu stoppen und zur Ruhelage zurückzukehren. Wenn eine Dämpfung keine komplette Fixierung in einem Zustand beinhaltet, ist eine überstarke Dämpfung dabei aber nicht zielführend, wie intuitiv oft angenommen wird. Um die Schwingung schnellstmöglich zu stoppen, ist die Bedingung nötig. Somit verschwindet in der Berechnung von die Wurzel und es bleibt nur eine Lösung übrig, was für die Schwingung zu führt, wobei und aus den Anfangsbedingungen, also Auslenkung und Startgeschwindigkeit, bestimmt werden. Beim aperiodischen Grenzfall, manchmal auch mit kritischer Dämpfung bezeichnet, findet keine Schwingung mehr statt. Je nach Anfangsbedingungen kann die Ruhelage einmal durchlaufen werden, spätestens dann wird sich dieser allerdings exponentiell angenährt. Darstellung des aperiodischen Grenzfalls mit unterschiedlichen Startgeschwindigkeiten (Quelle: https://de.wikipedia.org/wiki/Aperiodischer_Grenzfall) Starke Dämpfung Zwar führt eine starke Dämpfung auch dazu, dass keine Schwingung stattfindet, allerdings braucht das System lange, um wieder in die Ruhelage zurückzukehren. Deshalb wird dieser Fall auch als Kriechfall bezeichnet. Mathematisch wird er mit der Bedingung beschrieben, was zu zwei reellen, negativen Ergebnissen für führt. Die Bewegungsgleichung ergibt damit vereinfacht wobei und wieder aus den Anfangsbedingungen bestimmt werden. Vergleich des Kriechfalls mit dem aperiodischen Grenzfall Um zu zeigen, dass die vorgestellten Fälle alle von Nutzen sind, werden nun einige Anwendungsbeispiele vorgestellt. So ist der Fall der schwachen Dämpfung für Saiteninstrumente wichtig, da die einzelnen Saiten sich nicht sofort wieder in die Ruhelage begeben dürfen, sondern schwingen müssen, um überhaupt einen Ton erzeugen zu können. Der aperiodische Grenzfall ist beispielsweise für Autofahrer sehr wichtig, da die Stoßdämpfer nach diesem Prinzip funktionieren. Das hat den einfachen Grund, dass das Auto nach der Beanspruchung der Stoßdämpfer schnell wieder in die ideale Straßenlage kommen soll. Würde eine schwache Dämpfung verwendet werden, so würde das Auto noch für längere Zeit auf und ab wippen und die Fahrt eher einer Bootstour ähneln, was wenig komfortabel ist. Bei starker Dämpfung könnte es vorkommen, dass die nächste Beanspruchung nicht ausreichend abgefedert werden kann, da die Feder noch zu stark eingefedert ist. Aber auch die starke Dämpfung hat ihre Anwendungsgebiete. So sind beispielsweise viele Türen in öffentlichen Gebäuden stark gedämpft. Das sorgt für ein langsames und leises Schließen der Türen und verhindert, dass die Tür einer unaufmerksamen Person mit zu viel Geschwindigkeit entgegenfällt und diese eventuell verletzt. Getriebener Oszillator Bisher wurde der Oszillator ohne äußere Kräfte betrachtet. Liegt solch eine Kraft vor, muss diese in die Bewegungsgleichung integriert werden: Interessant ist dieser Fall besonders dann, wenn es sich bei der Kraft um eine periodische Kraft handelt, also . Dieser Fall ist sehr gut mit einem schaukelndem Kind zu vergleichen, welches immer zum gleichen Zeitpunkt mit der gleichen Kraft angeschubst wird. Durch diese von außen aufgebrachte Kraft wird aus der homogenen eine inhomogene Differentialgleichung. Um diese zu lösen muss die Lösung der homogenen Differentialgleichung, welche in dem Abschnitt zu dem gedämpften harmonische Oszillator zu finden ist, mit der sogenannten partikulären Lösung addiert werden. Die partikuläre Lösung lässt sich mit dem Ansatz des Typs der rechten Seite lösen und ergibt sich zu dabei handelt es sich bei um eine Phasenverschiebung zwischen der antreibenden Kraft und dem um den Ruhepunkt schwingenden Massepunkt. Von besonderem Interesse ist dabei das Verhalten des gesamten Systems für verschiedene Frequenzen der treibenden Kraft. Dabei werden drei verschiedene Fälle betrachtet. Niederfrequenter Bereich: Für den niederfrequenten Bereich gilt, dass die Frequenz der antreibenden Kraft sehr viel kleiner ist als die Eigenfrequenz des Oszillators. Aufgrund dessen ist die Amplitude der anregenden Kraft in etwa so groß wie die Amplitude des Massepunktes. Das Amplitudenverhältnis beträgt also ungefähr 1. Der Phasenunterschied zwischen den beiden Schwingungen ist in etwa 0. Resonanzfall: Von Resonanz wird gesprochen, wenn die Frequenz der antreibenden Kraft der Eigenfrequenz des Oszillators gleicht. Infolgedessen erhöht sich die Amplitude des Oszillators gegenüber der Amplitude des Erregers, sodass sich ein Amplitudenverhätnis ergibt, welches größer 1 ist. Die Phasendifferenz beträgt , wobei der Erreger dem Massepunkt vorauseilt. Hochfrequenter Bereich: Sollte die Frequenz der antreibenden Kraft viel größer sein als die Eigenfrequenz des Oszillators so fällt auch die Amplitude des Oszillators wesentlich kleiner aus. Es ergibt sich ein Amplitudenverhätnis, welches gegen 0 geht. Auch in diesem Fall gibt es eine Phasendifferenz , die Schwingungen laufen also fast gegenphasig ab. Auch diese Eigenschaften der Oszillatoren sind im Alltag von Bedeutung. So ist es für Autos wichtig, dass die Eigenfrequenz einzelner Teilsysteme oder des Gesamtsystems nicht im Bereich der Motorendrehzahl liegen um eine komfortable und sichere Fahrt zu gewährleisten. Insbesondere der Resonanzfall kann gefährliche Auswirkungen haben, da in diesem Fall das System immer weiter aufgeschaukelt wird und die Amplitude des Oszillators sich immer weiter erhöht. Falls das System nicht gedämpft ist, kann die Amplitude bis ins Unedliche steigen, was zur Zerstörung des Systems führt. Eine starke Dämpfung kann die maximale Amplitude zwar begrenzen, aber auch in diesem Fall komm es für den Resonanzfall zu einer starken Belastung des Systems, was in den meisten Fällen vermieden werden sollte. Ein gutes Beispiel für eine Resonanzkatastrophe ist die Tacoma Narrows Bridge, welche durch starke Winde in Schwingung versetzt wurde, welche sich dann selbsterregt immer weiter verstärkte, was den Einbruch der Brücke zur Folge hatte. Demgegenüber bleibt aber zu sagen, dass ohne Resonanz auch viele alltägliche Dinge nicht möglich wären, es also auch einen positiven Aspekt gibt. So würde Schaukeln nicht halb so viel Spaß machen, wenn es nicht möglich wäre seine eigene Schwingung zu verstärken und somit immer höher Schaukeln zu können. Ein weiteres typisches Beispiel für den getriebenen harmonischen Oszillator stellt der elektrische Schwingkreis da, der bei der drahtlosen Energieübertragung genutzt wird. Das System wird dabei ständig neu mit Energie aufgeladen, die es dann mittels sogenannter resonant induktiver Kopplung an einen Empfänger weitergeben kann, der so kabellos geladen wird. Weiterführendes Viele weiterführende Beispiele, die sich des Oszillators mit schwacher Dämpfung bedienen, sind in der Akustik respektive Musik zu finden, wie die Schwingung einer (Gitarren-)Seite, die nach einmaligem Anschlag möglichst lange klingen soll. Doch hier handelt es sich nicht um einen einfachen harmonischen Oszillator, sondern um ein komplexeres System. Literatur und weiterführende Informationen Viele Experimente und Material zum Fadenpendel für die Schule findet man z.B. auf leifiphysik.de Physik des Aufschaukelns Anschubsen K. Magnus: Schwingungen, Teubner 1976. Juan R. Sanmartin: O Botafumeiro: Parametric pumping in the Middle Ages Anwendung auf das Schwenken des berühmten Weihrauchfasses in der Kathedrale von Santiago de Compostela, 1984. Podcasts Helen: Schaukeln, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 114, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Zeitreisen sind mathematisch möglich; das sagen Mathematiker der University of Queensland. Zurück in die Zukunft hat uns zeigen wollen, was bei der Durchführung von Zeitreisen passieren kann, wenn in der Geschichte etwas verändert wird: Das Großvaterparadoxon. Wenn man in die Vergangenheit reist und seinen Großvater tötet, wird man nicht geboren und kann seinen Großvater auch nicht umbringen. Doch ist es wahr? Kann man die Vergangenheit so verändern, dass sich die Zukunft mit ihr verändert? Haben Handlungen auf einer Zeitreise Konsequenzen für die Zukunft? Wäre es möglich, die Corona-Pandemie zu verhindern, indem man den Patient 0 von vornherein daran hindert, sich mit dem Virus zu infizieren, der unser aller Alltag zu diesem Zeitpunkt kontrolliert? Die Lösung ist: Das Universum würde sich rekalibrieren.
Verkehrte Welt in der ersten Folge unseres neuen Podcasts mit dem Titel „Krämer Konkret“: CAPinside-CMO Markus Hujara meldet sich aus dem Frankfurter Büro, in dem sein Gesprächspartner Werner Krämer eigentlich arbeitet. Und Krämer? Der Managing Director und Economic Analyst von Lazard Asset Management sitzt gezwungenermaßen zuhause im Homeoffice. Doch auch von da wird Krämer konkret. Das Thema: Wandelanleihen – oder auf Englisch – Convertible Bonds. Wieso zu viel Wandeln nicht unbedingt erstrebenswert ist, die Anleihen trotzdem aktienähnlich werden können und wieso die Anleihe mathematisch besser ist, als jede andere Assetklasse – Krämer erklärt's. Ganz konkret.
„Das Leben genießen und mich selbst entwickeln und damit auch anderen helfen.“ https://redefabrik.net/https://www.youtube.com/channel/UCkC-9P-VbzSNzsgMwtGdOXghttps://www.instagram.com/redefabrik/?hl=dehttps://www.linkedin.com/in/benedikt-held-45a9a8163/?originalSubdomain=de▬ Ressourcen & Inspiration ▬▬▬▬▬▬▬▬▬▬▬▬▬ Lieblingssong (z.Z.): Physical von Dua Lipa https://www.youtube.com/watch?v=9HDEHj2yzewLieblingsort: Rom 3 Tips für das frühere Ich: Hör auf dein Herz, inspiriere andere und geh deinen WegWichtigste Ritual: Morgens aufzustehen und zu duschen, erst normal warm, und dann eisig kaltBuchempfehlung1: Die 7 Wege zur Effektivität von Stephan Convey Bestes Medium: NLP Practitioner bei Roman Baum https://www.trinergy.at/kontakt/anmeldung-nlp-practitionerDekay [00:00:00] Willkommen zurück auf Dekays Berufungsreise: Der Kanal für Berufung finden Berufung Leben. Heute zu Gast: Benedikt Held. Dekay [00:00:06] Benedikt Held ist Experte für Kommunikationspsychologie, Charisma und hilft die Menschen, ihre Persönlichkeit und Inhalte besser zu kommunizieren. Studiert hat er Psychologie an der Universität Mannheim, das für die hohen methodischen Ansprüche sowie den wirtschafts psychologischen Fokus renommiert ist. Inhaltliche Exzellenz ist ihm in seiner änderungs Arbeit besonders wichtig. So will er sich bei renommierten Größen der Branchen in verschiedenen Bereichen wie systematischem Gesprächsführung, lösungsorientierte Beratung und Rhetorik. Heute ist die von ihm gegründete Redefabrik Deutschlands größte Plattform für Kommunikation und Charisma und wurde für die Goldene Kamera nominiert. Er ist gefragter Keynote Speaker und Interviewer, Gast sowie Trainer, Coach und Geschäftsführer. Dekay [00:00:55] Herzlich willkommen! Dekay [00:00:57] Die allererste Frage, die sich hier stellt, ist Was ist die Definition von Berufung für dich? Benedikt [00:01:05] Berufung ist für mich etwas, was über den Beruf hinausgeht, und zwar eine gewisse Mission, die man hier in gewisser Weise auf der Erde erfüllt, vielleicht in Form von einer Vision, die man hat, die man durch seine Berufung im Endeffekt Ausdruck verleiht und dann dadurch auf die Welt bringt. Dekay [00:01:23] Was ist deine Berufung? Benedikt [00:01:26] Das ist natürlich schwer kurz zu formulieren. Benedikt [00:01:29] Ich sehe es als meine Vision an, durch Kommunikation Menschen näher zusammenzuführen und durch die Verbesserung von Kommunikation das zu verbessern, was Menschen noch besser miteinander verständigen können. Meine Aufgabe Ich sehe es als meine Aufgabe an, durch die Verbesserung von Kommunikation die verschiedenen Ausdrucks Arten der Körpersprache, der Stimme, der Psychologie ebenso zu schleifen und zu verfeinern, dass es zu weniger Streit kommt, zu mehr Verständigung, egal auf welcher Ebene, dass man einfach Kommunikation für sich nutzt, um diesem kommunikativen Erfolg zu haben, den ich auch immer wieder nenne. Dekay [00:02:04] Da wollen wir nochmal die Zeitlinie komplett zurückdrehen, und zwar zu seiner Kindheit. Mich würde mal interessieren, wie du in der Kindheit aufgewachsen bin. Also soziale Verhältnisse, Familienverhältnisse und Vorlieben und besondere Ereignisse, an die du dich erinnerst. Benedikt [00:02:21] Puhh, das ist natürlich ein großes, großes Themengebiet. Benedikt [00:02:24] Grundsätzlich kann ich sagen, dass ich extrem dankbar bin für meine Kindheit und meine Erziehung. Ich bin einer sehr wohlbehüteten Familie aufgewachsen, mit zwei tollen Eltern, die ich immer noch sehr schätze und die mich auch immer unterstützt haben. Immer noch unterstützen. Ja, die mir einfach geholfen haben. Gleichzeitig hat mir geholfen, ein Halt zu bekommen, von den Eltern, von Eltern Seite und gleichzeitig mich aber auch selbstständig entwickeln zu können, sodass ich mich für die verschiedensten Themenbereiche interessieren, für die ich mich interessiert, die im Endeffekt dann auch an dem Ausdruck zu verleihen. Benedikt [00:02:59] Tatsächlich war es so, dass meine Eltern erst ein naturwissenschaftliches Studium gemacht haben und danach auch nochmal ein theologisches und von daher eine ziemlich interessante Kombination. Sie hatten erst, so diese überlegung, okay. Folge diesen beruflichen Weg. Mein Vater ist Doktor der Biologie, und die hätten da auch einen relativ hohen Posten eventuell bekommen können, haben sich dann aber dazu entschieden, eben nicht den klassischen Karriereweg zu gehen, sondern selbst dem zu folgen, was sie näher an Ihrer Berufung sahen. Und dann haben Sie eben nochmal Theologie und sind dann eher in dieses Religiöse gegangen. Benedikt [00:03:36] Und das mag vielleicht auch bei mir schon so gewesen sein. Ich habe nämlich dann in den verschiedenen, egal ob im Kindergarten oder der Grundschule oder in der Oberstufe, durch die Unterstützung meiner Familie und auch durch das, was ich damals selbst geleistet habe, durchaus auch gute Leistungen. Jetzt einfach mal erbracht. Was die klassischen Fächer angeht, war auch in der Schule gut und bin dann auch tatsächlich dazu gegangen, in der Oberstufe kein normales Abitur zu machen, sondern berufliches Abitur, also kein Fachabitur, sondern ein berufliches Abitur. Und dort habe ich dann tatsächlich mich viel mit Programmieren auseinandergesetzt, habe dann aber schnell gemerkt, dass das auch nicht das ist, was im Endeffekt nicht tief inspiriert. Und dann habe ich einen anderen Weg eingeschlagen. Dekay [00:04:22] Und du hast ja jetzt gesagt, dass seine Eltern dich unterstützt haben, alles zu experimentieren, alles zu erforschen, alles zu entdecken, kannst du nochmal ein bisschen detaillierter darauf eingehen. Benedikt [00:04:36] Meine Eltern selbst haben. Meine Mutter liest ganz viel. Mein Vater, meine Mutter noch mehr. Benedikt [00:04:42] Und Sie haben ja auch schon früh, wie gesagt, das Lesen und so weiter beigebracht. Und dann haben Sie Michael wie gesagt. Der hat keine Ahnung von der Zeit immer unterstützt. Wir haben hier direkt, wo ich wohne, einen Kindergarten und eine Grundschule. Und auch die weiterführende Schule ist alle sehr hier in der Nähe gewesen. Und da haben sie mich immer unterstützt, wenn ich Fragen hatte, beispielsweise in der Schule, die mich immer unterstützt. Und auch wenn ich dann andere Projekte angegangen bin, zum Beispiel in der Mittelstufe, habe ich dann Jugend forscht und Schüler experimentieren verschiedene ich AGs auch gemacht. Da haben sie mich auch immer unterstützt, auch geschaut, wo sie selbst helfen konnten oder irgendwie anderweitig um mich unterstützt. Benedikt [00:05:27] Aber grundsätzlich war es vor allem nicht so, wo ich jetzt sage Okay, die haben jetzt, was ich bei irgendwelchen Mathe Hausaufgaben geholfen oder irgendwie mal unterstützt. Mag sein, dass das vielleicht der Ausdruck war, aber zugrunde liegend war immer ein positives Gefühl, so eine bedingungslose Liebe im Endeffekt zum Kind, und das hat im Endeffekt das getragen, dass ich mich da entwickeln konnte. Also, ich würde sagen, es waren weniger irgendwelche besonderen Sachen, die Sie gemacht oder nicht unbedingt gemacht haben, sondern eher so, dass Sie dieses Grundvertrauen ins Leben und diese bedingungslose Akzeptanz und Liebe. Dekay [00:06:03] Das ist eine tolle Sache. Was würdest du anderen Menschen empfehlen, die so eine bedingungslose Haltung nicht bekommen haben und da wahrscheinlich weniger Vertrauen in sich selbst und in das Leben haben zu tun? Benedikt [00:06:21] Da würde ich auf jeden Fall empfehlen, zum ersten Mal zu sehen, dass diese bedingungslose Liebe in Form von Selbstfürsorge in Form von Glück in Form von Erfüllung erst mal unser eigentlicher Grundzustand ist völlig egal. Benedikt [00:06:42] Es ist spannend eigentlich, selbst wenn man die verschiedenen Religionen rein gehst, egal ob jetzt im Christentum oder im Buddhismus und so weiter. Viele Religionen zeigen so darauf, dass es quasi in uns etwas gibt. Manche nennen es Seele, manche nennen das Bewusstsein, wie auch immer man es nennen möchte, dass da irgendein Kern in uns ist, nicht die Gedanken, nicht die Gefühle, nicht die Dinge, die uns im Außen passieren, sondern quasi der Beobachter, der in uns ist. Und allein der hat so ein Selbsterhaltungstrieb, dass wir schauen, dass es uns gut geht, dass wir nach dem Guten streben. Und jetzt kann es sein, dass durch gewisse Erlebnisse in dem Leben oder Sachen, die andere zu uns gesagt haben und wie wir darauf reagieren und so weiter wir daran zweifeln. Also quasi dieses wahre Fundament. Benedikt [00:07:30] Dieser Kern wird dann zugedeckt mit irgendwelchen Schalen, mit irgendwelchen Masken, mit irgendwelchen ängsten. Und so kann es sein, dass zum Beispiel unsere Eltern diese ängste, Masken und Schalen haben und uns so nicht diese bedingungslose Liebe vermitteln. Was da wichtig ist zu sehen, das liegt nicht daran, dass du ein schlechtes Kind ist, sondern es liegt einfach daran, dass sie selbst Dinge erlebt haben, das sie selbst nicht mehr an dieses Grundvertrauen ist, selbst nicht dieses Grundvertrauen haben. Von daher ist, glaube ich, der erste Schritt, wenn man das nicht vermittelt bekommen hat, nicht zu verurteilen, sondern zu akzeptieren und auch vielleicht auch zu verzeihen, was man im Endeffekt noch gegen andere Leute jetzt völlig egal, ob es die Eltern oder andere Personen, die du in der Kindheit erlebt hast und so weiter. Wenn du da irgendwas Negatives quasi immer noch dagegen hast. Und wenn du das gehen lassen kannst, fällt schon mal ein großer Stein ab, und dann kannst du schauen. Dass es eigentlich nur darum geht, diese selbst Fürsorge zu entwickeln, wiederzufinden, vor allem dann nicht neu zu entwickeln, sondern wiederzufinden und. Dann ist es hilfreich, dass selbst wie zum Beispiel bei mir, wo ich jetzt sage Okay, ich wurde in einem schönen Elternhaus geboren, dass das eigentlich nur mir geholfen hat, diese selbst Fürsorge zu finden. Benedikt [00:08:49] Es liegt nicht daran, dass meine Eltern mir die gegeben haben, sondern sie war schon in mir. Und durch die Art und Weise, wie meine Eltern mich behandelt haben, konnte ich sie einfacher finden. Und von daher darfs dann ein Weg, das Masken ablegen, das wahren Bestimmungen Findens, Interesse Findens und so weiter sein. Mehr zu dem zu finden, was der eigene Weg ist. Und da gibt es hundert verschiedene Techniken. Da gibt es beispielsweise Reflektionen, Meditation, viel kontemplieren, dann Bücherlesen, die damit zu tun haben könnten, sich mit Leuten austauschen oder auch einfach mal in die Natur rausgehen. Was malen? Musikhören völlig egal, was es ist, Dinge neu ausprobieren. Die führen uns dann eben zu diesen wahren Kern. Und ich glaube, dann ist es ganz wichtig, dann zu schauen, was einem am meisten liegt, und dann sich da wirklich einzugraben, um das wieder auszugraben, was sowieso schon in dir liegt. Dekay [00:09:50] Hast du in deiner Kindheit schon irgendetwas besonders gerne gemacht, wo du gedacht hattest: ja, das könnte ein Beruf für dich werden? Benedikt [00:09:59] Das ist eine gute Frage. Bei mir war es tatsächlich so, dass ich in der Schulzeit und auch in der ich war auf jeden Fall schon in Kindergarten Zeiten da generell auch schon davor generell ein sehr froher, froher Mensch und glücklicher Mensch. Ich habe mir nie gedacht, dass ich jetzt sage ich mal damit, was ich beruflich mache, weil ich glücklich sein ist natürlich kein Beruf. Jetzt merke ich natürlich im Nachhinein, dass das sich schon in gewisser Weise widerspiegelt. Wenn du gut drauf ist, zugleich auch andere inspirieren kannst, beispielsweise. Und so war es dann so, dass ich in der. Kindergartenzeit auch schon immer sehr aufgeweckt waren in der Schulzeit. Schon viel, sag ich mal, geredet habe, ist völlig egal. Ich habe Präsentationen eigentlich ganz gerne gehalten, und ich habe mündliche Mitarbeit, war bei mir immer viel besser als schriftliche Noten. Von daher. Ich hätte nie gedacht, damit mache ich jetzt mal was beruflich. Aber ich dachte mir schon, dass es auf jeden Fall eine Stärke von mir. Benedikt [00:11:02] Dann war ich so mehr in diesen naturwissenschaftlichen Bereich und hab dann tatsächlich später dann auch in der Mittel und Oberstufe auch Praktika genau in diesen Bereichen gemacht. Und zwar zum einen, wo es um diesen naturwissenschaftlichen Bereich ging. Da war ich in einem Labor, hab gemerkt, dass es spannend, aber nicht so ganz das, was mich wirklich tief erfüllt. Dann hab ich ein Praktikum bei einem Radio gemacht. Das war schon viel passender zu dem, was ich gerne gemacht habe. Es hat mich echt sehr inspiriert. Programmieren war nicht ganz so meins. Ich konnte es zwar gut, aber ich habe es nicht so gerne gemacht. Und dann habe ich noch bei einem Unternehmensberater und kommunikationstrainer ein Praktikum gemacht. Und da habe ich auf jeden Fall gemerkt, dass es auf jeden Fall, wo es hingeht. Dekay [00:11:44] Woran hast du denn genau gemerkt, dass es nicht so ganz deines war? Und woran hast du es gemerkt, dass das genau deines war? Benedikt [00:11:53] Bei dem, wo ich gemerkt habe, dass es nicht ganz so meins war, war es jetzt beim Programmieren war es so? Mir ist es einigermaßen leichtgefallen. Es hat schon geklappt zu programmieren und so weiter. Vom Logischen her waren mal die Fähigkeiten da, aber das Gefühl war einfach eins, wo ich gespürt habe. Das macht mir keinen Spaß. Und. Ja, es gehört auch dazu, mal Dinge zu machen, die einem keinen Spaß machen, aber es darf nicht das Fundament sein. Auch jetzt kann ich zum Beispiel mal eine Website programmieren oder da was im technischen Bereich machen. Und das hilft mir natürlich auch. Und vielleicht macht mir das nicht so viel Spaß. Allerdings sollte das nicht das Grund Fundaments sein. Benedikt [00:12:37] Und spannender Weise, was ich dort dann auch noch bemerkt habe. Als ich mehrere Jahre in der programmiere Klasse war, habe ich am Ende gedacht. Ganz ehrlich, die Jahre gut, dass ich das gelernt habe, habe ich auf jeden Fall etwas mitgenommen. Aber das würde ich nie gerne lange machen. Und dann habe ich mir aber auch gedacht, dass dieses Gefühl ganz ehrlich, das macht doch keiner gerne. In gewisser Weise, und das will doch jetzt niemand nach unserem Unterricht weiter studieren, hat sich herausgestellt, dass viele andere das Weite studiert haben. Ich nicht. Und daran waren es noch einmal ein Zeichen, einfach zu erkennen. Okay, es gibt da kein Richtig oder falsch, es gibt nur ein für dich richtig oder für dich falsch. Benedikt [00:13:18] Und das war dann wiederum das andere, das ich einfach bei einfach. Die Bücher, die ich so programmieren, habe ich nie. Da habe ich die Aufgaben gemacht, die es zu machen gab. Aber da habe ich mich erstens dabei nicht so gut gefühlt, und vor allem habe ich auch nicht mehr Zusätzliches getan. Ich habe jetzt nicht zusätzliche Bücher gelesen, Videos zusätzlich dazu geschaut, und das war für mich ganz anders. Im Bereich Kommunikation habe ich ein Buch gelesen. Ich war fasziniert davon. Ich habe erst einen Kurs gemacht, weil ich fasziniert von mir Bücher dazu gekauft, Videos angeschaut, Webseiten angeschaut und dann gemerkt, dass es so spannend. Dann habe ich auch noch anderen weitergeholfen. Also, ich glaube, für mich war es tatsächlich zum einen das Gefühl, während dessen, die Vorstellung könnte ich das jetzt sehr lange machen. Benedikt [00:14:02] Und als zweites der innere Antrieb, der kommt, zusätzlich Dinge zu machen. Natürlich habe ich auch Aufgaben gemacht und mich rein gelesen, in Wikis, beim Programmieren. Aber nur, weil es von Text, Herrensitz und Motivation von außen quasi vorgeschrieben wurde. Und wenn es die Aufgabe fertig? Da habe ich die Schritte getan, die dazu Zutaten zu tun gibt, allerdings in dem anderen etwas ganz anderes. Da hat mir niemand irgendeine Vorgabe gegeben. Im Gegenteil, ich habe mir selbst die Bücher angeschafft und selbst neue Sachen zu finden, wo ich sage Mega, das ist auf jeden Fall spannend, und ich habe da auf sein Gefühl zu hören und darin zu vertrauen und dann zu schauen Wo mache ich von meiner Seite aus mehr, als ich müsste? Was sind die Aktivitäten? Das kann auf jeden Fall sehr gut hinweisen auf das, was nah am Herzen oder an der Berufung ist. Dekay [00:14:57] Das ist spannend. Bei mir habe ich auch ähnliche Erlebnisse gemacht. Ich habe auch Informatik in der Oberstufe gehabt, und jetzt mache ich ja auch die eigene Website habe ich ja auch komplett selber gestellt. Aber ich merke jetzt auch Ist schon ganz spannend, eine Website zusammenzustellen. Aber mehr ist nicht dahinter. Es ist halt eine Webseite, etwas Technisches, was Logisches. Machen es mega cool, Dinge zu automatisieren. Aber irgendwie ist da nichts mehr dahinter. Ein ganz wichtiger Punkt, den du angesprochen. Das ist ja die Selbst Fürsorge oder Selbstfindung. Was würdest du da empfehlen, um wirklich etwas zu finden, was zu einem passt? Beispielsweise ist es bei mir so, dass es sehr viele Interessen habe, also sehr viele Dinge wo ich einfach mich gerne hinsetze; einfach ganz gerne es höre und ganz gerne da was mache, also beispielsweise Philosophie: ich lese ganz gerne philosophische Texte, mache aber auch etwas sehr gerne. Und was vorher angesprochen hast: Reden, reden tue ich auch sehr gerne. Mündliche Note auch deutlich besser als Schriftliche und auch ganz viele andere Dinge. Also wirklich, wenn man sehr viele Dinge hat, die einem faszinieren. Wie kann man da am besten vorgehen? Was sind so deine Tipps? Benedikt [00:16:19] Ich glaube, da bist du auf jeden Fall schon mal absolut auf dem richtigen Weg. Ich glaube: Wir sagen oft so Ich muss meine Leidenschaft finden, ich muss meine Berufung finden, als wäre es irgendwie so ein Gegenstand, der irgendwo herumliegt. Ah, hier ist meine Leidenschaft, jetzt habe ich sie gefunden. Das ist natürlich mehr, als aus der Perspektive des kommunikationstrainer zu kommen ist quasi eine sprachliche Schachtel. Das Wort Leidenschaft, wo eigentlich was dahinter steht und Leidenschaft ist, glaube ich, weniger ein Themengebiet oder ein Interesse oder eine Sache, die man findet, sondern eher die Art und Weise, wie du Dinge machst, und zwar leidenschaftlich, anstatt gelangweilt und lethargisch und so weiter. Und glaube, du kannst zum Ersten ganz spannend sein. Das hast ja auch schon gemacht. Einfach vieles mal auszuprobieren, mal zu schauen, okay, vielleicht mal ein paar verschiedene Bereiche, irgendwas Künstlerisches, Musik, Malen, dann vielleicht irgendwas Sportliches. Vielleicht irgendwas logisch Mathematisches. Etwas Philosophisches und so weiter verschiedene Sachen zu suchen und zu schauen was interessiert mich da am meisten? Und dann entsteht vielleicht sowas, wo du sagst ganz klar, in die Richtung gehts ja, wie du sagst. Du hörst jetzt verschiedene Podcast an, aber der eine, der ist so spannend. Da möchte ich gern noch mehr zu erfahren. Dann liest du noch mehr, und du merkst wieder ein paar andere Sachen schon mit passend zusammenhängen. Benedikt [00:17:45] Und dann kann ich dir empfehlen Ist jetzt egal, ob du jetzt gerade viele Punkte schon nebeneinander liegen hast, wo du sagst, es interessiert mich alles. Oder du zurückschaust auf dein Leben. Nimm mal die Vogelperspektive ein. Schau mal von oben auf diese ganzen Sachen herab und überlege Wenn es so Kreise wären, wo würden die sich überlappen? Also zum Beispiel: Ich begeistere mich für das Themengebiet wie man es immer auch nennen möchte Kommunikation und Persönlichkeitsentwicklung so das sind so zwei ganz große Sachen. Das sind aber ganz viele kleine Kreise drin. Da sind oder drin oder verklappen oder ähnlich. Da sind zum Beispiel Psychologie drin, zum Beispiel NLP drin. Da ist zum Beispiel Philosophie drin, was zum Beispiel Buddhismus drin ist, zum Beispiel Christentum drin, dass Spiritualität drin. Und manchmal überlappen diese Kreise, manchmal widersprechen sie sich, vielleicht auch. Allerdings ist es dann meines Erachtens hilfreich, nicht unbedingt jünger einer Sache zu werden. Okay, ich bin jetzt NLP trainer oder ich bin jetzt gewaltfrei kommunikationstrainer oder was auch immer. Das kann man machen. Ich habe auch solche Ausbildungen gemacht, aber weniger, um zu sagen Ich mache diese Sachen jetzt. Das ist jetzt meine Leidenschaft, sondern zu schauen. Wie passt das zu mir? Weil, wenn du auf dein Finger schaust oder genau wohin schaust, siehst du Da ist ein Fingerabdruck, der ist individuell und der ist für jeden individuell. Benedikt [00:19:16] Und die Leute, die sagen ich jetzt einfach mal NLP gemacht haben oder sich das Christentum gegründet haben oder das Buch geschrieben, oder das Buch geschrieben haben. Das war vielleicht die Individualität, derer sie Ausdruck verliehen haben. Und dann kannst du natürlich schauen, wie kannst dich an diesen verschiedenen Kreisen bedienen, inspirieren lassen, die aber nur als Werkzeug in Anführungszeichen zu nehmen. Das dir hilft, dem Ausdruck zu verleihen, was du sehr gerne machst. Und wenn du sagst Okay, da sind jetzt verschiedene Kreise, die da sehr überlappend sind. Dann schau mal, was ist das Muster dahinter? Und wenn du dann siehst Okay, das Muster ist Es geht eigentlich immer um. Logik oder um Menschen weiterbringen? Oder um erfolgreich zu sein? Oder um Kunst dem Ausdruck zu verleihen oder was auch immer. Vielleicht sind es auch einzelne Gedanken, irgendwie: Zum Beispiel Umweltschutz. Und wenn du dich mit Umweltschutz beschäftigt, dann sagst Okay, da ist jetzt etwas spannend. Der Nabu zum Beispiel. Da ist jetzt verspannt. Da gibts in dem philosophischen Text, der 300 Jahre alt ist, irgendwie Anzeichen, wie man besser mit der Natur umgehen kann. Okay, hier Psychologie. Das finde ich auch ganz spannend, vor allem, wenn es darum geht, wie man selbst besser für sich und die Umwelt sorgen kann. Beispielsweise. Und dann siehst halt okay, diese ganzen Bereiche Psychologie, philosophischer Text und irgendwie, was auch immer, das überlappt in zum Beispiel Naturschutz oder Kommunikation oder Psychologie oder was auch immer und dann wichtig, das aber auch nicht als eine fest gemeißelte Sache zu nehmen, sondern zu schauen, wie das auch dynamisch sein kann. Benedikt [00:20:59] Also zum Beispiel: ich habe ja gesagt, ich habe gesagt, wie auch immer man meinen Bereich nennen möchte. Ich habe da nicht meinen Namen für. Man könnte sagen Kommunikation, Persönlichkeitsentwicklung. Aber es ist gar nicht so genau das. Aber das ist die Redefabrik, ist das was, was mich inspiriert, was ich gerne mache. Und von daher ist es wichtig zu schauen Wie kann es sich von dem äußeren inspirieren lassen? Dann von oben drauf schauen, ein Muster zu finden. Wo gibt es denn überlappende Gebiete? Mathematisch gesehen Was ist der kleinste gemeinsame Nenner? Und dann zu schauen Wie kannst du dem Ausdruck verleihen? Durch dich selbst, durch deine Art und Weise zu leben? Oder deinen Podcast? Oder deinen YouTube-Kanal oder deine Website, einen Blog oder die Sachen, die du in deinem Tagebuch schreibst oder was auch immer. Also wie kannst du denen dann individuell Ausdruck verleihen und dann im Prozess merken Okay, es geht ein bisschen mehr in die Richtung. Dann lenke ich ein bisschen nach und so weiter. Das ist aber als Prozess zu begreifen, der dich zudem führt, was du, quasi hier erwähnst oder was du hier auf dieser Welt Ausdruck verleihen kannst. Dekay [00:22:10] Du hast ja vorher auch noch etwas ganz Wichtiges erwähnt, und zwar was passt zu mir und dieses mir, wer ist es genau. Also du als ein Persönlichkeitscoach hast ja sicherlich auch sehr viele Modelle schon studiert. Habe ich schon mal von dir angeschaut oder mal dazu was gesagt hast. Das ist ja sicherlich sehr essenziell zu verstehen, was einen selbst ausmacht. Und was würdest du dafür Tipps geben? Benedikt [00:22:45] Ich glaube, das Wichtigste ist, dass wir, was Berufung angeht und so weiter und auch Selbsterkenntnis, dass wir oft an die falsche Stelle schauen. Du kennst es vielleicht manchmal irgendwie, du hast irgendwie dein Schlüssel verlegt. Und du weißt genau, der musst in diesem Zimmer sein, du krempelst das Zimmer vom Forum auf so rum und merkst, irgendwie ist er hier nicht. Dann gehst du einmal kurz raus, einmal kurz rein und legt Siehst, er liegt voll mitten auf dem Tisch dort, und ich glaube, so ist auch manchmal der Erkenntnisprozess. Wir schauen oft an den falschen Stellen oder schauen unachtsam, und das verdeckt die Selbsterkenntnis. Ich habe ja vorhin schon gesagt, dass wir so in gewisser Weise der Beobachter sind. Ich glaube, das ist eine wichtige Erkenntnis. Wir sind nicht unser Körper, weil ganz ehrlich Wenn mir die Hand abgehackt wird, dann bin ich ja nicht drei Prozent weniger Benedikt. Dann können wir uns umbenennen lassen. Der Name Benedikt scheint ja auch nicht zu sein. Jetzt identifiziere ich mich mit gewissen Dingen. Das können materielle Dinge sein. Aber ganz ehrlich Wenn ich das Auto das Haus, wer auch immer weg ist, dann noch trotzdem immer noch du. Natürlich verändert es dich in gewisser Weise, aber du bist immer noch du, was auch immer dieses Du ist. Aber ich muss sagen, was ich vermute, dass das so ist. Das ist ja immer noch da. Es reagiert zwar darauf, dass die Hand ab ist, dass das Auto weg ist und vielleicht auch, dass der Partner irgendwann mal weg ist, dass die Familie irgendwann mal weg ist. Aber diese Sachen bist du okay? Wer bist du dann, wenn man mal die ganzen Sachen gehen lässt? Die materiellen Dinge, die Kleider und so weiter, auch den Körper, in gewisser Weise. Dann kommen wir ja irgendwie an was schwer Greifbares. Und was könnte man sagen? Du bist eine Emotion, würde ich aber auch nicht sagen, weil du ja sehr schwankend sind. Können Sie sagen Du bist deine Gedanken? Würde ich aber auch nicht sagen. Ich würde sagen, das ist jetzt meine mit der Beschäftigung, mit dieser ganzen Thematik, meine Interpretation, wie ich das zurzeit sehe, dass wir Bewusstsein sind. Oder der Beobachter oder der eben dieses Bewusstsein. Wie schon vorhin gesagt Man kann es Seele nennen, man kann das Bewusstsein nennen, man kann es das Sein nennen. Man kann es Essenz nennen. Gibt es verschiedene Sachen? Und ich glaube, dieses Bewusstsein ist das, was in uns ist. Man weiß doch nicht ganz genau wissenschaftlich, wie man das genau definieren soll. Wir können sagen Okay, unser Gehirn hat irgendwelche neuronalen Netze und so weiter und so fort. Aber also, ich würde sagen, du bist quasi dieser Fingerabdruck. In körperlicher Form bist du halt in geistiger Form, und zwar du bist dieses Bewusstseins schon eher spirituelle Definition. Und dieses Bewusstsein ist dann hier. Und also quasi dieses mentale Spirituelle wie das Bewusstsein ist hier, und das beschäftigt sich mit Themen, reagiert auf Themen und spricht dann beispielsweise auch, formuliert Worte und bzw. hilft auch, dem Geist und Worte zu formulieren. Der Geist, der dann könnte man sagen Okay, es gibt einmal quasi das wirkliche Bewusstsein, das reine und dann so ein bisschen die Schale des Egos. Wo dann irgendwelche Identifikationen mit irgendwelchen Sachen entstehen. Und da ist es, glaube ich, ganz wichtig, sage ich, mal davon auszugehen zu sagen Okay, du bist jetzt dieses Bewusstsein. Und wie kannst du das Bewusstsein messen? Ist natürlich sehr schwer. Es gibt zum Beispiel Persönlichkeitstests im Big Five Test, in der Psychologie, der helfen kann, so ein paar Character Dimensionen zu bestimmen. Das heißt jetzt nicht, dass du einen Test machst. So bin ich, und jetzt muss ich das ganze leben. Ich glaube, das Bewusstsein ist da etwas wandelbar. Je nachdem, was es erlebt und wie es darauf reagiert und so weiter. Aber grundsätzlich kann es hilfreich sein, einfach mit deinem Bewusstsein und eben nicht mit dem Ego. Was will ich mal haben? Größer, weiter? Wo hafte ich an. An wen? An was und wie? Sondern mit dem Bewusstsein, wirklich quasi herauszusuchen. Das, was ich vorhin meinte mit der Vogelperspektive und mit dem Bewusstsein zu schauen, was das Bewusstsein aus deinem Leben bisher gemacht hat, weil du kannst zwar sagen Ja, gut, mein Leben ist aber so verlaufen, wegen meiner Eltern oder wegen meiner Schule oder wegen der anderen Sachen. Genauer gesagt ist es die Art und Weise, wie dein Bewusstsein darauf reagiert. Also wenn sich zum Beispiel Oprah Winfrey anschaut, die als Frau dunkelhäutig in einer armen Region zu einer Zeit in einem Land geboren wurde, wo das nicht unbedingt positive Eigenschaften waren für den kommenden Lebens Erfolg, wo man eher sagen würde. Also auch Dinge, die sie mit ihrer Mutter erlebt hat und so weiter. Wirklich schlimme Dinge, wo man absolut verstanden hätte, dass diese Personen in dem Fall Oprah Winfrey im Endeffekt, irgendwie nicht so gut endet. Um es mal milde auszudrücken. Keiner hätte sich gewundert, wenn die, was ich da irgendwie in diesem Viertel geblieben wäre, und da hätte sich keiner drüber gewundert. Aber durch die Art und Weise, wie sie auf die Umstände reagiert hat, wurde sie zu der, die sie heute ist eine unglaublich bekannte, inspirierende, reiche, erfolgreiche und helfende Persönlichkeit. Und das ist, glaube ich, die richtige Sache zu schauen. Also Wie hast du bisher reagiert? Wo sind es vielleicht Muster, die vom Ego kommen, die du ablegen kannst, wo du nicht mehr anhaften möchtest? Und wo sind die Dinge, wo du sagst? Da möchte ich mich mehr mit beschäftigen. Das ist wirklich mein wahrer Kern. Das ist quasi das Bewusstsein, das sich hier auf der Welt zu zeigen. Dekay [00:28:56] Jetzt sagen sicherlich viele unter den Zuschauern, ja, die Esoterik, Bewußtsein und das Gelabere mit dem und das. Kannst du denn für diese kritischer Zuschauer noch einmal ein Beispiel von deinem Alltag nennen und so analysieren und anwenden, was du darauf gesagt hat? Benedikt [00:29:16] Genau. Also. Ich sag mal so Niemand muss an diese ganze Sache mit dem Bewusstsein und so weiter glauben. Man kann auch die ganze Sache ganz materialistisch angehen. Und Schauen wir doch mal dein Leben an. Und wie oft war es so, dass du dir Ziele gesetzt hast? Und seien wir ehrlich Wenn du sie erreicht hast, warst du nicht unbedingt von einem tiefen Glücksgefühl immer durchströmt. Und seien wir ehrlich Es ist auch oft so, dass wir sagen Ja gut, jetzt muss sich nur noch das Abitur fertig machen, dann ist es wirklich toll. Dann beginnst du irgendwie eine Lehre oder ein Studium, die Lehre oder das Studium fertig machen. Dann ist alles toll. Da kommt es im Beruf und sagt Ahhhh. Jetzt muss ich noch die Gehaltserhöhung bekommen, dann muss ich nur noch in Rente kommen. Also im Endeffekt dein Lebensglück immer nach hinten. Was keine sonderlich hilfreiche Strategie ist. Und dann kannst du dir einfach einmal überlegen Okay, was sind denn die Dinge, die wir wirklich Spaß machen oder die dich wirklich erfüllen? Und das können durchaus materielle Dinge sein. Benedikt [00:30:25] Also ich kann sagen, ich freue mich extrem darüber, wenn ich merke, dass ein Video guten Anklang erhält. Jetzt ist aber vielleicht hilfreich zu schauen Was ist wirklich das, was mich freut? Die Anzahl der Klicks oder das Geld, das ich dadurch bekomme? Oder sind es vielleicht nur Dinge, die mich in gewisser Weise befriedigen? Genau wie wenn ich Hunger habe, dass ich dann was zu essen bekomme oder wenn ich wenig Geld habe, dass ich dann Geld verdiene, also irgendwie eine Befriedigung eines Bedürfnisses, eines Triebs. Und wo ist es was, wo ich sage Das geht es vielleicht darüber hinaus? Es gibt ja auch diese Maslow Bedürfnis Pyramide, die hat nichts von irgendwelcher Esoterik, ist kein sonderlich wissenschaftlich fundiertes Modell. Also kann man schon sagen, dass es jetzt nicht, wo man sagt, das jetzt stand der Wissenschaft heute aber meines Erachtens einfach ein Modell, das hilfreich ist, sich einfach mal anzuschauen und auf jeden Fall ein eher materialistische Modell. Da fängt es nämlich damit an, dass du erst einmal die Grundbedürfnisse gestillt haben, zuerst einmal Essen bekommt. Da wird jeder noch zustimmen. Dann willst du Sicherheit haben. Ist auch noch jeder dabei Geld haben, um sicher zu sein, Haushaltungen sicher zu sein und so weiter kommen die sozialen Bedürfnisse. Und dann schau mal, wie du vielleicht darüber hinaus dann höher gehen kannst, weil oben ist dann die Selbstverwirklichung bzw. Maßstab. Hat es sogar am Ende noch Transzendenz, in gewisser Weise sogar da drüber gesetzt, was dann schon wieder in die esoterische Richtung geht. Benedikt [00:31:55] Meines Erachtens gibt es Leute, die aufgrund der Esoterik. Der dem weltlichen absagen, aber auch eine Art und Weise, wo ich mir denke. Wenn es da irgendetwas gibt, dass das Bewusstsein gebracht hat, warum würde es dann wollen, dass du so ein Leben führst? Von daher bleib ruhig bei den materialistischen. Ich bin auch ich bin Unternehmer. Also ganz klar, ich sowohl Geldverdienen als auch eine große Reichweite aufzubauen, Kurse zu machen, die erfolgreich sind und so weiter. Das gehört für mich dazu. Aber nicht, weil ich dann sagt Oh, ich habe jetzt so viele Leute gefüllt, so viele Leute, so viele, so viele Plätze gefüllt bei meinem Seminar, sondern weil ich wirklich was mitgegeben habe. Und für jeden, der jetzt sagt, das es esoterisch, kann ich eine Sache mitgeben: Nimm dir wirklichen Stift und Papier und schreib einfach mal ehrlich für dich auf folgenden Satz Ich bin glücklich, wenn und denen schreibst du mit zehn, zwanzig hundert verschiedenen Sachen auf. Und was kommen dafür Sachen raus? Ich will sie nicht vorwegnehmen. Du kannst von mir aus auch gerne pausieren und dann das erst machen. Benedikt [00:33:08] Aber als ich das gemacht hab, kommen Sachen raus wie Ich bin glücklich, wenn ich mich in die Sonne legen kann. Ich bin glücklich, wenn ich ein gutes Buch lesen kann. Ich bin glücklich, wenn ich den Sonnenuntergang beobachten kann. Ich bin glücklich, wenn ich in der Natur spazieren gehen kann. Ich bin glücklich, wenn ich einer anderen Person geholfen habe. Ich bin glücklich, wenn ich durch einen Ratschlag eine andere Person inspiriert habe. So, und das sind alles so Sachen, wo du merkst, okay, alles hat eigentlich relativ wenig mit diesen ganzen materialistischen zu tun. Vielleicht kannst du ja das Materialistische nutzen, um dem spirituellen Ausdruck zu verleihen. Benedikt [00:33:43] Also zum Beispiel Mein Kanal ist natürlich oder Redefabrik ist ein wirtschaftliches Unternehmen. Ja, es geht auch darum, dass dieses Unternehmen wirtschaftlich sich trägt. Und deswegen mache ich Produkte. Aber die Produkte mache ich nicht, um Geld zu verdienen, sondern um Menschen zu helfen. Und natürlich auch ein finanzielles Fundament aufzubauen, das es mir ermöglicht, noch mehr Leuten zu helfen und noch größer zu denken und ich glaube, ganz wichtig ist es hier. Ich halte wenig von Esoterik. Ich halte viel von Spiritualität oder Religiosität, vielleicht auch in gewisser Weise. Aber hier das Spirituelle und das Weltliche als zwei Seiten der gleichen Medaille Leben anzusehen ist, glaube ich, das Hilfreiche und nichts zu sagen. Ich bin entweder spirituell oder weltlich. Ich glaube, dass es extrem hilfreich und Wenn du sagst, dich inspirieren manche Persönlichkeiten, dann schau dir mal an, welche Persönlichkeiten sich inspirieren und schau, ob sie von etwas getragen wurden, das größer war als sie selbst. Manche sagen Gott dazu. Manche sagen die Erleuchtung dazu. Manche sagen dazu im Dienste der Wissenschaft, andere sagen dafür um die menschliche. Die Menschheit quasi weiterzubringen. Oder um eine Vision zu haben, ein großes Unternehmen zu haben. Und für mich ist das alles völlig okay. Egal, ob du sagst, ich mache das jetzt, um meinem Gott oder meinen Göttern oder was auch immer zu dienen, oder ob du sagst, ich mache es um. Die der Kanal der Menschheit zu dienen oder der Wissenschaft zu dienen oder was auch immer. Benedikt [00:35:36] Ich glaube aber, es ist ganz wichtig zu schauen Wer bin ich individuell, was kann ich hier auf der Erde tun? Aber vielleicht auch Wie hängt es mit Größerem zusammen? Seien wir ehrlich. Du kannst selbst alleine schon mal gar nichts machen. Also selbst wenn du das der einfachste Gegenstand, den ich jetzt hier habe, der einfachste Gegenstand von allen, den ich hier habe, ist dieser Bleistift. Benedikt [00:36:01] Nicht mal diesen Bleistift könntest du selbst herstellen. Dafür müsstest du. Holz anpflanzen, also Bäume anpflanzen, würde Jahre dauern. Da müsste es doch wissen, wie du so fällst, wie du in so eine Form bringst. Dann müsstest du übrigens auch noch Grafit, also generell nicht mit Erzten natürlich auch auskennen. Und dann natürlich, wenn du hier so tolle Fisch Motive drauf haben möchtest, dann muss sich auch noch auskennen, wie du Öl raffinierst aus der Erde kannst du übrigens auch schon mal selbst nicht, wenn du nicht die Maschinen dazu gebaut hättest. Wenn du es aber irgendwie schaffst, dann Öl zu raffinieren, dann musst du das auch noch irgendwie zu Plastik verarbeiten. Auch wieder die Maschinen dazu braucht das Eisen dazu, das du selbst aus der Erde holen musst. Ganz ehrlich Es ist, wie wenn du bei Minecraft anfängst, von Grund auf aufbaust, sondern hast du Plastik, und dann musst du auch noch das bedrucken können. Da brauchst du auch noch Grafik, Grafikdesign, Programm, um diese Fische zu erstellen. Und dann machst du es zusammen, und dann hast du nicht. Dann kannst du kannst sich mal selbst den Bleistift machen. Du kannst den Bleistift nutzen, um damit was zu schreiben. Das mag sein, aber wir sind immer auf andere angewiesen. Und deswegen ist es auch sinnvoll, über den eigenen Tellerrand der eigenen Persönlichkeit hinauszuschauen, umzuschauen. Wie kann ich das in einem größeren Zusammenhang vielleicht sehen? Dekay [00:37:21] Ich möchte ganz gerne noch einmal wissen, wie du damals erst einmal deine Entscheidung getroffen hast, irgendetwas zu studieren, oder wie du das richtige Studienfach für dich herausgesucht hast. Benedikt [00:37:34] Bei mir war es so, dass ich mich, wie gesagt, schon mit verschiedenen Bereichen beschäftigt habe, mit den Naturwissenschaften, mit Programmieren. Und dann habe ich in der Oberstufe tatsächlich ein Rhetorik Kurs, und der hat mich so fasziniert, dass ich dann, wie gesagt, auch diese ganzen Praktika gemacht habe, viele Bücher gelesen habe und so weiter und. Die überlegung war dann In welche Richtung soll es gehen? Das ist ja schon Kommunikation, und dann hab ich halt überlegt Okay. Was mich wirklich inspiriert. Was wären dann die thematischen Studiengänge und Psychologie. Da gibt es Rhetorik. Gibt's nur an der Uni Tübingen. Und dann kommunikationsdesign vielleicht noch, dann vielleicht noch Medien und Kommunikationswissenschaften. Sind die vier verschiedene Studiengänge, die es jetzt gäbe? Also erstmal überlegen Was mache ich gerne? Und was würde dann Studien mäßig dazu passen? Benedikt [00:38:25] Und dann habe ich gemerkt okay Rhetorik ist es tatsächlich nicht direkt, weil es da viel auch um die Geschichte der Rhetorik geht und so weiter. Kommunikationsdesign uns Kommunikationswissenschaften war dann mehr in Publizistik und Medientechnik und so etwas, was mich auch nicht interessiert. Psychologie ist tatsächlich das, was mich interessiert, weil die geistigen Prozesse dahinter für mich spannend sind. Und von daher ist es sinnvoll zu schauen Was inspiriert dich? Was sind dann die nächsten Studiengänge, die dazu passen würden, um dann ein bisschen auszusortieren bzw. vielleicht auch mit Leuten zu sprechen, die sich da auskennen, Videos anzuschauen, Texte oder Bücher sich durchzulesen, um zu sehen Okay, worum geht es da quasi? Und dann im Endeffekt dann auch zu studieren. Und wenn man merkt, nach einem halben Semester, nach einem Semester oder nach zwei oder später keine Ahnung, dass es einem nicht Spaß macht. Aber da ist es sinnvoller, wenn man es früh bemerkt, dann auch zu wechseln und zu sehen. Okay, vielleicht ist es etwas anderes oder vielleicht gar kein Studium. Dekay [00:39:23] Ja jetzt hast du gesagt gar kein Studium. Wäre das damals für dich denkbar? Also beispielsweise in Richtung von Pee oder was? Was ja heutzutage ja gemacht, das zu gehen. Benedikt [00:39:36] Ich würde tatsächlich sagen zum damaligen Zeitpunkt noch nicht wirklich, weil ich erst quasi ein solides Fundament. Eines Studien eines Studiums haben wollte, um währenddessen natürlich auch nicht Dingen zu arbeiten, also Bücher zu lesen und mich damit zu beschäftigen. Die Redefabrik aufzubauen und so weiter. Und im Endeffekt dann. Das quasi so erstmal nebenbei zu machen, um ein solides Fundament zu haben und darauf aufbauend dann etwas anderes zu machen. Also zum damaligen Zeitpunkt? Nein. Benedikt [00:40:18] Aber grundsätzlich finde ich es eine sehr empfehlenswerte Sache. Wie gesagt Egal ob Lehre oder nicht, Lehre, Studium oder Studium oder was auch immer. Folge deinem Herzen, sage ich. Ganz einfach, hört man immer wieder, ist aber tatsächlich wahr. Wobei es natürlich auch vernünftige Gründe geben kann, die für ein Studium sprechen. Ich bin kein. Es gibt ja viele, auch in der Persönlichkeitsentwicklungszene, die so gegen komplett gegen das Schulsystem und das Studiensystem sind. Was ich verstehen kann. Allerdings Ich sehe es eigentlich als eine gute Chance, tief in gewisse Gebiete reinzugehen. Dann hast du natürlich auch in gewisser Weise einen anerkannten Abschluss. Ich sag mal zum Beispiel Programmieren. Es gibt viele Leute, die zum Spaß programmieren, aber dann als Programmierer angestellt zu werden. Wobei das jetzt ein schlechtes Beispiel, weil die sehr stark gesucht werden. Ich nehme jetzt mal anderes, zum Beispiel Psychologie. Ganz klar. Du kannst dich viel mit Psychologie beschäftigen, auch viele Bücher lesen. Aber du bist nie Psychotherapeut, wenn du nicht Psychologie studiert hast. Es ist sogar verboten. Tatsächlich. Und von daher kannst überlegen vielleicht auch länger gesehen. Nicht nur Welches Studium will ich machen, sondern wo will ich langfristig gesehen hin? Was könnten spannende Berufe sein, die meiner Berufung in gewisser Weise entsprechen? Und was wären die Studiengänge, die mir am besten helfen, die Fähigkeiten zu sammeln oder auch die vielleicht Voraussetzungen zu sammeln, um diese Studien, um diese Berufe zu erfüllen? Dekay [00:41:47] Jetzt würde es mich interessieren, wie du deine Minecraft Welt nebenbei langsam aufgebaut hast und warum du das Ganze gemacht hast und nicht stattdessen gesagt hast. Du suchst dir andere Dinge, die zu dir passen, und arbeitest dann in einer Firma oder ähnliches. Benedikt [00:42:08] Das war anfangs, glaube ich, durchaus die überlegung, das eventuell zu machen. Tatsächlich war es dann aber eher so, dass ich gesagt habe Okay, also zum einen. Ich habe gerne schon YouTube geschaut und dann habe ich mich für Kommunikation interessiert und dann hab ich geschaut auf YouTube und es gab keinen guten Kanal. Es gab sogar gar keinen Kanal, glaub ich, gar keinen Kanal zum Thema Kommunikation Rhetorik. Es gab Webseiten, aber die waren oft sehr veraltet, so richtig altbackene Seiten. Mittlerweile gibt es sowohl Kanäle als auch Webseiten, gescheite. Tatsächlich war es aber damals so, dass es nicht wirklich gab, und hab ich gesagt. Mich interessiert das Gebiet so Ich kann damit auch anderen Leuten helfen, weil ich auch, glaube ich, ganz gut kann. Und es ist nochmal eine Möglichkeit, noch mehr, mich damit für mich auseinanderzusetzen und gleichzeitig anderen zu helfen. Und dann habe ich tatsächlich den Kanal gestartet, und das war eine Leidenschaft. Es war ein Hobby, und es ist immer noch und Über die Zeit habe ich auch zusätzlich gemerkt Hey durch das Interesse kommen, kommt jetzt auch Geld über YouTube rein. Durch die Werbeanzeigen. Und dann muss sich sowieso ein Gewerbe anmelden. Benedikt [00:43:19] Es war anfangs nie die überlegung, das war beruflich zu machen, sondern es war einfach nur. Ich will noch mehr in diesem Bereich machen. Ich bin noch tiefer in meine Leidenschaft und meine Berufung eintauchen. Und ich hatte es damals auch die Berufung genannt. Es hat mich einfach interessiert. Es war einfach eine Leidenschaft von mir. Und dann bin ich halt eingetaucht und habe gemerkt, dass es wirklich eine coole Sache. Dann kam halt über die Zeitalter Fragen wie Hey, machst doch zusätzlich noch Kurse zu den YouTube-Videos. Das würde mich sogar interessieren und so weiter. Das kann dann von den Zuschauern, wo ich irgendwann gesagt habe. Spannende Sache. Dann gehe ich nochmal an und hab dann teilweise so Sachen macht. Und dann ist es wirklich stetig entstanden, ein immer fester, fester werdendes Fundament zu werden. Und dann vernetzt sich das Ganze natürlich, dann wird es auch zu einem Business, und so habe ich mir das dann quasi aufgebaut. Benedikt [00:44:06] Nicht aus irgendeiner Idee, dass ich nie arbeiten möchte in einer Firma für jemand anderen, sondern einfach, weil ich meine Leidenschaft gefolgt habe. Ich glaube, das ist das Wichtige zu schauen. Wer bist du? Was kannst du gut? Was machst du gerne? Wo gehst du auch? Wo bist du inspiriert? Inspirierend und erfüllt. Und wenn du das gefunden hast, dann da, einfach was zu machen und auch kostenlos für den anderen zu helfen. Hey, ich beschäftige mich gerade mit dem Thema, machs mit mir kurz drüber reden, oder Hey, kann ich dir helfen, eine Website zum Beispiel für dich zu programmieren oder was auch immer zu tun und dann einfach dich noch mehr weiterzubilden. Egal ob im Studium oder im Selbststudium oder wo auch immer, dann einfach viel zu tun, wo du, wie gesagt, diese Kenntnisse oder vielleicht auch zusätzliche Punkte, neues Wissen und so weiter akquiriert und das dann wiederum zu nutzen, um zu sehen. Okay, es gibt viele Möglichkeiten, wo andere von dem profitieren, was ich gerne mache, und dann im Endeffekt das dann eventuell auch zu einem Business aufzubauen oder in einer Anstellung zu gehen, wo du sagst. Dekay [00:45:05] Wann hast du dich entschieden, dass das dein Ding sein wird und daraus jetzt ein Business machen möchtest? Benedikt [00:45:12] Es war tatsächlich so, dass ich diesen Rhetorik Kurs hatte und ohne Spaß. In der ersten Stunde habe ich gemerkt Das interessiert mich so sehr, dass es vielleicht auch bei euch schon mal gewesen oder bei dir oder bei euch Zuhörern. Einfach so ein Moment von etwas. Das ist so spannend. Da muss ich mich mehr rein, Fuchsien, mehr darüber lernen und so weiter. Und es war tatsächlich so stark, dass ich das dann gemacht habe. Und dann kam einfach die Entscheidung. Ich will es mit anderen teilen, um für mich noch mehr zu lernen und um anderen zu helfen. Es war einfach eine Entscheidung, wo ich nach kurzer Zeit gemerkt habe, dass es so inspirierend für mich. Ich habe da schon Hunderte oder weiß gar nicht, wie viel, aber auf jeden Fall viele Bücher schon gelesen. Und das wollte ich einfach mit anderen teilen und Kurse gemacht und selbst Sachen für mich gelernt. Und dann hab ich gemerkt das es so genau das Thema, das mich interessiert und inspiriert. Das möchte ich mit anderen teilen. Das war die Entscheidung und diese dieses Business werden lassen. Das war nie eine direkte Entscheidung. Benedikt [00:46:13] Wie schon gesagt, kam einfach Geld über YouTube rein, und dann muss man ein Gewerbe anmelden. War halt einfach so, da hab ich das gemacht. Mehr. Also nie eine große Vermutung, dass da etwas ganz Großes draus wird. Und dann kam natürlich über die Zeit schon bewusste Entscheidung, wo ich gesagt Okay, da mache ich jetzt das und so weiter. Und mittlerweile? Das ist wirklich ein gutes Business zu sein, das auch wirklich gut läuft und stabil ist. Benedikt [00:46:39] Aber ich glaub, so ein Zwischending zwischen klar Entscheidungen treffen, dabei sein aber auch in gewisser Weise sich von dem Intrinsischen wieder leiten zu lassen, ist ganz wichtig, weil wir nur dann die uns sehr egal ob in der Schule gesagt bekommen Programmieren jetzt diese Website oder ob wir uns später selbst sagen Oh, ich muss jetzt mein Business aufziehen, indem ich einen Podcast mache, eine Webseite mache, das mache und uns selbst diese extrinsische Motivationen quasi aufzuerlegen, obwohl es eigentlich intrinsisch was gibt, was uns viel mehr liegt. Und das ist vielleicht nicht das, was im ersten Moment super viel Geld einbringt. Das mag sein. Allerdings das was langfristig gesehen nicht nur glücklicher und erfüllter macht, sondern auch erfolgreich. Dekay [00:47:26] Gabst denn überhaupt so eine Zeit, wo du dir dachtest: Nee, das mache ich jetzt nicht mehr weiter. Das ist doch nicht so ganz richtiger, weil es vielleicht schwieriger Rückschläge gab. Benedikt [00:47:38] Spannende Weise, nichtwirklich. Also nicht in diesem Ausmaß. Es war schon so. Es ist wie stellen wir es wie ein Schiff vor: es gibt mal Winde von der einen Seite, mal Strömungen von der anderen Seite, und dann kalibriert man so ein bisschen nach. Also auch Sachen, wo ich gesagt habe Okay, da habe ich jetzt vielleicht Videos produziert, die mich selbst nicht so erfreut oder inspiriert haben. Dann ist es aber jetzt nicht so Es ein Rausschmeißt, die ganze Sache hin, sondern ich lenke halt einfach ein bisschen in die andere Richtung. Heute ist es immer noch so. Es ist nicht so, dass ich jetzt weiß Oh, ich weiß genau, was es genau ist, sondern wie vorhin schon gesagt, ist dieser dynamische Prozess. Aber dieses grundsätzliche Garnix, das war es auf jeden Fall nicht, weil ich im Endeffekt so lange gesucht habe, bis ich das gefunden habe, wo ich sage Das passt zum Großteil. Und jetzt individualisierte ich es über den Prozess, so dass es halt mich immer inspiriert. Dekay [00:48:32] Es gibt es unter den Zuschauern sicherlich noch Menschen, die sagen Ja, mein Schiff steht jetzt am Hafen, das ist noch nicht losgefahren. Ich weiß auch nicht, wo es fahren sollte, das Wetter nicht so gut, und ich habe nur ein kleines Schiff. Wie soll ich, und wo soll ich hinfahren? Was würdest denen sagen, die jetzt vielleicht nicht so Interesse haben, nicht die Leidenschaft haben und vielleicht sich auch als durchschnittlich oder sogar unterdurchschnittlicher Menschen sehen. Benedikt [00:49:03] Da finde ich zum einen was ganz wichtig. Zum Beispiel Mozart würden, würden ja alle sagen Der hat eine Leidenschaft. Er war ein Wunderkind, der hatte Talent dafür, ist nicht ganz so Mozart hat einfach jahrelang. Von Kindesbeinen an wurde er dazu gezwungen, von seinen Eltern zu seinem Vater, der übrigens sowieso einer der bekanntesten Musiker zur damaligen Zeit war, immer wieder zu spielen, immer wieder zu spielen. Und er wurde wirklich regelrecht dazu gezwungen. Er hat Zehntausende Stunden damit verbracht. Nicht, weil es eine Leidenschaft war, sondern weil es ihm einfach aufgezwungen wurde. Und dann war er plötzlich gut darin. Natürlich sagen im Nachhinein alle Oh ja, der hat Talent dafür. Aber da würde ich erst mal ein bisschen vorsichtig sein. Benedikt [00:49:49] Zum Thema Größe des Schiffs. Also ganz ehrlich Ich habe die Redefabrik angefangen mit einem Stuhl, einem einer Webcam, einem PC und einem Interesse. Das kann jeder machen, egal ob kostenloser YouTube Account, kostenloser Blog den du heute machen kannst. Kostenlose Website Mit WordPress gibt's alles mittlerweile kostenlos. Und wir leben in der besten Zeit, um seiner Leidenschaft, seiner Berufung, Ausdruck zu verleihen. Egal in welcher Art und Weise. Und ganz ehrlich Ich glaub, jeder, der jetzt hier zuhört und die technischen Möglichkeiten dafür hat, der hat auch irgendwie ein Handy, das er in seinem Regal stellen kann, sich vorstellen kann und reden kann. Oder am Handy ist Mikrofon. Oder er holt sich irgendwie für was immer ein Mikrofon und einen ein Podcast auf oder macht ein Blog. Dafür braucht man nicht mal ein Mikrofon oder Handy oder WhatsApp oder Kamera oder was auch immer. Benedikt [00:50:43] Also ich glaube, die die Grund-Tools haben wir zur Verfügung, Natürlich ist es heute bei mir so, dass ich ein großes Team habe, das sich schon mich mit vielen Leuten ausgetauscht, ein großes Netzwerk habe, aber das entsteht über den Prozess. Und da ist es wichtig, den Prozess zum einen zu vertrauen und auch sich in den Prozess hinein zu begeben, dann zu finden, was einem Spaß macht. Benedikt [00:51:08] Und wer sagt, aber ich weiß noch nicht, wo ich hin soll. Dem würde ich das empfehlen, was ich vorhin gesagt habe. Also probiere vieles aus, sammle viele Erfahrungen und lege dann über diese ganzen Erfahrung, wenn du von oben drauf schaust, ein Raster, um zu sehen Was sind die wiederkehrenden Muster? Was scheint sich da durchzudrücken? Was ist der kleinste gemeinsame Nenner? Und den dann wiederum zu nutzen, um dem Ausdruck zu verleihen. Das ist dann der nächste Schritt, weil die Tools, die haben wir in der heutigen Zeit meines Erachtens sowieso. Dekay [00:51:37] Es ist ja so, dass, wenn man kein Interesse hat, auch keinen Antrieb hat. Wie kann man diesen inneren Antrieb denn überhaupt erst mal aktivieren, um Dinge auszuprobieren? Benedikt [00:51:49] Zum einen glaube ich, dass man nicht unbedingt. Also es ist für mich ein zweischneidiges Schwert. Weil zum einen, wenn du dich immer dazu motivieren musst. Dann scheinen es nicht Dinge zu sein, die dich selbst motivieren. Die Dinge sollten nicht intrinsisch motivieren und nicht du dich dafür motivieren müssen. Benedikt [00:52:17] Niemand musste mir sagen Ließ Hunderte Bücher über Kommunikation, Rhetorik. Es musste mir keiner sagen, ich habe freiwillig mehr Zeit, das Geld und die Gedanken genommen, eben das zu tun, und überlege vielleicht Wie musst du dich nicht zu irgendwelchen Sachen zwingen? Und den Antrieb finden auch hier wieder. Ahhh Der Antrieb liegt auf der Straße. Wie kann der Antrieb von innen kommen? Und die Sachen dann zu tun Jetzt stimmt es natürlich, wenn du weißt Okay, und das ist meines Erachtens die Grund-Botschaft, die als erstes gefunden werden sollte. Benedikt [00:52:51] Und jetzt angenommen, du weißt, Psychologie ist voll mein Ding, und ich studiere es jetzt. Und dann musst du die den Antrieb finden, zum Beispiel Statistik und Stochastik zu lernen. Dann kannst du sagen Okay. Wie hängt das zusammen mit dem, was mich intrinsisch motiviert, und siehst du? Und spürst du vielleicht okay, jetzt diese einzelnen Zahlenreihen auszufüllen oder diese Website zu programmieren oder XY zu tun? Ist nicht das, was mich selbst intrinsisch motiviert. Allerdings trägt es dazu bei, wenn ich lerne, diese statistischen Formeln hinzubekommen. Und da werde ich später richtig gut im Auswerten von wissenschaftlichen Experimenten. Wenn ich jetzt schaffe, eine Website zu machen, dann kann ich später auf dieser Webseite Inhalte teilen und so weiter. Macht dir ein großes, lebendiges Intrinsisch motivierendes Bild in der Zukunft und schaue, wie das quasi verbunden ist mit dem jetzigen, was du jetzt tun darfst, und dann vielleicht auch zu sehen. Benedikt [00:54:02] Okay, ich mache es jetzt einfach mal zehn Minuten. Ich zwinge mich dazu. Und oft ist es dann so, dass nach der dritten Minute schon Merks Okay, dann fließt ja, doch, das ist meistens dieser erste Impuls. Und dann kann es auch sinnvoll sein, sich mal kurz dazu zu zwingen. Das ist oft so, dass dich dann die Sache motiviert und die Aktivität selbst motiviert. Wenn du dich im ersten Moment selbst mal kurz den Anstoß gegeben hast, dann kurz in den Arsch getreten hast, dass du es dann auch anfängst und dann im Endeffekt auch in die Handlung kommst. Dekay [00:54:32] Bist du interessiert an Rhetorik? Natürlich ist Benedikt Held auch noch Buchautor von diesem Büchlein hier Meisterkurs, Rhetorik und unter den 50 ersten Reviewers in iTunes, Podcasts oder Spotify wird. Dieses Büchlein ausgelost. Dekay [00:54:52] Es gibt so viele Dinge, worüber wir sicherlich noch reden können, aber die Zeit läuft ein bisschen davon. Eine Zuschauerfragen, die die Zuschauer interessiert ist Kannst du mit YouTube schon leben? Benedikt [00:55:04] Genau mit der Redefabrik auf jeden Fall ganz locker mit YouTube selbst. Es ist tatsächlich auch hier wieder zum Thema Extrem sich und intrinsisch. Ich persönlich. Das klingt jetzt komisch als jemand, der ein Unternehmen führt. Ich weiß nicht wirklich, was ich in welchen Kanälen verdiene. Das kann ich wirklich ehrlich gesagt nicht sagen. Ich hab im Office. Die kümmern sich darum, weil da weiß ich Wenn ich mich zu sehr darauf fokussieren würde, dann würde ich in dieses Extrinsiche. Ohhh da müssen wir jetzt mehr verdienen? Das müssen wir noch mehr optimieren. Da würde ich da vielleicht reinkommen, lasse ich einfach machen. Und solang es läuft, ist es gut. Und wenn nicht, dann wird mir das schon gesagt. Dann kann ich mir auch überlegungen machen, wie ich das auch irgendwie verändern kann. Oder so grundsätzlich. Von YouTube könnte ich leben? Ja, und aber von der Redefabrik insgesamt auf jeden Fall, weil die Redefabrik eben so viele Standbeine hat. Dekay [00:56:00] Und jetzt nochmal eine abschließende kurze Frage, kurze Antworten, runde, die ein Adjektiv, das sich am besten beschreibt. Benedikt [00:56:11] Aktiv. Dekay [00:56:12] Dein Lieblingssong? Benedikt [00:56:14] Es ist schwer. Es ist viel schwerer als die ganzen langen Fragen. Ich scheiße! Okay, ich sag jetzt einfach mal! Zur Zeit ist es physical von Dua Lipa aber sonst immer schon andere. Ich habe keinenen, ich habe keinen, sage ich mal so. Dekay [00:56:33] Der schätze Ort, an dem du nur gewesen bist? Benedikt [00:56:38] Rom. Dekay [00:56:39] Welche drei Dinge würdest du deinem früheren Ich raten? Benedikt [00:56:46] Hör auf dein Herz! Inspirieren andere! Geh deinen Weg! Dekay [00:56:54] Welche Lebensphilosophie vertritt heutzutage in einem Satz? Benedikt [00:57:01] Das Leben genießen und mich selbst entwickeln und damit auch anderen helfen. Dekay [00:57:12] Dein wichtigstes Ritual Routine oder Gewohnheit? Benedikt [00:57:19] Morgens aufzustehen, was zu lesen und zu duschen, normal warm und dann eisig kalt. Dekay [00:57:27] Das eine Buch, das sich am meistens inspiriert hat. Benedikt [00:57:32] Ich würde sagen, es gibt nicht eins, aber wenn ich eines sagen sollte, dann wahrscheinlich die sieben Wege zur Effektivität von Steven Corvey. Dekay [00:57:40] Eine Empfehlung oder anderwärtiges Medium, das dein Leben veränderte? Benedikt [00:57:48] Der NLP Practitioner, den ich bei Roman Baum gemacht habe. Dekay [00:57:50] Dann darf ich hier jetzt an dieser Stelle noch meinen herzlichsten Dank aussprechen. Es hat mir sehr viel Spaß gemacht, mit dir reden zu dürfen. Und es ist sicherlich auch sehr spannend für all die Zuhörer, die da sind. Vielen Dank nochmal Benedikt! Benedikt [00:58:08] Das hat mir auch sehr viel Spaß gemacht und allen Zuhörern ganz viel kommunikativen Erfolg. Dekay [00:58:14] Hatte diese Episode gefallen, dann unterstütze mich in meinem Projekt, indem du mir ein Like hinterlässt, ein Abo und ein Review bzw. Kommentar. Achja und teile gerne diese Episode auf deine soziale Netzwerke. Danke für deine Unterstützung und bis zur nächsten Woche.
Mathematisch-technische Software-Entwickler - kurz "Matse"- entwerfen und programmieren Software für die unterschiedlichsten Zwecke. Sie erstellen Internetseiten und Datenbankanwendungen. Sie sind fit in vielen Programmiersprachen. Die Basis all ihrer Arbeit sind mathematische Modelle.
Mathematisch ist die 135 eine seltsame Zahl...
Helden und Visionäre – Dein Weg zur sinnvollen Arbeit und Social Entrepreneurship
In dieser Folge spreche ich mit Hassan Hakim von Yool. Wir sprechen über nachhaltige Markenbildung und wie die eigenen Spiritualität die Arbeit und Unternehmen positiv beeinflussen kann. Vielleicht bist du aktuell in einem Umbruch. Vielleicht verändert sich etwas bei Dir. Vielleicht möchtest Du aber auch einen Umbruch selbst starten. Ein Umbruch ist eine Entscheidung und ein Schritt ins Leere. Ein Aufbruch ins Ungewisse. Das ist oft ein Auslöser von Widerständen – und auch Zweifel. Aber es kann sich lohnen so einen Umbruch zu starten. Geh in die Richtung, in der dich Dein Gefühl treibt. Ja, es wird Widerstände und Zweifel (und Zweifler) geben - aber davon darf man sich nicht abhalten lassen. Wenn du jeden Tag einen weiteren Schritt gehst, wird daraus eine Entscheidung. Und plötzlich entwickeln sich Dinge, die man sich vorher gar nicht vorstellen konnte. Bringe dein Sein und dein Handeln in Einklang. Entwickle eine gewisse Spiritualität. Das muss jetzt nicht durch Meditation geschehen. Bringe aber dein SEIN und HANDELN im Einklang mit sich und der Umwelt. Was ist Spiritualität? Denn das ist Spiritualität für Hassaan. HANDELN und SEIN im Einklang mit sich und der Umwelt. Mathematisch könnte man vielleicht diese Formel anwenden: Spiritualität= Handlung + Praxis. Eigentlich keine schwierige Formel. Am Beispiel eines Umbruchs: Die Entscheidung ist die Handlung. Diese Handlung immer wieder zu unterstreichen und weiter zu machen, ist dann die Praxis. Das löst innere Zweifel und Blockaden auf. Aber dadurch, dass du immer wieder weiter machst, wird das, bedingt durch die Auflösung, zu einer Kraftquelle. Dadurch geschehen Dinge, die du vorher nicht gesehen und erwartet hast. Wie ein kleiner Kreislauf. So eine Spiritualität kann ein großer Vorteil sein - gerade, wenn man sich Unternehmen vorstellt, wo es viele Reibereien und Auseinandersetzungen gibt. So können komplexe Dinge heruntergebrochen werden. Es geht hier auf eine Ebene der gemeinsamen Kultur. Spiritualität als Alleinstellungsmerkmal Spiritualität als Alleinstellungsmerkmal für die Nachhaltigkeit? Geht das? Hassaan handhabt es so. Er nutzt das für die Markenentwicklung. Er möchte so den Produkten das gewisse Extra mitgeben. Emotionen und Gefühle. Das ist wichtig, denn so entwickeln die Kunden Gefühle zu einer Marke. Und so können wiederum Marken positiv Kunden beeinflussen. Das wir zwar schon immer in der Werbung gemacht - es ist aber ein Unterschied ob man nur ein Produkt verkaufen möchte - oder ob man mit dem Produkt auch etwas Nachhaltiges bewegen möchte. Etwa Gutes. Als schöne Zusammenfassungen lässt sich das wohl auch in einer Gleichung festhalten: Markenentwicklung => Spiritual Enlightenment Was steckt hinter YOOL? YOOL macht Kommunikation „Below“ und „Above the Line“. Von der Beratung bis hin zur Entwicklung und Umsetzung komplexer Marketingmaßnahmen decken agiert das Unternehmen als Full-Service Agentur. Darüber hinaus entwickeln die Agentur kulturelle Strategien und inszenieren Marken im Spannungsfeld von Kunst und Gesellschaft. YOOL ist spezialisiert auf den ethischen Konsum und Handlungsbereich. Als Kunden kommen ausschließlich Unternehmen, Produkte und Marken in Frage, die in sozialen und nachhaltigen Geschäftsfeldern tätig sind oder tätig werden wollen.
Die Krypto Show - Blockchain, Bitcoin und Kryptowährungen klar und einfach erklärt
- Link zum Video: https://youtu.be/ff9_8CH8JIw - Alle Infos zu Julian's neuer Firma: http://i-unlimited.de/newventure - Verpasse kein YouTube Video mehr: https://i-unlimited.de/youtube - Kryptowährungen kaufen erklärt: https://julianhosp.com/de/sicherbitcoinkaufen/ ---------------------------------------------------------------------- Teil diese Episode und lass uns gemeinsam AT, DE und CH mehr als nur #cryptofit machen :) Abonniere die Show auf iTunes: https://itunes.apple.com/de/podcast/id1226276280 Hinterlasse mir Feedback zur Show: http://getpodcast.reviews/id/1226276280 Wie kauft man Bitcoin in 5 einfachen Schritten (sicherste Variante!): https://julianhosp.com/de/sicherbitcoinkaufen/ Willst du wissen, wie die erfolgreichsten Menschen der Welt, Business, Beziehungen und eigene Hobbies unter einen Hut bekommen? Lese Julians neuesten Bestseller "Das Timehorizon Prinzip": https://buch.i-unlimited.de/timehorizon Kryptowährungeneinfach erklärt: http://geni.us/krypto_einfach Sein neuestes Buch "Blockchain 2.0 - mehr als nur Bitcoin" - die 100 innovativsten dezentralen Anwendungen abgesehen von Kryptowährungen: https://amzn.to/2wOVICV Sei bei unserer Facebook Gruppe dabei: https://www.facebook.com/groups/kryptoganzeinfach/
Wenn man mit Mathematikern redet, muss man präzise Sprache benutzen. Hier lernen wir, was ein Funktionenraum ist, und wozu eine Basis gut ist.
Gudrun traf sich zum Gespräch mit Janina Gärtner. Sie hat an der KIT-Fakultät Mathematik gerade ihre Promotion mit dem Titel "Continuation and Bifurcation of Frequency Combs Modeled by the Lugiato-Lefever Equation" abgeschlossen. Die Arbeit war Teil der Forschung im SFB 1173: Wellenphänomene und ist interdisziplinär zwischen Mathematik und Elektrotechnik entstanden. Im Zentrum stehen Frequenzkämme, die Janina theoretisch und praktisch betrachtete. Einerseits geht es um analytische Untersuchungen zur Existenz und Regularität von bestimmten Lösungen der zugehörigen Gleichung. Andererseits werden numerisch bestimmte Fälle gelöst, für die sich die Arbeitsgruppe in der E-Technik besonders interessiert. Frequenzkämme sind optische Signale, die aus vielen Frequenzen bestehen und mehrere Oktaven überspannen können. Sie entstehen beispielsweise indem monochromatisches Laserlicht in einen Ringresonator eingekoppelt wird und die resonanten Moden des Ringresonators angeregt werden. Durch Mischung und aufgrund des nichtlinearen Kerr-Effekts des Resonatormaterials werden Frequenzkämme mit unterschiedlichen Eigenschaften erzeugt. Die mathematische Beschreibung des elektrischen Feldes innerhalb des Ringresonators erfolgt durch die Lugiato-Lefever Gleichung. Von besonderem Interesse sind dabei sog. Solitonen-Kerrkämme („Soliton Kerr Combs“ oder auch „Dissipative Kerr-Soliton Combs“), die aus im Resonator umlaufenden zeitlich und räumlich stark lokalisierten Solitonen-Impulsen entstehen. Solitonen-Kerrkämme zeichnen sich durch eine hohe Zahl an Kammlinien und damit eine große optische Bandbreite, durch geringes Phasenrauschen und durch eine hohe Robustheit aus. Ausgangspunkt von Janinas Untersuchungen ist der Existenzbeweis von Soliton-artigen Frequenzkämmen für den Fall, dass die Dispersion positiv ist. Anschließend können die Parameterbereiche angegeben werden, für die das praktisch auftritt. Mathematisch ist der erste Trick, dass man sich auf zeitlich konstante (stationäre) Lösungen beschränkt. Da örtlich nur eine Variable betrachtet wird, wird aus der partiellen eine gewöhnliche Differentialgleichung. Für diese Gleichung betrachtet Janina zunächst einen sehr einfachen Fall (sogenannte homokline Triviallösungen): Lösungen, die gegen eine Konstante streben. Die Gleichung wird dafür zunächst ohne Dämpfungs- und ohne Anregungsterme betrachtet. Es zeigt sich, dass die einzigen homoklinen Lösungen rein imaginär sind. Anschließend wird zuerst die Anregung hinzugenommen und mit Aussagen zu Eindeutigkeit und Verzweigungen können die Lösungen hier fortgesetzt werden. Selbst nach Hinzunahme der Dämpfung funktionieren noch Fortsetzungsargumente in einer gewissen Umgebung. Das passt aber gut zu der Idee, dass man die Verzweigungsstellen finden möchte. Mit Hilfe der Software pde2path können analytisch alle Verzweigungspunkte bestimmt werden. Anschließend werden anhand von konkreten Beispielen alle primären Verzweigungen vom Ast der Triviallösungen bestimmt. Dies führt zu einer Karte von Lösungen und Stabilitätseigenschaften in der Phasen-Ebene, die sehr gut mit vereinfachten Stabilitätskriterien für nichtperiodische Lösungen übereinstimmt. Daraus werden Heuristiken zum Auffinden der im Zeitbereich am stärksten lokalisierten Frequenzkämme abgeleitet. Janina hat ein Lehramtsstudium Mathematik/Physik am KIT absolviert. Als sie sich für ihre Zulassungsarbeit mit einem mathematischen Thema auseinandergesetzt hat, bekam sie Lust, die mathematische Seite ihrer Ausbildung zum Master Mathematik zu vervollständigen. Anschließend hat sie eine Promotionsstelle in der KIT-Fakultät für Mathematik angenommen, wo sie auch im Schülerlabor Mathematik tätig war. Mit der Gründung des SFB hat sie sich schließlich ganz auf das besprochene Forschungsthema konzentriert. Literatur und weiterführende Informationen Herr, T. et al. Temporal solitons in optical microresonators. Nat. Photon. 8, 145–152, 2014. N. Akhmediev & A. Ankiewicz: Dissipative Solitons: From Optics to Biology and Medicine, Springer, 2008. Marin-Palomo, Pablo, et al.: Microresonator-based solitons for massively parallel coherent optical communications, Nature 546.7657: 274, 2017. Trocha, Philipp, et al. :Ultrafast optical ranging using microresonator soliton frequency combs, Science 359.6378: 887-891, 2018. Podcasts A. Kirsch, G. Thäter: Lehramtsausbildung, Gespräch im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. K. Sobotta, H. Klein: Schülerlabore, Resonator-Podcast, Folge 59, Holger Klein/Helmholtz-Gemeinschaft, 2015.
Gudrun ist zu Besuch an der ETH in Zürich und spricht dort mit Laura Keller. Laura hat an der ETH Mathematik und theoretische Physik studiert und wurde dort auch promoviert. Anschließend forschte und unterrichtete sie jeweils einige Jahre in Münster, Lausanne und Luzern. Heute arbeitet sie als Senior Scientist an Strömungsmodellen, wie sie in Anwendungen in der Biologie, z.B. im menschlichen Körper vorkommen. Hier gibt es ganz unterschiedliche biologische und medizinische Fragen. Bekanntlich enthält der menschliche Körper viel Wasser. Die Bewegung von Blut oder Gehirnflüssigkeit ist aber nicht wie die von Wasser, sondern u.a. durch im Fluid gelöste Zellen mitbestimmt, die mit der Flüssigkeit in unterschiedlich breiten Gefäßen transportiert werden. Auch Tumorwachstum lässt sich mit solchen Gleichungen studieren. Wenn man eine konkrete Frage im Blick hat, muss man als nächstes entscheiden, was man genau erreichen will: braucht man ein Modell, mit dem man Beobachtungen im Prinzip nachvollziehen kann oder muss es ein Modell sein, das kalibriert ist und möglichst genau experimentelle Daten abbildet und Prognosen geben kann? Im Einzelnen heißt das zu entscheiden, welche Effekte sind wichtig und werden in das Modell einbezogen? Beispielsweise kann man für eine partikelbehaftete Strömung sowohl Partikel als auch die Strömung gleichzeitig vollständig modellieren oder man homogenisiert beide zu einer Flüssigkeit mit Eigenschaften, die so ungefähr die wichtigen Eigenschaften der Mischung hat. Klassisch nimmt man hier gern Oldroyd-B-Modelle für Partikelströmungen, da sie sowohl ein elastisches als auch ein viskoses Strömungsverhalten zeigen. Sind gelöste Zellen aber solche Partikel oder nicht? Ein denkbarer Zugang, biologische in Flüssigkeit gelagerte Zellen zu untersuchen wäre es auch, mit den unterschiedlichen Dichten als Hauptinformation zu arbeiten. Es ist nicht so klar, wohin man am sinnvollsten vom Standardmodell abweicht, um die Modelle realitätsnäher zu machen. Laura kommt aus der geometrischen Analysis und macht deshalb besonders gern die Arbeiten zur prinzipiellen mathematischen Absicherung von Modellen. D.h. sie beweist in ihren Arbeiten Existenz, Eindeutigkeit und Regularität von Lösungen der sehr nichtlinearen Gleichungssysteme. Mathematisch ist es immer hilfreich, wenn man im Modell bestimmte Struktureigenschaften wie Symmetrie oder Energieminima ausnutzen kann. Ein wichtiges Thema sind für sie Strömungen ohne Gravitation. Im Experiment kann man z.B. einen horizontalen Zylinder betrachten und durch eine Drehbewegung um die Symmetrieachse die mittlere Gravitation zum verschwinden bringen. Die publikumswirksamen Anwendungen sind hier Probleme mit Muskeln und Bandscheiben im Weltall. Allerdings sind physiologische Befunde für bettlägerige Personen ähnlich wie die für Personen im Weltall, denn denen fehlt der für ihren Bewegungsapparat wichtige Wechsel zur Gravitationsrichtung über den Verlauf des Tages hinweg. Gudrun und Laura lassen den Blick über unterschiedliche Themenfelder und Aufgaben in der biologischen Mathematik für ganz verschiedene mathematische Felder schweifen und sind sich schließlich einig, dass es auf dem Gebiet für unterschiedlichste mathematische Techniken noch sehr viele spannende ungelöste Fragen gibt. Außerdem finden sie es wichtig, eine Arbeitskultur zu schaffen, in der jede/r mit Fragen willkommen ist- sowohl für die Studierenden als auch im Kollegium. Literatur und weiterführende Informationen L.G.A. Keller: Homogenization and concentrated capacity for the heat equation with two kinds of microstructures: Uniform cases. Annali di Matematica Pura ed Applicata 196(3), 791-818, 2017. https://people.math.ethz.ch/~triviere/pdf/pub/keller-mondino-riviere-22-05-13.pdfL. Keller e.a.:Embedded surfaces of arbitrary genus minimizing the Willmore energy under isoperimetric constraint] Arch. Ration. Mech. Anal. 212, 645-682, 2014. L.Tartar: The General Theory of Homogenization: A Personalized Introduction. Springer, Heidelberg, 2009. Podcasts X. Liao, G. Thäter: Nonhomogenous Fluids, Gespräch im Modellansatz Podcast, Folge 189, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. M. E. Rognes, G. Thäter: Cerebral Fluid Flow, Gespräch im Modellansatz Podcast, Folge 134, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Khrabustovskyi, G. Thäter: Homogenization, Gespräch im Modellansatz Podcast, Folge 116, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Harmonie Harmonie bedeutet im Einklang sein, übereinstimmen oder auch komplementär zueinander schwingen. Harmonie/Harmonik findet sich in zwischenmenschlichen Beziehungen, der Kunst und auch in der Natur wieder. Zwischen Menschen entsteht Harmonie wenn sich zwei gut verstehen, sie einen draht zueinander haben oder einfach die "Chemie stimmt". Solch "harmonische Beziehungen" resultieren aus gemeinsamen Interessen, einem ähnlichen Geschmack oder weil sich beide gut ergänzen. Ein Künstler erschafft ein harmonisches Werk wenn sich sowohl Form, als auch Farbgebung nahtlos ineinander fügen. Musiker erzeugen harmonische Musik durch die spezielle Anordnung von Tönen. Meister der Harmonik jedoch, ist die Natur. In jeder Pflanze und allen Lebewesen, seien sie noch so klein, kann man sie entdecken. Mathematisch ausgedrückt ist der goldene Schnitt die Formel für Harmonie. Und genau jenes Ordnungprinzip ist charakteristisch für Mutter Erde. Das nachfolgende Set von Nõpi ist Harmonie pur. Jedes Lied passt zum nächsten und gemeinsam ergeben sie ein rundes und stimmiges Gesamtbild. Viel Spaß
I. BEGRÜSSUNG | ZU DIESER EPISODE: In unserer heutigen Folge präsentieren wir den NEURONprocessor 3 als IdeenLabor & für IdeenEntwickler: Und zeigen Euch, wie dieser in unserem neuen virtuellen IdeenLabor eingesetzt wird und wie ihr diesen selbst als innovative IdeenEntwickler nutzt. Hallo da Draussen an den digitalen Weltempfängern! Wir begrüßen Euch zu unserer aktuellen GEHIRNfutter Podcast Folge. Wir, dass sind Uwe Volk - der heute leider nicht kann - und Thomas Tankiewicz, als auch Dirk Jacobasch hinter den Kulissen. Und wir sind die NEURONprocessing Mitgründer. In unserer heutigen Folge werden wir Buße tun. Denn wir habe uns an der Heiligen Regel des Podcasting vergangen, die da heißt: „Gehet regelmäßig auf Sendung“! Doch wir hatten einen guten Grund für diesen Regelbruch: und zwar den Aufbau unseres neuen NEURONprocessing Startups - als: Denkfabrik, Akademie & Institut für Gehirn- und Zukunftsforschung. ! Über die Gründe - und die daraus für Euch resultierenden faszinierenden neuen Möglichkeiten - wollen wir in der nächsten Folge sprechen. Denn heute sprechen wir über den NEURONprocessor - in der vollkommen überarbeiteten Version 3. Was ihr alles damit machen könnt und wie, das wollen wir euch in dieser Folge zeigen. Und an dem Wort “zeigen” hört ihr, das es sich um eine Video-Podcast Folge handelt - schliesslich wollt ihr von der Software ja auch etwas sehen. Wir haben das Video hier in den Show-Notes zu dieser Sendung auf unseren YouTube Kanal » verlinkt: [av_video src='https://www.youtube.com/watch?v=mV-SKNTeXYs?rel=0' format='16-9' width='16' height='9' av_uid='av-swb1h1'] Wir verstehen uns mit unserem GEHIRNfutter Podcast als ein Reisebegleiter an die Grenzen unseres Bewusstseins und unserer Wahrnehmung – basierend auf moderner Gehirnforschung. Worum es in dieser Erkenntnisreise geht, lässt sich in unserem GEHIRNfutter Podcast Trailer nachlesen und nachhören. Dort befindet sich auch unser aktueller Sendeplan. II. NEWS Die wichtigste Nachricht in unserem News-Block erklärt auch gleich den NEURONprocessor und lautet : Das 1. virtuelle IdeenLabor der Welt & Werde ein top IdeenEntwickler mit dem NEURONprocessor: Wir bieten das erste “Virtuelle Ideenlabor” weltweit an. Dieses basiert auf der von uns selbst entwickelten NEURONprocessor Software - vor folgendem wissenschaftlichen Hintergrund: Aus unserem täglichen Denken filtert unser Gehirn hochwertige Ideen & Informationen heraus - verwirft sie - und speichert diese unbewusst für uns ab. Mathematisch betrachtet in 99 von 100 Fällen… Unsere NEURONprocessor Software & Methodik bietet jedem Menschen den maximalen Zugriff auf diese unbewusst gespeicherten Gedächtnisinhalte - für höherwertige: Ideen Projekte Produkte Konzepte Lösungen Strategien Entwicklungen Kreativität Zukunftsplanung Forschung … Die Ergebnisse gehen weit über die Möglichkeiten heute verfügbarer Ideenfindungs- und Kreativitätstechniken hinaus! Und heraus resultieren unsere Leistungen: Beauftragung unserer NEURONprocessing Denkfabrik aus erfahrenen Ideenentwicklern mit obigen Anwendungen. Den auf unserer NEURONprocessor Software basierenden Prozess an unserer Akademie erlernen und sich als Ideenentwickler zertifizieren lassen. Eine eigene Abteilung aus zertifizierten Ideenentwicklern (Ideation-Team) mit uns aufbauen. Unser Institut liefert die neusten Erkenntnissen aus allen relevanten Forschungsbereichen durch unseren GEHIRNfutter Blog & Podcast. JETZT haben wir auch gleich ein bisschen Werbung gemacht ... doch nur so können wir “Kunde von unser Vision” tun - und wir fangen jetzt erst richtig an. ;-) Wenn Ihr etwas mehr zum wissenschaftlichen Hintergrund und zur Methodik des NEURONprocessor - in Verbindung mit konkreten Beispielen - wissen wollt, dann hört Euch folgende GEHIRNfutter Podcastfolge an: GF-0008 | Brain Hacking – Mit Gehirntechnologie Entwicklungen voraus empfinden und optimieren III. Live Demonstration
I. BEGRÜSSUNG | ZU DIESER EPISODE: In unserer heutigen Folge präsentieren wir den NEURONprocessor 3 als IdeenLabor & für IdeenEntwickler: Und zeigen Euch, wie dieser in unserem neuen virtuellen IdeenLabor eingesetzt wird und wie ihr diesen selbst als innovative IdeenEntwickler nutzt. Hallo da Draussen an den digitalen Weltempfängern! Wir begrüßen Euch zu unserer aktuellen GEHIRNfutter Podcast Folge. Wir, dass sind Uwe Volk - der heute leider nicht kann - und Thomas Tankiewicz, als auch Dirk Jacobasch hinter den Kulissen. Und wir sind die NEURONprocessing Mitgründer. In unserer heutigen Folge werden wir Buße tun. Denn wir habe uns an der Heiligen Regel des Podcasting vergangen, die da heißt: „Gehet regelmäßig auf Sendung“! Doch wir hatten einen guten Grund für diesen Regelbruch: und zwar den Aufbau unseres neuen NEURONprocessing Startups - als: Denkfabrik, Akademie & Institut für Gehirn- und Zukunftsforschung. ! Über die Gründe - und die daraus für Euch resultierenden faszinierenden neuen Möglichkeiten - wollen wir in der nächsten Folge sprechen. Denn heute sprechen wir über den NEURONprocessor - in der vollkommen überarbeiteten Version 3. Was ihr alles damit machen könnt und wie, das wollen wir euch in dieser Folge zeigen. Und an dem Wort “zeigen” hört ihr, das es sich um eine Video-Podcast Folge handelt - schliesslich wollt ihr von der Software ja auch etwas sehen. Wir haben das Video hier in den Show-Notes zu dieser Sendung auf unseren YouTube Kanal » verlinkt: Wir verstehen uns mit unserem GEHIRNfutter Podcast als ein Reisebegleiter an die Grenzen unseres Bewusstseins und unserer Wahrnehmung – basierend auf moderner Gehirnforschung. Worum es in dieser Erkenntnisreise geht, lässt sich in unserem GEHIRNfutter Podcast Trailer nachlesen und nachhören. Dort befindet sich auch unser aktueller Sendeplan. II. NEWS Die wichtigste Nachricht in unserem News-Block erklärt auch gleich den NEURONprocessor und lautet : Das 1. virtuelle IdeenLabor der Welt & Werde ein top IdeenEntwickler mit dem NEURONprocessor: Wir bieten das erste “Virtuelle Ideenlabor” weltweit an. Dieses basiert auf der von uns selbst entwickelten NEURONprocessor Software - vor folgendem wissenschaftlichen Hintergrund: Aus unserem täglichen Denken filtert unser Gehirn hochwertige Ideen & Informationen heraus - verwirft sie - und speichert diese unbewusst für uns ab. Mathematisch betrachtet in 99 von 100 Fällen… Unsere NEURONprocessor Software & Methodik bietet jedem Menschen den maximalen Zugriff auf diese unbewusst gespeicherten Gedächtnisinhalte - für höherwertige: Ideen Projekte Produkte Konzepte Lösungen Strategien Entwicklungen Kreativität Zukunftsplanung Forschung … Die Ergebnisse gehen weit über die Möglichkeiten heute verfügbarer Ideenfindungs- und Kreativitätstechniken hinaus! Und heraus resultieren unsere Leistungen: Beauftragung unserer NEURONprocessing Denkfabrik aus erfahrenen Ideenentwicklern mit obigen Anwendungen. Den auf unserer NEURONprocessor Software basierenden Prozess an unserer Akademie erlernen und sich als Ideenentwickler zertifizieren lassen. Eine eigene Abteilung aus zertifizierten Ideenentwicklern (Ideation-Team) mit uns aufbauen. Unser Institut liefert die neusten Erkenntnissen aus allen relevanten Forschungsbereichen durch unseren GEHIRNfutter Blog & Podcast. JETZT haben wir auch gleich ein bisschen Werbung gemacht ... doch nur so können wir “Kunde von unser Vision” tun - und wir fangen jetzt erst richtig an. ;-) Wenn Ihr etwas mehr zum wissenschaftlichen Hintergrund und zur Methodik des NEURONprocessor - in Verbindung mit konkreten Beispielen - wissen wollt, dann hört Euch folgende GEHIRNfutter Podcastfolge an: GF-0008 | Brain Hacking – Mit Gehirntechnologie Entwicklungen voraus empfinden und optimieren III. Live Demonstration Ich zeige Euch den NEURONprocessor am Beispiel der Optimierung eines Produktes - passender Weise dem NEURONprocessor. Denn - der Ausgangspunkt ist typisch: Denn ich si...
Am 6. Juni 2018 hat Dietmar Gallistl seine Antrittsvorlesung gehalten. Dies ist der traditionelle Abschluss jedes Habilitationsverfahrens an der KIT-Fakultät für Mathematik. Der Titel des Vortrags lautete: Die Stabilitätskonstante des Divergenzoperators und ihre numerische Bestimmung. Im Zentrum des Vortrags und des Gespräches mit Gudrun stand die Inf-sup-Bedingung, die u.a. in der Strömungsrechnung eine zentrale Rolle spielt. Das lineare Strömungsproblem (Stokesproblem) besteht aus einer elliptischen Vektor-Differentialgleichung für das Geschwindigkeitsfeld und den Gradienten des Drucks und einer zweiten Gleichung. Diese entsteht unter der Annahme, dass es zu keiner Volumenänderung im Fluid unter Druck kommt (sogenannte Inkompressibilität) aus der Masseerhaltung. Mathematisch ist es die Bedingung, dass die Divergenz des Geschwindigkeitsfeldes Null ist. Physikalisch ist es eine Nebenbedingung. In der Behandlung des Problems sowohl in der Analysis als auch in der Numerik wird häufig ein Lösungsraum gewählt, in dem diese Bedingung automatisch erfüllt ist. Damit verschwindet der Term mit dem Druck aus der Gleichung. Für das Geschwindigkeitsfeld ist dann mit Hilfe des Lax-Milgram Satzes eine eindeutige Lösung garantiert. Allerdings nicht für den Druck. Genau genommen entsteht nämlich ein Sattelpunktproblem sobald man den Druck nicht ausblendet. Dieses ist nicht wohlgestellt, weil man keine natürlichen Schranken hat. Unter einer zusätzlichen Bedingung ist es aber möglich, hier auch die Existenz des Druckes zu sichern (und zwar sowohl analytisch als auch später im numerischen Verfahren solange der endliche Raum ein Unterraum des analytischen Raumes ist). Diese heißt entweder inf-sup Bedingung oder aber nach den vielen Müttern und Vätern: Ladyzhenska-Babushka-Brezzi-Bedingung. Die Konstante in der Bedingung geht direkt in verschiedene Abschätzungen ein und es wäre deshalb schön, sie genau zu kennen. Ein Hilfsmittel bei der geschickten numerischen Approximation ist die Helmholtzzerlegung des L2. Diese besagt, dass sich jedes Feld eindeutig in zwei Teile zerlegen läßt, von der eines ein Gradient ist und der andere schwach divergenzfrei. Es lassen sich dann beide Teile getrennt betrachten. Man konstruiert den gemischten Finite Elemente Raum so, dass im Druck stückweise polynomielle Funktionen (mit Mittelwert 0) auftreten und und für den Raum der Geschwindigkeitsgradienten das orthogonale kompelemt der schwach divergenzfreien Raviart-Thomas-Elemente gewählt ist. Dietmar Gallistl hat in Freiburg und Berlin Mathematik studiert und promovierte 2014 an der Humboldt-Universität zu Berlin. Nach Karlsruhe kam er als Nachwuchsgruppenleiter im SFB Wellenphänome - nahm aber schon kurz darauf in Heidelberg die Vertretung einer Professur wahr. Zur Zeit ist er als Assistant Professor an der Universität Twente tätig. Literatur und weiterführende Informationen D. Gallistl. Rayleigh-Ritz approximation of the inf-sup constant for the divergence. Math. Comp. (2018) Published online, https://doi.org/10.1090/mcom/3327 Ch. Bernardi, M. Costabel, M. Dauge, and V. Girault, Continuity properties of the inf-sup constant for the divergence, SIAM J. Math. Anal. 48 (2016), no. 2, 1250–1271. https://doi.org/10.1137/15M1044989 M. Costabel and M. Dauge, On the inequalities of Babuška-Aziz, Friedrichs and Horgan-Payne, Arch. Ration. Mech. Anal. 217 (2015), no. 3, 873–898. https://doi.org/10.1007/s00205-015-0845-2 D. Boffi, F. Brezzi, and M. Fortin, Mixed finite element methods and applications, Springer Series in Computational Mathematics, vol. 44, Springer, Heidelberg, 2013. Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016
Folge 6 - Freundschaft ist doch was gutes! Ich habe jetzt auch Twitter! @nchtgdnknpdcst Freundschaft verdoppelt sich, wenn man sie teilt... oder so ähnlich. Ich teile jedenfalls gerne. 4 durch 2, 8 durch 1... alles geteilt. Freundschaft geht auch so. Wer also viele Freunde hat, ist Mathematiker. Und wenn ich von Finn und Jake eins gelernt hab, dann dass "Mathematisch" ein Lob ist!
Guntram Scheithauer ist Mathematiker und forscht an der TU Dresden. Seit seiner Promotion gilt sein Interesse der diskreten Mathematik und der Optimierung. Sein Einstieg in dieses Teilgebiet der Mathematik waren Rundreiseprobleme. Anfang der 1980er Jahre verschob sich das Hauptarbeitsgebiet dann auf Zuschnittsoptimierung und Packungsprobleme. Ausgangspunkt hierfür waren konkrete Anfragen aus der Holzindustrie. Ein noch sehr einfach formulierbares eindimensionales Zuschnittsproblem ist: Man hat Material der Länge l vorliegen und möchte daraus Teile einer bestimmten Länge so zuschneiden, dass der Abfall minimiert wird. Die Anzahl der Teile ist dabei nicht fest vorgegeben. Mathematisch lässt sich das auf das sogenannte Rucksackproblem zurückführen. Typisch ist, dass eine Nebenbedingung (die Länge) auftritt und nur ganzzahlige Werte sinnvoll sind, also ein ganzahliges lineares Optimierungsproblem vorliegt. Prinzipiell geht es im Rucksackproblem darum, dass man ein vorgegebenes Volumen des Rucksackes (seine Kapazität) gegeben hat, in das man beliebig verformbare Teile einpackt. In der Praxis so etwas wie Kleidung und Wanderutensilien, die man alle mehr oder weniger nötig braucht. Das heißt, jedes potentiell mitzunehmenden Teil hat zwei relevante Eigenschaften: Es braucht ein bestimmtes Volumen im Rucksack und es hat einen bestimmten Wert an Nützlichkeit. Das Problem ist gelöst, wenn man die Packung mit dem größten Nützlichkeits-Wert gefunden hat. Theoretisch kann man natürlich alle Möglichkeiten durchgehen, den Rucksack zu packen und dann aus allen die nützlichste aussuchen, aber in der Praxis ist die Anzahl an Möglichkeiten für Packungen sehr schnell so groß, dass auch ein schneller Computer zu lange braucht, um alle Fälle in akzeptabler Zeit zu betrachten. Hier setzt die Idee des Branch-and-Bound-Verfahrens an. Der sogenannte zulässige Bereich, d.h. die Menge der Lösungen, die alle Bedingungen erfüllen, wird zunächst schrittweise in Teilbereiche zerlegt. Auf diesen Teilbereichen werden die Optimierungsprobleme gelöst und dann aus allen die beste Variante gesucht. Leider können dies extrem viele Teilprobleme sein, weshalb der "Bound"-Teil des Verfahrens versucht, möglichst viele der Teilprobleme von vornherein als nicht aussichtsreich zu verwerfen. Der Erfolg des Branch-and-Bound steht und fällt mit guten Ideen für die Zerlegung und die zugehörigen Schranken. Der Rechenaufwand ist für einen konkreten Fall jeweils schwer schätzbar. Ein weiteres Verfahren für ganzzahlige Optimierungsprobleme ist Dynamische Optimierung. Ursprünglich wurde es für die Optimierung von sequentiellen Entscheidungsprozessen entwickelt. Diese Technik zur mehrstufigen Problemlösung kann auf Probleme angewendet werden, die als verschachtelte Familie von Teilproblemen beschrieben werden können. Das ursprüngliche Problem wird rekursiv aus den Lösungen der Teilprobleme gelöst. Deshalb ist der Aufwand pseudopolynomial und es erfordert etwa gleichen Rechenaufwand für gleich große Probleme. Weitere Verfahren zur Lösung von ganzzahligen Optimierungsproblemen sind bekannt unter dem Namen Schnittebenenverfahren und Branch-and-Cut. Nach der Berechnung des Optimums der stetigen Relaxation werden Schritt für Schritt neue Nebenbedingungen zum Problem hinzugefügt. Mit Hilfe dieser zusätzlichen Ungleichungen werden nicht ganzzahlige Variablen der kontinuierlichen Lösungen gezwungen, ganzzahlige Werte anzunehmen. Oftmals ist eine Kombination mit einer Verzweigungsstrategie erforderlich. Eine nahe liegende Verallgemeinerung des oben beschriebenen einfachsten Zuschnittsproblems ist der Zuschnitt von rechteckigen Teilen aus einer Spanplatte. In der Holzindustrie macht eine Kreissäge das meist mit Schnitten von einem Rand der Platte zum gegenüberliegenden. Das sind sogenannte Guillotine-Schnitte. Das trifft auch für Zuschnitt von Glas und Fliesen zu. Hier ist die Anpassung der eindimensionalen Algorithmen noch relativ einfach auf den zweidimensionalen Fall möglich. Richtig schwierig wird es aber, wenn beliebige Polygone als Teile auftreten oder gar solche mit krummlinigen Rändern. Ein typisches Anwendungsproblem ist, dass eine optimale Anordnung von Einzelteilen eines Kleidungsstück auf einer Stoffbahn in der Regel nicht übertragbar auf eine andere Konfektionsgröße ist. Eine weitere Familie von Fragestellungen ist: Wie groß muss ein Quadrat sein, um Platz für eine vorgegebene Anzahl von Kreise mit Durchmesser 1 zu bieten? Das ist mathematisch sehr einfach zu formulieren aber in der Regel schwierig zu lösen, da das zugehörige Optimierungsproblem nicht konvex ist. Literatur und weiterführende Informationen Rucksackproblem Algorithmen für Rucksackproblem Rucksackproblem in Anwendungen Josef Kallrath: Gemischt-Ganzzahlige Optimierung. Modellierung in der Praxis. Vieweg/Springer 2013. Guntram Scheithauer: Zuschnitt- und Packungsoptimierung - Problemstellungen, Modellierungstechniken, Lösungsmethoden. Vieweg/Springer 2008. Guntram Scheithauer: Introduction to Cutting and Packing Optimization - Problems, Modeling Approaches, Solution Methods Springer 2018. Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research M. An: Topologieoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/topologieoptimierung K. Berude: Sensoreinsatzplanung, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 154, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/sensoreinsatzplanung
Jonathan Fröhlich hat im Juli 2017 seine Masterarbeit zum Thema "Heterogeneous Multiscale Methods for Poroelastic Media" eingereicht. Sie wurde von Professor Christian Wieners in unserem Institut betreut. Strömungs- und Transportphänomene in sogenannten porösen Medien spielen eine wichtige Rolle in einem breiten Spektrum von Bereichen und Anwendungen, wie zum Beispiel in der Landwirtschaft, der Biomedizin, der Baugeologie und der Erdöltechnik. Betrachtet man beispielsweise den Boden, so stellt man fest, dass der Sand, das Gestein oder der Kies keine homogene Masse ist mit homogenen Materialeigenschaften, sondern aus unzähligen unterschiedlich großen und in den physikalischen Eigenschaften variierenden Teilen bestehen. Die hohe Heterogenität solcher Medien führt auf eine große Komplexität, die im Modell des porösen Mediums stark vereinfacht betrachtet wird. Es liegt deshalb die Frage nahe: Wie verallgemeinert man herkömmliche Modelle für poröse Medien so, dass nicht gleich die komplette Zusammensetzung benötigt wird, aber mehr von der Struktur berücksichtigt wird? Die vorliegende Arbeit und unser Gespräch konzentrieren sich auf einen Spezialfall, nämlich die einphasige Strömung durch poroelastische Medien. Sie sind gekennzeichnet durch die Wechselwirkung zwischen der Beanspruchung der intrinisischen Struktur und der Strömung der Flüssigkeit. Konkret erzwingt die Änderung des Flüssigkeitsdrucks eine Beanspruchung des Materials, wodurch es beschleunigt und bewegt wird. Ein Beispiel hierfür ist der Blutfluß durch Adern. Das Blut verändert im Fließen ständig die konkrete Geometrie der elastisch verformbaren Adern und gleichzeitig ändern die Adern die Fließrichtung und -geschwindigkeit des Blutes. Dieser Prozeß wird mit bestimmten partiellen Differentialgleichungen (PDEs) modelliert. Jonathan verwendete das von Biot (1941) eingeführte linearisierte Modell und erweitert es zu einem quasistatischen Konsolidationsmodell für die Bodenmechanik. Solche Probleme sind charakterisiert durch die enorme Größe des betrachteten Gebietes, beispielsweise mehrere Kilometer an Flussbett. Dies steht im Kontrast zu den sehr kleineskaligen geometrischen Informationen, wie Sandkorngrößen und -formen, die einen Einfluss auf das System haben. Die standardmäßige Finite-Elemente-Methode zur numerischen Lösung dieses Systems von PDEs wird nur dann gute Ergebnisse liefern, wenn die Auflösung des Netzes wirklich extrem hoch ist. Dies würde zu nicht realisierbaren Rechenzeiten führen. Deshalb wird eine Idee von E und Engquist benutzt, die sogenannte Finite Element Heterogene Multiskalen Methode (FE-HMM) von 2003. Sie entkoppelt den heterogenen Teil und löst ihn durch ein mikroskopisch modelliertes Problem. Das makroskopische Problem braucht dann nur ein viel gröberes Netz und benutzt die Informationen aus dem mikroskopischen Teil als Daten. Mathematisch gesehen verwendet die Theorie eine schwache Formulierung mit Hilfe von Bilinearformen und sucht nach Lösungen in Sobolev-Räumen. Die passende Numerik für das makroskopische Problem ist eine gemischte Finite-Elemente-Methode für ein gestörtes Sattelpunktproblem. Deshalb müssen für Existenz und Eindeutigkeit von schwachen Lösungen bestimmte Bedingungen erfüllt sein, die der klassischen LBB-Bedingung (auch inf-sup-Bedingung genannt) ähnlich sind. Das zu lösende mikroskopische Problem ist elliptisch und wird mithilfe klassischer Homogenisierungstheorie hergeleitet, wobei zusätzliche Bedingungen zur Sicherung der Zwei-Skalen Konvergenz erfüllt werden müssen. Literatur und weiterführende Informationen Maurice A. Biot: General Theory of Three‐Dimensional Consolidation Journal of Applied Physics 12, 155, 1941. E. Weinan, Björn Engquist: The Heterogeneous Multiscale MethodsCommunications in Mathematical Sciences, Volume 1, Number 1, 87-132, 2003. M. Sahimi: Flow and Transport in Porous Media and Fractured Rock Wiley Weinheim, 2011. Assyr Abdulle e.a.: The heterogeneous multiscale method Acta Numerica Volume 21, pp. 1-87, 2012. Podcasts J. Fröhlich: Getriebeauswahl, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 028, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Ein Gespräch mit Oliver Beige über dynamische Prozesse in der Mikroökonomik: Über Einfluss, Ideenpropagation und Nachbarschaftseffekte. Oliver Beige und Gudrun Thäter haben sich online über die große gemeinsame Schnittmenge im Musikgeschmack gefunden. Obwohl Oliver in Berlin lebt und Gudrun in Karlsruhe ist es schon vorgekommen, dass sie im gleichen Konzert waren ohne das rechtzeitig zu bemerken, weil sie sich persönlich noch nicht kannten. Im vergangenen Jahr fand Gudrun dann interessante Überlegungen zur aktuellen Anwendbarkeit der Ideen und Modelle von Malthus, die Oliver veröffentlicht hatte. Diese erwiesen sich als spannende Lektüre für die Studierenden der Modellbildungsvorlesung, die Gudrun gerade hielt. Damit war der Plan geboren, dass man sich nicht nur unbedingt einmal persönlich kennenlernen müsste, sondern bei nächster Gelegenheit auch für den Podcast einmal unterhalten sollte. Diese Gelegenheit bot sich im Juli 2017 nach einem Freiluftkonzert in der Kulturbrauerei in Berlin. Oliver ist Ökonom. Er hat 1993 in Karlsruhe sein Diplom in Wirtschaftsingenieurwesen erworben und sich anschließend in den Staaten umgesehen. Dort hat er 1997 einen Master of Business Administration (University of Illinois) abgeschlossen und sich schließlich im Rahmen seiner Promotion an der UC Berkeley mit der mathematischen Modellierung von Ideenpropagation und Entscheidungsprozessen in Netzwerken beschäftigt. Er hat dabei auch zwei Wellen von Innovation im Silicon Valley hautnah miterlebt. Was so einfach und grundlegend klingt ist tatsächlich eine sehr schwierig zu beantwortende Frage: Wie beeinflussen sich Mitglieder in einer Gruppe gegenseitig beim Finden von Entscheidungen? Während Soziologen gerne über gruppendynmische Prozesse diskutieren, arbeiten Ökonomen traditionell unter der vereinfachten Annahme, dass Entscheidungen als unabhängig voneinander getroffen werden - gestützt auf einer rein rationalen, isolierten Nutzenkalkulation. Erst seit Kurzem wird diese Annahme in der Ökonmie durch neue Modelle in Frage gestellt. Was jedoch modellhaft einen Zugang zum dynamischen Entscheidungsprozess in einer Gruppe verschaffen kann - in dem natürlich ganz viel Rückkopplung eingebaut werden muss - sind neuronale Netze - z.B. die Boltzmann-Maschine. Diese hatte Oliver in Karlsruhe kennen- und schätzen gelernt. Sie bilden ein stochastisches Feedback-Netzwerk, in dem man auch untersuchen kann, wie man zu einem Equilibrium kommen kann. Wie läuft denn so eine kollektive Entscheidung ab? Vorab hat jede/r in der Gruppe Präferenz - z.B. für einen bestimmten Film, den er oder sie gern in Begleitung anderer in der Gruppe sehen würde. Darüber wird gesprochen und schließlich teilt sich die Gruppe auf in Untergruppen, die im Kino den gleichen Film sehen. Im Gespräch werden die Präferenzen der anderen jeweils gewichtet in die eigene Entscheidung einfließen. Mathematisch wird das ausgedrückt in einer Nutzenfunktion, deren Wert maximiert wird. In der evolutionären Spieltheorie kann dieses dann als ein stochastischer Prozess modelliert werden, der mittels einer Potentialfunktion die Meinungsbildung der Gruppe als Equilibriumspfad darstellt. Von einem mehr abstrakten Level stellen sich auch die Fragen an ein so gewonnenes Equilibrium: a) Sind die Entscheidungen für die Gruppe die besten? b) Inwieweit beeinflusst die Struktur des sozialen Netzwerkes die Gruppenentscheidung? c) Kann die Gruppendynamik dazu führen, dass einzelne Mitglieder entgegen ihrer Präferenzen entscheiden (und damit das Axiom der offenbarten Präferenzen verletzen)? Zur Darstellung dieser Prozesse wandelte Oliver den traditionellen Entscheidungsbaum unter Ausnutzung der Markow-Eigenschaft in einen Entschediungsgraphen um. Dies war damals ein komplett neuer Ansatz und hat sich auch im großen Maßstab bis heute nicht durchgesetzt. Neu an der Arbeit war auch, dass zum ersten Mal im Zusammenhang der Netzwerkeffekte die Struktur des Netzwerkes betrachtet wurde. In der ursprünglichen Konzeption in der Arbeit von Michael Katz und Carl Shapiro wurde die Heterogenität des Netzwerkes noch explizit ausgeschlossen. Wie wichtig Nachbarschaftseffekte sind, weiß man in der Innovationsökonomik aber schon seit Zvi Griliches die schrittweise Verbreitung des ertragreicheren Hybridmaises in den USA über Mundpropaganda erforscht hatte. Diese Form der Ideenpropagation ist auch ein wichtiger Baustein in Jared Diamonds "Guns, Germs, & Steel" (das den Pulitzerpreis gewann). Großen Einfluss auf Olivers Arbeit haben die Arbeiten des Pioniers der Spieltheorie Thomas Schelling (Nobelpreisträger 2005), der so wichtige Begriffe wie Nachbarschaftseffekte, kritische Masse und das Konzept des Tipping points einführte. Heute setzt Oliver seine Kenntnisse über dynamische Prozesse bei Entscheidungen über Investitionen in Startups, insbesondere im Bereich der verknüpften Mobilität und der Verbreitung neuer Technologien wie z.B. Blockchain, ein. Literatur und weitere Informationen J. Diamond: Guns, Germs, and Steel. W.W. Norton, 1997. Thomas Schelling, Nobelist and game theory pioneer, 95 . Nachruf, Harvard Gazette 14.12.2016. O. Beige: Resurrecting Malthus and Ricardo Medium, 2016. O. Beige: Essays on Preference and Influence Dissertation an der University of California, Berkeley, 2006. J. H. Conway: Game of life Podcasts P. Stursberg: Social Choice, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 129, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. V. Caspari: Perfekte Gleichgewichte, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 61, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. K. Cindric: Kaufverhalten, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 45, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. S. Ritterbusch: Digitale Währungssysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
Peer Kunstmann hat in Kiel Mathematik studiert und 1995 promoviert. In seiner Zeit an der Fakultät für Mathematik in Karlsruhe hat er sich 2002 habilitiert. Er arbeitet als Akademischer Oberrat dauerhaft in der Arbeitsgruppe Angewandte Analysis an unserer Fakultät. Gudrun hat das Gespräch über ein für beide interessantes Thema - das Stokesproblem - gesucht, weil beide schon über längere Zeit mit unterschiedlichen Methoden zu dieser Gleichung forschen. Das Stokesproblem ist der lineare Anteil der Navier-Stokes Gleichungen, dem klassischen Modell für Strömungen. Sie haben eine gewisse Faszination, da sie einfach genug erscheinen, um sie in ihrer Struktur sehr eingehend verstehen zu können, zeigen aber auch immer wieder, dass man sie nicht unterschätzen darf in ihrer Komplexität. Peers Interesse wurde zu Beginn seiner Zeit in Karlsruhe durch Matthias Hieber geweckt, der inzwischen an der TU Darmstadt tätig ist. Es zeigte sich seit damals als sehr aktives Forschungsgebiet, weshalb er auch immer wieder neu zu diesen Fragestellungen zurückgekehrt ist. Mit den klassischen Randbedingungen (konkret, wenn auf dem Rand vorgeschrieben wird, dass die Lösung dort verschwindet = homogene Dirichletbedingung) ist das Stokesproblem auffassbar als Laplaceoperator, der auf Räumen mit divergenzfreien Vektorfeldern agiert. Der Laplaceoperator ist sehr gut verstanden und die Einschränkung auf den abgeschlossenen Unterraum der Vektorfelder mit der Eigenschaft, dass ihre Divergenz den Wert 0 ergibt, lässt sich mit einer Orthogonalprojektion - der Helmholtzprojektion - beschreiben. Im Hilbertraumfall, d.h. wenn die Räume auf einer L^2-Struktur basieren und der Raum deshalb auch ein Skalarprodukt hat, weiß man, dass diese Projektion immer existiert und gute Eigenschaften hat. Für andere Räume ohne diese Struktur (z.B. -basiert für q nicht 2) hängt die Antwort auf die Frage, für welche q die Projektion existiert, von der Geometrie des Gebietes ab. Für beschränkte Gebiete geht vor allem die Glattheit des Randes ein. Das spiegelt sich auch auf der Seite des Laplaceproblems, wo die Regularität im Innern des Gebietes relativ elementar gezeigt werden kann, aber in der Nähe des Randes und auf dem Rand gehen in die Argumente direkt die Regularität des Randes ein. Mathematisch wird das Gebiet dabei mit Kreisen überdeckt und mit Hilfe einer sogenannten Zerlegung der Eins anschließend die Lösung für das ganze Gebiet zusammengesetzt. Für die Kreise, die ganz im Innern des Gebietes liegen, wird die Lösung auf den ganzen Raum mit dem Wert 0 fortgesetzt, weil die Behandlung des ganzen Raumes sehr einfach ist. Für Kreise am Rand, wird der Rand lokal glatt gebogen zu einer geraden Linie und (ebenfalls nach Fortsetzung mit 0) ein Halbraum-Problem gelöst. Natürlich liegt es in der Glattheit des Randes, ob das "gerade biegen" nur kleine Fehlerterme erzeugt, die sich "verstecken" lassen oder ob das nicht funktioniert. Für einen Rand, der lokal durch zweimal differenzierbare Funktion dargestellt werden kann, funktioniert diese Technik gut. Für Gebiete, die einen Rand haben, der lokal durch Lipschitzstetige Funktionen darstellbar ist, werden z.B. Randintegraldarstellungen direkt untersucht. Dort existiert die Helmholtzzerlegung für alle q im Intervall (wobei vom Gebiet abhängt). Durch die kleinen Fehlerterme, die in der Technik entstehen, wird es auch nötig, die Gleichung für die Divergenz zu untersuchen, wo keine 0 sondern eine beliebige Funktion (natürlich mit den entsprechenden Regularitätseigenschaften) als rechte Seite erlaubt ist. Ein Begriff, der eine wichtige Eigenschaft von partiellen Differentialgleichungen beschreibt, ist der der maximalen Regularität. Einfach ausgedrückt heißt das, wenn ich die rechte Seite in einem Raum vorgebe, ist die Lösung genau so viel regulärer, dass nach Anwendung des Differentialoperators das Ergebnis die Regularität der rechten Seite hat. Für das Laplaceproblem wäre also die Lösung v für jedes vorgegebene f so, dass und f im gleichen Raum sind. Diese Eigenschaft ist z.B. wichtig, wenn man bei nichtlinearen Problemen mit Hilfe von Fixpunktsätzen arbeitet, also z.B. den Operators iterativ anwenden muss. Dann sichert die maximale Regularität, dass man immer im richtigen Raum landet, um den Operator erneut anwenden zu können. Im Zusammenhang mit der Frage der maximalen Regularität hat sich der -Kalkül als sehr nützlich erwiesen. Ein anderer Zugang wählt statt der Operatorformulierung die schwache Formulierung und arbeitet mit Bilinearformen und Ergebnissen der Funktionalanalysis. Hier kann man vergleichsweise wenig abstrakt und in diesem Sinn elementar auch viel für das Stokes- und das Navier-Stokes Problem zeigen. Es gibt ein vorbildliches Buch von Hermann Sohr dazu. Literatur und weiterführende Informationen M. Geißert, P.C. Kunstmann: Weak Neumann implies H^infty for Stokes, Journal Math. Soc. Japan 67 (no. 1), 183-193, 2015. P.C. Kunstmann: Navier-Stokes equations on unbounded domains with rough initial data, Czechoslovak Math. J. 60(135) no. 2, 297–313, 2010. H. Sohr: The Navier-Stokes Equations. An Elementary Functional Analytic Approach Birkhäuser, 2001. M. Cannone: Ondelettes, Paraproduits et Navier-stokes, Diderot Editeur, 1995. G. Thäter, H. Sohr: Imaginary powers of second order differential operators and $L^q$ -Helmholtz decomposition in the infinite cylinder, Mathematische Annalen 311(3):577-602, 1998. P.C. Kunstmann, L. Weis: Maximal L_p-regularity for parabolic equations, Fourier multiplier theorems and H^infty-calculus, in Functional Analytic Methods for Evolution Equations (eds. M. Iannelli, R. Nagel and S. Piazzera), Springer Lecture Notes 1855, 65-311, 2004. P.C. Kunstmann, L. Weis: New criteria for the H^infty-calculus and the Stokes operator on bounded Lipschitz domains, Journal of Evolution Equations, March 2017, Volume 17, Issue 1, pp 387-409, 2017. G.P. Galdi: An introduction to the mathematical theory of the Navier-Stokes equations. Vol. I. Linearized steady problems. Springer Tracts in Natural Philosophy, 38. Springer-Verlag, New York, 1994. Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Das Gespräch mit Susanne Höllbacher von der Simulationsgruppe an der Frankfurter Goethe-Universität war ein Novum in unserer Podcastgeschichte. Das erste mal hatte sich eine Hörerin gemeldet, die unser Interesse an Partikeln in Strömungen teilte, was sofort den Impuls in Gudrun auslöste, sie zu einem Podcastgespräch zu diesem Thema einzuladen. Susanne hat in der Arbeitsgruppe von Gabriel Wittum in Frankfurt promoviert. Dort werden Finite-Volumen-Verfahren zur Lösung von Partiellen Differentialgleichungen benutzt. Das Verfahren betrifft hier insbesondere die räumliche Diskretisierung: Das Rechengebiet wird in Kontrollvolumen aufgeteilt, in denen durch das Verfahren sichergestellt wird, dass bestimmte Größen erhalten bleiben (z.B. die Masse). Diese Verfahren stammen aus dem Umfeld hyperbolischer Probleme, die vor allem als Erhaltungsgesetze modelliert sind. Diese Gleichungen haben die Eigenschaft, dass Fehler nicht automatisch geglättet werden und abklingen sondern potentiell aufgeschaukelt werden können. Trotzdem ist es möglich, diese numerischen Verfahren ähnlich wie Finite-Elemente-Verfahren als Variationsprobleme zu formulieren und die beiden Familien in der Analyse etwas näher zusammenrücken zu lassen. Gemeinsam ist ihnen ja ohnehin, dass sie auf große Gleichungssysteme führen, die anschließend gelöst werden müssen. Hier ist eine billige und doch wirkungsvolle Vorkonditionierung entscheidend für die Effizienz und sogar dafür, ob die Lösungen durch das numerische Verfahren überhaupt gefunden werden. Hier hilft es, schon auf Modell-Ebene die Eigenschaften des diskreten Systems zu berücksichtigen, da ein konsistentes Modell bereits als guter Vorkonditionierer fungiert. Das Promotionsprojekt von Susanne war es, eine Methode zur direkten numerischen Simulation (DNS) von Partikeln in Fluiden auf Basis eines finite Volumen-Verfahrens zu entwickeln. Eine grundsätzliche Frage ist dabei, wie man die Partikel darstellen möchte und kann, die ja winzige Festkörper sind und sich anders als die Strömung verhalten. Sie folgen anderen physikalischen Gesetzen und man ist geneigt, sie als Kräfte in die Strömung zu integrieren. Susanne hat die Partikel jedoch als Teil des Fluides modelliert, indem die Partikel als finite (und nicht infinitesimal kleine) Volumen mit zusätzlicher Rotation als Freiheitsgrad in die diskreten Gleichungen integriert werden. Damit fügen sich die Modelle für die Partikel natürlich und konsistent in das diskrete System für die Strömung ein. Vorhandene Symmetrien bleiben erhalten und ebenso die Kopplung der Kräfte zwischen Fluid und Partikel ist gewährleistet. Die Nebenbedingungen an das System werden so formuliert, dass eine Sattelpunkt-Formulierung vermieden wird. Die grundlegende Strategie dabei ist, die externen Kräfte, welche bedingt durch die Partikel und deren Ränder wirken, direkt in die Funktionenräume des zugrundeliegenden Operators zu integrieren. In biologischen Systemen mit hoher Viskotität des Fluides fungiert die Wirkung der Partikel auf das Fluid als Informationstransport zwischen den Partikeln und ist sehr wichtig. In der Umsetzung dieser Idee verhielten sich die Simulationen des Geschwindigkeitsfeldes sehr gutartig, aber Susanne beobachtete Oszillationen im Druck. Da sie sich nicht physikalisch erklären ließen, musste es sich um numerische Artekfakte handeln. Bei näherem Hinsehen zeigte sich, dass es vor allem daran lag, dass die Richtungen von Kraftwirkungen auf dem Rand der Partikel im diskreten System nicht sinnvoll approximiert wurden. In den berechneten Lösungen für das Geschwindigkeitsfeld hat sich dies kaum messbar niedergeschlagen. Im Druck zeigte sich jedoch, dass es sich lohnt, hier das numerische Verfahren zu ändern, so dass die Normalenrichtungen auf dem Rand jeweils korrekt sind. Mathematisch heißt das, dass die Ansatzfunktionen so geändert werden, dass deren Freiheitsgrade auf dem Rand liegen. Der Aufwand dafür ist vergleichsweise gering und die Resultate sind überzeugend. Die Oszillationen verschwinden komplett. Der Nachweis der Stabilität des entstehenden Gleichungssystems lässt sich über die inf-sup-Bedingung des orginalen Verfahrens erbringen, da die Konstruktion den Raum in der passenden Weise erweitert. Literatur und weiterführende Informationen S. V. Apte, M. Martin, N. A. Patankar: A numerical method for fully resolved simulation (FRS) of rigid particle–flow interactions in complex flows, Journal of Computational Physics 228, S. 2712–2738, 2009. R. E. Bank, D. J. Rose: Some Error Estimates for the Box Method, SIAM Journal on Numerical Analysis 24, S. 777–787, 1987. Glowinski, R.: Finite element methods for incompressible viscous flow, P. G. Ciarlet, J. L. Lions (Eds.), Handbook of Numerical Analysis IX (North-Holland, Amsterdam), S. 3–1176, 2003. Strang, G.: Wissenschaftlisches Rechnen, Springer-Verlag Berlin Heidelberg, 2010. A. Vogel, S. Reiter, M. Rupp, A. Naegel, G. Wittum: UG 4: A novel flexible software system for simulating PDE based models on high performance computers, Computing and Visualization in Science 16, S. 165–179, 2013. G. J. Wagner, N. Moes, W. K. Liu, T. Belytschko: The extended finite element method for rigid particles in Stokes flow, International Journal for Numerical Methods in Engineering 51, S. 293–313, 2001. D. Wan, S. Turek: Fictitious boundary and moving mesh methods for the numerical simulation of rigid particulate flows, Journal of Computational Physics 222, S. 28–56, 2007. P. Wessling: Principles of Computational Fluid Dynamics, Springer, Series in Computational Mathematics, 2001. J. Xu, Q. Zou: Analysis of linear and quadratic simplicial finite volume methods for elliptic equations, Numerische Mathematik 111, S. 469–492, 2009. X. Ye: On the Relationship Between Finite Volume and Finite Element Methods Applied to the Stokes Equations, Numerical Methods for Partial Differential Equations 17, S. 440–453, 2001. Podcasts T. Henn: Partikelströmungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 115, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/partikelstroemungen L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/filters L. Adlung: Systembiologie, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/systembiologie
Lorenz Schwachhöfer ist seit 2003 Professor für Mathematik an der TU Dortmund. Gudrun kennt ihn aus ihrer Zeit als als Hochuldozentin dort (2004-2008). Seinen kurzen Gastaufenthalt in der AG von Prof. Tuschmann in Karlsruhe wollten die beiden ausnutzen, um ein Podcast-Gespräch zu führen. Das Forschungsgebiet von Lorenz Schwachhöfer gehört zur Differentialgeometrie. Deshalb dreht sich ihr Gespräch um zentrale Begriffe in diesem mathematischen Gebiet zwischen Geometrie und Analysis: Die Krümmung und das Finden von Minimalflächen. Der Begriff Krümmung kommt in unserer Alltagssprache vor. Die Mathematik muss das Konzept von "gekrümmt sein" nur klar fassen, um damit präzise arbeiten zu können. Die zentrale Eigenschaft, die durch das Wort beschrieben wird, ist wie sehr sich eine Fläche von einer Ebene unterscheidet. Oder auch wie stark sich eine Kurve von einer Geraden unterscheidet. Eine Ebene (bzw.eine Gerade) ist nicht gekrümmt. Mathematisch ausgedrückt haben sie deshalb die Krümmung 0. Wenn man nun untersuchen - und mit einer Zahl ausdrücken - möchte, wie sehr sich z.B. eine Kurve in jedem Punkt von eine Gerade unterscheidet, verwendet man folgenden Trick: Man definiert einen Parameter - z.B. die Bogenlänge - und stellt die Kurve als Funktion dieses Parameters dar. Dann berechnet man die Änderung des Richtungsvektors der Kurve in jedem Punkt. D.h. man braucht die zweite Ableitung nach dem Parameter in dem Punkt. Das Ergebnis für einen Kreis mit Radius r lautet dann: Er hat überall die Krümmung 1/r. Daran sieht man auch, dass kleine Kreise sehr stark gekrümmt sind während sehr große Kreise eine so kleine Krümmung haben, dass man sie fast nicht von einer Geraden unterscheiden kann. Auch die Erdoberfläche wirkt lokal wie eine Ebene, denn in der mit unseren Augen wahrgenommenen Umgebung ist ihre Krümmung klein. Was für Kurven recht anschaulich zu definieren geht, ist für Flächen im dreidimensionalen Raum nicht ganz so klar. Das einzig klare ist, dass für jede Art Krümmung, die man mathematisch definiert, jede Ebene in jedem Punkt die Krümmung 0 haben muss. Wenn man die Idee der Parametrisierung auf Flächen überträgt, geht das im Prinzip auch, wenn man zwei Parameter einführt und Krümmung auf eine bestimmte Richtung im Punkt auf der Fläche entlang bezieht. Beim Zylinder kann man sich gut vorstellen, wie das Ergebnis aussieht: Es gibt die Richtung entlang der Kreislinie des Querschnitts. Diese Kurve ist ein Kreis und hat die Krümmung 1/r. Läuft man dazu im rechten Winkel auf der Zylinderhülle, folgt man einer Gerade (d.h. Krümmung in diese Richtung ist 0). Alle anderen Wege auf der Zylinderoberfläche liegen in Bezug auf die Krümmung zwischen diesen beiden Werten 1/r und 0. Tatsächlich kann man auch für allgemeine Flächen zeigen, dass man in jedem Punkt eine Zerlegung in zwei solche "Haupt"-Richtungen findet, für die maximale bzw. minimale Krümmungswerte gelten (und die senkrecht zueinander sind). Alle anderen Richtungen lassen sich daraus linear zusammensetzen. Die Kugeloberfläche hat z.B. eine hohe Symmetrie und verhält sich in allen Richtungen gleich. Alle Wege auf der Kugeloberfläche sind lokal Teile von Kreisen. Man kann sich hier auch überlegen, was tangential bedeutet, indem man in einem Punkt auf der Oberfläche eine Ebene anschmiegt. Die Richtung senkrecht auf dieser tangentialen Ebene ist die Normalenrichtung auf dem Punkt der Kugeloberfläche an dem die Tangentialebene anliegt. Tatsächlich gibt es für Flächen aber mehr als einen sinnvollen Krümmungsbegriff. Man kann z.B. einen Zylinder sehr schön in Papier "einwickeln". Bei einer Kugel geht das nicht - es bleibt immer Papier übrig, das man wegfalten muss. Wenn man einen Kühlturm einpacken möchte, reicht das Papier nicht für die nach innen einbuchtende Oberfläche. Die Eigenschaft, die wir mir dem Einwickeln veranschaulicht haben, wird mit dem Begriff der Gaußkrümmung ausgedrückt. Um sie zu berechnen, kann man in einem Punkt die oben definierten Richtungsskrümmungen anschauen. Maximal- und Minimalwerte werden für senkrecht aufeinander stehende Richtungen realisiert. Das Produkt der beiden extremen Krümmungen ergibt dann die Gaußkrümmung. In unserem Beispiel mit dem Zylinder ist die Gaußkrümmung also 0 mal 1/r = 0. Das ist aber tatsächlich ganz unabhängig von der Richtungskrümmung untersuchbar, weil es sich durch Längen- bzw. Flächenverhältnisse in der Fläche bestimmen lässt. Genauer gesagt: Wenn man auf der Kugel um einen Punkt einen Kreis auf der Kugeloberfläche zieht (d.h. seine Punkte liegen auf der Kugeloberfläche und haben alle den Abstand r vom gewählten Punkt), hat dieses Objekt einen kleineren Flächeninhalt als ein ebener Kreis mit dem gleichen Radius. Deshalb sagt man: Die Kugel hat positive Gaußkrümmung. Bei negativer Gaußkrümmung ist der Flächeninhalt auf der Oberfläche größer als in der Ebene. Das trifft für den Kühlturm zu. Diese Eigenschaft lässt sich innerhalb der Fläche untersuchen. Man braucht gar keine Einbettung in einen umgebenden Raum. Das ist zunächst sehr überraschend. Es ist aber unbedingt nötig für Anwendungen in der Astrophysik, wo die Raumzeit wegen der Gravitation gekrümmt ist (d.h. sie ist kein euklidischer Raum). Es hat aber niemand ein Bild, in welche höhere Dimension man die Raumzeit einbetten sollte, um dann mit der Krümmung in Bezug auf diesen Raum zu arbeiten. Neben den beiden schon diskutierten Begriffen kann man auch mit der mittleren Krümmung arbeiten. Sie ist definiert als Mittelwert aller Richtungskrümmungen. Man kannn aber zeigen, dass dies stets das arithmetische Mittel zwischen minimaler und maximaler Krümmung ist. Dies hat auch eine physikalische Interpretation - z.B. als Flächenspannung für eine Membran, die eingespannt ist. Die Membran versucht, einen möglichst geringen Flächeninhalt - eine sogenannte Minimalfläche - zu realisieren, weil dies dem minimalen Energieaufwand entspricht. Spannungsfreie Flächen sind sehr stabil und deshalb für Architekten interessant. Im Schülerlabor Mathematik kann man mit Seifenhäuten selbst ausprobieren, welche Flächen sich hier für unterschiedliche Randkurven herausbilden. Z.B. wurde die Dachkonstruktion des ehemaligen Olympiastadions in München aus Minimalflächen konstruiert, die mit Seifenhäuten gefunden, fotographiert und nachgebaut wurden.. Mathematisch sprechen wir vom Plateau-Problem. Die Frage ist dabei: Hat jede geschlossene Kurve mindestens eine zugehörige Minimalfläche? Heute wissen wir, dass die Antwort - unter sehr geringen Regularitätsforderungen an die Kurve - fast immer ja ist. Sehr verblüffendend ist in diesem Zusammenhang auch der Satz von Gauß/Bonnet. Er sagt, dass das Integral über die Gaußkrümmung jeder in sich selbst geschlossenen Fläche ein ganzzahliges Vielfaches von 2π ist. Dieser Faktor heißt dann Euler-Charakteristik und hängt nur von der Topologie (grob gesprochen der Zahl der Löcher im Gebiet) ab. Beim Torus ist sie 0 und für die Kugeloberfläche 2. Interessant ist in diesem Zusammenhang auch die Behandlung von nicht glatten Kurven bzw. Flächen mit Ecken und Kanten. An den Kanten ist das Konzept der Gaußkrümmung noch recht einfach übertragbar. Der betrachtete Kreis auf der Oberfläche klappt sich dabei um die Kante herum. An den Ecken geht das nicht so einfach, sondern führt auf komplexere Gebilde. Wenn man sich aber z.B. einen Würfel ansieht, hat dieser fast überall die Krümmung 0. Trotzdem ist er (topologisch gesehen) einer Kugel viel ähnlicher als einer Ebene. Hier kann man den Begriff der Gaußkrümmung richtig für Polyeder mit Kanten und Ecken verallgemeinern und der Satz von Gauß/Bonnet überträgt sich sinngemäß auf Polyeder. Das Integral wird zur Summe über die Polyederflächen und wir erhalten den wohlbekannten Polyedersatz: Euler-Charakteristik mal Anzahl der Flächen - Anzahl der Kanten + Anzahl der Ecken = 2 Der Polyedersatz ist eigentlich ein kombinatorisches Ergebnis. Trotzdem zeigt sich hier, dass die topologischen Eigenschaften intrinsisch mit der Krümmung zusammenhängen, was sehr überraschend, aber auch sehr ästhetisch zwei einander sehr fremde Teilgebiete der Mathematik zusammenführt. Lorenz Schwachhöfer hat in Darmstadt und in New Orleans Mathematik studiert und nach seiner Promotion 1992 (in Philadelphia) u.a. wissenschaftlich Station gemacht an der Washington Universität (in St. Louis), dem Max Planck Institut für Mathematik in Bonn, der Universität in Leipzig (dort Habilitation) und an der Université Libre in Brüssel. Literatur und weiterführende Informationen J-H. Eschenburg & J. Jost: Differentialgeometrie und Minimalflächen. Springer Verlag, 3. Auflage, 2014. T. Matiasek: Seifenhäute und Minimalflächen: Natur, Geometrie und Architektur. VDM Verlag Dr. Müller, 2010 Wolfgang Kühnel: Differentialgeometrie: Kurven - Flächen - Mannigfaltigkeiten, Springer Verlag, 2013. Manfredo doCarmo, Differentialgeometrie von Kurven und Flächen, Vieweg+Teubner Verlag, 1993. Christian Bär, Elementare Differentialgeometrie, deGruyter, 2017. Video Seifenhäute (engl.) Podcasts P. Schwer: Metrische Geometrie. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/metrische-geometrie L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe
Marco Lübbecke hat als Mathematiker den Lehrstuhl für Operations Research an der RWTH Aachen inne. Sein Lehrstuhl ist sowohl der Fakultät für Wirtschaftswissenschaften als auch der Fachgruppe für Mathematik zugeordnet. Zum Gespräch mit Sebastian Ritterbusch in Karlsruhe kam es anlässlich des Treffens der DFG Forschergruppe 2083: Integrierte Planung im öffentlichen Verkehr auf Einladung von Peter Vortisch, der auch schon zur Verkehrsmodellierung in Folge 93 in diesem Podcast zu hören war. Auf Twitter sind Marco Lübbecke unter @mluebbecke und sein Lehrstuhl unter @RWTH_OR zu finden und er schreibt das Blog Café Opt. Operations Research befasst sich zusammenfassend mit mathematischen Modellen und Methoden zur Entscheidungsunterstützung. Dabei steht oft die Frage einer möglichst guten oder optimierten Entscheidung im Vordergrund und daher ist das Gebiet von mathematischer Seite im Bereich der mathematischen Optimierung angesiedelt. Die Optimierung behandelt grundsätzlich die Bestimmung eines optimalen Werts einer Zielfunktion (und einer dazugehörenden Lösung) unter Berücksichtigung von einschränkenden Nebenbedingungen, den Restriktionen. Daneben steht aber auch die Frage der geeigneten Abbildung und Modellierung der Wirklichkeit und den Fehlerquellen der Beschreibung wie auch die grundsätzliche Herangehensweise an das Problem. Das optimierte Zusammenspiel von Menschen, Algorithmen und Technologie wird seit 2011 auch oft mit dem Begriff Industrie 4.0 für eine erhoffte vierte industrielle Revolution beschrieben. Die einheitliche Definition des Begriffs lassen aber selbst renommierte Industrievertreter offen. Als eine Schnittmenge der Beschreibungen kann man die lokale Intelligenz von Fertigungskomponenten ausmachen, die über Vernetzung und Sensorik zu einem besseren Gesamtprozess führen kann. Im Kleinen werden so Entscheidungsprozesse durchgeführt und dies führt grundlegend auf die gerade eingeführte mathematische Optimierungstheorie mit allen ihren Facetten. So gesehen ist die Industrie 4.0 als Optimierungsproblem eigentlich ohne Mathematik undenkbar. Ein in der Universität sehr naheliegendes Feld der Optimierung ist die Vorlesungsplanung, und hier ist aus der Forschung zusammen mit Gerald Lach in Kooperation zwischen der TU Berlin und der RWTH Aachen die Lösung Mathplan entstanden, die inzwischen an vielen Universitäten erfolgreich zur Vorlesungs-, Tutorien- und Klausurplanung eingesetzt wird. Mit genügend Zeit und genügend Personal kann man zwar einen einigermaßen akzeptablen Plan mit viel Erfahrung auch ohne besondere mathematische Optimierung aufstellen, das ändert sich aber schlagartig, wenn kurzfristige Änderungen berücksichtigt und Konflikte aufgelöst werden müssen. Mathematisch geht es hier um ganzzahlige lineare Programme, für die zwar Lösungsverfahren bekannt waren, diese für die Größenordnung der Probleme nicht geeignet waren. Eine Modellreduktion ohne Verlust der Optimalität führte hier zur Lösung. Auch in der Erstellung von Zugfahrplänen besteht ein großes Optimierungspotential. Da die Realität nicht perfekt planbar ist, geht es hier besonders um eine robuste Planung, die auch bei entstehenden Störungen noch das anvisierte Ziel erreichen kann. In der Forschung unter anderem auch mit Anita Schöbel der Uni Göttingen geht es um die Analyse der Fortpflanzungen von Verzögerungen, damit besonders kritische Fälle besonders behandelt werden können. Ein weiterer Gesichtspunkt ist aber auch die Möglichkeit Probleme möglichst gut durch kleine Eingriffe wieder korrigieren zu können. Ein zunächst überraschendes Forschungsthema ist die Bundestagswahl, wo sich Sebastian Goderbauer mit der optimierten Wahlkreiseinteilung befasst. Die 299 Bundestagswahlkreise werden weitaus häufiger neu zugeschnitten als man denkt: Da nach Bundestagswahlgesetz jeder Wahlkreis gerade 1/299-tel der Wahlberechtigten mit einer Toleranz von maximal 25 Prozent vertreten muss, erfordert die Wählerwanderung und Veränderung der Bevölkerungsstruktur die regelmäßigen Veränderungen. Das sogenannte Gerrymandering ist besonders bei Wahlen mit Mehrheitswahlrecht ein sehr problematisches Vorgehen bei Wahlkreisveränderungen, das offensichtlich undemokratische Auswirkungen hat. In Deutschland ist dies weniger ein Problem, wohl aber die deutlich ungleiche Größenverteilung der Wahlkreise. Die mathematische Definition und Betrachtung als Optimierungsproblem trägt die Hoffnung in sich, dass das Zuschnitt-Verfahren transparenter und nachvollziehbarer als bisher abläuft, und das sich dadurch balanciertere Wahlkreisgrößen ergeben können. Ein zentrales Forschungsgebiet ist für Marco Lübbecke der Bereich der ganzzahligen Programme. Die vielen auftretenden Variablen können beispielsweise Entscheidungen repräsentieren, die diskrete Werte wie ja oder nein repräsentieren. Dazu kommen verschiedene Resktriktionen und Nebenbedingungen, die Einschränkungen aus der Umgebungssituationen wie beispielsweise begrenzte Resourcen darstellen. Der Begriff "Programm" für die Bezeichnung von Optimierungsproblemen ist historisch aus dem englischen Begriff "programming" entstanden, der früher intensiv für "Planung" verwendet wurde. Heutzutage ist dieser Zusammenhang nicht mehr so naheliegend und entsprechend hat sich die Mathematical Programming Society (MPS) in Mathematical Optimization Society (MOS) umbenannt. Sind die Variablen eines Optimierungsproblems im , so kann man sich Schnitte mit linearen Ungleichungen wie das halbseitige Abschneiden des Lösungsraumes mit Ebenen vorstellen. Man nennt das Resultat ein Polyeder oder Vielflächner. Ist nun zusätzlich auch die Zielfunktion linear, so spricht man von einem linearen Optimierungsproblem oder linearen Programm. Wird nun der Lösungsbereich mit einem Gitter geschnitten, d.h. die Variablen können nur diskrete wie z.B. nur ganzzahlige Werte annehmen, so wird das Optimierungsproblem deutlich schwieriger. Dies ist erstaunlich, da der Lösungsbereich deutlich eingeschränkt wird. Jedoch verliert der Lösungsbereich seine konvexe Struktur und führt im linearen Fall von einem in polynomialer Zeit lösbaren Problem zu einem NP-schweren Problem. Wenn die Lösungsmenge eine beschränkte Anzahl von Elementen besitzt, so ist die Existenz von Maximum und Minimum durch Ausprobieren leicht zu beweisen. Das Problem ist jedoch, dass bei großen Datenmengen das vollständige Durchsuchen viel zu lange dauern würde. Eine Strategie zur Reduktion des Problems ist hier die Aggregation oder das Clustering, wo verschiedene Aspekte durch einzelne Repräsentanten dargestellt und gruppiert werden und so Rechenzeit eingespart wird. Zwar werden so nur approximierte Probleme gelöst, jedoch deutlich schneller und wenn möglich mit Fehlerschranken, die den maximalen Abstand zur tatsächlichen Lösung spezifizieren. Ein Beispiel für dieses Prinzip sind die Contraction Hierarchies, die das Routingproblem bzw. einen kürzesten Pfad auf einem Graphen zu finden durch eine zuvor berechnete Reduktion des betrachteten Netzes beschleunigen, exakte Fehlerschranken liefern, und gleichzeitig die Berechnung einer optimalen Lösung durch Berechnung lokaler Routen ermöglicht. Das Verfahren kommt aber an Grenzen, wenn einige Aspekte nur mit Wahrscheinlichkeiten beschrieben werden können. Ein klassisches Optimierungsproblem ist das Problem des Handlungsreisenden, an dem sich die verschiedenen Verfahren und Analysen der diskreten Optimierung illustrieren lassen. Dabei hat das Problem die Forschungsrelevanz nicht verloren: Viele neue Verfahren und Forschungsansätze gehen auf das Problem des Handlungsreisenden zurück. Gleichzeitig steht das Problem stellvertretend für viele Optimierungsprobleme zu Reihenfolgen in der Anwendung und findet so immer neuen Einsatz. Grundsätzlich basieren Optimierungsprobleme auf der Suche nach Extremwerten, diese kann man beispielsweise mit Abstiegs- oder Aufstiegsverfahren versuchen zu finden. Will man nun Einschränkungen berücksichtigen, so kann man die Zielfunktion mit Lagrange-Multiplikatoren für die Restriktionen erweitern. Diese Multiplikatoren kann man als Strafterme verstehen, die das Finden des Optimums unter Einhaltung der Restriktionen erzwingen. Die Verwendung der Lagrange-Multiplikatoren erzeugt automatisch über die Lagrange-Dualität ein duales Problem und führt auch auf Sattelpunkte. Die neue Sichtweise ist aus mehreren Gründen sehr hilfreich: Zum einen vereinfacht diese Dualität mathematische Beweise, sie ermöglicht Abschätzungen für die Qualität von Lösungen und liefert gleich zwei alternative Verfahren, um ein Optimierungsproblem zu lösen. Ein Standardverfahren zum Lösen von linearen Optimierungsproblemen ist das Simplex-Verfahren. Hier wird ausgenutzt, dass lineare Restriktionen ein Polyeder bilden und eine lineare Optimierungsfunktion ihr Maximum auf einer (Hyper-)Fläche, einer Kante (bzw. entsprechenden höherdimensionalen Strukturen) oder einer Ecke annehmen muss. Diese Kanten und Ecken werden mit dem Verfahren systematisch durchsucht. Beim schriftlichen Rechnen hat das Simplex-Verfahren große Ähnlichkeit mit dem Gaußschen Eliminationsverfahren, das zum Lösen von linearen Gleichungssystemen eingesetzt wird. In der Praxis ist das Simplex-Verfahren sehr schnell, jedoch finden sich konstruierte Gegenbeispiele, auf denen das Simplex-Verfahren eine schrecklich langsame exponentielle Laufzeit an den Tag legt. Daher haben hier traditionelle innere Punkte-Verfahren und Barrier-Verfahren ein aufwandstheoretisch deutlich besseres Laufzeitverhalten, in der Praxis sind die Ergebnisse aber sehr gemischt. Hat man nun ein diskretes bzw. ganzzahliges Problem, so liefert das Simplex-Verfahren ohne Berücksichtigung der Diskretisierung typischerweise keine ganzzahlige Lösung, liefert aber Abschätzungen für das Optimum, da der Wert einer optimalen ganzzahligen Lösung nicht besser sein kann als der einer optimalen kontinuierlichen Lösung. Für die nicht-ganzzahligen Lösungen für einzelne Variablen wie kann man nun zwei ganzzahlige Restriktionen definieren wie oder , und jetzt zwei Teilprobleme bzw. "Branches" mit je einer der beiden Restriktionen zusätzlich lösen. So erhält man entweder ein unzulässiges Teilproblem, oder bereits ein ganzzahlige Lösung (nicht notwendigerweise eine beste) oder eben wieder eine nicht-ganzzahlige. Durch fortwährendes Verzeigen auf den nicht-ganzzahligen Variablen entsteht eine Baumstruktur der Teilprobleme. Mit Hilfe der aus den jeweiligen kontinuierlichen Relaxationen gewonnenen Schranken lassen sich ganze Äste des Baums abschneiden ("Bound"), in denen keine bessere Lösung mehr zu finden ist als die beste die man bisher gefunden hat. Dieses Verfahren führen wir für alle weiteren verbleibenden Probleme oder Branches durch bis eine optimale lineare und diskrete Lösung übrig bleibt. Damit liefert das Branch-and-Bound-Verfahren bzw. weiter verfeinert das Branch-and-Cut-Verfahren auf Basis der Lösung von vielen kontinuierlichen linearen Optimierungsproblemen die Lösung des diskreten Problems. Eine Erweiterung des Verfahrens auf besonders große Probleme ist das Branch-and-Price-Verfahren, das mit Basis von Column Generation die Variablen sucht, die für die Lösung des Gesamtproblems relevant sind, und das Problem eingeschränkt auf diese Variablen löst, ohne dabei Optimalität aufzugeben. Ein interessantes Beispiel ist hier das Bin Packing bzw. Behälterproblem, wo es darum geht, eine Anzahl von verschiedenen Objekten auf eine Anzahl von Behältern zu verteilen. Das Entscheidungsproblem, ob eine gegebene Anzahl von Behältern reicht, ist sowohl für Versandhäuser äußerst relevant, ist aber gleichzeitig auch NP-Vollständig, also aufwandstheoretisch nachgewiesen schwer. Hier kann man durch vorheriges Sammeln von möglichen Füllmustern ein riesengroßes Modell erstellen, dieses aber mit der column generation in der Praxis um so effizienter lösen. In der Industrie werden beispielsweise die Pakete Cplex, Gurobi oder Xpress zur Lösung von Optimierungsproblemen eingesetzt, die die besprochenen Verfahren umsetzen. Hier können auch Modellierungssprachen zum Einsatz kommen, die die Probleme abstrakt und menschenlesbar definieren. Vorteile sind hier die Trennung von Daten und Modell und auch die Trennung von Problem und Löser. Ein Beispiel für eine Modellierungssprache für Optimierungsproblemen ist GAMS, sie stehen aber heutzutage in starker Konkurrenz zu modernen Programmiersprachen wie Python. Im Sinne des Leitsatzes "Tue Gutes und rede darüber" ist die Kommunikation von Wissenschaft für Forschende in Öffentlichkeit, Social Media und Internet eine große Gelegenheit mit vielen Vorteilen: Neben dem Austausch von wichtigen Erfahrungen zum Beispiel zum Schreiben wissenschaftlicher Paper, hilft es der wissenschaftlichen Vernetzung, der gesellschaftlichen Diskussion zur Relevanz des Forschungsgebiet über den Tellerand hinaus, und interessiert auch die Öffentlichkeit und auch junge Menschen näher in die spannenden Themen einzusteigen. Literatur und weiterführende Informationen G. Lach, M. Lübbecke: Optimal university course timetables and the partial transversal polytope, International Workshop on Experimental and Efficient Algorithms. Springer Berlin Heidelberg, 2008. C. Liebchen, M. Lübbecke, R. Möhring, S. Stiller: The concept of recoverable robustness, linear programming recovery, and railway applications, in Robust and online large-scale optimization (pp. 1-27). Springer Berlin Heidelberg, 2009. S. Goderbauer: Mathematische Optimierung der Wahlkreiseinteilung für die Deutsche Bundestagswahl, Springer Spektrum, Springer BestMasters, 2016. S. Goderbauer, B. Bahl, P. Voll, M. Lübbecke, A. Bardow, A. Koster: An adaptive discretization MINLP algorithm for optimal synthesis of decentralized energy supply systems, Computers & Chemical Engineering, 95, 38-48, 2016. R. Geisberger: Contraction Hierarchies: Faster and Simpler Hierarchical Routing in Road Networks, Diplomarbeit am Institut für Theoretische Informatik Universität Karlsruhe, 2008. M. Lübbecke, J. Desrosiers: Selected topics in column generation, Operations Research, 53(6), 1007-1023, 2005. M. Lübbecke: How to write a paper, blog post, 2014. M. Lübbecke: Are we too complicated? Communication of the Travelling Salesperson Problem in public, blog post, 2015. Podcasts S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung P. Vortisch: Verkehrsmodellierung I, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrsmodellierung-i K. Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Dickmann: Pumpspeicherkraftwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/pumpspeicher J. Wolf: Puerto Patida, das Rätselhörspiel zum Mitmachen, http://OhneQ.de, 2015-2016.
Der Unendlichkeit kann man sich nicht annähern. Wie sollte man auch? Trotzdem kann man sie nutzen. Wissenschaftlich. Mathematisch. Die Unendlichkeit der Zahlen. (Produktion 2009)
Petra Schwer ist seit Oktober 2014 Juniorprofessorin an unserer Fakultät. Sie arbeitet im Institut für Algebra und Geometrie in der Arbeitsgruppe Metrische Geometrie. Ab Oktober 2016 startet in diesem Institut ein neues Graduiertenkolleg mit dem Titel Asymptotic Invariants and Limits of Groups and Spaces und Petra Schwer freut sich darauf, dort viele mit ihrer Begeisterung anstecken zu können. Ihr Weg in die Algebra war nicht ganz direkt: Sie hat zunächst Wirtschaftsmathematik in Ulm studiert. Ein Wechsel an die Uni Bonn ebnete den Weg ins etwas abstraktere Fahrwasser. Zwei Ausflüge in die Industrie (zwischen Diplom und Promotionszeit und in der Postdoc-Phase) haben ihre Entscheidung für die akademische Mathematik bekräftigt. Im Gegensatz zur Differentialgeometrie, die von Ihrem Ursprung her auf analytischen Methoden und Methoden der Differentialrechnung (wie zum Beispiel des Ableitens) beruht, untersucht die Metrische Geometrie Mengen mit Abstandsfunktion. Darunter fallen auch die klassischen Riemannschen Geometrien, aber auch viel allgemeinere geometrische Strukturen, wie zum Beispiel Gruppen oder Graphen. Eine Metrik ist nichts anderers als eine Funktion, die einen Abstand zwischen zwei Punkten definiert. Die Euklidische Geometrie (in zwei bzw. drei Dimensionen) ist sicher allen aus der Schule bekannt. Sie ist ein Beispiel eines Geometriemodells in der metrischen Geometrie. Euklid versuchte erstmals Geometrie von Ihren Grundbausteinen her zu beschreiben. Er hat sich gefragt: Was ist ein Punkt? Was ist eine Gerade? Wie lässt sich der Abstand eines Punktes zu einer Geraden definieren? Schließlich stellte er eine Liste von grundlegenden Objekten sowie deren Eigenschaften und Beziehungen auf (Axiome genannt) die eine Geometrie erfüllen soll. Diese Axiome sind dabei die Eigenschaften, die sich nicht aus anderen ableiten lassen, also nicht beweisbar sind. Eines dieser Axiome besagte, dass durch einen festen Punkt genau eine Gerade parallel zu einer vorgegebenen anderen Geraden verläuft. Es entbrannte ein Jahrhunderte dauernder Streit darüber, ob sich dieses Parallelenaxiom aus den anderen aufgestellten Axiomen ableiten lässt, oder ob man diese Eigenschaft als Axiom fordern muss. Sehr viel später wurde klar, dass der Streit durchaus einen wichtigen und tief liegenden Aspekt unserer Anschauungsgeometrie berührte. Denn es wurden gleich mehrere Mengen (mit Abstandsfunktion) entdeckt, in denen diese Eigenschaft nicht gilt. Deshalb nannte man die Geometrien, in denen das Parallelenaxiom nicht gilt nichteuklidische Geometrien. Ein sehr nahe liegendes Beispiele für nichteuklidische Strukturen ist z.B. die Kugel-Oberfläche (damit auch unsere Erdoberfläche) wo die euklidische Geometrie nicht funktioniert. In der Ebene ist der traditionelle Abstand zwischen zwei Punkten die Länge der Strecke, die beide Punkte verbindet. Das lässt sich im Prinzip auf der Kugeloberfläche imitieren, indem man einen Faden zwischen zwei Punkten spannt, dessen Länge dann anschließend am Lineal gemessen wird. Spannt man den Faden aber "falschrum" um die Kugel ist die so beschriebene Strecke aber nicht unbedingt die kürzeste Verbindung zwischen den beiden Punkten. Es gibt aber neben der klassischen Abstandsmessung verschiedene andere sinnvolle Methoden, einen Abstand in der Ebene zu definieren. In unserem Gespräch nennen wir als Beispiel die Pariser Metrik (oder auch SNCF oder Eisenbahnmetrik). Der Name beschreibt, dass man im französischen Schnellzugliniennetz nur mit umsteigen in Paris (sozusagen dem Nullpunkt oder Zentrum des Systems) von Ort A nach Ort B kommt. Für den Abstand von A nach B müssen also zwei Abstände addiert werden, weil man von A nach Paris und dann von Paris nach B fährt. Das verleiht der Ebene eine Baumstruktur. Das ist nicht nur für TGV-Reisende wichtig, sondern gut geeignet, um über Ordnung zu reden. Ebenso sinnvoll ist z.B. auch die sogenannte Bergsteiger-Metrik, die nicht allein die Distanz berücksichtigt, sondern auch den Aufwand (bergauf vs. bergab). Damit ist sie aber in den relevanten Fällen sogar asymmetrisch. D.h. von A nach X ist es "weiter" als von X nach A, wenn X oben auf dem Berg ist und A im Tal. Analog ist es wenn man mit dem Boot oder schwimmend mit bzw. gegen die Strömung oder den Wind unterwegs ist. Dann misst man besser statt der räumlichen Distanz die Kraft bzw. Energie, die man für den jeweiligen Weg braucht. Für Karlsruher interessant ist sicher auch die KVV-Metrik, die wie folgt beschrieben wird: Um den Abstand von einem Punkt A zu einem anderen Punkt B der Ebene zu messen, läuft man von A und B senkrecht zur x-Achse (und trifft diese in Punkten A', bzw B') und addiert zu diesen beiden Abständen den Abstand von A' zu B'. Anschaulich gesprochen muss man also immer erst von A zur Kaiserstrasse, ein Stück die Kaiserstraße entlang und dann zu B. Eben so, wie die KVV ihre Strecken plant. Zwischen einer Ebene und z.B. der Kugeloberfläche gibt es einfach zu verstehende und doch wichtige geometrische Unterschiede. Eine Strecke in der Ebene läßt sich z.B. in zwei Richtungen unendlich weit fortsetzen. Auf der Kugeloberfläche kommt nach einer Umrundung der Kugel die Verlängerung der Strecke an dem Punkt wieder an, wo man die Konstruktion begonnen hat. D.h. insbesondere, dass Punkte auf einer Kugeloberfläche nicht beliebig weit voneinander entfernt sein können. Es gibt außerdem genau einen Punkt, der genau gegenüber liegt und unendlich (!) viele kürzeste Wege dorthin (in jeder Richtung einen). Verblüffend ist dabei auch: So verschieden sich Ebene und Kugeloberfläche verhalten, in einer fußläufigen Umgebung jedes Punktes fühlt sich die Erdoberfläche für uns wie ein Ausschnitt der Ebene an. Mathematisch würde man sagen, dass sich eine Kugel lokal (also in einer sehr kleinen Umgebung) um einen Punkt genauso verhält, wie eine Ebene lokal um einen Punkt. Die Krümmung oder Rundung der Kugel ist dabei nicht spürbar. Versucht man die gesamte Kugel auf einer ebenen Fläche darzustellen, wie zum Beispiel für eine Weltkarte, so kann dies nur gelingen, wenn man Abstände verzerrt. Für unsere ebenen Darstellungen der Erdkugel als Landkarte muss man also immer im Hinterkopf behalten, dass diese (zum Teil stark) verzerrt sind, d.h. Längen, Winkel und Flächen durch die ebene Darstellung verändert werden. Ein wichtiges Konzept zur Unterscheidung von (z.B.) Ebene und Kugeloberfläche ist die eben schon erwähnte Krümmung. Es gibt verschiedene Definitionen - insbesondere, wenn man Flächen eingebettet im dreidimensionalen Raum untersucht. Dabei hat ein flachgestrichenes Blatt Papier keine Krümmung - eine Kugeloberfläche ist gekrümmt. Um das formal zu untersuchen, werden Tangentialflächen an Punkte auf der Oberfläche angelegt. In einer kleinen Umgebung des Berührpunktes wird die Abweichung der Tangentialebene von der Oberfläche betrachtet. Bei der Kugel liegt die Kugeloberfläche immer auf einer Seite von der Tangentialebene. Das muss nicht so sein. Die Tangentialfläche kann z.B. in einem Sattelpunkt die zu untersuchende Fläche durchdringen - d.h. in unterschiedliche Richtungen ist die Krümmung entweder positiv oder negativ. Man braucht aber eigentlich gar keine Tangentialflächen, denn auch Winkelsummen verraten uns etwas über die Krümmung. In der Ebene ergeben die drei Innenwinkel jedes Dreiecks zusammen addiert immer 180 Grad. Auf der Kugel, also auf einer gekrümmten Fläche, sind es immer mehr als 180 Grad. Legt man zum Beispiel einen Punkt in den Nordpol und zwei weitere so auf den Äquator, dass die Verbindungsstrecken zum Nordpol einen Winkel von 90 Grad einschließen, so hat das entstehende Dreieck eine Winkelsumme von 270 Grad. Etwas komplexer ist die Situation bezüglich Krümmung auf einem Torus (der sieht aus wie ein Schwimmreifen oder Donut). Betrachtet man das lokale Krümmungsverhalten in Punkten auf der Donut-/Torusoberfläche ist sie außen so gekrümmt wie eine Kugel, innen sieht sie aber aus wie eine Sattelfläche. Es läßt sich aber auch ein abstraktes Modell des Torus konstruieren, das genauso flach, wie die euklidische Ebene ist. Dazu wähle in der Ebene ein Quadrat mit fester Seitenlänge und klebe gedanklich die gegenüberliegenden Seiten (also oben und unten, sowie links mit rechts) zusammen. Man erhält so ein "periodisches" Quadrat: Wenn man auf einer Seite hinauswandert, kommt man gegenüber an der gleichen Stelle wieder in das Quadrat hinein. Dieses Objekt ist topologisch ebenfalls ein Torus, hat aber, weil das Quadrat Teil der Ebene ist, Krümmung 0. Literatur und weiterführende Informationen D. Hilbert, S. Cohn-Vossen: Anschauliche Geometrie, eine sehr schöne, (in weiten Teilen) auch mit wenig mathematischen Vorkenntnissen gut verständliche Einführung in viele verschiedene Bereiche der Geometrie. D. Burago, Y. Burago, S. Ivanov: A Course in Metric Geometry, eines der Standardlehrbücher über metrische Geometrie. Euklid, Elemente, Digitale Version der 5 Bücher von Euklid. Gromov: Metric Structures for Riemannian and Non-Riemannian Spaces. Das "grüne Buch" - Kursnotizen einer Vorlesung von Gromov, die später in Buchform gebracht wurden.
Sven Müller ist Professor für Verkehrsbetriebswirtschaft im Studiengang Verkehrssystemmanagement an der HTW hier in Karlsruhe. Im Rahmen seiner Promotion an der TU Dresden in der Gruppe von Knut Haase begann er der Frage nachzugehen, welche Faktoren die Verkehrsmittelwahl für den Schulweg beeinflussen. Hintergrund dieser Frage war, dass zu der Zeit in Dresden die Schließung von Schulstandorten heiß diskutiert wurde. Die Notwendigkeit von Schulschließungen war dabei nicht umstritten, jedoch welche konkrete Variante die für alle beste Lösung darstellen würde. Hier war die Diskussion emotional stark aufgeladen, d.h. ein Modell, das bei der Planung des Schulnetzes für objektive Informationen sorgt, wäre ganz besonders hilfreich. Am besten mit klaren Empfehlungen für optimale Lösungen in Bezug auf Schulwege und deren Kosten. Der naheliegende und auch herkömmliche Indikator für so ein Modell ist eine Distanzminimierung. Dadurch lassen sich objektive Aussagen zu minimalen Transportkosten für die Schüler ermitteln. Jedoch stellte sich schnell heraus, dass verlässliche Aussagen dazu fehlten, welche Verkehrsmittel die Schüler anteilig wählen und wieso. Ebenso welche Schulen die Schüler selbst wählen würden und wieso. Deshalb war ein wichtiger Ausgangspunkt für das Forschungsthema eine sehr groß angelegte Schüler-Befragung, die von den Studierenden im Rahmen eines Seminares geplant und durchgeführt wurde. Durch das große Engagement war die Stichprobe schließlich sehr groß. Es wurden dabei Fragebögen in fast allen Schulen verteilt und die Ergebnisse in einer selbst konzipierten Datenbank gesammelt - gut aufbereitet für eine anschließende Auswertung und Optimierung. So war es möglich, aus diesen Daten Prognosen zur Verkehrsmittelwahl in Abhängigkeit von Distanz und Verkehrsmitteloptionen zu erstellen und über verschiedene Schließungsszenarien eine optimale Verteilung der Schulen (in Bezug auf Kosten für die Stadt) zu ermitteln. All das floß auch in die Promotion von Sven Müller ein. Als wichtiges Problem für die mathematische Behandlung der Optimierung erwies sich, dass die Optimierungslösung auf die Daten zurückwirkt. Das führt auf ein dynamisches Problem, das mit herkömmlichen Methoden nicht behandelt werden kann. Auch bei der ÖPNV-Planung von optimierten Liniennetzen tritt das Problem auf: Kürzere Reisezeiten und mehr Direktverbindungen führen z.B. zu einem höheren Fahrgastaufkommen. Mathematisch ausgedrückt heißt das die Nebenbedingungen werden dynamisch und das Problem wird in der Regel nichtlinear. Betriebliche Problemstellungen haben oft ein ähnliches Problem, d.h. die Daten bleiben nicht fix sondern sind abhängig von der gefundenen Lösung. Ein wichtiges Teilergebnis des Forschungsvorhabens von Sven Müller ist eine exakte lineare Reformulierung für das ursprünglich nicht-lineare Optimierungsmodell. Ein weiteres grundsätzliches Problem ist, dass die Nutzenfunktion hinreichend genau beobachtet werden müsste. Ideal wäre es, wenn nur noch weißes Rauschen im Störterm berücksichtigt werden muss, d.h. alle zufälligen Anteile sind wirklich nur zufällig und unverbunden mit den beobachteten Daten. Das ist in der Realität leider nicht möglich und so führen nicht beobachtete Anteile zu Kovarianzen im Modell, die nicht null sind. Anders ausgedrückt, ist der stochastische Anteil nicht nur weißes Rauschen. Nebenbei gewann er noch einige andere Erkenntnisse. Z.B. ist es für die Prognose der Fahrradnutzung nicht ausreichend, die Distanz als Maß zu nehmen, da es bergauf- bzw. bergab gehen kann und das für die Entscheidung mindestens ebenso wichtig ist wie die Entfernung. Dieser Frage geht er zur Zeit auch mit seinen Studierenden im Studiengang Verkehrssystemmanagement an der HTW nach. Zwei weitere Themen, an denen Sven Müller zur Zeit arbeitet, weil sich gute Anknüpfungspunkte aus den eben geschilderten neuen Optimierungsstrategien bieten, sind z.B. die Versorgungsplanung in der Medizin und die Planung der Pilgerströme in Mekka.Genauer gesagt geht es bei der Versorgungsplanung um Vorsorgeprogramme (Prävention). Durch eine hohe Attraktivität des Angebots soll erreicht werden, das möglichst viele Patienten freiwillig teilnehmen. Auch hier ist die gute Erreichbarkeit der Ärzte wichtig, aber auch ihre Attraktivität. Es gilt abzuwägen, wie viele Ärzte an dem Präventionsprogramm mit welcher Kapazität teilnehmen sollen. Einerseits aus Kostengründen natürlich möglichst wenige. Aber andererseits ist gerade die kurze Wartezeit auf einen Termin ein Garant dafür, dass der Termin auch wahrgenommen wird. Somit führt die Optimierung wieder auf ein dynamisches Problem. Viele Standorte führen zu kurzen Wegen und weniger "no shows". Aber viele Untersuchungen bei einem Arzt stärken seine Kompetenz - verlängern aber die zu erwartende Wartezeit. Leider führt das außerdem auf ein nicht konvexes Optimierungsproblem, d.h. die Existenz von Optima folgt nicht mit traditionellen Methoden (bei denen ist Konvexität eine zentrale Voraussetzung). In Mekka sind während einer reicht kurzen Zeit etwa 2-5 Millionen Pilger unterwegs, um Rituale durchzuführen wie die Umkreisung der Kaaba und die symbolische Steinigung des Teufels an drei Säulen. Um das Risiko von Zwischenfällen, bei denen in der Vergangenheit schon hunderte von Todesopfern zu beklagen waren, zu senken, wird das Verhalten der Pilger modelliert in Bezug auf Geschwindigkeit und Dichte. Anschließend werden rund 2 Millionen Pilger, Routen zugewiesen, die so berechnet sind, dass alle Routen möglichst kreuzungsfrei sind. Weiterhin erhalten die Pilger fest zugewiesene Steinigungszeiten, so dass die erwarteten Dichten möglichst unkritisch sind. Der Einfluss von bestimmten Fehlern, wie z.B. falsch gesetzte Zäune oder falsch interpretierte Anweisungen kann dabei nicht völlig ausgeschlossen werden und wird als Risikofaktor in der Auslastung der Routen berücksichtigt. Die Studierenden im Studiengang Verkehrssystemmanagement an der Hochschule Karlsruhe - Wirtschaft und Technik sind hier an forderster Forschungsfront dabei. Z.B. mit Experimenten zu Fußgänger-Verhalten. Denn auch hier ist eine gute Datenlage der Schlüssel zum Erfolg. Literatur und weiterführende Informationen S. Müller e.a.: Travel-to-school mode choice modelling and patterns of school choice in urban areas, Journal of Transport Geography 16 (2008) 342–357 S. Müller: Bildungsstandorte und demographischer Wandel, STANDORT 34 (2010) 6–10 S. Müller e.a: Exposing Unobserved Spatial Similarity: Evidence from German School Choice Data, Geographical Analysis 44 (2012) 65–86 K. Haase, S. Müller: Management of school locations allowing for free school choice, Omega 41 (2013) 847–855 K. Haase, S. Müller: Insights into clients’ choice in preventive health care facility location planning , OR Spectrum 37 (2015) 273-291 K. Haase e.a.: Improving Pilgrim Safety During the Hajj: An Analytical and Operational Research Approach Interfaces 46 (2016) 74-90
Auf der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe trafen sich Stephan Ajuvo und Sebastian Ritterbusch für einen Cross-Over Podcast vom damals TM Podcast und dem Modellansatz Podcast um über die Geschichte von Finanzen und Mathematik zu plaudern. Der damalsTM Podcast befasst sich damit, wie es kam, dass es kam, so dass es ist, wie es ist- und hatte in der letzten Zeit schon eine Reihe zu Geld (Geld I, Geld II, Geld III), wo die Entwicklung der Zahlungsmittel bisher bis zum 2. Weltkrieg behandelt wurden. Die Ökonomie zählt zu den Sozialwissenschaften, die oft Theorien auf Annahmen behandeln, während die Mathematik als Geisteswissenschaft sich gerne auch mal sehr exakt mit Theorien fernab der Realität befassen kann. Die Kryptographie ist jedoch ein schönes Beispiel, wie aus abstrakten mathematischen Theorien der Algebra und der Zahlentheorie plötzlich sehr reale Anwendungen aus unserem Alltag wurden. Mit Kryptoanalyse konnte man sowohl einfache Transpositionschiffren als auch die Enigma durch mathematische Verfahren knacken. Bevor vereinheitlichte Geldeinheiten eingeführt wurden, waren schon früh Objekte mit Geldfunktion eingesetzt, wo oft die Seltenheit und Wertigkeit des Materials schon für sich einen gewissen Wert sicherte. Ebenso früh kam es zu Geldversprechen wie dem Agrarkredit (zurück bis hin zum Codex Hammurapi), mit denen jetzige Ausgaben durch versprochene spätere Erntegewinne beglichen werden konnten. Dies führte zum Konzept des Zinses, mit dem das Verlustrisiko durch Ausfall und die erst spätere Zugängigkeit des Geldes bewerten kann. Das Größenordnung des Zehnt war gesellschaftlich zwar als Steuer akzeptiert, wurde jedoch als Zins schnell als Wucher gesehen, da der Zinseszins sehr schnell anwuchs. Daraus entstand auch die Gegenbewegung des Zinsverbots, das auch heute noch im Islamischen Bankwesen zu Umgehungsgeschäften führt. Die mit Geldgeschäften oft assoziierten Geldwechsler hatten als Arbeitsmittel eine Bank, die namensgebend für unsere heutigen Banken ist, und woran das Wort bankrott auch heute noch erinnert. Neben astronomischen Berechnungen, wie der Berechnung des Osterfests, war die Geldwirtschaft früh ein großes Anwendungsfeld für die Mathematik. Ein wichtiges Berechnungsmodell waren die Abzinsung und die Zinsformel, mit der man die Werte zwischen jetzt und in Zukunft unter Berücksichtigung des Zinses umrechnen konnte. Hier war das exponentielle Wachstum der Kreditentwicklung unter Zinseszinsen für viele nicht zu übersehen. Aber selbst, wenn man diese Berechnung beherrschte, so gab es das Zinsänderungsrisiko, das besonders bei langfristigen Verträgen zu erheblichen Änderungen zu den Kalkulationen führen konnte. Verschiedene Zinssätze verschiedener Landesherren führte auch unmittelbar zu unterschiedlichen Wechselkursen zwischen den lokalen Währungen der Landesherren. Zusätzlich gab es schon früh den Effekt der Teuerung oder Inflation oft durch unkontrolliertes Geldmengenwachstum. Ein Beispiel ist hier die Inflation durch die Entdeckung Amerikas. Es war damals noch nicht klar, wie der tatsächliche Wert des Geldes auch durch einen Warenkorb identifiziert werden kann. Ein sehr grobes aber dafür sehr leicht zugängiges aktuelles Indiz für den Wert verschiedener Währungen ist der Big-Mac Index. Aus der Anforderung des waren- und ortsübergreifenden Handels wurden die Börsen geboren: Hier konnten Waren und Währungen im Jetzt, aber auch in der Zukunft in Termingeschäften gehandelt werden. Schnell etablierte sich hier auch die Spekulation, die über Risikoübernahme zu einem wichtigen Bestandteil der Wirtschaft wurde. Ein bekanntes Beispiel für eine Fehlentwicklung ist die Tulpenkrise, bei der es zu einer Finanzblase bis hin zum Börsencrash kam, und exemplarisch für spätere Immobilienblasen wurde. Die Effekte konnten durch Hebeleffekte noch verstärkt werden, wenn Fremdkapital für mehr erwartete Rendite eingesetzt wurde. Eine Renditebetrachtung ist auch für die persönliche Finanzplanung sehr wichtig- so sollte jeder die Altersvorsorge frühzeitig angehen und dabei Risikoklassen und die Diversifikation zur Risikoverteilung beachten. Aus der Erfahrung, dass viele Finanzprodukte und Anlageberater die zugrunde liegenden Indices oft nur in der Vergangenheit schlagen, haben sich Finanzcommunities wie The Motley Fool gebildet, um sich gegenseitig zu informieren. Mathematisch kann man die Optimalität einer Investition auch als Multikriterielle Optimierung zwischen Rendite und Risiko im Sinne der Volatilität verstehen: Hier stellt sich heraus, dass hier zwischen den Kriterien abgewogen werden muss, und es nicht ein Optimum gibt, sondern die Linie der Pareto-Optimalität. Jedoch darf man nicht einfach aus der vergangenen Entwicklung auf Rendite und Risiko schließen: Gerade Ponzi-Systeme scheinen eine hohe Rendite bei geringer Volatilität und Risiko zu liefern, wo die Zinsen früherer Anleger nur durch die Investitionen durch angelockte Neuanleger bezahlt werden, und was natürlich nicht ewig funktionieren kann, und viele werden ihren Einsatz verlieren. Plant man Investitionen in Güter, so sollte man daher genau recherchieren, wie es um den Gegenstand steht. Bei Immobilien gibt ist eine Begehung mit Fachpersonen möglich und ein Blick in Bodenrichtwertkarten ist sehr sinnvoll. Bei Aktien kann man hingegen auf Basis der veröffentlichten Informationen und Kennzahlen Fundamentalanalysen bilden. Alle diese Modelle sind aber immer Komplexitätsreduktionen, die irgendwann ihre Gegenbeispiel finden können und dann zu Geldverlust führen. Neben der schwierigen Bewertung von Aktien wird es richtig spannend, wenn notwendigerweise auch Termingeschäfte oder Derivate der Aktien oder Wirtschaftsgüter berücksichtigt werden: Diese werden im Markt unmittelbar benötigt, sind jedoch vom Basiswert und der allgemeinen Marktsituation abhängig. Optionen können auf der einen Seite Geschäfte absichern, können jedoch auf der anderen Seite bei einem hohem Hebel auch sehr spekulativ und entsprechend gefährlich sein. Für eine mathematische Bewertung von Optionen wird ein Markt mit Arbitragefreiheit vorausgesetzt, um andere künstliche Einflüsse auszuschließen. Dann können analytisch Optionskennzahlen (die Griechen) bestimmt werden, um aus dem komplexen Markt ein Gefühl für den Wert zu erhalten. Umgekehrt kann man aber auch konstruktiv eine Bewertung mit dem Cox-Ross-Rubinstein-Modell berechnen. Der Kursverlauf wird hier vereinfacht wie der Kugellauf durch ein Galtonbrett angenommen, wo eine Richtung für einen fallenden Kurs, die andere für einen steigenden Kurs steht. Dies führt im vereinfachten Fall zu einer Binomialverteilung oder im Grenzfall zu einer Normalverteilung der möglichen Kurse am Ende der Laufzeit. Damit kann die Option auf Basis von Volatilität und Rendite des Basiswerts mit einem diskreten Modell bewertet werden. Das vereinfachte Cox-Ross-Rubinstein-Modell lässt sich unter weiteren Annahmen immer feiner diskretisieren und man erhielt 1973 das Black-Scholes-Modell, wo nun in dieser stochastischen Differentialgleichung der Brownsche Prozess Anwendung findet. Der Brownsche Prozess ist der beobachteten zufälligen brownschen Molekularbewegung entlehnt. Aus diesem komplexen Modell können nun einfache geschlossene Formen für die Bewertung von vielen Optionenstypen berechnet werden, was 1997 zur Verleihung des renommierten Preises der Wirtschaftswissenschaften geführt hatte. Leider ergaben sich schnell Widersprüche in der Überprüfung des Modells am echten Markt: Es entsteht der Volatilitäts-Smile, der den Unterschied der Vorhersage zur tatsächlichen Situation darstellt. Interessanterweise trat der von Devisen bekannte Effekt bei Aktien erst nach dem Börsencrash von 1987 auf. Podcasts S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. W. Härdle: Risikobewertung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 41, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. S. Ajuvo, L. Schult: Geld I, Gespräch im damalsTM Podcast, Folge 2, 2015. S. Ajuvo, Steffen P., L. Schult: Geld II, Gespräch im damalsTM Podcast, Folge 5, und im VorHundert Podcast, Folge 18, 2015. S. Ajuvo, L. Schult: Geld III, Gespräch im damalsTM Podcast, Folge 21, 2016. L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine M. Fürst: Probabilistische Robotik, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik S. Ajuvo: Finanzen damalsTM, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm
Sebastian Ziesche hat bei Martin Zerner an der Universität in Tübingen Perkolationstheorie kennen gelernt und sich von der Faszination seines akademischen Lehrers anstecken lassen. Er hat nach dem Diplom in Karlsruhe in der Arbeitsgruppe von Günther Last das Vorhaben verfolgt, die Perkolationsmethoden auf zufällige Mosaike zu erweitern und darüber zu promovieren. Dieses Projekt hat er Anfang 2016 erfolgreich abgeschlossen. Perkolation ist ein Modell der statistischen Physik zur Modellierung poröser Strukturen mit Hilfe von Zufallsprozessen. Es geht dabei vor allem um die Quantifizierung von Durchlässigkeit. Als einfachstes Beispiel kann man sich ein regelmäßiges Gitter z.B. in der Ebene oder im Raum vorstellen, in dem jeder Knoten zufällig und unabhängig von allen anderen Knoten mit Wahrscheinlichkeit 1-p entfernt wird. Eine wichtige Frage ist, wie groß Zusammenhangskomponenten in so einer Struktur sein können. Dieses Modell hat nur einen Parameter (mit welcher Wahrscheinlichkeit p verbleibt ein Knoten im Gitter oder nicht) um verschiedene Strukturen unterscheidbar zu machen. Untersuchte Eigenschaften der Zusammenhangskomponeten bzw. Cluster sind Fragen nach deren Durchmesser oder Volumen. In der Regel eignet sich das Zählen von Knoten gut als Entfernungsmaß. Insbesondere die Frage, ob Cluster unendlich groß sein können erweist sich als interessant. Die Wahrscheinlichkeit dafür, dass es unendlich große Cluster gibt, hängt von dem Parameter p ab und ist entweder 0 (unwahrscheinlich) oder 1 (d.h. fast sicher). Das liegt daran, dass nach dem Null-Eins-Gesetz von Kolmogorov Ereignisse, die nicht vom Zustand endlich vieler Knoten abhängen, nur die Wahrscheinlichkeit 0 oder 1 haben können. Nach Überschreiten eines gewissen (sogenannten kritischen) Parameters wird also die Wahrscheinlichkeit, dass es einen unendlich großes Cluster gibt, von 0 auf 1 springen. Das Verhalten im ebenen Fall ist deutlich besser verstanden und zeigt im Dreiecks-Gitter eine gewisse Dualität, da immer entweder die vorhandenen oder die gelöschten Knoten einen unendlich großen Cluster bilden (außer im kritischen Fall). Im drei-dimensionalen Fall hingegen könnten unendlich große Cluster in beiden Mengen gleichzeitig existieren, falls der kritische Parameter kleiner als 1/2 ist. Mathematisch ist das gar nicht so einfach zu untersuchen. Ein typisches Verfahren ist es, Würfel der Kantenlänge n als Repräsentanten in allen möglichst vielen Realisierungen zu simulieren (die uns verfügbare Rechenleistung begrenzt dabei die Anzahl simulierbarer Realisierungen) und aus den so gewonnenen Strukturbeobachtungen auf das unendlich große Gebiet zu schließen. Die Perkolationstheorie fragt anders herum auch nach lokalen Konsequenzen aus dem Wissen um die Existenz unendlich großer Cluster. Die FKG-Ungleichung ist hier in beiden Richtungen (von lokal nach global und umgekehrt) ein Hauptwerkzeug. Sebastian Ziesche hat die Perkolationstheorie, die auf Gittern verstanden ist, auf zufällige Graphen erweitert. In einem zweistufigen Prozess wird also zunächst ein zufälliges Gitter erzeugt, das dann ausgedünnt wird. Ein Beispiel ist ein Voronoi-Mosaik. Die Methoden der klassischen Perkolationstheorie müssen durch Methoden ergänzt werden, die die besonderen geometrische Eigenschaften ausnutzen. In unserem Gespräch unterhielten wir uns außerdem darüber, wie wichtig es ist, dass Wissenschaftler den richtigen Rahmen finden, um junge Leute für ihre Themen zu begeistern und dass die Arbeit am Promotionsprojekt durchaus nicht geradlinig ist sondern von (postiven wie negativen) Überraschungen geprägt ist. Vieles lässt sich zu Beginn nicht absehen. Literatur und weiterführende Informationen G.R. Grimmett: Perkolation, Springer, 1999. A. Okabe et al.: Spatial Tessellations: Concepts and Applications of Voronoi Diagrams, 2nd Ed., Wiley, 2000.Podcasts A. August: Metallschaum, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 37, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/metallschaum
Jens Babutzka hat Anfang 2016 seine Promotion an der KIT-Fakultät für Mathematik verteidigt. Das Gespräch dreht sich um einen Teil seiner Forschungsarbeit - dem Nachweis der Gültigkeit der sogenannten Helmholtz Zerlegung im Kontext von Gebieten mit einer sich periodisch wiederholenden Geometrie. Das lässt sich für die Untersuchung von photonischen Kristallen ausnutzen unter der Wirkung einer Zeit-harmonischen Wellengleichung. Für die Untersuchung von partiellen Differentialgleichungen auf Lösbarkeit, Eindeutigkeit der Lösungen und deren Regularität gibt es verschiedene Grundwerkzeuge. Eines ist die Helmholtz Zerlegung. Falls sie in einem Raum möglich ist, kann man jedes Vektorfeld des Raumes eindeutig aufteilen in zwei Anteile: einen Gradienten und einen zweiten Teil, der unter der Anwendung der Divergenz das Ergebnis Null hat (man nennt das auch divergenzfrei). Wann immer Objekte miteinander skalar multipliziert werden, von denen eines ein Gradient ist und das andere divergenzfrei, ist das Ergebnis Null. Anders ausgedrückt: sie stehen senkrecht aufeinander. Die Untersuchung der partiellen Differentialgleichung lässt sich dann vereinfachen, indem eine Projektion auf den Teilraum der divergenzfreien Funktionen erfolgt und erst im Anschluss die Gradienten wieder "dazu" genommen, also gesondert behandelt werden. Da die Eigenschaft divergenzfrei auch physikalisch als Quellenfreiheit eine Bedeutung hat und alle Gradienten wirbelfrei sind, ist für verschiedene Anwendungsfälle sowohl mathematisch als auch physikalisch motivierbar, dass die Aufteilung im Rahmen der Helmholtz Zerlegung hilfreich ist. Im Kontext der Strömungsmechanik ist die Bedingung der Divergenzfreiheit gleichbedeutend mit Inkompressibilität des fließenden Materials (dh. Volumina ändern sich nicht beim Einwirken mechanischer Kräfte). Für das Maxwell-System kann es sowohl für das magnetische als auch für das elektrische Feld Divergenzfreiheitsbedingungen geben. Ob die Helmholtz Zerlegung existiert, ist im Prinzip für viele Räume interessant. Grundbausteine für die Behandlung der partiellen Differentialgleichungen im Kontext der Funktionalanalysis sind die Lebesgue-Räume . Eine (verallgemeinerte) Funktion ist in , wenn das Integral (des Betrags) der q-ten Potenz der Funktion über Omega existiert. Eine Sonderrolle spielt hier der Fall , weil dieser Raum ein Skalarprodukt hat. Das gibt ihm eine sehr klare Struktur. Darüber hinaus ist er zu sich selbst dual. Unter anderem führt das dazu, dass die Helmholtz Zerlegung in für beliebige Gebiete mit genügend glattem Rand immer existiert. Wenn nicht ist, sind Gebiete bekannt, in denen die Helmholtz Zerlegung existiert, aber auch Gegenbeispiele. Insbesondere bei der Behandlung von nichtlinearen Problemen reicht es aber häufig nicht, sich auf den Fall zu beschränken, sondern die Helmholtz Zerlegung für möglichst viele wird eine wesentliche Voraussetzung für die weitere Theorie. Das liegt u.a. an der dann verfügbaren Einbettung in Räume mit punktweisen Eigenschaften. Jens Babutzka hat in seiner Promotion unter anderem bewiesen, dass die Helmholtz Zerlegung für -Räume für die Gebiete mit einer sich periodisch wiederholenden Struktur gilt. Mathematisch muss er hierfür nachweisen, dass das schwache Neumannproblem immer eine (bis auf Konstanten) eindeutige Lösung hat in . Dabei hilft ihm die periodische Struktur der Geometrie. Mithilfe eines erst kürzlich bewiesenen Theorems von Bernhard Barth über Blochoperatoren kann er das Problem auf eine Familie von Phasenoperatoren auf der (beschränkten) periodischen Zelle reduzieren. Falls diese Operatoren regulär genug sind, lassen sie sich fortsetzen von auf . Anschließend überprüft er, ob die so erzeugte Abbildung auch wirklich die Helmhotz Zerlegung ist. Hier ist ein wesentliches Hilfsmittel, dass unendlich glatte Funktionen mit kompaktem Träger dicht in den Teilräumen liegen. Außerdem ist die Fouriertheorie in der besonderen Form der Blochoperatoren hilfreich. Sie hilft später auch beim Auffinden des Spektrums des betrachteten Wellenoperators. Für beschränkte Gebiete hängt es im Wesentlichen von der Glattheit des Randes ab, ob die Helmholtz Zerlegung in gilt. Das liegt u.a. daran, dass man in der Lage sein muss, eine eindeutige Normalenrichtung für jeden Punkt des Randes zu finden. Für Knicke im Rand kann es hier Probleme geben, die dazu führen, dass das schwache Neumann Problem nur noch für in einem kleineren Intervallbereich lösbar ist, und nicht mehr für alle zwischen und wie das bei glattem Rand der Fall ist. Literatur und weiterführende Informationen A. Figotin and P. Kuchment: Band-Gap Structure of Spectra of Periodic Dielectric and Acoustic Media. II. Two-Dimensional Photonic Crystals, SIAM J. Appl. Math., 56, 1561–1620, 1995. P. Galdi: An Introduction to the Mathematical Theory of the Navier-Stokes Equations - Steady-State Problems, Springer, 2011. B. Barth: The Bloch Transform on Lp-Spaces, KIT-Dissertation, 2013. W. Dörlfer e.a: Photonic Crystals: Mathematical Analysis and Numerical Approximation, Birkhäuser, 2011. M. Geissert e.a.: Weak Neumann implies Stokes, Journal für die reine und angewandte Mathematik 669, 75–100, 2012. Quellen für physikalische Grundlagen A. Birner e.a.: Photonische Kristalle, Physikalische Blätter 55 (1999), 27-33, 1999. Photonische Kristalle
Mathematisch ist die 135 eine seltsame Zahl...
Diesmal traf sich Gudrun zum Gespräch mit Anke Pohl, die zur Zeit am Max-Planck-Institut für Mathematik in Bonn arbeitet. Das Thema der Unterhaltung ist Mathematisches Quantenchaos. Anke Pohl untersucht nämlich, welchen Zusammenhang die geometrischen und spektralen Eigenschaften Riemannscher Mannigfaltigkeiten haben. Historisch ist das Interesse an diesen Eigenschaften und ihren Wechselwirkungen bei physikalischen Betrachtungen entstanden, wie z.B. bei den Studien der Schwingungen einer Membran. Im Jahre 1910 vermuteten Lorentz und Sommerfeld, dass der Flächeninhalt einer Membran (die ein Beispiel für eine Riemannsche Mannigfaltigkeit ist) durch die (Ober-)töne dieser Membran (die durch die Eigenwerte eines gewissen Operators bestimmt sind, der die Schwingungen der Membran beschreibt) bestimmt sind. Bereits kurze Zeit später gelang es Hermann Weyl, diese Vermutung mathematisch zu beweisen. Im Laufe der Zeit ist die Untersuchung solcher Zusammenhänge zu einem Teilgebiet der Mathematik und Mathematischen Physik angewachsen, welches sowohl hinsichtlich Motivation als auch in Bezug auf Methoden eng mit diversen anderen Teilgebieten der Mathematik, wie z.B. der Geometrie, der Zahlentheorie und der Analysis, zusammenhängt. Und auch heute noch liefern physikalische Erkenntnisse und Intuitionen gute Heuristiken bzw. sind wegweisend für mathematische Ansätze. Aktuelle große Vermutungen mit sowohl mathematischer als auch physikalischer Motivation sind beispielsweise die Rudnick-Sarnak Vermutung über eindeutige Quantenergodizität auf gewissen kompakten Riemannschen Mannigfaltigkeiten (Gleichverteilung von Eigenfunktionen im Mittel bei wachsendem Eigenwert; für den Beweis von eindeutiger arithmetischer Quantenergodizität wurde E. Lindenstrauss 2010 eine Fieldsmedaille verliehen), die Phillips-Sarnak Vermutung über die (Nicht-)Existenz von quadrat-integrierbaren Eigenfunktionen auf gewissen nicht-arithmetischen Mannigfaltigkeiten, die Sarnaksche Vermutung über das Größenwachstum von Eigenfunktionen bei wachsendem Eigenwert, oder die Sjöstrandsche Vermutung über die asymptotische Anzahl von Resonanzen in Streifen bei hyperbolischen Flächen unendlichen Inhalts. Details und weiterführende Informationen zu diesen und anderen Vermutungen sind beispielsweise in den Übersichtsartikel in den untenstehenden Referenzen enthalten. Anke Pohls befasst sich zur Zeit mit bestimmten Flüssen, den sogenannten geodätischen Flüssen, auf einer speziellen Klasse von Riemannschen Mannigfaltigkeiten. Als erste, recht elementare, Beispiele für Mannigfaltigkeiten kann man sich zunächst Oberflächen vorstellen. Wenn man auf ihnen Größen definiert hat, die zum Messen von Abständen und Winkel dienen, werden sie Riemannsche Mannigfaltigkeit genannt. Wie bei den oben genannten Membranen sind Geodäten. Mathematisch werden die Schwingungen als Lösungen des Laplaceoperators in der zugrundeliegenden Geometrie beschrieben bzw. mit Hilfe der Eigenwerte und Eigenfunktionen des Operators. Aus der Anschauung ist klar, dass die Schwingungen von den geometrischen Eigenschaften der Fläche abhängen. Wenn z.B. die Fläche oder Membran eingerissen ist oder ein Loch hat, klingt sie anders als wenn sie geschlossen ist bzw. gut eingespannt ist. Für kompakte Flächen ist bekannt, dass es unendlich viele solcher Eigenfunktionen gibt. Je nach Grad der Offenheit (also z.B. eine Fläche mit Riss oder Loch) ist es jedoch schwierig zu sagen, wie sich die Schar der Lösungen verändert. Ein interessantes Beispiel wäre z.B. zu betrachten, dass an einer Stelle die eingespannte Fläche im Unendlichen verankert ist, aber das darunterliegende Volumen endlich ist. Vorstellen kann man sich das etwa so, dass man an dieser Stelle die Fläche samt ihren Abständen unendlich weit zieht. Man fragt sich dann, ob eine Welle auf der Fläche auch diese Singularität überlebt. Ein methodischer Ansatz, solche und andere Fragen zu studieren, ist es, Beziehungen zu anderen Objekten, vor allem rein geometrischen, zu finden. Selbergs Beweis zur Unendlichkeit der Anzahl der Eigenfunktionen auf gewissen hyperbolischen Flächen zeigt zunächst, dass die Eigenwerte der Eigenfunktionen (spektrale Objekte) durch die Längen der geschlossenen Geodäten (geometrische Objekte) bestimmt sind. Genauer, sie sind unter den Nullstellen einer generierenden Zetafunktion für das Längenspektrum der Geodäten. Ausnutzung zusätzlicher Eigenschaften der Flächen, wie z.B. Kompaktheit oder zusätzliche Symmetrien, erlaubt dann (manchmal) zu bestimmen, ob Nullstellen existieren und ob sie von Eigenwerten stammen. Anke Pohl schaut sich die Geodäten auf bestimmten hyperbolischen Flächen an, diskretisiert sie und findet ein assoziiertes diskretes dynamisches System auf dem reellen Zahlenstrahl. Für dieses diskrete System sucht sie gewisse invariante Größen, z. B. invariante Maße oder Dichten. Genauer fragt sie nach Eigenfunktionen des assoziierten Transferoperators mit gewissen Parametern (inversen Temperaturen). An dieser Stelle sieht man wieder einen Einfluss aus der Physik: Transferoperatoren entstammen dem thermodynamischen Formalismus der statistischen Mechanik. Sie zeigt dann, dass die Eigenfunktionen dieser Transferoperatoren bijektiv zu den L_2 Eigenfunktionen des Laplaceoperators der hyperbolischen Flächen sind. Da die Eigenfunktionen der Transferoperatoren alleine durch die geschlossenen Geodäten bestimmt sind und somit also geometrische Objekte der Fläche sind, stellt auch sie eine Beziehung zwischen gewissen geometrischen und gewissen spektralen Objekten dieser Flächen her. Zum Abschluss noch eine kurze Erklärung zur Bezeichnung "Quantenchaos" für dieses Themengebiet: Der Laplaceoperator ist gerade, bis auf Skalierung, der Schrödingeroperator in der Physik. Quantenmechanisch werden seine L_2 Eigenfunktionen als gebundene Zustände verstanden. Das zugehörige Objekt in der klassischen Mechanik ist gerade das Hamiltonsche Vektorfeld des geodätischen Flusses, d. h. die Bildungsvorschrift für die Geodäten oder die Bewegungsvorschrift für Kugeln auf der Fläche. Das Korrespondenzprinzip der Physik besagt nun, dass im Grenzfall (hier: Eigenwerte der Eigenfunktionen gehen gegen unendlich) die Gesetze der Quantenmechanik in die der klassischen Mechanik übergehen sollten. Hier fragt man also gerade danach, wie die spektralen und die geometrischen Eigenschaften Riemannscher Mannigfaltigen wechselwirken. Daraus ergibt sich der Bestandteil "Quanten" in "Quantenchaos". Der Bestandteil "Chaos" ist wie folgt motiviert: Bei den in diesem Gebiet studierten Flüssen verhalten sich Bahnen, die sehr nah beieinander starten, typischerweise nach recht kurzer Zeit sehr unterschiedlich. Mit anderen Worten, kleine Änderungen in den Anfangsbedingungen wirken sich typischerweise sehr stark aus, d.h., das System ist in gewisser Weise chaotisch. Frau Pohl hat Mathematik an der TU Clausthal studiert, an der Universität Paderborn promoviert und habilitiert gerade an der Universität Göttingen. Literatur und Zusatzinformationen William P. Thurston: The Geometry and Topology of Three-Manifolds, Mathematical Sciences Research Institute, 2002. A. Pohl: Symbolic dynamics for the geodesic flow on locally symmetric good orbifolds of rank one, Dissertation Uni Paderborn, 2009. A.Pohl: A dynamical approach to Maass cusp forms, arXiv preprint arXiv:1208.6178, 2012. M. Möller und A. Pohl: Period functions for Hecke triangle groups, and the Selberg zeta function as a Fredholm determinant, Ergodic Theory and Dynamical Systems 33.01: 247-283, 2013. P. Sarnak: Recent progress on the quantum unique ergodicity conjecture, Bull. Amer. Math. Soc 48: 211-228, 2012. S. Zelditch: Recent developments in mathematical quantum chaos, Current developments in mathematics 2009: 115-204, 2010.
Mathematisch-technische Software-Entwickler - kurz "Matse"- entwerfen und programmieren Software für die unterschiedlichsten Zwecke. Sie erstellen Internetseiten und Datenbankanwendungen. Sie sind fit in vielen Programmiersprachen. Die Basis all ihrer Arbeit sind mathematische Modelle.
Stefanie Hollborn arbeitet an der Universität Mainz am Thema Elektrische Impedanztomographie, die im Vergleich zur Röntgentomographie deutlich weniger schädlich ist und im Vergleich zur Magnetresonanztomographie deutlich preiswerter ist. Mit Hilfe von Elektroden auf der Oberfläche von Objekten wird niedriger Strom auf den Rand des Objektes angelegt und anschließend die resultierende Spannung und dadurch die Impedanz gemessen. Mit Hilfe der daraus abgeleiteten Leitfähigkeitsverteilung im Schnittbild kann man dann Rückschlüsse darauf ziehen, ob im Körper Verunreinigungen vorhanden sind. Dies findet beispielsweise Anwendung bei der Sichtbarmachung, also der Tomographie, von Krebszellen oder beim Auffinden von Blasen in Zement. Der Vorteil des Verfahrens ist, dass es billig einsetzbar und nicht schädlich für lebende Organismen ist. Außerdem sind Kontraste häufig sehr gut auflösbar. Mathematisch werden die Gleichungen für die Wechselwirkung von Strom- und Magnetfeld als Modell zugrunde gelegt. Das Spannungspotential, das als Reaktion auf den Input vom Rand entsteht, lässt sich als Überlagerung von harmonischen Funktionen darstellen. Die Verunreinigungen sind überall da, wo eine harmonische Fortsetzung der Lösung vom Rand her nicht mehr möglich ist. Dort weicht das Feld dann nämlich vom homogenen Verhalten ab, das ohne die Verunreinigung vorliegen müsste. Frau Hollborn arbeitet insbesondere mit Daten die durch ein Paar eng nebeneinander liegende Elektroden entstehen. Die Hoffnung ist, daraus ein einfach einzusetzendes Werkzeug zu machen. Mathematisch muss hier ein eindimensionales Randwertproblem gelöst werden. Die Fortsetzung der Daten ins Innere ist jedoch ein so genanntes schlecht gestelltes Problem, bei dem Fehler verstärkt werden. Dieser Begriff geht zurück auf Jacques Hadamard, der den Begriff der gut gestellten Probleme eingeführt hat. Deshalb benutzt man insbesondere Vorwissen, um die Lösungen zu Regularisieren bzw. die regulären Lösungen aus der Schar aller möglichen Lösungen auszuwählen. Stefanie Hollborn hat sowohl Philosophie als auch Mathematik studiert. Für beide Gebiete ist die Logik ein fundamentales Konzept, wobei die formale mathematische Beschreibung ihre Anwendung sehr erleichtert. Literatur und weiterführende Informationen L. Borcea: Electrical impedance tomography, Inverse Probl. 18, R99-R136, 2002. M. Cheney, D. Isaacson, J. Newell: Electrical impedance tomography, SIAM Rev. 41, No.1, 85-101, 1999. M. Brühl, M. Hanke-Bourgeois: Kann die Mathematik der elektrischen Impedanztomographie zum Durchbruch verhelfen? Beitrag im Forschungsmagazin der Johannes Gutenberg-Universität Mainz, 2000. M. Hanke, S. Reusswig, N. Hyvönen: An inverse backscatter problem for electric impedance tomography, SIAM J. Math. Anal. 41.5, 1948-1966, 2009. S. Hollborn: Wie zwei Elektroden tiefe Einblicke gewähren
Im Rahmen des ersten Alumitreffens im neu renovierten Mathematikgebäude gibt uns unser Alumnus Markus Even einen Einblick in seine Arbeit als Mathematiker am Fraunhofer IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung in Ettlingen in der Arbeitsgruppe zur Analyse und Visualisierung von SAR-Bilddaten. Er befasst sich mit der Entwicklung von Algorithmen für die Fernerkundung, genauer gesagt für die Deformationsanalyse mit Hilfe von SAR-Interferometrie (InSAR). Deformation bezieht sich hier auf Bewegungen der Erdkruste oder auf ihr befindlicher Strukturen, z.B. von Bauwerken. Hinter dem Stichwort SAR-Interferometrie verbirgt sich eine Vielfalt von Verfahren der Fernerkundung, die auf Synthetic Aperture Radar, auf Deutsch Radar mit synthetischer Apertur, beruhen, und die die Fähigkeit der Sensorik ein kohärentes Signal zu verarbeiten zur Erzeugung sogenannter Interferogramme nutzen. Für SAR ist es wesentlich, dass der Sensor bewegt wird. Zu diesem Zweck ist er auf einen Satelliten, ein Flugzeug oder auch auf einem auf Schienen laufenden Schlitten montiert. Für die Mehrzahl der Anwendungen wird er entlang einer näherungsweise geradlinigen Bahn bewegt und sendet in festen Zeitabständen elektromagnetische Signale im Mikrowellenbereich aus, deren Returns er, unterteilt in sehr kurze Zeitintervalle, aufzeichnet. Dabei "blickt" er schräg nach unten, um nicht systematisch von zwei verschiedenen Orten der Erdoberfläche rückkehrende Signale zu vermischen. Herauszuheben ist, dass er unabhängig von der Tageszeit- er beleuchtet die Szene selbst- und weitgehend unabhängig von den Wetterverhältnissen- die Atmosphäre verzögert das Signal, ist aber für diese Wellenlängen (ca. 3cm-85cm) bis auf seltene Ausnahmen durchlässig dafür- Aufnahmen machen kann. Dies ist ein Vorzug gegenüber Sensoren, die im optischen oder infraroten Teil des Spektrums arbeiten, und nachts oder bei Bewölkung nicht die gewünschten Informationen liefern können. Neben der Magnitude des rückgestreuten Signals zeichnet der SAR-Sensor auch dessen Phasenverschiebung gegenüber einem Referenzoszillator auf, die die Grundlage für die Interferometrie darstellt und viele Anwendungsmöglichkeiten bietet. Aus dem aufgezeichneten Signal wird das sogenannte fokusierte Bild berechnet. (Mathematisch gesehen handelt es sich bei dieser Aufgabe um ein inverses Problem.) Die Achsen dieses komplexwertigen Bildes entsprechen eine der Position des Satelliten auf seiner Bahn und die andere der Laufzeit des Signals. Der Zahlenwert eines Pixels kann vereinfacht als Mittel der aufgezeichneten Rückstreuung aus dem Volumen angesehen werden, dass durch das jeweilige Paar aus Bahninterval und Laufzeitinterval definiert ist. Dies ist der Kern von SAR: Die Radarkeule erfasst eine größere Fläche auf dem Boden, so dass das aufgezeichnete Signal aus der Überlagerung aller zurückkehrenden Wellen besteht. Diese Überlagerung wird durch die Fokusierung rückgängig gemacht. Dazu benutzt man, dass ein Auflösungselement am Boden zu allen Returns beiträgt, solange es von der Radarkeule erfasst wird und dabei eine bekannte Entfernungskurve durchläuft.Die Magnitude des sich so ergebenden Bildes erinnert bei hochaufgelösten Aufnahmen auf den ersten Blick an eine Schwarzweißphotographie. Betrachtet man sie jedoch genauer, so stellt man schnell Unterschiede fest. Erhabene Objekte kippen zum Sensor, da die höhergelegenen Punkte näher zu ihm liegen. Hohe Werte der Magnitude, also hohe Rückstreuung, sind in der Regel mit günstigen geometrischen Konstellationen verbunden: Eine ebene Fläche muss dazu beispielsweise senkrecht zum einfallenden Signal ausgerichtet sein, was selten der Fall ist. Geht man an die Grenze des aktuell Möglichen und betrachtet ein Bild einer städtischen Umgebung eines luftgetragenen Sensors mit wenigen Zentimetern Auflösung, so scheint es beinahe in punktförmige Streuer zu zerfallen. Diese werden durch dihedrale (Pfosten) und- häufiger- trihedrale Strukturen erzeugt. Trihedrale Strukturen reflektieren das einfallende Signal parallel zur Einfallsrichtung (man kennt das von den an Fahrzeugen verwendeten, Katzenaugen genannten Reflektoren). Sehr niedrige Rückstreuung ist meist darin begründet, dass kein Signal mit der entsprechenden Laufzeit zum Sensor zurückkehrt, sei es weil keine Streuer erreicht werden (Schatten) oder das Signal auf glatten Flächen vom Satelliten weggespiegelt wird. Für Wellenlängen von einigen Zentimetern sind z.B. asphaltierte oder gepflasterte Flächen glatt, bei Windstille ist es auch Wasser. Daneben gibt es auch kompliziertere Streumechanismen, die zu Magnituden mittlerer Höhe führen, etwa Volumenstreuung in Vegetation, Schnee und Sand, verteilte Streuung an Flächen mit vielen kleinen, homogen verteilten Objekten (z.B. Kiesflächen oder andere Flächen mit spärlicher Vegetation) oder einer gewissen Rauigkeit. Außer diesen gibt es noch viele weitere Möglichkeiten, wie Mehrfachreflektionen oder das Zusammenfallen in verschiedenen Höhen positionierter Streuer in einer Entfernungszelle.Die für die SAR-Interferometrie wesentliche Information aber ist die Phase. Sie kann allerdings nur genutzt werden, wenn zwei oder mehr Aufnahmen aus annähernd der gleichen Position vorliegen. Die grundlegende Idee dabei ist die Betrachtung von Doppeldifferenzen der Phase zweier Pixel zweier Aufnahmezeitpunkte. Um sie zu verstehen nehmen wir zunächst an, dass sich in beiden Auflösungszellen je ein dominanter, punktförmiger Streuer befindet, was so gemeint ist, dass die Phase einer Laufzeit entspricht. Da die Subpixelpositionen unbekannt sind und die Größe der Auflösungszelle um Vieles größer als die Wellenlänge ist, ist die Phasendifferenz zweier Pixel eines einzelnen Bildes nicht verwertbar. In der Doppeldifferenz heben sich die unbekannten Subpixelpositionen allerdings heraus. Die Doppeldifferenz ist in dieser idealisierten Situation die Summe dreier Anteile: des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien, des Laufzeitunterschiedes auf Grund einer relativen Positionsänderung der Streuer während der zwischen den Aufnahmen verstrichenen Zeit und des Laufzeitunterschiedes auf Grund der räumlichen und zeitlichen Variation der atmosphärischen Verzögerung. Diese drei Anteile können jeder für sich nützliche Information darstellen. Der Erste wird zur Gewinnung von Höhenmodellen genutzt, der Zweite zur Detektion von Deformationen der Erdoberfläche und der Dritte, obwohl meist als Störterm angesehen, kann bei der Bestimmung der Verteilung von Wasserdampf in der Atmosphäre genutzt werden. Es stellt sich aber die Frage, wie man diese Terme separiert, zumal noch die Mehrdeutigkeit aufgelöst werden muss, die darin liegt, dass die Phase nur bis auf ganzzahlige Vielfache von zwei Pi bekannt ist.Weitere Fragen ergeben sich, da in realen Daten diese Annahmen für viele Pixel nicht erfüllt sind. Stellt man sich beispielsweise eine Auflösungszelle mit mehreren oder vielen kleineren Streuern vor (z.B. mit Geröll), so ändert sich die Phase der überlagerten Returns mit dem Einfallswinkel des Signals. Sie ändert sich auch, wenn manche der Streuer bewegt wurden oder die beiden Aufnahmen nicht ausreichend genau zur Deckung gebracht wurden. Dies führt dazu, dass die Phase sich um einen schlecht quantifizierbaren Betrag ändert. Man spricht dann von Dekorrelation. Eventuell besteht nach Änderung der physischen Gegebenheiten in der Auflösungszelle keine Beziehung mehr zwischen den Phasenwerten eines Pixels. Dies ist etwa der Fall, wenn ein dominanter Streuer hinzu kommt oder nicht mehr anwesend ist, ein Gelände überschwemmt wird oder trocken fällt. Es stellt sich also die Frage, welche Pixel überhaupt Information tragen, bzw. wie ihre Qualität ist und wie sie extrahiert werden kann.Die Geschichte der SAR-Interferometrie begann nach dem Start des ESA-Satelliten ERS 1 im Jahr 1991 mit einfachen differentiellen Interferogrammen. Das berühmteste ist sicher das vom Landers-Erdbeben 1992 in Kalifornien. Zum ersten Mal in der Geschichte der Wissenschaft war es möglich, das Deformationsfeld eines Erdbebens flächig zu messen, wenn auch nur die Komponente in Sichtlinie des Sensors. Statt Werte hunderter in der Region installierter Messstationen stellte das Interferogramm ein Bild des Erdbebens mit Millionen Datenpunkten dar. Diese Fähigkeit, großflächig Deformationen der Erdoberfläche aufzuzeichnen, besitzt nur die SAR-Interferometrie! Allerdings ist zu bemerken, dass dieses Resultat seine Entstehung auch günstigen Umständen verdankt. Landers liegt in der Mojave-Wüste, so dass die Variation der atmosphärischen Verzögerung und die Dekorrelation vernachlässigbar waren. Dank der Verfügbarkeit eines guten Höhenmodells konnte der Anteil des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien eliminiert werden (man spricht dann von einem differentiellen Interferogramm). Ein weiterer Meilenstein war die Shuttle Radar Topography Mission des Space Shuttle Endeavour im Februar 2000, während der die Daten für ein Höhenmodell der gesamten Landmasse zwischen 54 Grad südlicher Breite und 60 Grad nördlicher Breite aufgezeichnet wurden. Für diesen Zweck wurde die Endeavour mit zwei SAR-Antennen ausgestattet, eine am Rumpf, eine an einem 60 Meter langen Ausleger. Dank zeitgleicher Aufnahmen waren die Phasenanteile auf Grund Deformation und atmosphärischer Verzögerung vernachlässigbar. Dekorrelation auf Grund von Änderungen der physischen Gegebenheiten spielt hier auch keine Rolle. Dem Wunsch nach einem weltweiten, dazu deutlich höher aufgelösten Höhenmodell kommt seit 2010 die TanDEM-X-Mission des DLR nach, bei der die beiden SAR-Antennen von zwei Satelliten im Formationsflug getragen werden. Auch in der Algorithmik gab es entscheidende Fortschritte. Einer der fruchtbarsten war die Erfindung von Permanent Scatterer Interferometric SAR (PSInSAR) um das Jahr 2000, das durch die Verwendung einer längeren Zeitreihe von differentiellen Interferogrammen und einiger neuer Ideen das Problem der Separierung der im vorangehenden Abschnitt genannten Terme löste. Der Ausgangspunkt hierfür war die Entdeckung, dass häufig eine größere Anzahl über lange Zeiträume phasenstabile Streuer, die sogenannten Permanent Scatterer (auch Persistent Scatterer oder PS), gefunden werden können, die man sich vereinfacht als Pixel vorstellen darf, deren Auflösungszelle einen dominanten, punktförmigen, über die Zeitreihe unveränderten Streuer enthält. Auf diese wird nun die Auswertung beschränkt, die vereinfacht folgende Schritte durchläuft: Definition eines Graphen mit den PS als Knoten und Paaren benachbarter PS als Kanten; Schätzung einer Modellphase für Deformation und Höhenmodellfehler an Hand der Doppeldifferenzen aller verwendeten differentiellen Interferogramme für alle Kanten; Entrollen von Originalphase minus Modellphase, d.h. Auflösen der Mehrdeutigkeiten; räumlich-zeitliche Filterung, um die Variation der atmosphärischen Verzögerung zu eliminieren. Als Produkt ergeben sich für jeden PS seine Bewegung in Sichtlinie des Sensors und eine Korrektur seiner Höhenlage relativ zum für die Erzeugung der differentiellen Interferogramme verwendeten Höhenmodell. Seither wurden diese Grundideen modifiziert und verfeinert. Vor allem müssen die Berücksichtigung verteilter Streuer (auch Distributed Scatterer oder DS) für die Deformationsanalyse erwähnt werden, was die Informationsdichte vor allem in ariden Gebieten drastisch erhöhen kann, sowie die SAR-Tomographie, die eine Analyse auch dann erlaubt, wenn zwei oder drei vergleichbar starke Streuer in einer Auflösungszelle vorhanden sind (z.B. wenn ein Streuer am Boden, eine Fensterniche und eine Dachstruktur den gleichen Abstand zum Sensor haben). Die SAR-Interferometrie, insbesondere die Deformationsanalyse, verwendet vor allem mathematische Methoden aus den Bereichen Stochastik, Signalverarbeitung, Optimierungstheorie und Numerik. Besondere Herausforderungen ergeben sich daraus, dass die Vielfalt natürlicher Phänomene sich nur bedingt durch einfache statistische Modelle beschreiben lässt und aus dem Umstand, dass die Datensätze in der Regel sehr groß sind (ein Stapel von 30 Aufnahmen mit komplexwertigen 600 Megapixeln ist durchaus typisch). Es treten lineare Gleichungssysteme mit mehreren Zehntausend Unbekannten auf, die robust gelöst sein wollen. Für die Auflösung der Mehrdeutigkeiten verwenden die fortgeschrittensten Algorithmen ganzzahlige Optimierung. Wavelet-basierte Filterverfahren werden genutzt, um die atmosphärische Verzögerung vom Nutzsignal zu trennen. Im Zusammenhang mit der Schätzung der Variation der atmosphärischen Verzögerung werden geostatistische Verfahren wie Kriging eingesetzt. Statistische Tests werden bei der Auswahl der DS, sowie zur Detektion schlechter Pixel eingesetzt. Bei der Prozessierung der DS spielen Schätzer der Kovarianzmatrix eine prominente Rolle. Die SAR-Tomographie nutzt Compressive Sensing und viele weitere Verfahren. Zusammenfassend lässt sich sagen, dass die SAR-Interferometrie auch aus Perspektive eines Mathematikers ein reichhaltiges und spannendes Arbeitsgebiet ist. Eine wichtige Anwendung ist die Deformationsanalyse durch die InSAR-Methode: Die SAR-Interferometrie zeichnet sich vor allen anderen Techniken dadurch aus, dass sie bei geeignetem Gelände sehr großflächige Phänomene mit sehr hoher Informationsdichte abbilden kann. Allerdings liefert sie relative Messungen, so dass in der Regel eine Kombination mit Nivellement oder hochgenauen GPS-Messungen verwendet wird. Ihre Genauigkeit hängt neben der Qualität der Daten von der Wellenlänge ab und zeigt bei 3cm Wellenlänge meist nur wenige Millimeter je Jahr Standardabweichung. Damit können selbst sehr feine Bewegungen, wie z.B. die Hebung des Oberrheingrabens (ca. 2mm/y), nachgewiesen werden. Allerdings können wegen der Mehrdeutigkeit der Phase Bewegungen auch zu stark sein, um noch mit PSInSAR auswertbar zu sein. In diesem Fall können längere Wellenlängen, höhere zeitliche Abtastung oder Korrelationsverfahren helfen. Trotz der diskutierten Einschränkungen lässt sich die Deformationsanalyse mit InSAR in vielen Zusammenhängen nutzensreich einsetzen, denn auch die Ursachen für Deformationen der Erdoberfläche sind vielfältig. Neben geologischen und anderen natürlichen Phänomenen werden sie von Bergbau, Förderung von Wasser, Erdgas, Erdöl, durch Geothermiebohrungen, Tunnelbau oder andere Bautätigkeiten ausgelöst. Meist steht bei den Anwendungen die Einschätzung von Risiken im Fokus. Erdbeben, Vulkanismus, aber auch Schäden an kritischer Infrastruktur, wie Deichen, Staudämmen oder Kernkraftwerken können katastrophale Folgen haben. Ein weiteres wichtiges Thema ist die Entdeckung oder Beobachtung von Erdbewegungen, die sich potentiell zu einem Erdrutsch entwickeln könnten. Allein in den Alpen gibt es tausende Bergflanken, wo sich größere Bereiche in langsamer Bewegung befinden und in Leben oder Infrastruktur gefährdende Hangrutsche münden könnten. Auf Grund der zunehmenden Erderwärmung nimmt diese Bedrohung überall dort zu, wo Permafrost zu tauen beginnt, der bisher den Boden stabilisierte. InSAR wird bei der Erstellung von Risikokarten genutzt, die der Beurteilung der Gefährdungslage und der Entscheidung über Gegenmaßnahmen dienen. In vielen Regionen der Erde werden Deformationen der Erdoberfläche durch veränderte Grundwasserstände verursacht. Nimmt das Grundwasser ab, etwa wegen Entnahme zur Bewässerung oder industriellen Verwendung, so senkt sich die Erdoberfläche. Nimmt das Grundwasser während regenreicher Zeiten zu, so hebt sich die Erdoberfläche. Das Monitoring mit InSAR ist hier aus mehreren Gründen interessant. Bewegungen der Erdoberfläche können Schäden an Gebäuden oder anderen Strukturen verursachen (Bsp. Mexico City). Übermäßige Wasserentnahme kann zu irreversibler Verdichtung der wasserführenden Schichten führen, was Konsequenzen für die zukünftige Verfügbarkeit der lebenswichtigen Flüssigkeit hat. Bei Knappheit muss die Entnahme reguliert und überwacht werden (Bsp. Central Valley, Kalifornien). Von besonderer Bedeutung sind durch geologische Phänomene wie Vulkanismus oder tektonische Bewegungen verursachte Deformationen der Erdoberfläche. Die von SAR-Satelliten gewonnenen Daten werden zur Einschätzung von Risiken benutzt, auch wenn eine sichere, frühzeitige und zeitgenaue Vorhersage von Erdbeben oder Vulkanausbrüchen mit den heutigen Methoden nicht möglich ist. Sie sind aber die Grundlage für eine ausgedehnte Forschungsaktivität, die unser Verständnis der Vorgänge in der Erdkruste stetig wachsen lässt und immer genauere Vorhersagen erlaubt. Dies ist in erster Linie den SAR-Satelliten der ESA (ERS-1, ERS-2, Envisat und aktuell Sentinel-1A) zu verdanken, die seit 1991 mit lediglich einer Lücke von zwei Jahren (2012-2014) kontinuierlich die gesamte Erde aufnehmen. Die Idee dabei ist, dass so in festem zeitlichen Rhythmus (bei ERS alle 35 Tage) jeder Punkt der Erde aufgenommen wird. Dadurch ist ein großes Archiv entstanden, das es nach einem geologischen Ereignis ermöglicht, dieses mit den Methoden der SAR-Interferometrie zu untersuchen, da die Vorgeschichte verfügbar ist. Eine Entwicklung der letzten Jahre ist die Nutzung bei der Erschließung von Erdgas und Erdöl. Die mit InSAR sichtbar gemachten Deformationen erlauben es, neue Einsicht in die Struktur der Lagerstätten zu erhalten, geomechanische Modelle zu kalibrieren und letztlich die Rohstoffe Dank optimierter Positionierung von Bohrlöchern effektiver und kostengünstiger zu fördern. Wer InSAR noch besser verstehen will, der findet in den InSAR Guidlines der ESA die Grundlagen sehr gut erklärt. Einen etwas breiteren Überblick über Anwendungsmöglichkeiten kann man sich auf der Homepage von TRE verschaffen, einem Unternehmen, das von den Schöpfern von PSInSAR gegründet wurde und im Bereich InSAR-Auswertungen nach wie vor führend ist. Die Wettbewerber ADS und e-GEOS bieten außer InSAR weitere Anwendungen von SAR-Daten. Aus wissenschaftlich/politischer Perspektive kann man sich in der Broschüre der DLR über Themenfelder der Erdbeobachtung informieren. Zu dem speziellen Thema der Erdbewegung auf Grund Absenkung des Grundwasserspiegels in den USA gibt es weitere Informationen. Literatur und weiterführende Informationen A. Ferretti, A. Monti-Guarnieri, C. Prati, F. Rocca, D. Massonnet: InSAR Principles: Guidelines for SAR Interferometry Processing and Interpretation, TM-19, ESA Publications, 2007. M. Fleischmann, D. Gonzalez (eds): Erdbeobachtung – Unseren Planeten erkunden, vermessen und verstehen, Deutsches Zentrum für Luft- und Raumfahrt e.V., 2013. Land Subsidence, U.S. Geological Survey. M. Even, A. Schunert, K. Schulz, U. Soergel: Atmospheric phase screen-estimation for PSInSAR applied to TerraSAR-X high resolution spotlight-data, Geoscience and Remote Sensing Symposium (IGARSS), IEEE International, 2010. M. Even, A. Schunert, K. Schulz, U. Soergel: Variograms for atmospheric phase screen estimation from TerraSAR-X high resolution spotlight data, SPIE Proceedings Vol. 7829, SAR Image Analysis, Modeling, and Techniques X, 2010. M. Even: Advanced InSAR processing in the footsteps of SqueeSAR Podcast: Raumzeit RZ037: TanDEM-X Podcast: Modellansatz Modell010: Positionsbestimmung Podcast: Modellansatz Modell012: Erdbeben und Optimale Versuchsplanung Podcast: Modellansatz Modell015: Lawinen
Auch Menschenströme können mathematisch beschrieben und mit geeigneten Modellen auch simuliert werden. Damit können große Veranstaltungen im Vorfeld besser geplant und ausgelegt werden, damit Engpässe oder sogar Katastrophen wie bei der Love-Parade 2010 möglichst verhindert werden. Henrieke Benner hat dazu die Parameter für die Simulation von Fußgängern im Gegenstrom kalibriert und spricht mit Gudrun Thäter über die Verfahren, Herausforderungen und Erkenntnisse.Mathematisch betrachtet sie die Fußgänger in einem mikroskopischen Modell, wo jede Person als eigenes Objekt simuliert wird. Entsprechend der Situation wirken nun virtuelle Kräfte auf diese Objekte, so verhindert eine virtuelle Abstoßungskraft zwischen zwei Personen, dass diese zusammenstoßen. Die betrachtete Simulation wird durch eine Vielzahl von Parametern konfiguriert, die mit realen Experimenten kalibriert werden müssen. Dies kann durch eine Optimierung der Parameter gelöst werden, die die Simulation den Experimenten möglichst weitgehend annähert. Literatur und Zusatzinformationen H.-J. Bungartz, S. Zimmer, M. Buchholz, D. Pflüger: Modellbildung und Simulation: Eine anwendungsorientierte Einführung, Springer Verlag, 2013. U. Chattaraj, A. Seyfried, P. Chakroborty: Comparison of pedestrian fundamental diagram across cultures, Advances in complex systems, 12(03), 393-405, 2009. A. Johansson, D. Helbing, P. K. Shukla: Specification of the social force pedestrian model by evolutionary adjustment to video tracking data, Advances in complex systems, 10(supp02), 271-288, 2007. D. Helbing, P. Mukerji: Crowd disasters as systemic failures: analysis of the Love Parade disaster, EPJ Data Science 1:7, 2012. PTV Viswalk Software
Heute mit den Streifen der Zebras, Roboter Fussball-WM, flüssigem Wasser auf einem Saturn Mond und den Lichtwellenreitern 2.0. Experiment der Woche: "Das Geheimnis des Guiness-Bierschaums".
DNA extrahieren, Roboter bauen, Züge schweben lassen: Der Fakultätstag der Mathematisch- naturwissenschaftlichen Fakultät bot Naturwissenschaften zum Anfassen und Mitmachen. Gross und Klein war begeistert dabei.
In Deutschland gibt es ein Lotteriemonopol. Das bedeutet, dass in Deutschland nur der Staat, oder besser gesagt die einzelnen Bundesländer, Lotto als Glücksspiel anbieten darf. Private Anbieter gibt es zwar auch, aber auch die müssen wiederum beim Staat spielen. Der Grund dafür ist, dass man den Bürger vor der Spielsucht schützen möchte. Außerdem fließt vieles von dem Geld, das die Bürger verspielen, gemeinnützigen Zwecken zu. Das bedeutet, es wird vom Staat für gute soziale Zwecke ausgegeben. Die Hälfte des Geldes geht direkt an die Gewinner, der Rest wird beispielsweise für Sport, Kunst, Umwelt oder Jugendprojekte ausgegeben. Lotto spielt man in Deutschland seit fast 400 Jahren. In Schweden spielt man „7 aus 35“. Hier bei uns wird „6 aus 49“ gespielt. Man kauft beispielsweise an einem Kiosk einen Lottoschein. Dieser ist so groß wie eine Postkarte. Darauf sind einzelne Quadrate. Jedes dieser Quadrate hat 7 Reihen und 7 Spalten, also insgesamt 49 Felder. Man macht jetzt Kreuze bei sechs Zahlen und hofft, dass diese Zahlen gewinnen. Mathematisch kann man ausrechnen, dass bei „6 aus 49“ fast 14 Millionen Möglichkeiten bestehen, seine Kreuzchen zu setzen. In Schweden sind es nur 6 Millionen. Dazu gibt es noch die Superzahl. Das ist die letzte Zahl der Nummer des Lottoscheins. Man kann sie also nicht aussuchen oder beeinflussen. Man hat die Superzahl eingeführt, damit es noch schwieriger wird, zu gewinnen. Am Mittwoch und am Samstag gibt es abends im Fernsehen die Ziehung der Lottozahlen. In einem großen Glasball werden die 49 Ziffern auf kleinen Kugeln durcheinandergewirbelt. Dann fällt eine Kugel aus dem Ball und wird vorgelesen. Nach den 6 Zahlen gibt es noch eine siebte, die so genannte Zusatzzahl. Wer also nur drei richtige Zahlen hat, gewinnt nicht viel. Wer aber drei richtige Zahlen und die Zusatzzahl richtig hat, gewinnt ein bißchen mehr. Ich gewinne nie im Lotto. Wenn ich spiele, spiele ich online. Aber ich habe gerade nachgesehen: 98,1 Prozent beträgt die Wahrscheinlichkeit, dass ich eine Niete ziehe. Das bedeutet, dass nur 1,9 Prozent etwas gewinnen. Den größten Jackpot in der deutschen Lottogeschichte gab es übrigens vor einem Monat, und zwar letzten Dezember. Da waren 45,3 Millionen Euro im Jackpot. Drei Spieler haben ihn sich geteilt, sie hatten alle die gleichen Gewinnzahlen und die passende Superzahl 3. Noch ein Jahr früher, und zwar 2006, hat ein Spieler mit über 37 Millionen Euro den höchsten Einzelgewinn geschafft. 37 Millionen für einen einzigen Menschen! Noch dazu ist er Krankenpfleger, also wirklich jemand, der Geld brauchen könnte und schon viel Gutes getan hat für die Gesellschaft. Wer nur sechs Richtige hat, ohne Superzahl, hat bislang höchstens 4 Millionen Euro gewonnen. Gemein, oder? Wenn zu viele Tipper die gleichen Zahlen haben und gewinnen, dann kann es noch gemeiner werden: So war 1984 ein Sechser im Lotto nur knapp 8000 Euro wert. Aber ich weiß, das ist alles nichts im Vergleich zu den USA – denn da gab es letztes Jahr einen Jackpot von 390 Millionen Dollar. Text der Episode als PDF: https://slowgerman.com/folgen/sg20kurz.pdf