Podcasts about zahlenwerte

  • 10PODCASTS
  • 13EPISODES
  • 40mAVG DURATION
  • ?INFREQUENT EPISODES
  • Apr 30, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about zahlenwerte

Latest podcast episodes about zahlenwerte

AstroGeo Podcast (AstroGeo Podcast (MP3))
Expandierende Erde: große Zahlen und kleine Schwerkraft

AstroGeo Podcast (AstroGeo Podcast (MP3))

Play Episode Listen Later Apr 30, 2025 74:08 Transcription Available


Im Jahr 1937 hatte Paul Dirac eigentlich so alles erreicht, was man als theoretischer Physiker erreichen konnte: Der Brite hatte die Quantenphysik mit begründet und sie mit Einsteins Spezieller Relativitätstheorie vereint. Fast aus Versehen hatte er erstmals eine neue Form von Materie beschrieben, die wir heute als Antimaterie kennen. Paul Dirac hatte nicht nur eine Professur an der angesehen Universität von Cambridge bekommen, sondern bekam auch im Alter von nur 31 Jahren den Nobelpreis für Physik zugesprochen. Doch nun wandte sich Dirac größeren Dingen zu: der Kosmologie. Paul Dirac entwarf die „Large Numbers Hypothesis“, die Hypothese der großen Zahlen. Seine Vermutung besagte, dass das Verhältnis der Zahlenwerte von Naturkonstanten sich merkwürdigerweise immer wieder eine ziemlich große Zahl ergibt, nämlich zehn hoch 39. Was für die Meisten ein nicht besonders seltsamer Zufall sein mag, hatte für Dirac tiefere Bedeutung: Er schloss daraus, dass die Naturgesetze im Universum nicht immer und überall gleich waren – und dass die Naturkonstanten entgegen ihrem Namen nicht konstant, sondern variabel seien. Dabei hatte es Dirac vor allem auf eine Naturkonstante abgesehen: die Gravitationskonstante. Diese sei vor Jahrmilliarden viel größer gewesen. Und das würde bedeuten: Was wir als Schwerkraft kennen, nimmt mit zunehmendem Alter des Universums ab. Während Paul Diracs Ausflug in die Kosmologie – oder in die Zahlenmystik – von seinen Kolleginnen und Kollegen größtenteils ignoriert wurde, gab es einen deutschen Physiker, der die Hypothese der Großen Zahlen ernst nahm: Pascual Jordan beschäftigte sich vor allem damit, welche messbaren Auswirkungen so eine geringer werdende Schwerkraft auf unsere Erde haben könnte. Demnach sollte mit einer abnehmenden Gravitationskonstante unsere Erde selbst expandieren. In dieser Folge des AstroGeo-Podcasts erzählt Franzi die Geschichte hinter der sogenannten Expansionstheorie – und damit ist nicht das Universum selbst gemeint!

Audiostretto 59/4/24
Lesefähigkeit

Audiostretto 59/4/24

Play Episode Listen Later Nov 16, 2024 1:31


Magst Du Bilder lieber als Text? Auch in der Erwachsenenwelt werden Bilder zur besseren Illustration statt reiner Text verwendet. So beispielsweise bei der Analyse von Zahlen: da bedient man sich gewisser Graphiken, die als Statistiken das ausdrücken, was erhobene oder berechnete Zahlenwerte hergeben. Solche Statistiken respektive Graphiken können sehr bunt, graphisch hochstehend und teilweise fast schon kunstvoll aussehen - nebst ganz banalen, die gibt es auch. Aber was sie auszeichnet ist nicht so sehr ihre Ästhetik als vielmehr ihre Aussagekraft. Daher können solche Abbildungen enorm zum richtigen Verständnis helfen - und sie haben das Potenzial Wahrheiten zu verdrehen. So oder so: Die Graphik alleine genügt nicht. Es braucht auch die Fähigkeit, das Gelesene zu verstehen. Und das ist oft der Knackpunkt. Lesefähigkeit. Kannst Du Deine Lebensumstände richtig lesen, die richtigen Schlüsse ziehen und entsprechend handeln? Ich wünsche Dir einen aussergewöhnlichen Tag!

FRÜF – Frauen reden über Fußball
FRÜF023: Fußball und Gaming

FRÜF – Frauen reden über Fußball

Play Episode Listen Later Nov 27, 2022 100:04


Wer lässt den „FIFA“-Karrieremodus am liebsten selbst spielen? Welche bekannte Fußballsendung hatte ihr eigenes Brettspiel? Wer simuliert beim „Football Manager“ ganze Jahrzehnte in die Zukunft? Und wie haben sich Fußballmanager-Spiele im Laufe der Zeit entwickelt? Über all das und noch einiges mehr haben sich im September Jasmin, Jessica, Jule und Annika unterhalten. Für Jessica ist es die erste FRÜF-Episode und sie hat uns neben den Videospielen, über die wir gesprochen haben, einen ganzen Schwung analoger Spiele über Fußball mitgebracht. Auch der gute alte Tischkicker soll bei all dem nicht zu kurz kommen. Wie ihr schon lest, schwelgen wir also ein bisschen in Nostalgie. Wir sprechen auch über einige Absurditäten, die die Übersetzung des Sports Fußball und die Fähigkeiten der Spieler*innen in Engines und Zahlenwerte mit sich bringen. Und natürlich ging es auch um das System „FUT“.

Das Corona-Update für NRW
Welche Zahlenwerte bei der Delta-Mutante wirklich wichtig sind

Das Corona-Update für NRW

Play Episode Listen Later Jun 25, 2021 30:24


Ein genauer Blick auf die Zahlen sei wichtig, um die Ausbreitung der Delta-Variante von Covid-19 einschätzen zu können, meint Prof. Ulf Dittmer. So sagt der Leiter der Virologie am Uniklinikum Essen, die reinen Prozentzahlen würden keinen Aufschluss darüber geben, wie stark sich diese Mutante in Deutschland verbreitet. Eine genaue Analyse heute im Podcast. Weitere Themen: Reisen in Mutationsgebiete, der Effekt der Schulöffnungen und eine Einschätzung zum Impfstoff von CureVac. Wenn Sie eine Frage an Prof. Dittmer haben, schreiben Sie uns gerne eine Mail an: coronafragen@funkemedien.de Hier können Sie den Corona-Newsletter abonnieren: [www.waz.de/corona-newsletter](http://www.waz.de/corona-newsletter) Moderation: Julia Neikes; Redaktion: Julia Neikes und Theresa Langwald; Produktion: Jan Reckweg

Prof. Dr. Christian Rieck
84. Wann ist Impfung rational? (Relative und absolute Wirksamkeit, Nash-Gleichgewicht) - Prof Rieck

Prof. Dr. Christian Rieck

Play Episode Listen Later Dec 29, 2020 27:20


Selbst wenn eine #Impfung zu 100% wirksam ist, hängt es von den genauen Umständen im Detail ab, ob sie sinnvoll ist. Das gilt sowohl aus individueller als auch kollektiver Sicht. Dieses Video stellt eine spieltheoretische Betrachtung der Situation vor. Bitte beachten Sie, dass sich die Ausführungen auf ein fiktives Virus „Cooties“ beziehen und die verwendeten Zahlenwerte lediglich Beispiele sind, um das Modell zu erläutern. Verwandte Videos, die ich hier erwähne: Was bedeuten 90% Wirksamkeit? https://youtu.be/mU9s2KsauM8 Corona-Modelle: https://youtu.be/CmgAD0o0Q5I Corona nur ein Fehlalarm? (Präventionsparadoxon) https://youtu.be/Y9KFxqGaMXE Hinweise und Korrekturen: Ich scheine hier oft dahingehend missverstanden zu werden, dass ich angeblich sage, Nicht-Risikogruppen sollten sich nicht impfen lassen. Das sage ich aber nicht und impliziere es auch nicht. Wenn die Wahrscheinlichkeit für eine Infektion auf 10% absinken soll (das Zahlenbeispiel aus dem Video), dann muss eine erhebliche Durchimpfung der "normalen" Population bestehen. Die Durchimpfung wird aber bei Freiwilligkeit niedriger liegen als die Risikogruppen sie wählen würden. Das aber ist kein Problem für die Risikogruppen, solange diese durch Impfung geschützt sind. Um das also nochmal klarzustellen: Das Modell verlangt im Gleichgewicht, dass sich selbstverständlich auch die Nicht-Risikogruppen impfen lassen. Lust auf ein gutes Video jede Woche? Dann klicken Sie hier: https://www.youtube.com/c/ProfRieck?s... Mein Instragam-Account: https://www.instagram.com/profrieck/ Und zu Twitter: https://twitter.com/ProfRieck #Wirksamkeit #NashGleichgewicht einfach erkärt

Prof. Dr. Christian Rieck
84. Wann ist Impfung rational? (Relative und absolute Wirksamkeit, Nash-Gleichgewicht) - Prof Rieck

Prof. Dr. Christian Rieck

Play Episode Listen Later Dec 29, 2020 27:20


Selbst wenn eine #Impfung zu 100% wirksam ist, hängt es von den genauen Umständen im Detail ab, ob sie sinnvoll ist. Das gilt sowohl aus individueller als auch kollektiver Sicht. Dieses Video stellt eine spieltheoretische Betrachtung der Situation vor. Bitte beachten Sie, dass sich die Ausführungen auf ein fiktives Virus „Cooties“ beziehen und die verwendeten Zahlenwerte lediglich Beispiele sind, um das Modell zu erläutern. Verwandte Videos, die ich hier erwähne: Was bedeuten 90% Wirksamkeit? https://youtu.be/mU9s2KsauM8 Corona-Modelle: https://youtu.be/CmgAD0o0Q5I Corona nur ein Fehlalarm? (Präventionsparadoxon) https://youtu.be/Y9KFxqGaMXE Hinweise und Korrekturen: Ich scheine hier oft dahingehend missverstanden zu werden, dass ich angeblich sage, Nicht-Risikogruppen sollten sich nicht impfen lassen. Das sage ich aber nicht und impliziere es auch nicht. Wenn die Wahrscheinlichkeit für eine Infektion auf 10% absinken soll (das Zahlenbeispiel aus dem Video), dann muss eine erhebliche Durchimpfung der "normalen" Population bestehen. Die Durchimpfung wird aber bei Freiwilligkeit niedriger liegen als die Risikogruppen sie wählen würden. Das aber ist kein Problem für die Risikogruppen, solange diese durch Impfung geschützt sind. Um das also nochmal klarzustellen: Das Modell verlangt im Gleichgewicht, dass sich selbstverständlich auch die Nicht-Risikogruppen impfen lassen. Lust auf ein gutes Video jede Woche? Dann klicken Sie hier: https://www.youtube.com/c/ProfRieck?s... Mein Instragam-Account: https://www.instagram.com/profrieck/ Und zu Twitter: https://twitter.com/ProfRieck #Wirksamkeit #NashGleichgewicht einfach erkärt

Kennen Sie Trier? Architektur-Podcasts.

http://www.architektur-podcast.de/wp-content/uploads/2014/12/St.-Afra.mp3  Audio-Podcast: 6:56 min  Kennen Sie... das Kloster St. Afra? Seit dem Mittelalter gehörte das Kloster St. Afra zur Domimmunität des Trierer Bistums. Die kleine Frauengemeinschaft in der heutigen Liebfrauenstraße erhielt im 18. Jahrhundert einen Neubau mit eigenem Gotteshaus. Eine Inschrift erinnert an die Geschichte des Hauses, das später auch ein Mädchenwaisenheim und eine Schule beherbergte. Bis heute sind das Klosterportal sowie das Langhaus der Kirche in der Architektur zu erkennen. Die heilige Afra war der Legende nach die Tochter eines zyprischen Königs. Nach dessen Tod kamen Afra und ihre Mutter über Rom nach Augsburg und beide Frauen arbeiteten dort als Prostituierte. Der spanische Bischof Narcissus suchte das Freudenhaus während seiner Flucht auf und bekehrte die Damen. Die Christin Afra wurde daraufhin verfolgt und starb als Märtyrerin. Je nach Legende wurde sie um 304 verbrannt oder an einem Baumstamm gebunden enthauptet. Zahlreiche Kirchen, Schulen, Bildungsinstitute oder auch Apotheken tragen St. Afra im Namen und sogar ein Bier aus Meißen nennt sich nach der Heiligen. In Trier wird ein der Afra geweihtes Frauenkloster erstmals im Jahr 1271 erwähnt, existiert hat es wohl schon länger. Die Ordensfrauen hatten die Aufgabe, erkranktes Dienstpersonal des Domkapitels zu versorgen und zu pflegen. Die Trierer Steuerliste nennt etwa 100 Jahre später neun Beginenhäuser in Trier, darunter auch die Gemeinschaft St. Afra. Es war die Blütezeit der neu entstehenden Klöster, Stifte und religiösen Gemeinschaften. Die zuerst in lockerer Gemeinschaft lebenden Frauen von St. Afra schlossen sich zu Beginn des 15. Jahrhunderts als Dritter Orden den Franziskanern an. Neben einem Männer- und einem Frauenkloster bestand deren dritte Einrichtung aus den Tertianerinnen. Diese Laien orientierten sich an den Ordensregeln des heiligen Franziskus von Assisi und setzten diese innerhalb ihrer Lebenswelt um. Neben ihrer Tätigkeiten für die Angehörigen des Bistums versahen die Laienschwestern auch Kranken- und Totenwärterdienste in der Stadt. Diese Verbindung wird auch in der Architektur deutlich. Genau zwischen dem Kloster und der Kirche befindet sich ein Bogen zur gegenüberliegenden Häuserzeile. Hier war die Grenze zwischen dem Dombering, einer eigens befestigten Stadt innerhalb der Stadt Trier, in der die Geistlichen und Angestellte der Kirche lebten. In der Barockzeit erhielt das Kloster einen Neubau, was wir anhand der Inschrift über dem reich verzierten Eingangsportal nachlesen können. In den großen Buchstaben des Textes verbirgt sich auch das Baujahr. Das Chronogramm hat folgenden Text: „funditus eri gebatur honori dei divi francisci et s. afrae patronae“, was bedeutet: „Von Grund auf wurde es errichtet zu Ehren Gottes, des heiligen Franziskus und der Schutzpatronin, der heiligen Afra.“ Die hervorgehobenen Großbuchstaben sind lateinische Zahlenwerte. Addiert ergeben die Buchstaben D für 500, C für 100 und das I für eins das Erbauungsjahr des Gebäudes, welches noch heute steht. Die insgesamt sehr schlichte Fassade wird erst durch den aufwändig gestalteten barocken Eingang zu einem besonderen Gebäude. Das Portal ist mit übereck gestellten Pilastern, Voluten, Segmentgiebeln und mächtigen Gesimsen dreistufig gegliedert. In der zuoberst liegenden Kartusche befindet sich der Text mit verschlüsselter Nennung der Entstehungszeit. Im Jahr 1728 baute der Architekt und Franziskanerbruder Odericus Weiler das eigentliche Klostergebäude und Richtung Dom die etwas zurückversetzt liegende Kirche St. Afra. Das aufwändig gestaltete Portal führte am südlichen Gebäudeteil direkt in der ersten der sechs Achsen in das Kloster herein. Das dreigeschossige Gebäude hatte einen weiteren rechtwinklig anliegenden Flügel. Etwas zurückversetzt befand sich direkt im Anschluss daran entlang der Straßenflucht Richtung Domfreihof das Langhaus der Kirche St. Afra.

Management News – Management Radio
Kurt Steffenhagen | Wissenschaftler haben herausgefunden …

Management News – Management Radio

Play Episode Listen Later Feb 17, 2019


… und diese Aussagen beruhen natürlich immer auf einer Empirie, das sind Zahlenwerte, die man zusammengetragen und mit Hilfe der Instrumente der Mathematik ausgewertet hat und daraus Schlussfolgerungen zieht …  also jene Sätze, die anfangen mit „Wissenschaftler haben herausgefunden …“ […]

Modellansatz
Risikoentscheidungen

Modellansatz

Play Episode Listen Later Jan 11, 2019 45:18


Gudrun hat sich im Spätsommer 2018 zum dritten Mal mit Oliver Beige (@oliverbeige) in Berlin verabredet. Oliver beschäftigt sich unter anderem mit mathematischen Modellen für ökonomische Prozesse und hat neben der wissenschaftlichen Expertise auch sehr unterschiedliche praktische Erfahrungen. Der Plan für das Gespräch war, sich über Baysean Updates zu unterhalten. Kurz gesagt ist das ist eine Möglichkeit, bessere Entscheidungen mit wenigen und unsicheren Informationen zu treffen. Der Name beschreibt schon die zentrale Idee: Der Satz von Bayes wird verwendet, um die Wahrscheinlichkeit für eine Hypothese neu zu berechnen, wenn mehr Informationen verfügbar werden. Entscheidungen unter unsicheren Informationen muss man selbst im Alltag und für die eigene Zukunft ständig treffen, weshalb sich die Hörerschaft sicher gut vorstellen kann, dass dies eigentlich eine fast unlösbare Aufgabe ist. Für Unternehmen geht es in der mittleren und Langzeitplanung darum, das Potential von Mitarbeitern und von Ideen richtig einzuschätzen. Lässt sich ein Produkt mit den eigenen Mitteln zur Marktreife entwickeln und wie wird der Markt in 5-30 Jahren dafür aussehen? Vor allem wenn es um einen Markt geht, den es noch gar nicht gibt. Ein Beispiel hierfür ist automatisiertes Fahren. Die Idee gibt es schon seit etwa 30 Jahren und auch Schritte in der Entwicklung, aber bis heute gibt es noch nichts auf dem Markt. Schon Anfang der 1990er Jahre gab es große Erwartungen, was neuronale Netze und Machine Learning hier bald leisten werden, aber diese Begeisterung war um die Jahrtausendwende schon wieder erloschen. Heute erleben die Ideen eine Renaissance, denn es gibt nun viele Daten, genug Rechenpower und ein Zusammenwirken von Statistik und Informatik ist so endlich möglich. Damals wie heute stellt sich aber die Frage: Wie viel Geld und andere Ressourcen sollte man einsetzen und zu welchem Zeitpunkt endgültig entscheiden, sich ganz hinter das neue Produkt zu stellen oder die Pläne ad acda zu legen. Der Versuch, hierfür Modelle zu finden, die alle Zweige und Eventualitäten nachbilden ist nicht sinnvoll umsetzbar, weil zu viele Informationen geschätzt werden müssen und je weiter in die Zukunft geplant werden muss, desto unwägbarer sind Zahlenwerte hierfür. Deshalb ist es bessser, hier mit einfachen Modellen zu arbeiten, die sich gut anwenden lassen, aber auch nur Teile von Entscheidungsprozessen vereinfachen. Ein Beispiel hierfür ist das Baysean updating. Experten wissen einiges, sind aber nicht perfekt - vor allem wegen unvollständiger Information. Mit Hilfe von Wahrscheinlichkeitsrechnung läßt sich berechnen, was der Beitrag der Experten sein kann und ob sie nützlich sind. Hierzu werden gut testbare Annahmen gut ausformuliert und am Markt getestet in einzelnen Entscheidungsstufen. Die Kosten für den Test werden möglichst niedrig gehalten. Anschließend weiß man z.B., welches für Kunden das wichtigstes Feature ist und kann dies zuerst entwickeln (Minimal Viable Product) - die anderen erst später. Oliver ist Karlsruher Wirtschaftingenieur und hat diese über Wettbewerb in Netzwerken in den USA promoviert, an der UC Berkeley nahe am Silicon Valley, zu Zeiten des dot-com Booms. In Deutschland wird solche Forschung meist im Unternehmen gemacht. In den USA gibt es neben dieser Forschung in Unternehmen auch noch sogenanntes Venture Capital. Die Investoren erwarten nicht, dass alle unterstützten Ideen am Ende Profit bringen - man weiß, dass die meisten Ideen zu nichts führen. Es reichen im Verlauf einiger Jahre nur wenige durchschlagende Ideen mit einem riesigen Profit, um das System interessant zu machen. Kurz gesagt gibt es damit einen Marktplatz für Ideen. Heute gibt es das auch als sogenannte Gründerszene in Deutschland (besonders in Berlin) aber noch längst nicht in dem Umfang wie in den USA. Das Gespräch dreht sich in weiten Kreisen und behandelt neben Mathematik und ökonomischen Entscheidungen auch interessante Beispiele aus 30 Jahren. Außerdem verlieren sie sich in unterschiedlichsten Fragen rings um neue Techniken, die auch einbeziehen, wie sich die Rolle von Autos für die Gesellschaft ändert und ändern muss und wie der rechtliche Rahmen für den Austausch von Informationen zwischen Fahrzeugen geregelt werden müsste. Es ist eine schreckliche Vorstellung, wenn Autos für Hackerangriffe anfällig sind. Anscheinend ist es aber nach wie vor so, dass wir eher bereit sind, mit menschlichen Fehlern zu leben als mit Fehlern, die Algorithmen machen, obwohl autonom fahrende Fahrzeuge wohl viele Tote und verletzte Personen vermeiden könnten. Literatur und weiterführende Informationen Wikipedia: Expected value of sample information C. Howson & P. Urbach: Scientific Reasoning: The Bayesian Approach (3rd ed.). Open Court Publishing Company. ISBN 978-0-8126-9578-6, 2005. A.Gelman e.a.: Bayesian Data Analysis Third Edition. Chapman and Hall/CRC. ISBN 978-1-4398-4095-5, 2013. Yu, Angela: Introduction to Bayesian Decision Theory cogsci.ucsd.edu, 2013. Devin Soni: Introduction to Bayesian Networks, 2015. Oliver Beige: The 4P's of Silicon Valley Risk Capital, ein Tweetstorm, 2018. G. Nuti, L. Rugama, A.-I. Cross: Efficient Bayesian Decision Tree Algorithm, arXiv:1901.03214 stat.ML, 2019. Podcasts B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle O. Beige, G. Thäter: Wahlprognosemodelle, Gespräch im Modellansatz Podcast, Folge 149, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/wahlprognosemodelle O. Beige, G. Thäter: Mikroökonomik, Gespräch im Modellansatz Podcast, Folge 140, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/mikrooekonomik

Modellansatz
Social Choice

Modellansatz

Play Episode Listen Later Apr 20, 2017 38:50


Diese Folge ist eines von drei Gesprächen mit Mathematikerinnen und Mathematikern an der TU München (TUM) in Garching bei München, die Gudrun am 10. April 2017 dort geführt hat. Paul Stursberg - hat an der TUM Mathematik studiert und promoviert dort am Lehrstuhl Angewandte Geometrie und Diskrete Mathematik. Wir haben uns über Gruppenentscheidungsmodelle (Social Choice) unterhalten, in denen mitunter auch der Zufall Hilfestellung gibt. Da auch Zuordnung nach Vorlieben (allocation) auf das gleiche Grundproblem führt, wird das Thema unter den Forschungsinteressen von Paul Stursberg als Randomized Social Choice/Ressource Allocation aufgeführt.Das grundlegende Ziel bei Entscheidungen in einer Gruppe ist es, Einzelmeinungen zu einem fairen Gesamturteil zusammen zu führen. Am einfachsten ist es, einer als Anführer von allen anerkannten Person in ihrer Meinung zu folgen. Dieses Modell hat gute mathematische Eigenschaften, funktioniert immer, ist aber leider nicht besonders demokratisch. Je nachdem ob die Leitperson zur Gruppe gehört oder nicht wird es als Modell des internen/externen Diktators bezeichnet. Ein zunächst nahe liegender Zugang zur bestmöglichen Entscheidung in einer Gruppe wäre, eine Nutzenfunktion auzufstellen und danach zu optimieren. Das klingt überzeugend ist aber oft ein unmögliches Unterfangen, weil es sich als sehr schwierig erweist, Vorlieben so zu quantifizieren dass man über die Gruppe konstante Zahlenwerte für einen entstehenden Nutzen findet. Deshalb kann man statt dessen mit ordinalen Präferenzrelationen arbeiten, d.h. im einfachsten Fall mit einer gewünschten Reihenfolge aller Optionen für jede Person der Gruppe. Bevor man über Verfahren sprechen und diese bewerten kann, braucht man Kriterien, die Wahlverfahren (idealerweise) erfüllen sollen. Man muss definieren: Was ist eine gute und faire Entscheidung? Ein grundlegendes Kriterium wäre beispielsweise: Wenn alle der gleichen Meinung sind, sollte diese Meinung auch immer als Ergebnis der Gruppenentscheidung erscheinen. Ein etwas weitergehendes Kriterum könnte exemplarisch auch verlangen, dass das Ergebnis Pareto-optimal ist, es also kein anderes Ergebnis gibt, mit dem jedes Gruppenmitglied zufriedener wäre.Nachdem ein Katalog von Kriterien aufgestellt wurde, kann man sich unter anderem folgende Fragen stellen: Finden wir Wahlverfahren, die all diese Kriterien erfüllen? Wenn ja, welche Wahlverfahren sind das? Können wir sie charakterisieren? Wenn nein, lässt sich zeigen, dass kein Wahlverfahen alle Kriterien zugleich erfüllen kann?Ein bekanntes Beispiel für den letzten Fall ist der Satz von Arrow - ein Unmöglichkeitsresultat, das besagt, dass eigentlich sinnvolle Bedingungen an ein Wahlergebnis für mehr als zwei Optionen nicht gleichzeitig erfüllbar sind.Hinsichtlich der Fairness kommen Wahlverfahren intuitiv schon an ihre Grenzen, wenn sich zwei Leuten abstimmen sollen, die gegensätzliche Wünsche haben: Jede (deterministische) Entscheidung bevorzugt offensichtlich einen der beiden Beteiligten. Hier kann man sich den Zufall zunutze machen, um eine faire Entscheidung zu treffen, was auf das Gebiet der randomisierten Sozialwahltheorie (randomized social choice) führt. Hier hängen viele Kriterien plötzlich davon ab, welche lottery extension verwendet wird, also wie aus ordinalen Präferenzrelationen Präferenzen über Wahrscheinlichkeitsverteilungen abgeleitet werden. Literatur und weiterführende Informationen H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W. J. Cho: Probabilistic assignment: A two-fold axiomatic approach, 2012. H. Aziz, F. Brandt, and M. Brill: On the tradeoff between economic efficiency and strategyproofness in randomized social choice In Proceedings of the 12th International Conference on Autonomous Agents and Multi-Agent Systems (AAMAS), pp 455–462. IFAAMAS, 2013. H. Aziz, P. Stursberg: A generalization of probabilistic serial to randomized social choice. In Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence (AAAI-14), pp 559-565. AAAI Press, Palo Alto, 2014. Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt: Wahlsysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich: Wahlrecht und Wahlsysteme, Gespräch mit T. Pritlove im CRE Podcast, Folge 128, Metaebene Personal Media, 2009.

Modellansatz
Automorphe Formen

Modellansatz

Play Episode Listen Later Jan 14, 2016 21:30


Hans-Georg Rück ist Professor an der Universität in Kassel in der Arbeitsgruppe Algorithmische Algebra und diskrete Mathematik. Im Rahmen des diesjährigen Weihnachtsworkshops der Arbeitsgruppe Zahlentheorie und Algebraische Geometrie an unserer Fakultät sprach er zu Drinfeld automorphen Formen. In unserem Gespräch gehen wir der Frage nach, was das ist und zu welchen strukturellen Einsichten diese Werkzeuge dienen können. Automorphe Form ist ein sehr alter Begriff. Ausgangspunkt sind holomorphe Funktionen z.B. auf der oberen komplexen Halbebene. Statt Funktionen in einer komplexen Variablen werden jedoch Gruppen angewendet. Die automorphen Formen zeichnen sich dadurch aus, dass sie Invarianzeigenschaften unter bestimmten Gruppen haben. Ein einfaches Beispiel für so eine Invarianzeigenschaft ist, wenn eine Funktion z.B. den gleichen Wert für die komplexen Zahlenwerte z und z+1 hat - also periodisch ist. Ein Beispiel für eine komplexere Operation ist es, die Zahl z nicht in eine Funktion einzusetzen, sondern eine Matrix auf sie anzuwenden. Historisch entstanden sind solche Fragestellungen z.B. dadurch, dass man den Umfang von Ellipsen ausrechnen wollte. Gelöst wurde diese Frage mit Hilfe der Weistraßschen ℘-Funktion. Diese erfüllt eine algebraische Gleichung - die sogenannte elliptische Funktion. Hiervon werden ganze Klassen von Funktionen abgeleitet. Insbesondere auch die automorphen Funktionen. Interessant daran ist, dass man gut mit automorphen Funktionen rechnen kann. Die automorphen Formen haben die angenehme Eigenschaft, dass Reihendarstellungen häufig nach einer endlichen Zahl von Gliedern abbrechen und auch Integrale sich durch solche endliche Reihen darstellen lassen. Außerdem hängen sie mit elliptischen Kurven zusammen, die letztlich ein wesentlicher Zugang waren, um den Satz von Fermat zu beweisen. Im Kontext der hier betrachteten Drinfeld automorphen Formen werden statt ganzer Zahlen als Argumente Funktionenkörper als Werte eingesetzt. Ein einfacher Funktionenkörper ist die Menge der Polynome in x. Er lässt sich (so wie der Körper der ganzen Zahlen auf rationale Zahlen erweitert wird) auf rationale Funktionen erweitern. Das Rechnen mit meromorphen Funktionen und Potenzreihen kann man auf Polynome übertragen. Geometrische Interpretationen sind recht einfach. Für die Gruppe GL(2) ist das Grundgebilde eine unterteilte Gerade also ein endlicher Graph. Da es in der Regel Funktionen auf endlichen Gebilden sind, kann man es gut mit Hilfe eines Computer ausrechnen. Die nächsten Schritte in der Untersuchung der Drinfeld automorphen Formen müssen nun sein: Die L-Reihe bestimmen und Werte an kritischen Stellen bestimmen. Hier besteht ein einger Zusammenhang zur Riemannschen zeta-Funktion. Literatur und Zusatzinformationen J-P. Serre: A course in Arithmetic, Graduate Texts in Mathematics, Springer-Verlag, 1973. Insbesondere ist das "Chapter VII, Modular Forms" wichtig. M. Waldschmidt (ed.): From Number Theory to Physics, 2nd ed, Springer-Verlag, 2010. Wichtig ist besonders Kapitel 4 zu Modular Forms. D. Zagier: Modular Forms of One Variable, Sommerkurs, 1991. E.-U. Gekeler et.al: Proceedings of a Workshop on Drinfeld Modules, Modular Schemes and Applications, World Scientific, 1997. J. Bruinier e.a. The 1-2-3 of Modular Forms: Lectures at a Summer School in Nordfjordeid, Norway, (ed. K. Ranestad) Universitext, Springer-Verlag, Berlin-Heidelberg-New York, 2008. F. Januszweski: L-Funktionen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 53, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.

WatchBerlin
Die 18-Meter-Frau!!!

WatchBerlin

Play Episode Listen Later Apr 16, 2008


„Die Kunstwerke sind meine Lebenspartner“ sagt Julie August, die seit 3 Jahren mit ihrer Galerie zusammenwohnt. Ja, ganz genau - sie hat ihre "18m Galerie für Zahlenwerte" zu Hause, in der Berliner Akazienstraße im 2. Stock!

Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 01/06
Photoelektronenspektroskopische Untersuchungen an Mischoxidkatalysatoren

Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 01/06

Play Episode Listen Later Jul 16, 2001


In vorliegender Arbeit wurden unterschiedliche Katalysatorsysteme untersucht. Grundlage der Untersuchungen sind spinellähnliche Kupfer-Chrom-Ceroxide, welche eine vielversprechende Alternative zu den herkömmlich verwendeten Automobilkatalysatoren darstellen. Ein weiterer Bestandteil dieser Arbeit sind vanadium- und magnesiumhaltige Aluminiumphosphate, die aufgrund ihrer dreidimensionalen Gittergerüste und ihrer Oberflächeneigenschaften gute katalytische Eigenschaften für selektive Oxidationsreaktionen zeigen. Ferner wurde das binäre System TiO2/SiO2 untersucht, das sowohl als katalytisches Material an sich als auch als modifiziertes Trägersystem zur Verankerung von Edelmetallen auf SiO2-Oberflächen Verwendung findet. Das Hauptaugenmerk lag jedoch auf phosphorpromotierten V2O5/TiO2-Katalysatoren zur Herstellung von Phthalsäureanhydrid (PSA) aus o-Xylol. Das Hauptinteresse lag dabei neben dem Einfluss der verschiedenen Präparationsmethoden auf der Beeinflussung des Systems V2O5/TiO2 durch Phosphor als Promotor. Als Hauptuntersuchungsmethode diente die Röntgenphotoelektronenspektroskopie, die aufgrund ihrer Oberflächensensitivität Informationen über den Oberflächenzustand und damit hochrelevante Daten für die heterogene Katalyse liefert. Die Ergebnisse wurden mit weiteren Messmethoden und Spektroskopiearten ergänzt. Ferner wurden die neu ermittelten Daten und Ergebnisse in den Gesamtkontext schon bestehender Erkenntnisse eingebaut. Trotz weitreichender Informationen und Publikationen zu Katalysatoren für die Herstellung von Phthalsäureanhydrid aus o-Xylol, die auf dem System V2O5/TiO2 basieren, sind noch viele Fragen bezüglich Existenz und Funktion der Oberflächenkomponenten in promotierten PSA-Katalysatoren ungeklärt. Im Rahmen des Kapitels 1 dieser Arbeit war es das Ziel, den Einfluss von Phosphor auf das System V2O5/TiO2 zu beleuchten. Dazu wurde systematisch ausgehend von den Einzelsubstanzen über die binären Systeme bis hin zum ternären System vorangeschritten. Die Quantifizierung von XPS-Messungen mit Hilfe von Modellen lieferte Zahlenwerte für die prozentuale Abdeckung von TiO2 durch Vanadiumoxid im binären System V2O5/TiO2. So wurden für die höchste, beobachtete Dispersion bei der 20 h gemahlenen und anschließend kalzinierten V2O5/TiO2-Probe eine volle Bedeckung der TiO2-Oberfläche bei Zugabe der Monolagenmenge an V2O5 berechnet. Für das binäre System P2O5/TiO2 konnte für kleine Belegungen bis 1 Gew.% P2O5 die in der Literatur beschriebene Ausbildung einer monomolekularen Schicht bekräftigt werden. Die angewendeten Präparationsmethoden Suspension, Imprägnierung und Mahlen ergeben P2O5/V2O5/TiO2-Proben, bei denen alle Komponenten und vor allem Vanadium und Phosphor in enger Wechselwirkung miteinander stehen. Es konnte gefolgert werden, dass die Zugabe von Phosphor dabei hilft, kristallines V2O5 „abzubauen“ und VPO-Phasen zu bilden. Zur Veranschaulichung der Oberflächenzusammensetzung der gemahlenen P2O5/V2O5/TiO2-Proben wurde ein Modell für die Verteilung der beiden Oberflächenkomponenten in Abhängigkeit von der Mahldauer und der Kalzinierung entworfen (Abbildung 4–20). Eine Kalzinierungsdauer von 5 h bei 450 °C wurde als ausreichend erachtet, um P2O5/V2O5/TiO2-Systeme zu erzeugen, die gegenüber weiterer Kalzinierung stabil sind. Ergebnisse, die aus quasi-in-situ XPS-Messungen resultierten, seien an dieser Stelle besonders erwähnt. Mit ihrer Hilfe war es möglich, eine gänzlich neue Aussage bezüglich der Rolle des Phosphors im System P2O5/V2O5/TiO2 zu treffen. Dem schon bekannten Einfluss von Phosphor auf das Säure-Base-Verhalten des Katalysatorsystems konnte der Einfluss von Phosphor auf das Redoxverhalten von Vanadium in P2O5/V2O5/TiO2 hinzugefügt werden. Es konnte gezeigt werden, dass der Zusatz von Phosphor den Wechsel der Oxidationsstufe zwischen V +5 und V +4 im System P2O5/V2O5/TiO2 über mehrere Oxidationszyklen hinweg erleichtert. Anwendungsbezogen bedeutet das, dass der entsprechende Katalysator eine höhere Langzeitstabilität aufweisen sollte. Auf dem Wege der Copräzipitation hergestellte Cu-Cr/Ce-Oxide, über die schon weitreichende Informationen zur Festkörperzusammensetzung aus Röntgenbeugung- und EXAFS-Messungen bereitstanden, wurden erstmals mit XPS bezüglich ihrer Oberflächenzusammensetzung analysiert. Die gefundene Tendenz der gemessenen Oxidationsstufen stimmt mit den für die bei den verschiedenen Kalzinierungstemperaturen zu erwartenden und mit Festkörpermethoden bestimmten Oxidationsstufen überein. Es wurde festgestellt, dass neben der geforderten Spinellhauptkomponente noch weitere Phasen wie CuO oder Cr2O3 vorliegen. Dies steht im Einklang mit den Messergebnissen der Festkörpermethoden. Die Anwendung der XPS lieferte Informationen über den Oxidationszustand der an vanadium- und magnesiumhaltigen Aluminiumphosphaten beteiligten Elemente. Es konnte gezeigt werden, dass in unkalziniertem VMgAPO-5 vorhandene V 4+ -Spezies durch thermische Behandlung weitgehend zu V 5+ oxidiert werden. Es konnte gefolgert werden, dass Vanadium in kalziniertem VMgAPO-5 nicht nur innerhalb, sondern auch außerhalb der AlPO-5-Struktur vorliegt. Dieses Vanadium liegt wahrscheinlich in Form von V2O5 an der Oberfläche vor. Das binäre System TiO2/SiO2 wurde bezüglich seiner Oberflächenzusammensetzung und seines Oberflächenzustandes untersucht. Es konnte gezeigt werden, dass Sauerstoff im System TiO2/SiO2 prinzipiell drei verschiedene Koordinationen aufweisen kann. Neben dem von Silicium umgebenen Sauerstoff, wie er im Trägermaterial vorliegt (Si-O-Si), existiert bei niedrigen Belegungen auch Sauerstoff, der sowohl Silicium als auch Titan als nächste Nachbarn hat (Si-O-Ti). Bei hohen Belegungen kommt zunehmend Sauerstoff vor, der nur Titan als nächste Nachbarn aufweist (Ti-O-Ti). Dies steht im Einklang mit Untersuchungen an Modellsystemen, die in der Literatur dokumentiert sind. Es konnte eine Grenzbelegung bei 3 Gew.% TiO2-Belegung ermittelt werden, ab der die nahezu ideale Dispersion auf dem verwendeten Präparationsweg nicht mehr aufrechterhalten werden kann. Diese Beobachtung konnte anhand von Oberflächenmodellvergleichen bekräftigt werden, nämlich dass bei höheren Belegungen neben Partikelbildung und damit einer herabgesetzten Dispersion eine weitere Abdeckung des Trägers durch Titanoxid stattfindet.