POPULARITY
Hey Leute,Switch 2 Preise? Switch 2 Preise!SpeckObstlerDas waren die BESTEN Spiele im MärzWas zum Teufel sollen diese Preise, Nintendo?Nintendo hat mit der Switch 2 ABSOLUT geliefertEuer Backlog wird euch hassen | Neue Spiele im AprilPatreonMonatsrückblick | März 2025Ink Ribbon RadioBBSF Ep 24 - George A. Romero's Resident Evil | SteadyUnterstützt meine Arbeit auf Patreon oder Steady und erhaltet neben exklusiven Inhalten auch erweitertete Versionen dieses Paodcasts.PatreonSteadyHolt euch bei HOLY mit meinem Code "SPECKOBST5" für einen 5€-Rabatt bei einer Erstbestellung oder spart 10% mit dem Code "SPECKOBST"Timestamps00:00 Intro02:32 UpdateNEUE SPIELE09:48 South of MidnightNEWS25:17 Microsoft blamiert sich32:04 Minecraft Film räumt ab38:27 From Software hat Rechte an The Duskbloods41:07 Eidos pitcht neues Deus ExTHEMA43:02 Switch 2FRAGEN01:03:35 Was ist für dich Vollpreis?01:10:57 Sollten wir Microsoft boykottieren?01:20:47 Sollten Wertungen einer Normalverteilung folgen?Outro01:28:53 Ganz besondere Supporter
Lukas nimmt sich das Feedback zu Herzen und versucht etwas positiver zu sein, Isabel denkt, dass das gegenseitige Unterbrechen schon zu einer Ehe dazugehört. In dieser Folge diskutieren die beiden intensiv über unterschiedliche Sichtweisen auf unseren Sozialstaat, fragen sich, ob es überhaupt eine Gesellschaft ohne “Arm und Reich” geben kann und wie Österreich im globalen Kontext dasteht.
Es geht dieses Mal um ein sehr mathematisches Thema, das nicht nur in unserem Podcast schon öfter erwähnt wurde, sondern allgemein häufiger mal eine Rolle spielt: Die Normalverteilung. Fragen, die wir uns in diesem Kontext gestellt haben: Was ist die Normalverteilung? Warum ist die Normalverteilung eigentlich normal? Liegt überhaupt eine Normalverteilung vor – und wie könnte ich das überprüfen? Und ein bisschen mehr... natürlich wieder mit einigen Beispielen. Und wir haben eine kleine Geschichte rund um das Gehirn von Carl Friedrich Gauß entdeckt, die wir natürlich auch einbringen wollen.
Hier kommt das geballte Mittelmaß aus der Philosophie und der Psychologie! Noch nie waren Max Mustermann und Median-Adrian so stolz, eine solch absolut durchschnittliche Podcast-Folge abzuliefern: Ist der Mittelweg trotz seiner Durchschnittlichkeit vielleicht übermäßig attraktiv? Die beiden Hosts reden über Statistik und Normalverteilung, aber auch über Schönheit; über Mediane in der Forschung und Regressionen zum Mittelwert; über Tugend-Ethik und angebliche Volksparteien. Die beiden Average Joes lassen kein Zentrums-Thema aus und fokussierten sich auf die goldene Mitte. Falls ihr euch nicht besonders extrem fühlen wollt, dann schaltet ein!
Hannes Wader und die Gaussche Normalverteilung der Liebe – s10e10 – Der Weisheit
Gudrun unterhält sich in dieser Folge mit Waltraud Kahle. Sie war bis 2018 als außerplanmäßige Professorin in der Fakultät für Mathematik an der Otto von Guericke Universität in Magdeburg beschäftigt und war Mitglied des Instituts für Mathematische Stochastik. Das Thema des Gespräches ist das Forschungsthema von Waltraud: Statistik für zensierte Daten und in Abnutzungsprozessen sowie unvollständige Reparatur. Das Gespräch beginnt mit der Frage: Wie kann man Aussagen darüber treffen, wie lange technische Objekte oder auch Menschen "leben" . Ungefähre Aussagen hierzu für große Gruppen sind in der Industrie, der Demographie und Versicherungsmathematik und Medizin nötig. Es ist ein statistisches Problem, das sich in der Theorie auf eine (möglichst große) Anzahl von Beobachtungen bezieht aus denen dann Schlussfolgerungen abgeleitet werden, die für ähnliche Prozesse auch zu Vorhersagen dienen können. In der Praxis liegen aber in der Regel nur zensierte Daten vor, denn die Beobachtung muss abgebrochen werden, bevor die vollständige Information vorliegt. Ein alternativer Zugang ist es nun, nicht nach der Lebensdauer zu fragen sondern die der Lebensdauer zugrunde liegenden Abnutzungsprozesse zu modellieren (z.B. Verschleiß und Ermüdung). Hier verwendet man stochastische Prozesse, wie zum Beispiel den Wienerprozess. Grundlegende Eigenschaft des Wienerprozesses ist es, dass in jedem Zeitintervall ein normalverteilter Zuwachs erfolgt und alle diese Zuwächse voneinander unabhängig sind. Ein Ausfall erfolgt, wenn der Abnutzungsprozess ein vorgegebenes Niveau erstmalig erreicht. Man fragt sich folglich: Wie ist die Verteilung dieser "Erstüberschreitungszeit". Zur Vermeidung von Ausfällen können regelmäßig vorbeugende Instandhaltungsmaßnahmen durchgeführt werden, die das Abnutzungsniveau verringern. Das kann mit festen Intervallen oder nach vorgegebenen Ereignissen stattfinden. Zu DDR-Zeiten gab es z.B. ein Projekt, dass sicherstellen konnte, das notwendige Wartungsarbeiten von Mähdreschern nur im Winter erfolgten, damit sie zur Erntesaison voll einsatzfähig waren. Das statistische Modell muss Aussagen zu folgenden Fragen treffen können Einfluß der Instandhaltung auf die Lebensdauerverteilung, Definition von Kostenfunktionen der vorbeugenden Instandhaltung in Abhängigkeit vom Reparaturgrad, Kostenoptimale Instandhaltung. Andere Modellierungsmöglichkeiten bieten Gammaprozesse oder inhomogene Poissonprozesse. Im Gespräch gehen Gudrun und Waltraud auf Eigenschaften der Normalverteilung ein. Sie besprechen die Exponentialverteilung (diese hat eine konstante Ausfallrate). Das beschreibt elektronische Bauteile mit langer Lebensdauer sehr gut. Außerdem geht es um die Weibull-Verteilung. Diese passt auf Systeme mit sehr vielen Teilen (das Modell nimmt hier sogar unendlich viele Teile), die mit geringer Wahrscheinlichkeit ausfallen und wo das System ausfällt, sobald das erste Glied ausgefallen ist. Diese Verteilung hat die praktische Eigenschaft, dass die in der Medizin verwendeten Modelle der proportionalen Ausfallrate und der proportionalen Lebensdauer übereinstimmen. Waltraud engaiert sich im eLeMeNTe e.V.. Das ist der Landesverein Sachsen-Anhalt zur Förderung mathematisch, naturwissenschaftlich und technisch interessierter und talentierter Schülerinnen, Schüler und Studierender. Ein Ziel ist es, die Landesolympiaden Mathematik in Sachsen-Anhalt durchzuführen und Schülerinnen und Schüler mit speziellen Arbeitsgemeinschaften auf die Wettbewerbe vorzubereiten. Waltraud findet es spannend, dort oft überraschenden Ideen der Kinder und jungen Leute zu begegnen, die noch nicht in den ausgetretenen Denkpfaden unterwegs sind. Zur Geschichte der Mathe-Olympiaden finden sich auf Wikipedia folgende Informationen (die Gudrun aus eigenem Erleben bestätigen kann): "Die erste Mathematik-Olympiade in der DDR fand 1961/62 als „Olympiade Junger Mathematiker“ statt. Seitdem gab es dort ab der 5. Klassenstufe Schul- und Kreisolympiaden, ab der 7. Klassenstufe Bezirksolympiaden und ab der 10. Klassenstufe DDR-Olympiaden, an der aber auch sogenannte Frühstarter aus tieferen Klassenstufen teilnahmen. Der DDR-Ausscheid fand zunächst in der Woche vor Ostern jeden Jahres in der Jugendhochschule „Wilhelm Pieck“ bei Berlin, später im Mai in Erfurt statt. ... Auf allen Ebenen gab es zur Unterstützung begabter Schüler Mathematikzirkel....Nach der Wiedervereinigung Deutschlands entwickelte sich die Mathematikolympiade schnell zu einem bundesweiten Schülerwettbewerb. Seit 1994 ist der Mathematik-Olympiaden e.V. Träger des Wettbewerbs, der in Kooperation mit dem Talentförderzentrum Bildung & Begabung jährlich ausgeschrieben wird. Seit 1996 nehmen alle 16 Bundesländer an der Bundesrunde teil." Die Bundesrunde fand 1993, 1994 und 2001 in Magdeburg stattt. Referenzen und weitere Informationen Kahle, Waltraud; Mercier, Sophie; Paroissin, Christian: Mathematical models and methods in reliability set. volume 3: Degradation processes in reliability. In: Hoboken, NJ: Wiley, 2016 (Mathematics and statistics series) Kahle, Waltraud; Liebscher, Eckhard: Zuverlässigkeitsanalyse und Qualitätssicherung, Oldenbourg Wissenschaftsverlag, 2013 Elemente e.V. Landesolympiade Mathematik in Sachsen-Anhalt Matheolympiade in Deutschland
Die Körpergröße ist annähernd normal verteilt. Das bedeutet, dass ein Großteil der Bevölkerung sich mit seiner Größe um den geschlechtsspezifischen Mittelwert verteilt und wenige Menschen sich mit ihrer Körpergröße an den Rändern der Normalverteilung aufhalten, also deutlich kleiner oder größer sind als der Durchschnitt. Leider leiden die Kinder darunter, dass eine unauffällige Durchschnittsgröße (und -gewicht) am wenigsten auffällt, dabei gehören kleine und große Größen zum bunten Blumenstrauß der Vielfalt der Menschen dazu. Und auch die Eltern besonders kleiner oder großer Kinder machen sich viele Gedanken. Kleine Kinder werden zum Beispiel in Gruppen häufiger gemobbt und müssen mehr glänzen, um die Aufmerksamkeit zu bekommen. Aber auch große Kinder leiden unter ihrer Körpergröße. Sie werden häufig überschätzt, wissen nicht wohin mit langen Armen und Beinen. Die Eltern von kleinen oder großen Kindern fragen sich, ob und wann ein Kinderarzt aufgesucht werden muss, wenn das eigene Kind kleiner oder größer als die Altersgenossen ist. Genau darum soll es im nächsten Kapitel gehen: wann sollte uns das schnelle oder langsame Wachstum unserer Kinder Gedanken machen und wann ist alles „normal“? Die Formel für Jungen: [(Größe des Vaters + Größe der Mutter): 2] + 6,5 Zentimeter Die Formel für Mädchen: [(Größe des Vaters + Größe der Mutter): 2] – 6,5 Zentimeter Wie hat dir die Folge gefallen? Du findest diesen Podcast bei Spotify, iTunes und Deezer. Ich freu mich über deine Gedanken, Fragen und Input auf meinem Instagram Kanal oder auf meiner Website. Hier geht es zu unseren Online Kursen: https://www.kinderleibundseele.com/online-kurse Wenn dir die Folge gefallen hat, freu ich mich riesig über eine Bewertung bei Apple Podcasts ! Teile diese Folge gerne mit anderen Eltern, die nach Antworten auf Fragen zur Kindergesundheit suchen. Disclaimer: Sämtlich Inhalte auf kinderleibundseele dienen der allgemeinen Information. Alle Informationen auf dieser Seite sind sorgfältig recherchiert, können jedoch in medizinischer Hinsicht keinerlei Anspruch auf Vollständigkeit, Aktualität, Richtigkeit und Ausgewogenheit erheben. Insbesondere sind sie in keiner Weise ein Ersatz für professionelle Diagnosen, Beratungen oder Behandlungen durch Ärzte/Ärztinnen. Genauso wenig dürfen die hier angebotenen Informationen als Grundlage für eigenständige Diagnosen sowie Behandlungen oder Änderungen an einer bereits empfohlenen Behandlung dienen. Konsultiere bei gesundheitlichen Fragen oder Beschwerden immer den behandelnden Arzt/behandelnde Ärztin. kinderleibundseele übernimmt keine Haftung – weder direkt noch indirekt – für Schäden oder Unannehmlichkeiten, die sich aus der Nichtbeachtung dieser Hinweise ergeben.
"Normal"-verteilt klingt, als wären alle Messwerte so verteilt. Oft sind Messwerte in der Praxis nicht-normalverteilt. In dieser Folge geht es um Gründe für Abweichungen von der Normalverteilung und Auswertungsmethoden, mit denen die Ursachen untersucht und bewertet werden können.
Habt ihr eine Lieblings-Graphik? Kai schon! Und um diese und viele andere Arten der Visualisierung von Daten geht es in dieser Folge. Bis heute haben wir versucht große Datensätze zusammenzufassen, beispielsweise als Mittelwert. Nun versuchen wir möglichst eindeutig alle Daten darzustellen, zu verbildlichen. Unser Werkzeug dafür die das Verständnis der Verteilung von Daten in einer Population. Von Häufigkeiten, Balkendiagrammen und Histogrammen bis zur oft gehörten Normalverteilung machen wir einen Schnelldurchlauf durch die Visualisierung unserer Daten. Ihr lest lieber? - Ein Transkript gibt es auf unserer Website: https://positivkorreliert.wixsite.com/positivkorreliert Stay positve!
Systemisch Denken - Systemtheorie trifft Wirtschaft, Theorie und Praxis für Ihren Beruf
Ein Wert kann zwei Dimensionen haben: WERTvoll oder WERTlos. Es braucht zudem eine "Sache" oder ein "Ding" das beWERTET werden soll oder kann. Die BeWERTung wiederum ist subjektiv. Der WERT des einen muß nicht der WERT des anderen sein. Menschen und Systeme haben verschiedene Werte. Die Bewertung ist "normalverteilt". Das zu akzeptieren ermöglicht die Verständigung über WERTe. Systemiker können dazu beitragen, die jeweils andere Seite zu beleuchten. Das kann sehr hilfreich sein, ausgewogener zu beWERTen.
Vor einigen Wochen las ich eine Meldung, dass Bill Gates, seines Zeichens einer der reichsten Männer der Welt, der zusammen mit seiner Frau Melinda Gates Malaria und Kinderlähmung abschaffen möchte, im nächsten Jahr allen College-Absolventen in den USA ein Buch schenken wird, dass den Titel “Factfulness: Ten Reasons We're Wrong About the World And Why Things are better than you think” trägt. Hierzulande, wo Optimismus oft als die Abwesenheit von relevantem Wissen angesehen wird, trägt es den der Gesellschaft angepassten Titel “Factfulness: Wie wir lernen, die Welt so zu sehen, wie sie wirklich ist”. Ganz so, als ob die deutschen Verleger gefürchtet hätten, dass ein Buchtitel trotz seines Welterfolgs unter den miesepetrigen und besorgten Bürgern keine Chance hätte, wenn er gleich auf dem Cover mit der Botschaft “Die Welt ist besser als du denkst” aufwarten würde.Hans Rosling, der 1948 in Schweden geboren wurde und 2017 verstarb, war ein Mediziner, der auch Statistik studiert hatte und gemeinsam mit seinem Sohn Ola Rosling und dessen Frau Anna Rosling Rönnlund die Stiftung gapminder gründete und leitete, deren Ziel es war und ist, eine auf Fakten beruhende Sicht auf die Welt zu fördern und dabei ausschließlich frei zugängliche öffentliche Statistiken zu verwenden.Große Berühmtheit erlangte er durch seine Auftritte bei den TED Talks, in denen er in schlecht geschnittenen Jackets mit einem überlangen Zeigestab Lacher erzielte und seine Zuhörer schockierte, indem er Multiple Choice Fragen stellte, die auf ein allgemeines Verständnis der Verfasstheit der Welt zielen und in absurder Höhe falsch beantwortet werden; unabhängig davon, ob er vor Studenten sprach oder vor den sogenannten World Leadern in Davos. Letztere müssten es eigentlich wissen und schneiden auch etwas besser ab. Trost spendete Hans Rosling mit der überraschend gut, weil die Unwissenden zum Lachen bringenden gewählten statistischen Vergleichsgruppe, den Schimpansen. Da sie die Fragen eher wenig verstehen, gelingt ihnen bei jeweils 3 Antwortmöglichkeiten die Auswahl der richtigen Antwort zu immerhin 33%. Damit schneiden sie jedes Mal besser als die befragten Menschen ab.Hans Rosling spricht - zu Recht - von einer verheerenden Ignoranz seiner Zuhörer gegenüber der eigentlichen Weltlage. In seinem Weltbestseller “Factfulness” zitiert er viele Statistiken, zeigt Entwicklungen und Vorurteile, die sich hierzulande, wie im Rest der sich als “entwickelt” - in Abgrenzung zur sich “als entwickelnd” wahrgenommenen Welt, als äußerst hartnäckig erweisen. Er benennt Ursachen und - dies scheint mir neben seinem aufklärerischen Ansatz die Überzeugungskraft seiner Arbeit auszumachen - erhebt sich dabei nie über die noch nicht Aufgeklärten, schreibt und spricht mit einem zutiefst emphatischen und humanistischen Ansatz, der stets Verständnis für das Einzelschicksal zeigt, dessen Schwere verstörend sein kann, das aber nichts daran ändert, dass die Welt eine bessere ist, als wir im Allgemeinen glauben.Eine augenöffnende Leseerfahrung, die tatsächlich das eigene Bild der Welt korrigiert und in Gesprächen und Streits mit Freunden, Familie, Stammtisch und Kollegen helfen wird. Ein Buch, dessen Empfehlung den Bildungsauftrag unseres kleinen Lokalsenders coloRadio für die ganze Dekade erfüllt: lest “Factfulness”! Obwohl ein Bestseller, ist der Titel der automatischen Rechtschreibkorrektur noch nicht bekannt, die ihn gern in Tactfulness ändern möchte.Es ist ein Verdienst Hans Roslings und seiner Kollaborateure, tatsächlich taktvoll vorzugehen, wenn er nach und nach so ziemlich jede als sicher geglaubte Annahme widerlegt. Wie aber kommt es zur von ihm als “verheerend ignoranten” Weltsicht?Wir wachsen in bestimmten Gegebenheiten auf, die unseren Blick auf die tatsächliche Verfasstheit der Welt mit voreingenommenen Sichtweisen vernebeln. Wir lernen von Lehrern, deren Ansichten sich nicht gemäß den Veränderungen und Umschwüngen anpassen und mit Lehrmaterialien, die aufgrund von fehlenden Praxen und Prioritäten viel zu selten aktualisiert werden. Kurz, wir lernen die Welt kennen, wie sie vor 50 Jahren war, nicht, wie sie tatsächlich ist, und beantworten Fragen wie z. B.: Wie ist das weltweite Einkommen verteilt? Wie schnell und wo wächst die Bevölkerung der Welt? Wie ist die Entwicklung der Kindersterblichkeit? Was sind die häufigsten Todesursachen? Wieviel Prozent der Weltbevölkerung sind geimpft? oder Wieviel Prozent der Mädchen weltweit genießen die gleiche Schulbildung wie Jungen? immer und immer wieder falsch.Eine der bedeutendsten Fehlannahmen ist die Überzeugung, dass die Welt eine duale ist: auf der einen Seite die entwickelte, den wirtschaftlichen und sozialen Fortschritt anführende Welt, wie wir sie in Nordamerika und Europa und einigen weiteren Staaten vermuten, auf der anderen Seite die sich entwickelnde Welt, also den ganzen großen Rest. 1975, also vor mehr als 40 Jahren, war dies tatsächlich noch so. Die Einkommensverteilung zeigte 2 große Buckel: den größeren für den Teil der Weltbevölkerung, die mit weniger als 1 Dollar pro Tag auskommen musste und den weit kleineren Teil, die bis zu 100 Dollar am Tag zur Verfügung hatte. Diese Welt gibt es nicht mehr: Hans Rosling zeigt, dass die Verteilung des Einkommens weltweit längst der Normalverteilung entspricht: nur noch ein geringer Anteil der Weltbevölkerung lebt in absoluter Armut und muss sein Leben dem Überleben widmen, ebenso ist der Anteil der Superreichen - und dies ist ein Fakt, der uns wiederum bekannt ist - sehr gering. Aber der Großteil der Weltbevölkerung gehört inzwischen zur Mittelschicht, die sich dadurch auszeichnet, dass genügend Essen und Elektrizität zur Verfügung stehen, alle Heranwachsenden eine Bildung erhalten, in überwiegender Zahl geimpft und nicht durch Masernepidemien bedroht sind.Dies wird nur zögerlich durch Weltorganisationen adaptiert, auch wenn Hans Rosling einen Großteil seiner Zeit dafür verwandte.Unsere zweigeteilte Weltsicht ignoriert dies, da es auch wesentlich einfacher und evolutionär begünstigt wird, die Welt in 2 Teile, in Arm und Reich, in den Westen und den Rest, in Freund und Feind zu teilen.Die Entwicklung, für die ich hier nur ein Beispiel nennen möchte, ist eine andere: reiche Konsumenten, für deren Einordnung das Kriterium gewählt wird, dass sie sich eine Flugreise für ihre Ferien leisten können, kamen 1975 nur zu 30% außerhalb von Europa und Nordamerika, heute sind es bereits 50%. Legt man Voraussagen des Internationalen Währungsfonds zum Bruttoinlandsprodukt zu Grunde, werden 2035 73% der reichen Konsumenten außerhalb des von uns als der “reichen Welt” empfundenen Länder kommen.Auf die Frage, wie ein Umgang mit diesen Fragen gestaltet werden soll, wird eine einfache Antwort gegeben: Zuerst messen, dann handeln.In “Factfulness” werden die häufigsten Irrglauben benannt und Faustregeln erläutert, wie die Welt heute aussieht und wie man mit seinen Vorurteilen und - fast noch bedeutender - Ängsten, aber auch mit Meldungen umgehen kann:1. Alles wird schlechter ist schlicht falsch, (fast) alles wird besser.2. Die Welt ist in arm und reich geteilt. Falsch: es gibt einen Auswuchs in der Mitte, in dem sich die Einkommen der meisten Menschen befinden.3. Zuerst müssen die Leute sozial “aufsteigen”, damit die größten Herausforderungen wie die Abschaffung der Kindersterblichkeit, Schulbildung, Elektrizität, Impfungen und ähnliches für alle gemeistert werden können. Wieder falsch, das ist schon passiert, denn nur noch ein geringer Teil lebt in der sogenannten absoluten Armut.4. Sachen, die einem persönlich besonders gefährlich erscheinen, wie z. B. Haie, Terrorismus oder die Gefahr von Erkrankungen des eigenen Kindes, wenn man es impfen lässt, spielen in globalen Statistiken eine verschwindend geringe Rolle, auch wenn sie für das Individuum bei ihrem Auftreten gefährlich sein können.Hans Rosling, dem sein Privileg in einem Sozialstaat aufzuwachsen, sehr wohl bewusst war und der während seines Lebens einen großen Aufschwung seines Heimatlandes Schweden erlebte, verteidigt diesen und staatliche Programme zur Bildung und Gesundheitsversorgung als Pfeiler einer Welt, die sich weiter zum Besseren wandeln wird, wenn die zunehmende Individualisierung und große Ignoranz der reichsten Einkommensschicht, die sich ausschließlich in Europa und Nordamerika findet, sich gegenüber den Fakten und den daraus gewonnenen Statistiken nicht verschließt. Es ist eines der Symptome unserer Zeit, dass sich einige wenige Superreiche diesen Aufgaben verschreiben, während die Neoliberalisierung immer noch zunimmt und diese Probleme und Herausforderungen, für die unsere Steuern vorrangig verwendet werden sollten, aus ihren Stiftungsgeldern bezahlt. Und trotzdem: Things are better than we think. This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit lobundverriss.substack.com
In der aktuellen Folge beschäftigen wir uns wieder einmal mit den wirklich wichtigen Themen des Lebens. Dabei reden wir über Inzidenzwerte und die Schulöffnung, fragen uns, warum man mache Dinge zwar besser weiß, aber sie dennoch nicht ändert und denken uns ausgefallenen Komplimente aus. Außerdem diskutieren wir, warum es keine Gaußsche Normalverteilung an Universitäten und Hochschulen gibt und Yannik erklärt sich bereit, zwei Monate auf Kaffee zu verzichten.
Udo Fritz und Siggi Spaleck beschäftigen sich in der zweiten Folge mit der Frage "Was ist normal, was nicht?". Durch den Mathematiker Gauß lässt sich das durchaus klären. Findest Du Dich normal? Was es bedeutet, erfährt du im Podcast! Gauß`sche Normalverteilung Was ist schon normal? Wie kannst Du das für Dich und Dein Business nutzen?
Prof. Dr. Rieck und Tim sprechen über sein Fachgebiet der Spieltheorie, mögliche Fehler, die wir in der Corona Krise begangen haben, Verschwörungstheorien, künstliche Intelligenz und warum Christian die Einführung des Euros für ein Fehler hält. Christian Rieck ist ein deutscher Wirtschaftswissenschaftler. Er ist Professor für Finance an der Frankfurt University of Applied Sciences. Hier gehts zur Videoversion: https://youtu.be/UybQuiAVZZc Tims YouTube-Channel: https://www.youtube.com/user/timgabelofficial Tim Instagram-Profil: https://www.instagram.com/tim_gabel/
Merkmale, die von vielen unterschiedlichen Faktoren beeinflusst werden, sind häufig normalverteilt. Das heißt, dass mittlere Werte häufiger vorkommen als extrem kleine oder extrem große Werte. Normalverteilt sind viele Größen in der Psychologie, wie z. B. Intelligenz oder Extraversion. Deshalb erklärt Prof. Erb in diesem Video im Gespräch mit Judith Balzukat, M. Sc., was die Normalverteilung ist und welche Bedeutung sie in der Psychologie hat. Hier geht es zum YouTube-Video: https://www.youtube.com/watch?v=IsG9N6yKQrI
Die Normalverteilung und ihre Glockenkurve sind berühmt in der Statistik. Sie gehen auf den Mathematiker Carl Friedrich Gauß zurück und beschreiben viele Zufallsereignisse in den Natur- und Sozialwissenschaften, etwa die Verteilung der menschlichen Körpergröße. Auch in der Welt der Finanzen hat sich die Normalverteilung einen festen Platz erobert, seit der Mathematiker Louis Bachelier vor mehr als 100 Jahren annahm, dass die Renditen an den Kapitalmärkten normalverteilt sind. Heute weiß man, dass diese Annahme eine sehr grobe Vereinfachung ist und dass heftige Kursstürze an den Finanzmärkten weit häufiger vorkommen, als es die Normalverteilung vorsieht. Doch meist ignoriert die Finanzindustrie diese Erkenntnis und unterschätzt so die Risiken an den Börsen – mit gravierenden Folgen für Privatanleger. Die Hintergründe dazu erläutert Stefan Mittnik, Professor für Finanzökonometrie und Mitgründer von Scalable Capital, im Interview. Mehr zum Thema: https://de.scalable.capital/mittnik-on-markets/der-crash-ist-nur-eine-frage-der-zeit Blog: https://de.scalable.capital/blog Quant's Perspective: https://de.scalable.capital/quants-perspective ETF-Ratgeber: https://de.scalable.capital/etf-leitfaden Kapitalanlagen bergen Risiken.
Gudrun spricht mit Alina Sage, die gerade eine Masterarbeit am Deutschen Krebsforschungszentrum in Heidelberg (DKFZ) abgeschlossen hat. Mit Mark Bangert, dem Leiter der Arbeitsgruppe dort hatte Gudrun vo einigen Monaten über die Physik der Strahlentherapie gesprochen. Auch mit Alina gibt es schon eine Folge im Modellansatz, denn sie hat über ihre Erfahrungen als Studienbotschafterin berichtet. In der Masterarbeit von Alina geht es darum, die Unsicherheiten beim Bestrahlungsvorgang besser zu modellieren. In der Fachsprache heißt das noch recht junge Forschungsgebiet Uncertainty Quantification. Es gibt natürlich unterschiedliche Ursachen, die zu einer nicht punktgenauen Umsetzung des Bestrahlungsplanes für Patienten führen. Alina wählte daraus zwei, die ihr besonders wichtig erschienen: dass der Strahl nicht aus einer Punktquelle kommt, sondern die Quelle um ein Zentrum herum streut dass der Patient nicht ganz exakt an dem Ort liegt, wie er in der Simulation angenommen wird, sondern etwas verschoben dazu. Beide Prozesse lassen sich recht gut mit einer Normalverteilung beschreiben. Eine Normalverteilung wird durch eine glockenförmige Kurve dargestellt. Das Maximum ist der Wert, der als der wahrscheinlichste angenommen wird. Er heißt Erwartungswert. Wie stark die Prozesse von diesem Wert abweichen, ist in der Glockenkurve dadurch ausgedrückt, ob die Kurve steil zu diesem Maximum hin anssteigt und anschließend wieder fällt (dann weicht sie wenig ab) oder eher breit aussieht. Das wird im Parameter Varianz (oder Standardabweichung) ausgedrückt. Um mit Hilfe von Simulationen die Unsicherheit zu beziffern, verwendet Alina das Instrument der Monte-Carlo-Simulation. Sie benutzt die Open source software TOPAS. Insbesondere heißt Monte-Carlo-Simulation, dass sie eine riesige Anzahl von möglichen Pfaden der Strahlungspartikel simulieren lässt, um dann aus Tausenden von solchen Verläufen eine Näherung für den Erwartungswert der im Gewebe deponierten Bestrahlungsdosis zu errechnen. Die Partikel folgen dabei jeweils einem Random Walk. Im Prinzip muss man diese Simulationen für beide Prozesse machen, die mit ihrer Unsicherheit betrachtet werden. Hier kommt Alina jedoch eine Eigenschaft der Normalverteilung zu Gute: wenn zwei normal verteilte Prozesse unabhängig voneinander einwirken, lässt sich die Summe ihrer Wirkungen in einem einzigen normal verteilten Prozess ausdrücken. D.h. hier, dass Alina für diesen Prozess nur einmal die Monte-Carlo-Simulation durchführen muss. Das spart extrem viel Rechenleistung ein. Im Prozess der unabsichtlichen Verschiebung des Patienten um kleine Längen ist es insbesondere von Belang, wenn z.B. in der Nähe der Lunge bestrahlt wird. Fast alle Organe und Gewebe im Körper haben eine Dichte, die der von Wasser entspricht. Damit kann man den Weg der Partikel in Wechselwirkung mit dem Körper recht einfach modellieren. Wenn jedoch die Luft gefüllte Lunge auf dem Partikelweg ist, wird viel weniger Energie deponiert und das Partikel landet an einem Ort, der viel weiter von der Strahlungsquelle entfernt ist als für normales Gewebe. In diesem Fall kann man in der Bestrahlung z.B. den Hinweis geben, besonders auf Verschiebungsvermeidung in bestimmt gefährdete Richtungen zu achten. Literatur und weiterführende Informationen H. Paganetti: Range uncertainties in proton therapy and the role of Monte Carlo simulation. Phys. Med. Biol. 7.06.2012 57(11). A.E. Feiguin: Monte Carlos error analysis online lecture course B. Bednarz, M. Engelsman, and H. Paganetti: Uncertainties and correction methods when modeling passive scattering proton therapy treatment heads with Monte Carlo. Phys Med Biol. 2011;56:2837–2854. Podcasts M. Bangert, G. Thäter: Bestrahlungstherapie, Gespräch im Modellansatz Podcast, Folge 201, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
Heute erkläre ich euch, was normal ist und was nicht. Beziehungsweise, was die Normalverteilung für die Mathematik bedeutet.
Alles muss anders, soll aber so bleiben wie gewohnt. Die Zerrissenheit zwischen traditioneller Konstanz und dem Neumischen der Karten lässt die Bundesliga zwischen den Extremen ihrer Selbst unter der Gaußschen Normalverteilung schwingen. Ohne zu überraschen bleibt damit die Wurzel der Langeweile überwiegend unangetastet. In unserer improvisierten Folge besprechen wir unsere Suche nach der Euphorie, warum diese Saison 2018/19 enttäuschen wird und wieso Bruno Labbadias rechte Hand verhornt.
Auf der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe trafen sich Stephan Ajuvo und Sebastian Ritterbusch für einen Cross-Over Podcast vom damals TM Podcast und dem Modellansatz Podcast um über die Geschichte von Finanzen und Mathematik zu plaudern. Der damalsTM Podcast befasst sich damit, wie es kam, dass es kam, so dass es ist, wie es ist- und hatte in der letzten Zeit schon eine Reihe zu Geld (Geld I, Geld II, Geld III), wo die Entwicklung der Zahlungsmittel bisher bis zum 2. Weltkrieg behandelt wurden. Die Ökonomie zählt zu den Sozialwissenschaften, die oft Theorien auf Annahmen behandeln, während die Mathematik als Geisteswissenschaft sich gerne auch mal sehr exakt mit Theorien fernab der Realität befassen kann. Die Kryptographie ist jedoch ein schönes Beispiel, wie aus abstrakten mathematischen Theorien der Algebra und der Zahlentheorie plötzlich sehr reale Anwendungen aus unserem Alltag wurden. Mit Kryptoanalyse konnte man sowohl einfache Transpositionschiffren als auch die Enigma durch mathematische Verfahren knacken. Bevor vereinheitlichte Geldeinheiten eingeführt wurden, waren schon früh Objekte mit Geldfunktion eingesetzt, wo oft die Seltenheit und Wertigkeit des Materials schon für sich einen gewissen Wert sicherte. Ebenso früh kam es zu Geldversprechen wie dem Agrarkredit (zurück bis hin zum Codex Hammurapi), mit denen jetzige Ausgaben durch versprochene spätere Erntegewinne beglichen werden konnten. Dies führte zum Konzept des Zinses, mit dem das Verlustrisiko durch Ausfall und die erst spätere Zugängigkeit des Geldes bewerten kann. Das Größenordnung des Zehnt war gesellschaftlich zwar als Steuer akzeptiert, wurde jedoch als Zins schnell als Wucher gesehen, da der Zinseszins sehr schnell anwuchs. Daraus entstand auch die Gegenbewegung des Zinsverbots, das auch heute noch im Islamischen Bankwesen zu Umgehungsgeschäften führt. Die mit Geldgeschäften oft assoziierten Geldwechsler hatten als Arbeitsmittel eine Bank, die namensgebend für unsere heutigen Banken ist, und woran das Wort bankrott auch heute noch erinnert. Neben astronomischen Berechnungen, wie der Berechnung des Osterfests, war die Geldwirtschaft früh ein großes Anwendungsfeld für die Mathematik. Ein wichtiges Berechnungsmodell waren die Abzinsung und die Zinsformel, mit der man die Werte zwischen jetzt und in Zukunft unter Berücksichtigung des Zinses umrechnen konnte. Hier war das exponentielle Wachstum der Kreditentwicklung unter Zinseszinsen für viele nicht zu übersehen. Aber selbst, wenn man diese Berechnung beherrschte, so gab es das Zinsänderungsrisiko, das besonders bei langfristigen Verträgen zu erheblichen Änderungen zu den Kalkulationen führen konnte. Verschiedene Zinssätze verschiedener Landesherren führte auch unmittelbar zu unterschiedlichen Wechselkursen zwischen den lokalen Währungen der Landesherren. Zusätzlich gab es schon früh den Effekt der Teuerung oder Inflation oft durch unkontrolliertes Geldmengenwachstum. Ein Beispiel ist hier die Inflation durch die Entdeckung Amerikas. Es war damals noch nicht klar, wie der tatsächliche Wert des Geldes auch durch einen Warenkorb identifiziert werden kann. Ein sehr grobes aber dafür sehr leicht zugängiges aktuelles Indiz für den Wert verschiedener Währungen ist der Big-Mac Index. Aus der Anforderung des waren- und ortsübergreifenden Handels wurden die Börsen geboren: Hier konnten Waren und Währungen im Jetzt, aber auch in der Zukunft in Termingeschäften gehandelt werden. Schnell etablierte sich hier auch die Spekulation, die über Risikoübernahme zu einem wichtigen Bestandteil der Wirtschaft wurde. Ein bekanntes Beispiel für eine Fehlentwicklung ist die Tulpenkrise, bei der es zu einer Finanzblase bis hin zum Börsencrash kam, und exemplarisch für spätere Immobilienblasen wurde. Die Effekte konnten durch Hebeleffekte noch verstärkt werden, wenn Fremdkapital für mehr erwartete Rendite eingesetzt wurde. Eine Renditebetrachtung ist auch für die persönliche Finanzplanung sehr wichtig- so sollte jeder die Altersvorsorge frühzeitig angehen und dabei Risikoklassen und die Diversifikation zur Risikoverteilung beachten. Aus der Erfahrung, dass viele Finanzprodukte und Anlageberater die zugrunde liegenden Indices oft nur in der Vergangenheit schlagen, haben sich Finanzcommunities wie The Motley Fool gebildet, um sich gegenseitig zu informieren. Mathematisch kann man die Optimalität einer Investition auch als Multikriterielle Optimierung zwischen Rendite und Risiko im Sinne der Volatilität verstehen: Hier stellt sich heraus, dass hier zwischen den Kriterien abgewogen werden muss, und es nicht ein Optimum gibt, sondern die Linie der Pareto-Optimalität. Jedoch darf man nicht einfach aus der vergangenen Entwicklung auf Rendite und Risiko schließen: Gerade Ponzi-Systeme scheinen eine hohe Rendite bei geringer Volatilität und Risiko zu liefern, wo die Zinsen früherer Anleger nur durch die Investitionen durch angelockte Neuanleger bezahlt werden, und was natürlich nicht ewig funktionieren kann, und viele werden ihren Einsatz verlieren. Plant man Investitionen in Güter, so sollte man daher genau recherchieren, wie es um den Gegenstand steht. Bei Immobilien gibt ist eine Begehung mit Fachpersonen möglich und ein Blick in Bodenrichtwertkarten ist sehr sinnvoll. Bei Aktien kann man hingegen auf Basis der veröffentlichten Informationen und Kennzahlen Fundamentalanalysen bilden. Alle diese Modelle sind aber immer Komplexitätsreduktionen, die irgendwann ihre Gegenbeispiel finden können und dann zu Geldverlust führen. Neben der schwierigen Bewertung von Aktien wird es richtig spannend, wenn notwendigerweise auch Termingeschäfte oder Derivate der Aktien oder Wirtschaftsgüter berücksichtigt werden: Diese werden im Markt unmittelbar benötigt, sind jedoch vom Basiswert und der allgemeinen Marktsituation abhängig. Optionen können auf der einen Seite Geschäfte absichern, können jedoch auf der anderen Seite bei einem hohem Hebel auch sehr spekulativ und entsprechend gefährlich sein. Für eine mathematische Bewertung von Optionen wird ein Markt mit Arbitragefreiheit vorausgesetzt, um andere künstliche Einflüsse auszuschließen. Dann können analytisch Optionskennzahlen (die Griechen) bestimmt werden, um aus dem komplexen Markt ein Gefühl für den Wert zu erhalten. Umgekehrt kann man aber auch konstruktiv eine Bewertung mit dem Cox-Ross-Rubinstein-Modell berechnen. Der Kursverlauf wird hier vereinfacht wie der Kugellauf durch ein Galtonbrett angenommen, wo eine Richtung für einen fallenden Kurs, die andere für einen steigenden Kurs steht. Dies führt im vereinfachten Fall zu einer Binomialverteilung oder im Grenzfall zu einer Normalverteilung der möglichen Kurse am Ende der Laufzeit. Damit kann die Option auf Basis von Volatilität und Rendite des Basiswerts mit einem diskreten Modell bewertet werden. Das vereinfachte Cox-Ross-Rubinstein-Modell lässt sich unter weiteren Annahmen immer feiner diskretisieren und man erhielt 1973 das Black-Scholes-Modell, wo nun in dieser stochastischen Differentialgleichung der Brownsche Prozess Anwendung findet. Der Brownsche Prozess ist der beobachteten zufälligen brownschen Molekularbewegung entlehnt. Aus diesem komplexen Modell können nun einfache geschlossene Formen für die Bewertung von vielen Optionenstypen berechnet werden, was 1997 zur Verleihung des renommierten Preises der Wirtschaftswissenschaften geführt hatte. Leider ergaben sich schnell Widersprüche in der Überprüfung des Modells am echten Markt: Es entsteht der Volatilitäts-Smile, der den Unterschied der Vorhersage zur tatsächlichen Situation darstellt. Interessanterweise trat der von Devisen bekannte Effekt bei Aktien erst nach dem Börsencrash von 1987 auf. Podcasts S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. W. Härdle: Risikobewertung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 41, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. S. Ajuvo, L. Schult: Geld I, Gespräch im damalsTM Podcast, Folge 2, 2015. S. Ajuvo, Steffen P., L. Schult: Geld II, Gespräch im damalsTM Podcast, Folge 5, und im VorHundert Podcast, Folge 18, 2015. S. Ajuvo, L. Schult: Geld III, Gespräch im damalsTM Podcast, Folge 21, 2016. L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine M. Fürst: Probabilistische Robotik, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik S. Ajuvo: Finanzen damalsTM, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm
Einen fahrbaren Roboter zu bauen- das ist schon eine echte Herausforderung. Um diesem aber auch noch beizubringen autonom Aufgaben zu lösen, bedienten sich Michael Fürst und sein Team der Mathematik: Im Rahmen der Gulasch Programmier-Nacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung (HfG) und dem Zentrum für Kunst und Medien (ZKM) in Karlsruhe berichtete er über die Verfahren der Probabilistischen Robotik (Video) und welche Erfahrungen sie damit machen konnten- und erzählt uns im Gespräch mit Sebastian Ritterbusch davon. Michael Fürst studiert Informatik am Karlsruher Institut für Technologie (KIT) und befasst sich im Team Informatik der Hochschulgruppe Kamaro Engineering speziell mit robusten probabilistischen Methoden zur Entscheidungsfindung. Der aktuelle Roboter Beteigeuze der Hochschulgruppe ist die zweite Generation und wurde dafür ausgelegt, Aufgaben in der Überwachung und Bewirtschaftung von Maisfeldern oder der Navigation im urbanen Umfeld zu erfüllen. Die Hochschulgruppe gibt es seit 3 Jahren und besteht aus 30-45 Mitgliedern. Sie ist eingebettet in das Teilinstitut Mobile Arbeitsmaschinen (MOBIMA) am Institut für Fahrzeugsystemtechnik (FAST) am KIT mit dessen Unterstützung und Drittspenden sich die Hochschulgruppe finanziert. Die interdisziplinäre Hochschulgruppe besteht aus vier Teams: Das Organisationsteam, das Mechanik-Team, das Elektrotechnik-Team und das Informatik-Team. Die Gruppe organisiert sich auch als Verein mit Vorstand und einer Leitung in jedem Team, um mit einer flachen Hierarchie jedem die Möglichkeit zu bieten sich in das Projekt einzubringen. Auf der einen Seite will die Gruppe die autonome Robotik voranzubringen und allen Teammitgliedern gleichzeitig auch die Möglichkeit zu bieten, praktisches Wissen und Erfahrungen neben dem oft theoretischem Studium zu erlangen. Das Team nimmt dazu regelmäßig an verschiedenen internationalen Wettbewerben teil, wie dem Field Robot Event, dem SICK Robot Day oder der Robotour. Technisch basiert die Software-Lösung des Roboters inzwischen auf dem Robot Operating System (ROS), mit dem auf einer Ubuntu-Plattform auf einem im Roboter eingebauten Computer in Java, Python oder C++ die gestellten Aufgaben bearbeitet werden. Mit 40kg Gewicht ist der Roboter für seine Größe kein Leichtgewicht und kann daher nicht beliebig Batterien transportieren, so dass dem Lademanagement eine besondere Rolle zufällt. Die gewählte Größe ermöglicht gerade bei der Feldarbeit einen nicht-invasiven Ansatz, der im Vergleich zu anderen Varianten, wie der automatischen Steuerung von Traktoren, die Pflanzen nicht schädigt. Der Roboter erfasst seine Umwelt mit einer Vielzahl von Sensoren: Die Lidar-Sensoren zur Entfernungsmessung in verschiedenen Richtungen sind dabei besonders wichtig, und sie messen bis zu 50mal pro Sekunde. Sie bestimmen die Entfernungen zur Umgebung des Roboters in einer Ebene bis 16m in einer Auflösung von bis zu drei Messpunkten pro Winkel-Grad und 3cm Entfernungsauflösung- mit gewissen Fehlerraten und Problemen mit reflektierenden Oberflächen. Zusätzlich misst eine intertiale Messeinheit translative und radiale Beschleunigungen wie auch die Ausrichtung zum Erdmagnetfeld. Zusätzlich können auch digitale Kameras zur Detektion von befahrbaren Untergründen, Objekten oder zur Analyse von Pflanzen eingebaut und verwendet werden. Zusätzlich messen Radencoder die Umdrehungen und Auslenkung durch Servos der Räder, womit der Roboter durch Odometrie seine durchgeführte Bewegung aus sich selbst heraus abschätzt. Durch die Kombination der Lidar-Daten mit der Odometrie durch ein SLAM-Verfahren (Simultaneous Localization and Mapping) ermöglicht mit einem Kalman-Filter durch Analyse der Kovarianzen die robuste Erstellung einer Karte während des Befahrens, und korrigiert Fehler bei der eigenen Lokalisierung durch die Odometrie. Zusätzlich kann der Roboter mit einem GPS-Empfänger seine Position grob bestimmen. In der Auswertung der Sensoren wird zwar von einer guten Kalibrierung ausgegangen, jedoch ist es Teil des probabilistischen Ansatzes, die erfassten Werte immer mit einer konservativen Fehlerverteilung zu verarbeiten. Die Kamerabilder werden ebenso robust verarbeitet: Die Bilddaten werden nach einer Konvertierung in den HSV-Farbraum zunächst auf eine konstante Helligkeit gebracht, um Schatteneffekte zu reduzieren. Dann werden alle weniger farbigen Pixel als befahrbarer Weg markiert, und die Anzahl der befahrbaren Pixel pro Spalte in ein Histogramm zusammengeführt. Jeder Wert in dem Histogramm wird nun als Güte bzw. der Wahrscheinlichkeit für Fahrbahn in diese Richtung gewertet. Die GPS-Position wird zur Lokalisierung in der Open Street Map verwendet, wo nach Berechnung einer Route die aktuelle Zielfahrtrichtung bestimmt wird. Die eigentliche Entscheidungsfindung erfolgt dann auf Basis der verschiedenen Sensordaten durch die Berechnung von Erwartungswerten in Abhängigkeit von einer möglichen Fahrtrichtung. Genauer betrachtet werden für jeden Sensor Zielfunktionen über den erwarteten Nutzen unter Annahme des Fahrens in eine bestimmte Richtung berechnet, und anschließend der von der Fahrtrichtung abhängige Erwartungswert unter Annahme von Sensorungenauigkeiten und Fahrungenauigkeiten bestimmt. Im Falle der gewünschten Fahrtrichtung aus den GPS- und Kartendaten wird eine sehr breite Normalverteilung angesetzt, weil auch abweichende Richtungen noch einen Gewinn darstellen können, wenn sie zumindest etwas in die richtige Richtung gehen. Aus jedem Sensor ergibt sich pro Fahrtrichtung ein erwarteter Teilnutzen, und aus allen Teilnutzen wird der Gesamtnutzen als Produkt berechnet: Dadurch werden Teilnutzen von 0 sofort als Gesamtnutzen 0 gewertet, ansonsten aber geometrisches Mittel über die Teilnutzen gebildet. Die gewählte Fahrrichtung ergibt sich dann aus der Richtung, unter der sich das Gesamtmaximum des Gesamtnutzens ergibt. Die Verarbeitung der Sensordaten erfolgt typischerweise in der Geschwindigkeit, in der die Sensoren die Umgebung abtasten. In der Bildverarbeitung wird dies besonders durch die effizienten Routinen der verwendeten OpenCV-Bibliothek möglich. So sind bis zu 30 Entscheidungen in der Sekunde möglich, jedoch können die Motoren die Entscheidungen nur deutlich langsamer umsetzen. Es wurden auch weitere Verfahren zur Entscheidungsfindung getestet, wie die Verwendung von Clusteranalyse oder die Erstellung von Voronio-Diagrammen. Doch zeigte die robuste Entscheidungsfindung über Erwartungswerte bei der Navigation im urbanen Gebiet ihre Vorteile. Die beschriebene Entscheidungsfindung bezieht sich dabei bisher nur auf die Fahrtrichtung- die Fahrtgeschwindigkeit wird bisher nur von der freien Wegstrecke in Fahrtrichtung bestimmt. Dadurch verfolgt der Roboter im Normalfalle seine Ziele in Normgeschwindigkeit von 0.5-1m/s (er läuft und läuft und läuft), bremst aber, sobald er in die Gefahr gerät, sonst einen Menschen oder sich selbst zu beschädigen. Dadurch folgt der Roboter den Robotergesetzen von Asimov. Die Kommunikation im Roboter erfolgt über verschiedene Netze- der Lidar-Sensor wird beispielsweise über Ethernet angesprochen, die Entscheidungsfindung spricht mit den Hauptroutinen in der Recheneinheit über eine TCP-Verbindung, die Kommunikation von der Recheneinheit zum Masterboard erfolgt über USB als serielle Schnittstelle (UART), und das Masterboard gibt seine Steuerbefehle über einen CAN-Bus an Motoren und Servos weiter. Der Wettbewerb der Robotour 2015 fand in Tschechien in der Innenstadt von Pisek statt. Nach einer Qualifikation vor Ort gab es nach einer Testrunde eine erste Wettkampfrunde, in der die Roboter eine Lieferung von einem Parkplatz durch die gesamte Innenstadt über festgelegte Wegpunkte letztlich zu einem Restaurant bringen sollen. Obwohl der Testlauf noch erfolgreich war, litt der Roboter Beteigeuze der Gruppe in den ersten zwei Segmenten unter Abstürzen und lag damit auf dem letzten Platz. Nachdem der Fehler gefunden war, erreichte der Roboter im dritten Lauf als einziger das Segmentziel; und blieb im vierten Lauf zwar am Hintereingang des Restaurants hängen, war aber auch da gegenüber allen anderen Kandidaten bei weitem am nächsten am Ziel, und gewann so den Wettbewerb. Für einen Einstieg in die Robotik bieten sich Systeme wie Lego Mindstorms oder andere Roboterbaukästen an, aber auch Programmierspiele, wie sie Michael auch auf der GPN angeboten hat: https://github.com/Programmierspiele. Literatur und weiterführende Informationen M. Fürst: Probabilistische Robotik- Interessen eines Roboters als Nutzen formulieren und verarbeiten, Vortrag auf der Gulasch Programmier-Nacht GPN16, 2016. M. Fürst: Detecting Drivable Regions in Monocular Images, Robotour 2015, Autonomous Robot in Parks and Urban Regions, 2015. EKF-SLAM erklärt: Wie sieht ein Roboter die Welt? Robotour 2015 Vorgehensweise bei Kamaro GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
Wir tauchen ein in die beschreibende Statistik: Wie verteilen sich Messwerte? Wie sehr streuen sie? Wie sehr weichen sie vom Mittelwert ab? Hier erfahren Sie, wie man das berechnet. Im Quiz können Sie Ihr Wissen testen.
Nach längerer, krankheitsbedingter Pause geht es endlich eine ganze Sendung lang (fast) nur um eingereichte Hörerfragen. Im Vorspiel widmen sich der frisch gebackene Doktor Bartoschek, der frisch vermählte Herr Rudloff und der frisch eingetroffene Hoaxmaster noch aktuellen Themen wie dem Wissensdurst e.V., der Notwendigkeit des Impfens, dem Tod von Leonard Nimoy und einem Kleid als optische Illusion, die die Welt spaltet. Richtig psychologisch wird es dann rund um mehr als 20 Hörerfragen: Wie hängen psychische Störungen miteinander zusammen und wie mit Stress oder körperlichen Beschwerden? Welchen Wert hat die Gaußsche Normalverteilung als Modell in der Psychologie - oder ist sie wertlos wie fast jegliche Statistik, wie Nassim Taleb in seinem Buch "Der Schwarze Schwan" meint? Wie wichtig und wie gefährlich ist Schubladendenken, und wie kann man die Angst vor Fremdem (Xenophobie) abbauen? Wie organisieren sich die drei Podcaster bei ihren vielfältigen Projekten überhaupt, und was motiviert sie, sich mit Themen Esoterik, Alternativmedizin oder Hoaxes zu beschäftigen? Was ist psychische Gesundheit, was ist dran an Hypnose und was an Therapieansätzen wie ACT, MBSR und Achtsamkeit - inklusive Rosinenlutschen? Taugt der MBTI als Persönlichkeitstest, und könnte man Halluzinogene wie LSD gut zur Behandlung von psychischen Störungen einsetzen? Im weiteren geht es um Wirkungen von Homosexualität und Transidentität, um den den Umgang mit Ess-Störungen und Verhaltensänderungen im allgemeinen, um die Wirkung von Märchen auf Kinder sowie um Depressionen im Kindesalter. Brauchen hysterische Boybandfans "am Morgen danach" psychologische Betreuung? Hat Alexander seinen Starschnitt von Silvia Seidel noch? Erkennt Sebastian seine eigenen Psychosen? Und mit welcher paradoxen Intervention hat der "alte Fritz" die Deutschen dazu gebracht, die Kartoffeln trotz Migrationshintergrundes zu essen? Zum Abschluss gab es noch einiges an Nachdenklichem und Praktischem zu Angehörigen und Arbeitgebern psychisch Kranker, dazu wie man jemanden auf seine möglichen psychischen Probleme anspricht, und inwieweit ein berufsbegleitendes Psychologie-Studium sinnvoll sein kann. In den zwischenzeitlichen unvermeidlichen Werbeblocks werden unter anderem erwähnt der Podcast This Week in Germany (bei dem Sven einmal monatlich dabei ist), der Fireflycast (unter Beteiligung von Alexander), zahlreiche Bücher vor allem aus dem JMB-Verlag (dem Verlag, dem Podcaster vertrauen) und die Musikgruppen Axis of Awesome, Lagwagon und Scanner.
Prof. Dr. Wolfgang Härdle war im Rahmen des Workshop zu High Dimensional, High Frequency and Spatial Data in Karlsruhe und sprach mit Gudrun Thäter über sein Forschungsgebiet. Er befasst sich an der Humboldt-Universität zu Berlin mit der Bewertung von Risiken und ist am Lehrstuhl der Nachfolger von Ladislaw Bodjevich, der unter anderem für seine Arbeiten zum Gesetz der kleinen Zahlen berühmt geworden ist: Es sagt aus, dass auch wenn alle 37 Roulette-Zahlen gleich wahrscheinlich sind, nach 37 Würfen im Durchschnitt nur etwa 2/3 der Zahlen aufgetreten sind. Damit steht es nur scheinbar in gewissem Kontrast zum Gesetz der großen Zahlen, das bestimmt, wie die Auftrittshäufigkeit sich für viele Würfe der Gleichverteilung annähert. Das Flanken-Maß ist eine Eigenschaft von Profit and Loss (PnL, GuV)-Funktionen oder Zufallsvariablen, die die Dicke von Flanken oder Entferntheit von seltenen Ereignissen modelliert. Schon Ladislaw Bodjevich hat erkannt, dass das die Bewertung von Extremrisiken und wenige vorhandene Daten einen Widerspruch darstellt. Die Normalverteilung ist die Grenzverteilung gewichteter Zufallsgrößen, wenn der Grenzwert existiert, also bei vielen Ereignissen das Gesetz der großen Zahlen zum Einsatz kommen kann. Bei wenigen Ereignissen gelangt man zur Poisson-Verteilung. Obwohl sie theoretisch viele Prozesse gut beschreiben sollte, funktioniert die Normalverteilung in der Realität aus vielen Gründen oft schlechter als erwartet: Sich verändernde Prozesse können Mischverhältnisse von an sich normal-verteilten Bestandteilen verändern, ebenso kann sich die Volatilität bzw. die Streuung um den Erwartungswert über die Zeit verändern. Es kann aber auch eine vollkommene andere Verteilung vorliegen wie zum Beispiel die Extremwertverteilung, Weibull-Verteilung mit algebraisch abfallenden Tails oder der Pareto-Verteilung. Leider ist die stochastische Konvergenz von Extermwertverteilungen sehr schlecht, und erschwert so Vorhersagen und Bewertungen. So wurden strukturierte Finanzprodukte mit multivariaten Modellen und einer Normalverteilungsannahme viel zu vereinfacht modelliert. So waren CDO-Produkte daher vor der Finanzkrise ab 2007 viel zu billig und hatten einen beträchtlichen Anteil an der Krise. Die Risikobewertung ist aber nicht nur für die Bewertung von Katastrophen-Bonds für Versicherungen gegen Erdbeben wichtig, sondern auch für die Analyse von EEG von Kindern. Sie hilft aber auch den Risikofaktor Mensch im Sinne der Behaviour Finance zu verstehen. Literatur und Zusatzinformationen J. Franke, W. Härdle, C. Hafner: Statistics of Financial Markets, Springer-Verlag Berlin Heidelberg, 2004. J. Hull: Risk Management and Financial Institutions, John Wiley & Sons, 2012. J. Leider: A Quantile Regression Study of Climate Change in Chicago, 1960-2010, SIAM Undergraduate Research Online (SIURO) Vol. 5, 2012. Publikationen, Vorträge und Papers von Wolfgang Härdle
Fast wäre unsere Folge zu Musik eine Folge ohne Musik geworden, aber dann hat Sebastian doch noch gesungen, und Sven hat ausgeholfen. Aber alles der Reihe nach. Bei unserem psychologischen Einstiegsthema geht es diesmal um Diagnostik: Wie werden ordentliche Fragebögen und psychologische Tests entwickelt? Was sagen Intelligenztests eigentlich aus? Und wie gut macht sich ein Azubi-Test bei der Vorhersage des Berufserfolgs? Und weiß Alexander, wie viel Prozent einer Normalverteilung eine Standardabweichung um den Mittelwert herum liegen? In den folgenden zwei Stunden widmen wir uns der Frage, wie Musik beim Menschen wohl entstanden ist, und welche soziale Funktion sie erfüllt. Warum nicht jede harte Musik mit Aggressionsabbau verbunden ist. Wo Musik helfen kann, und wann Musik nervig und ablenkend wird. Zu unserem Hauptthema Musik haben wir diskussionskräftige Unterstützung von Dr. Daniela Rudloff *. Daniela hat sich erst vor einigen Jahren entschieden, noch einmal Klavierspielen zu lernen, und beschäftigt sich seitdem privat und beruflich mit Musik und Musikpsychologie. Wir erfahren, welche Musikerfahrungen und -vorlieben jeder einzelne unserer Psychologen so hat, und wer von ihnen lange Zeit als Alleinunterhalter durch Weltstädte wir Bad Salzuflen zog. Dass Bobby McFerrin mehr kann als "Dont't Worry Be Happy". Was Ohrwürmer und Mainstream ausmacht. Wie toll TV-Titelmusiken sind und dass Aufnahmetechnik unsere Musikwahrnehmung ruiniert hat. Und dass Musik Kinder weder intelligenter werden lässt (Mozarteffekt) noch Menschen in den Selbstmord treibt (Werthereffekt). Die Musik-Einspieler beim Live-Stream haben leider nicht gleich funktioniert. Stattdessen hat Sebastian zwischendurch gesungen, und Sven hat die Werbeeinblendungen gefahren. Davon bekommt der geneigte Podcast-Hörer im Zusammenschnitt aber nicht viel mit. [*] Zur Klarstellung: Daniela und Sven waren bereits vor der Sendung geschiedene Leute.
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
Microarray-Daten werden in letzter Zeit häufig genutzt, um mit Hilfe verschiedener Verfahren Netzwerke der Gen-Gen-Interaktion zu generieren. Die vorliegende Arbeit beschäftigt sich mit Validierungsstudien solcher Verfahren. Der Startpunkt einer Validierungsstudie ist ein ungerichteter Graph, der biologische Strukturen repräsentieren soll. In dieser Arbeit wird motiviert, Graphen zu benutzen, die aus Microarray-Daten geschätzt worden sind. Nachdem ein Graph gewählt worden ist, werden Daten einer multivariaten Normalverteilung erzeugt, die durch eine zufällige Kovarianzmatrix charakterisiert ist. Diese Matrix muss symmetrisch und positiv definit sein, aber zusätzlich wird für eine nicht vorhandene Kante im Graphen gefordert, dass der zugehörige Eintrag in der Matrix Null ist. In dieser Arbeit wird ein neuer Ansatz vorgestellt, der es ermöglicht, symmetrische, positiv definite Matrizen mit Nebenbedingungen zu erzeugen. Diese Methode beruht auf der Moralisierung eines Graphen. Ein gerichteter, azyklischer Graph wird moralisiert, indem die gerichteten Kanten durch ungerichtete Kanten ersetzt werden und zusätzlich die Eltern eines jeden Knotens paarweise miteinander verbunden werden. Der zentrale Schritt bei der Erstellung der Matrizen mit Nebenbedingungen liegt in der Umkehrung des Moralisierungsvorganges. In dieser Arbeit wird die Klasse der Graphen eingeführt, die Resultat einer Moralisierung sein könnten - die prämoralisierbaren Graphen - und es wird ein Verfahren definiert, welches entscheidet, ob ein Graph prämoralisierbar ist und gegebenenfalls eine Umkehrung der Moralisierung durchführt. Die erzeugten Matrizen sollen als Korrelationsmatrizen für die Validierungsstudien genutzt werden. Dazu wird das vorgestellte Verfahren an einen Optimierungsalgorithmus gekoppelt, um die gewünschten Matrizen zu erzeugen, deren Diagonalelemente identisch 1 sind und für die die nicht als Null vorgegebenen Werte nahe 1 bzw. -1 liegen. Nicht jeder Graph ist prämoralisierbar. Da diese Eigenschaft notwendig ist für das Verfahren zur Erzeugung der Matrizen mit Nebenbedingungen, wird eine empirische Studie durchgeführt, die zeigt, dass ein Großteil der aus Microarray-Daten geschätzten Graphen auch prämoralisierbar ist. Die Arbeit schließt mit praktischen Anwendungen. Die Validierung eines bekannten Algorithmus zum Schätzen von Netzwerken wird durchgeführt und es wird ein Ansatz vorgestellt, mit dem man graphische Strukturen, die aus Microarray-Daten geschätzt worden sind, vergleichen kann, um signifikante Unterschiede zu finden.