Podcasts about metaebene personal media

  • 3PODCASTS
  • 13EPISODES
  • 1h 4mAVG DURATION
  • ?INFREQUENT EPISODES
  • Feb 10, 2024LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about metaebene personal media

Latest podcast episodes about metaebene personal media

Modellansatz
Wahlmodelle

Modellansatz

Play Episode Listen Later Feb 10, 2024 16:12


Gudrun sprach im Januar 2024 mit zwei Studenten ihrer Vorlesung Mathematical Modelling and Simulation: Lukas Ullmer und Moritz Vogel. Sie hatten in ihrem Projekt Wahlmodelle ananlysiert. In dem Gespräch geht es darum, wie man hierfür mathematische Modelle findet, ob man Wahlsysteme fair gestalten kann und was sie aus den von ihnen gewählten Beispielen gelernt haben. Der Fokus ihrer Projektarbeit liegt auf der Betrachtung und Analyse von Wahlen, in denen mehrere verschiedene Wähler zu einem Thema abstimmen. Formal von Relevanz sind hierbei die sogenannten Wahlsysteme, welche die Art der Aggregation der Wählerstimmen beschreiben. Diese fallen in der Praxis recht vielfältig aus und über die Jahre wurden verschiedenste Wahlsysteme vorgeschlagen, angewendet und auch analysiert. In dieser Arbeit werden drei Kategorien präferenzbasierter Wahlsysteme analysiert: vergleichsbasierte Systeme, Scoring-Systeme sowie Approval-Systeme. Aufbauend darauf erfolgt die Konstruktion mehrstufiger und hybrider Wahlsysteme. Desweiteren werden verschiedenen Wahleigenschaften wie z.B. die Nicht-Diktatur oder die Strategiesicherheit betrachtet. Diese meist wünschenswerten Eigenschaften schließen sich teilweise gegenseitig aus. Die Themen Wahlmanipulation und Wahlkontrolle liegen deshalb besonders im Fokus. Literatur und weiterführende Informationen J. Rothe u.a. Einführung in Computational Social Choice: Individuelle Strategien und kollektive Entscheidungen beim Spielen, Wählen und Teilen. Spektrum Akademischer Verlag Heidelberg, 2012. doi: 10.1007/978-3-8274-2571-3. A.D. Taylor and A.M. Pacelli: Mathematics and Politics - Strategy, Voting, Power, and Proof. Springer-Verlag, Berlin Heidelberg, 2nd corrected ed. 2008, corr. 3rd printing, 2009. H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W.D. Wallis. The Mathematics of Elections and Voting. Springer, Berlin, Heidelberg, 2014. K. Loewenstein: Verfassungsrecht und Verfassungspraxis der Vereinigten Staaten, Springer-Verlag, Berlin Heidelberg New York, 1959. Podcasts P. Stursberg, G. Thäter: Social Choice, Gespräch im Modellansatz Podcast, Folge 129, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Lübbecke, S. Ritterbusch: Operations Research, Gespräch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt, G. Thäter: Wahlsysteme, Gespräch im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich, T. Pritlove: Wahlrecht und Wahlsysteme, Gespräch im CRE Podcast, Folge 128, Metaebene Personal Media, 2009. S. Gassama, L. Harms, D. Schneiderhan, G. Thaeter: Gruppenentscheidungen, Gespräch im Modellansatz Podcast, Folge 229, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020.

Modellansatz
Soziale Maschinen

Modellansatz

Play Episode Listen Later Jun 14, 2020 75:34


Gudrun sprach im Mai 2020 mit Andreas Bischof. Zu dem Zeitpunkt leitete er eine Forschungsgruppe mit dem Namen Nebeneinander wird Miteinander an der Technischen Universität Chemnitz am Lehrstuhl Medieninformatik. Er hat sich mit der Problematik beschäftigt, falls technische Entwicklungen lediglich vom technisch möglichen gedacht werden statt vom gewollten Ergebnis her. Konkret spiegelt sich das in seiner Forschung zu alternativen Anwendungen für die Gesundheitsrobotik. Er arbeitet in einem interdisziplinären Netzwerk, das Medien und Kommunikation, Mensch-Maschine-Interaktion, Soziologie, Medieninformatik, Design, Wissenschafts- und Technikwissenschaften sowie Soziogerontologie umspannt. Er hat an der Universität Leipzig Kulturwissenschaften studiert. Nach seiner Promotion in der Graduiertenschule Crossworlds an der TU Chemnitz schloss er sich einer Forschungsgruppe an, die sich mit der Integration von Nutzern bei der Gestaltung des Internet der Dinge befasst. 2018 erhielt er eine Förderung des Bundesministeriums für Bildung und Forschung (BMBF) zum Aufbau eines CityLab in Chemnitz. Was macht Roboter sozial? Auf der Suche nach Antworten auf diese Frage besuchte Andreas Bischof Forschungslabors und Konferenzen in Europa und Nordamerika: In der Zukunft sollen Roboter die Fabrikhallen verlassen und Teil von Alltagswelten wie Krankenhäusern, Kindergärten und Privatwohnungen werden. Die Konstrukteur_innen der zahlreichen Forschungsprojekte hierzu stehen vor der Herausforderung, die Ambivalenzen und Kontingenzen alltäglicher Interaktionen in die diskrete Sprache der Maschinen zu übersetzen. Die ethnografische Studie zeichnet nach, welche Forschungsziele in der Sozialrobotik vorherrschen und welche Implikationen die jeweiligen epistemischen Praktiken der Ingenieur_innen für die Konstruktion von Sozialrobotern haben. Wenn derzeit die gesellschaftliche Relevanz von Robotern thematisiert wird, dann fast immer der Einsatz in Pflegesettings. Roboter sind Teil der Lösungen des »Pflegenotstands«, auch wenn keine marktreifen Pflegeroboter existieren und weder Gepflegte noch Pflegende Interesse an solcher Technologie artikulieren. Ebenso gibt es auf Seiten der Entwickler wenige Bestrebungen, die Forschung an den tatsächlichen Bedarfen der Pflege auszurichten. Gudrun und Andreas hatten seit 2012 immer mal wieder virtuell Kontakt, weil Andreas das ehemalige Leipziger Label analogsoul mitgeführt hat. Dort hat Gudrun Musik gekauft und am Projekt I Am A Forest teilgenommen. Die Idee, dieses Gespräch für den Modellansatz zu führen entstand allerdings aus einem kurzen Gedankenaustausch auf dem Podcaster Forum sendegate. Andreas fand, dass sich doch ein Format wie der Modellansatz gut eignen würde, um Forschung an einer TU zu präsentieren. So wurde er zum Mitinitiator des TUCscicasts, der forschende an der TU Chemnitz ausführlich zu Wort kommen lässt und direkt am Rektorat angebunden ist. Literatur und weiterführende Informationen A. Bischof: Soziale Maschinen bauen – Epistemische Praktiken der Sozialrobotik Transkript Verlag 2017. A. Bischof: Problematische Aspekte der MRI-Forschung, Epistemologische und methodologische Kritik des Zustands eines Feldes Mensch und Computer 2019 - Workshopband. Bonn: Gesellschaft für Informatik e.V., 2019. DOI: 10.18420/muc2019-ws-658 A. Bischof: „Wir wollten halt etwas mit Robotern in Care machen“. Epistemische Bedingungen der Entwicklungen von Robotern für die Pflege in J. Hergesell, A. Maibaum, M. Meister (Hrsg.) Genese und Folgen der »Pflegerobotik«, Beltz Juventa, 2020. A. Bischof: Musicians - from Genius to Participation TED-Talk 2015. Rezo: Die Zerstörung der CDU YouTube, 18.05.2019. Thread zu Rezo-Video als Vorlesung Pepper Roboter Pflege Roboter Paro N. Rößler: Soziale Pflege-Roboter setzen sich nur langsam durch Deutschlandfunk: Hintergrund vom 18.02.2019. Podcasts J. Ehlers, G. Thäter: Mensch-Maschine-Interaktion, Gespräch im Modellansatz Podcast, Folge 187, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. P. Purgathofer, T. Pritlove: Mensch-Maschine Interaktion, CRE Folge 131, Technik Kultur Gesellschaft, Metaebene Personal Media, 2009. Soziale Roboter – fehlendes Fingerspitzengefühl detektor.fm 11.07.2017. Episode 17: Gebt Oma & Opa einen Roboter! – Soziale Maschinen in der Pflege Das neue Berlin: Wie Roboter auf die Welt kommen Episode 33 vom 29. Juni 2019 Schaubühne Podcast: Heinz Bude im Gespräch mit Elisabeth André 25. November 2019

Modellansatz
Gruppenentscheidungen

Modellansatz

Play Episode Listen Later Jan 31, 2020 34:58


In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. Gudrun sprach im Januar 2020 mit drei Studenten ihrer Vorlesung Mathematical Modelling and Simulation: Samory Gassama, Lennart Harms und David Schneiderhan. Sie hatten in ihrem Projekt Gruppenentscheidungen modelliert. In dem Gespräch geht es darum, wie man hierfür mathematische Modelle findet, ob man Wahlsysteme fair gestalten kann und was sie aus den von ihnen gewählten Beispielen gelernt haben. Wie lassen sich Entscheidungen von Wählergruppen fair in demokratische Willensbildung einbringen? Mit diesem Thema beschäftigt sich u.a. auch die Volkswirtschaftslehre. Die dafür benutzten Modelle sollten einige Eigenschaften haben. Ein grundlegendes Kriterium wäre beispielsweise: Wenn alle der gleichen Meinung sind, sollte diese Meinung auch immer die Gruppenentscheidung sein. Ein weiteres Kriterum könnte verlangen, dass das Ergebnis Pareto-optimal ist, es also kein anderes Ergebnis gibt, mit dem jedes Gruppenmitglied zufriedener wäre. Um die Präferenz der Gruppe auszudrücken, führen die Studenten die Wohlfahrtsfunktion ein. Das ist eine Abbildung, welche als Input die Präferenzen der einzelnen Wähler verknüpft. Das Wahlverfahren wird sozusagen in dieser Abbildung modelliert. Man wünscht sich Anonymität: Jede Stimme sollte gleich gewertet werden. Neutralität: Wenn die Relationen im Input invertiert werden, bewirkt dies das Selbe beim Output. Monotonie: Falls eine Relation aus dem Input, welche nicht den Präferenzen des Outputs entspricht, sich zur Präferenzrelation des Outputs ändert, bleibt dieser gleich. Verfahren wie Rangaddition und Condorcet-Methode sind klassisch und erfüllen leider nicht alle diese Bedingungen. Die Studenten fügen eine weitere Entscheidungsebene im Modell hinzu. Man nennt dies geschachtelte Wahl. Als Beispiele dienen die US Präsidentschaftswahl 2016 und der Eurovision Song Contest 2019. Bei den Präsidentschaftswahlen in den VereinigtenStaaten von Amerika, wird der Präsident von den Wahlleuten der Bundesstaaten für eine Amtszeit bestimmt. Jeder Bundesstaat hat unterschiedlich viele Wahlleute. Die Wahlberechtigten legen unmittelbar nur die Wahlleute fest. Deshalb ist das Modell der US Präsidentschaftswahlen ist ein geschachteltes Modell. Im ersten Schritt, werden in allen 52 Staaten die Wahlen, mit den US Bürgern des jeweiligen Staates als Wähler, mithilfe des Condorcet Modells durchgeführt. Im zweiten Schritt bilden eben jene 52 Staaten die neue Wählermenge, welche dann über eine gewichtete Rangaddition den endgültigen Präsidenten bestimmt. Die Studenten haben im Projekt zwei Datensätze verwendet, um die Präsidentschaftswahlen 2016 in den USA zwischen Donald Trump und Hillary Clinton zu simulieren. Sie geben die Anzahl der Stimmen für Donald Trump und Hillary Clinton in den verschiedenen Wahlbezirken der USA an. Um die Simulation durchzuführen, wurde Google Colab verwendet. Die benutzte Programmiersprache ist Python. Die Wahl wurde folgendermaßen simuliert: Man summiert die Anzahl der Stimmen für alle Kandidaten in jedem Staat. Anschließend vergleicht man die Anzahl der Stimmen für Trump und Clinton in jedem Bundesstaat. Dem Gewinner eines Staates werden die Anzahl der Wahlleute dieses Bundesstaates in das Endergebnis addiert. Zum Schluss werden die Anzahl der Wahlleute, welche für die Kandidaten gestimmt haben verglichen. Trump gewinnt die Wahlen in 30 Bundesstaaten und Clinton in 20 Bundesstaaten, genauer gesagt erhält Trump 304 Wahlleute und Clinton 227. Somit wäre gewinnt Trump gegen Clinton. Alternativ zum geschachtelten Modell, wird anschließend die Abstimmungsmethode direkt auf alle Wahlstimmen angewandt. Dabei erhält Trump 62.984.828 Stimmen, während Clinton 65.853.514 bekommt. Bei diesem Verfahren gewinnt Clinton gegen Trump. Im Gespräch wird besprochen, dass es ein Problem ist, wenn bei recht knappem Wahlausgang pro Bundesstaat eine "Rundung" auf Wahlleute erfolgt und diese dann addiert wird. Im Vergleich hierzu kann es bei vielen Parteien auch durch Instrumente wie die 5%-Hürde, die wir in Deutschland implementiert haben, zu unfairen Effekten kommen. Die Regeln beim Eurovision Song Contest sind wie folgt: Aus den Televoting-Ergebnissen und den Jurywertungen jedes einzelnen Landes setzt sich das Gesamtergebnis für alle Teilnehmenden zusammen. Die besten zehn Titel werden mit eins, zwei, drei, vier, fünf, sechs, sieben, acht, zehn und zwölf Punkten bewertet. Dabei werden die Jury- und Zuschauerwertungen seit 2016 voneinander getrennt. Jedes Land kann einem Teilnehmenden also bis zu 24 Punkte geben - zwölf durch die Jury, zwölf durch die Zuschauer. Wenn zwei Songs auf die gleiche Punktzahl kommen, bekommt das Land die höhere Punktzahl, das vom Publikum höher bewertet wurde. Abgesehen davon, dass es sich auch hierbei wieder um ein geschachteltes Modell handelt, werden hierbei auch noch die gewichtete Rangaddition und ein externes Diktator Modell verwendet. Literatur und weiterführende Informationen A.D. Taylor and A.M. Pacelli: Mathematics and Politics - Strategy, Voting, Power, and Proof. Springer-Verlag, Berlin Heidelberg, 2nd corrected ed. 2008, corr. 3rd printing, 2009. H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W.D. Wallis. The Mathematics of Elections and Voting. Springer, Berlin, Heidelberg, 2014. au. edition, 2014. K. Loewenstein: Verfassungsrecht und Verfassungspraxis der Vereinigten Staaten, Springer-Verlag, Berlin Heidelberg New York, 1959. US Election Tracker as xlsx, 2016. nytimes presidential elections 2016 results as csv, 2016. ESC Regelwerk, 2019. ESC Datensatz, 2019. S. Gassama, L. Harms, D. Schneiderhan: Gruppenentscheidungen. Jupyter Notebooks: Eurocontest_2019.ipynb (Web-Viewer), MS_USA_2016.ipynb (Web-Viewer) Podcasts P. Stursberg, G. Thäter: Social Choice, Gespräch im Modellansatz Podcast, Folge 129, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Lübbecke, S. Ritterbusch: Operations Research, Gespräch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt, G. Thäter: Wahlsysteme, Gespräch im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich, T. Pritlove: Wahlrecht und Wahlsysteme, Gespräch im CRE Podcast, Folge 128, Metaebene Personal Media, 2009.

Modellansatz
Methan

Modellansatz

Play Episode Listen Later Mar 7, 2019 51:48


Gudrun traf sich im Februar 2019 mit Jennifer Schröter und Christian Scharun vom Institut für Meteorologie und Klimaforschung - Atmosphärische Spurengase und Fernerkundung zum Gespräch. Christian, Sebastian und Gudrun waren auf dem ersten Treffen des MATHSEE-Methodenbereichs Mathematische Modellbildung, Differentialgleichungen, Numerik, Simulation ins Gespräch gekommen und hatten ein baldiges Podcastgespräch verabredet. Christian holte noch seine Kollegin Jennifer ins Boot und im Februar 2019 saßen die drei (ohne Sebastian) in Gudruns Büro, um sich über die Weiterentwicklung von Klimamodellen zu unterhalten. Das Wetter und das Klima werden durch Vorgänge in der Erdatmosphäre in der Kopplung mit Wärme- und Wassertransport in den Ozeanen bestimmt. Auch der Mensch hat darauf einen Einfluss. Zum ersten Mal wurde das wahrscheinlich durch die Entstehung des Ozon-Loches ins breite Bewußtsein geholt. Im Projekt, für das Christian arbeitet, geht es u.a. darum, mit einem Computermodell nachzubilden, inwieweit austretendes Methan (ein Spurengas, das z.B. an Erdgas-Bohrlöchern auftritt) einen Einfluss auf die Entwicklung des Klimas nehmen kann. Grundlage hierfür sind sehr genaue Messungen und die Weiterentwicklung des Computermodells. Im Modell werden Strömungs-, Strahlungs- und chemische Prozesse berücksichtigt. Es wird in enger Zusammenarbeit mit dem Deutschen Wetterdienst (DWD), dem Max-Planck-Institut für Meteorologie Hamburg (MPI-M) und dem Deutschen Klimarechenzentrum (DKRZ) entwickelt. Das Modell wird zur täglichen Wettervorhersage wie auch Klimaprognosen verwendet. Die Gruppe Globale Modellierung MOD des IMK-ASF fügt ein Modul zur Simulation der atmosphärischen Chemie vom Boden bis in die mittlere Atmosphäre hinzu. Das Thema ist in sich fächerübergreifend, weil physikalische und chemische Prozesse verstanden werden müssen und auf den modernsten Großcomputern simuliert werden. Christian hat sein Lehramtsstudium mit dem ersten Staatsexamen für die Fächer Geographie und Mathematik abgeschlossen. Jennifer ist promovierte Physikerin und seit einigen Jahren Hauptenwicklerin für chemische Prozesse in ICON-ART. Als ein wichtiges Produkt der Arbeit der Gruppe sieht sie auch an, Daten, die bei der Berechnung entstehen, der Öffentlichkeit in einer nutzbaren Art zur Verfügung zu stellen. In den Punkten der Modellentwicklung, Performanceverbesserung und Bereitstellung von Forschungsdaten arbeitet sie mit dem Rechenzentrum des KITs, dem Steinbuch Center for Computing eng zusammen. Literatur und weiterführende Informationen J. Schröter et al.: ICON-ART 2.1: a flexible tracer framework and its application for composition studies in numerical weather forecasting and climate simulations, Geoscientific model development 11, 4043–4068, 2018. Helmholtz-Projekt Digital Earth Podcasts S. Hemri, G. Thäter: Ensemblevorhersagen, Gespräch im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. N. Vercauteren, S. Ritterbusch: Lokale Turbulenzen, Gespräch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Wendisch, M. Voelter: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. B. Weinzierl, T. Pritlove: Die Atmosphäre, Raumzeit Podcast, Metaebene Personal Media, 2011.

Modellansatz
Fluglotsen

Modellansatz

Play Episode Listen Later Feb 7, 2019 62:54


Gudrun spricht in dieser Episode mit Colin Bretl und Niko Wilhelm. Beide sind zur Zeit des Gespräches Bachelorstudenten am Karlsruher Institut für Technologie (KIT). Colin studiert Mathematik und Niko Informatik. Bevor sie sich für ein Studium am KIT entschieden haben, hatten sie an der Dualen Hochschule Karlsruhe (DHBW) ein Bachelorstudium Wirtschaftsinformatik abgeschlossen. Die beiden haben im Wintersemester 2018/19 an Gudruns Vorlesung Modellbildung teilgenommen. Wie schon in unserer ersten Podcastepisode besprochen wurde, gehört zum Programm der Vorlesung, dass die Studierenden sich in Gruppen finden, selbst ein Projekt suchen und bearbeiten. Colin und Niko haben die Arbeit von Fluglotsen betrachtet. Sie haben modelliert, wie die anfliegenden Flugzeuge am besten auf die Landebahn zugeteilt werden. Am Beispiel des Flughafens Heathrow (mit Daten vom 1. August 2018) wurde ihr erstelltes Modell getestet. Als mathematische Methode haben sie hierfür Warteschlangentheorie augewählt. Die beiden haben das Modell selbst erarbeitet, es programmiert und eine Ausarbeitung angefertigt. Die Podcastepisode zeigt, wie und warum sie ihr Problem gewählt haben und welche Schritte zum Erfolg (oder auch zum Misserfolg) geführt haben. Die Überwachung einer Flugbewegung durch Fluglotsen findet z.B beim Landeanflug auf einen Zielflughafen statt. Wollen mehrere Luftfahrzeuge in einem kurzen Zeitraum nacheinander landen, gehört es zu den Aufgaben des Lotsen, diese Reihenfolge festzulegen. Infolgedessen werden den einzelnen Luftfahrzeugführern Streckenanweisungen mitgeteilt (bspw. ob diese einmal oder mehrfach ein Warteschleife fliegen sollen). Im trivialen Fall, dass zwischen zwei ankommenden Luftfahrzeugen genug Zeit liegt, kann jedes Luftfahrzeug auf möglichst direktem Weg zur Landebahn geführt werden. Der Durchsatz, also wie viele Luftfahrzeuge in einem Zeitintervall landen können, ist in diesem Fall optimal. Bei hohem Verkehrsaufkommen gestaltet sich die Überwachung durch Fluglotsen schwieriger. Es müssen nicht nur Sicherheitsabstände zwischen den Luftfahrzeugen eingehalten werden, sondern auch physikalische Besonderheiten des Luftverkehrs und technische Restriktionen berücksichtigt werden. Diese wirken sich negativ auf den Durchsatz aus. Außerdem erschweren die Rahmenbedingungen eine mathematische Untersuchung. Im Projekt von Colin und Niko wird die Problemstellung nur für Flugzeuge, die durch Radar identifiziert werden können, betrachtet. Darunter fallen u.a. große Passagiermaschinen, wie sie an internationalen Verkehrsflughäfen vorzufinden ist. Solche Flugzeuge machen den größten Anteil an kontrollierten Flugbewegungen aus. Mit Hilfe des mathematischen Modells sollen die Grundlagen dafür geschaffen werden, verschiedene Lotsen-Strategien auf ihren Durchsatz hin zu untersuchen. Es konzentriert sich dabei zunächst auf das Standardanflugverfahren bei hohem Verkehrsaufkommen und geht davon aus, dass Flugzeuge in der Reihenfolge ihrer Ankunft landen dürfen. Wenn eine Landung nicht unmittelbar eingeleitet werden kann, müssen die Flugzeuge Standard-Warteschleifen fliegen. Die Warteschleife ermöglicht es, die Mindestgeschwindigkeit zum Fliegen aufrecht zu erhalten. Prinzipiell kreist ein Flugzeug in einer Warteschleife über einem festen Punkt. Mehrere Flugzeuge können in unterschiedlicher Höhe dieselbe Warteschleife nutzen. Für den Datensatz von Heathrow am 1. August 2018 stellte sich heraus: Zu Spitzenzeiten kommen 50 Flugzeuge pro Stunde an. In diesem Fall ist das System nicht stabil. Das bedeutet, die Lastspitze könnte im Modell nicht dauerhaft durchgehalten werden. Stabilität ist bei 38 Flugzeugen pro Stunde gerade noch so gegeben. Nach dem mathematischen Modell könnte der Flughafen Heathrow also 38 Flugzeuge pro Stunde abarbeiten, was fast dem Mittelwert über alle Anflüge am 1.8. 2018 zwischen 06:00 und 23:00 etwa entspricht (das waren im Datensatz 39,1). Literatur und weiterführende Informationen C. Bretl & N. Wilhelm: Modellierung ankommender Flugzeuge - Beschreibung mithilfe von Warteschlangen am Beispiel des Flughafens London Heathrow, 2019. J. Reichmuth and P. Berster: Past and Future Developments of the Global Air Traffic. in: M. Kaltschmitt & U. Neuling (Eds.): Biokerosene - Status and Prospects, Springer, 2018. https://doi.org/10.1007/978-3-662-53065-8_2 K.-H. Waldmann and U. M. Stocker: Stochastische Modelle - Eine anwendungsorientierte Einführung. 2nd ed. Springer, 2013. D. Baum: Grundlagen der Warteschlangentheorie. Springer, 2013. F. Shortle et al.: Fundamentals of Queueing Theory. Wiley, 2018 ICAO: Doc. 4444 Air Traffic Management, 2016. Podcasts G. Thäter, S. Ritterbusch: Mathematische Modellbildung, Gespräch im Modellansatz Podcast, Folge 1, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 1, Folge 262 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 2, Folge 263 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S. Müller, T. Pritlove: Ziviler Luftverkehr, CRE 211, Metaebene Personal Media, 2016.

Modellansatz
Mensch-Maschine Interaktion

Modellansatz

Play Episode Listen Later Dec 1, 2018 68:34


Gudrun war in Weimar an der Bauhaus Universität zu Gast bei Jan Ehlers. Sie haben sich über seine Forschungstätigkeit im Umfeld von Mensch-Maschine Interaktion unterhalten. Jan hat in Bremen Psychologie studiert und dort auch promoviert. Nach einer Zeit an der Universität in Ulm ist er zur Zeit in Weimar als Lehrstuhlinhaber tätig. Gudruns Wunsch war es schon länger, das Thema im Podcast zu haben, denn Mensch-Maschine Interaktion betrifft alle Leute, die irgend etwas mit Computern machen. Dabei war klar, dass dies ein sehr breites Feld ist, wo im Gespräch mit Jan nur einzelne Aspekte vorkommen werden. Darüber hinaus, dass es thematisch breit ist, ist es ein sehr interdisziplinäres Feld, wo zwischen Biologie und Algorithmen als "Extremwerten" sehr unterschiedliches Wissen nötig ist und nur in Zusammenarbeit der Fachgebiete neues entsteht. Jans Fachgebiet ist der "Faktor Mensch". An seiner Arbeit faszinieren ihn viele Dinge, aber besonders, dass es noch so ein junges Feld ist, in den man Pionierarbeit verrichtet. Er hat sich auf kognitive Psychologie spezialisiert und untersucht u.a. wie peripher physiologische Signale (also von der Körperoberfläche abgeleitete Informationen) als Messwerte für psychologische Zustände dienen können. In erster Linie ist das universitäre Grundlagenforschung ohne unmittelbaren Anwendungsbezug. Dahinter stehen aber so fundamentale Fragen wie: Wie wird Aufmerksamkeit generiert? Wie kann man trotz interindividueller Unterschiede Erregungs- oder Aktivierungsniveaus aus solchen objektiv beobachtbaren Größe wie Pupillenbewegung oder Leitfähigkeit der Haut ablesen. Es müssen Größen herangezogen werden, die dem Bewusstsein nicht direkt zugänglich (also leicht manipulierbar) sind. Für die Experimente sind künstliche, hoch kontrollierte Situationen im Labor typisch, weil man ja wissenschaftlich Wirkmechanismen und Kausalbeziehungen beweisen möchte. Im Fachchargon spricht man auch von physiological computing bzw. mental status determination, also der Einschätzung einer psychischen Situation ohne Worte. die auf Selbsteinschätzung beruhen. Ein anschauliches Beispiel ist, dass man an der Blinzelfrequenz ablesen kann, wenn jemand müde wird. Man kann das gut mit Sensoren beobachten und messen und dann einen übermüdeten LKW-Fahrer durch so ein System erkennen und zum Pause machen anhalten. Menschlich ist das allerdings ein wenig brisant, denn wir wollen lieber die Kontrolle behalten und nicht von System Vorschriften gemacht bekommen. Hinzu kommt, dass man solche Systeme auch austricksen kann. Im Labor wird dazu das Biofeedback der Sensoren visualisiert und Probanden können lernen, darüber kognitive Kontrolle zu erhalten. Ein Beispiel hierfür ist die Pupillengröße, die man auf dem Monitor gut als Kreis einer gewissen Größe abbilden kann. Man kann üben, sie willentlich größer oder kleiner zu machen mit Hilfe der Rückmeldung auf dem Bildschirm. Für Forschung mit und über Menschen müssen ethische Prinzipien eingehaltne werden. Es ist apriori ja nicht in Ordnung, wenn man z.B. im Experiment Probanden systematisch anlügt. Trotzdem ist es eine wichtige und interessante Fragestellung, ob man die oben erläuterte Möglichkeit, dass man Einfluss auf eigentlich unbewusste Vorgänge erhalten kann, auch in die andere Richtung ausnutzen kann. Wenn ich einem erregten Probanden Biofeedback auf dem Monitor zeige, dass einer ruhigen Situation entspricht und der Proband dem Feedback glaubt, wird er dann vielleicht ruhig? Literatur und weiterführende Informationen C.Strauch e.a.: Pupil-Assisted Target Selection (PATS), Proceedings of the 16th IFIP TC.13 International Conference on Human-Computer Interaction – INTERACT, Mumbai, India. 2017 J. Ehlers e.a.: Pupil Size Changes as an Active Information Channel for Biofeedback Applications, Applied Psychophysiology and Biofeedback. doi: 10.1007/s10484-016-9335-z. 2016 Steven Fairclough: Physiological Computing E.M. Vingolo, G. Napolitano, S. Fragiotta:Microperimetric biofeedback training: fundamentals, strategies and perspectives Frontiers In Bioscience, Scholar, 10, 48–64, January 1, 2018Podcasts P. Purgathofer, T. Pritlove: Mensch-Maschine Interaktion, CRE Folge 131, Technik Kultur Gesellschaft, Metaebene Personal Media, 2009. P. Dzierzawski, G. Jaworek: Vibrationsbänder, Folge 9 im Neues Terrain Podcast, 2017.

Modellansatz
Rechenschieber

Modellansatz

Play Episode Listen Later Oct 25, 2018 114:38


Wie es kam, dass es kam, dass es so ist, wie es ist, mit dem Rechenschieber. Zu einer gemeinsamen Folge vom damalsTM-Podcast zur Technikgeschichte und dem Modellansatz zur Mathematik trafen sich Prof. Dr. Ralph Pollandt, Stephan Ajuvo und Sebastian Ritterbusch in der Hochschule für angewandte Wissenschaften in Karlsruhe zu diesem mathematisch-technischen Thema aus vergangenen Zeiten. Stephan Ajuvo hatte den Rechenschieber schon länger auf seiner Liste seiner Wunschthemen. Er konnte nach der hackover-Konferenz nach Karlsruhe kommen, wo am 4. Mai 2018 die 9. Lange Nacht der Mathematik stattgefunden hatte, die von Sebastian Ritterbusch moderiert wurde, und wo Ralph Pollandt den Rechenschieber in einem Publikumsvortrag vorgestellt hatte. Die lange Nacht der Mathematik wurde an der damaligen Fachhochschule Karlsruhe im Jahr 2000, dem Weltjahr der Mathematik, gestartet, und fand seither alle zwei Jahre mit sehr großem Besucherandrang statt. Vor Einzug der Taschenrechner, wie beispielsweise dem SchulRechner 1 oder SR1, waren Rechenschieber im Schulbetrieb allgegenwärtig. Es gab unter anderem Typen von Aristo oder von VEB Mantissa Dresden. Die Basis der grundsätzlichen Methode hinter dem Rechenschieber wurde mit dem Beginn der Nutzung von Logarithmentafeln (um 1600) gelegt. In der DDR wurden diese für Schulen vom Verlag Volk und Wissen gedruckt. Sie umfassten neben den Logarithmen auch eine Formelsammlung für Mathematik, Physik und Chemie. Auch die Bordwährung der c-base orientierte sich an der logarithmischen Skala. Ein Weg den Logarithmus einzuführen geht über die Exponentialfunktion, die viele Wachstumsprozesse in der Natur bis zur Sättigung beschreibt. Da diese Entwicklungen oft sehr schnell ansteigen, bietet es sich an, die Werte mit der Umkehrfunktion zu beschreiben, und das ist genau der Logarithmus: Exponentiell ansteigende Werte wie die 2-er Potenzen 1, 2, 4, 8, 16, 32, ..., werden nach Anwendung des Logarithmus Dualis zur Basis 2 linear zu 0, 1, 2, 3, 4, 5, ..., und damit deutlich einfacher zu begreifen. Auch in der Musik werden aus Frequenzen von Tönen nach Anwendung des Logarithmus Dualis ganzzahlig zu Oktaven und im nicht-ganzzahligen Rest zu den Tönen. Für die Nutzung mit Logarithmentafeln und dem Rechenschieber sind die Logarithmenregeln äusserst wichtig: In Logarithmentafeln ist sehr häufig der dekadische Logarithmus zur Basis 10 abgedruckt, da dies bei der Nutzung mit Zahlen im Dezimalsystem sehr hilfreich ist. Dabei wird typisch nur eine Dekade in der Tafel abgedeckt, da höhere Dekaden einfach ganzzahlige Differenzen im Wert darstellen. Da diese Betrachtung außerhalb der Tafeln stattfindet, müssen diese Größenordnungen während der Rechnung mitgeführt und am Ende dem Ergebnis abgerechnet werden. Da Rechenschieber wie gegenüber liegende Lineale sehr einfach addieren können, wird aus der Schieblehre bei Nutzung der Logarithmenregeln ein mächtiges Multiplikationsgerät. Das kann man sich am Selbstbau-Rechenschieber gut vor Augen führen: Der Rechenschieber besteht typischerweise aus einem bedruckten äußeren Körper, einer darin ebenfalls bedruckten beweglichen Zunge und einem oben aufliegenden bis auf Linien transparenten Läufer. Die aufgedruckten Skalen können zum einen einfache logarithmische Skalen für die Multiplikation und Division sein (hier die Skalen C und D über eine Dekade), oder auch ganz andere Funktionen beinhalten, wie für das Bauwesen die Festigkeit, dem Elastizitätsmodul, der Druckfestigkeit oder die Zinseszins-Rechnung. Oft waren wichtige Konstanten wie die Kreiszahl π oder die Lichtgeschwindigkeit c angenähert auf der Rückseite abgedruckt. Für die Bedruckung und Anwendung haben sich verschiedene Systeme etabliert, wie das System Darmstadt, das System Rietz oder Duplexstäbe, es gab aber auch nationale Unterschiede durch Traditionen, Notationen oder Hersteller. Das typische Tischformat hatte eine Länge von rund 30cm, es gab sie aber auch im Taschenformat oder in lebensgroßen 2 Metern, und entsprechendem Gewicht. Ein sehr verbreiteter Rechenschieber in Kreisform ist der Benzin-Rechner: Ein weiterer interessanter Aspekt ist, dass Rechenschieber auch irrationale Konstanten wie die Euler'sche Zahl e, die Kreiszahl π oder einfach Werte der Wurzelfunktion scheinbar exakt auf den analogen Skalen abbilden konnten, und damit einen Analogrechner darstellen. Das Rechnen mit dem Rechenschieber stammt von den Logarithmentafeln ab. Will man die Zahlen 2 und 3 multiplizieren, so kann man die Logarithmen der Zahlen 2 und 3 nachschlagen, das sind bei dem dekadischen Logarithmus auf 3 Stellen die Zahlen 0,3010 und 0,4771. Diese Zahlen werden nun addiert zu 0,7781 und nach umgekehrter Suche findet man als Ergebnis die Zahl, die diesem Logarithmus zugeordnet ist, die Zahl 6. Der Rechenschieber nimmt einem nun das Nachschlagen und Addieren ab, in dem die Skalen C und D logarithmisch aufgetragen sind und die Addition durch das Verschieben der Zunge erfolgt. Die gleiche Rechnung kann man auch mit den Skalen A und B durchführen, die gleich zwei Dekaden von 1-100 abdecken, wenn sie auf dem Schieber zur Verfügung stehen. Rechnet man kombiniert zwischen A und C oder B und D, so kann man gleichzeitig Wurzelziehen oder Quadrieren, muss aber den Läufer verwenden, um die Skalen genau ausrichten zu können. Die Erfindung des Läufers wird Sir Isaac Newton zugeschrieben. Die verschiedenen Skalen ermöglichen die Abbildung fast beliebiger Funktionen, auf fast allen Rechenschieber sind beispielsweise die trigonometrischen Funktionen enthalten, jedoch nur auf eingeschränkten Skalen. Hier muss man entweder die Symmetrieeigenschaften der jeweiligen Funktionen kennen, oder für tiefe Werte besondere Techniken oder Approximationen wie Taylorreihenentwicklungen kennen. Eine Nutzung des Rechenschiebers setzt auch immer die Fähigkeit zur Überschlagsrechnung voraus, bei der man vorab eine Abschätzung zum erwarteten Ergebnis bestimmt. Das bietet einen gewissen Schutz vor Fehlbedienungen, ist aber auch bei der Verwendung von Computern sinnvoll, da es immer wieder zu Fehlern in der Hardware kam, wie beispielsweise beim Pentium-FDIV-Bug, wo Rechnungen schlicht falsch ausgeführt wurden. Nicht nur vermeintlich korrekte Rechenergebnisse können zu Irrtum führen, auch ein blindes Verlassen auf Signifikanztests ist ebenso nicht zielführend, in dem Artikel Why Most Published Research Findings Are False schreibt John P. A. Ioannidis, wieso man sogar beweisen kann, dass inzwischen die meissten solcher Arbeiten auf begrenzten Arbeitsgebieten falsch sein müssen, da sie ihre Abhängigkeit von früheren Arbeiten nicht berücksichtigen. Einen Einblick in die Komplexität der Abschätzung des Treibstoffsverbrauchs bei Flugrouten bekommt man bei Folge 262 und Folge 263 im OmegaTau-Podcast beim Flug nach Hong Kong und zurück. Auch in Folge 291 zum Buschfliegen wird das Thema der Flugplanung berührt. Lange waren runde Rechenschieber zur Berechnung des Treibstoff-Verbrauchs im Flugzeug im Einsatz. Bei der langen Nacht der Mathematik gab es auch eine Ausstellung von Rechenmaschinen, die durch ihre mechanische Bauweise einen sonst verborgenen Einblick in die Rechentechnik liefern. Der angesprochene MegaProzessor zur Visualisierung der Rechentechnik aktueller Prozessoren wurde in FreakShow 222 besprochen und wird im Video zum MegaProzessor vorgestellt. Es gibt regelmäßige Treffen der deutschsprachigen Rechenschieberfreunde, die Rechenschieber-Sammler-Treffen (RST), zuletzt nach Publikation dieser Folge am 20. Oktober 2018 in Bruchsal. Eine interessanter Rechentrick ist die Berechnung von Additionen mit Hilfe von Division und Multiplikation auf dem Rechenschieber. Hier wird der Zusammenhang genutzt. Zur Addition wird damit der Quotient von x und y berechnet, um 1 addiert und wieder mit y multipliziert. Beim Rechnen mit dem logarithmischen Rechenschieber ist eher der relative gegenüber dem absoluten Fehler im Fokus. Genau das gilt auch für die Rechnung in Fließkommazahlen im Computer, wo das logarithmische Rechenstab-Prinzip durch den Exponentialteil zum Teil ebenfalls zu Anwendung kommt. Neben dem dekadischen Logarithmus zur Basis 10, der bei Logarithmentafeln und Rechenschieber zum Einsatz kommt, oder dem Logarithmus Dualis zur Basis 2 aus der Musik oder im Computer, gibt es auch einen natürlichen Logarithmus. Was bedeutet hier natürlich? Der natürliche Logarithmus ist die Umkehrfunktion der Exponentialfunktion, der Potenzfunktion zur Basis e. Diese Funktion hat die Eigenschaft, dass sie als einzige Funktion unter Differenziation, also z.B. der Berechnung von Geschwindigkeit aus Positionen, und Integration, also z.B. der Berechnung von Positionen aus Geschwindigkeiten, unverändert bleibt. Dies kann man sich auch an der Potenzreihenentwicklung der Exponentialfunktion veranschaulichen: Dann ist die Ableitung: Dadurch ist hat die Exponentialfunktion eine große Bedeutung für Modelle und Differenzialgleichungen. Darüber hinaus ist die Exponentialfunktion auch mit den trigonometrischen Funktionen in den komplexen Zahlen direkt miteinander verknüpft: Entsprechend beinhaltet auch der natürliche Logarithmus den Zusammenhang mit Analysis, Numerik und Trigonometrie und kann auf den komplexen Zahlen auch als ewige Spirale dargestellt werden. CC BY-SA 3.0: Leonid 2 In der Kryptographie spielen diskrete Logarithmen eine besondere Rolle, da Potenzfunktionen Kern des RSA-Verfahrens und der elliptischen Kryptographie sind: Im RSA-Verfahren werden Nachrichten auf endlichen Ringen mit einem Schlüssel potenziert, meisst 65537 beim öffentlichen Schlüssel, in der elliptischen Kryptographie wird die Nachricht abschnittsweise in den Exponenten geschrieben und auf einer speziellen elliptischen Kurve berechnet. Auch wenn es zum aktuellen Zeitpunkt noch keine grundsätzliche Lücken in den beiden Verfahren gibt, so ist es wichtig, diese auch korrekt umzusetzen. Ein berüchtigtes Beispiel ist die Perfect Forward Secrecy, die durch fahrlässige Implementationen zur LogJam-Attack führte. Ralph Pollandt hatte in der Polytechnischen Oberschule (POS) in den Klassenstufen 1-8 noch keine Vertiefung in die Mathematik vor Augen. Seine Faszination für Mathematik entstand aus Interesse an Knobelaufgaben in der Erweiterten Oberstufe (EOS) in den Klassen 9-12, wo er die Hochschulreife erlangte, und neben den Optionen zu Naturwissenschaften oder dem Lehramt, sich für das Studium und Promotion in der Mathematik entschied. Nach mehrjähriger ingenieurstechnischer Tätigkeit im Bauwesen, erlangte ihn der Ruf zur Mathematik-Professur an der Hochschule für angewandte Wissenschaften in Karlsruhe, wo er nun reich mit der Erfahrung aus der Anwendung zur Mathematik im Bauingenieurwesen lehrt. Literatur und weiterführende Informationen R. Pollandt: Bastelanleitung Rechenschieber R. Pollandt: Bedienungsanleitung zum Rechenschieber Seite der deutschsprachigen Rechenschieber-Sammler Rechenschieber im Rechnerlexikon, der Enzyklopädie des mechanischen Rechnens Podcasts K. Landzettel, T. Pritlove: Old School Computing, CRE: Technik, Kultur, Gesellschaft, Episode 193, Metaebene Personal Media, 2012. B. Ullmann, M. Völker: Analog Computers, Omega Tau Podcast, Episode 159, Nora Ludewig und Markus Völker, 2014. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, damalsTM Podcast, Episode 58, 2018. J. Müller, S. Ajuvo: Büromaschinen damals, damalsTM Podcast, Episode 50, 2017. K. Leinweber, S. Ajuvo: Taschenrechner, damalsTM Podcast, Episode 37, 2017.

video er hong kong prof thema computers dabei dar promotion rolle musik zeiten integration bei wissen hilfe fokus gesellschaft beispiel suche analysis einblick erfahrung augen schl basis bedeutung lange kultur fehler natur neben beginn nacht genau wert hardware einsatz interesse liste arbeiten nachrichten unterschiede zeitpunkt zusammenhang werte studium zahlen nachricht stellen ergebnis entwicklungen oft methode addition treffen schutz ruf zahl schulen funktion literatur ddr nutzung abh techniken anwendung typen fehlern aspekt systeme gewicht funktionen verfahren positionen flugzeug rechnung traditionen modelle konferenz ringen flug hochschule hersteller karlsruhe geschwindigkeit optionen betrachtung verwendung ausstellung chemie klassen komplexit physik verlassen zunge cc by sa freakshow eigenschaft mathematik flie skala kurve entsprechend visualisierung tafel spirale irrtum rechnungen quotient metern linien dekade ein weg john p wissenschaften berechnung sir isaac newton die basis differenzen leonid computern frequenzen vertiefung publikation tafeln die erfindung rechnet lehramt ullmann verschieben dekaden absch abbildung geschwindigkeiten enzyklop taschenrechner einen einblick aristo bauweise festigkeit konstanten schulbetrieb prozessoren lange nacht multiplikation bauwesen schieber diese zahlen kryptographie elastizit bruchsal wunschthemen skalen technikgeschichte diese funktion markus v bauingenieurwesen rechenschieber oktaven sr1 wachstumsprozesse nachschlagen klassenstufen flugrouten exponenten hochschulreife addieren numerik additionen potenzen ajuvo rechenmaschinen logarithmus dezimalsystem perfect forward secrecy omega tau podcast sebastian ritterbusch analogrechner trigonometrie das rechnen nora ludewig metaebene personal media rechentechnik modellansatz
Modellansatz
FPGA Seitenkanäle

Modellansatz

Play Episode Listen Later Aug 16, 2018 54:10


Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf sich Sebastian mit Dennis Gnad, um mit ihm über Seitenangriffe auf Field Programmable Gate Arrays (FPGA) zu sprechen. FPGAs sind veränderliche Computerchips, die hervorragend bei der Entwicklung von logischen Schaltkreisen oder spezieller Glue Logic helfen, und kommen inzwischen auch als Rechenbeschleuniger zum Einsatz. Man kann FPGAs als Vorstufe zu Application-Specific Integrated Circuits (ASIC) sehen, auf denen Strukturen noch viel feiner, für höhere Taktraten und sparsamer abgebildet werden können, das Design aber um Größenordnungen teurer ist. Und während einem ASIC die Funktion ab Werk einbelichtet ist, können FPGAs nahezu beliebig oft zur Laufzeit umprogrammiert werden. Wie im Podcast zu digitalen Währungen erwähnt, spielen Graphical Process Units (GPUs), FPGAs und ASICs eine große Rolle bei Kryptowährungen. Hier ist ein einzelner FPGA-Chip beim so genannten Mining meisst nicht schneller als eine GPU, verbrauchen jedoch im Vergleich deutlich weniger Strom. Spezialisierte ASICs hingegen übersteigen in Effizienz und Geschwindigkeit alle anderen Lösungen. FPGAs finden sich aktuell in vielen Consumer-Produkten, wie dem Apple iPhone 7, im Samsung Galaxy S5, Smart-TVs und selbst auch der Pebble Smartwatch. Ihren besonderen Vorteil spielen FPGAs bei der Verarbeitung von großen Datenmengen wie Videodaten aus, da sie in der Parallelisierung nur durch den verfügbaren Platz beschränkt sind. Die Beschreibung von FPGAs und ASICs, oder deren Programmierung, erfolgt eher strukturell in Hardwarebeschreibungssprachen wie Verilog oder VHDL. Diese Beschreibungen unterscheiden sich sehr von imperativen Programmiersprachen, wie sie oft für CPUs oder GPUs verwendet werden. Es werden in logischen oder kombinatorischen Blöcken Daten verarbeitet, die dann in Taktschritten von und in Datenregister übertragen werden. Die erreichbare Taktfrequenz hängt von der Komplexität der kombinatorischen Blöcke ab. Ein Beispiel für logische Blöcke können Soft-Cores sein, wo zukünftige oder nicht mehr erhältliche CPU-Designs in FPGAs zur Evaluation oder Rekonstruktion abgebildet werden. Eine Variante ist die Entwicklung in OpenCL, wo verschiedene Architekturen wie GPUs, CPUs und FPGA unterstützt werden. Für die effiziente Umsetzung ist dafür weiterhin großes Hardwarewissen erforderlich, und man kann nicht erwarten, dass Code für FPGAs ebenso auf GPU, oder umgekehrt CPU-Code in FPGAs darstellbar ist. Das Interesse von Dennis Gnad liegt bei den FPGAs darin, deren Daten, Logik oder Inhalte durch Seitenkanalangriffe in von den Entwicklern unvorhergesehener Art und Weise auszulesen. Ein Beispiel ist das Erkennen von Fernsehsendungen aus dem Stromverbrauch des Fernsehgeräts wie es auch schon im Podcast zu Smart Metern beschrieben wurde. Ebenso wurden schon Kryptoschlüssel aus Geräuschen einer CPU bestimmt. Mit Soundkarten kann man Funkuhren verstellen und auch Grafikkarten können als UKW-Sender verwendet werden. Die elektromagnetische Abstrahlung ist ein sehr klassischer Seitenkanal und ist als Van-Eck-Phreaking seit 1985 bekannt. Gerade wurden die Timing- und Speculative-Execution-Covered-Channel-Angriffe Spectre und Meltdown für einen großteil aktueller CPUs bekannt, die aktiv Seitenkanäle für verdeckten Informationszugriff nutzen. Normalerweise benötigen Power-Side-Angriffe, die den Stromverbrauch auswerten, physischen Zugang zum Gerät oder der Stromversorgung. Überraschenderweise ist es auf FPGAs hingegen möglich den Stromverbrauch anderer Schaltungsbestandteile rein durch Software zu bestimmen. Dazu werden FPGAs an der Grenze der Timing-Parameter betrieben, und statistisch die erfolgreiche Ausführung gemessen. Mit verschieden langen Pfaden können auch gleichzeitig die Zeitschranken verschieden stark belastet werden und damit gleichzeitig für mehrere Spannungsstufen ausgewertet werden. Damit kann der relative Spannungsverlauf kontinuierlich gemessen werden. Im Zuge seiner Forschung zu Voltage Fluctuations in FPGAs konnte Dennis Gnad die Qualität der Messungen nachweisen. Für die eigentliche Auswertung der Messungen werden hier die Verfahren der Differential Power Analysis verwendet, die nicht absolute Messungen, sondern mit relativen Messungen den Verlauf oder Unterschiede in den Verläufen statistisch analysieren. Speziell wurden mit dem Pearson Korrelations-Koeffizient verschiedene Schlüssel-Hypothesen mit modellierten Stromverläufen aufgestellt, um den Suchraum für einen kryptographischen AES-Schlüssel jeweils stückweise einzuschränken. Dafür musste die spezielle AES-Implementation auf dem FPGA bekannt sein, um entsprechende Leakage-Modelle für die Korrelationsauswertung aufstellen zu können. Insgesamt wurde so ein rein software-getriebener Angriff auf FPGAs demonstriert, der ohne sehr aufwändiges Code-Review-Verfahren, dessen Umsetzung bei VHDL ohnehin große Fragen aufwirft, kaum zu entdecken ist. Dennis betreibt die Forschung als Doktorand am Chair of Dependable Nano Computing (CDNC) am Karlsruher Institut für Technologie (KIT), deren Forschung besonders auf die Verlässlichkeit und auch der Sicherheit von Computersystemen abzielt. Die Forschungsarbeiten zu Seitenkanälen über den Stromverbrauch haben ebenso Anwendungen für die Zuverlässigkeit von den Systemen, da ebenso mit der Messung auch eine entsprechende Beeinflussung bis zur Erzeugung von Fehlerzuständen möglich wird, wie es von Dennis durch Fehlerzustände in der Stromversorgung zum Neustart von FPGAs demonstriert werden konnte. Mit Stuxnet wurde bekannt, dass auch Industrieanlagen mit Software zerstört werden konnten, es gab aber auch Computermonitore, die kreativ in neue Nutzungszustände gebracht wurden. Literatur und weiterführende Informationen D. Gnad: Seitenkanal-Angriffe innerhalb FPGA-Chips, Vortrag auf der GPN18, Karlsruhe, 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: An Inside Job: Remote Power Analysis Attacks on FPGAs, Cryptology ePrint Archive: Report 2018/012, Proceedings of Design, Automation & Test in Europe (DATE), 2018. D. Gnad, F. Oboril, M. Tahoori: Voltage Drop-based Fault Attacks on FPGAs using Valid Bitstreams, International Conference on Field-Programmable Logic and Applications (FPL), Belgium, 2017. A. Moradi, F.-X. Standaert: Moments-Correlating DPA, Cryptology ePrint Archive: Report 2014/409, Theory of Implementations workshop, 2016. P. Kocher, J. Jaffe, B. Jun, et al: Introduction to differential power analysis, J Cryptogr Eng 1: 5, 2011. E. Brier, C. Clavier, F. Olivier: Correlation power analysis with a leakage model, International workshop on cryptographic hardware and embedded systems. Springer, Berlin, Heidelberg, 2004. Cryptology ePrint Archive Search Portal Side Channel Cryptanalysis Lounge - Ruhr-Universität Bochum D. Gnad, F. Oboril, S. Kiamehr, M. Tahoori: An Experimental Evaluation and Analysis of Transient Voltage Fluctuations in FPGAs, in IEEE Transactions on Very Large Scale Integration Systems (TVLSI), 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: Remote Inter-Chip Power Analysis Side-Channel Attacks at Board-Level], In Proceedings of IEEE/ACM International Conference on Computer-Aided Design (ICCAD), USA, 2018. (to appear Nov. '18) J. Krautter, D. Gnad, M. Tahoori: FPGAhammer: Remote Voltage Fault Attacks on Shared FPGAs, suitable for DFA on AES], in IACR Transactions on Cryptographic Hardware and Embedded Systems (TCHES), Vol.1, No.3, 2018. (to appear Sept. '18)Podcasts A.-L. Baecker, C. Schrimpe: Crypto for the Masses – Grundlagen, Request for Comments, Der RFC Podcast, Folge 15, 2018. M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. S. Ritterbusch, G. Thäter: Digitale Währungen, Gespräch im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. B. Heinz, T. Pritlove: FPGA, CRE: Technik, Kultur, Gesellschaft, Folge 117, Metaebene Personal Media, 2009.GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauenGPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meterGPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

Modellansatz - English episodes only

Gudrun is speaking with the portuguese engineer Bruno Pousinho. He has been a student of the Energy Technologies (ENTECH) Master program. This is an international and interdisciplinary program under the label of the European Institute of Innovation and Technology (EIT) inbetween a number of European technical universities. Bruno spent his second master year at the Karlsruhe Institute of Technology (KIT). Gudrun had the role of his supervisor at KIT while he worked on his Master's thesis at the Chair of Renewable and Sustainable Energy Systems (ENS) at TUM in Garching. His direct contact person there was Franz Christange from the group of Prof. Thomas Hamacher. Renewable energy systems are a growing part of the energy mix. In Germany between 1990 and 2016 it grew from 4168 GW to 104024 GW. This corresponds to an annual power consumption share of 3.4% and 31.7%, respectively. But in the related research this means a crucial shift. The conventional centralized synchronous machine dominated models have to be exchanged for decentralized power electronic dominated networks - so-called microgrids. This needs collaboration of mechanical and electrical engineers. The interdisciplinary group at TUM has the goal to work on modeling future microgrids in order to easily configure and simulate them. One additional factor is that for most renewable energy systems it is necessary to have the right weather conditions. Moreover, there is always the problem of reliability. Especially for Photovoltaics (PV) and wind turbines Weather phenomena as solar irradiation, air temperature and wind speed have to be known in advance in order to plan for these types of systems. There are two fundamentally different approaches to model weather data. Firstly the numerical weather and climate models, which provide the weather forecast for the next days and years. Secondly, so-called weather generators. The numerical models are very complex and have to run on the largest computer systems available. For that in order to have a simple enough model for planning the Renewable energy resources (RER) at a certain place weather generators are used. They produce synthetic weather data on the basis of the weather conditions in the past. They do not predict/forecast the values of a specific weather phenomenon for a specific time but provides random simulations whose outputs show the same or very similar distributional properties as the measured weather data in the past. The group in Garching wanted to have a time dynamic analytical model. The model is time continuous which grant it the ability of having any time sampling interval. This means it wanted to have a system of equations for the generation of synthetic weather data with as few as possible parameters. When Bruno started his work, there existed a model for Garching (developped by Franz Christange) with about 60 parameters. The aim of Bruno's work was to reduce the number of parameters and to show that the general concept can be used worldwide, i.e. it can adapt to different weather data in different climate zones. In the thesis the tested points range from 33º South to 40º North. In the synthesis of the weather generator the crucial tool is to use stochastic relations. Mostly the standard normal distribution is applied and shaped for the rate of change and corelation between RER. In particular this means that it describes the fundamental behavior of weather (mean, standard deviation, time- and cross-correlation) and introduces them into white noise in an analytical way. This idea was first introduced for crop estimation by Richardson in 1985. Time-dependence works on different time scales - through days and through seasons, e.g.. In the Analysis it is then necessary to parametrize the measured weather data and to provide a parameter set to the weather model. Bruno started his Master course in Lisbon at Instituto Superior tecnico (IST). In his second year he changed to KIT in Karlsruhe and put his focus on Energy systems. In his thesis he uses a lot of mathematics which he learned during his Bachelor education and had to recall and refresh. The results of the project are published in the open source model 'solfons' in Github, which uses Python and was developed in MATLAB. References F. Christange & T. Hamacher: Analytical Modeling Concept for Weather Phenomena as Renewable Energy Resources, in IEEE International Conference on Renewable Energy Research and Applications (ICRERA), 2016. doi: 10.1109/ICRERA.2016.7884551 P. Ailliot, D. Allard, P. Naveau, C. D. Beaulieu, R. Cedex: Stochastic weather generators, an overview of weather type models, Journal de la Société Française de Statistique, Vol. 156, No 1, pp. 1-14, 2015. C.L. Wiegand, A.J. Richardson: Leaf area, light interception, and yield estimates from spectral components analysis, Agron. J., 76, 543, 1984. solfons: Artificial wheater data for energy system modeling, Software at GitHub. Podcasts S. Seier, T. Alexandrin: Blindstrom - Der Energie Podcast, 2016-2017. M. Völter, V. Hagenmeyer: Stromnetze, ein Überblick, omega tau Podcast, Episode 246, 2017. K. A. Zach, L. Bodingbauer: Energiespeicher, PHS186 in der Physikalischen Soiree, 2013. F. Trieb, T. Pritlive: Energie der Zukunft, RZ033 im Raumzeit Podcast, Metaebene Personal Media, 2012.

Modellansatz
Weather Generator

Modellansatz

Play Episode Listen Later Nov 16, 2017 38:24


Gudrun is speaking with the portuguese engineer Bruno Pousinho. He has been a student of the Energy Technologies (ENTECH) Master program. This is an international and interdisciplinary program under the label of the European Institute of Innovation and Technology (EIT) inbetween a number of European technical universities. Bruno spent his second master year at the Karlsruhe Institute of Technology (KIT). Gudrun had the role of his supervisor at KIT while he worked on his Master's thesis at the Chair of Renewable and Sustainable Energy Systems (ENS) at TUM in Garching. His direct contact person there was Franz Christange from the group of Prof. Thomas Hamacher. Renewable energy systems are a growing part of the energy mix. In Germany between 1990 and 2016 it grew from 4168 GW to 104024 GW. This corresponds to an annual power consumption share of 3.4% and 31.7%, respectively. But in the related research this means a crucial shift. The conventional centralized synchronous machine dominated models have to be exchanged for decentralized power electronic dominated networks - so-called microgrids. This needs collaboration of mechanical and electrical engineers. The interdisciplinary group at TUM has the goal to work on modeling future microgrids in order to easily configure and simulate them. One additional factor is that for most renewable energy systems it is necessary to have the right weather conditions. Moreover, there is always the problem of reliability. Especially for Photovoltaics (PV) and wind turbines Weather phenomena as solar irradiation, air temperature and wind speed have to be known in advance in order to plan for these types of systems. There are two fundamentally different approaches to model weather data. Firstly the numerical weather and climate models, which provide the weather forecast for the next days and years. Secondly, so-called weather generators. The numerical models are very complex and have to run on the largest computer systems available. For that in order to have a simple enough model for planning the Renewable energy resources (RER) at a certain place weather generators are used. They produce synthetic weather data on the basis of the weather conditions in the past. They do not predict/forecast the values of a specific weather phenomenon for a specific time but provides random simulations whose outputs show the same or very similar distributional properties as the measured weather data in the past. The group in Garching wanted to have a time dynamic analytical model. The model is time continuous which grant it the ability of having any time sampling interval. This means it wanted to have a system of equations for the generation of synthetic weather data with as few as possible parameters. When Bruno started his work, there existed a model for Garching (developped by Franz Christange) with about 60 parameters. The aim of Bruno's work was to reduce the number of parameters and to show that the general concept can be used worldwide, i.e. it can adapt to different weather data in different climate zones. In the thesis the tested points range from 33º South to 40º North. In the synthesis of the weather generator the crucial tool is to use stochastic relations. Mostly the standard normal distribution is applied and shaped for the rate of change and corelation between RER. In particular this means that it describes the fundamental behavior of weather (mean, standard deviation, time- and cross-correlation) and introduces them into white noise in an analytical way. This idea was first introduced for crop estimation by Richardson in 1985. Time-dependence works on different time scales - through days and through seasons, e.g.. In the Analysis it is then necessary to parametrize the measured weather data and to provide a parameter set to the weather model. Bruno started his Master course in Lisbon at Instituto Superior tecnico (IST). In his second year he changed to KIT in Karlsruhe and put his focus on Energy systems. In his thesis he uses a lot of mathematics which he learned during his Bachelor education and had to recall and refresh. The results of the project are published in the open source model 'solfons' in Github, which uses Python and was developed in MATLAB. References F. Christange & T. Hamacher: Analytical Modeling Concept for Weather Phenomena as Renewable Energy Resources, in IEEE International Conference on Renewable Energy Research and Applications (ICRERA), 2016. doi: 10.1109/ICRERA.2016.7884551 P. Ailliot, D. Allard, P. Naveau, C. D. Beaulieu, R. Cedex: Stochastic weather generators, an overview of weather type models, Journal de la Société Française de Statistique, Vol. 156, No 1, pp. 1-14, 2015. C.L. Wiegand, A.J. Richardson: Leaf area, light interception, and yield estimates from spectral components analysis, Agron. J., 76, 543, 1984. solfons: Artificial wheater data for energy system modeling, Software at GitHub. Podcasts S. Seier, T. Alexandrin: Blindstrom - Der Energie Podcast, 2016-2017. M. Völter, V. Hagenmeyer: Stromnetze, ein Überblick, omega tau Podcast, Episode 246, 2017. K. A. Zach, L. Bodingbauer: Energiespeicher, PHS186 in der Physikalischen Soiree, 2013. F. Trieb, T. Pritlive: Energie der Zukunft, RZ033 im Raumzeit Podcast, Metaebene Personal Media, 2012.

Modellansatz
Lokale Turbulenzen

Modellansatz

Play Episode Listen Later Sep 27, 2017 84:56


Nikki Vercauteren erforscht an der Freien Universität Berlin die mehrskalige Analyse von atmosphärischen Prozessen und traf sich mit Sebastian Ritterbusch in der Urania Berlin, um über ihre Forschung und ihre Experimente auf Gletschern zu sprechen. Zum Zeitpunkt der Aufnahme fand in der Urania das Banff Mountain Film Festival, des Banff Centre for Arts and Creativity aus Kanada, statt. Auf dem Campus des Banff Centre befindet sich auch die Banff International Research Station (BIRS), ein Forschungsinstitut und Tagungsort nach Vorbild des Mathematischen Forschungsinstituts Oberwolfach, das sich der mathematischen Forschung und internationalen Zusammenarbeit verschrieben hat, und welches Nikki Vercauteren Anfang des Jahres zu einem Workshop besuchen konnte. Das Forschungsgebiet der Meteorologie umfasst viele Phänomene, von denen einige durch Fluiddynamik beschrieben werden können. Dabei geht es um eine große Menge von Skalen, von der globalen Perspektive, über kontinentale Skalen zur Mesoskala im Wetterbericht und der Mikroskala zu lokalen Phänomenen. Die Skalen bilden sich auch in den Berechnungsmodellen für die Wettervorhersage wieder. Das Europäische Zentrum für mittelfristige Wettervorhersage (EZMW) betrachtet die globale Perspektive mit Hilfe von Ensemblevorhersagen. Von dort verfeinert das aus dem lokalen Modell des Deutschen Wetterdienstes (DWD) entstandene COSMO Modell die Vorhersage auf die europäische und schließlich nationale Ebenen. Hier geht es um die sehr lokale Analyse von Windgeschwindigkeiten, die bis zu 20mal pro Sekunde gemessen werden und damit die Analyse von lokalen Turbulenzen bis zum natürlichem Infraschall ermöglichen. Die Erfassung erfolgt mit Ultraschallanemometer bzw. ultrasonic anemometers, wo bei manchen Typen durch die Erfassung des Doppler-Effekts bewegter Staubteilchen die Bewegungsgeschwindigkeit der Luft durch mehrere Sensoren räumlich bestimmt wird. Teilweise werden auch Laser-Anemometer eingesetzt. Im Rahmen ihrer Promotion in Umweltwissenschaften an der École Polytechnique Fédérale de Lausanne (EPFL) bekam Sie die Gelegenheit selbst vor Ort eine Messanlage auf einem Gletscher mit aufzubauen und in Stand zu halten. Der See- und Landwind sind typische Phänomene in der mikroskaligen Meteorologie, die Nikki Vercauteren zu ihrer Promotion am Genfersee zur Analyse von turbulenten Strömungen von Wasserdampf untersucht hat. Mit mehreren Laser-Doppler-Anemometern in einer Gitter-Aufstellung konnte sie so die Parametrisierung einer Large Eddy Simulation dadurch testen, in dem sie die im Modell angesetzte Energie in den kleinen Skalen mit den tatsächlichen Messungen vergleichen konnte. Kernpunkt der Betrachtung ist dabei das Problem des Turbulenzmodells: Als Verwirbelung in allen Skalen mit teilweise chaotischem Verhalten ist sie nicht vorhersagbar und kaum vollständig mathematisch beschreibbar. Sie spielt aber wegen der wichtigen Eigenschaften der Vermischung und Energietransfers eine elementare Rolle im Gesamtsystem. Glücklicherweise haben Turbulenzen beobachtete statistische und gemittelte Eigenschaften, die modelliert und damit im gewissen Rahmen und diesem Sinne mit Hilfe verschiedener Modelle durch identifizierte Parameter simuliert werden können. Besonderes Augenmerk liegt dabei auf der Betrachtung der Grenzschicht über dem Erdboden, die zum einen durch die Sonneneinstrahlung besonders durch die Aufwärmung und Abkühlung der Erdoberfläche beinflusst wird und gleichzeitig den Bereich beschreibt, wo das bewegte Fluid Luft auf die stehenden Erde reagiert. Eine meteorologische Eigenschaft der unteren Grenzschicht ist das theoretische logarithmische Windprofil, das aber bei Sonneneinstrahlung oder Nachts durch Verformung der Turbulenzen Korrekturterme erforderlich macht. In einer Temperaturinversion wird die Grenzschicht stabiler und es bildet sich weniger Turbulenz aus, wodurch sich Schadstoffe auch weniger verteilen können. In diesen Wetterlagen kann sich durch den fehlenden Luftaustausch im Stadtgebiet leichter Smog bilden. Entgegen der Theorie kann es interessanterweise trotz stabiler Schichtung zu Turbulenzen kommen: Ein Grund dafür sind Erhebungen und Senken des Bodens, die Luftpakete beeinflussen und damit lokale Turbulenzen erzeugen können. Eine besondere Fragestellung ist hier die Frage nach der Intermittenz, wann ein stabiles dynamisches System chaotisch werden kann und umgekehrt. Ein anschauliches Beispiel von Intermittenz ist das Doppelpendel, das von einem sehr stabilen Verhalten plötzlich in chaotisches Verhalten umschwenken kann und umgekehrt: Trajektorie eines DoppelpendelsCC-BY-SA 100 Miezekatzen Leider ist bisher die Intermittenz in der Wettervorhersage nicht alleine aus der Theorie zu berechnen, jedoch kann man die Richardson-Zahl bestimmen, die den Temperaturgradienten in Verhältnis zur Windscherung stellt. Dieses Verhältnis kann man auch als Verhältnis der Energieverteilung zwischen kinetischer Bewegungsenergie und potentieller Wärmeenergie sehen und daraus Schlüsse auf die zu erwartende Turbulenz ziehen. Als ein dynamisches System sollten wir ähnlich wie beim Räuber-Beute Modell eine gegenseitige Beeinflussung der Parameter erkennen. Es sollte hier aus der Theorie auch eine kritische Zahl geben, ab der Intermittenz zu erwarten ist, doch die Messungen zeigen ein anderes Ergebnis: Gerade nachts bei wenig Turbulenz entstehen Zustände, die bisher nicht aus der Theorie zu erwarten sind. Das ist ein Problem für die nächtliche Wettervorhersage. In allgemeinen Strömungssimulationen sind es oft gerade die laminaren Strömungen, die besonders gut simulierbar und vorhersagbar sind. In der Wettervorhersage sind jedoch genau diese Strömungen ein Problem, da die Annahmen von Turbulenzmodellen nicht mehr stimmen, und beispielsweise die Theorie für das logarithmische Windprofil nicht mehr erfüllt ist. Diese Erkenntnisse führen auf einen neuen Ansatz, wie kleinskalige Phänomene in der Wettervorhersage berücksichtigt werden können: Die zentrale Frage, wie die in früheren Modellen fehlende Dissipation hinzugefügt werden kann, wird abhängig von der beobachteten Intermittenz mit einem statistischen Modell als stochastischen Prozess beantwortet. Dieser Ansatz erscheint besonders erfolgsversprechend, wenn man einen (nur) statistischen Zusammenhang zwischen der Intermittenz und der erforderlichen Dissipation aus den Beobachtungen nachweisen kann. Tatsächlich konnte durch statistisches Clustering und Wavelet-Analyse erstmalig nachgewiesen werden, dass im bisher gut verstanden geglaubten so genannten stark stabilen Regime es mehrere Zustände geben kann, die sich unterschiedlich verhalten. Für die Entwicklung der Wavelet-Transformation erhielt Yves Meyer den 2017 den Abelpreis. Im Gegensatz zur Fourier-Transformation berücksichtig die Wavelet-Transformation z.B. mit dem Haar-Wavelet die von der Frequenz abhängige zeitliche Auflösung von Ereignissen. So können Ereignisse mit hohen Frequenzen zeitlich viel genauer aufgelöst werden als Ereignisse mit tiefen Frequenzen. Das von Illia Horenko vorgeschlagene FEM-BV-VARX Verfahren kann nun mit den Erkenntnissen angewendet werden, in dem die verschiedenen Regimes als stochastische Modelle berücksichtigt und durch beobachtete bzw. simulierte externe Einflüsse gesteuert werden können. Darüber hinaus konnten weitere interessante Zusammenhänge durch die Analyse festgestellt werden: So scheinen im stabilen Regime langsame Wellenphänomene über mehrere Skalen hinweg getrennt zeitliche schnelle und lokale Turbulenzen auszulösen. Andere Phänomene verlaufen mit stärkeren Übergängen zwischen den Skalen. Aus der Mathematik ist Nikki Vercauteren über die Anwendungen in der Physik, Meteorologie und Geographie nun wieder zurück in ein mathematisches Institut zurückgekehrt, um die mathematischen Verfahren weiter zu entwickeln. Literatur und weiterführende Informationen N. Vercauteren, L. Mahrt, R. Klein: Investigation of interactions between scales of motion in the stable boundary layer, Quarterly Journal of the Royal Meteorological Society 142.699: 2424-2433, 2016. I. Horenko: On the identification of nonstationary factor models and their application to atmospheric data analysis, Journal of the Atmospheric Sciences 67.5: 1559-1574, 2010. L. Mahrt: Turbulence and Local Circulations Cesar Observatory, Cabauw site for meteorological research. Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. I. Waltschläger: Windsimulationen im Stadtgebiet, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruhe Institut für Technologie (KIT), 2014. L. Wege: Schwebestaub und Wassertröpfchen. Wie Wolken Wetter machen. Folge 5 im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, 2017. M. Wendisch: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. R. Heise, K. Ohlmann, J. Hacker: Das Mountain Wave Project, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 042, 2010. B. Marzeion: Gletscher, Podcast Zeit für Wissenschaft von Melanie Bartos, Universität Innsbruck, 2015. B. Weinzierl: Die Atmosphäre, Raumzeit Podcast von Tim Pritlove, Metaebene Personal Media, 2011.

stand system arts mit creativity berlin journal als dabei workshop dar promotion rolle campus hilfe entwicklung energie beispiel ort schl universit bereich rahmen verh analyse sinne luft prozess menge perspektive zusammenarbeit zusammenhang erde verhalten aufnahme wissenschaft str technologie ereignisse tats institut gelegenheit forschung vorbild regime zahl ansatz theorie modell eigenschaften kanada zentrum literatur zusammenh ebenen aufl typen einfl verfahren erkenntnissen ereignissen abk zust modelle sekunde experimente betrachtung physik prozessen beobachtungen anwendungen eigenschaft mathematik innsbruck nachts im gegensatz smog modellen regimes aufw frequenz ein grund teilweise parameter lokale annahmen fragestellung entgegen turbulenzen atmospheric science fakult sensoren beeinflussung vorhersage gletscher frequenzen heise erfassung senken clustering messungen schadstoffe zum zeitpunkt erdboden geographie banff centre freien universit wetterbericht meteorologie urania wettervorhersage quarterly journal forschungsinstitut bodens stadtgebiet erdoberfl karlsruher institut besonderes augenmerk das europ erhebungen vermischung gletschern dissipation podcast zeit genfer see tim pritlove dieser ansatz der see sonneneinstrahlung wasserdampf diese erkenntnisse lausanne epfl wassertr technologie kit wetterlagen skalen kernpunkt gesamtsystem polytechnique f infraschall banff mountain film festival royal meteorological society karlsruher instituts turbulenz energieverteilung tagungsort die erfassung verformung schichtung parametrisierung bewegungsenergie staubteilchen luftaustausch markus voelter sebastian ritterbusch windscherung grenzschicht das forschungsgebiet modellansatz podcast nora ludewig metaebene personal media
Neues Terrain
Raumklang

Neues Terrain

Play Episode Listen Later Sep 21, 2017 163:10


Mit unserem Gehör können wir Geräusche unmittelbar orten und identifizieren. Um diese Fähigkeit sinnvoll im Projekt nutzen zu können, gibt uns Dr. Paul Modler einen Einblick in Raumklang. Die Abteilung Medienkunst Akustik (MK Akustik) der Staatlichen Hochschule für Gestaltung (HfG) in Karlsruhe befasst sich mit elektronischer und elektroakustischer Musik, Klanginstallation und Sonifikation. Sie wird von Dr. Paul Modler geleitet, der uns in diesem Gespräch einen Einblick in Raumakustik und Techniken für räumliches Hörempfinden über Kopfhörer geben konnte. Paul Modler ist gerade von einem Besuch der Ars Electronica in Linz zurückgekehrt. Ein hervorgehobenes Event des Festivals der elektronischen Künsten war die Klangwolke einer Story mit Feuerwerk, Maschinen, Jets und Booten auf der Donau. Der Wettbewerb Prix Ars Electronica gab einen Einblick, welche aktuellen Richtungen die durchaus diskutierte Medienkunst darbietet. Nach seinem Diplom in den Ingenieurwissenschaften an der ehemaligen Universität Karlsruhe (jetzt Karlsruher Institut für Technologie (KIT)) zur Signalverarbeitung und Filterentwurf des Waveterm Synthesizer der Palm Products GmbH (PPG), gelangte Paul Modler an die University of York, wo er im Bereich der Music Technology promovierte und von dort an die Hochschule für Gestaltung in die Medienkunst geworben wurde. Seine Forschungsinteressen gehen auch in Richtung des Mehrkanaltons, insbesondere im Verfahren der Ambisonics, das nach langer Durststrecke inzwischen sogar als Raumklangformat bei YouTube Einzug gehalten hat. Die MK Sound setzt sich mit der Frage der Musikerstellung, der Definition und möglichen Instrumenten sowie der Technik, Installation und Performance in einem sehr breiten Spektrum interdisziplinär auseinander. Es gibt Lehrveranstaltungen zur analogen Tonerzeugung, wie auch die Auseinandersetzung mit neuen digitalen Einflüssen und die Abbildung analoger Synthesizern auf mobilen Geräten wie bei Korg. Die Gruppe wird auch von besuchenden Künstlern wie John Richards in Richtung Circuit Bending inspiriert. Dies führt zu faszinierenden Abschlussarbeiten wie den Atmospheric Disturbances von Lorenz Schwarz, wo Raumklang mit Plasmalautprechern künstlerisch umgesetzt wurde. Interessante Impulse entstehen auch aus der Zusammenarbeit mit weiteren Instituten und Hochschulen: So beteiligen sich auch oft Studierende des KIT an Projekten. Die Aufnahme fand im Studio 311 der MK Sound statt, wo die Gruppe einen mobilen Klangdom installiert hat, um an ambisonischen Verfahren zu arbeiten und ihn musikalisch zu nutzen. Zur Ansteuerung kommt hier die Software Zirkonium wie auch die Software des Institut de Recherche et Coordination Acoustique/Musique (IRCAM) „Spat“ zum Einsatz, sowie andere verfügbare Verräumlichungstools. Ein Aspekt ist dabei auch der Wandel der Sicht auf den Lautsprecher vom Mittel zum Zweck hin zu einem eigenständigen Musikinstrument. Die Hochschule für Gestaltung in Karlsruhe ist eingerahmt und im gleichen Haus wie das Museum für neue Kunst und das ZKM – Zentrum für Kunst und Medien und  Medienmuseum. So arbeitet die MK Sound natürlich eng mit dem von Prof. Ludger Brümmer geleiteten Institut für Musik und Akustik am ZKM zusammen. Das Institut bietet insbesondere auch der Diskussion musikalisch digitalen elektroakustischen Bereich eine Plattform und hat mit dem Klangdom im ZKM Kubus eine etablierte Referenzplattform für Raumklang. Zusammen mit der HfG wurde dazu auch 2015 das inSonic Festival zu Raumklang ausgerichtet, das sich im inSonic Festival Dezember 2017 wiederholt. Die große Bandbreite des Instituts zeigt sich auch in häufigen Kraftwerk-Konzerten bis hin zu häufigen Linux Audio Konferenzen. Der ehemalige Kraftwerk-Musiker Florian Schneider-Esleben war auch 1998 als Professor für Medienkunst und Performance an die HfG berufen. Ende letzten Jahres fand am Institut auch das Strömungen Symposium zu künstlerischer Sonifikation statt. Durch unser Gehör und Körper nehmen wir Schallwellen wahr, soweit sich diese etwa im Hörbereich von etwa 20-20kHz und einem davon abhängigen Pegel befindet.  Assoziieren wir einen Sinn oder gewisse Ästhetik in ein Geräusch, so mögen wir es als Klang bezeichnen, der Teil einer Musik sein kann. Ein Teil der Akustikempfindung wird in der Psychoakustik beschrieben, die auch sehr exakt mit der Hörbarkeit von Geräuschen und Auswirkung von Wahrnehmungen auf den Menschen analysiert. Diese Analyse hat erst den Erfolgszug der verlustbehafteten Audiokompression möglich gemacht. Für die Aufnahme von Raumklang spielt die Positionierung der Mikrofone eine besondere Rolle: Da eine Aufnahme aus allen Richtungen an einem Punkt nicht möglich ist, müssen Mikrofone mit gewissen Abstand von einander positioniert werden, wodurch der Raum diskretisiert wird. Besonders beispielhaft für die Auswirkung der Diskretisierung sind Werke von John Chowning, der die Frequenzmodulations-Synthese aus der Raumklangforschung heraus für Synthesizer patentierte. Hier erhält man an leicht unterschiedlichen Positionen mit klassischem Soundfeld Mikrofon oder mit Ambeo VR Mikrofon ein völlig anderes Konzerterlebnis. Im Rahmen einer Stereoaufnahme und -reproduktion durch Lautsprecher entstehen Phantomschallquellen um die Lautsprecher, soweit man sich exakt im Sweet Spot des Stereodreiecks befindet. Empirisch zeigt sich, dass die Verwendung von zusätzlich an die Wand gedrehten Treibern, wie beim Acoustimass-System ein immersiveres Stereoempfinden erzeugt wird. Das räumliche Empfinden im Kopf entsteht zunächst durch Intensitäts- oder Pegelunterschiede und Laufzeitunterschieden zwischen den Ohren, die vom Gehirn rekonstruiert und die virtuelle Position der Schallquellen rekonstruiert wird. Sehr individuell spielt aber auch die Kopf- und Körperform eine große Rolle, denn je nach Kopfgröße sind die Ohren unterschiedlich weit voneinander entfernt, die Ohrmuschel unterschiedlich geformt und die Schultern unterschiedlich weit entfernt. Dadurch ergeben sich eine durch frequenzabhängige Intensitäts- und Laufzeitsunterschiede resultierende Filterung, die als Head-Related Transfer Function (HRTF) bzw. Kopfübertragungsfunktion bezeichnet wird. Die Berücksichtigung dieser Abbildung führt zur binauralen Aufnahme und Reproduktion. Eine weitere Wahrnehmungsmöglichkeit ist der Raumschall, wo eine räumliche Wahrnehmung durch die Beziehung zum Raum ermöglicht wird. Daher muss man in der Stereofonie deutlich zwischen Lautsprecheraufnahmen und Kopfhöreraufnahmen unterscheiden, da die Reproduktion über Kopfhörer die Berücksichtigung der Kopfübertragungsfunktion erforderlich ist. Der Weg zu Mehrkanal-Tonsystemen führte von der Stereofonie zunächst zur Quadrofonie für Systeme mit vier Lautsprechern, die im Vergleich zum Aufwand einen begrenzten Gewinn des Raumklangs unter Einführung weiterer unerwünschter Effekte bewirkte. Da sich keine Aufzeichnungssysteme für dieses Tonsystem wirklich kommerziell durchsetzen konnten, war das System wenig verbreitet. Die sehr verwandten Dolby Surround oder 5.1-Systeme haben sich durch leichte Veränderung des Systems im Film- und Kinobereich dagegen sehr durchgesetzt. Für den Film war es sehr wichtig, dass Einführung des zentralen Center-Lautsprechers die räumliche Positionierung der Schauspieler deutlich verbessert hat, und die Verwendung von Subwoofer bzw. des LFE-Kanals auch preiswertere immersive Installationen durch Satelliten-Lautsprecher ermöglicht hat. Als großer Kritiker der Quadrofonie entwickelte Michael Gerzon 1973 mathematisch-physikalisch fundierte Ambisonics-Verfahren, um auf einer beliebigen Anzahl von Lautsprechern einen Raumklang aufnehmen, aufzeichnen und wiedergeben zu können. Während ein System nullter Ordnung mit einem einzigen Kugelmikrofon und Kugellautsprecher realisiert werden kann, sind ab erster Ordnung schon mindestens acht Lautsprecher für eine sinnvolle Reproduktion erforderlich. Leider müssten sehr viele Mikrofone für das Verfahren alle koinzident in einem Punkt positioniert werden, was mit herkömmlicher Aufnahmetechnik nicht optimal realisierbar ist, und dafür von Gerzon besondere Mikrofonkonfigurationen entwickelt wurden, die das koinzidente Signal rekonstruieren können. Im Bereich der Meteorologie gibt es Ultraschallanemometer, die tatsächlich die Luftbewegung im Raum in einem einzelnen Messraum bestimmen können, nur ist dies aktuell nur im Aufnahmebereich räumlich gemittelt bis zu 200mal pro Sekunde bis maximal in den Infraschallbereich möglich. Eine frühe berühmte und umstrittene Raumklang-Installation war der Philips Pavilion bzw. Poème électronique auf der Weltausstellung Expo 58 in Brüssel, wo die an hyperbolischen Trajektorien aufgestellten Lautsprecher als diskrete wandernde Tonquellen benutzt wurden. Zur Weltausstellung Expo 70 in Osaka entwarf Karlheinz Stockhausen für den deutschen Pavillon das Kugelauditorium, in dem die Ansteuerung der Lautsprecher durch einen Drehhebel erreicht werden konnte. Ein ähnliches Verfahren ist das Vector Based Amplitude Panning (VBAP)-Prinzip, das von Ville Pulkii 1997 wissenschaftlich ausgearbeitet wurde. Im Gegensatz zu den früheren Installationen verlangen ambisonische Verfahren sehr regelmäßige Lautsprecherpositionen, da das Verfahren ideal als Fourier-Synthese auf einer Sphäre interpretiert werden kann. Praktisch gibt es auf einer Kugeloberfläche nur wenige exakt equidistante Punktmengen auf Basis der platonischen Körper, dazu sind volle Sphären eine architektonische Herausforderung und aufgrund unseres geringen Lokalisationsfähigkeit im Vertikalen nur von begrenztem Nutzen. Daher werden die Lautsprecher nur in einer oberen Halbsphäre mit nach oben abnehmender Anzahl pro Lautsprechern im Radius installiert. Die ambisonische Raumklang-Demonstration ist ein Teil aus dem Stück „Parallel“ von Paul Modler, das bei einer Aufführung zusätzlich bewegliche Hörner und ein Wellenfeld-Array anspricht. Im Gegensatz zu Mehrkanal-Tonsystemen berücksichtigt der binaurale Raumklang die Kopfübertragungsfunktion und ist nur für die Erfahrung über Kopfhörer gedacht. Zur Erzeugung von binauralen Signalen kann man auf Kunstkopf– oder In-Ear oder Orginal-Kopf-Mikrofone (OKM) zurückgreifen. Alternativ kann man Schallquellen synthetisch über die HRTF auf die Wirkung auf die Ohren berechnen. Zur Erfassung der individuellen HRTF werden Mikrofone in die Ohren installiert und robotergesteuert Lautsprecher an verschiedene Positionen um die Versuchsperson gefahren. Die Lautsprecher spielen dann jeweils Klicks oder Chirps, um die Impulsantwort des Signals, die Head-Related Impulse Response zu bestimmen. Die HRTF ergibt sich dann als Fourier-Transformite der Impulsantwort. Alternativ können auf niedrigerem Niveau auch halbsphärische Lautsprecher wie im Klangdrom statt einer langsamen Robotersteuerung verwendet werden. Impulsantworten existieren grundsätzlich nur auf einer begrenzten Anzahl von Filterpunkten, zwischen denen nach VBAP-Prinzip auch Zwischenpunkte berechnet werden und Klänge aus beliebigen Richtungen im zwischen Punkten im Diskretisierungsgitter abgebildet werden. Eine Herausforderung bleibt die Kopfbewegung, die mit Head-Trackern für einen immersiven Eindruck berücksichtigt werden muss, man sich also zum Klang hindrehen können muss. Das ist eine entsprechende Herausforderung der Virtual Reality, wo die Bewegung des Kopfes auch unmittelbar in die Darstellung berücksichtigt werden muss. Die räumliche Abbildung von Tönen ergibt auch neue Möglichkeiten in der Sonifikation, um Informationen nicht nur klanglich unterscheidbar sondern auch räumlich lokalisiert abgebildet werden kann. Dabei ist zu berücksichtigen, dass visuelle Eindrücke akustische Ereignisse verfälschen können. Bei steigender Komplexität der verwendeten Modelle, muss das Verständnis für Sonifikation auch erlernt werden. Literatur und weiterführende Informationen S. Carlile: Psychoacoustics, Signification Handbook, Logos Publishing House, 2011. B. N. Walker, M. A. Nees: Theory of Sonification, Sonification Handbook, Logos Publishing House, 2011. A. Hunt, T. Hermann: Interactive Sonfication, Sonification Handbook, Logos Publishing House, 2011.M. A. Gerzon: Periphony: With-height sound reproduction, Journal of the Audio Engineering Society 21.1: 2-10, 1973. V. Pulkki: Virtual sound source positioning using vector base amplitude panning, Journal of the audio engineering society 45.6: 456-466, 1977. M. Noisternig, T. Musil, A. Sontacci, R. Holdrich: 3D binaural sound reproduction using a virtual ambisonic approach, Virtual Environments,  VECIMS ’03. 2003 IEEE International Symposium on Human-Computer Interfaces and Measurement Systems, 2003. Podcasts M. Völter, R. Vlek: Synthesizers, Omega Tau Podcast, Episode 237, 2017.  T. Pritlove, U. Schöneberg: CRE238 – Neuronale Netze, CRE Podcast,  Metaebene Personal Media, 2015. M. Völter, C. Osendorfer, J. Bayer: Maschinelles Lernen und Neuronale Netze, Omega Tau Podcast, Episode 259, 2017 S. Trauth: Klangdom, Funkenstrahlen Podcast, Episode 85, 2016 P. Gräbel: Der Schall, Nussschale Podcast, Episode 16, 2017. T. Pritlove, S. Brill: CRE206 – Das Ohr, CRE Podcast, Metaebene Personal Media, 2014. S. Plahl: Der Klang einer Armbewegung, SWR2 Wissen, 2013.

university film professor story performance system mit event journal prof software museum hunt position als studio dabei definition jets rolle musik durch bei kopf sinn projekt haus sicht einblick raum virtual reality erfahrung kunst universit basis signal beziehung medien festivals verst bereich besuch technik punkt herausforderung einsatz zusammen diskussion leider bewegung zusammenarbeit ohren daher aufnahme einf wirkung wandel besonders richtung vergleich gruppe parallel nutzen str eindr signals ereignisse ordnung institut eindruck symposium plattform der weg recherche mittel niveau geh gehirn wand wahrnehmung verr osaka abstand installation schauspieler projekten zentrum literatur zweck dadurch gewinn aufwand sweet spot techniken systeme kritiker anzahl werke punkten einfl gestaltung verfahren auseinandersetzung positionen maschinen modelle effekte hochschule karlsruhe kopfh sekunde klang verwendung darstellung feuerwerk auswirkung positionierung komplexit spektrum instituts richtungen studierende im gegensatz auff intensit linz diplom schultern bandbreite radius alternativ spat klicks sph praktisch mikrofone ein teil empfinden korg synthesizer donau instrumenten wahrnehmungen lautsprecher die aufnahme die gruppe im bereich pavillon music technology akustik durststrecke signalen eine herausforderung pegel installationen chirps abbildung raumakustik meteorologie musil booten karlheinz stockhausen die ber das institut reproduktion kopfes musikinstrument john richards lautsprechern subwoofer ars electronica zkm instituten aufnahmetechnik sonification schallwellen abschlussarbeiten medienkunst technologie kit ein aspekt neuronale netze audio engineering society das ohr podcast sm synthesizern die hochschule ohrmuschel raumklang filterung dolby surround hfg diese analyse signalverarbeitung treibern konzerterlebnis klanginstallation john chowning zur erfassung vertikalen sonifikation ambisonics empirisch staatlichen hochschule ansteuerung psychoakustik zur erzeugung kunstkopf ludger br omega tau podcast diskretisierung kopfbewegung gestaltung hfg klangdom audiokompression kugeloberfl metaebene personal media
Modellansatz
Social Choice

Modellansatz

Play Episode Listen Later Apr 20, 2017 38:50


Diese Folge ist eines von drei Gesprächen mit Mathematikerinnen und Mathematikern an der TU München (TUM) in Garching bei München, die Gudrun am 10. April 2017 dort geführt hat. Paul Stursberg - hat an der TUM Mathematik studiert und promoviert dort am Lehrstuhl Angewandte Geometrie und Diskrete Mathematik. Wir haben uns über Gruppenentscheidungsmodelle (Social Choice) unterhalten, in denen mitunter auch der Zufall Hilfestellung gibt. Da auch Zuordnung nach Vorlieben (allocation) auf das gleiche Grundproblem führt, wird das Thema unter den Forschungsinteressen von Paul Stursberg als Randomized Social Choice/Ressource Allocation aufgeführt.Das grundlegende Ziel bei Entscheidungen in einer Gruppe ist es, Einzelmeinungen zu einem fairen Gesamturteil zusammen zu führen. Am einfachsten ist es, einer als Anführer von allen anerkannten Person in ihrer Meinung zu folgen. Dieses Modell hat gute mathematische Eigenschaften, funktioniert immer, ist aber leider nicht besonders demokratisch. Je nachdem ob die Leitperson zur Gruppe gehört oder nicht wird es als Modell des internen/externen Diktators bezeichnet. Ein zunächst nahe liegender Zugang zur bestmöglichen Entscheidung in einer Gruppe wäre, eine Nutzenfunktion auzufstellen und danach zu optimieren. Das klingt überzeugend ist aber oft ein unmögliches Unterfangen, weil es sich als sehr schwierig erweist, Vorlieben so zu quantifizieren dass man über die Gruppe konstante Zahlenwerte für einen entstehenden Nutzen findet. Deshalb kann man statt dessen mit ordinalen Präferenzrelationen arbeiten, d.h. im einfachsten Fall mit einer gewünschten Reihenfolge aller Optionen für jede Person der Gruppe. Bevor man über Verfahren sprechen und diese bewerten kann, braucht man Kriterien, die Wahlverfahren (idealerweise) erfüllen sollen. Man muss definieren: Was ist eine gute und faire Entscheidung? Ein grundlegendes Kriterium wäre beispielsweise: Wenn alle der gleichen Meinung sind, sollte diese Meinung auch immer als Ergebnis der Gruppenentscheidung erscheinen. Ein etwas weitergehendes Kriterum könnte exemplarisch auch verlangen, dass das Ergebnis Pareto-optimal ist, es also kein anderes Ergebnis gibt, mit dem jedes Gruppenmitglied zufriedener wäre.Nachdem ein Katalog von Kriterien aufgestellt wurde, kann man sich unter anderem folgende Fragen stellen: Finden wir Wahlverfahren, die all diese Kriterien erfüllen? Wenn ja, welche Wahlverfahren sind das? Können wir sie charakterisieren? Wenn nein, lässt sich zeigen, dass kein Wahlverfahen alle Kriterien zugleich erfüllen kann?Ein bekanntes Beispiel für den letzten Fall ist der Satz von Arrow - ein Unmöglichkeitsresultat, das besagt, dass eigentlich sinnvolle Bedingungen an ein Wahlergebnis für mehr als zwei Optionen nicht gleichzeitig erfüllbar sind.Hinsichtlich der Fairness kommen Wahlverfahren intuitiv schon an ihre Grenzen, wenn sich zwei Leuten abstimmen sollen, die gegensätzliche Wünsche haben: Jede (deterministische) Entscheidung bevorzugt offensichtlich einen der beiden Beteiligten. Hier kann man sich den Zufall zunutze machen, um eine faire Entscheidung zu treffen, was auf das Gebiet der randomisierten Sozialwahltheorie (randomized social choice) führt. Hier hängen viele Kriterien plötzlich davon ab, welche lottery extension verwendet wird, also wie aus ordinalen Präferenzrelationen Präferenzen über Wahrscheinlichkeitsverteilungen abgeleitet werden. Literatur und weiterführende Informationen H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W. J. Cho: Probabilistic assignment: A two-fold axiomatic approach, 2012. H. Aziz, F. Brandt, and M. Brill: On the tradeoff between economic efficiency and strategyproofness in randomized social choice In Proceedings of the 12th International Conference on Autonomous Agents and Multi-Agent Systems (AAMAS), pp 455–462. IFAAMAS, 2013. H. Aziz, P. Stursberg: A generalization of probabilistic serial to randomized social choice. In Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence (AAAI-14), pp 559-565. AAAI Press, Palo Alto, 2014. Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt: Wahlsysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich: Wahlrecht und Wahlsysteme, Gespräch mit T. Pritlove im CRE Podcast, Folge 128, Metaebene Personal Media, 2009.