Podcasts about nebenbedingungen

  • 9PODCASTS
  • 17EPISODES
  • 36mAVG DURATION
  • ?INFREQUENT EPISODES
  • Mar 4, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about nebenbedingungen

Latest podcast episodes about nebenbedingungen

WISSEN SCHAFFT GELD - Aktien und Geldanlage. Wie Märkte und Finanzen wirklich funktionieren.

888 Folgen und dennoch wieder was interessantes. Rückabwicklung von Rürup- oder Lebensversicherung? Schreibe mir einfach eine kurze E-Mail an:  krapp@abatus-beratung.com Viel Spaß beim Hören,Dein Matthias Krapp(Transkript dieser Folge weiter unten) NEU!!! Hier kannst Du Dich kostenlos für meinen Minikurs registrieren und reinschauen. Es lohnt sich: https://portal.abatus-beratung.com/geldanlage-kurs/   

Unf*ck Your Data
Daten- und KI-Projekte - Wie man scheitert und wie es richtig geht | Barbara Lampl

Unf*ck Your Data

Play Episode Listen Later Sep 4, 2024 63:00


In 25 Jahren Projektarbeit im Data und AI Umfeld kommt doch ein bisschen was zusammen. Aber welche Faktoren bringen dich sicher zum Scheitern und was macht erfolgreiche Projekte aus? Darüber spricht Christian Krug, der Host des Podcasts „Unf*ck Your Data“ mit Barbara Lampl, Verhaltensmathematikerin und Gründerin bei empathic business.Wenn man über fehlgeschlagene Projekte redet, dann hört man sehr oft ähnliche Gründe. Budget, Use Case, Stakeholderinvolvement, keine Zusammenarbeit, etc.Was man selten hört sind: Mathematische Nebenbedingungen!Wenn man mit Barbara spricht, die Mathematik lebt und atmet wie kaum eine zweite, dann fallen die auf einmal sehr oft.Denn sehr oft wird Barbara gerufen, wenn eben diese mathematischen Nebenbedingungen nicht beachtet wurden und dadurch das Projekt bereits in Schieflage geraten ist. Dann ist die liebevoll „AI-Babsi“ genannte Managerin zu Stelle und arbeitet die Altlasten auf. Damit am Ende das Projekt dann doch noch ein Erfolg wird.Eine ihrer Lieblingsaufgaben ist es dann eben auf mathematische Fehler hinzuweisen. Aber auch andere Faktoren können dazu führen, dass die Umsetzung der Idee in eine Sackgasse gerät. Welche das sind, aber auch welche Faktoren Barbara für ein erfolgreiches Projekt ausmacht und wenn möglich vom Start weg festlegt. Das gibt's in dieser Folge!▬▬▬▬▬▬ Profile: ▬▬▬▬Zum LinkedIn-Profil von Barbara: https://www.linkedin.com/in/barbaralampl/Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/Unf*ck Your Data auf Linkedin: https://www.linkedin.com/company/unfck-your-data▬▬▬▬▬▬ Buchempfehlung: ▬▬▬▬Buchempfehlung von Barbara: Algorithms to live by – Brian ChristianAlle Empfehlungen in Melenas Bücherladen: https://gunzenhausen.buchhandlung.de/unfuckyourdata▬▬▬▬▬▬ Hier findest Du Unf*ck Your Data: ▬▬▬▬Zum Podcast auf Spotify: https://open.spotify.com/show/6Ow7ySMbgnir27etMYkpxT?si=dc0fd2b3c6454bfaZum Podcast auf iTunes: https://podcasts.apple.com/de/podcast/unf-ck-your-data/id1673832019Zum Podcast auf Google: https://podcasts.google.com/feed/aHR0cHM6Ly9mZWVkcy5jYXB0aXZhdGUuZm0vdW5mY2steW91ci1kYXRhLw?ep=14Zum Podcast auf Deezer: https://deezer.page.link/FnT5kRSjf2k54iib6▬▬▬▬▬▬ Merch: ▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬https://unfckyourdata-shop.de/▬▬▬▬▬▬ Kontakt: ▬▬▬▬E-Mail: christian@uyd-podcast.com

Master of Search - messbare Sichtbarkeit auf Google (Google Ads, Analytics, Tag Manager)
Warum ist dein Tracking eigentlich so kompliziert geworden?

Master of Search - messbare Sichtbarkeit auf Google (Google Ads, Analytics, Tag Manager)

Play Episode Listen Later Feb 21, 2024 11:49


Wed, 21 Feb 2024 23:30:00 +0000 https://master-of-search.podigee.io/195-warum-ist-dein-tracking-eigentlich-so-kompliziert-geworden 7cde1d14a80bd45b2ff9aa765c13be4b Die flankierenden Massnahmen sorgen dafür, dass das Thema Tracking einen so hohen Grad an Komplexität angenommen hat. In dieser Folge klärt Jörg auf, warum Tracking immer komplizierter statt einfacher wird. Es ist so ähnlich wie beim Bau von neuen Häusern. Die zahlreichen Auflagen, Regularien und Nebenbedingungen haben einfach dafür gesorgt, das Tracking eben nicht mehr nur Tracking ist. Welche das sind und was du am Besten machen kannst erfährst du in der heutigen Folge. Möchtest du selbst verstehen und steuern können, was im Suchmaschinenmarketing wichtig ist? Vereinbare jetzt dein gratis Strategiegespräch: https://Master-of-Search.de Mail: podcast@master-of-search.de Abonniere unseren YouTube-Kanal: https://www.youtube.com/@MasterofSearch Linkedin: https://www.linkedin.com/in/christophmohr/ Impressum: DAMCON GmbH Eiswerderstr. 20 13585 Berlin Tel: 030 - 956 12 698 Handelsregister: HRB 237495 B, Amtsgericht Charlottenburg (Berlin) Geschäftsführer: Christoph Mohr, Jörg Ullmann 195 full Die flankierenden Massnahmen sorgen dafür, dass das Thema Tracking einen so hohen Grad an Komplexität angenommen hat. no tracking,kompliziert,komplex,dsgvo,datenschutz,consent,cookies Christoph Mohr, Jörg Ullmann, Master of Search GmbH

Der Einkaufskompass für die Industrie
#95 Versteckte Falle Nebenbedingungen

Der Einkaufskompass für die Industrie

Play Episode Listen Later Jul 27, 2023 6:01


Wenn dir der Podcast gefällt, dann lass doch gerne ein Abo und eine Bewertung da. Wenn du Gast in meinem Podcast werden möchtest oder jemand kennst, der Gast sein sollte, dann schreib mir einfach eine E-Mail an:

falle abo einkauf wissensdatenbank marktbericht nebenbedingungen
ManagementJournal
Nachhaltigkeitsmanagement I Umgang mit kritischen Stakeholdern, Folge 10

ManagementJournal

Play Episode Listen Later May 9, 2023 3:23


Welche Strategien und Maßnahmen sind im Umgang mit kritischen Stakeholdern zu empfehlen? Als erstes sind Handlungsoptionen zu identifizieren: Welche Möglichkeiten beste- hen, um die Handlungen der Stakeholder zu beeinflussen und um selbst von Stakeholdern unterstützt zu werden? Anschließend sind die identifizierten Handlungsoptionen zu bewerten: Welche Vor- und Nachteile ergeben sich jeweils? Welche wären effektiv, ethisch vertretbar und ideal zur Zielerreichung? Welche Risiken und Nebenbedingungen sind zu beachten? Danach sind die Optionen auch nach ihrer Realisierbarkeit zu bewerten: Wie sind entsprechende Maßnahmen mit den personellen und finanziellen Ressourcen und Beziehungen zu realisieren? Sind die in Frage kommenden Handlungsoptionen ausgewählt, werden die Schritte zur Umsetzung geplant. Aufgrund begrenzter Ressourcen ist es in der Regel nicht möglich, den gesamten Prozess der Stakeholder-Identifikationsanalyse und des Managements der Stakeholder-Beziehungen für alle denkbaren Stakeholder zu durchlaufen. Es ist deshalb angebracht, interessenpolitische Handlungen auf jene Stakeholder zu fokussieren, die aufgrund ihrer Machtressourcen, ihrer Unabhängigkeit und ihres Organisationsgrades als besonders durchsetzungsfähig gelten. Prinzipiell kann dabei unter den Stakeholdern zwischen „Freund“ und „Feind“ unterschieden werden. Entsprechend wird reagiert: Wird von einem Stakeholder zum Beispiel die Forderung erhoben, ein Produkt vom Markt zu nehmen, besteht für das Unternehmen die Option, dem Druck nachzugeben, der Forderung durch Ignoranz, Herunterspielen, Verzögerung und Ablenkung auszuweichen, den Stakeholder zu diffamieren und seinen Anspruch in ein schiefes Licht zu rücken oder zu begründen, warum man am Produkt festhält und diese Haltung sowohl für nützlich als auch legitim erachtet, etwa im Interesse der Arbeitnehmerschaft. Zu jeder Option lassen sich unter Umständen weitere Gruppen involvieren, die hier als „Freunde“ – etwa Gewerkschaft, Lobbyverband – auftreten, die gewählte Reaktionsart verstärken oder komplementär reagieren. Alternativ kann das Unternehmen aus dem archaischen Freund-Feind-Schema ausbrechen, indem es nach einem Kompromiss oder nach einer beidseitig vorteilhaften Lösung von Konflikten sucht, etwa durch das Eingehen einer Kooperation. Dazu mehr in der nächsten Folge zum Thema Stakeholdermanagement. Auf dann! Klaas Kramer, Studienbriefautor der Deutschen Akademie für Management Hier finden Sie alle Podcasts der Reihe Nachhaltigkeitsmanagement

WISSEN SCHAFFT GELD - Aktien und Geldanlage. Wie Märkte und Finanzen wirklich funktionieren.
#662 - Wie lege ich Geld für mein Kind oder Enkelkind an?

WISSEN SCHAFFT GELD - Aktien und Geldanlage. Wie Märkte und Finanzen wirklich funktionieren.

Play Episode Listen Later Dec 23, 2022 15:21


Sparkonten sind als Geldanlage für Kinder m. E. langfristig generell ungeeignet, sie bringen langfristig keine Rendite. Die Alternativen sind breit gestreute Aktienfonds weltweit und  Wertsteigerungen durch die Kursgewinne. Das alles geht einfach, günstig und flexibel. Ob das auf den Namen Ihres Kindes laufen sollte oder der Eltern oder Großeltern, hängt von den Zielen ab, den Summen und der Laufzeit und steuerlichen Überlegungen, als auch Nebenbedingungen. Ein paar Gedanken und Anregungen dazu hier.   Viel Spaß beim Hören, Dein Matthias Krapp    

Klug anlegen - Der Podcast zur Geldanlage mit Karl Matthäus Schmidt.
Folge 99: Zertifikate an der Börse – Fluch oder Segen?

Klug anlegen - Der Podcast zur Geldanlage mit Karl Matthäus Schmidt.

Play Episode Listen Later Feb 25, 2022 24:39


„Zertifikate sind Teufelszeug.“ Dieses Vorurteil gibt es spätestens seit der Lehman-Krise im Jahre 2008. Keine Frage, zahlreiche Anlegerinnen und Anleger haben damals viel Geld verloren, weil die Emittenten dieser Papiere pleitegegangen sind. Über den Sinn oder auch Unsinn von Zertifikaten spricht Karl Matthäus Schmidt, Vorstandsvorsitzender der Quirin Privatbank AG und Gründer der digitalen Geldanlage quirion, in dieser Podcast-Folge. Dabei geht er u. a. auf diese Fragen ein: • Welche Erfahrungen hat der CEO mit Zertifikaten gemacht? (1:07) • Was ist ein Zertifikat? (2:10) • Wann gab es die ersten Zertifikate und warum wurden sie auf den Markt gebracht? (3:44) • Welche grundsätzlichen Vorteile haben Zertifikate? (5:17) • Was sind sogenannte Garantiezertifikate? (6:11) • Wo liegen die Probleme von Zertifikaten? (7:11) • Welche Ausstattungsmerkmale von Zertifikaten sind überflüssig, z. B. beim Discountzertifikat? (8:45) • Welche Konstruktionen, wie z. B. bei den Hebelzertifikaten, erhöhen die Komplexität und Intransparenz dieser Anlageform? (11:43) • Warum sind fixe Laufzeiten bei Zertifikaten schädlich? (13:20) • Was hat es mit dem Emittenten-Risiko auf sich? (14:26) • Welche Kosten fallen bei Zertifikaten an? (16:06) • Was bedeuten all die Erkenntnisse für die Anlegerinnen und Anleger? (18:18) • Exchange Traded Commodities, kurz ETCs, sind indexorientierte Zertifikate. Sind diese börsengehandelten Rohstoffe eine sinnvolle Depot-Beimischung? (19:47) • Bleiben ETFs das Mittel der Wahl? (22:46) Zertifikate lenken konstruktionsbedingt vom eigentlichen Sinn und Zweck einer Anlage am Aktienmarkt ab, nämlich langfristig vom globalen Wirtschaftswachstum zu profitieren. Denn all die Nebenbedingungen, die Zertifikate mit sich bringen, ob es nun Sicherheitsnetze oder günstigere Einstiegskurse sind, verfälschen letztlich die anzustrebende 1:1-Partizipation an der Marktentwicklung und können somit nicht das volle Renditepotenzial der Märkte ausschöpfen. Wir empfehlen stattdessen eine prognosefreie und international breit gestreute Aktienanlage. Mehr dazu erfahren Sie in unserer Marktstudie: https://www.quirinprivatbank.de/studien Folgenempfehlung Neben Zertifikaten gelten auch Investmentfonds als teuer und in ihrer Gebührenstruktur intransparent. Daher lohnt es sich, auf die Details zu achten – selbst kleine Kostenunterschiede zahlen sich beim langfristigen Vermögensaufbau über die Jahre aus. Wie sich die Kostenstruktur von aktiven Fonds und den von Schmidt favorisierten ETFs unterscheidet, erfahren Sie in dieser Folge: Folge 54: Vorsicht Falle – Auf diese Kosten müssen Sie beim Fondskauf achten! https://www.quirinprivatbank.de/podcast?episode=54 ----------

Modellansatz
Moving Asymptotics

Modellansatz

Play Episode Listen Later Jun 20, 2021 49:42


Gudrun spricht in dieser Folge mit Attila Genda über sein Praktikum bei Dassault Systèmes (Standort Karlsruhe), das er m Frühjahr und Sommer 2020 im Rahmen seines Masterstudiums Technomathematik absolviert hat. Bei Dassault Systèmes in Karlsruhe wird schon seit einigen Jahrzehnten Strukturoptimierung betrieben. Wir haben dort auch schon einige Podcastfolgen zu den mathematischen Hintergründen und den aktuellen Weiterentwicklungen aufgenommen (s.u.). Für die numerische Lösung der betrachteten partiellen Differentialgleichungen werden Finite Elemente Verfahren eingesetzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”zulässig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um konkrete Probleme zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, die jeweils auf die Aufgabenstellung zugeschnitten werden. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Strukturoptimierung verändert die Form eines Bauteils oder einer Baugruppe so, dass weniger Material nötig ist, aber vorgegebene Festigkeitsanforderungen (z.B. Spannungen, denen das Teil typischerweise ausgesetzt ist) erfüllt sind. Dabei darf sich die Materialverteilung frei in approximativen Schritten verändern und ist nicht durch eine Vorplanung der prinzipiell einzuhaltenden äußeren Form begrenzt. Dies führt z.B. zur Entstehung von Löchern in der Form des Bauteils, was die Topologie auch im mathematischen Sinne verändert. Das ist kompliziert und einfach zugleich - je nachdem, unter welchem Blickwinkel man es betrachtet. Die Einfachheit ergibt sich aus der Tatsache, dass keine Zellen aus dem numerischen Netz der Numerik entfernt werden. Man setzt einfach eine Variable, die angibt, ob dort Material vorhanden ist oder nicht. Anstatt dies jedoch mit binären Werten zu tun (d.h. Material "an" oder "aus"), ändert man die Materialdichte der Zelle kontinuierlich zwischen [0, 1]. Dabei steht 0 für kein Material und 1 für die volle Materialmenge. Um numerische Probleme zu vermeiden wird statt 0 eine kleine Zahl verwendet. Da diese Modellierung im Allgemeinen zu physikalisch nicht interpretierbaren Ergebnissen führt, bei denen die Zellen weder leer sind noch die volle Menge an Material enthalten, müssen wir sicherstellen, dass der Optimierer dazu neigt, Ergebnisse zu finden, bei denen die Anzahl der Zellen mit mittlerer Dichte minimal ist. Dazu bestrafen wir solche Konstruktionen. Diese Verfahren heißen Solid Isotropic Material with Penalization Method - kurz SIMP-Methode. Strukturoptimierungsaufgaben enthalten in der Regel eine sehr große Anzahl von Designvariablen, in der Praxis sind es nicht selten mehrere Millionen von Variablen, die die Zielfunktion beeinflussen. Demgegenüber ist die Zahl der Nebenbedingungen viel kleiner - oft gibt es sogar nur ein paar wenige. Da Strukturoptimierungsprobleme im Allgemeinem keine konvexen Promleme sind und oft auch keine linearen Probleme, ist die Auswertung des Zielfunktionals und der Nebenbedingungen sehr rechenintensiv. Deshalb wurden spezielle Algorithmen entwickelt, die besonders geeignet für die Lösung solcher Probleme sind, weil sie vermeiden können, dass bis zur Konvergenz eine große Anzahl von Funktionsauswertungen stattfinden müssen. Der wahrscheinlich meist verbreitete Algorithmus heißt Method of Moving Asymptotes (MAA). Er wird in der Podcastepisode diskutiert. Die Aufgabe von Attila in seiner Zeit des Praktikums war es nämlich, diese Methode zu verallgemeinern, dann zum implementieren und die Implementierung zu testen. Die ursprünglich angewandte MAA-Methode, die von Svanberg vorgeschlagen wurde, verwendet nur einen sehr einfachen Ansatz zur Behandlung der Länge des Intervalls zwischen der unteren und oberen Asymptote. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. doi C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. K. Svanberg: The method of moving asymptotes—a new method for structural optimization, International Journal for Numerical Methods in Engineering, 1987 Podcasts H. Benner, G. Thäter: Formoptimierung, Gespräch im Modellansatz Podcast, Folge 212, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.

Modellansatz
Formoptimierung

Modellansatz

Play Episode Listen Later Jul 18, 2019 23:24


Gudrun spricht mit Henrieke Benner über deren Masterarbeit "Adaption and Implementation of Conventional Mesh Smoothing Techniques for the Applicability in the Industrial Process of Automated Shape Optimization", die in Zusammenarbeit von Henrieke und Gudrun mit der Firma Dassault entstanden ist. Unser Leben wird bestimmt durch industriell hergestellte Dinge. Im Alltag nutzen wir zum Beispiel Toaster, Waschmaschinen, Fernseher und Smartphones. Fahrräder, Autos, Züge und Flugzeuge transportieren uns und wir denken wenig darüber nach, wie es dazu kam, dass sie genau diese Form und das gewählte Material haben, solange alles funktioniert. Für die Industrie, die all diese Gegenstände baut, zerfällt der Prozess der Entwicklung neuer Produkte in viele Entscheidungen über Form und Material einzelner Bauteile. Traditionell wurde hier verändert und ausprobiert, aber seit einigen Jahrzehnten sind Computer eine große Hilfe. Mit Ihnen können Bilder von noch nicht existierenden Produkten erschafft werden, die sich diese von allen Seiten, auch von innen und in Bewegung darstellen, mit Hilfe von Simulationsprogrammen Experimente zur Qualität gemacht werden, bestmögliche Formen gefunden werden. In der Masterarbeit geht es um die Optimierung der Form von Objekten am Computer - schnell und möglichst automatisch. Es liegt in der Natur der Aufgabe, dass hier mehrere Wissensfelder zusammentreffen: mechanische Modelle, Computer Strukturen und wie man dort beispielsweise Modelle von Objekten abbilden kann, Optimierungsmethoden, numerische Verfahren. Als Rahmen dient für Arbeit das Strukturoptimierungsprogrammpaket TOSCA, das von Dassault Systèmes am Standort in Karlsruhe (weiter)entwickelt wird und weltweit als Software-Tool, eingebunden in Simulationsschleifen, genutzt wird, um Bauteile zu optimieren. Für die Numerik werden Finite Elemente Verfahren genutzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”gültig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um das Problem zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, jeweils zugeschnitten auf das genaue Problem. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Wenden wir uns nun dem Gebiet der Strukturoptimierung zu, so besteht anfangs zunächst die Hüde, ein mechanisches Problem mit Hilfe von Computer-Aided-Design Software (CAD) auszudrücken. Um die Belastungen des Bauteils zu berechnen, nutzt man anschließend Finite-Element-Analysis Software (FEA). Das Strukturoptimierungspaket TOSCA bietet anschließend mehrere Möglichkeiten zur Optimierung an. Relevant ist für das vorliegende Problem jedoch nur die Formoptimierung. Sie setzt ihre Ziel- und Restriktionsfunktionen aus Steifigkeit, Volumen, Verschiebung, inneren Kräften und Widerstandsmoment zusammen. Um eine Formoptimierung zu starten, muss zunächst vom Nutzer eine Triangulierung zur Verfügung gestellt werden, mit der die Werte der Ziel und Restriktionsfunktion berechnet werden. Während der Optimierung werden die Positionen der Oberflächenknoten variiert. Beispielsweise wird Material an Stellen hoher Spannung hinzugefügt und an Stellen niedriger Spannung entfernt. Problematisch an der Formoptimierung ist, dass sich die Qualität der finiten Elemente durch die Bewegung der Oberflächenknoten verändert. Modifiziert man nur die Oberflächenknoten, so entsteht ein unregelmäßiges Netz, welches keine gleichmäßigen finiten Elemente enthält oder schlimmstenfalls keine gültige Zerlegung der modifizierten Komponente ist. Die auf der ungültigen Triangulierten durchgeführten Berechnungen der Zielgrößen sind daher nicht mehr zuverlässig. Abhilfe kann nur geschaffen werden, wenn das Netz nach jedem Iterationschritt geglättet wird. Im Rahmen von Henriekes Arbeit werden zwei Ansätze zur Netzglättung implementiert, diskutiert und miteinander verglichen: Glättung durch den Laplace Operator und Qualitätsmaße für das Finite Elemente Gitter. Die Anwendung des Laplace Operators ist theoretisch die fundiertere Variante, aber in der numerischen Umsetzung sehr aufwändig. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. http://dx.doi.org/10.4172/2090-0902.1000181 C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. Podcasts M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. G. Thäter, H. Benner: Fußgänger, Gespräch im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015

Modellansatz
Zuschnittsoptimierung

Modellansatz

Play Episode Listen Later Mar 15, 2018 39:27


Guntram Scheithauer ist Mathematiker und forscht an der TU Dresden. Seit seiner Promotion gilt sein Interesse der diskreten Mathematik und der Optimierung. Sein Einstieg in dieses Teilgebiet der Mathematik waren Rundreiseprobleme. Anfang der 1980er Jahre verschob sich das Hauptarbeitsgebiet dann auf Zuschnittsoptimierung und Packungsprobleme. Ausgangspunkt hierfür waren konkrete Anfragen aus der Holzindustrie. Ein noch sehr einfach formulierbares eindimensionales Zuschnittsproblem ist: Man hat Material der Länge l vorliegen und möchte daraus Teile einer bestimmten Länge so zuschneiden, dass der Abfall minimiert wird. Die Anzahl der Teile ist dabei nicht fest vorgegeben. Mathematisch lässt sich das auf das sogenannte Rucksackproblem zurückführen. Typisch ist, dass eine Nebenbedingung (die Länge) auftritt und nur ganzzahlige Werte sinnvoll sind, also ein ganzahliges lineares Optimierungsproblem vorliegt. Prinzipiell geht es im Rucksackproblem darum, dass man ein vorgegebenes Volumen des Rucksackes (seine Kapazität) gegeben hat, in das man beliebig verformbare Teile einpackt. In der Praxis so etwas wie Kleidung und Wanderutensilien, die man alle mehr oder weniger nötig braucht. Das heißt, jedes potentiell mitzunehmenden Teil hat zwei relevante Eigenschaften: Es braucht ein bestimmtes Volumen im Rucksack und es hat einen bestimmten Wert an Nützlichkeit. Das Problem ist gelöst, wenn man die Packung mit dem größten Nützlichkeits-Wert gefunden hat. Theoretisch kann man natürlich alle Möglichkeiten durchgehen, den Rucksack zu packen und dann aus allen die nützlichste aussuchen, aber in der Praxis ist die Anzahl an Möglichkeiten für Packungen sehr schnell so groß, dass auch ein schneller Computer zu lange braucht, um alle Fälle in akzeptabler Zeit zu betrachten. Hier setzt die Idee des Branch-and-Bound-Verfahrens an. Der sogenannte zulässige Bereich, d.h. die Menge der Lösungen, die alle Bedingungen erfüllen, wird zunächst schrittweise in Teilbereiche zerlegt. Auf diesen Teilbereichen werden die Optimierungsprobleme gelöst und dann aus allen die beste Variante gesucht. Leider können dies extrem viele Teilprobleme sein, weshalb der "Bound"-Teil des Verfahrens versucht, möglichst viele der Teilprobleme von vornherein als nicht aussichtsreich zu verwerfen. Der Erfolg des Branch-and-Bound steht und fällt mit guten Ideen für die Zerlegung und die zugehörigen Schranken. Der Rechenaufwand ist für einen konkreten Fall jeweils schwer schätzbar. Ein weiteres Verfahren für ganzzahlige Optimierungsprobleme ist Dynamische Optimierung. Ursprünglich wurde es für die Optimierung von sequentiellen Entscheidungsprozessen entwickelt. Diese Technik zur mehrstufigen Problemlösung kann auf Probleme angewendet werden, die als verschachtelte Familie von Teilproblemen beschrieben werden können. Das ursprüngliche Problem wird rekursiv aus den Lösungen der Teilprobleme gelöst. Deshalb ist der Aufwand pseudopolynomial und es erfordert etwa gleichen Rechenaufwand für gleich große Probleme. Weitere Verfahren zur Lösung von ganzzahligen Optimierungsproblemen sind bekannt unter dem Namen Schnittebenenverfahren und Branch-and-Cut. Nach der Berechnung des Optimums der stetigen Relaxation werden Schritt für Schritt neue Nebenbedingungen zum Problem hinzugefügt. Mit Hilfe dieser zusätzlichen Ungleichungen werden nicht ganzzahlige Variablen der kontinuierlichen Lösungen gezwungen, ganzzahlige Werte anzunehmen. Oftmals ist eine Kombination mit einer Verzweigungsstrategie erforderlich. Eine nahe liegende Verallgemeinerung des oben beschriebenen einfachsten Zuschnittsproblems ist der Zuschnitt von rechteckigen Teilen aus einer Spanplatte. In der Holzindustrie macht eine Kreissäge das meist mit Schnitten von einem Rand der Platte zum gegenüberliegenden. Das sind sogenannte Guillotine-Schnitte. Das trifft auch für Zuschnitt von Glas und Fliesen zu. Hier ist die Anpassung der eindimensionalen Algorithmen noch relativ einfach auf den zweidimensionalen Fall möglich. Richtig schwierig wird es aber, wenn beliebige Polygone als Teile auftreten oder gar solche mit krummlinigen Rändern. Ein typisches Anwendungsproblem ist, dass eine optimale Anordnung von Einzelteilen eines Kleidungsstück auf einer Stoffbahn in der Regel nicht übertragbar auf eine andere Konfektionsgröße ist. Eine weitere Familie von Fragestellungen ist: Wie groß muss ein Quadrat sein, um Platz für eine vorgegebene Anzahl von Kreise mit Durchmesser 1 zu bieten? Das ist mathematisch sehr einfach zu formulieren aber in der Regel schwierig zu lösen, da das zugehörige Optimierungsproblem nicht konvex ist. Literatur und weiterführende Informationen Rucksackproblem Algorithmen für Rucksackproblem Rucksackproblem in Anwendungen Josef Kallrath: Gemischt-Ganzzahlige Optimierung. Modellierung in der Praxis. Vieweg/Springer 2013. Guntram Scheithauer: Zuschnitt- und Packungsoptimierung - Problemstellungen, Modellierungstechniken, Lösungsmethoden. Vieweg/Springer 2008. Guntram Scheithauer: Introduction to Cutting and Packing Optimization - Problems, Modeling Approaches, Solution Methods Springer 2018. Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research M. An: Topologieoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/topologieoptimierung K. Berude: Sensoreinsatzplanung, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 154, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/sensoreinsatzplanung

Modellansatz
Sensoreinsatzplanung

Modellansatz

Play Episode Listen Later Jan 25, 2018 58:46


Wenn Naturkatastrophen passieren, ist schnelle Hilfe gefragt. Besonders nach Überschwemmungen oder Erdbeben ist es sehr wichtig, so schnell wie möglich Informationen über das betroffene Gebiet zu erhalten. Dazu befasst sich Kim Berude mit dem mathematischen Modell und Optimierung zur Einsatzplanung von Sensoren und Geräten am IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, in Karlsruhe und spricht mit Sebastian Ritterbusch darüber. Ursprünglich hat Kim Berude in Freiberg an der Technischen Universität Bergakademie Freiberg Angewandte Mathematik studiert, um dann auf eine Stellenausschreibung des IOSB die Chance zu nutzen, im Bereich der Operations Research etwas Praxisluft zu schnuppern. Die Aufgabe der Sensoreinsatzplanung führt direkt auf ein Vehicle Routing Problem bzw. Tourenplanungsproblem, ähnlich wie es täglich Paketdienstleister erfüllen. Die Hauptaufgabe liegt darin die Sensoren oder Assets möglichst effizient an die verschiedenen Zielorte zu bringen, die Herausforderung liegt aber darin, gleichzeitig verschiedene Nebenbedingungen zu erfüllen. Im Falle der Sensoreinsatzplanung können die Nebenbedingungen durch Reihenfolgen der Abarbeitung, Zeitfenster oder in begrenzen Resourcen der Fahrzeuge liegen, alles das muss geeignet modelliert werden. Eine vereinfachte Fassung des Tourenplanungsproblems ist das Traveling Salesperson Problem, bei dem die Aufgabe besteht, für eine handelnde Person, eine optimale kürzeste Route durch eine festgelegte Anzahl von Städten zu finden und jede dieser Städe nur einmal anzufahren. Schon dieses Problem ist in der Klasse der NP-Probleme, die nicht deterministisch in polynomialer Zeit lösbar erscheinen. Das bedeutet, dass die erforderliche Rechenleistung oder Rechenzeit für eine Lösung sehr schnell sehr extrem ansteigt. Entsprechend ist auch das allgemeinere Tourenplanungsproblem ebenso rechenintensiv. In der Sensoreinsatzplanung gibt es gegenüber dem Tourenplanungsproblem zusätzlich die besondere Herausforderung, dass eine sehr heterogene Flotte, also sehr unterschiedliche Sensoren und zugehörige Fahrzeuge, zum Einsatz kommen soll. In der mathematischen Optimierungstheorie nehmen diskrete Probleme eine besondere Stellung ein. Zunächst einmal muss man sich bewusst werden, dass durch jedes Fahrzeug und jede Nebenbedingung weitere Variablen und Gleichungen entstehen, und damit eine höhere Detailtiefe der Modellierung sich unmittelbar auf die Dimension des zu lösenden Problems auswirkt. Ein Standardverfahren um lineare kontinuierliche Optimierungsprobleme zu lösen ist das Simplex-Verfahren. Das funktioniert aber nicht für diskrete Probleme, da es beliebige Zwischenwerte als Ergebnisse erhalten kann. Man könnte alle diskreten Möglichkeiten natürlich auch ausprobieren, das könnte aber sehr lange dauern. Eine Lösung sind hier die Branch-and-Bound-Verfahren, die das Problem zunächst kontinuierlich lösen, um eine untere Grenze des erwartbaren Ergebnisses zu erhalten. Aus einer nicht ganzzahligen Lösungsvariable werden nun zunächst die nächsten ganzzahligen Varianten in einer Fallunterscheidung untersucht und das Problem in der reduzierten Fassung gelöst. Gibt es eine erste ganzzahlige Lösung, so gibt es nun Grenzen in beide Richtungen, die ermöglichen die Zahl der noch auszuprobierenden Varianten stark einzugrenzen. Sind alle Varianten probiert, bzw. durch die Abschätzungen ausgeschlossen, so erhält man deutlich effizienter eine Lösung als wenn man alle Varianten durchprobiert. Der A*-Algorithmus ist sehr verwandt zum Branch-and-Bound-Verfahren und wird zum Routing auf Wegenetzen verwendet, beispielsweise im Terrain Projekt. Hier werden Grenzen durch Luftlinie und ebenso gefundene erste Lösungen bestimmt und ebenso recht schnell zum kürzesten Weg zwischen zwei Punkten zu gelangen. Eine Verfeinerung des Branch-and-Bound Verfahrens ist das Branch-and-Cut Verfahren, wo das durch lineare Ungleichungen entstehende Polyeder durch zusätzliche ganzzahlige Lösungen präferierende Einschränkungen weiter einschränkt, und damit das effiziente Simplex-Verfahren noch zielgerichteter einsetzt. Dieses Verfahren und weitere Verfeinerungen wurden im Podcast zu Operations Research mit Marco Lübbecke weiter erklärt. Die bisher betrachteten Verfahren liefern immer exakt die optimale Lösung, sie sparen nur Zeit, in dem sie unnötige Berechnungen für schlechtere Varianten einsparen. Ist das Problem jedoch so komplex, dass die exakten Verfahren nicht in annehmbarer Zeit eine Lösung liefern, so können Heuristiken helfen, das Problem im Vorfeld in der Komplexität deutlich zu reduzieren. Ein Ansatz ist hier die Neighborhood Search, wo gerade in der Umgebung gefundener regulärer Lösungen nach besseren Varianten gesucht wird. Die spannende Frage ist hier, mit welchen Akzeptanzkriterien zielgerichtet nach passenden Lösungen in der Nachbarschaft gesucht werden. Die Verfahren wurden an realitätsnahen Testfällen erprobt und evaluiert, wo Kim Berude in ihrer Diplomarbeit den Aspekt des Mehrfacheinsatzes gegenüber schon vorhandenen Optimierungslösungen hinzugefügt hat. Die Fragestellungen kommen keineswegs aus rein wissenschaftlichem Interesse, sondern werden am IOSB direkt benötigt. Die Messeinrichtungen kommen überall auf der Welt zum Einsatz, selbst bei Großveranstaltungen wie 'Das Fest' in Karlsruhe. Die Verfahren der Tourenplanung haben sehr viele Einsatzmöglichkeiten und ein berühmtes Beispiel ist, dass Speditionen durch Vermeiden von Linksabbiegen Zeit und Geld sparen. Literatur und weiterführende Informationen P. Toth, D. Vigo: The vehicle routing problem, Society for Industrial and Applied Mathematics, 2002. I. H. Osman: Metastrategy simulated annealing and tabu search algorithms for the vehicle routing problem, Annals of operations research 41.4: 421-451, 1993. P. Shaw: Using constraint programming and local search methods to solve vehicle routing problems, International Conference on Principles and Practice of Constraint Programming. Springer, Berlin, Heidelberg, 1998. D. Pisinger, S. Ropke: Large neighborhood search, Handbook of metaheuristics. Springer US, 399-419, 2010. S. Ropke, D. Pisinger: An adaptive large neighborhood search heuristic for the pickup and delivery problem with time windows, Transportation science 40.4: 455-472, 2006. Z. Wang, W. Liang, X. Hu: A metaheuristic based on a pool of routes for the vehicle routing problem with multiple trips and time windows, Journal of the Operational Research Society 65.1: 37-48, 2014. D. Cattaruzza, N. Absi, D. Feillet: Vehicle routing problems with multiple trips, 4OR 14.3: 223-259, 2016. Studiengang Angewandte Mathematik an der TU Freiberg Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung U.Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen L. Osovtsova: Logistik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 33, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/logistik

Modellansatz
Bézier Stabwerke

Modellansatz

Play Episode Listen Later Jul 27, 2017 53:00


Arne Rick (@Couchsofa) war schon ein häufiger, aber ungenannter Gast im Modellansatz Podcast: Als DJ war er auf den Aufnahmen von der aktuellen und früheren Gulasch-Programmiernächten im Hintergrund zu hören. Außer für Musik hat Arne auch ein großes Faible für Mathematik und Informatik und befasst sich im Zuge seiner von Prof. Marcus Aberle betreuten Bachelorarbeit zum Bauingenieurwesen an der Hochschule Karlsruhe mit Bezierkurven für Stabwerke. Stabwerke sind Modelle für Strukturen in Bauwerken und eine Lösung für ein System von Stabwerken hilft im konstruktiven Bauingenieurwesen, die Aufbauten in ihren Bemessungen und Anforderungen auszulegen und erforderliche Eigenschaften festzulegen. Die Darstellung als Stabwerke ist im Sinne eines Fachwerks eng verknüpft mit dem Prinzip von Finite Elementen, da diese in gewissen Anwendungen als Stabwerke und umgekehrt interpretiert werden können. Weiterhin können Stabwerke mit Hilfe von finite Elementen innerhalb der Stäbe genauer bestimmt bzw. verfeinert werden. Die Betrachtung des Stabwerks beginnt mit der Struktur und den Einwirkungen: Hier ist spielt das Semiprobabilistische Teilsicherheitsbeiwerte-System eine besondere Rolle, da es die möglichen Einwirkungen auf die Bauteile und damit die Gesamtanalyse probabilistisch erfassbar macht. Man unterscheidet hier nicht mehr so stark zwischen dem Bauen im Bestand, wo viele Nebenbedingungen zwar bekannt, aber die Eigenschaften der verbleibenden Bestandteile unsicher sind, und dem Aufbau eines Neubaus, wo es jeweils für die Bauingenieure gilt, die Vorgaben aus der Architektur konstruktiv, berechnend, planend und organisatorisch unter Berücksichtigung des möglichen Zeit- und finanziellen Rahmens, verfügbarer Materialien, Technik, Mitarbeiter und Bauverfahren sicher umzusetzen. Speziell in der Betrachtung der Stabwerke können die Fälle der statistischen Über- und Unterbestimmung des Bauwerks auftreten, wo Überbestimmung grundsätzlich zu Verformungen führt, eine Unterbestimmung andererseits kein funktionsfähiges Bauwerk darstellt. Weiterhin ändert jede Anpassung von beispielsweise der Tragfähigkeit eines Bauteils auch gleich zur Änderung des gesamten Stabwerks, da ein stärkerer Stab oft auch mehr wiegt und sich eventuell auch weniger verformt. Außerdem ziehen in einem statisch überbestimmten System die steiferen Elemente die Lasten an. So ist es häufig, eher unintuitiv, von Vorteil Bauteile zu schwächen um eine Lastumlagerung zu erzwingen. Dies führt in der Auslegung oft zu einem iterativen Prozess. Die Darstellung eines Stabes oder Balkens ist dabei eine Reduzierung der Wirklichkeit auf ein lokal ein-dimensionales Problem, wobei die weiteren Einwirkungen aus der Umgebung durch Querschnittswerte abgebildet werden. Die Voute ist ein dabei oft auftretendes konstruktives Element in der baulichen Umsetzung eines Tragwerks, die in der Verbindung von Stäben eine biegesteife Ecke bewirkt und in vielen Gebäuden wie beispielsweise dem ZKM oder der Hochschule für Gestaltung in Karlsruhe zu sehen sind. In der Modellierung der einzelnen Stäbe können verschiedene Ansätze zum Tragen kommen. Ein Standardmodell ist der prismatische Bernoulli Biegestab, das mit Differentialgleichungen beschrieben und allgemein gelöst werden kann. Daraus entstehen Tabellenwerke, die eine Auslegung mit Hilfe dieses Modell ermöglichen, ohne weitere Differentialgleichungen lösen zu müssen. Eine häufige Vereinfachung ist die Reduzierung des Problems auf zwei-dimensionale planare Stabwerke, die in den meissten Anwendungsfällen die relevanten Anforderungen darstellen können. Die Stäbe in einem Stabwerk können nun unterschiedlich miteinander verbunden werden: Eine Möglichkeit ist hier ein Gelenk, oder in verschiedene Richtungen und Dimension festlegte oder freie Lager, also Festlager oder Loslager zwischen Stäben oder einem Stab und dem Boden. Je nach Wahl der Verbindung entstehen in diesem Punkt eine unterschiedliche Anzahl von Freiheitsgraden. Für die praktische Berechnung werden Lager oft auch verallgemeinert, in dem die Verbindung über eine Feder modelliert wird: Hier haben ideale Loslager eine Federkonstante von 0, während die Federkonstante von idealen Festlagern gegen unendlich geht. Mit allen Werten dazwischen können dann reelle Lager besser beschrieben werden. In vereinfachter Form führt die Berechnung eines Stabwerks mit idealisierten unbiegbaren Balken mit den Endpunkten der Balken als Variablen und den Verknüpfung der Balken als Gleichungen direkt auf ein relativ einfaches lineares Gleichungssystem. Da sich in Realität alle Balken unter Last merklich verbiegen (es sei denn, sie sind vollkommen überdimensioniert), müssen sie grundsätzlich mit Steifigkeit modelliert werden, um belastbare Ergebnisse zu erhalten. Aber auch im erweiterten Modell wird der Stab durch eine Matrix linear beschrieben, nur dass hier auch die Last eine Rolle spielt und über das Elastizitätsmodul, Fläche und Trägheitsmoment die Verbiegungen abbilden kann. So ergibt das erweiterte Modell ebenfalls ein lineares Gleichungssystem, nur mit mehr Variablen und Parametern, die das System beschreiben und Angaben zur Verbiegung und Lastverteilung machen. Nach der gewöhnlichen Berechnung des Stabwerks hat sich Arne nun mit der Frage beschäftigt, ob die Stäbe mit Biegezuständen mit Bezierkurven besonders sinnvoll dargestellt werden können. In der Konstruktion erfahren Bézierkurven eine große Beliebtheit, da sie über Start- und Endpunkt mit zwei Kontrollpunkten sehr intiutiv zu steuern sind. Oft kommen oft Non-Uniform Rational B-Splines (NURBS) zum Einsatz, die als verallgemeinerte Bézier-Splines aufgefasst werden können. Das Grundproblem besteht darin, dass die Stäbe im erweiterten Modell durch Einführung der Biegezustände und Elastizität weder ihre Länge behalten, noch eine eindeutige Ausrichtung durch unterschiedliche Winkel an den Enden erhalten. Einen solchen Widerspruch versucht man bei Finiten Elementen entweder durch eine feinere Diskretisierung und damit durch eine Abbildung durch Geradenstücke oder durch eine Abbildung mit Polynomen höherer Ordnung zu ermöglichen und das Problem auf dem verfeinerten Modell zu lösen. Der dritte Ansatz ist hier, die Ergebnisse durch die in der Konstruktion bewährte Darstellung über Bezier-Kurven qualitativ anzunähern, um die Modellerfahrung aus der Konstruktion in der Darstellung der Lösung zu nutzen. Die Umsetzung erfolgt in Python, das mit den Bibliotheken NumPy und SciPy eine Vielzahl hilfreicher und effizienter Funktionen besitzt. Literatur und weiterführende Informationen A. Rick: Structurana, Python, 2017. Friedrich U. Mathiak: Die Methode der finiten Elemente (FEM), Einführung und Grundlagen, Skript, Hochschule Neubrandenburg, 2010. Ch. Zhang, E. Perras: Geometrische Nichtlinearität, Steifigkeitsmatrix und Lastvektor, Vorlesung Baustatik (Master), Lehrstuhl Baustatik, Universität Siegen, 2015. Podcasts M. Bischoff: Baustatik und -dynamik, Gespräche mit Markus Völter & Nora Ludewig im omega tau Podcast, Episode 029, 2010. M. An: Topologieoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick: A Hackers Approach To Building Electric Guitars, Vortrag auf der GPN15, Karlsruhe, 2015. GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. M. Lösch: Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Modellansatz
Operations Research

Modellansatz

Play Episode Listen Later Oct 19, 2016 151:18


Marco Lübbecke hat als Mathematiker den Lehrstuhl für Operations Research an der RWTH Aachen inne. Sein Lehrstuhl ist sowohl der Fakultät für Wirtschaftswissenschaften als auch der Fachgruppe für Mathematik zugeordnet. Zum Gespräch mit Sebastian Ritterbusch in Karlsruhe kam es anlässlich des Treffens der DFG Forschergruppe 2083: Integrierte Planung im öffentlichen Verkehr auf Einladung von Peter Vortisch, der auch schon zur Verkehrsmodellierung in Folge 93 in diesem Podcast zu hören war. Auf Twitter sind Marco Lübbecke unter @mluebbecke und sein Lehrstuhl unter @RWTH_OR zu finden und er schreibt das Blog Café Opt. Operations Research befasst sich zusammenfassend mit mathematischen Modellen und Methoden zur Entscheidungsunterstützung. Dabei steht oft die Frage einer möglichst guten oder optimierten Entscheidung im Vordergrund und daher ist das Gebiet von mathematischer Seite im Bereich der mathematischen Optimierung angesiedelt. Die Optimierung behandelt grundsätzlich die Bestimmung eines optimalen Werts einer Zielfunktion (und einer dazugehörenden Lösung) unter Berücksichtigung von einschränkenden Nebenbedingungen, den Restriktionen. Daneben steht aber auch die Frage der geeigneten Abbildung und Modellierung der Wirklichkeit und den Fehlerquellen der Beschreibung wie auch die grundsätzliche Herangehensweise an das Problem. Das optimierte Zusammenspiel von Menschen, Algorithmen und Technologie wird seit 2011 auch oft mit dem Begriff Industrie 4.0 für eine erhoffte vierte industrielle Revolution beschrieben. Die einheitliche Definition des Begriffs lassen aber selbst renommierte Industrievertreter offen. Als eine Schnittmenge der Beschreibungen kann man die lokale Intelligenz von Fertigungskomponenten ausmachen, die über Vernetzung und Sensorik zu einem besseren Gesamtprozess führen kann. Im Kleinen werden so Entscheidungsprozesse durchgeführt und dies führt grundlegend auf die gerade eingeführte mathematische Optimierungstheorie mit allen ihren Facetten. So gesehen ist die Industrie 4.0 als Optimierungsproblem eigentlich ohne Mathematik undenkbar. Ein in der Universität sehr naheliegendes Feld der Optimierung ist die Vorlesungsplanung, und hier ist aus der Forschung zusammen mit Gerald Lach in Kooperation zwischen der TU Berlin und der RWTH Aachen die Lösung Mathplan entstanden, die inzwischen an vielen Universitäten erfolgreich zur Vorlesungs-, Tutorien- und Klausurplanung eingesetzt wird. Mit genügend Zeit und genügend Personal kann man zwar einen einigermaßen akzeptablen Plan mit viel Erfahrung auch ohne besondere mathematische Optimierung aufstellen, das ändert sich aber schlagartig, wenn kurzfristige Änderungen berücksichtigt und Konflikte aufgelöst werden müssen. Mathematisch geht es hier um ganzzahlige lineare Programme, für die zwar Lösungsverfahren bekannt waren, diese für die Größenordnung der Probleme nicht geeignet waren. Eine Modellreduktion ohne Verlust der Optimalität führte hier zur Lösung. Auch in der Erstellung von Zugfahrplänen besteht ein großes Optimierungspotential. Da die Realität nicht perfekt planbar ist, geht es hier besonders um eine robuste Planung, die auch bei entstehenden Störungen noch das anvisierte Ziel erreichen kann. In der Forschung unter anderem auch mit Anita Schöbel der Uni Göttingen geht es um die Analyse der Fortpflanzungen von Verzögerungen, damit besonders kritische Fälle besonders behandelt werden können. Ein weiterer Gesichtspunkt ist aber auch die Möglichkeit Probleme möglichst gut durch kleine Eingriffe wieder korrigieren zu können. Ein zunächst überraschendes Forschungsthema ist die Bundestagswahl, wo sich Sebastian Goderbauer mit der optimierten Wahlkreiseinteilung befasst. Die 299 Bundestagswahlkreise werden weitaus häufiger neu zugeschnitten als man denkt: Da nach Bundestagswahlgesetz jeder Wahlkreis gerade 1/299-tel der Wahlberechtigten mit einer Toleranz von maximal 25 Prozent vertreten muss, erfordert die Wählerwanderung und Veränderung der Bevölkerungsstruktur die regelmäßigen Veränderungen. Das sogenannte Gerrymandering ist besonders bei Wahlen mit Mehrheitswahlrecht ein sehr problematisches Vorgehen bei Wahlkreisveränderungen, das offensichtlich undemokratische Auswirkungen hat. In Deutschland ist dies weniger ein Problem, wohl aber die deutlich ungleiche Größenverteilung der Wahlkreise. Die mathematische Definition und Betrachtung als Optimierungsproblem trägt die Hoffnung in sich, dass das Zuschnitt-Verfahren transparenter und nachvollziehbarer als bisher abläuft, und das sich dadurch balanciertere Wahlkreisgrößen ergeben können. Ein zentrales Forschungsgebiet ist für Marco Lübbecke der Bereich der ganzzahligen Programme. Die vielen auftretenden Variablen können beispielsweise Entscheidungen repräsentieren, die diskrete Werte wie ja oder nein repräsentieren. Dazu kommen verschiedene Resktriktionen und Nebenbedingungen, die Einschränkungen aus der Umgebungssituationen wie beispielsweise begrenzte Resourcen darstellen. Der Begriff "Programm" für die Bezeichnung von Optimierungsproblemen ist historisch aus dem englischen Begriff "programming" entstanden, der früher intensiv für "Planung" verwendet wurde. Heutzutage ist dieser Zusammenhang nicht mehr so naheliegend und entsprechend hat sich die Mathematical Programming Society (MPS) in Mathematical Optimization Society (MOS) umbenannt. Sind die Variablen eines Optimierungsproblems im , so kann man sich Schnitte mit linearen Ungleichungen wie das halbseitige Abschneiden des Lösungsraumes mit Ebenen vorstellen. Man nennt das Resultat ein Polyeder oder Vielflächner. Ist nun zusätzlich auch die Zielfunktion linear, so spricht man von einem linearen Optimierungsproblem oder linearen Programm. Wird nun der Lösungsbereich mit einem Gitter geschnitten, d.h. die Variablen können nur diskrete wie z.B. nur ganzzahlige Werte annehmen, so wird das Optimierungsproblem deutlich schwieriger. Dies ist erstaunlich, da der Lösungsbereich deutlich eingeschränkt wird. Jedoch verliert der Lösungsbereich seine konvexe Struktur und führt im linearen Fall von einem in polynomialer Zeit lösbaren Problem zu einem NP-schweren Problem. Wenn die Lösungsmenge eine beschränkte Anzahl von Elementen besitzt, so ist die Existenz von Maximum und Minimum durch Ausprobieren leicht zu beweisen. Das Problem ist jedoch, dass bei großen Datenmengen das vollständige Durchsuchen viel zu lange dauern würde. Eine Strategie zur Reduktion des Problems ist hier die Aggregation oder das Clustering, wo verschiedene Aspekte durch einzelne Repräsentanten dargestellt und gruppiert werden und so Rechenzeit eingespart wird. Zwar werden so nur approximierte Probleme gelöst, jedoch deutlich schneller und wenn möglich mit Fehlerschranken, die den maximalen Abstand zur tatsächlichen Lösung spezifizieren. Ein Beispiel für dieses Prinzip sind die Contraction Hierarchies, die das Routingproblem bzw. einen kürzesten Pfad auf einem Graphen zu finden durch eine zuvor berechnete Reduktion des betrachteten Netzes beschleunigen, exakte Fehlerschranken liefern, und gleichzeitig die Berechnung einer optimalen Lösung durch Berechnung lokaler Routen ermöglicht. Das Verfahren kommt aber an Grenzen, wenn einige Aspekte nur mit Wahrscheinlichkeiten beschrieben werden können. Ein klassisches Optimierungsproblem ist das Problem des Handlungsreisenden, an dem sich die verschiedenen Verfahren und Analysen der diskreten Optimierung illustrieren lassen. Dabei hat das Problem die Forschungsrelevanz nicht verloren: Viele neue Verfahren und Forschungsansätze gehen auf das Problem des Handlungsreisenden zurück. Gleichzeitig steht das Problem stellvertretend für viele Optimierungsprobleme zu Reihenfolgen in der Anwendung und findet so immer neuen Einsatz. Grundsätzlich basieren Optimierungsprobleme auf der Suche nach Extremwerten, diese kann man beispielsweise mit Abstiegs- oder Aufstiegsverfahren versuchen zu finden. Will man nun Einschränkungen berücksichtigen, so kann man die Zielfunktion mit Lagrange-Multiplikatoren für die Restriktionen erweitern. Diese Multiplikatoren kann man als Strafterme verstehen, die das Finden des Optimums unter Einhaltung der Restriktionen erzwingen. Die Verwendung der Lagrange-Multiplikatoren erzeugt automatisch über die Lagrange-Dualität ein duales Problem und führt auch auf Sattelpunkte. Die neue Sichtweise ist aus mehreren Gründen sehr hilfreich: Zum einen vereinfacht diese Dualität mathematische Beweise, sie ermöglicht Abschätzungen für die Qualität von Lösungen und liefert gleich zwei alternative Verfahren, um ein Optimierungsproblem zu lösen. Ein Standardverfahren zum Lösen von linearen Optimierungsproblemen ist das Simplex-Verfahren. Hier wird ausgenutzt, dass lineare Restriktionen ein Polyeder bilden und eine lineare Optimierungsfunktion ihr Maximum auf einer (Hyper-)Fläche, einer Kante (bzw. entsprechenden höherdimensionalen Strukturen) oder einer Ecke annehmen muss. Diese Kanten und Ecken werden mit dem Verfahren systematisch durchsucht. Beim schriftlichen Rechnen hat das Simplex-Verfahren große Ähnlichkeit mit dem Gaußschen Eliminationsverfahren, das zum Lösen von linearen Gleichungssystemen eingesetzt wird. In der Praxis ist das Simplex-Verfahren sehr schnell, jedoch finden sich konstruierte Gegenbeispiele, auf denen das Simplex-Verfahren eine schrecklich langsame exponentielle Laufzeit an den Tag legt. Daher haben hier traditionelle innere Punkte-Verfahren und Barrier-Verfahren ein aufwandstheoretisch deutlich besseres Laufzeitverhalten, in der Praxis sind die Ergebnisse aber sehr gemischt. Hat man nun ein diskretes bzw. ganzzahliges Problem, so liefert das Simplex-Verfahren ohne Berücksichtigung der Diskretisierung typischerweise keine ganzzahlige Lösung, liefert aber Abschätzungen für das Optimum, da der Wert einer optimalen ganzzahligen Lösung nicht besser sein kann als der einer optimalen kontinuierlichen Lösung. Für die nicht-ganzzahligen Lösungen für einzelne Variablen wie kann man nun zwei ganzzahlige Restriktionen definieren wie oder , und jetzt zwei Teilprobleme bzw. "Branches" mit je einer der beiden Restriktionen zusätzlich lösen. So erhält man entweder ein unzulässiges Teilproblem, oder bereits ein ganzzahlige Lösung (nicht notwendigerweise eine beste) oder eben wieder eine nicht-ganzzahlige. Durch fortwährendes Verzeigen auf den nicht-ganzzahligen Variablen entsteht eine Baumstruktur der Teilprobleme. Mit Hilfe der aus den jeweiligen kontinuierlichen Relaxationen gewonnenen Schranken lassen sich ganze Äste des Baums abschneiden ("Bound"), in denen keine bessere Lösung mehr zu finden ist als die beste die man bisher gefunden hat. Dieses Verfahren führen wir für alle weiteren verbleibenden Probleme oder Branches durch bis eine optimale lineare und diskrete Lösung übrig bleibt. Damit liefert das Branch-and-Bound-Verfahren bzw. weiter verfeinert das Branch-and-Cut-Verfahren auf Basis der Lösung von vielen kontinuierlichen linearen Optimierungsproblemen die Lösung des diskreten Problems. Eine Erweiterung des Verfahrens auf besonders große Probleme ist das Branch-and-Price-Verfahren, das mit Basis von Column Generation die Variablen sucht, die für die Lösung des Gesamtproblems relevant sind, und das Problem eingeschränkt auf diese Variablen löst, ohne dabei Optimalität aufzugeben. Ein interessantes Beispiel ist hier das Bin Packing bzw. Behälterproblem, wo es darum geht, eine Anzahl von verschiedenen Objekten auf eine Anzahl von Behältern zu verteilen. Das Entscheidungsproblem, ob eine gegebene Anzahl von Behältern reicht, ist sowohl für Versandhäuser äußerst relevant, ist aber gleichzeitig auch NP-Vollständig, also aufwandstheoretisch nachgewiesen schwer. Hier kann man durch vorheriges Sammeln von möglichen Füllmustern ein riesengroßes Modell erstellen, dieses aber mit der column generation in der Praxis um so effizienter lösen. In der Industrie werden beispielsweise die Pakete Cplex, Gurobi oder Xpress zur Lösung von Optimierungsproblemen eingesetzt, die die besprochenen Verfahren umsetzen. Hier können auch Modellierungssprachen zum Einsatz kommen, die die Probleme abstrakt und menschenlesbar definieren. Vorteile sind hier die Trennung von Daten und Modell und auch die Trennung von Problem und Löser. Ein Beispiel für eine Modellierungssprache für Optimierungsproblemen ist GAMS, sie stehen aber heutzutage in starker Konkurrenz zu modernen Programmiersprachen wie Python. Im Sinne des Leitsatzes "Tue Gutes und rede darüber" ist die Kommunikation von Wissenschaft für Forschende in Öffentlichkeit, Social Media und Internet eine große Gelegenheit mit vielen Vorteilen: Neben dem Austausch von wichtigen Erfahrungen zum Beispiel zum Schreiben wissenschaftlicher Paper, hilft es der wissenschaftlichen Vernetzung, der gesellschaftlichen Diskussion zur Relevanz des Forschungsgebiet über den Tellerand hinaus, und interessiert auch die Öffentlichkeit und auch junge Menschen näher in die spannenden Themen einzusteigen. Literatur und weiterführende Informationen G. Lach, M. Lübbecke: Optimal university course timetables and the partial transversal polytope, International Workshop on Experimental and Efficient Algorithms. Springer Berlin Heidelberg, 2008. C. Liebchen, M. Lübbecke, R. Möhring, S. Stiller: The concept of recoverable robustness, linear programming recovery, and railway applications, in Robust and online large-scale optimization (pp. 1-27). Springer Berlin Heidelberg, 2009. S. Goderbauer: Mathematische Optimierung der Wahlkreiseinteilung für die Deutsche Bundestagswahl, Springer Spektrum, Springer BestMasters, 2016. S. Goderbauer, B. Bahl, P. Voll, M. Lübbecke, A. Bardow, A. Koster: An adaptive discretization MINLP algorithm for optimal synthesis of decentralized energy supply systems, Computers & Chemical Engineering, 95, 38-48, 2016. R. Geisberger: Contraction Hierarchies: Faster and Simpler Hierarchical Routing in Road Networks, Diplomarbeit am Institut für Theoretische Informatik Universität Karlsruhe, 2008. M. Lübbecke, J. Desrosiers: Selected topics in column generation, Operations Research, 53(6), 1007-1023, 2005. M. Lübbecke: How to write a paper, blog post, 2014. M. Lübbecke: Are we too complicated? Communication of the Travelling Salesperson Problem in public, blog post, 2015. Podcasts S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung P. Vortisch: Verkehrsmodellierung I, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrsmodellierung-i K. Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Dickmann: Pumpspeicherkraftwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/pumpspeicher J. Wolf: Puerto Patida, das Rätselhörspiel zum Mitmachen, http://OhneQ.de, 2015-2016.

social media internet man personal fall mit revolution plan als computers dabei erfahrungen definition durch probleme seite ziel dazu damit beispiel suche bound grenzen erfahrung qualit universit basis kommunikation viele entscheidung auswirkungen entscheidungen praxis beim realit bereich wert analyse einsatz hoffnung diskussion vorteile programme branch zum programm zusammenhang maximum werte optimal intelligenz daten minimum daher aspekte ergebnisse wissenschaft technologie methoden begriff austausch python finden experimental gelegenheit institut gleichzeitig beh prozent planung forschung struktur feld industrie strukturen verlust konflikte branches schreiben modell trennung wirklichkeit konkurrenz prinzip abstand gebiet kooperation literatur existenz facetten ecke einladung ebenen einschr anwendung vordergrund repr zwar anzahl voll relevanz beschreibung bundestagswahl in deutschland robust verfahren sichtweise mit hilfe das problem grunds jedoch verkehr vorgehen analysen betrachtung ecken herangehensweise karlsruhe np toleranz zusammenspiel chemical engineering bestimmung optimierung daneben vernetzung gerrymandering resultat erstellung mathematik algorithmen sammeln verz mitmachen lach optimum ausprobieren heutzutage modellen elementen kante beweise pfad bezeichnung reduktion einhaltung ein beispiel pnv x press fakult rechnen eingriffe beschreibungen berechnung laufzeit lehrstuhl aggregation abschneiden schranken objekten mathematiker dualit routen operations research gitter forschende tu berlin begriffs clustering bahl verfahrens datenmengen treffens gau restriktionen schnitte absch im sinne wahlkreis rwth aachen abbildung variablen schnittmenge sensorik im kleinen diplomarbeit netzes modellierung gams das verfahren die verwendung eine strategie gesichtspunkt abstiegs fehlerquellen karlsruher institut forschungsgebiet werts wahlberechtigten graphen versandh technologie kit uni g zum gespr baums die optimierung marco l forschungsans international workshop mathematisch gegenbeispiele dieses verfahren tellerand fachgruppe eine erweiterung reihenfolgen springer berlin heidelberg polyeder ohneq nebenbedingungen sebastian ritterbusch teilprobleme diskretisierung modellansatz podcast relaxationen
Modellansatz
Schulwegoptimierung

Modellansatz

Play Episode Listen Later Jul 21, 2016 36:29


Sven Müller ist Professor für Verkehrsbetriebswirtschaft im Studiengang Verkehrssystemmanagement an der HTW hier in Karlsruhe. Im Rahmen seiner Promotion an der TU Dresden in der Gruppe von Knut Haase begann er der Frage nachzugehen, welche Faktoren die Verkehrsmittelwahl für den Schulweg beeinflussen. Hintergrund dieser Frage war, dass zu der Zeit in Dresden die Schließung von Schulstandorten heiß diskutiert wurde. Die Notwendigkeit von Schulschließungen war dabei nicht umstritten, jedoch welche konkrete Variante die für alle beste Lösung darstellen würde. Hier war die Diskussion emotional stark aufgeladen, d.h. ein Modell, das bei der Planung des Schulnetzes für objektive Informationen sorgt, wäre ganz besonders hilfreich. Am besten mit klaren Empfehlungen für optimale Lösungen in Bezug auf Schulwege und deren Kosten. Der naheliegende und auch herkömmliche Indikator für so ein Modell ist eine Distanzminimierung. Dadurch lassen sich objektive Aussagen zu minimalen Transportkosten für die Schüler ermitteln. Jedoch stellte sich schnell heraus, dass verlässliche Aussagen dazu fehlten, welche Verkehrsmittel die Schüler anteilig wählen und wieso. Ebenso welche Schulen die Schüler selbst wählen würden und wieso. Deshalb war ein wichtiger Ausgangspunkt für das Forschungsthema eine sehr groß angelegte Schüler-Befragung, die von den Studierenden im Rahmen eines Seminares geplant und durchgeführt wurde. Durch das große Engagement war die Stichprobe schließlich sehr groß. Es wurden dabei Fragebögen in fast allen Schulen verteilt und die Ergebnisse in einer selbst konzipierten Datenbank gesammelt - gut aufbereitet für eine anschließende Auswertung und Optimierung. So war es möglich, aus diesen Daten Prognosen zur Verkehrsmittelwahl in Abhängigkeit von Distanz und Verkehrsmitteloptionen zu erstellen und über verschiedene Schließungsszenarien eine optimale Verteilung der Schulen (in Bezug auf Kosten für die Stadt) zu ermitteln. All das floß auch in die Promotion von Sven Müller ein. Als wichtiges Problem für die mathematische Behandlung der Optimierung erwies sich, dass die Optimierungslösung auf die Daten zurückwirkt. Das führt auf ein dynamisches Problem, das mit herkömmlichen Methoden nicht behandelt werden kann. Auch bei der ÖPNV-Planung von optimierten Liniennetzen tritt das Problem auf: Kürzere Reisezeiten und mehr Direktverbindungen führen z.B. zu einem höheren Fahrgastaufkommen. Mathematisch ausgedrückt heißt das die Nebenbedingungen werden dynamisch und das Problem wird in der Regel nichtlinear. Betriebliche Problemstellungen haben oft ein ähnliches Problem, d.h. die Daten bleiben nicht fix sondern sind abhängig von der gefundenen Lösung. Ein wichtiges Teilergebnis des Forschungsvorhabens von Sven Müller ist eine exakte lineare Reformulierung für das ursprünglich nicht-lineare Optimierungsmodell. Ein weiteres grundsätzliches Problem ist, dass die Nutzenfunktion hinreichend genau beobachtet werden müsste. Ideal wäre es, wenn nur noch weißes Rauschen im Störterm berücksichtigt werden muss, d.h. alle zufälligen Anteile sind wirklich nur zufällig und unverbunden mit den beobachteten Daten. Das ist in der Realität leider nicht möglich und so führen nicht beobachtete Anteile zu Kovarianzen im Modell, die nicht null sind. Anders ausgedrückt, ist der stochastische Anteil nicht nur weißes Rauschen. Nebenbei gewann er noch einige andere Erkenntnisse. Z.B. ist es für die Prognose der Fahrradnutzung nicht ausreichend, die Distanz als Maß zu nehmen, da es bergauf- bzw. bergab gehen kann und das für die Entscheidung mindestens ebenso wichtig ist wie die Entfernung. Dieser Frage geht er zur Zeit auch mit seinen Studierenden im Studiengang Verkehrssystemmanagement an der HTW nach. Zwei weitere Themen, an denen Sven Müller zur Zeit arbeitet, weil sich gute Anknüpfungspunkte aus den eben geschilderten neuen Optimierungsstrategien bieten, sind z.B. die Versorgungsplanung in der Medizin und die Planung der Pilgerströme in Mekka.Genauer gesagt geht es bei der Versorgungsplanung um Vorsorgeprogramme (Prävention). Durch eine hohe Attraktivität des Angebots soll erreicht werden, das möglichst viele Patienten freiwillig teilnehmen. Auch hier ist die gute Erreichbarkeit der Ärzte wichtig, aber auch ihre Attraktivität. Es gilt abzuwägen, wie viele Ärzte an dem Präventionsprogramm mit welcher Kapazität teilnehmen sollen. Einerseits aus Kostengründen natürlich möglichst wenige. Aber andererseits ist gerade die kurze Wartezeit auf einen Termin ein Garant dafür, dass der Termin auch wahrgenommen wird. Somit führt die Optimierung wieder auf ein dynamisches Problem. Viele Standorte führen zu kurzen Wegen und weniger "no shows". Aber viele Untersuchungen bei einem Arzt stärken seine Kompetenz - verlängern aber die zu erwartende Wartezeit. Leider führt das außerdem auf ein nicht konvexes Optimierungsproblem, d.h. die Existenz von Optima folgt nicht mit traditionellen Methoden (bei denen ist Konvexität eine zentrale Voraussetzung). In Mekka sind während einer reicht kurzen Zeit etwa 2-5 Millionen Pilger unterwegs, um Rituale durchzuführen wie die Umkreisung der Kaaba und die symbolische Steinigung des Teufels an drei Säulen. Um das Risiko von Zwischenfällen, bei denen in der Vergangenheit schon hunderte von Todesopfern zu beklagen waren, zu senken, wird das Verhalten der Pilger modelliert in Bezug auf Geschwindigkeit und Dichte. Anschließend werden rund 2 Millionen Pilger, Routen zugewiesen, die so berechnet sind, dass alle Routen möglichst kreuzungsfrei sind. Weiterhin erhalten die Pilger fest zugewiesene Steinigungszeiten, so dass die erwarteten Dichten möglichst unkritisch sind. Der Einfluss von bestimmten Fehlern, wie z.B. falsch gesetzte Zäune oder falsch interpretierte Anweisungen kann dabei nicht völlig ausgeschlossen werden und wird als Risikofaktor in der Auslastung der Routen berücksichtigt. Die Studierenden im Studiengang Verkehrssystemmanagement an der Hochschule Karlsruhe - Wirtschaft und Technik sind hier an forderster Forschungsfront dabei. Z.B. mit Experimenten zu Fußgänger-Verhalten. Denn auch hier ist eine gute Datenlage der Schlüssel zum Erfolg. Literatur und weiterführende Informationen S. Müller e.a.: Travel-to-school mode choice modelling and patterns of school choice in urban areas, Journal of Transport Geography 16 (2008) 342–357 S. Müller: Bildungsstandorte und demographischer Wandel, STANDORT 34 (2010) 6–10 S. Müller e.a: Exposing Unobserved Spatial Similarity: Evidence from German School Choice Data, Geographical Analysis 44 (2012) 65–86 K. Haase, S. Müller: Management of school locations allowing for free school choice, Omega 41 (2013) 847–855 K. Haase, S. Müller: Insights into clients’ choice in preventive health care facility location planning , OR Spectrum 37 (2015) 273-291 K. Haase e.a.: Improving Pilgrim Safety During the Hajj: An Analytical and Operational Research Approach Interfaces 46 (2016) 74-90

Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
Erzeugung von positiv definiten Matrizen mit Nebenbedingungen zur Validierung von Netzwerkalgorithmen für Microarray-Daten

Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02

Play Episode Listen Later Jun 6, 2008


Microarray-Daten werden in letzter Zeit häufig genutzt, um mit Hilfe verschiedener Verfahren Netzwerke der Gen-Gen-Interaktion zu generieren. Die vorliegende Arbeit beschäftigt sich mit Validierungsstudien solcher Verfahren. Der Startpunkt einer Validierungsstudie ist ein ungerichteter Graph, der biologische Strukturen repräsentieren soll. In dieser Arbeit wird motiviert, Graphen zu benutzen, die aus Microarray-Daten geschätzt worden sind. Nachdem ein Graph gewählt worden ist, werden Daten einer multivariaten Normalverteilung erzeugt, die durch eine zufällige Kovarianzmatrix charakterisiert ist. Diese Matrix muss symmetrisch und positiv definit sein, aber zusätzlich wird für eine nicht vorhandene Kante im Graphen gefordert, dass der zugehörige Eintrag in der Matrix Null ist. In dieser Arbeit wird ein neuer Ansatz vorgestellt, der es ermöglicht, symmetrische, positiv definite Matrizen mit Nebenbedingungen zu erzeugen. Diese Methode beruht auf der Moralisierung eines Graphen. Ein gerichteter, azyklischer Graph wird moralisiert, indem die gerichteten Kanten durch ungerichtete Kanten ersetzt werden und zusätzlich die Eltern eines jeden Knotens paarweise miteinander verbunden werden. Der zentrale Schritt bei der Erstellung der Matrizen mit Nebenbedingungen liegt in der Umkehrung des Moralisierungsvorganges. In dieser Arbeit wird die Klasse der Graphen eingeführt, die Resultat einer Moralisierung sein könnten - die prämoralisierbaren Graphen - und es wird ein Verfahren definiert, welches entscheidet, ob ein Graph prämoralisierbar ist und gegebenenfalls eine Umkehrung der Moralisierung durchführt. Die erzeugten Matrizen sollen als Korrelationsmatrizen für die Validierungsstudien genutzt werden. Dazu wird das vorgestellte Verfahren an einen Optimierungsalgorithmus gekoppelt, um die gewünschten Matrizen zu erzeugen, deren Diagonalelemente identisch 1 sind und für die die nicht als Null vorgegebenen Werte nahe 1 bzw. -1 liegen. Nicht jeder Graph ist prämoralisierbar. Da diese Eigenschaft notwendig ist für das Verfahren zur Erzeugung der Matrizen mit Nebenbedingungen, wird eine empirische Studie durchgeführt, die zeigt, dass ein Großteil der aus Microarray-Daten geschätzten Graphen auch prämoralisierbar ist. Die Arbeit schließt mit praktischen Anwendungen. Die Validierung eines bekannten Algorithmus zum Schätzen von Netzwerken wird durchgeführt und es wird ein Ansatz vorgestellt, mit dem man graphische Strukturen, die aus Microarray-Daten geschätzt worden sind, vergleichen kann, um signifikante Unterschiede zu finden.