Podcasts about simplex verfahren

  • 2PODCASTS
  • 4EPISODES
  • 1h 23mAVG DURATION
  • ?INFREQUENT EPISODES
  • Jan 25, 2018LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about simplex verfahren

Latest podcast episodes about simplex verfahren

Modellansatz
Sensoreinsatzplanung

Modellansatz

Play Episode Listen Later Jan 25, 2018 58:46


Wenn Naturkatastrophen passieren, ist schnelle Hilfe gefragt. Besonders nach Überschwemmungen oder Erdbeben ist es sehr wichtig, so schnell wie möglich Informationen über das betroffene Gebiet zu erhalten. Dazu befasst sich Kim Berude mit dem mathematischen Modell und Optimierung zur Einsatzplanung von Sensoren und Geräten am IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, in Karlsruhe und spricht mit Sebastian Ritterbusch darüber. Ursprünglich hat Kim Berude in Freiberg an der Technischen Universität Bergakademie Freiberg Angewandte Mathematik studiert, um dann auf eine Stellenausschreibung des IOSB die Chance zu nutzen, im Bereich der Operations Research etwas Praxisluft zu schnuppern. Die Aufgabe der Sensoreinsatzplanung führt direkt auf ein Vehicle Routing Problem bzw. Tourenplanungsproblem, ähnlich wie es täglich Paketdienstleister erfüllen. Die Hauptaufgabe liegt darin die Sensoren oder Assets möglichst effizient an die verschiedenen Zielorte zu bringen, die Herausforderung liegt aber darin, gleichzeitig verschiedene Nebenbedingungen zu erfüllen. Im Falle der Sensoreinsatzplanung können die Nebenbedingungen durch Reihenfolgen der Abarbeitung, Zeitfenster oder in begrenzen Resourcen der Fahrzeuge liegen, alles das muss geeignet modelliert werden. Eine vereinfachte Fassung des Tourenplanungsproblems ist das Traveling Salesperson Problem, bei dem die Aufgabe besteht, für eine handelnde Person, eine optimale kürzeste Route durch eine festgelegte Anzahl von Städten zu finden und jede dieser Städe nur einmal anzufahren. Schon dieses Problem ist in der Klasse der NP-Probleme, die nicht deterministisch in polynomialer Zeit lösbar erscheinen. Das bedeutet, dass die erforderliche Rechenleistung oder Rechenzeit für eine Lösung sehr schnell sehr extrem ansteigt. Entsprechend ist auch das allgemeinere Tourenplanungsproblem ebenso rechenintensiv. In der Sensoreinsatzplanung gibt es gegenüber dem Tourenplanungsproblem zusätzlich die besondere Herausforderung, dass eine sehr heterogene Flotte, also sehr unterschiedliche Sensoren und zugehörige Fahrzeuge, zum Einsatz kommen soll. In der mathematischen Optimierungstheorie nehmen diskrete Probleme eine besondere Stellung ein. Zunächst einmal muss man sich bewusst werden, dass durch jedes Fahrzeug und jede Nebenbedingung weitere Variablen und Gleichungen entstehen, und damit eine höhere Detailtiefe der Modellierung sich unmittelbar auf die Dimension des zu lösenden Problems auswirkt. Ein Standardverfahren um lineare kontinuierliche Optimierungsprobleme zu lösen ist das Simplex-Verfahren. Das funktioniert aber nicht für diskrete Probleme, da es beliebige Zwischenwerte als Ergebnisse erhalten kann. Man könnte alle diskreten Möglichkeiten natürlich auch ausprobieren, das könnte aber sehr lange dauern. Eine Lösung sind hier die Branch-and-Bound-Verfahren, die das Problem zunächst kontinuierlich lösen, um eine untere Grenze des erwartbaren Ergebnisses zu erhalten. Aus einer nicht ganzzahligen Lösungsvariable werden nun zunächst die nächsten ganzzahligen Varianten in einer Fallunterscheidung untersucht und das Problem in der reduzierten Fassung gelöst. Gibt es eine erste ganzzahlige Lösung, so gibt es nun Grenzen in beide Richtungen, die ermöglichen die Zahl der noch auszuprobierenden Varianten stark einzugrenzen. Sind alle Varianten probiert, bzw. durch die Abschätzungen ausgeschlossen, so erhält man deutlich effizienter eine Lösung als wenn man alle Varianten durchprobiert. Der A*-Algorithmus ist sehr verwandt zum Branch-and-Bound-Verfahren und wird zum Routing auf Wegenetzen verwendet, beispielsweise im Terrain Projekt. Hier werden Grenzen durch Luftlinie und ebenso gefundene erste Lösungen bestimmt und ebenso recht schnell zum kürzesten Weg zwischen zwei Punkten zu gelangen. Eine Verfeinerung des Branch-and-Bound Verfahrens ist das Branch-and-Cut Verfahren, wo das durch lineare Ungleichungen entstehende Polyeder durch zusätzliche ganzzahlige Lösungen präferierende Einschränkungen weiter einschränkt, und damit das effiziente Simplex-Verfahren noch zielgerichteter einsetzt. Dieses Verfahren und weitere Verfeinerungen wurden im Podcast zu Operations Research mit Marco Lübbecke weiter erklärt. Die bisher betrachteten Verfahren liefern immer exakt die optimale Lösung, sie sparen nur Zeit, in dem sie unnötige Berechnungen für schlechtere Varianten einsparen. Ist das Problem jedoch so komplex, dass die exakten Verfahren nicht in annehmbarer Zeit eine Lösung liefern, so können Heuristiken helfen, das Problem im Vorfeld in der Komplexität deutlich zu reduzieren. Ein Ansatz ist hier die Neighborhood Search, wo gerade in der Umgebung gefundener regulärer Lösungen nach besseren Varianten gesucht wird. Die spannende Frage ist hier, mit welchen Akzeptanzkriterien zielgerichtet nach passenden Lösungen in der Nachbarschaft gesucht werden. Die Verfahren wurden an realitätsnahen Testfällen erprobt und evaluiert, wo Kim Berude in ihrer Diplomarbeit den Aspekt des Mehrfacheinsatzes gegenüber schon vorhandenen Optimierungslösungen hinzugefügt hat. Die Fragestellungen kommen keineswegs aus rein wissenschaftlichem Interesse, sondern werden am IOSB direkt benötigt. Die Messeinrichtungen kommen überall auf der Welt zum Einsatz, selbst bei Großveranstaltungen wie 'Das Fest' in Karlsruhe. Die Verfahren der Tourenplanung haben sehr viele Einsatzmöglichkeiten und ein berühmtes Beispiel ist, dass Speditionen durch Vermeiden von Linksabbiegen Zeit und Geld sparen. Literatur und weiterführende Informationen P. Toth, D. Vigo: The vehicle routing problem, Society for Industrial and Applied Mathematics, 2002. I. H. Osman: Metastrategy simulated annealing and tabu search algorithms for the vehicle routing problem, Annals of operations research 41.4: 421-451, 1993. P. Shaw: Using constraint programming and local search methods to solve vehicle routing problems, International Conference on Principles and Practice of Constraint Programming. Springer, Berlin, Heidelberg, 1998. D. Pisinger, S. Ropke: Large neighborhood search, Handbook of metaheuristics. Springer US, 399-419, 2010. S. Ropke, D. Pisinger: An adaptive large neighborhood search heuristic for the pickup and delivery problem with time windows, Transportation science 40.4: 455-472, 2006. Z. Wang, W. Liang, X. Hu: A metaheuristic based on a pool of routes for the vehicle routing problem with multiple trips and time windows, Journal of the Operational Research Society 65.1: 37-48, 2014. D. Cattaruzza, N. Absi, D. Feillet: Vehicle routing problems with multiple trips, 4OR 14.3: 223-259, 2016. Studiengang Angewandte Mathematik an der TU Freiberg Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung U.Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen L. Osovtsova: Logistik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 33, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/logistik

Modellansatz
Operations Research

Modellansatz

Play Episode Listen Later Oct 19, 2016 151:18


Marco Lübbecke hat als Mathematiker den Lehrstuhl für Operations Research an der RWTH Aachen inne. Sein Lehrstuhl ist sowohl der Fakultät für Wirtschaftswissenschaften als auch der Fachgruppe für Mathematik zugeordnet. Zum Gespräch mit Sebastian Ritterbusch in Karlsruhe kam es anlässlich des Treffens der DFG Forschergruppe 2083: Integrierte Planung im öffentlichen Verkehr auf Einladung von Peter Vortisch, der auch schon zur Verkehrsmodellierung in Folge 93 in diesem Podcast zu hören war. Auf Twitter sind Marco Lübbecke unter @mluebbecke und sein Lehrstuhl unter @RWTH_OR zu finden und er schreibt das Blog Café Opt. Operations Research befasst sich zusammenfassend mit mathematischen Modellen und Methoden zur Entscheidungsunterstützung. Dabei steht oft die Frage einer möglichst guten oder optimierten Entscheidung im Vordergrund und daher ist das Gebiet von mathematischer Seite im Bereich der mathematischen Optimierung angesiedelt. Die Optimierung behandelt grundsätzlich die Bestimmung eines optimalen Werts einer Zielfunktion (und einer dazugehörenden Lösung) unter Berücksichtigung von einschränkenden Nebenbedingungen, den Restriktionen. Daneben steht aber auch die Frage der geeigneten Abbildung und Modellierung der Wirklichkeit und den Fehlerquellen der Beschreibung wie auch die grundsätzliche Herangehensweise an das Problem. Das optimierte Zusammenspiel von Menschen, Algorithmen und Technologie wird seit 2011 auch oft mit dem Begriff Industrie 4.0 für eine erhoffte vierte industrielle Revolution beschrieben. Die einheitliche Definition des Begriffs lassen aber selbst renommierte Industrievertreter offen. Als eine Schnittmenge der Beschreibungen kann man die lokale Intelligenz von Fertigungskomponenten ausmachen, die über Vernetzung und Sensorik zu einem besseren Gesamtprozess führen kann. Im Kleinen werden so Entscheidungsprozesse durchgeführt und dies führt grundlegend auf die gerade eingeführte mathematische Optimierungstheorie mit allen ihren Facetten. So gesehen ist die Industrie 4.0 als Optimierungsproblem eigentlich ohne Mathematik undenkbar. Ein in der Universität sehr naheliegendes Feld der Optimierung ist die Vorlesungsplanung, und hier ist aus der Forschung zusammen mit Gerald Lach in Kooperation zwischen der TU Berlin und der RWTH Aachen die Lösung Mathplan entstanden, die inzwischen an vielen Universitäten erfolgreich zur Vorlesungs-, Tutorien- und Klausurplanung eingesetzt wird. Mit genügend Zeit und genügend Personal kann man zwar einen einigermaßen akzeptablen Plan mit viel Erfahrung auch ohne besondere mathematische Optimierung aufstellen, das ändert sich aber schlagartig, wenn kurzfristige Änderungen berücksichtigt und Konflikte aufgelöst werden müssen. Mathematisch geht es hier um ganzzahlige lineare Programme, für die zwar Lösungsverfahren bekannt waren, diese für die Größenordnung der Probleme nicht geeignet waren. Eine Modellreduktion ohne Verlust der Optimalität führte hier zur Lösung. Auch in der Erstellung von Zugfahrplänen besteht ein großes Optimierungspotential. Da die Realität nicht perfekt planbar ist, geht es hier besonders um eine robuste Planung, die auch bei entstehenden Störungen noch das anvisierte Ziel erreichen kann. In der Forschung unter anderem auch mit Anita Schöbel der Uni Göttingen geht es um die Analyse der Fortpflanzungen von Verzögerungen, damit besonders kritische Fälle besonders behandelt werden können. Ein weiterer Gesichtspunkt ist aber auch die Möglichkeit Probleme möglichst gut durch kleine Eingriffe wieder korrigieren zu können. Ein zunächst überraschendes Forschungsthema ist die Bundestagswahl, wo sich Sebastian Goderbauer mit der optimierten Wahlkreiseinteilung befasst. Die 299 Bundestagswahlkreise werden weitaus häufiger neu zugeschnitten als man denkt: Da nach Bundestagswahlgesetz jeder Wahlkreis gerade 1/299-tel der Wahlberechtigten mit einer Toleranz von maximal 25 Prozent vertreten muss, erfordert die Wählerwanderung und Veränderung der Bevölkerungsstruktur die regelmäßigen Veränderungen. Das sogenannte Gerrymandering ist besonders bei Wahlen mit Mehrheitswahlrecht ein sehr problematisches Vorgehen bei Wahlkreisveränderungen, das offensichtlich undemokratische Auswirkungen hat. In Deutschland ist dies weniger ein Problem, wohl aber die deutlich ungleiche Größenverteilung der Wahlkreise. Die mathematische Definition und Betrachtung als Optimierungsproblem trägt die Hoffnung in sich, dass das Zuschnitt-Verfahren transparenter und nachvollziehbarer als bisher abläuft, und das sich dadurch balanciertere Wahlkreisgrößen ergeben können. Ein zentrales Forschungsgebiet ist für Marco Lübbecke der Bereich der ganzzahligen Programme. Die vielen auftretenden Variablen können beispielsweise Entscheidungen repräsentieren, die diskrete Werte wie ja oder nein repräsentieren. Dazu kommen verschiedene Resktriktionen und Nebenbedingungen, die Einschränkungen aus der Umgebungssituationen wie beispielsweise begrenzte Resourcen darstellen. Der Begriff "Programm" für die Bezeichnung von Optimierungsproblemen ist historisch aus dem englischen Begriff "programming" entstanden, der früher intensiv für "Planung" verwendet wurde. Heutzutage ist dieser Zusammenhang nicht mehr so naheliegend und entsprechend hat sich die Mathematical Programming Society (MPS) in Mathematical Optimization Society (MOS) umbenannt. Sind die Variablen eines Optimierungsproblems im , so kann man sich Schnitte mit linearen Ungleichungen wie das halbseitige Abschneiden des Lösungsraumes mit Ebenen vorstellen. Man nennt das Resultat ein Polyeder oder Vielflächner. Ist nun zusätzlich auch die Zielfunktion linear, so spricht man von einem linearen Optimierungsproblem oder linearen Programm. Wird nun der Lösungsbereich mit einem Gitter geschnitten, d.h. die Variablen können nur diskrete wie z.B. nur ganzzahlige Werte annehmen, so wird das Optimierungsproblem deutlich schwieriger. Dies ist erstaunlich, da der Lösungsbereich deutlich eingeschränkt wird. Jedoch verliert der Lösungsbereich seine konvexe Struktur und führt im linearen Fall von einem in polynomialer Zeit lösbaren Problem zu einem NP-schweren Problem. Wenn die Lösungsmenge eine beschränkte Anzahl von Elementen besitzt, so ist die Existenz von Maximum und Minimum durch Ausprobieren leicht zu beweisen. Das Problem ist jedoch, dass bei großen Datenmengen das vollständige Durchsuchen viel zu lange dauern würde. Eine Strategie zur Reduktion des Problems ist hier die Aggregation oder das Clustering, wo verschiedene Aspekte durch einzelne Repräsentanten dargestellt und gruppiert werden und so Rechenzeit eingespart wird. Zwar werden so nur approximierte Probleme gelöst, jedoch deutlich schneller und wenn möglich mit Fehlerschranken, die den maximalen Abstand zur tatsächlichen Lösung spezifizieren. Ein Beispiel für dieses Prinzip sind die Contraction Hierarchies, die das Routingproblem bzw. einen kürzesten Pfad auf einem Graphen zu finden durch eine zuvor berechnete Reduktion des betrachteten Netzes beschleunigen, exakte Fehlerschranken liefern, und gleichzeitig die Berechnung einer optimalen Lösung durch Berechnung lokaler Routen ermöglicht. Das Verfahren kommt aber an Grenzen, wenn einige Aspekte nur mit Wahrscheinlichkeiten beschrieben werden können. Ein klassisches Optimierungsproblem ist das Problem des Handlungsreisenden, an dem sich die verschiedenen Verfahren und Analysen der diskreten Optimierung illustrieren lassen. Dabei hat das Problem die Forschungsrelevanz nicht verloren: Viele neue Verfahren und Forschungsansätze gehen auf das Problem des Handlungsreisenden zurück. Gleichzeitig steht das Problem stellvertretend für viele Optimierungsprobleme zu Reihenfolgen in der Anwendung und findet so immer neuen Einsatz. Grundsätzlich basieren Optimierungsprobleme auf der Suche nach Extremwerten, diese kann man beispielsweise mit Abstiegs- oder Aufstiegsverfahren versuchen zu finden. Will man nun Einschränkungen berücksichtigen, so kann man die Zielfunktion mit Lagrange-Multiplikatoren für die Restriktionen erweitern. Diese Multiplikatoren kann man als Strafterme verstehen, die das Finden des Optimums unter Einhaltung der Restriktionen erzwingen. Die Verwendung der Lagrange-Multiplikatoren erzeugt automatisch über die Lagrange-Dualität ein duales Problem und führt auch auf Sattelpunkte. Die neue Sichtweise ist aus mehreren Gründen sehr hilfreich: Zum einen vereinfacht diese Dualität mathematische Beweise, sie ermöglicht Abschätzungen für die Qualität von Lösungen und liefert gleich zwei alternative Verfahren, um ein Optimierungsproblem zu lösen. Ein Standardverfahren zum Lösen von linearen Optimierungsproblemen ist das Simplex-Verfahren. Hier wird ausgenutzt, dass lineare Restriktionen ein Polyeder bilden und eine lineare Optimierungsfunktion ihr Maximum auf einer (Hyper-)Fläche, einer Kante (bzw. entsprechenden höherdimensionalen Strukturen) oder einer Ecke annehmen muss. Diese Kanten und Ecken werden mit dem Verfahren systematisch durchsucht. Beim schriftlichen Rechnen hat das Simplex-Verfahren große Ähnlichkeit mit dem Gaußschen Eliminationsverfahren, das zum Lösen von linearen Gleichungssystemen eingesetzt wird. In der Praxis ist das Simplex-Verfahren sehr schnell, jedoch finden sich konstruierte Gegenbeispiele, auf denen das Simplex-Verfahren eine schrecklich langsame exponentielle Laufzeit an den Tag legt. Daher haben hier traditionelle innere Punkte-Verfahren und Barrier-Verfahren ein aufwandstheoretisch deutlich besseres Laufzeitverhalten, in der Praxis sind die Ergebnisse aber sehr gemischt. Hat man nun ein diskretes bzw. ganzzahliges Problem, so liefert das Simplex-Verfahren ohne Berücksichtigung der Diskretisierung typischerweise keine ganzzahlige Lösung, liefert aber Abschätzungen für das Optimum, da der Wert einer optimalen ganzzahligen Lösung nicht besser sein kann als der einer optimalen kontinuierlichen Lösung. Für die nicht-ganzzahligen Lösungen für einzelne Variablen wie kann man nun zwei ganzzahlige Restriktionen definieren wie oder , und jetzt zwei Teilprobleme bzw. "Branches" mit je einer der beiden Restriktionen zusätzlich lösen. So erhält man entweder ein unzulässiges Teilproblem, oder bereits ein ganzzahlige Lösung (nicht notwendigerweise eine beste) oder eben wieder eine nicht-ganzzahlige. Durch fortwährendes Verzeigen auf den nicht-ganzzahligen Variablen entsteht eine Baumstruktur der Teilprobleme. Mit Hilfe der aus den jeweiligen kontinuierlichen Relaxationen gewonnenen Schranken lassen sich ganze Äste des Baums abschneiden ("Bound"), in denen keine bessere Lösung mehr zu finden ist als die beste die man bisher gefunden hat. Dieses Verfahren führen wir für alle weiteren verbleibenden Probleme oder Branches durch bis eine optimale lineare und diskrete Lösung übrig bleibt. Damit liefert das Branch-and-Bound-Verfahren bzw. weiter verfeinert das Branch-and-Cut-Verfahren auf Basis der Lösung von vielen kontinuierlichen linearen Optimierungsproblemen die Lösung des diskreten Problems. Eine Erweiterung des Verfahrens auf besonders große Probleme ist das Branch-and-Price-Verfahren, das mit Basis von Column Generation die Variablen sucht, die für die Lösung des Gesamtproblems relevant sind, und das Problem eingeschränkt auf diese Variablen löst, ohne dabei Optimalität aufzugeben. Ein interessantes Beispiel ist hier das Bin Packing bzw. Behälterproblem, wo es darum geht, eine Anzahl von verschiedenen Objekten auf eine Anzahl von Behältern zu verteilen. Das Entscheidungsproblem, ob eine gegebene Anzahl von Behältern reicht, ist sowohl für Versandhäuser äußerst relevant, ist aber gleichzeitig auch NP-Vollständig, also aufwandstheoretisch nachgewiesen schwer. Hier kann man durch vorheriges Sammeln von möglichen Füllmustern ein riesengroßes Modell erstellen, dieses aber mit der column generation in der Praxis um so effizienter lösen. In der Industrie werden beispielsweise die Pakete Cplex, Gurobi oder Xpress zur Lösung von Optimierungsproblemen eingesetzt, die die besprochenen Verfahren umsetzen. Hier können auch Modellierungssprachen zum Einsatz kommen, die die Probleme abstrakt und menschenlesbar definieren. Vorteile sind hier die Trennung von Daten und Modell und auch die Trennung von Problem und Löser. Ein Beispiel für eine Modellierungssprache für Optimierungsproblemen ist GAMS, sie stehen aber heutzutage in starker Konkurrenz zu modernen Programmiersprachen wie Python. Im Sinne des Leitsatzes "Tue Gutes und rede darüber" ist die Kommunikation von Wissenschaft für Forschende in Öffentlichkeit, Social Media und Internet eine große Gelegenheit mit vielen Vorteilen: Neben dem Austausch von wichtigen Erfahrungen zum Beispiel zum Schreiben wissenschaftlicher Paper, hilft es der wissenschaftlichen Vernetzung, der gesellschaftlichen Diskussion zur Relevanz des Forschungsgebiet über den Tellerand hinaus, und interessiert auch die Öffentlichkeit und auch junge Menschen näher in die spannenden Themen einzusteigen. Literatur und weiterführende Informationen G. Lach, M. Lübbecke: Optimal university course timetables and the partial transversal polytope, International Workshop on Experimental and Efficient Algorithms. Springer Berlin Heidelberg, 2008. C. Liebchen, M. Lübbecke, R. Möhring, S. Stiller: The concept of recoverable robustness, linear programming recovery, and railway applications, in Robust and online large-scale optimization (pp. 1-27). Springer Berlin Heidelberg, 2009. S. Goderbauer: Mathematische Optimierung der Wahlkreiseinteilung für die Deutsche Bundestagswahl, Springer Spektrum, Springer BestMasters, 2016. S. Goderbauer, B. Bahl, P. Voll, M. Lübbecke, A. Bardow, A. Koster: An adaptive discretization MINLP algorithm for optimal synthesis of decentralized energy supply systems, Computers & Chemical Engineering, 95, 38-48, 2016. R. Geisberger: Contraction Hierarchies: Faster and Simpler Hierarchical Routing in Road Networks, Diplomarbeit am Institut für Theoretische Informatik Universität Karlsruhe, 2008. M. Lübbecke, J. Desrosiers: Selected topics in column generation, Operations Research, 53(6), 1007-1023, 2005. M. Lübbecke: How to write a paper, blog post, 2014. M. Lübbecke: Are we too complicated? Communication of the Travelling Salesperson Problem in public, blog post, 2015. Podcasts S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung P. Vortisch: Verkehrsmodellierung I, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrsmodellierung-i K. Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Dickmann: Pumpspeicherkraftwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/pumpspeicher J. Wolf: Puerto Patida, das Rätselhörspiel zum Mitmachen, http://OhneQ.de, 2015-2016.

social media internet man personal fall mit revolution plan zeit hier als computers dabei erfahrungen durch definition probleme seite ziel dazu damit beispiel suche erfahrung qualit universit grenzen kommunikation bound viele entscheidung basis beim entscheidungen auswirkungen praxis realit wert hoffnung bereich einsatz diskussion analyse zum vorteile programm branch programme daher zusammenhang werte daten ergebnisse methoden wissenschaft minimum experimental maximum aspekte begriff finden python technologie optimal institut austausch gelegenheit prozent beh intelligenz gleichzeitig planung struktur forschung abstand modell schreiben branches feld strukturen prinzip industrie wirklichkeit verlust literatur konflikte konkurrenz trennung existenz einschr gebiet ecke kooperation zwar ebenen facetten einladung vordergrund anwendung voll bundestagswahl beschreibung anzahl wahlen mit hilfe repr verfahren relevanz grunds in deutschland sichtweise das problem jedoch verkehr vorgehen karlsruhe robust toleranz betrachtung ecken bestimmung analysen np zusammenspiel gerrymandering resultat daneben optimierung herangehensweise chemical engineering vernetzung mathematik algorithmen mitmachen erstellung verz optimum sammeln heutzutage lach ausprobieren kante modellen elementen beweise bezeichnung x press einhaltung pfad reduktion ein beispiel berechnung rechnen fakult pnv aggregation eingriffe beschreibungen lehrstuhl laufzeit schranken objekten abschneiden mathematiker dualit gitter clustering operations research routen tu berlin verfahrens datenmengen begriffs gau forschende restriktionen variablen abbildung schnitte treffens bahl diplomarbeit rwth aachen gesichtspunkt im sinne wahlkreis netzes absch sensorik schnittmenge modellierung im kleinen gams das verfahren eine strategie die verwendung forschungsgebiet fehlerquellen karlsruher institut abstiegs graphen werts versandh uni g technologie kit zum gespr baums forschungsans die optimierung wahlberechtigten dieses verfahren international workshop mathematisch marco l gegenbeispiele resourcen tellerand reihenfolgen fachgruppe polyeder ohneq diskretisierung eine erweiterung sebastian ritterbusch modellansatz podcast springer berlin heidelberg relaxationen teilprobleme nebenbedingungen ungleichungen simplex verfahren
Modellansatz
Pumpspeicherkraftwerke

Modellansatz

Play Episode Listen Later Oct 31, 2013 42:44


Julia Dickmann optimiert den Betrieb von Pumpspeicherkraftwerken ohne die Zukunft der Strompreise und Regenfälle genau zu kennen. Dazu geht sie im Gespräch mit Sebastian Ritterbusch auf Zeitreise aus der Zukunft in die Gegenwart, und berechnet so mit Topologiematrix und Simplex-Verfahren optimale Steuerungsstrategien auf Basis von statistischen Modellen. Literatur und Zusatzinformationen Dimitri P. Bertsekas: Dynamic programming and optimal control, Vol. 1., Athena Scientific, 2005. C. Cervellera, Cristiano, V. C. P. Chen, and A. Wen: Optimization of a large-scale water reservoir network by stochastic dynamic programming with efficient state space discretization, European Journal of Operational Research 171.3: 1139-1151, 2006. B. Falguni, and D. N. Kumar: Stochastic Linear Programming for Optimal Reservoir Operation: A Case Study, Proc. of International Conference on Large Scale Water Resources Development in Developing Countries: New Dimensions of Prospects and Problems, Kathmandu, Nepal, 1997.

Institut für Produktionswirtschaft und Controlling (LMU)
Produktionsplanung und -steuerung (Forts.) // Prozessplanung

Institut für Produktionswirtschaft und Controlling (LMU)

Play Episode Listen Later Jan 27, 2012 82:16


In dieser Sitzung wird zunächst das Simplex-Verfahren aus der vorigen Sitzung abschließend besprochen, bevor die Sitzung sich thematisch der Prozessplanung in der Organisation zuwendet. Hauptthema ist das Konzept der Losgrößenplanung, an das sich das Problem der Reihenfolgen- und Maschinenbelegungsplanung anschließt.