Podcasts about polyeder

  • 10PODCASTS
  • 33EPISODES
  • 1h 4mAVG DURATION
  • ?INFREQUENT EPISODES
  • May 15, 2022LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about polyeder

Latest podcast episodes about polyeder

German Magic Stories
Battle for Zendikar: Episode 19 - Die Ausrichtung der Polyeder

German Magic Stories

Play Episode Listen Later May 15, 2022 69:24


Das letzte Mal haben Gideon, Nissa, Kiora und die Streitmacht Zendikars Seetor zurückerobert. Doch dieses Mal müssen sie es verteidigen. Und zwar vor einem Eldrazi Titanen, der auf sie zu kommt... Ulamog. Die Story wurde so auf https://magic.wizards.com/de/articles/archive/magic-story/die-ausrichtung-der-polyeder-2015-11-18 veröffentlicht. Die Geschichte und Bilder sind eigentum von Wizards of the Coast. Da dies ein Fanprojekt ist, werde ich von Wizards of the Coast nicht gesponsort oder unterstützt.

Pi ist genau 3
Platonische Körper

Pi ist genau 3

Play Episode Listen Later May 21, 2021 34:25


Tetraeder, Oktaeder, Würfel, Dodekaeder und Ikosaeder sind die symmetrischsten Polyeder. Es gibt in drei Dimensionen auch nur diese fünf. Was das ganze mit Erdbeeren, eckenvermeidenden Wanderungen und den Etruskern zu tun hat erfahrt ihr in dieser Episode.

Modellansatz
Sensoreinsatzplanung

Modellansatz

Play Episode Listen Later Jan 25, 2018 58:46


Wenn Naturkatastrophen passieren, ist schnelle Hilfe gefragt. Besonders nach Überschwemmungen oder Erdbeben ist es sehr wichtig, so schnell wie möglich Informationen über das betroffene Gebiet zu erhalten. Dazu befasst sich Kim Berude mit dem mathematischen Modell und Optimierung zur Einsatzplanung von Sensoren und Geräten am IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, in Karlsruhe und spricht mit Sebastian Ritterbusch darüber. Ursprünglich hat Kim Berude in Freiberg an der Technischen Universität Bergakademie Freiberg Angewandte Mathematik studiert, um dann auf eine Stellenausschreibung des IOSB die Chance zu nutzen, im Bereich der Operations Research etwas Praxisluft zu schnuppern. Die Aufgabe der Sensoreinsatzplanung führt direkt auf ein Vehicle Routing Problem bzw. Tourenplanungsproblem, ähnlich wie es täglich Paketdienstleister erfüllen. Die Hauptaufgabe liegt darin die Sensoren oder Assets möglichst effizient an die verschiedenen Zielorte zu bringen, die Herausforderung liegt aber darin, gleichzeitig verschiedene Nebenbedingungen zu erfüllen. Im Falle der Sensoreinsatzplanung können die Nebenbedingungen durch Reihenfolgen der Abarbeitung, Zeitfenster oder in begrenzen Resourcen der Fahrzeuge liegen, alles das muss geeignet modelliert werden. Eine vereinfachte Fassung des Tourenplanungsproblems ist das Traveling Salesperson Problem, bei dem die Aufgabe besteht, für eine handelnde Person, eine optimale kürzeste Route durch eine festgelegte Anzahl von Städten zu finden und jede dieser Städe nur einmal anzufahren. Schon dieses Problem ist in der Klasse der NP-Probleme, die nicht deterministisch in polynomialer Zeit lösbar erscheinen. Das bedeutet, dass die erforderliche Rechenleistung oder Rechenzeit für eine Lösung sehr schnell sehr extrem ansteigt. Entsprechend ist auch das allgemeinere Tourenplanungsproblem ebenso rechenintensiv. In der Sensoreinsatzplanung gibt es gegenüber dem Tourenplanungsproblem zusätzlich die besondere Herausforderung, dass eine sehr heterogene Flotte, also sehr unterschiedliche Sensoren und zugehörige Fahrzeuge, zum Einsatz kommen soll. In der mathematischen Optimierungstheorie nehmen diskrete Probleme eine besondere Stellung ein. Zunächst einmal muss man sich bewusst werden, dass durch jedes Fahrzeug und jede Nebenbedingung weitere Variablen und Gleichungen entstehen, und damit eine höhere Detailtiefe der Modellierung sich unmittelbar auf die Dimension des zu lösenden Problems auswirkt. Ein Standardverfahren um lineare kontinuierliche Optimierungsprobleme zu lösen ist das Simplex-Verfahren. Das funktioniert aber nicht für diskrete Probleme, da es beliebige Zwischenwerte als Ergebnisse erhalten kann. Man könnte alle diskreten Möglichkeiten natürlich auch ausprobieren, das könnte aber sehr lange dauern. Eine Lösung sind hier die Branch-and-Bound-Verfahren, die das Problem zunächst kontinuierlich lösen, um eine untere Grenze des erwartbaren Ergebnisses zu erhalten. Aus einer nicht ganzzahligen Lösungsvariable werden nun zunächst die nächsten ganzzahligen Varianten in einer Fallunterscheidung untersucht und das Problem in der reduzierten Fassung gelöst. Gibt es eine erste ganzzahlige Lösung, so gibt es nun Grenzen in beide Richtungen, die ermöglichen die Zahl der noch auszuprobierenden Varianten stark einzugrenzen. Sind alle Varianten probiert, bzw. durch die Abschätzungen ausgeschlossen, so erhält man deutlich effizienter eine Lösung als wenn man alle Varianten durchprobiert. Der A*-Algorithmus ist sehr verwandt zum Branch-and-Bound-Verfahren und wird zum Routing auf Wegenetzen verwendet, beispielsweise im Terrain Projekt. Hier werden Grenzen durch Luftlinie und ebenso gefundene erste Lösungen bestimmt und ebenso recht schnell zum kürzesten Weg zwischen zwei Punkten zu gelangen. Eine Verfeinerung des Branch-and-Bound Verfahrens ist das Branch-and-Cut Verfahren, wo das durch lineare Ungleichungen entstehende Polyeder durch zusätzliche ganzzahlige Lösungen präferierende Einschränkungen weiter einschränkt, und damit das effiziente Simplex-Verfahren noch zielgerichteter einsetzt. Dieses Verfahren und weitere Verfeinerungen wurden im Podcast zu Operations Research mit Marco Lübbecke weiter erklärt. Die bisher betrachteten Verfahren liefern immer exakt die optimale Lösung, sie sparen nur Zeit, in dem sie unnötige Berechnungen für schlechtere Varianten einsparen. Ist das Problem jedoch so komplex, dass die exakten Verfahren nicht in annehmbarer Zeit eine Lösung liefern, so können Heuristiken helfen, das Problem im Vorfeld in der Komplexität deutlich zu reduzieren. Ein Ansatz ist hier die Neighborhood Search, wo gerade in der Umgebung gefundener regulärer Lösungen nach besseren Varianten gesucht wird. Die spannende Frage ist hier, mit welchen Akzeptanzkriterien zielgerichtet nach passenden Lösungen in der Nachbarschaft gesucht werden. Die Verfahren wurden an realitätsnahen Testfällen erprobt und evaluiert, wo Kim Berude in ihrer Diplomarbeit den Aspekt des Mehrfacheinsatzes gegenüber schon vorhandenen Optimierungslösungen hinzugefügt hat. Die Fragestellungen kommen keineswegs aus rein wissenschaftlichem Interesse, sondern werden am IOSB direkt benötigt. Die Messeinrichtungen kommen überall auf der Welt zum Einsatz, selbst bei Großveranstaltungen wie 'Das Fest' in Karlsruhe. Die Verfahren der Tourenplanung haben sehr viele Einsatzmöglichkeiten und ein berühmtes Beispiel ist, dass Speditionen durch Vermeiden von Linksabbiegen Zeit und Geld sparen. Literatur und weiterführende Informationen P. Toth, D. Vigo: The vehicle routing problem, Society for Industrial and Applied Mathematics, 2002. I. H. Osman: Metastrategy simulated annealing and tabu search algorithms for the vehicle routing problem, Annals of operations research 41.4: 421-451, 1993. P. Shaw: Using constraint programming and local search methods to solve vehicle routing problems, International Conference on Principles and Practice of Constraint Programming. Springer, Berlin, Heidelberg, 1998. D. Pisinger, S. Ropke: Large neighborhood search, Handbook of metaheuristics. Springer US, 399-419, 2010. S. Ropke, D. Pisinger: An adaptive large neighborhood search heuristic for the pickup and delivery problem with time windows, Transportation science 40.4: 455-472, 2006. Z. Wang, W. Liang, X. Hu: A metaheuristic based on a pool of routes for the vehicle routing problem with multiple trips and time windows, Journal of the Operational Research Society 65.1: 37-48, 2014. D. Cattaruzza, N. Absi, D. Feillet: Vehicle routing problems with multiple trips, 4OR 14.3: 223-259, 2016. Studiengang Angewandte Mathematik an der TU Freiberg Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung U.Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen L. Osovtsova: Logistik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 33, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/logistik

Modellansatz
Minimalflächen

Modellansatz

Play Episode Listen Later Dec 14, 2016 58:50


Lorenz Schwachhöfer ist seit 2003 Professor für Mathematik an der TU Dortmund. Gudrun kennt ihn aus ihrer Zeit als als Hochuldozentin dort (2004-2008). Seinen kurzen Gastaufenthalt in der AG von Prof. Tuschmann in Karlsruhe wollten die beiden ausnutzen, um ein Podcast-Gespräch zu führen. Das Forschungsgebiet von Lorenz Schwachhöfer gehört zur Differentialgeometrie. Deshalb dreht sich ihr Gespräch um zentrale Begriffe in diesem mathematischen Gebiet zwischen Geometrie und Analysis: Die Krümmung und das Finden von Minimalflächen. Der Begriff Krümmung kommt in unserer Alltagssprache vor. Die Mathematik muss das Konzept von "gekrümmt sein" nur klar fassen, um damit präzise arbeiten zu können. Die zentrale Eigenschaft, die durch das Wort beschrieben wird, ist wie sehr sich eine Fläche von einer Ebene unterscheidet. Oder auch wie stark sich eine Kurve von einer Geraden unterscheidet. Eine Ebene (bzw.eine Gerade) ist nicht gekrümmt. Mathematisch ausgedrückt haben sie deshalb die Krümmung 0. Wenn man nun untersuchen - und mit einer Zahl ausdrücken - möchte, wie sehr sich z.B. eine Kurve in jedem Punkt von eine Gerade unterscheidet, verwendet man folgenden Trick: Man definiert einen Parameter - z.B. die Bogenlänge - und stellt die Kurve als Funktion dieses Parameters dar. Dann berechnet man die Änderung des Richtungsvektors der Kurve in jedem Punkt. D.h. man braucht die zweite Ableitung nach dem Parameter in dem Punkt. Das Ergebnis für einen Kreis mit Radius r lautet dann: Er hat überall die Krümmung 1/r. Daran sieht man auch, dass kleine Kreise sehr stark gekrümmt sind während sehr große Kreise eine so kleine Krümmung haben, dass man sie fast nicht von einer Geraden unterscheiden kann. Auch die Erdoberfläche wirkt lokal wie eine Ebene, denn in der mit unseren Augen wahrgenommenen Umgebung ist ihre Krümmung klein. Was für Kurven recht anschaulich zu definieren geht, ist für Flächen im dreidimensionalen Raum nicht ganz so klar. Das einzig klare ist, dass für jede Art Krümmung, die man mathematisch definiert, jede Ebene in jedem Punkt die Krümmung 0 haben muss. Wenn man die Idee der Parametrisierung auf Flächen überträgt, geht das im Prinzip auch, wenn man zwei Parameter einführt und Krümmung auf eine bestimmte Richtung im Punkt auf der Fläche entlang bezieht. Beim Zylinder kann man sich gut vorstellen, wie das Ergebnis aussieht: Es gibt die Richtung entlang der Kreislinie des Querschnitts. Diese Kurve ist ein Kreis und hat die Krümmung 1/r. Läuft man dazu im rechten Winkel auf der Zylinderhülle, folgt man einer Gerade (d.h. Krümmung in diese Richtung ist 0). Alle anderen Wege auf der Zylinderoberfläche liegen in Bezug auf die Krümmung zwischen diesen beiden Werten 1/r und 0. Tatsächlich kann man auch für allgemeine Flächen zeigen, dass man in jedem Punkt eine Zerlegung in zwei solche "Haupt"-Richtungen findet, für die maximale bzw. minimale Krümmungswerte gelten (und die senkrecht zueinander sind). Alle anderen Richtungen lassen sich daraus linear zusammensetzen. Die Kugeloberfläche hat z.B. eine hohe Symmetrie und verhält sich in allen Richtungen gleich. Alle Wege auf der Kugeloberfläche sind lokal Teile von Kreisen. Man kann sich hier auch überlegen, was tangential bedeutet, indem man in einem Punkt auf der Oberfläche eine Ebene anschmiegt. Die Richtung senkrecht auf dieser tangentialen Ebene ist die Normalenrichtung auf dem Punkt der Kugeloberfläche an dem die Tangentialebene anliegt. Tatsächlich gibt es für Flächen aber mehr als einen sinnvollen Krümmungsbegriff. Man kann z.B. einen Zylinder sehr schön in Papier "einwickeln". Bei einer Kugel geht das nicht - es bleibt immer Papier übrig, das man wegfalten muss. Wenn man einen Kühlturm einpacken möchte, reicht das Papier nicht für die nach innen einbuchtende Oberfläche. Die Eigenschaft, die wir mir dem Einwickeln veranschaulicht haben, wird mit dem Begriff der Gaußkrümmung ausgedrückt. Um sie zu berechnen, kann man in einem Punkt die oben definierten Richtungsskrümmungen anschauen. Maximal- und Minimalwerte werden für senkrecht aufeinander stehende Richtungen realisiert. Das Produkt der beiden extremen Krümmungen ergibt dann die Gaußkrümmung. In unserem Beispiel mit dem Zylinder ist die Gaußkrümmung also 0 mal 1/r = 0. Das ist aber tatsächlich ganz unabhängig von der Richtungskrümmung untersuchbar, weil es sich durch Längen- bzw. Flächenverhältnisse in der Fläche bestimmen lässt. Genauer gesagt: Wenn man auf der Kugel um einen Punkt einen Kreis auf der Kugeloberfläche zieht (d.h. seine Punkte liegen auf der Kugeloberfläche und haben alle den Abstand r vom gewählten Punkt), hat dieses Objekt einen kleineren Flächeninhalt als ein ebener Kreis mit dem gleichen Radius. Deshalb sagt man: Die Kugel hat positive Gaußkrümmung. Bei negativer Gaußkrümmung ist der Flächeninhalt auf der Oberfläche größer als in der Ebene. Das trifft für den Kühlturm zu. Diese Eigenschaft lässt sich innerhalb der Fläche untersuchen. Man braucht gar keine Einbettung in einen umgebenden Raum. Das ist zunächst sehr überraschend. Es ist aber unbedingt nötig für Anwendungen in der Astrophysik, wo die Raumzeit wegen der Gravitation gekrümmt ist (d.h. sie ist kein euklidischer Raum). Es hat aber niemand ein Bild, in welche höhere Dimension man die Raumzeit einbetten sollte, um dann mit der Krümmung in Bezug auf diesen Raum zu arbeiten. Neben den beiden schon diskutierten Begriffen kann man auch mit der mittleren Krümmung arbeiten. Sie ist definiert als Mittelwert aller Richtungskrümmungen. Man kannn aber zeigen, dass dies stets das arithmetische Mittel zwischen minimaler und maximaler Krümmung ist. Dies hat auch eine physikalische Interpretation - z.B. als Flächenspannung für eine Membran, die eingespannt ist. Die Membran versucht, einen möglichst geringen Flächeninhalt - eine sogenannte Minimalfläche - zu realisieren, weil dies dem minimalen Energieaufwand entspricht. Spannungsfreie Flächen sind sehr stabil und deshalb für Architekten interessant. Im Schülerlabor Mathematik kann man mit Seifenhäuten selbst ausprobieren, welche Flächen sich hier für unterschiedliche Randkurven herausbilden. Z.B. wurde die Dachkonstruktion des ehemaligen Olympiastadions in München aus Minimalflächen konstruiert, die mit Seifenhäuten gefunden, fotographiert und nachgebaut wurden.. Mathematisch sprechen wir vom Plateau-Problem. Die Frage ist dabei: Hat jede geschlossene Kurve mindestens eine zugehörige Minimalfläche? Heute wissen wir, dass die Antwort - unter sehr geringen Regularitätsforderungen an die Kurve - fast immer ja ist. Sehr verblüffendend ist in diesem Zusammenhang auch der Satz von Gauß/Bonnet. Er sagt, dass das Integral über die Gaußkrümmung jeder in sich selbst geschlossenen Fläche ein ganzzahliges Vielfaches von 2π ist. Dieser Faktor heißt dann Euler-Charakteristik und hängt nur von der Topologie (grob gesprochen der Zahl der Löcher im Gebiet) ab. Beim Torus ist sie 0 und für die Kugeloberfläche 2. Interessant ist in diesem Zusammenhang auch die Behandlung von nicht glatten Kurven bzw. Flächen mit Ecken und Kanten. An den Kanten ist das Konzept der Gaußkrümmung noch recht einfach übertragbar. Der betrachtete Kreis auf der Oberfläche klappt sich dabei um die Kante herum. An den Ecken geht das nicht so einfach, sondern führt auf komplexere Gebilde. Wenn man sich aber z.B. einen Würfel ansieht, hat dieser fast überall die Krümmung 0. Trotzdem ist er (topologisch gesehen) einer Kugel viel ähnlicher als einer Ebene. Hier kann man den Begriff der Gaußkrümmung richtig für Polyeder mit Kanten und Ecken verallgemeinern und der Satz von Gauß/Bonnet überträgt sich sinngemäß auf Polyeder. Das Integral wird zur Summe über die Polyederflächen und wir erhalten den wohlbekannten Polyedersatz: Euler-Charakteristik mal Anzahl der Flächen - Anzahl der Kanten + Anzahl der Ecken = 2 Der Polyedersatz ist eigentlich ein kombinatorisches Ergebnis. Trotzdem zeigt sich hier, dass die topologischen Eigenschaften intrinsisch mit der Krümmung zusammenhängen, was sehr überraschend, aber auch sehr ästhetisch zwei einander sehr fremde Teilgebiete der Mathematik zusammenführt. Lorenz Schwachhöfer hat in Darmstadt und in New Orleans Mathematik studiert und nach seiner Promotion 1992 (in Philadelphia) u.a. wissenschaftlich Station gemacht an der Washington Universität (in St. Louis), dem Max Planck Institut für Mathematik in Bonn, der Universität in Leipzig (dort Habilitation) und an der Université Libre in Brüssel. Literatur und weiterführende Informationen J-H. Eschenburg & J. Jost: Differentialgeometrie und Minimalflächen. Springer Verlag, 3. Auflage, 2014. T. Matiasek: Seifenhäute und Minimalflächen: Natur, Geometrie und Architektur. VDM Verlag Dr. Müller, 2010 Wolfgang Kühnel: Differentialgeometrie: Kurven - Flächen - Mannigfaltigkeiten, Springer Verlag, 2013. Manfredo doCarmo, Differentialgeometrie von Kurven und Flächen, Vieweg+Teubner Verlag, 1993. Christian Bär, Elementare Differentialgeometrie, deGruyter, 2017. Video Seifenhäute (engl.) Podcasts P. Schwer: Metrische Geometrie. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/metrische-geometrie L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe

Modellansatz
Operations Research

Modellansatz

Play Episode Listen Later Oct 19, 2016 151:18


Marco Lübbecke hat als Mathematiker den Lehrstuhl für Operations Research an der RWTH Aachen inne. Sein Lehrstuhl ist sowohl der Fakultät für Wirtschaftswissenschaften als auch der Fachgruppe für Mathematik zugeordnet. Zum Gespräch mit Sebastian Ritterbusch in Karlsruhe kam es anlässlich des Treffens der DFG Forschergruppe 2083: Integrierte Planung im öffentlichen Verkehr auf Einladung von Peter Vortisch, der auch schon zur Verkehrsmodellierung in Folge 93 in diesem Podcast zu hören war. Auf Twitter sind Marco Lübbecke unter @mluebbecke und sein Lehrstuhl unter @RWTH_OR zu finden und er schreibt das Blog Café Opt. Operations Research befasst sich zusammenfassend mit mathematischen Modellen und Methoden zur Entscheidungsunterstützung. Dabei steht oft die Frage einer möglichst guten oder optimierten Entscheidung im Vordergrund und daher ist das Gebiet von mathematischer Seite im Bereich der mathematischen Optimierung angesiedelt. Die Optimierung behandelt grundsätzlich die Bestimmung eines optimalen Werts einer Zielfunktion (und einer dazugehörenden Lösung) unter Berücksichtigung von einschränkenden Nebenbedingungen, den Restriktionen. Daneben steht aber auch die Frage der geeigneten Abbildung und Modellierung der Wirklichkeit und den Fehlerquellen der Beschreibung wie auch die grundsätzliche Herangehensweise an das Problem. Das optimierte Zusammenspiel von Menschen, Algorithmen und Technologie wird seit 2011 auch oft mit dem Begriff Industrie 4.0 für eine erhoffte vierte industrielle Revolution beschrieben. Die einheitliche Definition des Begriffs lassen aber selbst renommierte Industrievertreter offen. Als eine Schnittmenge der Beschreibungen kann man die lokale Intelligenz von Fertigungskomponenten ausmachen, die über Vernetzung und Sensorik zu einem besseren Gesamtprozess führen kann. Im Kleinen werden so Entscheidungsprozesse durchgeführt und dies führt grundlegend auf die gerade eingeführte mathematische Optimierungstheorie mit allen ihren Facetten. So gesehen ist die Industrie 4.0 als Optimierungsproblem eigentlich ohne Mathematik undenkbar. Ein in der Universität sehr naheliegendes Feld der Optimierung ist die Vorlesungsplanung, und hier ist aus der Forschung zusammen mit Gerald Lach in Kooperation zwischen der TU Berlin und der RWTH Aachen die Lösung Mathplan entstanden, die inzwischen an vielen Universitäten erfolgreich zur Vorlesungs-, Tutorien- und Klausurplanung eingesetzt wird. Mit genügend Zeit und genügend Personal kann man zwar einen einigermaßen akzeptablen Plan mit viel Erfahrung auch ohne besondere mathematische Optimierung aufstellen, das ändert sich aber schlagartig, wenn kurzfristige Änderungen berücksichtigt und Konflikte aufgelöst werden müssen. Mathematisch geht es hier um ganzzahlige lineare Programme, für die zwar Lösungsverfahren bekannt waren, diese für die Größenordnung der Probleme nicht geeignet waren. Eine Modellreduktion ohne Verlust der Optimalität führte hier zur Lösung. Auch in der Erstellung von Zugfahrplänen besteht ein großes Optimierungspotential. Da die Realität nicht perfekt planbar ist, geht es hier besonders um eine robuste Planung, die auch bei entstehenden Störungen noch das anvisierte Ziel erreichen kann. In der Forschung unter anderem auch mit Anita Schöbel der Uni Göttingen geht es um die Analyse der Fortpflanzungen von Verzögerungen, damit besonders kritische Fälle besonders behandelt werden können. Ein weiterer Gesichtspunkt ist aber auch die Möglichkeit Probleme möglichst gut durch kleine Eingriffe wieder korrigieren zu können. Ein zunächst überraschendes Forschungsthema ist die Bundestagswahl, wo sich Sebastian Goderbauer mit der optimierten Wahlkreiseinteilung befasst. Die 299 Bundestagswahlkreise werden weitaus häufiger neu zugeschnitten als man denkt: Da nach Bundestagswahlgesetz jeder Wahlkreis gerade 1/299-tel der Wahlberechtigten mit einer Toleranz von maximal 25 Prozent vertreten muss, erfordert die Wählerwanderung und Veränderung der Bevölkerungsstruktur die regelmäßigen Veränderungen. Das sogenannte Gerrymandering ist besonders bei Wahlen mit Mehrheitswahlrecht ein sehr problematisches Vorgehen bei Wahlkreisveränderungen, das offensichtlich undemokratische Auswirkungen hat. In Deutschland ist dies weniger ein Problem, wohl aber die deutlich ungleiche Größenverteilung der Wahlkreise. Die mathematische Definition und Betrachtung als Optimierungsproblem trägt die Hoffnung in sich, dass das Zuschnitt-Verfahren transparenter und nachvollziehbarer als bisher abläuft, und das sich dadurch balanciertere Wahlkreisgrößen ergeben können. Ein zentrales Forschungsgebiet ist für Marco Lübbecke der Bereich der ganzzahligen Programme. Die vielen auftretenden Variablen können beispielsweise Entscheidungen repräsentieren, die diskrete Werte wie ja oder nein repräsentieren. Dazu kommen verschiedene Resktriktionen und Nebenbedingungen, die Einschränkungen aus der Umgebungssituationen wie beispielsweise begrenzte Resourcen darstellen. Der Begriff "Programm" für die Bezeichnung von Optimierungsproblemen ist historisch aus dem englischen Begriff "programming" entstanden, der früher intensiv für "Planung" verwendet wurde. Heutzutage ist dieser Zusammenhang nicht mehr so naheliegend und entsprechend hat sich die Mathematical Programming Society (MPS) in Mathematical Optimization Society (MOS) umbenannt. Sind die Variablen eines Optimierungsproblems im , so kann man sich Schnitte mit linearen Ungleichungen wie das halbseitige Abschneiden des Lösungsraumes mit Ebenen vorstellen. Man nennt das Resultat ein Polyeder oder Vielflächner. Ist nun zusätzlich auch die Zielfunktion linear, so spricht man von einem linearen Optimierungsproblem oder linearen Programm. Wird nun der Lösungsbereich mit einem Gitter geschnitten, d.h. die Variablen können nur diskrete wie z.B. nur ganzzahlige Werte annehmen, so wird das Optimierungsproblem deutlich schwieriger. Dies ist erstaunlich, da der Lösungsbereich deutlich eingeschränkt wird. Jedoch verliert der Lösungsbereich seine konvexe Struktur und führt im linearen Fall von einem in polynomialer Zeit lösbaren Problem zu einem NP-schweren Problem. Wenn die Lösungsmenge eine beschränkte Anzahl von Elementen besitzt, so ist die Existenz von Maximum und Minimum durch Ausprobieren leicht zu beweisen. Das Problem ist jedoch, dass bei großen Datenmengen das vollständige Durchsuchen viel zu lange dauern würde. Eine Strategie zur Reduktion des Problems ist hier die Aggregation oder das Clustering, wo verschiedene Aspekte durch einzelne Repräsentanten dargestellt und gruppiert werden und so Rechenzeit eingespart wird. Zwar werden so nur approximierte Probleme gelöst, jedoch deutlich schneller und wenn möglich mit Fehlerschranken, die den maximalen Abstand zur tatsächlichen Lösung spezifizieren. Ein Beispiel für dieses Prinzip sind die Contraction Hierarchies, die das Routingproblem bzw. einen kürzesten Pfad auf einem Graphen zu finden durch eine zuvor berechnete Reduktion des betrachteten Netzes beschleunigen, exakte Fehlerschranken liefern, und gleichzeitig die Berechnung einer optimalen Lösung durch Berechnung lokaler Routen ermöglicht. Das Verfahren kommt aber an Grenzen, wenn einige Aspekte nur mit Wahrscheinlichkeiten beschrieben werden können. Ein klassisches Optimierungsproblem ist das Problem des Handlungsreisenden, an dem sich die verschiedenen Verfahren und Analysen der diskreten Optimierung illustrieren lassen. Dabei hat das Problem die Forschungsrelevanz nicht verloren: Viele neue Verfahren und Forschungsansätze gehen auf das Problem des Handlungsreisenden zurück. Gleichzeitig steht das Problem stellvertretend für viele Optimierungsprobleme zu Reihenfolgen in der Anwendung und findet so immer neuen Einsatz. Grundsätzlich basieren Optimierungsprobleme auf der Suche nach Extremwerten, diese kann man beispielsweise mit Abstiegs- oder Aufstiegsverfahren versuchen zu finden. Will man nun Einschränkungen berücksichtigen, so kann man die Zielfunktion mit Lagrange-Multiplikatoren für die Restriktionen erweitern. Diese Multiplikatoren kann man als Strafterme verstehen, die das Finden des Optimums unter Einhaltung der Restriktionen erzwingen. Die Verwendung der Lagrange-Multiplikatoren erzeugt automatisch über die Lagrange-Dualität ein duales Problem und führt auch auf Sattelpunkte. Die neue Sichtweise ist aus mehreren Gründen sehr hilfreich: Zum einen vereinfacht diese Dualität mathematische Beweise, sie ermöglicht Abschätzungen für die Qualität von Lösungen und liefert gleich zwei alternative Verfahren, um ein Optimierungsproblem zu lösen. Ein Standardverfahren zum Lösen von linearen Optimierungsproblemen ist das Simplex-Verfahren. Hier wird ausgenutzt, dass lineare Restriktionen ein Polyeder bilden und eine lineare Optimierungsfunktion ihr Maximum auf einer (Hyper-)Fläche, einer Kante (bzw. entsprechenden höherdimensionalen Strukturen) oder einer Ecke annehmen muss. Diese Kanten und Ecken werden mit dem Verfahren systematisch durchsucht. Beim schriftlichen Rechnen hat das Simplex-Verfahren große Ähnlichkeit mit dem Gaußschen Eliminationsverfahren, das zum Lösen von linearen Gleichungssystemen eingesetzt wird. In der Praxis ist das Simplex-Verfahren sehr schnell, jedoch finden sich konstruierte Gegenbeispiele, auf denen das Simplex-Verfahren eine schrecklich langsame exponentielle Laufzeit an den Tag legt. Daher haben hier traditionelle innere Punkte-Verfahren und Barrier-Verfahren ein aufwandstheoretisch deutlich besseres Laufzeitverhalten, in der Praxis sind die Ergebnisse aber sehr gemischt. Hat man nun ein diskretes bzw. ganzzahliges Problem, so liefert das Simplex-Verfahren ohne Berücksichtigung der Diskretisierung typischerweise keine ganzzahlige Lösung, liefert aber Abschätzungen für das Optimum, da der Wert einer optimalen ganzzahligen Lösung nicht besser sein kann als der einer optimalen kontinuierlichen Lösung. Für die nicht-ganzzahligen Lösungen für einzelne Variablen wie kann man nun zwei ganzzahlige Restriktionen definieren wie oder , und jetzt zwei Teilprobleme bzw. "Branches" mit je einer der beiden Restriktionen zusätzlich lösen. So erhält man entweder ein unzulässiges Teilproblem, oder bereits ein ganzzahlige Lösung (nicht notwendigerweise eine beste) oder eben wieder eine nicht-ganzzahlige. Durch fortwährendes Verzeigen auf den nicht-ganzzahligen Variablen entsteht eine Baumstruktur der Teilprobleme. Mit Hilfe der aus den jeweiligen kontinuierlichen Relaxationen gewonnenen Schranken lassen sich ganze Äste des Baums abschneiden ("Bound"), in denen keine bessere Lösung mehr zu finden ist als die beste die man bisher gefunden hat. Dieses Verfahren führen wir für alle weiteren verbleibenden Probleme oder Branches durch bis eine optimale lineare und diskrete Lösung übrig bleibt. Damit liefert das Branch-and-Bound-Verfahren bzw. weiter verfeinert das Branch-and-Cut-Verfahren auf Basis der Lösung von vielen kontinuierlichen linearen Optimierungsproblemen die Lösung des diskreten Problems. Eine Erweiterung des Verfahrens auf besonders große Probleme ist das Branch-and-Price-Verfahren, das mit Basis von Column Generation die Variablen sucht, die für die Lösung des Gesamtproblems relevant sind, und das Problem eingeschränkt auf diese Variablen löst, ohne dabei Optimalität aufzugeben. Ein interessantes Beispiel ist hier das Bin Packing bzw. Behälterproblem, wo es darum geht, eine Anzahl von verschiedenen Objekten auf eine Anzahl von Behältern zu verteilen. Das Entscheidungsproblem, ob eine gegebene Anzahl von Behältern reicht, ist sowohl für Versandhäuser äußerst relevant, ist aber gleichzeitig auch NP-Vollständig, also aufwandstheoretisch nachgewiesen schwer. Hier kann man durch vorheriges Sammeln von möglichen Füllmustern ein riesengroßes Modell erstellen, dieses aber mit der column generation in der Praxis um so effizienter lösen. In der Industrie werden beispielsweise die Pakete Cplex, Gurobi oder Xpress zur Lösung von Optimierungsproblemen eingesetzt, die die besprochenen Verfahren umsetzen. Hier können auch Modellierungssprachen zum Einsatz kommen, die die Probleme abstrakt und menschenlesbar definieren. Vorteile sind hier die Trennung von Daten und Modell und auch die Trennung von Problem und Löser. Ein Beispiel für eine Modellierungssprache für Optimierungsproblemen ist GAMS, sie stehen aber heutzutage in starker Konkurrenz zu modernen Programmiersprachen wie Python. Im Sinne des Leitsatzes "Tue Gutes und rede darüber" ist die Kommunikation von Wissenschaft für Forschende in Öffentlichkeit, Social Media und Internet eine große Gelegenheit mit vielen Vorteilen: Neben dem Austausch von wichtigen Erfahrungen zum Beispiel zum Schreiben wissenschaftlicher Paper, hilft es der wissenschaftlichen Vernetzung, der gesellschaftlichen Diskussion zur Relevanz des Forschungsgebiet über den Tellerand hinaus, und interessiert auch die Öffentlichkeit und auch junge Menschen näher in die spannenden Themen einzusteigen. Literatur und weiterführende Informationen G. Lach, M. Lübbecke: Optimal university course timetables and the partial transversal polytope, International Workshop on Experimental and Efficient Algorithms. Springer Berlin Heidelberg, 2008. C. Liebchen, M. Lübbecke, R. Möhring, S. Stiller: The concept of recoverable robustness, linear programming recovery, and railway applications, in Robust and online large-scale optimization (pp. 1-27). Springer Berlin Heidelberg, 2009. S. Goderbauer: Mathematische Optimierung der Wahlkreiseinteilung für die Deutsche Bundestagswahl, Springer Spektrum, Springer BestMasters, 2016. S. Goderbauer, B. Bahl, P. Voll, M. Lübbecke, A. Bardow, A. Koster: An adaptive discretization MINLP algorithm for optimal synthesis of decentralized energy supply systems, Computers & Chemical Engineering, 95, 38-48, 2016. R. Geisberger: Contraction Hierarchies: Faster and Simpler Hierarchical Routing in Road Networks, Diplomarbeit am Institut für Theoretische Informatik Universität Karlsruhe, 2008. M. Lübbecke, J. Desrosiers: Selected topics in column generation, Operations Research, 53(6), 1007-1023, 2005. M. Lübbecke: How to write a paper, blog post, 2014. M. Lübbecke: Are we too complicated? Communication of the Travelling Salesperson Problem in public, blog post, 2015. Podcasts S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung P. Vortisch: Verkehrsmodellierung I, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrsmodellierung-i K. Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Dickmann: Pumpspeicherkraftwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/pumpspeicher J. Wolf: Puerto Patida, das Rätselhörspiel zum Mitmachen, http://OhneQ.de, 2015-2016.

social media internet man personal fall mit revolution plan als computers dabei erfahrungen definition durch probleme seite ziel dazu damit beispiel suche bound erfahrung grenzen qualit universit basis kommunikation viele entscheidung auswirkungen entscheidungen praxis beim realit bereich wert hoffnung einsatz analyse diskussion vorteile programme branch zum programm zusammenhang daher daten werte optimal maximum minimum intelligenz aspekte ergebnisse wissenschaft begriff methoden technologie austausch python experimental finden gelegenheit institut gleichzeitig beh prozent forschung planung struktur feld industrie strukturen schreiben branches verlust konflikte modell wirklichkeit trennung prinzip konkurrenz abstand gebiet literatur kooperation existenz facetten ecke ebenen einladung einschr anwendung vordergrund zwar repr anzahl beschreibung voll relevanz verfahren in deutschland robust sichtweise mit hilfe das problem grunds bundestagswahl jedoch verkehr vorgehen betrachtung ecken karlsruhe analysen herangehensweise np toleranz zusammenspiel chemical engineering bestimmung daneben optimierung vernetzung gerrymandering resultat erstellung mathematik algorithmen sammeln verz mitmachen lach optimum heutzutage ausprobieren modellen kante elementen beweise pfad bezeichnung reduktion einhaltung pnv ein beispiel x press fakult rechnen eingriffe berechnung beschreibungen laufzeit lehrstuhl aggregation abschneiden schranken objekten mathematiker dualit routen operations research gitter forschende tu berlin clustering bahl begriffs verfahrens datenmengen treffens gau restriktionen schnitte im sinne wahlkreis absch abbildung rwth aachen variablen schnittmenge sensorik im kleinen netzes diplomarbeit gesichtspunkt modellierung gams die verwendung das verfahren eine strategie abstiegs fehlerquellen karlsruher institut forschungsgebiet werts graphen technologie kit versandh wahlberechtigten uni g zum gespr baums die optimierung marco l forschungsans international workshop mathematisch gegenbeispiele dieses verfahren tellerand reihenfolgen eine erweiterung fachgruppe polyeder springer berlin heidelberg ohneq nebenbedingungen sebastian ritterbusch teilprobleme diskretisierung modellansatz podcast relaxationen
Das Kalenderblatt
#01 Der Herrnhuter Weihnachtsstern wird patentiert

Das Kalenderblatt

Play Episode Listen Later Dec 9, 2015 4:11


Polyeder basteln? Klingt nicht weihnachtlich, ist es aber, wenn ein Stern draus wird. Mathematisches Verständnis fördert er auch - nicht nur für die, die ihn verkaufen. Und notfalls ist er ein dreidimensionaler Sowjetstern. Autor: Hartmut E. Lange

Polyeder Podcast
Folge 27: Charaktere steigern

Polyeder Podcast

Play Episode Listen Later Apr 9, 2013


Es ist gefunden: Das Thema, bei dem sich Alexander und Markus uneins sind. Es geht um Charakerprogression, also das steigern von Werten via Erfahrungspunkte oder andere Mechanismen. Die Frage ist, ob dieser stetige Fortschritt unabdingbar zum Rollenspiel gehört … Polyeder … Weiterlesen →

Polyeder Podcast
Polyeder Podcast 21: Hero Kids

Polyeder Podcast

Play Episode Listen Later Feb 24, 2013


Wir schauen uns nach längerem wieder einmal ein aktuelles RPG-Produkt an: Hero Kids, das Rollenspiel für Kinder. Die Themen Rollenspiele auf Twitter Hero Kids: Rollenspiel mit Kindern unter zehn Jahren Polyeder Podcast Folge 21: Hero Kids (Downloadlink, 15:21 min) Shownotes … Weiterlesen →

Polyeder Podcast
Polyeder Podcast Folge 20: Gratis-Rollenspiele

Polyeder Podcast

Play Episode Listen Later Feb 17, 2013


  Als Nachtrag zum Gratisrollenspieltag einige Gedanken zum Thema Rollenspiele für kein Geld. Übrigens kam das Paket dann letztlich doch noch im Rollenspielladen meiner Wahl an, wenn auch eine Woche verspätet. Polyeder-Podcast Folge 20: Gratis-Rollenspiele (Download-Link, 14:38 min) Shownotes: Sphärenmeisters … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 19: D&D Classics mit lebendigen NSCs

Polyeder Podcast

Play Episode Listen Later Feb 11, 2013


Wenn wir wöchentlich sagen, dann meinen wir wöchentlich: Hier ist die neue Podcast-Folge. Unsere Themen: Dungeons and Dragons Classics: D&D-Material ist jetzt wieder als PDF käuflich zu erwerben Lebendige NSCs erschaffen und verkörpern Polyeder Podcast, Folge 19: D&D Classics mit … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 18: Abenteuervorbereitung oder Spielleiten ohne Burnout

Polyeder Podcast

Play Episode Listen Later Feb 3, 2013


Neues Jahr, neue Ideen, neues Format: Hört rein und lasst euch überraschen. Die Themen: Unser neues Format Publizierte Abenteuer vorbereiten ohne zu viel Zeit und Nerven aufzuwenden Polyeder Podcast, Folge 18: Abenteuervorbereitung oder Spielleiten ohne Burnout (Download, 16:36 min)  

Polyeder Podcast
Polyeder Podcast, Folge 17: Der Hobbit für Einsteiger

Polyeder Podcast

Play Episode Listen Later Jan 21, 2013


Die Weihnachtspause ist vorbei, wir sind wieder da und wir sind wieder zu zweit. In Folge 17 besprechen wir folgende Themen: Der erste deutsch(sprachig)e Gratis-Rollenspiel-Tag Einstieg ins Rollenspiel Und ausnahmsweise ein Ausflug in die Filmwelt mit “Der Hobbit – Eine … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 16: Fate to Go mit Kathy Schad

Polyeder Podcast

Play Episode Listen Later Dec 10, 2012


Wir setzen unsere kleine Serie vorweihnachtlicher Designerinterviews mit Kathy Schad fort, die mit Fate to Go das erste erfolgreiche Crowdfunding-Projekt der deutschsprachigen Rollenspielszene geschrieben, illustriert, gestaltet und produziert hat. Polyeder Podcast, Folge 16: Fate to Go mit Kathy Schad (Downloadlink) … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 15: Michtim und Mir

Polyeder Podcast

Play Episode Listen Later Nov 26, 2012


Uns ist ein neues Rollenspiel aus der Feder eines österreichischen Autoren unter die Finger gekommen: Michtim RPG vom Grazer Designer Georg Mir. Das war uns eine Sonderfolge wert, in der Markus den netten Georg per Skype ausfragt (obwohl er ihn … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 14: Das herzensbrecherische Portal

Polyeder Podcast

Play Episode Listen Later Nov 12, 2012


Pünktlich zur Veröffentlichung der Beta-Version von Portal, dem neuen Rollenspiel von Alexander, stellen wir das System vor. Die Themen: Unwort des Monats: Heartbreaker Systemvorstellung: Portal Termine: Wiener Spielfest und Don’t Panic Convention 2013 Crossgender-Rollenspiel Polyeder Podcast, Folge 14: Das herzensbrecherische … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 13: Die Goldene Regel für historische Settings

Polyeder Podcast

Play Episode Listen Later Oct 29, 2012


Wir sind zurück mit einer regulären Folge. Die Themen: Erster Eindruck zu Fate to Go Historische Settings Die Goldene Regel Polyeder Podcast, Folge 13: Die Goldene Regel für historische Settings (Download Link) Shownotes: Fate to Go Cthulhu Invictus Chronica Feudalis … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 12: Helden für einen Tag

Polyeder Podcast

Play Episode Listen Later Oct 14, 2012


Wir melden uns zurück mit einer etwas kürzeren Folge, einem Special zur HeldenCon 2012. Wir haben gesprochen mit: Sabine und Chris von Halle der Helden Kathi und Manuel von Game for Life. Polyeder Podcast, Folge 12: Helden für einen Tag … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 11: Getrennte Gruppen würfeln mit System

Polyeder Podcast

Play Episode Listen Later Oct 1, 2012


In der elften Folge des Polyeder Podcast diskutieren wir die Frage, ob man die Abenteurergruppe trennen darf, und wenn ja, wie das ohne Frust zu bewerkstelligen ist. Wir haben zeitlich etwas überzogen, was ihr uns hoffentlich verzeihen werdet. Die Themen … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 10: Detektive parieren aktiv

Polyeder Podcast

Play Episode Listen Later Sep 17, 2012


Wir sind wieder in Vollbesetzung zurück und werden gleich zweistellig: Die zehnte Folge ist da! *sektkorkenknall* Unsere beiden Hauptthemen sind Detektivabenteuer und die aktive Parade als Regelmechanismus. Letzteres ist auch der Start einer unregelmäßigen Reihe, in deren Rahmen wir bekannte … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 9: Kicking Cthulhu

Polyeder Podcast

Play Episode Listen Later Sep 2, 2012


Wir melden uns zurück aus der Sommerpause mit einem Solo von Markus und einem Special zum Thema Call of Cthulhu. Markus war ja auf der Deutschen Cthulhu Convention und hat viele Eindrücke, Neuigkeiten und ein Interview mit dem Chefredakteur von … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 8: Schlaflose Schnellschüsse

Polyeder Podcast

Play Episode Listen Later Aug 6, 2012


Bevor wir uns in eine kurze Sommerpause verabschieden (es ist Zeit für die Cthulhu Convention), hier die achte Folge zu folgenden Themen: D&D Next Playtest: Erfahrungsbericht One-Shots Systemvorstellung: Don’t Rest Your Head Polyeder Podcast, Folge: Schlaflose Schnellschüsse – Download (28:46) … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 7: Legenden von Celeira

Polyeder Podcast

Play Episode Listen Later Jul 16, 2012


Ausnahmsweise eine Folge ohne Alexander, dafür mit einem Interview: Wir haben mit Markus, dem Entwickler des österreichischen Rollenspiels “Legenden von Celeira” gesprochen. Vielen Dank für das spannende Gespräch! Polyeder Podcast, Folge 7: Download Shownotes Deutsche Cthulhu-Convention Legenden von Celeira: Blog, … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 6: Musik und NIP’AJIN

Polyeder Podcast

Play Episode Listen Later Jul 2, 2012


Wir gehen nicht in die Sommerpause, sondern präsentieren pünktlich Folge 6 zu folgenden Themen: Das iPad für Spielleiter Musik im Rollenspiel Echo: Polyeder-T-Shirts gefordert Rollenspiel aus Österreich: NIP’AJIN von Ludus Leonis Polyeder Podcast, Folge 6: Download (27:45) Shownotes: Soundslate für … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 5: Ist D&D Next noch High Fantasy?

Polyeder Podcast

Play Episode Listen Later Jun 18, 2012


Die fünfte Folge des Polyeder Podcast wurde kurz nach Erscheinen der Playtest-Dokumente für D&D Next aufgezeichnet. Also bitte verzeiht uns, wenn wir noch nicht alles auf Herz und Nieren durchgetestet haben. Die Themen: Destiny Beginner erscheint in englischer Sprache High … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 4: Die finstere GNS der Sandbox

Polyeder Podcast

Play Episode Listen Later Jun 4, 2012


In der vierten Folge diskutieren wir über folgende Themen: Die GNS-Theorie Sandbox Fate2Go auf Startnext.de Das österreichische Rollenspiel Finsterland Polyeder Podcast, Folge 4 (28:57) Shownotes Der GNS-Artikel von Ron Edwards Destiny Dungeon The Keep on the Borderlands Wilderlands of High … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 3: Cthulhu, Kampf und Cons

Polyeder Podcast

Play Episode Listen Later May 21, 2012


In dieser Folge gehen wir auf euer Feedback ein und greifen gleich ein von euch vorgeschlagenes Thema auf: Kämpfe im Rollenspiel. Außerdem geht es um: Cthulhus Ruf – das neue cthuloide Fanzine Conventions in Österreich Download: Polyeder Podcast, Folge 3 (29:41) … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 2: Ein Fiasco auf Schienen

Polyeder Podcast

Play Episode Listen Later May 7, 2012


In der zweiten Folge beschäftigen wir uns mit folgenden Themen: Das Kartenspiel Orkhorde auf Startnext.de und Crowdfunding im Allgemeinen Railroading im Rollenspiel und warum es so vehement abgelehnt wird Systemvorstellung: Fiasco von Jason Morningstar – ein spielleiterloses Storytelling-System Vielen Dank … Weiterlesen →

Polyeder Podcast
Polyeder Podcast, Folge 1: Universelle Barbiehelden

Polyeder Podcast

Play Episode Listen Later Apr 23, 2012 18:02


Hier ist sie nun, die erste Folge des Polyeder Podcast mit folgenden Themen: Wort des Monats: Barbiespiel Wortwechsel: Universalsysteme vs. settingspezifische Rollenspiele Newsticker: Cons, Veröffentlichungen und Kickstarter-Projekte Würfle auf Wissen: Hero Points, Gummipunkte, Bennies und Konsorten Viel Spaß beim Hören! … Weiterlesen →

Lineare Algebra II 2011/2012 (SD 640)
15 - Lineare Algebra 2 2011/2012

Lineare Algebra II 2011/2012 (SD 640)

Play Episode Listen Later Dec 6, 2011 93:18


optimierung algebra geometrie lineare matrizen normalform polyeder
Lineare Algebra II 2011/2012 (Audio)
15 - Lineare Algebra 2 2011/2012

Lineare Algebra II 2011/2012 (Audio)

Play Episode Listen Later Dec 6, 2011 93:18


optimierung algebra geometrie lineare matrizen normalform polyeder
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Structure determination of piezoelectric materials at extreme conditions

Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU

Play Episode Listen Later Jul 4, 2002


Diese Arbeit präsentiert Ergebnisse an piezoelektrischen Materialien aus der Langasitfamilie, die unter extremen Bedingungen untersucht wurden. Die Einkristalle aus dieser Familie, vor allem La3Nb0.5Ga5.5O14 (LNG) und La3Ta0.5Ga5.5O14 (LTG), sind vielversprechende Materialien für Oberflächenwellen (OFW) –Substratmaterialien, die in der mobilen Kommunikationstechnik der Frequenzsteuerungsgeräte (mobile Kommunikation, Sensoren, usw.) und bei Hochtemperatur- OFW- Anwendung finden. Mit LNG und LTG OFW-Sensorelementen können physikalische Meßgrößen, wie Druck und Temperatur erfaßt werden. Aus diesem Grund sind die Strukturuntersuchungen an LNG und LTG bei verschiedenen Drucken und Temperaturen extrem wichtig. Die Struktur von LNG und LTG ist unter normalen Bedingungen trigonal mit der Raumgruppe P321. In der Struktur sind die schweren Atome polyedrisch von Sauerstoffatomen koordiniert. Vier Polyedertypen bilden decaedrisch-oktaedrische und tetraedrische Schichten. Diese sind in einer A-B- Stapelfolge senkrecht zur c-Achse angeordnet. Die Kristallstrukturen von LNG und LTG wurden mittels Röntgenstrukturanalyse an LNG- und LTG- Einkristallen in Hochdruck- Diamant -Stempel Zellen unter Druck bis 23GPa untersucht. Die Proben für diese Forschungsarbeit wurden von den Forschungsgruppen von B. V. Mill (Rußland) und J. Bohm (Deutschland) freundlicherweise zur Verfügung gestellt. Als druckübertragende Medien wurden Alkohol und Helium benutzt. a- Quarz Kristalle und die Rubinfluoreszenzmethode wurden zur Druckmessung herangezogen. Die Experimente mit Röntgenstrahlung wurden im eigenen Labor und am Hamburger Synchrotronstrahlungslabor (HASYLAB, Beamline D-3) durchgeführt. Die Gitterkonstanten und Reflexintensitäten von LNG und LTG wurden unter Drucken bis 22,8 beziehungsweise 16.7GPa gesammelt. Innerhalb des erforschten Druckbereichs nimmt das c/a- Verhältnis von 0,6232 bis 0,6503 für LNG und von 0,6227 bis 0,6350 für LTG zu. Folglich ist die a-Achse die an stärksten komprimierte Richtung in beiden Substanzen. Damit zeigen LNG und LTG unter Druck ein anisotropes Verhalten, das durch unterschiedliche Bindungsstärken in den Richtungen parallel zu den a- beziehungsweise c- Achsen bedingt ist. Unter hydrostatischem Druck ist die Komprimierung der c- Richtung (also zwischen den Schichten) steif, was wegen der weniger flexiblen Verknüpfung der Polyeder (gemeinsame Kanten) verständlich ist. Demgegenüber ist die Komprimierung innerhalb der ab- Ebene (also innerhalb der Schichten) größer und kann hauptsächlich durch die abnehmenden Volumina und Verzerrungen der Polyeder erreicht werden. Weil die Kristallstrukturen von LNG und LTG wegen der hohen Symmetrie und der Polyederkopplungen sehr steif sind, führt die Komprimierung dieser Strukturen zu einer Zunahme der internen Spannungen und endet bei einem Druck von 12.4(3)GPa für LNG und 11.7(3)GPa für LTG mit einem Phasenübergang in Strukturen mit niedrigerer Symmetrie. In dem untersuchten Druckbereich sind die Kompressibilitäten entlang der c-Achse fast identisch für LNG und LTG. Andererseits sind die Druckabhängigkeiten der a Gitterparameter dieser Materialien nur für die Ausgangsphase ähnlich, während die Achsenkompressibilitäten für die Hochdruckphasen von LNG und von LTG unterschiedlich sind. Die Volumenkompressibilitäten des trigonalen LNG und LTG sind 0.007GPa -1 , die entsprechenden Kompressionsmodule sind 145(3)GPa und 144(2)GPa. Der Kompressionsmechanismus von LNG und LTG kann wie folgt beschrieben werden: Eine Erhöhung des Drucks verursacht eine Reduzierung der Gittervolumina von LNG und LTG. Folglich verringern sich die Abstände zwischen den Ionen. Auf diese Weise werden die größten Kationen (La 3+ ) innerhalb der ab- Fläche verschoben, um die Abstände zwischen den positiv geladenen benachbarten Ionen (Ga 3+ /Nb 5+ (Ta 5+ )) zu maximieren. Auf die gleiche Weise bewegen sich die tetraedrisch koordinierten Ga 3+ -Ionen. Wegen der Anionen-Kationenbindungsverkürzung versuchen die Polyeder zu rotieren. Nun werden diese Drehungen durch die gemeinsamen Ecken und/oder Kanten der benachbarten Polyeder behindert. Außerdem werden diese Bewegungen durch die geringe Flexibilität begrenzt, die durch die Symmetrie (zwei- und drei- zählige Achsen) verursacht wird. So resultiert die Komprimierung hauptsächlich aus Verkleinerungen der Polyedervolumina. Folglich steigen unter zunehmenden Druck die Spannungen innerhalb der Polyeder, vor allem innerhalb der kleinsten Polyeder (GaO4-Tetraeder), wegen deren geringer Flexibilität. Bei einem Druck von 12(1)GPa resultiert die Komprimierung von LNG und LTG in einer Transformation aus der Hochsymmetriephase in eine Niedersymmetriephase. Es kann gefolgert werden, daß dieser Phasenübergang durch die Zunahme der Spannungen innerhalb der Polyeder verursacht wird. Die Hochdruckphase ist verzerrter als die ursprüngliche Phase und beinhaltet mehr Freiheitsgrade für weitere Komprimierungen. Die Hochdruckphasen von LNG und von LTG können in Strukturmodellen mit monokliner Symmetrie (Raumgruppe A2) verfeinert werden. Die Kompressionsmodule sind B0=93(2)GPa und B0=128(12)GPa für die Hochdruckphasen von LNG beziehungsweise von LTG. Die entsprechenden Kompressibilitäten der Hochdruckphasen sind 0.011GPa -1 für LNG und 0.008GPa -1 für LTG. Somit zeigen die Hochdruckphasen unterschiedliche Kompressibilität, die durch eine Nb 5+ - Ta 5+ Substitution gut erklärt werden kann. Die Kompressibilität der Hochdruckphase von LNG ist größer als der entsprechende Wert für das Hochdruckpolymorph von LTG. Dieses Phänomen kann durch die größere Verzerrung von NbO6- Polyedern im Vergleich zu TaO6- Polyedern gut erklärt werden, welche durch die höhere Polarisation der Sauerstoffanordnung bei Nb 5+ -Kationen verursacht wird. Außerdem sind die Kompressibilitäten der Hochdruckphasen größer als die entsprechenden Werte für die Ausgangsphasen von LNG und LTG. Die Beobachtung einer Zunahme der Kompressibilität weis auf zusätzliche Polyederverkippungen hin. In den meisten Fällen ergibt sich die zusätzliche Freiheit aus dem Symmetriebruch. Das erklärt eine (auf den ersten Blick ziemlich unerwartete) erhöhte Kompressibilität der Hochdruckphase. Zusätzlich kann sich durch ein anomales Elastizitätsverhalten eine Steigerung der Kompressibilität der Hochdruckphase ergeben. Bei einer Zunahme des Druckes über 22GPa hinaus wird die Komprimierung der monoklinen Kristallstruktur von LGN vermutlich zu einer drastischen Strukturänderung führen, die von Änderungen der Korrdinationszahlen begleitet ist. Wahrscheinlich werden ähnliche Prozesse auch im LTG statt finden, jedoch unter höherem Druck. Im folgenden Teil dieser Arbeit wird die thermische Expansion der Gitterparameter von LNG, LTG und La3SbZn3GeO14 (LSZG) dargestellt. Die Hochtemperaturmessungen wurden mit dem Pulverdiffraktometer im HASYLAB an der beamline B2 durchgeführt. Die Temperaturabhängigkeit der Gitterparameter von LNG und von LTG wurde an polykristallinem Material bei Temperaturen von Raumtemperatur bis 850°C durchgeführt. Die thermischen Expansionen der Gitterparameter von LNG und LTG sind in diesem Temperaturbereich fast identisch. Die thermischen Expansionskoeffizienten des Gittervolumens aV (24°C- 850°C) von LNG und LTG betragen 22.563(7)x10 -6 °C -1 beziehungsweise 20.651(7)x10 -6 °C -1 . Deutliche Veränderungen der Temperaturabhängigkeit der Gitterparameter werden für die a- Richtung beobachtet. Folglich ist das Verhalten dieser Materialien bei thermischer Expansion ebenso wie bei Komprimierung anisotrop. Für einen Vergleich des Einflusses von Druck und Temperatur auf die Gitterparameter von LNG beziehungsweise LTG wurden die Druck und Temperatur- Abhängigkeiten des c/a- Verhältnisses gemeinsam aufgetragen. Es zeigt sich, dass eine lineare Abhängigkeit besteht. Daraus läßt sich ableiten, dass die Änderung der Gitterparameter von LNG (LTG) während der Abkühlung von 850°C auf Raumtemperatur einer Änderung der Gitterparameter von LNG (LTG) unter Zunahme des Drucks um 1.4GPa entspricht. Die Substanz LSZG, welche in dieser Arbeit untersucht wurde, ist ein weiters Mitglied der Langasitfamilie. LSZG kristallisiert in der monoklinen Symmetrie, Raumgruppe A2. Die Temperaturabhängigkeit der Gitterparameter der monoklinen Phase von LSZG wurden mittels der Röntgenbeugung an polykristallinem LSZG bei Temperaturen von Raumtemperatur bis 800°C untersucht. Bei Temperaturen oberhalb 250(50)°C wurde ein Phasenübergang erster Ordnung festgestellt, welcher sich in Sprüngen der Temperaturabhängigkeiten der Gitterparameter des LSZG äußert. Die monokline Struktur der bei Raumtemperatur und Normaldruck stabilen Phase des LSZG entspricht der der Hochdruckphase von LNG beziehungsweise LTG. Es ist bekannt, daß die Änderungen der Kristallstrukturen bei steigenden Drucken und Temperaturen gegenläufig sind. Aus diesem Grund wird vermutet daß sich die monokline Kristallstruktur des LSZG bei Temperaturen oberhalb von 250(50)°C in eine trigonale Kristallstruktur (Raumgruppe P321) umwandelt, welche der Normaldruckphase von LNG beziehungsweise LTG entspricht. Für eine detailliertere Beschreibung des Phasenübergang von LSZG bei einer Temperaturerhöhung über 250(50)°C hinaus werden weitere Experimente benötigt. Zum Vergleich von strukturellen und physikalischen Eigenschaften seien auch die physikalischen Eigenschaften von LNG und LTG zusammenfassend dargestellt: 1. LNG- und LTG- Kristalle der enantiomorphen Kristallklasse 32 können im Gegensatz zu GaPO4 mittels Züchtung nach der Czochralski- Methode mit ausreichend hoher struktureller Perfektion hergestellt werden. 2. DTA- Messungen von LNG und LTG zeigen keine Änderungen des thermischen Verhaltens bis zu Temperaturen von 1400°C [5]. Da LNG und LTG vermutlich keine Phasenübergänge bis zu ihren jeweiligen Schmelzpunkten bei ungefähr 1470(30)°C haben, sind sie für piezomechanische Anwendungen bei hohen Temperaturen gut geignet. 3. Die Härte von LNG beziehungsweise LTG ist vergleichbar mit der von Quarz. 4. LNG und LTG sind chemisch inert und unlöslich in Säuren beziehungsweise Laugen. 5. Die Breite des Bandpassfilters von LNG oder LTG ist ungefähr dreimal größer als die von Quarz. Folglich sind LNG und LTG für Filter besser geeignet als Quarz. Im Lichte der Ergebnisse aus dieser Forschungsarbeit können folgende Empfehlungen gemacht werden: 1. Bezüglich der hoher Qualität dieser Materialien (die Halbwertsbreite der Reflexionen beträgt 0.0008°) und wegen des großen Streuvermögens, kann empfohlen werden, diese Kristalle als Test- Kristalle für die Justage an Einkristall- Diffraktometer und für Experimente mit harter Röntgenstrahlung zu benutzen. 2. Ebenso wie a-Quarz- Einkristalle [ 58 ], können diese Kristalle als interner Druckstandard in Einkristallhochdruckexperimenten benutzt werden, weil diese Kristalle eine große Anzahl von starken unabhängigen Reflexen besitzen. Andererseits kann die niedrigere Kompressibilität von LNG beziehungsweise LTG, im Vergleich zu a-Quarz, zu einer niedrigeren Druckmessungspräzision führen. Dieser Nachteil wird wiederum durch große Streuvermögen kompensiert. 3. LNG oder LTG können als Materialien für Drucksensoren bis zu sehr hohen Drucken verwendet werden. Wegen des Phasenübergangs von LNG und LTG ist der Einsatz lediglich auf 12(1)GPa begrenzt. 4. Die Temperaturabhängigkeit der Gitterparameter dieser Materialien zeigt keine Anomalie innerhalb des untersuchten Temperaturbereiches (24°C - 850°C). Somit wurde die thermische Stabilität von LNG und LTG bestätigt. Auf diese Weise können LNG und LTG im Austausch für Quarz als Substratmaterialien für Temperatursensoren sehr empfohlen werden.

Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 01/06

In dieser Arbeit werden die ersten röntgenographisch charakterisierten Kristallstrukturen von Mangan(IV)-Polyolato-Komplexen vorgestellt (1–11, 13). Ausgehend von Mangan(II) wird mittels zwei Äquivalenten Kaliumhexacyanoferrat(III) die Oxidationsstufe +IV erreicht. Alle Komplexe entstehen aus wäßriger, stark alkalischer Lösung. Die Kristallisation erfolgt in der Kälte, da Mangan(IV)-Komplexe bei Raumtemperatur innerhalb eines Tages zu Mangan(III) reduziert werden. Mangan(IV) zeigt eine starke Präferenz für Koordinationsoktaeder, welches ein stabiles Struk- turelement darstellt. Das Metallion wird von mindestens zwei 1,2-Diolato- oder 1,3-Diolato- Gruppen chelatartig koordiniert. Mangan(IV) bildet mit D-Glucon- und Lactobionsäure jeweils einen mononuklearen Komplex, KNa3[Mn(D-Glc1AH–4)2] · 7 H2O (1) und KNa2,5[Mn(Lac1AH–3,75)2] · 19,23 H2O (2). D-Glu- conato(4–)-Liganden koordinieren über die Sauerstoff-Donoren der Alkohol-Gruppen an C3, C4 und C6, während Lactobionato(3,5–)-Liganden über die Sauerstoff-Donoren der Alkohol- Gruppen an C2, C3 und C5 an Mangan(IV) binden. Dieses Koordinationsmuster entspricht einer threo-Sequenz, von der die dritte Koordinationsstelle um ein C-Atom weiter entfernt liegt. Lactobionsäure besitzt D-Gluconsäure-Teilstruktur, was sich auch im Bauprinzip wie- derfindet. In 1 liegen die Kalium- und Natrium-Ionen mit den Mangan-Atomen auf unendlich langen Strängen entlang [001]. In 2 entsteht ein dreidimensionales Netzwerk mit dimeren Un- tereinheiten aus kantenverknüpften Oktaedern. Auch mit Dulcitol gelingt es, zwei Komplexe zu kristallisieren, die das Bindungsstellenmus- ter der Lactobionato(3,5–)-Liganden aufweisen: K6[Mn(Dulc2,3,5H–3)2]2 [DulcH–2] · 12 H2O (3) und Ba4[Mn(Dulc2,3,5H–3)2]2 [Fe(CN)6] · 8 H2O (4). Die beiden Dulcitolato-Komplexe unterscheiden sich nicht vom Bindungsmodus her, sondern nur in der Art der eingelagerten Gegenionen. In 3 verknüpfen die Kaliumkationen zwei Komplexanionen aus benachbarten Strängen miteinander, des weiteren koordinieren diese an die bindenden Alkohol-Gruppen der Dulcitolato-Liganden, als auch an die Sauerstoff-Atome des zweifach deprotonierten, nicht- koordinierenden Dulcitol. In 4 beteiligen sich die Bariumkationen sowohl an der Reduktion der effektiven Ladung an Mangan als auch am Aufbau eines dreidimensionalen Netzwerks über die Anbindung an Stickstoffatome des Hexacyanoferrat(II)-Ions. Mangan(IV) und Methyl-β-D-ribopyranosid-2,3,4-ato(3–)-Liganden bilden ebenfalls ein Ko- ordinationsoktaeder, Na4[Mn(Me-β-D-Ribp2,3,4H–3)2]2 · 4 H2O (5). Methyl-β-D-ribopyranosid koordiniert in 1C4-Konformation, in welcher die drei cis-ständigen Hydroxyl-Gruppen als Tri- olatoeinheit auf einer Seite zu liegen kommen. Die Natriumkationen binden an Ligand-O- Atome und ein Wassermolekül. Es entsteht ein dreidimensionales Netzwerk mit dimeren Un- tereinheiten von flächenverknüpften Oktaedern, jedoch fehlt eine Verknüpfung der Stränge entlang [001] wie in 4. Es ist kein Wasserstoffbrückenbindungssystem vorhanden. Pentaerythritol-Liganden bilden mit Mangan(IV) zwei Komplexe, die sich nicht in ihren Bin- dungsmodi, sondern in der Art der eingebauten Gegenionen als auch in der Ladung ihrer Komplexanionen unterscheiden, KLi4[Mn(C5H9O4)(C5H8O4)][Mn(C5H9O4)2] · 21 H2O (6) und Na6[Mn(C5H8O4)2][Mn(C5H9O4)2] · 20 H2O (7). Sowohl in 6 als auch in 7 entstehen mehrere kantenverknüpfte Polyeder, die wiederum einen unendlich langen Strang bilden. Mit α- und β-Cyclodextrin sind bei Verwendung von Lithiumhydroxid als Base zwei Kom- plexe durch Kristallisation zugänglich, Li2[∆-Mn(α-CDH–2)3] · 3 EtOH · 38 H2O (8) und K3Li4[Λ-Mn(β-CDH–3,67)3] · 33 H2O (9). Die Ausbildung von intramolekularen Wasserstoff- brückenbindungen wird durch die eingebauten Gegenkationen erleichtert, wodurch es zu einer Reduktion negativer Ladung um das Zentralmetall kommt. Die Koordinationsstelle wird durch die sperrigen Liganden nach außen abgeschirmt. Eine Anbindung von Lithium- bzw. Kalium-Ionen an die koordinierenden Alkohol-Gruppen ist deshalb nicht möglich. Die La- dungskompensation um das Zentralion geschieht allein durch intramolekulare Wasserstoff- brückenbindungen. Allerdings sind die höhere Ladungsdichte des Lithium-Ions bzw. des Ka- lium-Ions und die passende Größe für die Stabilität des Komplexes entscheidend. Xylitol und D-Threitol koordinieren mit jeweils zwei Liganden an Mangan(IV), die Koordina- tionssphäre wird durch eine di-µ-Oxo-Brücke vervollständigt. Xylitol besitzt D-Threitol- Teilstruktur. Es entstehen die Komplexe Ca8[Mn2(Xylt2,4H–2)4 (µ-O)2]2 [Fe(CN)6]2 · 24 H2O (10) und Ca4[Mn2(rac-Thre2,4H–2)4 (µ-O)2] [Fe(CN)6] · 22 H2O (11). Beiden Komplexen ist die zentrale, dimere Einheit [Mn2O2]4+ gemeinsam, die in Inversionssymmetrie vorliegt. Die Koordinationspolyeder sind untereinander kantenverknüpft. Die Annäherung der Mangan(IV)- Zentren liegt in derselben Größenordnung (in 10 287,4(2) pm, in 11 284,4(6) pm). Sowohl in 10 als auch in 11 finden sich Calcium- und Hexacyanoferrat(II)-Ionen, welche für die Stabili- sierung des Komplexes erforderlich sind. In beiden Fällen entsteht ein dreidimensionales Netzwerk mit dimeren Untereinheiten von kantenverknüpften Polyedern. Die Manganzentren sind jeweils antiferromagnetisch gekoppelt (für 10: J/k = –12,2 K und für 11: J/k = –15,2 K). Cytidin bildet mit Mangan(IV) ein Koordinationsoktaeder, K2[Mn(CytH–2)3]·17H2O (13), in welchem drei Cytidin-Liganden als 1,2-Diolat wirken. Mit meso-D-Glycero-D-gulo-heptitol gelingt lediglich die Kristallisation eines Mangan(III)- Komplexes, K2Ba11[Mn2(HeptH–7)2]2 [Fe(CN)6]4 · 49,8 H2O (12). Der Heptitol-Ligand weist sieben Hydroxyl-Gruppen auf, von denen fünf für die Komplexierung des Mangan(III) betätigt werden, wobei eine Hydroxyl-Gruppe µ2-verbrückend wirkt. Die Annäherung der Man- gan(III)-Zentren beträgt 326,3(2) pm bzw. 328,7(3) pm. Der Komplex zeigt die für Man- gan(III) typische Jahn-Teller-Verzerrung, die in den µ2-Oxo-Brücken zum Ausdruck kommt. Die Manganzentren sind ferromagnetisch gekoppelt (J/k = +1,1 K). Die UV/VIS-Spektren der intensiv roten Mangan(IV)-Polyol-Lösungen zeigen nur wenig cha- rakteristische Absorptionsbanden (Schulter bei ca. 520 nm bzw. 19230 cm–1). 4.2 Untersuchungen zur Sauerstoffabsorption wäßriger Mangan(II)- Polyol-Systeme Für die Untersuchung der Sauerstoffabsorption wäßriger Mangan(II)-Polyol-Systeme entfiel die Wahl auf vier Polyole, D-Gluconsäure, Dulcitol, Xylitol und α-Cyclodextrin. Das Ver- hältnis von Base : Mangan(II) : Ligand betrug 10:1:3,5, im Fall des α-Cyclodextrins 10:1:3. Es wurden zwei Meßreihen bei verschiedenen Temperaturen, 20 °C und 5 °C, durchgeführt. Die Messungen bei 20 °C wurden zudem UV/VIS-spektroskopisch verfolgt. Als relevante Parameter sind die Konzentration der Reaktionsteilnehmer, das gewählte Ver- hältnis von Base : Mangan(II) : Ligand, der pH-Wert, die gewählte Base und die Temperatur anzusehen. Auch dem eingesetzten Liganden muß ein Einfluß zugebilligt werden. Die Untersuchungen zeigen, daß eine sukzessive Erhöhung der Mangan(II)-Konzentration bei konstantem Verhältnis von Base : Mangan(II) : Ligand und bei konstanter Temperatur sowohl das Anwachsen der Basenkonzentration sowie des pH-Wertes als auch einen steigenden Sau- erstoffverbrauch bewirken. Starke Abweichungen vom theoretisch zu erwartenden Sauer- stoffbedarf zeigen sich bei hohen Konzentrationen (0,06 M Mn(II)) der Reaktionsteilnehmer. Dies konnte in beiden Meßreihen festgestellt werden. Die bessere Löslichkeit des Sauerstoffs bei abnehmender Temperatur läßt sich bestätigen, da der Gesamtsauerstoffbedarf bei hohen Konzentrationen der Reaktionsteilnehmer niedriger lag als bei den Messungen bei 20 °C. Die spektroskopischen Daten zeigen, daß die Oxidation zunächst sehr schnell voranschreitet und schließlich immer langsamer wird. Da die Reaktionsgeschwindigkeit von der Oxidationszahl des Zentralatoms abhängt und um so schneller ist, je niedriger die Oxidationszahl des Zentral- atoms und je größer das Zentralatom ist, erfolgt die Bildung von Mangan(IV) demnach (klei- nes Metallion, hohe Oxidationszahl) langsam. Bei einer sequentiellen Oxidation von Man- gan(II) über Mangan(III) zu Mangan(IV) wird ein isosbestischer Punkt bei Verwendung von D- Gluconsäure, Dulcitol und Xylitol durchlaufen. Dieser zeigt an, daß zwei Spezies den glei- chen Extinktionskoeffizienten haben. Bei Messungen mit α-Cyclodextrin ist kein isosbesti- scher Punkt vorhanden. Daher sind wohl thermodynamische Aspekte zu berücksichtigen, die einerseits die Stabilisierung von Mangan(III) begünstigen und andererseits die Stabilisierung von Mangan(IV). Die Auswertung des Sauerstoffverbrauchs im Zusammenhang mit der Rot- verschiebung der Absorptionsbanden deckt eine Diskrepanz auf: Es ist ein Überschuß an Sau- erstoff vorhanden, welcher nicht für die Oxidation von Mangan(II) zu Mangan(IV) genutzt wird. Der Gesamtsauerstoffbedarf setzt sich folglich aus zwei Komponenten zusammen. Ab- hängig von der Einwaage an Mangan(II) dient ein Teil dazu, Mangan(II) zu Mangan(IV) zu oxidieren, der Rest des Sauerstoffverbrauchs läßt auf Ligandoxidationsprozesse schließen. Analyseverfahren wie die HPLC oder/und die Cyclovoltammetrie könnten dieses Ergebnis untermauern. Eine Ausnahme bilden Mangan(II)-α-Cyclodextrin-Systeme: Diese erreichen den theoretisch zu erwartenden Verbrauch nicht. Ob Diskrepanzen in den ermittelten Ergeb- nissen apparativ bedingt sein können, muß geprüft werden. Untersuchungen mit Wasserstoffperoxid und natronalkalischen Gluconat-Lösungen sprechen für den gleichen Sachverhalt. Der theoretisch zu erwartende Verbrauch bei hohen Konzentra- tionen der Reaktionsteilnehmer und bei gleicher Meßtemperatur wird ebenfalls überschritten. Die spektroskopischen Daten zeigen die gleiche Rotverschiebung der Absorptionsbanden. Die Annahme, daß es sich bei der reaktiven Spezies in Lösung um die gleiche handeln könnte, scheint nicht abwegig.

Medizin - Open Access LMU - Teil 11/22
3D-Voronoi Diagramme zur quantitativen Bildanalyse in der Interphase-Cytogenetik

Medizin - Open Access LMU - Teil 11/22

Play Episode Listen Later Jan 1, 1994


Um die Anordnung von Chromosomen in Zellkernen der Interphase zu untersuchen, wurde ein Verfahren aus der Computergeometrie adaptiert. Dieser Ansatz basiert auf der Zerlegung von dreidimensionalen Bildvolumen mithilfe des Voronoi-Diagramms in konvexe Polyeder. Die graphenorientierte, geometrische Struktur dieses Verfahrens ermöglicht sowohl eine schnelle Extraktion von Objekten im Bildraum als auch die Berechnung morphologischer Parameter wie Volumina, Oberflächen und Rundheitsfaktoren. In diesem Beitrag wird exemplarisch die dreidimensionale Morphologie von XChromosomen in weiblichen Interphasezellkernen mithilfe dieser drei Parameter untersucht. Um diese Zellkerne mit lichtoptischen Methoden zu untersuchen, wurden die Territorien der X-Chromosomen mit einem molekularcytogenetischen Verfahren fluoreszierend dargestellt. Zur Unterscheidung des aktiven und inaktiven X-Chromosoms wurde das Barr-Körperchen zusätzlich markiert und mithilfe eines Epifluoreszenzmikroskops, ausgerüstet mit einer CCD-Kamera, aufgenommen. Anschließend wurden 1 2 - 2 5 äquidistante, lichtoptische Schnitte der X-Chromosomenterritorien mit einem konfokalen Laser Scanning Mikroskop (CLSM) aufgenommen. Diese lichtoptischen Schnitte wurden mithilfe des Voronoi-Verfahrens segmentiert und analysiert. Methoden aus der Computergraphik wurden zur Visualisierung der Ergebnisse eingesetzt. Es konnte gezeigt werden, daß mithilfe des Voronoi-Verfahrens Chromosomen- Territorien anhand der morphologischen Parameter zuverlässig beschrieben werden können.