POPULARITY
Marco Lübbecke hat als Mathematiker den Lehrstuhl für Operations Research an der RWTH Aachen inne. Sein Lehrstuhl ist sowohl der Fakultät für Wirtschaftswissenschaften als auch der Fachgruppe für Mathematik zugeordnet. Zum Gespräch mit Sebastian Ritterbusch in Karlsruhe kam es anlässlich des Treffens der DFG Forschergruppe 2083: Integrierte Planung im öffentlichen Verkehr auf Einladung von Peter Vortisch, der auch schon zur Verkehrsmodellierung in Folge 93 in diesem Podcast zu hören war. Auf Twitter sind Marco Lübbecke unter @mluebbecke und sein Lehrstuhl unter @RWTH_OR zu finden und er schreibt das Blog Café Opt. Operations Research befasst sich zusammenfassend mit mathematischen Modellen und Methoden zur Entscheidungsunterstützung. Dabei steht oft die Frage einer möglichst guten oder optimierten Entscheidung im Vordergrund und daher ist das Gebiet von mathematischer Seite im Bereich der mathematischen Optimierung angesiedelt. Die Optimierung behandelt grundsätzlich die Bestimmung eines optimalen Werts einer Zielfunktion (und einer dazugehörenden Lösung) unter Berücksichtigung von einschränkenden Nebenbedingungen, den Restriktionen. Daneben steht aber auch die Frage der geeigneten Abbildung und Modellierung der Wirklichkeit und den Fehlerquellen der Beschreibung wie auch die grundsätzliche Herangehensweise an das Problem. Das optimierte Zusammenspiel von Menschen, Algorithmen und Technologie wird seit 2011 auch oft mit dem Begriff Industrie 4.0 für eine erhoffte vierte industrielle Revolution beschrieben. Die einheitliche Definition des Begriffs lassen aber selbst renommierte Industrievertreter offen. Als eine Schnittmenge der Beschreibungen kann man die lokale Intelligenz von Fertigungskomponenten ausmachen, die über Vernetzung und Sensorik zu einem besseren Gesamtprozess führen kann. Im Kleinen werden so Entscheidungsprozesse durchgeführt und dies führt grundlegend auf die gerade eingeführte mathematische Optimierungstheorie mit allen ihren Facetten. So gesehen ist die Industrie 4.0 als Optimierungsproblem eigentlich ohne Mathematik undenkbar. Ein in der Universität sehr naheliegendes Feld der Optimierung ist die Vorlesungsplanung, und hier ist aus der Forschung zusammen mit Gerald Lach in Kooperation zwischen der TU Berlin und der RWTH Aachen die Lösung Mathplan entstanden, die inzwischen an vielen Universitäten erfolgreich zur Vorlesungs-, Tutorien- und Klausurplanung eingesetzt wird. Mit genügend Zeit und genügend Personal kann man zwar einen einigermaßen akzeptablen Plan mit viel Erfahrung auch ohne besondere mathematische Optimierung aufstellen, das ändert sich aber schlagartig, wenn kurzfristige Änderungen berücksichtigt und Konflikte aufgelöst werden müssen. Mathematisch geht es hier um ganzzahlige lineare Programme, für die zwar Lösungsverfahren bekannt waren, diese für die Größenordnung der Probleme nicht geeignet waren. Eine Modellreduktion ohne Verlust der Optimalität führte hier zur Lösung. Auch in der Erstellung von Zugfahrplänen besteht ein großes Optimierungspotential. Da die Realität nicht perfekt planbar ist, geht es hier besonders um eine robuste Planung, die auch bei entstehenden Störungen noch das anvisierte Ziel erreichen kann. In der Forschung unter anderem auch mit Anita Schöbel der Uni Göttingen geht es um die Analyse der Fortpflanzungen von Verzögerungen, damit besonders kritische Fälle besonders behandelt werden können. Ein weiterer Gesichtspunkt ist aber auch die Möglichkeit Probleme möglichst gut durch kleine Eingriffe wieder korrigieren zu können. Ein zunächst überraschendes Forschungsthema ist die Bundestagswahl, wo sich Sebastian Goderbauer mit der optimierten Wahlkreiseinteilung befasst. Die 299 Bundestagswahlkreise werden weitaus häufiger neu zugeschnitten als man denkt: Da nach Bundestagswahlgesetz jeder Wahlkreis gerade 1/299-tel der Wahlberechtigten mit einer Toleranz von maximal 25 Prozent vertreten muss, erfordert die Wählerwanderung und Veränderung der Bevölkerungsstruktur die regelmäßigen Veränderungen. Das sogenannte Gerrymandering ist besonders bei Wahlen mit Mehrheitswahlrecht ein sehr problematisches Vorgehen bei Wahlkreisveränderungen, das offensichtlich undemokratische Auswirkungen hat. In Deutschland ist dies weniger ein Problem, wohl aber die deutlich ungleiche Größenverteilung der Wahlkreise. Die mathematische Definition und Betrachtung als Optimierungsproblem trägt die Hoffnung in sich, dass das Zuschnitt-Verfahren transparenter und nachvollziehbarer als bisher abläuft, und das sich dadurch balanciertere Wahlkreisgrößen ergeben können. Ein zentrales Forschungsgebiet ist für Marco Lübbecke der Bereich der ganzzahligen Programme. Die vielen auftretenden Variablen können beispielsweise Entscheidungen repräsentieren, die diskrete Werte wie ja oder nein repräsentieren. Dazu kommen verschiedene Resktriktionen und Nebenbedingungen, die Einschränkungen aus der Umgebungssituationen wie beispielsweise begrenzte Resourcen darstellen. Der Begriff "Programm" für die Bezeichnung von Optimierungsproblemen ist historisch aus dem englischen Begriff "programming" entstanden, der früher intensiv für "Planung" verwendet wurde. Heutzutage ist dieser Zusammenhang nicht mehr so naheliegend und entsprechend hat sich die Mathematical Programming Society (MPS) in Mathematical Optimization Society (MOS) umbenannt. Sind die Variablen eines Optimierungsproblems im , so kann man sich Schnitte mit linearen Ungleichungen wie das halbseitige Abschneiden des Lösungsraumes mit Ebenen vorstellen. Man nennt das Resultat ein Polyeder oder Vielflächner. Ist nun zusätzlich auch die Zielfunktion linear, so spricht man von einem linearen Optimierungsproblem oder linearen Programm. Wird nun der Lösungsbereich mit einem Gitter geschnitten, d.h. die Variablen können nur diskrete wie z.B. nur ganzzahlige Werte annehmen, so wird das Optimierungsproblem deutlich schwieriger. Dies ist erstaunlich, da der Lösungsbereich deutlich eingeschränkt wird. Jedoch verliert der Lösungsbereich seine konvexe Struktur und führt im linearen Fall von einem in polynomialer Zeit lösbaren Problem zu einem NP-schweren Problem. Wenn die Lösungsmenge eine beschränkte Anzahl von Elementen besitzt, so ist die Existenz von Maximum und Minimum durch Ausprobieren leicht zu beweisen. Das Problem ist jedoch, dass bei großen Datenmengen das vollständige Durchsuchen viel zu lange dauern würde. Eine Strategie zur Reduktion des Problems ist hier die Aggregation oder das Clustering, wo verschiedene Aspekte durch einzelne Repräsentanten dargestellt und gruppiert werden und so Rechenzeit eingespart wird. Zwar werden so nur approximierte Probleme gelöst, jedoch deutlich schneller und wenn möglich mit Fehlerschranken, die den maximalen Abstand zur tatsächlichen Lösung spezifizieren. Ein Beispiel für dieses Prinzip sind die Contraction Hierarchies, die das Routingproblem bzw. einen kürzesten Pfad auf einem Graphen zu finden durch eine zuvor berechnete Reduktion des betrachteten Netzes beschleunigen, exakte Fehlerschranken liefern, und gleichzeitig die Berechnung einer optimalen Lösung durch Berechnung lokaler Routen ermöglicht. Das Verfahren kommt aber an Grenzen, wenn einige Aspekte nur mit Wahrscheinlichkeiten beschrieben werden können. Ein klassisches Optimierungsproblem ist das Problem des Handlungsreisenden, an dem sich die verschiedenen Verfahren und Analysen der diskreten Optimierung illustrieren lassen. Dabei hat das Problem die Forschungsrelevanz nicht verloren: Viele neue Verfahren und Forschungsansätze gehen auf das Problem des Handlungsreisenden zurück. Gleichzeitig steht das Problem stellvertretend für viele Optimierungsprobleme zu Reihenfolgen in der Anwendung und findet so immer neuen Einsatz. Grundsätzlich basieren Optimierungsprobleme auf der Suche nach Extremwerten, diese kann man beispielsweise mit Abstiegs- oder Aufstiegsverfahren versuchen zu finden. Will man nun Einschränkungen berücksichtigen, so kann man die Zielfunktion mit Lagrange-Multiplikatoren für die Restriktionen erweitern. Diese Multiplikatoren kann man als Strafterme verstehen, die das Finden des Optimums unter Einhaltung der Restriktionen erzwingen. Die Verwendung der Lagrange-Multiplikatoren erzeugt automatisch über die Lagrange-Dualität ein duales Problem und führt auch auf Sattelpunkte. Die neue Sichtweise ist aus mehreren Gründen sehr hilfreich: Zum einen vereinfacht diese Dualität mathematische Beweise, sie ermöglicht Abschätzungen für die Qualität von Lösungen und liefert gleich zwei alternative Verfahren, um ein Optimierungsproblem zu lösen. Ein Standardverfahren zum Lösen von linearen Optimierungsproblemen ist das Simplex-Verfahren. Hier wird ausgenutzt, dass lineare Restriktionen ein Polyeder bilden und eine lineare Optimierungsfunktion ihr Maximum auf einer (Hyper-)Fläche, einer Kante (bzw. entsprechenden höherdimensionalen Strukturen) oder einer Ecke annehmen muss. Diese Kanten und Ecken werden mit dem Verfahren systematisch durchsucht. Beim schriftlichen Rechnen hat das Simplex-Verfahren große Ähnlichkeit mit dem Gaußschen Eliminationsverfahren, das zum Lösen von linearen Gleichungssystemen eingesetzt wird. In der Praxis ist das Simplex-Verfahren sehr schnell, jedoch finden sich konstruierte Gegenbeispiele, auf denen das Simplex-Verfahren eine schrecklich langsame exponentielle Laufzeit an den Tag legt. Daher haben hier traditionelle innere Punkte-Verfahren und Barrier-Verfahren ein aufwandstheoretisch deutlich besseres Laufzeitverhalten, in der Praxis sind die Ergebnisse aber sehr gemischt. Hat man nun ein diskretes bzw. ganzzahliges Problem, so liefert das Simplex-Verfahren ohne Berücksichtigung der Diskretisierung typischerweise keine ganzzahlige Lösung, liefert aber Abschätzungen für das Optimum, da der Wert einer optimalen ganzzahligen Lösung nicht besser sein kann als der einer optimalen kontinuierlichen Lösung. Für die nicht-ganzzahligen Lösungen für einzelne Variablen wie kann man nun zwei ganzzahlige Restriktionen definieren wie oder , und jetzt zwei Teilprobleme bzw. "Branches" mit je einer der beiden Restriktionen zusätzlich lösen. So erhält man entweder ein unzulässiges Teilproblem, oder bereits ein ganzzahlige Lösung (nicht notwendigerweise eine beste) oder eben wieder eine nicht-ganzzahlige. Durch fortwährendes Verzeigen auf den nicht-ganzzahligen Variablen entsteht eine Baumstruktur der Teilprobleme. Mit Hilfe der aus den jeweiligen kontinuierlichen Relaxationen gewonnenen Schranken lassen sich ganze Äste des Baums abschneiden ("Bound"), in denen keine bessere Lösung mehr zu finden ist als die beste die man bisher gefunden hat. Dieses Verfahren führen wir für alle weiteren verbleibenden Probleme oder Branches durch bis eine optimale lineare und diskrete Lösung übrig bleibt. Damit liefert das Branch-and-Bound-Verfahren bzw. weiter verfeinert das Branch-and-Cut-Verfahren auf Basis der Lösung von vielen kontinuierlichen linearen Optimierungsproblemen die Lösung des diskreten Problems. Eine Erweiterung des Verfahrens auf besonders große Probleme ist das Branch-and-Price-Verfahren, das mit Basis von Column Generation die Variablen sucht, die für die Lösung des Gesamtproblems relevant sind, und das Problem eingeschränkt auf diese Variablen löst, ohne dabei Optimalität aufzugeben. Ein interessantes Beispiel ist hier das Bin Packing bzw. Behälterproblem, wo es darum geht, eine Anzahl von verschiedenen Objekten auf eine Anzahl von Behältern zu verteilen. Das Entscheidungsproblem, ob eine gegebene Anzahl von Behältern reicht, ist sowohl für Versandhäuser äußerst relevant, ist aber gleichzeitig auch NP-Vollständig, also aufwandstheoretisch nachgewiesen schwer. Hier kann man durch vorheriges Sammeln von möglichen Füllmustern ein riesengroßes Modell erstellen, dieses aber mit der column generation in der Praxis um so effizienter lösen. In der Industrie werden beispielsweise die Pakete Cplex, Gurobi oder Xpress zur Lösung von Optimierungsproblemen eingesetzt, die die besprochenen Verfahren umsetzen. Hier können auch Modellierungssprachen zum Einsatz kommen, die die Probleme abstrakt und menschenlesbar definieren. Vorteile sind hier die Trennung von Daten und Modell und auch die Trennung von Problem und Löser. Ein Beispiel für eine Modellierungssprache für Optimierungsproblemen ist GAMS, sie stehen aber heutzutage in starker Konkurrenz zu modernen Programmiersprachen wie Python. Im Sinne des Leitsatzes "Tue Gutes und rede darüber" ist die Kommunikation von Wissenschaft für Forschende in Öffentlichkeit, Social Media und Internet eine große Gelegenheit mit vielen Vorteilen: Neben dem Austausch von wichtigen Erfahrungen zum Beispiel zum Schreiben wissenschaftlicher Paper, hilft es der wissenschaftlichen Vernetzung, der gesellschaftlichen Diskussion zur Relevanz des Forschungsgebiet über den Tellerand hinaus, und interessiert auch die Öffentlichkeit und auch junge Menschen näher in die spannenden Themen einzusteigen. Literatur und weiterführende Informationen G. Lach, M. Lübbecke: Optimal university course timetables and the partial transversal polytope, International Workshop on Experimental and Efficient Algorithms. Springer Berlin Heidelberg, 2008. C. Liebchen, M. Lübbecke, R. Möhring, S. Stiller: The concept of recoverable robustness, linear programming recovery, and railway applications, in Robust and online large-scale optimization (pp. 1-27). Springer Berlin Heidelberg, 2009. S. Goderbauer: Mathematische Optimierung der Wahlkreiseinteilung für die Deutsche Bundestagswahl, Springer Spektrum, Springer BestMasters, 2016. S. Goderbauer, B. Bahl, P. Voll, M. Lübbecke, A. Bardow, A. Koster: An adaptive discretization MINLP algorithm for optimal synthesis of decentralized energy supply systems, Computers & Chemical Engineering, 95, 38-48, 2016. R. Geisberger: Contraction Hierarchies: Faster and Simpler Hierarchical Routing in Road Networks, Diplomarbeit am Institut für Theoretische Informatik Universität Karlsruhe, 2008. M. Lübbecke, J. Desrosiers: Selected topics in column generation, Operations Research, 53(6), 1007-1023, 2005. M. Lübbecke: How to write a paper, blog post, 2014. M. Lübbecke: Are we too complicated? Communication of the Travelling Salesperson Problem in public, blog post, 2015. Podcasts S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung P. Vortisch: Verkehrsmodellierung I, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrsmodellierung-i K. Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Dickmann: Pumpspeicherkraftwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/pumpspeicher J. Wolf: Puerto Patida, das Rätselhörspiel zum Mitmachen, http://OhneQ.de, 2015-2016.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Widerstandsarterien spielen eine wichtige Rolle bei der Durchblutungsregulation. Bisher konnte der wichtigste endotheliale Dilatator in diesen Gefäßen, EDHF, nicht eindeutig identifiziert werden, da pharmakologische Inhibitoren unspezifische Nebenwirkungen aufwiesen. Die spezifische Inhibition von Enzymen mittels Antisensetechnik konnte in intakten Arterien nicht durchgeführt werden, da diese nur über einen kurzen Zeitraum funktionell intakt erhalten werden konnten. Im Rahmen dieser Dissertation wurde ein neues Organkulturmodell entwickelt, in dem erstmalig die endothelabhängigen EDHF- und NO-vermittelten Dilatationen über 48 h vollständig erhalten werden konnten. Zusätzlich entwickelten die kultivierten Arterien einen mit dem frisch isolierter Arterien vergleichbaren Spontantonus und zeigten eine myogene Reaktion, die sich in Kinetik und Ausmaß der Kontraktion nicht von den Kontrollarterien unterschied. Ebenso kontrahierten die chronisch perfundierten Arterien auf Stimulation mit Noradrenalin und dilatierten nach Applikation des NO-Donors SNP in vergleichbarem Ausmaß wie frisch isolierte Arterien. Um zu untersuchen, ob möglicherweise eine CytochromP450-Epoxygenase in der Signalkaskade des EDHF eine Rolle spielt, wurde zunächst die Expression von CYP2C8 in Widerstandsarterien mittels rtPCR und in-situ-Hybridisierung nachgewiesen. Da mit dem Organkulturmodell die Arterien funktionell vollständig intakt gehalten werden konnten, wurde die Wirkung von Antisense-Oligonucleotiden, die gegen CYP2C8 gerichtet waren, untersucht. Mittels konfokaler Mikroskopie konnte gezeigt werden, dass die FITC-markierten Oligonucleotide sich nur in der Intima befanden und die Transfektion des Endothels eine hohe Effizienz aufwies. Die Transfektion hatte keinen Effekt auf die NA-induzierte Kontraktion, auf die durch NS1619 (KCa-Kanalöffner)- oder die SNP- vermittelte Relaxation, was zeigt, dass die Funktion des glatten Muskels durch die Transfektion unbeeinträchtigt blieb. Die EDHF-vermittelten Dilatationen wurden durch die Transfektion mit den Antisense-Oligonucleotiden um 76% und die korrespondierenden Calciumabfälle um 58 % reduziert, während die Kontrolltransfektionen mit Scrambled- oder Senseoligonucleotiden keinen Einfluss auf die EDHF-mediierten Dilatationen hatten. Die endothelialen Calciumanstiege nach Stimulation mit ACh blieben in den Antisense-transfizierten Arterien unverändert. Das bedeutet, dass die Signaltransduktion der ACh-Rezeptoren durch die Transfektion funktionell nicht beeinträchtigt wurde. Auf diese Weise konnte mit einem spezifischen Inhibitor gezeigt werden, dass CYP2C8 eine EDHF-Synthase ist oder dessen Metabolit einen permissiven Faktor für einen anderen EDHF darstellt und ein elementarer Bestandteil der EDHF-Signalkaskade ist. Zusätzlich wurden mit diesem Organkulturmodell die Auswirkungen des kardiovaskulären Risikofaktors Hochdruck durch isolierte Erhöhung des transmuralen Drucks auf 120 und 160 mmHg (SMA120 bzw. SMA160) während einer Kulturperiode (48 h) untersucht. In den funktionellen Testungen zeigten sich nach 48 h geringere Außendurchmesserwerte in SMA120 und SMA160 im Sinne eines Remodelings. Der erhöhte Perfusionsdruck führte darüber hinaus zu einer Verstärkung der Noradrenalin-vermittelten Kontraktion. Dies ist jedoch nicht durch eine Erhöhung der Calciumsensitivität der Myofilamente zu erklären, da diese im Vergleich zur Kontrolle unverändert war, sondern durch eine Verstärkung der NA-induzierten Calciumanstiege. Neben den Veränderungen in der glatten Muskulatur zeigte sich insbesondere auch eine Beeinträchtigung der Endothel-vermittelten Relaxationen. Die NO-mediierte Dilatation wurde durch die chronische Perfusion bei 120 mmHg um 38% reduziert und bei SMA160 vollständig aufgehoben. Ebenso wurde die EDHF-vermittelte Relaxation bei SMA120 um 20 % und bei SMA160 um 47% verringert und der korrespondierende Calciumabfall um 41 % reduziert. Diese Reduktion der endothelialen Dilatationen wurde nicht durch eine Erhöhung der Elastance der Arterienwand hervorgerufen, da die dosisabhängige SNP-mediierte Relaxation unbeeinträchtigt war. Zusätzlich scheint eine strukturelle Schädigung des Endothels durch den erhöhten Druck unwahrscheinlich, da mittels Rasterelektronenmikroskopie keine Schäden an der Intima dargestellt werden konnten. Die Expression des ACh-Rezeptors scheint auch nicht in dem Maße verringert zu sein, dass sich daraus die verringerten NO- und EDHF-mediierten Relaxationen erklären ließen, da der endotheliale Calciumanstieg in SMA120 im Vergleich zu SMA45 unverändert war. Daher wird die Beeinträchtigung durch den erhöhten Druck in einem nachgeschalteten Signaltransduktionsweg vermutet. Erhöhter transmuraler Druck hat in diesem Modell innerhalb von 2 Tagen schon zu einer erheblichen Beeinträchtigung der endothelialen Funktionen und zu einer verstärkten Reaktivität des glatten Muskels in Widerstandsarterien geführt. Zwar ist eine Erhöhung des transmuralen Drucks für 48 h nicht mit einem jahrelang bestehenden Hypertonus vergleichbar, jedoch könnte man die so erhobenen Befunde als Hinweis werten, dass eine frühzeitige konsequente antihypertensive Therapie sinnvoll ist, um die druckinduzierte Verstärkung der glattmuskulären Reaktivität und die Einschränkung der Endothelfunktion zu verringern und eine daraus resultierende weitere Erhöhung des Blutdruckes zu verhindern.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Die Dynamik von Makromolekülen spielt bei Transportprozessen in weicher Materie eine wichtige Rolle. Fluoreszenz-Korrelations-Spektroskopie (FCS) kann die Dynamik spezifisch fluoreszenzmarkierter Moleküle in Lösung verfolgen. Das Prinzip der Methode basiert auf der Analyse von Intensitätsfluktuationen innerhalb eines Volumens in der Größenordnung eines Femtoliters (1 fl = 1 Kubikmikrometer). In dieser Arbeit wurde mit FCS die Dynamik von DNA, Aktin und Hyaluronsäure untersucht. Die Schwerpunktsdiffusion in Lösung, die intramolekulare Kettendynamik und das Verhalten von Polymerlösungen im Scherfluss wurden studiert. Die Möglichkeit für Messungen der Dynamik an Grenzflächen wurde geschaffen. Die Autokorrelation fluoreszenzmarkierter DNA in Lösung zeigt auf verschiedenen Zeitskalen charakteristische Abfälle, die ihre Ursache in unterschiedlichen dynamischen Prozessen haben. Mit den in dieser Arbeit entwickelten Modellfunktionen für die Autokorrelation lassen sich die charakteristischen Größen der verschiedenen Prozesse durch Anpassung an die experimentellen Daten gewinnen. Bei kurzen Zeiten im Mikrosekundenbereich fällt die Korrelationsfunktion auf Grund photochemischer Prozesse der Fluoreszenzfarbstoffe exponentiell ab. Im Bereich von 10-100 Mikrosekunden zeigen die Daten einen weiteren Abfall, der stark von der Anzahl der Farbstoffe auf der Polymerkette abhängt. Die On-Off-Kinetik eines Ensembles von Fluorophoren wurde in ein Modell für die Korrelationsfunktion umgesetzt. Intensitätsfluktuationen im Bereich von 1 - 100 Millisekunden stammen von der Diffusion und den internen Relaxationsmoden der Polymerketten. Ein Modell für die Korrelationsfunktion der Schwerpunktsdiffusion für Polymerketten mit kontinuierlicher Farbstoffverteilung entlang der Kontur wurde entwickelt und mit experimentellen Daten von DNA-Fragmenten unterschiedlicher Länge (1019 bp bis 7250 bp) bestätigt. Ausgehend von den dynamischen Strukturfaktoren der Modelle von Rouse, Zimm und semiflexibler Ketten in Lösung wurden Korrelationsfunktionen für interne Relaxationen berechnet und an Messdaten mit Lambda-DNA (48502 bp) angepasst. Über den Abstand der Farbstoffe entlang der Polymerkontur werden Moden selektiert, deren Relaxationsdynamik sich in die Autokorrelationsfunktion überträgt. Bei Abständen, die viel größer als die Persistenzlänge der DNA sind, liefert das angepasste Modell die erwarteten Werte für die Zimm-Dynamik. Aktinfilamente mit Längen im Bereich von 100 Nanometern bis 50 Mikrometer wurden als Modellsysteme semiflexibler Polymere untersucht. Für Filamentlängen, die kleiner als das Beobachtungsvolumen sind, ist die Korrelationsfunktion bestimmt durch die Schwerpunktsdiffusion. Für längere Filamente dominieren die Biegemoden. Charakteristisch für diese Form der internen Relaxation ist das zeitliche Skalenverhalten mit dem Exponenten 3/4. Theoretische Korrelationsfunktionen, die in Zusammenarbeit mit Roland Winkler vom Forschungszentrum Jülich entstanden sind, zeigen eine sehr gute Übereinstimmung mit den experimentellen Daten. Erstmals wurden Korrelationsfunktionen einzelner Aktinfilamente im halbverdünnten Bereich gemessen. Die charakteristische Abfallzeit der Korrelationsfunktion als Maß für die Dynamik der Biegemoden sinkt mit steigender Aktinkonzentration. Für Aktinkonzentrationen von 0,01 mg/ml bis 1 mg/ml folgt die Abfallzeit einem Skalengesetz tau ~ c^(-0,48 +- 0,03). Neben der Diffusion wurde in dieser Arbeit die Dynamik in Strömungen untersucht. Zur Verfolgung von gerichteten Transportprozessen wurden zwei Foki mit einem lateralen Abstand von 5 Mikrometern erzeugt. Durch eine Kreuzkorrelation der beiden getrennten Intensitätssignale lässt sich die Zeit bestimmen, die die Teilchen zum Durchlaufen des Abstandes der beiden Foki benötigen. Mit dieser mikroskopischen "Lichtschranke" wurden Flussgeschwindigkeiten in einem 100 Mikrometer hohen Kanal mit mikrometergenauer Ortsauflösung gemessen. Die Scherverdünnung einer Hyaluronsäurelösung konnte anhand des Geschwindigkeitsprofils nachgewiesen und eine kritische Scherrate von 285 +- 30 s^(-1) bei einer Polymerkonzentration von 2,5 mg/ml bestimmt werden.
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
In dieser Arbeit wurden sowohl einkristalline Magnetit- als auch mit ultradünnen Oxidfilmen bedeckte NiAl- und Ni3Al-Legierungskristalle mithilfe von Oberflächenröntgenbeugung (SXRD, surface X-ray diffraction) untersucht. Das Ziel war es, die atomare Struktur der rekonstruierten Magnetitfläche und des Kompositsystems Oxidfilm-Interface-Legierungskristall zu bestimmen. Für die durch Ionenbeschuß und Tempern präparierte, c(2x2)-rekonstruierte Fe3O4(001)-Oberfläche wurden mit Oberflächenröntgenbeugung in plane-Reflexe, Grundgitter- und Überstruktur-Beugungsstäbe gemessen. Mit fünf in der Literatur diskutierten Terminierungsmodellen wurde eine Anpassung an die experimentellen Daten durchgeführt; für folgende zwei Modelle ergab sich eine ähnlich gute Übereinstimmung der simulierten Stäbe mit den Meßwerten: die Terminierung mit einer halben Monolage tetraedrisch koordinierten Eisens (Modell 3) und die Terminierung mit einer vollen Oktaeder-Eisenlage (Modell 2). Beiden angepaßten Strukturen gemein ist eine laterale wellenförmige Verzerrung der obersten Oktaedereisenreihen mit einer Amplitude zwischen 0.11 und 0.14 Å und eine starke Kontraktion des ersten Lagenabstandes (Modell 3: 80 - 100 %, Modell 2: 31 %). Im Fall der Modell 3-Terminierung schließt die oberste Eisenlage fast völlig mit der darunterliegenden B-Lage ab, wobei starke differentielle Relaxationen zwischen den Eisen- und Sauerstoffionen auftreten. Die Modell 2-Terminierung zeigt dagegen eine im wesentlichen einheitliche Relaxation der vertikalen Atompositionen und im Vergleich mit Modell 3 geringer verkürzte Fe-O-Bindungsabstände mit einem minimalen Abstand von 1.77 Å. Bei der Rechnung unter Verwendung nur der Überstrukturintensitäten ergeben sich für Modell 2 um 4 - 6 % niedrigere R-Werte (Anpassungsgüte), die zusammen mit den Ergebnissen aktueller STM-Messungen und ab initio Simulationsrechnungen die B-Lagenterminierung unterstützen. Dies ist insofern bemerkenswert, da diese polare Terminierung aus elektrostatischen Gründen instabil sein sollte. Die Untersuchung der Aluminiumoxid-Dünnfilme auf Nickelaluminium ergab für die beiden untersuchten Substrate NiAl(110) und Ni3Al(111) ähnliche Resultate. Die reinen, nichtoxidierten Nickelaluminiumflächen waren im UHV unrekonstruiert und wiesen für die äußere Ni/Al-Doppellage ein gegenüber Ni stärker ins Vakuum relaxiertes Aluminiumatom auf (’rippling’, NiAl(110): 0.16 Å, Ni3Al(111): 0.01 Å). In umfangreichen Präparationsserien unter Zuhilfenahme von SPA-LEED- und AES-Messungen wurden die optimalen Bedingungen für die Bildung eines stabilen Films gefunden. Für NiAl(110) ist dies die Oxidation bei 850 K mit anschließendem Tempern bei 1150 K, für Ni3Al(111) die Oxidation und Ausheilen bei einer Temperatur von 1050 K mit einer um den Faktor 10 geringeren Sauerstoffdosis. In beiden Systemen tritt bei niedrigen Temperaturen eine metastabile, stark fehlgeordnete Vorläuferphase mit hexagonaler Oxidzelle auf (Al2O3/NiAl(110): 3.12 Å, Al2O3/Ni3Al(111): 2.95 Å), die sich jeweils ab etwa 1100 K in einen stabilen, gut geordneten Oxidfilm umwandelt. Für Al2O3/NiAl(110) folgt aus der Analyse der Röntgenreflektivität ein aus 5 Atomlagen bestehender, 7.8 Å dicker Oxidfilm mit einer Al-Interfaceschicht, die einen Abstand von 1.7 Å von der obersten Substratlage aufweist. Im Fall von Al2O3/Ni3Al(111) ist der aus 4 Atomlagen bestehende Film (1 Interfacelage + 3 Oxidlagen) 5.2 Å dick mit einem Substratabstand von 2.1 Å für die Al-Interfacelage. Die Intensität der Gitterabbruchstäbe läßt sich jeweils mit einem abrupt endenden, strukturell wenig veränderten Substrat erklären, wobei chemische Unordnung in den Legierungskomponenten nur in der Größenordnung weniger Prozente auftritt. Für NiAl(110) wurden zwei verschiedene, hoch geordnete Überstrukturen gemessen: Die bekannte, entlang der NiAl[1 –1 0]-Richtung kommensurable Oxidstruktur (HT1) der Dimension 10.58 x 17.87 Å (Zellwinkel 88.9°) und eine zusätzlich im Rahmen der Röntgenmessung gefundene, in [1 –1 1]-Richtung kommensurable Struktur (HT2) mit einer Zelle von 3.97 x 3.91 Å (Zellwinkel 73.3°). Die HT2-Struktur ist dabei auf eine chemische Verunreinigungen mit Bor zurückzuführen. Für den Oxidfilm auf Ni3Al(111) wurden SPA-LEED-Untersuchungen durchgeführt, mit denen das komplizierte Beugungsbild aufgeschlüsselt wurde: Es wurden eine hexagonale Oxid-Basiszelle der Dimension 3.01 Å gefunden, die eine hexagonale, 23.8 Å große, 17.78° gegen die [1 -1 0]-Substratrichtung gedrehte Überstruktur (’Modulationszelle’) aufweist. Zusätzlich besteht ein Koinzidenzgitter zwischen Substrat und Oxid, das eine (sqrt(3) x sqrt(3))R30°-Überstruktur der Modulationszelle darstellt. Die Modulationszelle des Al2O3-Films ist dabei als eine dichtgepackte Sauerstoffstruktur mit bevorzugter Tetraederlückenbesetzung des Aluminiums aufzufassen, deren Atome in der Mitte der hexagonalen Zelle hoch geordnet, an den Kanten stark fehlgeordnet sind.