POPULARITY
Wieso du dich vom Scheitern an deinen eigenen Ansprüchen nicht unterkriegen lassen solltest, verraten dir Priska Lachmann und Sarah Stopp in dieser Folge.
Wieso du dich vom Scheitern an deinen eigenen Ansprüchen nicht unterkriegen lassen solltest, verraten dir Priska Lachmann und Sarah Stopp in dieser Folge.
Wieso du dich vom Scheitern an deinen eigenen Ansprüchen nicht unterkriegen lassen solltest, verraten dir Priska Lachmann und Sarah Stopp in dieser Folge.
Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Bernd Sieker und sprach mit ihm um Unfälle mit Autopiloten mit Flugzeugen und Automobilen. Der Flugreiseverkehr ist inzwischen sehr sicher, es verbleibt aber ein Restrisiko, das man an den sehr seltenen Flugunfällen erkennen kann. Bernd untersucht nun die wenigen Abstürze großer Airliner, die es noch gab, und fragt sich, wie es zu diesen Katastrophen kommen konnte. Beispiele für Unfallursachen können beispielsweise Ausfälle scheinbar weniger relevanter Systeme sein, wo von der Crew Entscheidungen getroffen werden, die sie für sinnvoll halten, sich aber später als problematisch herausstellen. Technische Schäden, die unmittelbar zum Absturz führen, sind inzwischen sehr selten. Und selbst scheinbare kritische Ausfälle wie Triebwerksausfälle werden geübt und es gibt Prozeduren, wie man in diesen Fällen das Flugzeug möglichst sicher landen können sollte. Im Segelflug gehört eine Außenlandung auf freiem Feld zum Normalbetrieb, wobei man natürlich für am Boden etwaig entstandenen Schaden aufkommen muss, falls der Landwirt darauf besteht. Eine entsprechende nicht genehmigte Sicherheits- oder Notlandung führt bei Motorflugzeugen zur Auskunfts- oder Meldepflicht mit entsprechenden Auflagen zum Abtransport oder Erlaubnis zum Wiederstart. Bei der Untersuchung von Unglücksfällen geht der erste Blick auf offizielle Berichte oder Untersuchungen. So auch beim Air-France Flug 447 von 2009, wo ein Airbus A330-203 mitten über dem Atlantik plötzlich verschwand. Erste Indizien auf das Unglück wurden durch ACARS-System über Satellit empfangen, unter anderem über den Ausfall von Staurohren, mit denen die Geschwindigkeit des Flugzeugs gemessen wird. Das ist ein dramatischer Ausfall an Information, mit dem die Piloten aber umgehen können müssten und der eigentlich nicht zu einem Absturz führen sollte, denn die Geschwindigkeit ist noch mittels anderer Sensoren erkennbar. Erste gefundene Wrackteile deuteten darauf hin, dass das Flugzeug fast senkrecht in horizontaler Lage auf das Wasser aufgeschlagen sein musste. Dies führte auf die Vermutung, dass das Flugzeug überzogen wurde, bis es zum Strömungsabriss kam, und es daraufhin einfach herunterfiel. Nach Bergung des Flugschreibers bestätigte sich der vermutete Ablauf. Er wurde durch einen überraschend kurzen Zeitraum von wenigen Minuten zwischen Fehlermeldung und Absturz aus Reiseflughöhe belegt. Die Piloten müssen in der widersprüchlichen Situation gewesen sein, dass ihnen der Sink"flug" angezeigt wurde, während die Nase des Flugzeugs nach oben zeigte, was laut Training normalerweise in diesem Flugzustand nicht möglich ist. Bei dem eingesetzten Fly-by-wire System wäre eigentlich auch kein Strömungsabriss möglich gewesen. Nach Ausfall der Staurohre führte nun die Verkettung zwischen unvorhersehbarem Flugzeugzustand und der dramatischen Fehlinterpretation durch die Piloten zum Absturz. In der Ursachenanalyse ist sowohl zu beachten, dass die Warnmeldungen zum Strömungsabriss von den Piloten womöglich wegen einer Vielzahl von Warnmeldungen nicht mehr erfasst werden konnte. Ebenso wurden widersprüchliche Angaben zur Fluggeschwindigkeit und Anstellwinkeln von den Systemen des Flugzeugs irgendwann als ungültig abgewiesen und entsprechende Warnungen abgeschaltet oder nur noch widersprüchlich wiedergegeben. Dies führt zur Betrachtung solcher Systeme unter dem Aspekt, dass sie sozio-technisch sind, mit der Einsicht, dass gerade bei der Übertragung von Aufgaben des Menschen an Technik und zurück ein besonderes und schwer vorhersehbares Fehlerpotenzial besteht. Insbesondere Autopiloten haben eine besondere Bedeutung, da sie direkt in die Aufgaben der steuernden Menschen eingreifen. Klassisch steuern Autopiloten nur in sehr engen Parametern wie einzuhaltende Richtung, Höhe, Querneigung der Sink-/Steiggeschwindigkeit. Im Auto sind schon Geschwindigkeits- und Abstandsautomatik üblich. Jedoch sind auch Landungen mit Autopilot möglich, die aber ein besonderes Training und Überprüfung von Mensch und Maschine und Verbesserung der Algorithmen und redundante Sensoren erfordern. Dies zeigt schon, wie kritisch Autopiloten im Automobil zu sehen sind, da hier bisher kein besonderes Training für die Verwendung von Autopiloten erfolgt. Eine Überraschung ist dabei, dass eine besondere Gefahr daraus entsteht, wenn Autopiloten so zuverlässig werden dass sich Menschen zu sehr auf sie verlassen. Überraschende Situationen kann aber der Mensch meist besser bewältigen. Bei der Untersuchung von Flugunfällen stellt sich besonders die Frage, welche Ereignisse die eigentliche Ursache also für das Unglück verantwortlich sind. Wie ist hier Kausalität zu definieren? An der Uni Bielefeld wurde in der Arbeitsgruppe von Prof. Ladkin dazu die Why-Because-Analysis (WBA) entwickelt, wo die Counterfactual Test Theory von David Lewis zum Einsatz kommt. Aus der Überprüfung, ob ein Ereignis notwendig und die Menge der gefunden Ereignisse hinreichend für die Entstehung eines Ereignisses war, entsteht ein kausaler "Why-Because"-Graph (WBG), der genau nur die Ereignisse zusammenfasst, die notwendig zum Unglück führten. Ein interessantes philosophisches Konstrukt ist hier die Nearest-Possible-World-Theory, die ein Szenario konstruiert, das dem Unglück möglichst stark ähnelt, für das aber es nicht zum Unglück gekommen wäre. Was war hier anders? Was können wir daraus lernen? Durch Vergleich mit vorherigen dokumentierten Ereignissen können Teile des WBG auch quantitativ bewertet werden, obgleich die Datenbasis oft sehr gering ist. Dennoch können Schlüsse gezogen werden, welche Ereignisse bisher ignoriert wurden und ob dies gerechtfertigt ist. Das National Transportation Safety Board (NTSB) befasst sich in den USA wie die Bundesstelle für Flugunfalluntersuchung (BFU) in Deutschland typischerweise mit der Aufarbeitung von Unglücksfällen, und wie diesen in Zukunft entgegengewirkt werden kann. Darüber hinaus haben ebenso Versicherungen von Fluggesellschaften ein großes Interesse an einer Aufarbeitung, da die Fluggesellschaften in vielen Bereichen für Unglücke haftbar sind, soweit sie nicht nachweisen können, dass die Hersteller verantwortlich zu machen sind. Während des Asiana Airlines Flug 214 kam es in einer Boeing 777 im Anflug auf San Francisco 2013 im Landeanflug zu einer "Mode Confusion" beim Autopilot: Die erwartete Schubregulierung blieb aus, und es kam zu einem Absturz. Im Fall des Turkish Airlines Flug 1951 mit einer Boeing 737 nach Amsterdam gab es im Anflug einen Fehler im Radarhöhenmessgerät, wodurch der Autopilot in Erwartung der Landung aktiv den Schub zurückregelte. Die Korrektur der Piloten schlug fehl, da sie sich nicht über die genauen Abläufe im Klaren waren. Dies deutet schon deutlich darauf, dass Schwierigkeiten beim Einsatz von Autopiloten im automobilen Umfeld zu erwarten sind. Darüber hinaus sind die erforderlichen menschlichen Reaktionszeiten im Auto deutlich kürzer, so dass Missverständnisse oder das An- oder Abschalten von Autopilot-Funktionen deutlich leichter zu Unglücken führen können. Eine wichtige Einstufung sind hier die erreichten SAE Autonomiestufen, die beschreiben, wie weit das Fahrzeug Aufgaben des Fahrens übernehmen kann. Besonders problematisch ist Autonomiestufe 3: Hier darf der Fahrer sich während der Fahrt anderen Dingen als der Fahrzeugführung zuwenden, muss aber nach einer gewisse Vorwarnzeit wieder die Führung wieder übernnehmen können. Selbst bei wenigen Sekunden wird dies bei höheren Geschwindigkeiten sehr schwer zu erfüllen sein. Bei Stufe 4 muss das Fahrzeug auch ohne Fahrerintervention sicher bleiben, notfalls durch Anhalten, Stufe 5 ist vollständig autonom von Tür zu Tür. Ein weiterer Gesichtspunkt ist die vorhandene Sensoraustattung und deren Ausfallsicherheit oder die Interpretation der Sensormessungen. Im Fall des Unfalls eines Uber-Autos am 18. März 2018 in Arizona wurde eine Fußgängerin von den Sensoren zwar erfasst, jedoch wurden die Detektion durch die Software als Fehler zurückgewiesen und es kam zum Unfall. Die hier verwendete Software war und wird weit weniger getestet und formal geprüft als Software im Luftfahrtumfeld, da dies auch im Bezug auf neuronale Bilderkennungsverfahren schwer umzusetzen sein wird. Ein weiterer Aspekt ist, dass selbst wenn ein sozio-technisches System sicherer als Menschen fährt, die Akzeptanz nur sehr schwer zu erreichen sein und viele rechtliche und ethische Fragen zunächst zu klären wären. Vielen Dank an Markus Völter für die Unterstützung in dieser Folge. Literatur und weiterführende Informationen D. Lewis: Counterfactuals and comparative possibility, Springer, Dordrecht, 57-85, 1973. P. Ladkin: Causal reasoning about aircraft accidents, International Conference on Computer Safety, Reliability, and Security. Springer, Berlin, Heidelberg, 2000. B. Sieker: Visualisation Concepts and Improved Software Tools for Causal System Analysis, Diplomarbeit an der Technischen Fakultät der Universität Bielefeld, 2004. B. Sieker: Systemanforderungsanalyse von Bahnbetriebsverfahren mit Hilfe der Ontological Hazard Analysis am Beispiel des Zugleitbetriebs nach FV-NE, Dissertation an der Technischen Fakultät der Universität Bielefeld, 2010. Causalis Limited Research Group Networks, System Safety, Embedded and Distributed Systems B. Sieker: Hold Steering Wheel! Autopilots and Autonomous Driving. Presentation at the Gulaschprogrammiernacht 18, ZKM/HfG, Karlsruhe, 2018. B. Sieker: What's It Doing Now? The Role of Automation Dependency in Aviation Accidents. Presentation at the Chaos Communication Congress 33C3, 2016. Podcasts H. Butz, M. Völter: Komplexe Systeme, Folge 058 im omega tau Podcast, Markus Völter und Nora Ludewig, 2011. S. B. Johnson, M. Völter: System Health Management, Episode 100 in the omega tau Podcast, Markus Völter and Nora Ludewig, 2012. R. Reichel, M. Völter: Fly by Wire im A320, Folge 138 im omega tau Podcast, Markus Völter und Nora Ludewig, 2014. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 1, Folge 262 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 2, Folge 263 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. P. Nathen, G. Thäter: Lilium, Gespräch im Modellansatz Podcast, Folge 145, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. GPN18 Special B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
Hybridmethoden, welche eine quantenmechanische Beschreibung eines Moleküls im Rahmen der Dichtefunktionaltheorie (DFT) mit einer molekülmechanischen (MM) Modellierung seiner Umgebung kombinieren, eröffnen einen Zugang zur Berechnung von Lösungsmitteleffekten in molekularen Schwingungsspektren. In der vorliegenden Arbeit wird eine solche DFT/MM-Hybridmethode exemplarisch zur Analyse der Schwingungsspektren von Biomolekülen eingesetzt. Durch Vergleich mit spektroskopischen Daten werden die erzielbare Genauigkeit und der dazu nötige Rechenaufwand ausgelotet. Bei den untersuchten Systemen handelt es sich um den Retinalchromophor der lichtgetriebenen Protonenpumpe Bakteriorhdopsin (BR) und um ein in Methanol gelöstes, lichtschaltbares beta-Hairpinpeptid. Die inhomogen verbreiterten Schwingungsspektren werden mit DFT/MM unter Verwendung der „instantanen Normalmodenanalyse (INMA)“ beschrieben. Dabei wird durch eine MM Molekulardynamik-(MD-)Simulation ein Raumtemperatur-Ensemble von Strukturen des Moleküls in seiner jeweiligen Umgebung generiert und für jeden solchen Strukturschnappschuss das Infrarot-(IR-) Spektrum durch DFT/MM Normalmodenanalyse berechnet. Das inhomogen verbreiterte Raumtemperaturspektrum ergibt sich durch Überlagerung dieser Linienspektren. Für BR ist die Erzeugung eines solchen Ensembles schwierig, da die BR Struktur bei Verwendung der üblichen nicht-polarisierbaren MM-Kraftfelder unter MD „zerfällt“. Einen Ausweg bietet ein mit DFT/MM Methoden berechnetes polarisiertes BR-Kraftfeld, das die BR-Struktur auch bei Langzeit-MD-Simulationen (50 ns) erhält. Mit einem speziell entwickelten Hamiltonschen Replika-Austauschverfahren lässt sich anschließend zeigen, dass die bei den tiefen Temperaturen der Kristallstrukturanalyse homogene BR Struktur bei Raumtemperatur heterogen wird, was eine Vielzahl experimenteller Befunde erklärt. Die INMA Berechnung der Schwingungspektren des BR-Chromophors bei Raumtemperatur in situ, eine systematische Analyse diverser Einflussparameter und Vergleiche mit experimentellen Daten beantworten schließlich die Frage, mit welcher Qualität solche Spektren bei sorgfältiger Modellierung und unter Einsatz der gewgenwärtig verfügbaren DFT/MM Methoden berechnet werden können. Weiterhin werden DFT/MM-Hybridrechnungen dazu eingesetzt, um den strukturellen Gehalt von ps-zeitaufgelöste IR Daten zur Entfaltungsdynamik eines lichtschaltbaren beta-Hairpinpeptids zu dekodieren. Der lichtinduzierte Entfaltungsprozess wird mit MM/MD simuliert. DFT/MM Berechnungen der durch den Entfaltungsprozess ausgelösten Bandenverschiebungen im Amid-I Bereich zeigen dann, dass die spektrospopischen Beobachtungen das sukzessive Aufreissen der ursprünglich geordneten H-Brückenstruktur des Peptids anzeigen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
In der vorliegenden Arbeit wurde der Einfluss des dreidimensionalen Strahlungstransportes, insbesondere der differentiellen Einstrahlung, auf die Wolkenbildung und -entwicklung untersucht. Hierzu wurde ein Verfahren zur Berechnung der Bestrahlungsstärke am Boden unter inhomogener Bewölkung entwickelt und in das Grobstruktursimulationsmodell EULAG implementiert. Durch Vergleich von Simulationen mit der originalen Modellversion und dem weiterentwickelten Modell wurde der Einfluss der differentiellen Einstrahlung, verursacht durch Wolkenschatten, auf die konvektive Grenzschicht untersucht. Das Verfahren beruht auf der tilted independent column approximation (TICA). Hierbei werden einzelne Säulen, die in Richtung der Sonne ausgerichtet sind, betrachtet und für diese die Strahlung unabhängig voneinander berechnet. Die Methode wurde optimiert, parallelisiert und dadurch so stark beschleunigt, dass die Rechenzeiten der in dieser Arbeit durchgeführten Simulationen mit EULAG-TICA nur maximal 3% über denen mit EULAG ohne Strahlung liegen. Durch Vergleich mit exakten dreidimensionalen Strahlungstransportrechnungen wurde gezeigt, dass die TICA eine sehr gute Näherung zur Berechnung solarer Bestrahlungsstärken am Boden für unterschiedliche Wolkensituationen und verschiedene Sonnenzenitwinkel darstellt. Hingegen ist die verbreitete independent column approximation (ICA) zur Berechnung von Bestrahlungsstärken am Boden nur für im Zenit stehende Sonne geeignet, da die ICA aufgrund der Beschränkung auf den Strahlungstransport in senkrechten Säulen keinen realistischen Schatten produziert. Die berechnete Bestrahlungsstärke wurde an die Modellphysik gekoppelt durch die Anpassung des Wärmeflusses am Boden. Dieser wirkt sich auf die Temperatur in der Atmosphäre aus. Anhand von Vergleichen mit Messreihen unter gleichen Wolkenbedingungen wurde gezeigt, dass die durch die Wolkenschatten verursachten Temperaturfluktuationen am Boden in Simulationen mit EULAG-TICA realistisch sind. Zur Untersuchung des Einflusses der differentiellen Einstrahlung auf die Wolkenbildung wurden Simulationen einer einzelnen konvektiven Wolke durchgeführt. Der Einfluss auf die Wolkenentwicklung wurde anhand von Simulationen der konvektiven Grenzschicht untersucht. Die Simulationen mit und ohne Wolkenschatten zeigen deutliche Unterschiede. Im Bereich des Wolkenschattens ist der Aufwind wie erwartet schwächer ausgeprägt als in der Referenzsimulation ohne Schatten. Als Folge des schwächeren Aufwindes reicht die Wolke in den Simulationen mit Schatten weniger hoch und weist daher ein geringeres Volumen und einen geringeren Flüssigwasserpfad auf. Ist das Wolkenwachstum nach oben durch eine Inversion begrenzt, so wie in der konvektiven Grenzschicht, zeigen sich kaum Unterschiede im Bedeckungsgrad und Wolkenvolumen zwischen den Berechnungen mit und ohne Wolkenschatten. In jedem Fall hat die differentielle Einstrahlung jedoch einen starken Einfluss auf die Zirkulation. Vertikalprofile der horizontalen Windgeschwindigkeiten zeigen mittleren Wind von der Wolke in Richtung ihres Schattens in Höhe der Wolken und in entgegengesetzter Richtung in Bodennähe. Dies bedeutet, dass die an konvektiven Wolken vorhandene Zirkulation (aufsteigende Luft unterhalb der Wolke, Ausfließen in der Höhe der Wolke aus der Wolke heraus in alle Richtungen, absinkende Luft neben der Wolke und am Boden Luftbewegung von allen Seiten unter die Wolke) in Richtung des Schattens orientiert wird. Des Weiteren zeigen die Ergebnisse eine Bewegung der Wolken weg von ihrem Schatten, bzw. eine Auflösung der Wolken oberhalb ihres Schattens und Wolkenwachstum auf der der Sonne zugewandten Seite. Steht die Sonne im Zenit ist die Lebensdauer der einzelnen Wolken kürzer. Sie lösen sich schneller wieder auf, da der sie bildende Aufwind durch den Schatten abgeschwächt wird.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Bartonella henselae ist der Erreger der Katzenkratzkrankheit und vaskuloproliferativer Erkrankungen des Menschen. Das Bakterium wurde erstmals 1989 korrekt klassifiziert und den oben genannten Krankheitsbildern zugeordnet. Es ist ein langsam wachsendes, nicht in Flüssigmedien kultivierbares Bakterium. Genetische Untersuchungen sind deswegen schwierig. Im Rahmen dieser Arbeit wurde daher die zweidimensionale Elektrophorese zur Untersuchung möglicher Pathogenitätsfaktoren von B. henselae etabliert. Mithilfe dieser Methode sollte es möglich sein, das gesamte Proteom von B. henselae unter verschiedenen Kulturbedingungen aufzutrennen und so Rückschlüsse auf Pathomechanismen dieses Erregers zu ziehen. Die vorliegende Dissertation lieferte folgende Ergebnisse: 1. Etablierung eines geeigneten Protokolls zum Aufschluss von B. henselae für die zweidimensionale Elektrophorese. 2. Erstellung einer Proteomkarte von auf Agarplatten kultivierten B. henselae. Hierdurch wurde die Grundvoraussetzung für weitere Proteom-basierte Studien geschaffen. Zudem wurden drei Proteine (Malatdehydrogenase, Pyruvatdehydrogenase und DnaK)erstmals bei B. henselae beschrieben. 3. Charakterisierung von vier monoklonalen anti-B. henselae-Antikörpern mithilfe von zweidimensionalen Proteom-Western-Blots. Dadurch wurden vier neue B. henselae–Proteine, unter anderem das Phagenprotein Pap31, als immunogen in der Maus beschrieben. Zudem wurde hier erstmalig die zweidimensionale Elektrophorese als schnelle und akkurate Methode zur Charakterisierung monoklonaler Antikörper eingesetzt. 4. Durch den Proteomvergleich hitzegestresster und nicht-hitzegestresster B. henselae wurde gezeigt, dass mit der hier etablierten Methodik regulative Vorgänge der Proteinsynthese von B. henselae erfasst werden können. Von den drei identifizierten Hitzestressproteinen (GroEL, GroES und DnaK) wurde DnaK für B. henselae zum ersten Mal beschrieben. 5. Zwei pilusassoziierte Proteine (220 kD und 43 kD) wurden durch Proteomvergleich gefunden. Bei dem in den zweidimensionalen Auftrennungen sichtbaren 43kD-Protein handelt es sich um die Phophoserinaminotransferase, ein bakterielles Stoffwechselenzym. Der Zusammenhang mit der Pilusexpression ist bis dato unklar. Die Identität dieses Proteins wurde mithilfe reverser Genetik verifiziert. Das zweite Protein erscheint aufgrund unterschiedlicher Gelsysteme nur in den eindimensionalen Auftrennungen und wurde daher im Rahmen dieser Arbeit nicht weiter untersucht. 6. Durch die in dieser Arbeit etablierte radioaktive Markierung von B. henselae-Proteinen mittels 35S-Pulse-Chase wurde die Untersuchung neu synthetisierter Proteine nach Kokultur mit humanen Zelllinien ermöglicht. 7. Untersuchung neu synthetisierter B. henselae-Proteine nach Kokultur des Erregers mit humanen Endothelzellen mittels 35S-Pulse-Chase. Durch Vergleich mit der Proteomkarte konnten folgende in der Kokultur neu synthetisierte Proteine identifiziert werden: die Hitzestressproteine GroES, GroEL und DnaK, die Stoffwechselenzyme Malatdehydrogenase und Pyruvatdehydrogenase, der Elongationsfaktor EF-Tu und das Phagenprotein Pap31. Die Expression von Pap31 bei B. henselae in Endothelzellkultur wurde hier erstmals gezeigt. Durch die vorliegende Arbeit wurde eine neue Methode für die weitergehende Erforschung von B. henselae etabliert, die in Zukunft die Untersuchung dieses genetisch schwer zugänglichen Organismus erleichtern wird. Eine Reihe von Proteinen wurde hier für B. henselae erstmals beschrieben bzw. wurde deren Expression unter bestimmten Lebensbedingungen zum ersten Mal beobachtet. Die Breite des methodischen Ansatzes dieser Arbeit legt den Grundstein für vielfältige weitere Untersuchungen. So konnte zwischenzeitlich die membranassoziierte Lage von Pap31 mithilfe eines in dieser Arbeit charakterisierten monoklonalen Antikörper aufgedeckt und Fibronektin als Bindungspartner von B. henselae–Pili identifiziert werden.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
In traditionellen Klassifikationssystemen der Angiospermen (Bedecktsamer) werden die Ordnungen der Caryophyllales, Polygonales und Plumbaginales und Polygonales in die Unterklasse Caryophyllidae eingeordnet. Obwohl der Verwandtschaftskreis mehrmals Gegenstand verschiedener Studien war, ist die Abgrenzung der Caryophyllidae und der neuerdings zu ihnen gez?xE4;hlten carnivoren Taxa nach wie vor unsicher. In dieser Arbeit wurde durch vergleichende Sequenzanalysen verschiedener Genorte eine Phylogenie der carnivoren Nepenthaceae und der Ancistrocladaceae und Dioncophyllaceae aufgestellt. F?xFC;r die Ancistrocladaceae wurde ein taxonomisches Konzept f?xFC;r den in SO-Asien weitverbreiteten A. tectorius-Komplex erstellt. Als phylogenetische Marker wurden das trnK-Intron der Chloroplasten-DNA und die Internal-Transcribed-Spacer (ITS-Region) der nukle?xE4;ren rDNA eingesetzt. Bei den Nepenthaceae kam es zur Koamplifikation von rDNA-Pseudogenen. Die kladistische Analyse dieser Pseudogene legt die Annahme nahe, dass sich die rezenten Nepenthaceae aus einemVorfahren entwickelten, der bereits verschiedene ITS-Sequenzen aufwies. Auch f?xFC;r das trnK-Intron der Nepenthaceae wurden zwei paraloge Sequenzen identifiziert. Durch den Einsatz einzelner Chloroplasten als Template in der PCR und inverser PCR wurde die Lokalisation eines Paralogons im Chloroplasten nachgewiesen und Hinweise auf die Lokalisation des zweiten Paralogons im Miotchondrium gewonnen. Die mitochondriale Kopie des trnK, die aufgrund der h?xE4;ufigen Unterbrechung des Leserasters im f?xFC;r die Maturase K kodierenden Bereich des trnK-Introns (matK) ein Pseudogen darstellt, wurde als zus?xE4;tzlicher phylogenetischer Marker f?xFC;r die Nepenthaceae vergleichend sequenziert, eignete sich aber nur eingeschr?xE4;nkt zur phylogenetischen Rekonstruktion. Es konnte gezeigt werden, dass die hohe Variabilit?xE4;t des Genorts wahrscheinlich durch Heteroplasmie und lineage sorting entstand und nicht auf homologe Substitutionen zur?xFC;ckgef?xFC;hrt werden kann. Dies steht jedoch im Widerspruch zu verf?xFC;gbaren Daten in der Literatur. Durch kladistische Analyse des im trnK-Intron lokalisierten matK an ausgew?xE4;hlten Taxa konnte gezeigt werden, dass innerhalb der Caryophyllidae die Droseraceae, Drosophyllaceae, Nepenthaceae, Ancistrocladaceae und Dioncophyllaceae eine Monophylie bilden. Die Carnivorie ist demnach innerhalb der Caryophyllidae monophyletisch entstanden und bei den Ancistrocladaceae sowie einigen Gattungen der Dioncophyllaceae (Habropetalum und Dioncophyllum) sekund?xE4;r verloren gegangen. Die trnK-Intron-Phylogenie der Nepenthaceae zeigt in hohem Ma?xDF;e eine Korrelation mit der Biogeographie. Aufgrund dieser Beziehung l?xE4;?xDF;t sich ein Szenario der Besiedelung des malaiischen Archipels durch die Nepenthaceae ableiten. Die Hypothese, die Nepenthaceae h?xE4;tten aufgrund des Vorkommens von zwei relikt?xE4;ren Taxa auf Madagaskar einen Ursprung in Gondwana, kann durch die trnK-Intron-Phylogenie nicht gest?xFC;tzt werden. Die Sequenz- und Fingerprintanalysen zeigten, dass die Variabilit?xE4;t der Ancistrocladaceae S?xFC;dostasiens mit der afrikanischer Arten vergleichbar ist. Die Inkongruenz von trnK-Intron und ITS-Phylogenie, sowie eine scheinbar erh?xF6;hte Mutationsrate des trnK-Introns legen den Schlu?xDF; nahe, dass bei der Artbildung der Ancistrocladaceae vor allen in S?xFC;dostasien Hybridisierungen und Introgressionen eine gro?xDF;e Rolle gespielt haben. Durch Vergleich der Sequenzdaten mit ISSR- Fingerprints (Inter-Simple-Sequence-Repeat-PCR) konnten die im Rahmen mehrerer Sammelreisen aus S?xFC;dostasien beschafften Proben zahlreicher Populationen in zehn unterscheidbare Taxa eingeteilt werden. Von diesen wurden drei aufgrund von ITS-Sequenzen, die aus Isotypusmaterial gewonnenen wurden, den g?xFC;ltig beschriebenen Arten A. pinangianus, A. attenuatus und A. cochinchinensis zugeordnet. Inwieweit die verbliebenen Taxa neu beschrieben werden k?xF6;nnen, m?xFC;ssen morphologische Untersuchungen zeigen.