Podcasts about detektion

  • 62PODCASTS
  • 126EPISODES
  • 47mAVG DURATION
  • 1MONTHLY NEW EPISODE
  • Mar 12, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about detektion

Latest podcast episodes about detektion

Auf Distanz
Auf Distanz 0113: DLR - Johannes Kepler Observatorium

Auf Distanz

Play Episode Listen Later Mar 12, 2025 58:33


Das Deutsche Zentrum für Luft- und Raumfahrt betreibt in Empfingen südlich von Stuttgart ein beeindruckendes Observatorium. Es wird zur Detektion und Analyse von Weltraumrückständen verwendet. Dabei kommen sowohl passive als auch aktive Verfahren zum Einsatz. Ich sprach am Observatorium mit Wolfgang Riede vom DLR-Institut für Technische Physik über das Observatorium, seine Geschichte, seine Nutzung und Pläne für die Zukunft. Diese Episode ist Teil der Episodenreihe zum Projekt ION.

HAINS Talk
Journal Club Folge 35 (KW 07): Nutzerverhalten bei der Funktionsprüfung des Beatmungsgerätes - Analyse zu Einsatz des KURZcheck und Detektion fehlkonnektierter Beatmungsschläuche

HAINS Talk

Play Episode Listen Later Feb 11, 2025 18:53


Send us a textDie Patientensicherheit bei Allgemeinanästhesien hat sich in den letzten Jahren verbessert, dennoch kommt es immer wieder zu anästhesiologischen Zwischenfällen, insbesondere im Bereich der Atemwegssicherung. Vor dem Einsatz eines Beatmungsgerätes ist ein obligatorischer Systemtest erforderlich, zusätzlich sollte der von der DGAI empfohlene KURZcheck vor Anschluss eines Patienten durchgeführt werden. Dennoch sind Fehlanschlüsse der Beatmungsschläuche, die nicht zwingend vom Gerät im Rahmen des Selbsttests erkannt werden, möglich. Wir besprechen die aktuelle Arbeit von Uzun et al., die  das Nutzerverhaltens an modernen Anästhesiearbeitsplätzen im Hinblick auf den Einsatz des KURZcheck analysiert hat:Uzun DD, Schäfer J, Klemm S, Lichtenstern C, Weigand MA, Neuhaus C. Nutzerverhalten bei der Funktionsprüfung des Beatmungsgerätes: Analyse zu Einsatz des KURZcheck und Detektion fehlkonnektierter Beatmungsschläuche. Anaesthesiologie. Published online January 30, 2025. doi:10.1007/s00101-024-01496-0Mit im Studio dabei: Davut D. Uzun, wissenschaftlicher Mitarbeiter der Klinik für Anästhesiologie am UKHD.

Ideencouch – Der Podcast, der selbstständig macht mit Jan Evers
#111 – Startup-Detektion 2.0: Wie ein Ex-Banker die Gründerszene durchleuchtet [Arnas Bräutigam, AddedVal.io]

Ideencouch – Der Podcast, der selbstständig macht mit Jan Evers

Play Episode Listen Later Sep 11, 2024 51:43


Arnas und Jan nehmen uns in dieser Folge mit auf eine spannende Reise durch das Ökosystem der Gründerszene und die Gründungsförderung. Arnas, Mitgründer von Startupdetector, erzählt, wie aus seiner Arbeit bei der Berliner Sparkasse die Idee für ein Tool entstand, das frisch gegründete Startups aufspürt. Was als Nebenprojekt begann, entwickelte sich zu einem erfolgreichen Geschäftsmodell mit verschiedenen Monetarisierungsansätzen. Von der anfänglichen Excel-Liste mit Neugründungen für 99 Euro pro Monat bis hin zur Plattform AddedVal.io, die Gründer und Business Angels zusammenbringt - Arnas gibt spannende Einblicke in die Evolution ihres Angebots. Besonders interessant: wie sie durch kontinuierliche Anpassung ihres Preismodells und kreative Ideen - wie ein virtuelles Aktienprogramm - ihr Wachstum vorantreiben. Jan und Arnas diskutieren auch über zukünftige Möglichkeiten, wie die Verbindung von Startups mit dem Mittelstand. Diese Folge ist ein Muss für alle, die sich für Startup-Ökosysteme, Bootstrapping und innovative Geschäftsmodelle interessieren. Höre rein und lass dich inspirieren von dieser Geschichte eines Unternehmens, das nicht nur sich selbst, sondern auch das deutsche Startup-Ökosystem voranbringt! Über die Personen: [Gast] Arnas Bräutigam ist der Mitgründer und Co-Founder von AddedVal.io, einer Plattform, die Startups mit Business Angels verbindet. Zuvor war er Mitbegründer von Startupdetector, einem Analysedienst für Start-up- und Investorendaten, den er im März 2019 ins Leben rief. Vor seiner Gründertätigkeit arbeitete Bräutigam 10 Jahren im Bankwesen, darunter 3 Jahre im Bereich Startup-Banking. [Gastgeber] Dr. Jan Evers ist erfahrener Gründungsberater und selbst Unternehmer. Jan berät seit fast 20 Jahren Banken und Ministerien sowie wachstumsstarke Gründer*innen und Mittelständler – als Aufsichtsrat, Business Angel und Miteigentümer. Mehr Infos zu Jan: https://everest-x.de/profil/ [Redaktion] Gesa Holz, Sarah Bechtloff [Technische Bearbeitung] Erik Uhlendorf Weitere Themen: ⁠LaborX Hamburg⁠ – ⁠Ideencouch #66 Geschäftsmodellarbeit⁠ – ESOP/VSOP – Business Angel - Kooperation Gründerplattform und Startupdetector: Pitch Deck Expertencheck Über die Ideencouch: Die Ideencouch ist ein Podcast von EVEREST. Wenn du Gründer*in bist, dich Startups faszinieren oder du als Unternehmer*in an deinem eigenen Unternehmen arbeitest, ist dieser Podcast genau der richtige für dich. Aus den Gesprächen zwischen Jan und seinen Gästen wirst du praktisches Wissen, anwendbare Erkenntnisse und kreative Anregungen für deinen Unternehmer*innen-Alltag mitnehmen. -- Du möchtest uns Feedback geben oder selbst Gast im Podcast sein? Schreib uns eine E-Mail an ⁠info@laborx-hamburg.de⁠ Wir freuen uns auf deine Nachricht!  -- Partner -- ⁠LaborX ⁠-- ⁠Gründerplattform ⁠-- ⁠Firmenhilfe  ⁠

König Bube Dame Gast
RSS 007 – Tornados

König Bube Dame Gast

Play Episode Listen Later Mar 21, 2024 18:02


Armin und Hendrik sind heute im Auftrag ihrer Majestät unterwegs und sprechen heute über Tornados, Kondensstreifen und Superzellen. Huiiii! Kondensstreifen und Klima: https://www.dlr.de/next/desktopdefault.aspx/tabid-6632/10891_read-24729/ Superzellen: https://www.br.de/nachrichten/wissen/gewitter-unwetter-superzelle-das-muessen-sie-wissen,TAKGmiJ https://www.tagesschau.de/wetter/wetterthema/superzellen-text-100.html https://www.wetterzentrum-nrw.de/wetterwissen/gewitterkunde/214-was-ist-eine-superzelle Rotation von Superzellen: https://de.wikipedia.org/wiki/Gewitter#Superzellengewitter Tornados: https://de.wikipedia.org/wiki/Tornado Wallcloud: https://de.wikipedia.org/wiki/Wallcloud Fujita-Skala: https://de.wikipedia.org/wiki/Fujita-Skala Tornado-Warnungen bzw Detektion mit Dopplerradar https://wetterkanal.kachelmannwetter.com/tornadowarnungen-mit-dopplerradar-moeglich/

Jung & Naiv
#686 - BSI-Präsidentin Claudia Plattner (Bundesamt für Sicherheit in der Informationstechnik)

Jung & Naiv

Play Episode Listen Later Jan 16, 2024 125:19


Zu Gast im Studio: Claudia Plattner, Mathematikerin und seit dem 1. Juli 2023 Präsidentin des Bundesamts für Sicherheit in der Informationstechnik. Das BSI ist eine deutsche Bundesoberbehörde, die für Fragen der IT-Sicherheit zuständig ist. Der Leitsatz des BSI lautet: „Das BSI als die Cyber-Sicherheitsbehörde des Bundes gestaltet Informationssicherheit in der Digitalisierung durch Prävention, Detektion und Reaktion für Staat, Wirtschaft und Gesellschaft.“ Ein Gespräch über Cybersicherheit, die Aufgaben des BSI, Ransomware, die Alltagsrolle der Behörde bei Bürgerthemen wie Smartphones, Saugroboter, E-Autos, Onlinebanking, verschlüsselte Emails, die Auswirkungen und massiven Kosten von Cyberkriminalität, politische Untätigkeit und fehlendes Problembewusstsein, Claudias Kindheit, Studium und Werdegang, Arbeiten bei der Deutschen Bahn, die mangelnde Unabhängkeit des BSI, Interessenkonflikte durch die Unterordnung beim Bundesinnenministerium, der Einkauf von Sicherheitslücken und Zero Days, Austrocknen von Schwarzmärkten, die Mitwirkung des BSI am Staatstrojaner, Huawei in der deutschen Infrastruktur sowie die Haftung von Software-Herstellern für mangelnde Qualität ihrer Produkten + eure Fragen via Hans Bitte unterstützt unsere Arbeit finanziell: Konto: Jung & Naiv IBAN: DE854 3060 967 104 779 2900 GLS Gemeinschaftsbank PayPal ► http://www.paypal.me/JungNaiv

ALLwissen - Große Fragen, kurze Antworten
ALLwissen #78: Was sind Gravitationswellen?

ALLwissen - Große Fragen, kurze Antworten

Play Episode Listen Later Aug 18, 2023 22:41


Nachdem wir uns die letzten Folgen den schwarzen Löchern gewidmet haben, schauen wir uns diese Folge ein weiteres Phänomen an, das aus der Relativitätstheorie hervorgeht: Gravitationswellen. Auch sie waren lange Zeit nur eine Vermutung, die wie auf Grund von Berechnungen vermutet haben. Doch seit neustem haben wir sie tatsächlich auch messen können. Damit wurde nicht nur mal wieder die Relativitätstheorie bestätigt, sondern auch ein neues Zeitalter der Astrophysik eingeleitet. Doch was sind Gravitationswellen genau? Wie entstehen sie und was bedeutet die erste Detektion für die Erforschung der Universums? All das erfahrt ihr in der heutigen Folge ALLwissen.

Hessen schafft Wissen
#118: Ein neues Werkzeug für die Krebsdiagnostik – Prof. Dr. Markus Gräfe über Quantenphysik

Hessen schafft Wissen

Play Episode Listen Later Jul 18, 2023 36:41


Krebs ist eine Volkskrankheit – laut dem Bundesministerium für Gesundheit erkranken jährlich in Deutschland insgesamt etwa 500.000 Menschen neu an Krebs. Um Erkrankungen früher zu erkennen und besser behandeln zu können, ist eine schnelle und zuverlässige Diagnostik entscheidend. Standard bei der Diagnostik ist aktuell die Infrarot-Mikroskopie, die dazu beiträgt, gesunde Zellen von Krebszellen zu unterscheiden, jedoch an ihre Grenzen bei der Detektion stößt. Diese Probleme könnten durch Quantenoptik womöglich umgangen werden.Prof. Dr. Markus Gräfe vom Institut für Angewandte Physik (IAP) der TU Darmstadt forscht im Projekt „Quancer“ mit Quantenoptik nach neuen Werkzeugen für die Krebsdiagnostik. Warum hat Quantenoptik das Potenzial, die Diagnostik zu verbessern? Wie sieht die Arbeit an diesem neuen Werkzeug zur Diagnostik aus? Wie unterscheidet es sich von anderen Verfahren? Was kann damit erreicht werden? Antworten auf diese und weitere Fragen gibt Prof. Dr. Gräfe in dieser Episode von „Hessen schafft Wissen“.

DigitalValley®️ - Seed Talk
Ein Labor für die Hosentasche! Die nächste Pandemie kommt bestimmt und detechgene wird Teil der Lösung dann sein

DigitalValley®️ - Seed Talk

Play Episode Listen Later Jun 8, 2023 60:11


Ein Labor für die Hosentasche! Die nächste Pandemie kommt bestimmt und detechgene wird Teil der Lösung dann sein. Dr. Reza Esmaillie und Dr. Robin Bayer bauen www.detechgene.de auf mit dem Ziel einfache und präzise Detektion von Krankheitserregern zu ermöglichen. Detechgene-Tests sind so präzise, wie eine im Labor durchgeführte PCR. Durch den DetechStamp und dem DetechChip können Tests überall auf der Welt eingesetzt werden. Detechgene ist die allererste Ausgründung aus der Universität zu Köln und hat das Potential in einem 100Mrd-Markt (TAM) durchzustarten. Hört rein und sprecht uns an unter contact@dgtlvalley.com wenn Ihr Kontakt haben wollt zu Detechgene. #29 Detechgene x DigitalValley: SeedTalk

Außerirdisches und Übersinnliches
Walter Andritzky - Pilotensichtungen und UFO Detektion im cislunaren Raum

Außerirdisches und Übersinnliches

Play Episode Listen Later Apr 14, 2023 67:24


Quellen: 1. Argentienische UFO Gruppe (Guardianes del Cielo Guayano): https://www.youtube.com/@ECOSSAT 2. ISS bzw Space Shuttle bzgl. abgebrochenen Lifestreams: Jeff Challender. "Secret Space. What is NASA hiding?" https://www.youtube.com/watch?v=PqN-KLOCS5k --- Send in a voice message: https://podcasters.spotify.com/pod/show/neugierigkontakt/message

Röntgenpodden
Avsnitt 21 - AI-detektion av incidentella lungembolier

Röntgenpodden

Play Episode Listen Later Nov 11, 2022 52:29


Peder Wiklund gästar Röntgenpodden, och berättar om hur man implementerat en AI-lösning för att förbättra detektionen av incidentella lungembolier hos cancerpatienter. Hur ser man till att optimera AI:s plats i arbetsflödet, och hur vet man att man verkligen gjort nytta för patienten? I en mycket intressant intervju berättar Peder hur man gått till väga i Halmstad. Länk till Peders studie: https://rdcu.be/cUm5x Länk till artikeln om Röngenpodden på AuntMinnieEurope: https://www.auntminnieeurope.com/index.aspx?sec=sup&sub=cto&pag=dis&ItemID=623263 Anmälan till Akutradiologikursen: akutradiologikurs.wordpress.com

IT-Security is a Unicorn | für digitale Führungskräfte

In der heutigen Folge soll es um das wichtige Thema "Erste Hilfe beim Cybersecurity Vorfall" gehen.Auch wenn ich persönlich ein Fan von Prävention bin und gerne alles dafür tue, dass es gar nicht erst zum Vorfall kommt oder dieser bereits im Keim erstickt wird, wenn er auftritt, so ist auch der Detektion und Reaktion Aufmerksamkeit zu schenken. Doch das Thema Detektion und Reaktion ist vorallem für kleinere Unternehmen mit keiner eigenen IT-Abteilung oder IT-Ansprechpartner nicht immer einfach. Und man möchte doch auch nicht für jede "kleinigkeit" beim IT-Dienstleister anrufen. Also bevor wir wissen was wir im Ernstfall tun müssen, sollten wir erst einmal besprechen wann wir überhaupt etwas tun müssen. inkl. einiger Tipps für den Ernstfall

Wissenswerte | Inforadio
"InsectDetect" - Holzschädlinge finden mit Sensoren

Wissenswerte | Inforadio

Play Episode Listen Later May 12, 2022 3:22


Bei der 31. Deutschen Holzschutztagung in Dresden diskutieren Experten aus den Forstwissenschaften über moderne Holzschutzmethoden aus. Darunter auch die "Detektion aktiver Schadinsekten mit visuellen und akustischen Verfahren", kurz "InsectDetect". Von Hans Ackermann

KPMG Klardenker on air
Warum Hacker:innen immer aggressiver vorgehen und wie Unternehmen sich schützen

KPMG Klardenker on air

Play Episode Listen Later Nov 19, 2021 35:53


Für viele Unternehmen längst die größte Bedrohung: Attacken aus dem Netz. Denn Hacker:innen gehen immer cleverer vor, richten großen Schaden an und erpressen hohe Lösegelder. Schützen können Unternehmen sich mit Hilfe eines ganzheitlichen Ansatzes aus Prävention, Detektion und Reaktion. Und dennoch bleibt der Mensch dabei das größte Risiko. Die Chefredakteurin bei KPMG, Kerstin Heuer, diskutiert mit IT-Forensiker und Partner bei KPMG, Michael Sauermann, sowie Auftragshacker Philipp Kalweit, warum es sich lohnt, den Notfallplan ausgedruckt im guten alten Aktenordner aufzubewahren. Sie klären außerdem, was Frauen in der IT-Forensik besser machen und warum Hacker:innen ein besseres Image brauchen.

Raumzeit
RZ096 Erdähnliche Exoplaneten

Raumzeit

Play Episode Listen Later Nov 7, 2021 99:13 Transcription Available


Exoplaneten sind eine der jüngsten wissenschaftlichen Disziplinen, doch beschleunigt sich die Zahl der Erkenntnisse durch zahlreiche erfolgreiche Deep Space Missionen und weiterer Forschung in diesem Bereich immer mehr. Nach der ersten Runde der reinen Detektion dieser fernen und schwer zu findenden Körper, geht jetzt auch die Suche nach Planeten los, die Gemeinsamkeiten mit der Erde aufweisen.

Cyber Talks
Nätverksanomali-detektion och hur en idé föds

Cyber Talks

Play Episode Listen Later Oct 27, 2021 38:57


Nätverksanomali-detektion och hur en idé födsI dagens avsnitt träffar Rolf Hitesh Sheth, grundare och VD för Vectra AI.I samtalet pratar de bland annat om hur det är att bygga bolag i Silicon Valley, hur en idé föds men också om intressanta teknologi-trender. See acast.com/privacy for privacy and opt-out information.

REACH Start-up Podcast
050 - #From Science to Startup – pixel photonics – Nicolai Walter

REACH Start-up Podcast

Play Episode Listen Later Oct 11, 2021 35:33


In dieser Folge heißt es mal wieder: From Science to Start-up! Erfahrt im Podcast mit Dr. Anne Vortkamp, wie Wissenschaftler Probleme auf kreative Art und Weise lösen und wie aus Forschungsideen erfolgreiche Gründungen entstehen! Dieses Mal zu Gast: Nicolai Walter vom Start-up pixel photonics. Nicolai und sein Team entwickeln ein anwenderfreundliches Turnkey-System zur Detektion einzelner Lichtteilchen (sog. Photonen). Welche Anwendungsfelder sich hierfür in der Wissenschaft ergeben und was das Ganze mit sicherer Verschlüsselung und Quantencomputern zu tun hat, erfahrt ihr im Podcast! Außerdem erklärt uns Nicolai noch mehr zum EXIST-Forschungstransfer, wozu man eigentlich einen BWLer im Team braucht und welche weiteren Fördermöglichkeiten es gibt. Also seid gespannt! Anmeldung REACH EUREGIO-CHAIR: www.reach-euregio.de/page/euregio-chair pixel photonics: https://pixelphotonics.com www.reach-euregio.de Kontakt REACH-Team: info@reach-euregio.de

Radio (In)Security
RIS51: Apple und die CSAM-Detektion

Radio (In)Security

Play Episode Listen Later Aug 30, 2021 85:06


RIS51: Apple und die CSAM-Detektion

apple detektion jens kubieziel
ZENsibility
Verankerungsmeditation - zur Stärkung der positiven Wahrnehmung

ZENsibility

Play Episode Play 41 sec Highlight Listen Later Jul 16, 2021 40:10


Unser Gehirn ist um unser Überleben zu sichern bewiesenermaßen auf die Detektion von Gefahren konditioniert, somit ist es für mich ganz logisch, das sich das Gehirn mehr mit „negativen“ Impulsen auseinandersetzt.Wenn man dieser natürlichen Tendenz des Gehirns nicht bewusst durch das „generieren“ und „abspeichern“ positiver Erfahrungen aktiv entgegen wirkt, entsteht oftmals ein regelrechter „negativer Tunnelblick“ der uns energetisch runter zieht.Deshalb zur Unterstützung für euch heute, wie im gestrigen Post versprochen, eine „Verankerungsmeditation“ zur Stärkung der positiven körperlichen und gedanklichen Wahrnehmung - besonders für uns hochsensible wichtig!Die Meditation wird im Rahmen des Zensibility Podcasts

Mit Schirm, Charme und Sensoren . . . dein IOT Podcast
Episode 37: Heißer Stuhl - Das IoT Osterfragen Special

Mit Schirm, Charme und Sensoren . . . dein IOT Podcast

Play Episode Listen Later Mar 31, 2021 26:08


In dieser außergewöhnlichen Podcast-Folge haben sich Elisabeth und Robert gegenseitig spannende Fragen im “IoT Ostereier Special” gestellt. Wie kann die Ostereiersuche mit Detektion aussehen? Nach welcher Lösung für ein Projekt haben Sie am längsten gesucht? Wie können wir Überraschungseier in Projekten einbauen und Kunden überraschen? Antworten auf diese und weitere Fragen bekommen Sie in dieser Special Episode. Stellen Sie die Löffel auf - und erfahren Sie, an welcher verrückten Challenge Sie teilnehmen können! 

Fraunhofer-Podcast: Forschung erleben – Zukunft hören
Aerosolausbreitung in Räumen: Hygienekonzepte zur Verringerung der Viruslast in der Luft

Fraunhofer-Podcast: Forschung erleben – Zukunft hören

Play Episode Listen Later Feb 5, 2021 15:38


Die Übertragung von Viren durch Aerosole ist seit der Covid-19-Pandemie zum Thema in unserem Alltag geworden. In der Forschung sind die extrem kleinen Teilchen, bei denen es sich um heterogene Gemische aus festen oder flüssigen Schwebeteilchen in einem Gas handelt, schon lange Gegenstand. Die Ausbreitung von Aerosolen in Räumen ist gerade für hoch frequentierte Großraumbereiche relevant, für die es gilt, Lösungen zur Verringerung der Viruslast in der Luft zu erarbeiten, um die Ansteckungswahrscheinlichkeit über Aerosole zu minimieren. Prof. Dr. Gunnar Grün erforscht am Fraunhofer Institut für Bauphysik IBP in verschiedenen Projekten Hygienekonzepte für diverse Raumsituationen. Dabei spielen Luftreinigungssysteme im Moment eine entscheidende Rolle. Er berichtet im Podcast über die verschiedenen Technologien und gibt einen Einblick in das Projekt zur Erforschung und Detektion der Aerosolverbreitung in Räumen zur Pandemie-Bekämpfung im Rahmen des Fraunhofer Anti-Corona-Programms, seiner Rolle im »Expertenkreis Aerosole« des Wissenschaftsministeriums Baden-Württemberg und erzählt, wie die Covid-19-Pandemie seine Arbeit beeinflusst hat.

pv magazine Deutschland
Fraunhofer ISE - sind Photovoltaikanlagen mit Lichtbogendetektion im Wechselrichter sicherer?

pv magazine Deutschland

Play Episode Listen Later Oct 20, 2020 33:05


Photovoltaikanlagen brennen sehr selten. Doch wenn, dann kann gut ein Lichtbogen die Ursache gewesen sein. Sie sind die Brandursache Nummer eins in Photovoltaikanlagen. Im Wechselrichter integrierte Detektoren können sie erkennen und löschen. Das Feature ist in den USA vorgeschrieben. Dort hat es lange für Frust unter Installateuren gesorgt hat, weil die Technik noch nicht ausgereift war. Nun wird es auch in Deutschland immer öfter angeboten. Wir diskutieren im Podcast mit Hermann Laukamp und Felix Eger vom Fraunhofer Institut für Solare Energiesysteme ISE die Ursachen für Lichtbögen, die Lichtbogendetektion und andere Strategien zur Vermeidung von Bränden. Mit Thomas Herold, Senior Product Solutions Manager beim Wechselrichterhersteller Huawei und Initiativpartner für diesen Podcast, besprechen wir die im Wechselrichter integrierte Detektion und klären die Frage, welche zusätzliche Sicherheit die Option verspricht.

Building Technology Experts
Brandschutz in der Batteriespeichertechnik

Building Technology Experts

Play Episode Listen Later Sep 17, 2020 30:22


Carsten Meißner lässt uns in dieser Folge Building Technology Experts an seiner Begeisterung für Brandschutz teilhaben. Er erläutert den Brandschutz von kommerziell genutzten Batterien und informiert detailliert über Detektion. Außerdem klärt er auf über Schwelbrände sowie das Löschen mit Stickstoff und was Klimaschutz damit zu tun hat. Carsten Meißner lässt uns in dieser Folge Building Technology Experts an seiner Begeisterung für Brandschutz teilhaben. Er erläutert den Brandschutz von kommerziell genutzten Batterien und informiert detailliert über Detektion. Außerdem klärt er auf über Schwelbrände sowie das Löschen mit Stickstoff und was Klimaschutz damit zu tun hat.

Digital Health TV - Die Expertenstimmen
Discovery System: Künstliche Intelligenz in der Endoskopie

Digital Health TV - Die Expertenstimmen

Play Episode Listen Later Jun 5, 2020 3:09


Prof. Dr. Andreas H. Grün im Gespräch mit Dr. Jens Fischer, General Manager bei Pentax Medical. Nutzung von Künstlicher Intelligenz im Bereich der Endoskopie fördert die Detektion von Entzündungsherden. Damit können Untersucher in Kliniken und Praxen noch besser Erkrankungen bei Patienten erkennen und behandeln. Die durch die KI geschaffenen Standardisierungen bei den Ärzten verbessern damit auch die Behandlung der Patienten. Entwickelt wurde das System bei Pentax in Augsburg (Deutschland) gemeinsam mit deutschen Medizinern.

Clixoom - Science & Future
Neue Ära der Gravitationswellenforschung: Brummende Art entdeckt

Clixoom - Science & Future

Play Episode Listen Later May 25, 2020 13:16


Fachleute haben jetzt Gravitationswellen eines zuvor noch nie beobachteten Ereignisses aufgespürt! Und die Gravitationswellen sind wirklich sehr besonders und unterscheiden sich deutlich von dem typischen Muster, die Fachleute bisher kennen. Die Sensibilität der beiden LIGO- Detektoren in den USA und dem italienischen Virgo-Detektor wurde deutlich erhöht hatten. Dadurch wurde die Detektion dieses ungewöhnlichen Signals wohl auch erst möglich! Das Signal entspricht ganz und gar nicht dem typischen Muster der bislang aufgespürten Gravitaionswellen. Die Fachleute haben das Ereignis GW190412 getauft.

Kurz informiert – die IT-News des Tages von heise online
Drohnen, Wahlsicherheit, DFB, Apple TV+ | Kurz informiert vom 20.08.2019

Kurz informiert – die IT-News des Tages von heise online

Play Episode Listen Later Aug 20, 2019


Hier werden Sie „kurz informiert“ mit Jessica Lumme. TRENNER Bundesregierung will Flughäfen besser vor Drohnen schützen Nach wiederholten Störungen des Flugverkehrs durch Drohnen an Airports, sieht die Bundesregierung Handlungsbedarf. Das Bundesministerium für Verkehr und digitale Infrastruktur hat die Deutsche Flugsicherung beauftragt, bis Ende September einen "Aktionsplan zur systematischen Detektion von Drohnen in unmittelbarer Nähe von Flughäfen“ zu entwickeln. Für die Detektion kämen neue Formen der Radarüberwachung Störsender, oder Alarm-Sensoren infrage. US-Wahlsicherheit wird bewusst missachtet Mindestens acht US-amerikanische Bundesstaaten werden bei den nächsten Präsidentschaftswahlen 2020 trotz des offensichtlichen Risikos und jahrelanger Warnungen auf komplett papierlosen Maschinen abstimmen. Das geht aus einem neuen Bericht des Brennan Center for Justice der New York University hervor. Experten für Cyber- und nationale Sicherheit sind sich einig darüber, dass Stimmzettel aus Papier und Wahlprüfungen notwendig sind, um die Sicherheit der nächsten US-Wahlen zu gewährleisten. Wahlmaschinen dürften auf keinen Fall eine Internetverbindung haben, da sie sonst hackbar seien, warnt der Geschäftsführer der Election Systems & Software, Tom Burt. DFB kündigt FIFA-E-Sport-Wettbewerb an Im Vorfeld der Gamescom hat der DFB-Interimspräsident eine deutsche FIFA-Meisterschaft angekündigt – diese soll parallel zum DFB-Pokal ausgetragen werden. Wie der Interimspräsident Rainer Koch auf der Branchenkonferenz Spobis in Köln ankündigte, sollen die Details noch in diesem Jahr ausgearbeitet werden, um den neuen Wettbewerb so schnell wie möglich realisieren zu können. 2018 hatte der damalige DFB-Chef Reinhard Grindel den E-Sport noch als "absolute Verarmung" bezeichnet. Doch immer mehr Bundesliga-Vereine nutzten den E-Sport, um neue Zielgruppen und Sponsoren anzusprechen. Apple gibt 6 Milliarden Dollar für Streaming-Content aus Apple wird seinen neuen Videostreamingservice Apple TV+ wohl im kommenden November starten. Das meldet die Finanznachrichtenagentur Bloomberg unter Berufung auf informierte Kreise. Den Angaben zufolge soll der Dienst 10 US-Dollar im Monat kosten und eine kostenlose Probephase haben. Für den Content nimmt Apple viel Geld in die Hand. Wie die Financial Times erfahren haben will, wurde das Budget von anfangs einer Milliarde Dollar auf mittlerweile mehr als 6 Milliarden ausgedehnt. Diese und weitere aktuelle Nachrichten finden Sie ausführlich auf heise.de

Modellansatz
Flugunfälle

Modellansatz

Play Episode Listen Later Jul 26, 2018 82:29


Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Bernd Sieker und sprach mit ihm um Unfälle mit Autopiloten mit Flugzeugen und Automobilen. Der Flugreiseverkehr ist inzwischen sehr sicher, es verbleibt aber ein Restrisiko, das man an den sehr seltenen Flugunfällen erkennen kann. Bernd untersucht nun die wenigen Abstürze großer Airliner, die es noch gab, und fragt sich, wie es zu diesen Katastrophen kommen konnte. Beispiele für Unfallursachen können beispielsweise Ausfälle scheinbar weniger relevanter Systeme sein, wo von der Crew Entscheidungen getroffen werden, die sie für sinnvoll halten, sich aber später als problematisch herausstellen. Technische Schäden, die unmittelbar zum Absturz führen, sind inzwischen sehr selten. Und selbst scheinbare kritische Ausfälle wie Triebwerksausfälle werden geübt und es gibt Prozeduren, wie man in diesen Fällen das Flugzeug möglichst sicher landen können sollte. Im Segelflug gehört eine Außenlandung auf freiem Feld zum Normalbetrieb, wobei man natürlich für am Boden etwaig entstandenen Schaden aufkommen muss, falls der Landwirt darauf besteht. Eine entsprechende nicht genehmigte Sicherheits- oder Notlandung führt bei Motorflugzeugen zur Auskunfts- oder Meldepflicht mit entsprechenden Auflagen zum Abtransport oder Erlaubnis zum Wiederstart. Bei der Untersuchung von Unglücksfällen geht der erste Blick auf offizielle Berichte oder Untersuchungen. So auch beim Air-France Flug 447 von 2009, wo ein Airbus A330-203 mitten über dem Atlantik plötzlich verschwand. Erste Indizien auf das Unglück wurden durch ACARS-System über Satellit empfangen, unter anderem über den Ausfall von Staurohren, mit denen die Geschwindigkeit des Flugzeugs gemessen wird. Das ist ein dramatischer Ausfall an Information, mit dem die Piloten aber umgehen können müssten und der eigentlich nicht zu einem Absturz führen sollte, denn die Geschwindigkeit ist noch mittels anderer Sensoren erkennbar. Erste gefundene Wrackteile deuteten darauf hin, dass das Flugzeug fast senkrecht in horizontaler Lage auf das Wasser aufgeschlagen sein musste. Dies führte auf die Vermutung, dass das Flugzeug überzogen wurde, bis es zum Strömungsabriss kam, und es daraufhin einfach herunterfiel. Nach Bergung des Flugschreibers bestätigte sich der vermutete Ablauf. Er wurde durch einen überraschend kurzen Zeitraum von wenigen Minuten zwischen Fehlermeldung und Absturz aus Reiseflughöhe belegt. Die Piloten müssen in der widersprüchlichen Situation gewesen sein, dass ihnen der Sink"flug" angezeigt wurde, während die Nase des Flugzeugs nach oben zeigte, was laut Training normalerweise in diesem Flugzustand nicht möglich ist. Bei dem eingesetzten Fly-by-wire System wäre eigentlich auch kein Strömungsabriss möglich gewesen. Nach Ausfall der Staurohre führte nun die Verkettung zwischen unvorhersehbarem Flugzeugzustand und der dramatischen Fehlinterpretation durch die Piloten zum Absturz. In der Ursachenanalyse ist sowohl zu beachten, dass die Warnmeldungen zum Strömungsabriss von den Piloten womöglich wegen einer Vielzahl von Warnmeldungen nicht mehr erfasst werden konnte. Ebenso wurden widersprüchliche Angaben zur Fluggeschwindigkeit und Anstellwinkeln von den Systemen des Flugzeugs irgendwann als ungültig abgewiesen und entsprechende Warnungen abgeschaltet oder nur noch widersprüchlich wiedergegeben. Dies führt zur Betrachtung solcher Systeme unter dem Aspekt, dass sie sozio-technisch sind, mit der Einsicht, dass gerade bei der Übertragung von Aufgaben des Menschen an Technik und zurück ein besonderes und schwer vorhersehbares Fehlerpotenzial besteht. Insbesondere Autopiloten haben eine besondere Bedeutung, da sie direkt in die Aufgaben der steuernden Menschen eingreifen. Klassisch steuern Autopiloten nur in sehr engen Parametern wie einzuhaltende Richtung, Höhe, Querneigung der Sink-/Steiggeschwindigkeit. Im Auto sind schon Geschwindigkeits- und Abstandsautomatik üblich. Jedoch sind auch Landungen mit Autopilot möglich, die aber ein besonderes Training und Überprüfung von Mensch und Maschine und Verbesserung der Algorithmen und redundante Sensoren erfordern. Dies zeigt schon, wie kritisch Autopiloten im Automobil zu sehen sind, da hier bisher kein besonderes Training für die Verwendung von Autopiloten erfolgt. Eine Überraschung ist dabei, dass eine besondere Gefahr daraus entsteht, wenn Autopiloten so zuverlässig werden dass sich Menschen zu sehr auf sie verlassen. Überraschende Situationen kann aber der Mensch meist besser bewältigen. Bei der Untersuchung von Flugunfällen stellt sich besonders die Frage, welche Ereignisse die eigentliche Ursache also für das Unglück verantwortlich sind. Wie ist hier Kausalität zu definieren? An der Uni Bielefeld wurde in der Arbeitsgruppe von Prof. Ladkin dazu die Why-Because-Analysis (WBA) entwickelt, wo die Counterfactual Test Theory von David Lewis zum Einsatz kommt. Aus der Überprüfung, ob ein Ereignis notwendig und die Menge der gefunden Ereignisse hinreichend für die Entstehung eines Ereignisses war, entsteht ein kausaler "Why-Because"-Graph (WBG), der genau nur die Ereignisse zusammenfasst, die notwendig zum Unglück führten. Ein interessantes philosophisches Konstrukt ist hier die Nearest-Possible-World-Theory, die ein Szenario konstruiert, das dem Unglück möglichst stark ähnelt, für das aber es nicht zum Unglück gekommen wäre. Was war hier anders? Was können wir daraus lernen? Durch Vergleich mit vorherigen dokumentierten Ereignissen können Teile des WBG auch quantitativ bewertet werden, obgleich die Datenbasis oft sehr gering ist. Dennoch können Schlüsse gezogen werden, welche Ereignisse bisher ignoriert wurden und ob dies gerechtfertigt ist. Das National Transportation Safety Board (NTSB) befasst sich in den USA wie die Bundesstelle für Flugunfalluntersuchung (BFU) in Deutschland typischerweise mit der Aufarbeitung von Unglücksfällen, und wie diesen in Zukunft entgegengewirkt werden kann. Darüber hinaus haben ebenso Versicherungen von Fluggesellschaften ein großes Interesse an einer Aufarbeitung, da die Fluggesellschaften in vielen Bereichen für Unglücke haftbar sind, soweit sie nicht nachweisen können, dass die Hersteller verantwortlich zu machen sind. Während des Asiana Airlines Flug 214 kam es in einer Boeing 777 im Anflug auf San Francisco 2013 im Landeanflug zu einer "Mode Confusion" beim Autopilot: Die erwartete Schubregulierung blieb aus, und es kam zu einem Absturz. Im Fall des Turkish Airlines Flug 1951 mit einer Boeing 737 nach Amsterdam gab es im Anflug einen Fehler im Radarhöhenmessgerät, wodurch der Autopilot in Erwartung der Landung aktiv den Schub zurückregelte. Die Korrektur der Piloten schlug fehl, da sie sich nicht über die genauen Abläufe im Klaren waren. Dies deutet schon deutlich darauf, dass Schwierigkeiten beim Einsatz von Autopiloten im automobilen Umfeld zu erwarten sind. Darüber hinaus sind die erforderlichen menschlichen Reaktionszeiten im Auto deutlich kürzer, so dass Missverständnisse oder das An- oder Abschalten von Autopilot-Funktionen deutlich leichter zu Unglücken führen können. Eine wichtige Einstufung sind hier die erreichten SAE Autonomiestufen, die beschreiben, wie weit das Fahrzeug Aufgaben des Fahrens übernehmen kann. Besonders problematisch ist Autonomiestufe 3: Hier darf der Fahrer sich während der Fahrt anderen Dingen als der Fahrzeugführung zuwenden, muss aber nach einer gewisse Vorwarnzeit wieder die Führung wieder übernnehmen können. Selbst bei wenigen Sekunden wird dies bei höheren Geschwindigkeiten sehr schwer zu erfüllen sein. Bei Stufe 4 muss das Fahrzeug auch ohne Fahrerintervention sicher bleiben, notfalls durch Anhalten, Stufe 5 ist vollständig autonom von Tür zu Tür. Ein weiterer Gesichtspunkt ist die vorhandene Sensoraustattung und deren Ausfallsicherheit oder die Interpretation der Sensormessungen. Im Fall des Unfalls eines Uber-Autos am 18. März 2018 in Arizona wurde eine Fußgängerin von den Sensoren zwar erfasst, jedoch wurden die Detektion durch die Software als Fehler zurückgewiesen und es kam zum Unfall. Die hier verwendete Software war und wird weit weniger getestet und formal geprüft als Software im Luftfahrtumfeld, da dies auch im Bezug auf neuronale Bilderkennungsverfahren schwer umzusetzen sein wird. Ein weiterer Aspekt ist, dass selbst wenn ein sozio-technisches System sicherer als Menschen fährt, die Akzeptanz nur sehr schwer zu erreichen sein und viele rechtliche und ethische Fragen zunächst zu klären wären. Vielen Dank an Markus Völter für die Unterstützung in dieser Folge. Literatur und weiterführende Informationen D. Lewis: Counterfactuals and comparative possibility, Springer, Dordrecht, 57-85, 1973. P. Ladkin: Causal reasoning about aircraft accidents, International Conference on Computer Safety, Reliability, and Security. Springer, Berlin, Heidelberg, 2000. B. Sieker: Visualisation Concepts and Improved Software Tools for Causal System Analysis, Diplomarbeit an der Technischen Fakultät der Universität Bielefeld, 2004. B. Sieker: Systemanforderungsanalyse von Bahnbetriebsverfahren mit Hilfe der Ontological Hazard Analysis am Beispiel des Zugleitbetriebs nach FV-NE, Dissertation an der Technischen Fakultät der Universität Bielefeld, 2010. Causalis Limited Research Group Networks, System Safety, Embedded and Distributed Systems B. Sieker: Hold Steering Wheel! Autopilots and Autonomous Driving. Presentation at the Gulaschprogrammiernacht 18, ZKM/HfG, Karlsruhe, 2018. B. Sieker: What's It Doing Now? The Role of Automation Dependency in Aviation Accidents. Presentation at the Chaos Communication Congress 33C3, 2016. Podcasts H. Butz, M. Völter: Komplexe Systeme, Folge 058 im omega tau Podcast, Markus Völter und Nora Ludewig, 2011. S. B. Johnson, M. Völter: System Health Management, Episode 100 in the omega tau Podcast, Markus Völter and Nora Ludewig, 2012. R. Reichel, M. Völter: Fly by Wire im A320, Folge 138 im omega tau Podcast, Markus Völter und Nora Ludewig, 2014. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 1, Folge 262 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 2, Folge 263 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. P. Nathen, G. Thäter: Lilium, Gespräch im Modellansatz Podcast, Folge 145, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. GPN18 Special B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

united states training san francisco arizona system er berlin situation security prof software auto amsterdam zukunft deutschland dar blick bei mensch hilfe presentation beispiel schl bedeutung wire universit boeing lage fehler selbst dort wasser situationen einsatz technik interesse aufgaben interpretation dingen umfeld menge bezug gefahr besonders richtung erste sink ereignisse schwierigkeiten str teile dennoch beispiele vielen dank bereichen entstehung feld autopilot nase fahrt literatur springer sekunden reliability ausf unfall missverst ursache ereignis akzeptanz aspekt systeme vielzahl schaden ungl heidelberg ablauf ebenso abl unf verbesserung embedded ereignissen flugzeug maschine krause jedoch bernd zeitraum geschwindigkeit hochschule verwendung hersteller betrachtung karlsruhe berichte versicherungen stufe aufarbeitung untersuchung bielefeld katastrophen erwartung mathematik abst angaben algorithmen dissertation absturz untersuchungen szenario systemen international conference fahrer piloten erlaubnis einsicht atlantik ausfall auflagen fahrzeug warnungen konstrukt abschalten schub landwirt klaren fakult landung david lewis sensoren vermutung automobil im fall flugzeugen autonomous driving im auto sicherheits arbeitsgruppe satellit reichel anflug dordrecht airliner lilium a320 unfalls ereignisses kausalit geschwindigkeiten butz einstufung klassisch fluggesellschaften parametern anhalten autopiloten diplomarbeit gesichtspunkt nathen flugzeugs fahrens karlsruher institut verkettung zkm datenbasis meldepflicht airbus a330 notlandung magin detektion technologie kit landungen geschwindigkeits abtransport landeanflug restrisiko fehlinterpretation uni bielefeld die korrektur wbg markus v prozeduren reaktionszeiten automobilen podcasts h die piloten warnmeldungen fehlermeldung bundesstelle flugunf ausfallsicherheit ajuvo durch vergleich gestaltung hfg modellansatz podcast chaos communication congress 33c3 nora ludewig
Modellansatz
Automated Binary Analysis

Modellansatz

Play Episode Listen Later Jun 22, 2017 53:06


Zur GPN17 des Entropia e.V. im ZKM - Zentrum für Kunst und Medien und der Hochschule für Gestaltung (HfG) hat Florian Magin (@0x464d) einen Vortrag zu Automated Binary Analysis gehalten und war bereit uns auch im Podcast zu erzählen, wie er mit mathematischen Verfahren Software auf Schwachstellen analysiert. Florian studiert Informatik an der TU Darmstadt und engagiert sich im CTF-Team Wizards of Dos seiner Universität. Sein Interesse an der Computersicherheit hat ihn auch zur Firma ERNW Research geführt, wo er als Werkstudent in der IT-Sicherheitsforschung tätig ist. Wie wichtig die Suche nach Schwachstellen und deren Absicherung ist, wurde kürzlich bei der weltweiten Verbreitung der WannaCry/WannaCrypt-Schadsoftware bewusst, die die Aufmerksamkeit von einer anderen und lukrativeren Schadsoftware Adylkuzz ablenkte. Unter der Binary Analysis versteht man die quellenlose Analyse eines Programms alleine auf den Daten im Maschinencode auf einem Speichermedium. Ein erster Schritt der Analysis ist die Wandlung der Maschinensprache in Mnemonic durch einen Disassembler. Dieser Programmcode kann sich deutlich von einer ursprünglichen Quelltext des Programms unterscheiden, da der Maschinencode erzeugende Compiler eine Vielzahl von Optimierungsmöglichkeiten umsetzt, die den Ablauf und das Abbild des Programms im Maschinencode deutlich verändern können. Eine Herausforderung stellt sich inzwischen in der Größe der Programme: Während es inzwischen zahlreiche Wettbewerbe gibt, Programme unter extremen Platzbeschränkungen umzusetzen, wächst die Größe klassischer Programme stark an. Ein Maschinensprache-Befehl kann in einem Byte kodiert sein, wie früher etwa hexadezimal C9 auf dem Z80 eine Unterroutine beendet, so können in 4 Bytes Operationen wie eine Addition samt Parameter definiert sein. Die automatisierte Binäranalyse hat besonders durch die Darpa Cyber Grand Challenge im Jahr 2016 großes Interesse geweckt, wo die Teams autonome Software entwickeln sollten, die für sich alleine den CTF-Wettbewerb bestreitet. Eine Anwendung solcher automatisierten Programme ist die schnelle Überprüfung von neuer Software auf bekannte oder typische Schwachstellen oder Implementierungsfehler. Eine sehr allgemeine Methode zur Detektion von Sicherheitslücken ist das Fuzzing: Das Open Source Tool AFL modifiziert beispielsweise korrekte Eingabewerte und prüft bei welcher Modifikation das Programm vom zuvor aufgezeichneten Programmablauf abweicht und damit einen Hinweis auf eine mögliche Schwachstelle gibt. Es kann dabei idealerweise auf dem Sourcecode operieren oder auch das Programm in einem Emulator wie QEMU ausführen und analysieren. Wie schwer aber selbst Source Code zu verstehen sein kann, zeigen die Wettbewerbe International Obfuscated C Code Contest (IOCCC), zu möglichst schwer verständlichen sinnvollen Code, und der Underhanded C Contest, wo ein scheinbar sinnvoller Code für Menschen möglichst unvorhersehbare Zusatzfunktionen aufweist. Ebenso können sehr beliebte Programmiersprachen wie Python sehr unvorhersehbar reagieren, wenn man versehentlich Tabulatoren und Space vermischt, oder gleich die Programmiersprache Whitespace benutzt. Ein weiteres Beispiel ist, dass das Breitenlose Leerzeichen in neuen C++-Standards erlaubt ist, und für den Menschen ununterscheidbaren Code ermöglicht, der unterschiedliche Dinge tut. Aber auch Computer können getäuscht werden, wenn zum Vergleich unsichere Hash-Funktionen genutzt werden, wie jüngst die Shattered-Attacke auf die SHA-1 Hash zeigte. Eine automatisierte Analysemöglichkeit ist die Control Flow Graph Recovery, die beispielsweise mit IDA , radare2, binary ninja durchgeführt werden kann, um aus einer eindimensionalen Speicherdarstellung zu einem Programmnetz, wo zusammengehörige Programmblöcke miteinander vernetzt werden. Hier kann auch schon sichtbar werden, ob beschränkte Bereiche ohne Authentifikation erreicht werden können. Ein weiteres automatisierbares Verfahren ist die Datenflussanalyse, wo die Verarbeitung und Auswirkungen von Variablen und Daten im Verlauf des Programms analysiert wird. Hier kann der Verlauf von beispielsweise vertraulichen Daten kontrolliert werden. Bei einer Symbolischen Auswertung wird das Programm abstrakt mit einem Interpreter auf beliebigen variablen Daten bzw. symbolischen Ausdrücken auf allen Pfaden gleichzeitig ausgeführt. Für die Pfaderkundung benötigt man hier eine Strategie zwischen der Breitensuche und Tiefensuche, um die relevanten Teile des Ausführungsgraphen möglichst schnell abzudecken. In der automatisierten Analyse werden dabei offene Sprungmöglichkeiten zu nahezu beliebigen Adressen sehr interessant, da dies einen starken Indikator für einen Angriffsvektor liefern. Mit Return-oriented Programming kann man so bestehenden Code gezielt anspringen und für eigene Zwecke missbrauchen. Das Open-Source Framework Angr wurde von Forschern des Computer Security Lab at UC Santa Barbara entwickelt und belegte mit Shellphish auf der Darpa-Challenge den dritten Platz. Ein weiteres Open-Source Analyseframework ist Triton, welches man leicht in eigene Projekte einbinden kann. Sehr verbreitet ist auch das Framework S2E der École Polytechnique Fédérale de Lausanne. Ein weiterer Finalist der Cyber Grand Challenge ist das Team CodeJitsu von der University of California at Berkeley, Cyberhaven, and Syracuse. Die Binary Analysis Platform wurde vom Team um Professor David Brumley am Cylab der Carnegie Mellon University entwickelt. Funktionale Programmiersprachen wie OCAML oder Haskell haben für den Anwendungsfall der symbolischen Auswertung ganz besondere Vorteile. Ebenso werden Programmiersprachen auch auf ihre inherente Unsicherheit im Sinne der Language based security untersucht, sowie fertige Programme versucht auch auf ihre Korrektheit zu verifizieren. Ein Tool, das dies vereinfachen soll ist der Z3 Prover. Hier kommt die Suche nach Sicherheitslücke zur Mathematik: In der formalen Darstellung einer Routine kann das Verhalten als Abbildung aus symbolischen Variablen beschrieben werden, und die Suche nach einer Lösung führt auf die entsprechenden Logik oder Optimierungsverfahren. Literatur und weiterführende Informationen Florian Magin: Introduction to Automated Binary Analysis, Vortrag auf der GPN17, 2017. Program Analysis reading list D. Brumley: Analysis and Defense of Vulnerabilities in Binary Code, PhD thesis, School of Computer Science Carnegie Mellon University, 2008. Podcasts M. Musch: Steganographie, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 57, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. M. Lösch: Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Modellansatz
Probabilistische Robotik

Modellansatz

Play Episode Listen Later Jun 9, 2016 102:04


Einen fahrbaren Roboter zu bauen- das ist schon eine echte Herausforderung. Um diesem aber auch noch beizubringen autonom Aufgaben zu lösen, bedienten sich Michael Fürst und sein Team der Mathematik: Im Rahmen der Gulasch Programmier-Nacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung (HfG) und dem Zentrum für Kunst und Medien (ZKM) in Karlsruhe berichtete er über die Verfahren der Probabilistischen Robotik (Video) und welche Erfahrungen sie damit machen konnten- und erzählt uns im Gespräch mit Sebastian Ritterbusch davon. Michael Fürst studiert Informatik am Karlsruher Institut für Technologie (KIT) und befasst sich im Team Informatik der Hochschulgruppe Kamaro Engineering speziell mit robusten probabilistischen Methoden zur Entscheidungsfindung. Der aktuelle Roboter Beteigeuze der Hochschulgruppe ist die zweite Generation und wurde dafür ausgelegt, Aufgaben in der Überwachung und Bewirtschaftung von Maisfeldern oder der Navigation im urbanen Umfeld zu erfüllen. Die Hochschulgruppe gibt es seit 3 Jahren und besteht aus 30-45 Mitgliedern. Sie ist eingebettet in das Teilinstitut Mobile Arbeitsmaschinen (MOBIMA) am Institut für Fahrzeugsystemtechnik (FAST) am KIT mit dessen Unterstützung und Drittspenden sich die Hochschulgruppe finanziert. Die interdisziplinäre Hochschulgruppe besteht aus vier Teams: Das Organisationsteam, das Mechanik-Team, das Elektrotechnik-Team und das Informatik-Team. Die Gruppe organisiert sich auch als Verein mit Vorstand und einer Leitung in jedem Team, um mit einer flachen Hierarchie jedem die Möglichkeit zu bieten sich in das Projekt einzubringen. Auf der einen Seite will die Gruppe die autonome Robotik voranzubringen und allen Teammitgliedern gleichzeitig auch die Möglichkeit zu bieten, praktisches Wissen und Erfahrungen neben dem oft theoretischem Studium zu erlangen. Das Team nimmt dazu regelmäßig an verschiedenen internationalen Wettbewerben teil, wie dem Field Robot Event, dem SICK Robot Day oder der Robotour. Technisch basiert die Software-Lösung des Roboters inzwischen auf dem Robot Operating System (ROS), mit dem auf einer Ubuntu-Plattform auf einem im Roboter eingebauten Computer in Java, Python oder C++ die gestellten Aufgaben bearbeitet werden. Mit 40kg Gewicht ist der Roboter für seine Größe kein Leichtgewicht und kann daher nicht beliebig Batterien transportieren, so dass dem Lademanagement eine besondere Rolle zufällt. Die gewählte Größe ermöglicht gerade bei der Feldarbeit einen nicht-invasiven Ansatz, der im Vergleich zu anderen Varianten, wie der automatischen Steuerung von Traktoren, die Pflanzen nicht schädigt. Der Roboter erfasst seine Umwelt mit einer Vielzahl von Sensoren: Die Lidar-Sensoren zur Entfernungsmessung in verschiedenen Richtungen sind dabei besonders wichtig, und sie messen bis zu 50mal pro Sekunde. Sie bestimmen die Entfernungen zur Umgebung des Roboters in einer Ebene bis 16m in einer Auflösung von bis zu drei Messpunkten pro Winkel-Grad und 3cm Entfernungsauflösung- mit gewissen Fehlerraten und Problemen mit reflektierenden Oberflächen. Zusätzlich misst eine intertiale Messeinheit translative und radiale Beschleunigungen wie auch die Ausrichtung zum Erdmagnetfeld. Zusätzlich können auch digitale Kameras zur Detektion von befahrbaren Untergründen, Objekten oder zur Analyse von Pflanzen eingebaut und verwendet werden. Zusätzlich messen Radencoder die Umdrehungen und Auslenkung durch Servos der Räder, womit der Roboter durch Odometrie seine durchgeführte Bewegung aus sich selbst heraus abschätzt. Durch die Kombination der Lidar-Daten mit der Odometrie durch ein SLAM-Verfahren (Simultaneous Localization and Mapping) ermöglicht mit einem Kalman-Filter durch Analyse der Kovarianzen die robuste Erstellung einer Karte während des Befahrens, und korrigiert Fehler bei der eigenen Lokalisierung durch die Odometrie. Zusätzlich kann der Roboter mit einem GPS-Empfänger seine Position grob bestimmen. In der Auswertung der Sensoren wird zwar von einer guten Kalibrierung ausgegangen, jedoch ist es Teil des probabilistischen Ansatzes, die erfassten Werte immer mit einer konservativen Fehlerverteilung zu verarbeiten. Die Kamerabilder werden ebenso robust verarbeitet: Die Bilddaten werden nach einer Konvertierung in den HSV-Farbraum zunächst auf eine konstante Helligkeit gebracht, um Schatteneffekte zu reduzieren. Dann werden alle weniger farbigen Pixel als befahrbarer Weg markiert, und die Anzahl der befahrbaren Pixel pro Spalte in ein Histogramm zusammengeführt. Jeder Wert in dem Histogramm wird nun als Güte bzw. der Wahrscheinlichkeit für Fahrbahn in diese Richtung gewertet. Die GPS-Position wird zur Lokalisierung in der Open Street Map verwendet, wo nach Berechnung einer Route die aktuelle Zielfahrtrichtung bestimmt wird. Die eigentliche Entscheidungsfindung erfolgt dann auf Basis der verschiedenen Sensordaten durch die Berechnung von Erwartungswerten in Abhängigkeit von einer möglichen Fahrtrichtung. Genauer betrachtet werden für jeden Sensor Zielfunktionen über den erwarteten Nutzen unter Annahme des Fahrens in eine bestimmte Richtung berechnet, und anschließend der von der Fahrtrichtung abhängige Erwartungswert unter Annahme von Sensorungenauigkeiten und Fahrungenauigkeiten bestimmt. Im Falle der gewünschten Fahrtrichtung aus den GPS- und Kartendaten wird eine sehr breite Normalverteilung angesetzt, weil auch abweichende Richtungen noch einen Gewinn darstellen können, wenn sie zumindest etwas in die richtige Richtung gehen. Aus jedem Sensor ergibt sich pro Fahrtrichtung ein erwarteter Teilnutzen, und aus allen Teilnutzen wird der Gesamtnutzen als Produkt berechnet: Dadurch werden Teilnutzen von 0 sofort als Gesamtnutzen 0 gewertet, ansonsten aber geometrisches Mittel über die Teilnutzen gebildet. Die gewählte Fahrrichtung ergibt sich dann aus der Richtung, unter der sich das Gesamtmaximum des Gesamtnutzens ergibt. Die Verarbeitung der Sensordaten erfolgt typischerweise in der Geschwindigkeit, in der die Sensoren die Umgebung abtasten. In der Bildverarbeitung wird dies besonders durch die effizienten Routinen der verwendeten OpenCV-Bibliothek möglich. So sind bis zu 30 Entscheidungen in der Sekunde möglich, jedoch können die Motoren die Entscheidungen nur deutlich langsamer umsetzen. Es wurden auch weitere Verfahren zur Entscheidungsfindung getestet, wie die Verwendung von Clusteranalyse oder die Erstellung von Voronio-Diagrammen. Doch zeigte die robuste Entscheidungsfindung über Erwartungswerte bei der Navigation im urbanen Gebiet ihre Vorteile. Die beschriebene Entscheidungsfindung bezieht sich dabei bisher nur auf die Fahrtrichtung- die Fahrtgeschwindigkeit wird bisher nur von der freien Wegstrecke in Fahrtrichtung bestimmt. Dadurch verfolgt der Roboter im Normalfalle seine Ziele in Normgeschwindigkeit von 0.5-1m/s (er läuft und läuft und läuft), bremst aber, sobald er in die Gefahr gerät, sonst einen Menschen oder sich selbst zu beschädigen. Dadurch folgt der Roboter den Robotergesetzen von Asimov. Die Kommunikation im Roboter erfolgt über verschiedene Netze- der Lidar-Sensor wird beispielsweise über Ethernet angesprochen, die Entscheidungsfindung spricht mit den Hauptroutinen in der Recheneinheit über eine TCP-Verbindung, die Kommunikation von der Recheneinheit zum Masterboard erfolgt über USB als serielle Schnittstelle (UART), und das Masterboard gibt seine Steuerbefehle über einen CAN-Bus an Motoren und Servos weiter. Der Wettbewerb der Robotour 2015 fand in Tschechien in der Innenstadt von Pisek statt. Nach einer Qualifikation vor Ort gab es nach einer Testrunde eine erste Wettkampfrunde, in der die Roboter eine Lieferung von einem Parkplatz durch die gesamte Innenstadt über festgelegte Wegpunkte letztlich zu einem Restaurant bringen sollen. Obwohl der Testlauf noch erfolgreich war, litt der Roboter Beteigeuze der Gruppe in den ersten zwei Segmenten unter Abstürzen und lag damit auf dem letzten Platz. Nachdem der Fehler gefunden war, erreichte der Roboter im dritten Lauf als einziger das Segmentziel; und blieb im vierten Lauf zwar am Hintereingang des Restaurants hängen, war aber auch da gegenüber allen anderen Kandidaten bei weitem am nächsten am Ziel, und gewann so den Wettbewerb. Für einen Einstieg in die Robotik bieten sich Systeme wie Lego Mindstorms oder andere Roboterbaukästen an, aber auch Programmierspiele, wie sie Michael auch auf der GPN angeboten hat: https://github.com/Programmierspiele. Literatur und weiterführende Informationen M. Fürst: Probabilistische Robotik- Interessen eines Roboters als Nutzen formulieren und verarbeiten, Vortrag auf der Gulasch Programmier-Nacht GPN16, 2016. M. Fürst: Detecting Drivable Regions in Monocular Images, Robotour 2015, Autonomous Robot in Parks and Urban Regions, 2015. EKF-SLAM erklärt: Wie sieht ein Roboter die Welt? Robotour 2015 Vorgehensweise bei Kamaro GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

mit team generation restaurants position weg computers erfahrungen rolle gps durch parks seite ziel wissen route ort projekt einen kunst platz ziele basis kommunikation fehler entscheidungen herausforderung analyse mapping aufgaben vorteile bewegung umfeld nachdem gefahr werte vergleich richtung gruppe methoden problemen studium usb nutzen python umwelt produkt institut einstieg pixel obwohl java mittel ansatz ebene zus umgebung verein navigation zentrum gebiet kombination literatur lauf dadurch abh gewinn vortrag wettbewerb aufl pflanzen systeme vielzahl anzahl vorstand gewicht leitung routinen verfahren kandidaten karte oberfl roboter ausrichtung geschwindigkeit hochschule verwendung sekunde karlsruhe wahrscheinlichkeit varianten sensor annahme genauer richtungen erstellung mitgliedern mathematik abst das team kameras asimov auswertung innenstadt vorgehensweise tschechien informatik qualifikation batterien parkplatz steuerung ethernet lieferung hierarchie fakult robotik berechnung sensoren netze motoren technisch servos die gruppe objekten wettbewerben softwarel die kommunikation ansatzes im falle michael f traktoren openstreetmap teammitgliedern entropia spalte entfernungen helligkeit testlauf fahrbahn fahrens segmenten karlsruher institut der wettbewerb bewirtschaftung lokalisierung lego mindstorms untergr detektion technologie kit gpn bildverarbeitung roboters umdrehungen wegstrecke leichtgewicht konvertierung can bus feldarbeit erdmagnetfeld fahrtrichtung die verarbeitung kalibrierung hochschulgruppe normalverteilung gps empf erwartungswert hintereingang beschleunigungen wegpunkte recheneinheit kartendaten clusteranalyse medien zkm histogramm fehlerraten sebastian ritterbusch messeinheit gestaltung hfg auslenkung modellansatz podcast messpunkten
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 18/19
Detektion simulierter Gefäßläsionen mit Niedrigdosis-Computertomographie-Angiographie am Phantom

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 18/19

Play Episode Listen Later Nov 12, 2015


Thu, 12 Nov 2015 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/18980/ https://edoc.ub.uni-muenchen.de/18980/1/Deak_Zsuzsanna.pdf Deák, Zsuzsanna ddc:610,

phantom zsuzsanna detektion ddc:600 angiographie
Modellansatz
InSAR - SAR-Interferometrie

Modellansatz

Play Episode Listen Later Sep 24, 2015 40:14


Im Rahmen des ersten Alumitreffens im neu renovierten Mathematikgebäude gibt uns unser Alumnus Markus Even einen Einblick in seine Arbeit als Mathematiker am Fraunhofer IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung in Ettlingen in der Arbeitsgruppe zur Analyse und Visualisierung von SAR-Bilddaten. Er befasst sich mit der Entwicklung von Algorithmen für die Fernerkundung, genauer gesagt für die Deformationsanalyse mit Hilfe von SAR-Interferometrie (InSAR). Deformation bezieht sich hier auf Bewegungen der Erdkruste oder auf ihr befindlicher Strukturen, z.B. von Bauwerken. Hinter dem Stichwort SAR-Interferometrie verbirgt sich eine Vielfalt von Verfahren der Fernerkundung, die auf Synthetic Aperture Radar, auf Deutsch Radar mit synthetischer Apertur, beruhen, und die die Fähigkeit der Sensorik ein kohärentes Signal zu verarbeiten zur Erzeugung sogenannter Interferogramme nutzen. Für SAR ist es wesentlich, dass der Sensor bewegt wird. Zu diesem Zweck ist er auf einen Satelliten, ein Flugzeug oder auch auf einem auf Schienen laufenden Schlitten montiert. Für die Mehrzahl der Anwendungen wird er entlang einer näherungsweise geradlinigen Bahn bewegt und sendet in festen Zeitabständen elektromagnetische Signale im Mikrowellenbereich aus, deren Returns er, unterteilt in sehr kurze Zeitintervalle, aufzeichnet. Dabei "blickt" er schräg nach unten, um nicht systematisch von zwei verschiedenen Orten der Erdoberfläche rückkehrende Signale zu vermischen. Herauszuheben ist, dass er unabhängig von der Tageszeit- er beleuchtet die Szene selbst- und weitgehend unabhängig von den Wetterverhältnissen- die Atmosphäre verzögert das Signal, ist aber für diese Wellenlängen (ca. 3cm-85cm) bis auf seltene Ausnahmen durchlässig dafür- Aufnahmen machen kann. Dies ist ein Vorzug gegenüber Sensoren, die im optischen oder infraroten Teil des Spektrums arbeiten, und nachts oder bei Bewölkung nicht die gewünschten Informationen liefern können. Neben der Magnitude des rückgestreuten Signals zeichnet der SAR-Sensor auch dessen Phasenverschiebung gegenüber einem Referenzoszillator auf, die die Grundlage für die Interferometrie darstellt und viele Anwendungsmöglichkeiten bietet. Aus dem aufgezeichneten Signal wird das sogenannte fokusierte Bild berechnet. (Mathematisch gesehen handelt es sich bei dieser Aufgabe um ein inverses Problem.) Die Achsen dieses komplexwertigen Bildes entsprechen eine der Position des Satelliten auf seiner Bahn und die andere der Laufzeit des Signals. Der Zahlenwert eines Pixels kann vereinfacht als Mittel der aufgezeichneten Rückstreuung aus dem Volumen angesehen werden, dass durch das jeweilige Paar aus Bahninterval und Laufzeitinterval definiert ist. Dies ist der Kern von SAR: Die Radarkeule erfasst eine größere Fläche auf dem Boden, so dass das aufgezeichnete Signal aus der Überlagerung aller zurückkehrenden Wellen besteht. Diese Überlagerung wird durch die Fokusierung rückgängig gemacht. Dazu benutzt man, dass ein Auflösungselement am Boden zu allen Returns beiträgt, solange es von der Radarkeule erfasst wird und dabei eine bekannte Entfernungskurve durchläuft.Die Magnitude des sich so ergebenden Bildes erinnert bei hochaufgelösten Aufnahmen auf den ersten Blick an eine Schwarzweißphotographie. Betrachtet man sie jedoch genauer, so stellt man schnell Unterschiede fest. Erhabene Objekte kippen zum Sensor, da die höhergelegenen Punkte näher zu ihm liegen. Hohe Werte der Magnitude, also hohe Rückstreuung, sind in der Regel mit günstigen geometrischen Konstellationen verbunden: Eine ebene Fläche muss dazu beispielsweise senkrecht zum einfallenden Signal ausgerichtet sein, was selten der Fall ist. Geht man an die Grenze des aktuell Möglichen und betrachtet ein Bild einer städtischen Umgebung eines luftgetragenen Sensors mit wenigen Zentimetern Auflösung, so scheint es beinahe in punktförmige Streuer zu zerfallen. Diese werden durch dihedrale (Pfosten) und- häufiger- trihedrale Strukturen erzeugt. Trihedrale Strukturen reflektieren das einfallende Signal parallel zur Einfallsrichtung (man kennt das von den an Fahrzeugen verwendeten, Katzenaugen genannten Reflektoren). Sehr niedrige Rückstreuung ist meist darin begründet, dass kein Signal mit der entsprechenden Laufzeit zum Sensor zurückkehrt, sei es weil keine Streuer erreicht werden (Schatten) oder das Signal auf glatten Flächen vom Satelliten weggespiegelt wird. Für Wellenlängen von einigen Zentimetern sind z.B. asphaltierte oder gepflasterte Flächen glatt, bei Windstille ist es auch Wasser. Daneben gibt es auch kompliziertere Streumechanismen, die zu Magnituden mittlerer Höhe führen, etwa Volumenstreuung in Vegetation, Schnee und Sand, verteilte Streuung an Flächen mit vielen kleinen, homogen verteilten Objekten (z.B. Kiesflächen oder andere Flächen mit spärlicher Vegetation) oder einer gewissen Rauigkeit. Außer diesen gibt es noch viele weitere Möglichkeiten, wie Mehrfachreflektionen oder das Zusammenfallen in verschiedenen Höhen positionierter Streuer in einer Entfernungszelle.Die für die SAR-Interferometrie wesentliche Information aber ist die Phase. Sie kann allerdings nur genutzt werden, wenn zwei oder mehr Aufnahmen aus annähernd der gleichen Position vorliegen. Die grundlegende Idee dabei ist die Betrachtung von Doppeldifferenzen der Phase zweier Pixel zweier Aufnahmezeitpunkte. Um sie zu verstehen nehmen wir zunächst an, dass sich in beiden Auflösungszellen je ein dominanter, punktförmiger Streuer befindet, was so gemeint ist, dass die Phase einer Laufzeit entspricht. Da die Subpixelpositionen unbekannt sind und die Größe der Auflösungszelle um Vieles größer als die Wellenlänge ist, ist die Phasendifferenz zweier Pixel eines einzelnen Bildes nicht verwertbar. In der Doppeldifferenz heben sich die unbekannten Subpixelpositionen allerdings heraus. Die Doppeldifferenz ist in dieser idealisierten Situation die Summe dreier Anteile: des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien, des Laufzeitunterschiedes auf Grund einer relativen Positionsänderung der Streuer während der zwischen den Aufnahmen verstrichenen Zeit und des Laufzeitunterschiedes auf Grund der räumlichen und zeitlichen Variation der atmosphärischen Verzögerung. Diese drei Anteile können jeder für sich nützliche Information darstellen. Der Erste wird zur Gewinnung von Höhenmodellen genutzt, der Zweite zur Detektion von Deformationen der Erdoberfläche und der Dritte, obwohl meist als Störterm angesehen, kann bei der Bestimmung der Verteilung von Wasserdampf in der Atmosphäre genutzt werden. Es stellt sich aber die Frage, wie man diese Terme separiert, zumal noch die Mehrdeutigkeit aufgelöst werden muss, die darin liegt, dass die Phase nur bis auf ganzzahlige Vielfache von zwei Pi bekannt ist.Weitere Fragen ergeben sich, da in realen Daten diese Annahmen für viele Pixel nicht erfüllt sind. Stellt man sich beispielsweise eine Auflösungszelle mit mehreren oder vielen kleineren Streuern vor (z.B. mit Geröll), so ändert sich die Phase der überlagerten Returns mit dem Einfallswinkel des Signals. Sie ändert sich auch, wenn manche der Streuer bewegt wurden oder die beiden Aufnahmen nicht ausreichend genau zur Deckung gebracht wurden. Dies führt dazu, dass die Phase sich um einen schlecht quantifizierbaren Betrag ändert. Man spricht dann von Dekorrelation. Eventuell besteht nach Änderung der physischen Gegebenheiten in der Auflösungszelle keine Beziehung mehr zwischen den Phasenwerten eines Pixels. Dies ist etwa der Fall, wenn ein dominanter Streuer hinzu kommt oder nicht mehr anwesend ist, ein Gelände überschwemmt wird oder trocken fällt. Es stellt sich also die Frage, welche Pixel überhaupt Information tragen, bzw. wie ihre Qualität ist und wie sie extrahiert werden kann.Die Geschichte der SAR-Interferometrie begann nach dem Start des ESA-Satelliten ERS 1 im Jahr 1991 mit einfachen differentiellen Interferogrammen. Das berühmteste ist sicher das vom Landers-Erdbeben 1992 in Kalifornien. Zum ersten Mal in der Geschichte der Wissenschaft war es möglich, das Deformationsfeld eines Erdbebens flächig zu messen, wenn auch nur die Komponente in Sichtlinie des Sensors. Statt Werte hunderter in der Region installierter Messstationen stellte das Interferogramm ein Bild des Erdbebens mit Millionen Datenpunkten dar. Diese Fähigkeit, großflächig Deformationen der Erdoberfläche aufzuzeichnen, besitzt nur die SAR-Interferometrie! Allerdings ist zu bemerken, dass dieses Resultat seine Entstehung auch günstigen Umständen verdankt. Landers liegt in der Mojave-Wüste, so dass die Variation der atmosphärischen Verzögerung und die Dekorrelation vernachlässigbar waren. Dank der Verfügbarkeit eines guten Höhenmodells konnte der Anteil des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien eliminiert werden (man spricht dann von einem differentiellen Interferogramm). Ein weiterer Meilenstein war die Shuttle Radar Topography Mission des Space Shuttle Endeavour im Februar 2000, während der die Daten für ein Höhenmodell der gesamten Landmasse zwischen 54 Grad südlicher Breite und 60 Grad nördlicher Breite aufgezeichnet wurden. Für diesen Zweck wurde die Endeavour mit zwei SAR-Antennen ausgestattet, eine am Rumpf, eine an einem 60 Meter langen Ausleger. Dank zeitgleicher Aufnahmen waren die Phasenanteile auf Grund Deformation und atmosphärischer Verzögerung vernachlässigbar. Dekorrelation auf Grund von Änderungen der physischen Gegebenheiten spielt hier auch keine Rolle. Dem Wunsch nach einem weltweiten, dazu deutlich höher aufgelösten Höhenmodell kommt seit 2010 die TanDEM-X-Mission des DLR nach, bei der die beiden SAR-Antennen von zwei Satelliten im Formationsflug getragen werden. Auch in der Algorithmik gab es entscheidende Fortschritte. Einer der fruchtbarsten war die Erfindung von Permanent Scatterer Interferometric SAR (PSInSAR) um das Jahr 2000, das durch die Verwendung einer längeren Zeitreihe von differentiellen Interferogrammen und einiger neuer Ideen das Problem der Separierung der im vorangehenden Abschnitt genannten Terme löste. Der Ausgangspunkt hierfür war die Entdeckung, dass häufig eine größere Anzahl über lange Zeiträume phasenstabile Streuer, die sogenannten Permanent Scatterer (auch Persistent Scatterer oder PS), gefunden werden können, die man sich vereinfacht als Pixel vorstellen darf, deren Auflösungszelle einen dominanten, punktförmigen, über die Zeitreihe unveränderten Streuer enthält. Auf diese wird nun die Auswertung beschränkt, die vereinfacht folgende Schritte durchläuft: Definition eines Graphen mit den PS als Knoten und Paaren benachbarter PS als Kanten; Schätzung einer Modellphase für Deformation und Höhenmodellfehler an Hand der Doppeldifferenzen aller verwendeten differentiellen Interferogramme für alle Kanten; Entrollen von Originalphase minus Modellphase, d.h. Auflösen der Mehrdeutigkeiten; räumlich-zeitliche Filterung, um die Variation der atmosphärischen Verzögerung zu eliminieren. Als Produkt ergeben sich für jeden PS seine Bewegung in Sichtlinie des Sensors und eine Korrektur seiner Höhenlage relativ zum für die Erzeugung der differentiellen Interferogramme verwendeten Höhenmodell. Seither wurden diese Grundideen modifiziert und verfeinert. Vor allem müssen die Berücksichtigung verteilter Streuer (auch Distributed Scatterer oder DS) für die Deformationsanalyse erwähnt werden, was die Informationsdichte vor allem in ariden Gebieten drastisch erhöhen kann, sowie die SAR-Tomographie, die eine Analyse auch dann erlaubt, wenn zwei oder drei vergleichbar starke Streuer in einer Auflösungszelle vorhanden sind (z.B. wenn ein Streuer am Boden, eine Fensterniche und eine Dachstruktur den gleichen Abstand zum Sensor haben). Die SAR-Interferometrie, insbesondere die Deformationsanalyse, verwendet vor allem mathematische Methoden aus den Bereichen Stochastik, Signalverarbeitung, Optimierungstheorie und Numerik. Besondere Herausforderungen ergeben sich daraus, dass die Vielfalt natürlicher Phänomene sich nur bedingt durch einfache statistische Modelle beschreiben lässt und aus dem Umstand, dass die Datensätze in der Regel sehr groß sind (ein Stapel von 30 Aufnahmen mit komplexwertigen 600 Megapixeln ist durchaus typisch). Es treten lineare Gleichungssysteme mit mehreren Zehntausend Unbekannten auf, die robust gelöst sein wollen. Für die Auflösung der Mehrdeutigkeiten verwenden die fortgeschrittensten Algorithmen ganzzahlige Optimierung. Wavelet-basierte Filterverfahren werden genutzt, um die atmosphärische Verzögerung vom Nutzsignal zu trennen. Im Zusammenhang mit der Schätzung der Variation der atmosphärischen Verzögerung werden geostatistische Verfahren wie Kriging eingesetzt. Statistische Tests werden bei der Auswahl der DS, sowie zur Detektion schlechter Pixel eingesetzt. Bei der Prozessierung der DS spielen Schätzer der Kovarianzmatrix eine prominente Rolle. Die SAR-Tomographie nutzt Compressive Sensing und viele weitere Verfahren. Zusammenfassend lässt sich sagen, dass die SAR-Interferometrie auch aus Perspektive eines Mathematikers ein reichhaltiges und spannendes Arbeitsgebiet ist. Eine wichtige Anwendung ist die Deformationsanalyse durch die InSAR-Methode: Die SAR-Interferometrie zeichnet sich vor allen anderen Techniken dadurch aus, dass sie bei geeignetem Gelände sehr großflächige Phänomene mit sehr hoher Informationsdichte abbilden kann. Allerdings liefert sie relative Messungen, so dass in der Regel eine Kombination mit Nivellement oder hochgenauen GPS-Messungen verwendet wird. Ihre Genauigkeit hängt neben der Qualität der Daten von der Wellenlänge ab und zeigt bei 3cm Wellenlänge meist nur wenige Millimeter je Jahr Standardabweichung. Damit können selbst sehr feine Bewegungen, wie z.B. die Hebung des Oberrheingrabens (ca. 2mm/y), nachgewiesen werden. Allerdings können wegen der Mehrdeutigkeit der Phase Bewegungen auch zu stark sein, um noch mit PSInSAR auswertbar zu sein. In diesem Fall können längere Wellenlängen, höhere zeitliche Abtastung oder Korrelationsverfahren helfen. Trotz der diskutierten Einschränkungen lässt sich die Deformationsanalyse mit InSAR in vielen Zusammenhängen nutzensreich einsetzen, denn auch die Ursachen für Deformationen der Erdoberfläche sind vielfältig. Neben geologischen und anderen natürlichen Phänomenen werden sie von Bergbau, Förderung von Wasser, Erdgas, Erdöl, durch Geothermiebohrungen, Tunnelbau oder andere Bautätigkeiten ausgelöst. Meist steht bei den Anwendungen die Einschätzung von Risiken im Fokus. Erdbeben, Vulkanismus, aber auch Schäden an kritischer Infrastruktur, wie Deichen, Staudämmen oder Kernkraftwerken können katastrophale Folgen haben. Ein weiteres wichtiges Thema ist die Entdeckung oder Beobachtung von Erdbewegungen, die sich potentiell zu einem Erdrutsch entwickeln könnten. Allein in den Alpen gibt es tausende Bergflanken, wo sich größere Bereiche in langsamer Bewegung befinden und in Leben oder Infrastruktur gefährdende Hangrutsche münden könnten. Auf Grund der zunehmenden Erderwärmung nimmt diese Bedrohung überall dort zu, wo Permafrost zu tauen beginnt, der bisher den Boden stabilisierte. InSAR wird bei der Erstellung von Risikokarten genutzt, die der Beurteilung der Gefährdungslage und der Entscheidung über Gegenmaßnahmen dienen. In vielen Regionen der Erde werden Deformationen der Erdoberfläche durch veränderte Grundwasserstände verursacht. Nimmt das Grundwasser ab, etwa wegen Entnahme zur Bewässerung oder industriellen Verwendung, so senkt sich die Erdoberfläche. Nimmt das Grundwasser während regenreicher Zeiten zu, so hebt sich die Erdoberfläche. Das Monitoring mit InSAR ist hier aus mehreren Gründen interessant. Bewegungen der Erdoberfläche können Schäden an Gebäuden oder anderen Strukturen verursachen (Bsp. Mexico City). Übermäßige Wasserentnahme kann zu irreversibler Verdichtung der wasserführenden Schichten führen, was Konsequenzen für die zukünftige Verfügbarkeit der lebenswichtigen Flüssigkeit hat. Bei Knappheit muss die Entnahme reguliert und überwacht werden (Bsp. Central Valley, Kalifornien). Von besonderer Bedeutung sind durch geologische Phänomene wie Vulkanismus oder tektonische Bewegungen verursachte Deformationen der Erdoberfläche. Die von SAR-Satelliten gewonnenen Daten werden zur Einschätzung von Risiken benutzt, auch wenn eine sichere, frühzeitige und zeitgenaue Vorhersage von Erdbeben oder Vulkanausbrüchen mit den heutigen Methoden nicht möglich ist. Sie sind aber die Grundlage für eine ausgedehnte Forschungsaktivität, die unser Verständnis der Vorgänge in der Erdkruste stetig wachsen lässt und immer genauere Vorhersagen erlaubt. Dies ist in erster Linie den SAR-Satelliten der ESA (ERS-1, ERS-2, Envisat und aktuell Sentinel-1A) zu verdanken, die seit 1991 mit lediglich einer Lücke von zwei Jahren (2012-2014) kontinuierlich die gesamte Erde aufnehmen. Die Idee dabei ist, dass so in festem zeitlichen Rhythmus (bei ERS alle 35 Tage) jeder Punkt der Erde aufgenommen wird. Dadurch ist ein großes Archiv entstanden, das es nach einem geologischen Ereignis ermöglicht, dieses mit den Methoden der SAR-Interferometrie zu untersuchen, da die Vorgeschichte verfügbar ist. Eine Entwicklung der letzten Jahre ist die Nutzung bei der Erschließung von Erdgas und Erdöl. Die mit InSAR sichtbar gemachten Deformationen erlauben es, neue Einsicht in die Struktur der Lagerstätten zu erhalten, geomechanische Modelle zu kalibrieren und letztlich die Rohstoffe Dank optimierter Positionierung von Bohrlöchern effektiver und kostengünstiger zu fördern. Wer InSAR noch besser verstehen will, der findet in den InSAR Guidlines der ESA die Grundlagen sehr gut erklärt. Einen etwas breiteren Überblick über Anwendungsmöglichkeiten kann man sich auf der Homepage von TRE verschaffen, einem Unternehmen, das von den Schöpfern von PSInSAR gegründet wurde und im Bereich InSAR-Auswertungen nach wie vor führend ist. Die Wettbewerber ADS und e-GEOS bieten außer InSAR weitere Anwendungen von SAR-Daten. Aus wissenschaftlich/politischer Perspektive kann man sich in der Broschüre der DLR über Themenfelder der Erdbeobachtung informieren. Zu dem speziellen Thema der Erdbewegung auf Grund Absenkung des Grundwasserspiegels in den USA gibt es weitere Informationen. Literatur und weiterführende Informationen A. Ferretti, A. Monti-Guarnieri, C. Prati, F. Rocca, D. Massonnet: InSAR Principles: Guidelines for SAR Interferometry Processing and Interpretation, TM-19, ESA Publications, 2007. M. Fleischmann, D. Gonzalez (eds): Erdbeobachtung – Unseren Planeten erkunden, vermessen und verstehen, Deutsches Zentrum für Luft- und Raumfahrt e.V., 2013. Land Subsidence, U.S. Geological Survey. M. Even, A. Schunert, K. Schulz, U. Soergel: Atmospheric phase screen-estimation for PSInSAR applied to TerraSAR-X high resolution spotlight-data, Geoscience and Remote Sensing Symposium (IGARSS), IEEE International, 2010. M. Even, A. Schunert, K. Schulz, U. Soergel: Variograms for atmospheric phase screen estimation from TerraSAR-X high resolution spotlight data, SPIE Proceedings Vol. 7829, SAR Image Analysis, Modeling, and Techniques X, 2010. M. Even: Advanced InSAR processing in the footsteps of SqueeSAR Podcast: Raumzeit RZ037: TanDEM-X Podcast: Modellansatz Modell010: Positionsbestimmung Podcast: Modellansatz Modell012: Erdbeben und Optimale Versuchsplanung Podcast: Modellansatz Modell015: Lawinen

united states man fall er situation leben thema position phase ps geschichte arbeit dabei gef rolle blick definition zeiten grund sand bei idee diese entwicklung fokus dazu hilfe pi damit einblick ideen einen bedeutung qualit region unternehmen bild beziehung entscheidung signal dank mexico city neben wasser verst gonzalez analyse esa punkt schritte aufgabe modeling perspektive luft trotz interpretation unterschiede grad bewegung zum daten erde meter punkte wissenschaft methoden umst hinter positions kern signals allerdings regel homepage pixel schatten auswahl grundlage geb szene konsequenzen mittel risiken allein struktur vielfalt entstehung einsch die geschichte strukturen grenze ursachen ds bahn umgebung grundlagen linie bereiche paar abstand atmosph kombination literatur nutzung zweck schnee dadurch gel aufgrund techniken vieles einschr zusammenh orten anwendung anteil ereignis aufl sar anzahl stellt tm schulz vorg verfahren pixels bew infrastruktur returns regionen flugzeug zweite wellen fortschritte modelle bedrohung kalifornien die idee verwendung rhythmus betrachtung variation entdeckung aufnahmen meist erfindung positionierung alpen meilenstein signale sensor bestimmung sensors optimierung bewegungen volumen nimmt daneben summe anwendungen dritte central valley resultat erstellung magnitude beobachtung algorithmen verz erdbeben verteilung ausnahmen anteile auswertung baut einsicht gebieten seither visualisierung abschnitt komponente erd endeavour gegebenheiten raumfahrt terme landers schichten vorhersagen breite umstand paaren betrag kanten annahmen korrektur knoten beurteilung vorgeschichte rocca dlr ers permafrost eventuell sensoren erderw laufzeit geosciences erdgas konstellationen vegetation vorhersage satelliten fahrzeugen brosch bsp betrachtet stapel objekten mathematiker geological survey gewinnung millimeter schienen anwendungsm schwarz wei schlitten wellenl gegenma grundwasser bildes messungen deckung bergbau zeitr arbeitsgruppe mehrzahl fleischmann erzeugung erschlie diese f fraunhofer institut datens im zusammenhang themenfelder tageszeit ferretti zusammenfassend rumpf pfosten prati sensorik spektrums erdoberfl weitere fragen deformation erdrutsch vorzug vulkanausbr geos staud verdichtung streuung entnahme wasserdampf eine entwicklung erdbebens graphen detektion bauwerken kernkraftwerken reflektoren space shuttle endeavour wetterverh der ausgangspunkt filterung mehrdeutigkeit zentimetern lagerst ettlingen messstationen zeitabst mathematisch erdbeobachtung bohrl erdkruste vulkanismus insar signalverarbeitung grundideen informationsdichte wavelet prozessierung landmasse fernerkundung mojave w forschungsaktivit systemtechnik arbeitsgebiet vielfache hebung numerik envisat separierung deformationen sichtlinie formationsflug interferometrie gleichungssysteme abtastung fokusierung terrasar x
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05

Gewitterzellen mit ihren negativen Begleiterscheinungen wie Starkregen, Hagel oder Fallwinden verursachen Verspätungen sowie Flugausfälle und sind damit für höhere Kosten der Airlines und Flughafenbetreiber verantwortlich. Eine verlässliche Vorhersage von Gewittern bis zu mehreren Stunden könnte dagegen den Entscheidungsträgern am Flughafen einen größeren zeitlichen Spielraum geben, um auf mögliche Gewitterzellen angemessen zu reagieren und adäquate Maßnahmen zu ergreifen. Zur Bereitstellung zuverlässiger Gewittervorhersagen bis zu sechs Stunden wurde Cb-LIKE am Deutschen Zentrum für Luft- und Raumfahrt (DLR) entwickelt. Der neue Gewittervorhersagealgorithmus wird in der vorliegenden Dissertation detailliert vorgestellt. Cb-LIKE ist ein automatisiertes System, das unter Verwendung von Modelldaten des COSMO-DE Wettermodells des Deutschen Wetterdienstes (DWD) Gebiete ausweist, die eher für oder gegen eine Entwicklung von Gewittern sprechen. Vier atmosphärische Parameter (CAPE, Vertikalwind, Radarreflektivität und Temperatur an der Wolkenobergrenze) fließen in das System ein. Eine neu entwickelte „Best-Member-Selection“ sorgt dabei durch einen Abgleich zur aktuellen Gewittersituation für die automatische Auswahl des realistischsten Modelllaufes aus einem Ensemble. Dadurch wird die beste Datengrundlage für die Berechnung der Gewittervorhersagen gewährleistet. Für die Auswahl des besten Members stehen vier verschiedene Modi zur Verfügung. Ein neu entwickeltes Fuzzy-Logik System ermöglicht anschließend die Kombination der Modelldaten und die Berechnung eines Gewitterindikators von 11,6¯6 bis 88,3¯3 für jeden Gitterpunkt des Modells für die nächsten sechs Stunden in stündlichen Intervallen. Je höher der Wert des Indikators, desto mehr sprechen die Modellparameter für die Entstehung von Gewittern. Zusätzlich wird die Vorhersagequalität des neuen Algorithmus anhand einer umfassenden Verifikation unter Verwendung einer „neighbourhood-verification“ Technik und von „multi-event contingency tables“ untersucht. Für die Sommerperiode 2012 weist Cb-LIKE im Vergleich zur COSMO-DE Radarreflektivität bessere Werte in den Verifikationsgrößen auf. So ist das „Fehlalarmverhältnis“ für den neuen Algorithmus niedriger (0,48 zu 0,56), die „Wahrscheinlichkeit der Detektion“ (0,52 zu 0,45) und der „Critical Success Index“ (0,50 zu 0,48) fallen dagegen höher aus. Die Resultate zeigen, dass der Cb- LIKE Algorithmus eine sinnvolle neue Methodik für Gewittervorhersagen von hoher Qualität auf der Datenbasis des COSMO-DE Modells darstellt. Die Ergebnisse aus der Verifikation ermöglichen außerdem die Übersetzung des Cb-LIKE Indikatorfeldes in die gewünschten probabilistischen Gewittervorhersagen. Zusätzlich wird die erfolgreiche Implementierung der Cb-LIKE Gewittervorhersagen in das WxFUSION System, eine graphische Benutzeroberfläche, vorgestellt.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
Detektion und Differenzierung von Hämogregarinen im Blut von Importreptilien mit Hilfe molekularbiologischer Methoden (Polymerase-Kettenreaktion und Sequenzierung)

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07

Play Episode Listen Later Jul 18, 2015


Hemogregarines are protozoan blood parasites, belonging to the phylum Apicomplexa. They have a life cycle which includes two or three hosts. The merogony and gamogony takes place in the reptile host and the sporogony takes place in an invertebrate host. Therefore reptiles always represent intermediate hosts, while invertebrates act as definitive hosts. In reptiles, the genera Haemogregarina, Hepatozoon, Karyolysus and Hemolivia have been described including about 400 different species in reptiles. Most of the genera and species have been described based only on morphological characteristics and the reptilian host species. However, usefulness of these features for genus or species diagnosis is currently under debate. The parasite stages that are located in the erythrocytes of reptiles can, however, very often not be distinguished by their morphology. In the present study, therefore, a molecular biological approach was chosen to distinguish the hemogregarines from blood samples of reptiles, which were recently imported to Germany. Blood samples, which had been previously found to contain hemogregarines by microscopical investigation, were included in the investigation. As a target sequence the 18S rRNA gene was chosen. Using three different primer pairs HEMO1/HEMO2 (Perkins and Keller, 2001), HepF300/Hep900 (Ujvari et al., 2004) and A mod / 18AP1488.R (Medlin et al., 1988; Wozniak et al., 1994). PCR amplification was performed and phylogenetic analyses were based on the sequences obtained directly from the PCR amplification products. Blood samples from 13 ball pythons (Python regius), 23 emerald tree boas (Corallus caninus), seven African mud turtles (Pelusios castaneus) and one tokay gecko (Gekko gecko) were analysed. Three sequences from ball pythons, nine different sequences from emerald tree boas, and two sequences from African mud turtles could be obtained. Only one of these sequences was completely identical with one of the sequences available at the NCBI genbank originating from a Hepatozoon sp. from an elegant sand racer (Psammophis elegans). The remaining sequences thus seem to be first molecular description and characterisations of hemogregarines.In a phylogenetic tree the sequences obtained from the snakes clustered with Hepatozoon sp. but formed several separated groups indicating the existence of several species. The sequences obtained from parasites of the African mud turtles formed a sister clade to Haemogregarina sp. but were also close to species described as Hepatozoon sp. The formation of this clade was not supported by high bootstrap values. The taxonomic position thus seems to be unsolved. The present study shows that a variety of hemogregrine species have been introduced into Germany via imported reptiles. Using molecular methods most hemogregarines detected here were unequivocally characterized for the first time. Since the exact identification is fundamental for determination of pathogenicity of these hemogregarines in reptiles and for the development of a therapy, this study represents an important prerequisite for future investigations.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
Untersuchungen zu Septin7 und anderen differentiell regulierten Lymphozytenproteinen bei der equinen rezidivierenden Uveitis

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07

Play Episode Listen Later Jul 18, 2015


Die equine rezidivierende Uveitis (ERU) ist eine häufig in der Pferdepopulation auf-tretende Autoimmunerkrankung, bei der schubweise autoaggressive T-Lymphozyten das Auge infiltrieren. Dort führen sie zu entzündlichen Veränderungen an der Netz¬haut, die in letzter Konsequenz eine Erblindung des betroffenen Auges verursachen. Das Ziel dieser Arbeit war es, Proteine, die auf ins Auge transmigrierten Lympho-zyten im Vergleich zu peripheren Lymphozyten differentiell exprimiert sind, zu charakterisieren um dadurch zur Aufklärung der Pathogenese der ERU beizutragen. Dabei war das Protein Septin7, welches auf peripheren Blutlymphozyten von an ERU erkrankten Pferden geringer exprimiert ist als auf denen augengesunder Kontrollpferde, von besonderem Interesse, da es eine wichtige Rolle bei der Stabilisierung des Zytoskeletts spielt und so maßgeblich an der Pathogenese der ERU beteiligt sein könnte. Zunächst wurden sieben monoklonale Antikörper gegen equines Septin7 hergestellt und in verschiedenen Methoden eingehend auf ihre Eignung zur Detektion dieses wichtigen zytoskelettalen Proteins untersucht. Dabei konnte für die proteinanalytisch relevanten Methoden Western Blot, Durchflusszytometrie, Immunzyto- und -histo¬chemie sowie Immunpräzipitation jeweils mindestens ein sehr gut an equines Septin7 bindender Antikörper identifiziert werden. Im Anschluss erfolgte die Untersuchung der Expression von Septin7 in Lymphozyten des peripheren Blutes und in aus dem Vitreus gewonnenen Lymphozyten von ERU-Patienten. Dabei ergab sich interessanterweise eine um den Faktor 4,7 verstärkte Expression von Septin7 in intraokulären Zellen gegenüber peripheren Lymphozyten. Die funktionelle Relevanz von Septin7 für die ERU wurde mittels eines Transmigrationsversuchs an Septin7-gesilencten peripheren Blutleukozyten (PBL) überprüft. Dabei zeigte sich eine Steigerung der Transmigrationsrate Septin7-gesilencter Zellen gegenüber Kontrollen um 28%, was auf eine Funktion von Septin7 bei der Transmigration hinweist. Zum Zweck der weiteren Charakterisierung der Funktion von Septin 7 in Pferde-PBL wurde eine Immunpräzipitation von Septin7 aus diesen Zellen durchgeführt. Die anschließende massenspektrometrische Analyse des Präzipitats ergab 47 Septin7-Interaktoren, die erstmals in Verbindung mit Septin7 in equinen PBL identifiziert werden konnten. Von besonderem funktionellem Interesse darunter waren Vimentin, ebenfalls ein Protein des Zytoskeletts, und Laktotransferrin, ein vielseitiger Immunmodulator. Die Expression dieser Proteine wurde dann durchflusszytometrisch in peripheren und intraokulären Lymphozyten analysiert. Vimentin war in nur 12 % der Lymphozyten im Auge im Vergleich zu 71% der peripheren Lymphozyten des ERU Pferdes exprimiert, die Expressionsstärke von Laktotransferrin war hingegen signifikant 8,8-fach höher in intraokulären als in peripheren Lymphozyten. Diese Expressionsänderungen vollzogen sich bei beiden Proteinen vorrangig auf CD4+ Zellen. Zusätzlich zur näheren Charakterisierung von Septin7 bei Lymphozyten von an ERU erkrankten Pferden lag besonderes Interesse auf der Identifikation differentiell regulierter Oberflächenmembranproteine zwischen peripheren und intraokulären Lymphozyten im Rahmen der ERU. In durch Oberflächenbiotinylierung von peri-pheren und intraokulären Lymphozyten gewonnenen Proben konnten in einem proteomischen Experiment insgesamt 146 differentiell exprimierte Proteine identifiziert werden, die nie zuvor auf ihre Rolle bei der ERU untersucht worden waren. Die Regulation zweier besonders interessanter Proteine, die auf intraokulären Lymphozyten stärker exprimiert waren, konnte durchflusszytometrisch bestätigt werden. Dabei handelte es sich um CD150, einen Stimulator der TCR-mediierten Signalkaskade, und CD166, ein an der T-Zellaktivierung und Leukozytenmigration beteiligtes Rezeptormolekül. Ein Transmigrationsversuch mit CD166-blockierten Zellen bestätigte auch für CD166, wie schon für Septin7, eine mögliche funktionelle Relevanz bei der Pathogenese der ERU. Die im Rahmen dieser Arbeit durchgeführten Experimente ergaben eine Vielzahl interessanter differenziell regulierter Kandidaten bei Lymphozyten von an ERU erkrankten Pferden. Die hier bereits bezüglich ihrer Regulation bei der ERU untersuchten Proteine Vimentin, Laktotransferrin, CD150 und CD166 sollten in Zukunft weiter auf ihre funktionelle Beteiligung an der Pathogenese der ERU untersucht werden. Zusätzlich könnten besonders der Septin7-Interaktor Cdc42, sowie die Oberflächenproteine P2X-Purinorezeptor, SIGIRR und CD6 große funktionellen Bedeutung bei der ERU haben und sollten Gegenstand künftiger Forschung sein, um die Pathogenese der häufigen und schwerwiegenden Erkrankung ERU weiter aufzuklären.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 18/19

In der vorliegenden Arbeit wurden die Grundlagen für die Zwei-Photonen-Endomikroskopie untersucht. Die Herausforderung liegt in der Miniaturisierung der Technik der Zwei-Photonen-Mikroskopie, um auch endoskopisch in vivo hochauflösende Bilder von Gewebestrukturen und Zellen zu erhalten. Im Gegensatz zur Gewebeentnahme bei einer Biopsie ist dieses optische Verfahren minimal-invasiv. Damit ist eine Vorab Untersuchung des Gewebes möglich, die die Diagnostik unteranderem von bösartigen Gewebestrukturen präzisieren könnte. Die konfokale Endoskopie bietet bereits mit einem vergleichbaren Verfahren die Möglichkeit einer optischen Biopsie an der Oberfläche, z.B. an verschiedenen Schleimhäuten. Aufgrund der Gewebestreuung ist die Eindringtiefe des Lichts dabei aber auf wenige Mikrometer begrenzt. Diese Einschränkung könnte durch die bereits in der Zwei-Photonen-Mikroskopie gezeigte größere optische Eindringtiefe durch die Zwei-Photonen-Endomikroskopie verbessert werden. In dieser Arbeit wurde ein Femtosekundenlaser durch Glasfasern geleitet und am distalen Ende mit Hilfe einer Mikrooptik fokussiert. Dazu wurde ein Aufbau basierend auf Faserbündeln gewählt. Die einzelnen Faserkerne des Glasfaserbündels wurden mit einem Galvanometer-Scanner abgerastert und die dazugehörige detektierte Fluoreszenz punktweise zu einem Bild zusammengesetzt. Zur Kompensation der zeitlichen Verbreiterung der Pulse wurde ein Gitterkompressor aufgebaut. Mit diesem Aufbau wurden Zwei-Photonen-Fluoreszenz Aufnahmen von fluoreszenzstarken Proben durch ein Faserbündel ermöglicht. Diese Arbeit zeigt die Machbarkeit der Zwei-Photonen-Endoskopie und zeigt Möglichkeiten zur Optimierung, um zukünftig auch einen klinischen Einsatz zu ermöglichen. Mit der verwendeten Mikrooptik wurde eine zelluläre Auflösung von (3,5 ± 0,3) μm lateral und (5,3 ± 0,1) μm axial erreicht. Durch die Verwendung eines Referenzsystem aus Mikroskopobjektiven im Austausch der Mikrooptik konnte gezeigt werden, dass vor allem die laterale Auflösung noch verbessert werden konnte. Entscheidend ist hierfür eine hohe distale numerische Apertur. Der zukünftige Einsatz von verbesserten Mikrooptiken kann somit die Auflösung noch erhöhen. Aktuelle Forschungsergebnisse legen nahe, dass diese zukünftig auch kommerziell erhältlich sein könnten. Zusätzlich wurde eine variable Fokussiereinheit auf Basis eines Drahts aus einer Formgedächtnislegierung (Nitinol) realisiert. Damit konnte der Abstand zwischen Mikrooptik und Gewebeoberfläche verstellt werden. Durch Applikation eines maximalen Stromes bis zu 385mA kontrahiert der Nitinoldraht um ca. 1,8%. Ab dem minimalen Aktivierungsstrom von 330 mA konnte ein linearer Zusammenhang zwischen der Stromstärke und der Verschiebung beobachtet werden. Eine Änderung der Stromstärke in Schritten von 16–12 mA. ermöglicht eine Verschiebung von 20–10 μm. Eine Herausforderung ist die Erzeugung und Detektion der Fluoreszenzsignale aus dem Gewebe zur Erzeugung von aussagekräftigen Zwei-Photonen-Bildern. Die Leistungsverluste der Laserenergie im Anregungsweg und die Verluste des Fluoreszenzsignals im Detektionsweg müssen hierfür möglichst gering gehalten werden. Die größten Verluste im Anregungsweg gibt es durch den Gitterkompressor, durch die Fasereinkopplung und durch die Mikrooptik. Trotzdem ist die hier erreichte Gesamttransmission von 18% (λ0 = 800 nm) ohne Gitterkompressor vergleichbar mit der erster Zwei-Photonen-Mikroskope. Durch Optimierung einzelner Komponenten, vor allem des Gitterkompressors und der Mikrooptik, ist zukünftig eine bessere Transmission möglich. Die Erzeugung von Zwei-Photonen-Fluoreszenzsignalen wird auch durch die Pulsverbreiterung innerhalb des Faserbündels verringert. Sowohl lineare als auch nichtlineare Effekte verbreitern spektral und zeitlich die Pulse. Die Untersuchung dieser Effekte konnte zeigen, dass mit Hilfe eines Gitterkompressors die zeitliche Pulsdauer am Faserausgang bis auf ca. 10 fs wiederhergestellt werden konnte und damit die Zwei-Photonen-Fluoreszenzanregung verbessert werden konnte. Trotzdem konnten bereits bei den hier verwendeten Leistungen (5–65 mW) auch nichtlineare Effekte beobachtet werden. Dazu kommt, dass bei höheren Laserintensitäten keine Transmission mehr möglich ist und die Eigenfluoreszenz der einzelnen Fasern des Faserbündels die Fluoreszenzsignale aus dem Gewebe überlagert. Zur Beseitigung der hier gezeigten Limitierungen durch die Mikrooptik und durch das Faserbündel sind weitere Optimierungen nötig um den Einsatz eines Zwei-Photonen-Endoskops in vivo zu ermöglichen. Durch den nichtlinearen Zusammenhang zwischen der Photonenintensität und der Fluoreszenzanregung sind diese Limitierungen gravierender als bei einer normalen Fluoreszenzanregung. Eine Reduzierung der Spitzenintensitäten der Laserpulse bei einem gleichzeitigen Erhöhen der Laserrepetitionsrate könnte zukünftig die nichtlinearen Effekte reduzieren und die effektive Laserleistung am Faserausgang erhöhen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 18/19
Etablierung und Evaluierung eines molekularen Wurmdiagnostikverfahrens (Real-Time-PCR) in Tansania

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 18/19

Play Episode Listen Later May 21, 2015


Hintergrund: Von den weltweit mehr als zwei Milliarden mit Würmern (griech. Helminthen) infizierten Menschen sind schätzungsweise etwa 22 Millionen zusätzlich mit HIV koinfiziert und verbleiben durch die krankheitsbedingte Produktivitäts- und Leistungsminderung in einer Abwärtsspirale. Trotz großangelegter globaler Versuche, Helminthosen mit präventiven Massenbehandlungen einzudämmen, gibt es weiterhin großen Forschungs- und Handlungsbedarf. Eine sensitivere und zuverlässigere Diagnostikmethode als die klassische Stuhlmikroskopie ist dringend erforderlich. Problemstellung und Zielsetzung: Etablierung eines molekularen Wurmdiagnostikverfahrens (Multiplex-Real- Time-Polymerase Chain Reaction) am Mbeya Medical Research Center (MMRC)-Labor im einkommensschwachen Tansania zur Detektion verschiedener Helminthen im Stuhl und direkter Vergleich mit der Merthiolat- Jod-Formalin (MIF)-Mikroskopie sowie dem derzeitigen Diagnostikgoldstandard der Kato-Katz (KK)-Mikroskopie. Klärung der Frage, ob das neue Verfahren wirklich sensitiver und für weitere Untersuchungen einsetzbar ist. Prüfung der Wirksamkeit von zur Massenbehandlung eingesetzten Medikamenten und Untersuchung von Besonderheiten bei HIV-Helminthen-koinfizierten Probanden mit Hilfe des neuen Verfahrens. Material und Methoden: Zwischen 2008 und 2011 Probensammlung, Erhebung der HI-Viruslast und CD4-Zellzahl, Stuhlmikroskopie nach der MIF- und KK-Methode, sowie Etablierung, Validierung, Durchführung und Evaluierung der Real-Time-PCR (RT-PCR) für 179 Probanden in Mbeya, Tansania. 118 Studienteilnehmer wurden nach einer Einmalgabe von 400 mg Albendazol gegen intestinale Nematoden und 40 mg/kg Praziquantel gegen Schistosomeninfektionen mit der Mikroskopie sowie der RT-PCR nachuntersucht. Zusammenfassung 108 Ergebnisse: Bei fast allen Probanden lagen laut WHO-Klassifikation leichte Infektionen vor. Eine externe sowie interne Qualitätskontrolle bestätigte die Validität unserer RT-PCR. Der Methodenvergleich ergab eine hohe Diskordanz zwischen den einzelnen Verfahren. Die RT-PCR wies 2,2 mal mehr Infektionen als MIF und 1,4 mal mehr Infektionen als KK nach. Bei etwa 17% der untersuchten Probanden lag ein Polyparasitismus vor. Mit der RT-PCR wurden mehr Mischinfektionen nachgewiesen. Ein niedriger Cycle Threshold (CT) korrelierte mit einer hohen Eizahl und umgekehrt. Die Infektionsstärke bei HIV-Wurmkoinfizierten Probanden unterschied sich nicht von der HIV-negativer Probanden. HIV-Positive schieden trotz ihrer Immunschwäche nicht weniger Schistosomeneier am Tag aus als Nichtinfizierte. Ein Polyparasitismus lag bei HIV-Positiven (37% Mischinfektionen) nicht häufiger als bei HIV-Negativen (43% Mischinfektionen) vor. Schlussfolgerung und Ausblick: Die RT-PCR erwies sich als wesentlich sensitiver als die Mikroskopie bei der Detektion von Hakenwürmern und Schistosomeninfektionen; nicht aber bei Askarideninfektionen. Als alleinig eingesetztes Diagnostikverfahren am MMRC hat sie daher keinen Bestand. Sie wird für zukünftige Studien als sensitives Zweitverfahren, das Hakenwurm-, Schistosomen- und Mischinfektionen besser nachweisen kann, neben der klassischen Kato-Katz-Mikroskopie Anwendung finden. Durch diese Arbeit konnte der Grundstein für die Diagnostik zukünftiger Studien am MMRC gelegt werden, die im Rahmen des IDEA-Projektes, einer großen afrikanisch-europäischen Forschungsinitiative, die unter anderem wurminduzierte Immunantworten in Bezug auf Koinfektionen mit HIV, Malaria und Tuberkulose und den Einfluss von Würmern auf Impfstoff-induzierte Immunantworten untersucht, durchgeführt werden. Es sollten weitere Studien zur Sensitivität der verwendeten RT-PCR-Protokolle an anderen Standorten durchgeführt werden. In Mbeya wurde das Verfahren nach meiner Abreise erfolgreich weitergeführt, sodass inzwischen fast 1000 Stühle mit der RT-PCR untersucht worden sind.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05

Der Ursprung und die Entwicklung unseres Universums zeigt sich gleichermaßen in der Raumzeit selbst wie in den Strukturen, die in ihr entstehen. Galaxienhaufen sind das Ergebnis hierarchischer Strukturbildung. Sie sind die massivsten Objekte, die sich im heutigen Universum bilden konnten. Aufgrund dieser Eigenschaft ist ihre Anzahl und Struktur hochgradig abhängig von der Zusammensetzung und Evolution des Universums. Die Messung der Anzahldichte von Galaxienhaufen beruht auf Katalogen, die nach einer beobachtbaren Größe ausgewählt werden. Die Anwendung einer Massen-Observablen-Relation (MOR) erlaubt es, die beobachtete Anzahl als Funktion der Observablen und der Rotverschiebung mit Vorhersagen zu vergleichen und so kosmologische Parameter zu bestimmen. Man kann jedoch zu Recht behaupten, dass diese Messungen noch nicht präzise im Prozentbereich sind. Hauptgrund hierfür ist das unvollständige Verständnis der MOR. Ihre Normalisierung, die Skalierung der Observablen mit Masse und Rotverschiebung und die Größe und Korrelation von intrinsischen Streuungen muss bekannt sein, um Anzahldichten korrekt interpretieren zu können. Die Massenbestimmung von Galaxienhaufen durch die differenzielle Lichtablenkung in ihrem Gravitationsfeld, i.e. durch den so genannten schwachen Gravitationslinseneffekt (weak lensing), kann erheblich hierzu beitragen. In dieser Arbeit werden neue Methoden und Ergebnisse solcher Untersuchungen vorgestellt. Zu ersteren gehören, als Teil der Datenaufbereitung, (i) die Korrektur von CCD-Bildern für nichtlineare Effekte durch die elektrischen Felder der angesammelten Ladungen (Kapitel 2) und (ii) eine Methode zur Maskierung von Artefakten in überlappenden Aufnahmen eines Himmelsbereichs durch Vergleich mit dem Median-Bild (Kapitel 3). Schließlich ist (iii) eine Methode zur Selektion von Hintergrundgalaxien, basierend auf deren Farbe und scheinbarer Magnitude, die eine neue Korrektur für die Kontamination durch Mitglieder des Galaxienhaufens einschließt, im Abschnitt 5.3.1 beschrieben. Die wissenschaftlichen Hauptergebnisse sind die folgenden. (i) Für den Hubble Frontier Field-Haufen RXC J2248.7-4431 bestimmen wir Masse und Konzentration mittels weak lensing und bestätigen die durch Röntgen- und Sunyaev-Zel'dovich-Beobachtungen (SZ) vorhergesagte große Masse. Die Untersuchung von Haufengalaxien zeigt die Abhängigkeit von Morphologie und Leuchtkraft sowie Umgebung (Kapitel 4). (ii) Unsere Massenbestimmung für 12 Galaxienhaufen ist konsistent mit Röntgenmassen, die unter Annahme hydrostatischen Gleichgewichts des heißen Gases gemacht wurden. Wir bestätigen die MOR, die für die Signifikanz der Detektion mit dem South Pole Telescope bestimmt wurde. Wir finden jedoch Diskrepanzen zur Planck-SZ MOR. Unsere Vermutung ist, dass diese mit einer flacheren Steigung der MOR oder einem größen-, rotverschiebungs- oder rauschabhängigen Problem in der Signalextraktion zusammenhängt (Kapitel 5). (iii) Schließlich zeigen wir, durch die Verbindung von Simulationen und theoretischer Modellierung, dass die Variation von Dichteprofilen bei fester Masse signifikant zur Ungenauigkeit von Massenbestimmungen von Galaxienhaufen mittels weak lensing beiträgt. Ein Modell für diese Variationen, wie das hier entwickelte, ist daher wichtig für die genaue Bestimmung der MOR, wie sie für kommende Untersuchungen nötig sein wird (Kapitel 6).

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
Klinischer Krankheitsverlauf der infektiösen Anämie der Schweine und Ausscheidungswege von Mycoplasma suis nach experimenteller Infektion splenektomierter Schweine mit dem Feldstamm K323/13

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07

Play Episode Listen Later Jan 31, 2015


Mycoplasma suis gehört zu der Gruppe der hämotrophen Mykoplasmen und ist Erreger der infektiösen Anämie des Schweins (IAP). Der klinische Krankheitsverlauf und die Inkubationszeit der IAP sind abhängig von der Virulenz des Stammes, der Empfänglichkeit des Wirtstieres und der Infektionsdosis des Erregers (HOELZLE, 2008; STADLER et al., 2014). In der vorliegenden Arbeit wurden der klinische Verlauf und die labordiagnostischen Parameter von splenektomierten Schweinen nach experimenteller Infektion mit einem aktuellen M. suis-Feldstamm K323/13 untersucht. Mittels quantitativer LightCycler® MSG1-PCR erfolgte die Detektion und Quantifizierung der M. suis-DNA im Blut der splenektomierten, infizierten Tiere. Zusätzlich wurden Urinproben, Nasen-, Speichel- und Vaginalsekrettupfer- und Gewebestanzproben sowie Gewebeproben von Leber, Klein- und Großhirn auf M. suis-DNA untersucht. Die humorale Immunantwort nach M. suis-Infektion wurde mittels rHspA1-ELISA evaluiert. Bei allen Tieren wurde eine pathologisch-anatomische und pathologisch-histologische Untersuchung durchgeführt. Um den Einfluss der Splenektomie auf die klinischen und labordiagnostischen Parameter zu ermitteln, wurden zudem splenektomierte, nicht infizierte Tiere als Kontrollgruppe verwendet. Sechs Tage p.i. zeigten alle splenektomierten, infizierten Tiere hochgradige Symptome einer akuten IAP in Form von Ikteroanämie, hohem Fieber und Apathie. Darüber hinaus wurden erstmals nach experimenteller Infektion mit M. suis zentralnervöse Symptome beobachtet. Bis zum achten Tag p.i. verendeten sechs der sieben infizierten Tiere bzw. wurden aufgrund einer hochgradigen, lebensbedrohlichen Hypoglykämie getötet. Labordiagnostisch wurde zudem ein massiver Anstieg der Bilirubin- und der Harnstoffkonzentration im Blut festgestellt. Ein infiziertes Tier zeigte einen chronischen Krankheitsverlauf mit wiederholten Phasen einer akuten IAP und hämorrhagischer Diathese. Eine humorale Immunantwort ließ sich mittels eines rHspA1-ELISAs ab dem 42. Tag p.i. detektieren. Bei einzelnen splenektomierten, infizierten Tieren konnte M. suis-DNA sowohl in Nasensekrettupfern als auch in Urinproben nachgewiesen werden. In der pathologisch-anatomischen und pathologisch-histologischen Untersuchung konnten bei den splenektomierten, infizierten Tieren hochgradige Veränderungen einer IAP erhoben werden. Zusätzlich wurde eine für M. suis bisher noch nicht beschriebene peripherlobuläre Leberzelldegenerationen festgestellt. Die splenektomierten, nicht infizierten Tiere zeigten weder klinische Anzeichen noch pathologisch-anatomische oder pathologisch-histologische Veränderungen einer IAP. Die labordiagnostischen Blutparameter verliefen über den gesamten Versuchszeitraum von 90 Tagen innerhalb des Referenzbereichs.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 17/19
Aufbau eines Systems zur Untersuchung peroxisomaler Protein-Protein-Interaktionen in der lebenden Zelle mittels Biolumineszenz Resonanzenergietransfer

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 17/19

Play Episode Listen Later May 15, 2014


Proteine werden durch Gene kodiert und sind die Vermittler biologischer Strukturen und Prozesse. Veränderungen der Gene haben einen Einfluss auf die Struktur und Funktion der Proteine. Zur Erfüllung ihrer Aufgaben bilden Proteine über Protein-Protein-Interaktionen (PPI) Komplexe oder Funktionseinheiten. Diese zu kennen, ist wesentlich für das Verständnis der Funktion einzelner Proteine im Gesamtkontext und um den Einfluss von genetischer Variation auf die Proteinfunktion im Rahmen angeborener Erkrankungen besser einordnen zu können. Bislang werden PPI einerseits v.a. mit Hochdurchsatz-Verfahren untersucht, bei welchen die Proteine nicht in ihrer biologischen Umgebung exprimiert oder in denaturierter Form verwendet werden; dadurch ist häufig mit Artefakten zu rechnen. Andererseits erfordern die Verfahren zur in vivo-Untersuchung biologisch relevanter Interaktionen einen hohen Aufwand. Wir beschreiben in dieser Arbeit den Aufbau und die Etablierung eines Verfahrens zur in vivo Hochdurchsatz-Untersuchung von PPI. Dieses beruht auf der Technologie des Biolumineszenz Resonanzenergietransfers (BRET), welche durch Optimierung des Prozesses zu improved BRET (iBRET) hinsichtlich Effizienz, Durchsatz und Validität verbessert wurde. Dabei wurde die Konstrukt-Klonierung durch Einsatz eines auf Rekombination basierenden Klonierungssystems beschleunigt und Effizienz sowie Durchsatz der Transfektion von eukaryonten Zellen mit Hilfe eines Elektroporationsverfahrens im 96-Well Format optimiert. Bei der Detektion wurde ein Substrat verwendet, welches nur von lebenden Zellen verarbeitet werden kann. Die Signalmessungen erfolgten automatisiert an einem Multiwell Plattenlesegerät. Die Auswertung wurde durch eine bioinformatische Methode zur Berechnung von Schwellenwerten für positive Interaktionen verbessert. Mit dieser Technologie konnte die Homodimerisierung von PEX26 erstmals beschrieben und charakterisiert werden. PEX26 ist ein Membranprotein des Peroxisoms, das am Import von Matrixporteinen in das Peroxisom beteiligt ist. Bei genetischen PEX26-Defekten kommt es zum Auftreten von sog. peroxisomal ghosts – dies sind Membrankompartimente ohne Matrixinhalt. Klinisch kommt es v.a. zu Erkrankungen aus dem Zellweger-Spektrum, die sich mit einem unterschiedlichen Schweregrad manifestieren. Anhand von Trunkierungs-Konstrukten identifizierten wir mittels iBRET die zwei Interaktionsdomänen für die Homodimerisierung am C-Terminus des Proteins in der Umgebung der Transmembrandomäne bzw. in der peroxisomalen Matrix. Diese liegen abseits der für den Matrixprotein-Import essentiellen Bindedomäne für PEX6, der sich im zum Zytosol gerichteten N-terminalen Abschnitt von PEX26 befindet. Neben dem Volllängeprotein PEX26 wurde auch die Splice-Variante PEX26Δex5 beschrieben, welcher das Exon 5 und damit die Transmembrandomäne fehlt. Diese Variante ist im Endoplasmatischen Retikulum (ER) und im Zytoplasma lokalisiert. Wir zeigten, dass auch sie Homodimere bildet und zudem das Volllängeprotein PEX26 bindet. Sie ist in der Lage, das Fehlen von funktionellem PEX26 in PEX26-Defektzelllinien zu etwa 50% zu komplementieren, obwohl das Protein nicht am Peroxisom lokalisiert ist. Dies lässt die Schlussfolgerung zu, dass sich PEX26 für den Matrixprotein-Import nicht zwingend am Peroxisom befinden muss. Die physiologische Funktion der Splice-Variante ist noch nicht aufgeklärt. Mittlerweile ist bekannt, dass auch PEX26 anteilig im ER lokalisiert ist und es mehren sich die Hinweise, dass es aufgrund der Herkunft der Peroxisomen aus dem ER bei deren Biogenese und Homöostase eine Rolle spielt. Wir führten eine Literaturrecherche nach Interaktionspartnern von PEX26 und seinem homologen Protein Pex15p aus der Hefe durch, fanden hier jedoch keinen Hinweis auf weitere Funktionsbereiche von PEX26. Klar ist jedoch, dass sich die unterschiedliche Manifestation der Defekte bei den Patienten nicht allein aus seiner Rolle beim Import von Matrixporteinen ableiten lässt. Basierend auf der vorliegenden Arbeit könnten Erkenntnisse aus der derzeit in unserer Arbeitsgruppe umgesetzten Untersuchung des peroxisomalen Interaktoms zu einem besseren Verständnis der Funktion von PEX26 und der Fehlfunktion bei PEX26-Defekt beitragen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 16/19
Ein am Schweinemodell optimierter Algorithmus zur bildgebenden Detektion inkorporierter Päckchen von Drogenkurieren (Bodypackern)

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 16/19

Play Episode Listen Later Mar 20, 2014


Thu, 20 Mar 2014 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/16928/ https://edoc.ub.uni-muenchen.de/16928/1/Ziegeler_Edvard.pdf Ziegeler, Edvard

Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 05/06

Diese Arbeit beschäftigt sich mit der Erforschung von Yersinia (Y.) pestis in historischem Skelettmaterial. Die Disziplin Paläomikrobiologie verspricht, Beweise zu liefern, die durch die Erforschung moderner Pathogene nicht möglich wären und dadurch möglicherweise das Verständnis zu historischen Infektionen zu verändern (Tsangaras & Greenwood 2012). Yersinia pestis als der Erreger der Pest wird für drei Pandemien der Menschheitsgeschichte verantwortlich gemacht: die Pest der Moderne, den Schwarzen Tod im 14. und den nachfolgenden Jahrhunderten sowie die Pest des Justinian. Diese Dissertation beschäftigte sich mit dem Nachweis und der Typisierung des Pest-Erregers in historischen Individuen verschiedener Fundorte aus den beiden letztgenannten Pandemien. Dazu wurden methodisch zwei Wege beschritten: Der Nachweis des Erregers auf molekulargenetischer Ebene durch die Detektion verschiedener Loci und ein davon unabhängiger alternativer Weg zur Detektion des Pathogens über den Nachweis seines Kapselproteins. Letzten Weg zu beschreiten, ist in dieser Arbeit nicht geglückt. Dafür waren die auf Polymerase-Ketten-Reaktion (PCR) beruhenden Ansätze umso erfolgreicher. Für die Analysen standen Individuen von vier Fundorten in Deutschland und der Schweiz aus unterschiedlichen Zeitstellungen zur Verfügung. Die Skelette des Gräberfelds Aschheim-Bajuwarenring datieren ins 6. Jahrhundert, die Individuen aus Manching-Pichl und Basel ins 14. bis 17. Jahrhundert und die skelettalen Überreste von drei Menschen aus Brandenburg in die Zeit des Dreißigjährigen Kriegs. Nach der Erprobung eines für das zur Verfügung stehende Material optimal geeigneten Extraktions-Protokolls und der Etablierung neuer PCR-Protokolle wurden die Verfahren auf Extrakte alter DNA (aDNA) angewandt. Dabei wurde zur Generierung authentischer Ergebnisse im neu etablierten aDNA-Labor des ArchaeoBioCenters der LMU gearbeitet, das die maximalen Möglichkeiten der Verhinderung von Kontaminationen bereitstellt. Es ist in dieser Arbeit gelungen, bereits publizierte Pest-Nachweise in Skeletten aus Aschheim und Manching-Pichl zu reproduzieren und damit zu validieren. Darüber hinaus konnte in Individuen eines weiteren, bisher molekulargenetisch nicht untersuchten Fundorts in Brandenburg die Anwesenheit der Pest gezeigt werden. Durch tiefer gehende molekulargenetische Untersuchungen anderer Loci sowie Single Nucleotide Polymorphismen (SNP) wurden die jeweiligen Erreger in einen bereits existierenden phylogenetischen Stammbaum eingeordnet. Durch den Beweis der Anwesenheit der Pest in Aschheim im 6. Jahrhundert wurde das Bakterium Yersinia pestis eindeutig als Verursacher der ersten Pandemie identifiziert – eine Assoziation, die nach anfänglichem Konsens zuletzt in Frage gestellt worden war. Spekulationen um das ätiologische Agens können jetzt definitiv eingestellt werden. Die Ergebnisse dieser Arbeit beenden auch weitere Diskussionen bezüglich des Biovars des Erregers während der ersten Pandemie. Durch Typisierungen wurde gezeigt, dass es sich bei diesem Erreger um einen anderen handelt als den, der für die zweite oder dritte Pandemie verantwortlich ist. Der Nachweis und die Typisierung des Erregers im Zuge des Schwarzen Todes in Manching-Pichl und Brandenburg schließt die bis dato existierende genauer charakterisierte Detektionslücke in Deutschland. Bisher waren nur in England, Frankreich und den Niederlanden der bzw. die Erreger durch zwei Arbeitsgruppen aus Mainz und Tübingen/Kanada glaubhaft detektiert worden. Der in Deutschland identifizierte Erreger passt dabei zu den Ergebnissen der anderen Fundorte in Europa. Zudem scheint es in Deutschland über einen längeren Zeitraum nur einen Erregertyp gegeben zu haben, da die Ergebnisse der Individuen aus Brandenburg und Manching-Pichl in allen untersuchten Loci genau übereinstimmten. Obwohl aufgrund ungenügenden Quellenmaterials nicht exakt belegbar scheint der Weg der Pest zu diesen beiden letztgenannten Fundorten in Deutschland ein anderer gewesen zu sein als der zu den anderen europäischen Fundorten.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Design, characterization and functionalization of DNA materials

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05

Play Episode Listen Later Nov 19, 2013


DNA wird seit einigen Jahren zur Herstellung von Strukturen mit Nanometer Präzision genutzt. Mittels der am häufigsten verwendeten Techniken, “Tile” und “ DNA Origami”, wurden verschiedenste DNA Objekte wie unter anderem DNA Kristalle, DNA Nanotubes, gebogene und verdrehte Zylinder und selbst komplexe 3D Strukturen hergestellt. Aufgrund der einzigartigen Kontrolle über die räumliche Anordnung von DNA Molekülen wird DNA Nanotechnologie heute in verschiedensten Forschungsgebieten wie struktureller Biologie, Nanomedizin, Einzel-Molekül Detektion oder Plasmon-Forschung verwendet. In dieser Arbeit wird systematisch die Biege-Steifigkeit (Persistenz Länge) von DNA Nanotubes (HX-Tubes) als Funktion des Umfangs untersucht. Dazu wurden mikrometer- weite thermische Nanotube Fluktuationen mittels Fluoreszenz Mikroskopie analysiert (A,B). Zusätzlich wurden intrinsische und thermische Nanotube Verdrehungen durch Anbindung von Gold-Nanopartikeln (AuNP) und Transmissions Elektronen Mikroskopie (TEM) sicht- bar gemacht (C). Aus diesen Messungen ergibt sich, dass die Peristenz Länge sich pro- portional zum Flächenträgheitsmoment des Nanotube Querschnitts verhält, intrinsische Verdrehungen nur auftreten, wenn sie durch die DNA Sequenzen vorgegeben sind und dass thermische Verdrehungen u ̈ber sehr viel kürzere Distanzen als die Persistenz Länge auftreten. Des weiteren wurde ein DNA Nanotube Elastizitäts-Modell hergeleitet, das Ver- formungen von doppelstängiger DNA sowie von Cross-Overn berücksichtigt und gezeigt, dass alle Messungen in guter Übereinstimmung mit dem Modell sind. Um ein besseres Verständnis für den Zusammenhang zwischen Persistenz Länge und dem Aufbau von DNA Nanotubes auf der Ebene einzelner DNA Moleküle zu gewinnen wurden die thermischen Verbiegungen von verschiedenen sechs-Helix-Tubes mit unterschiedlichen DNA Architekturen untersucht. Die Ergebnisse zeigen, dass das Anordnen von mehreren Cross-Overn innerhalb einer Tube Querschnittsfläche sowie die Verringerung der Dichte von DNA Cross-Overn die Persistenz Länge verringert. Die Ergebnisse werden im Rahmen des zuvor hergeleiteten Elastizitäts Modell diskutiert. Es wurden verschiedene Strategien zur Herstellung von gebogenen und verdrehten DNA Nanotubes entwickelt. Biegung und Drehung wurden durch gezielte Einfügung oder Auslassung von Basenpaaren, speziell programmierten Faltungswegen, oder spezielle Anordnung von komplementären DNA Sequenzen innerhalb der Nanotubes kontrolliert. Nanotube Konturen wurden mittels TEM, Rasterkraftmikroskopie (AFM), UV-Absorption, sowie stochastischer optischer Rekonstruktionsmikroskopie (STORM) charakterisiert. Die Mes- sungen zeigen, dass gebogene Nanotubes meist geschlossene Ringe bilden und Nanotubes mit Biegung und Drehung helix-förmig sind (D). Es wird gezeigt, dass Anbindung des organischen Farbstoffs Cy3 an einen oder mehrere DNA Stränge der HX-Tubes ebenfalls zur Ausbildung von Helix-förmigen Nanotubes führt (E). Ganghöhe und Radius der Nanotubes mit Cy3 Anbindung wurden systematisch in Abhängigkeit der Cy3-Bindungsposition gemessen und das Ergebnis mit einem einfachen Cy3-DNA Bindungsmodell verglichen. Des weiteren wurden die optischen Eigenschaften von Cy3 Moleku ̈len, gebunden an HX-Tubes mittels Fluoreszens-Polaristations-Mikroskopie (FPM) und Fluoreszenslebensdauer Messungen untersucht. Es wurde ein Zusammenhang zwischen Anisotropie (gemessen mittels FPM) und der Orientierung der Cy3 Dipol Achse hergeleitet. Die beobachtete Anisotropie entspricht in diesem Modell einem Winkel von ca. 60° zwischen Cy3-Dipol und DNA Achse. Es wird gezeigt, dass die Ausbildung von fluoreszenten Silber Clustern, bestehend aus wenigen Atomen (Ag-DNA) innerhalb von einzelsträngigen “DNA hairpins” an der Oberfläche von DNA Nanotubes stattfinden kann (F). DNA Nanotubes mit Ag-DNA Clustern sind fluoreszent und konnten mittels Fluoreszenz Mikroskopie sichtbar gemacht werden. Als Nebenprodukt der Ag-DNA Synthese wurde Aggregation von DNA Nanotubes beobachtet. Es wurden zwei neue Methoden zur Weiterentwicklung der DNA Origami Methode untersucht: 1) Kristallisierung von rechteckigen DNA Origami Strukturen zu 1D Ketten und 2D Gittern (G) und 2) Anbindung von “Tiles” an einer DNA origami “Schablone”. Die Faltungs-Ausbeute beider Strategien wurde mittels Gel Elektrophorese, TEM und AFM charakterisiert. Schließlich wird im letzten Kapitel eine Sammlung von Matlab Programmen vorgestellt, die benutzt wurden um DNA Nanotube Kontouren automatisch aus Bild Daten auszulesen, Persistenz Länge zu bestimmen, polarisierte Fluoreszenz Bilder auszuwerten und DNA Sequenzen zu generieren.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 16/19
Evaluation der Pathogenität kurzer Repeat-Expansionen im DM2-Genlokus der Myotonen Dystrophie Typ 2

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 16/19

Play Episode Listen Later Oct 24, 2013


Die Myotone Dystrophie Typ 2 (DM2) gehört, zusammen mit der Myotonen Dystrophie Typ 1 (DM1), zu den häufigsten erblichen Muskelerkrankungen des Erwachsenenalters. Sie wird autosomal dominant vererbt, ihre Inzidenz liegt bei 1:10.000 - 1:20.000. Die genetische Ursache der Myotonen Dystrophie Typ 2 ist ein abnorm expandiertes Tetranukleotid-CCTG-Repeat im Intron 1 des Zinkfinger-9-Gens (ZNF-9) auf Chromosom 3q21.3. Das kleinste, bisher in der Literatur beschriebene, Krankheitsallel zeigte eine Expansion von 75 CCTGs. Im Regelfall haben DM2-Patienten ein expandiertes Allel mit mehr als 5000 CCTG-Repeats. Die CCTG-Repeats akkumulieren in sog. ribonukleären Foci im Zellkern und im Zytoplasma. Dadurch kommt es zu Störungen in RNA-Prozessierungs- und Metabolisierungsvorgängen, wie dem alternativen Spleißen oder der Proteintranslation. Die vorliegende Arbeit beschreibt zum ersten Mal eine Phänotyp-Genotyp-Analyse von DM2-Patienten mit einem Repeat, kürzer als 75 CCTGs, sowie die Evaluation der Pathogenität dieser kurzen Repeats. Die Evaluation der Pathogenität geschah mithilfe verschiedener Nachweismethoden in Mus-kelbioptaten und in der genomischen DNA. Der Repeat-Nachweis im Muskelbioptat wurde einerseits immunhistochemisch mit monoklonalen Antikörpern gegen das CUG Bindungspro-tein 1 (CUGBP1) und gegen die Muscleblind-like Proteine 1-3 (MBNL1-3) geführt, anderer-seits mittels der Fluoreszenz in situ Hybridisierungstechnik unter Verwendung einer DNA-Sonde. Zur spezifischeren Detektion, der für die DM2-Erkankung typischen Repeat-Expansion, wurde eine PCR und eine Triplet-Repeat-Primed PCR angeschlossen. Des Weite-ren fand eine Sequenzierung der Blutproben der Patienten statt, zur möglichst genauen Analy-se der Repeat-Größe. In der vorliegenden Arbeit konnte der Repeat-Nachweis in den Muskelbioptaten mit den be-schriebenen Methoden bei allen untersuchten Patienten erfolgreich geführt werden. In den PCRs waren erhöhte Produkte nachweisbar. Die angeschlossene TP-PCR zeigte eindeutige Prämutationsmuster und die Sequenzierung der genomischen DNA ergab eine reproduzierbare Repeatlänge zwischen 32 und 36 CCTGs. In der Zusammenschau mit dem erhobenen Phä-notyp sind somit bereits CCTG-Repeat-Expansionen unter 75 CCTGs pathogen. Zur funktio-nellen Absicherung der Pathogenität wurde ergänzend eine Repeat-Untersuchung im Muskel durchgeführt und das für den Pathogenitätsnachweis etablierte CLCN1 splicing assay. Auch hier bestätigte sich die funktionale Relevanz dieser Mini-Repeat-Expansionen. Somit kann aufgrund der Untersuchungen dieser Arbeit die untere Grenze der als pathogen anzusehenden Repeat-Expansion bei der Myotonen Dystrophie Typ 2 auf eine Repeat-Anzahl von 35 CCTGs festgesetzt werden, die sich mit der von Normalallelen nahezu überlappt. Daraus ergeben sich bedeutende diagnostische und klinische Konsequenzen für Patienten mit neuromuskulären Erkrankungen und dem Verdacht auf eine Myotone Dystrophie Typ 2.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19
Kontrastmittelverstärkter Ultraschall zur Detektion von Endoleaks im Follow-up nach endovaskulärer Stentversorgung des infrarenalen Bauchaortenaneurysmas

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19

Play Episode Listen Later Jul 18, 2013


Thu, 18 Jul 2013 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/15939/ https://edoc.ub.uni-muenchen.de/15939/1/Guertler_Verena.pdf Gürtler, Verena

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19
Identifizierung und funktionelle Charakterisierung von Geschmacksrezeptoren in Spermien

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19

Play Episode Listen Later May 23, 2013


Ein bislang nur wenig verstandenes chemo¬sensorisches Zellsystem stellen Spermien dar, die im weib¬lichen Genital¬trakt komplexe Gemische ganz verschiedener Liganden wahr-nehmen müssen, um ihre für eine erfolgreiche Befruchtung essentiellen Aufgaben erfüllen zu können. Dazu gehören u. a. ein sekundärer Reifungsprozess (Kapazitierung), die Weg¬findung zur Eizelle im Eileiter und die Akrosom¬reaktion zur enzymatischen Auflösung der Glyko¬protein¬matrix (Zona pellucida) der Oocyte. Die Sensor¬moleküle auf der Oberfläche des Spermiums, die eine Erkennung bestehender Konzentrations-gradienten von Amino¬säuren, Kohlen¬hydraten, Hormonen, von verschiedensten Ionen und Protonen im luminalen Milieu des weiblichen Genital¬trakts sowie der Kohlenhydrat-reichen Zona pellucida ermöglichen, sind jedoch trotz ihrer Bedeutung für eine erfolgreiche Fertilisation weitgehend unbekannt. Geschmacks¬rezeptoren repräsentieren spezialisierte Erkennungs¬moleküle, die in Sinnes-zellen der Zunge die präzise Detektion eines breiten Spektrums chemisch sehr diverser Geschmacks¬stoffe ermöglichen, welche auffällige Ähnlichkeiten mit den potentiellen Liganden in der wässrigen Umgebung von Spermien im weiblichen Genital¬trakt aufweisen. Interessanterweise werden diese Rezeptorproteine aber nicht nur in Geschmacks¬sinneszellen, sondern auch in chemosensorischen Zellen einer Vielzahl extra-oraler Gewebe exprimiert. In der vorliegenden Arbeit wurde deshalb mit Hilfe biochemischer, molekular- und zell-biologischer Techniken sowie mit reproduktions¬biologischen Methoden und unter Verwendung Geschmacks¬rezeptor-defizienter Mäuse der Frage nachgegangen, ob Rezeptor¬moleküle des Geschmacks¬systems als Kandidaten für chemische Sensor-moleküle von Spermien in Betracht kommen. Dabei wurde ein Detektions¬molekül für saure Geschmacksstoffe, der PKD2L1, immun-cyto¬chemisch im Hoden der Maus und in reifen murinen Spermien nach¬gewiesen. Funktionell könnte dieser im Flagellum von Spermien exprimierte Ionenkanal an der Registrierung der verschiedenen Protonen¬konzentrationen im Milieu des weib¬lichen Genital¬trakts beteiligt sein. Weiterhin konnte eine Expression von gustatorischen GPCRs der Tas1r-Familie (süß/umami) und Tas2r-Familie (bitter), in männ¬lichen Reproduktions¬organen und in reifen Spermien gezeigt werden. Zudem wurden Hinweise auf die Expression der gustatorischen G Protein α Untereinheit Gustducin, die in Geschmacks¬sinnes¬zellen an der Signal¬transduktion dieser beiden Rezeptor¬familien beteiligt ist, im männlichen Reproduktions¬system erbracht. Im Einzelnen konnten mit der RT-PCR-Technik Transkripte von 28 der insgesamt 35 Mitglieder der großen Familie der murinen Bitter¬rezeptoren (Tas2rs) aus Hoden-gewebe amplifiziert werden. Die Bedeutung der Expression von Bitter¬rezeptoren für die Reproduktion wurde exemplarisch anhand einer Gen-defizienten Maus für den Tas2r131 unter¬sucht. Bei dieser Knockin-Maus¬linie war die kodierende Rezeptor¬sequenz durch eine GFP-Expressions¬kassette ersetzt worden, so dass das Maus¬modell gleich-zeitig auch eine Bestätigung der Expression des Tas2r131 in späten Keim¬zell¬stadien der Spermato¬genese ermöglichte. Bei der Fertilitätsanalyse Tas2r131-defizienter Tiere waren unter Labor-Zucht¬bedingungen keine Veränderungen in der Anzahl der Nach¬kommen pro Wurf oder der Zeitspanne zwischen den Würfen feststellbar. Allerdings wiesen Tas2r131-defiziente Männ¬chen signifikant mehr epididymale Spermien auf als Wildtyp-Tiere. Darüber hinaus war bei Verpaarungs¬studien mit hetero¬zygoten Männchen eine Genotyp-Verschiebung zugunsten des Tas2r131 [-] Allels zu registrieren. Dieser Phänotyp könnte darauf hindeuten, dass der Tas2r131 eine funktionelle Rolle bei Tas2r-abhängigen Auswahlprozessen verschiedener Spermien¬populationen spielt, bei denen sich z. B. durch eine Regulation der Apoptose im Verlauf der Keimzell¬bildung (Spermatogenese) oder auch durch eine Beeinflussung z. B. der Weg¬findung im weiblichen Genitaltrakt ein Selektions¬vorteil für Tas2r131-defiziente Spermien ergeben könnte. Aus der Familie der Tas1-Rezeptoren, deren drei Mitglieder als Heterodimere für die Erkennung von süßen Stimuli und dem Geschmack von Mononatrium¬glutamat („umami“) verant¬wort¬lich sind, konnten in RT-PCR-Experimenten die beiden Unter-einheiten des Umami-Rezeptors, der Tas1r1 und Tas1r3, aus Hodengewebe der Maus amplifiziert werden. Mit Hilfe Subtyp- und Spezies-spezifischer Antikörper konnte gezeigt werden, dass beide Rezeptor¬proteine im Akrosom und in distinkten Abschnitten des Flagellums von murinen und humanen Spermien exprimiert werden. Die funktionelle Rolle des Umami-Rezeptors wurde mit Hilfe einer Tas1r1-defizienten mCherry Reportermauslinie unter¬sucht, die unter optimalen Zuchtbedingungen ebenfalls keine Fertilitäts¬einschränkungen erkennen ließ. Im Hoden dieser Tas1r1-defizienten Tiere waren jedoch morpho¬logische Veränderungen des Keim¬epithels und eine signifikant erhöhte Apoptose¬rate zu registrieren, die allerdings keine verminderte Anzahl reifer Spermien oder Störungen der Morphologie oder Motilität dieser Zellen zur Folge hatte. Stimulierungsexperimente mit isolierter Zona pellucida, dem physiologischen Auslöser der Akrosomreaktion, haben zudem gezeigt, dass keine Ein¬schränkungen bei Spermien Tas1r1-defizienter Tiere fest¬zustellen waren. Allerdings wiesen Tas1r1-defiziente Spermien eine signifikant höhere Rate an spontaner Akrosom¬reaktion auf, die in unkapazitierten Zellen mit signifikant erhöhten basalen Konzentrationen der second messenger cAMP und Ca2+ einherging. Durch eine Reduzierung der intra¬zellulären Konzentrationen dieser Botenstoffe, die elementare Aufgaben des Spermiums im Verlauf des sequentiellen Prozesses der Fertilisation regulieren, könnten Tas1-Rezeptoren somit durch eine basale Rezeptor-aktivität oder durch eine Liganden-induzierte Rezeptor¬stimulation sicherstellen, dass Spermien im weiblichen Genitaltrakt in einem Ruhezustand erhalten werden, bevor sie in Kontakt mit der Eizelle kommen können. Insgesamt kann dieser Nachweis einer funktionellen Expression von Geschmacks-rezeptoren in Spermien zu einem besseren Verständnis der Regulations¬mechanismen zentraler Spermien¬funktionen beitragen und langfristig möglicherweise auch repro-duktions¬medizinische Perspektiven zur gezielten positiven bzw. negativen Manipulation von Spermien und damit zur Behandlung männlicher Infertilität bzw. zur Entwicklung nicht-hormoneller Verhütungsmittel für den Mann eröffnen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19
Sonographische Detektion von pulmonalen Rundherden während video-assistierter Thorakoskopie (VATS)

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19

Play Episode Listen Later Feb 28, 2013


Thu, 28 Feb 2013 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/15475/ https://edoc.ub.uni-muenchen.de/15475/1/Voelkers_Dominik.pdf Völkers, Dominik ddc:610,

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
The evolution of protoplanetary disks in T Tauri binary systems

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05

Play Episode Listen Later Oct 22, 2012


Doppelsterne gehören zu den am häufigsten gebildeten Objekten im Sternentstehungsprozess. Dennoch ist der Einfluss von stellaren Begleitern auf die Entwicklung zirkumstellarer Scheiben, dem Geburtsort der Planeten, bisher wenig verstanden. Die vorliegende Arbeit beschreibt und diskutiert Nahinfrarotbeobachtungen von 52 stellaren Vielfachsystemen mit projizierten Abständen von 25 bis 1000 Astronomischen Einheiten (AE) in den Sternentstehungsregionen des Orion Nebula Cluster und Chamaeleon I. Damit handelt es sich um die größten homogenen Studien protoplanetarer Scheiben in T Tauri-Doppelsternen in diesen beiden Regionen und um eine der umfangreichsten Untersuchungen dieser Art bisher. Die aufgenommenen Beobachtungsdaten erlauben die Bestimmung von individuellen stellaren (z.B. Effektivtemperatur, Leuchtkraft, Alter, Masse) und Systemparametern (Abstand der Komponenten, Massenverhältnis). Zusätzlich dient die Detektion von Brackett-gamma-Emission als Anzeichen für aktive Akkretion während zirkumstellarer Staub in der inneren Scheibe mittels Nahinfrarotfarbexzess nachgewiesen wird. Die Ergebnisse zeigen, dass der Anteil an Doppelsternkomponenten mit intakter Akkretionsscheibe signifikant geringer ist als der von Einzelsternen vergleichbarer Masse in beiden Regionen. In engen Systemen mit weniger als 100 AE projiziertem Abstand ist die Akkretionsscheibenhäufigkeit auf etwa die Hälfte des Einzelsternwertes reduziert. Heißer Staub in der inneren Scheibe ist in engen Doppelsystemen 100 AE identisch zu der von Einzelsternen. Die gemessenen Massenakkretionsraten in Doppelsternkomponenten erweisen sich als ununterscheidbar von denen in Einzel- und Doppelsystemen anderer Sternentstehungsregionen. Die gesammelten Daten lassen folgende Schlüsse zu: (a) Die Komponenten von Doppelsternen enstehen vorrangig gleichzeitig, was gegen Einfang ursprünglich isolierter Komponenten als hauptsächlichen Doppelsternenstehungsmechanismus spricht. (b) Scheiben in Doppelsternen enger als ~100 AE entwickeln sich, und verschwinden, schneller als Einzelsternscheiben. (c) Im Gegensatz zur Scheibenentwicklung in Einzelsternen ist die Lebenszeit einer Scheibe um die masseärmere Komponente eines Doppelsterns kürzer als die um den Primärstern. (d) Während die Lebenszeit einer Scheibe durch ihren äußeren Durchmesser (also indirekt durch den Doppelsternabstand) bestimmt wird, sind die Massenakkretionsraten universell. Dies ist ein Hinweis auf eine Entkopplung der Entwicklung der inneren und äußeren Scheibe. (e) Die Parallelen in der Häufigkeit von Scheiben um Komponenten von Doppelsternen und der Detektion von Planeten in vergleichbaren Systemen legt einen schnellen Planetenenstehungsprozess für massereiche (>1 M_Jup) Gasplaneten nahe (z.B. "disk fragmentation") und einen langsameren Prozess (z.B. "core accretion") für masseärmere Planeten.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 14/19
Stellenwert der PET/CT in der Detektion und Charakterisierung atherosklerotischer Gefäßwandveränderungen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 14/19

Play Episode Listen Later Jul 26, 2012


Thu, 26 Jul 2012 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/14806/ https://edoc.ub.uni-muenchen.de/14806/1/Wolpers_Sarah.pdf Wolpers, Sarah d

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 14/19
Evaluation der optischen Kohärenztomographie in der Tumorfrühdiagnostik im oberen Luft-Speiseweg

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 14/19

Play Episode Listen Later Jun 28, 2012


Einleitung: Tumore des oberen Luft-Speiseweges sind die 7. häufigste Krebserkrankung in Europa. Diese Studie überprüfte inwieweit die Optische Kohärenztomographie (OCT) zur Detektion und Differenzierung prä- und frühmaligner Läsionen in diesem Bereich beitragen kann. Methode: Ein intraorales OCT Screening wurde an 52 gesunden Probanden durchgeführt. Bei 38 Läsionen wurden die Epitheldicken auf den OCT Bildern mit denen in den histologischen Schnittbildern verglichen. 100 primäre Läsionen wurden bezüglich der Integrität der Basalmembran von einem unverblindeten Bewerter beurteilt, dann biopsiert und verglichen. Alle OCT Bilder wurden von 3 verblindeten Untersuchern bewertet. 48 OCT Bilder wurden einer zusätzlichen Intensitätsanalyse unterzogen. Ergebnisse: Das Screening zeigte große Unterschiede in der Epitheldicke. Die mittels OCT und Histologie ermittelten Epitheldicken zeigten eine gute Korrelation (κ=0.63). In der unverblindeten Bewertung konnten invasive und nichtinvasive Läsionen mit einer Sensitivität von 88.9% und einer Spezifität von 89.0% unterschieden werden währenddem die verblindete Bewertung zu Sensitivitäten von 100%/66.7%/77.8% und Spezifitäten von 75.8%/71.4%/70.3% führte. Dysplasien führten im Gegensatz zu Hyperplasien zu einer signifikant erhöhten Intensitätsabnahme über das Epithel. Die Intensitätszunahme zwischen Epithel und Lamina propria war bei Dysplasien stärker ausgeprägt als bei Hyperplasien (38,7% vs. 18,9%), allerdings nicht statistisch signifikant. Diskussion: Die OCT ist geeignet zur Verbesserung der Tumorfrühdiagnostik im oberen Aerodigestivtrakt.

Mathematik, Informatik und Statistik - Open Access LMU - Teil 02/03
Integriertes Management von Security-Frameworks

Mathematik, Informatik und Statistik - Open Access LMU - Teil 02/03

Play Episode Listen Later Jan 1, 2012


Security-Frameworks sind baukastenähnliche, zunächst abstrakte Konzepte, die aufeinander abgestimmte technische und organisatorische Maßnahmen zur Prävention, Detektion und Bearbeitung von Informationssicherheitsvorfällen bündeln. Anders als bei der Zusammenstellung eigener Sicherheitskonzepte aus einer Vielzahl punktueller Einzelmaßnahmen wird bei der Anwendung von Security-Frameworks das Ziel verfolgt, mit einem relativ geringen Aufwand auf bewährte Lösungsansätze zur Absicherung von komplexen IT-Diensten und IT-Architekturen zurückgreifen zu können. Die praktische Umsetzung eines Security-Frameworks erfordert seine szenarienspezifische Adaption und Implementierung, durch die insbesondere eine nahtlose Integration in die vorhandene Infrastruktur sichergestellt und die Basis für den nachhaltigen, effizienten Betrieb geschaffen werden müssen. Die vorliegende Arbeit behandelt das integrierte Management von Security-Frameworks. Im Kern ihrer Betrachtungen liegen folglich nicht individuelle Frameworkkonzepte, sondern Managementmethoden, -prozesse und -werkzeuge für den parallelen Einsatz mehrerer Frameworkinstanzen in komplexen organisationsweiten und -übergreifenden Szenarien. Ihre Schwerpunkte werden zum einen durch die derzeit sehr technische Ausprägung vieler Security-Frameworks und zum anderen durch die fehlende Betrachtung ihres Lebenszyklus über die szenarienspezifische Anpassung hinaus motiviert. Beide Aspekte wirken sich bislang inhibitorisch auf den praktischen Einsatz aus, da zur Umsetzung von Security-Frameworks immer noch ein erheblicher szenarienspezifischer konzeptioneller Aufwand erbracht werden muss. Nach der Diskussion der relevanten Grundlagen des Sicherheitsmanagements und der Einordnung von Security-Frameworks in Informationssicherheitsmanagementsysteme werden auf Basis ausgewählter konkreter Szenarien mehr als 50 Anforderungen an Security-Frameworks aus der Perspektive ihres Managements abgeleitet und begründet gewichtet. Die anschließende Anwendung dieses Anforderungskatalogs auf mehr als 75 aktuelle Security-Frameworks zeigt typische Stärken sowie Schwächen auf und motiviert neben konkreten Verbesserungsvorschlägen für Frameworkkonzepte die nachfolgend erarbeiteten, für Security-Frameworks spezifischen Managementmethoden. Als Bezugsbasis für alle eigenen Konzepte dient eine detaillierte Analyse des gesamten Lebenszyklus von Security-Frameworks, der zur grundlegenden Spezifikation von Managementaufgaben, Verantwortlichkeiten und Schnittstellen zu anderen Managementprozessen herangezogen wird. Darauf aufbauend werden an den Einsatz von Security-Frameworks angepasste Methoden und Prozesse u. a. für das Risikomanagement und ausgewählte Disziplinen des operativen Sicherheitsmanagements spezifiziert, eine Sicherheitsmanagementarchitektur für Security-Frameworks konzipiert, die prozessualen Schnittstellen am Beispiel von ISO/IEC 27001 und ITIL v3 umfassend ausgearbeitet und der Einsatz von IT-Sicherheitskennzahlen zur Beurteilung von Security-Frameworks demonstriert. Die praktische Anwendung dieser innovativen Methoden erfordert dedizierte Managementwerkzeuge, die im Anschluss im Detail konzipiert und in Form von Prototypen bzw. Simulationen umgesetzt, exemplifiziert und bewertet werden. Ein umfassendes Anwendungsbeispiel demonstriert die praktische, parallele Anwendung mehrerer Security-Frameworks und der spezifizierten Konzepte und Werkzeuge. Abschließend werden alle erreichten Ergebnisse kritisch beurteilt und ein Ausblick auf mögliche Weiterentwicklungen und offene Forschungsfragestellungen in verwandten Bereichen gegeben.