Podcasts about eine anwendung

  • 12PODCASTS
  • 13EPISODES
  • 36mAVG DURATION
  • ?INFREQUENT EPISODES
  • Feb 26, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about eine anwendung

Latest podcast episodes about eine anwendung

Passwort - der Podcast von heise security
Homomorphe Verschlüsselung

Passwort - der Podcast von heise security

Play Episode Listen Later Feb 26, 2025 87:16


Mit verschlüsselten Daten zu arbeiten, ohne sie entschlüsseln zu müssen, klingt unmöglich. Und doch bietet die homomorphe Verschlüsselung genau diese Möglichkeit. Dafür ist jedoch viel Mathematik vonnöten und die lässt sich Christopher in der 26. Folge des "Passwort"-Podcasts von einem Gast mit ausgewiesener Expertise erklären. Nicht nur graue Theorie, auch apfelbunte Praxis kommt nicht zu kurz: Eine Anwendung in Apples Cloud zeigt, wie nützlich homomorphe Verschlüsselung ist. - Craig Gentry's Paper zu FHE mit ideal lattices: https://www.cs.cmu.edu/~odonnell/hits09/gentry-homomorphic-encryption.pdf - Craig Gentry's Dissertation zu FHE: https://crypto.stanford.edu/craig/craig-thesis.pdf - MS "Kryptonets" Paper von 2016: https://www.microsoft.com/en-us/research/wp-content/uploads/2016/04/CryptonetsTechReport.pdf - https://fhe.org/resources/ - https://homomorphicencryption.org - Michaels Artikel über die Apple-Usecases: https://www.heise.de/hintergrund/Wie-Apple-mit-homomorpher-Verschluesselung-Daten-schuetzen-will-10193623.html (+) Mitglieder unserer Security Community auf heise security PRO hören alle Folgen bereits zwei Tage früher. Mehr Infos: https://pro.heise.de/passwort

So techt Deutschland
Astronaut Matthias Maurer: Die Fabriken der Zukunft entstehen im All

So techt Deutschland

Play Episode Listen Later Jul 9, 2024 30:43


Matthias Maurer hat einen großen Traum: Der 54-Jährige möchte zum Mond fliegen. Maurer gehört zu den möglichen europäischen Astronauten, die im Rahmen der Artemis-Mondmissionen der Nasa einen Platz ergattern könnten. "Deswegen baue ich gerade mit meinem Team in Köln eine Mond-Trainingsanlage auf", berichtet Maurer.2021 ist Maurer zur ISS gereist und war damit der zwölfte Deutsche im Weltraum. Jetzt hofft er, es auch noch bis zum Mond zu schaffen. Das allerdings dürfte noch ein paar Jahre dauern. Bis dahin will er in Köln auf seiner geplanten Mond-Anlage trainieren. "Das ist eine Anlage, die nicht mal die NASA hat. Wir hoffen, dass selbst die amerikanischen Astronauten zu uns kommen, bevor sie zum Mond fliegen." Das Geschäft mit dem Weltraum boomt. Private Unternehmen haben Schwung in den Bereich gebracht. Eine aktuelle McKinsey-Studie sagt voraus, dass der Umsatz weltweit bis zum Jahr 2035 auf 1,8 Billionen US-Dollar ansteigen könnte. Heute setzt die Weltraumwirtschaft 630 Milliarden Dollar um. Ein großer Kuchen, von dem Deutschland und Europa zu wenig abbekommen. "China hat ordentlich draufgelegt. Sie können deutlich mehr als Europa", sagt Maurer.Dazu kommen unter anderem die Impulse, die allein von Elon Musks Starlink und SpaceX ausgehen. Ein Schlüssel zum Erfolg für Europa ist aus Maurers Sicht deswegen die Förderung von Startups. Die Möglichkeiten im All scheinen grenzenlos. In Zukunft könnte es sogar Fabriken im All geben. "Eine Anwendung könnte zum Beispiel sein, dass man oben Organe züchtet", erklärt der Astronaut, der auch Materialforscher ist.Was noch möglich ist, wie er zum Weltraumtourismus steht und wie komfortabel ein Flug ins All ist, erzählt Matthias Maurer in der neuen Folge von "So techt Deutschland". Sie haben Fragen für Frauke Holzmeier und Andreas Laukat? Dann schreiben Sie eine E-Mail an sotechtdeutschland@ntv.deUnsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.htmlAlle Rabattcodes und Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/sotechtdeutschlandUnsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.

Forschung Aktuell - Deutschlandfunk
Physik-Nobelpreis - Attosekundenphysik für die klinische Diagnostik

Forschung Aktuell - Deutschlandfunk

Play Episode Listen Later Dec 11, 2023 8:28


Der Physiker Ferenc Krausz hat mit zwei weiteren Forschenden den Physik-Nobelpreis erhalten. Sie entdeckten eine Möglichkeit, die extrem schnelle Bewegung von Elektronen zu messen. Eine Anwendung könnte bei der Krebserkennung helfen. Krauter, Ralfwww.deutschlandfunk.de, Forschung aktuell

Systemisch Denken - Systemtheorie trifft Wirtschaft, Theorie und Praxis für Ihren Beruf
PSD 159 FUNKTIONSSYSTEME (II) - eine Anwendung der Systemtheorie von Niklas Luhmann und eine tolle Methode für systemisch Denkende.

Systemisch Denken - Systemtheorie trifft Wirtschaft, Theorie und Praxis für Ihren Beruf

Play Episode Listen Later Nov 14, 2022 23:21


Funktionssysteme sind Subsysteme in Systemen, die spezielle Funktionen erfüllen. Sie sind von der Umweltwelt "unterscheidbar" und haben einen speziellen "Code" im Inneren. Damit erklärt Luhmann Zusammenhänge in der Gesellschaft. Das ist spannend, aber nicht alles. Löst man die Idee von Luhmann von ihrer Anwendung, dann geht noch mehr. Es entsteht eine sonnende Methode für alle Systemiker.

Systemisch Denken - Systemtheorie trifft Wirtschaft, Theorie und Praxis für Ihren Beruf
PSD 158 FUNKTIONSSYSTEME (I) - eine Anwendung der Systemtheorie von Niklas Luhmann und eine tolle Methode für systemisch Denkende.

Systemisch Denken - Systemtheorie trifft Wirtschaft, Theorie und Praxis für Ihren Beruf

Play Episode Listen Later Nov 7, 2022 17:45


Funktionssysteme sind Subsysteme in Systemen, die spezielle Funktionen erfüllen. Sie sind von der Umweltwelt "unterscheidbar" und haben einen speziellen "Code" im Inneren. Damit erklärt Luhmann Zusammenhänge in der Gesellschaft. Das ist spannend, aber nicht alles. Löst man die Idee von Luhmann von ihrer Anwendung, dann geht noch mehr. Es entsteht eine sonnende Methode für alle Systemiker.

Modellansatz
Automated Binary Analysis

Modellansatz

Play Episode Listen Later Jun 22, 2017 53:06


Zur GPN17 des Entropia e.V. im ZKM - Zentrum für Kunst und Medien und der Hochschule für Gestaltung (HfG) hat Florian Magin (@0x464d) einen Vortrag zu Automated Binary Analysis gehalten und war bereit uns auch im Podcast zu erzählen, wie er mit mathematischen Verfahren Software auf Schwachstellen analysiert. Florian studiert Informatik an der TU Darmstadt und engagiert sich im CTF-Team Wizards of Dos seiner Universität. Sein Interesse an der Computersicherheit hat ihn auch zur Firma ERNW Research geführt, wo er als Werkstudent in der IT-Sicherheitsforschung tätig ist. Wie wichtig die Suche nach Schwachstellen und deren Absicherung ist, wurde kürzlich bei der weltweiten Verbreitung der WannaCry/WannaCrypt-Schadsoftware bewusst, die die Aufmerksamkeit von einer anderen und lukrativeren Schadsoftware Adylkuzz ablenkte. Unter der Binary Analysis versteht man die quellenlose Analyse eines Programms alleine auf den Daten im Maschinencode auf einem Speichermedium. Ein erster Schritt der Analysis ist die Wandlung der Maschinensprache in Mnemonic durch einen Disassembler. Dieser Programmcode kann sich deutlich von einer ursprünglichen Quelltext des Programms unterscheiden, da der Maschinencode erzeugende Compiler eine Vielzahl von Optimierungsmöglichkeiten umsetzt, die den Ablauf und das Abbild des Programms im Maschinencode deutlich verändern können. Eine Herausforderung stellt sich inzwischen in der Größe der Programme: Während es inzwischen zahlreiche Wettbewerbe gibt, Programme unter extremen Platzbeschränkungen umzusetzen, wächst die Größe klassischer Programme stark an. Ein Maschinensprache-Befehl kann in einem Byte kodiert sein, wie früher etwa hexadezimal C9 auf dem Z80 eine Unterroutine beendet, so können in 4 Bytes Operationen wie eine Addition samt Parameter definiert sein. Die automatisierte Binäranalyse hat besonders durch die Darpa Cyber Grand Challenge im Jahr 2016 großes Interesse geweckt, wo die Teams autonome Software entwickeln sollten, die für sich alleine den CTF-Wettbewerb bestreitet. Eine Anwendung solcher automatisierten Programme ist die schnelle Überprüfung von neuer Software auf bekannte oder typische Schwachstellen oder Implementierungsfehler. Eine sehr allgemeine Methode zur Detektion von Sicherheitslücken ist das Fuzzing: Das Open Source Tool AFL modifiziert beispielsweise korrekte Eingabewerte und prüft bei welcher Modifikation das Programm vom zuvor aufgezeichneten Programmablauf abweicht und damit einen Hinweis auf eine mögliche Schwachstelle gibt. Es kann dabei idealerweise auf dem Sourcecode operieren oder auch das Programm in einem Emulator wie QEMU ausführen und analysieren. Wie schwer aber selbst Source Code zu verstehen sein kann, zeigen die Wettbewerbe International Obfuscated C Code Contest (IOCCC), zu möglichst schwer verständlichen sinnvollen Code, und der Underhanded C Contest, wo ein scheinbar sinnvoller Code für Menschen möglichst unvorhersehbare Zusatzfunktionen aufweist. Ebenso können sehr beliebte Programmiersprachen wie Python sehr unvorhersehbar reagieren, wenn man versehentlich Tabulatoren und Space vermischt, oder gleich die Programmiersprache Whitespace benutzt. Ein weiteres Beispiel ist, dass das Breitenlose Leerzeichen in neuen C++-Standards erlaubt ist, und für den Menschen ununterscheidbaren Code ermöglicht, der unterschiedliche Dinge tut. Aber auch Computer können getäuscht werden, wenn zum Vergleich unsichere Hash-Funktionen genutzt werden, wie jüngst die Shattered-Attacke auf die SHA-1 Hash zeigte. Eine automatisierte Analysemöglichkeit ist die Control Flow Graph Recovery, die beispielsweise mit IDA , radare2, binary ninja durchgeführt werden kann, um aus einer eindimensionalen Speicherdarstellung zu einem Programmnetz, wo zusammengehörige Programmblöcke miteinander vernetzt werden. Hier kann auch schon sichtbar werden, ob beschränkte Bereiche ohne Authentifikation erreicht werden können. Ein weiteres automatisierbares Verfahren ist die Datenflussanalyse, wo die Verarbeitung und Auswirkungen von Variablen und Daten im Verlauf des Programms analysiert wird. Hier kann der Verlauf von beispielsweise vertraulichen Daten kontrolliert werden. Bei einer Symbolischen Auswertung wird das Programm abstrakt mit einem Interpreter auf beliebigen variablen Daten bzw. symbolischen Ausdrücken auf allen Pfaden gleichzeitig ausgeführt. Für die Pfaderkundung benötigt man hier eine Strategie zwischen der Breitensuche und Tiefensuche, um die relevanten Teile des Ausführungsgraphen möglichst schnell abzudecken. In der automatisierten Analyse werden dabei offene Sprungmöglichkeiten zu nahezu beliebigen Adressen sehr interessant, da dies einen starken Indikator für einen Angriffsvektor liefern. Mit Return-oriented Programming kann man so bestehenden Code gezielt anspringen und für eigene Zwecke missbrauchen. Das Open-Source Framework Angr wurde von Forschern des Computer Security Lab at UC Santa Barbara entwickelt und belegte mit Shellphish auf der Darpa-Challenge den dritten Platz. Ein weiteres Open-Source Analyseframework ist Triton, welches man leicht in eigene Projekte einbinden kann. Sehr verbreitet ist auch das Framework S2E der École Polytechnique Fédérale de Lausanne. Ein weiterer Finalist der Cyber Grand Challenge ist das Team CodeJitsu von der University of California at Berkeley, Cyberhaven, and Syracuse. Die Binary Analysis Platform wurde vom Team um Professor David Brumley am Cylab der Carnegie Mellon University entwickelt. Funktionale Programmiersprachen wie OCAML oder Haskell haben für den Anwendungsfall der symbolischen Auswertung ganz besondere Vorteile. Ebenso werden Programmiersprachen auch auf ihre inherente Unsicherheit im Sinne der Language based security untersucht, sowie fertige Programme versucht auch auf ihre Korrektheit zu verifizieren. Ein Tool, das dies vereinfachen soll ist der Z3 Prover. Hier kommt die Suche nach Sicherheitslücke zur Mathematik: In der formalen Darstellung einer Routine kann das Verhalten als Abbildung aus symbolischen Variablen beschrieben werden, und die Suche nach einer Lösung führt auf die entsprechenden Logik oder Optimierungsverfahren. Literatur und weiterführende Informationen Florian Magin: Introduction to Automated Binary Analysis, Vortrag auf der GPN17, 2017. Program Analysis reading list D. Brumley: Analysis and Defense of Vulnerabilities in Binary Code, PhD thesis, School of Computer Science Carnegie Mellon University, 2008. Podcasts M. Musch: Steganographie, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 57, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. M. Lösch: Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 06/07
Untersuchung eines nadellosen Injektionsverfahrens für Schweine

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 06/07

Play Episode Listen Later Feb 9, 2013


In der durchgeführten Studie wurden die nadellose Injektion und die konventionelle Injektion mit Nadel für die intramuskuläre Applikation von Arzneimitteln miteinander verglichen. Für die nadellose Injektion wurde das druckluftgesteuerte Injektionsgerät Pulse® 250 (Pulse Needlefree Systems, Kansas, USA, Vertrieb durch Schippers, Kerken) zur intramuskulären Injektion verwendet, das für den Einsatz an Schweinen vorgesehen ist. Das Injektionsverfahren wurde im Vergleich zur konventionellen Injektion mit Nadel auf seine Verträglichkeit und Zuverlässigkeit untersucht. Zur Beurteilung der Verträglichkeit wurde die Injektionsstelle klinisch und pathologisch untersucht sowie vor und nach der Injektion die Cortisol-, CK- und AST-Konzentration im Serum bestimmt. Zur Beurteilung der Zuverlässigkeit wurde der Verlauf der Arzneimittelkonzentration im Serum gemessen. Eine Anwendung des nadellosen Injektionsgerätes bei neugeborenen Saugferkeln kann aufgrund des erheblichen injektionsbedingten Anstieges der Cortisolkonzentration sowie der reduzierten Arzneimittelkonzentration nicht uneingeschränkt empfohlen werden.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19
Evaluation histologischer und immunhistochemischer Kriterien zur Differenzierung von Psoriasis palmoplantaris und unterschiedlichen Formen des Hand- und Fussekzems

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19

Play Episode Listen Later Jan 24, 2013


Die histologische Differenzierung zwischen Psoriasis und Ekzem in palmoplantarer Region kann äußerst schwierig sein. Zur Anwendung kommen im Wesentlichen diesel-ben Kriterien wie in nicht-palmoplantarer Region. Es stellt sich daher die Frage, in wie weit diese Kriterien überhaupt und im Speziellen in palmoplantarer Region zur Unter-scheidung beider Erkrankungstypen geeignet sind. Wir führten eine Studie an 80 Patien-ten mit entzündlichen Dermatosen in palmoplantarer Region durch. Die Patienten wur-den in 3 Gruppen eingeteilt: in „höchstwahrscheinlich Psoriasis (n=29) bzw. Ekzem (n=20)“ bei Übereinstimmung von klinischer und histologischer Verdachtsdiagnose und in „diskrepante Fälle“ (n=31) bei Nichtübereinstimmung. Zur Evaluation kamen 32 Un-terscheidungsmerkmale, davon 17 histologische und ein klinisches Kriterium für Pso-riasis sowie 9 histologische und 5 klinische für Ekzem. Von diesen waren 17 statistisch signifikant zwischen den Krankheitsgruppen Psoriasis und Ekzem verteilt und somit zur Differenzierung geeignet. Diese 17 Kriterien wurden in ein einfaches numerisches Dia-gnosesystem eingebracht (+1 pro Psoriasiskriterium; -1 pro Ekzemkriterium). Hierdurch ergab sich eine korrekte Zuordnung in 84% der Fälle. Eine Streichung ähnlicher histo-logischer Kriterien erbrachte eine Vereinfachung des Systems auf nur noch 10 Kriterien bei gleichbleibender diagnostischer Genauigkeit. Eine Anwendung dieses Systems auf die 31 diskrepanten Fälle ermöglichte eine Zuordnung von 23 Patienten (13 Psoriasis, 10 Ekzem). Die verbleibende Grauzone und damit Schwäche des Systems lässt sich am ehesten durch einen chronifizierten Zustand der Dermatosen erklären, bei dem sowohl die klinischen als auch die histologischen krankheitstypischen Merkmale verloren gehen und sich Psoriasis und Ekzemformen in ihrem Erscheinungsbild annähern. Unter der Kenntnis einer Zuordnungsquote von 84% sollte das vorgestellte numerische Diagnosesystem zukünftig in der Differenzierung von Psoriasis und Ekzem in palmo-plantarer Region Anwendung finden. Aufgrund der in der Literatur beschriebenen Überexpression von JunB bei Psoriasis, versuchten wir diesen als Differenzierungsmarker zu etablieren. Bei beiden Erkrankun-gen fand sich eine relativ hohe JunB Expression durch alle Epidermisschichten, die kei-nerlei Differenzierung zwischen den Erkrankungen ermöglichte.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
Particle hydrodynamics with tessellation techniques

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05

Play Episode Listen Later Jun 3, 2011


Um Galaxien, Galaxienhaufen oder noch größere Strukturen im Universum detailliert zu simulieren, benötigt man eine korrekte Simulation des in diesen Objekten vorhandenen Gases. Eine Möglichkeit zur Simulation dieses Gases bietet das etablierte Verfahren ``Smoothed Particle Hydrodynamics (SPH)''. Diese Methode empfiehlt sich besonders wegen ihrer intrinsischen geometrischen Flexibilität und ihrer adaptiven Auflösung. Neuere Untersuchungen zeigten aber, dass SPH in Situationen, in denen große Dichtesprünge auftreten, ungenau wird. Hier kann es zu einem unphysikalisch verlangsamten Wachstum von hydrodynamischen Instabilitäten kommen. Diese Probleme von SPH können vor allem auf systematisch bedingte Ungenauigkeiten in der Dichtebestimmung dieser Methode zurückgeführt werden. Um diese Probleme zu vermeiden, haben wir eine neue ``Voronoi Particle Hydrodynamics'' (VPH) genannte Methode enwickelt, um die Hydrodynamik zu simulieren. Dabei wird die Dichte der Simulationsteilchen mit Hilfe eines zusätzlichen Gitters bestimmt. Dieses Gitter ist eine Voronoi Pflasterung, die auf auf den Positionen der Teilchen basiert. Mit Hilfe dieses Prinzips können hydrodynamische Instabilitäten korrekt simuliert werden. Situationen, in denen Scherströmungen entlang großer Dichtesprünge auftreten und zu hydrodynamische Instabilitäten führen, sind besonders ungünstig für SPH, da es hier zu großen Ungenauigkeiten kommen kann. Eine Anwendung, in der solche Situationen zu erwarten sind, ist der Einfall einer Galaxie in einen Galaxienhaufen. Dabei verliert die Galaxie aufgrund des anströmenden Galaxienhaufen-Gases zunehmend Gas an den Galaxienhaufen. Da SPH aufgrund seiner Dichtebestimmung diesen Prozess nicht korrekt simuliert, ermittelt SPH einen zu geringen Verlust von Gas. Wir konnten dies mit Hilfe unserer Simulationen belegen. Wir haben diese Resultate sowohl mit Simulationen von Galaxien, die in einen Galaxienhaufen fallen, als auch mit kosmologischen Simulationen von sich bildenden Galaxienhaufen überprüft. Dort bestätigte sich, dass in SPH der Gasverlust der einfallenen Galaxien zu gering ist. Desweiteren ist der Gasverlust in den AREPO Simulationen stets am höchsten, während VPH eine mittlere Stellung einnimmt. Wir konnten ingesamt zeigen, dass VPH in Situationen mit großem Dichtekontrast eine Verbesserung zu SPH darstellt. Auch wenn unsere Resultate keine vollständige Übereinstimmung mit dem Gitter-basierten AREPO Code zeigen, stellen sie doch eine wichtige Annährung zwischen Teilchen- und Gitter-basierten hydrodynamischen Verfahren dar. VPH empfiehlt sich vor allem als eine gegenüber SPH verbesserte Methode zur Simulation von hydrodynamischen Prozesssen in kosmologischen Problemen.

Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02

Virtualisierungstechniken erfreuen sich immer größerer Beliebtheit in vielen Bereichen der Informatik. Ursprünglich wiederentdeckt mit dem Ziel Ressourcen und Dienste zu konsolidieren, dienen Virtualisierungsansätze heute als Grundlage für moderne Grid- und Cloud-Computing-Infastrukturen und werden damit auch im Bereich des Hochleistungsrechnens eingesetzt. Derzeit existieren keine objektiven und systematischen Analysen bezüglich des Wirkungsgrades von Virtualisierungsansätzen, Techniken und Implementierungen, obwohl sie von vielen großen Rechenzentren weltweit eingesetzt und produktiv betrieben werden. Alle existierenden, modernen Hostvirtualisierungsansätze setzen derzeit auf eine Softwareschicht, die sich je nach Virtualisierungstyp zwischen Hardware und Gast-Betriebssystem bzw. zwischen Host- und Gast-Betriebssystem befindet. Eine Anwendung in einer virtuellen Maschine ist somit nicht mehr nur von der Leistung des physischen Systems abhängig, sondern ebenfalls von der Technologie des eingesetzten Virtualisierungsproduktes und nebenläufigen virtuellen Maschinen. Je nach Anwendungstyp kann es daher sinnvoll sein, einen anderen Virtualisierungsansatz zu wählen und auf den Typ der nebenläufigen virtuellen Maschinen zu achten, um den Wirkungsgrad eines lokalen Systems sowie den der globalen Infrastruktur zu optimieren. Um dieses Ziel zu erreichen, werden in einem zweistufigen Ansatz zunächst theoretisch Virtualisierungsansätze analysiert und Parameter identifiziert, deren Einfluss auf den Wirkungsgrad in einem zweiten Schritt empirisch quantifiziert wird. Für die Durchführung dieser quantitativen Analyse ist eine Anpassung verbreiteter Leistungsmaße, wie z.B. Durchsatz und Antwortzeit, für den Kontext der Virtualisierung erforderlich, da sie sich klassisch gesehen auf das Betriebssystem einer Maschine beziehen, eine virtuelle Maschine jedoch von der Architektur her eher einer klassischen Anwendung entspricht. Die Messung dieses Leistungsmaßes in virtuellen Umgebungen stellt eine weitere Herausforderung dar, da Zeitmessung in virtuellen Maschinen aufgrund von Scheduling durch den Hypervisor generell fehlerbehaftet ist und somit alternative Messmethoden konzipiert werden müssen. Basierend auf den durchgeführten Analysen und Messungen wird anschließend ein Leitfaden entwickelt, der dabei hilft, die zur Virtualisierung einer Infrastruktur benötigten Ressourcen qualitativ sowie quantitativ abzuschätzen und eine Verteilung der virtuellen Maschinen anhand ihres charakteristischen Ressourcenbedarfes auf physische Systeme vorzunehmen, so dass vorhandene physische Ressourcen optimal ausgenutzt werden können. Die Automatisierung des erstellten Leitfadens durch die Entwicklung und prototypische Implementierung eines globalen Ressourcen-Schedulers auf der Basis eines gewichteten Constraint Solvers rundet die Arbeit ab. Der verwendete Ansatz besitzt zwar eine theoretisch exponentielle Laufzeitkomplexität, liefert in der Praxis aufgrund einer entwickelten Greedy-Heuristik jedoch bereits nach extrem kurzer Laufzeit herausragende Ergebnisse. Die optimierten Verteilungen lassen sich anschließend mittels weniger Live Migration realisieren, da bereits bei der Berechnung einer Verteilung auf deren räumliche Nähe zur bestehenden Verteilung geachtet wird.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Einfluss der restriktiven Indikationsstellung zur Episiotomie bei drohender Dammruptur auf Harnkontinenz, Dyspareunie und auf urodynamische Parameter bei Primiparae 6-12 Monate postpartal

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19

Play Episode Listen Later Jan 27, 2005


Ziel dieser prospektiv randomisierten Studie war es, den Einfluss einer restriktiven versus liberalen Episiotomieindikation bei drohender Dammruptur auf Beckenbodenfunktionsparameter bei Primiparae 6 – 12 Monate nach vaginaler Entbindung zu untersuchen. In die Studie wurden 146 Nulliparae, die zum Aufnahmezeitpunkt über der 34. Schwangerschaftswoche waren und im Klinikum Großhadern in München entbinden wollten, aufgenommen. Die Studienteilnehmer wurden vor Geburt in eine restriktive und liberale Gruppe randomisiert. 68 Frauen wurden nachuntersucht, wovon 27 in der restriktiven und 41 in der liberalen Gruppe waren. In der Nachuntersuchung wurde die restriktive Indikationsstellung zur Episiotomie bei drohender Dammruptur mit der liberalen Indikationsstellung im Hinblick auf die Harninkontinenz und Dyspareunie mittels urodynamischer Parameter (max. Urethraverschlussdruck, max. funktionelle Länge Urethra) und dem Fragebogen nach Gaudenz sowie dem Dyspareunie Fragebogen verglichen. Für die Harninkontinenz, Dyspareunie und die urodynamischen Daten (Urethradruckprofile) sowie den Oxford Score (Power) ließ sich feststellen, dass es im Mittel nach 7,4 Monaten postpartal keine statistisch signifikanten Differenzen nach einer restriktiven im Vergleich zu einer liberalen Durchführung der Episiotomie bei drohender Dammruptur bezüglich der erhaltenen Messungen bzw. Antworten gab. Die Ergebnisse der vorliegenden Studie lassen die Schlussfolgerung zu, dass der Erhalt eines intakten Dammes ein wichtiges Ziel des Geburtshelfers sein sollte und die Indikation der Episiotomie restriktiv (nur bei fetaler Indikation) gestellt werden sollte (60, 79). Eine Anwendung der Episiotomie bei drohender Dammruptur in der geburtshilflichen Praxis sollte vor dem Hintergrund der damit einhergehenden höheren Rate an nicht intakten Dämmen und ohne eine Besserung der Beckenbodenfunktion hinsichtlich der Dyspareunie und Harnkontinenz zu erlangen, bei der Entbindenden nicht mehr erfolgen. Somit stellt auch der drohende Dammriss keine Indikation mehr für eine Episiotomie dar.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
Untersuchungen zur Wirksamkeit eines Poly-Vinyl-Pyrrolidon (PVP)–Jodkomplexes zur Behandlung der Dermatitis digitalis (D.d.) und zum Bewegungsverhalten von an D.d. erkrankten Milchkühen

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07

Play Episode Listen Later Jul 23, 2004


In dieser Studie wurde die Wirksamkeit eines Poly-Vinyl-Pyrrolidon (PVP)-Jod-Komplexes zur Behandlung der Dermatitis digitalis (D.d.) überprüft. Zusätzlich wurden mögliche Zusammenhänge zwischen der D.d. und dem Bewegungsverhalten der Tiere, der Futteraufnahme und der Milchleistung untersucht. Bezüglich der Wirksamkeit des Jodkomplexes wurde die Studie als kontrollierter Versuch angelegt. Während eines Klauenpflegekurses am LVG (Lehr- und Versuchsgut der Universität München) wurden 16 Tiere ausgewählt, bei welchen D.d. in typischer Ausprägung vorhanden war. Die Tiere der Versuchsgruppe wurden während 5 aufeinanderfolgender Tage zweimal täglich mittels eines Drucksprühgerätes zuerst mit Leitungswasser zur Reinigung, danach mit der 7,5-prozentigen Jodlösung im Zwischenklauenspalt, im Fesselbereich plantar und dorsal besprüht. Die Tiere der Kontrollgruppe erfuhren die gleiche Behandlung mit Leitungswasser. Kontrolluntersuchungen fanden 6, 10 und 20 Tage nach Behandlung statt. Damit eine andere Applikationsform der Jod-Lösung getestet werden konnte, wurden 3 weitere Tiere mit „klassischen“, erosiven D.d.-Läsionen (M2) ausgewählt. Diesen wurde nach Reinigung und Trocknung ein mit der Jodlösung getränkter Tupfer auf die Veränderung gebracht und dieser mit einem Verband abgedeckt. Der Verband wurde am Versuchstag 7 entfernt und die Läsion überprüft und dokumentiert. Die Untersuchung der Schritthäufigkeit wurde mittels Pedometern durchgeführt, die an den Hintergliedmaßen im Bereich des Metatarsus angebracht wurden. Die Datenerfassung zum Bewegungsverhalten erfolgte täglich einmal zu etwa gleichen Untersuchungszeitpunkten. Tage an denen Klauenkontrollen erfolgten sowie die Daten brünstiger Tiere, wurden nicht gewertet. Die Pedometer wurden 17 Tage vor antibiotischer Behandlung angebracht. Am Versuchstag 0 erfolgte eine Untersuchung im Klauenstand, dann wurden 3 Tage lang Messungen durchgeführt. Am Tag 6 erfolgte eine erneute Kontrolle im Pflegestand. Die Läsionen wurden mit Wasser und Bürste gereinigt, getrocknet und dann mit 2 Lagen (Abstand von 30 Sekunden) eines chlortetracyclinhaltigen Sprays (Aureomycin®, Fa. Forte Dodge, Veterinär GmbH, Würselen) behandelt. An den Tagen 6, 10 und 20 wurden Kontrollen im Klauenstand vorgenommen. 10 Tiere erfüllten die Einschlusskriterien zu Beginn und über die gesamte Dauer des Versuchs. Sowohl während der Erstuntersuchung, als auch über den gesamten Beobachtungszeitraum zeigte keines der Tiere eine sichtbare Lahmheit. Folgende Ergebnisse wurden erzielt: 1. Wiederholtes Besprühen von Läsionen mit einem 7,5 prozentigem Poly-Vinyl-Pyrrolidon-Jod-Komplex war zur Behandlung der Dermatitis digitalis unwirksam. 2. Eine Anwendung unter Verband erbrachte keinen deutlichen Erfolg. 3. Die Schrittzahl pro 24 Stunden an den 3 Tagen vor Behandlung lag im Mittel bei 3901 Schritten (Stdv. 1233), der Mittelwert über 3 Tage nach Behandlung bei 3444 Schritte (Stdv. 955) pro 24 Std. (p>0,05). Es konnten somit keine signifikanten Veränderungen in der Schrittzahl pro 24 Stunden beim Vergleich der Zeiträume vor und nach einer Behandlung mit Chlortetracyclinspray bei an Dermatitis digitalis erkrankten Rindern erkannt werden. 4. Die Grundfutteraufnahme lag vor der Behandlung im Mittel bei 28,60 kg (Stdv. 6,17), nach Behandlung lag dieser Wert bei 25,43 kg (Stdv. 4,97); p

Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 01/06
Vergleichende Untersuchungen von Delayed Release-Systemen in Abhängigkeit von Wirkstoffeigenschaften

Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 01/06

Play Episode Listen Later Jan 29, 2001


Die vorliegende Arbeit befasste sich mit der Möglichkeit und den Strategien zur Herstellung von Delayed Release-Systemen in Abhängigkeit von Wirkstoffeigenschaften. Dabei diente das Prinzip eines durch Sprengmittelquellung verursachten Aufplatzens des Filmüberzuges als Basis für eine zeitlich verzögerte Wirkstofffreisetzung von Hydrocortison sowie von Aminophyllin. Als Grundlage wurden Formulierungen für Tabletten, die einerseits eine hohe Stabilität für den anschließenden Wirbelschichtprozess und andererseits eine rasche Freisetzung des Wirkstoffes sicherstellen, untersucht. Außerdem wurden Pellets mit vergleichbaren Freisetzungen hergestellt. Ein besonderes Interesse galt der vergleichenden Untersuchung der Einflüsse verschiedener Filmbildner auf die Verzögerung der Freisetzung von Hydrocortison als hydrophobem Wirkstoff gegenüber dem hydrophilen Arzneistoff Aminophyllin aus Tabletten. Die Tabletten und Pellets wurden mit magensaftresistentem Filmbildner überzogen, um die Freisetzung durch den pH-Wert zu steuern. Ferner wurde der Einfluss von Viskosität und von lipophilen Zusätzen bei wässrig aufgebrachten Hydrogelbildnern auf die Verzögerung der Freisetzung vergleichend untersucht. Weiterhin wurden vier wasserunlösliche Polymere untersucht, von denen zwei Cellulosederivate darstellen und zwei aus der Gruppe der vollsynthetischen Polymethylmethacrylat- Derivate stammen. Ferner wurden organische Filmlösungen und wässrige Dispersionen, unterschiedliche Weichmacher und Porenbildner sowie Antiklebemittel und der Einfluss thermischer Nachbehandlung miteinander verglichen. Außerdem waren Freisetzungsuntersuchungen in unterschiedlichen Medien zum Vergleich der unterschiedlichen Darreichungsformen in Hinblick auf eine abzuschätzende in-vitro/in-vivo-Beziehung von Bedeutung. Wichtig war ferner die Lagerstabilität der Freisetzungen und die chemische Stabilität der Wirkstoffe nach Lagerung bei definierten Temperaturen über bis zu 2 Jahren. Untersuchungen zur chronopharmakologischen Arzneistoffapplikation von Hydrocortisonhemisuccinat mittels elektronischer Infusionspumpen wurden als weitere Möglichkeit für eine verzögerte Freisetzung einbezogen. Im wesentlichen ergaben sich folgende Befunde: 1. Für hohe Wirkstoffdosen mit schwer verpressbaren Substanzen stellt die Formulierung einer Tablette, die eine große Härte aufweist und dennoch eine rasche Freisetzung des Wirkstoffes gewährleistet, eine besondere Aufgabe dar. Mit Mannit und Explotab® als Sprengmittel konnten Tabletten mit Aminophyllin und ebenso auch mit Hydrocortison in niedriger Dosierung hergestellt werden. Ferner wurde ein Einfluss des Sprengmittelanteils auf die Verzögerung der Freisetzung von überzogenen Tabletten festgestellt. 2. Eudragit S100, ein Filmbildner, der sich bei einem Schwellen-pH-Wert von etwa 7,5 löst, ergab für Hydrocortisontabletten Überzüge, die nach Herstellung bei sauren pH-Werten bis einschließlich pH 7,0 stabil waren, jedoch nach einer Lagerung von 12 Monaten ihre Stabilität verloren. Gleiches galt für Hydrocortisonpellets, die jedoch bereits nach kürzerer Lagerung instabil wurden. Als Ursache konnte eine Verflüchtigung des Weichmachers nachgewiesen werden. Mit dem hydrophilen basischen Aminophyllin war es nicht möglich, säureresistente Tabletten, die über pH 6,0 stabil waren, herzustellen. 3. Bei der Herstellung von Überzügen spielt der Zeitaufwand eine entsprechende Rolle. Für Überzüge mit hochviskosen quellenden Substanzen wird eine lange Phase der Quellung und Lösung der Filmbildner für die Überzugszubereitung sowie für den Wirbelschichtprozess benötigt. Durch Zusatz von lipophilen Stoffen konnte sowohl die Prozesszeit verringert als auch die Verzögerung der Freisetzung erhöht werden. Besonders wirtschaftlich ist die Verwendung von mittelviskoser Methocel® K4M und 40 % Cetylalkohol. Die Überzüge sind für Hydrocortison gut, für Aminophyllin wegen der Diffusion durch den Film ungeeignet. In verschiedenen Freisetzungsmedien wurden stark unterschiedliche Verzögerungen festgestellt. Eine sehr gute Lagerstabilität war gegeben. 4. Ethylcellulose ist sowohl als organische Lösung als auch als wässrige Dispersion aufgetragen für Hydrocortison- und Aminophyllintabletten gleichermaßen geeignet. Ein Porenbildneranteil von 10 % Hydroxypropylmethylcellulose K4M im Filmüberzug ist für eine reproduzierbare Verzögerung von fünf Stunden ideal. Polyethylenglykol als Porenbildner erwies sich als ungeeignet. Einsatz des hydrophilen Weichmachers Triethylcitrat ergab nach Ermittlung einer geeigneten Konzentration bei gleichen Schichtdicken längere Verzögerungszeiten als lipophiles Acetyltributylcitrat. Dagegen war bei Verwendung von lipophilem Weichmacher die Freisetzungsstabilität über zwei Jahre besser. Durch die Schichtdicke konnte die Verzögerungszeit eingestellt werden. Ferner ist die Abhängigkeit der Freisetzung vom Freisetzungsmedium sehr gering. 5. Mittels Hochdruckhomogenisation konnten wässrige Dispersionen mit Celluloseacetat hergestellt werden, deren Teilchengröße mit im Handel befindlichen Dispersionen anderer Polymere vergleichbar waren. Mit Triethylcitrat als Weichmacher und Methocel® als Porenbildner eigneten diese sich für Hydrocortisontabletten gut. Aminophyllin wurde hingegen durch Diffusion schon vor dem Aufplatzen freigesetzt. Hohe Zeitunterschiede mit dem Faktor 3 wurden bei den Freisetzungsuntersuchungen in verschiedenen Medien festgestellt. Bei Lagerung kam es nach 12 Monaten zu einer Verlängerung der verzögerten Freisetzung. 6. Eudragit RS-Film ist mit 10 % Porenbildner Methocel® K4M für Hydrocortisontabletten sehr gut geeignet. Mit kurzen Prozesszeiten und geringen Schichtdicken wurden lange Verzögerungen der Freisetzung erreicht. Die Freisetzungszeiten t60% variierten allerdings in verschiedenen Medien um den Faktor 2, wobei diese nach Lagerung über 12 Monate stabil waren. Aminophyllin dagegen interagiert als ionische Substanz mit dem ebenfalls ionischen Filmbildner und wurde durch Diffusion durch die Filmmembran freigesetzt und ist daher unter diesen Bedingungen für solche Überzüge ungeeignet. 7. Das Polymer Eudragit NE eignet sich in Kombination mit dem Porenbildner Methocel ® K4M gegenüber dem Porenbildner Polyethylenglykol 20.000 sehr gut für die Befilmung von Hydrocortisontabletten, da bei kurzen Herstellungszeiten lange Verzögerungszeiten eingestellt werden konnten. Jedoch verdoppelte sich die Verzögerungszeit in verschiedenen Freisetzungsmedien, während die Lagerstabilität sehr gut war. Für Aminophyllin ist Eudragit NE ungeeignet. Die Tabletten blähten sich im Freisetzungsmedium auf und setzten den Wirkstoff durch Diffusion frei. 8. Ein wichtiges Kriterium für die Bewertung eines Filmbildners für ein Delayed Release- System stellt die Robustheit der Freisetzungseigenschaften in verschiedenen Freisetzungsmedien dar. Je unabhängiger von unterschiedlichen Ionenstärken und pH-Werten die Freisetzung erfolgt, desto besser ist auch eine Übertragung der in-vitro-Befunde auf in-vivo Bedingungen denkbar. Bei in-vivo Anwendung müssen zu den in-vitro Bedingungen noch weitere Parameter berücksichtigt werden wie die Motilität des Magen-Darm-Traktes sowie die Flüssigkeitsverhältnisse, ferner Enzyme, Gallensalze und Nahrungseinfluss. 9. Die thermische Nachbehandlung zur beschleunigten Nachverfilmung ist zwar für Aminophyllintabletten mit einer Gelbfärbung der Oberfläche verbunden, trägt jedoch bei allen Filmbildnern zu einer Verlängerung und Stabilisierung der Verzögerungszeit bei. 10. Die Wirkstoffe waren in allen Zubereitungen nach Lagerung von bis zu 24 Monaten bei 20 °C und 30 °C stabil. 11. Wie die vorliegenden Untersuchungen zeigen, sind Freisetzungseigenschaften von Wirkstoffen für Delayed Release-Systeme zur peroralen Anwendung in hohem Masse insbesondere von den physikalischen Eigenschaften der Wirkstoffe abhängig. Konstruktionen von Arzneiformen mit allgemeiner Anwendbarkeit sind deshalb in der Regel Wunschvorstellungen. 12. Die chemische Stabilität von Hydrocortisonhemisuccinat erwies sich bei der Verwendung in elektronischen Infusionspumpen als ausreichend. Auch die Dosierungsgenauigkeit der untersuchten Pumpen wies nur geringe Standardabweichungen auf. Eine Anwendung der Pumpen als Delayed Release-System für die zeitverzögerte parenterale Applikation anderer wasserlöslicher und ausreichend stabiler Arzneistoffe erscheint als möglich.