POPULARITY
Der Sonderbevollmächtigte der Bundesregierung für Migrationsabkommen, Joachim Stamp, schlägt als erster führender Ampel-Politiker ein neues Drittstaaten-Modell vor. „Wir haben aktuell noch keinen Drittstaat, der sich gemeldet hat, mit Ausnahme von Ruanda“, sagte Stamp. Das Land habe bereits Kapazitäten geschaffen, die eigentlich für das Abkommen mit Großbritannien vorgesehen waren. „Wir könnten den Versuch machen, diese Kapazitäten zu nutzen, mit dem fundamentalen Unterschied, dass die Verfahren unter dem Dach der Vereinten Nationen durchgeführt werden.“Diese Verfahren sollten nur für Flüchtlinge gelten, die über die Ostgrenze die EU betreten.Stamp hat einen Vier-Punkte-Plan zur Bekämpfung der irregulären Migration vorgeschlagen. Dazu gehört die Streichung der Sozialleistungen für Ausreisepflichtige.Von den Kommunen erwartet er, dass die Ausländerbehörden bis Anfang 2025 so ausgestattet sind, dass sie tatsächlich alle Abschiebungen umsetzen können. Zudem fordert er dauerhafte Grenzkontrollen, bis das europäische Asylsystem (GEAS) umgesetzt ist.Die Deutsche Bahn will einen neuen Fokus auf Wirtschaftlichkeit und Pünktlichkeit legen. Diese soll nach den Plänen bis 2027 im Fernverkehr wieder auf 78 Prozent steigen, derzeit liegt sie bei 65 Prozent. Table.Briefings konnte Einsicht in eine interne Präsentation nehmen. Die Gehälter des Top-Managements sollen stärker an die betriebliche Lage und die Pünktlichkeit der Züge gekoppelt werden.Table.Briefings - For better informed decisions. Sie entscheiden besser, weil Sie besser informiert sind – das ist das Ziel von Table.Briefings. Wir verschaffen Ihnen mit jedem Professional Briefing, mit jeder Analyse und mit jedem Hintergrundstück einen Informationsvorsprung, am besten sogar einen Wettbewerbsvorteil. Table.Briefings bietet „Deep Journalism“, wir verbinden den Qualitätsanspruch von Leitmedien mit der Tiefenschärfe von Fachinformationen. Professional Briefings kostenlos kennenlernen: table.media/registrierung.Audio-Werbung Table.Today: jan.puhlman@table.media Hosted on Acast. See acast.com/privacy for more information.
Den Chatbot ChatGPT, der eigenständige Texte produziert, haben inzwischen viele Deutsche ausprobiert. Doch die Möglichkeiten, generative Künstliche Intelligenz (KI) anzuwenden, gehen noch sehr viel weiter und dürften in den kommenden Jahren die deutsche Wirtschaft umpflügen. „Es ist eine Technologie, die alle Sektoren umfassend verändern wird – so wie das Internet oder die Elektrizität“, sagt Nicole Büttner von Merantix im Podcast „Die Stunde Null“. Das Berliner Unternehmen investiert in Startups und entwickelt KI-Prozesse in europäischen Unternehmen – mit Blick auf die unterschiedlichsten Branchen. „Wir sehen Beispiele in der synthetischen Biologie, in der Entwicklung von Medikamenten und neuen Materialien“, sagt Büttner. „Ein Beispiel: Man kann versuchen, Stoffe, die auf Erdöl basieren, mit biologischen Verfahren nachzubilden, also nachhaltiger zu machen. Diese Verfahren lassen sich deutlich beschleunigen, und zwar mit einem Tempo, das sonst nicht möglich wäre.“ Büttner erklärt im Podcast, welche Chancen Europa im Wettkampf mit China und den USA noch hat, wo die größten Datenschätze der Deutschen liegen – und warum es bald endlos geduldige Lehrerinnen und Lehrer geben könnte. // Weitere Themen: Das verrückte Treffen der globalen Finanzhaie in Berlin +++ Eine Produktion der Audio Alliance.Hosts: Nils Kreimeier und Martin Kaelble.Redaktion: Lucile Gagnière.Produktion: Wei Quan. +++Weitere Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/diestundenull +++60 Tage lang kostenlos Capital+ lesen - Zugriff auf alle digitalen Artikel, Inhalte aus dem Heft und das ePaper. Unter Capital.de/plus-gratis +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.html +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
In dieser Folge geht es um moderne Technologien zur Behandlung von Herzproblemen, wie Herzschrittmacher und spezielle Sonden. Zudem spreche ich über die innovative TAVI-Technik zur Ersetzung von verkalkten Herzklappen. Diese Verfahren sind gut verträglich und bieten gute Erfolgs- und Überlebensraten. Vertrauen Sie auf die Expertise der Ärzte und die Fortschritte in der Medizin.---DOC-ON-AIR - Der Podcast für den Umgang mit medizinischen Notfällen im Alltag von Dr. Joachim Huber.Weitere Informationen auf doc-on-air.comDas Gesicht zur Stimme unter www.drjoachimhuber.atBei Fragen oder Hinweisen zur aktuellen Folge schreibt mir gerne ein Email unter podcast@doc-on-air-com#notfallmedizin #ersthilfe #teambuilding #alleswirdgut
Wer Schmerzen hat, kann sich aus einer großen Auswahl an Medikamenten Abhilfe suchen. Wie kommt eigentlich der Wirkstoff in diese kleinen Pillen? Das eigentlich Spannende ist weniger, wie der Wirkstoff in kleine Pillen kommt, sondern wie so wenig Wirkstoff in zum Teil so große Tabletten kommt. Wenn du dir eine vergleichsweise große ASS-Tablette nimmst, sind da nur ein paar Milligramm Wirkstoff drin. Und das hat gewissermaßen eine lange Geschichte im Medizin- und Apothekenwesen. Tatsächlich? Früher ging es darum, Sachen, die man für medizinisch wirksam hielt, die aber absolut scheußlich schmeckten, gut zu verstecken. Deswegen sind Kräuterbonbons und -liköre auch meistens Erfindungen von geschäftstüchtigen Apothekern vergangener Jahrhunderte. Selbst die berüchtigte Coca Cola war das Werk eines Apothekers. Diese Verfahren nannte man nach dem antiken Mediziner Galenos von Pergamon Galenik. Inzwischen ist man von dieser Bezeichnung etwas abgekommen, aber das Prinzip ist eigentlich das gleiche geblieben: Du hast eine bestimmte Menge Wirkstoff, den du möglichst homogen mit verschiedenen Hilfsstoffen wie Stärke und Milchzucker so vermengst, dass eine pressfähige und gut einnehmbare Tablette entsteht. Oder im Falle von Flüssigmedikamenten ein gut dosierbares Medikament in Form von Tropfen oder Hustensaft. Dabei gibt es natürlich viele Sachen zu beachten, etwa sobald Wasser mit im Spiel ist. In Wasser werden manche Wirkstoffe instabil, sodass sie dann entweder gar nicht mehr wirken oder eben anders wirken würden. Zuweilen sind auch chemische Veränderungen an den Wirkstoffen selber vonnöten, damit sie stabil bleiben. Oder die Medikamente werden erst kurz vor der Nutzung mit Wasser angerührt. Und warum müssen Tabletten nun so groß sein? In meinen Heuschnupfentabletten sind gerade mal fünf Milligramm Wirkstoff. Hast du mal fünf Milligramm auf einer Waage gesehen? Das ist winzig, und es gibt ja Wirkstoffe, die noch geringer dosiert sind. Das wäre sehr ungünstig zu handhaben, und deswegen hat man das in diese Tablettenform gebracht. Früher wurden viele Medikamente auch als Pulver verabreicht. Selbst bei Schlafmitteln, die durchaus schon bei kleinen Überdosierungen echt gefährlich sind. Und genau das ist der Punkt – in der Tablette hast du eine genauere Dosierung. Manche Substanzen packt man auch in Tabletten mit Schutzüberzug, damit sie nicht im Magen zersetzt, sondern erst im Darm aufgenommen werden. Was entscheidet eigentlich über die Form des Medikaments? Ob Pille, Creme oder Tropfen? Das hat damit zu tun, ob man eine Wirkung auf den gesamten Körper anstrebt, etwa über den Blutkreislauf. Dann wird der Wirkstoff sinnvollerweise entweder über Tabletten oder Tropfen über den Verdauungstrakt aufgenommen. Gegebenenfalls auch als Spritze. Oder ob man möchte, dass es nur lokal wirksam wird, wie beispielsweise bestimmte Pilzmittel oder Cortison-Derivate, die man bei entzündlichen Krankheiten von Haut und Schleimhäuten einsetzt. Die setzt man wegen der Nebenwirkungen gerne nur lokal ein, zum Beispiel als Augentropfen, Hautcremes oder Spray. Die Wirkstoffforschung ist der eine Teil der medizinischen Forschung; die Art und Weise, wie dann der Wirkstoff für die optimale Wirkung in das Fertigarzneimittel verpackt wird, ist eine separate Wissenschaft, die durchaus nicht unwichtig ist. Ich habe irgendwann mal für eine Darmgeschichte Filmtabletten von einem anderen Hersteller bekommen – wirkstoffgleich, Größe, Form, selbst die Farbe war so ziemlich gleich. Aber irgendwie hatte ich den Eindruck, ich brauche davon das Doppelte, um die gleiche Wirkung zu haben. Da ist dann möglicherweise an der Rezeptur mit den Hilfsstoffen etwas anders gemacht worden, was der Verdauungstrakt offenbar auch anders aufgenommen hat.
Mit den 2en hörst Du besser! Dein Podcast für Audiology und Hörakustik und Hörgeräte
In dieser Folge unseres Hörakustik-Podcasts sprechen wir mit Dirk Oetting, Leiter des Bereichs Audiologische Diagnostik am Hörzentrum Oldenburg, über die kategoriale Lautheitsskalierung und die Rausch Implus Skalierung. Diese Verfahren spielen eine wichtige Rolle in der Hörgeräte-Anpassung und Hörforschung. Dirk Oetting erläutert uns, wie die kategoriale Lautheitsskalierung dazu beiträgt, individuelle Hörprofile zu erstellen und Hörgeräte optimal einzustellen. Außerdem diskutieren wir die Herausforderungen bei der Anwendung der Rausch Implus Skalierung und wie sie in der Hörforschung eingesetzt wird. Lernen Sie in dieser Folge mehr über die faszinierende Wissenschaft hinter der Hörakustik! --- Send in a voice message: https://podcasters.spotify.com/pod/show/hoergeraeteinsider/message
Gudrun spricht in dieser Folge mit Attila Genda über sein Praktikum bei Dassault Systèmes (Standort Karlsruhe), das er m Frühjahr und Sommer 2020 im Rahmen seines Masterstudiums Technomathematik absolviert hat. Bei Dassault Systèmes in Karlsruhe wird schon seit einigen Jahrzehnten Strukturoptimierung betrieben. Wir haben dort auch schon einige Podcastfolgen zu den mathematischen Hintergründen und den aktuellen Weiterentwicklungen aufgenommen (s.u.). Für die numerische Lösung der betrachteten partiellen Differentialgleichungen werden Finite Elemente Verfahren eingesetzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”zulässig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um konkrete Probleme zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, die jeweils auf die Aufgabenstellung zugeschnitten werden. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Strukturoptimierung verändert die Form eines Bauteils oder einer Baugruppe so, dass weniger Material nötig ist, aber vorgegebene Festigkeitsanforderungen (z.B. Spannungen, denen das Teil typischerweise ausgesetzt ist) erfüllt sind. Dabei darf sich die Materialverteilung frei in approximativen Schritten verändern und ist nicht durch eine Vorplanung der prinzipiell einzuhaltenden äußeren Form begrenzt. Dies führt z.B. zur Entstehung von Löchern in der Form des Bauteils, was die Topologie auch im mathematischen Sinne verändert. Das ist kompliziert und einfach zugleich - je nachdem, unter welchem Blickwinkel man es betrachtet. Die Einfachheit ergibt sich aus der Tatsache, dass keine Zellen aus dem numerischen Netz der Numerik entfernt werden. Man setzt einfach eine Variable, die angibt, ob dort Material vorhanden ist oder nicht. Anstatt dies jedoch mit binären Werten zu tun (d.h. Material "an" oder "aus"), ändert man die Materialdichte der Zelle kontinuierlich zwischen [0, 1]. Dabei steht 0 für kein Material und 1 für die volle Materialmenge. Um numerische Probleme zu vermeiden wird statt 0 eine kleine Zahl verwendet. Da diese Modellierung im Allgemeinen zu physikalisch nicht interpretierbaren Ergebnissen führt, bei denen die Zellen weder leer sind noch die volle Menge an Material enthalten, müssen wir sicherstellen, dass der Optimierer dazu neigt, Ergebnisse zu finden, bei denen die Anzahl der Zellen mit mittlerer Dichte minimal ist. Dazu bestrafen wir solche Konstruktionen. Diese Verfahren heißen Solid Isotropic Material with Penalization Method - kurz SIMP-Methode. Strukturoptimierungsaufgaben enthalten in der Regel eine sehr große Anzahl von Designvariablen, in der Praxis sind es nicht selten mehrere Millionen von Variablen, die die Zielfunktion beeinflussen. Demgegenüber ist die Zahl der Nebenbedingungen viel kleiner - oft gibt es sogar nur ein paar wenige. Da Strukturoptimierungsprobleme im Allgemeinem keine konvexen Promleme sind und oft auch keine linearen Probleme, ist die Auswertung des Zielfunktionals und der Nebenbedingungen sehr rechenintensiv. Deshalb wurden spezielle Algorithmen entwickelt, die besonders geeignet für die Lösung solcher Probleme sind, weil sie vermeiden können, dass bis zur Konvergenz eine große Anzahl von Funktionsauswertungen stattfinden müssen. Der wahrscheinlich meist verbreitete Algorithmus heißt Method of Moving Asymptotes (MAA). Er wird in der Podcastepisode diskutiert. Die Aufgabe von Attila in seiner Zeit des Praktikums war es nämlich, diese Methode zu verallgemeinern, dann zum implementieren und die Implementierung zu testen. Die ursprünglich angewandte MAA-Methode, die von Svanberg vorgeschlagen wurde, verwendet nur einen sehr einfachen Ansatz zur Behandlung der Länge des Intervalls zwischen der unteren und oberen Asymptote. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. doi C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. K. Svanberg: The method of moving asymptotes—a new method for structural optimization, International Journal for Numerical Methods in Engineering, 1987 Podcasts H. Benner, G. Thäter: Formoptimierung, Gespräch im Modellansatz Podcast, Folge 212, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
Das Gespräch mit Susanne Höllbacher von der Simulationsgruppe an der Frankfurter Goethe-Universität war ein Novum in unserer Podcastgeschichte. Das erste mal hatte sich eine Hörerin gemeldet, die unser Interesse an Partikeln in Strömungen teilte, was sofort den Impuls in Gudrun auslöste, sie zu einem Podcastgespräch zu diesem Thema einzuladen. Susanne hat in der Arbeitsgruppe von Gabriel Wittum in Frankfurt promoviert. Dort werden Finite-Volumen-Verfahren zur Lösung von Partiellen Differentialgleichungen benutzt. Das Verfahren betrifft hier insbesondere die räumliche Diskretisierung: Das Rechengebiet wird in Kontrollvolumen aufgeteilt, in denen durch das Verfahren sichergestellt wird, dass bestimmte Größen erhalten bleiben (z.B. die Masse). Diese Verfahren stammen aus dem Umfeld hyperbolischer Probleme, die vor allem als Erhaltungsgesetze modelliert sind. Diese Gleichungen haben die Eigenschaft, dass Fehler nicht automatisch geglättet werden und abklingen sondern potentiell aufgeschaukelt werden können. Trotzdem ist es möglich, diese numerischen Verfahren ähnlich wie Finite-Elemente-Verfahren als Variationsprobleme zu formulieren und die beiden Familien in der Analyse etwas näher zusammenrücken zu lassen. Gemeinsam ist ihnen ja ohnehin, dass sie auf große Gleichungssysteme führen, die anschließend gelöst werden müssen. Hier ist eine billige und doch wirkungsvolle Vorkonditionierung entscheidend für die Effizienz und sogar dafür, ob die Lösungen durch das numerische Verfahren überhaupt gefunden werden. Hier hilft es, schon auf Modell-Ebene die Eigenschaften des diskreten Systems zu berücksichtigen, da ein konsistentes Modell bereits als guter Vorkonditionierer fungiert. Das Promotionsprojekt von Susanne war es, eine Methode zur direkten numerischen Simulation (DNS) von Partikeln in Fluiden auf Basis eines finite Volumen-Verfahrens zu entwickeln. Eine grundsätzliche Frage ist dabei, wie man die Partikel darstellen möchte und kann, die ja winzige Festkörper sind und sich anders als die Strömung verhalten. Sie folgen anderen physikalischen Gesetzen und man ist geneigt, sie als Kräfte in die Strömung zu integrieren. Susanne hat die Partikel jedoch als Teil des Fluides modelliert, indem die Partikel als finite (und nicht infinitesimal kleine) Volumen mit zusätzlicher Rotation als Freiheitsgrad in die diskreten Gleichungen integriert werden. Damit fügen sich die Modelle für die Partikel natürlich und konsistent in das diskrete System für die Strömung ein. Vorhandene Symmetrien bleiben erhalten und ebenso die Kopplung der Kräfte zwischen Fluid und Partikel ist gewährleistet. Die Nebenbedingungen an das System werden so formuliert, dass eine Sattelpunkt-Formulierung vermieden wird. Die grundlegende Strategie dabei ist, die externen Kräfte, welche bedingt durch die Partikel und deren Ränder wirken, direkt in die Funktionenräume des zugrundeliegenden Operators zu integrieren. In biologischen Systemen mit hoher Viskotität des Fluides fungiert die Wirkung der Partikel auf das Fluid als Informationstransport zwischen den Partikeln und ist sehr wichtig. In der Umsetzung dieser Idee verhielten sich die Simulationen des Geschwindigkeitsfeldes sehr gutartig, aber Susanne beobachtete Oszillationen im Druck. Da sie sich nicht physikalisch erklären ließen, musste es sich um numerische Artekfakte handeln. Bei näherem Hinsehen zeigte sich, dass es vor allem daran lag, dass die Richtungen von Kraftwirkungen auf dem Rand der Partikel im diskreten System nicht sinnvoll approximiert wurden. In den berechneten Lösungen für das Geschwindigkeitsfeld hat sich dies kaum messbar niedergeschlagen. Im Druck zeigte sich jedoch, dass es sich lohnt, hier das numerische Verfahren zu ändern, so dass die Normalenrichtungen auf dem Rand jeweils korrekt sind. Mathematisch heißt das, dass die Ansatzfunktionen so geändert werden, dass deren Freiheitsgrade auf dem Rand liegen. Der Aufwand dafür ist vergleichsweise gering und die Resultate sind überzeugend. Die Oszillationen verschwinden komplett. Der Nachweis der Stabilität des entstehenden Gleichungssystems lässt sich über die inf-sup-Bedingung des orginalen Verfahrens erbringen, da die Konstruktion den Raum in der passenden Weise erweitert. Literatur und weiterführende Informationen S. V. Apte, M. Martin, N. A. Patankar: A numerical method for fully resolved simulation (FRS) of rigid particle–flow interactions in complex flows, Journal of Computational Physics 228, S. 2712–2738, 2009. R. E. Bank, D. J. Rose: Some Error Estimates for the Box Method, SIAM Journal on Numerical Analysis 24, S. 777–787, 1987. Glowinski, R.: Finite element methods for incompressible viscous flow, P. G. Ciarlet, J. L. Lions (Eds.), Handbook of Numerical Analysis IX (North-Holland, Amsterdam), S. 3–1176, 2003. Strang, G.: Wissenschaftlisches Rechnen, Springer-Verlag Berlin Heidelberg, 2010. A. Vogel, S. Reiter, M. Rupp, A. Naegel, G. Wittum: UG 4: A novel flexible software system for simulating PDE based models on high performance computers, Computing and Visualization in Science 16, S. 165–179, 2013. G. J. Wagner, N. Moes, W. K. Liu, T. Belytschko: The extended finite element method for rigid particles in Stokes flow, International Journal for Numerical Methods in Engineering 51, S. 293–313, 2001. D. Wan, S. Turek: Fictitious boundary and moving mesh methods for the numerical simulation of rigid particulate flows, Journal of Computational Physics 222, S. 28–56, 2007. P. Wessling: Principles of Computational Fluid Dynamics, Springer, Series in Computational Mathematics, 2001. J. Xu, Q. Zou: Analysis of linear and quadratic simplicial finite volume methods for elliptic equations, Numerische Mathematik 111, S. 469–492, 2009. X. Ye: On the Relationship Between Finite Volume and Finite Element Methods Applied to the Stokes Equations, Numerical Methods for Partial Differential Equations 17, S. 440–453, 2001. Podcasts T. Henn: Partikelströmungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 115, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/partikelstroemungen L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/filters L. Adlung: Systembiologie, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/systembiologie
Oh, über Bewerbungen kann bestimmt jeder erzählen. Viele von uns haben Wunden davongetragen. Ich habe mich einstmals auf einige Professorenstellen beworben. Diese Verfahren dauern viele Monate bis manchmal wenige Jahre.
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
Ortsbezogene Dienste (Location-based Services, LBS) sind in den letzten Jahren durch die weite Verfügbarkeit von GPS zu einem Massenphänomen gewachsen. Insbesondere für die Steuerung von mobilen Endgeräten wird mehr und mehr Kontextinformation hinzugenommen, da sowohl die Bedienbarkeit als auch die Informationsdichte auf den kleinen Smartphones im Kontrast zur Informationsfülle des Internets stehen. Daher werden vielfach Dienste nicht mehr allein auf der Nutzereingabe basierend erbracht (reaktiv), sondern bieten dem Nutzer relevante Informationen vollautomatisch und kontextabhängig (proaktiv) an. Durch die proaktive Diensterbringung und ortsbezogene Personalisierung wird die Benutzbarkeit der Dienste verbessert. Leider kann man derzeit solche Dienste nur außerhalb von Gebäuden anbieten, da zum Einen kein einheitliches und günstiges Positionierungssystem verfügbar ist, und zum Anderen die notwendigen Kartendaten nicht vorliegen. Vor allem bei den Kartendaten fehlt es an einfachen Standards und Tools, die es dem Eigentümer eines Gebäudes ermöglichen, qualitativ hochwertige Kartendaten zur Verfügung zu stellen. In der vorliegenden Dissertation werden einige notwendige Schritte zur Ermöglichung ubiquitärer und skalierbarer Indoornavigation vorgestellt. Hierbei werden die Themenfelder Positionierung, Modellierung und Kartographie, sowie Navigation und Wegfindung in einen umfassenden Zusammenhang gestellt, um so eine tragfähige, einfache und skalierbare Navigation zu ermöglichen. Zunächst werden einige Verbesserungen an Terminal-basierten WLAN-Indoorpositionierungssystemen vorgeschlagen und diskutiert, die teils auf der Verwendung neuer Sensorik aktueller Smartphones basieren, und teils auf der Verwendung besonders kompakter Umgebungsmodelle auf mobilen Endgeräten. Insbesondere werden Verfahren vorgeschlagen und evaluiert, mit denen sich aus typischen CAD-Daten mit geringem Bearbeitungsaufwand die notwendigen Zusatzinformationen für eine flächendeckende Indoornavigation modellieren lassen. Darüber hinaus werden Methoden untersucht, die diese semantischen Erweiterungen teil- bzw. vollautomatisch aus Zeichnungen extrahieren können. Ausgehend von dem Ziel, flächendeckende Navigation basierend auf CAD-Daten zu ermöglichen, stößt man auf das Problem, eine Menge an interessanten Punkten so zu ordnen, dass der Reiseweg kurz ist.Dieses Problem ist mit dem NP-vollständigen Travelling-Salesman-Problem verwandt. Allerdings ist die geometrische Situation in Gebäuden derart komplex, dass sich die meisten derzeit bekannten heuristischen Lösungsalgorithmen für das Travelling-Salesman-Problem nicht ohne Weiteres auf die Situation im Inneren von Gebäuden übertragen lassen. Für dieses Problem wird ein heuristischer Algorithmus angegeben, der in linearer Laufzeit kleinere Instanzen des Problems mit akzeptablen Fehlern lösen kann. Diese Verfahren wurden im Rahmen eines Projekts mit dem Flughafen München erarbeitet und umgesetzt. In diesem Projekt sollten die ungelösten Probleme einer bereits existierenden kleinflächigen Demonstrator-Implementierung eines Fluggastinformationssystems gelöst werden. Auf diesen Algorithmen und Verfahren basiert die Navigationskomponente des Fluggastinformationssystems InfoGate, das die flächendeckende Navigation in den Terminals des Flughafen München mit verteilten Anzeigesystemen ermöglicht und seit dem 6. Juni 2011 im Produktivbetrieb ist. So konnten die Verfahren dieser Arbeit in einer real existierenden, komplexen Umgebung evaluiert werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 12/19
Im Rahmen der vorliegenden Arbeit wurde ein relativ großes Patientenkollektiv von 31 Patienten mit letaler Insomnie neuropathologisch untersucht. Es wurden HE-histologische und immunhistologische Schnitte von jeweils 15 Regionen angefertigt. Ferner wurde erstmals die Methode PET-Blot systematisch angewandt und mit den anderen Methoden verglichen. Weiterhin wurde dieses Krankheitsbild auf Subtypen hin untersucht. Aus den Akten ergaben sich bei zehn Patienten Hinweise auf eine familiäre neurodegenerative Erkrankung. An Symptomen waren Adynamie, Desorientiertheit, Dysarthrie, Frontalhirnzeichen, kognitive Störungen, Myoklonus und vegetative Störungen sehr häufig, Schlafstörungen waren nicht in jedem Fall vorhanden. Mit 22 Männern und 9 Frauen unter den Patienten gab es eine ungleiche Geschlechterverteilung, deren Ursache unklar ist. Die klinischen Daten und die Histopathologie der Geschlechter ähnelten sich sehr. Insgesamt begann die Krankheit im Durchschnitt mit 52 Jahren und dauerte 12 Monate. Die Patienten starben im Mittel mit 53 Jahren. Die genetische Analyse ergab bei fünf Patienten die FFI-Mutation an Codon 178 auf dem PRNP in Verbindung mit einer MV-Heterozygotie an Codon 129 und bei 23 Patienten die Mutation an Codon 178 in Verbindung mit einer MM-Homozygotie an Codon 129. Bei zwei Patienten war keine Mutation an Codon 178 nachweisbar, diese sporadischen Fälle waren MM-homozygot an Codon 129. Bei einem Patienten war die genetische Analyse nicht möglich. Die heterozygoten Patienten hatten mit 16 Monaten eine 5 Monate längere Krankheitsdauer als die homozygoten Patienten, weiterhin hatten die heterozygoten Patienten mehr histopathologische Veränderungen im Allokortex. Die sporadischen Fälle unterschieden sich in den klinischen Daten und in der Histopathologie nicht wesentlich von den familiären Fällen. Der Thalamus war die einzige Hirnregion, die in allen Fällen die drei histopathologischen Kriterien einer Prionkrankheit aufwies. Diese Region zeigte die ausgeprägstesten histopathologischen Veränderungen, gefolgt von der Medulla oblongata. Die Regionen okzipitaler Kortex, Hippocampus und Cerebellum wiesen dagegen die geringsten histopathologischen Veränderungen auf. Alle anderen Regionen, auch bisher im Zusammenhang mit der FI selten beschriebene Regionen wie Gyrus cinguli, Insel und Vierhügelplatte, zeigten geringgradige histopathologische Veränderungen auf. Die Histopathologie nahm von frontalen über temporalen und parietalen hin zum okzipitalen Kortex ab. Da die meisten Fälle in diesen Eigenschaften gut übereinstimmten, ist eine moderate Histopathologie in Thalamus und in den unteren Oliven in Kombination mit geringgradigen Veränderungen in den anderen Regionen ein deutlicher Hinweis für das Vorliegen einer FI. Die PrPSc-Ablagerungen in der Immunhistologie waren sehr diskret ausgeprägt und häufig auf das Zytosol der Nervenzellen beschränkt; bis auf einen Fall mit einem perivakuolären Muster und bis auf drei Fälle, die in allen Regionen negativ ausfielen, waren die Ablagerungen in der Immunhistologie fein dispers. Die PrPSc-Ablagerungen in den PET- Blots waren im Gegensatz zur Immunhistologie in jedem Fall nachweisbar und intensiver gefärbt. Sie waren – bis auf einen Fall mit einem perivakuolären Muster – fein dispers. Es wurden besondere Muster im PET-Blot gefunden: es handelte sich um unterschiedlich gefärbte Schichten des Neokortex und des Cerebellums sowie um verschieden stark betroffene Areale des Allokortex. In der vorliegenden Arbeit ergaben sich Hinweise darauf, dass sich die PrPSc-Ablagerungen im Allokortex mit Dauer der Erkrankung vom entorhinalen Kortex aus bis hin zum Hippocampus steigern. Aufgrund fehlender Unterschiede zwischen den Regionen im Gesamtprofil der Immunhistologie und aufgrund der äußerst unterschiedlichen Einzelprofile der PET-Blots konnte weder im Gesamtprofil der Immunhistologie noch im Gesamtprofil der PET-Blots eine FI-typische Verteilung herausgearbeitet werden, anhand derer die Diagnose FI gestellt werden könnte. In der vorliegenden Arbeit wurden statistische Verfahren angewandt, um Fälle mit deutlich abweichenden klinischen und neuropathologischen Merkmalen herauszuarbeiten und mögliche Subgruppen zu identifizieren. Diese Verfahren erbrachten jedoch kein eindeutiges Resultat. Nur einer der 31 Fälle unterschied sich durch eine sCJD-ähnliche Histopathologie, ein weiterer durch ein perivakuoläres Ablagerungsmuster deutlich von allen anderen. Diese Fälle könnten Subgruppen repräsentieren, falls mehrere der jeweiligen Fälle in einer größeren Patientenstichprobe identifiziert werden könnten. Bei der Suche nach Subgruppen ergaben sich einige bemerkenswerte Zusammenhänge zwischen Pathologie und klinischen Daten. Beispielsweise war ein früher Krankheitsbeginn mit einer schweren Histopathologie im Thalamus und einer geringen Histopathologie in der Substantia nigra verbunden. Patienten mit deutlicher Pathologie jeglicher Art im Neokortex hatten eine besonders lange Krankheitsdauer. PrPSc-Ablagerungen in der Mehrzahl der Regionen in der Immunhistologie bedeuteten einen sehr viel früheren Krankheitsbeginn und Sterbealter.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Ein ernstes Problem stellt sich bei der Interpretation von funktionellen Magnetresonanztomographie-Aufnahmen (fMRT), wenn in den SPMs (Statistical Parametric Maps) Über- oder Unteraktivierungen auftreten. Es gibt a priori keine Möglichkeit, um zwischen "realer" neuronaler Aktivität und Über-/Unteraktivierung, die durch Artefakte hervorgerufen wird, zu differenzieren. In vielen Fällen – z.B. wenn die Ventrikel als aktiv klassifiziert werden – kann man davon ausgehen, daß es sich nicht um neuronale Aktivität handelt, sondern um Noise (Störungen) in den Meßdaten, welche durch Artefakte hervorgerufen wurden. Jedoch können auch in allen anderen Fällen bei statistischer Evaluierung, die auf T- oder Z-Statistik beruht, durch Artefakte Anomalien in den T- bzw. Z-Werte-Verteilungen hervorgerufen werden. Wichtige Informationen zur Identifikation und Kompensation von Noise lassen sich also aus der Verteilung der T- oder Z-Werte ableiten. Das Ziel dieser Arbeit war, eine Methode zu entwickeln, die anhand der Charakteristika von T- bzw. Z-Werte-Verteilungen die Identifikation von Artefakten ermöglicht. Weiterhin sollten neue Thresholding-Verfahren erarbeitet werden, welche den von Artefakten hervorgerufenen Noise kompensieren und somit Über- bzw. Unteraktivierung verringern oder eliminieren. In einem ersten Schritt wurden die T-Werte-Verteilungen aus Messungen von gesunden Probanden, die teilweise artefaktbehaftet waren, in Hinblick auf die Charakteristika Verschiebung, Breite und Deformation analysiert. Diese empirischen Daten ergaben, daß Anomalien in der T-Werte-Verteilung kein zu vernachlässigender Ausnahmefall sind. Mit der neu entwickelten Methode zur Identifikation von Artefakten konnten bei 98 % der Messungen anomale Charakteristika der T-Werte-Verteilungen nachgewiesen werden. Eine Analyse der T-Werte-Verteilung ist demzufolge unbedingt erforderlich, um die Qualität der Meßergebnisse und somit die Aussagekraft der Voxelaktivierungen beurteilen zu können. Hierfür stellen die in dieser Arbeit entwickelten Methoden ein effektives Werkzeug dar. Im nächsten Schritt wurden anhand von Simulationsdaten die Ursachen für die Anomalien der T-Werte-Verteilungen untersucht. Es zeigte sich, daß Verschiebungen, Verbreiterungen oder Deformationen der T-Werte-Verteilung durch Korrelationen von Artefakten mit dem Paradigma hervorgerufen wurden. Basierend auf diesen Ergebnissen wurden Adaptive Thresholding-Verfahren entwickelt, die Anomalien in der T-Werte-Verteilung und somit Artefakte kompensieren können. Bei Adaptiven Thresholds wird die verwendete theoretische Wahrscheinlichkeitsdichtefunktion (Probability Density Function, PDF) an die empirische T-Werte-Verteilung angepaßt. Die verschiedenen Adaptiven Thresholds – Shifted, Fitted, Proportional – unterscheiden sich in der Art und Weise, wie die Anpassung der PDF an die empirische T-Werte-Verteilung durchgeführt wird. Diese Verfahren wurden schließlich auf Simulationsdaten und fMRT-Messungen gesunder Probanden angewandt. Dabei konnte gezeigt werden, daß Artefakte nicht zwangsläufig eine Verschlechterung der Ergebnisse bewirken. Es war allerdings erforderlich, ein zu den Artefakten bzw. Anomalien passendes, Adaptives Thresholding-Verfahren anzuwenden. Die in dieser Arbeit entwickelten Shifted Thresholds liefern bei verschobenen T-Werte-Verteilungen wesentlich bessere Ergebnisse als die etablierten Standard Thresholding-Verfahren. Daher wird für zukünftige Untersuchungen die Anwendung von Shifted Thresholds vorgeschlagen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Hyaliner Knorpel ist ein Gewebe mit geringer Selbstheilungstendenz. Neben der Orthopädie besteht auch in der Kopf-Hals-Chirurgie großer Bedarf an Knorpelgewebe zum Einsatz im Rahmen rekonstruktiver und plastischer Eingriffe. Die gängigen Methoden des Knorpelersatzes umfassen autologe und allogene Knorpeltransplantationen sowie die Verwendung alloplastischer Materialien. Diese Verfahren sind mit einigen Nachteilen, wie Infektionsübertragung und immunologischen Abstoßungsreaktionen, behaftet. Die Züchtung von autologem Knorpelgewebe aus isolierten Knorpelzellen eines Patienten mit den Methoden des Tissue Engineering stellt eine vielversprechende Alternative zu den genannten Verfahren dar. Zur Optimierung der Methoden der Knorpelzüchtung wurde in der vorliegenden Arbeit der Einfluss der Wachstumsfaktoren IGF-1 und TGFβ-2 auf tissue-engineerten Knorpel nach Kultur in vitro und anschließend in vivo untersucht. Zusätzlich wurde der Einfluss zweier vollresorbierbarer Trägermaterialien – Ethisorb-Vliese mit Standard oder reduziertem Gehalt an PDS – auf das Verhalten der gezüchteten Gewebe in vivo überprüft. Nach enzymatischer Gewinnung von Einzelzellen aus humanem Septumknorpel wurden diese in Monolayer-Kultur amplifiziert und anschließend auf Ethisorb-Vliese aufgebracht. Unter diesen dreidimensionalen Kulturbedingungen wurden die Wachstumsfaktoren in Kombination als Zusatz zum Kulturmedium verwendet. Die Zell-Copolymer-Konstrukte wurden dann für 4 und 12 Wochen subkutan in homozygote thymusaplastische Nacktmäuse implantiert, um ihr Verhalten in vivo zu untersuchen. Nach der dreidimensionalen Kultur in vitro und nach 4 bzw. 12 Wochen in vivo wurden die Konstrukte nach ihrem Resorptionsverhalten beurteilt, gewogen, histologisch und biochemisch untersucht. Dabei wurden die Zellzahl sowie der Glykosaminoglykan- und Hydroxyprolingehalt der Präparate bestimmt. Die Wachstumsfaktoren hatten in der eingesetzten Konzentration und Kombination sowie unter den verwendete Kulturbedingungen keinen eindeutig positiven Einfluss auf die gezüchteten Gewebe. Mit Ausnahme des Nassgewichts nach der Kultur in vitro, war keiner der erhobenen Parameter in der Versuchsgruppe signifikant von der Kontrollgruppe verschieden. 64 Trägermaterialien mit reduziertem Gehalt an PDS führten nach Implantation in das Versuchstier signifikant häufiger zu Resorptionen der Zell-Copolymer-Konstrukte und sind damit zur Züchtung von Knorpelgewebe mit den verwendeten Methoden wenig geeignet. Ethisorb-Vliese mit Standard PDS-Gehalt wurden dagegen als geeignete Zellträger zur Züchtung von Knorpelgewebe bestätigt. Die vorliegende Arbeit zeigt, dass zur Optimierung der Kulturmethoden im Tissue Engineering von Knorpel weitere Untersuchungen über den Effekt von Wachstumsfaktoren nötig sind, im Besonderen bei der Verwendung von humanen Septumknorpelzellen.