Podcasts about parallelisierung

  • 11PODCASTS
  • 20EPISODES
  • 41mAVG DURATION
  • 1MONTHLY NEW EPISODE
  • May 2, 2024LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about parallelisierung

Latest podcast episodes about parallelisierung

In Numbers We Trust - Der Data Science Podcast
#46: Strategien zur Performance-Optimierung in R

In Numbers We Trust - Der Data Science Podcast

Play Episode Listen Later May 2, 2024 24:46


R ist keine Compilersprache und damit von Natur aus eher langsam. Wir sprechen darüber wie man die Performance von R Code optimieren kann und welche spezifischen Herausforderungen R dabei mit sich bringt. Wir besprechen Methoden, um Engpässe im Code effizient zu identifizieren, darunter Tools wie system.time, microbenchmark und profvis. Anschließend teilen wir Techniken für die Arbeit mit großen Datensätzen und die Parallelisierung. Wir zeigen wie durch gezielte Optimierung erhebliche Performance-Verbesserungen erzielt werden können. ***Links:*** Episode #41: Strategien zur Performance-Optimierung in Python https://www.podbean.com/ew/pb-weg8d-158cd71 Blogartikelserie zu Code Performance in R:  R-Code beschleunigen https://www.inwt-statistics.de/blog/code-performanz-in-r-r-code-beschleunigen Warum ist mein Code langsam? https://www.inwt-statistics.de/blog/code-performanz-in-r-warum-ist-mein-code-langsam Parallelisierung https://www.inwt-statistics.de/blog/code-performanz-in-r-parallelisierung Mit großen Datensätzen arbeiten https://www.inwt-statistics.de/blog/code-performanz-in-r-mit-grossen-datensaetzen-arbeiten Rccp: https://www.rcpp.org/ Fragen, Feedback und Themenwünsche gern an: podcast@inwt-statistics.de

In Numbers We Trust - Der Data Science Podcast
#41: Strategien zur Performance-Optimierung in Python

In Numbers We Trust - Der Data Science Podcast

Play Episode Listen Later Feb 22, 2024 27:27


Mit welchen Strategien können Entwickler*innen und Data Scientists die Laufzeit von Python Code verringern? Wir diskutieren warum Performance-Optimierung überhaupt notwendig ist und was das genau bedeutet. Anschließend gehen wir auf häufige Engpässe und verschiedene Ansätze zur Verbesserung der Effizienz, wie Profiling, Refactoring-Techniken und Parallelisierung ein.    ***Links:*** inwt Website: https://www.inwt-statistics.de/

Einsen & Nullen
KI & GPUs - Von Pizzalieferdiensten und Kleiderschränken

Einsen & Nullen

Play Episode Listen Later May 31, 2022 13:57


Grafikkarten sind nur für Videobearbeitung und Gaming relevant? Von wegen! In unserem neuen Schwerpunkt „KI & GPUs“ erklären uns unseren Gäste Karen Fitzgerald (HPE) und Timo Klos (NVIDIA), wieso Grafikkarten eine wichtige Komponente für die Entwicklung von künstlicher Intelligenz sind. Was es mit der sogenannten „Parallelisierung“ auf sich hat und wieso man das Ganze mit einem Pizzalieferdienst vergleichen kann, wird ebenso in dieser Folge beleuchtet wie die Tatsache, dass ein „Gamer“ für die initiale Idee verantwortlich war.

Sein und Streit - Das Philosophiemagazin (ganze Sendung) - Deutschlandfunk Kultur
Ganze Sendung vom 29.5.2022 - Von Arbeitskämpfen und Analogien

Sein und Streit - Das Philosophiemagazin (ganze Sendung) - Deutschlandfunk Kultur

Play Episode Listen Later May 29, 2022 41:53


Die Philosophin Nancy Fraser erklärt, was die drei verschleierten Gesichter des Kapitalismus sind und wie soziale Bewegungen gegen ihn kämpfen können. Außerdem: Ist Putin wie Hitler oder führt diese Parallelisierung in die Irre? Moderation: Simone Millerwww.deutschlandfunkkultur.de, Sein und StreitDirekter Link zur Audiodatei

Sein und Streit - Das Philosophiemagazin (ganze Sendung) - Deutschlandfunk Kultur
Ganze Sendung vom 29. Mai - Von Arbeitskämpfen und Analogien

Sein und Streit - Das Philosophiemagazin (ganze Sendung) - Deutschlandfunk Kultur

Play Episode Listen Later May 29, 2022 41:53


Die Philosophin Nancy Fraser erklärt, was die drei verschleierten Gesichter des Kapitalismus sind und wie soziale Bewegungen gegen ihn kämpfen können. Außerdem: Ist Putin wie Hitler oder führt diese Parallelisierung in die Irre? Moderation: Simone Millerwww.deutschlandfunkkultur.de, Sein und StreitDirekter Link zur Audiodatei

Sein und Streit - Das Philosophiemagazin - Deutschlandfunk Kultur
Ganze Sendung vom 29. Mai - Von Arbeitskämpfen und Analogien

Sein und Streit - Das Philosophiemagazin - Deutschlandfunk Kultur

Play Episode Listen Later May 29, 2022 41:53


Die Philosophin Nancy Fraser erklärt, was die drei verschleierten Gesichter des Kapitalismus sind und wie soziale Bewegungen gegen ihn kämpfen können. Außerdem: Ist Putin wie Hitler oder führt diese Parallelisierung in die Irre? Moderation: Simone Millerwww.deutschlandfunkkultur.de, Sein und StreitDirekter Link zur Audiodatei

Engineering Kiosk
#14 async und await: asynchrones Arbeiten im Alltag

Engineering Kiosk

Play Episode Listen Later Apr 12, 2022 56:29


Remote-Work, asynchrone und parallele Arbeit und die eigene Work-Life-Balance.Durch Corona haben wir alle einen Geschmack von der Remote-Arbeit und Home Office bekommen. Einige hassen es, andere lieben es und haben sogar dem Büro für immer den Rücken gekehrt. Aber worauf kommt es denn wirklich an?Wolfgang und Andy gehen dieser Frage mal auf den Grund: async und await, Event-Loop, Fokus-Zeiten, Eule und Lerche als Menschentypen, Vertrauen im Team, messbare Ergebnisse, Pro-Aktivität und Schreib-Skills. Was das alles miteinander zu tun hat, hört ihr in dieser Episode.Bonus: Warum man in Amsterdam anders meditiert als anderswo, wieso Andys Liebe zu Redis einen Knick bekommen hat und ob Wolfgang wirklich Holländer ist.Feedback an stehtisch@engineeringkiosk.dev oder via Twitter an https://twitter.com/EngKioskLinksPieter Levels https://levels.io/async/ http://nightowlsbook.com/ Slack: https://slack.com/Design Documents at Google: https://www.industrialempathy.com/posts/design-docs-at-google/Mantis BugTracking: https://www.mantisbt.org/Redmine: https://www.redmine.org/Sprungmarken(00:00) Intro und Rückmeldung zur Episode #13 über Produktivität(01:22) Async + Asynchronität (async, await, event loop)(02:00) Vorteil von asynchroner Verarbeitung(04:13) Asynchronität vs. Parallelisierung(07:08) NodeJS, Callback-Hölle und async/await in Ruby(08:27) Warum verwenden wir nicht die asynchrone Herangehensweise um unsere eigene Zeit besser auszunutzen? - Asynchrones Arbeiten(11:23) Asynchrones Arbeiten, Schlafrhythmus (Eule vs. Lerche) und lange Fokus-Zeiten(14:48) Was verstehen wir unser asynchroner Arbeit?(18:34) Wie kommt man denn zu dem asynchronen Arbeiten (zB als kleine Firma)? (Vertrauen, Pro-Aktivität, Über-Kommunikation)(21:29) … was noch? (Kollaboratives Tooling, Energie für Vorschläge und Objektivität, Diagramme, Transparenz)(29:12) Die Funktion und Wahrnehmung von Slack in der asynchronen Arbeitswelt(34:05) Die Schriftform als Skill und warum dies trainiert werden sollte(35:22) Anwendungen von deinen Schreib-Skills im Ticket-System(38:50) Technical Writing, Dokumentation und Meeting Protokolle(39:26) Design Dokumente als Basis für die asynchrone Arbeit(53:32) Tiefere Gedanken während des schreibens(54:05) Wrap Up zum Thema asynchrones Arbeiten und OutroHostsWolfgang Gassler (https://twitter.com/schafele)Andy Grunwald (https://twitter.com/andygrunwald)Engineering Kiosk Podcast: Anfragen an stehtisch@engineeringkiosk.dev oder via Twitter an https://twitter.com/EngKiosk

Modellansatz
Benchmark OpenLB

Modellansatz

Play Episode Listen Later Aug 20, 2021 34:42


Gudrun spricht in dieser Folge mit Sarah Bischof, Timo Bohlig und Jonas Albrecht. Die drei haben im Sommersemester 2021 am Projektorientiertes Softwarepraktikum teilgenommen. Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle, die Idee von Lattice-Boltzmann-Methoden und die Nutzung der Hochleistungrechner am KIT. Außerdem finden sie sich für ein einführendes kleines Projekt in Gruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert oder es wird eine Podcastfolge aufgenommen. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Sarah, Timo und Jonas sind am KIT im Masterstudiengang Chemieingenieurwesen eingeschrieben. Neben den verschiedenen Masterstudiengängen Mathematik kommen aus diesem Studiengang die meisten Interessenten für das Softwarepraktikum. Im Podcast erläutern sie, was sie an der Strömungssimulation interessiert und inwieweit sie sich gut oder auch nicht so gut auf die Anforderungen vorbereitet gefühlt haben, wie sie sich die Arbeit in der Gruppe aufgeteilt haben und was sie an fachlichen und überfachlichen Dingen dort gelernt haben. Das Thema des Projektes war ein Benchmark für die Durchströmung der Aorta. Dies ist einer der Showcases für OpenLB, die auf den ersten Blick die Leistungsfähigkeit der Software demonstrieren sollen. Das Projekt wurde von der Gruppe in drei Teile gegliedert: Benchmark Test auf dem bwUniCluster 2.0 (High Performance Computer) Performance Analyse mit selbstgeschriebener Source Code Erweiterung Performance Analyse mit externer Software (Validierung der Source Code Erweiterung) Mit Hilfe der Benchmark Tests auf dem HPC konnte die maximale Skalierbarkeit des Aorta Source Codes in Abhängigkeit der Problemgröße gefunden werden. Sie gibt an, auf wie vielen Computerprozessoren der Showcase mit der höchsten Performance simuliert werden kann. Des Weiteren wurde die parallele Effizienz mit Hilfe der Speedup Kennzahl untersucht. Diese beschreibt inwiefern sich die Simulationszeit infolge von Erhöhung der Prozessoranzahl verringert. In beiden Fällen zeigten die Performanceindikatoren ein Maximum bei 400-700 Prozessoreinheiten für Problemgrößen bis zu einer Resolution von N = 80. Das Softwarepaket OpenLB beinhaltet in Release 1.4r0 keine detaillierten Schnittstellen zur Performancemessung. Durch eine Source Code Erweiterung konnte eine interne Zeitmessung der einzelnen Funktionen des Codes realisiert werden. Dabei wurden so genannte Bottlenecks identifiziert und dokumentiert, welche durch Updates in zukünftigen Versionen der Software eliminiert werden sollen. Des Weiteren konnte auch durch die Code Erweiterung eine Aussage über die Parallelisierung getroffen werden. Im Vergleich zu den Benchmark Tests können direkt Funktionen des Source Codes, die die Parallelisierung hemmen, bestimmt werden. Die Performance Analyse durch das externe Programm und durch die Source Code Erweiterung bestätigen eine gut funktionierende Parallelisierung. Die Realisierung erfolgte dabei durch die Messung der Laufzeit der Hauptschritte einer OpenLB Simulation, sowie der detaillierten Analyse einzelner Funktionen. Diese finden sich zum aktuellen Zeitpunkt im Post-Processing des "Collide And Stream" Schrittes der Simulation. Collide And Stream beschreibt einen lokalen Berechnungsschritt, einen lokalen und einen nicht lokalen Übertragungsschritt. Der Kollisionsschritt bestimmt ein lokales Gleichgewicht der Massen-, Momenten- und Energiebilanzen. Im nicht-lokalen Streaming Schritt werden diese Werte auf die angrenzenden Blöcke des Simulationsgitters übertragen. Dies ermöglicht im Vergleich zu CFD-Simulationen, die auf Basis der Finite-Volumen-Methode (FVM) die Navier-Stokes Gleichungen lösen, effizientere Parallelisierung insbesondere bei Einsatz einer HPC-Einheit. Die Post Prozessoren im Collide And Stream wenden unter anderem bestimmte, im vorangegangenen Schritt gesetzte Randbedingungen auf definierte Bereiche der Simulationsgeometrie an. Sie werden dabei nur für nicht-lokale Randbedingungen verwendet, weitere Randbedingungen können auch innerhalb des Kollisionsschrittes modelliert werden. Im Showcase der Aorta ist für das Fluid (Blut) am Eingang der Simulation eine Geschwindigkeits-Randbedingung nach Bouzidi mit Poiseuille-Strömungsprofil und am Ausgang eine "stress-free" Bedingung gewählt. Für die Aortawand ist eine no-slip Bedingung mit Fluidgeschwindigkeit null implementiert (Für genauere Informationen zum Simulationsaufbau hier und hier. Die Laufzeit der Post-Processor Funktionen, deren Aufgabe es ist die Randbedingungen anzuwenden, können mit dem Timer des Release 1.4r0 nicht analysiert werden. Mit Blick auf spätere Releases ist es mit der Source Code Erweiterung nun möglich mit geringem Aufwand Daten über die Effizienz der vorhandenen, neuer oder verbesserter Funktionen in OpenLB zu gewinnen. Eine integrierte Zeitmessung als Analysetool kann einen direkten Einfluss auf die Performance des Source Codes haben, weshalb mit Hilfe der externen Software AMDµProf die Bottlenecks validiert wurden. Sowohl bei der internen als auch externe Performance Analyse sind die selben Post-Processing Schritte als Bottlenecks erkennbar, welches die Code Erweiterung validiert. Zusätzlich konnte mit der AMDμProf-Software die aktuelle OpenLB Version 1.4r0 mit der vorherigen Version 1.3r1 verglichen werden. Dabei fällt auf, dass sich die Bottlenecks vom Berechnungsschritt in Collide And Stream (Release 1.3r1) zum Post-Processing Schritt in Collide And Stream (Release 1.4r0) verschoben haben. Abschließend wurde eine vektorisierte Version von OpenLB erfolgreich getestet und ebenfalls auf Bottlenecks untersucht. Eine Vektorisierung eines Codes, auch bekannt als SIMD, soll die Parallelisierung verbessern und der Aorta Simulation eine bessere Performance verleihen. Das Bottleneck des Post-Processing Schritts in Collide And Stream, speziell durch Implementierung neuer Bouzidi Boundaries, wurde durch eine weitere Gruppe im Rahmen des Projektorientierten Softwarepraktikums optimiert. Es konnte eine Performance Verbesserung um einen Faktor 3 erreicht werden (mit OpenMP Compiler). Durch eine gezielte Analyse der Bottlenecks im Code konnte das Potential für die Beschleunigung der Simulation erweitert werden. Aber natürlich lohnt es sich hier weiterhin anzusehen, wo noch konkretes Potential für die Beschleunigung der Simulation liegt. Zumal seit dem letzten Relounch einige Pardigmen in der Software OpenLB verändert wurden. Podcasts L. Dietz, J. Jeppener, G. Thäter: Gastransport - Gespräch im Modellansatz Podcast, Folge 214, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019. A. Akboyraz, A. Castillo, G. Thäter: Poiseuillestrom - Gespräch im Modellansatz Podcast, Folge 215, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019.A. Bayer, T. Braun, G. Thäter: Binärströmung, Gespräch im Modellansatz Podcast, Folge 218, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. Literatur und weiterführende Informationen Showcase blood flow simulation auf der Seite der Software OpenLBAortic Coarctation Simulation Based on the Lattice Boltzmann Method: Benchmark Results, Henn, Thomas;Heuveline, Vincent;Krause, Mathias J.;Ritterbusch, SebastianMRI-based computational hemodynamics in patients with aortic coarctation using the lattice Boltzmann methods: Clinical validation study; Mirzaee, Hanieh;Henn, Thomas;Krause, Mathias J.;Goubergrits, Leonid; Schumann, Christian; Neugebauer, Mathias; Kuehne, Titus; Preusser, Tobias; Hennemuth, Anja

Innovate or Die // by digital kompakt
Projekttetris: Erfolgreich mehrere Projekte managen | Innovate or Die #9

Innovate or Die // by digital kompakt

Play Episode Listen Later Apr 14, 2020 34:59


Viel zu tun, so wenig Zeit: Warum also nicht mehrere Aufgaben miteinander verbinden? Doch wie gehst Du dieses Projekt-Tetris am besten an, ohne Dich zu verzetteln? Ein Block nach dem anderen oder doch gleich mehrere auf einmal? Solange Du die gegebene Situation richtig einschätzt, kann beides eine legitime Methode sein, meint Boris Lokschin. In dieser Folge von Innovate Or Die erklärt er, worauf Du achten solltest, wenn Du zum Multitasking-Meister aufsteigen willst. Du erfährst... 1)…auf welche Eigenschaften Deines Projektes Du achten solltest 2)…wann parallele und wann sequenzielle Herangehensweisen besser sind 3)…Best- und Worst-Practices bei der Umsetzung 4)…wie Du die einzelnen Projekt-Elemente am Besten aufeinander abstimmst

digital kompakt | Business & Digitalisierung von Startup bis Corporate
Projekttetris: Erfolgreich mehrere Projekte managen | Innovate or Die #9

digital kompakt | Business & Digitalisierung von Startup bis Corporate

Play Episode Listen Later Jan 22, 2020 34:59


Viel zu tun, so wenig Zeit: Warum also nicht mehrere Aufgaben miteinander verbinden? Doch wie gehst Du dieses Projekt-Tetris am besten an, ohne Dich zu verzetteln? Ein Block nach dem anderen oder doch gleich mehrere auf einmal? Solange Du die gegebene Situation richtig einschätzt, kann beides eine legitime Methode sein, meint Boris Lokschin. In dieser Folge von Innovate Or Die erklärt er, worauf Du achten solltest, wenn Du zum Multitasking-Meister aufsteigen willst. Du erfährst... 1)…auf welche Eigenschaften Deines Projektes Du achten solltest 2)…wann parallele und wann sequenzielle Herangehensweisen besser sind 3)…Best- und Worst-Practices bei der Umsetzung 4)…wie Du die einzelnen Projekt-Elemente am Besten aufeinander abstimmst

Modellansatz
Hybride Strömungsmodelle

Modellansatz

Play Episode Listen Later Sep 27, 2018 34:52


Gudrun ist für die aktuelle Episode zu Gast in der Bundesanstalt für Wasserbau (BAW) am Standort in Karlsruhe. Die BAW ist etwa so alt wie die Bundesrepublik und grob gesagt zuständig für technisch-wissenschaftliche Aufgaben in allen Bereichen des Verkehrswasserbaus an den Bundeswasserstraßen und für Spezialschiffbau. Dabei berät sie die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV). Heute ist der Hauptsitz der BAW in Karlsruhe. Daneben gibt es noch einen Standort in Hamburg. Der Anlass des Besuches ist diesmal der Abschluss der Masterarbeit von Axel Rothert zu einer Fragestellung aus der BAW in Karlsruhe. Der Titel der Arbeit ist "Hybride 2D-3D-Simulation von Strömungsprozessen im Nah- und Fernfeld von Wasserbauwerken in OpenFOAM". Sie entstand in enger Zusammenarbeit mit den Kollegen Dr.-Ing. Carsten Thorenz und Franz Simons im Referat Wasserbauwerke der BAW. Nach dem Abschlussvortrag hat sich Gudrun mit Franz Simons und Axel Rothert über die Ergebnisse der Arbeit unterhalten. Neben traditionellen mathematischen Modellen, die durch physikalische Experimente kalibriert und erprobt werden, haben sich durch den technischen Fortschritt der letzen Jahrzehnte numerische Simulationen inzwischen fest etabliert. Einerseits, um numerische Näherungslösungen für die partiellen Differentialgleichungen des mathematischen Modells zu liefern, andererseits aber auch zur Durchführung virtueller Experimente. Die Simulation von hydrodynamischen Vorgängen ist hier ein gutes Beispiel. Das Fließen von Wasser muss mit Gleichungen beschrieben werden, die wiederum numerische Lösungen brauchen, wobei durch deren Komplexität auch gleich noch Ansprüche an entweder Hochleistungsrechentechnik (und damit Parallelisierung) oder andererseits gut begründete Vereinfachungen erhoben werden müssen. Das ganze muss verlässliche Aussagen liefern, damit die BAW z.B. die Hochwasserneutralität eines Wasserbauwerks garantieren kann bevor es endgültig geplant und gebaut wird. Dabei werden in der dortigen Praxis beide Wege beschritten: man investiert in modernste Rechentechnik und benutzt erprobte Vereinfachungen im Modell. Im Kontext der Umströmung von Wasserbauwerken haben unterschiedliche Regionen verschiedene dominierende Strömungsprozesse: in der Nähe des Bauwerkes gibt es eine starke Interaktion des Fließgewässers mit dem Hindernis, aber in einiger Entfernung kann man diese Interaktion vernachlässigen und den Modellansatz vereinfachen. Deshalb sollten im Nah- und Fernbereich unterschiedliche Modelle benutzt werden. Konkret sind es in der Arbeit die tiefengemittelten Flachwassergleichungen im Fernfeld und die Reynolds-gemittelten Navier- Stokes-Gleichungen (RANS) im Nahfeld der Wasserbauwerke. Wichtig ist dann natürlich, wie diese Modelle gekoppelt werden. Da eine Informationsübertragung sowohl stromaufwärts als auch stromabwärts möglich ist, ist eine Kopplung in beide Richtungen nötig. In der vorliegenden Arbeit wurde eine vorhandene Implementierung eines Mehr-Regionen-Lösers in OpenFOAM der TU München so weiter entwickelt, dass er für die Anwendungen in der BAW geeignet ist. Dafür musste sie auf die aktuell an der BAW verwendete Version von OpenFOAM portiert und anschließend parallelisiert werden, damit praxisnahe Probleme der BAW in sinnvollen Rechenzeiten bewältigt werden können. Außerdem mussten die Implementierungen der Randbedingungen so abgeändert werden, dass allgemeine Geometrien für den Untergrund und ein trocken fallen bzw. benetzen mit Wasser möglich sind. Die Implementierung wurde anhand eines realistischen Beispiels aus dem Verkehrswasserbau bestätigt. Ein etwa 1,1km langer Flussabschnitt wurde hybrid simuliert. Dabei ist ein Staustufe, bestehend aus Wehranlagen, Schleuse und Kraftwerk enthalten. Literatur und weiterführende Informationen Boyer, F. ; Fabrie, P.: Mathematical Tools for the Study of the Incompressible Navier-Stokes Equations and Related Models. New York : Springer-Verlag, 2013 Gerstner, N. ; Belzner, F. ; Thorenz, C.: Simulation of Flood Scenarios with Combined 2D/3D Numerical Models. In: Lehfeldt, R. (Hrsg.) ; Kopmann, R. (Hrsg.): 11th international conference on hydroscience and engineering. Bundesanstalt für Wasserbau, Karlsruhe, 2014 Mintgen, F.: Coupling of Shallow and Non-Shallow Flow Solvers - An Open Source Framework. München, Technische Universität, Diss., 2017 Mintgen, F. ; Manhart, M.: A bi-directional coupling of 2D shallow water and 3D Reynolds-Averaged Navier-Stokes models. 2018. Begutachtet und angenommen vom Journal of Hydraulic Research. Einsehbar: DOI: 10.1080/00221686.2017.1419989 Uijttewaal, W. S.: Hydrodynamics of shallow flows: application to rivers. In: Journal of Hydraulic Research 52 (2014), Nr. 2, S. 157-172 Podcasts R. Kopman, G. Thäter: Wasserstraßen, Gespräch im Modellansatz Podcast, Folge 24, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Modellansatz
FPGA Seitenkanäle

Modellansatz

Play Episode Listen Later Aug 16, 2018 54:10


Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf sich Sebastian mit Dennis Gnad, um mit ihm über Seitenangriffe auf Field Programmable Gate Arrays (FPGA) zu sprechen. FPGAs sind veränderliche Computerchips, die hervorragend bei der Entwicklung von logischen Schaltkreisen oder spezieller Glue Logic helfen, und kommen inzwischen auch als Rechenbeschleuniger zum Einsatz. Man kann FPGAs als Vorstufe zu Application-Specific Integrated Circuits (ASIC) sehen, auf denen Strukturen noch viel feiner, für höhere Taktraten und sparsamer abgebildet werden können, das Design aber um Größenordnungen teurer ist. Und während einem ASIC die Funktion ab Werk einbelichtet ist, können FPGAs nahezu beliebig oft zur Laufzeit umprogrammiert werden. Wie im Podcast zu digitalen Währungen erwähnt, spielen Graphical Process Units (GPUs), FPGAs und ASICs eine große Rolle bei Kryptowährungen. Hier ist ein einzelner FPGA-Chip beim so genannten Mining meisst nicht schneller als eine GPU, verbrauchen jedoch im Vergleich deutlich weniger Strom. Spezialisierte ASICs hingegen übersteigen in Effizienz und Geschwindigkeit alle anderen Lösungen. FPGAs finden sich aktuell in vielen Consumer-Produkten, wie dem Apple iPhone 7, im Samsung Galaxy S5, Smart-TVs und selbst auch der Pebble Smartwatch. Ihren besonderen Vorteil spielen FPGAs bei der Verarbeitung von großen Datenmengen wie Videodaten aus, da sie in der Parallelisierung nur durch den verfügbaren Platz beschränkt sind. Die Beschreibung von FPGAs und ASICs, oder deren Programmierung, erfolgt eher strukturell in Hardwarebeschreibungssprachen wie Verilog oder VHDL. Diese Beschreibungen unterscheiden sich sehr von imperativen Programmiersprachen, wie sie oft für CPUs oder GPUs verwendet werden. Es werden in logischen oder kombinatorischen Blöcken Daten verarbeitet, die dann in Taktschritten von und in Datenregister übertragen werden. Die erreichbare Taktfrequenz hängt von der Komplexität der kombinatorischen Blöcke ab. Ein Beispiel für logische Blöcke können Soft-Cores sein, wo zukünftige oder nicht mehr erhältliche CPU-Designs in FPGAs zur Evaluation oder Rekonstruktion abgebildet werden. Eine Variante ist die Entwicklung in OpenCL, wo verschiedene Architekturen wie GPUs, CPUs und FPGA unterstützt werden. Für die effiziente Umsetzung ist dafür weiterhin großes Hardwarewissen erforderlich, und man kann nicht erwarten, dass Code für FPGAs ebenso auf GPU, oder umgekehrt CPU-Code in FPGAs darstellbar ist. Das Interesse von Dennis Gnad liegt bei den FPGAs darin, deren Daten, Logik oder Inhalte durch Seitenkanalangriffe in von den Entwicklern unvorhergesehener Art und Weise auszulesen. Ein Beispiel ist das Erkennen von Fernsehsendungen aus dem Stromverbrauch des Fernsehgeräts wie es auch schon im Podcast zu Smart Metern beschrieben wurde. Ebenso wurden schon Kryptoschlüssel aus Geräuschen einer CPU bestimmt. Mit Soundkarten kann man Funkuhren verstellen und auch Grafikkarten können als UKW-Sender verwendet werden. Die elektromagnetische Abstrahlung ist ein sehr klassischer Seitenkanal und ist als Van-Eck-Phreaking seit 1985 bekannt. Gerade wurden die Timing- und Speculative-Execution-Covered-Channel-Angriffe Spectre und Meltdown für einen großteil aktueller CPUs bekannt, die aktiv Seitenkanäle für verdeckten Informationszugriff nutzen. Normalerweise benötigen Power-Side-Angriffe, die den Stromverbrauch auswerten, physischen Zugang zum Gerät oder der Stromversorgung. Überraschenderweise ist es auf FPGAs hingegen möglich den Stromverbrauch anderer Schaltungsbestandteile rein durch Software zu bestimmen. Dazu werden FPGAs an der Grenze der Timing-Parameter betrieben, und statistisch die erfolgreiche Ausführung gemessen. Mit verschieden langen Pfaden können auch gleichzeitig die Zeitschranken verschieden stark belastet werden und damit gleichzeitig für mehrere Spannungsstufen ausgewertet werden. Damit kann der relative Spannungsverlauf kontinuierlich gemessen werden. Im Zuge seiner Forschung zu Voltage Fluctuations in FPGAs konnte Dennis Gnad die Qualität der Messungen nachweisen. Für die eigentliche Auswertung der Messungen werden hier die Verfahren der Differential Power Analysis verwendet, die nicht absolute Messungen, sondern mit relativen Messungen den Verlauf oder Unterschiede in den Verläufen statistisch analysieren. Speziell wurden mit dem Pearson Korrelations-Koeffizient verschiedene Schlüssel-Hypothesen mit modellierten Stromverläufen aufgestellt, um den Suchraum für einen kryptographischen AES-Schlüssel jeweils stückweise einzuschränken. Dafür musste die spezielle AES-Implementation auf dem FPGA bekannt sein, um entsprechende Leakage-Modelle für die Korrelationsauswertung aufstellen zu können. Insgesamt wurde so ein rein software-getriebener Angriff auf FPGAs demonstriert, der ohne sehr aufwändiges Code-Review-Verfahren, dessen Umsetzung bei VHDL ohnehin große Fragen aufwirft, kaum zu entdecken ist. Dennis betreibt die Forschung als Doktorand am Chair of Dependable Nano Computing (CDNC) am Karlsruher Institut für Technologie (KIT), deren Forschung besonders auf die Verlässlichkeit und auch der Sicherheit von Computersystemen abzielt. Die Forschungsarbeiten zu Seitenkanälen über den Stromverbrauch haben ebenso Anwendungen für die Zuverlässigkeit von den Systemen, da ebenso mit der Messung auch eine entsprechende Beeinflussung bis zur Erzeugung von Fehlerzuständen möglich wird, wie es von Dennis durch Fehlerzustände in der Stromversorgung zum Neustart von FPGAs demonstriert werden konnte. Mit Stuxnet wurde bekannt, dass auch Industrieanlagen mit Software zerstört werden konnten, es gab aber auch Computermonitore, die kreativ in neue Nutzungszustände gebracht wurden. Literatur und weiterführende Informationen D. Gnad: Seitenkanal-Angriffe innerhalb FPGA-Chips, Vortrag auf der GPN18, Karlsruhe, 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: An Inside Job: Remote Power Analysis Attacks on FPGAs, Cryptology ePrint Archive: Report 2018/012, Proceedings of Design, Automation & Test in Europe (DATE), 2018. D. Gnad, F. Oboril, M. Tahoori: Voltage Drop-based Fault Attacks on FPGAs using Valid Bitstreams, International Conference on Field-Programmable Logic and Applications (FPL), Belgium, 2017. A. Moradi, F.-X. Standaert: Moments-Correlating DPA, Cryptology ePrint Archive: Report 2014/409, Theory of Implementations workshop, 2016. P. Kocher, J. Jaffe, B. Jun, et al: Introduction to differential power analysis, J Cryptogr Eng 1: 5, 2011. E. Brier, C. Clavier, F. Olivier: Correlation power analysis with a leakage model, International workshop on cryptographic hardware and embedded systems. Springer, Berlin, Heidelberg, 2004. Cryptology ePrint Archive Search Portal Side Channel Cryptanalysis Lounge - Ruhr-Universität Bochum D. Gnad, F. Oboril, S. Kiamehr, M. Tahoori: An Experimental Evaluation and Analysis of Transient Voltage Fluctuations in FPGAs, in IEEE Transactions on Very Large Scale Integration Systems (TVLSI), 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: Remote Inter-Chip Power Analysis Side-Channel Attacks at Board-Level], In Proceedings of IEEE/ACM International Conference on Computer-Aided Design (ICCAD), USA, 2018. (to appear Nov. '18) J. Krautter, D. Gnad, M. Tahoori: FPGAhammer: Remote Voltage Fault Attacks on Shared FPGAs, suitable for DFA on AES], in IACR Transactions on Cryptographic Hardware and Embedded Systems (TCHES), Vol.1, No.3, 2018. (to appear Sept. '18)Podcasts A.-L. Baecker, C. Schrimpe: Crypto for the Masses – Grundlagen, Request for Comments, Der RFC Podcast, Folge 15, 2018. M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. S. Ritterbusch, G. Thäter: Digitale Währungen, Gespräch im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. B. Heinz, T. Pritlove: FPGA, CRE: Technik, Kultur, Gesellschaft, Folge 117, Metaebene Personal Media, 2009.GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauenGPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meterGPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

Modellansatz
Bruchzonen

Modellansatz

Play Episode Listen Later Jun 15, 2017 30:22


Stephanie Wollherr hat ihr Mathestudium am Karlsruher Institut für Technologie (KIT) absolviert und in unserer Arbeitsgruppe die Abschlussarbeit im Kontext von numerischen Methoden für Wellengleichungen geschrieben. Damals hat Gudrun Thäter sie aus dem Podcastgespräch verabschiedet mit dem Wunsch, in einigen Jahren zu hören, was sie in der Zwischenzeit mathematisches tut. Was wie eine Floskel klingen mag, hat nun zum ersten Mal tatsächlich stattgefunden - ein Gespräch zur Arbeit von Stephanie in der Seismologie an der Ludwig-Maximillians-Universität (LMU) in München. In der Geophysik an der LMU wurde in den letzten 10 Jahren eine Software zur Wellenausbreitung entwickelt und benutzt, die immer weiter um simulierbare Phänomene ergänzt wird. Stephanie arbeitet an Dynamic Rupture Problemen - also der Simulation der Bruchdynamik als Quelle von Erdbeben. Hier geht es vor allem darum, weitere physikalische Eigenschaften wie z.B. Plastizität (bisher wurde meist vorausgesetzt, dass sich das Gestein elastisch verformt) und neue Reibungsgesetze zu implementieren und in Simulationen auf ihre Wirkung zu testen. Als Basis der Simulationen stehen zum einen Beobachtungen von Erdbeben aus der Vergangenheit zur Verfügung, zum anderen versucht man auch durch Laborexperimente, die aber leider ganz andere Größenskalen als die Realität haben, mögliche Eigenschaften der Bruchdynamik miteinzubeziehen. Die Daten der Seimsologischen Netzwerke sind zum Teil sogar öffentlich zugänglich. Im Bereich Dynamic Rupture Simulationen kann man eine gewisse Konzentration an Forschungskompetenz in Kalifornien feststellen, weil dort die möglicherweise katastrophalen Auswirkungen von zu erwartenden Erdbeben recht gegenwärtig sind. Das South California Earthquake Center unterstützt zum Beispiel unter anderem Softwares, die diese Art von Problemen simulieren, indem sie synthetische Testprobleme zur Verfügung stellen, die man benutzen kann, um die Ergebnisse seiner Software mit anderen zu vergleichen. Prinzipiell sind der Simulation von Bruchzonen bei Erdbeben gewissen Grenzen mit traditionellen Methoden gesetzt, da die Stetigkeit verloren geht. Der momentan gewählte Ausweg ist, im vornherein festzulegen, wo die Bruchzone verläuft, zutreffende Reibungsgesetze als Randbedingung zu setzen und mit Discontinuous Galerkin Methoden numerisch zu lösen. Diese unstetig angesetzten Verfahren eignen sich hervorragend, weil sie zwischen den Elementen Sprünge zulassen. Im Moment liegt der Fokus darauf, schon stattgefundene Erbeben zu simulieren. Leider sind auch hier die Informationen stets unvollständig: zum Beispiel können schon vorhandenen Bruchzonen unterhalb der Oberfläche unentdeckt bleiben und auch das regionale Spannungsfeld ist generell nicht sehr gut bestimmt. Eine weitere Herausforderung ist, dass die Prozesse an der Verwerfungszone mit sehr hoher Auflösung (bis auf ein paar 100m) gerechnet werden müssen, während der Vergleich mit Werten von Messstationen, die vielleicht einige 100 km entfernt sind einen sehr großen Simulationsbereich erfordert, was schnell zu einer hohen Anzahl an Elementen führt. Die Rechnungen laufen auf dem SuperMUC Supercomputer am LRZ in Garching und wurden durch eine Kooperation mit der Informatik an der TUM deutlich verbessert. Discontinuous Galerkin Verfahren haben den großen Vorteil, dass keine großen, globalen Matrizen entstehen, was eine Parallelisierung relativ einfach macht. Auf der anderen Seite kommen durch die element-lokale Kommunikation viele kleinere Matrix-Vektor Produkte vor, die grundlegend optimiert wurden. Ein weiterer Aspekt der Zusammenarbeit mit der TUM beschäftigte sich zum Beispiel mit der zu verteilenden Last, wenn für einige Elemente nur die Wellengleichung und für andere Elemente zusätzlich noch die Bruchdynamik gelöst werden muss. Auch bei der Input/Output Optimierung konnten die Informatiker willkommene Beiträge leisten. Dieser Beitrag zeigt die Notwendigkeit von interdisziplinärer Zusammenarbeit zwischen Mathematiker, Geophysikern und Informatikern, um Erdbeben und die Dynamik ihrer Quelle besser zu verstehen. Literatur und weiterführende Informationen A. Heinecke, A. Breuer, S. Rettenberger, M. Bader, A. Gabriel, C. Pelties, X.-K. Liao: Petascale High Order Dynamic Rupture Earthquake Simulations on Heterogeneous Supercomputers, proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis SC14, 3–15, 2014. A.-A. Gabriel, E. H. Madden, T. Ulrich, S. Wollherr: Earthquake scenarios from Sumatra to Iceland - High-resolution simulations of source physics on natural fault systems, Poster, Department of Earth and Environmental Sciences, LMU Munich, Germany. S. Wollherr, A.-A. Gabriel, H. Igel: Realistic Physics for Dynamic Rupture Scenarios: The Example of the 1992 Landers Earthquake, Poster, Department of Earth and Environmental Sciences, LMU Munich. J. S. Hesthaven, T. Warburton: Nodal discontinuous Galerkin methods: algorithms, analysis, and applications, Springer Science & Business Media, 2007. M. Dumbser, M. Käser: An arbitrary high-order discontinuous Galerkin method for elastic waves on unstructured meshes—II. The three-dimensional isotropic case, Geophysical Journal International, 167(1), 319-336, 2006. C. Pelties, J. de la Puente, J.-P. Ampuero, G. B. Brietzke, M. Käser, M: Three-dimensional dynamic rupture simulation with a high-order discontinuous Galerkin method on unstructured tetrahedral meshes, Journal of Geophysical Research, 117(B2), B02309, 2012. A.-A. Gabriel: Physics of dynamic rupture pulses and macroscopic earthquake source properties in elastic and plastic media. Diss. ETH No. 20567, 2013. K. C. Duru, A.-A. Gabriel, H. Igel: A new discontinuous Galerkin spectral element method for elastic waves with physically motivated numerical fluxes, in WAVES17 International Conference on Mathematical and Numerical Aspects of Wave Propagation, 2016. Weingärtner, Mirjam, Alice-Agnes Gabriel, and P. Martin Mai: Dynamic Rupture Earthquake Simulations on complex Fault Zones with SeisSol at the Example of the Husavik-Flatey Fault in Proceedings of the International Workshop on Earthquakes in North Iceland, Husavik, North Iceland, 31 May - 3 June 2016. Gabriel, Alice-Agnes, Jean-Paul Ampuero, Luis A. Dalguer, and P. Martin Mai: Source Properties of Dynamic Rupture Pulses with Off-Fault Plasticity, J. Geophys. Res., 118(8), 4117–4126, 2013. Miloslav Feistauer and Vit Dolejsi: Discontinuous Galerkin Method: Analysis and Applications to compressible flow Springer, 2015. Podcasts S. Wollherr: Erdbeben und Optimale Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 012, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013.

Modellansatz
Ausgründung Chromatographie

Modellansatz

Play Episode Listen Later Apr 13, 2017 40:13


Mit Teresa Beck setzt Gudrun das 2014 mit Tobias Hahn geführte Gespräch fort. Die Software ChromX zur Computersimulation von Chromatographie-Säulen ist inzwischen Teil des Portfolios einer Ausgründung aus dem KIT mit dem Namen GoSilico. Neben Thiemo Huuk, der gleichzeitig mit Tobias Hahn im Rahmen seiner biotechnologischen Promotion die Kundenbedürfnisse für Chromatographie-Simulationen erforscht hat, und Tobias Hahn ist Teresa als dritte im Team Gründerin der im Januar 2016 an den Start gegangenen GmbH. Tobias ist Diplom-Mathematiker. 2010-2015 modellierte er im Rahmen seiner Promotion Aufreinigungsprozesse mit modernen mathematischen Simulationswerkzeugen. Es erwies sich als sinnvoll, dafür schließlich ganz in die Bio-Verfahrenstechnik zu wechseln. Teresa Beck ist hingegen Diplom-Meteorologin, deren Faszination für die Modellierung der Wetterphänomene am Computer schließlich zu einer Promotion in Mathematik am EMCL (erst in Karlsruhe und dann in Heidelberg) führte. Einige Zeit haben Gudrun, Tobias und Teresa in der gleichen Gruppe am Institut für Angewandte und Numerische Mathematik am KIT gearbeitet, bevor sich die Wege wieder trennten. Der Kern des Programms ChromX ist eine parallelisierte Finite Elemente Simulationssoftware für die Advektions-Diffusions-Gleichungen in Aufreinigungsprozessen. Die Benutzer sind jedoch keine mathematischen Experten, sondern in der Regel Laborantinnen und Laboranten. Deshalb ist es genauso wichtig, eine funktionierende Simulation zu realisieren, wie eine grafische Oberfläche zu schaffen, die ganz intuitiv die Laborerfahrung nachbildet und dabei die Mathematik "versteckt". Schließlich sollen teure Experimente ersetzt werden und dafür muß die Bedienung den Personen im Labor leicht fallen und möglichst Freude machen. Alle eigentlich für die Mathematik wichtigen Parameter, die auf Parallelisierung, Wahl nichtlinearer Löser oder schlechte Kondition des Problemes Einfluß nehmen, muss das Programm eigenständig sinnvoll setzen, denn für den normalen Benutzer sind diese unverständlich. Dafür müssen Parameter-Konfigurationen, die für die Bedienung gesetzt werden, von vornherein sinnvoll eingeschränkt werden, um die Stabilität und Korrektheit der Simulation zu gewährleisten. Daneben gibt es jedoch auch eine Experten-Lösung, wo ein Parameterfile direkt übergeben werden kann. Es ist immer etwas ungewiß, wie erfolgreich Ideen aus der Forschung in ein florierendes Unternehmen übersetzt werden können. Für die Gründung von GoSilico war aber in der ganzen Entwicklungsphase schon die Industrie-Tauglichkeit mitgedacht und geeignete Partner mit am Tisch. Durch die Präsentation der Erfolge mit der Forschungssoftware auf Tagungen gab es auch schon vor der Ausgründung viel Interesse an einer zukünftigen Zusammenarbeit. Deshalb lagen zur Gründung viele Letters of intent vor. Wichtiger Teil des Alltages im Unternehmen ist es jetzt, die Software zu verkaufen. Es dauerte in den Verhandlungen bisher zwischen 70 und 250 Tage bis Firmen wirklich die Software erwarben. Meist folgte auf eine schnelle Zustimmung aus den Fachabteilungen (die aber (leider noch) keine Budgets für solche Software haben) die länger währende Abklärung aller rechtlichen Verpflichtungen auf beiden Seiten bevor die zuständigen übergeordneten Stellen das Geld für den Kauf freigaben. Das liegt auch daran, dass diese Art von Chromatographie-Simulation noch ganz neuartig ist und die Abläufe in den Unternehmen schießlich neu ordnen wird. Wichtig für eine vertrauensvolle Zusammenarbeit ist, dass das interne Wissen der Firmen (intellectual property) geschützt bleibt (z.B. gegenüber anderen Firmen, die die Software auch erwerben oder schon benutzen). Nach etwas mehr als einem Jahr sind aber schon sechs große Kunden aus den weltweiten Top 20 gewonnen worden. Das Ziel für 2017 lautet, noch zwei weitere zu gewinnen. Dafür stehen die Chancen gut. Gerade wächst das Team um mehrere Personen, damit die Weiterentwicklung, Dokumentation und Zertifizierungsverfahren (nach TÜV oder ISO) auf mehr Schultern verteilt werden können. Literatur und weiterführende Informationen ChromX: Simulation toolbox for liquid chromatography of proteins. GoSilico: Company for software and methods for computer-aided – in silico – bioprocess development Simone Schappert - KIT-Gründerschmiede Gründer des Monats Juli 2016. Teresa Beck, Tobias Hahn, Thiemo Huuk, Jürgen Hubbuch: In-Silico Process Development: Success Stories. Poster presented at: 29th International Symposium on Preparative and Process Chromatography; 07/2016; Philadelphia, Pennsylvania, USA, 2016. Tobias Hahn, Thiemo Huuk, Vincent Heuveline, Jürgen Hubbuch: Simulating and Optimizing Preparative Protein Chromatography with ChromX. Journal of Chemical Education 09/2015; 92:1497–1502. DOI:10.1021/ed500854a, 2015. Gang Wang, Till Briskot, Tobias Hahn, Pascal Baumann, Jürgen Hubbuch: Estimation of adsorption isotherm and mass transfer parameters in protein chromatography using artificial neural networks. Journal of Chromatography A 03/2017; 1487:211–217. DOI:10.1016/j.chroma.2017.01.068, 2017. Thiemo C. Huuk, Tobias Hahn, Katharina Doninger, Jan Griesbach, Stefan Hepbildikler, Jürgen Hubbuch: Modeling of complex antibody elution behavior under high protein load densities in ion exchange chromatography using an asymmetric activity coefficient. Biotechnology Journal 03/2017, 1600336. DOI:10.1002/biot.201600336, 2017. Podcasts T. Hahn: Chromatographie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 21, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. A. Osberghaus: Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 22, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Modellansatz
Partikelströmungen

Modellansatz

Play Episode Listen Later Nov 24, 2016 44:45


Thomas Henn hat im Oktober 2016 seine Promotion zum Thema Computersimulation von Partikelströmungen abgeschlossen. Partikelströmungen treten in zahlreichen natürlichen sowie künstlichen Vorgängen auf, beispielsweise als Transport von Feinstaub in den menschlichen Atemwegen, als Bildung von Sediment in Flüssen oder als Feststoff–Fluid Gemisch bei Filtrationen. Simulationen von Partikelströmungen kommen zum Einsatz, wenn physische Untersuchungen nicht möglich sind. Darüber hinaus können sie Kosten experimenteller Studien verringern. Häufig ist das der Fall, wenn es um medizinische Anwendungen geht. Wenn man beispielsweise aus CT-Aufnahmen die genaue Geometrie des Naseninnenraums eines Patienten kennt, kann durch Simulation in dieser spezifischen Geometrie ermittelt werden, wo sich Partikel welcher Größe ablagern. Das ist in zwei Richtungen interessant: Erstens zur Vermeidung von Gesundheitsbelastungen durch Einlagerung von Partikeln in der Lunge (dort landen alle Partikel, die die Nase nicht filtern kann) aber zweitens auch bei der bestmöglichen Verabreichung von Medikamenten mittels Zerstäubung in die Nasenhöhle. Es hat sich gezeigt, dass die Simulation von Strömungen mit einer großen Zahl an beliebig geformten Partikeln den herkömmlichen numerischen Methoden insbesondere bei der Parallelisierung Probleme bereitet. Deshalb wird die Lattice Boltzmann Methode (LBM) als neues Verfahren zur numerischen Simulation von Strömungen auf Partikelströmungen angewendet. Sie hat außerdem den Vorteil, dass komplexe Geometrien wie z.B. ein Naseninnenraum keine extra zu bewältigende Schwierigkeit darstellen. Die zentrale Idee für die effektive Parallelisierung unter LBM ist eine Gebietszerlegung: Die durchströmte Geometrie wird in Zellen aufgeteilt und diese Zellen gerecht auf die zur Verfügung stehenden Prozessoren verteilt. Da die Rechnungen für die Strömungsrechnung mit LBM im wesentlichen lokal sind (es werden nur die Informationen einer Zelle und der direkten Nachbarzellen benötigt), ist das extrem effektiv. Wenn nun neben der Strömung auch noch die Bewegung der Partikel berechnet werden soll, müssen natürlich physikalische Bewegungsmodelle gefunden werden, die für die jeweilige Partikelgröße und -form passen, daraus Gleichungen und deren Diskretisierung abgeleitet werden in der Implementierung die Vorteile der LBM bei der Parallelisierung möglichst nicht zerstört werden. Offensichtlich ist es am besten, wenn die Partikel möglichst gleichmäßig über die durchströmte Geometrie verteilt sind. Aber das kann man sich ja nicht immer so aussuchen. Je nach Größe und Dichte der Partikel wird es wichtig, neben der Wirkung des Fluids auf die Partikel auch Rückwirkung des Partikels auf die Strömung, Wechselwirkung der Partikel untereinander (z.B. auch herausfinden, wann sich Partikel berühren) Wechselwirkung der Partikel mit dem Rand der Geometriezu betrachten. Als sehr hilfreich hat sich eine ganz neue Idee herausgestellt: Partikelströmungen als bewegtes poröses Medium zu modellieren. D.h. für große Partikel stellt man sich vor, sie haben einen festen Kern und außen einen glatten Übergang in der Porösität zur reinen Fluidphase. Es zeigt sich, dass man dann sogar auf ein Modell verzichten kann, das die Kontakte der Partikel modelliert, weil sich die Partikel so natürlich in der Strömung bewegen, wie man es auch im Experiment beobachtet. Alle Berechnungen müssen validiert werden, auch wenn manchmal nicht ganz klar ist, wie das erfolgen kann. Zum Glück ist hier aber die enge Zusammenarbeit mit der Verfahrenstechnik am KIT eine große Hilfe, die die Computersimulationswerkzeuge auch für ihre Projekte nutzen und weiter entwickeln. Literatur und weiterführende Informationen L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/filters OpenLB Open source Lattice Boltzmann Code F. Bülow: Numerical simulation of destabilizing heterogeneous suspensions at vanishing Reynolds numbers. Karlsruhe, 2015. T. Henn et al.: Particle Flow Simulations with Homogenised Lattice Boltzmann Methods. To appear in Particuology. F. Klemens: Simulation of Fluid-Particle Dynamics with a Porous Media Lattice Boltzmann Method, MA thesis. Karlsruher Institut für Technologie, 2016. E. E. Michaelides: Particles, Bubbles & Drops: Their Motion, Heat and Mass Transfer, World Scientific Publishing Company Incorporated, 2006. T.Henn: Aorta Challenge, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 2, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/aorta-challenge

Modellansatz
Adiabatische Quantencomputer

Modellansatz

Play Episode Listen Later Sep 14, 2016 79:16


Im Anschluss ihres Erasmus-Auslandsjahr in Lyon hat sich Alexandra Krause als angehende Physikerin in den Bereich der Quanteninformatik vertieft. Dazu hat sie im Rahmen der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe über Quantum Speedup (video) vorgetragen und Zeit gefunden, uns auch im Podcast etwas über das Thema zu erzählen. Im Gegensatz zur klassischen Physik gelten in der Quantenmechanik eigene Regeln: So geht es hier um Teilchen in der Größenordnung von Atomen, wo die Begriffe Teilchen und Welle verschwimmen und der quantenmechanische Zustand unbeobachtet nur noch als Zustandsgemisch beschrieben werden kann. Genau diese Eigenschaft will man sich beim Quantencomputer zu Nutze machen, wo gegenüber dem klassischen digitalen Computer, der immer auf einzelnen festen Zuständen in Bits mit Logikgattern rechnet, der Quantenrechner pro Schritt in Qubits auf allen Zuständen gleichzeitig operiert. Das eigentliche Ergebnis erhält man dort erst bei der Messung, wodurch sich der reine Zustand des Quantensystems einstellt. Der Grover-Algorithmus ist eine bekannte Anwendung für einen Quantencomputer, der Datenbanken schneller als klassische Verfahren durchsuchen kann. Der Shor-Algorithmus kann hingegen mit einer Quanten-Fouriertransformation in polynomialer Zeit Zahlen in ihre Primfaktoren zerlegen kann. Damit werden viele assymetrische Kryptoverfahren wie das RSA-Verfahren obsolet, da sie auf der Schwierigkeit der klassischen Faktorisierung basieren. Shor hat in der gleichen Publikation auch ein Verfahren zur effizienten Berechnung von diskreten Logarithmen auf Quantencomputern veröffentlicht, so dass auch Kryptoverfahren auf elliptischen Kurven durch Quantencomputer gebrochen werden, die neben dem RSA-Verfahren Basis für viele Kryptowährungen sind. Zum jetzigen Zeitpunkt ist es der Experimentalphysik noch nicht gelungen, allgemeine Quantensysteme in einer Größe zu erschaffen, die für sinnvolle Anwendungen der Verfahren erforderlich wären. Die Schwierigkeit liegt darin, den Quantenzustand einzelner Qubits von der Umwelt abzukoppeln und nur für die Berechnung zu verwenden, wenn doch alles in der Umgebung in Bewegung ist. In der Größe weniger Qubits, die allgemeine Quantencomputer bisher erreichen konnten, wurden Zahlen wie 15 und 21 erfolgreich faktorisiert. Eine Hoffnung besteht hier auf dem adiabatischen Quantencomputer auf Basis adiabatischen Theorems, der von der Firma D-Wave Systems gebaut, und 2011 mit unvergleichlich vielen 128 Qubits auf den Markt gebracht wurde. Das Problem ist dabei, dass adiabatischen Quantencomputer im normalen Arbeitszustand keine universellen Quantencomputer sind, und hauptsächlich Optimierungsprobleme lösen können. Universelle Quantencomputer können im Circuit model anschaulich jedes herkömmliches Programm abbilden: Jedes klassische Logik-Gatter kann durch Hinzufügen weiterer Ausgänge reversibel werden, und dann als eine unitäre Abbildung oder Matrizen im Quantencomputer realisiert werden. Unitäre Abbildungen sind lineare Abbildungen mit der Eigenschaft, dass sie das komplexe Skalarprodukt zweier Vektoren nach der Abbildung erhalten, d.h. Vektoren behalten die gleiche Länge, und zwei Vektoren behalten den gleichen Winkel zueinander. Der Nachteil des reversiblen Ansatzes ist jedoch, dass dafür womöglich viele Bits benötigt werden, wenn man die Abbildungen nicht zuvor zusammenfassen kann. Theoretisch kann der adiabatische Quantencomputer auch universell sein, nur ist dazu ideal eine ungestörte Umgebung Voraussetzung, was in Realität nicht erreicht werden kann. Es verbleiben Optimierungsprobleme, die über den Hamiltonoperator abgebildet werden können: physikalische Prozesse möchten den energetisch niedrigsten Zustand zu erreichen. Ein Beispiel sind hier Minimalflächen, wie sie von Seifenhäuten und Seifenblasen angenommen werden- und auch zum Bau des Olympiageländes in München genutzt wurden. Im Schülerlabor für Mathematik in Karlsruhe kann man auch viele Experimente dazu durchführen. Wenn man ein Optimierungsproblem lösen möchte, so sind lokale Minima ein Problem- in ihrer Umgebung erscheinen sie als Lösung, sie sind es jedoch insgesamt betrachtet nicht. Eine Möglichkeit die lokalen Minima zu umgehen ist das Verfahren des Simulated Annealing. Hier wird durch externe Störquellen begünstigt, dass lokale Minima verlassen werden, um das globale Minimum zu erreichen. In Quantensystemen spielt hier beim Quantum Annealing zusätzlich der Tunneleffekt eine besondere Rolle, wodurch die Störung noch leichter von lokalen Minima hinweg streut. Dadurch ist das Quantum Annealing prinzipiell und aus der Theorie schneller- oder zumindest nicht langsamer- als das Simulated Annealing. Dabei ist das Quantum Annealing natürlich nur auf einem Quantencomputer effizient umsetzbar. Das ist dabei ein Beispiel für eine Quantensimulation auf einem Quantencomputer in dem Forschungsfeld, das sich mit der Abbildung und Simulation von Quantensystemen befasst. Damit ist der adiabatische Quantencomputer auf eine kleinere Klasse von lösbaren Problemen beschränkt, jedoch soll er dieses mit einer erheblichen höheren Anzahl von Qubits durchführen können- zur Zeit der Aufnahme waren dies mit dem D-Wave Two etwa 512 Qubits. Die Frage, ob diese adiabatischen Quantencomputer mit dieser großen Anzahl von Qubits wirklich als Quantencomputer arbeiten, wurde wissenschaftlich diskutiert: Im Artikel Evidence for quantum annealing with more than one hundred qubits legen die Autoren dar, dass der betrachtete adiabatische Quantencomputer starke Anzeichen für die tatsächliche Umsetzung des Quantum Annealing zeigt. In wie weit jedoch nun eine quantenbedingte Beschleunigung feststellen ist, diskutieren T. Rønnow und Mitautoren in der Arbeit Defining and detecting quantum speedup. Sie erhielten das ernüchternde Ergebnis, dass eine Beschleunigung durch Nutzung des betrachteten Quantensystems nicht eindeutig nachgewiesen werden konnte. Dagegen argumentierten V. Denchev et al. in What is the Computational Value of Finite Range Tunneling?, dass eine 100'000'000-fache Beschleunigung mit hoher Wahrscheinlichkeit gegenüber einem Einprozessor-System nachgewiesen werden kann. Ein Problem bei der Analyse ist, dass die betrachteten Algorithmen für den Quantencomputer in den Bereich der probabilistischen Algorithmen fallen, die Ergebnisse also eine Fehlerwahrscheinlichkeit besitzen, die durch mehrfache Ausführung verringert werden kann. In der Kryptographie werden probabilistische Primzahltests sehr häufig eingesetzt, die auch in diese Klasse der Algorithmen fallen. So wurde im ersten Paper das Verhalten des Quantencomputers in einer Vielzahl von Versuchen mit simulierten Algorithmen verglichen und mit hoher Wahrscheinlichkeit festgestellt, dass der D-Wave-Rechner tatsächlich den Quantum Annealing Algorithmus ausführt. Über den D-Wave-Rechner ist bekannt, dass die einzelnen Qubits durch supraleitende Ringe abgebildet sind und die beiden Stromlaufrichtungen die superpositionierten Zustände darstellen. Die Kopplung zwischen Qubits und nach außen erfolgt durch Spulen, die über die entstehenden Magnetfelder mit den Strömen in den Ringen interagieren. Die Kopplung zwischen Qubits wird damit durch die parametrisierte Kopplung der Spulen realisiert. Für klassische Algorithmen und parallelisierte Computersysteme beschreibt der Begriff des Speedup die Effizienzsteigerung durch Nutzung einer erhöhten Parallelisierung. Je nach Algorithmus gibt es nach Amdahls Gesetz logische Grenzen, wo weitere Parallelisierung keine Gewinn mehr erzielt. Entsprechend besteht der Wunsch den Begriff des Quantum Speedup analog zu definieren und nachzuweisen: Diesen Ansatz verfolgten T. Rønnow und Mitautoren und definierten verschiedene Klassen von Quantum Speedup, wobei der adiabatische D-Wave Quantencomputer für sie nur Anzeichen für ein potentielles Speed-up ergab. Das ist ein ernüchterndes Ergebnis, wobei die Autoren klar weiteren Forschungsbedarf sahen. Hier war das Paper von V. Denchev und Mitautoren eine große Überraschung, wo dem D-Wave 2X Rechner mit hoher Wahrscheinlichkeit eine Beschleunigung von 10^8 nachgesagt wurde. Neben den Annealing-Verfahren kam hier auch Quantum Monte Carlo zum Einsatz. Im Ergebnis erhielten sie für die Annealing-Verfahren ein asymptotisches Speed-Up, das sich für größere Problemstellungen einstellt, für Quantum Monte Carlo eine von der Problemgröße unabhängige Beschleunigung gegenüber einem klassischen Single-core Rechner. Diese Aussagen trafen aber schnell auf Widerstand und den Nachweis, dass ein im Paper betrachtetes Problem mit anderen Algorithmen teilweise auf einem klassischen Rechner vielfach schneller gelöst werden kann als auf dem Quantencomputer. Literatur und weiterführende Informationen S. Boixo, et al.: Evidence for quantum annealing with more than one hundred qubits, Nature Physics 10.3: 218-224, 2014. T. Rønnow, et al.: Defining and detecting quantum speedup, Science 345.6195: 420-424, 2014. V. Denchev, et al.: What is the Computational Value of Finite Range Tunneling? arXiv preprint arXiv:1512.02206, 2015. R. Harris, R., et al.: Compound Josephson-junction coupler for flux qubits with minimal crosstalk, Physical Review B 80.5: 052506, 2009. S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/digitale-waehrungen E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor Bernd Fix: Post-Quantum Krypto, Afra-Berlin.de, Vortrag am 13.12.2013. F. Rieger, F. von Leitner: Fnord Jahresrückblick, 32c3, Vortrag am 29.12.2015. S. Aaronson: Google, D-Wave, and the case of the factor-10^8 speedup for WHAT? Blog-Post mit Updates 16.5.2013-16.12.2015. Quantum Annealing Solver für den Laptop

Modellansatz
Graphpartitionierung

Modellansatz

Play Episode Listen Later Nov 20, 2014 35:51


Ein Graph ist eine Menge von Knoten und Kanten zwischen diesen Knoten. Man unterscheidet zwischen gerichteten Graphen, wo Einbahnstraßen darstellbar sind, oder den ungerichteten Graphen, wo Beziehungen zwischen zwei Knoten immer beidseitig sind. Beispiele sind die graphische Darstellung von Beziehungen in einem sozialen Netz oder Straßennetze, für deren Verarbeitung das Forschungsgebiet von Christian Schulz immer bedeutender wird, wie wir in seinem Gespräch mit Gudrun Thäter erfahren.Eine wichtige Aufgabe im Umgang mit Graphen ist die Aufteilung (oder fachsprachlich Partitionierung), von Graphen in kleinere Teile. Dies kommt z.B. der Parallelisierung der Arbeit auf den Graphen zugute, und ist unumgänglich, wenn Graphen eine Größe haben, die nicht mehr von einem Prozessor bearbeitet werden kann. Ein wichtiges Merkmal ist hier, die Aufteilung möglichst gleichmäßig vorzunehmen, damit die Aufteilung von z.B. Rechenzeit gleichmäßig erfolgt, und gleichzeitig wenig Kommunikation zwischen der Bearbeitung der Einzelteile erforderlich ist. Es geht um eine möglichst gute Skalierbarkeit der Graphverarbeitung.Ein wichtiges Anwendungsproblem ist die Routenplanung, bei der zwischen zwei Punkten auf der Erde die zeitlich kürzeste Verbindung berechnet werden soll. In der Informatik ist der Dijkstra-Algorithmus der passende Basis-Algorithmus für diese Aufgabe, doch er ist für große Graphen in seiner ursprünglichen Form sehr ineffizient. In Kombination mit einer passenden Graphpartitionierung und Algorithmen kann man das Verfahren deutlich effizienter ausführen und beschleunigen.Ein klassisches Verfahren zur Aufteilung ist das Mehrschichtverfahren über die Laplace-Matrix, wo ausgenutzt wird, dass zwischen den Eigenwerten der Matrix und der Schnittstruktur des Graphen enge Zusammenhänge bestehen. Dieses Verfahren wurde zum Mehrschichtverfahren für Graphen weiterentwickelt, bei dem in einer sogenannten Kontraktion benachbarte Knoten und parallele Kanten jeweils zusammengeführt werden, und der Graph zu einem kleinen und kantengewichteten Graph vereinfacht wird. Schließlich wird das Problem auf einem vereinfachten, groben Gitter gelöst, und dann jeweils mit lokalen Suchen auf feinere Graphen erweitert. Für die Kontraktion werden Heuristiken und Kantenbewertungsfunktionen verwendet.Ein weiterer Ansatz sind auch evolutionäre Algorithmen. Dabei wurde eine allgemeinere Umgebung geschaffen, die auf eine weite Klasse von Optimierungsproblemen angewendet werden kann.Die Graphentheorie ist natürlich auch Teil der diskreten Mathematik, und besonders berühmt ist auch das Traveling Salesperson Problem. Gleichzeitig ist das Thema aber auch in der Theoretischen Informatik, im Algorithm Engineering und in der Software-Entwicklung beheimatet.Literatur und Zusatzinformationen C. Schulz: High Quality Graph Partitioning, PhD thesis. Karlsruhe Institute of Technology, 2013. P. Sanders, C. Schulz: Distributed Evolutionary Graph Partitioning, Proceedings of the 12th Workshop on Algorithm Engineering and Experimentation (ALENEX'12), pages 16--19, 2012. P. Sanders, C. Schulz: High Quality Graph Partitioning, Proceedings of the 10th DIMACS Implementation Challenge Workshop: Graph Partitioning and Graph Clustering, pages 1--17, AMS, 2013. P. Sanders, C. Schulz: Think Locally, Act Globally: Highly Balanced Graph Partitioning, proceedings of the 12th International Symposium on Experimental Algorithms (SEA'13), volume 7933 of LNCS, pages 164--175, 2013. R. Glantz, H. Meyerhenke, C. Schulz: Tree-based Coarsening and Partitioning of Complex Networks, Technical Report, Karlsruhe Institute of Technology, 2014. KaHIP Homepage KaHIP auf Twitter Christian Schulz auf Twitter Podcast: Death of a traveling salesman

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU
Evaluation der Wirksamkeit der delfingestützten Therapie

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU

Play Episode Listen Later Apr 29, 2013


In der vorliegenden Arbeit wird die Effektivität der delfingestützten Therapie im Curacao Dolphin Therapy and Research Center untersucht. Der Vergleich wurde zu Kindern gezogen, die keine Intensivtherapie erhielten (Kontrollgruppe 1: Autismus, Trisomie 21, mentale Retardierung) oder eine Intensivtherapie an der Schön Klinik München-Harlachung bekamen (Kontrollgruppe 2: ICP). Es fand eine Parallelisierung der Gruppen gemäß der Merkmale Alter, Diagnose, Geschlecht und Subdiagnose statt. Die statischen Analysen der Untersuchung zeigen, dass es signifikante Verbesserungen in der Versuchsgruppe in den Bereichen Intelligenz, Konzentration, Motorik, prosoziales Verhalten, emotionaler Stress, Kommunikation und einigen Fertigkeitenbereichen gab. Dies ergaben die Auswertungen der Leistungstests, der Elternfragebögen und der Logopädenbefragung. Die Lehrer nahmen wenige Veränderungen wahr. Dieses Phänomen ist aus anderen Studien bekannt. Der Effekt der delfingestützten Therapie war eher ein globaler als ein spezifischer. Er war unabhängig von Kindvariablen (Alter, Diagnose, Geschlecht) und von den Therapieinhalten. Beim elterlichen Stress ergaben sich teilweise Verbesserungen. Die Familien bewerteten den Einfluss der Therapie insgesamt sehr positiv. Bezüglich der Stabilität der Ergebnisse kann gesagt werden, dass es im follow up-Zeitraum in den meisten Bereichen noch Verbesserungen gab. Die Stärke der positiven Veränderungen hatte aber nach einem halben Jahr wieder abgenommen. Eine bessere Implementierung der Veränderungen und Erfolge durch die Therapie in den Alltag wäre erstrebenswert. Insgesamt erbringt die Studie einen erneuten deutlichen Nachweis für die Wirksamkeit der delfingestützten Therapie.

Macoun Konferenz HD
Umdenken in OpenCL (Eberhard Rensch)

Macoun Konferenz HD

Play Episode Listen Later Feb 9, 2011 67:45


Rechenintensive Aufgaben lassen sich durch massive Parallelisierung erheblich beschleunigen. OpenCL bietet hierfür eine standardisierte API zur Nutzung von CPUs und GPUs in modernen Rechnern. An einem konkreten Beispiel wird die Programmierung in OpenCL sowie das dabei nötige Umdenken bei der Auswahl der Algorithmen erläutert. Session 2, Samstag, Terrassensaal, Macoun 2010

Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Methods for Seismic Wave Propagation on Local and Global Scales with Finite Differences

Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU

Play Episode Listen Later Mar 19, 2009


Die vorliegende Arbeit behandelt zwei unterschiedliche Anwendungen aus dem Bereich der numerischen Seismologie: Das erste Thema umfasst die Entwicklung und Anwendung eines Programms zur Berechnung der lokalen Wellenausbreitung in seismischen Störungszonen (Fault Zones) mit spezieller Fokussierung auf geführte Wellen (Trapped Waves). Dieser Wellentyp wird an vielen Störungszonen beobachtet und aus seinen Eigenschaften können Informationen über die jeweilige Tiefenstruktur abgeleitet werden. Das zweite Thema dieser Arbeit behandelt die Entwicklung und Anwendung zweier Verfahren zur Berechnung der globalen Wellenausbreitung, also der Ausbreitung seismischer Wellen durch die gesamte Erde einschließlich des äußeren und inneren Erdkerns. Die verwendeten Methoden ermöglichen es, kleinräumige Strukturen in großen Tiefen wie zum Beispiel die Streueigenschaften des Erdmantels oder die kleinskalige Geschwindigkeitsstruktur an der Kern-Mantelgrenze in knapp 2900 km Tiefe zu untersuchen. Wellenausbreitung in seismischen Störungszonen: Seismische Störungszonen, wie zum Beispiel der San Andreas Fault in Kalifornien, zeigen auf beeindruckende Weise, wie die Gestalt der Erdoberfläche durch seismische Aktivität als Folge tektonischer Prozesse geprägt wird. Die genaue Kenntnis der Tiefenstruktur einer Störungszone hingegen bietet zusätzlich einen Einblick in die vergangene Seismizität, die die Struktur der jeweiligen Störung geprägt hat. Neben den tektonischen Eigenschaften einer Region lassen sich aus der Tiefenstruktur auch Voraussagen über Häufigkeit und zu erwartende Stärke zukünftiger Erdbeben ableiten. Da Erdbeben vorzugsweise in solchen Störungszonen auftreten, ist eine möglichst genaue Kenntnis der Geometrie einer Schwächezone wichtig, um Regionen mit erhöhtem Gefährdungspotenzial zu erkennen. Für die Untersuchung der Tiefenstruktur einer Störungszone stehen in vielen Fällen ausschließlich Messungen von der Erdoberfläche zur Verfügung, etwa von seismischen Netzen, die in unmittelbarer Umgebung oder direkt auf einer Störung platziert wurden. Ereignet sich nun ein Erdbeben in einigen Kilometern Tiefe innerhalb der Störungszone, breitet sich ein Teil der angeregten seismischen Wellen durch die gesamte Störungszone bis zur Erdoberfläche aus, wo sie registriert werden. Die aufgezeichneten Signale werden somit entlang ihres gesamten Laufweges durch die Struktur der Störungszone beeinflusst, was die Ableitung der tiefenabhängigen Struktur aus den Messdaten erschwert. Um trotzdem ein genaues seismisches Abbild einer Störungszone zu bekommen, analysiert man unterschiedliche Wellentypen im Seismogramm, wodurch ein Maximum an Strukturinformation abgeleitet werden kann. Einer dieser Wellentypen, der sich durch besondere Eigenschaften auszeichnet, ist die geführte Welle (Trapped Wave). Diese entsteht, wenn eine Störungszone einen ausgeprägten vertikal ausgedehnten Bereich drastisch reduzierter seismischer Ausbreitungsgeschwindigkeit (Low Velocity Layer) und nicht zu komplexer Geometrie besitzt, der als seismischer Wellenleiter wirkt. In einem solchen Wellenleiter kann sich eine geführte Welle ausbreiten, die als mit Abstand stärkstes Signal an der Erdoberfläche registriert wird, also deutlich stärkere Bodenbewegungen hervorruft als etwa die direkte Welle. Dieser Verstärkungseffekt hat unter anderem Konsequenzen für die Abschätzung der seismischen Gefährdung in der Nähe einer Störungszone, zum Beispiel wenn die Störungszone durch dicht besiedeltes Gebiet verläuft. Geführte Wellen beinhalten aufgrund ihrer hohen Sensitivität bezüglich der Eigenschaften von Niedergeschwindigkeitszonen Strukturinformationen, die aus anderen Wellentypen nicht abgeleitet werden können. Daher leistet das Verständnis dieses Wellentyps einen wichtigen Beitrag für die Ableitung möglichst vollständiger Modelle von Störungszonen. Ausbreitung von SH- und P-SV Wellen in Erdmantel und der ganzen Erde: Das allgemeine Verständnis der Struktur und Dynamik des tiefen Erdinneren basiert zu einem großen Teil auf den Ergebnissen der globalen Seismologie. Im Gegensatz zum ersten Teil dieser Arbeit haben diese Erkenntnisse keine unmittelbare Auswirkung auf unser tägliches Leben. Jedoch liefert die Kenntnis des inneren Aufbaus der Erde wichtige Erkenntnisse für die geophysikalische Grundlagenforschung bis hin zum Verständnis der Entstehungsgeschichte der Erde und unseres Planetensystems. Die Modellierung der globalen seismischen Wellenausbreitung unterscheidet sich von der lokalen Modellierungen in zwei wesentlichen Punkten: (1) die wesentlich größere Ausdehnung globaler Modelle, welche die gesamte Erde oder zumindest große Teile des Erdinnern beinhalten, und (2) der Eigenschaft seismischer Wellen, sich im globalen Maßstab hauptsächlich in der Ebene auszubreiten, die durch den Großkreis zwischen Quelle und Empfänger aufgespannt wird. Beide Punkte legen nahe, zur Verringerung des Rechenaufwands eine Symmetriebedingung einzuführen. In dieser Arbeit wird durch die Formulierung von Wellengleichung und Modell in einem sphärisch-achsensymmetrischen Koordinatensystem der – im globalen Maßstab im Allgemeinen geringe – Anteil von Variationen der seismischen Parameter und von Wellenfeldanteilen orthogonal zur Großkreisebene vernachlässigt. Diese Beschränkung führt zu einer enormen Einsparung an Rechenressourcen, da das zu berechnende seismische Wellenfeld nur noch zwei Dimensionen aufspannt. Eine Folge der Achsensymmetrie ist die Aufspaltung des seismischen Wellenfeldes in einen SH- und einen P-SV Anteil. Beide Wellenfeldanteile sind voneinander entkoppelt und breiten sich in unterschiedlichen Regionen des Erdinneren aus. Zur Berechnung des SH- und des P-SV Wellenfeldes wurden daher in dieser Arbeit zwei separate Programme SHaxi und PSVaxi entwickelt. Kapitel 3 behandelt die Berechnung des globalen SH Wellenfeldes für Achsensymmetrische Geometrien mit dem im Rahmen dieser Arbeit entwickelten Programm SHaxi. Das SH Wellenfeld besteht aus horizontal polarisierten Scherwellen, die sich in guter Näherung ausschließlich im Erdmantel, also zwischen Erdoberfläche und Kern-Mantelgrenze ausbreiten. Somit muss nur der Erdmantel als Modellraum abgebildet werden, was die Diskretisierung des Modells und die Implementierung der Wellengleichung deutlich vereinfacht. Um eine Anwendung auf modernen Parallelcomputern mit verteilter Speicherarchitektur zu ermöglichen, wurde der Modellraum durch vertikale Schnitte in gleichgroße Segmente geteilt, die von den einzelnen Elementen (Knoten) eines Parallelrechners getrennt bearbeitet werden können. Das Wellenfeld in den Randbereichen dieser Segmente muss dabei nach jedem Zeitschritt explizit zwischen benachbarten Knoten ausgetauscht werden, um die Ausbreitung durch das gesamte Modell zu ermöglichen. Ein wesentlicher Aspekt des Kapitels ist die Verifikation des Verfahrens unter besonderer Berücksichtigung der implementierten Ringquelle. Durch einen Vergleich mit analytisch berechneten Seismogrammen werden die Eigenschaften der implementierten achsensymmetrischen Ringquelle diskutiert und es wird gezeigt, dass das Programm korrekte Seismogramme berechnet, die mit einer realistischen Double-Couple Quelle vergleichbar sind. Abschließend werden bisherige Anwendungen des Programms gezeigt: (1) die Modellierung von Streuung im gesamten Erdmantel und (2) die Untersuchung von kleinskaliger Topographie der D“ Schicht im untersten Erdmantel. Kapitel 4 behandelt das Gegenstück des im vorherigen Kapitel behandelten Verfahrens: Das Programm PSVaxi zur Berechnung des globalen P-SV Wellenfeldes für achsensymmetrische Geometrien. Im Gegensatz zum SH Wellenfeld breitet sich das P-SV Wellenfeld nicht nur im Erdmantel sondern auch im äußeren und inneren Erdkern aus. Dies erforderte eine Erweiterung des Modellraums bis praktisch zum Erdmittelpunkt, die sich mit dem im SH Fall verwendeten gleichförmigen Gitter aufgrund von Grundsätzlichen Stabilitätsproblemen des verwendeten Finite Differenzen Verfahrens nicht durchführen lässt. Um diesen zusätzlichen Modellraum zu erschließen wurde eine Mehrgebietsmethode (Multi-Domain Method) implementiert. Diese füllt zusätzliche Tiefenbereiche mit neuen, jeweils gleichförmigen Gittern (Domains) aus, deren Gitterabstände an den jeweiligen Tiefenbereich angepasst sind, was für die notwendige Stabilität des Verfahrens sorgt. Zusätzlich zur tiefenabhängigen Aufteilung des Modellraumes in gleichförmige Gitter wurde eine Parallelisierung vorgenommen, um das Programm auf Parallelcomputern nutzen zu können. Dazu wurde der Modellraum durch horizontale Schnitte in einzelne Segmente zerlegt, die – analog zu den vertikalen Schnitten bei der SHaxi Parallelisierung – von den einzelnen Knoten eines Parallelrechners bearbeitet werden können. Die Kombination von Mehrgebietsmethode und Segmentierung führt zu einem recht aufwendigen Algorithmus, erlaubt jedoch die Berechnung des hochfrequenten globalen Wellenfeldes durch die ganze Erde auf Parallelrechnern mit vergleichsweise geringem Rechenaufwand. Erste Anwendungen des PSVaxi Programms werden am Ende des Kapitels diskutiert: (1) eine exemplarische Modellierung der Wellenausbreitung in einer angenommenen D“ Schicht mit Topographie (2) eine Studie des Einflusses von Niedergeschwindigkeitszonen mit Topographie auf seismische Phasen, die durch den untersten Mantel und den äußeren Kern verlaufen und (3) eine Arbeit, die die Streueigenschaften des Mantels aus an der Kern-Mantelgrenze diffraktieren Wellen ableitet.