Podcasts about druckgradient

  • 3PODCASTS
  • 4EPISODES
  • 46mAVG DURATION
  • ?INFREQUENT EPISODES
  • Aug 15, 2019LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about druckgradient

Latest podcast episodes about druckgradient

Modellansatz
Poiseuillestrom

Modellansatz

Play Episode Listen Later Aug 15, 2019 47:10


In dieser Folge spricht Gudrun mit Ayca Akboyraz und Alejandro Castillo. Beide sind im Masterstudiengang Chemieingenieurwesen bzw. Bioingenieurwesen am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Ayca stammt aus der Türkei und Alejandro ist in Mexico aufgewachsen. Beide haben in ihren Heimatländern deutsche Schulen besucht. Anschließend haben sie sich jeweils um ein Studium in Deutschland beworben. Ayca hatte sich zunächst für Wirtschaftsingenieurwesen entschieden, hat aber nach einiger Zeit gemerkt, dass ihr Chemieingenieurwesen viel mehr liegt. Das Projektorientierte Softwarepraktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. In der klassischen Theorie der Strömungsmechanik werden auf der Grundlage der Erhaltung von Masse, Impuls und Energie und unter berücksichtigung typischer Materialeigenschaften die Navier-Stokes-Gleichungen als Modell für das Strömungsverhalten von z.B. Wasser hergeleitet. Die beiden unbekannten Größen in diesem System partieller Differentialgleichungen sind das Geschwindigkeitsfeld und der Druckgradient. Wenn geeigneten Rand- und Anfangsbedingungen für die Geschwindigkeit vorgeschrieben werden, liegt im Prinzip die Lösung des Gleichungssystem fest. Sie kann aber in der Regel nur numerisch angenähert berechnet werden. Eine wichtige Ausnahme ist die Strömung durch einen Zylinder mit kreisförmigem Querschnitt. Wenn am Rand des Zylinders als Randbedingung vorgeschrieben wird, dass dort das Fluid anhaftet, also die Geschwindigkeit ganz am Rand Null ist, dann stellt sich eine zeitlich unveränderliche (stationäre) Strömung ein, die am Rand des Zylinders still steht und in der Mitte am schnellsten ist. Der Verlauf zwischen diesen beiden Extremen entspricht genau dem einer Parabel. Diese Lösung heißt Poiseuille-Strömung. Der Durchfluss ergibt sich dann aus dem Druckgradienten. Wenn der Querschnitt des Kanals nicht genau kreisförmig ist, lässt sich das Prinzip noch übertragen, aber in der Regel ist die Lösung dann nicht mehr analytisch berechenbar. Die Poiseuille-Strömung ist ein häufiges Test- oder Benchmark-Problem in der numerischen Strömungsmechanik, zumal diese Strömungskonfiguration einer der wenigen Fälle der Navier-Stokes-Gleichungen ist, die analytisch gelöst werden können. Der Sinn des Tests besteht darin, zunächst sicherzustellen, dass die Berechnung mit Hilfe von OpenLB, eine gewisse Genauigkeit aufweist. Zweitens wird die Genauigkeit der Methode überprüft, indem analysiert wird, wie der numerische Fehler mit der Gitterverfeinerung skaliert. Ayca und Alejandro haben in ihrem Projekt diesen Benchmark vollzogen und dafür Simulationen im 2D und 3D Fall mit verschiedenen Randbedingungen, die in der Lattice Boltzmann Methode vorkommen (und in OpenLB implementiert vorliegen), und Gitterverfeinerungen mit Auflösung von 25, 50, 75, 100 Unterteilungen durchgeführt. Obwohl die Randbedingungen in numerischen Verfahren die gleichen grundlegenden Ziele wie im analytischen Fall haben, entwickeln sie sich entlang konzeptionell degenerativer Linien. Während analytische Randbedingungen die zugehörige Lösung aus einer Schar von zulässigen Lösungen der Gleichungen auswählen, wirken die Randbedingungen im Lattice Boltzmann Modell dynamisch mit. Sie sind ein Teil des Lösungsprozesses, der für die Änderung des Systemzustands in Richtung der Lösung zuständig ist. Eine der häufigsten Ursachen für die Divergenz der numerischen Lösung ist die falsche Umsetzung von Randbedingungen. Daher ist es für die Genauigkeit und Konvergenz sehr wichtig, dass die geeigneten Randbedingungen für die untersuchte Geometrie und den Strömungsfall ausgewählt werden. Es gibt eine große Familie Randbedingungen, die für die Lattice Boltzmann Methode entwickelt wurden. Für das Praktikum liegt der Fokus für die Wand auf den Randbedingungen "bounce-back" (Haftbedingung), "local", "interpolated" und "bouzidi". Alle genannten Randbedingungen erzeugen ein parabolisches Strömungsprofil passend zur analytischer Lösung. Unterschiede zeigen sich darin, wie groß die numerische Fehler ist, und in welchem Maß sich der numerische Fehler durch Gitterverfeinerung reduzieren lässt. Der graphische Vergleich der Simultionsergebnisse mit der analytischen Lösung hat gezeigt, dass bouzidi Randbedingung den kleinsten numerischen Fehler und die höchste Konvergenzordnung für den 3D-Fall erzeugt, während local und interpolated Randbedingungen für den 2D-Fall bessere Ergebnisse liefern. Zu beachten ist aber, dass mit erhöhter Gitterverfeinerung die Unterschiede zwischen diesen Randbedingungen verschwinden. Bei der Auswahl der Randbedingung sollte dementsprechend ein Kompromiss zwischen Aufwand und Güte der Lösung gefunden werden. Literatur und weiterführende Informationen T. Krüger e.a.: The Lattice Boltzmann Method. Graduate Texts in Physics. Springer, 2017. M. Portinari: 2D and 3D Verification and Validation of the Lattice Boltzmann Method. Master Thesis, Montréal 2015. C.J. Amick: Steady solutions of the Navier-Stokes equations in unbounded channels and pipes. Ann. Scuola Norm. Sup. Pisa Cl. Sci. (4), 4, 473–513 (1977). A. Akboyraz und A. Castillo, Ausarbeitung Softwarepraktikum 2019. M.J. Krause e.a.: OpenLB Release 1.3: Open Source Lattice Boltzmann Code. Podcasts L. Dietz, J. Jeppener, G. Thäter: Flache Photobioreaktoren - Gespräch im Modellansatz Podcast, Folge 213, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. T. Hoffmann, G. Thäter: Luftspalt, Gespräch im Modellansatz Podcast, Folge 153, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Modellansatz
Reguläre Strömungen

Modellansatz

Play Episode Listen Later Nov 10, 2016 46:18


Strömungen beobachten wir fast jeden Tag. Die Meeresbrandung fasziniert uns und eine gut funktionierende Klimaanlage ist ein wunderbarer Luxus, egal ob sie wärmt oder kühlt. Strömungen zu beherrschen ist aber auch in vielen verfahrenstechnischen Zusammenhängen wichtig. Insofern haben Gleichungen, die Strömungen beschreiben, eine große praktische Relevanz und gleichzeitig eine fast emotionale Anziehungskraft. Das einfachste mathematische Modell, das auch für viele Computersimulationen genutzt wird, sind die inkompressiblen Navier-Stokes Gleichungen (INS). Hier ist die strömende Substanz dem Wasser ähnlich genug, dass nur in der Materialkonstante Viskosität verschiedene Fließfähigkeiten unterschieden werden. Als Lösungen des Systems von partiellen Differentialgleichungen suchen wir das Geschwindigkeitsfeld und den Druck als Funktionen von Raum und Zeit . Im 3d-Fall ist das ein System von vier Gleichungen. Drei davon sind eine Vektorgleichung, die aus der Impulserhaltung abgeleitet wird und die vierte ist die Erhaltung der Masse. Im inkompressiblen Fall vereinfacht sich diese aus die Forderung, dass die Divergenz des Geschwindigkeitsfeldes verschwindet. Die komplexer aussehende Gleichung ist die Vektorgleichung, weil hier die zweiten räumlichen Ableitungen des Geschwindigkeitsfeldes, der Druckgradient, die zeitliche Ableitung der Geschwindigkeit und ein nichtlinearer Term vorkommen. Die Gleichungen müssen im Strömungsgebiet gelten. Die Lösungen müssen sich aus dem Anfangszustand entwickeln (Anfangsbedingung) und am räumlichen Rand vorgeschriebenen Werten, den Randwerten (meist fordert man, dass die Geschwindigkeit Null ist) genügen. Dieses Modell ist in einem längeren Prozess entwickelt worden. Ein großer Durchbruch bei der mathematischen Analyse gelang dem französischen Mathematiker Leray im Jahr 1934. Er hatte die geniale Idee, sich von dem Wunsch zu verabschieden, für diese komplizierte Gleichung eine punktweise zutreffende Lösung zu konstruieren. Statt dessen verallgemeinerte er den Lösungsbegriff und führte den Begriff der schwachen Lösung ein. Diese erfüllt die Gleichung nur im Sinne eines ausgeklügelten Systems von unendlich vielen Integralgleichungen. Er zeigte mit Hilfe von abstrakten Argumenten, dass die INS immer solche schwachen Lösungen haben. Heute ist bekannt, dass falls eine punktweise Lösung existiert (sogenannte starke Lösung), diese eindeutig ist (also insbesondere mit der schwachen übereinstimmt), es in 2d immer eine punktweise Lösung gibt, die für alle Zeiten existiert (unter geringfügigen Bedingungen an den Rand), und es unter Kleinheitsbedingungen an die Daten und bei glattem geometrischen Rand des Gebietes auch in 3d punktweise Lösungen gibt.Wir wissen jedoch in 3d nicht, ob die gefundenen schwache Lösung regulär bzw. stark ist (d.h. eine punktweise Lösung ist.) In Vorbereitung auf den Jahrtausendwechsel gab es in der Mathematik die Bestrebung, so wie dies 100 Jahre zuvor von Hilbert geschehen war, die wichtigsten mathematischen Problemstellungen in den Fokus zu nehmen. Das Ergebnis waren sieben sogenannte Milleniumsprobleme der Clay Foundation, für deren Lösung jeweils ein Preisgeld von einer Millionen Dollar ausgelobt wurde. Eines dieser für so wichtig angesehenen Probleme ist die offene Frage der Regularität der schwachen Lösungen der INS. Woran liegt das? Eine Eigenschaft der INS, die sie schwierig macht, ist ihre Nichtlinearität. Sie ist nur quadratisch und hat eine besondere Struktur. Diese Struktur verdanken wir es z.B., dass die schwache Theorie erfolgreich ist. Es besteht Hoffnung, dass wir auch die Lücke zur starken Theorie unter Ausnutzung der Struktur schließen können. Der Standardweg im linearen Fall (z.B. beim Laplace-Problem) ist es, für die schwachen Lösungen mit einem Münchhausen-Prinzip (Elliptic Bootstrapping) Stück für Stück mehr Regularität zu zeigen. Man kann so zeigen, dass die Lösung immer so gut ist, wie die es Daten erlauben. Man nennt das maximale Regularität. Leider ist für die INS das Wachstum in der Nichtlinearität zu schnell, um im 3d-Fall mit diesen Standardmethoden zu argumentieren (im 2d Fall geht es aber). Im 3d-Fall geht es aber unter bestimmten Zusatzbedingungen, z.B. einer höheren Integrierbarkeit des Geschwindigkeitsfeldes als die schwachen Lösungen von vornherein haben. Man fand dies über Skalierungs-Eigenschaften der Gleichung heraus. Grob gesagt, muss man fordern dass die Lösung zu einem Raum gehört, der Skalierungsinvariant ist. Eine weitere zusätzliche Forderung ist die Gültigkeit der Energiegleichung (Erhaltung der kinetischen Energie), denn leider weiß man bisher von schwachen Lösungen nur, dass sie eine Energieungleichung erfüllen. Eine zweite Schwierigkeit der INS ist der Zusammenhang zwischen Druck und Divergenzgleichung. Ein Trick der schwachen Theorie ist, dass wir uns von Anfang an auf Funktionen beschränken, die schwach divergenzfrei sind (also die Gleichung in Integralmittel erfüllen. Was in der Theorie sehr gut funktioniert, ist blöd für die Numerik, weil man Divergenzfreiheit immer wieder herstellen muss wegen der Rechenfehler im Prozess. Unter den Forschern gibt es zwei Richtungen: Entweder man sucht nach Blow-up Lösungen, also schwachen Lösungen, die keine punktweisen Lösungen sein können, oder man versucht die Zusatzforderungen aufzuweichen (um sie am Ende ganz weglassen zu können). Dabei gibt es ständig kleine Fortschritte. Es gibt auch zwei Wege, für allgemeinere Modelle Theorien zu entwickeln, die dann im Spezialfall auch etwas über INS sagen. Ein durch O.A. Ladyzenskaya vorgeschlagener Zugang geht über den p-Laplace-Operator. Hier findet man starke Lösungen für alle p>2,5, die INS ist jedoch der Fall p=2. Als Materialgesetz interessant für Ingenieure ist aber der noch schwierigere Fall 1

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Characterization and scaling of the tokamak edge transport barrier

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05

Play Episode Listen Later Jul 19, 2012


Das Regime mit hohem Einschluss (H-Mode) in einem Tokamak Plasma zeichnet sich durch eine besondere Randregion aus. Auf einem kleinen räumlichen Bereich von 1-2 cm ändern sich die Eigenschaften des Plasmas signifikant. In dieser Region, auch Pedestal genannt, variieren einige Parameter um 1-2 Größenordnungen. Bisher sind die Entstehung dieses Pedestals und seine Stabilität nur unvollständig verstanden. Daher ist es ein Ziel dieser Dissertation, zu dem Verständnis des Pedestals beizutragen und Skalierungen für größere Maschinen, wie ITER oder DEMO, zu entwickeln. Mit Messungen von verschiedenen Tokamaks - ASDEX Upgrade, DIII-D, JET - wurde eine Pedestal-Datenbank aufgebaut. Das Pedestal wurde für alle Maschinen mit derselben Methode charakterisiert. Dadurch erhält man den maximalen Wert im Pedestal, seine Breite und seine Steigung, jeweils für die Elektronendichte ne, Elektronentemperatur Te und Ionentemperatur Ti. Diese Größen und Ableitungen davon, wie Druck oder Einschlusszeit, wurden analysiert. Für diesen Zweck wurden zwei verschiedene Sets von Parametern verwendet: normierte Größen (Druck beta, Zeit nu*, Länge rho*, Form fq und technische Größen (Ausdehnung a, magnetisches Feld Bt, Plasma Strom Ip, Heizleistung P). Alle Ergebnisse werden durch die Wahl des Koordinatensystems beeinflusst: normierter poloidaler Fluss PsiN oder Ortsraum r/a. Bei beiden Parametersets wurde beobachtet, dass die Pedestalbreiten in Elektronentemperatur und Elektronendichte unterschiedlich skalieren. Für ITER oder DEMO würde diese Skalierung bedeuten, dass das Temperaturpedestal deutlich breiter ist als das Dichtepedestal. Der Druck am Pedestal zeigt verschiedene Abhängigkeiten für Elektronen und Ionen. Die Extrapolationen zu ITER und DEMO geben ein Te,ped von 4 keV bzw. 10 keV, allerdings ergeben sich deutlich niedrigere Werte für die Ionentemperatur. Eine zwei-Phasen Analyse der Energieeinschlusszeit tauE wurde angewandt, um den Beitrag des Pedestals zur gesamten Einschlusszeit abzuschätzen. Die Abhängigkeiten, die sich aus der Skalierung für tauE,ped ergeben, sind nahezu identisch mit denen der IPB98 Skalierung. Dies ist ein deutlicher Hinweis darauf, dass durch das Pedestal ein signifikanter Beitrag zum gesamten Einschluss geleistet wird. Die Extrapolationen zu ITER zeigen eine Einschlusszeit von 3 s, was sich am unteren Rand der IPB98 Skalierung befindet. Die Pedestalgradienten im Ortsraum zeigen eine deutliche Korrelation mit den Werten am oberen Rand des Pedestals. Besonders ausgeprägt ist diese Abhängigkeit für die Elektronentemperatur, hier wurde zudem keine Abhängigkeit mit einem anderen Parameter beobachtet. Die Gradienten in PsiN zeigen keine vergleichbare Korrelation. Der normierte Druckgradient alpha, der für die Stabilität des Pedestals wichtig ist, ist korreliert mit dem normierten Druck und der Plasmaform. Auch andere Beobachtungen lassen auf eine wichtige Rolle der Plasmaform schließen, was einen starken Einfluss auf Extrapolationen haben kann. Die vorliegende Studie bestätigt, dass die Randtransport Barriere nicht durch eine einzelne Theorie beschrieben werden kann. Die Höhe des Pedestals in der Elektronen- und Ionentemperatur sowie der Dichte kann separat durch entsprechenden Transport limitiert sein, während sie zusammen durch eine Stabilitätsgrenze limitiert sind. Gleichzeitig skaliert die radiale Ausdehnung der Temperatur und der Dichte verschieden.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Die Elektronenstrahl-Computertomographie in der postinterventionellen Verlaufskontrolle der hypertrophen obstruktiven Kardiomyopathie nach transkoronarer Ablation der Septumhypertrophie (TASH)

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19

Play Episode Listen Later Feb 17, 2005


Die vorliegende Arbeit beschäftigt sich mit der Evaluation der linksventrikulären Myokardmasse und deren Massenänderung bei Patienten mit hypertropher obstruktiver Kardiomyopathie (HOCM), die eine transkoronare Ablation der Septumhypertrophie (TASH) erhalten haben. Hierzu erfolgte ein nichtinvasives Follow-up durch Einsatz der Elektronenstrahl-Computertomographie (electron beam computed tomography = EBCT). Im Vordergrund stand hierbei die Bestimmung der linksventrikulären Myokardmasse (in g) vor der Intervention, direkt danach sowie nach sechs und zwölf Monaten. Um die Massenänderungen auch einzelnen Regionen zuordnen zu können, wurden das Septum und die linksventrikuläre laterale Wand gesondert analysiert. Auf einzelnen Schichten erfolgte jeweils eine manuelle Segmentierung durch Markierung der Epi- und Endokardgrenzen und eine Einteilung in Sektoren. Die septale Myokardmasse reduzierte sich erwartungsgemäß am stärksten unmittelbar in der ersten postinterventionellen Woche (6,8 ± 2,6 [2–12] d) um 4,4 ± 2,8 (-0,4–12,4) g. Dies ist durch den Gewebeuntergang durch Infarzierung nach Septalastokklusion zu erklären. Gleichzeitig reduzierte sich auch der die Beschwerden der Patienten verursachende Druckgradient, der über dem linksventrikulären Ausflusstrakt, bedingt durch die Septumhypertrophie, bestand. Dabei nehmen sowohl der Ruhegradient (60,3 ± 21,3 [15–100] mmHg) als auch der postextrasystolische Gradient (101,5 ± 41,9 [30–180] mmHg) signifikant ab. Neben der Reduktion der Septummasse verringerte sich auch die Masse der lateralen Ventrikelwand. Ursache dieser Massenreduktion ist der rückläufige oder verminderte Druckgradient, der als Auslöser einer druckbedingten Myokardhypertrophie gilt. Dieser Effekt wird als therapeutisches „Remodeling“ bezeichnet. Es nimmt somit auch die Masse an der lateralen Ventrikelwand und konsekutiv des gesamten linken Ventrikels ab. Die Änderungen in diesen Bereichen sind zwar auch im direkt postinterventionellen Zeitraum signifikant, im Gegensatz zur Septummasse erfolgt jedoch hier die stärkste Massenreduktion erst im Verlauf des ersten halben Jahres nach der Intervention. Zusätzlich wird der Stellenwert der EBCT in der Myokardmassenbestimmung im Vergleich zu anderen Verfahren dargestellt. Bisherige Studien bedienten sich der Echokardiographie zur Verlaufskontrolle. Sie liefert ebenso wie die EBCT Informationen über Funktion und Morphologie. Als problematisch ist hierbei jedoch insbesondere die Untersucher- und Patientenabhängigkeit herauszustellen. Zudem ist die Massenbestimmung in verschiedenen Verfahren unterschiedlich und variiert in ihren Ergebnissen. Die Unterteilung in verschiedene Regionen ist hierdurch erschwert. Neue dreidimensionale Rekonstruktionsverfahren sind bisher noch teuer und zeitaufwendig, liefern jedoch der EBCT vergleichbare Ergebnisse. Die Magnetresonanztomographie (MRT) liefert der EBCT entsprechende Massenergebnisse. Es gibt allerdings Beschränkungen in der Indikationsstellung. So sind Patienten, die schwer krank sind, durch fehlende Überwachungsmöglichkeiten oder mit implantiertem Herzschrittmacher von der Untersuchung ausgeschlossen. Dies ist besonders bei der Evaluation der HOCM-Patienten nach TASH zu beachten, da ca. 10 % der behandelten Patienten schrittmacherpflichtig werden. In dieser Studie erhielten 12,5 % der Patienten dauerhaft ein Implantat. In Zukunft wird wahrscheinlich die Multischicht-Computertomographie (MSCT) die EBCT in der kardialen Diagnostik als Alternativverfahren ablösen. Obwohl zur Zeit noch kein Algorithmus zur Massenbestimmung existiert, sind die Möglichkeiten durch das gleichzeitige Scannen großer Volumina doch gegeben. Die Limitation liegt weiterhin in den längeren Aufnahmezeiten (105–210 ms) der MSCT im Gegensatz zu 50 ms der EBCT. Die geringere zeitliche Auflösung bedingt derzeit noch die Überschätzung der Ventrikellumina. Zur Verbesserung dieses Aspektes sind weitere technische Entwicklungen im Gange. Der große Vorteil der MSCT liegt, abgesehen von der geringeren Strahlenbelastung für den Patienten, insbesondere in deren hohem Verbreitungsgrad und dem geringeren technischen Aufwand.