POPULARITY
Fri, 21 Feb 2025 23:02:00 +0000 https://copcast.podigee.io/79-neue-episode be2022832ee0a6471db2ff345dc61223 "Miniserie: „Dein Weg in die Hessische Polizei“ – Folge 1: Der Computertest
Initiiere Deinen Prozess zur Selbstheilung! Höre dir unsere neue Gesundheitsmatrize von Pjotr Garjajev für deine Nieren an! Um die maximale Wirkung zu erzielen, solltest Du sie 21 Tage lang anhören. Du kannst die Matrize im Hintergrund laufen lassen. Es ist nicht notwendig ihr bewusst zu folgen, die Übertragung der Informationen erfolgt über dein Unterbewusstsein und wird in deiner DNA empfangen. Weitere Infos: https://www.youtube.com/watch?v=ckk3T93gsxI&list=PLCrz4t8w8SyRrVHA04OPcb3Z4dTpzXXrY Oder auf unserem Telegram-Kanal: https://t.me/gwlakademie Lade dir die Matrize auch gerne als MP3-Format von unserer Podcast Plattform runter: https://gwl-akademie.podigee.io Entfalte Dein volles menschliches Potenzial, was Dir von Natur aus gegeben wurde! Die GWL Akademie – das steht für Ganzheitlich∞Wert∞Voll∞Leben – hat erkannt, dass die Zeit für Selbstentfaltung und bewusstes Wachstum gekommen ist, und bietet ein einmaliges Seminarprogramm, das Menschen dabei unterstützt, ihr volles Potenzial zu entfalten und ihr Leben in die eigenen Hände zu nehmen. Lerne in unserem Seminarprogramm handfeste und effektive Techniken, die dich Tag für Tag begleiten werden und die schließlich zu Fähigkeiten und Fertigkeiten entwickelt werden, welche dir alltäglich zur Verfügung stehen und auf die du jederzeit bewusst zugreifen kannst! Werde Teil der Community und entfalte dein volles Bewusstsein an der GWL-Akademie: https://gwl-akademie.ch Kostenfreies Webinar zum Kennenlernen „Zur Quelle deiner Kraft“: https://gwl-akademie.online/page7 Spannende Textbeiträge sowie laufende Informationen und News zu den Seminaren gibt's entweder auf unserem Telegram Kanal: https://t.me/gwlakademie Oder über unseren Newsletter: https://gwl-akademie.ch Melde dich an und bleibe immer up to date – oder lass dich einfach von interessanten Posts rund um das Thema Bewusstsein berieseln.
Initiiere Deinen Prozess zur Selbstheilung! Höre dir unsere neue Gesundheitsmatrize von Pjotr Garjajev für die Verbesserung deines Lymphsystems an - dieses Mal eine Matrize nach eurem Wunsch! Das Video beinhaltet gleich zwei Matrizen: 0:00 Lymphdrainage 25:10 Lymphdetox Um die maximale Wirkung zu erzielen, solltest Du sie 21 Tage lang anhören. Du kannst die Matrize im Hintergrund laufen lassen. Es ist nicht notwendig ihr bewusst zu folgen, die Übertragung der Informationen erfolgt über dein Unterbewusstsein und wird in deiner DNA empfangen. Weitere Infos: https://www.youtube.com/watch?v=ckk3T93gsxI&list=PLCrz4t8w8SyRrVHA04OPcb3Z4dTpzXXrY Oder auf unserem Telegram-Kanal: https://t.me/gwlakademie Lade dir die Matrize auch gerne als MP3-Format von unserer Podcast Plattform runter: https://gwl-akademie.podigee.io Entfalte Dein volles menschliches Potenzial, was Dir von Natur aus gegeben wurde! Die GWL Akademie – das steht für Ganzheitlich∞Wert∞Voll∞Leben – hat erkannt, dass die Zeit für Selbstentfaltung und bewusstes Wachstum gekommen ist, und bietet ein einmaliges Seminarprogramm, das Menschen dabei unterstützt, ihr volles Potenzial zu entfalten und ihr Leben in die eigenen Hände zu nehmen. Lerne in unserem Seminarprogramm handfeste und effektive Techniken, die dich Tag für Tag begleiten werden und die schließlich zu Fähigkeiten und Fertigkeiten entwickelt werden, welche dir alltäglich zur Verfügung stehen und auf die du jederzeit bewusst zugreifen kannst! Werde Teil der Community und entfalte dein volles Bewusstsein an der GWL-Akademie: Im Dezember starten unsere nächsten Einstiegs-Seminare «Stufe 1 – EINS WERDEN»: «Stufe 1 - EINS WERDEN» am 01.-03.12.2023 in Sirnach, Schweiz https://gwl-akademie.ch/seminare/stufe-1-eins-werden «ONLINE Stufe 1 - EINS WERDEN» Start: 27. November 2023 https://gwl-akademie.online/page2711 Dich erwartet ein phänomenaler Kurs voller neuer Erkenntnisse und Wissenselemente rund um dein Bewusstsein und was alles in dir steckt! Mit einer Dauer von insg. 22 Tage schaltet sich jeden Tag eine neue Video-Lektion und Aufgaben frei. Allerdings bist du nicht auf dich allein gestellt: Du hast die Chance, in insg. 3 Live-Webinaren mit Viktor in Kontakt zu treten und die wichtigsten Themen zusammen zu besprechen. Kostenfreies Webinar zum Kennenlernen „Zur Quelle deiner Kraft“: https://gwl-akademie.online/page7 Spannende Textbeiträge sowie laufende Informationen und News zu den Seminaren gibt's entweder auf unserem Telegram Kanal: https://t.me/gwlakademie Oder über unseren Newsletter: https://gwl-akademie.ch Melde dich an und bleibe immer up to date – oder lass dich einfach von interessanten Posts rund um das Thema Bewusstsein berieseln.
Wir feiern Jubiläum! Die 100. Folge der 1. Chief of Anything Staffel ist draußen. Passend dazu geht es um die Erreichung von 100% - Ich möchte, dass alle Teammitglieder zu 100% passen und ihren besten Beitrag liefern können. Wie erkenne ich dafür, ob ich die richtigen Superstars für mein Team habe und was bedeutet das für meine nächsten Handlungen als Teamlead? Um die Stärke von Performance aufzuteilen und zu benennen, stellen Christian und Michael praktische Skalen und Matrizen vor. Je nachdem, wo sich jemand darauf befindet, weiß ich als Chief, welche Schritte ich mit dieser Mitarbeiterin als nächstes gehe. Am Ende habe ich meine persönlichen Avengers: Ein Team, in dem jeder ein Superheld ist und seine eigene Kraft voll ausleben und damit etwas Gutes bewirken kann. Zum Abschluss geht es um die Frage: Ist 100% Leistung wirklich nötig? Pushe ich alle an ihre Belastungsgrenze? Oder habe ich eine ganz andere, hilfreiche und stärkende Absicht? Was wäre deine Superkraft, wenn du eine übernatürliche hättest? **Über die Podcaster** Michael auf LinkedIn: ► http://www.linkedin.com/in/michael-portz-362209 Christian auf LinkedIn: ► http://linkedin.com/in/christiankohlhof **Unser Buch** CHIEF OF ANYTHING: Wofür entspannt-produktive Führung die Welt verbessert Bestelle es dir noch heute auf amazon: ► https://amzn.to/2Z5IIXh **Über die CoA Academy** Weitere Informationen über die Academy, unsere Seminare und das CHIEF OF THE YEAR Remote Leadership Programm findest du auf unserer Website: ► https://coa.academy **Newsletter** Melde dich gerne zu unserem Newsletter an. Mit ihm verpasst du keine Neuigkeiten & Erfahrungen mehr von uns: ► https://bit.ly/3a9FoAQ **Und noch eine große Bitte an dich:** Abonniere unseren Podcast und bleibe auf dem Laufenden. Wenn er dir hilft, eine bessere Chefin oder ein besserer Chef zu werden, effektiver zu kommunizieren oder du ihn einfach unterhaltsam findest, freuen wir uns sehr über eine 5-Sterne-Bewertung und eine Rezension. **VIELEN HERZLICHEN DANK!**
Nach dem Einblick in die Welt steigen wir noch etwas tiefer ein und schauen uns grundlegend den Aufbau eines FPGAs an. Inhalt der Folge: * Grundlegende Struktur * Logikzellen * Verbindungszellen (routing Matrizen) * Takt Netzwerke * Speicher * Rechenzellen * Verbindung in die Außenwelt Der Beitrag IF168 – Innenleben – Grundlagen erschien zuerst auf Ingenieurbüro David C. Kirchner.
Gudrun spricht mit Hartwig Anzt. Er leitet die Helmholtz-Nachwuchsgruppe Fixed-point methods for numerics at Exascale (FiNE) am SCC. Seine Forschung beschäftigt sich mit numerischer linearer Algebra in modernen Hochleistungsrechnersystemen. Angesichts des explosionsartigen Anstiegs der Hardware-Parallelität erfordert die effiziente Ausführung von Anwendungen auf solchen Systemen eine völlige Neugestaltung der zugrunde liegenden numerischen Methoden. Dieses neue Paradigma muss Implementierungen umfassen, die sich auf die Parallelität auf Knotenebene, ein reduziertes globales Kommunikationsvolumen und abgeschwächte Synchronisationsanforderungen konzentrieren. Hartwig ist Teil des PEEKS und xSDK-Projekts und leitet die Multiprecision-Initiative im US Exascale Computing Project (ECP). Das Ziel dieser Initiative besteht darin, die Nutzung verschiedener arithmetischer Präzisionen in numerische Algorithmen zu erforschen, wodurch viele Algorithmen beschleunigt werden können, ohne dabei Genauigkeit einzubüßen. Hartwigs Forschungsschwerpunkt liegt auf der Entwicklung und Optimierung numerischer Methoden für effizientes Hochleistungsrechnen. Insbesondere interessiert er sich für lineare Algebra für dünn besetzte Matrizen, iterative und asynchrone Methoden, Krylov-Löser und Vorkonditionierung. Die zugrundeliegende Idee besteht darin, numerische Probleme als Fixpunktprobleme umzuformulieren, um höhere Parallelisierungsgrade zu ermöglichen. Die Implementierung der Fixpunktmethoden macht typischerweise starken Gebrauch von (datenparallelen) Batch-Routinen und weist schwache Synchronisationsanforderungen auf. Die Algorithmenforschung wird ergänzt durch Bemühungen, die auf eine nachhaltige Software-Entwicklung in einem akademischen Umfeld und einen gesunden Software-Lebenszyklus abzielen. Ein Ergebnis dieser Bemühungen ist Ginkgo, eine Open Source Softwarebibliothek für numerische lineare Algebra mit dem Fokus auf Löser für dünn besetzte Systeme, die Hartwig ins Leben gerufen hat. Bei dem Stichwort Software-Nachhaltigkeit könnte man an das Vorhandensein eines Continuous Integration (CI)-Frameworks denken, also das Vorhandensein eines Test-Frameworks, das aus Unit-Tests, Integrationstests und End-to-End-Tests besteht (inkl. das Vorhandensein einer Software-Dokumentation). Wenn man jedoch fragt, was der übliche Todesstoß für ein wissenschaftliches Softwareprodukt ist, ist es oft die fehlende Plattform- und Leistungsportabilität. Vor diesem Hintergrund haben Hartwig und seine Gruppe wir Ginkgo-Bibliothek mit dem primären Fokus auf Plattform-Portabilität und der Fähigkeit, nicht nur auf neue Hardware-Architekturen zu portieren, sondern auch eine gute Performance zu erreichen, entwickelt. Die grundlegende Idee beim Design der Ginkgo-Bibliothek ist eine radikale Trennung der Algorithmen von den hardwarespezifischen Dingen. Daneben sprechen Gudrun und Hartwig über die Nutzung von Kalkülen mit geringer Genauigkeit für letztendlich präzise Algorithmen. Die Hardware-Anbieter haben nämlich damit begonnen, spezielle Funktionseinheiten mit geringer Genauigkeit zu entwickeln, um der Nachfrage z.B. der Machine-Learning-Community und deren Bedarf an hoher Rechenleistung in Formaten mit geringer Genauigkeit zu entsprechen. Hartwig konzentriert sich darauf, wie dann Mixed- und Multiprecision-Technologie helfen kann, die Leistung dieser Methoden zu verbessern und findet Anwendungen, die die traditionellen Methoden mit fester Genauigkeit deutlich übertreffen. Literatur und weiterführende Informationen Hartwig Anzt e.a.: Iterative sparse triangular solves for preconditioning European conference on parallel processing, 650-661 (2015). Ginkgo Numerik für lineare Algebra Paket Terry Cojean, Yu-Hsiang -Mike- Tsai, Hartwig Anzt: Ginkgo - A Math Library designed for Platform Portability 2020. Hartwig Anzt e.a.: An Environment for Sustainable Research Software in Germany and Beyond: Current State, Open Challenges, and Call for Action 2020. Podcasts Exascale Computing Project Episode 47: Hartwig Anzt - Developing Multiprecision Algorithms with the Ginkgo Library Project, 2019. Exascale Computing Project - alle Folgen. C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. S. Janosch, K. Förstner: Forschungssoftware in Deutschland, Open Science Radio, OSR091, 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
Habt ihr euch schon mal gefragt, wo man landet, wenn man die Vektorrechnung weiterdenkt? Das und vieles mehr erfahrt ihr in dieser Nussschale!
Haben Sie auch schon einmal Probleme gehabt beim Aufbau tief zerstörten Zähnen die Matrize dicht zu bekommen? Und wie sieht es dann nach der endodontischen Therapie mit der Weiterversorgung aus? In dieser Folge von Intradental stelle ich Ihnen meine Methode hierfür vor die in allen Fällen zügig und Vorhersagbar funktioniert. Heute wieder mit einer Knowledge Bombe angeregt von einem langjährigen Überweiser aus Gelsenkirchen. Hier der Link zu unserem Endo Curriculum am Sa. den 15., 22 und 29. August 2020: https://fundamental.de/index.php/component/rseventspro/event/867-der-sanfte-einstieg-in-die-endodontologie-fundamentales-endo-curriculum Meine Technik zum Aufbau tief zerstörter Zähne in einem kurzen Youtube Video erklärt: Video-Link: https://youtu.be/e137sv-0wbY Zaruba et al. 2013 Influence of a proximal margin elevation technique on marginal adaptation of ceramic inlays https://www.zora.uzh.ch/id/eprint/87924/1/52_Zaruba_Influence_ceramic_inlays_Acta_OdontolScand_2013.pdf Roland Frankenberger et al.: Effect of proximal box elevation with resin composite on marginal quality of ceramic inlays in vitro https://www.researchgate.net/publication/221854989_Effect_of_proximal_box_elevation_with_resin_composite_on_marginal_quality_of_ceramic_inlays_in_vitro Andrej Michael Kielbassa: Restoring proximal cavities of molars using the proximal box elevation technique: Systematic review and report of a case https://www.researchgate.net/publication/279989420_Restoring_proximal_cavities_of_molars_using_the_proximal_box_elevation_technique_Systematic_review_and_report_of_a_case Möchten Sie uns bei unserer Arbeit über Schulter schauen? Dann können Sie bei Sirius Endo hospitieren: https://siriusendo.de/hospitation.html Da hier Firmen, Produkte bzw. meine Kurse genannt werden ist diese Folge sicher Werbung im juristischen Sinne. --- Send in a voice message: https://anchor.fm/intradental/message
Heute erwartet euch der zweite Teil vom Online-IQ-Test mit Andreas. Wie schlägt er sich bei Zahlenreihen, Matrizen und logischen Schlussfolgerungen? Warum sind Mädchen nicht unbedingt Kinder und warum haben Igel keine Stacheln? Am Ende bekommt Andreas knallhart sein Ergebnis präsentiert. Ist er zufrieden mit seinem IQ-Wert? Selber rätseln? Dann einfach auf iqtest.sueddeutsche.de gehen und selber ausprobieren!
Wir stellen eine Reihe Werkzeuge vor, mit der Umfragen für Matur- und Studien-Arbeiten (aber nicht nur!) erstellt werden können. Die Anforderungen für Umfragen im schulischen Kontext sind schnell klar: Es sollte nichts kosten und auf Deutsch sein. Dazu gibt es eine Reihe von Angeboten, die sich in der Art der Fragemöglichkeiten kaum unterscheiden. Alle bieten Multiple-Choice, Matrizen, Texteingaben und einzelne Fragen an Doch die Gratisangebote sind oft stark eingeschränkt, fast immer in Bezug auf die Anzahl der Antworten. Das Limit ist schnell ausgeschöpft: Liegt die Limite bei 100 Antworten, können gerade mal 10 Fragen von 10 Teilnehmerinnen beantwortet werden. Auswertung und Datenschutz Zwei weitere wichtige Punkte sind die Auswertungsmöglichkeiten und der Datenschutz. Eine Umfrage im schulischen Umfeld – für Forschungszwecke – muss in irgendeiner Weise sinnvoll ausgewertet werden können. Dazu muss aber der Online-Dienst, der die Umfrage bereitstellt, diese Auswertungsmöglichkeiten auch anbieten – oder zumindest den Export der Daten ermöglichen. Der Datenschutz ist ein weiterer wichtiger Punkt, vor allem, wenn die Umfrage besonders schützenswerte Daten nach dem Schweizer Datenschutzgesetzt verarbeiten soll. Es lohnt sich deswegen ein Blick in die Datenschutzerklärung, ob diese einigermassen sinnvoll und verständlich ist, und wie der Umfrage-Anbieter mit den Daten umgeht. Die Umfrage-Dienste Folgende Dienste bieten sich für den schulischen Kontext an, die Angaben beziehen sich auf die Gratisversion. Surveymonkey: bis 10 Fragen/100 Antworten, Webseite nur teilweise auf Deutsch übersetzt, Datenschutzerklärung schwer verständlich. Zur Webseite Umfrage online: 350 Antworten möglich, Werbung, maximal 1 Monat dauernde Umfrage, Datenschutzerklärung vorhanden und lesbar, Spezialangebot für Studierende. Zur Webseite EasyFeedback: 10 Fragen, maximal 100 Teilnehmende pro Umfrage, Datenschutzerklärung vorhanden und lesbar. Zur Webseite Google-Formulare: beschränkte Auswertungsmöglichkeit, nur für sehr einfache Umfragen, Datenschutzerklärung intransparent. Zur Webseite Q-Set: bis zu 2000 Antworten, Werbung, ein Teil der Auswertung ist kostenpflichtig, Spezialangebot für Studierende, Datenschutzerklärung sehr knapp gehalten. Zur Webseite LimeSurvey: 25 Antworten pro Monat, Werbung. Es ist Open-Source-Software, es ist also möglich, die Umfrage auf einem eigenen Server aufzusetzen und einzurichten. Zur Webseite
Wie kann ich in der Krise die richtigen Themen priorisieren und Entscheidungen schnell treffen? Und wer entscheidet eigentlich? Ich, ich mit Dir, Du oder wir? Das Podcast Team der COA Akademie stellt zwei einfache Tools vor, die Du sofort einsetzen kannst - da es sich um 2 x2 Matrizen handelt sind die Tools auch visuell einfach, schnell erlernbar und gewohnt knackig. Es ist wie beim Baseball - der Ball muss geschlagen werden, wenn er ankommt. Bitte abonniere unseren podcast und - wenn er Dir gefallen hat - bitte gib uns eine Bewertung. Vielen Dank!
In der ersten Lektion zum Thema "Vektoren und Matrizen" geht es um den Begriff des Vektors, der Ihnen sicher bei physikalischen Fragestellungen schon einmal begegnet ist. Wie geht die Mathematik damit um?
NOMADTRIPS.DE | Hey ihr Weltentdecker, ich bin Alex, ein Freidenker aus Dresden im 24. Lebensjahr und seit diesem jetzt auch Gründer - ein Road Trip für Unternehmer und digitale Nomaden. Damit möchte ich Menschen & ihre Projekte auf eine Reise zu mehr Freiheit durch Europa mitnehmen. Tolle Speaker inspirieren uns auf Events, ein mobiler Coworking Space wird Ort für tägliche Weiterentwicklung und die Landschaft Europas unser Zuhause. Während dieses Vorhabens bin ich auf die Camper Nomads gestoßen, habe mich sofort für ihre einzigartige Workation angemeldet und dort eine großartige Community kennen lernen dürfen. Ich freu mich auf die Zukunft und habe hier noch eine kleine Story, wie ich zu euch gefunden habe. Viel Spaß! Start ins Nomadenleben Letztes Jahr im August tropften mir noch die Schweißperlen auf die Mathe-Prüfung. Rekordsommer in Deutschland und ich sitze gestresst vor sinnlosen Matrizen, die jeder Computer in Sekunden berechnet. Gründen wolltest du doch, dachte ich mir - BWL studieren musst du, haben sie damals gesagt. Ob mir die monströse Matrize dabei hilft? Noch in dieser letzten Semesterprüfung treffe ich eine Entscheidung: Thailand. Zwei Stunden später Flug gebucht und eine Woche danach startet der Flieger. Spontan lebt es sich unbeschwert. Zum ersten mal sah ich, wie digitale Nomaden leben und arbeiten. Selten hatte ich so freie und glückliche Menschen getroffen und meine Vision, digitaler Nomade 2020, verankerte sich in den Tiefen meines Herzens. Zurück in Deutschland fehlte mir diese Gemeinschaft. Ich lud die "Digital Nomads Dresden" in den Coworking Space ein, in welchem ich arbeite. Ver-rückte Menschen, die ich auf meinen Reisen traf, sprachen als Speaker remote & live auf meinen Events. Dem Feuer in den Augen der Teilnehmer nach, blieb die Inspiration über online Vorträge nicht auf der Strecke. Digitale Nomaden Style eben. Der Highway to Freedom entwickelt sich Gleichgesinnte verbinden, Inspiration schenken und coole Projekte durch diese Events unterstützen machten mir so viel Spaß, dass ich aus meinen geplanten Road Trip im Sommer 2019 eine Eventreise machte. Die Events sollten nicht nur in Dresden, sondern auch in ganz Europa Menschen connecten. Während ich die Tour plante, Speaker dafür begeisterte und Coworking Spaces als Locations gewann, erzählte ich auch Freunden davon. Ein paar begeisterte Feedback-Gespräche später stand fest: ich fahre nicht allein. Das eine führte zum anderen und ich begann die lange Liste der Gründungsideen, für den digitalen Nomaden Road Trip, beiseite zu legen. Ein Monat war vergangen und es ist kurz vor Silvester. Ich stehe vor dröhnenden Bässen, dem dritten "letzten Bier" in der Hand, hoffe dabei, dass der Tinnitus den Autotune-Rapper übertönt und frage mich: Wie finanziere ich die 1000€ für meine Website? Ich denke an meinen Kontostand und komme zum Entschluss, die Sache selbst anzugehen. Kurz darauf sitze ich mit einem Asiaten zu Hause, der mir über Youtube Wordpress erklärt. Vier Kaffee und sieben Zigaretten später blicke ich stolz auf mein Werk - die erste Website - NOMADTRIPS.DE. Mittlerweile war es Mittag und ich wusste, dass ich im Leben keine Zertifikate brauche, um meine Ideen umzusetzen. Eine geniale Erkenntnis. Seit dem nimmt meine Eventreise immer mehr Gestalt an. Es geht von Deutschland über die Alpen nach Kroatien und über Frankreich hoch nach Amsterdam. In den großen Städten arbeiten wir im Impact HUB und schlafen in AirBnB´s. Auf dem Weg dazwischen begleitet uns ein mobiler Coworking Space und wir leben in Europas schönsten Landschaften - Camping/Vanlife sei Dank. Der Highway to Freedom war geboren. Dank dieses Projektes habe ich viele Komfortzonen verlassen, meine Sichtbarkeit auf Social Media ganz vorne dabei. Und ich bin nun Teil der Camper Nomads-Community, freu mich auf gegenseitige Weiterentwicklung und tolle Kontakte! Beste Grüße Alex
L7.1 Eigenwerte, Eigenvektoren, Ähnlichkeitstransf., charakt. Polynom, Diagonalisierung. L7.2 Hermitesche und symm. Matrizen.
L5.4 Kriterien für Invertierbarkeit einer Matrix. L5 Unitäre & orthgonale Matrizen. L6 Determinanten - Definition, Eigenschaften.
Transformation einer linearen Abbildung. Reelles und komplexes Skalarprodukt, transponierte und hermitesch konjugierte einer Matrix
L5.1 Matrizen I: Lineare Abbildungen, Matrizen, Verkettung v. linearen Abbildungen, Matrixmultiplikation
Fortsetzung komplexe Zahlen: Einheitskreis, e^{i w} = cos(w) + i sin(w), Euler-Formel; Lineares Gleichungsystem, Matrizen
Heute erkläre ich euch Skalare. Und Vektoren! Und Matrizen! Drei zum Preis von einem — das ist schon fast die Definition eines Vektors.
Stephanie Wollherr hat ihr Mathestudium am Karlsruher Institut für Technologie (KIT) absolviert und in unserer Arbeitsgruppe die Abschlussarbeit im Kontext von numerischen Methoden für Wellengleichungen geschrieben. Damals hat Gudrun Thäter sie aus dem Podcastgespräch verabschiedet mit dem Wunsch, in einigen Jahren zu hören, was sie in der Zwischenzeit mathematisches tut. Was wie eine Floskel klingen mag, hat nun zum ersten Mal tatsächlich stattgefunden - ein Gespräch zur Arbeit von Stephanie in der Seismologie an der Ludwig-Maximillians-Universität (LMU) in München. In der Geophysik an der LMU wurde in den letzten 10 Jahren eine Software zur Wellenausbreitung entwickelt und benutzt, die immer weiter um simulierbare Phänomene ergänzt wird. Stephanie arbeitet an Dynamic Rupture Problemen - also der Simulation der Bruchdynamik als Quelle von Erdbeben. Hier geht es vor allem darum, weitere physikalische Eigenschaften wie z.B. Plastizität (bisher wurde meist vorausgesetzt, dass sich das Gestein elastisch verformt) und neue Reibungsgesetze zu implementieren und in Simulationen auf ihre Wirkung zu testen. Als Basis der Simulationen stehen zum einen Beobachtungen von Erdbeben aus der Vergangenheit zur Verfügung, zum anderen versucht man auch durch Laborexperimente, die aber leider ganz andere Größenskalen als die Realität haben, mögliche Eigenschaften der Bruchdynamik miteinzubeziehen. Die Daten der Seimsologischen Netzwerke sind zum Teil sogar öffentlich zugänglich. Im Bereich Dynamic Rupture Simulationen kann man eine gewisse Konzentration an Forschungskompetenz in Kalifornien feststellen, weil dort die möglicherweise katastrophalen Auswirkungen von zu erwartenden Erdbeben recht gegenwärtig sind. Das South California Earthquake Center unterstützt zum Beispiel unter anderem Softwares, die diese Art von Problemen simulieren, indem sie synthetische Testprobleme zur Verfügung stellen, die man benutzen kann, um die Ergebnisse seiner Software mit anderen zu vergleichen. Prinzipiell sind der Simulation von Bruchzonen bei Erdbeben gewissen Grenzen mit traditionellen Methoden gesetzt, da die Stetigkeit verloren geht. Der momentan gewählte Ausweg ist, im vornherein festzulegen, wo die Bruchzone verläuft, zutreffende Reibungsgesetze als Randbedingung zu setzen und mit Discontinuous Galerkin Methoden numerisch zu lösen. Diese unstetig angesetzten Verfahren eignen sich hervorragend, weil sie zwischen den Elementen Sprünge zulassen. Im Moment liegt der Fokus darauf, schon stattgefundene Erbeben zu simulieren. Leider sind auch hier die Informationen stets unvollständig: zum Beispiel können schon vorhandenen Bruchzonen unterhalb der Oberfläche unentdeckt bleiben und auch das regionale Spannungsfeld ist generell nicht sehr gut bestimmt. Eine weitere Herausforderung ist, dass die Prozesse an der Verwerfungszone mit sehr hoher Auflösung (bis auf ein paar 100m) gerechnet werden müssen, während der Vergleich mit Werten von Messstationen, die vielleicht einige 100 km entfernt sind einen sehr großen Simulationsbereich erfordert, was schnell zu einer hohen Anzahl an Elementen führt. Die Rechnungen laufen auf dem SuperMUC Supercomputer am LRZ in Garching und wurden durch eine Kooperation mit der Informatik an der TUM deutlich verbessert. Discontinuous Galerkin Verfahren haben den großen Vorteil, dass keine großen, globalen Matrizen entstehen, was eine Parallelisierung relativ einfach macht. Auf der anderen Seite kommen durch die element-lokale Kommunikation viele kleinere Matrix-Vektor Produkte vor, die grundlegend optimiert wurden. Ein weiterer Aspekt der Zusammenarbeit mit der TUM beschäftigte sich zum Beispiel mit der zu verteilenden Last, wenn für einige Elemente nur die Wellengleichung und für andere Elemente zusätzlich noch die Bruchdynamik gelöst werden muss. Auch bei der Input/Output Optimierung konnten die Informatiker willkommene Beiträge leisten. Dieser Beitrag zeigt die Notwendigkeit von interdisziplinärer Zusammenarbeit zwischen Mathematiker, Geophysikern und Informatikern, um Erdbeben und die Dynamik ihrer Quelle besser zu verstehen. Literatur und weiterführende Informationen A. Heinecke, A. Breuer, S. Rettenberger, M. Bader, A. Gabriel, C. Pelties, X.-K. Liao: Petascale High Order Dynamic Rupture Earthquake Simulations on Heterogeneous Supercomputers, proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis SC14, 3–15, 2014. A.-A. Gabriel, E. H. Madden, T. Ulrich, S. Wollherr: Earthquake scenarios from Sumatra to Iceland - High-resolution simulations of source physics on natural fault systems, Poster, Department of Earth and Environmental Sciences, LMU Munich, Germany. S. Wollherr, A.-A. Gabriel, H. Igel: Realistic Physics for Dynamic Rupture Scenarios: The Example of the 1992 Landers Earthquake, Poster, Department of Earth and Environmental Sciences, LMU Munich. J. S. Hesthaven, T. Warburton: Nodal discontinuous Galerkin methods: algorithms, analysis, and applications, Springer Science & Business Media, 2007. M. Dumbser, M. Käser: An arbitrary high-order discontinuous Galerkin method for elastic waves on unstructured meshes—II. The three-dimensional isotropic case, Geophysical Journal International, 167(1), 319-336, 2006. C. Pelties, J. de la Puente, J.-P. Ampuero, G. B. Brietzke, M. Käser, M: Three-dimensional dynamic rupture simulation with a high-order discontinuous Galerkin method on unstructured tetrahedral meshes, Journal of Geophysical Research, 117(B2), B02309, 2012. A.-A. Gabriel: Physics of dynamic rupture pulses and macroscopic earthquake source properties in elastic and plastic media. Diss. ETH No. 20567, 2013. K. C. Duru, A.-A. Gabriel, H. Igel: A new discontinuous Galerkin spectral element method for elastic waves with physically motivated numerical fluxes, in WAVES17 International Conference on Mathematical and Numerical Aspects of Wave Propagation, 2016. Weingärtner, Mirjam, Alice-Agnes Gabriel, and P. Martin Mai: Dynamic Rupture Earthquake Simulations on complex Fault Zones with SeisSol at the Example of the Husavik-Flatey Fault in Proceedings of the International Workshop on Earthquakes in North Iceland, Husavik, North Iceland, 31 May - 3 June 2016. Gabriel, Alice-Agnes, Jean-Paul Ampuero, Luis A. Dalguer, and P. Martin Mai: Source Properties of Dynamic Rupture Pulses with Off-Fault Plasticity, J. Geophys. Res., 118(8), 4117–4126, 2013. Miloslav Feistauer and Vit Dolejsi: Discontinuous Galerkin Method: Analysis and Applications to compressible flow Springer, 2015. Podcasts S. Wollherr: Erdbeben und Optimale Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 012, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013.
Im Anschluss ihres Erasmus-Auslandsjahr in Lyon hat sich Alexandra Krause als angehende Physikerin in den Bereich der Quanteninformatik vertieft. Dazu hat sie im Rahmen der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe über Quantum Speedup (video) vorgetragen und Zeit gefunden, uns auch im Podcast etwas über das Thema zu erzählen. Im Gegensatz zur klassischen Physik gelten in der Quantenmechanik eigene Regeln: So geht es hier um Teilchen in der Größenordnung von Atomen, wo die Begriffe Teilchen und Welle verschwimmen und der quantenmechanische Zustand unbeobachtet nur noch als Zustandsgemisch beschrieben werden kann. Genau diese Eigenschaft will man sich beim Quantencomputer zu Nutze machen, wo gegenüber dem klassischen digitalen Computer, der immer auf einzelnen festen Zuständen in Bits mit Logikgattern rechnet, der Quantenrechner pro Schritt in Qubits auf allen Zuständen gleichzeitig operiert. Das eigentliche Ergebnis erhält man dort erst bei der Messung, wodurch sich der reine Zustand des Quantensystems einstellt. Der Grover-Algorithmus ist eine bekannte Anwendung für einen Quantencomputer, der Datenbanken schneller als klassische Verfahren durchsuchen kann. Der Shor-Algorithmus kann hingegen mit einer Quanten-Fouriertransformation in polynomialer Zeit Zahlen in ihre Primfaktoren zerlegen kann. Damit werden viele assymetrische Kryptoverfahren wie das RSA-Verfahren obsolet, da sie auf der Schwierigkeit der klassischen Faktorisierung basieren. Shor hat in der gleichen Publikation auch ein Verfahren zur effizienten Berechnung von diskreten Logarithmen auf Quantencomputern veröffentlicht, so dass auch Kryptoverfahren auf elliptischen Kurven durch Quantencomputer gebrochen werden, die neben dem RSA-Verfahren Basis für viele Kryptowährungen sind. Zum jetzigen Zeitpunkt ist es der Experimentalphysik noch nicht gelungen, allgemeine Quantensysteme in einer Größe zu erschaffen, die für sinnvolle Anwendungen der Verfahren erforderlich wären. Die Schwierigkeit liegt darin, den Quantenzustand einzelner Qubits von der Umwelt abzukoppeln und nur für die Berechnung zu verwenden, wenn doch alles in der Umgebung in Bewegung ist. In der Größe weniger Qubits, die allgemeine Quantencomputer bisher erreichen konnten, wurden Zahlen wie 15 und 21 erfolgreich faktorisiert. Eine Hoffnung besteht hier auf dem adiabatischen Quantencomputer auf Basis adiabatischen Theorems, der von der Firma D-Wave Systems gebaut, und 2011 mit unvergleichlich vielen 128 Qubits auf den Markt gebracht wurde. Das Problem ist dabei, dass adiabatischen Quantencomputer im normalen Arbeitszustand keine universellen Quantencomputer sind, und hauptsächlich Optimierungsprobleme lösen können. Universelle Quantencomputer können im Circuit model anschaulich jedes herkömmliches Programm abbilden: Jedes klassische Logik-Gatter kann durch Hinzufügen weiterer Ausgänge reversibel werden, und dann als eine unitäre Abbildung oder Matrizen im Quantencomputer realisiert werden. Unitäre Abbildungen sind lineare Abbildungen mit der Eigenschaft, dass sie das komplexe Skalarprodukt zweier Vektoren nach der Abbildung erhalten, d.h. Vektoren behalten die gleiche Länge, und zwei Vektoren behalten den gleichen Winkel zueinander. Der Nachteil des reversiblen Ansatzes ist jedoch, dass dafür womöglich viele Bits benötigt werden, wenn man die Abbildungen nicht zuvor zusammenfassen kann. Theoretisch kann der adiabatische Quantencomputer auch universell sein, nur ist dazu ideal eine ungestörte Umgebung Voraussetzung, was in Realität nicht erreicht werden kann. Es verbleiben Optimierungsprobleme, die über den Hamiltonoperator abgebildet werden können: physikalische Prozesse möchten den energetisch niedrigsten Zustand zu erreichen. Ein Beispiel sind hier Minimalflächen, wie sie von Seifenhäuten und Seifenblasen angenommen werden- und auch zum Bau des Olympiageländes in München genutzt wurden. Im Schülerlabor für Mathematik in Karlsruhe kann man auch viele Experimente dazu durchführen. Wenn man ein Optimierungsproblem lösen möchte, so sind lokale Minima ein Problem- in ihrer Umgebung erscheinen sie als Lösung, sie sind es jedoch insgesamt betrachtet nicht. Eine Möglichkeit die lokalen Minima zu umgehen ist das Verfahren des Simulated Annealing. Hier wird durch externe Störquellen begünstigt, dass lokale Minima verlassen werden, um das globale Minimum zu erreichen. In Quantensystemen spielt hier beim Quantum Annealing zusätzlich der Tunneleffekt eine besondere Rolle, wodurch die Störung noch leichter von lokalen Minima hinweg streut. Dadurch ist das Quantum Annealing prinzipiell und aus der Theorie schneller- oder zumindest nicht langsamer- als das Simulated Annealing. Dabei ist das Quantum Annealing natürlich nur auf einem Quantencomputer effizient umsetzbar. Das ist dabei ein Beispiel für eine Quantensimulation auf einem Quantencomputer in dem Forschungsfeld, das sich mit der Abbildung und Simulation von Quantensystemen befasst. Damit ist der adiabatische Quantencomputer auf eine kleinere Klasse von lösbaren Problemen beschränkt, jedoch soll er dieses mit einer erheblichen höheren Anzahl von Qubits durchführen können- zur Zeit der Aufnahme waren dies mit dem D-Wave Two etwa 512 Qubits. Die Frage, ob diese adiabatischen Quantencomputer mit dieser großen Anzahl von Qubits wirklich als Quantencomputer arbeiten, wurde wissenschaftlich diskutiert: Im Artikel Evidence for quantum annealing with more than one hundred qubits legen die Autoren dar, dass der betrachtete adiabatische Quantencomputer starke Anzeichen für die tatsächliche Umsetzung des Quantum Annealing zeigt. In wie weit jedoch nun eine quantenbedingte Beschleunigung feststellen ist, diskutieren T. Rønnow und Mitautoren in der Arbeit Defining and detecting quantum speedup. Sie erhielten das ernüchternde Ergebnis, dass eine Beschleunigung durch Nutzung des betrachteten Quantensystems nicht eindeutig nachgewiesen werden konnte. Dagegen argumentierten V. Denchev et al. in What is the Computational Value of Finite Range Tunneling?, dass eine 100'000'000-fache Beschleunigung mit hoher Wahrscheinlichkeit gegenüber einem Einprozessor-System nachgewiesen werden kann. Ein Problem bei der Analyse ist, dass die betrachteten Algorithmen für den Quantencomputer in den Bereich der probabilistischen Algorithmen fallen, die Ergebnisse also eine Fehlerwahrscheinlichkeit besitzen, die durch mehrfache Ausführung verringert werden kann. In der Kryptographie werden probabilistische Primzahltests sehr häufig eingesetzt, die auch in diese Klasse der Algorithmen fallen. So wurde im ersten Paper das Verhalten des Quantencomputers in einer Vielzahl von Versuchen mit simulierten Algorithmen verglichen und mit hoher Wahrscheinlichkeit festgestellt, dass der D-Wave-Rechner tatsächlich den Quantum Annealing Algorithmus ausführt. Über den D-Wave-Rechner ist bekannt, dass die einzelnen Qubits durch supraleitende Ringe abgebildet sind und die beiden Stromlaufrichtungen die superpositionierten Zustände darstellen. Die Kopplung zwischen Qubits und nach außen erfolgt durch Spulen, die über die entstehenden Magnetfelder mit den Strömen in den Ringen interagieren. Die Kopplung zwischen Qubits wird damit durch die parametrisierte Kopplung der Spulen realisiert. Für klassische Algorithmen und parallelisierte Computersysteme beschreibt der Begriff des Speedup die Effizienzsteigerung durch Nutzung einer erhöhten Parallelisierung. Je nach Algorithmus gibt es nach Amdahls Gesetz logische Grenzen, wo weitere Parallelisierung keine Gewinn mehr erzielt. Entsprechend besteht der Wunsch den Begriff des Quantum Speedup analog zu definieren und nachzuweisen: Diesen Ansatz verfolgten T. Rønnow und Mitautoren und definierten verschiedene Klassen von Quantum Speedup, wobei der adiabatische D-Wave Quantencomputer für sie nur Anzeichen für ein potentielles Speed-up ergab. Das ist ein ernüchterndes Ergebnis, wobei die Autoren klar weiteren Forschungsbedarf sahen. Hier war das Paper von V. Denchev und Mitautoren eine große Überraschung, wo dem D-Wave 2X Rechner mit hoher Wahrscheinlichkeit eine Beschleunigung von 10^8 nachgesagt wurde. Neben den Annealing-Verfahren kam hier auch Quantum Monte Carlo zum Einsatz. Im Ergebnis erhielten sie für die Annealing-Verfahren ein asymptotisches Speed-Up, das sich für größere Problemstellungen einstellt, für Quantum Monte Carlo eine von der Problemgröße unabhängige Beschleunigung gegenüber einem klassischen Single-core Rechner. Diese Aussagen trafen aber schnell auf Widerstand und den Nachweis, dass ein im Paper betrachtetes Problem mit anderen Algorithmen teilweise auf einem klassischen Rechner vielfach schneller gelöst werden kann als auf dem Quantencomputer. Literatur und weiterführende Informationen S. Boixo, et al.: Evidence for quantum annealing with more than one hundred qubits, Nature Physics 10.3: 218-224, 2014. T. Rønnow, et al.: Defining and detecting quantum speedup, Science 345.6195: 420-424, 2014. V. Denchev, et al.: What is the Computational Value of Finite Range Tunneling? arXiv preprint arXiv:1512.02206, 2015. R. Harris, R., et al.: Compound Josephson-junction coupler for flux qubits with minimal crosstalk, Physical Review B 80.5: 052506, 2009. S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/digitale-waehrungen E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor Bernd Fix: Post-Quantum Krypto, Afra-Berlin.de, Vortrag am 13.12.2013. F. Rieger, F. von Leitner: Fnord Jahresrückblick, 32c3, Vortrag am 29.12.2015. S. Aaronson: Google, D-Wave, and the case of the factor-10^8 speedup for WHAT? Blog-Post mit Updates 16.5.2013-16.12.2015. Quantum Annealing Solver für den Laptop
Markus Scholz hat gerade seine Dissertation Estimation of Cointegrated Multivariate Continuous-Time Autoregressive Moving Average Processes an der KIT-Fakultät für Mathematik verteidigt. Gudrun ergriff die Gelegenheit, mit ihm über die Idee und Anwendungsmöglichkeiten von Zeitreihen-Modellen zu sprechen. Prinzipiell stehen Zeitreihen einerseits für zeitlich geordnete (Mess-)Daten, die z.B. durch Abtasten (wiederholtes Messen) eines Vorgangs in der Realität entstehen. Andererseits werden sie in der Statistik als Ergebnis eines Stochastischen Prozesses interpretiert, der diese Zeitreihe als eine seiner Realisierungen erzeugt. Der stochastische Prozess ist hierbei ein Modell und soll die wichtigsten Eigenschaften der Daten erfassen. Er soll auch dazu dienen, zuverlässige Schätzungen zu liefern, wie sich die Zeitreihe wahrscheinlich in die Zukunft fortsetzt. Mitunter interessieren hier sogar nur so oberflächliche Informationen wie Saisonalität und Trends. Ein Aspekt, der im Titel der Arbeit von Markus Scholz als "Moving Average" beschrieben ist, ist die Eigenschaft, dass die Werte der Zeitreihe vor allem durch die letzten davor liegenden Meßpunkte beeinflusst sind und die "Erinnerung" an weiter in der Vergangenheit liegende Zustände abklingt. Im Modell ist hier stets eine Zufallsquelle integriert, die man sich wie ein Auswürfeln pro Zeitpunkt vorstellen kann. Wie erfolgt hier die Zuordnung zwischen Datenreihe und stochastischem Modell? In der Regel basiert die Wahl auf der Erfahrung über zuvor benutzte Modelle in ähnlichen Zusammenhängen und auf den bekannten Eigenschaften der Modelle. Anschließend müssen jedoch stochastische Tests belegen, dass die Zuordnung tatsächlich korrekt ist. Markus Scholz hat sich mit stochastischen Prozessen beschäftigt, die kontinuierlich in der Zeit sind statt - wie bisher beschrieben - diskret. Sie eignen sich z.B. zur Modellierung von Temperaturverläufen. Prinzipiell nimmt man dabei an, dass eine hoch genug gewählte Abtastrate den Übergang von diskreten Messungen zu einem als stetig angesehenen Prozess unkritisch macht. Der Aspekt, der ihn hier vor allem beschäftigt hat, war die Erweiterung bekannter Modelle um die Eigenschaft der Nicht-Stationarität. Das heißt kurz gesagt, die Grundeigenschaften des Prozesses können sich über die Zeit ändern. Das kennen wir ja auch von der Temperatur: Einerseitzs durchlaufen tägliche Tiefst-, Höchst- oder Mittelwerte der Temperatur im Jahresverlauf eine typische Kurve für eine betrachtete Region. Andererseits kann im konkreten Jahr ein untypischer Verlauf vorliegen und es ist gar nicht so leicht zu quantifizieren, ob es sich um eine untypische Beobachtung handelt oder sich z.B. die Mittelwerte tatsächlich statistisch signifikant ändern. Anders gesagt führt die Nicht-Stationarität im Modell auf Probleme bei zugehörigen Schätzungen, die in der Regel schwer zu lösen sind. Deshalb hat Markus Scholz zunächst einen handhabbaren Spezialfall ausgewählt, die sogenannten kointegrierte Prozesse. Als stochastische Quelle - dienen ihm Lévy-Prozesse, die Sprünge zulassen. Die einfachste Zufallsquelle wären Brownsche Bewegungen, die aber nur stetig (d.h. ohne Sprünge) möglich sind. Lévy- Prozesse sind flexibel haben jedoch nützliche Eigenschaften, die ihre Behandlung erleichtern, wie z.B. stationäre Inkremente. Grundidee der Arbeit war es, vorhandene Resultate für zeitdiskrete nicht-stationäre Modelle und zeitstetige stationäre Modelle so zu vereinen, dass ein neues zeitstetiges und nicht-stationäres Modell mit gut studierbaren Eigenschaften entsteht. Hierbei wurden Zustandsraummodelle verwendet, welche durch Matrizen charakterisiert werden, die die Eigenschaften des Modells bestimmen. Eine entscheidende Beweisidee beruht darauf, dass die Matrizen so transformiert werden können, dass ein Entkopplung in stationäre und nicht-stationäre Anteile erfolgt und die Benutzung der jeweils bekannten Resultate auf den zusammengesetzten Prozess möglich wird. Besonders wertvoll sind hier die entwickelten Schätzverfahren für kointegrierte Prozesse. In der Praxis haben die Zeitreihen meist einen ungefähren Gleichlauf über die Zeit, damit sind sie gemeinsam integriert, also kointegriert. Der Begriff Integration bedeutet, dass die nicht-stationären Zeitreihen durch Differenzenbildung auf neue stationäre Zeitreihen zurückgeführt werden können. Die Schätzmethode baut auf derMaximum-Likelihood-Schätzung auf, welches anschließend mit Hilfe eines numerisches Optimierungsverfahren gelöst wird. Für die Schätzmethode konnte die Konsistenz nachgewiesen werden, d.h. Schätzfolgen mit immer mehr Daten werden immer besser (Konvergenz in Wahrscheinlichkeit gegen wahren Wert). Referenzen C. Granger: Nobel Prize Lecture, 2003. R. Stelzer: CARMA Processes driven by Non-Gaussian Noise, TUM-IAS Primary Sources - Essays in Technology and Science, 1 no.1, 2012. E. Schlemm and R. Stelzer: Quasi maximum likelihood estimation for strongly mixing state space models and multivariate Lévy-driven CARMA processes, arXiv, 2012.
Hi zusammen, Heute gibt's die erste Matrizen Folge. Da das ein recht kleines Thema ist, kriegen wir das ganze auch in 2 Folgen untergebracht. Diese Folge beschäftigt sich mit Übergangsmatrizen, die Folgende betrachtet Austauschprozesse und Granzwerte von Matrizen. Damit haben wir dann alles Abitur relevante (zumindest für NRW) zum Thema Matrizen abgedeckt. Diese Folge beschäftigt sich mit den Übergansmatrizen. Dabei wird die Multiplikation von Matrizen mit einer Zahl, von Matrizen mit einem Vektor und von Matrizen und Matrizen behandelt, sowie die Addition von Matrizen. Viel Erfolg beim Lernen!
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
Microarray-Daten werden in letzter Zeit häufig genutzt, um mit Hilfe verschiedener Verfahren Netzwerke der Gen-Gen-Interaktion zu generieren. Die vorliegende Arbeit beschäftigt sich mit Validierungsstudien solcher Verfahren. Der Startpunkt einer Validierungsstudie ist ein ungerichteter Graph, der biologische Strukturen repräsentieren soll. In dieser Arbeit wird motiviert, Graphen zu benutzen, die aus Microarray-Daten geschätzt worden sind. Nachdem ein Graph gewählt worden ist, werden Daten einer multivariaten Normalverteilung erzeugt, die durch eine zufällige Kovarianzmatrix charakterisiert ist. Diese Matrix muss symmetrisch und positiv definit sein, aber zusätzlich wird für eine nicht vorhandene Kante im Graphen gefordert, dass der zugehörige Eintrag in der Matrix Null ist. In dieser Arbeit wird ein neuer Ansatz vorgestellt, der es ermöglicht, symmetrische, positiv definite Matrizen mit Nebenbedingungen zu erzeugen. Diese Methode beruht auf der Moralisierung eines Graphen. Ein gerichteter, azyklischer Graph wird moralisiert, indem die gerichteten Kanten durch ungerichtete Kanten ersetzt werden und zusätzlich die Eltern eines jeden Knotens paarweise miteinander verbunden werden. Der zentrale Schritt bei der Erstellung der Matrizen mit Nebenbedingungen liegt in der Umkehrung des Moralisierungsvorganges. In dieser Arbeit wird die Klasse der Graphen eingeführt, die Resultat einer Moralisierung sein könnten - die prämoralisierbaren Graphen - und es wird ein Verfahren definiert, welches entscheidet, ob ein Graph prämoralisierbar ist und gegebenenfalls eine Umkehrung der Moralisierung durchführt. Die erzeugten Matrizen sollen als Korrelationsmatrizen für die Validierungsstudien genutzt werden. Dazu wird das vorgestellte Verfahren an einen Optimierungsalgorithmus gekoppelt, um die gewünschten Matrizen zu erzeugen, deren Diagonalelemente identisch 1 sind und für die die nicht als Null vorgegebenen Werte nahe 1 bzw. -1 liegen. Nicht jeder Graph ist prämoralisierbar. Da diese Eigenschaft notwendig ist für das Verfahren zur Erzeugung der Matrizen mit Nebenbedingungen, wird eine empirische Studie durchgeführt, die zeigt, dass ein Großteil der aus Microarray-Daten geschätzten Graphen auch prämoralisierbar ist. Die Arbeit schließt mit praktischen Anwendungen. Die Validierung eines bekannten Algorithmus zum Schätzen von Netzwerken wird durchgeführt und es wird ein Ansatz vorgestellt, mit dem man graphische Strukturen, die aus Microarray-Daten geschätzt worden sind, vergleichen kann, um signifikante Unterschiede zu finden.
Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 01/06
Die spektroskopische Untersuchung einzelner Moleküle in kondensierter Phase erstreckt sich erst über einen Zeitraum von zehn Jahren. In dieser verhältnismäßig kurzen Zeit vollzog sich eine rasante Entwicklung mit einer Vielzahl von Ergebnissen. Dies findet seinen Ausdruck in eigenen Tagungen und Zeitschriften und nicht zuletzt auch in einer Nobelkonferenz im Jahre 1999. Während sich anfangs die Untersuchungen auf eine Reihe faszinierender Tieftemperaturexperimente mit spektraler Selektion der einzelnen Moleküle beschränkten, verschob sich seit Mitte der 90er Jahre der Schwerpunkt der Forschung auf diesem Gebiet hin zu Experimenten mit räumlicher Selektion bei Raumtemperatur, die seit kurzer Zeit auch relativ uneingeschränkt bei Tieftemperatur möglich sind. Diese Entwicklung spiegelt sich auch in dieser Dissertation wider. Zu Beginn dieser Arbeit stand eine spektral hochauflösende Apparatur zur Einzelmolekülspektroskopie bei kryogenen Temperaturen zur Verfügung. Mit dieser wurden Einzelmoleküluntersuchungen an dem neu synthetisierten Farbstoff Terrylendiimid (TDI) durchgeführt. TDI ist kein reiner Kohlenwasserstoff, wie die bis dahin üblicherweise verwendeten Chromophore, und lässt sich durch seine Seitengruppen an andere Systeme anbinden. Er zeigt neben exzellenten Fluoreszenzeigenschaften die zur spektralen Selektion nötigen schmalen Absorptionslinien. Wegen seiner Struktur lässt sich TDI nicht in einen Kristall einlagern. Mit Polyethylen und Hexadecan wurden jedoch zwei Matrizen gefunden, die es erlauben, Fluoreszenzanregungsspektren von einzelnen Molekülen zu detektieren. In Hexadecan konnte bei Sättigungsuntersuchungen das theoretisch vorhergesagte Verhalten nachgewiesen werden. Dabei wurden Zählraten von fast 500 000 Counts pro Sekunde von einem einzelnen Molekül erreicht. Durch die Aufnahme und Auswertung der Fluoreszenzintensitäts-Autokorrelationsfunktion konnten die Populations- und Depopulationsraten der Triplett-Subniveaus bestimmt werden. Dabei wurde auch spektrale Diffusion der Moleküle beobachtet, die mit Hilfe von Two-Level Systems (TLS) erklärt werden konnte. Mit einem komplexen theoretischen Modell und aufwendigen numerischen Berechnungen konnte die bei 2,5 K auftretende Verteilung von Linienbreiten der beobachteten Moleküle simuliert werden. Damit konnte den beiden Matrizen über die Analyse ihrer TLS-Dichte ein unterschiedlicher Grad an Unordnung zugeordnet werden. In temperaturabhängigen Untersuchungen der Linienform konnte der Unterschied im Ordnungsgrad der Matrizen bestimmt werden. Ferner konnten die Theorie von Hsu und Skinner in der Tieftemperaturnäherung bestätigt werden und ein tieferer Einblick in die auftretende Dynamik gewonnen werden. In der Auswertung der temperaturabhängigen Linienverschiebung wurde erstmals der Einfluss von Matrixexpansion berücksichtigt und als unverzichtbar für eine gute Beschreibung des Systems erkannt. Parallel zu den ersten Experimenten wurde eine aktive Stabilisierung des Farbsto?asers aufgebaut. Damit konnte eine Verfälschung der Ergebnisse durch Laserdrift ausgeschlossen werden. Weitere Tieftemperaturuntersuchungen hatten die Beobachtung von Förster Energietransfer (oder FRET, Fluorescence Resonance Energy Transfer) an einem individuellen Donor-Akzeptor-Paar in seiner speziellen Konformation zum Ziel. Als Farbstoffmolekül stand ein Bichromophor aus Perylen und kovalent angebundenem TDI zur Verfügung. Obwohl beide Chromophore sich für Einzelmoleküluntersuchungen eignen und inzwischen schon mehrfach verwendet wurden, gelang es nicht, ein bezüglich Linienbreite und Frequenzposition identisches Fluoreszenzanregungsspektrum sowohl über Perylen-Fluoreszenz als auch über TDI-Fluoreszenz (nach Energietransfer) zu detektieren. Der Energietransferprozess scheint mit einem Linienverbreiterungsmechanismus verknüpft zu sein, so dass eine Beobachtung mit dem Aufbau in der Anfangsphase der Dissertation nicht möglich war. Eine Wiederaufnahme dieser Untersuchungen mit der neuen Apparatur ist zukünftigen Doktoranden vorbehalten. Um allgemein temperaturabhängige Untersuchungen an fluoreszierenden Molekülen durchführen zu können, wurde ein Tieftemperaturmikroskop aufgebaut. Dafür wurde die Rastertechnik gewählt. Um die bekannten Probleme des Probenscannens im Kryostaten, wie kleiner Scanbereich und fehlender Zugang im abgekühlten Zustand, zu vermeiden, wurde ein konfokales Laserscanning-Mikroskop entworfen und aufgebaut. Zur Strahlablenkung wurden zwei Galvanometerspiegel gewählt und der Drehpunkt über ein telezentrisches System in das Objektiv abgebildet, das gemeinsam mit der Probe im Kryostaten sitzt. Die Detektion des Fluoreszenzlichts wird von einer hochempfindlichen Avalanche-Photodiode mit geringer Dunkelzählrate übernommen. Die Funktion des Scanners und des gesamten optischen Aufbaus konnte an Testmustern und Testproben erfolgreich demonstriert werden. Einschränkend muss jedoch erwähnt werden, dass die erreichte DetektionseŽzienz die Erwartungen nicht erfüllte. Das liegt im Wesentlichen am Objektiv, aber auch an den Abbildungsfehlern und Reflexionen der zahlreichen Elemente im Strahlengang. Die maximal erreichten Zählraten lagen bei 50 000 Counts pro Sekunde am System Terrylen in Polyethylen. Für Systeme mit einer ausreichend hohen Fluoreszenzrate ist es mit dieser Apparatur möglich, Fluoreszenzbilder, Zeitspuren, spektral hochauflösende Fluoreszenzanregungsspektren, Fluoreszenzspektren und Fluoreszenzkorrelationsfunktionen von einzelnen Molekülen aufzunehmen, um damit spektrale und dynamische Eigenschaften der Moleküle zu bestimmen. Durch Variation der Temperatur können die Temperaturabhängigkeit der Messgrößen und Barrierenhöhen ermittelt werden. Mit der neuen Apparatur wurden Untersuchungen in zwei neuen Themenbereichenbegonnen, nämlich an einzelnen Sondenmolekülen in Nanoporen und an den fluoreszierenden Proteinen GFP (Grün Fluoreszierendes Protein) und PEC (Phycoerythrocyanin). Erste Fluoreszenzanregungsspektren einzelner Terrylen-Moleküle in den Kanalstrukturen von mesoporösen Systemen der M41S-Klasse konnten beobachtet werden. Dabei ist die hohe spektrale Auflösung von großem Vorteil bei der Untersuchung der spektralen Dynamik der Sondenmoleküle. Im Bereich biologischer Proben konnten einzelne Moleküle des Grün Fluoreszierenden Proteins isoliert beobachtet werden. Die Anzahl an Fluoreszenzphotonen pro Molekül, die vor dem ¨Ubergang in einen Dunkelzustand an diesem System detektiert werden konnten, war allerdings sehr gering. Deshalb wurden Untersuchungen an einzelnen Proteinen aus dem Lichtsammelkomplex von Cyanobakterien begonnen, die in einer laufenden Doktorarbeit von P. Zehetmayer fortgeführt werden. Bei den Proteinproben handelt sich um Untereinheiten von Phycoerythrocyanin: die ‹-Untereinheit und das Trimer bzw. Monomer, in denen offenkettige Tetrapyrrhol-Moleküle als Farbstoffe an die Proteinmatrix angebunden sind. Neben Fluoreszenzbildern und Zeitspuren konnten bereits Anregungsspektren detektiert werden, die starke spektrale Dynamik zeigen und weitere Untersuchungen herausfordern. Wesentliche Teile dieser Arbeit wurden bereits in internationalen Zeitschriften und auf Tagungen veröffentlicht. Eine Übersicht befindet sich am Ende unter Veröffentlichungen und Tagungsbeiträge.
Thu, 1 Jan 1981 12:00:00 +0100 http://epub.ub.uni-muenchen.de/2269/ http://epub.ub.uni-muenchen.de/2269/1/2269.pdf Heller, Kurt A. Heller, Kurt A. (1981): Raven-Matrizen-Test Standard Progressive Matrices (SPM). In: Psychologie in Erziehung und Unterricht, Vol. 28: pp. 316-318. Psychologie und Pädagogik