POPULARITY
Am 1. Januar 2021 ist das Arbeitsschutzkontrollgesetz in Kraft getreten. In Betrieben der Fleischindustrie ist Leiharbeit nun im Kernbereich von Schlachtung und Zerlegung verboten. Trotzdem sind damit nicht alle Mängel beseitigt, hat Brigitte Jünger beobachtet. Von Brigitte Jünger.
Wenn man dich fragen würde, wie voll deine To-do-Liste ist, was würdest du mir antworten
„Beam me up, Scotty!” Der Satz gilt als das berühmteste Zitat aus der Serie „Raumschiff Enterprise“. In der Science-Fiction-Serie befindet sich Captain Kirk auf einem Planeten und bittet seinen Chefingenieur Scott, ihn durch „Teleportation“ (also durch Zerlegung hier und Rekonstruktion dort in Sekundenschnelle vermittels Strahlen) wieder ins Raumschiff zurück zu „beamen“. Seither wird es scherzhaft als Wunsch verwendet, aus einer mühsamen oder aussichtslosen Situation augenblicklich herausgeholt und befreit zu werden. Im Science-Fiction ist das der Befehl an den Chefingenieur. In der irdischen Welt entspricht dem die flehentliche Bitte an Mensch und Gott: „Rette mich!“ und: „Reiß mich heraus!“ (Ps 71,2; 144,7) Im Johannesevangelium ist für Jesus nach dem Einzug in Jerusalem dieser Moment gekommen. Alle Entscheidungen um ihn herum sind gefallen. Jesus ist im Innersten erschüttert. Und er formuliert die letzte Entscheidung, die noch aussteht: „Was soll ich sagen: Vater, rette mich aus dieser Stunde?“ Das ist ein wichtiger Moment: Bevor Jesus darum bittet, aus dieser Situation gerettet zu werden, fragt er: „Was soll ich sagen?“ Soll ich darum bitten, aus dieser Situation herausgenommen zu werden? Ist gerettet werden das, worum es jetzt geht? Ist es das, was der Vater von mir und für mich will? Im Gebet geht es vor der Bitte um Rettung darum, nach dem Willen Gottes – also nach dem Gerechten, Guten und der Liebe Gemäßen – zu fragen. Deshalb wird im Vaterunser zuerst um die Erfüllung des Willens Gottes und erst dann um das tägliche Brot gebetet. „Soll ich sagen: Vater rette mich aus dieser Stunde?“, fragt Jesus. Das ist eine echte Frage. Jesus hätte das nämlich tun können. Einem seiner kampfbereiten Jünger sagt er vor seiner Verhaftung: „Glaubst du nicht, mein Vater würde mir sogleich mehr als zwölf Legionen Engel schicken, wenn ich ihn darum bitte?“ (Mt 26,53) Aber er bittet nicht um zwölf Legionen Engel. Er bittet nicht um Rettung aus dieser Stunde. Warum nicht? „Deshalb bin ich in diese Stunde gekommen“, sagt er. Und bittet: „Vater, verherrliche deinen Namen.“ Das bedeutet: Ich bin in diese Stunde gekommen, damit der Vater da, wo ich bin, und indem ich da bin, wo ich bin, seinen Namen verherrlicht. Der unaussprechliche „Name“ Gottes steht für seine Anwesenheit, seine Ansprechbarkeit und sein Wirken dort, wo „sein Name wohnt“ (Jes 18,7). Vater, offenbare deine Ansprechbarkeit und dein Wirken!, bittet Jesus hier. Jesus entzieht sich nicht. Er bleibt. Er hat erkannt: Der Vater braucht ihn gerade hier und gerade jetzt. Er hat hier und jetzt einen Auftrag, den es zu erfüllen gilt und den keiner statt seiner erfüllen kann. Hier und jetzt ist er die Stelle, in der die Liebe Gottes sich als treu erweist. Auch in allem Hass, der ihn treffen wird. Auch im Sterben. Auch im Tod und durch den Tod hindurch. An diesem Wochenende bin in einem Seminar zum Thema Zeugnis. Kann das sein, dass mein Zeugnis ist, zu bleiben – und darauf zu verzichten aus dieser oder jener mühsamen oder gar gefährlichen Situation herausgenommen zu werden? Jesus ist die Stelle der Offenbarung Gottes. Und alle, die zu ihm gehören, sollen es mit ihm werden. Für sie geht es nicht mehr nur darum, dass Gott bei ihnen ist. Sondern darum, dass sie bei Gott sind. „Wo ich bin, dort wird auch mein Jünger sein“, sagt Jesus. „Beam me up, Scotty!” – Die Sache ist die, dass Captain Kirk diesen Satz in der Serie (1966-1969) so nie gesagt hat. Erst 1986, als es schon eine stehende Redewendung ist, greift Captain Kirk den Satz im Spielfilm Star Trek IV auf. Im Original sagt Captain Kirk: „Two to beam up, Scotty“. Das ähnelt schon eher dem Gebet, das Jesus mit uns einmal beten wird: „Hier sind zwei, die gerettet werden sollen.“ Der Vater holt uns raus aus dem Tod. Zusammen mit dem Sohn. Wenn die Aufgabe erfüllt, der Dienst getan, das Wort gesagt und die Liebe am Ziel ist. Das hat er versprochen. Fra' Georg Lengerke
Heidiho Welt! Die Sterne stehen heute besonders günstig, denn die unverschämt sexy 80s-Action-Ikone STAN D. ROTHLER ist Back in the Game um böse Leute zu verprügeln und attraktive Menschen zu beglücken! Richtig gehört, Steven und Sandro haben sich heut für euch zusammengefunden und zwei besonders heiße Gäste im Gepäck: GEIL GADOT & ZACH GEILFIANAKIS! Auf dem Workout-Programm steht heute nämlich unter anderem die völlige Zerlegung des neusten Netflix-Klos HEART OF STONE in sämtliche Einzelteile, als auch Muskelkater-bereitendes Gesabbel über Apples BEANIE BUBBLE. Die nötige Prise artifiziellen Mindfuck liefert diesmal Sandro mit DAS BLUTROTE KLEID. Denn trotz dem diese A24-Perle bereits 5 Jahre auf dem Buckel hat, ist ihm diese verstörende Promenadenmischung aus Lynch, Argento, Cosmatos und Lanthimos bisher durch die Arthouse-Lappen gegangen. Shame! Shame!!! Steven berichtet außerdem von seinem Abstecher in die Lüfte und präsentiert euch mit HIJACK und EMERGENCY DECLARATION sein schwindelerregendes Flugzeug-Double Feature! Ob er dabei mit seiner Kritik zu nah an die Sonne geflogen ist oder Sandro doch noch überzeugen konnte? Ihr erfahrt es in der Folge! Erlebt außerdem zum Ende der Folge, wie herrlich man über verschiedene Formen von Ableben lachen kann, wenn Sandro Steven die finnische Weltkriegs-Schlachtplatte SISU ans Herz legt. TRIGGERWARNUNG: Hier wird sehr schadenfroh über Nazis gelacht, denen Landminen an die Birne geschleudert wird… Also wenn ihr KEINE Nazis seid, gilt wie immer: Bleibt gesund und spoilerfrei!
Der Chor der Bahn-Zertrümmerer wird vielstimmiger und lauter. Immer mehr Akteure fordern eine Zerlegung des Staatskonzerns in Netz und Betrieb bei natürlich noch mehr Wettbewerb. Die Kampagne ist so durchsichtig wie der Ausgang absehbar. Je radikaler die Begehrlichkeiten, desto leichter lässt sich das durchsetzen, was die Ampelparteien längst vorbereiten: die Zerschlagung unter dem DB-Dach. DieWeiterlesen
SHOWNOTES 00:17 Ihr habt sie doch bestimmt schon vermisst: eine Whatsapp-Folge! Friedemann und Samira sind zerstreut auf ihren Handelswegen, deswegen konnten wir nur über verbale Rohrpost kommunizieren. Wir lugen Richtung Österreich, lauschen kurz dem Laschet und betrachten den antisemitischen Übergriff auf Gil Ofarim in Leipzig. 2:53 Samira rekapituliert das austriazistische House of Cards. Der Vorwurf: Kurz soll sich mit Steuergeldern positive Berichterstattung und frisierte Umfragen gekauft haben. 5:50 Wieso erscheinen uns solche Skandale so nah an Hollywood, wie durchtrieben kann Politik sein, wie sehr hat man sich an derlei Vorfälle in Österreich gewöhnt und wie kann es sein, dass Kurz noch steht? (Hinweis: Aufnahme vor Kurz' Rücktritt.) 10:39 “Das politische Talent” Kurz wäre, wenn sich die Anschuldigungen bewahrheiten sollten, dass er sich selbst fingierte Umfragen eingekauft hätte, die ihn größer machten als er war, die größte Blase österreichischer Politik. Kurz könnten zehn Jahre drohen. 12:53 Friedemann analysiert die Pressekonferenz von Armin Laschet, die Schwäche in der Sprache und Argumentation und die glatte Realitätsverleugnung, bei gleichzeitiger Anerkennung der Wirklichkeit, Friedemann nennt es: Schrödingers Rücktritt. Der Auftritt stellt in der Essenz den gegenwärtigen Zustand des Konservatismus dar. Außerdem Zerlegung der Vokabel “Neuanfang” 25:42 Samira hält es für eine Pointe dieser ganzen Bundestagswahl, dass Laschet nach all den Fehlern nun den einzig möglichen Abgang performt, wenn auch unbeholfen: den in der Politik fast ganz vergessenen guten alten Rücktritt. 28:43: Der antisemitische Übergriff auf Gil Ofarim ist in sich, aber auch in der Art wie nach Öffentlichwerdung darauf reagiert worden ist Ausdruck des Antisemitismus, der gesellschaftlich verankert ist. 33:24 Die Reaktion des Hotels, insbesondere die Formulierung ihrer Mitteilung zu dem Vorfall, setzt das Problem fort, genauso wie das Banner, den die Hotelmitarbeiter*innen präsentierten *um ein Zeichen zu setzen* - irgendeines zumindest. 43:18 Friedemann setzt diesen Vorfall in einen historischen Kontext in die Perspektive deutsche Geschichte und zeichnet die Linie von Antijudaismus zu Antisemitismus. 49:02 Antisemitische Übergriffe sind in Deutschland gestiegen, alleine im Rahmen der Querdenker-Demonstrationen. Das diesjährige Jom Kippur wurde überschattet von einem vereitelten Bombenanschlag und der Anschlag in Halle jährt sich zum zweiten Mal. 53:12 Nächste Woche wieder eine normale Folge, unser Buch kommt am 18.10. raus und am 9.11 feiern wir Buchparty im Pfefferbergtheater in Berlin, besorgt euch Tickets, kommt vorbei, say hi!
Thema heute: Beton unter Hochspannung: Hochschule Koblenz erforscht innovative Betonzerkleinerung In den kommenden Jahren sind Rohstoffengpässe in der Bauindustrie zu erwarten – auch im Bereich der Herstellung von Beton. Herkömmliche Methoden der Wiedergewinnung der Gesteinskörnung, wie durch den Einsatz mechanischer Brecher, ermöglichen keine sortenreine Wiedergewinnung. Forschende des Hochspannungslabors und der Amtlichen Prüfstelle für nichtmetallische Bau- und Werkstoffe der Hochschule Koblenz nutzten nun erstmals Hochspannungsimpulse, um Betonprüfkörper zu zerlegen. Dabei zeigte sich deutlich, dass dieses Verfahren sehr viel Potential zur Wiedergewinnung des Baustoffs aufweist. „Im Hochspannungslabor der Hochschule Koblenz haben wir in den vergangenen Jahren so einiges an Prüfequipment und Prüfkomponenten der Hochspannung ausgesetzt, aber Beton war noch nicht dabei – bisher“, berichtet Prof. Dr. Johannes Stolz, Leiter des Hochspannungslabors am RheinMoselCampus der Hochschule. Hintergrund des kürzlich gestarteten gemeinsamen Forschungsprojekts ist die natürliche Verknappung der essenziellen Bestandteile für den Beton. Diese sei bereits jetzt spürbar und werden innerhalb der nächsten Jahre signifikant steigen, fürchten die Wissenschaftlerinnen und Wissenschaftler. „Eine sortenreine Wiedergewinnung der Gesteinskörnung ist aber aufgrund der anhaftenden Zementsteinmatrix, also der ausgehärteten Wasser-Zement-Phase, durch die herkömmlichen Methoden nicht möglich“, erklärt Peter Sudermann, Laborleiter der Amtlichen Prüfstelle. Die Zerlegung von vorhandenem Betongestein geschieht bislang üblicherweise durch mechanische Brecher. In diese werden die grob gebrochenen Betonbrocken geworfen und mit großen Brechern mechanisch zerkleinert. Das so entstandene Bruchmaterial besitzt zwar eine hohe Recyclingrate von über 75 Prozent, wird aber in Deutschland zur Wiederverwendung in Betonstrukturen kaum im selben Stoffkreislauf genutzt. Betonkonstruktionsbauteile, wie Teile einer Brücke, können nach dem Brechen zum Beispiel nur noch als Unterbau im Straßenbau verwendet werden. Grund dafür sei die fehlende Sortenreinheit beim mechanischen Brechen: „Durch das mechanische Brechen werden die einzelnen Bestandteile des Betons nicht sortenrein getrennt. Die Bruchflächen laufen oft durchs Gesteinskorn durch“, erklärt Peter Sudermann. Dieses Problem könne mit der Hochspannungsimpulszerlegung zu großen Teilen behoben werden. Durch schnelle Hochspannungspulse wird das Material so aufgebrochen, dass eine saubere Zerlegung von Sand, Steinen und Zementstein geschehen kann. Diesen Beitrag können Sie nachhören oder downloaden unter:
Hier rocken die Bands von Daheim! In dieser Folge der ROCK ANTENNE Heimatklänge sprechen wir mit Chris (Gesang) und Max (Bass) von Val Sinestra über ihr neues Album "Zerlegung", warum Punk nicht gleich Punk ist und warum es dank des ersten Val Sinestra Konzerts nach der Corona-Krise zu einem Anstieg von Syphilis-Fällen in der Ost-Schweiz kommen könnte. Viel Spaß beim Anhören!
Tom Mair ist Sohn einer Metzgerfamilie, die im Südtiroler Örtchen Olang schon seit Jahrzehnten eine klassische Landmetzgerei betreibt. Doch der Metzgersohn hat einen anderen Weg eingeschlagen und sich intensiv mit Kommunikation und Marketing beschäftigt. Dem Thema Fleisch ist er dennoch treu geblieben - seit Jahren beschäftigt er sich auf teils wissenschaftlicher Ebene mit den Entwicklungen im Bereich Reifung, Zerlegung und Tierhaltung. Sein Wissen hat er in der Meatery gebündelt. Dort reifen Rinderrücken von Pustertaler Sprinzen im begehbaren Dry Ager auf verschiedenste Art und Weise. Wir haben Tom im Zentrum seines Schaffens besucht und mit ihm über seine Visionen und seinen Werdegang gesprochen.
Den vollständigen Tagesdosis-Text (inkl ggf. Quellenhinweisen und Links) findet ihr hier: https://kenfm.de/einige-fragen-zum-corona-ausbruch-im-kreis-guetersloh-von-dirk-gintzel Über 1.700 Arbeiter sollen im Juni bei der Firma Tönnies an Covid-19 erkrankt sein. Zweifel an diesem Narrativ und den Motiven der handelnden Personen im Kreis Gütersloh sowie im Land Nordrhein-Westfalen gab es von Anfang an, allerdings fanden diese kaum Gehör. Wichtige Fragen sind bis heute offen. Ein Standpunkt von Dirk Gintzel. Merkwürdigkeiten Zunächst fällt auf, dass offenbar kaum jemand erkrankte. Gestorben ist jedenfalls niemand. Generell sollten die Begriffe „positiv getestet“, „infiziert“ und „krank“ nicht miteinander verwechselt werden. Es sind drei völlig verschiedene Zuschreibungen. Außerhalb des Zerlegebereichs in Tönnies´ Schlachtbetrieb wurden kaum positiv Getestete registriert, obwohl die Kollegen in den Unterkünften zusammen leben und auch das Gelände verlassen. Scheinbar ist Sars-Cov-2 bei Tönnies nur innerhalb der Zerlegung ansteckend und kaum krankmachend. Den nächsten Hinweis auf Merkwürdigkeiten gibt ein Interview mit dem niederländischen Chemiker Willem Engel vom 29. Mai. Engel erläutert darin, dass in verschiedenen Ländern auf Schlachthöfen ungewöhnlich viele Corona-Positive ermittelt wurden. So gab es etwa in den Niederlanden einen Betrieb, in dem 600 Arbeiter in Quarantäne geschickt wurden. Auch in den USA wurden solche Tests durchgeführt. Betroffen waren ... weiterlesen hier: https://kenfm.de/einige-fragen-zum-corona-ausbruch-im-kreis-guetersloh-von-dirk-gintzel Jetzt KenFM unterstützen: https://www.patreon.com/KenFMde https://de.tipeee.com/kenfm https://flattr.com/@KenFM Dir gefällt unser Programm? Informationen zu weiteren Unterstützungsmöglichkeiten hier: https://kenfm.de/support/kenfm-unterstuetzen/ Du kannst uns auch mit Bitcoins unterstützen. BitCoin-Adresse: 18FpEnH1Dh83GXXGpRNqSoW5TL1z1PZgZK Abonniere jetzt den KenFM-Newsletter: https://kenfm.de/newsletter/ KenFM jetzt auch als kostenlose App für Android- und iOS-Geräte verfügbar! Über unsere Homepage kommt Ihr zu den Stores von Apple und Google. Hier der Link: https://kenfm.de/kenfm-app/ Website und Social Media: https://www.kenfm.de https://www.twitter.com/TeamKenFM https://www.instagram.com/kenfm.de/ https://soundcloud.com/ken-fm See acast.com/privacy for privacy and opt-out information.
In der 8. Folge unserer 5Minutes geht es noch einmal mit Kai Lüttmann in die Welt der UserStorys. Userstories werden schnell sehr groß, wenn man versucht Anforderungen mit einer Userstory abzubilden. In dieser Folge möchte Kai euch ein Toolset an die Hand geben mit dem ihr sehr einfach und effektiv die meißten zu groß geratenen Userstories in sinnvolle kleine Userstories aufteilen könnt. Es mag auch große Userstories geben die sich nicht mehr sinnvoll aufteilen lassen. Diese kommen aber zum Glück sehr selten vor.
Mathematik I - Diskrete Strukturen und Logik (WS 2019/20) - tele-TASK
Gudrun spricht mit Henrieke Benner über deren Masterarbeit "Adaption and Implementation of Conventional Mesh Smoothing Techniques for the Applicability in the Industrial Process of Automated Shape Optimization", die in Zusammenarbeit von Henrieke und Gudrun mit der Firma Dassault entstanden ist. Unser Leben wird bestimmt durch industriell hergestellte Dinge. Im Alltag nutzen wir zum Beispiel Toaster, Waschmaschinen, Fernseher und Smartphones. Fahrräder, Autos, Züge und Flugzeuge transportieren uns und wir denken wenig darüber nach, wie es dazu kam, dass sie genau diese Form und das gewählte Material haben, solange alles funktioniert. Für die Industrie, die all diese Gegenstände baut, zerfällt der Prozess der Entwicklung neuer Produkte in viele Entscheidungen über Form und Material einzelner Bauteile. Traditionell wurde hier verändert und ausprobiert, aber seit einigen Jahrzehnten sind Computer eine große Hilfe. Mit Ihnen können Bilder von noch nicht existierenden Produkten erschafft werden, die sich diese von allen Seiten, auch von innen und in Bewegung darstellen, mit Hilfe von Simulationsprogrammen Experimente zur Qualität gemacht werden, bestmögliche Formen gefunden werden. In der Masterarbeit geht es um die Optimierung der Form von Objekten am Computer - schnell und möglichst automatisch. Es liegt in der Natur der Aufgabe, dass hier mehrere Wissensfelder zusammentreffen: mechanische Modelle, Computer Strukturen und wie man dort beispielsweise Modelle von Objekten abbilden kann, Optimierungsmethoden, numerische Verfahren. Als Rahmen dient für Arbeit das Strukturoptimierungsprogrammpaket TOSCA, das von Dassault Systèmes am Standort in Karlsruhe (weiter)entwickelt wird und weltweit als Software-Tool, eingebunden in Simulationsschleifen, genutzt wird, um Bauteile zu optimieren. Für die Numerik werden Finite Elemente Verfahren genutzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”gültig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um das Problem zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, jeweils zugeschnitten auf das genaue Problem. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Wenden wir uns nun dem Gebiet der Strukturoptimierung zu, so besteht anfangs zunächst die Hüde, ein mechanisches Problem mit Hilfe von Computer-Aided-Design Software (CAD) auszudrücken. Um die Belastungen des Bauteils zu berechnen, nutzt man anschließend Finite-Element-Analysis Software (FEA). Das Strukturoptimierungspaket TOSCA bietet anschließend mehrere Möglichkeiten zur Optimierung an. Relevant ist für das vorliegende Problem jedoch nur die Formoptimierung. Sie setzt ihre Ziel- und Restriktionsfunktionen aus Steifigkeit, Volumen, Verschiebung, inneren Kräften und Widerstandsmoment zusammen. Um eine Formoptimierung zu starten, muss zunächst vom Nutzer eine Triangulierung zur Verfügung gestellt werden, mit der die Werte der Ziel und Restriktionsfunktion berechnet werden. Während der Optimierung werden die Positionen der Oberflächenknoten variiert. Beispielsweise wird Material an Stellen hoher Spannung hinzugefügt und an Stellen niedriger Spannung entfernt. Problematisch an der Formoptimierung ist, dass sich die Qualität der finiten Elemente durch die Bewegung der Oberflächenknoten verändert. Modifiziert man nur die Oberflächenknoten, so entsteht ein unregelmäßiges Netz, welches keine gleichmäßigen finiten Elemente enthält oder schlimmstenfalls keine gültige Zerlegung der modifizierten Komponente ist. Die auf der ungültigen Triangulierten durchgeführten Berechnungen der Zielgrößen sind daher nicht mehr zuverlässig. Abhilfe kann nur geschaffen werden, wenn das Netz nach jedem Iterationschritt geglättet wird. Im Rahmen von Henriekes Arbeit werden zwei Ansätze zur Netzglättung implementiert, diskutiert und miteinander verglichen: Glättung durch den Laplace Operator und Qualitätsmaße für das Finite Elemente Gitter. Die Anwendung des Laplace Operators ist theoretisch die fundiertere Variante, aber in der numerischen Umsetzung sehr aufwändig. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. http://dx.doi.org/10.4172/2090-0902.1000181 C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. Podcasts M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. G. Thäter, H. Benner: Fußgänger, Gespräch im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015
Wir müssen reden! Nichts ist mehr so, wie es war – zumindest scheint es so. Bewegtbild zeigte in dieser Woche, wie stark es ist. Egal ob Online oder im TV oder überall gleichzeitig. Während ein Satire-Politiker die Polit-Talkshow gnadenlos vorführt, zerlegt ein YouTuber die CDU (so der Plan) und das "Macht mal wieder was mit Saufen!"-Duo konfrontiert zur besten Sendezeit im Privatfernsehen mit der harten Realität dieser Welt. Doch das war nur das Vorspiel, denn: DIE FUCKING "ABSCHLUSSKLASSE" KEHRT ZURÜCK INS FERNSEHEN!!! FERNSEHEN 00:03:38 | "Die Abschlussklasse" kommt krass zurück 00:09:12 | RTL hat neuen Frühaufsteher 00:13:25 | Jochen Schweizers Jobsuche 00:18:45 | Neue Coaches bei "The Voice of Germany" 00:22:05 | "Good Omens" ist hier KuH DER WOCHE 00:27:13 | Donnie O'Sullivan – AUSRUFEZEICHEN! 00:29:55 | Nico Semsrott bei "Maischberger" 00:40:25 | Rezo zerlegt die CDU 00:47:21 | Harte Realität bei "Joko & Klaas LIVE" WEIDENGEFLÜSTER 00:57:51 | Viehdback zu Folge 327 01:18:01 | Danke für Euren Support FILM 01:20:43 | Kinocharts ft. Hammes sah: "John Wick 3" 01:26:38 | Kinostarts 01:31:56 | Heimkino 01:38:06 | "Star Wars"-News der Woche QUOTENTIPP 01:43:37 | Letztes Mal: "Joko & Klaas gegen ProSieben" (Di., 28. Mai, 20:15 Uhr, ProSieben) 01:45:16 | Dieses Mal: "Vera unterwegs - Zwischen Mut und Armut" (Mi., 5. Juni, 20:15 Uhr, ProSieben) Alle Wortbeiträge dieser Folge sind eigene Meinungen – teils satirisch – oder Kommentare.
LMU Statistik I für Studierende der Wirtschaftswissenschaften
Folge 10 behandelt Dr. Heumann das 9. Kapitel mit dem Titel Zeitreihen. Einleitung; Beispiel: Zeitreihe: Entwicklung der Zahl der Erwerbstätigen; Zerlegung von Zeitreihen: Komponentenmodell; Additives und multiplikatives Komponentenmodell; Probleme des Komponentenmodells; Gleitende Durchschnitte: Ziele; Gleitende Durchschnitte; Modell mit konstanter Saisonfigur; Zerlegung in Trend und Saison: Vorgehen; Zerlegung in Trend und Saison Beispiel ohne Fehlerkomponente; Alternative Ansätze;
Mathematik I - Diskrete Strukturen und Logik (WS 2018/19) - tele-TASK
Langsam wird es Zeit, dass wir uns als Menschen darüber klar werden, was uns wirklich ausmacht. Denn nur, wenn wir uns davon (vorher) eine Vorstellung machen, können wir überhaupt eine Entscheidung treffen, wo und wie wir welcher Technologie in Zukunft Grenzen setzen wollen. Bisher nimmt uns jedes Stückchen Technologie ein kleines Stück von dem, was uns Menschen charakterisiert, weg und löst das Menschsein damit irgendwann auf.
Guntram Scheithauer ist Mathematiker und forscht an der TU Dresden. Seit seiner Promotion gilt sein Interesse der diskreten Mathematik und der Optimierung. Sein Einstieg in dieses Teilgebiet der Mathematik waren Rundreiseprobleme. Anfang der 1980er Jahre verschob sich das Hauptarbeitsgebiet dann auf Zuschnittsoptimierung und Packungsprobleme. Ausgangspunkt hierfür waren konkrete Anfragen aus der Holzindustrie. Ein noch sehr einfach formulierbares eindimensionales Zuschnittsproblem ist: Man hat Material der Länge l vorliegen und möchte daraus Teile einer bestimmten Länge so zuschneiden, dass der Abfall minimiert wird. Die Anzahl der Teile ist dabei nicht fest vorgegeben. Mathematisch lässt sich das auf das sogenannte Rucksackproblem zurückführen. Typisch ist, dass eine Nebenbedingung (die Länge) auftritt und nur ganzzahlige Werte sinnvoll sind, also ein ganzahliges lineares Optimierungsproblem vorliegt. Prinzipiell geht es im Rucksackproblem darum, dass man ein vorgegebenes Volumen des Rucksackes (seine Kapazität) gegeben hat, in das man beliebig verformbare Teile einpackt. In der Praxis so etwas wie Kleidung und Wanderutensilien, die man alle mehr oder weniger nötig braucht. Das heißt, jedes potentiell mitzunehmenden Teil hat zwei relevante Eigenschaften: Es braucht ein bestimmtes Volumen im Rucksack und es hat einen bestimmten Wert an Nützlichkeit. Das Problem ist gelöst, wenn man die Packung mit dem größten Nützlichkeits-Wert gefunden hat. Theoretisch kann man natürlich alle Möglichkeiten durchgehen, den Rucksack zu packen und dann aus allen die nützlichste aussuchen, aber in der Praxis ist die Anzahl an Möglichkeiten für Packungen sehr schnell so groß, dass auch ein schneller Computer zu lange braucht, um alle Fälle in akzeptabler Zeit zu betrachten. Hier setzt die Idee des Branch-and-Bound-Verfahrens an. Der sogenannte zulässige Bereich, d.h. die Menge der Lösungen, die alle Bedingungen erfüllen, wird zunächst schrittweise in Teilbereiche zerlegt. Auf diesen Teilbereichen werden die Optimierungsprobleme gelöst und dann aus allen die beste Variante gesucht. Leider können dies extrem viele Teilprobleme sein, weshalb der "Bound"-Teil des Verfahrens versucht, möglichst viele der Teilprobleme von vornherein als nicht aussichtsreich zu verwerfen. Der Erfolg des Branch-and-Bound steht und fällt mit guten Ideen für die Zerlegung und die zugehörigen Schranken. Der Rechenaufwand ist für einen konkreten Fall jeweils schwer schätzbar. Ein weiteres Verfahren für ganzzahlige Optimierungsprobleme ist Dynamische Optimierung. Ursprünglich wurde es für die Optimierung von sequentiellen Entscheidungsprozessen entwickelt. Diese Technik zur mehrstufigen Problemlösung kann auf Probleme angewendet werden, die als verschachtelte Familie von Teilproblemen beschrieben werden können. Das ursprüngliche Problem wird rekursiv aus den Lösungen der Teilprobleme gelöst. Deshalb ist der Aufwand pseudopolynomial und es erfordert etwa gleichen Rechenaufwand für gleich große Probleme. Weitere Verfahren zur Lösung von ganzzahligen Optimierungsproblemen sind bekannt unter dem Namen Schnittebenenverfahren und Branch-and-Cut. Nach der Berechnung des Optimums der stetigen Relaxation werden Schritt für Schritt neue Nebenbedingungen zum Problem hinzugefügt. Mit Hilfe dieser zusätzlichen Ungleichungen werden nicht ganzzahlige Variablen der kontinuierlichen Lösungen gezwungen, ganzzahlige Werte anzunehmen. Oftmals ist eine Kombination mit einer Verzweigungsstrategie erforderlich. Eine nahe liegende Verallgemeinerung des oben beschriebenen einfachsten Zuschnittsproblems ist der Zuschnitt von rechteckigen Teilen aus einer Spanplatte. In der Holzindustrie macht eine Kreissäge das meist mit Schnitten von einem Rand der Platte zum gegenüberliegenden. Das sind sogenannte Guillotine-Schnitte. Das trifft auch für Zuschnitt von Glas und Fliesen zu. Hier ist die Anpassung der eindimensionalen Algorithmen noch relativ einfach auf den zweidimensionalen Fall möglich. Richtig schwierig wird es aber, wenn beliebige Polygone als Teile auftreten oder gar solche mit krummlinigen Rändern. Ein typisches Anwendungsproblem ist, dass eine optimale Anordnung von Einzelteilen eines Kleidungsstück auf einer Stoffbahn in der Regel nicht übertragbar auf eine andere Konfektionsgröße ist. Eine weitere Familie von Fragestellungen ist: Wie groß muss ein Quadrat sein, um Platz für eine vorgegebene Anzahl von Kreise mit Durchmesser 1 zu bieten? Das ist mathematisch sehr einfach zu formulieren aber in der Regel schwierig zu lösen, da das zugehörige Optimierungsproblem nicht konvex ist. Literatur und weiterführende Informationen Rucksackproblem Algorithmen für Rucksackproblem Rucksackproblem in Anwendungen Josef Kallrath: Gemischt-Ganzzahlige Optimierung. Modellierung in der Praxis. Vieweg/Springer 2013. Guntram Scheithauer: Zuschnitt- und Packungsoptimierung - Problemstellungen, Modellierungstechniken, Lösungsmethoden. Vieweg/Springer 2008. Guntram Scheithauer: Introduction to Cutting and Packing Optimization - Problems, Modeling Approaches, Solution Methods Springer 2018. Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research M. An: Topologieoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/topologieoptimierung K. Berude: Sensoreinsatzplanung, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 154, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/sensoreinsatzplanung
Mathematik I - Diskrete Strukturen und Logik (WS 2017/18) - tele-TASK
Das Drama um eine Gruppe Jugendlicher, die Anfang der 50er Jahre in einer texanischen Kleinstadt ihren Weg in die Erwachsenenwelt finden, ist eine visuell spannende Verwebung von klassischen Hollywood-Motiven, der Zerlegung und Neuanordnung von Genre-Bezügen und den erzählerischen Methoden der Nouvelle Vague. Wir unterhalten uns über filmische und narrative Strategien, schwelgen in der Schauspielleistung des fantastischen Ensembles und versuchen den Film historisch und ästhetisch in seiner Zeit einzuordnen.
Im Rahmen einer Berufs- und Studienorientierung an Gymnasien (BOGY-Praktikum), bekam Leonard die Gelegenheit bei der iXpoint Informationsysteme GmbH das Terrain Projekt kennen zu lernen, und sprach am Studienzentrum für Sehgeschädigte mit Gerhard Jaworek und Sebastian Ritterbusch über seine Erfahrungen und Ergebnisse. Leonard besucht die Mittelstufe eines Karlsruher Gymnasiums und interessiert sich für Softwareentwicklung, Projektmanagement und Informatik, da er in seiner Freizeit mit Programmiersprachen wie Java interessante Projekte beispielsweise zur Erweiterung von Minecraft umsetzen konnte. Die Erweiterungen von Spielen ermöglichen auch Blinden die Partizipation an Multi-User Spielen. Das BOGY-Praktikum hatte als Anwendungsproblem die Überquerung einer Fläche oder eines Platzes: Ohne weitere Orientierungslinien können Blinde hier leicht die vorgesehene Richtung verlieren. Daher gibt es im Mobilitätstraining immer ein Kompasstraining, das blinden Menschen die richtungstreue Überquerung erleichtert. Da ein Kompass Parallelverschiebungen nicht messen kann, ergab sich der Ansatz mit der zusätzlichen Nutzung von GPS, um eine zielgenauere und robustere Überquerung zu ermöglichen. Das eigentliche Praktikum startete mit Planung: Der Aufgabenbeschreibung, der Zerlegung in Teilprobleme und der Erstellung eines Ablaufplans, mit einem Augenmerk auf einer agilen Vorgehensweise gegenüber eines klassischen Wasserfallmodells. Daran schloss sich am zweiten Tag die Einführung in die Entwicklungsumgebung und Dokumentation des Terrain-Projekts und die Nutzung des Versionsmanagementsystems Git. In den folgenden drei Tagen wurden drei Entwicklungszyklen umgesetzt, jeweils mit einer Detailplanung am Tagesanfang, der Implementierung über den Tag, sowie Tests und Dokumentation am Ende des Tages. Am Freitag kam am Ende noch Gerhard Jaworek hinzu, um das Ergebnis auch aus Nutzersicht zu evaluieren und diskutieren. Die Verwendung von GPS zur Überquerung basierte darauf, dass man am Startpunkt den Längen– und Breitengrad der aktuellen Position aufnimmt und dann daraus entweder den Zielpunkt berechnet oder auf dem Weg die aktuelle Position zur Ursprungsposition ins Verhältnis setzt. Da man sich aber hier nun auf einer idealisierten Erdoberfläche in Form einer Sphäre bewegt, wird die Trigonometrie gleich etwas komplizierter, als es in der Schule zunächst behandelt wird. Ein wichtiger Aspekt der Entwicklung lag auf der Gestaltung der Mensch-Maschine-Schnittstelle, also der Nutzung von Sprachausgabe, Gestenerkennung und Vibration zur Bedienung des Systems. Darüber hinaus hat Leonard verschiedene unterschiedliche Darstellungen umgesetzt: So kann man sich entscheiden, ob man eine Richtung mit einer Gradzahl, einer Uhrzeit oder sprachlich, wie „etwas rechts“, „etwas links“ mehr oder weniger ausführlich dargestellt bekommen möchte. Insgesamt konnte Leonard im Praktikum nicht nur eine Unterstützung für Blinde entwickeln, sondern auch einen Einblick in verschiedene Berufsbilder und Themenbereiche von Softwareentwicklung, Unterinterfacedesign, Projektplanung und -management erhalten, auch wenn eine Praktikumsdauer von einer Woche für so ein Thema natürlich sehr kurz ist.
Peer Kunstmann hat in Kiel Mathematik studiert und 1995 promoviert. In seiner Zeit an der Fakultät für Mathematik in Karlsruhe hat er sich 2002 habilitiert. Er arbeitet als Akademischer Oberrat dauerhaft in der Arbeitsgruppe Angewandte Analysis an unserer Fakultät. Gudrun hat das Gespräch über ein für beide interessantes Thema - das Stokesproblem - gesucht, weil beide schon über längere Zeit mit unterschiedlichen Methoden zu dieser Gleichung forschen. Das Stokesproblem ist der lineare Anteil der Navier-Stokes Gleichungen, dem klassischen Modell für Strömungen. Sie haben eine gewisse Faszination, da sie einfach genug erscheinen, um sie in ihrer Struktur sehr eingehend verstehen zu können, zeigen aber auch immer wieder, dass man sie nicht unterschätzen darf in ihrer Komplexität. Peers Interesse wurde zu Beginn seiner Zeit in Karlsruhe durch Matthias Hieber geweckt, der inzwischen an der TU Darmstadt tätig ist. Es zeigte sich seit damals als sehr aktives Forschungsgebiet, weshalb er auch immer wieder neu zu diesen Fragestellungen zurückgekehrt ist. Mit den klassischen Randbedingungen (konkret, wenn auf dem Rand vorgeschrieben wird, dass die Lösung dort verschwindet = homogene Dirichletbedingung) ist das Stokesproblem auffassbar als Laplaceoperator, der auf Räumen mit divergenzfreien Vektorfeldern agiert. Der Laplaceoperator ist sehr gut verstanden und die Einschränkung auf den abgeschlossenen Unterraum der Vektorfelder mit der Eigenschaft, dass ihre Divergenz den Wert 0 ergibt, lässt sich mit einer Orthogonalprojektion - der Helmholtzprojektion - beschreiben. Im Hilbertraumfall, d.h. wenn die Räume auf einer L^2-Struktur basieren und der Raum deshalb auch ein Skalarprodukt hat, weiß man, dass diese Projektion immer existiert und gute Eigenschaften hat. Für andere Räume ohne diese Struktur (z.B. -basiert für q nicht 2) hängt die Antwort auf die Frage, für welche q die Projektion existiert, von der Geometrie des Gebietes ab. Für beschränkte Gebiete geht vor allem die Glattheit des Randes ein. Das spiegelt sich auch auf der Seite des Laplaceproblems, wo die Regularität im Innern des Gebietes relativ elementar gezeigt werden kann, aber in der Nähe des Randes und auf dem Rand gehen in die Argumente direkt die Regularität des Randes ein. Mathematisch wird das Gebiet dabei mit Kreisen überdeckt und mit Hilfe einer sogenannten Zerlegung der Eins anschließend die Lösung für das ganze Gebiet zusammengesetzt. Für die Kreise, die ganz im Innern des Gebietes liegen, wird die Lösung auf den ganzen Raum mit dem Wert 0 fortgesetzt, weil die Behandlung des ganzen Raumes sehr einfach ist. Für Kreise am Rand, wird der Rand lokal glatt gebogen zu einer geraden Linie und (ebenfalls nach Fortsetzung mit 0) ein Halbraum-Problem gelöst. Natürlich liegt es in der Glattheit des Randes, ob das "gerade biegen" nur kleine Fehlerterme erzeugt, die sich "verstecken" lassen oder ob das nicht funktioniert. Für einen Rand, der lokal durch zweimal differenzierbare Funktion dargestellt werden kann, funktioniert diese Technik gut. Für Gebiete, die einen Rand haben, der lokal durch Lipschitzstetige Funktionen darstellbar ist, werden z.B. Randintegraldarstellungen direkt untersucht. Dort existiert die Helmholtzzerlegung für alle q im Intervall (wobei vom Gebiet abhängt). Durch die kleinen Fehlerterme, die in der Technik entstehen, wird es auch nötig, die Gleichung für die Divergenz zu untersuchen, wo keine 0 sondern eine beliebige Funktion (natürlich mit den entsprechenden Regularitätseigenschaften) als rechte Seite erlaubt ist. Ein Begriff, der eine wichtige Eigenschaft von partiellen Differentialgleichungen beschreibt, ist der der maximalen Regularität. Einfach ausgedrückt heißt das, wenn ich die rechte Seite in einem Raum vorgebe, ist die Lösung genau so viel regulärer, dass nach Anwendung des Differentialoperators das Ergebnis die Regularität der rechten Seite hat. Für das Laplaceproblem wäre also die Lösung v für jedes vorgegebene f so, dass und f im gleichen Raum sind. Diese Eigenschaft ist z.B. wichtig, wenn man bei nichtlinearen Problemen mit Hilfe von Fixpunktsätzen arbeitet, also z.B. den Operators iterativ anwenden muss. Dann sichert die maximale Regularität, dass man immer im richtigen Raum landet, um den Operator erneut anwenden zu können. Im Zusammenhang mit der Frage der maximalen Regularität hat sich der -Kalkül als sehr nützlich erwiesen. Ein anderer Zugang wählt statt der Operatorformulierung die schwache Formulierung und arbeitet mit Bilinearformen und Ergebnissen der Funktionalanalysis. Hier kann man vergleichsweise wenig abstrakt und in diesem Sinn elementar auch viel für das Stokes- und das Navier-Stokes Problem zeigen. Es gibt ein vorbildliches Buch von Hermann Sohr dazu. Literatur und weiterführende Informationen M. Geißert, P.C. Kunstmann: Weak Neumann implies H^infty for Stokes, Journal Math. Soc. Japan 67 (no. 1), 183-193, 2015. P.C. Kunstmann: Navier-Stokes equations on unbounded domains with rough initial data, Czechoslovak Math. J. 60(135) no. 2, 297–313, 2010. H. Sohr: The Navier-Stokes Equations. An Elementary Functional Analytic Approach Birkhäuser, 2001. M. Cannone: Ondelettes, Paraproduits et Navier-stokes, Diderot Editeur, 1995. G. Thäter, H. Sohr: Imaginary powers of second order differential operators and $L^q$ -Helmholtz decomposition in the infinite cylinder, Mathematische Annalen 311(3):577-602, 1998. P.C. Kunstmann, L. Weis: Maximal L_p-regularity for parabolic equations, Fourier multiplier theorems and H^infty-calculus, in Functional Analytic Methods for Evolution Equations (eds. M. Iannelli, R. Nagel and S. Piazzera), Springer Lecture Notes 1855, 65-311, 2004. P.C. Kunstmann, L. Weis: New criteria for the H^infty-calculus and the Stokes operator on bounded Lipschitz domains, Journal of Evolution Equations, March 2017, Volume 17, Issue 1, pp 387-409, 2017. G.P. Galdi: An introduction to the mathematical theory of the Navier-Stokes equations. Vol. I. Linearized steady problems. Springer Tracts in Natural Philosophy, 38. Springer-Verlag, New York, 1994. Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Lorenz Schwachhöfer ist seit 2003 Professor für Mathematik an der TU Dortmund. Gudrun kennt ihn aus ihrer Zeit als als Hochuldozentin dort (2004-2008). Seinen kurzen Gastaufenthalt in der AG von Prof. Tuschmann in Karlsruhe wollten die beiden ausnutzen, um ein Podcast-Gespräch zu führen. Das Forschungsgebiet von Lorenz Schwachhöfer gehört zur Differentialgeometrie. Deshalb dreht sich ihr Gespräch um zentrale Begriffe in diesem mathematischen Gebiet zwischen Geometrie und Analysis: Die Krümmung und das Finden von Minimalflächen. Der Begriff Krümmung kommt in unserer Alltagssprache vor. Die Mathematik muss das Konzept von "gekrümmt sein" nur klar fassen, um damit präzise arbeiten zu können. Die zentrale Eigenschaft, die durch das Wort beschrieben wird, ist wie sehr sich eine Fläche von einer Ebene unterscheidet. Oder auch wie stark sich eine Kurve von einer Geraden unterscheidet. Eine Ebene (bzw.eine Gerade) ist nicht gekrümmt. Mathematisch ausgedrückt haben sie deshalb die Krümmung 0. Wenn man nun untersuchen - und mit einer Zahl ausdrücken - möchte, wie sehr sich z.B. eine Kurve in jedem Punkt von eine Gerade unterscheidet, verwendet man folgenden Trick: Man definiert einen Parameter - z.B. die Bogenlänge - und stellt die Kurve als Funktion dieses Parameters dar. Dann berechnet man die Änderung des Richtungsvektors der Kurve in jedem Punkt. D.h. man braucht die zweite Ableitung nach dem Parameter in dem Punkt. Das Ergebnis für einen Kreis mit Radius r lautet dann: Er hat überall die Krümmung 1/r. Daran sieht man auch, dass kleine Kreise sehr stark gekrümmt sind während sehr große Kreise eine so kleine Krümmung haben, dass man sie fast nicht von einer Geraden unterscheiden kann. Auch die Erdoberfläche wirkt lokal wie eine Ebene, denn in der mit unseren Augen wahrgenommenen Umgebung ist ihre Krümmung klein. Was für Kurven recht anschaulich zu definieren geht, ist für Flächen im dreidimensionalen Raum nicht ganz so klar. Das einzig klare ist, dass für jede Art Krümmung, die man mathematisch definiert, jede Ebene in jedem Punkt die Krümmung 0 haben muss. Wenn man die Idee der Parametrisierung auf Flächen überträgt, geht das im Prinzip auch, wenn man zwei Parameter einführt und Krümmung auf eine bestimmte Richtung im Punkt auf der Fläche entlang bezieht. Beim Zylinder kann man sich gut vorstellen, wie das Ergebnis aussieht: Es gibt die Richtung entlang der Kreislinie des Querschnitts. Diese Kurve ist ein Kreis und hat die Krümmung 1/r. Läuft man dazu im rechten Winkel auf der Zylinderhülle, folgt man einer Gerade (d.h. Krümmung in diese Richtung ist 0). Alle anderen Wege auf der Zylinderoberfläche liegen in Bezug auf die Krümmung zwischen diesen beiden Werten 1/r und 0. Tatsächlich kann man auch für allgemeine Flächen zeigen, dass man in jedem Punkt eine Zerlegung in zwei solche "Haupt"-Richtungen findet, für die maximale bzw. minimale Krümmungswerte gelten (und die senkrecht zueinander sind). Alle anderen Richtungen lassen sich daraus linear zusammensetzen. Die Kugeloberfläche hat z.B. eine hohe Symmetrie und verhält sich in allen Richtungen gleich. Alle Wege auf der Kugeloberfläche sind lokal Teile von Kreisen. Man kann sich hier auch überlegen, was tangential bedeutet, indem man in einem Punkt auf der Oberfläche eine Ebene anschmiegt. Die Richtung senkrecht auf dieser tangentialen Ebene ist die Normalenrichtung auf dem Punkt der Kugeloberfläche an dem die Tangentialebene anliegt. Tatsächlich gibt es für Flächen aber mehr als einen sinnvollen Krümmungsbegriff. Man kann z.B. einen Zylinder sehr schön in Papier "einwickeln". Bei einer Kugel geht das nicht - es bleibt immer Papier übrig, das man wegfalten muss. Wenn man einen Kühlturm einpacken möchte, reicht das Papier nicht für die nach innen einbuchtende Oberfläche. Die Eigenschaft, die wir mir dem Einwickeln veranschaulicht haben, wird mit dem Begriff der Gaußkrümmung ausgedrückt. Um sie zu berechnen, kann man in einem Punkt die oben definierten Richtungsskrümmungen anschauen. Maximal- und Minimalwerte werden für senkrecht aufeinander stehende Richtungen realisiert. Das Produkt der beiden extremen Krümmungen ergibt dann die Gaußkrümmung. In unserem Beispiel mit dem Zylinder ist die Gaußkrümmung also 0 mal 1/r = 0. Das ist aber tatsächlich ganz unabhängig von der Richtungskrümmung untersuchbar, weil es sich durch Längen- bzw. Flächenverhältnisse in der Fläche bestimmen lässt. Genauer gesagt: Wenn man auf der Kugel um einen Punkt einen Kreis auf der Kugeloberfläche zieht (d.h. seine Punkte liegen auf der Kugeloberfläche und haben alle den Abstand r vom gewählten Punkt), hat dieses Objekt einen kleineren Flächeninhalt als ein ebener Kreis mit dem gleichen Radius. Deshalb sagt man: Die Kugel hat positive Gaußkrümmung. Bei negativer Gaußkrümmung ist der Flächeninhalt auf der Oberfläche größer als in der Ebene. Das trifft für den Kühlturm zu. Diese Eigenschaft lässt sich innerhalb der Fläche untersuchen. Man braucht gar keine Einbettung in einen umgebenden Raum. Das ist zunächst sehr überraschend. Es ist aber unbedingt nötig für Anwendungen in der Astrophysik, wo die Raumzeit wegen der Gravitation gekrümmt ist (d.h. sie ist kein euklidischer Raum). Es hat aber niemand ein Bild, in welche höhere Dimension man die Raumzeit einbetten sollte, um dann mit der Krümmung in Bezug auf diesen Raum zu arbeiten. Neben den beiden schon diskutierten Begriffen kann man auch mit der mittleren Krümmung arbeiten. Sie ist definiert als Mittelwert aller Richtungskrümmungen. Man kannn aber zeigen, dass dies stets das arithmetische Mittel zwischen minimaler und maximaler Krümmung ist. Dies hat auch eine physikalische Interpretation - z.B. als Flächenspannung für eine Membran, die eingespannt ist. Die Membran versucht, einen möglichst geringen Flächeninhalt - eine sogenannte Minimalfläche - zu realisieren, weil dies dem minimalen Energieaufwand entspricht. Spannungsfreie Flächen sind sehr stabil und deshalb für Architekten interessant. Im Schülerlabor Mathematik kann man mit Seifenhäuten selbst ausprobieren, welche Flächen sich hier für unterschiedliche Randkurven herausbilden. Z.B. wurde die Dachkonstruktion des ehemaligen Olympiastadions in München aus Minimalflächen konstruiert, die mit Seifenhäuten gefunden, fotographiert und nachgebaut wurden.. Mathematisch sprechen wir vom Plateau-Problem. Die Frage ist dabei: Hat jede geschlossene Kurve mindestens eine zugehörige Minimalfläche? Heute wissen wir, dass die Antwort - unter sehr geringen Regularitätsforderungen an die Kurve - fast immer ja ist. Sehr verblüffendend ist in diesem Zusammenhang auch der Satz von Gauß/Bonnet. Er sagt, dass das Integral über die Gaußkrümmung jeder in sich selbst geschlossenen Fläche ein ganzzahliges Vielfaches von 2π ist. Dieser Faktor heißt dann Euler-Charakteristik und hängt nur von der Topologie (grob gesprochen der Zahl der Löcher im Gebiet) ab. Beim Torus ist sie 0 und für die Kugeloberfläche 2. Interessant ist in diesem Zusammenhang auch die Behandlung von nicht glatten Kurven bzw. Flächen mit Ecken und Kanten. An den Kanten ist das Konzept der Gaußkrümmung noch recht einfach übertragbar. Der betrachtete Kreis auf der Oberfläche klappt sich dabei um die Kante herum. An den Ecken geht das nicht so einfach, sondern führt auf komplexere Gebilde. Wenn man sich aber z.B. einen Würfel ansieht, hat dieser fast überall die Krümmung 0. Trotzdem ist er (topologisch gesehen) einer Kugel viel ähnlicher als einer Ebene. Hier kann man den Begriff der Gaußkrümmung richtig für Polyeder mit Kanten und Ecken verallgemeinern und der Satz von Gauß/Bonnet überträgt sich sinngemäß auf Polyeder. Das Integral wird zur Summe über die Polyederflächen und wir erhalten den wohlbekannten Polyedersatz: Euler-Charakteristik mal Anzahl der Flächen - Anzahl der Kanten + Anzahl der Ecken = 2 Der Polyedersatz ist eigentlich ein kombinatorisches Ergebnis. Trotzdem zeigt sich hier, dass die topologischen Eigenschaften intrinsisch mit der Krümmung zusammenhängen, was sehr überraschend, aber auch sehr ästhetisch zwei einander sehr fremde Teilgebiete der Mathematik zusammenführt. Lorenz Schwachhöfer hat in Darmstadt und in New Orleans Mathematik studiert und nach seiner Promotion 1992 (in Philadelphia) u.a. wissenschaftlich Station gemacht an der Washington Universität (in St. Louis), dem Max Planck Institut für Mathematik in Bonn, der Universität in Leipzig (dort Habilitation) und an der Université Libre in Brüssel. Literatur und weiterführende Informationen J-H. Eschenburg & J. Jost: Differentialgeometrie und Minimalflächen. Springer Verlag, 3. Auflage, 2014. T. Matiasek: Seifenhäute und Minimalflächen: Natur, Geometrie und Architektur. VDM Verlag Dr. Müller, 2010 Wolfgang Kühnel: Differentialgeometrie: Kurven - Flächen - Mannigfaltigkeiten, Springer Verlag, 2013. Manfredo doCarmo, Differentialgeometrie von Kurven und Flächen, Vieweg+Teubner Verlag, 1993. Christian Bär, Elementare Differentialgeometrie, deGruyter, 2017. Video Seifenhäute (engl.) Podcasts P. Schwer: Metrische Geometrie. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/metrische-geometrie L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe
Rebecca Waldecker ist Professorin für Algebra an der Martin-Luther-Universität Halle-Wittenberg. Sie besuchte Karlsruhe aus Anlass einer Konferenz zu Ehren von Richard Weiss und Gudrun nutzte die Gelegenheit, um mit ihr über das Faszinosum und die Nützlichkeit von Primzahlen und ihr Forschungsgebiet der Gruppentheorie zu sprechen. In der Vergangenheit gab es verschiedene Definitionen für Primzahlen, die sich über die Zeit zu dem heute gebräuchlichen geschärft haben: Eine Primzahl ist eine natürliche Zahl, die genau zwei verschiedene natürliche Teiler hat - sich selbst und 1.Die Zahl 1 ist damit keine Primzahl, aber z.B. ist die Zahl 2 prim sowie die Zahlen 3, 5, 7, 11, 13, 17, 19 usw. Ein grundlegendes Resultat besagt, dass sich alle natürlichen Zahlen eindeutig in Produkte von Primzahlen aufteilen lassen. Zahlen, die selbst nicht prim sind, nennt man deshalb zerlegbar bzw. zusammengesetzt, weil man sie mit Hilfe dieser Darstellung in die zugehörigen Primfaktoren aufteilen kann bzw. man diese als Grundbausteine der natürlichen Zahlen ansehen kann. Es gibt in diesem Zusammenhang viele interessante Fragen. Zum Beispiel: Wie viele Primzahlen gibt es? Gibt es beliebig große Primzahlzwillinge, d.h. zwei Primzahlen, die voneinander nur den Abstand 2 haben (wie z.B. 11 und 13)? Wie kann ich eine Zahl als Primzahl erkennen? Wie kann ich für jede Zahl (effektiv) die Zerlegung in Primfaktoren berechnen? Interessant ist, dass diese Fragen, die doch eher theoretisch und fast schon spielerisch wirken, heute eine große Relevanz erhalten, weil sich alle gebräuchlichen digitalen Verschlüsselungsverfahren (z.B. beim online-Banking) großer Primzahlen bedienen (je größere Primzahlen man verwenden kann, desto sicherer ist die zugehörige Verschlüsselung). Das liegt daran, dass es im Allgemeinen tatsächlich eine recht lange Rechenzeit braucht, um große Zahlen in mögliche Primfaktoren zu zerlegen. Wenn man sich jedoch davon löst, Primzahlen und Teiler nur auf natürliche Zahlen zu beziehen, wird die Welt noch ein wenig interessanter. Besonders einfach und fast offensichtlich ist es bei der Ausweitung auf ganze Zahlen. In den ganzen Zahlen gibt es mehr Teiler: Zum Beispiel hat die Zahl 3 dort (neben 3 und 1) auch noch die Teiler -1 und -3. Man muss dann entscheiden, welches die Grundbausteine für ganze Zahlen sein sollen. Noch etwas allgemeiner ausgedrückt: Wenn der Begriff der Primzahl auf andere Zahlbereiche verallgemeinert wird, dann gibt es zwei Eigenschaften, die man als charakterisch für "prim" ansehen kann: Einerseits die "Unzerlegbarkeit", also die Eigenschaft, nur die offensichtlichen Teiler zu besitzen. Primzahlen haben aber auch die Eigenschaft (im Bereich der ganzen Zahlen), dass, wenn sie ein Produkt von Zahlen teilen, sie automatisch mindestens einen der Faktoren teilen. Auch diese Eigenschaft kann man zur Verallgemeinerung der Eigenschaft "prim" benutzen. Häufig ist es so, dass in der Übertragung der Idee auf Objekte, die die Struktur eines algebraischen Rings haben (d.h. grob gesprochen, man "rechnet" in ihnen mehr oder weniger so, wie wir es von den ganzen Zahlen kennen) die Unzerlegbarkeit mit dem Begriff "irreduzibel" verallgemeinert wird und dass die andere Eigenschaft (wenn man ein Produkt teilt, dann auch mindestens einen der Faktoren) mit "prim" oder "Primelement" verallgemeinert wird. In manchen Zahlbereichen fallen diese Begriffe zusammen. Zum Beispiel ist das bei den ganzen Zahlen so und bei den im Gespräch erwähnten Ganzen Gaußschen Zahlen. Die Ganzen Gaußschen Zahlen werden aus allen Punkten mit ganzzahligen Koordinaten in der Gaußschen Zahlenebene gebildet. Diese Ebene ist eine geometrische Interpretation der Menge der komplexen Zahlen - die beiden Achsen geben Real- und Imaginärteil der jeweiligen komplexen Zahl an. Wählt man alle ganzzahligen Punkte, so ergibt das eine Struktur, die geometrisch betrachtet ein Gitter ist, und die algebraisch betrachtet den ganzen Zahlen nicht unähnlich ist. Allerdings wird die Multiplikation etwas interessanter, deshalb ändern sich die Eigenschaften von Primzahlen im Ring der Ganzen Gaussschen Zahlen. 2 ist dort keine Primzahl, sondern hat neben den offensichtlichen Teilern 2,-2,1,-1,i,-i,2i,-2i auch noch die Teiler 1+i, 1-i und noch einige mehr. Alle Primzahlen, die beim Teilen durch 4 in den Rest 3 lassen, bleiben prim in . Zum Beispiel 3, 7 und 11. Alle Primzahlen, die beim Teilen durch 4 in den Rest 1 lassen, sind nicht mehr prim in , sondern bekommen dort interessante zusätzliche Teiler. Das liegt daran, dass diese Zahlen sich als Summe von zwei Quadraten schreiben lassen. Streng genommen geht es hier nicht um die Eigenschaft, prim zu sein, sondern um die Eigenschaft, irreduzibel zu sein (siehe oben). Aber im Ring der Ganzen Gaussschen Zahlen fallen diese Begriffe zusammen. Wer sich dafür interessiert, findet beispielsweise beim Suchen mit den Stichworten Zwei-Quadrate-Satz von Fermat und Normfunktion bei den Ganzen Gaußschen Zahlen viele weitere Informationen und Details. Für die Herleitung von effektiven Verfahren, die Primzahlen herausfischen (Primzahlsieb), ist es mitunter nützlich, auf bestimmte Eigenschaften von Primzahlen zurückzugreifen, statt stur alle Teiler zu probieren - von denen gibt es schon für mittelgroße Zahlen nämlich ganz schön viele und es wird selbst mit Hilfe schneller Computer recht zäh. Eine solche Eigenschaft ist im kleinen Satz von Fermat formuliert: Ist p eine Primzahl und ist a eine ganze Zahl, so gilt: und a haben beim Teilen durch p den gleichen Rest. Falls a nicht durch p teilbar ist, dann gibt es noch eine andere Version: hat beim Teilen durch p genau den Rest 1. Dies kann man zur Erkennung von Primzahlen ausnutzen: Ist n eine natürliche Zahl, die man auf Primalität untersuchen möchte, so wählt man sich zufällig eine Zahl a, die echt zwischen 1 und n liegt und die teilerfremd zu n ist (falls das nicht möglich ist, dann ist n=2 und man kann den Test sofort beenden). Nun haben wir also a und n und berechnen . Falls beim Teilen durch n dann der Rest 1 herauskommt, dann ist das Testergebnis "n ist wahrscheinlich prim.". Andernfalls ist das Testergebnis "n ist zusammengesetzt." Das Ergebnis "zusammengesetzt" ist immer richtig, aber das Ergebnis "prim" ist manchmal falsch. Bei den sogenannten Pseudoprimzahlen erscheint für manche Werte von a die Ausgabe "prim", obwohl die Zahl in Wirklichkeit zusammengesetzt ist. Noch schlimmer: Bei den sogenannten Carmichael-Zahlen ist es sogar so, dass für jede mögliche Zahl a, die man sich für den Test wählen könnte (mit den Einschränkungen von oben), der Test das Ergebnis "prim" ausgibt, obwohl die Zahl in Wirklichkeit zusammengesetzt ist. Solche "Unfälle" haben dazu geführt, dass man nach feineren Tests gesucht hat, die weniger Fehler machen. Ein Beispiel ist der Miller-Rabin-Test. Der erste Schritt ist dabei so ähnlich wie beim Fermat-Test, aber es gibt danach noch einen zweiten Schritt. Auf der Seite http://www.visual.wegert.com von Elias Wegert findet man viele wunderbare Illustrationen, manche davon haben mit Primzahlen zu tun. Hier sind noch mehr Tipps zum Stoebern und Weiterlesen: Literatur und weiterführende Informationen Chris K. Caldwell: The List of Largest Known Primes Home Page R. Waldecker, L. Rempe-Gillen: Primzahltests für Einsteiger, 2. Auflage. Springer, 2015. Auch in englisch erhältlich: Primality testing for beginners, Januar 2014 in der Serie Student Mathematical Library der AMS. E. Wegert: Visual Complex Functions, Birkhäuser, 2012. Agrawal, M., Kayal, N. und Saxena, K.: PRIMES is in P, Annals of Math. 160 (2004), No. 2, 781 - 793. Hardy, G.H.: A mathematician's apology, Cambridge University Press, 1992. Crandall, R. und Pomerance, C.: Prime Numbers: A computational perspective, Springer, 2005. Dietzfelbinger, M.: Primality Testing in Polynomial Time: from randomized algorithms to PRIMES is in P, Springer, 2004. Podcasts S.Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/digitale-waehrungen F. Januszewski: L-Funktionen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 55, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/l-funktionen F. Schmidt: RSA-Faktorisierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 70, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/rsa-faktorisierung
In den Räumen des Entropia e.V. traf sich Joachim Breitner mit Sebastian Ritterbusch, um ihm von Computerbeweisen und der Incredible Proof Machine (http://incredible.pm/) zu erzählen. Diese hatte er mit Unterstützung von Kollegen und Freunden für einen dreitägigen Workshop im Oktober 2015 am Science College Jülich mit Schülerinnen und Schülern im Start-Stipendium für motivierte und neu zugewanderte Jugendliche in Mittel- und Oberstufe unter Unterstützung der Deutsche Telekom Stiftung entworfen. Der mathematische Beweis ist grundlegender Bestandteil der Mathematik und die Technik des Beweisen wird im Mathematik- oder Informatikstudium vielfach geübt, wie es auch im Modell036 Podcast zur Analysis beschrieben wurde. Dennoch wird das wichtige Thema nur selten in der Schule angesprochen, da korrekte Beweise sehr formal und abstrakt sind. Mit einem spielerischen Zugang wird der Einstieg in die exakte Beweistheorie für Schüler und Mathematik-Interessierte nicht nur möglich, sondern ermöglicht auch neue Formen der Lehre wie den Modell051 Flipped Classroom. Beweise gehen von bestehenden Aussagen und festgelegten Axiomen aus, um neue Aussagen oder Erkenntnisse zu belegen. Von der Aussage "es regnet" kann man beispielsweise mit einem fiktiven Axiom "wenn es regnet, werden Straßen nass" schließen, dass gilt: "die Straße ist nass". Und man kann daraus mit der Technik des Widerspruch-Beweis zeigen, dass aus der Aussage "die Straße ist trocken" folgt, dass "es regnet nicht" gilt. Denn (und das ist der Beweis), würde es regnen, so wäre die Straße nass, also nicht trocken. Wann ist aber nun ein Beweis richtig? Diese Frage kann sich jeder selbst beantworten, in dem man einen vorliegenden Beweis versucht nachzuvollziehen. Eine Alternative ist die Beweisprüfung mit dem Computer, wie beispielsweise mit Isabelle. Diese Art von Software richtet sich allerdings in erster Linie an fortgeschrittene Nutzer und setzt Kentnisse in sowohl in der Logik als auch in der (funktionalen) Programmierung voraus, und so suchte Joachim nach einer einfachereren Methode, beweisen zu lernen und die Ergebnisse maschinell zu prüfen. Mit der von ihm kreierten Incredible Proof Machine werden Beweise durch Ziehen und Setzen bildlich erstellt, in der Form eines Graphen. So wird das Beweisen zu einem Puzzle-Spiel mit Erfolgserlebnis, das man nach und nach lösen kann, ohne dabei die exakte Mathematik zu verlassen. In dem Spiel gibt es viele Aufgaben, die zu lösen sind. In der Übersicht sind diese in Lektionen geordnet und zeigen jeweils durch einen breiten Strich, dem Inferenzstrich getrennt, von welchen Aussagen oben man welche Aussagen unten beweisen soll. Wählt man eine Aufgabe aus, so sieht man die gegebenen Aussagen, die oberhalb des Striches waren, als Quellen auf einem Arbeitsblatt. Die zu beweisenden Aussagen erscheinen als Senken. Von den Quellen kann man nun per Maus Verbindungen zu den Senken ziehen- entweder direkt, oder mit Hilfe zusätzlicher Blöcke, bzw. gegebener Beweisregeln, aus einer Toolbox links, die ebenfalls zur Verfügung stehen und weitere gegebene Axiome darstellen. Sind alle offenen Senken bewiesen, so leuchtet unten eine Zeile grün auf, als Bestätigung für einen geschafften Level- eine positive Bestärkung, die nicht ganz so spektakulär ist, wie bei Populous. Während man auf dem Arbeitsblatt spielt, gibt die Incredible Proof Machine unmittelbar Rückmeldung, falls eine Verbindung so keinen Sinn macht: Will man die Aussage B mit Aussage A beweisen, so wird die Linie zwischen den beiden sofort rot, und gibt dem Spielenden die Hilfestellung, wo mindestens ein Fehler steckt. Die logischen Aussagen und die gegebenen Beweisregeln verwenden eine gängige Notation zur Beschreibung logischer Verknüpfungen. Ein ∨ (sieht wie der kleine Buchstabe v aus), steht für die logische Oder-Verknüpfung und die Notation stammt vom lateinischen Wort vel. Das umgekehrte Symbol ∧ steht für die logische Und-Verknüpfung. In der ersten Lektion gibt es zwei Blöcke bzw. Beweisregeln für die Und-Verknüpfung: Einmal ein Block mit zwei Eingängen X und Y und einem Ausgang X∧Y, sowie einem Block mit einem Eingang X∧Y und zwei Ausgängen X und Y. Die Lektion 1 behandelt damit den grundlegenden Umgang mit dem System und die Konjugation. Die Lektion 2 führt die Implikation ein. Eine Implikation, oder auch Folge, beschreibt die Aussage, dass aus einer Aussage eine zweite zwingend folgt. Zur Anwendung einer Implikation gibt es in dieser Lektion eine Beweisregel, die eine Implikation anwendet. Ein weiterer Block ermöglicht eine Implikation zu erzeugen, in dem die Vorbedingung in einem Einschub angenommen bzw. angeboten wird, und man daraus das Zielereignis dann herleiten muss. Die Prüfung der Beweise in der Incredible Proof Machine erfolgt durch einen Beweisprüfer in Haskell, einer funktionalen Programmiersprache, die auch schon im Modell047 Podcast zum Tiptoi zur Sprache kam. Der Beweisprüfer wurde mit ghcjs nach JavaScript kompiliert und läuft damit komplett im Browser. Über einen Compiler von Haskell zu Redstone wie in dem Modell056 Podcast zu Minecraft ist leider noch nichts bekannt. Ein lehrreicher Zusammenhang ist hier, dass aus logischer Sicht Implikationen vollkommen korrekt sind, wenn die rechte Seite wahr ist – ohne dass ein ursächlicher Zusammenhang bestehen muss. Wenn also jemand nach Einnahme von offensichtlich unwirksamen Mitteln gesund geworden ist, so ist der logische Schluss, dass nach der Einnahme die Person gesund ist, korrekt. Doch darf man daraus keinesfalls schließen, dass die unwirksamen Mittel dafür der Grund gewesen wären. Das ist ein ähnlicher Fehlschluss wie Cum hoc ergo propter hoc – aus Korrelation folgt keine Kausalität. Die Lektion 3 führt die Disjunktion bzw. Oder-Verknüpfung mit drei neuen Beweisregeln-Blöcken ein, zwei zur Erzeugung einer Aussage mit einer Disjunktion, eine zur Zerlegung einer Disjunktion. Interessant ist dabei besonders die Zerlegung der Disjunktion, da sie auf eine Fallunterscheidung führt. Man kann auch frei weitere Aufgaben innerhalb der Incredible Proof Machine für sich selbst hinzufügen, neue Vorschläge aber auch auf Github einreichen. Die Lektion 4 behandelt die abstrakte falsche Aussage ⊥. Aus dieser kann man alles folgern, ex falso quodlibet, was dann auch in der ersten Aufgabe zu zeigen ist. Eine besondere Notation ist dabei, dass aus einer Aussage falsch folgt, wie A→⊥. Dies bedeutet einfach nur, dass A nicht gilt, also falsch ist – die Negation von A. In Lektion 5 verlassen wir dann die intuitionistische Logik, die von einer konstruktiven Mathematik ausgeht, hinein in die allgemeinere klassische Logik. Hier wird die Beweisregel vom ausgeschlossenen Dritten (tertium non datur) eingeführt. Dabei sind konstruktive Beweise, die also ohne tertium non datur auskommen, leichter automatisiert zu führen. Für die Aussage "Es gibt eine irrationale Zahl, die mit einer irrationalen Zahl potenziert rational ist" gibt es als Beispiel einen nicht-konstruktiven Beweis: Entweder ist Quadratwurzel von 2 mit sich selbst potenziert rational, oder spätestens das Ergebnis potenziert mit der Quadratwurzel von zwei ist rational, denn das ist 2. Es ist nicht klar, welche Basis die Lösung ist, sondern hier nur, dass es eine der beiden ist. Einen Zusammenhang von der konstruktiven Logik zur Programmierung liefert die Theorie der Curry-Howard-Korrespondenz – man kann Programmieren auch als eine Art Beweisen sehen, und daher sind auch ähnliche graphische Darstellungen als Flussdiagramm möglich. In Lektion 6 werden Quantoren und Prädikate eingeführt. Man kann hier beispielsweise zeigen, wann der Existenzquantor und der Allquantor vertauscht werden dürfen: Die Lektion 7 behandelt zwei weitergehende Beispiele, die auch umgangssprachlich verständlich sind: Die erste Aufgabe behandelt das Bar-Paradox: Hier gilt es zu beweisen, dass es in jeder nicht-leeren Bar immer eine Person gibt, dass wenn sie trinkt, alle in der Bar trinken. Die zweite Aussage lautet: Wenn jeder Mann einen reichen Vater hat, dann gibt es einen reichen Mann mit einem reichen Großvater. Die klassische Aussagenlogik kann aber auch über andere Kalküle definiert werden: So demonstriert die Incredible Proof Machine die Verwendung des Hilbert-Kalküls und das NAND-Kalküls. Während das Hilbert-Kalkül besonders theoretisch verwendet wird, liefert das NAND-Gatter als einfacher Logikbaustein Anwendungen bis hin zum Volladierer aus NAND-Gattern. Man kann auch jederzeit neue Beweisregeln oder Lemmas definieren, in dem man alle Bausteine logischer Diagramme mit offenen Ein- und Ausgängen mit gedrückter Shift-Taste anwählt und links zu einem neuen Baustein zusammenführt. Das folgende Bild zeigt die Definition des Beweis durch Widerspruch, und die anschließende Verwendung zu Lösung einer Aufgabe in Lektion 5: Im Gegensatz zur Incredible Proof Machine soll die Software Isabelle nicht vom Nutzer verlangen, alle Beweise selbst zu führen, sondern unterstützt dabei, Beweise auf einem hohen Abstraktionsgrad zu formulieren und zu beweisen. Ein kleines Beispiel für die Nutzung von Isabelle ist der humorvolle Versuch das allgemeine Dreieck zu definieren – und letzlich die eindeutige Existenz zu beweisen. Eine wichtige Anwendungen für Computerbeweise ist die formale Prüfung und der Beweis von Computersoftware, wie sie beispielsweise durch die Launchbury Semantik möglich wird. Sehr bekannt ist die Nutzung von rechnerunterstützten Beweisen für das Vier-Farben-Problem, das Hermann Minkowski in einer Topologie-Anfängervorlesung vergeblich versuchte nebenbei zu lösen. Der erste Beweis war noch sehr umstritten, da die Korrektheit der verwendeten Software nicht gesichert war. Erst mit einer formalen Prüfung in Coq wurde der Beweis 2005 allgemein akzeptiert. Eine andere gängige Methode ist auch die Verwendung spezialisierter Verifikationsnumerik, um die Existenz von Lösungen zu beweisen, wie dies auch im Modell019 Podcast zum computerunterstützten Beweisen behandelt wird. Auch die dichteste Kugelpackung, bzw. die Keplersche Vermutung, wurde erst 1998 mit Computerhilfe bewiesen, der zunächst ebenso umstritten war. Erst mit dem Projekt Flyspec konnte 2014 die Korrektheit des Beweises formal bewiesen werden. Im Hintergrund der Aufnahme hört man den Freifunk Karlsruhe, der parallel zu unserem Gespräch ein Treffen in den Räumen des Entropia e.V. hatte. Kinder und Jugendliche, die sich für Programmieren interessieren, sollten sich ein CoderDojo, wie das CoderDojo in Karlsruhe, genauer ansehen. Literatur und Zusatzinformationen Einführender Blog-Eintrag zur Incredible Proof Machine mit einer Sammlung von ähnlichen Projekten. J. Breitner: The Correctness of Launchbury's Natural Semantics for Lazy Evaluation, arXiv preprint arXiv:1405.3099, 2014. J. Breitner: The Safety of Call Arity, Archive of Formal Proofs, 2015. J. Breitner: Formally Proving a Compiler Transformation Safe, Haskell '15 Proceedings of the 2015 ACM SIGPLAN Symposium on Haskell, Pages 35-46, ACM New York, NY, USA, 2015. T. Nipkow, L. Paulson, M. Wenzel: Isabelle HOL- A Proof Assistant for Higher-Order Logic, Springer-Verlag, 2015. Podcasts T. Schwentick: Logik, Gespräch mit N. Ludewig im Omega Tau Podcast, Folge 101, Omega Tau, 2012. http://omegataupodcast.net/2012/08/101-logik/ D. Rütters: Computerunterstütztes Beweisen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 19, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/beweisen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Breitner: Papierrechner, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 47, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/papierrechner C. Spannagel: Flipped Classroom, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom F. Gilges: Spielcomputer, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 56, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/spielcomputer
Katharina Elsen ist für 6 Monate aus Bologna im Rahmen eines Forschungsaufenthalts nach Karlsruhe gekommen. In Ihrer Forschungsgruppe zur numerischen Geophysik sind Tsunamis im Mittelmeerraum, wie beispielsweise im Raum von Italien und der Türkei, das Hauptforschungsgebiet. Ein Auslöser für Tsunamis sind Erdbeben, aber auch Erdrutsche können der Grund für die großen Wasserwellen sein, die dann sogar eine globale Auswirkung haben können. Im Varjont-Tal kam es 1963 nach dem Aufstauen eines Stausees zu einem Landrutsch. Dieser führte zu einer Tsnuamiwelle im Stausee, die in ihrer Größe weit unterschätzt wurde, und zur schrecklichen Tragödie von Langarone führte. Solche Vorgänge können natürlich auch in Küstengebieten auftreten und die gegenüberliegenden Küsten gefährden. Im Gegensatz zu sehr plötzlichen seismischen Aktivitäten können Landrutsche weit langfristigere Vorgänge sein. Auch können die sich bewegenden Landmassen aus beweglichem Schlamm oder feinem Geröll bestehen oder aus eher festen Bestandteilen. Dies beeinflusst stark die möglichen Modelle, und Katharina Elsen beschreibt im Gespräch mit Gudrun Thäter ihre Modelle und Forschung zu Landrutschen von Bergabschnitten, die sich eher wie ein Festkörper als wie ein Fluid verhalten. Die Landmassen werden in einige Festkörper-Masseblöcke aufgeteilt, die jeweils Massenzentren bzw. Baryzentren besitzen und deren Berandung bekannt ist. Daraus wird die individuelle Bewegung der Blöcke modelliert, wie auch die gegenseitige Beeinflussung auf verschiedene Arten. Letztlich wird dann untersucht, wie die Blöcke letztlich durch Geschwindigkeit und Form auf das Wasser wirken, um bessere Aussagen über resultierende Wellenhöhe treffen zu können. Der erste Schritt zur Simulation ist die Zerlegung der gleitenden Oberflächen in Dreiecke, und dann wird die Bewegung der einzelnen Massepunkte für das vereinfachte Modell durch die klassische Newtonsche Mechanik zunächst exakt berechnet. Für die Beeinflussung der Massepunkte zueinander werden verschiedene approximierende Modelle erforscht, und Parameter entsprechend den Beobachtungen identifiziert. Die Ansätze und Modelle fließen in eine Software zur Erdrutschsimulation, die auch im Bereich der Reibungsmodelle überarbeitet wurde: Da auf triangulisierten Oberflächen alle Funktionen und Eigenschaften dort bisher nur in linearisierter Form auftreten, können höhere Ableitungen nur über erweiterte Modelle approximiert werden. Literatur und Zusatzinformationen F. Zaniboni, S. Tinti: Numerical simulations of the 1963 Vajont landslide, Italy: application of 1D Lagrangian modelling, Natural hazards 70.1: 567-592, 2014. S. Tinti, P. Gianluca, Z. Filippo: The landslides and tsunamis of the 30th of December 2002 in Stromboli analysed through numerical simulations, Bulletin of Volcanology 68.5, 462-479, 2006. S. Tinti: How can we defend ourselves from the hazard of Nature in the modern society?, GIFT 2013, Natural Hazards Geosciences Information for Teachers Workshop, Vienna, Austria, 2013. Podcast Modellansatz 012: Erdbeben und optimale Versuchsplanung Podcast Modellansatz 015: Lawinen und Muren
Mathematik, Informatik und Statistik - Open Access LMU - Teil 03/03
Wed, 1 Jan 2014 12:00:00 +0100 https://epub.ub.uni-muenchen.de/21450/1/BA_Stelz.pdf Stelz, Franz Xaver ddc:500, Ausgewählte Abschlussarbeiten, Statistik, Mathematik, Informatik und Statistik
Der Podcast hat die erste Veranstaltung (19. April 2012) der Vorlesung zum „Kapitalgesellschaftsrecht“ an der Ludwig-Maximilians-Universität München im Sommersemester 2012 zum Gegenstand. Zu Beginn der Veranstaltung werden eine Übersicht zu den nationalen Rechtsformen erstellt und Unterschiede zwischen Personengesellschaften einerseits und Kapitalgesellschaften als Körperschaften andererseits herausgearbeitet. Besonders betont wird dabei die Funktion der Kapitalgesellschaften als „Kapitalsammelstelle“. Im weiteren Verlauf behandelt der Podcast die Grundzüge der Gründung einer Kapitalgesellschaft, insbesondere den Inhalt des Gesellschaftsvertrags bzw. der Satzung, die Errichtung sog. Vorrats- und Mantelgesellschaften sowie das Stamm- bzw. Grundkapital und dessen Einteilung in Geschäfts Anteile bzw. dessen Zerlegung in Aktien.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07
Einige Stämme des Darmbakteriums Escherichia coli sind in der Lage Shiga- Toxine zu produzieren, die gastrointestinale Erkrankungen auslösen können. Wiederkäuer, vor allem Rinder, Schafe und Ziegen gelten als Hauptreservoir für STEC. STEC-Infektionen treten weltweit vor allem in Ländern mit hoch entwickelter Landwirtschaft auf. Als wichtigste Infektionsquelle gelten vor allem rohe oder nicht ausreichend erhitzte Lebensmittel tierischen Ursprungs wie unzureichend gegartes Rinderhackfleisch, Rohmilch und Rohmilchprodukte. Aber auch Rohwürste wurden bereits mit humanen Infektionen in Verbindung gebracht. Vorrangiges Ziel dieser Studie war es, mögliche STEC- Kontaminationsquellen in zwei Rohwurst- produzierenden Betrieben abzuklären. Begleitend wurden mikrobiologische Untersuchungen durchgeführt sowie die Wasseraktivität und der pH- Wert gemessen. Ein Betrieb umfasst Schlachtung, Zerlegung und Produktion sowohl in der konventionellen Herstellungsschiene wie auch in der Bio- Produktion. Der zweite untersuchte Betrieb ist ein reiner Biobetrieb. Insgesamt wurden 323 Proben aus Betrieb 1 untersucht. 206 Proben stammen aus der Bio-, 117 aus der konventionellen Produktion. Dabei wurden Rinder- Schlachttierkörper, Proben aus der Zerlegung sowie kurz- und langgereifte Rohwürste in unterschiedlichen Reifungsstadien ausgewählt. Für den STEC- Nachweis wurden sowohl die Lebensmittel und die nach der Schlachtung und Zerlegung entnommenen Tupferproben nach Anreicherung in modifizierter Tryptose- Soja- Bouillon (mTSB) auf das Vorhandensein des Shiga Toxin- Gens mittels PCR und anschließender Gelektrophorese gemäß der Amtlichen Sammlung nach §64 LFBG (L.07.18) untersucht. Der Nachweis von Enterobacteriaceae, E.coli, Milchsäurebakterien und Laktobazillen erfolgte in Anlehnung an die Amtliche Methode nach §64 LFBG. Der pH- Wert und die Wasseraktivität wurde gemäß der amtlichen Sammlung nach §64 LFBG ermittelt. Der Warnwert bezüglich Enterobacteriaceae nach DGHM wurde von 25,5% der untersuchten fertigen Würste überschritten. Konventionell hergestellte Produkte waren dabei mit 42,9% der fertigen Produkte über dem DGHM- Warnwert erheblich mehr belastet als Bio- Produkte (11,5%). Der DGHM- Warnwert bezüglich E. coli wurde von 6,4% der fertig gereiften Produkte überschritten. Säuernde Mikroorganismen waren in den untersuchten Produkten zu wenig vorhanden. In 8 der 323 untersuchten Proben wurde STEC nachgewiesen. Insgesamt 5 der 96 beprobten Schlachttierkörper (Rind) waren STEC- positiv: 4 Tiere aus der Bio-Produktion und 1 Tier aus der konventionellen Produktion. 3 von 62 untersuchten kurzgereiften Rohwürsten waren STEC- positiv: 1 aus der Bio- Produktion und zwei aus der konventionellen Produktion. Alle untersuchten Proben aus der Zerlegung und alle langgereiften Rohwürste reagierten STEC- negativ. Aus Betrieb 2 wurden 108 Proben untersucht. Hier wurde nur bei einem Endprodukt Enterobacteriaceae über dem DGHM- Warnwert festgestellt. In keinem Endprodukt fanden sich E. coli. In keiner Probe wurde STEC nachgewiesen.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 02/07
Um die Veränderung und Entwicklung der objektiven Rindfleischfarbe während der Lagerung zu untersuchen, wurden vakuumierte Fleischscheiben aus dem M. longissimus dorsi von 30 Rindern über 8 Wochen gelagert. In jeder Lagerwoche wurden die Farbwerte L*a*b* der bestehenden Fleischoberfläche und eines frischen Anschnittes mit dem Minolta Chroma-Meter CR-400 gemessen. Als weitere Qualitätsparameter wurden der mikrobiologische Status (Gesamtkeimzahl, Laktobazillen, Milchsäurebakterien), die sensorischen Eigenschaften und der pH-Wert bestimmt. Ziel der Untersuchungen war, Referenzwerte für die Entwicklung der Rindfleischfarbe L*a*b* während der Reifung und Lagerung zu erarbeiten. Weiterhin sollte in der vorliegenden Studie die Farbmessung an Praxis- und Routinebedingungen in der Fleischwirtschaft angepasst werden, um ihren Einsatz in der Praxis zu verstärken. Drittens dienten die Versuche dazu, Zusammenhänge und Einflussnahme zwischen der Fleischfarbe L*a*b* und anderen Qualitätsparametern von Rindfleisch aufzuzeigen. In Voruntersuchungen wurde die Fleischfarbe von 255 Roastbeefs (15 bis 20 h p. m.) unmittelbar nach der Zerlegung ermittelt. Bei einer verkürzten Farbaufhellung (10 min, + 12°C) unter Praxisbedingungen zeigte der M. longissimus dorsi folgende, durchschnittliche Farbwerte: L* 33,12; a* 18,45; b* 6,62. Die Farbmessung unmittelbar nach der Zerlegung, on-line, eignet sich für einen Vergleich der Fleischfarbe zwischen verschiedenen Teilstücken und Betrieben. In den Vorversuchen konnte zudem nachgewiesen werden, dass signifikante Unterschiede in der Farbe des Roastbeefs zwischen den einzelnen Schlachttierkörpern bestehen. Innerhalb des M. longissimus dorsi eines Tieres erwies sich die Farbverteilung in der vorliegenden Untersuchung jedoch als gleichmäßig. Eine Farbmessung kann damit an jeder Stelle des Roastbeefs vorgenommen werden und ist repräsentativ für den gesamten Muskel. Im Hauptversuch wurde die Fleischfarbe L*a*b* über einen achtwöchigen Untersuchungszeitraum sowohl an der bestehenden Fleischoberfläche als auch an einem frischen Anschnitt gemessen. Dabei zeigte sich, dass zwischen der Farbe von Oberfläche und Anschnitt des M. longissimus dorsi ein starker, statistisch gesicherter Zusammenhang besteht. Für die Farbmessung unter Laborbedingungen wird dennoch weiterhin die Messung an einem frischen Anschnitt nach einstündigem „blooming“ empfohlen. Mit vergleichbar hoher Sicherheit kann jedoch unter Praxisbedingungen im Betrieb die Fleischfarbe durch Messung an der bestehenden Fleischoberfläche bestimmt werden. Die Entwicklung der objektiven Rindfleischfarbe über einen Zeitraum von acht Wochen ist erstmals dokumentiert worden. Die gewonnenen Daten dienen als Richt- und Vergleichswerte für zukünftige Lagerversuche. Am Tag der Zerlegung (15 bis 20 h p. m.) zeigten sich für einen frischen Anschnitt folgende Farbwerte: L* 36,5, a* 21,6, b* 10,5. Die Farbwerte der bestehenden Fleischoberfläche lagen geringfügig höher: L* 37,2, a* 22,9, b* 11,1. In der dritten Lagerwoche, nach Abschluss der Rindfleischreifung, wurden für die Anschnittsfarbe folgende Werte gemessen: L* 39,5, a* 25,5, b* 13,3. Dieser Anstieg der Farbwerte während der Reifung ist auch für die Oberflächenfarbe (L* 40,3, a* 25,9, b* 13,5) festgestellt worden. Die Farbwerte L*a*b* zeigten ab der 4. bzw. 5. Lagerwoche einen nochmaligen Anstieg. In der fünften Lagerwoche lagen die Farbwerte von Anschnitt (L* 39,8, a* 25,7, b* 13,2) und Oberfläche (L* 40,4, a* 25,7, b* 13,2) sehr eng zusammen. Der Anstieg fällt mit dem Ende der Mindesthaltbarkeit (35 Tage) zusammen und deutet auf Veränderungen in der Güte der untersuchten Roastbeefs hin. In den eigenen Untersuchungen zeigte sich eine negative Korrelation der objektiven Fleischfarbe mit dem pH-Wert. Der pH-Wert beeinflusste die Ausprägung der Farbwerte L*a*b* massiv. Er wies ebenfalls einen starken Einfluss auf die sensorische Beurteilung der Fleischfarbe auf. Zur korrekten Beurteilung der gemessenen Farbwerte sowie der visuell ermittelten Farbe muss daher auch immer eine Bestimmung des pH-Wertes erfolgen. Die gemessenen Farbwerte L*a*b* des Roastbeefs wurden nur geringgradig durch den mikrobiologischen Status, vor allem durch die Anzahl der Laktobazillen, beeinflusst. Aus der objektiven Fleischfarbe kann demnach nicht auf die mikrobielle Belastung des Rindfleisches geschlossen werden. Zwischen der objektiven Farbe und den sensorischen Parametern bestanden hoch- bis höchstsignifikante Zusammenhänge. Die Unterschiede der Farbwerte L*a*b* zwischen einzelnen abstufenden Bewertungen der sensorischen Kriterien waren jedoch zu gering, um sichere Richtwerte für wünschenswerte Eigenschaften bzw. Verderbserscheinungen zu ermitteln. Anhand der gemessenen Farbwerte kann daher keine Aussage über die sensorische Beschaffenheit des Rindfleisches getroffen werden. In den vorliegenden Untersuchungen wurde zudem die Entwicklung des mikrobiologischen Status von vakuumiertem Rindfleisch über eine achtwöchige Lagerung nachvollzogen. Erstmals wurden die Gesamtkeimzahl sowie die Anzahl an Laktobazillen und Milchsäurebakterien kontinuierlich in ihrem Verlauf dokumentiert. Die ermittelten Keimzahlen dienen als Referenzwerte für die bakterielle Belastung von hygienisch gewonnenem Rindfleisch im Verlauf der Lagerung. Sie sollen fleischerzeugenden und -vermarktenden Betrieben Vergleichswerte für die Einschätzung des mikrobiologischen Status des eigenen Rindfleisches während der Lagerung an die Hand geben. Sensorische Abweichungen konnten in dieser Studie ab einem Oberflächenkeimgehalt von 106 KbE/cm2 festgestellt werden. Für rohes Rindfleisch wurde in der vorliegenden Arbeit eine beschreibende Sensorik, bei der Oberflächen- und Anschnittsfarbe, Geruch, Konsistenz, Fleischsaftmenge und -beschaffenheit sowie Textur beurteilt wurden, durchgeführt. Die Korrelationen zwischen den einzelnen sensorischen Parametern wurden für rohes Fleisch erstmals ermittelt. Weiterhin wurden die Korrelationen zwischen mikrobiologischen Kriterien und sensorischen Parametern errechnet. Der Zusammenhang zwischen mikrobiologischen und sensorischen Parametern war jedoch unpräzise, so dass zur Überprüfung von Mindesthaltbarkeit und Genusstauglichkeit von Rindfleisch immer sowohl mikrobiologische als auch sensorische Untersuchungen durchgeführt werden sollten. Auf Grundlage der vorliegenden Arbeit ergeben sich neue Anwendungsbereiche für die Farbmessung. Die erarbeiteten Referenzwerte für die Fleischfarbe L*a*b* können im Rahmen des Verbraucherschutzes zur Qualitätsprüfung an Rindfleisch eingesetzt werden. Aber auch die fleischerzeugenden und -vermarktenden Betriebe können aufgrund der erarbeiteten Referenzwerte für die Fleischfarbe in der Zerlegung sowie für die Entwicklung der Farbwerte während der Reifung und Lagerung die Farbmessung im Rahmen ihrer Qualitätssicherung und Eigenkontrollen einsetzen. Des Weiteren dienen die Untersuchungen über die Entwicklung des mikrobiologischen Status und über die sensorische Beurteilung von rohem Fleisch der Verbesserung der Qualitätsbeurteilung an Rindfleisch.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Ältere Menschen weisen eine hohe Inzidenz an osteoporotischen Wirbelkörperfrakturen auf. Diese betreffen überwiegend Frauen und finden sich vor allem im thorakolumbalen Bereich der Wirbelsäule. Sie führen zu einer stark herabgesetzten Lebensqualität der Patienten und zu enormen Kosten für das Gesundheitssystem. Das Frakturrisiko wird dabei unter anderem von der mechanischen Kompetenz des Wirbelkörpers bestimmt. Bislang ist jedoch unklar, welchen Beitrag verschiedene anatomische Strukturen der Wirbelkörper (trabekulärer Kern, (sub)kortikale Randzone, Endplatten) zur mechanischen Festigkeit leisten und welche Unterschiede dabei zwischen Frauen und Männern bestehen. Ziel der Studie war es die Heterogenität der mechanischen Festigkeit und der Knochendichte innerhalb der Wirbelsäule zu analysieren, den Beitrag des kortikalen bzw. trabekulären Kompartiments zur mechanischen Festigkeit zu bestimmen und dabei geschlechtsspezifische Differenzen der Versagenslasten, Versagensspannungen und Dichtemessungen zu ermitteln. Es wurden insgesamt 39 Wirbelsäulen (23 Frauen und 16 Männer im Alter von 79 ± 11 J.) von BWK 3 bis LWK 5 untersucht. Nach Kompartimenten getrennte Messungen der Dichte wurden auf 25, 50 und 75 % der Wirbelkörperhöhe mittels der pQCT durchgeführt. Anschließend erfolgte die Zerlegung jeder Wirbelsäule in 5 Einheiten zu je 3 Wirbeln, welche wiederum jeweils in vier Proben (planparallele Scheibe, funktionelles 3er-Segment, trabkulärer Kern und (sub)kortikaler Ring) unterteilt wurden. In axialer Kompression wurden an diesen Proben insgesamt 780 mechanische Tests durchgeführt. Es zeigten sich weder in Bezug auf das Versagen noch auf die Knochendichte signifikante Unterschiede zwischen Frauen und Männern. Die (sub)kortikalen Ringe wiesen in allen Regionen deutlich höhere Versagensspannungen auf als die trabekulären Kerne. Die Versagensspannungen der Ringe waren höher mit denjenigen der 3er-Segmente (r = 0,78) und der planparallelen Scheiben (r = 0,69) korreliert als die Versagensspannungen der Kerne (r = 0,62 und 0,57). Die Korrelationen der Versagensspannungen zwischen Wirbeln unterschiedlicher Regionen waren nur sehr moderat (r = 0,63 bis 0,71). Auch die Dichtewerte korrelierten zwischen den Wirbeln nur gering (Durchschnitt r = 0,76). Beide Parameter zeigten eine Abnahme der Korrelation mit zunehmender Distanz der Wirbelkörper voneinander. Die Messung der Gesamtdichte ermöglichte eine bessere Vorhersage der Versagensspannungen (r = 0,63) als die Messung der trabekulären oder (sub)kortikalen Dichte (r = 0,50 bzw. 0,35). Wir schließen aus den Befunden, dass sich die unterschiedlichen Frakturinzidenzen zwischen Frauen und Männern bei älteren Menschen nicht auf verschiedene Versagenslasten, -spannungen oder Knochendichtewerte zurückführen lassen. Außerdem ist nach unseren Ergebnissen davon auszugehen, dass sowohl das mechanische Versagen als auch die Dichte eine hohes Maß an Heterogenität innerhalb der Wirbelsäule aufweisen. Dies bedeutet, dass hohe Werte in einer Region nicht notwendigerweise mit hohen Werten in anderen Regionen assoziiert sind. Des Weiteren scheint die äußere (sub)kortikale Randzone bei älteren Menschen einen größeren Beitrag für die Aufrechterhaltung der mechanischen Integrität der Wirbelkörper zu leisten als der trabekuläre Kern. Die Korrelation der Dichte mit den Versagensspannungen zeigt, dass zur Vorhersage der mechanischen Kompetenz sich klinisch die Messung der Gesamtknochendichte empfiehlt.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Thema der vorliegenden Arbeit ist die Beschreibung von Ladungstransporteigenschaften molekularer Systeme, wenn diese das Verbindungsstück zweier Elektroden bilden. Einen technologischen Meilenstein setzte auf diesem Gebiet die Rastertunnelmikroskopie, welche ursprünglich für die Abbildung von Oberflächen mit atomarer Auflösung entwickelt wurde (Binnig et al., 1981). Heute ermöglicht sie die gezielte Untersuchung von Transporteigenschaften einzelner, auf Oberflächen adsorbierter Moleküle. Parallel dazu hat der immense Fortschritt in der Miniaturisierung klassischer elektronischer Bauteile in jüngster Zeit ermöglicht, Zuleitungsstrukturen auf der Nanometerskala zu bauen, und diese mit einzelnen oder wenigen Molekülen zu überbrücken (Reed et al., 1997). Es besteht die Hoffnung, mit solchen Systemen Schaltungselemente zu realisieren, die heutigen elektronischen Bauteilen in Hinblick auf ihre Effizienz und den Grad ihrer Miniaturisierung deutlich überlegen sind. Experimente mit diesen molekularelektronischen Apparaten werfen die Frage auf, wie sich die chemische Natur eines Moleküls sowie seine Kopplung an die Oberfläche der Elektroden auf die Leitungseigenschaften auswirkt. Eine theoretische Beantwortung dieser Frage erzwingt eine quantenmechanische Beschreibung des Systems. Ein genaues Verständnis dieser Zusammenhänge würde ein gezieltes Entwerfen molekuarelektronischer Bauteile ermöglichen. Trotz bedeutender experimenteller wie theoretischer Fortschritte besteht zwischen den Ergebnissen bisher allerdings nur beschränkt Übereinstimmung. Diese Arbeit beginnt mit einem Überblick über die gängigen Methoden zur theoretischen Beschreibung von Ladungstransport durch molekulare Systeme und charakterisiert sie hinsichtlich der ihnen zugrundeliegenden Annahmen und Näherungen. Dabei findet eine Unterteilung in störungstheoretische sowie streutheoretische Verfahren statt. Anschließend werden Methoden der Quantenchemie behandelt, da diese in nahezu allen Ansätzen zur Beschreibung von elektronischem Transport durch molekulare Systeme Anwendung finden. Wir liefern eine Zusammenstellung der wichtigsten unter den auf diesem Gebiet in immenser Anzahl entwickelten Methoden und der ihnen zugrundeliegenden Näherungen. Auf diese allgemeinen Darstellungen folgt eine detaillierte Beschreibung des numerischen Verfahrens, das im Rahmen dieser Dissertation zur Berechnung von Stromtransport durch Molekülstrukturen implementiert worden ist. Mit der vorliegenden Arbeit wird eine Verallgemeinerung eingeführt, die eine vormalige Einschränkung der ursprünglichen Methode bezüglich der betrachtbaren Systeme beseitigt. Diese so erhaltene Methode wird dann verwendet, um der durch Experimente von Dupraz et al. (2003) aufgekommenen Frage nachzugehen, welchen Einfluß die verschiedenen geometrischen Anordnungen einer Gruppe von identischen Molekülen auf die Leitfähigkeitseigenschaften eines molekularelektronischen Apparats ausüben. Unsere Untersuchungen zeigen, daß sich die Transporteigenschaften nur bei Bildung von Molekülgruppierungen mit bedeutender intermolekularer Wechselwirkung wesentlich von denen einzelner Moleküle unterscheiden. Damit lassen sich Konsequenzen aus der Stabilität von Molekül-Elektroden Verbindungen für die Reproduzierbarkeit von gewonnenen Meßdaten ableiten. Abschließend befassen wir uns mit der Berechnung von Rastertunnelmikroskop-Bildern. Dabei geben wir zuerst einen Überblick über bisherige Anwendungen von Modellrechnungen zur Erklärung experimenteller Daten. Dann präsentieren wir eigene Berechnungen, die im Rahmen einer Kooperation mit Constable et al. (2004) dazu beitragen sollen, durch Vergleich mit deren experimentellen Bildern verschiedene Konformationen eines auf Graphit adsorbierten Moleküls identifizieren zu können. Die enorme Größe des Moleküls führt zu Gesamtsystemgrößen, die eine numerische Durchführung in der Praxis bisher scheitern ließen. Durch eine neuartige Zerlegung des Eigenwertproblems, das die praktische Durchführung der von uns verwendeten Methode bisher verhinderte, sind wir in der Lage, erstmalig Berechnungen für weitaus größere als die bisher betrachtbaren Systeme durchzuführen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Aufgrund der in der Quantenfeldtheorie auftretenden Singularitäten und der Inkonsistenzen beim Versuch einer Quantisierung der Gravitation wird oft angenommen, dass die glatte kommutative Raumzeit-Struktur bei sehr kleinen Abständen, und entsprechend sehr hohen Energien, nichtkommutativ wird. In dieser Arbeit werden solche nichtkommutativen Strukturen untersucht. Explizit werden sie durch eine Algebra von nichtkommutierenden Koordinaten beschrieben, welche die Funktionenalgebra eines kommutativen Raums ersetzt. Eine besondere Rolle spielen so genannte q-deformierte Quantenräume, da bei diesen nicht nur der Raum selbst nichtkommutativ wird, sondern die Symmetriegruppe des Raumes ebenfalls abgeändert wird. Auf diese Weise erhält man Quantengruppen. Im ersten Teil der Arbeit wird als spezielles Beispiel der q-deformierte dreidimensionale euklidische Raum studiert. Um die Darstellungen in einfacher Weise zu gewinnen, wird die den Raum definierende Algebra im Produkt zweier miteinander kommutierender Algebren realisiert. Weiter wird mit Hilfe dieser Zerlegung die nichtkommutative Algebra in die Algebra der Dierenzialoperatoren auf dem kommutativen R3 eingebettet. Die Koordinatenalgebra wird dann noch um Impulsoperatoren erweitert, womit man eine q-deformierte Heisenbergalgebra erhält. Es werden Darstellungen dieser Algebra betrachtet; insbesondere wird sie auf der Koordinatenalgebra selbst realisiert, dies entspricht der Ortsdarstellung in der gewöhnlichen Quantenmechanik. Eichtheorien bilden eine Möglichkeit, konkrete physikalische Modelle zu erhalten. Der zweite Teil der Arbeit beschäftigt sich daher mit dem Versuch, Eichtheorien auf nichtkommutativen Räumen zu formulieren. Dazu wird zunächst das Konzept kovarianter Koordinaten und kovarianter Ableitungen eingeführt. Mit diesen können Tensoren konstruiert werden, die der Feldstärke in gewöhnlichen Eichtheorien entsprechen. Mit Hilfe dieser Tensoren erhält man eine Wirkung, welche eine Beschreibung der Dynamik der Eichfelder ermöglicht. Es stellt sich heraus, dass es möglich ist, Eichtheorien auf nichtkommutativen Räumen mit Eichtheorien auf kommutativen Räumen in Verbindung zu bringen (Seiberg-Witten-Abbildung). Dies wird insbesondere unter dem Gesichtspunkt vorgestellt, dass es damit möglich ist, einhüllenwertige Eichtheorien mit endlich vielen Eichfeldkomponenten und Eichparametern zu beschreiben. Zur Konstruktion dieser Abbildung wird das Sternprodukt von Funktionen kommutierender Variabler benutzt. Es wird daher eine kurze Einführung in den Sternformalismus gegeben, und es werden auch einige nichtkommutative Strukturen als Beispiele behandelt.
Um die Anordnung von Chromosomen in Zellkernen der Interphase zu untersuchen, wurde ein Verfahren aus der Computergeometrie adaptiert. Dieser Ansatz basiert auf der Zerlegung von dreidimensionalen Bildvolumen mithilfe des Voronoi-Diagramms in konvexe Polyeder. Die graphenorientierte, geometrische Struktur dieses Verfahrens ermöglicht sowohl eine schnelle Extraktion von Objekten im Bildraum als auch die Berechnung morphologischer Parameter wie Volumina, Oberflächen und Rundheitsfaktoren. In diesem Beitrag wird exemplarisch die dreidimensionale Morphologie von XChromosomen in weiblichen Interphasezellkernen mithilfe dieser drei Parameter untersucht. Um diese Zellkerne mit lichtoptischen Methoden zu untersuchen, wurden die Territorien der X-Chromosomen mit einem molekularcytogenetischen Verfahren fluoreszierend dargestellt. Zur Unterscheidung des aktiven und inaktiven X-Chromosoms wurde das Barr-Körperchen zusätzlich markiert und mithilfe eines Epifluoreszenzmikroskops, ausgerüstet mit einer CCD-Kamera, aufgenommen. Anschließend wurden 1 2 - 2 5 äquidistante, lichtoptische Schnitte der X-Chromosomenterritorien mit einem konfokalen Laser Scanning Mikroskop (CLSM) aufgenommen. Diese lichtoptischen Schnitte wurden mithilfe des Voronoi-Verfahrens segmentiert und analysiert. Methoden aus der Computergraphik wurden zur Visualisierung der Ergebnisse eingesetzt. Es konnte gezeigt werden, daß mithilfe des Voronoi-Verfahrens Chromosomen- Territorien anhand der morphologischen Parameter zuverlässig beschrieben werden können.
The paper discusses a new seasonality hypothesis which is one part of a weighted regression approach for the decomposition of a time series into a trend, a seasonal component and an irregular component. It is shown that there exists a regression formulation leading, as in the descriptive approach in Schlicht (1981), to a unique decomposition withouit having recourse to initial values. It turns out that both solutions to the descriptive regression are conditional expected values in the stochastic specification. The decomposition as well as predciction are illustrated by examples