POPULARITY
Diese Folge entstand im Rahmen eines Projekts zur Modellbildungsvorlesung von Gudrun. Es ist eine Arbeit von Yannik Brenner, Bastian Hasenclever und Urs Malottke, die das Ziel haben, in einigen Jahren Mathematik und Physik am Gymnasium zu unterrichten. Außerdem macht Yannik selbst Musik und hat sich deshalb ganz praktisch mit Schwingungen an der Gitarre beschäftigt. Die drei hatten die Idee, dass man das Thema Schwingunge interessant für die Schule aufbereiten kann, wenn es dazu auch Hörbeispiele gibt. Deshalb haben Sie sich an einen Tisch gesetzt, das Gespräch und die Hörbeispiele aufgenommen und schließlich den Text dazu aufgeschrieben. Der harmonische Oszillator spielt eine wichtige Rolle zur Modellierung verschiedenster physikalischer Sachverhalte. Daher bietet es sich an, ihn schon in der Schule zu thematisieren, wo er auch in der Oberstufe im Bildungsplan zu finden ist. Während im Podcast der Versuch unternommen wurde, ein Grundverständnis für das Thema ohne formale Zusammenhänge zu entwickeln, sollen hier zusätzlich die mathematischen Hintergründe gemeinsam mit einigen Abbildungen ergänzt werden. Die didaktischen Aspekte, die in der Episode zur Sprache kommen, spielen im folgenden Text jedoch nur eine untergeordnete Rolle. Grundlegendes Ein Oszillator ist ein System, das um einen bestimmten Punkt, in der Regel Ruhepunkt oder auch die Ruhelage genannt, schwingen kann. Befindet sich das System in Ruhe in dieser Ruhelage, passiert ohne die Einwirkung äußerer Kräfte nichts; wird das System von diesem Punkt ausgelenkt, wird es durch eine rückstellende Kraft wieder Richtung Ruhepunkt beschleunigt. Der Zusatz "harmonisch" bedeutet, dass die Rückstellkraft linear von der Auslenkung zum Ruhepunkt abhängt, also proportional zur Auslenkung zunimmt. Der Graph der Bewegungsfunktion ist eine Sinus- oder Cosinus-Kurve. Die einfachsten und wohl auch bekanntesten Beispiele eines Oszillators im Bereich der Mechanik sind das Faden- und das Federpendel. Beim Fadenpendel ist der niedrigste Punkt die Ruhelage und die Rückstellkraft resultiert aus der Gravitationskraft. Beim Federpendel stellt die Federkraft die rückstellende Kraft dar. Eigenschaften eines harmonischen Oszillators Ein schwingfähiges System besitzt verschiedene Eigenschaften, mit deren Hilfe das gesamte System beschrieben werden kann. Um den harmonischen Oszillator zu verstehen, kann man sich zuerst die Bewegungsgleichung ansehen, also die Gleichung, die die aktuelle Lage des Systems beschreibt. Ausgangspunkt ist die Rückstellkraft, die im mechanischen Fall linear von der Auslenkung zur Ruhelage, also dem aktuellen Ort, abhängt (auf nicht-mechanische Einsatzgebiete wird später eingegangen). Die Rückstellkraft kann mit einer Variablen , die von verschiedenen Merkmalen des Systems abhängt, gemeinsam mit dem Ort also als dargestellt werden. Die Kraft kann auch als Beschleunigung , also der zweifachen Ableitung des Ortes, mal der Masse ausgedrückt werden, wodurch die Formel auch folgendermaßen aussehen kann: Diese Art von Formeln, in der eine Größe gemeinsam mit einer ihrer Ableitungen auftritt, wird Differentialgleichung genannt. Das Erarbeiten einer Lösung ist leichter, wenn durch die Gleichung vereinfacht wird. wird die Eigenfrequenz des Systems genannt und gibt außerdem an, wie viele Schwingungen das System in einer bestimmten Zeit, oftmals einer Sekunde, macht, wenn keine anderen Kräfte vorliegen. Somit ergibt sich Die Lösung der Funktion für den Ort muss eine Funktion sein, die nach zweimaligem Ableiten bis auf einen Vorfaktor und das Vorzeichen wieder die Ursprungsfunktion ist. Deshalb sind Sinus- und Cosinus-Funktionen, oder die äquivalente Darstellung durch die e-Funktion (siehe Eulersche Formel), Lösungen. Werden nun gewählt, wobei und die Amplituden, also maximalen Auslenkungen der Schwingungen darstellen, kann mit den Ableitungsregeln überprüft werden, dass dies Lösungen für die Bewegungsgleichung sind. Als Summe zweier Lösungen ist auch Eine Lösung, die die allgemeine Lösung genannt wird. Die beiden Amplituden der einzelnen Sinus-/Kosinus-Funktion müssen dabei aus Anfangsbedingungen bestimmt werden. Man sieht, dass die Amplitude der beobachtbaren Schwingung sein muss, also der maximalen Auslenkung, die beim Zeitpunkt vorliegt, da die Gesamtschwingung zum Zeitpunkt diese Auslenkung annehmen muss und zu diesem Zeitpunkt der Sinus verschwindet: Die Amplitude der Sinus-Funktion bestimmt sich nach und spielt daher dann eine Rolle, wenn zum Zeitpunkt bereits eine Geschwindigkeit vorliegt, das System also nicht aus der Ruhe losgelassen, sondern angestoßen wird. Zu besprechen ist allerdings noch, wie die Gleichung bei einem anderen Pendel als dem Federpendel aussieht. Das Prinzip des Oszillators bleibt gleich und somit natürlich auch die Mathematik, die ihn beschreibt. Allerdings setzt sich bei anderen Pendeln anders zusammen, da bei ihnen andere Rückstellkräfte und andere Systemeigenschaften eine Rolle spielen und nicht die Federkonstante und Masse wie beim Federpendel. So gilt beim Fadenpendel wobei die klassische Gravitationskonstante ist, die beim Fadenpendel eine große Rolle für die Rückstellkraft einnimmt, und die Fadenlänge darstellt. Werden Oszillatoren außerhalb der Mechanik betrachtet, beispielsweise der elektrische Schwingkreis, ergibt sich aus den Eigenschaften, die dieses System beschreiben. Beim elektrischen Schwingkreis z.B. aus der Induktivität der Spule und der Kapazität des Kondensators: Um die Sinus-förmige Schwingung eines Oszillators zu beschreiben, werden noch weitere Begriffe verwendet, die jedoch aus den bisher vorgestellten Eigenschaften bestimmt werden können. So wird unter der Schwingungs- oder Periodendauer die Zeit verstanden, die das System für eine vollständige Schwingung benötigt. Da sie als Informationen die Anzahl an Schwingungen und eine Zeit enthält, muss sie eng mit der Eigenfrequenz zusammenhängen: Überblick über die wichtigsten Begriffe zur Beschreibung einer Schwingung (Quelle: leifiphysik.de) Ungedämpfter harmonischer Oszillator Immer dann, wenn ein schwingfähiges System mit der obigen Gleichung beschrieben werden kann, handelt es sich um einen ungedämpften harmonischen Oszillator. Denn an der Gleichung wird klar, dass die Amplitude, also die maximale Auslenkung, auch bei der 20ten, 100ten, 10.000ten Schwingung wieder erreicht wird. Da sich die Systemeigenschaften ohne äußere Einflüsse ebenfalls nicht ändern, ändert sich das Verhalten dieses Oszillators nie und er schwingt stets gleich um die Ruhelage. Nach der mathematischen Herleitung ist schon fast alles zum ungedämpften harmonischen Oszillator gesagt, denn: Reale Beispiele und Anwendungen gibt es nicht! In der Realität gibt es immer einen Widerstand, der den Oszillator ausbremst und die Auslenkung langsam kleiner werden lässt. Aus diesem Grund ist der ungedämpfte Oszillator nur zum Kennenlernen und Verstehen des Verhaltens sowie als Näherungslösung geeignet. Gedämpfter harmonischer Oszillator Beim gedämpften harmonischen Oszillator existiert eine bremsende Kraft. Das ändert die mathematische Beschreibung in der Differentialgleichung. Die Bewegungsgleichung des Federpendels (und äquivalent die Gleichungen anderer Oszillatoren) wird um einen Term ergänzt, der im einfachen Fall der Reibung in der Luft, also einem Reibungskoeffizienten und proportional zur Geschwindigkeit ist: Oft wird zu zusammengefasst, um das rechnen zu vereinfachen. Die zu lösende Differentialgleichung wird auf die gleiche Art gelöst, wird aber natürlich komplizierter. Als Lösungsansätze empfehlen sich wieder Sinus-, Cosinus- oder e-Funktion. Mit dem Ansatz ergeben sich Lösungen, wenn die folgende Gleichung erfüllt: Je nachdem, wie das Verhältnis von Dämpfung und Eigenfrequenz sind, werden verschiedene Fälle unterschieden: Schwach gedämpfter Fall Der schwach gedämpfte Fall tritt auf, wenn gilt. Somit ist die Zahl unter der Wurzel bei der Berechnung von negativ und die Wurzel selbst imaginär. Mit der verkürzten Schreibweise ergibt sich die allgemeine Lösung zu was im Vergleich mit der ungedämpften Schwingung eine Schwingung mit kleinerer Frequenz (da ) und einer mit der Zeit exponentiell abnehmenden Amplitude darstellt. Eine andere Darstellungsweise ist folgende: Hier ist die exponentielle Abnahme der Amplitude besser ersichtlich, allerdings ist dazu das Verständnis des Zusammenfassens zweier auftretender periodischer Funktionen mittels Phasenverschiebung nötig. Die Schwingung schwingt in diesem Fall weiterhin um die Ruhelage, allerdings wird, wie bereits gesagt, die maximale Auslenkung mit jeder Schwingung geringer. Die Einhüllende zu einer gedämpften Schwingung (Quelle: Wikipedia/Harmonischer-Oszillator) Aperiodischer Grenzfall In Anwendungen ist es oft gewollt, eine Schwingung schnellstmöglich zu stoppen und zur Ruhelage zurückzukehren. Wenn eine Dämpfung keine komplette Fixierung in einem Zustand beinhaltet, ist eine überstarke Dämpfung dabei aber nicht zielführend, wie intuitiv oft angenommen wird. Um die Schwingung schnellstmöglich zu stoppen, ist die Bedingung nötig. Somit verschwindet in der Berechnung von die Wurzel und es bleibt nur eine Lösung übrig, was für die Schwingung zu führt, wobei und aus den Anfangsbedingungen, also Auslenkung und Startgeschwindigkeit, bestimmt werden. Beim aperiodischen Grenzfall, manchmal auch mit kritischer Dämpfung bezeichnet, findet keine Schwingung mehr statt. Je nach Anfangsbedingungen kann die Ruhelage einmal durchlaufen werden, spätestens dann wird sich dieser allerdings exponentiell angenährt. Darstellung des aperiodischen Grenzfalls mit unterschiedlichen Startgeschwindigkeiten (Quelle: https://de.wikipedia.org/wiki/Aperiodischer_Grenzfall) Starke Dämpfung Zwar führt eine starke Dämpfung auch dazu, dass keine Schwingung stattfindet, allerdings braucht das System lange, um wieder in die Ruhelage zurückzukehren. Deshalb wird dieser Fall auch als Kriechfall bezeichnet. Mathematisch wird er mit der Bedingung beschrieben, was zu zwei reellen, negativen Ergebnissen für führt. Die Bewegungsgleichung ergibt damit vereinfacht wobei und wieder aus den Anfangsbedingungen bestimmt werden. Vergleich des Kriechfalls mit dem aperiodischen Grenzfall Um zu zeigen, dass die vorgestellten Fälle alle von Nutzen sind, werden nun einige Anwendungsbeispiele vorgestellt. So ist der Fall der schwachen Dämpfung für Saiteninstrumente wichtig, da die einzelnen Saiten sich nicht sofort wieder in die Ruhelage begeben dürfen, sondern schwingen müssen, um überhaupt einen Ton erzeugen zu können. Der aperiodische Grenzfall ist beispielsweise für Autofahrer sehr wichtig, da die Stoßdämpfer nach diesem Prinzip funktionieren. Das hat den einfachen Grund, dass das Auto nach der Beanspruchung der Stoßdämpfer schnell wieder in die ideale Straßenlage kommen soll. Würde eine schwache Dämpfung verwendet werden, so würde das Auto noch für längere Zeit auf und ab wippen und die Fahrt eher einer Bootstour ähneln, was wenig komfortabel ist. Bei starker Dämpfung könnte es vorkommen, dass die nächste Beanspruchung nicht ausreichend abgefedert werden kann, da die Feder noch zu stark eingefedert ist. Aber auch die starke Dämpfung hat ihre Anwendungsgebiete. So sind beispielsweise viele Türen in öffentlichen Gebäuden stark gedämpft. Das sorgt für ein langsames und leises Schließen der Türen und verhindert, dass die Tür einer unaufmerksamen Person mit zu viel Geschwindigkeit entgegenfällt und diese eventuell verletzt. Getriebener Oszillator Bisher wurde der Oszillator ohne äußere Kräfte betrachtet. Liegt solch eine Kraft vor, muss diese in die Bewegungsgleichung integriert werden: Interessant ist dieser Fall besonders dann, wenn es sich bei der Kraft um eine periodische Kraft handelt, also . Dieser Fall ist sehr gut mit einem schaukelndem Kind zu vergleichen, welches immer zum gleichen Zeitpunkt mit der gleichen Kraft angeschubst wird. Durch diese von außen aufgebrachte Kraft wird aus der homogenen eine inhomogene Differentialgleichung. Um diese zu lösen muss die Lösung der homogenen Differentialgleichung, welche in dem Abschnitt zu dem gedämpften harmonische Oszillator zu finden ist, mit der sogenannten partikulären Lösung addiert werden. Die partikuläre Lösung lässt sich mit dem Ansatz des Typs der rechten Seite lösen und ergibt sich zu dabei handelt es sich bei um eine Phasenverschiebung zwischen der antreibenden Kraft und dem um den Ruhepunkt schwingenden Massepunkt. Von besonderem Interesse ist dabei das Verhalten des gesamten Systems für verschiedene Frequenzen der treibenden Kraft. Dabei werden drei verschiedene Fälle betrachtet. Niederfrequenter Bereich: Für den niederfrequenten Bereich gilt, dass die Frequenz der antreibenden Kraft sehr viel kleiner ist als die Eigenfrequenz des Oszillators. Aufgrund dessen ist die Amplitude der anregenden Kraft in etwa so groß wie die Amplitude des Massepunktes. Das Amplitudenverhältnis beträgt also ungefähr 1. Der Phasenunterschied zwischen den beiden Schwingungen ist in etwa 0. Resonanzfall: Von Resonanz wird gesprochen, wenn die Frequenz der antreibenden Kraft der Eigenfrequenz des Oszillators gleicht. Infolgedessen erhöht sich die Amplitude des Oszillators gegenüber der Amplitude des Erregers, sodass sich ein Amplitudenverhätnis ergibt, welches größer 1 ist. Die Phasendifferenz beträgt , wobei der Erreger dem Massepunkt vorauseilt. Hochfrequenter Bereich: Sollte die Frequenz der antreibenden Kraft viel größer sein als die Eigenfrequenz des Oszillators so fällt auch die Amplitude des Oszillators wesentlich kleiner aus. Es ergibt sich ein Amplitudenverhätnis, welches gegen 0 geht. Auch in diesem Fall gibt es eine Phasendifferenz , die Schwingungen laufen also fast gegenphasig ab. Auch diese Eigenschaften der Oszillatoren sind im Alltag von Bedeutung. So ist es für Autos wichtig, dass die Eigenfrequenz einzelner Teilsysteme oder des Gesamtsystems nicht im Bereich der Motorendrehzahl liegen um eine komfortable und sichere Fahrt zu gewährleisten. Insbesondere der Resonanzfall kann gefährliche Auswirkungen haben, da in diesem Fall das System immer weiter aufgeschaukelt wird und die Amplitude des Oszillators sich immer weiter erhöht. Falls das System nicht gedämpft ist, kann die Amplitude bis ins Unedliche steigen, was zur Zerstörung des Systems führt. Eine starke Dämpfung kann die maximale Amplitude zwar begrenzen, aber auch in diesem Fall komm es für den Resonanzfall zu einer starken Belastung des Systems, was in den meisten Fällen vermieden werden sollte. Ein gutes Beispiel für eine Resonanzkatastrophe ist die Tacoma Narrows Bridge, welche durch starke Winde in Schwingung versetzt wurde, welche sich dann selbsterregt immer weiter verstärkte, was den Einbruch der Brücke zur Folge hatte. Demgegenüber bleibt aber zu sagen, dass ohne Resonanz auch viele alltägliche Dinge nicht möglich wären, es also auch einen positiven Aspekt gibt. So würde Schaukeln nicht halb so viel Spaß machen, wenn es nicht möglich wäre seine eigene Schwingung zu verstärken und somit immer höher Schaukeln zu können. Ein weiteres typisches Beispiel für den getriebenen harmonischen Oszillator stellt der elektrische Schwingkreis da, der bei der drahtlosen Energieübertragung genutzt wird. Das System wird dabei ständig neu mit Energie aufgeladen, die es dann mittels sogenannter resonant induktiver Kopplung an einen Empfänger weitergeben kann, der so kabellos geladen wird. Weiterführendes Viele weiterführende Beispiele, die sich des Oszillators mit schwacher Dämpfung bedienen, sind in der Akustik respektive Musik zu finden, wie die Schwingung einer (Gitarren-)Seite, die nach einmaligem Anschlag möglichst lange klingen soll. Doch hier handelt es sich nicht um einen einfachen harmonischen Oszillator, sondern um ein komplexeres System. Literatur und weiterführende Informationen Viele Experimente und Material zum Fadenpendel für die Schule findet man z.B. auf leifiphysik.de Physik des Aufschaukelns Anschubsen K. Magnus: Schwingungen, Teubner 1976. Juan R. Sanmartin: O Botafumeiro: Parametric pumping in the Middle Ages Anwendung auf das Schwenken des berühmten Weihrauchfasses in der Kathedrale von Santiago de Compostela, 1984. Podcasts Helen: Schaukeln, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 114, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Arne Rick und sie unterhielten sich über die DIN-Norm 4149 zu Erdbebensicherem Bauen. Die DIN4149 legt fest, nach welchen Auslegungszahlen man planen, und welchen Verfahren man Gebäude bauen darf, um sie "erdbebensicher" gemäß der Norm nennen zu dürfen. Erdbeben sind in Deutschland allgemein nicht sehr häufig, aber es gibt Gebiete in denen ein deutlich höheres Erbebenrisiko besteht, wie beispielsweise in Aachen und dem Erdbebengebiet Kölner Bucht (aktuelle Erdbeben) in der Erdbebenzone 3. Mit der Erdbebenzone 1 für Karlsruhe sind wir auch in einem gefährdeten Bereich (Erdbeben in Karlsruhe), wenn auch nicht im gleichen Maße. Südlich von Tübingen gibt es eine weitere Erbebenzone 3 (aktuelle Erdbeben). Erdbebenzonen in Deutschland. CC-BY 2.0 Störfix In der Auslegung werden Erdbeben als ein Katastrophen-Lastfall angenommen, und die Bemessung richtet sich auf die schwersten Erdbeben, die statistisch alle 475 Jahre auftreten können. Die ehemalige Munitionsfabrik, die nun u.a. das ZKM, die HfG und gerade die GPN18 beinhaltet, steht schon seit über 100 Jahren, und wird auch noch länger stehen, so ist dies eine für Gebäude realistische Zeitskala. In der Auslegung spielt das Gewicht der Gebäude eine große Rolle, denn die zu verarbeitende Kraft bestimmt sich nach Newton aus der Masse und Beschleunigung. In Karlsruhe muss mit einer Spitzenbodenbeschleunigung von bis zu 0.4g bzw. 3.9m/s^2 rechnen. Wie unterschiedlich dabei die Bewegung ausfallen kann, ist an verschiedenen Seismogrammen ersichtlich, die den Verlauf des Bebens mit einem Stift auf einem durchlaufenden Blatt darstellen. Die Modellierung von Erdbeben beginnt mit dem Erdbebenherd, über dem sich auf der Erdoberfläche das Epizentrum befindet. Idealisiert bewegen sich seismische Wellen vom Epizentrum aus als Raumwellen kugelförmig aus, zusätzlich gibt es aber auch Oberflächenwellen wie Rayleigh- oder Love-Wellen, die sich idealisiert kreisförmig um das Epizentrum ausbreiten. Da die horizontale Beschleunigung die stärkste Wirkung auf Gebäude hat, vereinfacht die Norm den Einfluss von Erdbeben auf Horizontalbeschleunigungen und Bodeneinflüsse. Während Erdbeben für Gebäude ein Problem darstellen können, so sind sie für die Seismische Tomographie die Informationsquelle, um Einblicke in die Erde zu erhalten. Mit optimaler Versuchsplanung kann man dafür auch die Aufstellorte optimieren, um ein möglichst optimales Bild zu erhalten, wie wir aus Modell012: Erdbeben und Optimale Versuchsplanung schon wissen. Natürlich müssen alle relevanten Lastfälle berücksichtigt werden, so kann in Karlsruhe die Windlast sich als Flächenlast teilweise stärker als der Lastfall durch Erdbeben auswirken. Das Haus wird dabei oft als Einmassenschwinger gesehen, bei aufwendigeren Geometrien aber auch als Mehrmassenschwinger, und die unterschiedlichen Belastungen in der maximalen Auslenkung in maximale statische horizontale Ersatzkräfte umgerechnet und damit vergleichbar gemacht. Ein wichtiger Startpunkt ist die Auswahl der Bemessungssituation und das Semiprobabilistische Teilsicherheitssystem, als Weiterentwicklung des Sicherheitsfaktors, bzw. der Aufteilung in verschiedene Eurocodes, die auch noch eine national unterschiedliche Behandlung ermöglichen. Bei der Lastbestimmung berücksichtigt man ständige Lasten, eine hauptsächliche nicht-ständige Last, die Haupteinwirkung, und weitere nicht-ständige Lasten, die aber durch einen probabilistischen Faktor abgemindert werden, da nicht alle nicht-ständige Lasten gleichzeitig auftreten. Aus der Festigkeit des Baumaterials wird nun die maximale Spannung berechnet, die es aufnehmen kann, und diese muss den Einwirkungen bestehen können. Eigentlich ist die DIN4149 durch den deutlich umfangreicheren Eurocode 8 abgelöst, doch ist aktuell noch die DIN4149 anzuwenden, da der Eurocode 8 zum Zeitpunkt der Aufnahme noch nicht in die technischen Baubestimmungen aufgenommen wurden. Eine Besonderheit der Bemessungssituation für erdbebensicheres Bauen ist, dass hier ein Katastrophenlastfall angenommen wird, und es daher keine allgemeinen Sicherheitsfaktoren mehr gibt. Es geht dabei nicht um den Erhalt des Gebäudes, sondern nur um die Möglichkeit Menschenleben schützen zu können. Ein Bedeutungsbeiwert beschreibt die Bedeutung des Gebäudes für Katastrophenfälle, beispielsweise haben hier landwirtschaftliche Gebäude einen Wert von 0,8 während Krankenhäuser den Wert 1,4 haben. Weiterhin wird die Nutzung durch einen Nutzungsbeiwert beschrieben, die die Belastung des Gebäudes durch die Nutzung beschreiben- diese können ständig, wie im Fall von Bibliotheken sein, oder sich häufig ändernd, wie durch Menschen, die das Gebäude besuchen. Aus dem anzusetzenden Gewicht und der Beschleunigung durch die Erdmase kann man mit dem Modell des Einmassenschwingers die modellierte Schwingung des Gebäudes simulieren. Aus dieser Simulation erhält man das Antwortspektrum des Gebäudes für unterschiedliche Erdbeben. Bildet man hier die einhüllende Kurve bzw. Hüllkurve, die in der Synthesizer-Musik auch über das ADSR-Modell beschrieben werden kann. Die Nachschwingzeiten von sehr hohen Gebäuden können so lange sein, dass es förmlich zu tanzenden Hochhäusern kommen kann. Der wichtige Wert der Schwingzeit wird durch eine vereinfachte Gebäudegeometrie berechnet. Da das Gebäude aber mehrere Resonanzfrequenzen beziehungsweise Eigenwerte der Steifigkeitsmatrix besitzt, gibt es zu jedem Mode eine eigene Schwingzeit. Die verschiedenen Schwingungen in den Teilmodellen überlagern sich in der Multimoden-Modell dann im vollen Modell. Diese vereinfachenden Verfahren ermöglichen meisst schon mit wenig Rechenaufwand sehr gute Ergebnisse, jedoch stößt das Vorgehen bei sehr verwinkelten und komplexen Baustrukturen an Grenzen- eine Verwendung des Ein- oder Mehrschwingermodells ist bei einem Gebäude wie dem Aachenmünchener Direktionsgebäude nicht denkbar. Bei der weiteren Betrachtung hat die Baugrundklasse einen wichtigen Einfluss, da diese beispielsweise bei kiesigem Untergrund die Erdbeschleunigung erheblich abschwächen kann. Der Dämpfungsbeiwert beschreibt die durch Prozesse wie Reibung dissipierte Energie. Weiterhin beschreibt der Verhaltensbeiwert die Plastitzität von Werkstoffen in Gebäuden, durch die ebenso die Schwingungsenergie verbraucht wird. Speziell werden Gebäude dazu in Duktulitätsklassen eingeteilt. Eine besondere Rolle spielen hier die Zustandsklassen, beispielsweise beim Beton und Stahlbeton: Man geht davon aus, dass der Beton im normalen Zustand von kleinen Rissen durchzogen ist, und damit in Zustandsklasse 2 liegt. In der Alterung, aber auch durch Einwirkung von äußeren Kräften wie Erdbeben, kommt es zu einem Risswachstum. Risse können mathematisch durch Bifurkationen beschrieben werden, und erzeugen sehr schnell äußerst komplexe Problemstellungen. Im Katastrophenfall erlauben wir für Stahlbeton die Zustandsklasse 3, wo der Beton gerissen sein kann und der Stahl beginnt sich zu verbiegen. Auch wenn das Gebäude danach dringenden Reparaturbedarf besitzt, so wird so viel von der Erdbebenenergie durch die Materialien verbraucht. Ein großes Problem sind dabei aber die Verbindungen, da gehärtete Schrauben spröde reißen. Ebenso haben Schweißnähte immer kleine Nahtfehler, die versagen können. Ein Ausweg sind hier so groß ausgelegte Verbindungen, so dass diese im Extremfall die Rotationsfähigkeit erhaltende Fließgelenke ausbilden und somit ein Versagen möglichst nicht in der Verbindung auftritt. An der Hochschule Karlsruhe besucht Arne eine Vorlesung von Prof. Dr. Jan Akkermann und hat sich im Zuge seines Master-Studiums mit dem Projekt beschäftigt, einem Gebäude der Hochschule ein neues Geschoss zu planen. Literatur und weiterführende Informationen A. Ötes: Die neue Erdbebennorm DIN 4149, Universität Dortmund. A. Rick: The Basics of Audio compressors, Gulaschprogrammiernacht, 2018.Seismische Sonifikationen Z. Peng: Earthquake Music J. N. Louie, The Sound of Seismic, 2015 D. V. Rogers: Sounds of Seismic - Earth System Soundscape, 2013. Podcasts S. Wollherr: Erdbeben und Optimale Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 12, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/erdbeben S. Wollherr: Bruchzonen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 136, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bruchzonen A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke
Christina Lienstromberg von der Leibniz Universität in Hannover war im Februar 2018 zu Gast an unserer Fakultät. In einem Vortrag stellte sie mathematische Forschungsergebnisse zu Modellen für Mikrosysteme (auch mikroelektromechanische Systemen bzw. MEMS) vor. Christina hat in Hannover Mathematik studiert und auch promoviert und ist dort als Postdoc tätig. MEMS ist eine Technologie mikroskopisch kleiner Apparate mit beweglichen Teilen. Die Geräte bestehen aus Bauteilen mit einer Größe zwischen 1 und 100 Mikrometern (d.h. 0,001 bis 0,1 mm), und MEMS-Bauteile haben in der Regel eine Größe von 20 Mikrometern bis zu einem Millimeter (d.h. 0,02 bis 1,0 mm). Sie bestehen in der Regel aus einer Zentraleinheit, die Daten verarbeitet - dem Mikroprozessor - und mehreren Komponenten, die mit der Umgebung interagieren, wie beispielsweise winzigen Sensoren. Aufgrund des großen Flächen-Volumen-Verhältnisses von MEMS sind die Kräfte, die durch den umgebenden Elektromagnetismus (z.B. elektrostatische Aufladungen und magnetische Momente) und die Fluiddynamik (z.B. Oberflächenspannung und Viskosität) hervorgerufen werden, wichtiger als bei größeren mechanischen Geräten. MEMS befinden sich unter anderem in Airbags und Laptops und beobachten die Beschleunigung, um entsprechend reagieren zu können. So stellen sie fest, dass sich ein Computer im freien Fall befindet und setzen während des Sturzes den Lesekopf der Festplatte in Parkposition. Oder sie dienen der mechanische Bildstabilisierung in Fotoapparaten. Interessante Weiterentwicklungen werden unter dem Namen Mikrofluidik zusammengefaßt und sind schon jetzt im Einsatz in Tintenstrahl-Druckköpfen oder Lab-on-a-Chip-Systemen. Die mathematischen Modelle, die Christina und ihre Kollegen betrachten, sind zweidimensionale Schnitte durch ein Gebiet, das eine feste Bodenplatte hat und eine bewegliche Membran darüber, die auf beiden Seiten fest eingespannt ist, aber auf ein elektrisches Potential durch Bewegung reagiert. Viel Information über das System wird in der Durchlässigkeit der Membran ausgedrückt, auch Permittivitätsprofil genannt. Unterschiedliche Systeme von Differentialgleichungen dienen als Modelle, je nach physikalischer Herleitung. In jedem Fall ist ein entweder semi- oder quasilineares hyperbolisches oder parabolisches Evolutionsproblem für die Auslenkung einer elastischen Membran mit einem elliptischen Problem gekoppelt, das das elektrostatische Potential im Bereich zwischen der elastischen Membran und der starren Grundplatte bestimmt. Von besonderem Interesse bei allen Modellen ist der Einfluss verschiedener Klassen von Permittivitätsprofilen. Außerdem ist das mögliche Auftreten von Singularitäten nach endlicher Zeit spannend, wenn sich z.B. die Membran und die Bodenplatte treffen. Es zeigt sich, dass das System für alle Werte der angelegten Spannung räumlich und zeitlich wohlgestellt ist. Darüber hinaus wird überprüft, dass die Lösung auch global in der Zeit existiert, vorausgesetzt, dass die angelegte Spannung einen bestimmten kritischen Wert nicht überschreitet. Literatur und weiterführende Informationen J. Escher, P. Laurençot, C. Walker: A parabolic free boundary problem modeling electrostatic MEMS, Arch. Rational Mech. Anal., 211,389-417, 2014. C. Lienstromberg, J. Escher: A survey on second-order free boundary value problems modelling MEMS with general permittivity profile, Discrete Contin. Dyn. Syst. Ser. S 10, no. 4, 745–771, 2017. C. Lienstromberg, J. Escher: Finite-time singularities of solutions to microelectromechanical systems with general permittivity, Ann. Mat. Pura Appl. (4) 195 (2016), no. 6, 1961–1976. J.A. Pelesko, D.H. Bernstein: Modeling MEMS and NEMS, CRC Press Inc, ISBN 1584883065, 2002. X. Zhao: Modeling and Simulation of MEMS Devices, PhD-Dissertation submitted to the Faculty of the Virginia Polytechnic Institute and State University, 2004.
Helen hat am Karlsruher Institut für Technologie (KIT) ihren Bachelor in Mathematik abgeschlossen. Als Bachelorarbeit hatte sie sich das Thema Schaukeln gewählt unter der Betreuung von Gudrun Thäter. Es geht darin um Modelle, die tatsächlich die Schaukel vom Spielplatz untersuchen. Die zentrale Frage, die durch die Modelle und daraus abgeleitete Simulationen beantwortet werden soll ist: Wie funktioniert das Schwung geben beim schaukeln? Eine grundlegende Idee (die Helen aus der Literatur entnommen hat) ist es, die Schaukel als Fadenpendel mit veränderlicher Fadenlänge anzusehen. Das liegt daran, dass das Schwung geben sich vor allem durch die Veränderung der Lage des Schwerpunkts erklärt, die dann im Modell als veränderliche Pendellänge eingeht. Fadenlänge als Funktion in der Zeit erwies sich als nicht praktikabel deshalb ist sie in Helens Modell nun eine Funktion von der Winkelauslenkung. Das führt auf eine Differentialgleichung zweiter Ordnung für die Variable der Auslenkung. Reibungsverluste der Schaukel werden auf herkömmliche Art integriert und als proportional zur Geschwindigkeit des Massepunktes angenommen. Um realistische Parameter für Rechnungen zu gewinnen, konnten wir leider keine Experimente mit schaukelnden Kindern durchführen, sondern haben uns auf Computer-Simulation für unterschiedliche Konstellationen verlassen und Parameter für die realistisch erscheinenden Szenarien daraus entnommen. In der Arbeit enthalten sind nun neben dem theoretischen Modell auch unterschiedliche Fälle mit verschiedenen Seillängen und Personengrößen durchgerechnet und graphisch dargestellt. Zwei Ergebnisse, die man daraus ablesen kann sind, dass kürzere Schaukeln es einem leichter machen, sich aufzuschaukeln und große Leute einen Vorteil haben, weil sie ihren Schwerpunkt über eine größere Strecke verschieben können. Schließlich war es entscheidend für den Erfolg der Arbeit, sich an der richtigen Stelle Rat zu suchen. Literatur und weiterführende Informationen Physik des Aufschaukelns Anschubsen K. Magnus: Schwingungen, Teubner 1976.
Einen fahrbaren Roboter zu bauen- das ist schon eine echte Herausforderung. Um diesem aber auch noch beizubringen autonom Aufgaben zu lösen, bedienten sich Michael Fürst und sein Team der Mathematik: Im Rahmen der Gulasch Programmier-Nacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung (HfG) und dem Zentrum für Kunst und Medien (ZKM) in Karlsruhe berichtete er über die Verfahren der Probabilistischen Robotik (Video) und welche Erfahrungen sie damit machen konnten- und erzählt uns im Gespräch mit Sebastian Ritterbusch davon. Michael Fürst studiert Informatik am Karlsruher Institut für Technologie (KIT) und befasst sich im Team Informatik der Hochschulgruppe Kamaro Engineering speziell mit robusten probabilistischen Methoden zur Entscheidungsfindung. Der aktuelle Roboter Beteigeuze der Hochschulgruppe ist die zweite Generation und wurde dafür ausgelegt, Aufgaben in der Überwachung und Bewirtschaftung von Maisfeldern oder der Navigation im urbanen Umfeld zu erfüllen. Die Hochschulgruppe gibt es seit 3 Jahren und besteht aus 30-45 Mitgliedern. Sie ist eingebettet in das Teilinstitut Mobile Arbeitsmaschinen (MOBIMA) am Institut für Fahrzeugsystemtechnik (FAST) am KIT mit dessen Unterstützung und Drittspenden sich die Hochschulgruppe finanziert. Die interdisziplinäre Hochschulgruppe besteht aus vier Teams: Das Organisationsteam, das Mechanik-Team, das Elektrotechnik-Team und das Informatik-Team. Die Gruppe organisiert sich auch als Verein mit Vorstand und einer Leitung in jedem Team, um mit einer flachen Hierarchie jedem die Möglichkeit zu bieten sich in das Projekt einzubringen. Auf der einen Seite will die Gruppe die autonome Robotik voranzubringen und allen Teammitgliedern gleichzeitig auch die Möglichkeit zu bieten, praktisches Wissen und Erfahrungen neben dem oft theoretischem Studium zu erlangen. Das Team nimmt dazu regelmäßig an verschiedenen internationalen Wettbewerben teil, wie dem Field Robot Event, dem SICK Robot Day oder der Robotour. Technisch basiert die Software-Lösung des Roboters inzwischen auf dem Robot Operating System (ROS), mit dem auf einer Ubuntu-Plattform auf einem im Roboter eingebauten Computer in Java, Python oder C++ die gestellten Aufgaben bearbeitet werden. Mit 40kg Gewicht ist der Roboter für seine Größe kein Leichtgewicht und kann daher nicht beliebig Batterien transportieren, so dass dem Lademanagement eine besondere Rolle zufällt. Die gewählte Größe ermöglicht gerade bei der Feldarbeit einen nicht-invasiven Ansatz, der im Vergleich zu anderen Varianten, wie der automatischen Steuerung von Traktoren, die Pflanzen nicht schädigt. Der Roboter erfasst seine Umwelt mit einer Vielzahl von Sensoren: Die Lidar-Sensoren zur Entfernungsmessung in verschiedenen Richtungen sind dabei besonders wichtig, und sie messen bis zu 50mal pro Sekunde. Sie bestimmen die Entfernungen zur Umgebung des Roboters in einer Ebene bis 16m in einer Auflösung von bis zu drei Messpunkten pro Winkel-Grad und 3cm Entfernungsauflösung- mit gewissen Fehlerraten und Problemen mit reflektierenden Oberflächen. Zusätzlich misst eine intertiale Messeinheit translative und radiale Beschleunigungen wie auch die Ausrichtung zum Erdmagnetfeld. Zusätzlich können auch digitale Kameras zur Detektion von befahrbaren Untergründen, Objekten oder zur Analyse von Pflanzen eingebaut und verwendet werden. Zusätzlich messen Radencoder die Umdrehungen und Auslenkung durch Servos der Räder, womit der Roboter durch Odometrie seine durchgeführte Bewegung aus sich selbst heraus abschätzt. Durch die Kombination der Lidar-Daten mit der Odometrie durch ein SLAM-Verfahren (Simultaneous Localization and Mapping) ermöglicht mit einem Kalman-Filter durch Analyse der Kovarianzen die robuste Erstellung einer Karte während des Befahrens, und korrigiert Fehler bei der eigenen Lokalisierung durch die Odometrie. Zusätzlich kann der Roboter mit einem GPS-Empfänger seine Position grob bestimmen. In der Auswertung der Sensoren wird zwar von einer guten Kalibrierung ausgegangen, jedoch ist es Teil des probabilistischen Ansatzes, die erfassten Werte immer mit einer konservativen Fehlerverteilung zu verarbeiten. Die Kamerabilder werden ebenso robust verarbeitet: Die Bilddaten werden nach einer Konvertierung in den HSV-Farbraum zunächst auf eine konstante Helligkeit gebracht, um Schatteneffekte zu reduzieren. Dann werden alle weniger farbigen Pixel als befahrbarer Weg markiert, und die Anzahl der befahrbaren Pixel pro Spalte in ein Histogramm zusammengeführt. Jeder Wert in dem Histogramm wird nun als Güte bzw. der Wahrscheinlichkeit für Fahrbahn in diese Richtung gewertet. Die GPS-Position wird zur Lokalisierung in der Open Street Map verwendet, wo nach Berechnung einer Route die aktuelle Zielfahrtrichtung bestimmt wird. Die eigentliche Entscheidungsfindung erfolgt dann auf Basis der verschiedenen Sensordaten durch die Berechnung von Erwartungswerten in Abhängigkeit von einer möglichen Fahrtrichtung. Genauer betrachtet werden für jeden Sensor Zielfunktionen über den erwarteten Nutzen unter Annahme des Fahrens in eine bestimmte Richtung berechnet, und anschließend der von der Fahrtrichtung abhängige Erwartungswert unter Annahme von Sensorungenauigkeiten und Fahrungenauigkeiten bestimmt. Im Falle der gewünschten Fahrtrichtung aus den GPS- und Kartendaten wird eine sehr breite Normalverteilung angesetzt, weil auch abweichende Richtungen noch einen Gewinn darstellen können, wenn sie zumindest etwas in die richtige Richtung gehen. Aus jedem Sensor ergibt sich pro Fahrtrichtung ein erwarteter Teilnutzen, und aus allen Teilnutzen wird der Gesamtnutzen als Produkt berechnet: Dadurch werden Teilnutzen von 0 sofort als Gesamtnutzen 0 gewertet, ansonsten aber geometrisches Mittel über die Teilnutzen gebildet. Die gewählte Fahrrichtung ergibt sich dann aus der Richtung, unter der sich das Gesamtmaximum des Gesamtnutzens ergibt. Die Verarbeitung der Sensordaten erfolgt typischerweise in der Geschwindigkeit, in der die Sensoren die Umgebung abtasten. In der Bildverarbeitung wird dies besonders durch die effizienten Routinen der verwendeten OpenCV-Bibliothek möglich. So sind bis zu 30 Entscheidungen in der Sekunde möglich, jedoch können die Motoren die Entscheidungen nur deutlich langsamer umsetzen. Es wurden auch weitere Verfahren zur Entscheidungsfindung getestet, wie die Verwendung von Clusteranalyse oder die Erstellung von Voronio-Diagrammen. Doch zeigte die robuste Entscheidungsfindung über Erwartungswerte bei der Navigation im urbanen Gebiet ihre Vorteile. Die beschriebene Entscheidungsfindung bezieht sich dabei bisher nur auf die Fahrtrichtung- die Fahrtgeschwindigkeit wird bisher nur von der freien Wegstrecke in Fahrtrichtung bestimmt. Dadurch verfolgt der Roboter im Normalfalle seine Ziele in Normgeschwindigkeit von 0.5-1m/s (er läuft und läuft und läuft), bremst aber, sobald er in die Gefahr gerät, sonst einen Menschen oder sich selbst zu beschädigen. Dadurch folgt der Roboter den Robotergesetzen von Asimov. Die Kommunikation im Roboter erfolgt über verschiedene Netze- der Lidar-Sensor wird beispielsweise über Ethernet angesprochen, die Entscheidungsfindung spricht mit den Hauptroutinen in der Recheneinheit über eine TCP-Verbindung, die Kommunikation von der Recheneinheit zum Masterboard erfolgt über USB als serielle Schnittstelle (UART), und das Masterboard gibt seine Steuerbefehle über einen CAN-Bus an Motoren und Servos weiter. Der Wettbewerb der Robotour 2015 fand in Tschechien in der Innenstadt von Pisek statt. Nach einer Qualifikation vor Ort gab es nach einer Testrunde eine erste Wettkampfrunde, in der die Roboter eine Lieferung von einem Parkplatz durch die gesamte Innenstadt über festgelegte Wegpunkte letztlich zu einem Restaurant bringen sollen. Obwohl der Testlauf noch erfolgreich war, litt der Roboter Beteigeuze der Gruppe in den ersten zwei Segmenten unter Abstürzen und lag damit auf dem letzten Platz. Nachdem der Fehler gefunden war, erreichte der Roboter im dritten Lauf als einziger das Segmentziel; und blieb im vierten Lauf zwar am Hintereingang des Restaurants hängen, war aber auch da gegenüber allen anderen Kandidaten bei weitem am nächsten am Ziel, und gewann so den Wettbewerb. Für einen Einstieg in die Robotik bieten sich Systeme wie Lego Mindstorms oder andere Roboterbaukästen an, aber auch Programmierspiele, wie sie Michael auch auf der GPN angeboten hat: https://github.com/Programmierspiele. Literatur und weiterführende Informationen M. Fürst: Probabilistische Robotik- Interessen eines Roboters als Nutzen formulieren und verarbeiten, Vortrag auf der Gulasch Programmier-Nacht GPN16, 2016. M. Fürst: Detecting Drivable Regions in Monocular Images, Robotour 2015, Autonomous Robot in Parks and Urban Regions, 2015. EKF-SLAM erklärt: Wie sieht ein Roboter die Welt? Robotour 2015 Vorgehensweise bei Kamaro GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
Wie wirkt sich die Biegesteifigkeit von Klaviersaiten auf die Stimmung aus? Dieser Frage ist Niels Ranosch nachgegangen und erklärt uns im Gespräch mit Gudrun Thäter seine Ergebnisse. Das Schwingen von Klaviersaiten wird oft mit mit der Wellengleichung modelliert und simuliert; die Annahme ist hier, dass die Saite unendlich dünn ist. Betrachtet man die Saite jedoch mit realistischer Querschnittsfläche, so treten durch Dehnung und Stauchung weitere Kräfte im Material auf, und man muss in einem erweiterten Modell gerade für dicke oder kurze Saiten die Biegesteifigkeit der Saiten berücksichtigen. Die Wellengleichung ist eine partielle Differentialgleichung, die die Auslenkung der Saite mit zweiten Ableitungen im Raum und Zeit beschreibt. Zur Erweiterung des Modells wurde die Saite in einzelne Teilfasern aufgeteilt, für die jeweils einzeln die Biegesteifigkeit berücksichtigt wurde. Beim Übergang zu unendliche dünnen Teilfasern erhält man eine erweiterte Differentialgleichung, in der nun auch Raumableitungen vierter Ordnung auftreten. Bei der Lösung des erweiterten Modells ergibt sich nun, dass die Obertöne nicht perfekte Vielfache des Grundtons sind, und daher bei genauer Stimmung des Grundtons nicht harmonisch zu höheren Tönen wären. Daher werden die Grundtöne der Saiten absichtlich leicht verstimmt, damit die Obertöne akzeptabel zu höheren Tönen passen. Ein weiteres Problem für die Harmonie auf dem Klavier liegt im Quintenzirkel oder am Pythagoreischen Komma: Grundsätzlich kann man nicht gleichzeitig Quinten mit Frequenzverhältnis 3/2 und Oktaven mit Frequenzverhältnis 2 auf einem Klavier perfekt stimmen; man kann durch Multiplikation mit 3/2 kein Vielfaches von 2 erreichen. Nach 12 Quinten kommt man dem Ton nach 7 Oktaven sehr nahe, und dies wurde als Grundlage für das Klavier mit 12 Tasten pro Oktave gewählt. Den Fehler versucht man dann mit unterschiedlichen Stimmungen irgendwie erträglich zu machen, wie mit der heutzutage gängigen gleichstufigen Stimmung. Literatur und weiterführende Informationen Gareth Loy: Musimathics, MIT Press, 2007. S. M. Han, H. Benaroya, T. Wei: Dynamics of transversely vibrating beams using four engineering theories, Journal of sound and vibration 225.5: 935-988, 1999.
In diesem Experiment werden zwei aneinander gekoppelte Pendel in unterschiedliche Schwingungsmoden versetzt. Diese Schwingungen werden aufgezeichnet und mit Hilfe der Fouriertransformation untersucht.
In diesem Experiment werden zwei aneinander gekoppelte Pendel in unterschiedliche Schwingungsmoden versetzt. Diese Schwingungen werden aufgezeichnet und mit Hilfe der Fouriertransformation untersucht.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
In der vorliegenden Studie wurde bei 19 Patienten, die nach einem Schlaganfall feinmotorische Störungen und Sensibilitätsdefizite der oberen Extremitäten aufwiesen, die Steuerung der Griffkraft beim Halten und Bewegen eines Objektes untersucht. Bei allen Patienten lagen unilaterale zerebrale Läsionen vor, die kortikale und subkortikale Bereiche des Großhirns betrafen; Strukturen im Hirnstamm und Kleinhirn waren nicht miteinbezogen. Analysiert wurde die Griffkraft beim ruhigen Halten, Anheben und Transportieren und Auf- und Abbewegen des kabellosen Testobjekts. Neben den auf das Objekt ausgeübten Griffkräften wurden auch die Beschleunigungen und die auf das Objekt wirkenden Lastkräfte bestimmt. Die Patienten übten mit ihrer betroffenen Hand bei allen Objektmanipulationen deutlich höhere Griffkräfte als die Kontrollgruppe auf das Objekt aus. Das Verhältnis von Griff- und Lastkraft, welches als Maß einer ökonomischen Krafteinteilung angesehen werden kann, war bei den Patienten signifikant erhöht. Hinsichtlich der zeitlichen Korrelation von Griff- und Lastkraft zeigte sich, dass die antizipatorische Steuerung der Griffkraft auch bei zerebraler Schädigung erhalten blieb; Griff- und Lastkraft wurden synchron moduliert. Allerdings ergab die Kreuzkorrelation bei den zyklischen vertikalen Bewegungen leichte Defizite in der Feinabstimmung beider Kräfte. Des Weiteren war beim Transportieren des Objektes die Kraftproduktion in der Anhebephase auf der betroffenen Seite verzögert. Mittels eines kleinen zwischen Daumen und Zeigefinger gehaltenen Kraftmessers wurden neben den beschriebenen manipulativen Aufgaben elementare Leistungsaspekte der Griffkraft-Steuerung, wie statische und dynamische Präzision, Schnelligkeit, Maximalkraft und Reaktion auf eine plötzliche Laständerung, erfasst. Es zeigten sich hohe Korrelationen zwischen Kraftniveau bei den Objektmanipulationen und der Auslenkung der Finger bei Reaktion auf eine plötzliche Lastkrafterhöhung. Letzteres stellt ein sensitives Maß für Sensibilitätsstörungen dar. Während also für die Anpassung der Griffkrafthöhe eine intakte sensorische Wahrnehmung Vorraussetzung ist, ist die antizipatorische Modulation der Griffkraft mit der Lastkraft ein automatisierter, von afferenten Inputs weitgehend unabhängiger Prozess. Bei der Feinabstimmung beider Kräfte allerdings spielen sensorische Einflüsse eine Rolle. Die Ergebnisse dieser Arbeit bekräftigen damit das vorherrschende Modell einer antizipatorischen Griffkraft-Steuerung anhand interner Modelle, wobei diese Funktion wohl tiefer liegenden Hirnstrukturen zugeordnet werden kann. In früheren Arbeiten wurde v. a. das Kleinhirn diskutiert. Anhand sensibler afferenter Signale scheint dieser grundlegende feedforward-Mechanismus der Griffkraft-Steuerung von kortikalen Strukturen jedoch noch präzisiert zu werden.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
In dieser Arbeit werden Quanteneffekte in den mechanischen Eigenschaften eines nanomechanischen Balkenresonators untersucht. Dabei werden zunaechst Quantenfluktuationen der transversalen Auslenkung des Resonators behandelt. Diese lassen sich durch zwei Verfahren verstaerken, dynamisch mittels parametrischer Resonanz, oder statisch durch longitudinale Kompression bis nahe der Euler-Instabilitaet, bei der sich der Nanobalken klassisch zur Seite biegt. Desweiteren werden die Analogien zu makroskopischer Quantenkohaerenz und makroskopischem Quantentunneln in einer quantenmechanischen Beschreibung des Balkens jenseits der Euler-Instabilitaet diskutiert. Als Modell-Balken wird dabei ein Single-Wall-Carbon-Nanotube von 0.1 Mikrometer Laenge verwendet. Seine ausgezeichneten elastischen Eigenschaften und seine geringe Masse (etwa 20000 C-Atome) machen ihn zum bestmoeglichen Kandidat zum Nachweis von makroskopischen Quanteneffekten, und seine thermischen Fluktuationen der mittleren Auslenkung in Balkenmitte sind bereits im Experiment gemessen worden. Das Quantenregime fuer diese Fluktuationen ist aufgrund der sehr hohen Resonatorfrequenzen im GHz-Bereich ebenfalls experimentell zugaenglich; die Quantenfluktuationen selbst sind zwar mit (0.01 Nanometer)^2 sehr klein, aber mit neuesten, extrem sensitiven Sensoren im Prinzip detektierbar. Dynamisch lassen sich die Fluktuationen unter Ausnutzung der parametrischen Resonanz bis auf etwa (1 Nanometer)^2 verstaerken, aber nur in einem sich periodisch aufschaukelndem Nichtgleichgewichtsprozess, sodass zu deren Nachweis eine stroboskopische Messmethode verwendet werden muss. Auch durch longitudinale Kompression bis sehr nahe an die Euler-Instabilitaet, zum Beispiel durch piezoelektrisches Druecken, lassen sich die Quantenfluktuationen verstaerken, und zwar bis zu einer neuen, rein quantenmechanisch bestimmten Skala von etwa 0.1 Nanometer; die parallel dazu reduzierte Frequenzskala ist fuer typische solche Nanotubes im Bereich von 10 MHz. Jenseits der Euler-Instabilitaet laesst sich der Balken quantenmechanisch in einer Superposition aus "nach links" und "nach rechts" gebogen beschreiben. Die dann niedrigste Anregungsenergie, die Tunnelfrequenz des entsprechenden Zweizustandsystems, betraegt nur noch einige MHz. Makroskopisches Quantentunneln aus einem durch kapazitive Kopplungen metastabil gemachten Zustand "links" ergibt eine sehr niedrige Uebergangstemperatur zum Quantenregime von 0.7 mK, man erhaelt dennoch eine Quantenkorrektur zum Temperaturverhalten des klassischen Arrhenius-Gesetzes. Insgesamt zeigen die hier vorgestellten Rechnungen, dass durch geeignete Kombination bereits durchgefuehrter Experimente oder verbesserte Kuehlmechanismen Quantenmechanische Effekte, besonders Quantenfluktuationen, in naher Zukunft tatsaechlich in makro(nano)skopischen mechanischen Systemen relevant werden koennen und die "Quantenmechanik" daher woertlich genommen werden sollte.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
In dieser Studie wurde das Schwingungsverhalten verschiedener Instrumentenansätze von magnetostriktiven und piezoelektrischen Ultraschallgeräten der Firmen Dentsply/DeTrey, EMS, Satelec und Dürr und eines Schallgerätes der Firma KaVo untersucht. Dazu wurden Versuchsreihen im unbelasteten Zustand und im belasteten Zustand mit den Leistungseinstellungen niedrig, mittel und maximal und den lateralen Krafteinwirkungen von 0,3 N, 0,5 N sowie 1 N durchgeführt. Ultraschallinstrumente, deren Ansätze in Verlängerung zum Handstück konzipiert wurden, schwangen meist longitudinal. Zusätzlich erfolgte mit zunehmender Leistungseinstellung und Krafteinwirkung eine transversale Auslenkung. Einige nach rechts und links gebogene Ansätze bewegten sich elliptisch oder kreisförmig. Bei anderen konnte eine Schwingung longitudinal in x-Richtung beobachtet werden. Wieder andere schwangen achterförmig bzw. v-förmig. Schallansätze schwangen im unbelasteten Zustand elliptisch, im belasteten Zustand zunehmend irregulärer. Insgesamt konnten für Ultraschallansätze Schwingungsamplituden von ca. 8 µm bis ca. 770 µm gemessen werden. Bei Schallansätzen lagen die Schwingungsamplituden zwischen 70 µm und 277 µm. Eine einheitliche Empfehlung zur Handhabung einzelner Geräte kann nicht gegeben werden, deshalb folgte eine Aufteilung der Ansätze in ihr Schwingungsverhalten. Longitudinal zum Handstück schwingende Instrumentenansätze ebenso wie Instrumentenansätze, deren Schwingungen quer zur Instrumentenspitze verlaufen sollten parallel zum Zahn angelegt werden. Es ensteht eine über die Zahnoberfläche streichende Bewegung. Dreidimensional schwingende Instrumentenansätze können sowohl mit den Seiten als auch mit dem Rücken an den Zahn angelegt werden. Die resultierende Schwingung ist kleinflächig und trägt mit einer hämmernden Bewegung Konkremente und Zahnstein ab.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Im Rahmen dieser Arbeit wurden physikalische Meßmethoden entwickelt, um die Struktur und Dynamik der Plasmamembran lebender Säugetierzellen zu untersuchen. Dabei lag der Schwerpunkt zum einem auf der mechanischen Kopplung der Membranlipidschicht zu dem darunter liegenden, unterstützend wirkenden Zytoskelett, und zum anderen auf der Beweglichkeit einzelner Membrankomponenten innnerhalb der Membranlipidschicht. Ausgangspunkte für die Entwicklung neuer Methoden waren die Rasterkraftmikroskopie (RKM) und ´single-particle tracking’ (SPT). Die RKMermöglicht die Abbildung von Ober‡ächen mit hoher Au‡ösung in physiologischer Umgebung, so lange die Wechselwirkungskräfte die Probenober‡äche nicht zu sehr deformieren. SPT ist eine Technik, um die Bewegung von einzelnen Molekülen zu verfolgen. Dafür werden diese mit Polysteren-kügelchen oder kolloidem Gold markiert und mit Videomikroskopie beobachtet. Auf diesen Techniken aufbauend wurden folgende Verfahren und Geräte für diese Arbeit entwickelt: Das Scanning-Photonic Force Microscope (SPFM) als Analogon zum RKM: In einer Laserfalle (einem mit einem Objektiv hoher Apperatur (100x, NA 1.3) fokussierten infraroten (IR) Laser) wird ein Fluorophor gefülltes Polysterenkügelchen (bead, r=0.1¹m) gefangen. Die Fluorophore des als Sonde verwendeten Kügelchens werden über einen Zwei-Photonen Prozeß durch den IR-Laser zur Fluoreszenz angeregt. Eine Auslenkung aus der Halteposition durch eine äußere Kraft führt zum Abfall der Fluoreszenz. Im SPFM wird die Sonde mit Hilfe des Lasers analog zum mechanischen Hebelarm im RKM über die Probe bewegt. Dabei wird wie beim RKM die Auslenkung und somit Kraft gemessen. Die wesentlichen Unterschiede sind die fehlende mechanische Verbindung zur Umwelt, die ein Abrastern beliebiger transparenter 3D-Strukturen ermöglicht, die extrem kleine Federkonstante des Sensors (0.1- 1¹N/m), welche daher besser an die Elastiztät von biologischen Objekten angepaßt ist, sowie die stark reduzierte viskose Dämpfung der kleineren Sonde, was schnelleres Messen ermöglicht. Das Photonic Force Microscope (PFM) ist die Weiterentwicklung des SPFM. Bei der verwendeten kleinen Federkonstante werden die thermischen Positions‡ uktuationen sehr groß. Daher wurde ein Detektor entwickelt, der Messung der Position der Sonde in der Falle in drei Dimensionen mit Nanometer Ortsau‡ösung und 50kHz-Bandbreite ermöglicht. Der Detektor basiert auf der Interferenz des an der Sonde vorwärts gestreuten Laserlichts mit dem ungestreuten Licht. Dieses Prinzip wurde zuvor nur für seitliche Auslenkungen entlang einer Achse verwendet und erstmals in dieser Arbeit drei dimensional angewandt. Die vollständige theoretische Beschriebung des Detektorsignals ist ebenfalls ein Novum. Im PFM werden mit diesem Detektor die thermischen 3D-Positions‡uktuationen einer durch den Laser in einem Volumen von 0.1*0.1*0.6¹m3 gehaltenen Sonde analysiert. Zusätzlich wirkende Potentiale und die Viskosität des umgebenden Mediums können gemessen werden.