POPULARITY
Das ist das KI-Update vom 09.01.2025 unter anderem mit diesen Themen: Revolutionäres KI-Modell o3 von OpenAI mit hohem Rechenaufwand und Preisschild KI-Agent "Operator" von OpenAI soll im Januar starten Microsoft veröffentlicht kleines Phi-4-LLM als Open-Source-Modell mit Gewichten Kleinere KI-Modelle können laut Forschern große Sprachmodelle effizienter trainieren Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10234315 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://www.ki-adventskalender.de/
Um die Klimaziele zu erreichen, beläuft sich der Investitionsbedarf für die nächsten Jahrzehnte in Deutschland auf mehrere hundert Milliarden Euro für den Umbau von Wirtschaft und Infrastruktur. Die Finanzindustrie kann dabei eine große Rolle spielen. Die notwendige Umstellung aufgrund des Klimawandels erfordert gezielte Investitionen in Unternehmen, die im Einklang mit den Zielen des Pariser Klimaabkommens handeln. Gleichzeitig stehen Investoren vor der Herausforderung, Klimarisiken einzuschätzen. Gegenwärtig sind die Methoden zur Berechnung dieser Risiken jedoch mit einem erheblichen Rechenaufwand und entsprechenden Kosten verbunden, was ihre praktische Anwendung einschränkt. Prof. Dr. Martin Simon, Inhaber der Innovationsprofessur für Data Science an der Frankfurt UAS, forscht aktuell daran, wie dieser Aufwand durch den Einsatz von künstlicher Intelligenz (KI) reduziert werden kann. Wie kann also durch den Einsatz von KI der Ressourcenverbrauch signifikant gesenkt werden? Welche Werkzeuge sind nötig, um den Finanzsektor nachhaltiger zu machen und Klimarisiken einzuschätzen? Wie nachhaltig ist die Nutzung von KI? Über diese und weitere Fragen sprechen wir mit Prof. Dr. Simon in dieser Folge von “Hessen schafft Wissen”.
Dein Update zur Digitalisierung der Versicherungsbranche. In dieser Folge des Digital Insurance Podcast spricht Jonas Piela über Trends und Herausforderungen im Jahr 2024. Hier findest du das Whitepaper mit allen Insights zu Digitalen Services in 2024 Auf den Konferenzen, die ich Ende letzten Jahres besucht habe, habe ich viele spannende Einblicke erhalten. Themen wie Live-3D-Rendering, Spracherkennung und Systeminteraktionen werden an Relevanz gewinnen. Allerdings sind viele IT-Abteilungen auf die Integration dieser Technologien nicht ausreichend vorbereitet. Ich persönlich bin kein großer Fan von Chatbots. In jedem Fall müssen Nutzer klar erkennen müssen, ob sie mit einem Computer sprechen oder nicht. Des Weiteren zweifle ich daran, dass Chatbots eine bessere Benutzeroberfläche bieten können als herkömmliche Eingabeformulare. Ob sich der höhere Rechenaufwand für Generative AI lohnt, bleibt ebenso fraglich. Spannend finde ich hingegen, Generative AI mit einer Knowledge-Datenbank zu verknüpfen. Auf diese Weise lässt sich das Wissen der ganzen Organisation schnell zugänglich machen. Doch auch eine KI ist nicht unfehlbar. Bei Auskünften zu Vertragsinhalten ist es wichtig, dass man der Information vertrauen kann. Digitale Services stehen für mich auch im Jahr 2024 weit oben auf der Liste. Ich habe ein Whitepaper mit 22 Erkenntnissen zusammengestellt, die ich aus Projekten der letzten Jahre gewonnen habe. Moderne Web- und Mobile-Anwendungen für interne Nutzer und externe Kunden bleiben ebenfalls relevant. Ich betone, dass die dafür erforderlichen Kompetenzen entweder intern vorhanden sein sollten oder klug eingekauft werden müssen. Den entsprechenden Podcast zum Thema Anwendungsentwicklung findet ihr hier. Links in dieser Ausgabe Zur Homepage von Jonas Piela Zur Episode "Software Entwicklung skalieren" Vertrauen Sie auf Ihren guten Ruf? Er ist Ihr Versprechen an Ihre Kunden. Mit ProvenExpert bauen Sie online Vertrauen auf, indem Sie authentische Kundenstimmen nutzen und sichtbar werden. Für unsere Hörer gibt es hier alle Infos sowie ein exklusives Angebot, um eure Online Sichtbarkeit durch Kundenbewertungen auf ein neues Level zu heben! geht es zu Ihrem exklusiven Angebot als Zuhörer des Digital Insurance Podcasts. ProvenExpert – Für alle, die wissen, dass Vertrauen mehr wert ist als Gold Du interessierst dich für die Digitalisierung der Versicherungsbranche und hast Freude an Kundenkontakten? Dann werde Junior Sales Manager beim Digital Insurance Podcast! Wir bieten dir flexible Arbeitszeiten, remote Arbeiten und Freiraum für deine Ideen. Bewirb dich jetzt! Mehr Infos findest du auf der LinkedIn Page des Digital Insurance Podcast und HIER Wir freuen uns auf deine Bewerbung!
Diese Woche in der Zukunft: Die Folge mit den großen Zahlen: Der aktuell größte Quantencomputer ist 100 Billionen Mal schneller als ein Supercomputer. Liest man so. Wer sich darunter etwas vorstellen kann? Natürlich niemand. Ist das nur ein Hype, viel Aufregung von hochspezialisierten Physik-Nerds – oder versprechen Quantencomputer den nächsten großen Sprung für die Menschheit? Michael Carl im Gespräch mit dem Physiker, IT-Ingenieur und Psychologen https://www.linkedin.com/in/frankfischer1/ (Frank Fischer.) Der sagt: Beides! Franks Analyse: Der entscheidende Treiber für die Entwicklung von Quantencomputern ist die Chemie. Beispiel: Die Herstellung von Ammoniak. Bislang sind wir auf das Haber-Bosch-Verfahren angewiesen – de facto die Methode „Rohe Gewalt“, wirkungsvoll, aber enorm energieaufwendig. Mehrere Prozent des globalen Energiebedarfs gehen auf das Konto des Haber-Bosch-Verfahrens. Die Alternative: Wir konstruieren ein Molekül, das Ammoniak ohne hohen Druck und Temperatur erzeugt. Wir wissen, dass es das Molekül gibt. Wir kennen seine Bestandteile. Allerdings gibt es mehr Möglichkeiten, diese Bestandteile in 3D zusammenzusetzen, als es Teilchen im Universum gibt. Mit herkömmlicher Rechenleistung de facto nicht zu ermitteln. Geschätzter Rechenaufwand für einen Quantencomputer mit 250 QBits: 10 bis 15 Minuten. Der Preis für den Sieger: Besagte mehrere Prozent der weltweit erzeugten Energie. Was ist dagegen eine Investition in neue Technologie von ein paar wenigen Milliarden? Darum sind Google, Amazon, Microsoft, Intel etc alle im Rennen um den ersten leistungsfähigen Quantencomputer dabei. Weitere Anwendungsfälle: Individuell wirksame komplexe Medizin, um Größenordnungen leistungsfähigere Sonnenkollektoren und außerhalb der Chemie: Mobilitätssteuerung, Dienstplanung etc. Franks These: Quantentechnologie macht Computer nicht einfach schneller, sie ermöglicht es, Probleme zu berechnen, die heute de facto unlösbar sind. Nebenbei: Betrachten wir bitte jedes Passwort als jederzeit entschlüsselt. IT-Sicherheit müssen wir vollständig neu denken. Die Perspektive: Google kommuniziert, Quantencomputer würden ab 2029 zur kommerziellen Nutzung bereitstehen. Eine Schätzung, die Frank Fischer für durchweg realistisch hält. Wer bis zu Minute 30 durchhält, bekommt auch noch einen Crash-Kurs Physik bei Herrn Fischer: Was sind Superposition, Entanglement und wer ist Richard Feynman? Und wen das Gefühl beschleicht, nicht alles zu verstehen: Das ist genau die Sicht selbst der beteiligten Physiker. Die setzen inzwischen eher auf sich ergänzende Modelle der Quantenmechanik, die jeweils Aspekte beschreiben. Eine beruhigen Botschaft zum Schluss: Man muss hier nicht alles verstehen. Der Gast in dieser Woche: https://www.linkedin.com/in/frankfischer1/ (Frank Fischer,) Physiker, IT-Ingenieur, Organisationspsychologe, derzeit bei Snyk.
Das israelische Startup Deepdub hat ein Programm entwickelt, das mit großem Rechenaufwand die Originalstimmen von Schauspieler*innen analysiert und dann eine künstliche Stimme in einer anderen Sprache errechnet. Die Eigenschaften der Originalstimme können übernommen werden.
Gudrun spricht in dieser Folge mit Mathis Fricke von der TU Darmstadt über Dynamische Benetzungsphänomene. Er hat 2020 in der Gruppe Mathematical Modeling and Analysis bei Prof. Dieter Bothe promoviert. Diese Gruppe ist in der Analysis und damit in der Fakultät für Mathematik angesiedelt, arbeitet aber stark interdisziplinär vernetzt, weil dort Probleme aus der Verfahrenstechnik modelliert und simuliert werden. Viele Anwendungen in den Ingenieurwissenschaften erfordern ein tiefes Verständnis der physikalischen Vorgänge in mehrphasigen Strömungen, d.h. Strömungen mit mehreren Komponenten. Eine sog. "Kontaktlinie" entsteht, wenn drei thermodynamische Phasen zusammenkommen und ein komplexes System bilden. Ein typisches Beispiel ist ein Flüssigkeitströpfchen, das auf einer Wand sitzt (oder sich bewegt) und von der Umgebungsluft umgeben ist. Ein wichtiger physikalischer Parameter ist dabei der "Kontaktwinkel" zwischen der Gas/Flüssig-Grenzfläche und der festen Oberfläche. Ist der Kontaktwinkel klein ist die Oberfläche hydrophil (also gut benetzend), ist der Kontaktwinkel groß ist die Oberläche hydrophob (schlecht benetzend). Je nach Anwendungsfall können beide Situationen in der Praxis gewollt sein. Zum Beispiel können stark hydrophobe Oberflächen einen Selbstreinigungseffekt aufweisen weil Wassertropfen von der Oberfläche abrollen und dabei Schmutzpartikel abtransportieren (siehe z.B. https://de.wikipedia.org/wiki/Lotoseffekt). Dynamische Benetzungsphänomene sind in Natur und Technik allgegenwärtig. Die Beine eines Wasserläufers nutzen eine ausgeklügelte hierarchische Oberflächenstruktur, um Superhydrophobie zu erreichen und das Insekt auf einer Wasseroberfläche leicht stehen und laufen zu lassen. Die Fähigkeit, dynamische Benetzungsprozesse zu verstehen und zu steuern, ist entscheidend für eine Vielzahl industrieller und technischer Prozesse wie Bioprinting und Tintenstrahldruck oder Massentransport in Mikrofluidikgeräten. Andererseits birgt das Problem der beweglichen Kontaktlinie selbst in einer stark vereinfachten Formulierung immer noch erhebliche Herausforderungen hinsichtlich der fundamentalen mathematischen Modellierung sowie der numerischen Methoden. Ein übliche Ansatz zur Beschreibung eines Mehrphasensystems auf einer makroskopischen Skala ist die Kontinuumsphysik, bei der die mikroskopische Struktur der Materie nicht explizit aufgelöst wird. Andererseits finden die physikalischen Prozesse an der Kontaktlinie auf einer sehr kleinen Längenskala statt. Man muss daher das Standardmodell der Kontinuumsphysik erweitern, um zu einer korrekten Beschreibung des Systems zu gelangen. Ein wichtiges Leitprinzip bei der mathematischen Modellierung ist dabei der zweite Hauptsatz der Thermodynamik, der besagt, dass die Entropie eines isolierten Systems niemals abnimmt. Dieses tiefe physikalische Prinzip hilft, zu einem geschlossenen und zuverlässigen Modell zu kommen. Die größte Herausforderung in der kontinuumsmechanischen Modellierung von dynamischen Benetzungsprozessen ist die Formulierung der Randbedingungen für die Navier Stokes Gleichungen an der Festkörperoberfläche sowie am freien Rand zwischen Gas und Flüssigkeit. Die klassische Arbeit von Huh und Scriven hat gezeigt, dass die übliche Haftbedingung ("no slip") an der Festkörperoberfläche nicht mit einer bewegten Kontaktlinie und damit mit einem dynamischen Benetzungsprozess verträglich ist. Man kann nämlich leicht zeigen, dass die Lösung für die Geschwindigkeit in diesem Fall unstetig an der Kontaktlinie wäre. Weil das Fluid (z.B. Wasser) aber eine innere Reibung (Viskosität) besitzt, würde dann mit einer unendlichen Rate ("singulär") innere Energie in Wärme umgewandelt ("dissipiert"). Dieses Verhalten ist offensichtlich unphysikalisch und zeigt dass eine Anpassung des Modells nötig ist. Einer der wesentlichen Beiträge von Mathis Dissertation ist die qualitative Analyse von solchen angepassten Modellen (zur Vermeidung der unphysikalischen Singularität) mit Methoden aus der Geometrie. Die Idee ist hierbei eine systematische Untersuchung der "Kinematik", d.h. der Geometrie der Bewegung der Kontaktlinie und des Kontaktwinkels. Nimmt man das transportierende Geschwindigkeitsfeld als gegeben an, so kann man einen fundamentalen geometrischen Zusammenhang zwischen der Änderungsrate des Kontaktwinkels und der Struktur des Geschwindigkeitsfeldes herleiten. Dieser geometrische (bzw. kinematische) Zusammenhang gilt universell für alle Modelle (in der betrachteten Modellklasse) und erlaubt tiefe Einsichten in das qualitative Verhalten von Lösungen. Neben der mathematischen Modellierung braucht man auch numerische Werkzeuge und Algorithmen zur Lösung der resultierenden partiellen Differentialgleichungen, die typischerweise eine Variante der bekannten Navier-Stokes-Gleichungen sind. Diese nichtlinearen PDE-Modelle erfordern eine sorgfältige Auswahl der numerischen Methoden und einen hohen Rechenaufwand. Mathis entschied sich für numerische Methoden auf der Grundlage der geometrischen VOF (Volume-of-Fluid) Methode. Die VOF Methode ist eine Finite Volumen Methode und basiert auf einem diskreten Gitter von würfelförmigen Kontrollvolumen auf dem die Lösung des PDE Systems angenähert wird. Wichtig ist hier insbesondere die Verfolgung der räumlichen Position der freien Grenzfläche und der Kontaktlinie. In der VOF Methode wird dazu für jede Gitterzelle gespeichert zu welchem Anteil sie mit Flüssigkeit bzw. Gas gefüllt ist. Aus dieser Information kann später die Form der freien Grenzfläche rekonstruiert werden. Im Rahmen von Mathis Dissertation wurden diese Rekonstruktionsverfahren hinsichtlich Ihrer Genauigkeit nahe der Kontaktlinie weiterentwickelt. Zusammen mit komplementären numerischen Methoden sowie Experimenten im Sonderforschungsbereich 1194 können die Methoden in realistischen Testfällen validiert werden. Mathis hat sich in seiner Arbeit vor allem mit der Dynamik des Anstiegs einer Flüssigkeitssäule in einer Kapillare sowie der Aufbruchdynamik von Flüssigkeitsbrücken (sog. "Kapillarbrücken") auf strukturierten Oberflächen beschäftigt. Die Simulation kann hier als eine numerische "Lupe" dienen und Phänomene sichtbar machen die, z.B wegen einer limitierten zeitlichen Auflösung, im Experiment nur schwer sichtbar gemacht werden können. Gleichzeitig werden die experimentellen Daten genutzt um die Korrektheit des Modells und des numerischen Verfahrens zu überprüfen. Literatur und weiterführende Informationen Fricke, M.: Mathematical modeling and Volume-of-Fluid based simulation of dynamic wetting Promotionsschrift (2021). de Gennes, P., Brochard-Wyart, F., Quere, D.: Capillarity and Wetting Phenomena, Springer (2004). Fricke, M., Köhne, M., Bothe, D.: A kinematic evolution equation for the dynamic contact angle and some consequences. Physica D: Nonlinear Phenomena, 394, 26–43 (2019) (siehe auch arXiv). Fricke, M., Bothe, D.: Boundary conditions for dynamic wetting – A mathematical analysis. The European Physical Journal Special Topics, 229(10), 1849–1865 (2020). Gründing, D., Smuda, M., Antritter, T., Fricke, M., Rettenmaier, D., Kummer, F., Stephan, P., Marschall, H., Bothe, D.: A comparative study of transient capillary rise using direct numerical simulations, Applied Mathematical Modelling (2020) Fricke, M., Marić, T. and Bothe, D.: Contact line advection using the geometrical Volume-of-Fluid method, Journal of Computational Physics (2020) (siehe auch arXiv) Hartmann, M., Fricke, M., Weimar, L., Gründing, D., Marić, T., Bothe, D., Hardt, S.: Breakup dynamics of Capillary Bridges on Hydrophobic Stripes, International Journal of Multiphase Flow (2021) Fricke, M., Köhne, M. and Bothe, D.: On the kinematics of contact line motion, Proceedings in Applied Mathematics and Mechanics (2018) Fricke, M., Marić, T. and Bothe, D.: Contact line advection using the Level Set method, Proceedings in Applied Mathematics and Mechanics (2019) Huh, C. and Scriven, L.E: Hydrodynamic model of steady movement of a solid/liquid/fluid contact line, Journal of Colloid and Interface Science (1971) Bothe, D., Dreyer, W.: Continuum thermodynamics of chemically reacting fluid mixtures. Acta Mechanica, 226(6), 1757–1805. (2015). Bothe, D., Prüss, J.: On the Interface Formation Model for Dynamic Triple Lines. In H. Amann, Y. Giga, H. Kozono, H. Okamoto, & M. Yamazaki (Eds.), Recent Developments of Mathematical Fluid Mechanics (pp. 25–47). Springer (2016). Podcasts Sachgeschichte: Wie läuft der Wasserläufer übers Wasser? G. Thäter, S. Claus: Zweiphasenströmungen, Gespräch im Modellansatz Podcast, Folge 164, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018 M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016
Thema heute: KIT: KI unterstützt Fachkräfte bei der Montage Künstliche Intelligenz (KI) macht es möglich, dass auch Maschinen Objekte erkennen können. Hierfür braucht es große Mengen an qualitativ hochwertigen Bilddaten, mit denen die Algorithmen manuell trainiert werden. Das am Karlsruher Institut für Technologie (KIT) entstandene Start-up Kimoknow hat eine Technologie entwickelt, um dieses Training zu automatisieren. „KI-Systeme für die Erkennung von Objekten zu trainieren, ist nach wie vor zeitaufwändig, unflexibel, teuer, stark umgebungsabhängig und erfordert einen hohen Rechenaufwand“, erklärt Kimoknow-Mitgründer Lukas Kriete. Das Start-up des KIT greift deswegen auf Bilddaten zurück, die bei computerunterstützten Entwicklungsprozessen (CAD) und im Produktionsdatenmanagement (PDM) ohnehin für alle Objekte entstehen. Sie geben unter anderem Aufschluss über Material, Geometrie und Position des jeweiligen Gegenstandes. Die CAD- und PDM-Daten werden extrahiert und für das automatisierte Training der KI genutzt. Das auf diese Weise geschulte Objekterkennungssystem kann vielfältig eingesetzt werden, unter anderem in Augmented Reality (AR)-Brillen. Sie erfassen relevante Gegenstände im Sichtfeld des Nutzers in Echtzeit und verfügen zudem über notwendige Kontextinformationen zum betreffenden Objekt. Kimoknow hat für solche AR-Brillen ein Assistenzsystem entwickelt, das Fachkräfte bei der Montage komplexer Geräte unterstützen soll. Der virtuelle Assistent führt Nutzerinnen und Nutzer durch den gesamten Montageprozess, visualisiert ohne zusätzliches Display Schritt für Schritt die Bauanleitung und zeigt so in welcher Reihenfolge welches Teil mit welchen Werkzeugen und Montagematerialien verarbeitet wird. Er wiederholt einzelne Schritte, wenn Fehler auftauchen, und dokumentiert den Prozess. Der Monteur hat beide Hände frei und kommuniziert über Blickkontakt, Handzeichen oder Sprachbefehl mit dem System. „Der Montageassistent macht den Prozess bei besserer Qualität effizienter, produktiver, schneller und kostengünstiger“, sagt Kriete. Der Assistent eignet sich für alle Industrien, in denen hochkomplexe Produkte in geringer Stückzahl hergestellt werden. Kimoknow ging am 13. Mai 2020 als Unternehmergesellschaft (haftungsbeschränkt) an den Start. Diesen Beitrag können Sie nachhören oder downloaden unter:
Bitcoin ist die bekannteste Kryptowährung. Für die verschlüsselten Buchungsvorgänge bei diesem digitalen Zahlungsmittel ist ein riesiger Rechenaufwand nötig. Und ein entsprechend hoher Stromverbrauch. In Paraguay ist das kein Problem.
Kryptowährungen wie Bitcoin oder Ethereum erlebten zuletzt einen massiven Boom und haben mittlerweile einen Bekanntheitsgrad erreicht, der manchen staatlichen Währungen gleich kommt. Wie auch bei normalen Onlinetransaktionen ist die Sicherheit solcher Kryptowährungen eine zentrale Frage. Jedoch offenbart die zugrundeliegende Technik schnell einen wahren Dschungel an Fachbegriffen. Unser heutiger Gast Sebastian Karius, Masterabsolvent der Informatik an der MLU Halle, lichtet für uns das Dickicht. Er erklärt uns, dass die Sicherheit solcher Systeme auf sogenannten „Konsensmechanismen“ basieren, die die Verantwortung für die Sicherheit nicht bei einer einzelnen Person/einem einzelnen Konzern bündeln, sondern auf möglichst viele Schultern verteilen. Sebastian erläutert, was Blockchains und Hashfunktionen sind und wie damit ein solcher Mechanismus umgesetzt werden kann, aber auch welche Schwachstellen sie bergen: Insbesondere die Verarbeitung neuer Transaktionen ist mit enormen Rechenaufwand verbunden, der es notwendig macht, entweder immer leistungsfähigere Computer zu verwenden oder schlicht auf Glückstreffer bei der Berechnung zu hoffen. Sebastian präsentiert uns einen ersten Ansatz zur Lösung dieses Problems, den er in seiner Masterarbeit entwickelt hat.
Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Arne Rick und sie unterhielten sich über die DIN-Norm 4149 zu Erdbebensicherem Bauen. Die DIN4149 legt fest, nach welchen Auslegungszahlen man planen, und welchen Verfahren man Gebäude bauen darf, um sie "erdbebensicher" gemäß der Norm nennen zu dürfen. Erdbeben sind in Deutschland allgemein nicht sehr häufig, aber es gibt Gebiete in denen ein deutlich höheres Erbebenrisiko besteht, wie beispielsweise in Aachen und dem Erdbebengebiet Kölner Bucht (aktuelle Erdbeben) in der Erdbebenzone 3. Mit der Erdbebenzone 1 für Karlsruhe sind wir auch in einem gefährdeten Bereich (Erdbeben in Karlsruhe), wenn auch nicht im gleichen Maße. Südlich von Tübingen gibt es eine weitere Erbebenzone 3 (aktuelle Erdbeben). Erdbebenzonen in Deutschland. CC-BY 2.0 Störfix In der Auslegung werden Erdbeben als ein Katastrophen-Lastfall angenommen, und die Bemessung richtet sich auf die schwersten Erdbeben, die statistisch alle 475 Jahre auftreten können. Die ehemalige Munitionsfabrik, die nun u.a. das ZKM, die HfG und gerade die GPN18 beinhaltet, steht schon seit über 100 Jahren, und wird auch noch länger stehen, so ist dies eine für Gebäude realistische Zeitskala. In der Auslegung spielt das Gewicht der Gebäude eine große Rolle, denn die zu verarbeitende Kraft bestimmt sich nach Newton aus der Masse und Beschleunigung. In Karlsruhe muss mit einer Spitzenbodenbeschleunigung von bis zu 0.4g bzw. 3.9m/s^2 rechnen. Wie unterschiedlich dabei die Bewegung ausfallen kann, ist an verschiedenen Seismogrammen ersichtlich, die den Verlauf des Bebens mit einem Stift auf einem durchlaufenden Blatt darstellen. Die Modellierung von Erdbeben beginnt mit dem Erdbebenherd, über dem sich auf der Erdoberfläche das Epizentrum befindet. Idealisiert bewegen sich seismische Wellen vom Epizentrum aus als Raumwellen kugelförmig aus, zusätzlich gibt es aber auch Oberflächenwellen wie Rayleigh- oder Love-Wellen, die sich idealisiert kreisförmig um das Epizentrum ausbreiten. Da die horizontale Beschleunigung die stärkste Wirkung auf Gebäude hat, vereinfacht die Norm den Einfluss von Erdbeben auf Horizontalbeschleunigungen und Bodeneinflüsse. Während Erdbeben für Gebäude ein Problem darstellen können, so sind sie für die Seismische Tomographie die Informationsquelle, um Einblicke in die Erde zu erhalten. Mit optimaler Versuchsplanung kann man dafür auch die Aufstellorte optimieren, um ein möglichst optimales Bild zu erhalten, wie wir aus Modell012: Erdbeben und Optimale Versuchsplanung schon wissen. Natürlich müssen alle relevanten Lastfälle berücksichtigt werden, so kann in Karlsruhe die Windlast sich als Flächenlast teilweise stärker als der Lastfall durch Erdbeben auswirken. Das Haus wird dabei oft als Einmassenschwinger gesehen, bei aufwendigeren Geometrien aber auch als Mehrmassenschwinger, und die unterschiedlichen Belastungen in der maximalen Auslenkung in maximale statische horizontale Ersatzkräfte umgerechnet und damit vergleichbar gemacht. Ein wichtiger Startpunkt ist die Auswahl der Bemessungssituation und das Semiprobabilistische Teilsicherheitssystem, als Weiterentwicklung des Sicherheitsfaktors, bzw. der Aufteilung in verschiedene Eurocodes, die auch noch eine national unterschiedliche Behandlung ermöglichen. Bei der Lastbestimmung berücksichtigt man ständige Lasten, eine hauptsächliche nicht-ständige Last, die Haupteinwirkung, und weitere nicht-ständige Lasten, die aber durch einen probabilistischen Faktor abgemindert werden, da nicht alle nicht-ständige Lasten gleichzeitig auftreten. Aus der Festigkeit des Baumaterials wird nun die maximale Spannung berechnet, die es aufnehmen kann, und diese muss den Einwirkungen bestehen können. Eigentlich ist die DIN4149 durch den deutlich umfangreicheren Eurocode 8 abgelöst, doch ist aktuell noch die DIN4149 anzuwenden, da der Eurocode 8 zum Zeitpunkt der Aufnahme noch nicht in die technischen Baubestimmungen aufgenommen wurden. Eine Besonderheit der Bemessungssituation für erdbebensicheres Bauen ist, dass hier ein Katastrophenlastfall angenommen wird, und es daher keine allgemeinen Sicherheitsfaktoren mehr gibt. Es geht dabei nicht um den Erhalt des Gebäudes, sondern nur um die Möglichkeit Menschenleben schützen zu können. Ein Bedeutungsbeiwert beschreibt die Bedeutung des Gebäudes für Katastrophenfälle, beispielsweise haben hier landwirtschaftliche Gebäude einen Wert von 0,8 während Krankenhäuser den Wert 1,4 haben. Weiterhin wird die Nutzung durch einen Nutzungsbeiwert beschrieben, die die Belastung des Gebäudes durch die Nutzung beschreiben- diese können ständig, wie im Fall von Bibliotheken sein, oder sich häufig ändernd, wie durch Menschen, die das Gebäude besuchen. Aus dem anzusetzenden Gewicht und der Beschleunigung durch die Erdmase kann man mit dem Modell des Einmassenschwingers die modellierte Schwingung des Gebäudes simulieren. Aus dieser Simulation erhält man das Antwortspektrum des Gebäudes für unterschiedliche Erdbeben. Bildet man hier die einhüllende Kurve bzw. Hüllkurve, die in der Synthesizer-Musik auch über das ADSR-Modell beschrieben werden kann. Die Nachschwingzeiten von sehr hohen Gebäuden können so lange sein, dass es förmlich zu tanzenden Hochhäusern kommen kann. Der wichtige Wert der Schwingzeit wird durch eine vereinfachte Gebäudegeometrie berechnet. Da das Gebäude aber mehrere Resonanzfrequenzen beziehungsweise Eigenwerte der Steifigkeitsmatrix besitzt, gibt es zu jedem Mode eine eigene Schwingzeit. Die verschiedenen Schwingungen in den Teilmodellen überlagern sich in der Multimoden-Modell dann im vollen Modell. Diese vereinfachenden Verfahren ermöglichen meisst schon mit wenig Rechenaufwand sehr gute Ergebnisse, jedoch stößt das Vorgehen bei sehr verwinkelten und komplexen Baustrukturen an Grenzen- eine Verwendung des Ein- oder Mehrschwingermodells ist bei einem Gebäude wie dem Aachenmünchener Direktionsgebäude nicht denkbar. Bei der weiteren Betrachtung hat die Baugrundklasse einen wichtigen Einfluss, da diese beispielsweise bei kiesigem Untergrund die Erdbeschleunigung erheblich abschwächen kann. Der Dämpfungsbeiwert beschreibt die durch Prozesse wie Reibung dissipierte Energie. Weiterhin beschreibt der Verhaltensbeiwert die Plastitzität von Werkstoffen in Gebäuden, durch die ebenso die Schwingungsenergie verbraucht wird. Speziell werden Gebäude dazu in Duktulitätsklassen eingeteilt. Eine besondere Rolle spielen hier die Zustandsklassen, beispielsweise beim Beton und Stahlbeton: Man geht davon aus, dass der Beton im normalen Zustand von kleinen Rissen durchzogen ist, und damit in Zustandsklasse 2 liegt. In der Alterung, aber auch durch Einwirkung von äußeren Kräften wie Erdbeben, kommt es zu einem Risswachstum. Risse können mathematisch durch Bifurkationen beschrieben werden, und erzeugen sehr schnell äußerst komplexe Problemstellungen. Im Katastrophenfall erlauben wir für Stahlbeton die Zustandsklasse 3, wo der Beton gerissen sein kann und der Stahl beginnt sich zu verbiegen. Auch wenn das Gebäude danach dringenden Reparaturbedarf besitzt, so wird so viel von der Erdbebenenergie durch die Materialien verbraucht. Ein großes Problem sind dabei aber die Verbindungen, da gehärtete Schrauben spröde reißen. Ebenso haben Schweißnähte immer kleine Nahtfehler, die versagen können. Ein Ausweg sind hier so groß ausgelegte Verbindungen, so dass diese im Extremfall die Rotationsfähigkeit erhaltende Fließgelenke ausbilden und somit ein Versagen möglichst nicht in der Verbindung auftritt. An der Hochschule Karlsruhe besucht Arne eine Vorlesung von Prof. Dr. Jan Akkermann und hat sich im Zuge seines Master-Studiums mit dem Projekt beschäftigt, einem Gebäude der Hochschule ein neues Geschoss zu planen. Literatur und weiterführende Informationen A. Ötes: Die neue Erdbebennorm DIN 4149, Universität Dortmund. A. Rick: The Basics of Audio compressors, Gulaschprogrammiernacht, 2018.Seismische Sonifikationen Z. Peng: Earthquake Music J. N. Louie, The Sound of Seismic, 2015 D. V. Rogers: Sounds of Seismic - Earth System Soundscape, 2013. Podcasts S. Wollherr: Erdbeben und Optimale Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 12, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/erdbeben S. Wollherr: Bruchzonen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 136, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bruchzonen A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke
Guntram Scheithauer ist Mathematiker und forscht an der TU Dresden. Seit seiner Promotion gilt sein Interesse der diskreten Mathematik und der Optimierung. Sein Einstieg in dieses Teilgebiet der Mathematik waren Rundreiseprobleme. Anfang der 1980er Jahre verschob sich das Hauptarbeitsgebiet dann auf Zuschnittsoptimierung und Packungsprobleme. Ausgangspunkt hierfür waren konkrete Anfragen aus der Holzindustrie. Ein noch sehr einfach formulierbares eindimensionales Zuschnittsproblem ist: Man hat Material der Länge l vorliegen und möchte daraus Teile einer bestimmten Länge so zuschneiden, dass der Abfall minimiert wird. Die Anzahl der Teile ist dabei nicht fest vorgegeben. Mathematisch lässt sich das auf das sogenannte Rucksackproblem zurückführen. Typisch ist, dass eine Nebenbedingung (die Länge) auftritt und nur ganzzahlige Werte sinnvoll sind, also ein ganzahliges lineares Optimierungsproblem vorliegt. Prinzipiell geht es im Rucksackproblem darum, dass man ein vorgegebenes Volumen des Rucksackes (seine Kapazität) gegeben hat, in das man beliebig verformbare Teile einpackt. In der Praxis so etwas wie Kleidung und Wanderutensilien, die man alle mehr oder weniger nötig braucht. Das heißt, jedes potentiell mitzunehmenden Teil hat zwei relevante Eigenschaften: Es braucht ein bestimmtes Volumen im Rucksack und es hat einen bestimmten Wert an Nützlichkeit. Das Problem ist gelöst, wenn man die Packung mit dem größten Nützlichkeits-Wert gefunden hat. Theoretisch kann man natürlich alle Möglichkeiten durchgehen, den Rucksack zu packen und dann aus allen die nützlichste aussuchen, aber in der Praxis ist die Anzahl an Möglichkeiten für Packungen sehr schnell so groß, dass auch ein schneller Computer zu lange braucht, um alle Fälle in akzeptabler Zeit zu betrachten. Hier setzt die Idee des Branch-and-Bound-Verfahrens an. Der sogenannte zulässige Bereich, d.h. die Menge der Lösungen, die alle Bedingungen erfüllen, wird zunächst schrittweise in Teilbereiche zerlegt. Auf diesen Teilbereichen werden die Optimierungsprobleme gelöst und dann aus allen die beste Variante gesucht. Leider können dies extrem viele Teilprobleme sein, weshalb der "Bound"-Teil des Verfahrens versucht, möglichst viele der Teilprobleme von vornherein als nicht aussichtsreich zu verwerfen. Der Erfolg des Branch-and-Bound steht und fällt mit guten Ideen für die Zerlegung und die zugehörigen Schranken. Der Rechenaufwand ist für einen konkreten Fall jeweils schwer schätzbar. Ein weiteres Verfahren für ganzzahlige Optimierungsprobleme ist Dynamische Optimierung. Ursprünglich wurde es für die Optimierung von sequentiellen Entscheidungsprozessen entwickelt. Diese Technik zur mehrstufigen Problemlösung kann auf Probleme angewendet werden, die als verschachtelte Familie von Teilproblemen beschrieben werden können. Das ursprüngliche Problem wird rekursiv aus den Lösungen der Teilprobleme gelöst. Deshalb ist der Aufwand pseudopolynomial und es erfordert etwa gleichen Rechenaufwand für gleich große Probleme. Weitere Verfahren zur Lösung von ganzzahligen Optimierungsproblemen sind bekannt unter dem Namen Schnittebenenverfahren und Branch-and-Cut. Nach der Berechnung des Optimums der stetigen Relaxation werden Schritt für Schritt neue Nebenbedingungen zum Problem hinzugefügt. Mit Hilfe dieser zusätzlichen Ungleichungen werden nicht ganzzahlige Variablen der kontinuierlichen Lösungen gezwungen, ganzzahlige Werte anzunehmen. Oftmals ist eine Kombination mit einer Verzweigungsstrategie erforderlich. Eine nahe liegende Verallgemeinerung des oben beschriebenen einfachsten Zuschnittsproblems ist der Zuschnitt von rechteckigen Teilen aus einer Spanplatte. In der Holzindustrie macht eine Kreissäge das meist mit Schnitten von einem Rand der Platte zum gegenüberliegenden. Das sind sogenannte Guillotine-Schnitte. Das trifft auch für Zuschnitt von Glas und Fliesen zu. Hier ist die Anpassung der eindimensionalen Algorithmen noch relativ einfach auf den zweidimensionalen Fall möglich. Richtig schwierig wird es aber, wenn beliebige Polygone als Teile auftreten oder gar solche mit krummlinigen Rändern. Ein typisches Anwendungsproblem ist, dass eine optimale Anordnung von Einzelteilen eines Kleidungsstück auf einer Stoffbahn in der Regel nicht übertragbar auf eine andere Konfektionsgröße ist. Eine weitere Familie von Fragestellungen ist: Wie groß muss ein Quadrat sein, um Platz für eine vorgegebene Anzahl von Kreise mit Durchmesser 1 zu bieten? Das ist mathematisch sehr einfach zu formulieren aber in der Regel schwierig zu lösen, da das zugehörige Optimierungsproblem nicht konvex ist. Literatur und weiterführende Informationen Rucksackproblem Algorithmen für Rucksackproblem Rucksackproblem in Anwendungen Josef Kallrath: Gemischt-Ganzzahlige Optimierung. Modellierung in der Praxis. Vieweg/Springer 2013. Guntram Scheithauer: Zuschnitt- und Packungsoptimierung - Problemstellungen, Modellierungstechniken, Lösungsmethoden. Vieweg/Springer 2008. Guntram Scheithauer: Introduction to Cutting and Packing Optimization - Problems, Modeling Approaches, Solution Methods Springer 2018. Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research M. An: Topologieoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/topologieoptimierung K. Berude: Sensoreinsatzplanung, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 154, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/sensoreinsatzplanung
Zahlen in Ebene (statt auf Gerade) dargestellt. und jetzt sehen wir uns wieder an, was mit der Formel oben passiert nach wievielen Durchläufen ist das Ergebnis > 4? je nach Ergebnis andere Graustufe, schöner andere Farbe Das Ergebnis im Bereich von -2 bis +2 und -2i bis +2i sieht nett aus: Das Programm dazu ist einfach context = document.getElementById('myCanvas').getContext('2d'); for(x = 0; x < 800; x++) { for(y = 0; y < 800; y++) { i = zx = zy = 0 // Diese folgenden Zahlen 2 und 200 ändern, // um in x-Richtung zu schieben und zu skalieren cx = -2 + x / 200 // Die Folgenden Zahlen 2 und 200 ändern, // um in y-Richtung zu schieben und zu skalieren cy = -2 + y / 200 while(i < 255 && (zx * zx + zy * zy) < 4) { xt = zx * zy zx = zx * zx - zy * zy + cx zy= 2 * xt + cy i++ } color = i.toString(16) context.beginPath() context.rect(x, y, 1, 1) context.fillStyle = "#" + color + color + color context.fill() } } hübscher ist es mit einem Farbverlauf und noch hübscher, wenn man die Farbstufen glättet Interessantes ergibt sich, wenn man ein Detail ansieht: wieder in Graustaufen, als Farbverlauf und als geglätteter Farbverlauf. Wir betrachten hier den Bereich -.64 bis +.64 und -.74 i bis + 0.74 i Es gibt sehr schöne Videos, die eine Kamerafahrt in das Apfelmännchen machen da das ‘nur’ Rechenaufwand bedeutet, kann man beliebig weit hinein zoomen und entdeckt dabei immer neue Strukturen The Hardest Mandelbrot Zoom Ever In 2014,10^198 : New record - 350 000 000 iterations Pinwheel of Infinity - Mandelbrot Zoom 9.336x10^341 Dieses Verhalten der einfachen Gleichung ist doch überraschend Sehr eng bei einander liegende Gegenden sehen komplett unterschiedlich aus Mathematiker bezeichnen so eine Struktur als Fraktal Fraktale - Die Faszination der verborgenen Dimension - Dokumentation/Doku Fibonacci Folge in Stefans Jugend Forschungsgebiet mit Hype zum Beispiel Hoffnung auf großartige Komprimierungsalgorithmen: FiF Erratum: Jpeg 200 (von Stefan im Podcast genannt) verwendet Wavelets zur Komprimierung und keine Fraktale. Der Hype um sie ist ebenso abgeflacht, vielleicht hat sie Stefan deshalb verwechselt ;-) . doch auch in der Öffentlichkeit bekannt: Schmetterlingseffekt -> Wettervorhersage, Herzrhythmus Weg in Spiele gefunden -> Landschaftsgenerierung mit Terragen Fraktale in der Natur: Schneeflocken, Küsten, Broccoli oder Blumenkohl Neuronale Netze Auch Eingang in die Wirtschaft gefunden -> Unternehmenskultur fraktale Organisation allerdings sind hier die Begriffe aus der Mathematik nur sinngemäß übernommen. Heute ist Chaostheorie oder Fraktale in den Medien kaum mehr zu hören.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Eine aussagekräftige theoretische Beschreibung des Infrarot (IR)-Schwingungsspektrums eines Biomoleküls in seiner nativen Umgebung durch Molekulardynamik (MD)-Simulationen benötigt hinreichend genaue Modelle sowohl für das Biomolekül, als auch für das umgebende Lösungsmittel. Die quantenmechanische Dichtefunktionaltheorie (DFT) stellt solche genauen Modelle zur Verfügung, zieht aber hohen Rechenaufwand nach sich. Daher ist dieser Ansatz nicht zur Simulation der MD ausgedehnter Biomolekül-Lösungsmittel-Komplexe einsetzbar. Solche Systeme können effizient mit polarisierbaren molekülmechanischen (PMM) Kraftfeldern behandelt werden, die jedoch nicht die zur Berechnung von IR-Spektren nötige Genauigkeit liefern. Einen Ausweg aus dem skizzierten Dilemma bieten Hybridverfahren, die einen relevanten Teil eines Simulationssystems mit DFT, und die ausgedehnte Lösungsmittelumgebung mit einem (P)MM-Kraftfeld beschreiben. Im Rahmen dieser Arbeit wird, ausgehend von einer DFT/MM-Hybridmethode [Eichinger et al., J. Chem. Phys. 110, 10452-10467 (1999)], ein genaues und hocheffizientes DFT/PMM-Rechenverfahren entwickelt, das der wissenschaftlichen Ọ̈ffentlichkeit nun in Form des auf Großrechnern einsetzbaren Programmpakets IPHIGENIE/CPMD zur Verfügung steht. Die neue DFT/PMM-Methode fußt auf der optimalen Integration des DFT-Fragments in die "schnelle strukturadaptierte Multipolmethode" (SAMM) zur effizienten approximativen Berechnung der Wechselwirkungen zwischen den mit gitterbasierter DFT bzw. mit PMM beschriebenen Subsystemen. Dies erlaubt stabile Hamilton'sche MD-Simulationen sowie die Steigerung der Performanz (d.h. dem Produkt aus Genauigkeit und Recheneffizienz) um mehr als eine Größenordnung. Die eingeführte explizite Modellierung der elektronischen Polarisierbarkeit im PMM-Subsystem durch induzierbare Gauß'sche Dipole ermöglicht die Verwendung wesentlich genauerer PMM-Lösungsmittelmodelle. Ein effizientes Abtastens von Peptidkonformationen mit DFT/ PMM-MD kann mit einer generalisierten Ensemblemethode erfolgen. Durch die Entwicklung eines Gauß'schen polarisierbaren Sechspunktmodells (GP6P) für Wasser und die Parametrisierung der Modellpotentiale für van der Waals-Wechselwirkungen zwischen GP6P-Molekülen und der Amidgruppe (AG) von N-Methyl-Acetamid (NMA) wird ein DFT/PMM-Modell für (Poly-)Peptide und Proteine in wässriger Lösung konstruiert. Das neue GP6P-Modell kann die Eigenschaften von flüssigem Wasser mit guter Qualität beschreiben. Ferner können die mit DFT/PMM-MD berechneten IR-Spektren eines in GP6P gelösten DFT-Modells von NMA die experimentelle Evidenz mit hervorragender Genauigkeit reproduzieren. Somit ist nun ein hocheffizientes und ausgereiftes DFT/PMM-MD-Verfahren zur genauen Berechnung der Konformationslandschaften und IR-Schwingungsspektren von in Wasser gelösten Proteinen verfügbar.
Dr. Tobias Kretz arbeitet in der Firma PTV Group in Karlsruhe an der Modellierung und Simulation von Fußgängerströmen. Er studierte Physik an der Universität Karlsruhe und behandelte in seiner Diplomarbeit Teilchen-Zerfallsprozesse. Anschließend führte ihn die Suche nach interessanten Anwendungen physikalischer Konzepte zur Arbeitsgruppe Physik von Transport und Verkehr an der Universität Duisburg-Essen. Dort promovierte er im Themenfeld der Fußgängersimulation bei Prof. Schreckenberg. Damit war er genau der Experte, den die ptv suchte, als sie sich entschied, die Verkehrssimulations-Software im Haus um den Aspekt der Fußgängersimulation zu erweitern. Eine erste für Karlsruhe interessante Anwendung der neuen Software VISWALK war die Simulation der Großveranstaltung Das Fest hier in Karlsruhe. Die Simulation von Fußgängerströmen ist eine noch junge Disziplin. Sie entwickelte sich zunächst für Evakuierungs- und Notfall-Szenarien. Heute dient die Fußgängersimulationssoftware beispielsweise der Planung in großen Bahnhöfen. Denn hängt die Frage, ob man einen Anschlußzug kann, nicht auch von der Problematik ab, dass man dabei von anderen Fahrgästen behindert wird? Außerdem ist die Untersuchung der von Effizienz von Laufwegen sehr hilfreich in der Planung von Bauvorhaben. In der Fußgängersimulation werden verschiedene Methoden aus der Mathematik und Physik benutzt. In der Arbeitsgruppe von Herrn Schreckenberg waren es vor allem Zellularautomaten. Im nun vorhandenen Modul VISWALK wurde bei der ptv vor allem auf das Social force Modell gesetzt, das auf einem Newtonschen Ansatz (also dem Zusammenhang von Kraft und Beschleunigung) beruht und auf eine Beschreibung durch Differentialgleichungen für die einzelnen Fußgänger führt. Dieses System muss numerisch gelöst werden. Die schrittweise Lösung entspricht dabei der zeitlichen Entwicklung der Bewegung. Die Grundidee beim Social Force Modell ist, dass man sich vorstellt, dass die am Fußgänger angreifende Kräfte seine Beschleunigung (inklusive der Richtung) verändern und damit seine Bewegung bestimmen. Das einfachste Modell ist der Wunsch das Ziel zu erreichen (driving force), denn es genügt dafür eine zum gewünschten Ziel ziehende starke Kraft. Dabei muss man aber anderen Fußgängern und Hindernissen ausweichen. Das Ausweichen kann man aber leider nicht in genau ein Modell (also genau ein erwartetes Verhalten) übersetzen; es gibt dazu einfach zu viele Einflussfaktoren. Physikalisch werden sie daher als abstoßende Kräfte im Nahfeld von anderen Fußgängern und Hindernissen modelliert. Wichtige Fragen, die im Algorithmus zu berücksichtigen sind, wären beispielsweise, wie nah geht ein typischer Fußgänger typischerweise an anderen Fußgängern vorbei geht, und welche Umwege typischerweise am attraktivsten erscheinen. Aus eigener Erfahrung kennt man den inneren Kampf, wie man mit Gruppen, die sozusagen als ein weiches Hindernis im Weg stehen, umgeht. Hindurchdrängeln vermeidet man oft. Das muss auch der Algorithmus so tun, wenn er menschliches Verhalten nachbilden soll. So kann man hier die Dichte der Gruppe in eine "Härte" des Hindernisses übersetzen. Je nachdem wie dicht gepackt der Raum ist, werden solche Entscheidungen aber auch unterschiedlich ausfallen. Berechnet wird natürlich stets die Bewegung des Schwerpunkts des Fußgängers. Für die visuelle Umsetzung im Programm wird das entsprechend graphisch aufbereitet, was natürlich auch einen gewissen Rechenaufwand verursacht. Das Modell selbst ist zeitkontinuierlich und so wird die Genauigkeit durch die für das numerische Verfahren gewählte Zeitschrittweite bestimmt. Etwa 20.000 Personen können zur Zeit in Echtzeit simuliert werden. Leider ist es im Programm bisher nahezu unmöglich zu berücksichtigen, wie sich Menschen in zusammen gehörenden Zweier- oder Dreier-Gruppen bewegen. Zum Glück ist das beispielsweise in der Simulation von Berufspendlern auf einem Bahnhof ein vernachlässigbares Phänomen. Ein weiterer Aspekt ist, dass die Ergebnisse der intern komplexen Simulation sich schließlich für den Verkehrsplaner in wenig komplexen Zahlenwerten spiegeln (wie in Dichten). Dabei muss auch eine Balance gefunden werden zwischen Komplexität des Modells und der Bedienbarkeit durch einen Verkehrsplaner im Arbeitsalltag. Zu einfache Modelle - wie solche, die nur Dichten von Personen berücksichtigen (sogenannte Makromodelle) - können eventuell nicht mehr wiedergeben, dass es in Korridoren gegenläufige Bewegungen gibt, was jedoch ein zentraler Aspekt der tatsächlichen Fußgängerbewegung ist. Daten zur Kalibrierung dieser Modelle sind nicht so einfach zu erheben. Eine Möglichkeit ist die Auswertung von Videos (z.B. von Überwachungskameras). Dabei weiß man natürlich nichts über den Hintergrund der beobachteten Personen (Alter, Größe, Dringlichkeit des Ortswechsels). In Laborexperimenten sind diese Informationen verfügbar, aber es bleibt immer eine künstliche Umgebung, die die Realitäts-Nähe der Ergebnisse potentiell gefährdet. Ein noch ganz neuer dritter Weg ist in Zusammenarbeit mit der Arbeitsgruppe von Prof. Hanebeck am KIT die Beobachtung einer jeweils einzelnen echten Person in einer virtueller Umgebung am Computer. Wir unterhielten uns ausführlich über die Begleitung des Umbaus eines Straßenabschnitts in Straßburg. In dieser Stadt wurde ein grundlegender Plan piéton beschlossen, durch den sich in den Jahren 2011-2020 die Situation für alle Verkehrsteilnehmer in der Innenstadt verändern soll. Die ptv hat konkret die Umgestaltung der Brücke Pont Kuss durch Simulationen begleitet. Da die Brücke auf dem direkten Weg vom Hauptbahnhof in die historische Innenstadt liegt, ist das Fußgängeraufkommen dort besonders hoch und wurde zur Untermauerung der Notwendigkeit eines Umbaus sorgfältig gezählt. Obwohl aus den Daten klar hervorging, dass die Verteilung des öffentlichen Raums hier dringend geändert werden sollte (mehr Platz für Fußgänger, weniger Spuren für PKW) konnte darüber hinaus die Simulation zeigen, dass durch die Einengung der Fahrspuren kein zu großer Nachteil für den Autoverkehr entsteht. In der städtischen Verkehrsplanung können Schwerpunkte (wie so ein Fußgängerplan in Straßburg) häufig durch Personen in der Verwaltung stark beeinflusst werden. Die faire Verteilung von öffentlichem Raum wird uns aber in der Zukunft noch sehr stark beschäftigen. Hier ist auch die Frage der Behandlung von Radfahrern im Stadtverkehr ein Modellierungs-Problem mit vielen offenen Fragen. Die Verwendung von Simulationen in kritischen bzw. Gefahren-Situationen ist auch nicht trivial. So hat es sich als unrealistisch erwiesen, im Zeitraffer vorausberechnete Situationen als Hilfestellung für Entscheidungen zu benutzen. Man braucht in solchen Situationen Ergebnisse, die in wenigen Augenblicken gute Ratschläge geben, wie Fußgängerströme geleitet werden sollten. Das geht zum Glück häufig über Makromodelle, die nur die Dichten beachten. Dies sind einfach genug analysierbare und dabei aussagekräftige Größen in einer Krisensituation. Neue Aufgaben für die Verbesserung von Fußgänger-Simulationen stellen sich jedes Jahr. Ein wichtiger Aspekt ist im Moment, dass die Software-Umsetzung sehr viel stärker parallelisiert werden muss, um leistungsstärker werden zu können. Literatur und weiterführende Informationen D. Helbing, I. Farkas, T. Vicsek: Simulating dynamical features of escape panic, Nature 407 (2000) 487-490. C. Burstedde e.a.: Simulation of pedestrian dynamics using a two-dimensional cellular automaton, Physica A: Statistical Mechanics and its Applications 295 3–4 (2001) 507–525. P.G. Gipps: Simulation of pedestrian traffic in buildings, Schriftenreihe Institut für Verkehrswesen Universität Karlsruhe (1987). T. Kretz, F. Reutenauer, F. Schubert: Multi-Modal Simulation-Based Planning For Pedestrians, 92nd Annual Meeting of the Transportation Research Board (2013). J. Bamberger e.a.: Crowd Research at School: Crossing Flows, Traffic and Granular Flow (2013) 137-144, Springer-Verlag. T. Kretz: A Link to Practice – a Reply to Urs Walter's Opening Presentation at PED 2012, Transportation Research Procedia, Special Issue PED 2014, 177–182, Elsevier Verlag. Podcasts und Videos PTV Youtube-Kanal H. Benner: Fußgänger, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/fussgaenger U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen M. Petersen: Unfallvorhersage, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 29, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/unfallvorhersage
Durch Unterstützung von dem Fraunhofer Institut für Solare Energiesysteme ISE konnte sich Edwin Hernandez mit der Optimierung von Sonnenkollektoren befassen. Speziell ging es dabei um Thermische Sonnenkollektoren, bei denen das Sonnenlicht einen flüssigen Wärmeträger erhitzt. Diese Träger können Wasser, Salzlösungen oder Öle mit hohen Wärmekapazitäten sein. Gängige Solarkollektoren verwenden inkompressible Fluide, wie Öle oder Wasser unter hohem Druck, die ihre Phase während der Erwärmung und Abkühlung nicht ändern. Die spannende Frage ist nun, wie sich die Verwendung von kompressiblen Fluiden auswirkt, beispielsweise bei Fluiden, die- wie Wasser- bei Erhitzung gasförming werden. Dies hat Edwin Hernandez simuliert. Die Grundlage für die Simulation ist das lang erprobte PFM (plug flow model) im ColSim - Collector Simulation Environment des ISE für inkompressible Fluide, wo vorausgesetzt wird, dass immer die gleiche Masse ein Rohrstück betritt, wie sie das Stück am anderen Ende verlässt. Diese Massenbilanz für ein Rohrstück wird bei kompressiblen Fluiden verletzt, da die gasförmige Phase ein deutlich höheren Platzbedarf hat. Im Modell wird das Rohr Im Kollektor sinnvollerweise eindimensional angesetzt, da die Länge des Rohrs die Dicke bei weitem überschreitet. Darauf werden die Bilanzgleichungen formuliert. Die enstehenden Gleichungen werden diskretisiert und approximativ gelöst. Die Umsetzung eines erweiterten PFM-Verfahrens (EPFM) und der SIMPLER-Methode erfolgte als neues Modul im ColSim - Collector Simulation Environment Framework. Die neue Methode berücksichtigt ein viel umfangreicheres physikalisches Modell, ist im Gegensatz zu den direkten Lösern des PFM-Verfahrens nun aber auch nur iterativ und damit hier mit mehr Rechenaufwand lösbar. Literatur und Zusatzinformationen H. Walter: Modellbildung und numerische Simulation von Naturumlaufdampferzeugern, VDI-Verlag, 2001. J. F. Feldhoff, T. Hirsch, R. Pitz-Paal, L. Valenzula: Transient models and characteristics of once-through line focus systems, SolarPaces, Beijing, China, 2014. ColSim - Collector Simulation Environment
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
Hybridmethoden, welche eine quantenmechanische Beschreibung eines Moleküls im Rahmen der Dichtefunktionaltheorie (DFT) mit einer molekülmechanischen (MM) Modellierung seiner Umgebung kombinieren, eröffnen einen Zugang zur Berechnung von Lösungsmitteleffekten in molekularen Schwingungsspektren. In der vorliegenden Arbeit wird eine solche DFT/MM-Hybridmethode exemplarisch zur Analyse der Schwingungsspektren von Biomolekülen eingesetzt. Durch Vergleich mit spektroskopischen Daten werden die erzielbare Genauigkeit und der dazu nötige Rechenaufwand ausgelotet. Bei den untersuchten Systemen handelt es sich um den Retinalchromophor der lichtgetriebenen Protonenpumpe Bakteriorhdopsin (BR) und um ein in Methanol gelöstes, lichtschaltbares beta-Hairpinpeptid. Die inhomogen verbreiterten Schwingungsspektren werden mit DFT/MM unter Verwendung der „instantanen Normalmodenanalyse (INMA)“ beschrieben. Dabei wird durch eine MM Molekulardynamik-(MD-)Simulation ein Raumtemperatur-Ensemble von Strukturen des Moleküls in seiner jeweiligen Umgebung generiert und für jeden solchen Strukturschnappschuss das Infrarot-(IR-) Spektrum durch DFT/MM Normalmodenanalyse berechnet. Das inhomogen verbreiterte Raumtemperaturspektrum ergibt sich durch Überlagerung dieser Linienspektren. Für BR ist die Erzeugung eines solchen Ensembles schwierig, da die BR Struktur bei Verwendung der üblichen nicht-polarisierbaren MM-Kraftfelder unter MD „zerfällt“. Einen Ausweg bietet ein mit DFT/MM Methoden berechnetes polarisiertes BR-Kraftfeld, das die BR-Struktur auch bei Langzeit-MD-Simulationen (50 ns) erhält. Mit einem speziell entwickelten Hamiltonschen Replika-Austauschverfahren lässt sich anschließend zeigen, dass die bei den tiefen Temperaturen der Kristallstrukturanalyse homogene BR Struktur bei Raumtemperatur heterogen wird, was eine Vielzahl experimenteller Befunde erklärt. Die INMA Berechnung der Schwingungspektren des BR-Chromophors bei Raumtemperatur in situ, eine systematische Analyse diverser Einflussparameter und Vergleiche mit experimentellen Daten beantworten schließlich die Frage, mit welcher Qualität solche Spektren bei sorgfältiger Modellierung und unter Einsatz der gewgenwärtig verfügbaren DFT/MM Methoden berechnet werden können. Weiterhin werden DFT/MM-Hybridrechnungen dazu eingesetzt, um den strukturellen Gehalt von ps-zeitaufgelöste IR Daten zur Entfaltungsdynamik eines lichtschaltbaren beta-Hairpinpeptids zu dekodieren. Der lichtinduzierte Entfaltungsprozess wird mit MM/MD simuliert. DFT/MM Berechnungen der durch den Entfaltungsprozess ausgelösten Bandenverschiebungen im Amid-I Bereich zeigen dann, dass die spektrospopischen Beobachtungen das sukzessive Aufreissen der ursprünglich geordneten H-Brückenstruktur des Peptids anzeigen.
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Die vorliegende Arbeit behandelt zwei unterschiedliche Anwendungen aus dem Bereich der numerischen Seismologie: Das erste Thema umfasst die Entwicklung und Anwendung eines Programms zur Berechnung der lokalen Wellenausbreitung in seismischen Störungszonen (Fault Zones) mit spezieller Fokussierung auf geführte Wellen (Trapped Waves). Dieser Wellentyp wird an vielen Störungszonen beobachtet und aus seinen Eigenschaften können Informationen über die jeweilige Tiefenstruktur abgeleitet werden. Das zweite Thema dieser Arbeit behandelt die Entwicklung und Anwendung zweier Verfahren zur Berechnung der globalen Wellenausbreitung, also der Ausbreitung seismischer Wellen durch die gesamte Erde einschließlich des äußeren und inneren Erdkerns. Die verwendeten Methoden ermöglichen es, kleinräumige Strukturen in großen Tiefen wie zum Beispiel die Streueigenschaften des Erdmantels oder die kleinskalige Geschwindigkeitsstruktur an der Kern-Mantelgrenze in knapp 2900 km Tiefe zu untersuchen. Wellenausbreitung in seismischen Störungszonen: Seismische Störungszonen, wie zum Beispiel der San Andreas Fault in Kalifornien, zeigen auf beeindruckende Weise, wie die Gestalt der Erdoberfläche durch seismische Aktivität als Folge tektonischer Prozesse geprägt wird. Die genaue Kenntnis der Tiefenstruktur einer Störungszone hingegen bietet zusätzlich einen Einblick in die vergangene Seismizität, die die Struktur der jeweiligen Störung geprägt hat. Neben den tektonischen Eigenschaften einer Region lassen sich aus der Tiefenstruktur auch Voraussagen über Häufigkeit und zu erwartende Stärke zukünftiger Erdbeben ableiten. Da Erdbeben vorzugsweise in solchen Störungszonen auftreten, ist eine möglichst genaue Kenntnis der Geometrie einer Schwächezone wichtig, um Regionen mit erhöhtem Gefährdungspotenzial zu erkennen. Für die Untersuchung der Tiefenstruktur einer Störungszone stehen in vielen Fällen ausschließlich Messungen von der Erdoberfläche zur Verfügung, etwa von seismischen Netzen, die in unmittelbarer Umgebung oder direkt auf einer Störung platziert wurden. Ereignet sich nun ein Erdbeben in einigen Kilometern Tiefe innerhalb der Störungszone, breitet sich ein Teil der angeregten seismischen Wellen durch die gesamte Störungszone bis zur Erdoberfläche aus, wo sie registriert werden. Die aufgezeichneten Signale werden somit entlang ihres gesamten Laufweges durch die Struktur der Störungszone beeinflusst, was die Ableitung der tiefenabhängigen Struktur aus den Messdaten erschwert. Um trotzdem ein genaues seismisches Abbild einer Störungszone zu bekommen, analysiert man unterschiedliche Wellentypen im Seismogramm, wodurch ein Maximum an Strukturinformation abgeleitet werden kann. Einer dieser Wellentypen, der sich durch besondere Eigenschaften auszeichnet, ist die geführte Welle (Trapped Wave). Diese entsteht, wenn eine Störungszone einen ausgeprägten vertikal ausgedehnten Bereich drastisch reduzierter seismischer Ausbreitungsgeschwindigkeit (Low Velocity Layer) und nicht zu komplexer Geometrie besitzt, der als seismischer Wellenleiter wirkt. In einem solchen Wellenleiter kann sich eine geführte Welle ausbreiten, die als mit Abstand stärkstes Signal an der Erdoberfläche registriert wird, also deutlich stärkere Bodenbewegungen hervorruft als etwa die direkte Welle. Dieser Verstärkungseffekt hat unter anderem Konsequenzen für die Abschätzung der seismischen Gefährdung in der Nähe einer Störungszone, zum Beispiel wenn die Störungszone durch dicht besiedeltes Gebiet verläuft. Geführte Wellen beinhalten aufgrund ihrer hohen Sensitivität bezüglich der Eigenschaften von Niedergeschwindigkeitszonen Strukturinformationen, die aus anderen Wellentypen nicht abgeleitet werden können. Daher leistet das Verständnis dieses Wellentyps einen wichtigen Beitrag für die Ableitung möglichst vollständiger Modelle von Störungszonen. Ausbreitung von SH- und P-SV Wellen in Erdmantel und der ganzen Erde: Das allgemeine Verständnis der Struktur und Dynamik des tiefen Erdinneren basiert zu einem großen Teil auf den Ergebnissen der globalen Seismologie. Im Gegensatz zum ersten Teil dieser Arbeit haben diese Erkenntnisse keine unmittelbare Auswirkung auf unser tägliches Leben. Jedoch liefert die Kenntnis des inneren Aufbaus der Erde wichtige Erkenntnisse für die geophysikalische Grundlagenforschung bis hin zum Verständnis der Entstehungsgeschichte der Erde und unseres Planetensystems. Die Modellierung der globalen seismischen Wellenausbreitung unterscheidet sich von der lokalen Modellierungen in zwei wesentlichen Punkten: (1) die wesentlich größere Ausdehnung globaler Modelle, welche die gesamte Erde oder zumindest große Teile des Erdinnern beinhalten, und (2) der Eigenschaft seismischer Wellen, sich im globalen Maßstab hauptsächlich in der Ebene auszubreiten, die durch den Großkreis zwischen Quelle und Empfänger aufgespannt wird. Beide Punkte legen nahe, zur Verringerung des Rechenaufwands eine Symmetriebedingung einzuführen. In dieser Arbeit wird durch die Formulierung von Wellengleichung und Modell in einem sphärisch-achsensymmetrischen Koordinatensystem der – im globalen Maßstab im Allgemeinen geringe – Anteil von Variationen der seismischen Parameter und von Wellenfeldanteilen orthogonal zur Großkreisebene vernachlässigt. Diese Beschränkung führt zu einer enormen Einsparung an Rechenressourcen, da das zu berechnende seismische Wellenfeld nur noch zwei Dimensionen aufspannt. Eine Folge der Achsensymmetrie ist die Aufspaltung des seismischen Wellenfeldes in einen SH- und einen P-SV Anteil. Beide Wellenfeldanteile sind voneinander entkoppelt und breiten sich in unterschiedlichen Regionen des Erdinneren aus. Zur Berechnung des SH- und des P-SV Wellenfeldes wurden daher in dieser Arbeit zwei separate Programme SHaxi und PSVaxi entwickelt. Kapitel 3 behandelt die Berechnung des globalen SH Wellenfeldes für Achsensymmetrische Geometrien mit dem im Rahmen dieser Arbeit entwickelten Programm SHaxi. Das SH Wellenfeld besteht aus horizontal polarisierten Scherwellen, die sich in guter Näherung ausschließlich im Erdmantel, also zwischen Erdoberfläche und Kern-Mantelgrenze ausbreiten. Somit muss nur der Erdmantel als Modellraum abgebildet werden, was die Diskretisierung des Modells und die Implementierung der Wellengleichung deutlich vereinfacht. Um eine Anwendung auf modernen Parallelcomputern mit verteilter Speicherarchitektur zu ermöglichen, wurde der Modellraum durch vertikale Schnitte in gleichgroße Segmente geteilt, die von den einzelnen Elementen (Knoten) eines Parallelrechners getrennt bearbeitet werden können. Das Wellenfeld in den Randbereichen dieser Segmente muss dabei nach jedem Zeitschritt explizit zwischen benachbarten Knoten ausgetauscht werden, um die Ausbreitung durch das gesamte Modell zu ermöglichen. Ein wesentlicher Aspekt des Kapitels ist die Verifikation des Verfahrens unter besonderer Berücksichtigung der implementierten Ringquelle. Durch einen Vergleich mit analytisch berechneten Seismogrammen werden die Eigenschaften der implementierten achsensymmetrischen Ringquelle diskutiert und es wird gezeigt, dass das Programm korrekte Seismogramme berechnet, die mit einer realistischen Double-Couple Quelle vergleichbar sind. Abschließend werden bisherige Anwendungen des Programms gezeigt: (1) die Modellierung von Streuung im gesamten Erdmantel und (2) die Untersuchung von kleinskaliger Topographie der D“ Schicht im untersten Erdmantel. Kapitel 4 behandelt das Gegenstück des im vorherigen Kapitel behandelten Verfahrens: Das Programm PSVaxi zur Berechnung des globalen P-SV Wellenfeldes für achsensymmetrische Geometrien. Im Gegensatz zum SH Wellenfeld breitet sich das P-SV Wellenfeld nicht nur im Erdmantel sondern auch im äußeren und inneren Erdkern aus. Dies erforderte eine Erweiterung des Modellraums bis praktisch zum Erdmittelpunkt, die sich mit dem im SH Fall verwendeten gleichförmigen Gitter aufgrund von Grundsätzlichen Stabilitätsproblemen des verwendeten Finite Differenzen Verfahrens nicht durchführen lässt. Um diesen zusätzlichen Modellraum zu erschließen wurde eine Mehrgebietsmethode (Multi-Domain Method) implementiert. Diese füllt zusätzliche Tiefenbereiche mit neuen, jeweils gleichförmigen Gittern (Domains) aus, deren Gitterabstände an den jeweiligen Tiefenbereich angepasst sind, was für die notwendige Stabilität des Verfahrens sorgt. Zusätzlich zur tiefenabhängigen Aufteilung des Modellraumes in gleichförmige Gitter wurde eine Parallelisierung vorgenommen, um das Programm auf Parallelcomputern nutzen zu können. Dazu wurde der Modellraum durch horizontale Schnitte in einzelne Segmente zerlegt, die – analog zu den vertikalen Schnitten bei der SHaxi Parallelisierung – von den einzelnen Knoten eines Parallelrechners bearbeitet werden können. Die Kombination von Mehrgebietsmethode und Segmentierung führt zu einem recht aufwendigen Algorithmus, erlaubt jedoch die Berechnung des hochfrequenten globalen Wellenfeldes durch die ganze Erde auf Parallelrechnern mit vergleichsweise geringem Rechenaufwand. Erste Anwendungen des PSVaxi Programms werden am Ende des Kapitels diskutiert: (1) eine exemplarische Modellierung der Wellenausbreitung in einer angenommenen D“ Schicht mit Topographie (2) eine Studie des Einflusses von Niedergeschwindigkeitszonen mit Topographie auf seismische Phasen, die durch den untersten Mantel und den äußeren Kern verlaufen und (3) eine Arbeit, die die Streueigenschaften des Mantels aus an der Kern-Mantelgrenze diffraktieren Wellen ableitet.
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
Aufgrund der Entwicklung von aggregierten Methoden wurde in den letzten Jahren eine Reihe neuer Verfahren im Forschungsfeld der Klassifikation und Prädiktion eingeführt. Die beiden wichtigsten Entwicklungen, nämlich Bagging und Boosting, wurden sowohl für den Fall von binären Zielvariablen als auch für den Mehrklassenfall ausführlich diskutiert und analysiert. Während diese angeführten Methoden die Klassenvariable jedoch als nominale Größe ohne Ordnungsstruktur betrachten, kann die Zielvariable in vielen Anwendungen als eine geordnete kategoriale Größe angesehen werden. In dieser Arbeit sollen deshalb Varianten für Bagging und Boosting entwickelt und vorgestellt werden, die in der Lage sind, die durch die ordinale Struktur in den Daten gegebene Information zu nutzen. Ferner wird aufgezeigt, wie die Qualität der Vorhersagen durch die Verwendung dieser auf die Problemstellung abgestimmten Aggregationsverfahren verbessert wird. Die dazu nötigen empirischen Vergleiche zwischen diversen Klassifikationstechniken werden nicht nur anhand von Fehlklassifikationsraten durchgeführt; stattdessen sollen auch Kriterien, die die Ordinalität in Vorhersage und Zielgröße zu berücksichtigen vermögen, herangezogen werden. Hier spielen in erster Linie verschiedene Abstandsmaße eine Rolle. Aber auch auf der Basis anderer Techniken und Ansätze kann man versuchen, dem Problem der ordinalen Klassenstruktur zu begegnen: Nächste-Nachbarn-Verfahren, die eine der intuitivsten und einfachsten Methoden zur Klassifikation darstellen, werden in dieser Arbeit durch einige Modifikationen an die besonderen Strukturen von ordinalen Zielgrößen angepaßt. Abschließend können die Resultate dieses zweiten Ansatzes, der ohne großen Rechenaufwand auskommt, mit denjenigen der modernen und rechenintensiven Aggregationstechniken verglichen werden.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Quantenmechanische (QM) Grundzustandsrechnungen auf Basis der Dichtefunktionaltheorie (DFT) erlauben bei der derzeitigen Leistungsfähigkeit von Supercomputern die Molekulardynamik- Simulation (MD-Simulation) von molekularen Systemen mit bis zu 100 Atomen. Verwendet man nicht-lokale Austausch-Korrelations-Funktionale, so werden Elektronen-Korrelationseffekte erfaßt. Damit kann insbesondere das Kraftfeld von Farbstoffmolekülen mit ausgedehnten konjugierten p-Elektronensystemen richtig beschrieben werden. Ein prominentes Beispiel für ein solches Farbstoffmolekül ist die Schiffsche Base von Retinal, die in dem lichtgetriebenen Protonenpumpzyklus des Proteins Bacteriorhodopsin (BR) eine führende Rolle spielt. Die elektrostatischen Felder und die sterischen Bedingungen in der Chromophorbindungstasche im Inneren des Proteins steuern die Eigenschaften und Reaktionen des Farbstoffes auf eine hochspezifische Weise. Eine für das Verständnis dieser Protein- Chromophor-Wechselwirkung nötige quantenmechanische Behandlung des gesamten Protein- Chromophor-Komplexes ist nicht durchführbar, da Proteine in der Regel aus mehreren tausend Atomen bestehen und dies einen immensen Rechenaufwand zur Folge hätte. Nur molekülmechanische (MM) Proteinmodelle, bei denen molekulare Kraftfelder durch semiempirisch bestimmte Energiefunktionen approximiert werden, lassen sich numerisch hinreichend effizient auswerten und gestatten so eine mikroskopische Beschreibung der Dynamik von Proteinen. Aufgrund der vielen Vereinfachungen, die MM-Modellen anhaften, können jedoch keine chemischen Reaktionen oder Eigenschaften von Farbstoffmolekülen erfaßt werden. Aus diesem Grund wurde in dieser Arbeit ein QM/MM-Hybridverfahren entwickelt, mit dessen Hilfe ein kleiner Teil eines Proteinsystems, etwa ein gebundenes Substrat oder ein eingelagerter Farbstoff, mit einem DFT-Verfahren quantenmechanisch (QM-Fragment) und die nicht vernachlässigbare Proteinumgebung molekülmechanisch (MM-Fragment) behandelt werden kann. Zu diesem Zweck wurde ein geeignetes Wechselwirkungsschema zwischen QM- und MMFragment entwickelt, das in dem EGO/CPMD-Programmpaket implementiert wurde. Für die Berechnung der elektrostatischen Wechselwirkung zwischen den Fragmenten war es nötig, die sogenannte FAMUSAMM-Methode (fast multiple-time-step structure adapted multipole method) weiter zu entwickeln, so daß auch sehr große Hybridsysteme, bei denen die MM-Fragmente aus mehreren tausend Atomen bestehen, ohne Verlust an Genauigkeit behandelt werden können. Die bei kovalent aneinander gebundenen Fragmenten im QM-Fragment auftretende freie Valenz an einer Fragmentschnittstelle erfordert eine spezielle Behandlung. Hierfür werden vielfach sogenannte Link-Atom-Verfahren eingesetzt, bei denen das QM-Fragment durch ein zusätzlich eingeführtes Wasserstoffatom, das Link-Atom, abgesättigt wird. Wie in der vorliegenden Arbeit erstmals gezeigt werden konnte, lassen sich die dynamischen Freiheitsgrade, die in einem QM/MM-Hybridsystem durch ein Link-Atom zusätzlich auftreten und die Dynamik nachweislich verfälschen, vollständig eliminieren. Hierzu wurde ein neues Link-Atom-Verfahren SPLAM (scaled position link atom method) entwickelt, bei dem alle störenden Effekte, die von dem Link-Atom ausgehen, beseitigt werden, so daß das Kraftfeld an der Fragmentschnittstelle korrekt wiedergegeben wird. In ausführlichen Testrechnungen wurde die Qualität der in dieser Arbeit entwickelten QM/MM-Hybridmethode untersucht. Dabei wurden insbesondere berechnete Schwingungsspektren eingesetzt, da diese eine sehr empfindliche Probe für die Qualität eines molekularen Kraftfeldes sind. Es konnte durch MD-Simulation eines Wasserclusters demonstriert werden, daß in QM/MM-Hybridmodellen das TIP3P-Wassermolekülmodell, bei dem die Elektrostatik eines Wassermoleküls durch drei Punktladungen beschrieben wird, den Lösungsmitteleinfluß von Wasser richtig modelliert. Bei der Untersuchung eines Wasserdimers hat sich herausgestellt, daß die wohlbekannte Schwäche der LDA-Näherung, die Stärke von Wasserstoffbrückenbindungen zu überschätzen, sich bei Hybridmodellen nicht auf die Wechselwirkung zwischen QM- und MM-Fragment überträgt. Anhand des Schwingungsspektrums von Äthan wurde demonstriert, daß im SPLAM-Verfahren – im Gegensatz zu den üblichen in der Literatur verwendeten Link-Atom-Verfahren – Schwingungsmoden, die über beide Fragmenthälften delokalisiert sind, durch die Fragmentierung nicht verfälscht werden. Außerdem wurde gezeigt, daß das SPLAM-Verfahren auch für im QM-Fragment lokalisierte p-Elektronensysteme geeignet ist, wenn zur Vermeidung von Substituenteneffekten eine CH2-Gruppe als „elektronische Isolierung“ zwischen QM-Fragment und MM-Fragment in die quantenmechanische Beschreibung aufgenommen wird. Im letzten Kapitel wurde als erste Anwendung für eine kleine Schiffsche Base in wäßriger Lösung ein ensemblegemitteltes IR-Spektrum berechnet. Als zweite Anwendung wurde die Retinal- Schiff-Base quantenmechanisch in der Bindungstasche von BR untersucht. Durch Vergleich von berechneten IR-Spektren mit experimentellen Daten konnte gezeigte werden, daß das im Jahre 1996 von Grigorieff et al. vorgeschlagene BR-Modell einen guten Ausgangspunkt für Strukturverfeinerungen der BR-Bindungstasche darstellt. Insbesondere legen die QM/MMHybridrechnungen nahe, daß in BR568 das Proton der Schiffschen Base in Richtung von Asp85 orientiert ist. Mit der letzten Anwendung wurde demonstriert, wie berechnete IR-Spektren von QM/MMHybridmodellen ein Beitrag zur Strukturaufklärung von Proteinen wie BR leisten können. Ferner wird es mit Hilfe der in dieser Arbeit entwickelten QM/MM-Hybridmethode möglich sein, den Ablauf von enzymatischen Reaktionen bei Proteinen, für die hinreichend genaue Strukturinformationen bekannt sind, zu studieren.