Podcasts about gestaltung hfg

  • 6PODCASTS
  • 16EPISODES
  • 1h 5mAVG DURATION
  • ?INFREQUENT EPISODES
  • May 14, 2024LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about gestaltung hfg

Latest podcast episodes about gestaltung hfg

C-RadaR
C-RadaR Mai 2024 – GPN, Netzpolitik & Europawahl, Archivierung von Videotext

C-RadaR

Play Episode Listen Later May 14, 2024 120:00


00:08:40 madonius über das Fronleichams-Wochenende. 30.05.-02.06.2024 findet die 22. Gulaschprogrammiernacht (GPN) in den Lichthöfen der Hochschule für Gestaltung (HfG) und den Vortragssälen des Zentrum für Kunst und Medien (ZKM) in Karlsruhe statt. Man freut sich über Anmeldungen und Spenden, grundsätzlich … Weiterlesen →

SWR2 Kulturgespräch
Immer noch kein Durchbruch – Reformstau an der Hochschule für Gestaltung in Karlsruhe

SWR2 Kulturgespräch

Play Episode Listen Later Mar 15, 2021 3:57


Die Hochschule für Gestaltung (HfG) in Karlsruhe kommt einfach nicht zur Ruhe. Nach dem Weggang des langjährigen Rektors Peter Sloterdijk wurde deutlich, dass die Hochschule einen gehörigen Reformstau hatte. Den konnte auch sein Nachfolger, Siegfried Zielinski, in seiner nur zweijährigen Amtszeit nicht auflösen. Und auch der neue Rektor, Jan Boelen, der Anfang 2020 ins Amt kam, scheint die drängendsten Probleme nicht lösen zu können. Einige Studierende der HfG Karlsruhe haben einen Offenen Brief geschrieben, in dem sie unter anderem mehr Mitspracherechte fordern und die verschleppten Reformen sowie die mangelhafte interne Kommunikation kritisieren. Konkret geht es vor allem um den immer noch fehlenden Struktur- und Entwicklungsplan, vakante Professuren und eine Verringerung der Anzahl der Fakultäten. Die Krise an der HfG Karlsruhe schwelt weiter.

SWR2 Wissen
Die Ulmer Hochschule für Gestaltung – Designer-Schmiede im Wirtschaftswunder

SWR2 Wissen

Play Episode Listen Later Jul 7, 2020 27:43


1968 gingen bei der Ulmer Hochschule für Gestaltung HfG die Lichter aus. Wer war schuld am Ende der bis heute legendären Einrichtung? Von Hans-Volkmar Findeisen. (Produktion 2018)

Modellansatz
Research Software Engineering

Modellansatz

Play Episode Listen Later Jun 20, 2019 119:37


Vom 30. Mai - 2. Juni 2019 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN19 statt. Dort traf Sebastian auf Carina Haupt, die schon auf der GPN18 von der öffentlich finanzierten Wissenschaft forderte: Publish Your Research! Carina Haupt studierte Informatik an der Hochschule Bonn-Rhein-Sieg. Aktuell befasst Sie sich wissenschaftlich mit Forschungssoftware, die meist von Wissenschaftlerinnen und Wissenschaftlern nur geringfügiger Kenntnis von Softwaretechnik oder unter Aspekten von Nachhaltigkeit entwickelt wird, da die Software nur als Mittel zum Zweck gesehen wird. Ziel der Wissenschaftlerinnen und Wissenschaftlern ist es schließlich Forschung zu betreiben und nicht Software zu entwickeln. Dabei zeigt die anhaltende Replication Crisis, die darin besteht, dass etliche publizierte wissenschaftliche Arbeiten nicht reproduzierbar sind, und somit alle abgeleiteten Arbeiten auf unsicheren Füßen stehen und eigentlich unter den geänderten Voraussetzungen wiederholt werden müssten. Eine Herausforderung ist, dass für viele Forschende, wie beispielsweise in der Mathematik, oft die Software nur zur Verifikation der eigentlichen wissenschaftlichen Aussagen verwendet wird, und daher eine deutlich geringere Wertschätzung erfährt. Auch wird ein Reputationsverlust befürchtet, wenn die Softwarequalität nicht den Ansprüchen im Kernbereich der Forschung entspricht, so dass oft von einer veröffentlichung des Source Codes und der Daten abgesehen wird. Dabei muss die Offenlegung der verwendeten Verfahren und Daten ein Grundanliegen ernsthafter Forschung sein und eine Kennzeichnung von Software beispielsweise als Proof-of-Concept sollte einen angemessenen Anspruch an die Software sicherstellen. Am Deutschen Zentrum für Luft- und Raumfahrt (DLR), leitet Carina eine Gruppe zum Software Engineering und ist dort mit ihren Kolleginnen und Kollegen für 40 Institute an 20 Standorten Ansprech- und Kooperationspartnerin für Softwareentwicklung unter anderem im wissenschaftlichen Umfeld von Luft- und Raumfahrt, Energie und Verkehr. Inzwischen ist dort ihr Enthusiasmus für Open Source, und Forschenden in der Softwareentwicklung zu unterstützen, zu ihrem eigenen Forschungsgebiet geworden. Bevor sie zum DLR kam, war sie beim Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI) im Bereich der Bioinformatik und dem Semantic Web, sowie in der Industrie und nebenberuflich bei der Froscon tätig, bis sie dem Ruf von Andreas Schreiber in ihre aktuelle Gruppe folgte. Um Außenstehenden einen schnellen und sehr unterhaltsamen Einstieg in und wichtige Motivation für das Software Engineering bei der DLR zu bieten, hat sie auf der GPN18 einen Vortrag Software-Fehler in der Raumfahrt: Disintegrating Rockets mit großem Anklang gehalten. Aber kann die Publikation von Forschungsdaten bei Auswirkungen der Replikationskrise wie der Analyse, dass über die Hälfte von Psychologiepapern nicht nachvollzogen werden können, helfen? Auf jeden Fall hätte die Veröffentlichung schon frühere Diskussionen und Verbesserungen der Ergebnisse ermöglicht, da abgeleitete Arbeiten statt der geschriebenen Darstellung auf den echten Daten ihre erweiterten Analysen hätten durchführen können. Soweit die Theorie, praktisch muss man sich eingehend damit befassen, was genau erforderlich ist, um eine Reproduzierbarkeit schon auf Seiten der Daten und Software zu ermöglichen. Das Befassen mit diesen Themen führt von einer Erstellung einer Publikation zum Begriff der Open Science oder offener Wissenschaft, die unter anderem Open Access, Open Data als auch Open Source betrifft. Hier konzentriert sich Carina in ihrer Forschung besonders auf den letzten Teil, insbesondere wie Erkenntnisse aus der Softwaretechnik dazu beitragen können, dem großen Ziel der Reproduzierbarkeit auch über die Zeit hinweg zumindest näher zu kommen. Wichtig ist auch den Entstehensprozess von Software zu betrachten. Die Fernseh-Show Bares für Rares demonstriert, wie die Wertigkeit eines Objekts durch eine nachgewiesene Herkunft signifikant beeinflusst wird. Dies erfolgt durch Nachweis der sogenannten Provenience. Der Begriff Provenience bedeutet die Aufzeichnung der Geschichte der Entstehung eines Objektes. Dies läßt sich auf Software übertragen. Die Wertigkeit und Qualität von einer Software-Publikation könnte zum Beispiel dadruch evaluiert werden indem der Build- und Entwicklungsprozess aufgezeichnet, und mit dem PROV W3C-Standards dokumentiert. Neben der Dokumentation liegt der nächste Schritt für reproduzierbare Software (vgl. E. Heitlinger: Reproduzierbarkeit – Wissenschaftliche Arbeit als Software-Projekt) darin, die erforderlichen zusätzlichen Bestandteile auch zur Verfügung zu stellen. Die nachhaltige Softwareentwicklung befasst sich in besonderem Maße damit, dass die Software von anderen sowohl genutzt als auch in Zukunft weiterentwickelt werden kann. Natürlich sollten wissenschaftliche Veröffentlichungen grundsätzlich die Wissensgewinnung und Validierung genau beschreiben, nur ist dies im gängigen Rahmen und Form normaler Publikationsformen weder in Form noch im Umfang abzubilden. Daher fordern viele Journals und Konferenzen, die Daten und Methoden in der Form von ausführbaren, web-basierten Jupyter Notebooks zur Verfügung zu stellen. Ein neuer Ansatz ist eine "Software Zitierbarkeit" zu ermöglichen, also sowohl die Form mit Weblinks und Versionierung, also auch mit Infrastruktur wie dem Dienst Zenodo, das einen Digital Object Indentifier (DOI) für Software mit einem Langzeitarchiv bereitstellt. Das ist ein Service, der in etwas weniger spezialisierter Form für unterschiedliche Medien auch von vielen Hochschulbibliotheken angeboten wird. Am DLR widmet sich die Software Engineering Initiative mit vielen Ansätzen, um Forschenden zu helfen nachhaltige Software zu entwickeln. Ein wichtiger Bestandteil sind hier Trainings, wie beispielsweise Repositories verwendet werden sollten: Hinweise für sinnvolle Commit-Messages verwenden. Wie sollten Versionen vergeben werden? Neben den eigentlichen Sourcen sollte auch der Build-Prozess und Testdaten im Repository sein Sinnvolle Struktur von Dateibäumen und sprechende Bennenung von Dateien Jedes Repository sollte eine README-Datei haben, die am Anfang kurz die Funktion der Sourcen beschreibt und in welchem Scope und in welchen Constraints die Ziele erreicht werden sollen, wie sie installiert, ausgeführt und getestet wird und wie sollte die Software zitiert werden? Unter welcher Lizenz steht die Software? Unterstützung gibt es auch durch zentrale Infrastruktur, die vom DLR beispielsweise durch eine eigene GitLab bald zur Verfügung stehen wird, und allen Forschenden einen eigenen persönlichen Bereich anbieten, sowie Projekten sofort entsprechende Strukturen bereitstellen. Die im Gespräch erwähnte SHA1-Kollision Shattered hatte einen Stillstand der für mehrere Browser grundlegende WebKit-Entwicklung zur Folge, da deren Subversion-Repository nicht mit der Hash-Kollision zurecht gekommen ist. Es gibt vielseitige Motivationsgründe für Forschende die Unterstützung der Software Engineering Initiative anzunehmen: Entweder sind sie aus einem füngeren universitären Umfeld schon mit der Thematik vertraut, oder haben Probleme durch fehlene Softwarequalität schon kennengelernt, lassen sich von Beispielen überzeugen oder Qualitätsanforderungen überreden, oder es wird ihnen durch Vorgesetzte nahe gelegt. Ein Mittel zur Motivation sind insbesondere die am DLR entwickelten Software Engineering Guidelines, die Kolleginnen und Kollegen zur Verfügung gestellt werden können. Darin sind sowohl Begründungen für das Vorgehen, aber auch einfach zur verfolgende Entscheidungsbäume und Checklisten, die je nach Größe und Kritikalität von Projekt unterschiedlich aufwendige Empfehlungen vorschlagen. Dies kann von einer TODO-Datei bis zur Integration eines vollständigen Issue-Tracker gehen, der in der höchsten Qualitätsstufe auch mit dem kompletten Code-Management integriert werden sollte. Diese Guidelines sind am DLR in eine Qualitätsinitiative integriert, bei der in jedem Institut ein Qualitätsbeauftragter oder eine Qualitätsbeauftragte zumindest erfassen sollte, warum bestimmte Empfehlungen nicht entsprochen wird, oder idealerweise das Institut dabei dazu zu motivieren diese einfach genau so umsetzen. Die erforderliche Bereitstellung digitaler Infrastruktur durch Organisationen spielt für Hochschulen neben den Bereichen des Software Engineerings auch in der Lehre eine wichtige Rolle: "Wenn technische Möglichkeiten wie Vorlesungsaufzeichnungen auch im Rahmen obligatorischer Lehrveranstaltungen genutzt werden sollen, müssen Hochschulen daher auch aus datenschutzrechtlichen Gründen entweder eine eigene Infrastruktur aufbauen oder datenschutzkonforme Dienstleistungen gegen Entgelt in Anspruch nehmen." A. Lauber-Rönsberg in Videocampus Sachsen – Machbarkeitsuntersuchung. Was alles bei der Nutzung mit Software-Repositories am Beispiel von GIT passieren kann, erzählt Sujeevan Vijayakumaran im GPN19-Vortrag Dämliche Dinge mit git anstellen. Grundlage für viele Aktivitäten der Software Engineering Group basieren auf Software Carpentries, beispielsweise mit einer GIT Einführung, die auch auf die Nachhaltigkeit abzielt. In der Helmholtz-Gesellschaft wurde das HIFIS-Projekt (Helmholtz Infrastructure for Federated ICT Services) gestartet, um die Initiativen und Erfahrungen in der Bereitstellung von Infrastrukturen innerhalb der Helmholtz Gesellschaft zu bündeln. Hier geht es nicht nur um den Betrieb der Software, sondern auch um das Training für die Services und im Allgemeinen. Dazu sollen Communities für Software Engineering und weiteren Themen gebildet werden, damit der Austausch über Erfahrungen und Wissen leichter ablaufen kann. Die Initiativen im Bereich der Research Software Engineers werden im neu gegründeten Verein DE-RSE e.V. gegründet, der vom 4.-6. Juni im Potsdam die erste Konferenz für ForschungssoftwareentwicklerInnen in Deutschland deRSE19 veranstaltet. Der Ursprung dieser Initiative liegt im WSSSPE Workshop (Working towards sustainable software for science: practice and experiences) und der Konferenz der Research Software Egineers Association. Die #deRSE19 wird auch besonders durch die TIB, dem Leibniz-Informationszentrum, Technik und Naturwissenschaften, Universitätsbibliothek, unterstützt. In der Zukunft muss es auch darum gehen, Infrastrukturen bereit zu stellen, über gute Verfahren zu informieren und auch Anreize für Forschenden zu schaffen, die verschiedenen Ansätze aufnehmen. Der Verein und das HIFIS-Projekt möchten hier mit unterschiedlichen Ansätzen dazu beitragen die Situation zu verbessern, und insbesondere die aktuelle Dynamik in Richtung Open Journals, Open Data, Open Source und Open Science zu nutzen. Für einzelne Gruppen und Instituten sollte die Wichtigkeit sich mit Open Source Lizenzen nicht unterschätzt werden: Es kann sonst zu Inkopatibilitäten zwischen verschiedenen Lizenzen kommen, oder es fehlen Einverständniserklärungen von einzelnen, nicht vertraglich verbundenen Personen. Diese können beispielsweise Studierende sein, die im Rahmen einer Abschlussarbeit an einem Projekt mitgearbeitet haben. Hier muss ein Contributor Licence Agreement bereit sein, die von sonst nicht vertraglich gebunden Beitragenden unterschrieben werden kann. Literatur und weiterführende Informationen C. Haupt, T. Schlauch: The Software Engineering Community at DLR—How We Got Where We Are, Proceedings of the Workshop on Sustainable Software for Science: Practice and Experiences (WSSSPE5. 1), 2017. A. Schreiber, C. Haupt: Raising awareness about open source licensing at the German aerospace center, 2018 IEEE Aerospace Conference. IEEE, 2018. D. A. Almeida, G. C. Murphy, G. Wilson, M. Hoye: Do software developers understand open source licenses?, Proceedings of the 25th International Conference on Program Comprehension (pp. 1-11), IEEE Press, 2017. R. Krishnamurthy, M. Meinel, C. Haupt, A. Schreiber, P. Mäder: DLR secure software engineering: position and vision paper. Proceedings of the 1st International Workshop on Security Awareness from Design to Deployment (pp. 49-50). ACM, 2018. Podcasts M. Fromm, K. Förstner: Open Science Radio C. Haupt, S. Janosch, K. Förstner: Voices from de-RSE Conference 2019, Open Science Radio, OSR171, 2019. C. Haupt, S. Druskat, K. Förstner: de-RSE Association and Conference for Research Software Engineers in Germany, Open Science Radio, OSR140, 2019. S. Janosch, K. Förstner: Forschungssoftware in Deutschland, Open Science Radio, OSR091, 2017. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/research-software-engineering GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

service fall training germany design research motivation german institute situation conference services voices software zukunft proof deutschland geschichte communities dabei erfahrungen dinge workshop concept initiative integration probleme diese anfang ziel wissen dazu unter energie beispiel projekt qualit schritt ziele universit medien auswirkungen dort neben bereich technik seiten analyse rahmen personen erkenntnisse arbeiten luft wichtig umfeld daher daten kollegen ergebnisse wissenschaft gruppe begriff methoden nachhaltigkeit ans open source darin austausch scope institut diskussionen bevor bereichen einstieg forschung mittel grundlage aktuell begr ansatz anspruch aussagen ruf wertsch entstehung industrie empfehlungen aktivit strukturen theorie almeida funktion gruppen projekten bestandteil literatur hinweise voraussetzungen zweck nutzung browsers organisationen wichtigkeit deployment herkunft constraints allgemeinen inzwischen betrieb trainings journals lehre thematik beispielen verfahren anspr infrastruktur krause proceedings konferenz aufzeichnung verkehr dynamik hochschule vorgehen dienstleistungen dokumentation potsdam entweder darstellung analysen git schreiber kolleginnen software engineering aspekten stillstand mathematik studierende initiativen erstellung algorithmen international conference acm gitlab umfang verbesserungen hochschulen haupt ieee lizenz informatik open access bestandteile raumfahrt konferenzen soweit kenntnis versionen rares open data wissenschaftlern anreize dlr fakult fromm enthusiasmus der verein repository nachweis lizenzen open science vorgesetzte bereitstellung checklisten der ursprung publikation tib anklang forschende infrastrukturen wertigkeit security awareness eine herausforderung einverst fraunhofer institut abschlussarbeit forschenden janosch kennzeichnung krishnamurthy jupyter notebooks repositories replication crisis instituten validierung semantic web karlsruher institut zkm offenlegung forschungsgebiet reproduzierbarkeit magin technologie kit entgelt podcast sm objekts forschungsdaten bioinformatik international workshop verifikation objektes hochschule bonn rhein sieg softwaretechnik die wertigkeit ajuvo froscon rolle wenn issue tracker gestaltung hfg open science radio modellansatz podcast forschungssoftware
SWR2 Wissen
Die Ulmer Hochschule für Gestaltung

SWR2 Wissen

Play Episode Listen Later Nov 27, 2018 27:32


1968 gingen bei der Ulmer Hochschule für Gestaltung HfG die Lichter aus. Wer war schuld am Ende der bis heute legendären Einrichtung?

Modellansatz
FPGA Seitenkanäle

Modellansatz

Play Episode Listen Later Aug 16, 2018 54:10


Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf sich Sebastian mit Dennis Gnad, um mit ihm über Seitenangriffe auf Field Programmable Gate Arrays (FPGA) zu sprechen. FPGAs sind veränderliche Computerchips, die hervorragend bei der Entwicklung von logischen Schaltkreisen oder spezieller Glue Logic helfen, und kommen inzwischen auch als Rechenbeschleuniger zum Einsatz. Man kann FPGAs als Vorstufe zu Application-Specific Integrated Circuits (ASIC) sehen, auf denen Strukturen noch viel feiner, für höhere Taktraten und sparsamer abgebildet werden können, das Design aber um Größenordnungen teurer ist. Und während einem ASIC die Funktion ab Werk einbelichtet ist, können FPGAs nahezu beliebig oft zur Laufzeit umprogrammiert werden. Wie im Podcast zu digitalen Währungen erwähnt, spielen Graphical Process Units (GPUs), FPGAs und ASICs eine große Rolle bei Kryptowährungen. Hier ist ein einzelner FPGA-Chip beim so genannten Mining meisst nicht schneller als eine GPU, verbrauchen jedoch im Vergleich deutlich weniger Strom. Spezialisierte ASICs hingegen übersteigen in Effizienz und Geschwindigkeit alle anderen Lösungen. FPGAs finden sich aktuell in vielen Consumer-Produkten, wie dem Apple iPhone 7, im Samsung Galaxy S5, Smart-TVs und selbst auch der Pebble Smartwatch. Ihren besonderen Vorteil spielen FPGAs bei der Verarbeitung von großen Datenmengen wie Videodaten aus, da sie in der Parallelisierung nur durch den verfügbaren Platz beschränkt sind. Die Beschreibung von FPGAs und ASICs, oder deren Programmierung, erfolgt eher strukturell in Hardwarebeschreibungssprachen wie Verilog oder VHDL. Diese Beschreibungen unterscheiden sich sehr von imperativen Programmiersprachen, wie sie oft für CPUs oder GPUs verwendet werden. Es werden in logischen oder kombinatorischen Blöcken Daten verarbeitet, die dann in Taktschritten von und in Datenregister übertragen werden. Die erreichbare Taktfrequenz hängt von der Komplexität der kombinatorischen Blöcke ab. Ein Beispiel für logische Blöcke können Soft-Cores sein, wo zukünftige oder nicht mehr erhältliche CPU-Designs in FPGAs zur Evaluation oder Rekonstruktion abgebildet werden. Eine Variante ist die Entwicklung in OpenCL, wo verschiedene Architekturen wie GPUs, CPUs und FPGA unterstützt werden. Für die effiziente Umsetzung ist dafür weiterhin großes Hardwarewissen erforderlich, und man kann nicht erwarten, dass Code für FPGAs ebenso auf GPU, oder umgekehrt CPU-Code in FPGAs darstellbar ist. Das Interesse von Dennis Gnad liegt bei den FPGAs darin, deren Daten, Logik oder Inhalte durch Seitenkanalangriffe in von den Entwicklern unvorhergesehener Art und Weise auszulesen. Ein Beispiel ist das Erkennen von Fernsehsendungen aus dem Stromverbrauch des Fernsehgeräts wie es auch schon im Podcast zu Smart Metern beschrieben wurde. Ebenso wurden schon Kryptoschlüssel aus Geräuschen einer CPU bestimmt. Mit Soundkarten kann man Funkuhren verstellen und auch Grafikkarten können als UKW-Sender verwendet werden. Die elektromagnetische Abstrahlung ist ein sehr klassischer Seitenkanal und ist als Van-Eck-Phreaking seit 1985 bekannt. Gerade wurden die Timing- und Speculative-Execution-Covered-Channel-Angriffe Spectre und Meltdown für einen großteil aktueller CPUs bekannt, die aktiv Seitenkanäle für verdeckten Informationszugriff nutzen. Normalerweise benötigen Power-Side-Angriffe, die den Stromverbrauch auswerten, physischen Zugang zum Gerät oder der Stromversorgung. Überraschenderweise ist es auf FPGAs hingegen möglich den Stromverbrauch anderer Schaltungsbestandteile rein durch Software zu bestimmen. Dazu werden FPGAs an der Grenze der Timing-Parameter betrieben, und statistisch die erfolgreiche Ausführung gemessen. Mit verschieden langen Pfaden können auch gleichzeitig die Zeitschranken verschieden stark belastet werden und damit gleichzeitig für mehrere Spannungsstufen ausgewertet werden. Damit kann der relative Spannungsverlauf kontinuierlich gemessen werden. Im Zuge seiner Forschung zu Voltage Fluctuations in FPGAs konnte Dennis Gnad die Qualität der Messungen nachweisen. Für die eigentliche Auswertung der Messungen werden hier die Verfahren der Differential Power Analysis verwendet, die nicht absolute Messungen, sondern mit relativen Messungen den Verlauf oder Unterschiede in den Verläufen statistisch analysieren. Speziell wurden mit dem Pearson Korrelations-Koeffizient verschiedene Schlüssel-Hypothesen mit modellierten Stromverläufen aufgestellt, um den Suchraum für einen kryptographischen AES-Schlüssel jeweils stückweise einzuschränken. Dafür musste die spezielle AES-Implementation auf dem FPGA bekannt sein, um entsprechende Leakage-Modelle für die Korrelationsauswertung aufstellen zu können. Insgesamt wurde so ein rein software-getriebener Angriff auf FPGAs demonstriert, der ohne sehr aufwändiges Code-Review-Verfahren, dessen Umsetzung bei VHDL ohnehin große Fragen aufwirft, kaum zu entdecken ist. Dennis betreibt die Forschung als Doktorand am Chair of Dependable Nano Computing (CDNC) am Karlsruher Institut für Technologie (KIT), deren Forschung besonders auf die Verlässlichkeit und auch der Sicherheit von Computersystemen abzielt. Die Forschungsarbeiten zu Seitenkanälen über den Stromverbrauch haben ebenso Anwendungen für die Zuverlässigkeit von den Systemen, da ebenso mit der Messung auch eine entsprechende Beeinflussung bis zur Erzeugung von Fehlerzuständen möglich wird, wie es von Dennis durch Fehlerzustände in der Stromversorgung zum Neustart von FPGAs demonstriert werden konnte. Mit Stuxnet wurde bekannt, dass auch Industrieanlagen mit Software zerstört werden konnten, es gab aber auch Computermonitore, die kreativ in neue Nutzungszustände gebracht wurden. Literatur und weiterführende Informationen D. Gnad: Seitenkanal-Angriffe innerhalb FPGA-Chips, Vortrag auf der GPN18, Karlsruhe, 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: An Inside Job: Remote Power Analysis Attacks on FPGAs, Cryptology ePrint Archive: Report 2018/012, Proceedings of Design, Automation & Test in Europe (DATE), 2018. D. Gnad, F. Oboril, M. Tahoori: Voltage Drop-based Fault Attacks on FPGAs using Valid Bitstreams, International Conference on Field-Programmable Logic and Applications (FPL), Belgium, 2017. A. Moradi, F.-X. Standaert: Moments-Correlating DPA, Cryptology ePrint Archive: Report 2014/409, Theory of Implementations workshop, 2016. P. Kocher, J. Jaffe, B. Jun, et al: Introduction to differential power analysis, J Cryptogr Eng 1: 5, 2011. E. Brier, C. Clavier, F. Olivier: Correlation power analysis with a leakage model, International workshop on cryptographic hardware and embedded systems. Springer, Berlin, Heidelberg, 2004. Cryptology ePrint Archive Search Portal Side Channel Cryptanalysis Lounge - Ruhr-Universität Bochum D. Gnad, F. Oboril, S. Kiamehr, M. Tahoori: An Experimental Evaluation and Analysis of Transient Voltage Fluctuations in FPGAs, in IEEE Transactions on Very Large Scale Integration Systems (TVLSI), 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: Remote Inter-Chip Power Analysis Side-Channel Attacks at Board-Level], In Proceedings of IEEE/ACM International Conference on Computer-Aided Design (ICCAD), USA, 2018. (to appear Nov. '18) J. Krautter, D. Gnad, M. Tahoori: FPGAhammer: Remote Voltage Fault Attacks on Shared FPGAs, suitable for DFA on AES], in IACR Transactions on Cryptographic Hardware and Embedded Systems (TCHES), Vol.1, No.3, 2018. (to appear Sept. '18)Podcasts A.-L. Baecker, C. Schrimpe: Crypto for the Masses – Grundlagen, Request for Comments, Der RFC Podcast, Folge 15, 2018. M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. S. Ritterbusch, G. Thäter: Digitale Währungen, Gespräch im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. B. Heinz, T. Pritlove: FPGA, CRE: Technik, Kultur, Gesellschaft, Folge 117, Metaebene Personal Media, 2009.GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauenGPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meterGPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

Modellansatz
Flugunfälle

Modellansatz

Play Episode Listen Later Jul 26, 2018 82:29


Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Bernd Sieker und sprach mit ihm um Unfälle mit Autopiloten mit Flugzeugen und Automobilen. Der Flugreiseverkehr ist inzwischen sehr sicher, es verbleibt aber ein Restrisiko, das man an den sehr seltenen Flugunfällen erkennen kann. Bernd untersucht nun die wenigen Abstürze großer Airliner, die es noch gab, und fragt sich, wie es zu diesen Katastrophen kommen konnte. Beispiele für Unfallursachen können beispielsweise Ausfälle scheinbar weniger relevanter Systeme sein, wo von der Crew Entscheidungen getroffen werden, die sie für sinnvoll halten, sich aber später als problematisch herausstellen. Technische Schäden, die unmittelbar zum Absturz führen, sind inzwischen sehr selten. Und selbst scheinbare kritische Ausfälle wie Triebwerksausfälle werden geübt und es gibt Prozeduren, wie man in diesen Fällen das Flugzeug möglichst sicher landen können sollte. Im Segelflug gehört eine Außenlandung auf freiem Feld zum Normalbetrieb, wobei man natürlich für am Boden etwaig entstandenen Schaden aufkommen muss, falls der Landwirt darauf besteht. Eine entsprechende nicht genehmigte Sicherheits- oder Notlandung führt bei Motorflugzeugen zur Auskunfts- oder Meldepflicht mit entsprechenden Auflagen zum Abtransport oder Erlaubnis zum Wiederstart. Bei der Untersuchung von Unglücksfällen geht der erste Blick auf offizielle Berichte oder Untersuchungen. So auch beim Air-France Flug 447 von 2009, wo ein Airbus A330-203 mitten über dem Atlantik plötzlich verschwand. Erste Indizien auf das Unglück wurden durch ACARS-System über Satellit empfangen, unter anderem über den Ausfall von Staurohren, mit denen die Geschwindigkeit des Flugzeugs gemessen wird. Das ist ein dramatischer Ausfall an Information, mit dem die Piloten aber umgehen können müssten und der eigentlich nicht zu einem Absturz führen sollte, denn die Geschwindigkeit ist noch mittels anderer Sensoren erkennbar. Erste gefundene Wrackteile deuteten darauf hin, dass das Flugzeug fast senkrecht in horizontaler Lage auf das Wasser aufgeschlagen sein musste. Dies führte auf die Vermutung, dass das Flugzeug überzogen wurde, bis es zum Strömungsabriss kam, und es daraufhin einfach herunterfiel. Nach Bergung des Flugschreibers bestätigte sich der vermutete Ablauf. Er wurde durch einen überraschend kurzen Zeitraum von wenigen Minuten zwischen Fehlermeldung und Absturz aus Reiseflughöhe belegt. Die Piloten müssen in der widersprüchlichen Situation gewesen sein, dass ihnen der Sink"flug" angezeigt wurde, während die Nase des Flugzeugs nach oben zeigte, was laut Training normalerweise in diesem Flugzustand nicht möglich ist. Bei dem eingesetzten Fly-by-wire System wäre eigentlich auch kein Strömungsabriss möglich gewesen. Nach Ausfall der Staurohre führte nun die Verkettung zwischen unvorhersehbarem Flugzeugzustand und der dramatischen Fehlinterpretation durch die Piloten zum Absturz. In der Ursachenanalyse ist sowohl zu beachten, dass die Warnmeldungen zum Strömungsabriss von den Piloten womöglich wegen einer Vielzahl von Warnmeldungen nicht mehr erfasst werden konnte. Ebenso wurden widersprüchliche Angaben zur Fluggeschwindigkeit und Anstellwinkeln von den Systemen des Flugzeugs irgendwann als ungültig abgewiesen und entsprechende Warnungen abgeschaltet oder nur noch widersprüchlich wiedergegeben. Dies führt zur Betrachtung solcher Systeme unter dem Aspekt, dass sie sozio-technisch sind, mit der Einsicht, dass gerade bei der Übertragung von Aufgaben des Menschen an Technik und zurück ein besonderes und schwer vorhersehbares Fehlerpotenzial besteht. Insbesondere Autopiloten haben eine besondere Bedeutung, da sie direkt in die Aufgaben der steuernden Menschen eingreifen. Klassisch steuern Autopiloten nur in sehr engen Parametern wie einzuhaltende Richtung, Höhe, Querneigung der Sink-/Steiggeschwindigkeit. Im Auto sind schon Geschwindigkeits- und Abstandsautomatik üblich. Jedoch sind auch Landungen mit Autopilot möglich, die aber ein besonderes Training und Überprüfung von Mensch und Maschine und Verbesserung der Algorithmen und redundante Sensoren erfordern. Dies zeigt schon, wie kritisch Autopiloten im Automobil zu sehen sind, da hier bisher kein besonderes Training für die Verwendung von Autopiloten erfolgt. Eine Überraschung ist dabei, dass eine besondere Gefahr daraus entsteht, wenn Autopiloten so zuverlässig werden dass sich Menschen zu sehr auf sie verlassen. Überraschende Situationen kann aber der Mensch meist besser bewältigen. Bei der Untersuchung von Flugunfällen stellt sich besonders die Frage, welche Ereignisse die eigentliche Ursache also für das Unglück verantwortlich sind. Wie ist hier Kausalität zu definieren? An der Uni Bielefeld wurde in der Arbeitsgruppe von Prof. Ladkin dazu die Why-Because-Analysis (WBA) entwickelt, wo die Counterfactual Test Theory von David Lewis zum Einsatz kommt. Aus der Überprüfung, ob ein Ereignis notwendig und die Menge der gefunden Ereignisse hinreichend für die Entstehung eines Ereignisses war, entsteht ein kausaler "Why-Because"-Graph (WBG), der genau nur die Ereignisse zusammenfasst, die notwendig zum Unglück führten. Ein interessantes philosophisches Konstrukt ist hier die Nearest-Possible-World-Theory, die ein Szenario konstruiert, das dem Unglück möglichst stark ähnelt, für das aber es nicht zum Unglück gekommen wäre. Was war hier anders? Was können wir daraus lernen? Durch Vergleich mit vorherigen dokumentierten Ereignissen können Teile des WBG auch quantitativ bewertet werden, obgleich die Datenbasis oft sehr gering ist. Dennoch können Schlüsse gezogen werden, welche Ereignisse bisher ignoriert wurden und ob dies gerechtfertigt ist. Das National Transportation Safety Board (NTSB) befasst sich in den USA wie die Bundesstelle für Flugunfalluntersuchung (BFU) in Deutschland typischerweise mit der Aufarbeitung von Unglücksfällen, und wie diesen in Zukunft entgegengewirkt werden kann. Darüber hinaus haben ebenso Versicherungen von Fluggesellschaften ein großes Interesse an einer Aufarbeitung, da die Fluggesellschaften in vielen Bereichen für Unglücke haftbar sind, soweit sie nicht nachweisen können, dass die Hersteller verantwortlich zu machen sind. Während des Asiana Airlines Flug 214 kam es in einer Boeing 777 im Anflug auf San Francisco 2013 im Landeanflug zu einer "Mode Confusion" beim Autopilot: Die erwartete Schubregulierung blieb aus, und es kam zu einem Absturz. Im Fall des Turkish Airlines Flug 1951 mit einer Boeing 737 nach Amsterdam gab es im Anflug einen Fehler im Radarhöhenmessgerät, wodurch der Autopilot in Erwartung der Landung aktiv den Schub zurückregelte. Die Korrektur der Piloten schlug fehl, da sie sich nicht über die genauen Abläufe im Klaren waren. Dies deutet schon deutlich darauf, dass Schwierigkeiten beim Einsatz von Autopiloten im automobilen Umfeld zu erwarten sind. Darüber hinaus sind die erforderlichen menschlichen Reaktionszeiten im Auto deutlich kürzer, so dass Missverständnisse oder das An- oder Abschalten von Autopilot-Funktionen deutlich leichter zu Unglücken führen können. Eine wichtige Einstufung sind hier die erreichten SAE Autonomiestufen, die beschreiben, wie weit das Fahrzeug Aufgaben des Fahrens übernehmen kann. Besonders problematisch ist Autonomiestufe 3: Hier darf der Fahrer sich während der Fahrt anderen Dingen als der Fahrzeugführung zuwenden, muss aber nach einer gewisse Vorwarnzeit wieder die Führung wieder übernnehmen können. Selbst bei wenigen Sekunden wird dies bei höheren Geschwindigkeiten sehr schwer zu erfüllen sein. Bei Stufe 4 muss das Fahrzeug auch ohne Fahrerintervention sicher bleiben, notfalls durch Anhalten, Stufe 5 ist vollständig autonom von Tür zu Tür. Ein weiterer Gesichtspunkt ist die vorhandene Sensoraustattung und deren Ausfallsicherheit oder die Interpretation der Sensormessungen. Im Fall des Unfalls eines Uber-Autos am 18. März 2018 in Arizona wurde eine Fußgängerin von den Sensoren zwar erfasst, jedoch wurden die Detektion durch die Software als Fehler zurückgewiesen und es kam zum Unfall. Die hier verwendete Software war und wird weit weniger getestet und formal geprüft als Software im Luftfahrtumfeld, da dies auch im Bezug auf neuronale Bilderkennungsverfahren schwer umzusetzen sein wird. Ein weiterer Aspekt ist, dass selbst wenn ein sozio-technisches System sicherer als Menschen fährt, die Akzeptanz nur sehr schwer zu erreichen sein und viele rechtliche und ethische Fragen zunächst zu klären wären. Vielen Dank an Markus Völter für die Unterstützung in dieser Folge. Literatur und weiterführende Informationen D. Lewis: Counterfactuals and comparative possibility, Springer, Dordrecht, 57-85, 1973. P. Ladkin: Causal reasoning about aircraft accidents, International Conference on Computer Safety, Reliability, and Security. Springer, Berlin, Heidelberg, 2000. B. Sieker: Visualisation Concepts and Improved Software Tools for Causal System Analysis, Diplomarbeit an der Technischen Fakultät der Universität Bielefeld, 2004. B. Sieker: Systemanforderungsanalyse von Bahnbetriebsverfahren mit Hilfe der Ontological Hazard Analysis am Beispiel des Zugleitbetriebs nach FV-NE, Dissertation an der Technischen Fakultät der Universität Bielefeld, 2010. Causalis Limited Research Group Networks, System Safety, Embedded and Distributed Systems B. Sieker: Hold Steering Wheel! Autopilots and Autonomous Driving. Presentation at the Gulaschprogrammiernacht 18, ZKM/HfG, Karlsruhe, 2018. B. Sieker: What's It Doing Now? The Role of Automation Dependency in Aviation Accidents. Presentation at the Chaos Communication Congress 33C3, 2016. Podcasts H. Butz, M. Völter: Komplexe Systeme, Folge 058 im omega tau Podcast, Markus Völter und Nora Ludewig, 2011. S. B. Johnson, M. Völter: System Health Management, Episode 100 in the omega tau Podcast, Markus Völter and Nora Ludewig, 2012. R. Reichel, M. Völter: Fly by Wire im A320, Folge 138 im omega tau Podcast, Markus Völter und Nora Ludewig, 2014. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 1, Folge 262 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 2, Folge 263 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. P. Nathen, G. Thäter: Lilium, Gespräch im Modellansatz Podcast, Folge 145, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. GPN18 Special B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

united states training san francisco arizona system er berlin situation security prof software auto amsterdam zukunft deutschland dar blick bei mensch hilfe presentation beispiel schl wire bedeutung universit lage boeing fehler selbst dort wasser situationen technik einsatz interesse aufgaben interpretation dingen menge umfeld bezug gefahr besonders richtung erste sink ereignisse str schwierigkeiten dennoch teile beispiele vielen dank bereichen autopilot feld entstehung nase fahrt literatur springer sekunden reliability unfall ausf ursache aspekt ereignis akzeptanz systeme vielzahl ungl missverst schaden heidelberg ebenso ablauf unf embedded abl flugzeug ereignissen verbesserung krause maschine jedoch zeitraum bernd hersteller hochschule geschwindigkeit karlsruhe betrachtung verwendung berichte versicherungen stufe aufarbeitung bielefeld untersuchung katastrophen abst mathematik erwartung dissertation angaben absturz algorithmen szenario untersuchungen systemen international conference fahrer piloten erlaubnis einsicht atlantik ausfall auflagen fahrzeug abschalten warnungen schub konstrukt klaren landwirt david lewis fakult landung sensoren vermutung automobil im fall flugzeugen autonomous driving im auto arbeitsgruppe sicherheits reichel satellit dordrecht airliner anflug a320 unfalls lilium kausalit butz geschwindigkeiten ereignisses parametern einstufung klassisch fluggesellschaften anhalten autopiloten diplomarbeit gesichtspunkt nathen flugzeugs fahrens karlsruher institut zkm verkettung datenbasis meldepflicht airbus a330 magin technologie kit detektion notlandung landungen geschwindigkeits restrisiko abtransport landeanflug wbg markus v die korrektur fehlinterpretation prozeduren uni bielefeld automobilen reaktionszeiten podcasts h die piloten warnmeldungen fehlermeldung bundesstelle flugunf ausfallsicherheit ajuvo durch vergleich gestaltung hfg modellansatz podcast chaos communication congress 33c3 nora ludewig
Modellansatz
Erdbebensicheres Bauen

Modellansatz

Play Episode Listen Later Jun 7, 2018 84:27


Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Arne Rick und sie unterhielten sich über die DIN-Norm 4149 zu Erdbebensicherem Bauen. Die DIN4149 legt fest, nach welchen Auslegungszahlen man planen, und welchen Verfahren man Gebäude bauen darf, um sie "erdbebensicher" gemäß der Norm nennen zu dürfen. Erdbeben sind in Deutschland allgemein nicht sehr häufig, aber es gibt Gebiete in denen ein deutlich höheres Erbebenrisiko besteht, wie beispielsweise in Aachen und dem Erdbebengebiet Kölner Bucht (aktuelle Erdbeben) in der Erdbebenzone 3. Mit der Erdbebenzone 1 für Karlsruhe sind wir auch in einem gefährdeten Bereich (Erdbeben in Karlsruhe), wenn auch nicht im gleichen Maße. Südlich von Tübingen gibt es eine weitere Erbebenzone 3 (aktuelle Erdbeben). Erdbebenzonen in Deutschland. CC-BY 2.0 Störfix In der Auslegung werden Erdbeben als ein Katastrophen-Lastfall angenommen, und die Bemessung richtet sich auf die schwersten Erdbeben, die statistisch alle 475 Jahre auftreten können. Die ehemalige Munitionsfabrik, die nun u.a. das ZKM, die HfG und gerade die GPN18 beinhaltet, steht schon seit über 100 Jahren, und wird auch noch länger stehen, so ist dies eine für Gebäude realistische Zeitskala. In der Auslegung spielt das Gewicht der Gebäude eine große Rolle, denn die zu verarbeitende Kraft bestimmt sich nach Newton aus der Masse und Beschleunigung. In Karlsruhe muss mit einer Spitzenbodenbeschleunigung von bis zu 0.4g bzw. 3.9m/s^2 rechnen. Wie unterschiedlich dabei die Bewegung ausfallen kann, ist an verschiedenen Seismogrammen ersichtlich, die den Verlauf des Bebens mit einem Stift auf einem durchlaufenden Blatt darstellen. Die Modellierung von Erdbeben beginnt mit dem Erdbebenherd, über dem sich auf der Erdoberfläche das Epizentrum befindet. Idealisiert bewegen sich seismische Wellen vom Epizentrum aus als Raumwellen kugelförmig aus, zusätzlich gibt es aber auch Oberflächenwellen wie Rayleigh- oder Love-Wellen, die sich idealisiert kreisförmig um das Epizentrum ausbreiten. Da die horizontale Beschleunigung die stärkste Wirkung auf Gebäude hat, vereinfacht die Norm den Einfluss von Erdbeben auf Horizontalbeschleunigungen und Bodeneinflüsse. Während Erdbeben für Gebäude ein Problem darstellen können, so sind sie für die Seismische Tomographie die Informationsquelle, um Einblicke in die Erde zu erhalten. Mit optimaler Versuchsplanung kann man dafür auch die Aufstellorte optimieren, um ein möglichst optimales Bild zu erhalten, wie wir aus Modell012: Erdbeben und Optimale Versuchsplanung schon wissen. Natürlich müssen alle relevanten Lastfälle berücksichtigt werden, so kann in Karlsruhe die Windlast sich als Flächenlast teilweise stärker als der Lastfall durch Erdbeben auswirken. Das Haus wird dabei oft als Einmassenschwinger gesehen, bei aufwendigeren Geometrien aber auch als Mehrmassenschwinger, und die unterschiedlichen Belastungen in der maximalen Auslenkung in maximale statische horizontale Ersatzkräfte umgerechnet und damit vergleichbar gemacht. Ein wichtiger Startpunkt ist die Auswahl der Bemessungssituation und das Semiprobabilistische Teilsicherheitssystem, als Weiterentwicklung des Sicherheitsfaktors, bzw. der Aufteilung in verschiedene Eurocodes, die auch noch eine national unterschiedliche Behandlung ermöglichen. Bei der Lastbestimmung berücksichtigt man ständige Lasten, eine hauptsächliche nicht-ständige Last, die Haupteinwirkung, und weitere nicht-ständige Lasten, die aber durch einen probabilistischen Faktor abgemindert werden, da nicht alle nicht-ständige Lasten gleichzeitig auftreten. Aus der Festigkeit des Baumaterials wird nun die maximale Spannung berechnet, die es aufnehmen kann, und diese muss den Einwirkungen bestehen können. Eigentlich ist die DIN4149 durch den deutlich umfangreicheren Eurocode 8 abgelöst, doch ist aktuell noch die DIN4149 anzuwenden, da der Eurocode 8 zum Zeitpunkt der Aufnahme noch nicht in die technischen Baubestimmungen aufgenommen wurden. Eine Besonderheit der Bemessungssituation für erdbebensicheres Bauen ist, dass hier ein Katastrophenlastfall angenommen wird, und es daher keine allgemeinen Sicherheitsfaktoren mehr gibt. Es geht dabei nicht um den Erhalt des Gebäudes, sondern nur um die Möglichkeit Menschenleben schützen zu können. Ein Bedeutungsbeiwert beschreibt die Bedeutung des Gebäudes für Katastrophenfälle, beispielsweise haben hier landwirtschaftliche Gebäude einen Wert von 0,8 während Krankenhäuser den Wert 1,4 haben. Weiterhin wird die Nutzung durch einen Nutzungsbeiwert beschrieben, die die Belastung des Gebäudes durch die Nutzung beschreiben- diese können ständig, wie im Fall von Bibliotheken sein, oder sich häufig ändernd, wie durch Menschen, die das Gebäude besuchen. Aus dem anzusetzenden Gewicht und der Beschleunigung durch die Erdmase kann man mit dem Modell des Einmassenschwingers die modellierte Schwingung des Gebäudes simulieren. Aus dieser Simulation erhält man das Antwortspektrum des Gebäudes für unterschiedliche Erdbeben. Bildet man hier die einhüllende Kurve bzw. Hüllkurve, die in der Synthesizer-Musik auch über das ADSR-Modell beschrieben werden kann. Die Nachschwingzeiten von sehr hohen Gebäuden können so lange sein, dass es förmlich zu tanzenden Hochhäusern kommen kann. Der wichtige Wert der Schwingzeit wird durch eine vereinfachte Gebäudegeometrie berechnet. Da das Gebäude aber mehrere Resonanzfrequenzen beziehungsweise Eigenwerte der Steifigkeitsmatrix besitzt, gibt es zu jedem Mode eine eigene Schwingzeit. Die verschiedenen Schwingungen in den Teilmodellen überlagern sich in der Multimoden-Modell dann im vollen Modell. Diese vereinfachenden Verfahren ermöglichen meisst schon mit wenig Rechenaufwand sehr gute Ergebnisse, jedoch stößt das Vorgehen bei sehr verwinkelten und komplexen Baustrukturen an Grenzen- eine Verwendung des Ein- oder Mehrschwingermodells ist bei einem Gebäude wie dem Aachenmünchener Direktionsgebäude nicht denkbar. Bei der weiteren Betrachtung hat die Baugrundklasse einen wichtigen Einfluss, da diese beispielsweise bei kiesigem Untergrund die Erdbeschleunigung erheblich abschwächen kann. Der Dämpfungsbeiwert beschreibt die durch Prozesse wie Reibung dissipierte Energie. Weiterhin beschreibt der Verhaltensbeiwert die Plastitzität von Werkstoffen in Gebäuden, durch die ebenso die Schwingungsenergie verbraucht wird. Speziell werden Gebäude dazu in Duktulitätsklassen eingeteilt. Eine besondere Rolle spielen hier die Zustandsklassen, beispielsweise beim Beton und Stahlbeton: Man geht davon aus, dass der Beton im normalen Zustand von kleinen Rissen durchzogen ist, und damit in Zustandsklasse 2 liegt. In der Alterung, aber auch durch Einwirkung von äußeren Kräften wie Erdbeben, kommt es zu einem Risswachstum. Risse können mathematisch durch Bifurkationen beschrieben werden, und erzeugen sehr schnell äußerst komplexe Problemstellungen. Im Katastrophenfall erlauben wir für Stahlbeton die Zustandsklasse 3, wo der Beton gerissen sein kann und der Stahl beginnt sich zu verbiegen. Auch wenn das Gebäude danach dringenden Reparaturbedarf besitzt, so wird so viel von der Erdbebenenergie durch die Materialien verbraucht. Ein großes Problem sind dabei aber die Verbindungen, da gehärtete Schrauben spröde reißen. Ebenso haben Schweißnähte immer kleine Nahtfehler, die versagen können. Ein Ausweg sind hier so groß ausgelegte Verbindungen, so dass diese im Extremfall die Rotationsfähigkeit erhaltende Fließgelenke ausbilden und somit ein Versagen möglichst nicht in der Verbindung auftritt. An der Hochschule Karlsruhe besucht Arne eine Vorlesung von Prof. Dr. Jan Akkermann und hat sich im Zuge seines Master-Studiums mit dem Projekt beschäftigt, einem Gebäude der Hochschule ein neues Geschoss zu planen. Literatur und weiterführende Informationen A. Ötes: Die neue Erdbebennorm DIN 4149, Universität Dortmund. A. Rick: The Basics of Audio compressors, Gulaschprogrammiernacht, 2018.Seismische Sonifikationen Z. Peng: Earthquake Music J. N. Louie, The Sound of Seismic, 2015 D. V. Rogers: Sounds of Seismic - Earth System Soundscape, 2013. Podcasts S. Wollherr: Erdbeben und Optimale Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 12, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/erdbeben S. Wollherr: Bruchzonen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 136, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bruchzonen A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke

Neues Terrain
Raumklang

Neues Terrain

Play Episode Listen Later Sep 21, 2017 163:10


Mit unserem Gehör können wir Geräusche unmittelbar orten und identifizieren. Um diese Fähigkeit sinnvoll im Projekt nutzen zu können, gibt uns Dr. Paul Modler einen Einblick in Raumklang. Die Abteilung Medienkunst Akustik (MK Akustik) der Staatlichen Hochschule für Gestaltung (HfG) in Karlsruhe befasst sich mit elektronischer und elektroakustischer Musik, Klanginstallation und Sonifikation. Sie wird von Dr. Paul Modler geleitet, der uns in diesem Gespräch einen Einblick in Raumakustik und Techniken für räumliches Hörempfinden über Kopfhörer geben konnte. Paul Modler ist gerade von einem Besuch der Ars Electronica in Linz zurückgekehrt. Ein hervorgehobenes Event des Festivals der elektronischen Künsten war die Klangwolke einer Story mit Feuerwerk, Maschinen, Jets und Booten auf der Donau. Der Wettbewerb Prix Ars Electronica gab einen Einblick, welche aktuellen Richtungen die durchaus diskutierte Medienkunst darbietet. Nach seinem Diplom in den Ingenieurwissenschaften an der ehemaligen Universität Karlsruhe (jetzt Karlsruher Institut für Technologie (KIT)) zur Signalverarbeitung und Filterentwurf des Waveterm Synthesizer der Palm Products GmbH (PPG), gelangte Paul Modler an die University of York, wo er im Bereich der Music Technology promovierte und von dort an die Hochschule für Gestaltung in die Medienkunst geworben wurde. Seine Forschungsinteressen gehen auch in Richtung des Mehrkanaltons, insbesondere im Verfahren der Ambisonics, das nach langer Durststrecke inzwischen sogar als Raumklangformat bei YouTube Einzug gehalten hat. Die MK Sound setzt sich mit der Frage der Musikerstellung, der Definition und möglichen Instrumenten sowie der Technik, Installation und Performance in einem sehr breiten Spektrum interdisziplinär auseinander. Es gibt Lehrveranstaltungen zur analogen Tonerzeugung, wie auch die Auseinandersetzung mit neuen digitalen Einflüssen und die Abbildung analoger Synthesizern auf mobilen Geräten wie bei Korg. Die Gruppe wird auch von besuchenden Künstlern wie John Richards in Richtung Circuit Bending inspiriert. Dies führt zu faszinierenden Abschlussarbeiten wie den Atmospheric Disturbances von Lorenz Schwarz, wo Raumklang mit Plasmalautprechern künstlerisch umgesetzt wurde. Interessante Impulse entstehen auch aus der Zusammenarbeit mit weiteren Instituten und Hochschulen: So beteiligen sich auch oft Studierende des KIT an Projekten. Die Aufnahme fand im Studio 311 der MK Sound statt, wo die Gruppe einen mobilen Klangdom installiert hat, um an ambisonischen Verfahren zu arbeiten und ihn musikalisch zu nutzen. Zur Ansteuerung kommt hier die Software Zirkonium wie auch die Software des Institut de Recherche et Coordination Acoustique/Musique (IRCAM) „Spat“ zum Einsatz, sowie andere verfügbare Verräumlichungstools. Ein Aspekt ist dabei auch der Wandel der Sicht auf den Lautsprecher vom Mittel zum Zweck hin zu einem eigenständigen Musikinstrument. Die Hochschule für Gestaltung in Karlsruhe ist eingerahmt und im gleichen Haus wie das Museum für neue Kunst und das ZKM – Zentrum für Kunst und Medien und  Medienmuseum. So arbeitet die MK Sound natürlich eng mit dem von Prof. Ludger Brümmer geleiteten Institut für Musik und Akustik am ZKM zusammen. Das Institut bietet insbesondere auch der Diskussion musikalisch digitalen elektroakustischen Bereich eine Plattform und hat mit dem Klangdom im ZKM Kubus eine etablierte Referenzplattform für Raumklang. Zusammen mit der HfG wurde dazu auch 2015 das inSonic Festival zu Raumklang ausgerichtet, das sich im inSonic Festival Dezember 2017 wiederholt. Die große Bandbreite des Instituts zeigt sich auch in häufigen Kraftwerk-Konzerten bis hin zu häufigen Linux Audio Konferenzen. Der ehemalige Kraftwerk-Musiker Florian Schneider-Esleben war auch 1998 als Professor für Medienkunst und Performance an die HfG berufen. Ende letzten Jahres fand am Institut auch das Strömungen Symposium zu künstlerischer Sonifikation statt. Durch unser Gehör und Körper nehmen wir Schallwellen wahr, soweit sich diese etwa im Hörbereich von etwa 20-20kHz und einem davon abhängigen Pegel befindet.  Assoziieren wir einen Sinn oder gewisse Ästhetik in ein Geräusch, so mögen wir es als Klang bezeichnen, der Teil einer Musik sein kann. Ein Teil der Akustikempfindung wird in der Psychoakustik beschrieben, die auch sehr exakt mit der Hörbarkeit von Geräuschen und Auswirkung von Wahrnehmungen auf den Menschen analysiert. Diese Analyse hat erst den Erfolgszug der verlustbehafteten Audiokompression möglich gemacht. Für die Aufnahme von Raumklang spielt die Positionierung der Mikrofone eine besondere Rolle: Da eine Aufnahme aus allen Richtungen an einem Punkt nicht möglich ist, müssen Mikrofone mit gewissen Abstand von einander positioniert werden, wodurch der Raum diskretisiert wird. Besonders beispielhaft für die Auswirkung der Diskretisierung sind Werke von John Chowning, der die Frequenzmodulations-Synthese aus der Raumklangforschung heraus für Synthesizer patentierte. Hier erhält man an leicht unterschiedlichen Positionen mit klassischem Soundfeld Mikrofon oder mit Ambeo VR Mikrofon ein völlig anderes Konzerterlebnis. Im Rahmen einer Stereoaufnahme und -reproduktion durch Lautsprecher entstehen Phantomschallquellen um die Lautsprecher, soweit man sich exakt im Sweet Spot des Stereodreiecks befindet. Empirisch zeigt sich, dass die Verwendung von zusätzlich an die Wand gedrehten Treibern, wie beim Acoustimass-System ein immersiveres Stereoempfinden erzeugt wird. Das räumliche Empfinden im Kopf entsteht zunächst durch Intensitäts- oder Pegelunterschiede und Laufzeitunterschieden zwischen den Ohren, die vom Gehirn rekonstruiert und die virtuelle Position der Schallquellen rekonstruiert wird. Sehr individuell spielt aber auch die Kopf- und Körperform eine große Rolle, denn je nach Kopfgröße sind die Ohren unterschiedlich weit voneinander entfernt, die Ohrmuschel unterschiedlich geformt und die Schultern unterschiedlich weit entfernt. Dadurch ergeben sich eine durch frequenzabhängige Intensitäts- und Laufzeitsunterschiede resultierende Filterung, die als Head-Related Transfer Function (HRTF) bzw. Kopfübertragungsfunktion bezeichnet wird. Die Berücksichtigung dieser Abbildung führt zur binauralen Aufnahme und Reproduktion. Eine weitere Wahrnehmungsmöglichkeit ist der Raumschall, wo eine räumliche Wahrnehmung durch die Beziehung zum Raum ermöglicht wird. Daher muss man in der Stereofonie deutlich zwischen Lautsprecheraufnahmen und Kopfhöreraufnahmen unterscheiden, da die Reproduktion über Kopfhörer die Berücksichtigung der Kopfübertragungsfunktion erforderlich ist. Der Weg zu Mehrkanal-Tonsystemen führte von der Stereofonie zunächst zur Quadrofonie für Systeme mit vier Lautsprechern, die im Vergleich zum Aufwand einen begrenzten Gewinn des Raumklangs unter Einführung weiterer unerwünschter Effekte bewirkte. Da sich keine Aufzeichnungssysteme für dieses Tonsystem wirklich kommerziell durchsetzen konnten, war das System wenig verbreitet. Die sehr verwandten Dolby Surround oder 5.1-Systeme haben sich durch leichte Veränderung des Systems im Film- und Kinobereich dagegen sehr durchgesetzt. Für den Film war es sehr wichtig, dass Einführung des zentralen Center-Lautsprechers die räumliche Positionierung der Schauspieler deutlich verbessert hat, und die Verwendung von Subwoofer bzw. des LFE-Kanals auch preiswertere immersive Installationen durch Satelliten-Lautsprecher ermöglicht hat. Als großer Kritiker der Quadrofonie entwickelte Michael Gerzon 1973 mathematisch-physikalisch fundierte Ambisonics-Verfahren, um auf einer beliebigen Anzahl von Lautsprechern einen Raumklang aufnehmen, aufzeichnen und wiedergeben zu können. Während ein System nullter Ordnung mit einem einzigen Kugelmikrofon und Kugellautsprecher realisiert werden kann, sind ab erster Ordnung schon mindestens acht Lautsprecher für eine sinnvolle Reproduktion erforderlich. Leider müssten sehr viele Mikrofone für das Verfahren alle koinzident in einem Punkt positioniert werden, was mit herkömmlicher Aufnahmetechnik nicht optimal realisierbar ist, und dafür von Gerzon besondere Mikrofonkonfigurationen entwickelt wurden, die das koinzidente Signal rekonstruieren können. Im Bereich der Meteorologie gibt es Ultraschallanemometer, die tatsächlich die Luftbewegung im Raum in einem einzelnen Messraum bestimmen können, nur ist dies aktuell nur im Aufnahmebereich räumlich gemittelt bis zu 200mal pro Sekunde bis maximal in den Infraschallbereich möglich. Eine frühe berühmte und umstrittene Raumklang-Installation war der Philips Pavilion bzw. Poème électronique auf der Weltausstellung Expo 58 in Brüssel, wo die an hyperbolischen Trajektorien aufgestellten Lautsprecher als diskrete wandernde Tonquellen benutzt wurden. Zur Weltausstellung Expo 70 in Osaka entwarf Karlheinz Stockhausen für den deutschen Pavillon das Kugelauditorium, in dem die Ansteuerung der Lautsprecher durch einen Drehhebel erreicht werden konnte. Ein ähnliches Verfahren ist das Vector Based Amplitude Panning (VBAP)-Prinzip, das von Ville Pulkii 1997 wissenschaftlich ausgearbeitet wurde. Im Gegensatz zu den früheren Installationen verlangen ambisonische Verfahren sehr regelmäßige Lautsprecherpositionen, da das Verfahren ideal als Fourier-Synthese auf einer Sphäre interpretiert werden kann. Praktisch gibt es auf einer Kugeloberfläche nur wenige exakt equidistante Punktmengen auf Basis der platonischen Körper, dazu sind volle Sphären eine architektonische Herausforderung und aufgrund unseres geringen Lokalisationsfähigkeit im Vertikalen nur von begrenztem Nutzen. Daher werden die Lautsprecher nur in einer oberen Halbsphäre mit nach oben abnehmender Anzahl pro Lautsprechern im Radius installiert. Die ambisonische Raumklang-Demonstration ist ein Teil aus dem Stück „Parallel“ von Paul Modler, das bei einer Aufführung zusätzlich bewegliche Hörner und ein Wellenfeld-Array anspricht. Im Gegensatz zu Mehrkanal-Tonsystemen berücksichtigt der binaurale Raumklang die Kopfübertragungsfunktion und ist nur für die Erfahrung über Kopfhörer gedacht. Zur Erzeugung von binauralen Signalen kann man auf Kunstkopf– oder In-Ear oder Orginal-Kopf-Mikrofone (OKM) zurückgreifen. Alternativ kann man Schallquellen synthetisch über die HRTF auf die Wirkung auf die Ohren berechnen. Zur Erfassung der individuellen HRTF werden Mikrofone in die Ohren installiert und robotergesteuert Lautsprecher an verschiedene Positionen um die Versuchsperson gefahren. Die Lautsprecher spielen dann jeweils Klicks oder Chirps, um die Impulsantwort des Signals, die Head-Related Impulse Response zu bestimmen. Die HRTF ergibt sich dann als Fourier-Transformite der Impulsantwort. Alternativ können auf niedrigerem Niveau auch halbsphärische Lautsprecher wie im Klangdrom statt einer langsamen Robotersteuerung verwendet werden. Impulsantworten existieren grundsätzlich nur auf einer begrenzten Anzahl von Filterpunkten, zwischen denen nach VBAP-Prinzip auch Zwischenpunkte berechnet werden und Klänge aus beliebigen Richtungen im zwischen Punkten im Diskretisierungsgitter abgebildet werden. Eine Herausforderung bleibt die Kopfbewegung, die mit Head-Trackern für einen immersiven Eindruck berücksichtigt werden muss, man sich also zum Klang hindrehen können muss. Das ist eine entsprechende Herausforderung der Virtual Reality, wo die Bewegung des Kopfes auch unmittelbar in die Darstellung berücksichtigt werden muss. Die räumliche Abbildung von Tönen ergibt auch neue Möglichkeiten in der Sonifikation, um Informationen nicht nur klanglich unterscheidbar sondern auch räumlich lokalisiert abgebildet werden kann. Dabei ist zu berücksichtigen, dass visuelle Eindrücke akustische Ereignisse verfälschen können. Bei steigender Komplexität der verwendeten Modelle, muss das Verständnis für Sonifikation auch erlernt werden. Literatur und weiterführende Informationen S. Carlile: Psychoacoustics, Signification Handbook, Logos Publishing House, 2011. B. N. Walker, M. A. Nees: Theory of Sonification, Sonification Handbook, Logos Publishing House, 2011. A. Hunt, T. Hermann: Interactive Sonfication, Sonification Handbook, Logos Publishing House, 2011.M. A. Gerzon: Periphony: With-height sound reproduction, Journal of the Audio Engineering Society 21.1: 2-10, 1973. V. Pulkki: Virtual sound source positioning using vector base amplitude panning, Journal of the audio engineering society 45.6: 456-466, 1977. M. Noisternig, T. Musil, A. Sontacci, R. Holdrich: 3D binaural sound reproduction using a virtual ambisonic approach, Virtual Environments,  VECIMS ’03. 2003 IEEE International Symposium on Human-Computer Interfaces and Measurement Systems, 2003. Podcasts M. Völter, R. Vlek: Synthesizers, Omega Tau Podcast, Episode 237, 2017.  T. Pritlove, U. Schöneberg: CRE238 – Neuronale Netze, CRE Podcast,  Metaebene Personal Media, 2015. M. Völter, C. Osendorfer, J. Bayer: Maschinelles Lernen und Neuronale Netze, Omega Tau Podcast, Episode 259, 2017 S. Trauth: Klangdom, Funkenstrahlen Podcast, Episode 85, 2016 P. Gräbel: Der Schall, Nussschale Podcast, Episode 16, 2017. T. Pritlove, S. Brill: CRE206 – Das Ohr, CRE Podcast, Metaebene Personal Media, 2014. S. Plahl: Der Klang einer Armbewegung, SWR2 Wissen, 2013.

university film professor story performance system mit event journal prof software museum position hunt als studio dabei rolle definition musik durch jets bei kopf sinn projekt einblick haus sicht raum erfahrung kunst universit beziehung basis virtual reality medien signal verst festivals bereich besuch herausforderung punkt technik einsatz zusammen diskussion leider bewegung zusammenarbeit ohren daher aufnahme einf wandel besonders wirkung vergleich richtung gruppe eindr parallel nutzen ereignisse str signals ordnung institut eindruck plattform der weg recherche symposium mittel niveau geh wahrnehmung gehirn verr wand osaka projekten abstand schauspieler zentrum installation literatur zweck dadurch techniken gewinn aufwand sweet spot systeme kritiker anzahl gestaltung einfl werke punkten auseinandersetzung verfahren positionen maschinen modelle effekte kopfh hochschule karlsruhe verwendung sekunde darstellung klang komplexit positionierung feuerwerk auswirkung spektrum instituts richtungen studierende im gegensatz auff intensit linz diplom bandbreite schultern alternativ radius spat klicks praktisch sph mikrofone ein teil empfinden korg synthesizer donau instrumenten wahrnehmungen die aufnahme lautsprecher die gruppe im bereich pavillon music technology akustik durststrecke signalen eine herausforderung installationen pegel abbildung chirps booten meteorologie raumakustik die ber karlheinz stockhausen musil das institut reproduktion musikinstrument kopfes john richards lautsprechern subwoofer instituten ars electronica zkm aufnahmetechnik abschlussarbeiten sonification schallwellen medienkunst technologie kit ein aspekt neuronale netze audio engineering society podcast sm das ohr die hochschule synthesizern filterung ohrmuschel raumklang dolby surround treibern konzerterlebnis diese analyse hfg signalverarbeitung klanginstallation john chowning vertikalen sonifikation zur erfassung ambisonics empirisch ansteuerung staatlichen hochschule psychoakustik kunstkopf zur erzeugung ludger br omega tau podcast gestaltung hfg diskretisierung kopfbewegung klangdom audiokompression kugeloberfl metaebene personal media
Modellansatz
Automated Binary Analysis

Modellansatz

Play Episode Listen Later Jun 22, 2017 53:06


Zur GPN17 des Entropia e.V. im ZKM - Zentrum für Kunst und Medien und der Hochschule für Gestaltung (HfG) hat Florian Magin (@0x464d) einen Vortrag zu Automated Binary Analysis gehalten und war bereit uns auch im Podcast zu erzählen, wie er mit mathematischen Verfahren Software auf Schwachstellen analysiert. Florian studiert Informatik an der TU Darmstadt und engagiert sich im CTF-Team Wizards of Dos seiner Universität. Sein Interesse an der Computersicherheit hat ihn auch zur Firma ERNW Research geführt, wo er als Werkstudent in der IT-Sicherheitsforschung tätig ist. Wie wichtig die Suche nach Schwachstellen und deren Absicherung ist, wurde kürzlich bei der weltweiten Verbreitung der WannaCry/WannaCrypt-Schadsoftware bewusst, die die Aufmerksamkeit von einer anderen und lukrativeren Schadsoftware Adylkuzz ablenkte. Unter der Binary Analysis versteht man die quellenlose Analyse eines Programms alleine auf den Daten im Maschinencode auf einem Speichermedium. Ein erster Schritt der Analysis ist die Wandlung der Maschinensprache in Mnemonic durch einen Disassembler. Dieser Programmcode kann sich deutlich von einer ursprünglichen Quelltext des Programms unterscheiden, da der Maschinencode erzeugende Compiler eine Vielzahl von Optimierungsmöglichkeiten umsetzt, die den Ablauf und das Abbild des Programms im Maschinencode deutlich verändern können. Eine Herausforderung stellt sich inzwischen in der Größe der Programme: Während es inzwischen zahlreiche Wettbewerbe gibt, Programme unter extremen Platzbeschränkungen umzusetzen, wächst die Größe klassischer Programme stark an. Ein Maschinensprache-Befehl kann in einem Byte kodiert sein, wie früher etwa hexadezimal C9 auf dem Z80 eine Unterroutine beendet, so können in 4 Bytes Operationen wie eine Addition samt Parameter definiert sein. Die automatisierte Binäranalyse hat besonders durch die Darpa Cyber Grand Challenge im Jahr 2016 großes Interesse geweckt, wo die Teams autonome Software entwickeln sollten, die für sich alleine den CTF-Wettbewerb bestreitet. Eine Anwendung solcher automatisierten Programme ist die schnelle Überprüfung von neuer Software auf bekannte oder typische Schwachstellen oder Implementierungsfehler. Eine sehr allgemeine Methode zur Detektion von Sicherheitslücken ist das Fuzzing: Das Open Source Tool AFL modifiziert beispielsweise korrekte Eingabewerte und prüft bei welcher Modifikation das Programm vom zuvor aufgezeichneten Programmablauf abweicht und damit einen Hinweis auf eine mögliche Schwachstelle gibt. Es kann dabei idealerweise auf dem Sourcecode operieren oder auch das Programm in einem Emulator wie QEMU ausführen und analysieren. Wie schwer aber selbst Source Code zu verstehen sein kann, zeigen die Wettbewerbe International Obfuscated C Code Contest (IOCCC), zu möglichst schwer verständlichen sinnvollen Code, und der Underhanded C Contest, wo ein scheinbar sinnvoller Code für Menschen möglichst unvorhersehbare Zusatzfunktionen aufweist. Ebenso können sehr beliebte Programmiersprachen wie Python sehr unvorhersehbar reagieren, wenn man versehentlich Tabulatoren und Space vermischt, oder gleich die Programmiersprache Whitespace benutzt. Ein weiteres Beispiel ist, dass das Breitenlose Leerzeichen in neuen C++-Standards erlaubt ist, und für den Menschen ununterscheidbaren Code ermöglicht, der unterschiedliche Dinge tut. Aber auch Computer können getäuscht werden, wenn zum Vergleich unsichere Hash-Funktionen genutzt werden, wie jüngst die Shattered-Attacke auf die SHA-1 Hash zeigte. Eine automatisierte Analysemöglichkeit ist die Control Flow Graph Recovery, die beispielsweise mit IDA , radare2, binary ninja durchgeführt werden kann, um aus einer eindimensionalen Speicherdarstellung zu einem Programmnetz, wo zusammengehörige Programmblöcke miteinander vernetzt werden. Hier kann auch schon sichtbar werden, ob beschränkte Bereiche ohne Authentifikation erreicht werden können. Ein weiteres automatisierbares Verfahren ist die Datenflussanalyse, wo die Verarbeitung und Auswirkungen von Variablen und Daten im Verlauf des Programms analysiert wird. Hier kann der Verlauf von beispielsweise vertraulichen Daten kontrolliert werden. Bei einer Symbolischen Auswertung wird das Programm abstrakt mit einem Interpreter auf beliebigen variablen Daten bzw. symbolischen Ausdrücken auf allen Pfaden gleichzeitig ausgeführt. Für die Pfaderkundung benötigt man hier eine Strategie zwischen der Breitensuche und Tiefensuche, um die relevanten Teile des Ausführungsgraphen möglichst schnell abzudecken. In der automatisierten Analyse werden dabei offene Sprungmöglichkeiten zu nahezu beliebigen Adressen sehr interessant, da dies einen starken Indikator für einen Angriffsvektor liefern. Mit Return-oriented Programming kann man so bestehenden Code gezielt anspringen und für eigene Zwecke missbrauchen. Das Open-Source Framework Angr wurde von Forschern des Computer Security Lab at UC Santa Barbara entwickelt und belegte mit Shellphish auf der Darpa-Challenge den dritten Platz. Ein weiteres Open-Source Analyseframework ist Triton, welches man leicht in eigene Projekte einbinden kann. Sehr verbreitet ist auch das Framework S2E der École Polytechnique Fédérale de Lausanne. Ein weiterer Finalist der Cyber Grand Challenge ist das Team CodeJitsu von der University of California at Berkeley, Cyberhaven, and Syracuse. Die Binary Analysis Platform wurde vom Team um Professor David Brumley am Cylab der Carnegie Mellon University entwickelt. Funktionale Programmiersprachen wie OCAML oder Haskell haben für den Anwendungsfall der symbolischen Auswertung ganz besondere Vorteile. Ebenso werden Programmiersprachen auch auf ihre inherente Unsicherheit im Sinne der Language based security untersucht, sowie fertige Programme versucht auch auf ihre Korrektheit zu verifizieren. Ein Tool, das dies vereinfachen soll ist der Z3 Prover. Hier kommt die Suche nach Sicherheitslücke zur Mathematik: In der formalen Darstellung einer Routine kann das Verhalten als Abbildung aus symbolischen Variablen beschrieben werden, und die Suche nach einer Lösung führt auf die entsprechenden Logik oder Optimierungsverfahren. Literatur und weiterführende Informationen Florian Magin: Introduction to Automated Binary Analysis, Vortrag auf der GPN17, 2017. Program Analysis reading list D. Brumley: Analysis and Defense of Vulnerabilities in Binary Code, PhD thesis, School of Computer Science Carnegie Mellon University, 2008. Podcasts M. Musch: Steganographie, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 57, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. M. Lösch: Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Modellansatz
Smart Meter Gateway

Modellansatz

Play Episode Listen Later Jun 8, 2017 84:08


Zur GPN17 des Entropia e.V. im ZKM - Zentrum für Kunst und Medien und der Hochschule für Gestaltung (HfG) hat Manuel Lösch einen Vortrag zu Smart Meter Gateways gehalten. Manuel promoviert am FZI Forschungszentrum Informatik in Karlsruhe zu intelligenten Stromnetzen und der Flexibilisierung von elektrischen Lasten, um diese netzdienlich zur Verfügung zu stellen. Die Einführung des Smart Meter Gateway wurde mit dem Gesetz zur Digitalisierung der Energiewende Ende 2016 in Deutschland beschlossen. Dabei muss man Smart Meter Gateways deutlich von den so genannten Smart Metern oder intelligenten Zählern unterscheiden, die im Fall der elektrischen Energie den Ferraris-Zähler ablösen werden und den Stromverbrauch digital aufzeichnen und verarbeiten können. Die Kombination von intelligenten Zählern und einem Smart Meter Gateway resultiert in einem Intelligenten Messsystem, das Informationen auch an externe Entitäten wie Energielieferanten oder Netzbetreiber versenden kann. Viele Smart Meter sind mit einer Infrarot-Schnittstelle via Smart Message Language beispielsweise über das Volkszähler-Projekt auslesbar. Neuere Geräte verfügen über eine standardisierte M-Bus-Schnittstelle zur digitalen Datenübertragung zwischen Zähler und z.B. dem Smart Meter Gateway. Grundsätzlich soll die Standardisierung den Kunden das Auslesen erleichtern, damit sie einen besseren Einblick in ihr Energienutzungsverhalten erhalten und Einsparmöglichkeiten erkennen können. Gesetzlich ist sogar vorgeschrieben, dass die Nutzer eines intelligenten Zählers neben dem aktuellen Verbrauchswert sogar einen Einblick bis zwei Jahre in die Vergangenheit erhalten müssen. Bis zum Jahre 2032 sollen nach dem Gesetz zur Digitalisierung der Energiewende alle Haushalte in Deutschland mit mindestens intelligenten Zählern ausgestattet sein, und je nach Haushaltsgröße auch mit Smart Meter Gateways, die die Kommunikation nach extern ermöglichen. Die Basis des Gesetzes ist das dritte Energiepaket der EU von 2009, die den Mitgliedstaaten vorgab eine Smart-Metering-Infrastruktur einzurichten, wenn eine Kosten-Nutzen-Analyse dieses für sinnvoll erachtet. Daher wurde 2013 eine Kosten-Nutzen-Analyse durchgeführt mit dem Ergebnis, dass ein Teil-Rollout für Deutschland sinnvoll ist. So sollen zwar alle Nutzer intelligente Zähler erhalten, jedoch sind die Gateways nur für größere, sog. netzrelevante, Nutzer vorgeschrieben. Die betrachtete Nutzungsgröße kann sich mit größerer Elektromobilität jedoch stark ändern: Mit einem Elektroauto kann der Verbrauch eines kleinen Haushalts sich vervielfachen und auch die dezentrale Stromerzeugung beispielsweise durch Photovoltaik wird einbezogen. Mit der Energiewende hat sich die Belastung der Stromnetze stark geändert. Die bisher auf zentrale Versorgung ausgelegte hierarchische Netztopologie kann durch dezentrale Stromerzeugung stark belastet werden. Zur Entlastung der Netze wurden Betreiber von PV-Anlagen verpflichtet, die Einspeisung zu beschränken, entweder fest auf 70 Prozent der Maximalleistung oder über ein Einspeisemanagement gesteuert über Rundsteuertechnik. Das Smart Meter Gateway arbeitet auf drei Netzbereichen und soll eine sichere Kommunikation zwischen diesen ermöglichen. So gibt es das dem Internet bzw. Wide Area Network zur Kommunikation mit beispielsweise dem Stromanbieter, das Home Area Network für Anwendungen im eigenen Haus und das Local Metrological Network welches die eigentlichen Strom-, Wärme, Gas- und Wasserzähler beinhaltet. Im Home Area Network könnten künftig beispielsweise Geräte wie das Nest Thermostat angeschlossen werden. Dieses kann in den USA heute schon beispielsweise Wärmepumpen oder Klimaanlagen sowohl nach Nutzeranforderung und Netzanforderungen optimiert ansteuern. Dabei werden das Haus oder der Warmwasserspeicher, also bereits vorhandene thermische Energiespeicher, zur Lastverschiebung im "intelligenten" Stromnetz ausgenutzt. Das Konzept dazu ist nicht neu, seit längerer Zeit gibt es bereits den Niederstromtarif, der im Gegensatz zum Hochtarif preiswerter ist und zu Zeiten geringer Netzauslastung zur Verfügung steht. Diese Tarife werden auch heute teilweise noch mit Nachtspeicherheizungen genutzt. Auf Grund energetischer Ineffizienz wurden Speicherheizungen bereits verboten, heute erleben sie aber wieder eine gewisse Renaissance, da sie zur Pufferung überschüssiger Energie herangezogen werden können. Mit der ermöglichten Kommunikation über verschiedene Netzwerkbereiche und der Steuerbarkeit von außen steigen auch die Sicherheitsanforderungen an ein solches System. Daher sind Smart Meter Gateways in Deutschland in eine Public Key Infrastruktur eingebunden, um einen Missbrauch nach Stand der Technik zu unterbinden. Eine sehr wichtige Rolle wird hier dem Smart Meter Gateway Administrator zugeteilt, der durch digitale Zertifikate die Grundlage für die Authentifizierung der verschiedenen Kommunikationspartner setzt. Die innere Sicherheit des Smart Meter Gateway wird durch ein vom BSI zertifiziertes Sicherheitsmodul gewährleistet, das die erforderliche Kryptographie zur sicheren Kommunikation zur Verfügung stellt. Auch in manchen Smartphones werden zusätzliche Chips zur Absicherung verwendet. Auch wenn es zumindest schon einen Anbieter eines zertifizierten Sicherheitsmoduls gibt, haben sich zum Zeitpunkt der Aufnahme zwar acht Gateways zur Zertifizierung beworben, doch hat noch keines die Zertifizierung abgeschlossen, obwohl die Gesetzgeber in diesem Jahr den Start des Rollouts intelligenter Messsysteme geplant haben. Die Wahrung der Privatsphäre ist ein wichtiges Thema bei der Weitergabe von Stromverbrauchsdaten: So konnte mit Hilfe der Messdaten eines Smart Meters bereits erfolgreich bestimmt werden, welcher Film auf einem Fernseher lief. Auf der anderen Seite ist die zeitnahe und regelmäßige Weitergabe von Stromverbrauchsdaten eine sehr wichtige Informationsquelle für die Bewirtschaftung der Bilanzkreise, die wesentlich auf der Erstellung von Prognosen basiert und grundlegend für die Stabilität unseres Stromnetzes ist. Da bei kleineren Verbrauchern noch keine viertelstündlichen Verbrauchsmeldungen erzeugt werden, kommen dort standardisierte Lastprofile zum Einsatz, um den typischen Stromverbrauch von Haushalten und Gewerbebetrieben zu modellieren. Durch die steigende Elektromobilität kann sich in Zukunft durch häusliches Laden der Verbrauch eines Haushalts jedoch deutlich von Standardlastprofilen unterscheiden. Andererseits ergibt der Ladeprozess einen neuen Freiheitsgrad, um Lasten zu verschieben und gerade dann Energie zu verbrauchen, wenn diese im Überfluss vorhanden ist. Zur Koordination vieler kleiner dezentraler Energieerzeuger wurde das Konzept der virtuellen Kraftwerke ins Leben gerufen, mit dem viele kleine Kraftwerke als gemeinsame Institution an Strom- und Regelleistungsmärkten aktiv teilnehmen können. Wenn der tatsächliche Verbrauch sich von den Prognosen stark unterscheidet, so fluktuieren die Preise an der Strombörse stark, es kann an der EPEX am Spotmarkt bei starkem Überangebot sogar zu negativen Strompreisen kommen, da große Kraftwerke sich nur beschränkt regeln lassen. Diese Großhandelspreise können aber aktuell nur zu einem Teil an Endkunden weitergegeben werden, da der tatsächliche Energiepreis nur einen Teil des Endpreises ausmacht; zusätzlich fallen fixe Netzentgelte und Umlagen an. Die Steuerung dezentraler Stromerzeuger und variabler Stromverbraucher (heute v.a. Wärmepumpen und Speicherheizungen) wie oft auch die Straßenbeleuchtung erfolgt an vielen Orten und auch in Karlsruhe durch Rundsteuertechnik, welche Signale im hörbaren Frequenzbereich von 110-2000 Hz über das vorhandene Stromnetz überträgt. Um hier ein Netzsegment zu steuern sind Sendeleistungen teilweise bis im hohen Kilowattbereich erforderlich. Die Rundsteuertechnik ist an vielen Orten auch durch Funkrundsteuertechnik mit Signalen auf Langwelle oder Ultrakurzwelle realisiert. Langwellensignale wie DCF77 können mit Soundkarten empfangen und auch können Langwellen per Audioausgang gesendet werden. Zur GPN17 wurde auch der Gulasch Push Notifier alias GPN-Badge entwickelt, der ebenso zentral die Teilnehmer des Events zum Gulasch rufen sollte. Das Forschungsgebiet von Manuel behandelt die Erschließung von Flexibilität in der Erzeugung und dem Verbrauch elektrischer Energie, mit dem Ziel diese netzdienlich und gewinnbringend in sogenannten "intelligenten Stromnetzen" zur Verfügung zu stellen. Dies untersucht er aktuell im Kontext größerer Liegenschaften, welche als große Endverbraucher oft auch vor Ort über eigene dezentrale Stromerzeuger verfügen. Am FZI House of Living Labs setzt er die Forschung praxisnah um: Das Energiemanagementsystem im FZI House of Living Labs ermöglicht beispielsweise die automatisierte Steuerung der Klimaanlage passend zu Meetings und dem aktuellen Netzzustand. Literatur und weiterführende Informationen M. Lösch: Digitalisierte Stromnetze und Smart Meter in Deutschland, Ein Überblick, Vortrag auf der GPN17, 2017. B. Becker, F. Kern, M. Lösch, I. Mauser, H. Schmeck: Building Energy Management in the FZI House of Living Labs, In Proceedings of the D-A-CH Conference on Energy Informatics (pp. 95-112). Springer International Publishing, 2015. M. Lösch, D. Hufnagel, S. Steuer, T. Faßnacht, H. Schmeck: Demand Side Management in Smart Buildings by Intelligent Scheduling of Heat Pumps, In Proceedings of the IEEE International Conference on Intelligent Energy and Power Systems (IEPS), 2014. T. Fassnacht, M. Lösch, A. Wagner: Simulation Study of a Heuristic Predictive Optimization Scheme for Grid-reactive Heat Pump Operation, In Proceedings of the REHVA Annual Conference, 2015. U. Greveler, P. Glösekötterz, B. Justusy, D. Loehr: Multimedia content identification through smart meter power usage profiles, In Proceedings of the International Conference on Information and Knowledge Engineering (IKE). The Steering Committee of The World Congress in Computer Science, Computer Engineering and Applied Computing, 2012. Podcasts M. Völter, V. Hagenmeyer: Stromnetze, ein Überblick, omega tau Podcast, Episode 246, 2017. S. Ritterbusch: Digitale Währungssysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. J. Müller-Quade, A. Rupp, B. Löwe, K. Bao: Kryptographie und Privatssphäre im Stromnetz, Feature von Jan Rähm im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, Folge 6, 2017. S. Seier, T. Alexandrin: Mieterstrom-Krimi, Abgrund oder Cliffhanger? Episode 16 im Blindstrom Podcast, 2017. M. Dalheimer, P. Hecko: Der Strom, Folge 5 im Pietcast, 2014. GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017

united states internet film fall stand system european union mit events leben thema zukunft deutschland dabei rolle renaissance zeiten durch smartphones seite ziel hilfe gas energie meetings ort projekt einblick haus chips kunst fa feature vergangenheit bis kommunikation medien stra sicherheit computer science gateway technik einsatz kunden konzept zeitpunkt daher aufnahme daten digitalisierung grid becker technologie ergebnis kern dieses prozent forschung laden institution strom grundlage kontext preise gesetz teilnehmer literatur aufgrund vortrag orten belastung stabilit gegensatz grunds anbieter flexibilit missbrauch steuer versorgung hochschule nutzer prognosen karlsruhe signale energiewende fernseher hz anwendungen computer engineering mathematik erstellung andererseits manuel l betreiber abgrund international conference privatsph lasten steering committee gesetzes das konzept elektromobilit gateways steuerung absicherung rupp haushalte world congress fakult elektroauto die basis netze haushalten heat pumps gesetzgeber zertifikate smart meters photovoltaik bsi verbrauch zertifizierung smart buildings weitergabe verbrauchern die kombination stromverbrauch klimaanlage stromnetz quade kraftwerke die einf signalen erzeugung entit erschlie endkunden standardisierung haushalts stromerzeugung klimaanlagen energiespeicher seier mauser rollouts gulasch mitgliedstaaten entropia endverbraucher informationsquelle stromnetze netzbetreiber karlsruher institut stromanbieter volksz nest thermostat bewirtschaftung hufnagel flexibilisierung pv anlagen kryptographie gesetzlich liegenschaften jan r strompreisen authentifizierung technologie kit stromnetzes in proceedings energielieferanten messdaten podcast sm living labs auslesen stromb frequenzbereich die steuerung einspeisung karlsruher instituts ieee international conference umlagen intelligent energy wide area network freiheitsgrad privatssph messsysteme pietcast zkm zentrum stromverbraucher energieerzeuger gestaltung hfg das forschungsgebiet modellansatz podcast zur koordination langwelle
Modellansatz
Probabilistische Robotik

Modellansatz

Play Episode Listen Later Jun 9, 2016 102:04


Einen fahrbaren Roboter zu bauen- das ist schon eine echte Herausforderung. Um diesem aber auch noch beizubringen autonom Aufgaben zu lösen, bedienten sich Michael Fürst und sein Team der Mathematik: Im Rahmen der Gulasch Programmier-Nacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung (HfG) und dem Zentrum für Kunst und Medien (ZKM) in Karlsruhe berichtete er über die Verfahren der Probabilistischen Robotik (Video) und welche Erfahrungen sie damit machen konnten- und erzählt uns im Gespräch mit Sebastian Ritterbusch davon. Michael Fürst studiert Informatik am Karlsruher Institut für Technologie (KIT) und befasst sich im Team Informatik der Hochschulgruppe Kamaro Engineering speziell mit robusten probabilistischen Methoden zur Entscheidungsfindung. Der aktuelle Roboter Beteigeuze der Hochschulgruppe ist die zweite Generation und wurde dafür ausgelegt, Aufgaben in der Überwachung und Bewirtschaftung von Maisfeldern oder der Navigation im urbanen Umfeld zu erfüllen. Die Hochschulgruppe gibt es seit 3 Jahren und besteht aus 30-45 Mitgliedern. Sie ist eingebettet in das Teilinstitut Mobile Arbeitsmaschinen (MOBIMA) am Institut für Fahrzeugsystemtechnik (FAST) am KIT mit dessen Unterstützung und Drittspenden sich die Hochschulgruppe finanziert. Die interdisziplinäre Hochschulgruppe besteht aus vier Teams: Das Organisationsteam, das Mechanik-Team, das Elektrotechnik-Team und das Informatik-Team. Die Gruppe organisiert sich auch als Verein mit Vorstand und einer Leitung in jedem Team, um mit einer flachen Hierarchie jedem die Möglichkeit zu bieten sich in das Projekt einzubringen. Auf der einen Seite will die Gruppe die autonome Robotik voranzubringen und allen Teammitgliedern gleichzeitig auch die Möglichkeit zu bieten, praktisches Wissen und Erfahrungen neben dem oft theoretischem Studium zu erlangen. Das Team nimmt dazu regelmäßig an verschiedenen internationalen Wettbewerben teil, wie dem Field Robot Event, dem SICK Robot Day oder der Robotour. Technisch basiert die Software-Lösung des Roboters inzwischen auf dem Robot Operating System (ROS), mit dem auf einer Ubuntu-Plattform auf einem im Roboter eingebauten Computer in Java, Python oder C++ die gestellten Aufgaben bearbeitet werden. Mit 40kg Gewicht ist der Roboter für seine Größe kein Leichtgewicht und kann daher nicht beliebig Batterien transportieren, so dass dem Lademanagement eine besondere Rolle zufällt. Die gewählte Größe ermöglicht gerade bei der Feldarbeit einen nicht-invasiven Ansatz, der im Vergleich zu anderen Varianten, wie der automatischen Steuerung von Traktoren, die Pflanzen nicht schädigt. Der Roboter erfasst seine Umwelt mit einer Vielzahl von Sensoren: Die Lidar-Sensoren zur Entfernungsmessung in verschiedenen Richtungen sind dabei besonders wichtig, und sie messen bis zu 50mal pro Sekunde. Sie bestimmen die Entfernungen zur Umgebung des Roboters in einer Ebene bis 16m in einer Auflösung von bis zu drei Messpunkten pro Winkel-Grad und 3cm Entfernungsauflösung- mit gewissen Fehlerraten und Problemen mit reflektierenden Oberflächen. Zusätzlich misst eine intertiale Messeinheit translative und radiale Beschleunigungen wie auch die Ausrichtung zum Erdmagnetfeld. Zusätzlich können auch digitale Kameras zur Detektion von befahrbaren Untergründen, Objekten oder zur Analyse von Pflanzen eingebaut und verwendet werden. Zusätzlich messen Radencoder die Umdrehungen und Auslenkung durch Servos der Räder, womit der Roboter durch Odometrie seine durchgeführte Bewegung aus sich selbst heraus abschätzt. Durch die Kombination der Lidar-Daten mit der Odometrie durch ein SLAM-Verfahren (Simultaneous Localization and Mapping) ermöglicht mit einem Kalman-Filter durch Analyse der Kovarianzen die robuste Erstellung einer Karte während des Befahrens, und korrigiert Fehler bei der eigenen Lokalisierung durch die Odometrie. Zusätzlich kann der Roboter mit einem GPS-Empfänger seine Position grob bestimmen. In der Auswertung der Sensoren wird zwar von einer guten Kalibrierung ausgegangen, jedoch ist es Teil des probabilistischen Ansatzes, die erfassten Werte immer mit einer konservativen Fehlerverteilung zu verarbeiten. Die Kamerabilder werden ebenso robust verarbeitet: Die Bilddaten werden nach einer Konvertierung in den HSV-Farbraum zunächst auf eine konstante Helligkeit gebracht, um Schatteneffekte zu reduzieren. Dann werden alle weniger farbigen Pixel als befahrbarer Weg markiert, und die Anzahl der befahrbaren Pixel pro Spalte in ein Histogramm zusammengeführt. Jeder Wert in dem Histogramm wird nun als Güte bzw. der Wahrscheinlichkeit für Fahrbahn in diese Richtung gewertet. Die GPS-Position wird zur Lokalisierung in der Open Street Map verwendet, wo nach Berechnung einer Route die aktuelle Zielfahrtrichtung bestimmt wird. Die eigentliche Entscheidungsfindung erfolgt dann auf Basis der verschiedenen Sensordaten durch die Berechnung von Erwartungswerten in Abhängigkeit von einer möglichen Fahrtrichtung. Genauer betrachtet werden für jeden Sensor Zielfunktionen über den erwarteten Nutzen unter Annahme des Fahrens in eine bestimmte Richtung berechnet, und anschließend der von der Fahrtrichtung abhängige Erwartungswert unter Annahme von Sensorungenauigkeiten und Fahrungenauigkeiten bestimmt. Im Falle der gewünschten Fahrtrichtung aus den GPS- und Kartendaten wird eine sehr breite Normalverteilung angesetzt, weil auch abweichende Richtungen noch einen Gewinn darstellen können, wenn sie zumindest etwas in die richtige Richtung gehen. Aus jedem Sensor ergibt sich pro Fahrtrichtung ein erwarteter Teilnutzen, und aus allen Teilnutzen wird der Gesamtnutzen als Produkt berechnet: Dadurch werden Teilnutzen von 0 sofort als Gesamtnutzen 0 gewertet, ansonsten aber geometrisches Mittel über die Teilnutzen gebildet. Die gewählte Fahrrichtung ergibt sich dann aus der Richtung, unter der sich das Gesamtmaximum des Gesamtnutzens ergibt. Die Verarbeitung der Sensordaten erfolgt typischerweise in der Geschwindigkeit, in der die Sensoren die Umgebung abtasten. In der Bildverarbeitung wird dies besonders durch die effizienten Routinen der verwendeten OpenCV-Bibliothek möglich. So sind bis zu 30 Entscheidungen in der Sekunde möglich, jedoch können die Motoren die Entscheidungen nur deutlich langsamer umsetzen. Es wurden auch weitere Verfahren zur Entscheidungsfindung getestet, wie die Verwendung von Clusteranalyse oder die Erstellung von Voronio-Diagrammen. Doch zeigte die robuste Entscheidungsfindung über Erwartungswerte bei der Navigation im urbanen Gebiet ihre Vorteile. Die beschriebene Entscheidungsfindung bezieht sich dabei bisher nur auf die Fahrtrichtung- die Fahrtgeschwindigkeit wird bisher nur von der freien Wegstrecke in Fahrtrichtung bestimmt. Dadurch verfolgt der Roboter im Normalfalle seine Ziele in Normgeschwindigkeit von 0.5-1m/s (er läuft und läuft und läuft), bremst aber, sobald er in die Gefahr gerät, sonst einen Menschen oder sich selbst zu beschädigen. Dadurch folgt der Roboter den Robotergesetzen von Asimov. Die Kommunikation im Roboter erfolgt über verschiedene Netze- der Lidar-Sensor wird beispielsweise über Ethernet angesprochen, die Entscheidungsfindung spricht mit den Hauptroutinen in der Recheneinheit über eine TCP-Verbindung, die Kommunikation von der Recheneinheit zum Masterboard erfolgt über USB als serielle Schnittstelle (UART), und das Masterboard gibt seine Steuerbefehle über einen CAN-Bus an Motoren und Servos weiter. Der Wettbewerb der Robotour 2015 fand in Tschechien in der Innenstadt von Pisek statt. Nach einer Qualifikation vor Ort gab es nach einer Testrunde eine erste Wettkampfrunde, in der die Roboter eine Lieferung von einem Parkplatz durch die gesamte Innenstadt über festgelegte Wegpunkte letztlich zu einem Restaurant bringen sollen. Obwohl der Testlauf noch erfolgreich war, litt der Roboter Beteigeuze der Gruppe in den ersten zwei Segmenten unter Abstürzen und lag damit auf dem letzten Platz. Nachdem der Fehler gefunden war, erreichte der Roboter im dritten Lauf als einziger das Segmentziel; und blieb im vierten Lauf zwar am Hintereingang des Restaurants hängen, war aber auch da gegenüber allen anderen Kandidaten bei weitem am nächsten am Ziel, und gewann so den Wettbewerb. Für einen Einstieg in die Robotik bieten sich Systeme wie Lego Mindstorms oder andere Roboterbaukästen an, aber auch Programmierspiele, wie sie Michael auch auf der GPN angeboten hat: https://github.com/Programmierspiele. Literatur und weiterführende Informationen M. Fürst: Probabilistische Robotik- Interessen eines Roboters als Nutzen formulieren und verarbeiten, Vortrag auf der Gulasch Programmier-Nacht GPN16, 2016. M. Fürst: Detecting Drivable Regions in Monocular Images, Robotour 2015, Autonomous Robot in Parks and Urban Regions, 2015. EKF-SLAM erklärt: Wie sieht ein Roboter die Welt? Robotour 2015 Vorgehensweise bei Kamaro GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

mit team generation restaurants position weg computers erfahrungen rolle gps durch parks seite ziel wissen route ort projekt einen kunst platz ziele basis kommunikation fehler entscheidungen herausforderung analyse mapping aufgaben vorteile nachdem bewegung umfeld gefahr werte vergleich richtung studium gruppe usb methoden problemen nutzen python umwelt produkt institut pixel java obwohl einstieg mittel ebene ansatz zus umgebung verein navigation zentrum gebiet literatur kombination dadurch lauf vortrag abh gewinn wettbewerb pflanzen aufl systeme vielzahl vorstand anzahl gewicht leitung verfahren routinen kandidaten karte oberfl roboter ausrichtung hochschule geschwindigkeit karlsruhe verwendung sekunde varianten wahrscheinlichkeit sensor annahme genauer richtungen abst mathematik mitgliedern erstellung das team kameras asimov auswertung innenstadt vorgehensweise tschechien informatik qualifikation batterien parkplatz ethernet steuerung lieferung hierarchie fakult berechnung sensoren robotik netze motoren technisch servos die gruppe objekten wettbewerben softwarel die kommunikation michael f im falle traktoren ansatzes openstreetmap entropia spalte teammitgliedern helligkeit entfernungen testlauf fahrbahn fahrens karlsruher institut segmenten der wettbewerb bewirtschaftung lokalisierung lego mindstorms untergr technologie kit detektion bildverarbeitung gpn wegstrecke roboters umdrehungen konvertierung leichtgewicht can bus fahrtrichtung feldarbeit erdmagnetfeld die verarbeitung kalibrierung hochschulgruppe normalverteilung gps empf erwartungswert hintereingang beschleunigungen kartendaten recheneinheit wegpunkte clusteranalyse fehlerraten medien zkm sebastian ritterbusch messeinheit gestaltung hfg auslenkung histogramm modellansatz podcast messpunkten
Modellansatz
Dynamische Randbedingungen

Modellansatz

Play Episode Listen Later Mar 3, 2016 41:48


David Hipp hat am Projekt Cooking Math mitgearbeitet. In seinem darin vorgestellten Forschungsprojekt betrachtet er eine relativ einfache Form der Wellengleichung, die jedoch gut für die Beschreibung von akustischen Wellen geeignet ist. Die Gleichung beschreibt die Wellenausbreitung im Raum mit Hilfe einer partiellen Differentialgleichung. Die Lösung der Wellengleichung ist eine Funktion deren Variablen die Zeit und der Ort sind. Konkret werden in der Gleichung zeitliche und räumliche Änderungen des Zustands, also der Funktion, in Beziehung gesetzt, um die Wellenausbreitung zu beschreiben. Das mathematische Modell für Wellenausbreitung in beschränkten Gebieten umfasst neben der partiellen Differentialgleichung (die hier die Wellengleichung ist) auch noch die Anfangsbedingung, die den Zustand und die Geschwindigkeit zu Beginn des Prozesses festlegt, sowie die Bedingungen am Rand des Gebietes. Physikalisch ist klar, dass Wellen, wenn sie auf die Oberfläche am Rand treffen beispielsweise reflektiert, gebrochen oder gestreut werden können - je nachdem welche Materialeigenschaften der Rand hat. David Hipp untersucht in seiner Forschung insbesondere den Einfluss der Randbedingungen auf die Simulationen solcher Probleme - in seinem Fall also die Wellenausbreitung im Raum. Klassisch wird häufig die Dirichlet oder Neumann-Randbedingung gewählt bzw. die Robin Bedingung als Mischung der beiden. Diese drei Bedingungen auf dem Rand sind allerdings nicht immer realistisch genug, weil sie keine Bewegungen auf dem Rand erlauben.. Deshalb untersucht man derzeit dynamische Randbedingungen - das sind eben solche Bedingungen, die Bewegungen der Welle auf dem Rand zulassen. Damit kann die Wellen Energie an die Wand abgeben und die Wand selbst aktiver Teil der Wellenausbreitung wird. Das kann dann sogar zu Oberflächenwellen auf der Wand führen. Konventionelle numerische Verfahren müssen auf diese neuartigen Randbedingungen erst angepasst werden. Zwar kann David Hipp auf die Finite Elemente Diskretisierung im Raum in Kombination mit klassichen Zeitschrittverfahren zurückgreifen, jedoch muss geprüft werden ob diese Verfahren immer noch so gute Ergebnisse liefern, wie man sie von üblichen Anwendungen gewohnt ist. Eine Herausforderung der dynamischen Randbedingungen ist es, dass unterschiedliche Skalen im Prozess auftreten können, die dann auch so berücksichtigt werden müssen. Zum Beispiel schwingen die Wand und die akustische Welle mit unterschiedlichen Geschwindigkeiten oder Frequenzen. Im Moment genügt es für seine Testrechnungen, das Randgitter der FE-Diskretisierung zu belassen. In Zukunft geht es aber auch darum, hier Anpassungen für unterschiedlichste Materialien möglich zu machen um den verschiedenen Skalen gerecht zu werden. David Hipp ging im Cooking Math Projekt sehr offen und mit wenigen konkreten Vorstellungen in die Zusammenarbeit mit der Hochschule für Gestaltung (HfG) hinein. Schlussendlich ist das vorliegende Ergebnis der Zusammenarbeit mit Oliver Jelko von der HfG eine Mischung aus Lehrvideo zur Mathematik der Wellenausbreitung und professioneller Animation numerischer Testrechnungen für drei unterschiedliche Randbedingungen: Dirichlet, Neumann und akustische Randbedingung. Die akustische Randbedingung ist eine dynamische Randbedingung, die auf der modellhaften Vorstellung beruht, dass die Wand aus vielen winzigen Federn besteht, welche zu schwingen beginnen, wenn sie durch auftreffende akustische Wellen dazu angeregt werden. Als Mathematiker gehört die visuelle Darstellung der Ergebnisse zu unserer Arbeit und ist z.B. auch eine Form von Verifizierung. Aber die professionelle Animation zu Dirichlet-, Neumann und akustischen Randbedingungen durch einen Gestalter ist leichter zugänglich und erlaubt ein intuitives Verständnis. Das Video aus dem Cooking Math Projekt Literatur und Zusatzinformationen J. T. Beale, S. I. Rosencrans: Acoustic boundary conditions, Bull. Amer. Math. Soc. 80, 1276-1278, 1974. S. Larsson, V. Thomee: Partial Differential Equations with Numerical Methods, Springer, 2003. V. Rao: Boundary Condition Thinking, ein populärwissenschaftlicher Zugang zu Randbedingungen, 2011. R.P. Vito and S.A. Dixon: Blood Vessel Constitutive Models, 1995–2002, Annual Review of Biomedical Engineering 5, 413-439, 2003. Podcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting P. Krämer: Zeitintegration, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 82, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/zeitintegration

Modellansatz
Zeitintegration

Modellansatz

Play Episode Listen Later Feb 25, 2016 30:57


Die numerische Zeitintegration gewöhnlicher und partieller Differentialgleichungen ist an der Fakultät für Mathematik ein großes Forschungsgebiet, insbesondere in dem kürzlich gestarteten Sonderforschungsbereich SFB1173 zum Thema Wellenphänomene. Das Ziel dieser Forschung ist es, numerische Verfahren für Probleme zu entwickeln, für die man keine analytische Lösung angeben kann. Patrick Krämer forscht hierbei an besonders effizienten Verfahren für Beispiele aus der Quantenphysik, speziell der Maxwell-Klein-Gordon Gleichung. Darin ist die Klein-Gordon-Gleichung mit den Maxwell-Gleichungen verbunden. Die Klein-Gordon Gleichung ist das relativistische Analogon zur Schrödingergleichung, die die nicht-relativistische Bewegung atomarer Teilchen bzw. dessen Wahrscheinlichkeitsverteilung im Raum modelliert. Durch die Kombination mit den Maxwellgleichungen können nun die Wechselwirkung von elektromagnetischen Feldern mit den Teilchen unter Berücksichtigung relativistischer Effekte beschrieben werden. Die Lösung der Maxwell-Klein-Gordon Gleichung kann als Welle betrachtet werden, die sehr schnelle zeitliche Oszillationen aufweist. Um eine gute numerische Lösung der Maxwell-Klein-Gordon Gleichung zu erhalten, benötigt man Verfahren, die diese Oszillationen gut auflösen können. Für die bisher bekannten Verfahren ist es dafür notwendig sehr kleine Zeitschrittweiten zu wählen. Patrick Krämer verfolgt bei seinem Verfahren nun die Idee, nicht jede einzelne der schnellen Oszillationen zu bestimmen. Stattdessen wird nur die Einhüllende der Welle numerisch berechnet, die sich zeitlich wesentlich langsamer verändert, und anschließend mit der hohen Frequenz der schnellen Oszillation multipliziert. Die Einhüllende lässt sich hierbei numerisch sehr effizient bestimmen, durch Anwendung eines Splitting-Verfahrens auf ein Schrödinger-Poisson System, dessen Lösung nur langsame Oszillationen aufweist und damit deutlich größere Zeitschrittweiten zulässt. Die Arbeit von Patrick Krämer war auch Teil des Cooking Math Projekts, das mit Studierenden der Hochschule für Gestaltung (HfG) unter Federführung von Jill Enders und Chris Spatschek durchgeführt wurde. Die wissenschaftliche Arbeit wurde hier in einen Film umgesetzt, der die Arbeit und Denkweise eines Mathematikers vorstellt. Literatur und Zusatzinformationen E. Faou, K. Schratz: Asymptotic preserving schemes for the Klein–Gordon equation in the non-relativistic limit regime, Numerische Mathematik 126.3: 441-469, 2014. N. Masmoudi, K. Nakanishi: Nonrelativistic limit from Maxwell-Klein-Gordon and Maxwell-Dirac to Poisson-Schrödinger, International Mathematics Research Notices 2003.13: 697-734, 2003. Schwabl, Franz. Quantenmechanik für Fortgeschrittene (qm ii), Springer-Verlag, 2008. Podcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting

Modellansatz
Splitting

Modellansatz

Play Episode Listen Later Feb 18, 2016 15:37


Johannes Eilinghoff befasst sich in seiner Forschung mit mathematischen Fragen in der Quantenmechanik und war mit diesem Thema am Projekt Cooking Math beteiligt. Das Projekt wurde von Promovierenden im Sonderforschungsbereich Wellenphänomene (SFB) an der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT) und Studierenden der Hochschule für Gestaltung (HfG) unter Federführung von Jill Enders und Chris Spatschek durchgeführt. Kurz vor unserem Gespräch - im November 2015 - waren das Projekt Cooking Math und die entstandenen Arbeiten beim 16. Science Slam Karlsruhe zu Gast, der im jubez stattfand. Die Idee des Projektes ist es, dass Designstudenten von der HfG im Rahmen ihres Studiums die Promotionsprojekte von Mathematikern als Vorlage nehmen, um deren (Teil-)Inhalte kommunizierend zu gestalten. Vorgängerprojekt und zum Teil Anleihe für die Idee war das Projekt Science Vision von Jill Enders und Chris Spatchek. Die Motivation des SFB für die Teilnahme war, die mathematische Forschungsarbeit auf ungewohntem Weg zu kommunizieren. Es waren schließlich sechs Mathematik-Doktoranden und acht Designstudierende an dem Projekt beteiligt. Der Ablauf gestaltete sich wie folgt: An zwei Terminen hielten die Mathematiker Vorträge über ihre Arbeit. Später teilten sich die Designer bestimmte mathematischen Themen (und damit einem der Promovenden) zu und bearbeiteten es in diesen Gruppen weiter. Johannes Eilinghoff hat mit Christina Vinke zusammengearbeitet. Sie hatte die Idee, zunächst einen für ein Laienpublikum verständlichen Text zu schreiben, der die Grundideen der Arbeit von Johannes beinhaltet. Johannes hatte bis dahin schon Erfahrungen mit Vorträgen für mathematisch Vorgebildete, aber hier war es eine besondere Herausforderung den Spagat zwischen der Korrektheit des Textes und seiner Verständlichkeit zu meistern. Die endgültige Version entstand in Zusammenarbeit der beiden (auch mit den beiden Betreuern) und in mehreren Iterationsstufen. Sie wurde im Soundstudio von Johannes eingesprochen und in Abschnitte zu je 2-3 Sätzen unterteilt. Als Visualisiserung des Forschungsgebietes dient außerdem eine auf den Boden gezeichnete Zickzack-Linie, die das Thema von Johannes (Splitting-Verfahren) symbolisiert. Wenn man diese Linie entlangeht, werden jeweils an den Ecken die Teilstrecken die mathematischen Ideen per Kopfhörer vom Band vorgelesen. Johannes schätzt im Rückblick auch den Einblick in die Arbeit an der Hochschule für Gestaltung. Text zum Vorsprechen beim Kunstprojekt „Cooking Math“ mit der Hochschule für Gestaltung. Station 1: Lieber Zuhörer, mein Name ist Johannes Eilinghoff. Ich bin Doktorand im Fach Mathematik an der technischen Universität in Karlsruhe. Während Sie der Linie vor Ihnen folgen, erkläre ich Ihnen, was ich erforsche und warum Sie auf einer Linie laufen. Ich bin beteiligt an einem großen Rätsel der Wissenschaft: Wir wollen Teilchen aus der Quantenmechanik besser verstehen. Dafür würden wir gerne wissen, wie sich kleinste Teilchen, wie zum Beispiel Elektronen, im Raum bewegen. Station 2: Wenn ich mit meiner Arbeit anfange, weiß ich eines so gut wie Sie: Wenn Sie jetzt auf die Uhr schauen, können Sie genau sagen, zu welcher Zeit Sie auf dem Ausgangspunkt gestanden sind. Auch ich kenne die Ausgangszeit und Anfangsposition meiner Elektronen. Was Sie noch nicht wissen, ist, mit welcher Geschwindigkeit Sie sich bewegen werden und zu welchem Zeitpunkt Sie in der Mitte oder am Ende der Linie angelangt sein werden. Genau das interessiert mich in meiner Forschung.Station 3: Leider betrachte ich nicht Sie als Forschungsgegenstand. Sie sind schön groß, wunderbar langsam und auf der ausgewiesenen Linie relativ berechenbar. Meine Elektronen sind so klein, dass es so ist als ob Sie, lieber Zuhörer, versuchen würden, eine Maus auf dem Mond zu beobachten. Sie sind flink und tanzen so unberechenbar, dass wir einen Computer und eine mathematische Gleichung brauchen, um das Unmögliche für uns möglich zu machen.Station 4: Wir wollen wissen: Zu welcher Zeit ist das Elektron an welchem Ort? Und mit welcher Geschwindigkeit bewegt es sich? Für die Lösung dieser Fragen verfolge ich folgenden Ansatz: Meine Gleichung besteht aus zwei Teilen. Ich weiß, dass jeder meiner beiden Teile mit dem Computer einfach und schnell zu lösen ist. Die Idee ist nun, die gute Lösbarkeit der beiden Teile für mein ursprüngliches Problem zu nutzen. Mein Vorgehen kann man sich vorstellen wie diese Linie auf dem Boden. Es ist einfach, einen Teil eines geraden Wegstücks entlang zu gehen. Wenn Sie das Wegstück immer weiter geradeaus laufen würden, würden Sie die Linie verlassen und nicht ans Ziel kommen.Station 5: Um ans Ziel zu kommen, macht mein Computer das Folgende: Er berechnet die Lösung des einen Teils. Diese verwendet er um den anderen Teil zu lösen. Dessen Lösung verwendet er wieder für den ersten Teil und so weiter. Bildlich können Sie sich das wie einen Gang auf dieser Linie vorstellen: Erst nach vorne, dann entlang der Linie nach rechts, dann wieder nach vorne, und wieder nach rechts. So schicke ich meinen Computer über Umwege ans Ziel. Das Schöne an den Umwegen ist, dass er sie wesentlich schneller und leichter berechnen kann.Station 6: Dieses Verfahren ist nicht exakt, denn es berechnet nicht die Lösung der ursprünglichen Gleichung, sondern nur die Lösung der beiden Teile. In meiner Forschung versuche ich nun zu beweisen, dass diese Abweichung gering ist. Damit kennen Sie die Thematik meiner Doktorarbeit.Station 7: Nun sind Sie am Ende der roten Linie und damit am Ziel angekommen. Hier möchte ich mich für Ihre Aufmerksamkeit bedanken und Ihnen zum Schluss noch verraten: Die Art von Gleichungen, die ich in meiner Forschung betrachte, nennt man Differentialgleichungen.Literatur und Zusatzinformationen J. Eilinghoff, R. Schnaubelt, K. Schratz: Fractional error estimates of splitting schemes for the nonlinear Schrödinger Equation. Wikipediaeintrag zu Splitting-Verfahren Übersichtsartikel zu SplittingverfahrenPodcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis

ZKM | Karlsruhe /// Veranstaltungen /// Events
Hans Belting: Schmetterlings-Netze

ZKM | Karlsruhe /// Veranstaltungen /// Events

Play Episode Listen Later Dec 31, 2010 41:39


The Digital Oblivion. Substanz und Ethik in der Konservierung digitaler Medienkunst | Symposium Do, 04.11.2010 – Fr, 05.11.2010 Hans Belting behandelt in seinem Vortrag drei Themen: Das kulturelle Gedächtnis, die digitalen Medien und die Konservierung der Medienkunst. Dabei stellt er sich die Frage, ob ein Digitales Archiv nicht ein Widerspruch in sich ist. Sein Problem mit dem Begriff ergibt sich aus der Tatsache, dass ein Archiv eigentlich von seinem Wesen her konstant ist, während sich digitale Medien stets im Flux des technischen Fortschritts befinden. Daraus ergibt sich, dass digitale Archive neu gedacht werden müssen, damit sie überhaupt existieren können. Brauchen wir nun Archive für digitale Kunst oder digitale Archive für alles, was anders gespeichert wird? Das digitale Zeitalter fordert uns zu einer Neuordnung der Erinnerung auf. In der Medienkunst wird es dabei nicht nur um die Anfänge gehen, sondern auch um das Verhältnis von Technologie und Konzept, da Medienkunst eine Art »Zwitter« aus Technologie und Konzept darstellt. Alte Techniken kommen aus der Mode und werden als Erinnerung archiviert, auch um die Überlegenheit neuer Technologien zu demonstrieren. Kunst wird hingegen anders erinnert, denn sie veraltet nicht in gleichem Maße und auf die gleiche Weise, weil sie ohnehin nicht zum Gebrauch und Nutzen bestimmt ist. Ihr Wert bemisst sich eher daran, wie »unwiederholbar« sie ist. Medienkunst veraltet zwar so rasch wie ihre Technik, jedoch nicht in ihren Ideen und Konzepten. Ihre Erhaltung macht insofern Sinn, als dass sie zeigen kann, wie wichtig Konzept und Idee im Gegensatz zu technischen Neuerungen in der Kunst sind. Zugleich stellen frühe Werke der Medienkunst aber auch eine Art Auflehnung gegen jede Form von Konservierung dar. Wenn sie dann trotzdem für die Nachwelt erhalten werden, geraten sie, zu »Schmetterlingen, die gefangen und aufgespießt sind, [und daher nicht mehr] fliegen.« Der Kunsthistoriker Hans Belting hat, nach Stationen an den Universitäten in Hamburg, Heidelberg und München, 1992 die Hochschule für Gestaltung (HfG) in Karlsruhe mitbegründet und die Fächer Kunstwissenschaft und Medientheorie gelehrt. Gegenwärtig betreut er u. a. das Projekt GAM (Global Art and the Museum) sowie die Ausstellung »The Global Contemporary. Kunstwelten nach 1989« am ZKM | Karlsruhe. /// Hans Belting argued that the concept of the digital archive was contradictory. Digital media, he suggested, are subject to rapid change and thus inherently unstable, with a large gap likely to open up between, on the one hand, vast quantities of data and, on the other, limited possibilities for their preservation. In this context, he also noted that non-Western cultures have different ideas of contemporaneity, with less contradictory relations to concepts of tradition. In conclusion, Belting presented an analysis of media art as a »hybrid of technology and concept«. When placed in a museum, old technologies merely gathered dust. Artworks, by contrast, aged in a different way, since they had never been useful in the same manner. Thus, the conservation of artworks must concentrate on their contents. With reference to early media art, it was not clear why it should be reproduced – unlike established art, it wanted to be fleeting and evanescent. »To capture and mount a butterfly is to take away its ability to fly.« Hans Belting was co-founder of the Karlsruhe University of Arts and Design (1992) and professor of art history and media theory (until 2002). At present, he is amongst others advisor of the project GAM (Global Art and the Museum) and of the exhibition »The Global Contemporary. Art Worlds After 1989« at the Center for Art and Media Karlsruhe (ZKM).