Podcast appearances and mentions of sebastian ritterbusch

  • 6PODCASTS
  • 40EPISODES
  • 1h 25mAVG DURATION
  • ?INFREQUENT EPISODES
  • Sep 5, 2019LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about sebastian ritterbusch

Latest podcast episodes about sebastian ritterbusch

Modellansatz
Tonsysteme

Modellansatz

Play Episode Listen Later Sep 5, 2019 62:48


Stephan Ajuvo (@ajuvo) vom damals(tm) Podcast, Damon Lee von der Hochschule für Musik und Sebastian Ritterbusch trafen sich zu Gulasch-Programmiernacht 2019 des CCC-Erfakreises Entropia e.V., die wieder im ZKM und der HfG Karlsruhe stattfand. Es geht um Musik, Mathematik und wie es so dazu kam, wie es ist. Damon Lee unterrichtet seit einem Jahr an der Hochschule für Musik und befasst sich mit Musik für Film, Theater, Medien und Videospielen. Im aktuellen Semester verwendet er Unity 3D um mit räumlicher Musik und Klängen virtuelle Räume im Gaming-Umfeld umzusetzen. Auch im Forschungsprojekt Terrain wird untersucht, in wie weit räumliche Klänge eine bessere Orientierungsfähigkeit im urbanen Umfeld unterstützen können. Die Idee zu dieser Folge entstand im Nachgang zur gemeinsamen Aufnahme von Stephan und Sebastian zum Thema Rechenschieber, da die Musik, wie wir sie kennen, auch ein Rechenproblem besitzt, und man dieses an jedem Klavier wiederfinden kann. Dazu spielte Musik auch eine wichtige Rolle in der Technikgeschichte, wie beispielsweise das Theremin und das Trautonium. Die Klaviatur eines herkömmlichen Klaviers erscheint mit den weißen und schwarzen Tasten alle Töne abzubilden, die unser gewöhnliches Tonsystem mit Noten abbilden kann. Der Ursprung dieses Tonsystems entstammt aus recht einfachen physikalischen und mathematischen Eigenschaften: Wird eine Saite halbiert und im Vergleich zu zuvor in Schwingung gebracht, so verdoppelt sich die Frequenz und wir hören den einen gleichartigen höheren Ton, der im Tonsystem auch gleich benannt wird, er ist nur um eine Oktave höher. Aus einem Kammerton a' mit 440Hz ändert sich in der Tonhöhe zu a'' mit 880Hz. Neben einer Verdopplung ergibt auch eine Verdreifachung der Frequenz einen für uns Menschen angenehmen Klang. Da aber der Ton über eine Oktave höher liegt, wird dazu der wieder um eine Oktave tiefere Ton, also der Ton mit 1,5-facher Frequenz betrachtet. Dieses Tonintervall wie beispielsweise von a' mit 440Hz zu e'' mit 660Hz ist eine (reine) Quinte. Entsprechend des Quintenzirkels werden so alle 12 unterschiedlichen Halbtöne des Notensystems innerhalb einer Oktave erreicht. Nur gibt es hier ein grundsätzliches mathematisches Problem: Gemäß des Fundamentalsatzes der Arithmetik hat jede Zahl eine eindeutige Primfaktorzerlegung. Es ist also nicht möglich mit mehreren Multiplikationen mit 2 zur gleichen Zahl zu gelangen, die durch Multiplikationen mit 3 erreicht wird. Somit kann der Quintenzirkel nicht geschlossen sein, sondern ist eigentlich eine niemals endende Quintenspirale und wir müssten unendlich viele unterschiedliche Töne statt nur zwölf in einer Oktave haben. In Zahlen ist . Nach 12 reinen Quinten erreichen wir also nicht genau den ursprünglichen Ton um 7 Oktaven höher, doch der Abstand ist nicht sehr groß. Es ist grundsätzlich unmöglich ein endliches Tonsystem auf der Basis von reinen Oktaven und reinen Quinten zu erzeugen, und es wurden unterschiedliche Strategien entwickelt, mit diesem Problem zurecht zu kommen. Wird das Problem ignoriert und nur die letzte Quinte verkleinert, damit sie auf den ursprünglichen Ton um sieben Oktaven höher trifft, so entsteht eine schlimm klingende Wolfsquinte. Auch im Cello-Bau können durch Wahl der Verhältnisse der Saiten und der Schwingungsfrequenzen des Korpus fast unspielbare Töne entstehen, diese werden Wolfston genannt. In der Musik wird die erforderliche Korrektur von Intervallen auch Komma-Anpassung genannt, die beispielsweise bei Streichinstrumenten automatisch, da hier die Töne nicht auf festen Frequenzen festgelegt sind, sondern durch die Fingerposition auf dem Griffbrett individuell gespielt wird. Bei Tasteninstrumenten müssen die Töne aber im Vorfeld vollständig in ihrer Frequenz festgelegt werden, und hier haben sich historisch verschiedene Stimmungen ergeben: Nach vielen Variationen, die immer durch die Wolfsquinte unspielbare Tonarten beinhalteten, wurde ab 1681 in der Barockzeit von Andreas Werkmeister die Wohltemperierte Stimmung eingeführt, in der zwar jede Tonart spielbar, aber jeweils individuelle Stimmungen und Charaktäre vermittelten. Diese Unterschiede sollen Johann Sebastian Bach bis 1742 zum Werk Das wohltemperierte Klavier inspiriert haben, wo er die jeweiligen Eigenheiten aller Tonarten musikalisch umsetzte. Die heute am häufigsten verwendete Gleichtstufige oder Gleichmäßige Stimmung verkleinert alle Quinten statt 1,5 auf den gleichen Faktor , so dass alle Töne auf die Frequenzen festgelegt sind. Damit sind alle Tonarten absolut gleichberechtigt gut spielbar, sie klingen aber auch alle gleich, und haben alle den gleichen kleinen Fehler. Da aber gerade bei Streichinstrumenten natürlich passendere Frequenzen gewählt werden, klingen gerade synthetisch erzeugte Streicher unrealistisch, wenn sie der exakten gleichstufigen Stimmung folgen. Während bei der Klavierstimmung die Töne durch die Spannung der Saiten eingestellt werden können, so werden metallische Orgelpfeifen mechanisch mit einem Stimmeisen in ihrer Frequenz angepasst. Die Porzellanorgel ist eine ungewöhnliche unter anderem in Meissen hergestellte Form, deren Pfeifen natürlich auch mit Luft und nicht durch Vibration, wie beim Schlaginstrument des Vibraphons klingen. György Ligeti, populär bekannt durch Filmmusiken in 2001: Odyssee im Weltraum und Eyes Wide Shut, hat sich in seinem späteren Schaffenswerk auch mit exotischeren Tonsystemen auf Basis reiner Intervalle mit Streichern befasst. Beispielsweise sollte Continuum, für Cembalo, mit Mitteltöniger Stimmung gespielt werden. Um in der herkömmlichen Notation auf der Basis von 12 Halbtönen auch feinere Tonschritte bezeichnen zu können, wurden die Zeichen Halb-Kreuz und Halb-b eingeführt, die auf die Viertelton-Musik führten. Hier stellt sich die interessante Frage, ob eine Erhöhung auf 24 Tönen pro Oktave bei reinen Intervallen sich der Fehler reduziert. Diese Frage beantwortet die Berechnung des entsprechenden Faktors aus Quinten mit dem nächsten Faktor aus Oktaven und die Berechnung des relativen Fehlers, der korrigiert werden muss. Bis 53 Quinten haben folgende Kombinationen einen Fehler von weniger als 7%: Quinten n 5 7 12 17 24 29 36 41 46 48 53 Oktaven m 3 4 7 10 14 17 21 24 27 28 31 Fehler5,1%6,8%1,4%3,8%2,8%2,5%4,2%1,1%6,6%5,6%0,2% Ein sehr primitives Tonsystem kann also mit 5 Tönen aufgestellt werden, aber offensichtlich treffen 12 Töne deutlich besser. 24 Töne ermöglichen zwar mehr Tonvielfalt, verbessern aber den Fehler nicht. Erst ein Tonsystem mit 29 Tönen würde bei gleichstufiger Stimmung einen exakteren Klang als bei 12 Tönen ermöglichen. Noch besser wäre dann nur noch ein Tonsystem mit 41 Tönen pro Oktave, eine extreme Verbesserung ergibt sich bei 51 Tönen pro Oktave bei entsprechenden Problemen beim Bau einer solchen Klaviatur. Dazu haben Tonsystemerweiterungen in Vielfachen von 12 eine höhere Kompatibilität zum herkömmlichen System, und die Nähe der besseren Tonsysteme mit 29 zu 24 und 53 zu 48 zeigt, dass die Vielfachen in der Aufführung als Näherungen zu den besseren Darstellungen betrachtet werden können. Gérard Grisey (z.B. Les espaces acoustiques) und Tristan Murail sind Vertreter der Spektralisten, die in ihren Partituren erweiterte Tonsysteme verwenden. Hier sind die Tonangaben jedoch harmonisch statt melodisch gedacht, sind also in der Aufführung entsprechend zu interpretieren. YouTube: Gérard Grisey - Vortex Temporum - Ensemble Recherche Natürlich dürfen die Töne von Instrumenten nicht nur mit ihrer Grundfrequenz betrachtet werden, sondern erst das Zusammenspiel aller Harmonischen und Obertöne in Vielfachen der Grundfrequenz machen den charakteristischen Klang eines Instruments aus. Durch eine Fourier-Analyse kann mathematisch ein solches Frequenzspektrum eines Geräusches oder eines Tons berechnet werden. Oft ist hier eine überraschende Anzahl von Obertönen zu sehen, die von Menschen nicht unabhängig vom Grundton gehört werden. In der Ottoman Musik finden sich oft für west-europäische Ohren ungewohnte Harmonien, die aus ihrer langen orientalischen Geschichte andere Formen der Komposition und Tonsysteme entwickelt haben. In der Audioelektronik wurden ab etwa 1912 Röhren für Verstärker und insbesondere in der Musik verwendet, und die exakte Bauform der Bleche und Elektroden hatte deutliche Auswirkungen auf die Übertragung und Erzeugung von Spektren und Audiowellen durch Verzerrungen. Die Hammondorgel war eine sehr beliebte elektromechanische Orgel, wo anstatt von Pfeifen rotierende Zahnräder vor elektrischen Abnehmern die Töne erzeugten. Mit Hilfe von Röhren wurde in der DDR versucht, Silbermann-Orgeln als elektronische Orgeln auf Basis des Prinzips der Hammondorgel nachzubilden. Die Klangfarben der Silbermann-Orgeln wurden hier durch elektronische Rekonstruktion der Obertöne nachempfunden. Was als angenehmer Klang empfunden wird, ist eine persönliche Sache. Jedoch ist auffällig, dass der harmonische Grundklang eines Dur-Akkords einen sehr mathematischen Hintergrund hat: Die Quinte integriert den Faktor 3, bzw. 3/2, also 1.5, die große Terz den Faktor 5, bzw. 5/4 also 1.25, und die Quarte zur nächsten Oktave mit Faktor 2 ist der Faktor 4/3. Ein Zusammenspiel von so kleinen Faktoren wird bei kleinem kleinsten gemeinsamen Vielfachen wieder periodisch und ergibt einen gleichmäßigen Klang. Das persönliche Empfinden kann physiologisch mit dem Aufbau der Hörschnecke zusammenhängen, wird aber auch stark durch Erfahrungen geprägt. Musik besteht aber nicht aus einem Klang, sondern einer zeitlichen Abfolge von Konsonanz und Dissonanz, und das gilt nicht nur für neue Veröffentlichungen alter Meister von Wolfgang Rehm. So spielt Ornette Coleman mit den Erwartungen der Hörenden bis ins Chaos. YouTube: Ornette Coleman Solo - Rare! Im Google-Doodle zu Ehren von Johann Sebastian Bach hingegen versucht aus eine Vorgabe mit einem neuronalen Netz gerade die erwartete Vervollständigung im Stil von Bach zu komponieren. Eine Regelmäßigkeit oder Überraschung in der Musik kann auch im Sinne eines Informationsgehalts interpretiert werden: Sehr regelmäßige Formen sind vorhersagbar und enthalten wenig Information, die unerwartete Wendung hingegen trägt viel Information. Die als algorithmischen Komposition bezeichneten Werkzeuge werden in vielen Programmen und Geräten angeboten, beispielsweise als automatische Begleitung. Die Ergebnisse erscheinen aber nicht sehr kreativ. Bei der Verwendung von künstlichen neuronalen Netzen für die Komposition ist es leider nicht möglich im Nachhinein zu analysieren, warum und wie bestimmte Passagen erzeugt wurden: Auch wenn sie mit existierenden Beispielen mit Backpropagation trainiert wurden, arbeiten dann als Black Box, aus der nicht direkt abstrakte Entscheidungsgrundlagen reproduziert werden können. Alles Lernen setzt voraus, dass es ein Maß für die Güte gibt, was ist demnach die Qualität einer Komposition, was unterscheidet Kreativität vom Zufall und wo stimmt dies zwischen unterschiedlichen Menschen überein? Wie an prähistorischen Instrumenten zu erkennen, ist Klangerzeugung und Musik mit der Stimmbildung eng mit der Evolution des Menschen verknüpft. Recht spät entstanden Techniken zur Kodifizierung von Tonfolgen, wie beispielsweise in der Gregorianik. Es ist anzunehmen, dass der gesellschaftliche Einfluss auf die Kompositionen ihrer Zeit sehr groß war, und es jeweils auch besondere Auswirkungen wie die Blue Notes gegeben hat. Heute wird Komposition in vielen Schritten gelehrt: Angefangen von der Musiktheorie, Erlernen von Instrumenten und Musikgeschichte wird dann in Kompositionstechniken unterschiedlicher Musikepochen eingeführt. Ausgehend von den Techniken von Josquin Desprez im 15. Jahrhundert zur Verwendung des Kontrapunkt im 16. Jahrhundert, oder wie Johann Sebastian Bach den Kontrapunkt im 18. Jahrhundert nutzte. In den Notenblättern von Ludwig van Beethoven ist zu erkennen, wie er von Joseph Haydn das Komponieren auf Basis von Kontrapunkten erlernte, und auch heute mit seinen inzwischen vom Betthoven-Haus umfangreich digitalisierte Werk die Musikforschung begeistert. Ein Lehrkanon kann sich wie Kompositionstechniken über die Zeit ändern, so wie in der Mathematik früher das Riemannsche Integral Standard war, so sehen wir inzwischen den Übergang zum mächtigeren und der Wirklichkeit näheren Integralbegriff nach Lebesgue. So wie heute häufiger der neuere Begriff zum Einsatz kommt, so ist es sinnvoll und gut, auch frühere Techniken, wie auch frühere Kompositionstechniken, zu kennen und daraus lernen zu können. Im Berufsbild einer Komponistin oder eines Komponisten ist es heute meisstens nicht so, dass der Kreativität freien Lauf gelassen wird, sondern die Arbeit erfolgt in interdisziplinärer Zusammenarbeit in einem Team. Besonders für Videospielmusik oder Filmmusik wird die Komposition auf besondere Situationen hin entwickelt und erarbeitet. Wie Kreativität, Teamwork, Künstliche Intelligenz und Programmieren zu neuen Lösungen zusammenwirken kann, war auf der Gulaschprogrammiernacht auch in der Projektion der Schlangenprogrammiernacht zu sehen, wo verschiedene Programme als Schlangen in einer virtuellen Welt miteinander lebten. Der spielerische Umgang mit Algorithmen wie bei Schere, Stein, Papier führt schnell auf Spieltheorie und Herausforderungen im Hochfrequenzhandel. Literatur und weiterführende Informationen C.-Z. A. Huang, C. Hawthorne, A. Roberts, M. Dinculescu, J. Wexler, L. Hong, J. Howcroft: The Bach Doodle: Approachable music composition with machine learning at scale, ISMIR 2019. U. Peil: Die chromatische Tonleiter - Mathematik und Physik, Jahrbuch der Braunschweigischen Wissenschaftlichen Gesellschaft, 2012. M. Schönewolf: Der Wolf in der Musik. Podcasts U. Häse, S. Ajuvo: Theremin, Folge 56 im damals(tm) Podcast, 2018. N. Ranosch, G. Thäter: Klavierstimmung, Gespräch im Modellansatz Podcast, Folge 67, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. P. Modler, S. Ritterbusch: Raumklang, Folge 8 im Podcast Neues Terrain, 2019. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, Gespräch im damals(tm) und Modellansatz Podcast, Folge 184, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Brill, T. Pritlove: Das Ohr, CRE: Technik, Kultur, Gesellschaft, Folge 206, 2014. C. Conradi: Der erste letzte Ton, Systemfehler Podcast, Folge 26, 12.4.2018. C. Conradi: Elektronische Orgel made in DDR, Zeitfragen, Deutschlandfunk Kultur, 12.6.2019. G. Follmer, H. Klein: WR051 Ortsgespräch, WRINT: Wer redet ist nicht tot, Folge 51, 2012. Audiospuren Tonbeispiele von D. Lee und S. Ritterbusch MuWi: C-g pythagoräischer Wolf, CC-BY-SA, 2007. Mdd4696: WolfTone, Public Domain, 2005. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/research-software-engineering D. Lee, S. Ajuvo, S. Ritterbusch: Tonsysteme, Gespräch im Modellansatz Podcast, Folge 216, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/tonsysteme GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

film chaos system evolution team theater welt wolf geschichte arbeit erfahrungen rolle musik noch durch bei herausforderungen roberts dazu gesellschaft damit umgang nur qualit bis basis medien sache fehler kultur teamwork auswirkungen wahl neben einfluss verst situationen bach einsatz verh stein recht sinne ludwig van beethoven luft erst programme zusammenarbeit umfeld erwartungen ohren aufnahme stimmung werk besonders vergleich intelligenz hintergrund strategien begriff problemen oft kreativit netz ludwig meister aufbau faktoren formen vibration stil papier zahl schritten diese frage jahrhundert instruments wirklichkeit zufall semester abstand literatur ddr lauf techniken faktor spannung hong black box bau anzahl continuum huang vorfeld beispielen begleitung mit hilfe vertreter verbesserung krause somit hawthorne jedoch werkzeuge hochschule die idee angefangen verwendung klang zusammenspiel erh public domain eyes wide shut physik noten gy nachhinein brill mathematik algorithmen cc by sa auff weltraum johann sebastian bach ehren klavier entsprechend die ergebnisse haupt wendung frequenz programmen beispielsweise odyssee schlangen korrektur videospielen empfinden stimmungen wexler eigenheiten schere programmieren komponisten fakult halb berechnung ausgehend variationen schwingung nachgang instrumenten filmmusik darstellungen tasten erlernen orgel passagen musikgeschichte komposition theremin frequenzen notation kombinationen der wolf ornette coleman pfeifen der ursprung ligeti quinten kompositionen quinte blue notes joseph haydn abfolge erzeugung projektion rekonstruktion komponistin obert vorgabe streicher komponieren netzen saiten verzerrungen dissonanz fehlers deutschlandfunk kultur intervalle spieltheorie unity3d karlsruher institut kompatibilit klaviatur zkm kontrapunkt zahnr prinzips verdopplung orgeln harmonien korpus musiktheorie vervollst tonh magin jahrbuch technologie kit meissen grundton filmmusiken intervallen 440hz technikgeschichte cembalo stimmbildung elektroden tonart josquin desprez grisey saite spektren gleichm oktave diese unterschiede oktaven klaviers barockzeit backpropagation hammondorgel faktors bauform videospielmusik tristan murail partituren ismir orgelpfeifen tonarten schaffenswerk lebesgue kammerton gregorianik charakt harmonischen ajuvo hfg karlsruhe griffbrett grundfrequenz sebastian ritterbusch modellansatz podcast
Neues Terrain
Vernetzungstreffen Intelligente Mobilität

Neues Terrain

Play Episode Listen Later Feb 21, 2019 120:06


Am 18. April 2018 fand in Frankfurt das zweite Vernetzungstreffen der Projekte in der Förderline „Verlässliche Technik für den mobilen Menschen“ statt. Markus Winkelmann vom ITAS am Karlsruher Institut für Technologie (KIT) und Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH konnten an dem Treffen teilnehmen, und unterhalten sich hier über die Erfahrungen und die verschiedenen Gespräche, die sie dort führen konnten. Die Vernetzungstreffen ermöglichen den Projekten einen Austausch sowohl über ihre Projekte, als auch über Querschnittsthemen, die alle Projekte in der Förderlinie vereint. Verglichen zum ersten Vernetzungstreffen im Rahmen der Fachtagung Mobilität im Wandel in 2017 konnte hier noch stärker den einzelnen Projekten als auch den begleitenden ELSI Themen (Ethische, rechtliche und soziale Aspekte) Rechnung getragen werden. In der Einführung durch Frau Albrecht-Lohmar für das BMBF-Referat „Mensch-Technik-Interaktion; Demografischer Wandel“ wurde großer Wert darauf gelegt, dass Forschung und Förderung kein Selbstzweck sein dürfen, sondern sie zu Innovationen führen sollen, die auch bei den Menschen ankommen. In der Begrüßung durch Dr. Marcel Kappel für den Projektträger und Organisator VDI/VDE-IT im Bereich Mensch-Technik Interaktion wurde die Einbettung der Förderlinie in das Forschungsprogramm dargestellt. KoFFI Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug Interaktion startete die Projektvorträge. Es ging dabei um Fragen wie man mit Konfliktsituationen zwischen Fahrer und Fahrzeug umgehen kann, oder wie eine Vertrauenssituation hergestellt wird. Eine kritische Frage war auch, in welchen Situationen sich ein Fahrzeug über die Entscheidungen des Fahrers hinwegsetzen sollte. So verhindert beispielsweise ein ausgelöster Airbag sehr deutlich die Aktionsfreiheit des Fahrers, es ist jedoch weithin akzeptiert, dass hier die unaufgeforderte Einschränkung des Menschen weit schlimmeres verhindern kann. Wann hingegen Überholvorgänge noch abgebrochen werden dürfen, sind hingegen deutlich kompliziertere Fragestellungen, die im Projekt untersucht werden. Dabei muss auch grundsätzlich berücksichtigt werden, dass ein Einverständnis auch ein Verständnis voraussetzt. Hier ergaben sich im Projekt überraschende Ergebnisse, über die uns Susanne Kuhnert vom Institut für Digitalethik der Hochschule für Medien (HDM) Stuttgart erzählte. In der ethischen und rechtlichen Begleitung des sonst technisch ausgelegten Projekts KoFFI ging es weit über eine Literaturarbeit hinaus, und es wurde das Gespräch mit Probanden im Sinne einer experimentellen Philosophie gesucht, wo mit empirischen Ergebnissen und Experimenten gearbeitet wurde. Im der Forschung um autonomes Fahren zur Erarbeitung von ethischen Leitlinien (vgl. medizinische Leitlinien) stellte sich dabei früh die Frage, ob die Nutzergruppe überhaupt den Begriff der Autonomie versteht. Das Projekt KoFFI untersucht grundsätzlich die Nutzbarkeit von Gesten und natürlicher Sprache zur Interaktion von Fahrzeug und Mensch, damit nicht mehr feste Befehle auswendig gelernt werden müssen, sondern der Wagen aus der Situation heraus den Menschen so gut wie möglich mit natürlicher Sprache verstehen kann. Eine überraschende Erkenntnis war hier, dass selbst bei technik-affinen Probanden eine grundsätzliche Technikskepsis zu beobachten war, die auf zweiten Blick durch den alltäglichen Umgang mit niemals perfekter Technik verständlich wird. Gleichzeitig wünscht sich natürlich niemand einen Technikausfall bei einer Fahrt mit hoher Geschwindigkeit auf der Autobahn. Diese Frage kann nicht alleine technisch behandelt werden, sondern benötigt einer ethischen Betrachtung, wie hier der Umgang der Technik mit dem Menschen und die Technikentwicklung von Menschen auf sehr elementare Fragen eingehen kann. Im Vortrag wurden auch die Begriffe Technikzukünfte, wie die Nutzenden sich die Technik in Zukunft erwünschen, den Zukunftstechniken, den real in Zukunft existierenden Techniken, gegenüber gestellt. Um diese Begriffe der ungewissen Zukunft besser in den Griff zu bekommen, werden Szenarien erarbeitet, um wahrscheinliche Zukünfte als Entscheidungsgrundlage entwickeln zu können. Vorreiter Das Projekt Vorreiter will durch neuartige Kommunikationsmethoden auch Menschen mit Einschränkungen den Zugang zu teil- oder vollautomatisierten Fahrzeugen erleichtern. Ein Aspekt war hier, wie beispielsweise eine Lenkradsteuerung auch Menschen theoretisch und praktisch ermöglicht werden kann, die für eine traditionelle Kontrolle des Lenkrads körperlich nur eingeschränkt fähig sind. Hier wurden unter anderem Tests mit einem Altersanzug durchgeführt, die auch darstellten, dass die Einschränkungen auch einige in Erwägung gezogene Gesten betrafen. Die anschließende Podiumsdiskussion zu den beiden Projekten startete mit der Frage „Mein Fahrzeug soll sein wie…“, wo sich das Publikum für den „Partner“ aussprach. KOLA Das Projekt KOLA befasst sich mit kooperativen Laserscheinwerfern und im Treffen wurden die Schwerpunkte Psychologie und Technik dargestellt. Welche Signale und Hinweise können über Lichtbilder auf der Straße verwendet werden, um über eine neue Kommunikationsform ein sozialeres und sicheres Straßenumfeld zu schaffen. Auf der einen Seite erscheinen Emoticons und Smileys als eine moderne und eingängige Kommunikationsform, jedoch sind sie weit weniger eindeutig als bekannte Verkehrsymbole, dessen Verwendung aber aus guten Gründen hier durch die StVO stark reglementiert ist. Auch der Stand der technischen Realisierung wurde im Vortrag sehr beeindruckend geschildert. PAKoS Zum Projekt PAKoS ging es insbesondere um die sichere Übergabe der Fahrzeugkontrolle vom Fahrer an die Automation und umgekehrt. An diesem Projekt ist mit dem cv:hci am Karlsruher Institut für Technologie (KIT) auch ein Partner vom TERRAIN-Projekt beteiligt. Dr.-Ing. Michael Flad vom Institut für Regelungs- und Steuerungssysteme (IRS) am KIT war bereit, uns PAKoS vorzustellen, und uns die unterschiedlichen Kommunikationsmodalitäten, die in der Kommunikation mit dem Fahrzeug zum Einsatz kommen, zu erklären. Neben der visuellen Darstellung im Display oder als Projektion auf der Windschutzscheibe, wird auch eine akustische Sprachausgabe verwendet. Ergänzt werden diese Darstellungsformen durch haptische Signale durch einen mit Vibrationsmotoren ausgestatteten Sitz, der Interaktion mit dem Lenkrad und Pedalen an den Füßen. In einer ersten Studie hat sich ergeben, dass visuelle Signale am leichtesten übersehen werden, im Vergleich beispielsweise zu akustischen Hinweisen. Am deutlichsten wurden hier die Vibrationssignale im Sitz wahrgenommen. Dies ist genau gegenläufig zur möglichen Informationsdichte und entsprechenden Ablenkungspotential der Kanäle. Besondere Ablenkungen können hier die aktuell nicht erlaubten Nebentätigkeiten während des Fahrens sein, die beim autonomen Fahren teilweise akzeptiert werden können. In der Zeit der nur teilautonomen Systeme müssen hier Verfahren untersucht werden, wie die Übergabe der Verantwortung in Abhängigkeit von den Tätigkeiten, dem Fahrer und der Situation ablaufen kann. Ein mathematisches Modell ist hier die Abbildung der Regelkonzepte als gekoppeltes Differenzialgleichungssystem zu betrachten. Mit Hilfe eines Differenzialspiels kann die Vorhersage über die erwartete Übernahme in die Fahrzeugautomation aufgenommen werden. Der im Gespräch erwähnte Unfall mit einem teilautonomen Uber-Auto zeigte sehr deutlich, welche schlimmen Auswirkungen die Ablenkung der fahrenden Person haben kann. Im Gespräch mit Luis Kalb vom Lehrstuhl für Ergonomie an der TU München ging es dann um Details der Verwendung des von Bastiaan Petermijer entwickelten vibrotaktilen Autositzes. Hier sitzt man auf einer Art Vibrationsmatte, die Vibrationsmuster in unterschiedlichen Intensitäten von der Sitzfläche bis zum Rückenbereich darstellen kann. Typische Muster sind Linien, die komplett von einer Seite zur anderen durchlaufen, und sie werden oft zusätzlich durch Sprachausgaben ergänzt. Gerade bei Ablenkungen des Fahrers kann mit Hilfe dieses Kommunikationskanals sehr deutlich auf gefährliche Situationen oder gefährliches Handeln hingewiesen werden. Die zusätzlichen Kommunikations- und Detektionsmethoden für teilautonomen Automobilen ermöglichen deutlich sicherere Betriebsmodi, wenn beispielsweise bei einem abgelenkten Fahrer automatisch die Fahrgeschwindigkeit reduziert wird, da der Mensch nicht mehr so schnell eingreifen kann. Eine unmittelbar verständliche Reaktion kann auch sehr zur Akzeptanz eines Systems beitragen, wenn sie nicht womöglich als Rechtweisung oder Bestrafung aufgefasst wird. Ganz abgesehen davon nimmt die rechtliche Fragestellung zusätzlich einen großen Raum ein, wie die Verantwortung in solchen Situationen zu bewerten ist. Ein anderes Beispiel sind künstlich erzeugte Geräusche für langsam fahrende Elektroautos, ohne die blinde Menschen das Fahrzeug kaum noch akustisch orten können. Es gibt eine Vielzahl von technischen Lösungen, die sowohl im sozialen, psychologischen und rechtlichen Kontext bewertet werden müssen. Ab 2021 wird jedes neu zugelassene E-Auto entsprechende Geräusche machen müssen. Bei der Frage in das Plenum, wie die Kommunikation zwischen Fahrzeug und Fahrende stattfinden sollte, lief es auf die Punkte intiutiv, sicher und verständlich hinaus, und führte in eine rege Diskussion zu den beiden Projekten. Safety4Bikes Der nächste Block startete mit dem Projekt Safety4Bikes für ein Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern. Jochen Meis von GeoMobile und Dr. Florian Klingler der CCS Labs des Heinz Nixdorf Instituts der Uni Paderborn gaben uns in einem Gespräch einen tiefen Einblick in den Stand und die Erfahrungen aus ihrem Projekt. Sehr interessant ist beispielsweise das Ergebnis, dass der Fahrradhelm inzwischen bei Kindern fast durchweg genutzt wird, hingegen die Eltern ihn seltener und besonders die Großeltern fast überhaupt nicht verwenden. Ein anderes Ergebnis ist, dass der Unfallschwerpunkt für fahrradfahrende Kinder Kreuzungsbereiche sind, gefolgt von Ein- und Ausfahrten. Eine Möglichkeit die Sicherheit zu erhöhen bietet die Car2X Kommunikation, wo im Projekt untersucht wird, wie Fahrräder in dieses Kommunikationsnetz integriert werden können, um im Vorfeld auf Gefahrensituationen hinweisen zu können. Die technische Grundlage ist das IEEE 802.11p Protokoll, das eine ad-hoc Kommunikation im Straßenverkehr ermöglicht. Die ersten Tests im Safety4Bikes Projekt wurden auf Trikes umgesetzt, um den jungen Probanden keiner zusätzlichen Gefahr auszusetzen. In Zukunft ist die fortschreitende Elektrifizierung auch im Fahrradbereich für das Projekt eine zusätzlich vorteilhafte Entwicklung, da sie die Frage der Stromversorgung erleichtert. TERRAIN Den Ansatz weitere Methoden im Forschungsprojekt zunächst auf einem tragbaren Computer statt auf dem Smartphone umzusetzen, verfolgen wir im TERRAIN-Projekt genauso wie bei Safety4Bikes: Die ersten Tests der Bilderkennung wurden auf einem Laptop durchgeführt, den die Probanden auf dem Rücken trugen, und im weiteren Verlauf befassen wir uns nun damit, wie und ob und wann wir Teile davon auch auf Smartphones bringen können. Nach der Vorstellung des Fortschritts im TERRAIN Projekt gab es eine Podiumsdiskussion zu Gefährdeten und Gefahren im Straßenverkehr- nach Meinung des Plenums sind Fahrradfahrende besonders den Gefahren ausgeliefert. ELSI-Themen Das Treffen endete mit einer Diskussion zu ELSI-Themen, angeleitet durch Prof. Dr. Tobias Keber (@datenreiserecht), der unter anderem von den Ergebnissen einer Umfrage zu ELSI-Themen bei Forschungsprojekten berichtete: Ein Ergebnis war hier der Ratschlag, ELSI-Aspekte als kreative ‚Störfaktoren‘ zu nutzen. Auf jeden Fall müsse die Begleitforschung auch zu gemeinsamen Aktivitäten führen, um eine Integration zu ermöglichen. Das Zusammenspiel der technischen Entwicklung mit der Reflektion in der ELSI-Begleitforschung ist ein guter Weg, auf eine Entwicklung für die Menschen hinzuarbeiten, also zur Technik für die Menschen hinzuwirken.

fall stand partner situation prof weg zukunft computers dabei erfahrungen ab gef blick tests integration smartphones bei gro seite ganz automation entwicklung mensch hilfe meinung beispiel umgang einblick projekt raum wann eltern kommunikation stra auswirkungen frankfurt entscheidungen neben kindern verst sicherheit sprache gerade verantwortung wert situationen technik einsatz einem rahmen display diskussion sinne projekte laptops im gespr vorstellung gefahr einf griff vergleich wandel ergebnisse punkte begriff methoden ergebnis kontrolle philosophie austausch teile handeln studie zugang publikum institut treffen gleichzeitig forschung grundlage kontext erkenntnis begr gefahren aktivit ing fahrt diese frage modell reaktion mobilit projekten hinweise erg begriffe vortrag einschr abh techniken unfall verl umfrage verlauf akzeptanz systeme vielzahl vorfeld begleitung verfahren innovationen mit hilfe autobahn ergebnissen erw hochschule geschwindigkeit verwendung betrachtung fahren darstellung sitz szenarien signale autonomie wagen interaktion ablenkung intensit fahrer fragestellungen elektroautos ieee fahrr reflektion e auto zuk airbags linien intelligente fahrzeug tum ratschlag fragestellung ablenkungen podiumsdiskussion gesten in zukunft hinweisen experimenten protokoll lehrstuhl leitlinien kommunikations vorhersage fahrzeugen forschungsprojekt bestrafung realisierung stromversorgung fortschritts stvo selbstzweck projektion einverst emoticons probanden befehle lenkrad abbildung ergonomie plenum elektrifizierung itas erarbeitung das zusammenspiel nebent verglichen smileys fahrens karlsruher institut windschutzscheibe fahrradhelm einbettung im vortrag demografischer wandel ein aspekt ausfahrten technologie kit fahrers bilderkennung trikes welche signale fahrende nutzenden sprachausgabe nutzbarkeit kommunikationsform forschungsprogramm darstellungsformen automobilen assistenzsystem sitzfl uni paderborn informationsdichte querschnittsthemen sprachausgaben sebastian ritterbusch nutzergruppe terrain projekt begleitforschung
3 Schweinehunde
Episode 17 - Interview: Sensorun

3 Schweinehunde

Play Episode Listen Later Dec 22, 2018 19:45


Show Notes and Links Sebastian Ritterbusch, bekannt aus dem Modellansatz Podcast, interviewt Dr.Steffen Hüttner zu Sensorun, einen Sensor, der am Schienbein und nicht am Fuß getragen werden. Vielen Dank an Sebastian Ritterbusch für die Aufnahme! Vielen Dank auch an Hrn. Dr. Hüttner für seine Zeit und die Erläuterungen! Wir stehen in keiner wirtschaftlichen Beziehung zu Sensorun.

beziehung aufnahme vielen dank erl sensor hrn steffen h sebastian ritterbusch modellansatz podcast
Modellansatz
Rechenschieber

Modellansatz

Play Episode Listen Later Oct 25, 2018 114:38


Wie es kam, dass es kam, dass es so ist, wie es ist, mit dem Rechenschieber. Zu einer gemeinsamen Folge vom damalsTM-Podcast zur Technikgeschichte und dem Modellansatz zur Mathematik trafen sich Prof. Dr. Ralph Pollandt, Stephan Ajuvo und Sebastian Ritterbusch in der Hochschule für angewandte Wissenschaften in Karlsruhe zu diesem mathematisch-technischen Thema aus vergangenen Zeiten. Stephan Ajuvo hatte den Rechenschieber schon länger auf seiner Liste seiner Wunschthemen. Er konnte nach der hackover-Konferenz nach Karlsruhe kommen, wo am 4. Mai 2018 die 9. Lange Nacht der Mathematik stattgefunden hatte, die von Sebastian Ritterbusch moderiert wurde, und wo Ralph Pollandt den Rechenschieber in einem Publikumsvortrag vorgestellt hatte. Die lange Nacht der Mathematik wurde an der damaligen Fachhochschule Karlsruhe im Jahr 2000, dem Weltjahr der Mathematik, gestartet, und fand seither alle zwei Jahre mit sehr großem Besucherandrang statt. Vor Einzug der Taschenrechner, wie beispielsweise dem SchulRechner 1 oder SR1, waren Rechenschieber im Schulbetrieb allgegenwärtig. Es gab unter anderem Typen von Aristo oder von VEB Mantissa Dresden. Die Basis der grundsätzlichen Methode hinter dem Rechenschieber wurde mit dem Beginn der Nutzung von Logarithmentafeln (um 1600) gelegt. In der DDR wurden diese für Schulen vom Verlag Volk und Wissen gedruckt. Sie umfassten neben den Logarithmen auch eine Formelsammlung für Mathematik, Physik und Chemie. Auch die Bordwährung der c-base orientierte sich an der logarithmischen Skala. Ein Weg den Logarithmus einzuführen geht über die Exponentialfunktion, die viele Wachstumsprozesse in der Natur bis zur Sättigung beschreibt. Da diese Entwicklungen oft sehr schnell ansteigen, bietet es sich an, die Werte mit der Umkehrfunktion zu beschreiben, und das ist genau der Logarithmus: Exponentiell ansteigende Werte wie die 2-er Potenzen 1, 2, 4, 8, 16, 32, ..., werden nach Anwendung des Logarithmus Dualis zur Basis 2 linear zu 0, 1, 2, 3, 4, 5, ..., und damit deutlich einfacher zu begreifen. Auch in der Musik werden aus Frequenzen von Tönen nach Anwendung des Logarithmus Dualis ganzzahlig zu Oktaven und im nicht-ganzzahligen Rest zu den Tönen. Für die Nutzung mit Logarithmentafeln und dem Rechenschieber sind die Logarithmenregeln äusserst wichtig: In Logarithmentafeln ist sehr häufig der dekadische Logarithmus zur Basis 10 abgedruckt, da dies bei der Nutzung mit Zahlen im Dezimalsystem sehr hilfreich ist. Dabei wird typisch nur eine Dekade in der Tafel abgedeckt, da höhere Dekaden einfach ganzzahlige Differenzen im Wert darstellen. Da diese Betrachtung außerhalb der Tafeln stattfindet, müssen diese Größenordnungen während der Rechnung mitgeführt und am Ende dem Ergebnis abgerechnet werden. Da Rechenschieber wie gegenüber liegende Lineale sehr einfach addieren können, wird aus der Schieblehre bei Nutzung der Logarithmenregeln ein mächtiges Multiplikationsgerät. Das kann man sich am Selbstbau-Rechenschieber gut vor Augen führen: Der Rechenschieber besteht typischerweise aus einem bedruckten äußeren Körper, einer darin ebenfalls bedruckten beweglichen Zunge und einem oben aufliegenden bis auf Linien transparenten Läufer. Die aufgedruckten Skalen können zum einen einfache logarithmische Skalen für die Multiplikation und Division sein (hier die Skalen C und D über eine Dekade), oder auch ganz andere Funktionen beinhalten, wie für das Bauwesen die Festigkeit, dem Elastizitätsmodul, der Druckfestigkeit oder die Zinseszins-Rechnung. Oft waren wichtige Konstanten wie die Kreiszahl π oder die Lichtgeschwindigkeit c angenähert auf der Rückseite abgedruckt. Für die Bedruckung und Anwendung haben sich verschiedene Systeme etabliert, wie das System Darmstadt, das System Rietz oder Duplexstäbe, es gab aber auch nationale Unterschiede durch Traditionen, Notationen oder Hersteller. Das typische Tischformat hatte eine Länge von rund 30cm, es gab sie aber auch im Taschenformat oder in lebensgroßen 2 Metern, und entsprechendem Gewicht. Ein sehr verbreiteter Rechenschieber in Kreisform ist der Benzin-Rechner: Ein weiterer interessanter Aspekt ist, dass Rechenschieber auch irrationale Konstanten wie die Euler'sche Zahl e, die Kreiszahl π oder einfach Werte der Wurzelfunktion scheinbar exakt auf den analogen Skalen abbilden konnten, und damit einen Analogrechner darstellen. Das Rechnen mit dem Rechenschieber stammt von den Logarithmentafeln ab. Will man die Zahlen 2 und 3 multiplizieren, so kann man die Logarithmen der Zahlen 2 und 3 nachschlagen, das sind bei dem dekadischen Logarithmus auf 3 Stellen die Zahlen 0,3010 und 0,4771. Diese Zahlen werden nun addiert zu 0,7781 und nach umgekehrter Suche findet man als Ergebnis die Zahl, die diesem Logarithmus zugeordnet ist, die Zahl 6. Der Rechenschieber nimmt einem nun das Nachschlagen und Addieren ab, in dem die Skalen C und D logarithmisch aufgetragen sind und die Addition durch das Verschieben der Zunge erfolgt. Die gleiche Rechnung kann man auch mit den Skalen A und B durchführen, die gleich zwei Dekaden von 1-100 abdecken, wenn sie auf dem Schieber zur Verfügung stehen. Rechnet man kombiniert zwischen A und C oder B und D, so kann man gleichzeitig Wurzelziehen oder Quadrieren, muss aber den Läufer verwenden, um die Skalen genau ausrichten zu können. Die Erfindung des Läufers wird Sir Isaac Newton zugeschrieben. Die verschiedenen Skalen ermöglichen die Abbildung fast beliebiger Funktionen, auf fast allen Rechenschieber sind beispielsweise die trigonometrischen Funktionen enthalten, jedoch nur auf eingeschränkten Skalen. Hier muss man entweder die Symmetrieeigenschaften der jeweiligen Funktionen kennen, oder für tiefe Werte besondere Techniken oder Approximationen wie Taylorreihenentwicklungen kennen. Eine Nutzung des Rechenschiebers setzt auch immer die Fähigkeit zur Überschlagsrechnung voraus, bei der man vorab eine Abschätzung zum erwarteten Ergebnis bestimmt. Das bietet einen gewissen Schutz vor Fehlbedienungen, ist aber auch bei der Verwendung von Computern sinnvoll, da es immer wieder zu Fehlern in der Hardware kam, wie beispielsweise beim Pentium-FDIV-Bug, wo Rechnungen schlicht falsch ausgeführt wurden. Nicht nur vermeintlich korrekte Rechenergebnisse können zu Irrtum führen, auch ein blindes Verlassen auf Signifikanztests ist ebenso nicht zielführend, in dem Artikel Why Most Published Research Findings Are False schreibt John P. A. Ioannidis, wieso man sogar beweisen kann, dass inzwischen die meissten solcher Arbeiten auf begrenzten Arbeitsgebieten falsch sein müssen, da sie ihre Abhängigkeit von früheren Arbeiten nicht berücksichtigen. Einen Einblick in die Komplexität der Abschätzung des Treibstoffsverbrauchs bei Flugrouten bekommt man bei Folge 262 und Folge 263 im OmegaTau-Podcast beim Flug nach Hong Kong und zurück. Auch in Folge 291 zum Buschfliegen wird das Thema der Flugplanung berührt. Lange waren runde Rechenschieber zur Berechnung des Treibstoff-Verbrauchs im Flugzeug im Einsatz. Bei der langen Nacht der Mathematik gab es auch eine Ausstellung von Rechenmaschinen, die durch ihre mechanische Bauweise einen sonst verborgenen Einblick in die Rechentechnik liefern. Der angesprochene MegaProzessor zur Visualisierung der Rechentechnik aktueller Prozessoren wurde in FreakShow 222 besprochen und wird im Video zum MegaProzessor vorgestellt. Es gibt regelmäßige Treffen der deutschsprachigen Rechenschieberfreunde, die Rechenschieber-Sammler-Treffen (RST), zuletzt nach Publikation dieser Folge am 20. Oktober 2018 in Bruchsal. Eine interessanter Rechentrick ist die Berechnung von Additionen mit Hilfe von Division und Multiplikation auf dem Rechenschieber. Hier wird der Zusammenhang genutzt. Zur Addition wird damit der Quotient von x und y berechnet, um 1 addiert und wieder mit y multipliziert. Beim Rechnen mit dem logarithmischen Rechenschieber ist eher der relative gegenüber dem absoluten Fehler im Fokus. Genau das gilt auch für die Rechnung in Fließkommazahlen im Computer, wo das logarithmische Rechenstab-Prinzip durch den Exponentialteil zum Teil ebenfalls zu Anwendung kommt. Neben dem dekadischen Logarithmus zur Basis 10, der bei Logarithmentafeln und Rechenschieber zum Einsatz kommt, oder dem Logarithmus Dualis zur Basis 2 aus der Musik oder im Computer, gibt es auch einen natürlichen Logarithmus. Was bedeutet hier natürlich? Der natürliche Logarithmus ist die Umkehrfunktion der Exponentialfunktion, der Potenzfunktion zur Basis e. Diese Funktion hat die Eigenschaft, dass sie als einzige Funktion unter Differenziation, also z.B. der Berechnung von Geschwindigkeit aus Positionen, und Integration, also z.B. der Berechnung von Positionen aus Geschwindigkeiten, unverändert bleibt. Dies kann man sich auch an der Potenzreihenentwicklung der Exponentialfunktion veranschaulichen: Dann ist die Ableitung: Dadurch ist hat die Exponentialfunktion eine große Bedeutung für Modelle und Differenzialgleichungen. Darüber hinaus ist die Exponentialfunktion auch mit den trigonometrischen Funktionen in den komplexen Zahlen direkt miteinander verknüpft: Entsprechend beinhaltet auch der natürliche Logarithmus den Zusammenhang mit Analysis, Numerik und Trigonometrie und kann auf den komplexen Zahlen auch als ewige Spirale dargestellt werden. CC BY-SA 3.0: Leonid 2 In der Kryptographie spielen diskrete Logarithmen eine besondere Rolle, da Potenzfunktionen Kern des RSA-Verfahrens und der elliptischen Kryptographie sind: Im RSA-Verfahren werden Nachrichten auf endlichen Ringen mit einem Schlüssel potenziert, meisst 65537 beim öffentlichen Schlüssel, in der elliptischen Kryptographie wird die Nachricht abschnittsweise in den Exponenten geschrieben und auf einer speziellen elliptischen Kurve berechnet. Auch wenn es zum aktuellen Zeitpunkt noch keine grundsätzliche Lücken in den beiden Verfahren gibt, so ist es wichtig, diese auch korrekt umzusetzen. Ein berüchtigtes Beispiel ist die Perfect Forward Secrecy, die durch fahrlässige Implementationen zur LogJam-Attack führte. Ralph Pollandt hatte in der Polytechnischen Oberschule (POS) in den Klassenstufen 1-8 noch keine Vertiefung in die Mathematik vor Augen. Seine Faszination für Mathematik entstand aus Interesse an Knobelaufgaben in der Erweiterten Oberstufe (EOS) in den Klassen 9-12, wo er die Hochschulreife erlangte, und neben den Optionen zu Naturwissenschaften oder dem Lehramt, sich für das Studium und Promotion in der Mathematik entschied. Nach mehrjähriger ingenieurstechnischer Tätigkeit im Bauwesen, erlangte ihn der Ruf zur Mathematik-Professur an der Hochschule für angewandte Wissenschaften in Karlsruhe, wo er nun reich mit der Erfahrung aus der Anwendung zur Mathematik im Bauingenieurwesen lehrt. Literatur und weiterführende Informationen R. Pollandt: Bastelanleitung Rechenschieber R. Pollandt: Bedienungsanleitung zum Rechenschieber Seite der deutschsprachigen Rechenschieber-Sammler Rechenschieber im Rechnerlexikon, der Enzyklopädie des mechanischen Rechnens Podcasts K. Landzettel, T. Pritlove: Old School Computing, CRE: Technik, Kultur, Gesellschaft, Episode 193, Metaebene Personal Media, 2012. B. Ullmann, M. Völker: Analog Computers, Omega Tau Podcast, Episode 159, Nora Ludewig und Markus Völker, 2014. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, damalsTM Podcast, Episode 58, 2018. J. Müller, S. Ajuvo: Büromaschinen damals, damalsTM Podcast, Episode 50, 2017. K. Leinweber, S. Ajuvo: Taschenrechner, damalsTM Podcast, Episode 37, 2017.

video er hong kong prof thema computers dabei dar rolle promotion musik zeiten integration bei wissen fokus hilfe gesellschaft beispiel einblick suche erfahrung bedeutung schl augen analysis basis fehler kultur lange natur neben beginn nacht genau wert einsatz interesse liste hardware arbeiten unterschiede nachrichten zeitpunkt zusammenhang werte zahlen nachricht entwicklungen studium stellen ergebnis oft methode treffen schutz addition ruf zahl funktion schulen literatur ddr nutzung abh techniken anwendung aspekt fehlern systeme typen funktionen gewicht verfahren positionen flugzeug traditionen rechnung flug modelle konferenz ringen hochschule hersteller geschwindigkeit verwendung optionen betrachtung karlsruhe ausstellung komplexit chemie klassen physik verlassen zunge eigenschaft mathematik cc by sa freakshow flie skala kurve entsprechend visualisierung tafel spirale rechnungen irrtum linien metern quotient ein weg dekade wissenschaften berechnung john p die basis differenzen sir isaac newton computern frequenzen leonid vertiefung publikation tafeln die erfindung lehramt rechnet ullmann verschieben dekaden abbildung absch geschwindigkeiten enzyklop taschenrechner bauweise einen einblick konstanten aristo festigkeit bauwesen schulbetrieb prozessoren lange nacht multiplikation diese zahlen schieber kryptographie elastizit bruchsal technikgeschichte skalen wunschthemen diese funktion markus v bauingenieurwesen rechenschieber oktaven nachschlagen wachstumsprozesse sr1 klassenstufen flugrouten exponenten hochschulreife addieren numerik additionen potenzen ajuvo rechenmaschinen logarithmus dezimalsystem perfect forward secrecy omega tau podcast trigonometrie sebastian ritterbusch analogrechner das rechnen nora ludewig metaebene personal media rechentechnik modellansatz
Modellansatz
Sensoreinsatzplanung

Modellansatz

Play Episode Listen Later Jan 25, 2018 58:46


Wenn Naturkatastrophen passieren, ist schnelle Hilfe gefragt. Besonders nach Überschwemmungen oder Erdbeben ist es sehr wichtig, so schnell wie möglich Informationen über das betroffene Gebiet zu erhalten. Dazu befasst sich Kim Berude mit dem mathematischen Modell und Optimierung zur Einsatzplanung von Sensoren und Geräten am IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, in Karlsruhe und spricht mit Sebastian Ritterbusch darüber. Ursprünglich hat Kim Berude in Freiberg an der Technischen Universität Bergakademie Freiberg Angewandte Mathematik studiert, um dann auf eine Stellenausschreibung des IOSB die Chance zu nutzen, im Bereich der Operations Research etwas Praxisluft zu schnuppern. Die Aufgabe der Sensoreinsatzplanung führt direkt auf ein Vehicle Routing Problem bzw. Tourenplanungsproblem, ähnlich wie es täglich Paketdienstleister erfüllen. Die Hauptaufgabe liegt darin die Sensoren oder Assets möglichst effizient an die verschiedenen Zielorte zu bringen, die Herausforderung liegt aber darin, gleichzeitig verschiedene Nebenbedingungen zu erfüllen. Im Falle der Sensoreinsatzplanung können die Nebenbedingungen durch Reihenfolgen der Abarbeitung, Zeitfenster oder in begrenzen Resourcen der Fahrzeuge liegen, alles das muss geeignet modelliert werden. Eine vereinfachte Fassung des Tourenplanungsproblems ist das Traveling Salesperson Problem, bei dem die Aufgabe besteht, für eine handelnde Person, eine optimale kürzeste Route durch eine festgelegte Anzahl von Städten zu finden und jede dieser Städe nur einmal anzufahren. Schon dieses Problem ist in der Klasse der NP-Probleme, die nicht deterministisch in polynomialer Zeit lösbar erscheinen. Das bedeutet, dass die erforderliche Rechenleistung oder Rechenzeit für eine Lösung sehr schnell sehr extrem ansteigt. Entsprechend ist auch das allgemeinere Tourenplanungsproblem ebenso rechenintensiv. In der Sensoreinsatzplanung gibt es gegenüber dem Tourenplanungsproblem zusätzlich die besondere Herausforderung, dass eine sehr heterogene Flotte, also sehr unterschiedliche Sensoren und zugehörige Fahrzeuge, zum Einsatz kommen soll. In der mathematischen Optimierungstheorie nehmen diskrete Probleme eine besondere Stellung ein. Zunächst einmal muss man sich bewusst werden, dass durch jedes Fahrzeug und jede Nebenbedingung weitere Variablen und Gleichungen entstehen, und damit eine höhere Detailtiefe der Modellierung sich unmittelbar auf die Dimension des zu lösenden Problems auswirkt. Ein Standardverfahren um lineare kontinuierliche Optimierungsprobleme zu lösen ist das Simplex-Verfahren. Das funktioniert aber nicht für diskrete Probleme, da es beliebige Zwischenwerte als Ergebnisse erhalten kann. Man könnte alle diskreten Möglichkeiten natürlich auch ausprobieren, das könnte aber sehr lange dauern. Eine Lösung sind hier die Branch-and-Bound-Verfahren, die das Problem zunächst kontinuierlich lösen, um eine untere Grenze des erwartbaren Ergebnisses zu erhalten. Aus einer nicht ganzzahligen Lösungsvariable werden nun zunächst die nächsten ganzzahligen Varianten in einer Fallunterscheidung untersucht und das Problem in der reduzierten Fassung gelöst. Gibt es eine erste ganzzahlige Lösung, so gibt es nun Grenzen in beide Richtungen, die ermöglichen die Zahl der noch auszuprobierenden Varianten stark einzugrenzen. Sind alle Varianten probiert, bzw. durch die Abschätzungen ausgeschlossen, so erhält man deutlich effizienter eine Lösung als wenn man alle Varianten durchprobiert. Der A*-Algorithmus ist sehr verwandt zum Branch-and-Bound-Verfahren und wird zum Routing auf Wegenetzen verwendet, beispielsweise im Terrain Projekt. Hier werden Grenzen durch Luftlinie und ebenso gefundene erste Lösungen bestimmt und ebenso recht schnell zum kürzesten Weg zwischen zwei Punkten zu gelangen. Eine Verfeinerung des Branch-and-Bound Verfahrens ist das Branch-and-Cut Verfahren, wo das durch lineare Ungleichungen entstehende Polyeder durch zusätzliche ganzzahlige Lösungen präferierende Einschränkungen weiter einschränkt, und damit das effiziente Simplex-Verfahren noch zielgerichteter einsetzt. Dieses Verfahren und weitere Verfeinerungen wurden im Podcast zu Operations Research mit Marco Lübbecke weiter erklärt. Die bisher betrachteten Verfahren liefern immer exakt die optimale Lösung, sie sparen nur Zeit, in dem sie unnötige Berechnungen für schlechtere Varianten einsparen. Ist das Problem jedoch so komplex, dass die exakten Verfahren nicht in annehmbarer Zeit eine Lösung liefern, so können Heuristiken helfen, das Problem im Vorfeld in der Komplexität deutlich zu reduzieren. Ein Ansatz ist hier die Neighborhood Search, wo gerade in der Umgebung gefundener regulärer Lösungen nach besseren Varianten gesucht wird. Die spannende Frage ist hier, mit welchen Akzeptanzkriterien zielgerichtet nach passenden Lösungen in der Nachbarschaft gesucht werden. Die Verfahren wurden an realitätsnahen Testfällen erprobt und evaluiert, wo Kim Berude in ihrer Diplomarbeit den Aspekt des Mehrfacheinsatzes gegenüber schon vorhandenen Optimierungslösungen hinzugefügt hat. Die Fragestellungen kommen keineswegs aus rein wissenschaftlichem Interesse, sondern werden am IOSB direkt benötigt. Die Messeinrichtungen kommen überall auf der Welt zum Einsatz, selbst bei Großveranstaltungen wie 'Das Fest' in Karlsruhe. Die Verfahren der Tourenplanung haben sehr viele Einsatzmöglichkeiten und ein berühmtes Beispiel ist, dass Speditionen durch Vermeiden von Linksabbiegen Zeit und Geld sparen. Literatur und weiterführende Informationen P. Toth, D. Vigo: The vehicle routing problem, Society for Industrial and Applied Mathematics, 2002. I. H. Osman: Metastrategy simulated annealing and tabu search algorithms for the vehicle routing problem, Annals of operations research 41.4: 421-451, 1993. P. Shaw: Using constraint programming and local search methods to solve vehicle routing problems, International Conference on Principles and Practice of Constraint Programming. Springer, Berlin, Heidelberg, 1998. D. Pisinger, S. Ropke: Large neighborhood search, Handbook of metaheuristics. Springer US, 399-419, 2010. S. Ropke, D. Pisinger: An adaptive large neighborhood search heuristic for the pickup and delivery problem with time windows, Transportation science 40.4: 455-472, 2006. Z. Wang, W. Liang, X. Hu: A metaheuristic based on a pool of routes for the vehicle routing problem with multiple trips and time windows, Journal of the Operational Research Society 65.1: 37-48, 2014. D. Cattaruzza, N. Absi, D. Feillet: Vehicle routing problems with multiple trips, 4OR 14.3: 223-259, 2016. Studiengang Angewandte Mathematik an der TU Freiberg Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung U.Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen L. Osovtsova: Logistik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 33, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/logistik

Wissenschaft auf die Ohren
Operations Research (Der Modellansatz)

Wissenschaft auf die Ohren

Play Episode Listen Later Nov 24, 2017 151:18


Marco Lübbecke hat als Mathematiker den Lehrstuhl für Operations Research an der RWTH Aachen inne. Sein Lehrstuhl ist sowohl der Fakultät für Wirtschaftswissenschaften als auch der Fachgruppe für Mathematik zugeordnet. Zum Gespräch mit Sebastian Ritterbusch in Karlsruhe kam es anlässlich des Treffens der DFG Forschergruppe 2083: Integrierte Planung im öffentlichen Verkehr auf Einladung von Peter Vortisch, der auch schon zur Verkehrsmodellierung in Folge 93 in diesem Podcast zu hören war. Auf Twitter sind Marco Lübbecke unter @mluebbecke und sein Lehrstuhl unter @RWTH_OR zu finden und er schreibt das Blog Café Opt. Quelle: http://www.math.kit.edu/ianm4/seite/ma-operations-research/de

Modellansatz
Lokale Turbulenzen

Modellansatz

Play Episode Listen Later Sep 27, 2017 84:56


Nikki Vercauteren erforscht an der Freien Universität Berlin die mehrskalige Analyse von atmosphärischen Prozessen und traf sich mit Sebastian Ritterbusch in der Urania Berlin, um über ihre Forschung und ihre Experimente auf Gletschern zu sprechen. Zum Zeitpunkt der Aufnahme fand in der Urania das Banff Mountain Film Festival, des Banff Centre for Arts and Creativity aus Kanada, statt. Auf dem Campus des Banff Centre befindet sich auch die Banff International Research Station (BIRS), ein Forschungsinstitut und Tagungsort nach Vorbild des Mathematischen Forschungsinstituts Oberwolfach, das sich der mathematischen Forschung und internationalen Zusammenarbeit verschrieben hat, und welches Nikki Vercauteren Anfang des Jahres zu einem Workshop besuchen konnte. Das Forschungsgebiet der Meteorologie umfasst viele Phänomene, von denen einige durch Fluiddynamik beschrieben werden können. Dabei geht es um eine große Menge von Skalen, von der globalen Perspektive, über kontinentale Skalen zur Mesoskala im Wetterbericht und der Mikroskala zu lokalen Phänomenen. Die Skalen bilden sich auch in den Berechnungsmodellen für die Wettervorhersage wieder. Das Europäische Zentrum für mittelfristige Wettervorhersage (EZMW) betrachtet die globale Perspektive mit Hilfe von Ensemblevorhersagen. Von dort verfeinert das aus dem lokalen Modell des Deutschen Wetterdienstes (DWD) entstandene COSMO Modell die Vorhersage auf die europäische und schließlich nationale Ebenen. Hier geht es um die sehr lokale Analyse von Windgeschwindigkeiten, die bis zu 20mal pro Sekunde gemessen werden und damit die Analyse von lokalen Turbulenzen bis zum natürlichem Infraschall ermöglichen. Die Erfassung erfolgt mit Ultraschallanemometer bzw. ultrasonic anemometers, wo bei manchen Typen durch die Erfassung des Doppler-Effekts bewegter Staubteilchen die Bewegungsgeschwindigkeit der Luft durch mehrere Sensoren räumlich bestimmt wird. Teilweise werden auch Laser-Anemometer eingesetzt. Im Rahmen ihrer Promotion in Umweltwissenschaften an der École Polytechnique Fédérale de Lausanne (EPFL) bekam Sie die Gelegenheit selbst vor Ort eine Messanlage auf einem Gletscher mit aufzubauen und in Stand zu halten. Der See- und Landwind sind typische Phänomene in der mikroskaligen Meteorologie, die Nikki Vercauteren zu ihrer Promotion am Genfersee zur Analyse von turbulenten Strömungen von Wasserdampf untersucht hat. Mit mehreren Laser-Doppler-Anemometern in einer Gitter-Aufstellung konnte sie so die Parametrisierung einer Large Eddy Simulation dadurch testen, in dem sie die im Modell angesetzte Energie in den kleinen Skalen mit den tatsächlichen Messungen vergleichen konnte. Kernpunkt der Betrachtung ist dabei das Problem des Turbulenzmodells: Als Verwirbelung in allen Skalen mit teilweise chaotischem Verhalten ist sie nicht vorhersagbar und kaum vollständig mathematisch beschreibbar. Sie spielt aber wegen der wichtigen Eigenschaften der Vermischung und Energietransfers eine elementare Rolle im Gesamtsystem. Glücklicherweise haben Turbulenzen beobachtete statistische und gemittelte Eigenschaften, die modelliert und damit im gewissen Rahmen und diesem Sinne mit Hilfe verschiedener Modelle durch identifizierte Parameter simuliert werden können. Besonderes Augenmerk liegt dabei auf der Betrachtung der Grenzschicht über dem Erdboden, die zum einen durch die Sonneneinstrahlung besonders durch die Aufwärmung und Abkühlung der Erdoberfläche beinflusst wird und gleichzeitig den Bereich beschreibt, wo das bewegte Fluid Luft auf die stehenden Erde reagiert. Eine meteorologische Eigenschaft der unteren Grenzschicht ist das theoretische logarithmische Windprofil, das aber bei Sonneneinstrahlung oder Nachts durch Verformung der Turbulenzen Korrekturterme erforderlich macht. In einer Temperaturinversion wird die Grenzschicht stabiler und es bildet sich weniger Turbulenz aus, wodurch sich Schadstoffe auch weniger verteilen können. In diesen Wetterlagen kann sich durch den fehlenden Luftaustausch im Stadtgebiet leichter Smog bilden. Entgegen der Theorie kann es interessanterweise trotz stabiler Schichtung zu Turbulenzen kommen: Ein Grund dafür sind Erhebungen und Senken des Bodens, die Luftpakete beeinflussen und damit lokale Turbulenzen erzeugen können. Eine besondere Fragestellung ist hier die Frage nach der Intermittenz, wann ein stabiles dynamisches System chaotisch werden kann und umgekehrt. Ein anschauliches Beispiel von Intermittenz ist das Doppelpendel, das von einem sehr stabilen Verhalten plötzlich in chaotisches Verhalten umschwenken kann und umgekehrt: Trajektorie eines DoppelpendelsCC-BY-SA 100 Miezekatzen Leider ist bisher die Intermittenz in der Wettervorhersage nicht alleine aus der Theorie zu berechnen, jedoch kann man die Richardson-Zahl bestimmen, die den Temperaturgradienten in Verhältnis zur Windscherung stellt. Dieses Verhältnis kann man auch als Verhältnis der Energieverteilung zwischen kinetischer Bewegungsenergie und potentieller Wärmeenergie sehen und daraus Schlüsse auf die zu erwartende Turbulenz ziehen. Als ein dynamisches System sollten wir ähnlich wie beim Räuber-Beute Modell eine gegenseitige Beeinflussung der Parameter erkennen. Es sollte hier aus der Theorie auch eine kritische Zahl geben, ab der Intermittenz zu erwarten ist, doch die Messungen zeigen ein anderes Ergebnis: Gerade nachts bei wenig Turbulenz entstehen Zustände, die bisher nicht aus der Theorie zu erwarten sind. Das ist ein Problem für die nächtliche Wettervorhersage. In allgemeinen Strömungssimulationen sind es oft gerade die laminaren Strömungen, die besonders gut simulierbar und vorhersagbar sind. In der Wettervorhersage sind jedoch genau diese Strömungen ein Problem, da die Annahmen von Turbulenzmodellen nicht mehr stimmen, und beispielsweise die Theorie für das logarithmische Windprofil nicht mehr erfüllt ist. Diese Erkenntnisse führen auf einen neuen Ansatz, wie kleinskalige Phänomene in der Wettervorhersage berücksichtigt werden können: Die zentrale Frage, wie die in früheren Modellen fehlende Dissipation hinzugefügt werden kann, wird abhängig von der beobachteten Intermittenz mit einem statistischen Modell als stochastischen Prozess beantwortet. Dieser Ansatz erscheint besonders erfolgsversprechend, wenn man einen (nur) statistischen Zusammenhang zwischen der Intermittenz und der erforderlichen Dissipation aus den Beobachtungen nachweisen kann. Tatsächlich konnte durch statistisches Clustering und Wavelet-Analyse erstmalig nachgewiesen werden, dass im bisher gut verstanden geglaubten so genannten stark stabilen Regime es mehrere Zustände geben kann, die sich unterschiedlich verhalten. Für die Entwicklung der Wavelet-Transformation erhielt Yves Meyer den 2017 den Abelpreis. Im Gegensatz zur Fourier-Transformation berücksichtig die Wavelet-Transformation z.B. mit dem Haar-Wavelet die von der Frequenz abhängige zeitliche Auflösung von Ereignissen. So können Ereignisse mit hohen Frequenzen zeitlich viel genauer aufgelöst werden als Ereignisse mit tiefen Frequenzen. Das von Illia Horenko vorgeschlagene FEM-BV-VARX Verfahren kann nun mit den Erkenntnissen angewendet werden, in dem die verschiedenen Regimes als stochastische Modelle berücksichtigt und durch beobachtete bzw. simulierte externe Einflüsse gesteuert werden können. Darüber hinaus konnten weitere interessante Zusammenhänge durch die Analyse festgestellt werden: So scheinen im stabilen Regime langsame Wellenphänomene über mehrere Skalen hinweg getrennt zeitliche schnelle und lokale Turbulenzen auszulösen. Andere Phänomene verlaufen mit stärkeren Übergängen zwischen den Skalen. Aus der Mathematik ist Nikki Vercauteren über die Anwendungen in der Physik, Meteorologie und Geographie nun wieder zurück in ein mathematisches Institut zurückgekehrt, um die mathematischen Verfahren weiter zu entwickeln. Literatur und weiterführende Informationen N. Vercauteren, L. Mahrt, R. Klein: Investigation of interactions between scales of motion in the stable boundary layer, Quarterly Journal of the Royal Meteorological Society 142.699: 2424-2433, 2016. I. Horenko: On the identification of nonstationary factor models and their application to atmospheric data analysis, Journal of the Atmospheric Sciences 67.5: 1559-1574, 2010. L. Mahrt: Turbulence and Local Circulations Cesar Observatory, Cabauw site for meteorological research. Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. I. Waltschläger: Windsimulationen im Stadtgebiet, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruhe Institut für Technologie (KIT), 2014. L. Wege: Schwebestaub und Wassertröpfchen. Wie Wolken Wetter machen. Folge 5 im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, 2017. M. Wendisch: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. R. Heise, K. Ohlmann, J. Hacker: Das Mountain Wave Project, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 042, 2010. B. Marzeion: Gletscher, Podcast Zeit für Wissenschaft von Melanie Bartos, Universität Innsbruck, 2015. B. Weinzierl: Die Atmosphäre, Raumzeit Podcast von Tim Pritlove, Metaebene Personal Media, 2011.

stand system mit arts creativity berlin journal als dabei dar rolle workshop promotion campus entwicklung hilfe energie beispiel ort schl universit bereich analyse rahmen verh prozess sinne luft perspektive menge zusammenarbeit zusammenhang verhalten erde aufnahme wissenschaft technologie ereignisse str tats gelegenheit institut forschung ansatz vorbild regime zahl theorie modell eigenschaften kanada zentrum literatur ebenen zusammenh aufl typen einfl erkenntnissen verfahren ereignissen zust abk modelle betrachtung sekunde experimente physik prozessen beobachtungen anwendungen eigenschaft mathematik innsbruck im gegensatz nachts smog modellen aufw regimes ein grund frequenz parameter teilweise lokale annahmen fragestellung turbulenzen entgegen fakult sensoren atmospheric science vorhersage beeinflussung gletscher frequenzen heise erfassung senken schadstoffe zum zeitpunkt messungen clustering erdboden geographie freien universit banff centre meteorologie wetterbericht urania wettervorhersage quarterly journal forschungsinstitut bodens erdoberfl besonderes augenmerk stadtgebiet erhebungen das europ karlsruher institut vermischung dieser ansatz gletschern sonneneinstrahlung genfer see podcast zeit der see dissipation diese erkenntnisse tim pritlove wasserdampf lausanne epfl wassertr wetterlagen technologie kit skalen kernpunkt polytechnique f gesamtsystem infraschall banff mountain film festival royal meteorological society karlsruher instituts turbulenz energieverteilung tagungsort die erfassung verformung schichtung bewegungsenergie parametrisierung staubteilchen luftaustausch markus voelter sebastian ritterbusch windscherung grenzschicht das forschungsgebiet modellansatz podcast nora ludewig metaebene personal media
Modellansatz
Augmented Reality in der Chirurgie

Modellansatz

Play Episode Listen Later May 11, 2017 38:24


Die Arbeit von Staffan Ronnas in der Münchner Firma Brainlab befasst sich mit der Anwendung von Augmented Reality (AR) in der Chirurgie - vor allem in der Neurochirurgie. Ziel ist es, virtuelle, präoperativen Daten mit der "Realität" in Form von live Video auf dem chirurgischen Mikroskop so zu verblenden, dass der Chirurg vor und während der OP einen Nutzen davon hat. Staffan stammt aus Schweden und hat in Karlsruhe in Mathematik in der Arbeitsgruppe promoviert in der auch Gudrun Thäter und Sebastian Ritterbusch tätig waren. Nach seiner Verteidigung 2012 hat er einige Zeit als Postdoc in Karlsruhe und Heidelberg gearbeitet, bevor er zur Firma COMSOL in Stockholm ging. Seit September 2015 wohnt er in München und bringt seine Fähigkeiten als Softwareingenieur bei Brainlab ein. Welche Rolle spielt denn AR zur Zeit in der Chirurgie? Digitale Daten sind schon weit verbreitet in der Medizintechnik und insbesondere in der Chirurgie. Dabei handelt es sich z.B. um CT- oder MR-Bilder, aus denen man virtuelle Objekte durch Segmentierung gewinnen kann. Diese Daten können vor oder während der Behandlung (prä-/intraoperativ) entstehen und werden zur Planung der OP oder zur Navigation während des Eingriffs verwendet. Zum größten Teil werden sie klassisch auf Bildschirmen dargestellt und zur Interaktion dienen eine Maus oder ein Touchscreen oder auch Instrumente, die über Infrarotkameras getracked werden. Speziell in der Neurochirurgie kommen große Mikroskope zum Einsatz, die auch Video aufnehmen können. Das Ziel von Staffans Arbeit ist dabei präoperative virtuelle Daten mit Videodaten zu verblenden um eine erweiterte Darstellung zu zeigen, mit der der Chirurg während der OP navigieren kann. Zu dieser Zweck werden nützliche Informationen wie die aktuelle Position, das Zielobjekt und dazwischen liegende Strukturen im Video dargestellt. Um ein solches System umsetzen zu können, werden Methoden aus vielen verschiedenen Bereichen der angewandten Mathematik benötigt, wie z.B. Bildbehandlung, geometrische Modellierung, 3D Grafik und Computer Vision. Themen wie maschinelles Lernen und Robotik spielen auch eine zunehmend wichtige Rolle. Eine grundlegende Fragestellung mit der sich Staffan viel beschäftigt hat, ist die Modellierung der Optik chirurgischer Mikroskope mit variablem Fokus und Zoom. Ein genaues Modell wird benötigt, um die Lage und Größe der virtuellen Daten bei der Verblendung mit dem Videobild bestimmen zu können. Als grundlegendes Kameramodell dient das Pinholemodell, d.h. eine perspektivische Projektion von Punkten gemessen in einem 3D Koordinatensystem auf die planare Bildebene. Extrinsische Parameter sind dabei die Lage und Orientierung der Kamera im Raum (die Richtung der "optische Achse"). Die intrinsischen Parameter sind abhängig von der Optik z.B. die Brennweite (Skalierung von mm auf pixel-Maß) und verschiedene Arten von Verzerrung. Die Parameter des nichtlinearen Kameramodells werden bestimmt durch Minimierung der Reprojektionsfehler in Aufnahmen von einer bekannten Geometrie. Typischerweise wird der Levenberg-Marquardt Algorithmus benutzt um das Optimierungsproblem zu lösen. Es gibt aber mehrere Schwierigkeiten: Der Modell ist nicht konvex wodurch lokale Minima möglich sind; Die Berechnung der Parameter wird vom Messfehler beeinflusst; Die begrenzte Schärfentiefe und großer Arbeitsabstand erschweren die Messungen; Als Lösung bietet es sich an ein einfacheres Modell zu verwenden und dadurch zu vermeiden, dass redundante Parameter geändert werden. Allerdings muss man darauf achten, dass das Ergebnis immer noch ausreichend Genauigkeit bietet. Literatur und weiterführende Informationen Z. Yaniv, C. A. Linte: Applications of Augmented Reality in the Operating Room (Preprint), in Fundamentals of Wearable Computers and Augmented Reality, Second Edition, ch. 19, CRC Press, 2015. I. Cabrilo, P. Bijlenga, K. Schaller: Augmented reality in the surgery of cerebral aneurysms: a technical report, Operative Neurosurgery, 10.2: 252-261, 2014. Z. Zhang: A Flexible New Technique for Camera Calibration, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, pp. 1330–1334, 2000. Übersicht Brainlab Mikroskopintegration Podcasts Y. Liang: Bewegte Computertomographie, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 6, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. I. Waltschläger: Windsimulation, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. D. Breitenbach, U. Gebhardt, S. Gaedtke: Raketen, CT-MRT-PET-etc, Widerstände, Proton Podcast, Folge 17, 2017. F. Rau: Augmented Reality Gaming, Gespräch mit T. Nowak im Kulturkapital Podcast, Folge 28, 2017.

Neues Terrain
Mobilität im Wandel

Neues Terrain

Play Episode Listen Later Apr 27, 2017 113:57


Am 4. April fand in Berlin die Fachtagung „Mobilität im Wandel – Praxisbeispiele und neue Impulse zur BMBF Forschungsagenda“ statt. Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH war dort, stellte das Terrain Projekt vor und spricht mit Gerhard Jaworek vom Studienzentrum für Blinde und Sehbehinderte (SZS) am Karlsruher Institut für Technologie (KIT) über die Veranstaltung im InterContinental Hotel in Berlin. Fachtagung Mobilität im Wandel (1:53:57, 50MB) Zum Start der Bekanntmachungen Mensch-Technik-Interaktion für eine intelligente Mobilität (IMO), Elektroniksysteme für das vollautomatisierte Fahren (ELEVATE) und weiterer Projekte aus dem Themenfeld Kommunikationssysteme & IT-Sicherheit lud das Bundesministerium für Bildung und Forschung (BMBF) die geförderten Projekte und Interessierte zum Austausch nach Berlin ein. Zur Bekanntmachung ELEVATE lag ein Schwerpunkt auf Projekten zu Radartechnologien, wie beispielsweise das Projekt KameRad zu kombinierten Kamera-Radar-Modulen, das Projekt KoRRund zu konformen multistatischen Radarkonfigurationen zur Rundumsicht oder das Projekt radar4FAD zu universellen Radarmodulen für das vollautomatisierte Fahren, die in einem eigenem Workshop später ihren Cluster auf der Tagung initiierten. In der Linie ELEVATE gab es aber auch weitere Themen wie das Projekt AutoKonf zu automatisch rekonfigurierbaren Aktoriksteuerungen für ausfallsichere automatisierte Fahrfunktionen oder HiBord zu hoch zuverlässigen und intelligenten Bordnetztopologien. Informationen zur Nutzung von Radar-Technologien in der Erdbeobachtung gibt es in der Folge 244 SAR Satelliten und Satellitendatenarchivierung  am EOC im Omega Tau Podcast.  Die Veranstaltung wurde durch eine Begrüßung von Frau Gabriele Albrecht-Lohmar und Herrn Andreas Kirchner für BMBF und einer Einführungskeynote von Herrn  Dr.-Ing. Sven Bugiel zu sicheren autonomen Fahrzeugen in der Zukunft eröffnet. Daran schloss sich ein „Project-Slam“ an, in dem sich die rund 20 Projekte jeweils mit etwa 3 Folien in 3 Minuten vorstellen konnten und von Frau Dr. Julia Seebode und Herrn Dr. Marcel Kappel der VDI/VDE Innovation + Technik GmbH moderiert wurden. Die Vorträge waren sehr intensiv, jedoch von der Form natürlich nicht wie Science-Slams, wie sie auch in Karlsruhe oft ausgetragen werden und jungen Forscherinnen und Forschern eine Bühne bieten, ihr Gebiet in 10 Minuten sehr unterhaltsam vorzutragen. Auch aus der Ferne konnte man über Social Media der Fachtagung folgen. Auf die Slams folgten drei parallele Workshops, einmal zum Start des Radar-Clusters in ELEVATE, dann ein Workshop zu Projekten aus der Bekanntmachtung Intelligente Mobilität und einem Workshop zur neue Bekanntmachung Elektronom zur Elektronik für autonomes elektrisches Fahren. Die Tagung endete mit einem Abschlussvortrag von Prof. Dr. Andreas Knie zu vernetzten multimodalen Mobilitätslösungen der Zukunft und Ausklang bei einer Abendveranstaltung. In einigen Projekten stellten sich interessante Verbindungen zum Terrain Projekt heraus: Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug-Interaktion will Systeme entwickeln, die durch neue Interaktionskonzepte zu mehr Sicherheit, Komfort und Sicherheit bei teilautomatisierten Fahrzeugen führen soll. Dabei geht es auch um Fragen der Akzeptanz und natürlicher Sprachkommunikation, wie es mit dem Wunderautos Dudu oder K.I.T.T. in Filmen und Serien vorgedacht wurde. Im Projekt KomfoPilot zu personalisierter Fahrstilmodellierung im automatisierten Fahrzeug soll sich das Auto an den vom Menschen gewünschten Fahrstil anpassen. Das Projekt PAKoS befasst sich personalisierte, adaptive kooperative Systeme für automatisierte Fahrzeuge, das vom Karlsruher Institut für Technologie (KIT) koordiniert wird. Hier wird auch ein Nutzerprofil mit der Erfassung des Fahrerzustands kombiniert, um das Leistungsvermögen des Fahrers zu beurteilen und darauf angepasst zu reagieren. Zum Projekt Safety4Bikes, einem Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern, waren deren Verbundkoordinator Jochen Meis von der GeoMobile GmbH und Annika Johnsen vom Institut für empirische Soziologie an der Friedrich-Alexander-Universität in Erlangen-Nürnberg dankenswerter Weise zu einem Gespräch bereit. Mit Sensoren an Helm, Fahrrad und weiteren Schnittstellen wird hier die Umgebung erfasst und aufbereitet, um Kindern vor Gefahren zu warnen und für eine sichere Teilnahme am Straßenverkehr zu trainieren. Schwerpunkte sind hier neben der technischen Entwicklung des Systems auch die Identifikation der kritischen Gefahrenstellen und der geeigneten Kommunikation zu den Kindern. Bei der Erstellung von Anforderungsanalysen werden Ergebnisse früherer Projekte einbezogen, wie beispielsweise dem Projekt OIWOB für zum Orientieren, Informieren, Warnen in einer Orientierungshilfe für Blinde, welches von der HFC Human-Factors-Consult GmbH koordiniert wurde. Eine Entwicklung von guten Mensch-Maschine-Interaktionen (MTI) ist ein Weg in vielen Schritten: So gab es früher Digital-Mäuse, bei denen sich ein gesteuerter Mauszeiger immer in der gleichen Geschwindigkeit wie von einem digitalen Joystick gesteuert in acht mögliche Richtungen bewegt, und nicht wie wir es jetzt kennen proportional oder überproportional zur physischen Bewegung des Eingabegeräts. Die Entwicklung neuer Sensoren ermöglicht heute eine Bedienung auf Berührung oder durch Bewegung und Drehung des Geräts durch miniaturisierte Inertialsensoren, die Einzug in Smartphone und Tablets gehalten haben. Ein Beispiel für eine Bedienung über Inertialsensoren ist die Anwendung Universe2Go mit der Blinde wie auch sehende Menschen den Sternhimmel wie durch ein Smartphone-Fenster erfahren und hören können. In der MTI ist es auch wichtig kurz und prägnant den aktuellen Kontext darzustellen. Visuell werden für solche Identifikationshinweise oft Icons benutzt und diese haben ein akustischen Pendant, die so genannten Earcons: So kann durch einen kurzen und prägnanten Laut den Nutzenden sehr schnell eine wichtige Information oder ein Bezug hergestellt werden. In der Gestaltung solcher Earcons ist neben der Unterscheidbarkeit untereinander auch Distanz zu reellen Geräuschen zu berücksichtigen, damit ein eingesetztes System nicht mit Informationen aus der Realität verwechselt werden kann. Das hapto-akustische Spiel Bob it hat auch einen Spielmodus mit Geräuschen, wodurch gegenüber Sprachausgabe die Spielinformation schneller vermittelt wird. Mit Lenkgesten teilautomatisierte Fahrzeuge steuern wie der Reiter das Pferd; das ist das Ziel des Projekts Vorreiter. Auch hier waren Yigiterkut Canpolat vom Institut für Arbeitswissenschaft an der RWTH Aachen und Prof. Dr. Clemens Arzt, Direktor des Forschungsinstituts für öffentliche und private Sicherheit (FÖPS Berlin) an der Hochschule für Wirtschaft und Recht Berlin bereit über ihr Projekt zu sprechen. Hier sollen intuitive Steuerungen entwickelt werden, die Menschen mit körperlichen Einschränkungen die Nutzung von teilautomatisierten Fahrzeugen ermöglichen sollen. Dabei ist nicht nur die technische Entwicklung wichtig, sondern besonders auch die rechtswissenschaftliche Begleitforschung, da die gesetzlichen Voraussetzungen analysiert werden müssen, die bei der Umsetzung Berücksichtigung finden müssen und wo eventuell auch in rechtlicher oder gesetzlicher Sicht Handlungsbedarf besteht. Ein sehr überzeugendes Beispiel für eine gelungene Umsetzung ist das Sam Car Project des industriellen Partners Paravan im Vorreiter-Projekt, wo dem ehemaliger Indy-car Fahrer und seit einem schweren Rennunfall querschnittgelähmten Sam Schmidt mit einer Spezialanfertigung wieder die Steuerung eines Autos ermöglicht wurde. Pferde sind jedoch nicht nur einfache Fortbewegungsmittel, sondern können in besonderem Maße Menschen mit Einschränkungen in ihrer Mobilität unterstützen. Ein sehr außergewöhnliches Beispiel bietet hier Sabriye Tenberken, die zu Pferd durch Tibet reiste und als Blinde die Blindenschule Braille without Borders in Tibet eröffnete und darüber auch das Buch Mein Weg führt nach Tibet veröffentlichte. Die Fachtagung endete mit dem Fachvortrag von Prof. Dr. Andreas Knie zu vernetzten multimodale Mobilitätslösungen der Zukunft und einer Abendveranstaltung zum Austausch mit den weiteren Teilnehmern der Tagung.

social media system berlin prof weg auto zukunft dabei workshop smartphones bei ziel entwicklung beispiel projekt indy elevate weise kommunikation stra kindern realit sicherheit workshops projekte impulse bewegung bezug pendant borders einf wandel ergebnisse wirtschaft umsetzung autos austausch bildung institut serien kontext tibet begr gefahren icons filmen ing umgebung mobilit projekten helm gebiet voraussetzungen veranstaltung nutzung cluster einschr fahrrad laut akzeptanz systeme gestaltung slams teilnahme schwerpunkt distanz tablets direktor daran verbindungen pferd hochschule geschwindigkeit fahren einzug karlsruhe pferde imo reiter teilnehmern richtungen erstellung fahrer schwerpunkte blinde die entwicklung fahrzeuge steuerung identifikation fahrzeug soziologie elektronik interessierte ein beispiel komfort bundesministerium sensoren tagung schnittstellen joystick fahrzeugen it sicherheit erfassung bedienung forschern forscherinnen die veranstaltung praxisbeispiele folien ausklang informieren intercontinental hotels rwth aachen mti eoc warnen erlangen n orientierungshilfe karlsruher institut visuell orientieren friedrich alexander universit drehung fachtagung eine entwicklung bmbf technologie kit fahrers fahrstil nutzenden sprachausgabe sam schmidt abendveranstaltung eingabeger leistungsverm erdbeobachtung die vortr assistenzsystem science slams steuerungen forschung bmbf fachvortrag mauszeiger abschlussvortrag unterscheidbarkeit studienzentrum buch mein weg omega tau podcast sebastian ritterbusch terrain projekt gerhard jaworek begleitforschung
Neues Terrain
Juristische Begleitforschung

Neues Terrain

Play Episode Listen Later Feb 20, 2017 75:24


Am 18. November 2016 fand an der Fachhochschule Bielefeld ein vom Bundesministerium für Bildung und Forschung (BMBF) und der FH Bielefeld angebotener Workshop zu Einzelaspekten rechtswissenschaftlicher Begleitforschung statt, an dem Johannes Hirsch, Markus Winkelmann und Sebastian Ritterbusch teilnahmen. Im Gespräch und diesem Text werden zwar rechtswissenschaftliche Fragen angesprochen, die Aussagen sind aber keinesfalls als Rechtshinweise oder Rechtsberatung zu verstehen. Eine juristische Begleitforschung ist ein Aspekt der ELSI-Begleitforschung, die die Betrachtung von ethischen (ethical), rechtlichen (law) uns sozialen (social) Fragestellungen zu Projekten umfasst. Diese Themen stehen im Zentrum des vom Institut für Technologiefolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT) vorangetriebenen Forschung. Im Projekt QuartrBack befasst sich Johannes Hirsch mit der Begleitforschung um eine intelligente Notfallkette im Quartier für Menschen mit Demenz. In rechtlicher Sicht wurden hier insbesonders Aspekte des Datenschutz beleuchtet. Auch in anderen Themenbereichen werden diese Fragestellungen untersucht, so wurde der Institutsleiter Prof. Dr. Armin Grundwald in die von Bundesminister Alexander Dobrindt eingesetzte Ethik-Kommission zu automatisierten Fahren berufen. Auch zu Energiethemen hat Markus Winkelmann am ITAS gesellschaftliche, rechtliche und soziale Fragestellungen betrachtet und begleitet das Terrain-Projekt durch Begleitforschung. Für Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH sind die rechtlichen Fragestellungen einmal für das Projekt Terrain insgesamt aber auch speziell für die Entwicklung der Anwendungen für die Nutzenden von großem Interesse. Der Workshop begann mit einem Vortrag von Frau Prof. Dr. jur. Brunhilde Steckler der FH Bielefeld und behandelte Rechtsaspekte im Projekt KOMPASS: Es ging um die Vertraulichkeit und Integrität von Rechtssystemen, was im Rechtssystem alleine schon Aspekte des Persönlichkeitsrechts, Datenschutz, Telemedien, Vertrags- und Haftungsrecht berührt. In der betrachteten Anwendung ging es im Projekt um den Bereich Wearables und Fitness und wie hier Dienste rechtssicher angeboten werden und den Nutzenden die Datenverarbeitung transparent dargestellt werden können. Wie auch häufiger im Verlauf des Workshops kam sie auch auf die besondere Rolle der neuen Datenschutz-Grundverordnung (DS-GVO) der Europräischen Union zu sprechen, die ab Mai 2018 anzuwenden ist und insbesondere auch die Datenschutz-Folgenabschätzung eingeführt (Art. 35 DS-GVO) . Der folgende Vortrag von Dipl.-Inf. Christian Burkert (@cburkert_de), früher praemandatum GmbH und jetzt wissenschaftlicher Mitarbeiter an der Universität Hamburg, behandelte Privacy-by-Design in der Produktentwicklung. Von Privacy-enhancing Technologies (PETs) aus den 90ern über Ann Cavoukians 7 Prinzipien des Privacy by Design zog er den zeitlichen Rahmen zur EU-Datenschutzreform von 2012. Die 7 Prinzipien des Privacy by Design geben direkte Handlungshinweise für die Einbettung des Datenschutzes in den Entwicklungsprozess, die im Sinne mit der Datenschutzgrundverordnung DS-GVO als „Datenschutz durch Technikgestaltung“ im Artikel 25 besonderen Einzug in die zukünftige Gesetzeslage gefunden haben, deren Umsetzung durch Verantwortliche mit Maßnahmen gesichert werden soll. An Hand der zwei Beispiele von den „Privacy Czars“ bei Apple und den „In-House Consultants“ bei Google stellte er dar, dass die Verankerung im Unternehmen sehr unterschiedliche Ausgestaltung haben kann. Wie wichtig die Verankerung von Datenschutz in Geschäftsprozesse ist, sieht man schon daran, wie eindeutig Menschen im Netz durch ihren Browser identifiziert und verfolgt werden können, beispielsweise durch das Browser Fingerprinting oder mit Cookies. Ein Beispiel für Intervenierbarkeit durch den Nutzer ist das Google Privacy Dashboard, in dem man den Zugriff auf gewisse persönliche Daten widerrufen kann. Im Vortrag von Prof. Dr. jur. Iris Kirchner-Freis der MLS LEGAL GmbH Rechtsanwalts- und Fachanwaltsgesellschaft ging es um Datenschutz bei Gesundheitsdaten am Beispiel des Projekts Adaptify. Dies beginnt schon mit der Frage der genauen Definition von Gesundheitsdaten im Sinne des Bundesdatenschutzgesetzes (BDSG) §3 Absatz 9 zu verstehen sind und besonders geschützt werden müssen: Dies umfasst sicher medizinische Informationen, können aber auch körperliche Leistungsdaten betreffen, die im Einsatz von Trackern beim Sport anfallen können. Das White Paper „Annex – health data in apps and devices“ der europäischen Union versucht hier die Definition zu konkretisieren. Bei der Frage der Einwilligung, Datensicherheit und Pseudonymisierung spielt für die Umsetzung in mobilen Lösungen insbesondere das Telemediengesetz (TMG) eine besondere Rolle. Grundlegend müssen nach BDSG den Nutzenden auch das Auskunftsrecht, Löschungs- und Sperrungsrecht und das Berichtigungsrecht eingeräumt werden und technisch-organisatorische Maßnahmen wie beispielsweise Zutritts- und Zugangskontrolle serverseitig umgesetzt werden. Die Einbettung von Privacy by Design durch Legal Process Modelling war das Thema des Vortrags von Frau Prof. Dr. jur. Beatrix Weber der Hochschule Hof. Die verpflichtende Datenschutz Compliance der DS-GVO zu Privacy by Design und Default und der Umsetzung interner Strategien für organisatorische Maßnahmen sind unter einer Risikoabwägung umzusetzen: Hier fließt neben dem Stand der Technik, Implementierungskosten und der Art der erhobenenen Daten auch die Eintrittswahrscheinlichkeit und zu erwartende Schwere der Risiken für bedrohte Rechte und Freiheiten mit ein. Dabei sieht sie die Unternehmens-Compliance als Geschäftsprozess, der auch weitere Rechtsthemen wie Urheberrecht, Kartellrecht und ethische Normen abbildet, und grundsätzlich in Phasen der Konzeption, Umsetzung und Adjustierung strukturiert werden kann. Von Herrn Prof. Dr. jur. Wolfgang Schild der Universität Bielefeld erhielten wir einen Einblick in rechtliche Fragen der Einwilligung vulnerabler Personengruppen. Grundsätzlich ist eine Einwilligung ein Aufopferungsakt, da man auf einen zustehenden rechtlichen Schutz verzichtet. Der rechtliche Grundsatz wird durch den lateinischen Ausdruck volenti non fit iniuria beschrieben, die Umsetzung muss dafür aber auch rechtlichen Anforderungen genügen: So muss die einwilligende Person den Fähigkeiten der intellektuellen Einsicht und voluntativen Willensbildung befähigt sein, und Informationen erhalten, was geschieht, auf was man verzichtet und welche Risiken, Chancen und Alternativen mit der Einwilligung einhergehen. Dabei ist die Einwilligung keine rechtliche Willenserklärung sondern ein Ausdruck des Selbstbestimmungsrecht und kann im Gegensatz zu geschlossenen Verträgen jederzeit widerrufen werden. Der abschließende Vortrag von Dr. jur. Thilo Weichert vom Netzwerk Datenschutzexpertise behandelte die Themen Sensorik, automatische Entscheidungen und Persönlichkeitsschutz. Mit den technischen Entwicklung unter anderem im Mobile Computing und Social Communities wird es möglich automatisiert personalisierte Entscheidungen zu treffen. Beispiele sind hier unter anderem in Medizin, Spiel, Werbung und Arbeitswelt, die auch große Risiken beinhalten können: Durch intransparente Kreditscoring-Verfahren kann das Leben von Menschen beispielsweise radikal beeinflusst werden. Ebenso drohen der Verlust der Vertraulichkeit und Wahlfreiheit, es wird Tür und Tor der Diskriminierung und Manipulation geöffnet und Menschen können schaden nehmen. Daher muss es sowohl eine unbedingte Beachtung der datenschutzrechtlichen Grundlagen und gleichzeitig eine Achtung vor Kernbereichen privater Lebensgestaltung ganz im Sinne von Artikel 7 der europäischen Grundrechte-Charta geben, was in globaler Sicht große Herausforderungen beinhaltet. Der Workshop bot ein gebündeltes Bild zur rechtwissenschaftlichen Begleitforschung und war für die Teilnehmenden in vielen Aspekten relevant und lehrreich. Die Darstellung der Fragestellungen und Erkenntnissen aus thematisch verwandten Projekten wird für die Umsetzung im Terrain Projekt eine große Hilfe sein. Besonderer Dank gilt Prof. Dr. Wolfgang Schild und Dr. Thilo Weichert, dass sie uns für persönliche Kommentare in dieser Folge zur Verfügung standen. Weiterführende Informationen Das Recht muss mit den technischen Entwicklungen Schritt halten, Pressemitteilung der FH Bielefeld zum Workshop, 22.11.2016.

google art apple sports stand design fitness mit leben prof union thema dabei rolle workshop definition durch privacy bei gesch herausforderungen entwicklung hilfe hamburg beispiel einblick projekt sicht unternehmen universit spiel cookies bild entscheidungen chancen manipulation workshops technik einsatz rahmen interesse sinne mitarbeiter im gespr werbung daher daten aspekte strategien umsetzung default tor bildung beispiele netz institut kommentare schutz forschung medizin risiken achtung aussagen alternativen verlust grundlagen phasen projekten zentrum anforderungen rechte vortrag arbeitswelt browsers ausdruck anwendung verlauf aspekt prinzipien erkenntnissen ebenso inf gegensatz diskriminierung gmbh grunds dipl vertr datenschutz nutzer betrachtung fahren einzug aspekten bielefeld anwendungen schwere dienste freiheiten beachtung normen zugriff fragestellungen quartier demenz einsicht integrit ein beispiel produktentwicklung teilnehmenden bundesministerium annex konzeption urheberrecht grundsatz absatz datensicherheit verantwortliche vortrags diese themen ausgestaltung pressemitteilung rechtsberatung lebensgestaltung verankerung gesundheitsdaten itas rechtssystem vertrags personengruppen einwilligung gesetzeslage datenschutzes themenbereichen datenverarbeitung social community karlsruher institut kartellrecht grundlegend die darstellung der workshop wahlfreiheit einbettung im vortrag vertraulichkeit technologie kit willensbildung mobile computing nutzenden besonderer dank leistungsdaten willenserkl rechtsthemen euro pr forschung bmbf bdsg adjustierung rechtssystemen sebastian ritterbusch systemanalyse itas terrain projekt begleitforschung
Neues Terrain
Innovationsforschung

Neues Terrain

Play Episode Listen Later Nov 30, 2016 125:08


Nora Weinberger und Sebastian Ritterbusch unterhalten sich über Innovationsprozesse in der Technologieentwicklung und das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT): Die Analyse von Technikfolgen und den Wechselwirkungen von Technik und Gesellschaft ist äußerst interessant für Themenfelder wie beispielsweise die sozialen Medien in der Wissensgesellschaft, die Endlagersuche für nukleare Endprodukte im Energiesektor, wie auch den Umgang mit dem demographischen Wandel und der Nachhaltigkeit. Viele der Themen sind gesellschaftliche Grand Challenges und werden teilweise schon aus historischen Gründen am KIT länger untersucht: Das in das KIT eingeflossene ehemalige Forschungszentrum Karlsruhe hatte einen Forschungsbereich zur Kernkraft. Der Institutsleiter Prof. Dr. Armin Grunwald war so auch am Abschlussbereicht der Kommission zur Lagerung hoch radioaktiver Abfälle beteiligt und ist Mitglied im unabhängigen Nationalen Begleitgremium zur Endlagersuche. Das ITAS ist nicht nur räumlich vom KIT Campus Nord in die Innenstadt und die Gesellschaft gezogen, sondern sucht in vielen Richtungen den Kontakt zu den eigentlichen Experten für den „Lebensalltag“. Ein Beispiel, wie das ITAS die Ergebnisse und Kontroversen zur Diskussion aktiv zu den Bürgerinnen und Bürgern bringt, ist die Veranstaltungsreihe Technik Kontrovers: Hier werden nicht nur Themen vorgestellt, sondern intensiv die Beteiligung von Bürgerinnen und Bürgern in Entscheidungsprozesse gefördert. Das Arbeitsgebiet von Nora Weinberger im Terrain Projekt liegt im Bereich der Innovationsforschung: Unter dem Begriff Innovation versteht man hier sowohl die technische Innovation als auch die soziale Innovation in Kombination. Die Betrachtung des Begriffs stellt auch die Frage, welche Innovationen und Technik sich betroffene Menschen eigentlich wünschen. Denn zu leicht können technische Innovationen an den Bedürfnissen der Gesellschaft vorbeigehen. So kann man auf der einen Seite noch im Innovationsprozess unerwünschten Technikfolgen entgegentreten und durch die frühe Beteiligung auch eine höhere gesellschaftliche Akzeptanz erzeugen. Die Veränderungen, die sich in der Gesellschaft durch technische Innovationen ausbilden können, sind ein Aspekt der sozialen Innovationen, die die technische Seite im optimalen Fall begleiten und unterstützen, aber auch eine ganz eigene Entwicklung ausbilden können. Eine besondere Herausforderung ist dabei die Technikvorausschau, die in Zusammenarbeit mit Experten verschiedener Bereiche erstellt wird. Dabei wird jedoch keine Zukunft vorhergesagt, sondern es werden mögliche Zukünfte, also mögliche Zukunftsszenarien, diskutiert und analysiert. Wirksam werden die verschiedenen Zukünfte durch ihre Wirkungen, und in der neutralen Bewertung der Folgen können Risiken von Entwicklungen sachlich behandelt und damit beispielsweise politische Entscheidungsträger beraten werden. Dies ist unter anderem ein Arbeitsgebiet des durch das ITAS betriebene Büro für Technikfolgenabschätzung am Bundestag (TAB). Ein großes Themengebiet der ITAS ist der demographische Wandel, also der Alterung der Gesellschaft und den unter anderem damit verbundenen steigenden Anforderungen im Bereich der Pflege. Wo zunächst eine Abneigung gegen technische Lösungen vorwiegen kann, ermöglicht die Teilhabe und Partizipation eine gesteigertes Akzeptanzbewusstsein und Interesse an neuen Verfahren. Ein Aspekt der alternden Gesellschaft ist die stark steigende Anzahl von Menschen mit Demenz. Demenz ist dabei ein Sammelbegriff für ein Phänomen, das fortschreitend verläuft und durch schwere Verluste höherer kognitiver Funktionen, insbesondere des Gedächtnisses, des Denkens, der Orientierung, der Lernfähigkeit, der Sprache, aber auch des Urteilsvermögens, gekennzeichnet ist. Neben den beschriebenen kognitiven Einbußen gehen Veränderungen des Gefühlslebens, aber auch des Verhaltens mit der Demenz einher, die sich zu Depressivität, Wahn und extremer Unruhe entwickeln können. Mit dem Fortschreiten der Demenz ist ein zunehmender Verlust der geistigen Leistungsfähigkeit festzustellen, der sich unter anderem in einer abnehmenden Fähigkeit zeigt, Alltagsprobleme eigenständig zu lösen, sodass Menschen mit Demenz einen zunehmenden Selbständigkeitsverlust erleben und immer mehr auf Unterstützung angewiesen sind. Die extreme Unruhe von Menschen mit Demenz kann sich dabei in einem hohen Bewegungsdrang (sog. „Wandering“) äußern. In Kombination mit den beschriebenen Defiziten können diese zu einem Selbstgefährdungspotential führen, weil eine örtliche Orientierung kaum oder gar nicht mehr möglich ist. Andererseits wird gerade Bewegung als Intervention zur Aktivierung der Gehirnfunktion und zur Teilhabe am sozialen Leben empfohlen. Die Bewegung kann damit als eine wirkungsvolle und nebenwirkungsarme Schlüsselkomponente bei der Pflege und Betreuung von Menschen mit Demenz angesehen werden. Mit ihr ist sowohl eine motorische als auch eine sensorische, aber auch eine soziale Aktivierung verbunden, die sich auf die subjektive Lebensqualität und den funktionellen Status der Menschen mit Demenz auswirken und dazu beitragen, Stürze, Kontrakturen sowie Dekubitus zu verhindern. So können bestehende Ressourcen so lange wie möglich erhalten, und eine hohe Pflegeintensität kann hinausgezögert werden. Die Realisierung von Bewegung vor allem außerhalb der Einrichtung stellt allerdings die Pflegenden, die Bewohner und deren Angehörige, aber auch die Bürger im Quartier vor eine dilemmatische Situation: Einerseits soll die Selbstständigkeit der Menschen mit Demenz gefordert und gefördert werden, andererseits besteht in Abhängigkeit von der Tagesform und den individuellen kognitiven Fähigkeiten der Wunsch der Pflegenden und der Angehörigen nach Sicherheit, was dann häufig mit Formen von Freiheitsentzug korreliert. Dies führt dazu, dass die eigentlich gewollte Selbstbestimmung und Selbstständigkeit durch Sicherheitserwägungen und Furcht vor Selbstgefährdung eingeschränkt wird. Hieraus folgend muss es in der pflegerischen Praxis darum gehen, das dargelegte Spannungsfeld von Freiheit und Selbstbestimmung versus Sicherheit mit den Beteiligten zu thematisieren und Bewegung innerhalb und außerhalb der Einrichtung zu ermöglichen. Ziel ist es, das „Draußen aktiv“ unter dem Motto: „So viel Freiheit wie möglich, so viel Schutz wie nötig“ zu gestalten. Ausgehend von diesen spezifischen Problemlagen widmete sich das Movemenz-Projekt der Fragestellung, ob und wie zu entwickelnde technische Artefakte Formen der Unterstützung anbieten können, um die Grundanforderung „Bewegung“ in einem gerahmten Pflegesetting aufrechterhalten, bzw. zu unterstützen. Dafür hat das Forschungsteam die Institutionen für einige Wochen zur teilnehmenden Beobachtung besucht und anschließend mit den beteiligten Personen (Betroffenen, Pflege- und Betreuungskräften, Angehörigen und Ehrenamtlichen sowie Vertretern des Quartiers) die auf Mobilitätsaspekte bezogenen Ergebnisse besprochen. In einem weiteren Schritt wurden die Beobachtungen mit einem Team von Technikentwicklern diskutiert, um technische Lösungsansätze und Entwicklungsmöglichkeiten zu erforschen. Basis für die Vorgehensweise im Projekt war der Ansatz der Grounded Theory: Hier wurden alle für die Forscher und Allgemeinheit verfügbaren Informationen wie Webseiten oder die teilnehmende Beobachtung genutzt, um daraus unbeeinflusste Thesen zu formulieren und zu begründen. Die Grounded Theory ist ein weit akzeptiertes sozialwissenschaftliches Vorgehen, um strukturiert und begründet Erkenntnisse erhalten, und erinnert in gewisser Weise nach einem Design Pattern aus der Informatik. Im skandinavischen Film Kitchen Stories von 2003 wird das gewählte Vorgehen der teilnehmenden Beobachtung einer kritischen und gleichzeitig humoristischen Betrachtung unterzogen. Ein Ergebnis und Beispiel für eine mögliche Innovation, die sich statt aus einem Technology Push aus den Beobachtungen, Diskussionen mit Betroffenen und den Technikentwicklern also einem Demand Pull herausgebildet hat, ist die Möglichkeit Menschen mit Ortslokalisierung zu helfen. Diese Technikdee wird zusammen mit einer starken sozialen Innovation einem unterstützenden Helfernetz im QuartrBack-Projekt untersucht. Den Ansatz neben dem Technology Push auch den Demand Pull zu setzen und im Vorfeld die Technikfolgen zu beachten wird auch im Terrain Projekt umgesetzt: So werden entsprechend interdisziplinäre Experten befragt, um weitere Anforderungen und Aspekte frühzeitig in die Entwicklung einfließen zu lassen. Ebenso werden im Projektverlauf mit Bürgerbeteiligung auch intensiv mögliche Technikfolgen und vorab Bedenken, aber auch Chancen des Technikeinsatzes untersucht. Publikationen und weiterführende InformationenN. Weinberger, J. Hirsch: Welche Art von mobilitätsfördernder Technologie ist im Pflegearrangement von Menschen mit Demenz zur Bedarfserfüllung notwendig? Aushandlungsprozesse zwischen Pflegekräften und Technikentwicklern. In: VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V. (Hrsg.): Zukunft Lebensräume. Proceedings des 9. AAL Kongresses 2016. Berlin, Offenbach: VDE 2016, S. 216-220 T. Zentek, N. Weinberger, C. Brändle, J. Hirsch: Analyse von Anforderungen an eine intelligente Notfallkette für Menschen mit Demenz im Quartier – Das Projekt QuartrBack. In: VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V. (Hrsg.): Zukunft Lebensräume. Proceedings des 9. AAL Kongresses 2016. Berlin, Offenbach: VDE 2016, S. 213-215 N. Weinberger, B.-J. Krings, M. Decker: Enabling a mobile and independent way of life for people with dementia – Needs-oriented technology development. In: Dominguez-Rué, E.; Nierling, L. (Hrsg.): Ageing and technology. Perspectives from the social sciences. Bielefeld: transcript 2016, S. 183-204 M. Decker, N. Weinberger: Was sollen wir wollen? Möglichkeiten und Grenzen der bedarfsorientierten Technikentwicklung. In: Weidner, R.; Redlich, T.; Wulfsberg, J.P. (Hrsg.): Technische Unterstützungssysteme. Berlin Heidelberg: Springer Vieweg 2015, S. 19-29 N. Weinberger, M. Decker: Technische Unterstützung für Menschen mit Demenz? Zur Notwendigkeit einer bedarfsorientierten Technikentwicklung. Technikfolgenabschätzung – Theorie und Praxis 24(2015)2, S. 36-45 N. Weinberger, M. Decker, B.-J. Kriegs: Pflege von Menschen mit Demenz–Bedarfsorientierte Technikgestaltung. Schultz, T.; Putze, F.; Kruse, A.(Hg.): Technische Unterstützung für Menschen mit Demenz, Symposium. Vol. 30. No. 1.10. 2014. Podcast A. Grunwald: Armin Grunwald und die Zukünfte, Gespräch mit H. Klein im Resonator Podcast Folge 25, Holger Klein/Helmholtz-Gemeinschaft, 2014.

fall innovation mit team berlin leben zukunft status dabei gef perspectives wochen wo seite bed vol ziel entwicklung gesellschaft beispiel umgang projekt schl grenzen schritt weise basis medien viele kontakt selbst freiheit neben praxis chancen klein sicherheit intervention sprache bereich herausforderung technik experten erkenntnisse interesse diskussion wunsch bewegung zusammenarbeit wandel aspekte ergebnisse entwicklungen technologie nachhaltigkeit wandering mitglied diskussionen institut schutz symposium selbstst ged ansatz formen risiken theorie verlust ressourcen schultz mobilit bereiche kombination pflege anforderungen abh orientierung aspekt akzeptanz betroffenen ageing angeh anzahl funktionen beteiligten vorfeld ebenso verfahren innovationen lebensqualit proceedings forscher selbstbestimmung vorgehen betrachtung institutionen bedenken bewohner betreuung thesen unruhe beteiligung leistungsf kruse bielefeld beobachtungen verluste richtungen einrichtung beobachtung andererseits drau webseiten furcht quartier verhaltens innenstadt demenz hg teilhabe vorgehensweise denkens wirkungen spannungsfeld informatik kommission zuk publikationen die ver kontroversen abf ein beispiel pflegekr fragestellung vertretern wahn aktivierung ausgehend partizipation abneigung weinberger entscheidungstr quartiers kernkraft allgemeinheit wechselwirkungen design patterns lagerung wirksam begriffs einbu grand challenges themenfelder themengebiet zukunftsszenarien itas ehrenamtlichen hrsg entwicklungsm die bewegung lernf alterung pflegenden energiesektor forschungsteam karlsruher institut lebensalltag in kombination defiziten alltagsprobleme bewegungsdrang urteilsverm sammelbegriff selbstgef fortschreiten redlich tagesform hieraus krings ein aspekt innovationsprozess freiheitsentzug endlagersuche technikfolgenabsch forschungsbereich die betrachtung problemlagen depressivit die realisierung projektverlauf motto so arbeitsgebiet dekubitus technikfolgen sebastian ritterbusch systemanalyse itas terrain projekt
Modellansatz
Operations Research

Modellansatz

Play Episode Listen Later Oct 19, 2016 151:18


Marco Lübbecke hat als Mathematiker den Lehrstuhl für Operations Research an der RWTH Aachen inne. Sein Lehrstuhl ist sowohl der Fakultät für Wirtschaftswissenschaften als auch der Fachgruppe für Mathematik zugeordnet. Zum Gespräch mit Sebastian Ritterbusch in Karlsruhe kam es anlässlich des Treffens der DFG Forschergruppe 2083: Integrierte Planung im öffentlichen Verkehr auf Einladung von Peter Vortisch, der auch schon zur Verkehrsmodellierung in Folge 93 in diesem Podcast zu hören war. Auf Twitter sind Marco Lübbecke unter @mluebbecke und sein Lehrstuhl unter @RWTH_OR zu finden und er schreibt das Blog Café Opt. Operations Research befasst sich zusammenfassend mit mathematischen Modellen und Methoden zur Entscheidungsunterstützung. Dabei steht oft die Frage einer möglichst guten oder optimierten Entscheidung im Vordergrund und daher ist das Gebiet von mathematischer Seite im Bereich der mathematischen Optimierung angesiedelt. Die Optimierung behandelt grundsätzlich die Bestimmung eines optimalen Werts einer Zielfunktion (und einer dazugehörenden Lösung) unter Berücksichtigung von einschränkenden Nebenbedingungen, den Restriktionen. Daneben steht aber auch die Frage der geeigneten Abbildung und Modellierung der Wirklichkeit und den Fehlerquellen der Beschreibung wie auch die grundsätzliche Herangehensweise an das Problem. Das optimierte Zusammenspiel von Menschen, Algorithmen und Technologie wird seit 2011 auch oft mit dem Begriff Industrie 4.0 für eine erhoffte vierte industrielle Revolution beschrieben. Die einheitliche Definition des Begriffs lassen aber selbst renommierte Industrievertreter offen. Als eine Schnittmenge der Beschreibungen kann man die lokale Intelligenz von Fertigungskomponenten ausmachen, die über Vernetzung und Sensorik zu einem besseren Gesamtprozess führen kann. Im Kleinen werden so Entscheidungsprozesse durchgeführt und dies führt grundlegend auf die gerade eingeführte mathematische Optimierungstheorie mit allen ihren Facetten. So gesehen ist die Industrie 4.0 als Optimierungsproblem eigentlich ohne Mathematik undenkbar. Ein in der Universität sehr naheliegendes Feld der Optimierung ist die Vorlesungsplanung, und hier ist aus der Forschung zusammen mit Gerald Lach in Kooperation zwischen der TU Berlin und der RWTH Aachen die Lösung Mathplan entstanden, die inzwischen an vielen Universitäten erfolgreich zur Vorlesungs-, Tutorien- und Klausurplanung eingesetzt wird. Mit genügend Zeit und genügend Personal kann man zwar einen einigermaßen akzeptablen Plan mit viel Erfahrung auch ohne besondere mathematische Optimierung aufstellen, das ändert sich aber schlagartig, wenn kurzfristige Änderungen berücksichtigt und Konflikte aufgelöst werden müssen. Mathematisch geht es hier um ganzzahlige lineare Programme, für die zwar Lösungsverfahren bekannt waren, diese für die Größenordnung der Probleme nicht geeignet waren. Eine Modellreduktion ohne Verlust der Optimalität führte hier zur Lösung. Auch in der Erstellung von Zugfahrplänen besteht ein großes Optimierungspotential. Da die Realität nicht perfekt planbar ist, geht es hier besonders um eine robuste Planung, die auch bei entstehenden Störungen noch das anvisierte Ziel erreichen kann. In der Forschung unter anderem auch mit Anita Schöbel der Uni Göttingen geht es um die Analyse der Fortpflanzungen von Verzögerungen, damit besonders kritische Fälle besonders behandelt werden können. Ein weiterer Gesichtspunkt ist aber auch die Möglichkeit Probleme möglichst gut durch kleine Eingriffe wieder korrigieren zu können. Ein zunächst überraschendes Forschungsthema ist die Bundestagswahl, wo sich Sebastian Goderbauer mit der optimierten Wahlkreiseinteilung befasst. Die 299 Bundestagswahlkreise werden weitaus häufiger neu zugeschnitten als man denkt: Da nach Bundestagswahlgesetz jeder Wahlkreis gerade 1/299-tel der Wahlberechtigten mit einer Toleranz von maximal 25 Prozent vertreten muss, erfordert die Wählerwanderung und Veränderung der Bevölkerungsstruktur die regelmäßigen Veränderungen. Das sogenannte Gerrymandering ist besonders bei Wahlen mit Mehrheitswahlrecht ein sehr problematisches Vorgehen bei Wahlkreisveränderungen, das offensichtlich undemokratische Auswirkungen hat. In Deutschland ist dies weniger ein Problem, wohl aber die deutlich ungleiche Größenverteilung der Wahlkreise. Die mathematische Definition und Betrachtung als Optimierungsproblem trägt die Hoffnung in sich, dass das Zuschnitt-Verfahren transparenter und nachvollziehbarer als bisher abläuft, und das sich dadurch balanciertere Wahlkreisgrößen ergeben können. Ein zentrales Forschungsgebiet ist für Marco Lübbecke der Bereich der ganzzahligen Programme. Die vielen auftretenden Variablen können beispielsweise Entscheidungen repräsentieren, die diskrete Werte wie ja oder nein repräsentieren. Dazu kommen verschiedene Resktriktionen und Nebenbedingungen, die Einschränkungen aus der Umgebungssituationen wie beispielsweise begrenzte Resourcen darstellen. Der Begriff "Programm" für die Bezeichnung von Optimierungsproblemen ist historisch aus dem englischen Begriff "programming" entstanden, der früher intensiv für "Planung" verwendet wurde. Heutzutage ist dieser Zusammenhang nicht mehr so naheliegend und entsprechend hat sich die Mathematical Programming Society (MPS) in Mathematical Optimization Society (MOS) umbenannt. Sind die Variablen eines Optimierungsproblems im , so kann man sich Schnitte mit linearen Ungleichungen wie das halbseitige Abschneiden des Lösungsraumes mit Ebenen vorstellen. Man nennt das Resultat ein Polyeder oder Vielflächner. Ist nun zusätzlich auch die Zielfunktion linear, so spricht man von einem linearen Optimierungsproblem oder linearen Programm. Wird nun der Lösungsbereich mit einem Gitter geschnitten, d.h. die Variablen können nur diskrete wie z.B. nur ganzzahlige Werte annehmen, so wird das Optimierungsproblem deutlich schwieriger. Dies ist erstaunlich, da der Lösungsbereich deutlich eingeschränkt wird. Jedoch verliert der Lösungsbereich seine konvexe Struktur und führt im linearen Fall von einem in polynomialer Zeit lösbaren Problem zu einem NP-schweren Problem. Wenn die Lösungsmenge eine beschränkte Anzahl von Elementen besitzt, so ist die Existenz von Maximum und Minimum durch Ausprobieren leicht zu beweisen. Das Problem ist jedoch, dass bei großen Datenmengen das vollständige Durchsuchen viel zu lange dauern würde. Eine Strategie zur Reduktion des Problems ist hier die Aggregation oder das Clustering, wo verschiedene Aspekte durch einzelne Repräsentanten dargestellt und gruppiert werden und so Rechenzeit eingespart wird. Zwar werden so nur approximierte Probleme gelöst, jedoch deutlich schneller und wenn möglich mit Fehlerschranken, die den maximalen Abstand zur tatsächlichen Lösung spezifizieren. Ein Beispiel für dieses Prinzip sind die Contraction Hierarchies, die das Routingproblem bzw. einen kürzesten Pfad auf einem Graphen zu finden durch eine zuvor berechnete Reduktion des betrachteten Netzes beschleunigen, exakte Fehlerschranken liefern, und gleichzeitig die Berechnung einer optimalen Lösung durch Berechnung lokaler Routen ermöglicht. Das Verfahren kommt aber an Grenzen, wenn einige Aspekte nur mit Wahrscheinlichkeiten beschrieben werden können. Ein klassisches Optimierungsproblem ist das Problem des Handlungsreisenden, an dem sich die verschiedenen Verfahren und Analysen der diskreten Optimierung illustrieren lassen. Dabei hat das Problem die Forschungsrelevanz nicht verloren: Viele neue Verfahren und Forschungsansätze gehen auf das Problem des Handlungsreisenden zurück. Gleichzeitig steht das Problem stellvertretend für viele Optimierungsprobleme zu Reihenfolgen in der Anwendung und findet so immer neuen Einsatz. Grundsätzlich basieren Optimierungsprobleme auf der Suche nach Extremwerten, diese kann man beispielsweise mit Abstiegs- oder Aufstiegsverfahren versuchen zu finden. Will man nun Einschränkungen berücksichtigen, so kann man die Zielfunktion mit Lagrange-Multiplikatoren für die Restriktionen erweitern. Diese Multiplikatoren kann man als Strafterme verstehen, die das Finden des Optimums unter Einhaltung der Restriktionen erzwingen. Die Verwendung der Lagrange-Multiplikatoren erzeugt automatisch über die Lagrange-Dualität ein duales Problem und führt auch auf Sattelpunkte. Die neue Sichtweise ist aus mehreren Gründen sehr hilfreich: Zum einen vereinfacht diese Dualität mathematische Beweise, sie ermöglicht Abschätzungen für die Qualität von Lösungen und liefert gleich zwei alternative Verfahren, um ein Optimierungsproblem zu lösen. Ein Standardverfahren zum Lösen von linearen Optimierungsproblemen ist das Simplex-Verfahren. Hier wird ausgenutzt, dass lineare Restriktionen ein Polyeder bilden und eine lineare Optimierungsfunktion ihr Maximum auf einer (Hyper-)Fläche, einer Kante (bzw. entsprechenden höherdimensionalen Strukturen) oder einer Ecke annehmen muss. Diese Kanten und Ecken werden mit dem Verfahren systematisch durchsucht. Beim schriftlichen Rechnen hat das Simplex-Verfahren große Ähnlichkeit mit dem Gaußschen Eliminationsverfahren, das zum Lösen von linearen Gleichungssystemen eingesetzt wird. In der Praxis ist das Simplex-Verfahren sehr schnell, jedoch finden sich konstruierte Gegenbeispiele, auf denen das Simplex-Verfahren eine schrecklich langsame exponentielle Laufzeit an den Tag legt. Daher haben hier traditionelle innere Punkte-Verfahren und Barrier-Verfahren ein aufwandstheoretisch deutlich besseres Laufzeitverhalten, in der Praxis sind die Ergebnisse aber sehr gemischt. Hat man nun ein diskretes bzw. ganzzahliges Problem, so liefert das Simplex-Verfahren ohne Berücksichtigung der Diskretisierung typischerweise keine ganzzahlige Lösung, liefert aber Abschätzungen für das Optimum, da der Wert einer optimalen ganzzahligen Lösung nicht besser sein kann als der einer optimalen kontinuierlichen Lösung. Für die nicht-ganzzahligen Lösungen für einzelne Variablen wie kann man nun zwei ganzzahlige Restriktionen definieren wie oder , und jetzt zwei Teilprobleme bzw. "Branches" mit je einer der beiden Restriktionen zusätzlich lösen. So erhält man entweder ein unzulässiges Teilproblem, oder bereits ein ganzzahlige Lösung (nicht notwendigerweise eine beste) oder eben wieder eine nicht-ganzzahlige. Durch fortwährendes Verzeigen auf den nicht-ganzzahligen Variablen entsteht eine Baumstruktur der Teilprobleme. Mit Hilfe der aus den jeweiligen kontinuierlichen Relaxationen gewonnenen Schranken lassen sich ganze Äste des Baums abschneiden ("Bound"), in denen keine bessere Lösung mehr zu finden ist als die beste die man bisher gefunden hat. Dieses Verfahren führen wir für alle weiteren verbleibenden Probleme oder Branches durch bis eine optimale lineare und diskrete Lösung übrig bleibt. Damit liefert das Branch-and-Bound-Verfahren bzw. weiter verfeinert das Branch-and-Cut-Verfahren auf Basis der Lösung von vielen kontinuierlichen linearen Optimierungsproblemen die Lösung des diskreten Problems. Eine Erweiterung des Verfahrens auf besonders große Probleme ist das Branch-and-Price-Verfahren, das mit Basis von Column Generation die Variablen sucht, die für die Lösung des Gesamtproblems relevant sind, und das Problem eingeschränkt auf diese Variablen löst, ohne dabei Optimalität aufzugeben. Ein interessantes Beispiel ist hier das Bin Packing bzw. Behälterproblem, wo es darum geht, eine Anzahl von verschiedenen Objekten auf eine Anzahl von Behältern zu verteilen. Das Entscheidungsproblem, ob eine gegebene Anzahl von Behältern reicht, ist sowohl für Versandhäuser äußerst relevant, ist aber gleichzeitig auch NP-Vollständig, also aufwandstheoretisch nachgewiesen schwer. Hier kann man durch vorheriges Sammeln von möglichen Füllmustern ein riesengroßes Modell erstellen, dieses aber mit der column generation in der Praxis um so effizienter lösen. In der Industrie werden beispielsweise die Pakete Cplex, Gurobi oder Xpress zur Lösung von Optimierungsproblemen eingesetzt, die die besprochenen Verfahren umsetzen. Hier können auch Modellierungssprachen zum Einsatz kommen, die die Probleme abstrakt und menschenlesbar definieren. Vorteile sind hier die Trennung von Daten und Modell und auch die Trennung von Problem und Löser. Ein Beispiel für eine Modellierungssprache für Optimierungsproblemen ist GAMS, sie stehen aber heutzutage in starker Konkurrenz zu modernen Programmiersprachen wie Python. Im Sinne des Leitsatzes "Tue Gutes und rede darüber" ist die Kommunikation von Wissenschaft für Forschende in Öffentlichkeit, Social Media und Internet eine große Gelegenheit mit vielen Vorteilen: Neben dem Austausch von wichtigen Erfahrungen zum Beispiel zum Schreiben wissenschaftlicher Paper, hilft es der wissenschaftlichen Vernetzung, der gesellschaftlichen Diskussion zur Relevanz des Forschungsgebiet über den Tellerand hinaus, und interessiert auch die Öffentlichkeit und auch junge Menschen näher in die spannenden Themen einzusteigen. Literatur und weiterführende Informationen G. Lach, M. Lübbecke: Optimal university course timetables and the partial transversal polytope, International Workshop on Experimental and Efficient Algorithms. Springer Berlin Heidelberg, 2008. C. Liebchen, M. Lübbecke, R. Möhring, S. Stiller: The concept of recoverable robustness, linear programming recovery, and railway applications, in Robust and online large-scale optimization (pp. 1-27). Springer Berlin Heidelberg, 2009. S. Goderbauer: Mathematische Optimierung der Wahlkreiseinteilung für die Deutsche Bundestagswahl, Springer Spektrum, Springer BestMasters, 2016. S. Goderbauer, B. Bahl, P. Voll, M. Lübbecke, A. Bardow, A. Koster: An adaptive discretization MINLP algorithm for optimal synthesis of decentralized energy supply systems, Computers & Chemical Engineering, 95, 38-48, 2016. R. Geisberger: Contraction Hierarchies: Faster and Simpler Hierarchical Routing in Road Networks, Diplomarbeit am Institut für Theoretische Informatik Universität Karlsruhe, 2008. M. Lübbecke, J. Desrosiers: Selected topics in column generation, Operations Research, 53(6), 1007-1023, 2005. M. Lübbecke: How to write a paper, blog post, 2014. M. Lübbecke: Are we too complicated? Communication of the Travelling Salesperson Problem in public, blog post, 2015. Podcasts S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung P. Vortisch: Verkehrsmodellierung I, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrsmodellierung-i K. Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Dickmann: Pumpspeicherkraftwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/pumpspeicher J. Wolf: Puerto Patida, das Rätselhörspiel zum Mitmachen, http://OhneQ.de, 2015-2016.

social media internet man personal fall mit revolution plan als computers dabei erfahrungen definition durch probleme seite ziel dazu damit beispiel suche bound erfahrung grenzen qualit universit basis kommunikation viele entscheidung auswirkungen entscheidungen praxis beim realit bereich wert hoffnung einsatz analyse diskussion vorteile programme branch zum programm zusammenhang daher daten werte optimal maximum minimum intelligenz aspekte ergebnisse wissenschaft begriff methoden technologie austausch python experimental finden gelegenheit institut gleichzeitig beh prozent forschung planung struktur feld industrie strukturen schreiben branches verlust konflikte modell wirklichkeit trennung prinzip konkurrenz abstand gebiet literatur kooperation existenz facetten ecke ebenen einladung einschr anwendung vordergrund zwar repr anzahl beschreibung voll relevanz verfahren in deutschland robust sichtweise mit hilfe das problem grunds bundestagswahl jedoch verkehr vorgehen betrachtung ecken karlsruhe analysen herangehensweise np toleranz zusammenspiel chemical engineering bestimmung daneben optimierung vernetzung gerrymandering resultat erstellung mathematik algorithmen sammeln verz mitmachen lach optimum heutzutage ausprobieren modellen kante elementen beweise pfad bezeichnung reduktion einhaltung pnv ein beispiel x press fakult rechnen eingriffe berechnung beschreibungen laufzeit lehrstuhl aggregation abschneiden schranken objekten mathematiker dualit routen operations research gitter forschende tu berlin clustering bahl begriffs verfahrens datenmengen treffens gau restriktionen schnitte im sinne wahlkreis absch abbildung rwth aachen variablen schnittmenge sensorik im kleinen netzes diplomarbeit gesichtspunkt modellierung gams die verwendung das verfahren eine strategie abstiegs fehlerquellen karlsruher institut forschungsgebiet werts graphen technologie kit versandh wahlberechtigten uni g zum gespr baums die optimierung marco l forschungsans international workshop mathematisch gegenbeispiele dieses verfahren tellerand reihenfolgen eine erweiterung fachgruppe springer berlin heidelberg polyeder ohneq nebenbedingungen sebastian ritterbusch teilprobleme diskretisierung modellansatz podcast relaxationen
Neues Terrain
Blind Orientieren

Neues Terrain

Play Episode Listen Later Sep 22, 2016 169:21


Gerhard Jaworek und Sebastian Ritterbusch sprechen über Hilfsmittel für Menschen mit Blindheit zur Unterstützung von Orientierung und Mobilität (O&M) von damals bis heute. Der Langstock ist das wichtigste Hilfsmittel in der Fortbewegung. Durch das Pendeln in der Bewegung wird etwa die Körperbreite abgetastet, unter anderem um Hindernisse zu erkennen und auch den Untergrund wahrzunehmen. Am Untergrund kann man Wegbegrenzungen und taktile Bodenindikatoren, die Bestandteil von Blindenleitsystemen sind, gut erkennen. Eine besondere Herausforderung ist das Überqueren von größeren Freiflächen und Plätzen, hier war der Blindenkompass ein sehr gutes Hilfsmittel: Frühere Modelle bestanden aus einer sich mit Magnetfeld zunächst frei ausrichtenden Platte, die zum Ablesen fixiert werden konnte. Auf der Scheibe sind die Himmelsrichtungen und weitere Unterteilungen durch Punktschrift aufgebracht. Zum Einhalten einer Richtung beim Überqueren eines Platzes kann man nun regelmäßig die gewählte Himmelsrichtung kontrollieren und sich bei Bedarf neu ausrichten. Sehr wichtig ist auch die Nutzung des Gehörs: Neben den Geräuschen der Umwelt können Schnalzlaute, Klicken oder Klatschen die Umgebung durch Echoortung erfahrbar machen und helfen, Ampelmasten, Abzweigungen und Eingänge zu finden. Inzwischen ist das Klicksonar wichtiger Bestandteil vieler Mobilitätstraining. Die Verwendung von GPS-Trackern hat sich auch früh als sehr hilfreich herausgestellt. Bis zum Jahr 2000 wurde das GPS-System im Zuge der Selective Availability absichtlich gestört und konnte für die Öffentlichkeit nur eine Genauigkeit von 100m erreichen. Für Blinde wurde GPS interessant, als diese Ungenauigkeit aufgehoben wurde. Mit sprechenden Trackern konnten Pfade aufgezeichnet und wiederholt werden. Außerdem konnten diese als Dateien anderen Personen zur Verfügung gestellt werden. Die einzelnen Punkte wurden jeweils mit Richtungsangaben, wie auf einem Ziffernblatt einer Uhr, vermittelt, z.B. „Bäcker XY in 200m auf 11 Uhr“. Das manuelle Setzen von Pfadpunkten erforderte dabei einige Überlegungen. Die Landmarken müssen stets eindeutig und gleichzeitig robust gegenüber Ungenauigkeiten des GPS sein. Ein weiteres verbreitetes Mittel waren auch taktile Karten und Globen- hier wurden und werden Karten fühlbar gedruckt oder gefertigt, damit sie erfahrbar werden. Leider sind diese oft recht groß und unhandlich, so dass sie nicht mobil sind. Einfache schematische Darstellungen, z.B. die Form einer Kreuzung, X-, Y- oder T-Kreuzung können von Mobilitätstrainern oder Begleitpersonen einfach auf die Hand oder den Rücken der blinden Person gezeichnet werden. Viele der früheren Hilfsmittel vereinen sich heute in aktuellen Smartphones- exemplarisch sprechen wir über die Features der Apple iPhones, die auf die eine oder andere Art auch auf Smartphones mit anderen Betriebssystemen und Hersteller umgesetzt sind. Im Falle der Apple-Produkte wird die Zugänglichkeit mit dem in das iOS-System integrierten Bildschirmleseprogramme VoiceOver realisiert. Sprachausgabe und veränderte Bedientesten machen dies möglich. Hier können blinde Personen sich beispielsweise Bedienelemente auf dem Touchscreen vorlesen lassen, bevor sie bei Bedarf ausgewählt werden. Ein nettes Feature von VoiceOver ist der sogenannte Bildschirmvorhang. Ist er aktiv, so wird die Beleuchtung ausgeschaltet, die Touch-Funktion bleibt aber erhalten. Somit kann der Akkuverbrauch gesenkt werden und blinde Benutzer können sich sicher sein, dass niemand unbefugtes in ihren Bildschirm schaut. Für die Eingabe von Texten bietet der Multitouch-Bildschirm mehrere Möglichkeiten- neben der ertastenden Methode des Tippens wie auf einer Tastatur mit sprachlicher Rückmeldung gibt es auch die Braille-Tastatur, bei der jedes Zeichen durch eine Drückkombination von sechs Fingern im Sinne des Braillezeichens erfolgt. Damit können Texte sehr schnell eingegeben werden. Eine weitere Alternative ist auch die Spracheingabe für Texte. Sehr passend sind dafür auch die neuen Entwicklungen bei Smartwatches, so ist beispielsweise die Apple Watch genauso mit VoiceOver zu bedienen und sie liefert bei vielen Anwendungen eine Bedienung des Smartphones ohne dieses aus der Tasche nehmen zu müssen. Zusätzlich sind haptische Signale, die Smartwatches liefern, eine große Bereicherung in der Signalisierung für Navigation und Anwendungen. Eine sehr hilfreiche App ist die mitgelieferte Kompass-App, die das Überqueren von Freiflächen und Plätzen deutlich vereinfacht- anstatt dass man beim mechanischen Kompass immer wiederholt die Richtung testet bekommt man hier kontinuierlich die Ausrichtung und damit die Gehrichtung vermittelt. Zusammen mit einem Vario kann man mit dem Kompass auch eine gute Orientierung als Mitfliegender im Segelflug erhalten. Einen Eindruck von einem Flug mit einem Motorsegler kann man in der ersten Folge des Omega Tau Podcasts erhalten, denn hier hört man nur und sieht nichts. Das soll nicht heißen, dass Blinde alleine ohne sehende Hilfe Segelfliegen können, aber Gerhard Jaworek fliegt mit Begleitung und navigiert und steuert nach Anweisungen des Piloten, des Marios und des sprechenden Kompasses. Auch für die Orientierung am Nachthimmel ist der Kompass sehr hilfreich, wie auch die App Universe2Go, zu der Gerhard Jaworek auch beigetragen hat. Universe2Go ist ein sprechendes Handplanetarium, mit dessen Hilfe blinde Menschen auch Objekte Himmel finden können. Weiterhin gibt es viele Navigations- und Orientierungsapps auf Smartphones. Sehr bekannt und populär ist die App BlindSquare, die aus der Open Street Map und Foursquare über die Umgebung informiert. Durch Filter nach Typen und Distanz werden alle bekannten Gebäude und Orte in Richtung und Entfernung in Sprache dargestellt. Dies hilft nicht nur der direkten Orientierung, sondern ermöglicht auch die Erstellung einer Mental Map bzw. kognitiven Karten Die Nutzung solcher akustischer Informationen ist natürlich nicht mit normalen Over-Ear oder In-Ear Kopfhörern möglich, denn der normale Hörsinn darf nicht blockiert werden. Hier sind Kopfhörer mit Knochenleitung und Bluetooth-Anbindung eine sehr gute Lösung, da sie die akustischen Signale und Sprachausgaben hörbar machen ohne das normale Hören zu behindern. Ergänzend zu Umgebungsinformationen sind Navigationslösungen ein wichtiges Hilfsmittel. Ein Beispiel ist hier die Lösung von Navigon, die neben einer Fußgängernavigation, einer guten Unterstützung über VoiceOver zusätzlich die Karten auch offline- also ohne Netzverbindung- zur Verfügung stellt. Die Mailingliste Apple-Freunde bietet eine gute deutschsprachige Plattform über die Zugänglichkeit von Apple-Produkten und Apps auf den mobilen Geräten. Eine kostenlose Navigationslösung ist die App ViaOptaNav, die durch große und kontrastreiche Bedienungselemente auch für Personen mit eingeschränktem Sehsinn leichter zu bedienen ist. Sehr schön ist hier auch der Routenüberblick, der im Vorfeld eine virtuelle Begehung des Weges ermöglicht. Zusätzlich können wie bei BlindSquare auch Umgebungsinformationen abgerufen werden, sie beschränkt sich aber auf die Informationen aus dem Kartenmaterial. Außerdem bietet diese App auch eine gute Anbindung an die Smartwatch. Ebenfalls gut an die Smartwatch angebunden ist die mit dem Smartphone mitgelieferte Navigationslösung von Apple. In manchen Fällen ist auch die Google Maps Lösung sehr hilfreich, besonders, wenn der öffentliche Nahverkehr in die Navigation mit eingebunden werden soll. Für das Aufzeichnen, Weitergeben und spätere Ablaufen von Wegen über GPS-Punkte bietet sich die iOS-App MyWay an. Es gibt sie in einer kostenlosen MyWay Lite Version und in der MyWay Classic in der auch Informationen über die Umgebung abgerufen werden können. Zum Mobilitätstraining gehört weiterhin die haptische Vermittlung von Kreuzungstypen und Karten. Zum Zeitpunkt der Aufnahme bietet Touch Mapper einen besonders interessanten Service: Nach Angabe einer Adresse und der gewünschten Auflösung kann man sich eine taktile Karte senden lassen. Alternativ kann man kostenlos ein 3D-Modell herunterladen, das man mit einem 3D-Drucker drucken kann. Viele der erwähnten Lösungen verwenden Kartendaten der Open Street Map (OSM), die durch die Zusammenarbeit vieler Menschen entstanden ist und frei zur Verfügung steht. Bisher kann diese freie Karte nicht überall mit der definierten Qualität von kommerziellen Kartenquellen mithalten, doch ist sie in manchen Bereichen sogar aktueller und genauer als die kommerziell erhältlichen Lösungen. Neben monatlichen Treffen bietet die Karlsruher OSM-Community auch halbjährlich größere Events an. Das nächste ist das Karlsruhe Hack Weekend 28.-30. Oktober 2016. Informationen über die öffentlichen Verkehrsmittel in der Umgebung erhält man beispielsweise über den Abfahrtsmonitor – hier können die nächsten Haltestellen mit den nächsten Verbindungen abgerufen werden. In Karlsruhe ist das Stadtbahnsystem etwas besonderes: Als erste Zweisystem-Stadtbahn der Welt konnten die S-Bahnen sowohl in der Stadt als auch auf Strecken der Bahn fahren. Für die Auswahl und Abfrage für Züge der Deutschen Bahn gibt es den DB-Navigator für eine Vielzahl von verschiedenen mobilen Plattformen. Die Deutsche Bahn bietet auch online buchbare Umstieghilfen an, die man mindestens einen Tag vor der Reise buchen kann. Letztlich können mit der MyTaxi App auch Taxis geordert und auch bezahlt werden. Eine besondere Lösung ist die App BeMyEyes, wo blinde Personen Anfragen stellen können, die von Sehenden über eine Videoverbindung beantwortet werden, z.B. ob die Kleidung farblich zusammenpasst, oder was der in die Kamera gezeigte Tetrapack enthält. Auch die fest installierte Foto-App auf dem iPhone ist mit VoiceOver bedienbar. Durch Rückmeldungen, wann und wo ein Gesicht zu sehen ist, können auch blinde Menschen zumindest Personen fotografieren. Das wird sich aber künftig sicherlich auch auf andere Gegenstände ausweiten. Ganz ohne Technik ist und bleibt der Blindenführhund für viele blinde Personen eine sichere und lebhafte Lösung für die individuelle und unabhängige Mobilität. Was ihn auszeichnet, ist z.B. die erlernte intelligente Gehorsamsverweigerung. Der Hund begibt sich und seinen blinden Besitzer niemals in Gefahr und verweigert einen Befehl, der eine derartige Situation herbeiführen würde.

art apple mit events iphone situation welt blind als app apps pl gps reise durch smartphones ganz hilfe damit qualit feature bis viele stadt neben sprache herausforderung technik personen zusammen sinne leider bewegung zusammenarbeit apple watches gefahr zeichen aufnahme richtung punkte entwicklungen gesicht umwelt methode plattform treffen bereichen auswahl geb mittel texte kamera geh zug zus bahn umgebung mobilit bestandteil navigation plattformen orte erg nutzung voiceover karten orientierung aufl inzwischen vielzahl kleidung typen distanz vorfeld begleitung hindernisse bisher zuge karte bedarf verbindungen flug modelle texten somit taxis ausrichtung tasche kopfh hersteller smartwatches weiterhin setzen gegenst apple iphone signale adresse kompass besitzer ebenfalls anwendungen erstellung hilfsmittel bildschirm platte foursquare fingern piloten vermittlung blinde xy alternativ bereicherung strecken einfache weges entfernung letztlich scheibe deutschen bahn ein beispiel untergrund anweisungen touchscreens nahverkehr pfade marios beleuchtung befehl darstellungen 3d drucker tastatur verkehrsmittel der hund dateien genauigkeit anbindung osm routen bedienung zum zeitpunkt pendeln blindheit platzes kreuzung klatschen weitergeben im falle fortbewegung benutzer nachthimmel die deutsche bahn eing globen openstreetmap klicken die verwendung himmelsrichtungen eingabe orientieren haltestellen magnetfeld abzweigungen vario aufzeichnen abfrage freifl apple produkte begehung gps system betriebssystemen s bahnen himmelsrichtung sehenden apple produkten sprachausgabe blindenf blindsquare kartenmaterial ungenauigkeiten ablesen in ear kopfh begleitpersonen ablaufen ungenauigkeit tetrapack in karlsruhe sehsinn 3d modell foto app bedienelemente unterteilungen spracheingabe einen eindruck navigon ziffernblatt kartendaten echoortung sprachausgaben sebastian ritterbusch gerhard jaworek
Modellansatz
Finanzen damalsTM

Modellansatz

Play Episode Listen Later Jun 23, 2016 128:38


Auf der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe trafen sich Stephan Ajuvo und Sebastian Ritterbusch für einen Cross-Over Podcast vom damals TM Podcast und dem Modellansatz Podcast um über die Geschichte von Finanzen und Mathematik zu plaudern. Der damalsTM Podcast befasst sich damit, wie es kam, dass es kam, so dass es ist, wie es ist- und hatte in der letzten Zeit schon eine Reihe zu Geld (Geld I, Geld II, Geld III), wo die Entwicklung der Zahlungsmittel bisher bis zum 2. Weltkrieg behandelt wurden. Die Ökonomie zählt zu den Sozialwissenschaften, die oft Theorien auf Annahmen behandeln, während die Mathematik als Geisteswissenschaft sich gerne auch mal sehr exakt mit Theorien fernab der Realität befassen kann. Die Kryptographie ist jedoch ein schönes Beispiel, wie aus abstrakten mathematischen Theorien der Algebra und der Zahlentheorie plötzlich sehr reale Anwendungen aus unserem Alltag wurden. Mit Kryptoanalyse konnte man sowohl einfache Transpositionschiffren als auch die Enigma durch mathematische Verfahren knacken. Bevor vereinheitlichte Geldeinheiten eingeführt wurden, waren schon früh Objekte mit Geldfunktion eingesetzt, wo oft die Seltenheit und Wertigkeit des Materials schon für sich einen gewissen Wert sicherte. Ebenso früh kam es zu Geldversprechen wie dem Agrarkredit (zurück bis hin zum Codex Hammurapi), mit denen jetzige Ausgaben durch versprochene spätere Erntegewinne beglichen werden konnten. Dies führte zum Konzept des Zinses, mit dem das Verlustrisiko durch Ausfall und die erst spätere Zugängigkeit des Geldes bewerten kann. Das Größenordnung des Zehnt war gesellschaftlich zwar als Steuer akzeptiert, wurde jedoch als Zins schnell als Wucher gesehen, da der Zinseszins sehr schnell anwuchs. Daraus entstand auch die Gegenbewegung des Zinsverbots, das auch heute noch im Islamischen Bankwesen zu Umgehungsgeschäften führt. Die mit Geldgeschäften oft assoziierten Geldwechsler hatten als Arbeitsmittel eine Bank, die namensgebend für unsere heutigen Banken ist, und woran das Wort bankrott auch heute noch erinnert. Neben astronomischen Berechnungen, wie der Berechnung des Osterfests, war die Geldwirtschaft früh ein großes Anwendungsfeld für die Mathematik. Ein wichtiges Berechnungsmodell waren die Abzinsung und die Zinsformel, mit der man die Werte zwischen jetzt und in Zukunft unter Berücksichtigung des Zinses umrechnen konnte. Hier war das exponentielle Wachstum der Kreditentwicklung unter Zinseszinsen für viele nicht zu übersehen. Aber selbst, wenn man diese Berechnung beherrschte, so gab es das Zinsänderungsrisiko, das besonders bei langfristigen Verträgen zu erheblichen Änderungen zu den Kalkulationen führen konnte. Verschiedene Zinssätze verschiedener Landesherren führte auch unmittelbar zu unterschiedlichen Wechselkursen zwischen den lokalen Währungen der Landesherren. Zusätzlich gab es schon früh den Effekt der Teuerung oder Inflation oft durch unkontrolliertes Geldmengenwachstum. Ein Beispiel ist hier die Inflation durch die Entdeckung Amerikas. Es war damals noch nicht klar, wie der tatsächliche Wert des Geldes auch durch einen Warenkorb identifiziert werden kann. Ein sehr grobes aber dafür sehr leicht zugängiges aktuelles Indiz für den Wert verschiedener Währungen ist der Big-Mac Index. Aus der Anforderung des waren- und ortsübergreifenden Handels wurden die Börsen geboren: Hier konnten Waren und Währungen im Jetzt, aber auch in der Zukunft in Termingeschäften gehandelt werden. Schnell etablierte sich hier auch die Spekulation, die über Risikoübernahme zu einem wichtigen Bestandteil der Wirtschaft wurde. Ein bekanntes Beispiel für eine Fehlentwicklung ist die Tulpenkrise, bei der es zu einer Finanzblase bis hin zum Börsencrash kam, und exemplarisch für spätere Immobilienblasen wurde. Die Effekte konnten durch Hebeleffekte noch verstärkt werden, wenn Fremdkapital für mehr erwartete Rendite eingesetzt wurde. Eine Renditebetrachtung ist auch für die persönliche Finanzplanung sehr wichtig- so sollte jeder die Altersvorsorge frühzeitig angehen und dabei Risikoklassen und die Diversifikation zur Risikoverteilung beachten. Aus der Erfahrung, dass viele Finanzprodukte und Anlageberater die zugrunde liegenden Indices oft nur in der Vergangenheit schlagen, haben sich Finanzcommunities wie The Motley Fool gebildet, um sich gegenseitig zu informieren. Mathematisch kann man die Optimalität einer Investition auch als Multikriterielle Optimierung zwischen Rendite und Risiko im Sinne der Volatilität verstehen: Hier stellt sich heraus, dass hier zwischen den Kriterien abgewogen werden muss, und es nicht ein Optimum gibt, sondern die Linie der Pareto-Optimalität. Jedoch darf man nicht einfach aus der vergangenen Entwicklung auf Rendite und Risiko schließen: Gerade Ponzi-Systeme scheinen eine hohe Rendite bei geringer Volatilität und Risiko zu liefern, wo die Zinsen früherer Anleger nur durch die Investitionen durch angelockte Neuanleger bezahlt werden, und was natürlich nicht ewig funktionieren kann, und viele werden ihren Einsatz verlieren. Plant man Investitionen in Güter, so sollte man daher genau recherchieren, wie es um den Gegenstand steht. Bei Immobilien gibt ist eine Begehung mit Fachpersonen möglich und ein Blick in Bodenrichtwertkarten ist sehr sinnvoll. Bei Aktien kann man hingegen auf Basis der veröffentlichten Informationen und Kennzahlen Fundamentalanalysen bilden. Alle diese Modelle sind aber immer Komplexitätsreduktionen, die irgendwann ihre Gegenbeispiel finden können und dann zu Geldverlust führen. Neben der schwierigen Bewertung von Aktien wird es richtig spannend, wenn notwendigerweise auch Termingeschäfte oder Derivate der Aktien oder Wirtschaftsgüter berücksichtigt werden: Diese werden im Markt unmittelbar benötigt, sind jedoch vom Basiswert und der allgemeinen Marktsituation abhängig. Optionen können auf der einen Seite Geschäfte absichern, können jedoch auf der anderen Seite bei einem hohem Hebel auch sehr spekulativ und entsprechend gefährlich sein. Für eine mathematische Bewertung von Optionen wird ein Markt mit Arbitragefreiheit vorausgesetzt, um andere künstliche Einflüsse auszuschließen. Dann können analytisch Optionskennzahlen (die Griechen) bestimmt werden, um aus dem komplexen Markt ein Gefühl für den Wert zu erhalten. Umgekehrt kann man aber auch konstruktiv eine Bewertung mit dem Cox-Ross-Rubinstein-Modell berechnen. Der Kursverlauf wird hier vereinfacht wie der Kugellauf durch ein Galtonbrett angenommen, wo eine Richtung für einen fallenden Kurs, die andere für einen steigenden Kurs steht. Dies führt im vereinfachten Fall zu einer Binomialverteilung oder im Grenzfall zu einer Normalverteilung der möglichen Kurse am Ende der Laufzeit. Damit kann die Option auf Basis von Volatilität und Rendite des Basiswerts mit einem diskreten Modell bewertet werden. Das vereinfachte Cox-Ross-Rubinstein-Modell lässt sich unter weiteren Annahmen immer feiner diskretisieren und man erhielt 1973 das Black-Scholes-Modell, wo nun in dieser stochastischen Differentialgleichung der Brownsche Prozess Anwendung findet. Der Brownsche Prozess ist der beobachteten zufälligen brownschen Molekularbewegung entlehnt. Aus diesem komplexen Modell können nun einfache geschlossene Formen für die Bewertung von vielen Optionenstypen berechnet werden, was 1997 zur Verleihung des renommierten Preises der Wirtschaftswissenschaften geführt hatte. Leider ergaben sich schnell Widersprüche in der Überprüfung des Modells am echten Markt: Es entsteht der Volatilitäts-Smile, der den Unterschied der Vorhersage zur tatsächlichen Situation darstellt. Interessanterweise trat der von Devisen bekannte Effekt bei Aktien erst nach dem Börsencrash von 1987 auf. Podcasts S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. W. Härdle: Risikobewertung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 41, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. S. Ajuvo, L. Schult: Geld I, Gespräch im damalsTM Podcast, Folge 2, 2015. S. Ajuvo, Steffen P., L. Schult: Geld II, Gespräch im damalsTM Podcast, Folge 5, und im VorHundert Podcast, Folge 18, 2015. S. Ajuvo, L. Schult: Geld III, Gespräch im damalsTM Podcast, Folge 21, 2016. L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine M. Fürst: Probabilistische Robotik, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik S. Ajuvo: Finanzen damalsTM, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm

fall situation bank plant zukunft inflation geschichte smile gef blick alltag option diese seite entwicklung damit beispiel erfahrung vergangenheit wort basis unterschied neben realit wert einsatz konzept markt reihe sinne leider werte materials wirtschaft richtung wachstum kurs bevor risiko schnell formen enigma zug zus modell linie bestandteil finanzen waren effekt daraus gestaltung einfl banken kriterien ebenso verfahren kurse vertr modelle steuer jedoch investitionen hochschule ausgaben optionen theorien karlsruhe komplexit aktien investition hebel anwendungen weltkrieg algebra mathematik altersvorsorge geldes optimum gegenstand zinsen widerspr objekte ausfall motley fool seltenheit rendite anleger verleihung handels ein beispiel annahmen marktes indices griechen fakult berechnung laufzeit spekulation vorhersage umgekehrt preises modells berechnungen interessanterweise volatilit zins zahlungsmittel indiz wertigkeit finanzplanung warenkorb anforderung diversifikation finanzprodukte entropia marktsituation gegenbewegung fremdkapital risikobewertung derivate karlsruher institut zkm zinseszins devisen fachpersonen wucher technologie kit begehung arbeitsmittel bei aktien anlageberater die effekte gegenbeispiel kalkulationen mathematisch geldgesch fehlentwicklung geldwirtschaft grenzfall basiswert zehnt zinses wirtschaftsg geldwechsler normalverteilung zinseszinsen ajuvo wechselkursen zahlentheorie berechnungsmodell landesherren sebastian ritterbusch binomialverteilung modellansatz podcast
Modellansatz
Probabilistische Robotik

Modellansatz

Play Episode Listen Later Jun 9, 2016 102:04


Einen fahrbaren Roboter zu bauen- das ist schon eine echte Herausforderung. Um diesem aber auch noch beizubringen autonom Aufgaben zu lösen, bedienten sich Michael Fürst und sein Team der Mathematik: Im Rahmen der Gulasch Programmier-Nacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung (HfG) und dem Zentrum für Kunst und Medien (ZKM) in Karlsruhe berichtete er über die Verfahren der Probabilistischen Robotik (Video) und welche Erfahrungen sie damit machen konnten- und erzählt uns im Gespräch mit Sebastian Ritterbusch davon. Michael Fürst studiert Informatik am Karlsruher Institut für Technologie (KIT) und befasst sich im Team Informatik der Hochschulgruppe Kamaro Engineering speziell mit robusten probabilistischen Methoden zur Entscheidungsfindung. Der aktuelle Roboter Beteigeuze der Hochschulgruppe ist die zweite Generation und wurde dafür ausgelegt, Aufgaben in der Überwachung und Bewirtschaftung von Maisfeldern oder der Navigation im urbanen Umfeld zu erfüllen. Die Hochschulgruppe gibt es seit 3 Jahren und besteht aus 30-45 Mitgliedern. Sie ist eingebettet in das Teilinstitut Mobile Arbeitsmaschinen (MOBIMA) am Institut für Fahrzeugsystemtechnik (FAST) am KIT mit dessen Unterstützung und Drittspenden sich die Hochschulgruppe finanziert. Die interdisziplinäre Hochschulgruppe besteht aus vier Teams: Das Organisationsteam, das Mechanik-Team, das Elektrotechnik-Team und das Informatik-Team. Die Gruppe organisiert sich auch als Verein mit Vorstand und einer Leitung in jedem Team, um mit einer flachen Hierarchie jedem die Möglichkeit zu bieten sich in das Projekt einzubringen. Auf der einen Seite will die Gruppe die autonome Robotik voranzubringen und allen Teammitgliedern gleichzeitig auch die Möglichkeit zu bieten, praktisches Wissen und Erfahrungen neben dem oft theoretischem Studium zu erlangen. Das Team nimmt dazu regelmäßig an verschiedenen internationalen Wettbewerben teil, wie dem Field Robot Event, dem SICK Robot Day oder der Robotour. Technisch basiert die Software-Lösung des Roboters inzwischen auf dem Robot Operating System (ROS), mit dem auf einer Ubuntu-Plattform auf einem im Roboter eingebauten Computer in Java, Python oder C++ die gestellten Aufgaben bearbeitet werden. Mit 40kg Gewicht ist der Roboter für seine Größe kein Leichtgewicht und kann daher nicht beliebig Batterien transportieren, so dass dem Lademanagement eine besondere Rolle zufällt. Die gewählte Größe ermöglicht gerade bei der Feldarbeit einen nicht-invasiven Ansatz, der im Vergleich zu anderen Varianten, wie der automatischen Steuerung von Traktoren, die Pflanzen nicht schädigt. Der Roboter erfasst seine Umwelt mit einer Vielzahl von Sensoren: Die Lidar-Sensoren zur Entfernungsmessung in verschiedenen Richtungen sind dabei besonders wichtig, und sie messen bis zu 50mal pro Sekunde. Sie bestimmen die Entfernungen zur Umgebung des Roboters in einer Ebene bis 16m in einer Auflösung von bis zu drei Messpunkten pro Winkel-Grad und 3cm Entfernungsauflösung- mit gewissen Fehlerraten und Problemen mit reflektierenden Oberflächen. Zusätzlich misst eine intertiale Messeinheit translative und radiale Beschleunigungen wie auch die Ausrichtung zum Erdmagnetfeld. Zusätzlich können auch digitale Kameras zur Detektion von befahrbaren Untergründen, Objekten oder zur Analyse von Pflanzen eingebaut und verwendet werden. Zusätzlich messen Radencoder die Umdrehungen und Auslenkung durch Servos der Räder, womit der Roboter durch Odometrie seine durchgeführte Bewegung aus sich selbst heraus abschätzt. Durch die Kombination der Lidar-Daten mit der Odometrie durch ein SLAM-Verfahren (Simultaneous Localization and Mapping) ermöglicht mit einem Kalman-Filter durch Analyse der Kovarianzen die robuste Erstellung einer Karte während des Befahrens, und korrigiert Fehler bei der eigenen Lokalisierung durch die Odometrie. Zusätzlich kann der Roboter mit einem GPS-Empfänger seine Position grob bestimmen. In der Auswertung der Sensoren wird zwar von einer guten Kalibrierung ausgegangen, jedoch ist es Teil des probabilistischen Ansatzes, die erfassten Werte immer mit einer konservativen Fehlerverteilung zu verarbeiten. Die Kamerabilder werden ebenso robust verarbeitet: Die Bilddaten werden nach einer Konvertierung in den HSV-Farbraum zunächst auf eine konstante Helligkeit gebracht, um Schatteneffekte zu reduzieren. Dann werden alle weniger farbigen Pixel als befahrbarer Weg markiert, und die Anzahl der befahrbaren Pixel pro Spalte in ein Histogramm zusammengeführt. Jeder Wert in dem Histogramm wird nun als Güte bzw. der Wahrscheinlichkeit für Fahrbahn in diese Richtung gewertet. Die GPS-Position wird zur Lokalisierung in der Open Street Map verwendet, wo nach Berechnung einer Route die aktuelle Zielfahrtrichtung bestimmt wird. Die eigentliche Entscheidungsfindung erfolgt dann auf Basis der verschiedenen Sensordaten durch die Berechnung von Erwartungswerten in Abhängigkeit von einer möglichen Fahrtrichtung. Genauer betrachtet werden für jeden Sensor Zielfunktionen über den erwarteten Nutzen unter Annahme des Fahrens in eine bestimmte Richtung berechnet, und anschließend der von der Fahrtrichtung abhängige Erwartungswert unter Annahme von Sensorungenauigkeiten und Fahrungenauigkeiten bestimmt. Im Falle der gewünschten Fahrtrichtung aus den GPS- und Kartendaten wird eine sehr breite Normalverteilung angesetzt, weil auch abweichende Richtungen noch einen Gewinn darstellen können, wenn sie zumindest etwas in die richtige Richtung gehen. Aus jedem Sensor ergibt sich pro Fahrtrichtung ein erwarteter Teilnutzen, und aus allen Teilnutzen wird der Gesamtnutzen als Produkt berechnet: Dadurch werden Teilnutzen von 0 sofort als Gesamtnutzen 0 gewertet, ansonsten aber geometrisches Mittel über die Teilnutzen gebildet. Die gewählte Fahrrichtung ergibt sich dann aus der Richtung, unter der sich das Gesamtmaximum des Gesamtnutzens ergibt. Die Verarbeitung der Sensordaten erfolgt typischerweise in der Geschwindigkeit, in der die Sensoren die Umgebung abtasten. In der Bildverarbeitung wird dies besonders durch die effizienten Routinen der verwendeten OpenCV-Bibliothek möglich. So sind bis zu 30 Entscheidungen in der Sekunde möglich, jedoch können die Motoren die Entscheidungen nur deutlich langsamer umsetzen. Es wurden auch weitere Verfahren zur Entscheidungsfindung getestet, wie die Verwendung von Clusteranalyse oder die Erstellung von Voronio-Diagrammen. Doch zeigte die robuste Entscheidungsfindung über Erwartungswerte bei der Navigation im urbanen Gebiet ihre Vorteile. Die beschriebene Entscheidungsfindung bezieht sich dabei bisher nur auf die Fahrtrichtung- die Fahrtgeschwindigkeit wird bisher nur von der freien Wegstrecke in Fahrtrichtung bestimmt. Dadurch verfolgt der Roboter im Normalfalle seine Ziele in Normgeschwindigkeit von 0.5-1m/s (er läuft und läuft und läuft), bremst aber, sobald er in die Gefahr gerät, sonst einen Menschen oder sich selbst zu beschädigen. Dadurch folgt der Roboter den Robotergesetzen von Asimov. Die Kommunikation im Roboter erfolgt über verschiedene Netze- der Lidar-Sensor wird beispielsweise über Ethernet angesprochen, die Entscheidungsfindung spricht mit den Hauptroutinen in der Recheneinheit über eine TCP-Verbindung, die Kommunikation von der Recheneinheit zum Masterboard erfolgt über USB als serielle Schnittstelle (UART), und das Masterboard gibt seine Steuerbefehle über einen CAN-Bus an Motoren und Servos weiter. Der Wettbewerb der Robotour 2015 fand in Tschechien in der Innenstadt von Pisek statt. Nach einer Qualifikation vor Ort gab es nach einer Testrunde eine erste Wettkampfrunde, in der die Roboter eine Lieferung von einem Parkplatz durch die gesamte Innenstadt über festgelegte Wegpunkte letztlich zu einem Restaurant bringen sollen. Obwohl der Testlauf noch erfolgreich war, litt der Roboter Beteigeuze der Gruppe in den ersten zwei Segmenten unter Abstürzen und lag damit auf dem letzten Platz. Nachdem der Fehler gefunden war, erreichte der Roboter im dritten Lauf als einziger das Segmentziel; und blieb im vierten Lauf zwar am Hintereingang des Restaurants hängen, war aber auch da gegenüber allen anderen Kandidaten bei weitem am nächsten am Ziel, und gewann so den Wettbewerb. Für einen Einstieg in die Robotik bieten sich Systeme wie Lego Mindstorms oder andere Roboterbaukästen an, aber auch Programmierspiele, wie sie Michael auch auf der GPN angeboten hat: https://github.com/Programmierspiele. Literatur und weiterführende Informationen M. Fürst: Probabilistische Robotik- Interessen eines Roboters als Nutzen formulieren und verarbeiten, Vortrag auf der Gulasch Programmier-Nacht GPN16, 2016. M. Fürst: Detecting Drivable Regions in Monocular Images, Robotour 2015, Autonomous Robot in Parks and Urban Regions, 2015. EKF-SLAM erklärt: Wie sieht ein Roboter die Welt? Robotour 2015 Vorgehensweise bei Kamaro GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

mit team generation restaurants position weg computers erfahrungen rolle gps durch parks seite wissen ziel route ort projekt einen kunst platz ziele basis kommunikation fehler entscheidungen herausforderung analyse mapping aufgaben vorteile nachdem bewegung umfeld gefahr werte vergleich richtung gruppe studium methoden problemen usb nutzen python umwelt produkt institut pixel java obwohl einstieg mittel ansatz ebene zus umgebung verein navigation zentrum gebiet literatur kombination lauf dadurch vortrag abh gewinn wettbewerb pflanzen aufl systeme vielzahl anzahl vorstand gewicht leitung verfahren routinen kandidaten karte oberfl roboter ausrichtung hochschule geschwindigkeit verwendung karlsruhe sekunde wahrscheinlichkeit varianten sensor annahme genauer mitgliedern richtungen abst erstellung mathematik das team kameras asimov auswertung innenstadt vorgehensweise tschechien informatik qualifikation batterien parkplatz ethernet steuerung lieferung hierarchie fakult berechnung sensoren robotik netze motoren technisch die gruppe servos objekten wettbewerben softwarel die kommunikation ansatzes michael f im falle traktoren openstreetmap teammitgliedern entropia spalte helligkeit entfernungen testlauf fahrbahn fahrens karlsruher institut segmenten der wettbewerb bewirtschaftung lokalisierung lego mindstorms untergr technologie kit detektion gpn bildverarbeitung roboters wegstrecke umdrehungen leichtgewicht konvertierung can bus fahrtrichtung erdmagnetfeld feldarbeit die verarbeitung kalibrierung hochschulgruppe normalverteilung gps empf erwartungswert hintereingang beschleunigungen recheneinheit wegpunkte kartendaten clusteranalyse histogramm fehlerraten medien zkm sebastian ritterbusch messeinheit gestaltung hfg auslenkung modellansatz podcast messpunkten
Modellansatz
Cooking Math

Modellansatz

Play Episode Listen Later Feb 11, 2016 42:56


Mathematik mit Kunst und Design erklären- das war ein Ziel des Kurses von Jill Enders und Chris Spatschek im Cooking Math-Projekt über das uns die beiden im Gespräch mit Gudrun Thäter und Sebastian Ritterbusch berichten. Jill und Chris haben an der Hochschule für Gestaltung (HfG) Karlsruhe studiert und mit Science Vision dort ihr Diplom abgeschlossen. Bei Science Vision ging es darum, dass Wissenschaftler und Designer für je eine 10-minütige Präsentation zusammen gebracht wurden, wo die wissenschaftlichen Inhalte ansprechend dargestellt wurden. Das Thema war Jill gut bekannt, da sie das Design der sehr erfolgreichen Science Slams ihrer Schwester Guilia Enders entworfen hatte und schließlich auch die Illustrationen im Bestseller Darm mit Charme erstellte. Im Rahmen des SFB für Wellenphänomene gab es dann die Initiative ein entsprechendes Projekt als Kurs an der HfG für Doktoranden an der Fakultät für Mathematik zu starten. Im Gegensatz zur Science Vision wurde hier die Art der Darstellung offen gelassen. Gestartet hat das Projekt mit Workshops, bei denen die Designergruppen in die mathematischen Inhalte von den Doktoranden eingeführt wurden. Im Anschluss arbeiteten die von Jill und Chris betreuten Teams aus meisst zwei Designern und einem Mathematiker in Kleingruppen selbstständig. Eine erste Vorführung der Ergebnisse gab es beim Sommerloch der HfG und die Schlusspräsentation fand anlässlich des 16. Science Slam in Karlsruhe am 5. November 2015 im Jubez Karlsruhe statt. Eine Ausstellung im Kollegiengebäude Mathematik (und eine weitere Kooperation mit dem SFB) ist für das Jahr 2016 geplant. Literatur und Zusatzinformationen Desiree Kabis und Wendy Fox: GRAFIK/NUMERIK, Formeln verwandeln sich in famose Formen, Hochschule für Gestaltung Karlsruhe (HfG), Karlsruher Institut für Technologie (KIT), Cooking Math, 2016. SFB 1173 Wellenphänomene: Analysis und Numerik, Karlsruher Institut für Technologie (KIT), 2015. J. Enders, C. Spatschek: Science Vision Conference, Hochschule für Gestaltung Karlsruhe (HfG), Kalsruher Institut für Technologie (KIT), Universität Heidelberg, 2013.

Modellansatz
Incredible Proof Machine

Modellansatz

Play Episode Listen Later Jan 21, 2016 177:07


In den Räumen des Entropia e.V. traf sich Joachim Breitner mit Sebastian Ritterbusch, um ihm von Computerbeweisen und der Incredible Proof Machine (http://incredible.pm/) zu erzählen. Diese hatte er mit Unterstützung von Kollegen und Freunden für einen dreitägigen Workshop im Oktober 2015 am Science College Jülich mit Schülerinnen und Schülern im Start-Stipendium für motivierte und neu zugewanderte Jugendliche in Mittel- und Oberstufe unter Unterstützung der Deutsche Telekom Stiftung entworfen. Der mathematische Beweis ist grundlegender Bestandteil der Mathematik und die Technik des Beweisen wird im Mathematik- oder Informatikstudium vielfach geübt, wie es auch im Modell036 Podcast zur Analysis beschrieben wurde. Dennoch wird das wichtige Thema nur selten in der Schule angesprochen, da korrekte Beweise sehr formal und abstrakt sind. Mit einem spielerischen Zugang wird der Einstieg in die exakte Beweistheorie für Schüler und Mathematik-Interessierte nicht nur möglich, sondern ermöglicht auch neue Formen der Lehre wie den Modell051 Flipped Classroom. Beweise gehen von bestehenden Aussagen und festgelegten Axiomen aus, um neue Aussagen oder Erkenntnisse zu belegen. Von der Aussage "es regnet" kann man beispielsweise mit einem fiktiven Axiom "wenn es regnet, werden Straßen nass" schließen, dass gilt: "die Straße ist nass". Und man kann daraus mit der Technik des Widerspruch-Beweis zeigen, dass aus der Aussage "die Straße ist trocken" folgt, dass "es regnet nicht" gilt. Denn (und das ist der Beweis), würde es regnen, so wäre die Straße nass, also nicht trocken. Wann ist aber nun ein Beweis richtig? Diese Frage kann sich jeder selbst beantworten, in dem man einen vorliegenden Beweis versucht nachzuvollziehen. Eine Alternative ist die Beweisprüfung mit dem Computer, wie beispielsweise mit Isabelle. Diese Art von Software richtet sich allerdings in erster Linie an fortgeschrittene Nutzer und setzt Kentnisse in sowohl in der Logik als auch in der (funktionalen) Programmierung voraus, und so suchte Joachim nach einer einfachereren Methode, beweisen zu lernen und die Ergebnisse maschinell zu prüfen. Mit der von ihm kreierten Incredible Proof Machine werden Beweise durch Ziehen und Setzen bildlich erstellt, in der Form eines Graphen. So wird das Beweisen zu einem Puzzle-Spiel mit Erfolgserlebnis, das man nach und nach lösen kann, ohne dabei die exakte Mathematik zu verlassen. In dem Spiel gibt es viele Aufgaben, die zu lösen sind. In der Übersicht sind diese in Lektionen geordnet und zeigen jeweils durch einen breiten Strich, dem Inferenzstrich getrennt, von welchen Aussagen oben man welche Aussagen unten beweisen soll. Wählt man eine Aufgabe aus, so sieht man die gegebenen Aussagen, die oberhalb des Striches waren, als Quellen auf einem Arbeitsblatt. Die zu beweisenden Aussagen erscheinen als Senken. Von den Quellen kann man nun per Maus Verbindungen zu den Senken ziehen- entweder direkt, oder mit Hilfe zusätzlicher Blöcke, bzw. gegebener Beweisregeln, aus einer Toolbox links, die ebenfalls zur Verfügung stehen und weitere gegebene Axiome darstellen. Sind alle offenen Senken bewiesen, so leuchtet unten eine Zeile grün auf, als Bestätigung für einen geschafften Level- eine positive Bestärkung, die nicht ganz so spektakulär ist, wie bei Populous. Während man auf dem Arbeitsblatt spielt, gibt die Incredible Proof Machine unmittelbar Rückmeldung, falls eine Verbindung so keinen Sinn macht: Will man die Aussage B mit Aussage A beweisen, so wird die Linie zwischen den beiden sofort rot, und gibt dem Spielenden die Hilfestellung, wo mindestens ein Fehler steckt. Die logischen Aussagen und die gegebenen Beweisregeln verwenden eine gängige Notation zur Beschreibung logischer Verknüpfungen. Ein ∨ (sieht wie der kleine Buchstabe v aus), steht für die logische Oder-Verknüpfung und die Notation stammt vom lateinischen Wort vel. Das umgekehrte Symbol ∧ steht für die logische Und-Verknüpfung. In der ersten Lektion gibt es zwei Blöcke bzw. Beweisregeln für die Und-Verknüpfung: Einmal ein Block mit zwei Eingängen X und Y und einem Ausgang X∧Y, sowie einem Block mit einem Eingang X∧Y und zwei Ausgängen X und Y. Die Lektion 1 behandelt damit den grundlegenden Umgang mit dem System und die Konjugation. Die Lektion 2 führt die Implikation ein. Eine Implikation, oder auch Folge, beschreibt die Aussage, dass aus einer Aussage eine zweite zwingend folgt. Zur Anwendung einer Implikation gibt es in dieser Lektion eine Beweisregel, die eine Implikation anwendet. Ein weiterer Block ermöglicht eine Implikation zu erzeugen, in dem die Vorbedingung in einem Einschub angenommen bzw. angeboten wird, und man daraus das Zielereignis dann herleiten muss. Die Prüfung der Beweise in der Incredible Proof Machine erfolgt durch einen Beweisprüfer in Haskell, einer funktionalen Programmiersprache, die auch schon im Modell047 Podcast zum Tiptoi zur Sprache kam. Der Beweisprüfer wurde mit ghcjs nach JavaScript kompiliert und läuft damit komplett im Browser. Über einen Compiler von Haskell zu Redstone wie in dem Modell056 Podcast zu Minecraft ist leider noch nichts bekannt. Ein lehrreicher Zusammenhang ist hier, dass aus logischer Sicht Implikationen vollkommen korrekt sind, wenn die rechte Seite wahr ist – ohne dass ein ursächlicher Zusammenhang bestehen muss. Wenn also jemand nach Einnahme von offensichtlich unwirksamen Mitteln gesund geworden ist, so ist der logische Schluss, dass nach der Einnahme die Person gesund ist, korrekt. Doch darf man daraus keinesfalls schließen, dass die unwirksamen Mittel dafür der Grund gewesen wären. Das ist ein ähnlicher Fehlschluss wie Cum hoc ergo propter hoc – aus Korrelation folgt keine Kausalität. Die Lektion 3 führt die Disjunktion bzw. Oder-Verknüpfung mit drei neuen Beweisregeln-Blöcken ein, zwei zur Erzeugung einer Aussage mit einer Disjunktion, eine zur Zerlegung einer Disjunktion. Interessant ist dabei besonders die Zerlegung der Disjunktion, da sie auf eine Fallunterscheidung führt. Man kann auch frei weitere Aufgaben innerhalb der Incredible Proof Machine für sich selbst hinzufügen, neue Vorschläge aber auch auf Github einreichen. Die Lektion 4 behandelt die abstrakte falsche Aussage ⊥. Aus dieser kann man alles folgern, ex falso quodlibet, was dann auch in der ersten Aufgabe zu zeigen ist. Eine besondere Notation ist dabei, dass aus einer Aussage falsch folgt, wie A→⊥. Dies bedeutet einfach nur, dass A nicht gilt, also falsch ist – die Negation von A. In Lektion 5 verlassen wir dann die intuitionistische Logik, die von einer konstruktiven Mathematik ausgeht, hinein in die allgemeinere klassische Logik. Hier wird die Beweisregel vom ausgeschlossenen Dritten (tertium non datur) eingeführt. Dabei sind konstruktive Beweise, die also ohne tertium non datur auskommen, leichter automatisiert zu führen. Für die Aussage "Es gibt eine irrationale Zahl, die mit einer irrationalen Zahl potenziert rational ist" gibt es als Beispiel einen nicht-konstruktiven Beweis: Entweder ist Quadratwurzel von 2 mit sich selbst potenziert rational, oder spätestens das Ergebnis potenziert mit der Quadratwurzel von zwei ist rational, denn das ist 2. Es ist nicht klar, welche Basis die Lösung ist, sondern hier nur, dass es eine der beiden ist. Einen Zusammenhang von der konstruktiven Logik zur Programmierung liefert die Theorie der Curry-Howard-Korrespondenz – man kann Programmieren auch als eine Art Beweisen sehen, und daher sind auch ähnliche graphische Darstellungen als Flussdiagramm möglich. In Lektion 6 werden Quantoren und Prädikate eingeführt. Man kann hier beispielsweise zeigen, wann der Existenzquantor und der Allquantor vertauscht werden dürfen: Die Lektion 7 behandelt zwei weitergehende Beispiele, die auch umgangssprachlich verständlich sind: Die erste Aufgabe behandelt das Bar-Paradox: Hier gilt es zu beweisen, dass es in jeder nicht-leeren Bar immer eine Person gibt, dass wenn sie trinkt, alle in der Bar trinken. Die zweite Aussage lautet: Wenn jeder Mann einen reichen Vater hat, dann gibt es einen reichen Mann mit einem reichen Großvater. Die klassische Aussagenlogik kann aber auch über andere Kalküle definiert werden: So demonstriert die Incredible Proof Machine die Verwendung des Hilbert-Kalküls und das NAND-Kalküls. Während das Hilbert-Kalkül besonders theoretisch verwendet wird, liefert das NAND-Gatter als einfacher Logikbaustein Anwendungen bis hin zum Volladierer aus NAND-Gattern. Man kann auch jederzeit neue Beweisregeln oder Lemmas definieren, in dem man alle Bausteine logischer Diagramme mit offenen Ein- und Ausgängen mit gedrückter Shift-Taste anwählt und links zu einem neuen Baustein zusammenführt. Das folgende Bild zeigt die Definition des Beweis durch Widerspruch, und die anschließende Verwendung zu Lösung einer Aufgabe in Lektion 5: Im Gegensatz zur Incredible Proof Machine soll die Software Isabelle nicht vom Nutzer verlangen, alle Beweise selbst zu führen, sondern unterstützt dabei, Beweise auf einem hohen Abstraktionsgrad zu formulieren und zu beweisen. Ein kleines Beispiel für die Nutzung von Isabelle ist der humorvolle Versuch das allgemeine Dreieck zu definieren – und letzlich die eindeutige Existenz zu beweisen. Eine wichtige Anwendungen für Computerbeweise ist die formale Prüfung und der Beweis von Computersoftware, wie sie beispielsweise durch die Launchbury Semantik möglich wird. Sehr bekannt ist die Nutzung von rechnerunterstützten Beweisen für das Vier-Farben-Problem, das Hermann Minkowski in einer Topologie-Anfängervorlesung vergeblich versuchte nebenbei zu lösen. Der erste Beweis war noch sehr umstritten, da die Korrektheit der verwendeten Software nicht gesichert war. Erst mit einer formalen Prüfung in Coq wurde der Beweis 2005 allgemein akzeptiert. Eine andere gängige Methode ist auch die Verwendung spezialisierter Verifikationsnumerik, um die Existenz von Lösungen zu beweisen, wie dies auch im Modell019 Podcast zum computerunterstützten Beweisen behandelt wird. Auch die dichteste Kugelpackung, bzw. die Keplersche Vermutung, wurde erst 1998 mit Computerhilfe bewiesen, der zunächst ebenso umstritten war. Erst mit dem Projekt Flyspec konnte 2014 die Korrektheit des Beweises formal bewiesen werden. Im Hintergrund der Aufnahme hört man den Freifunk Karlsruhe, der parallel zu unserem Gespräch ein Treffen in den Räumen des Entropia e.V. hatte. Kinder und Jugendliche, die sich für Programmieren interessieren, sollten sich ein CoderDojo, wie das CoderDojo in Karlsruhe, genauer ansehen. Literatur und Zusatzinformationen Einführender Blog-Eintrag zur Incredible Proof Machine mit einer Sammlung von ähnlichen Projekten. J. Breitner: The Correctness of Launchbury's Natural Semantics for Lazy Evaluation, arXiv preprint arXiv:1405.3099, 2014. J. Breitner: The Safety of Call Arity, Archive of Formal Proofs, 2015. J. Breitner: Formally Proving a Compiler Transformation Safe, Haskell '15 Proceedings of the 2015 ACM SIGPLAN Symposium on Haskell, Pages 35-46, ACM New York, NY, USA, 2015. T. Nipkow, L. Paulson, M. Wenzel: Isabelle HOL- A Proof Assistant for Higher-Order Logic, Springer-Verlag, 2015. Podcasts T. Schwentick: Logik, Gespräch mit N. Ludewig im Omega Tau Podcast, Folge 101, Omega Tau, 2012. http://omegataupodcast.net/2012/08/101-logik/ D. Rütters: Computerunterstütztes Beweisen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 19, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/beweisen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Breitner: Papierrechner, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 47, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/papierrechner C. Spannagel: Flipped Classroom, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom F. Gilges: Spielcomputer, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 56, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/spielcomputer

united states man pr system ny mit thema software computers proof incredible dabei kinder bar workshop definition grund gro diese seite hilfe sinn beispiel umgang wann analysis spiel wort bild minecraft basis fehler stra schule sprache pages archive technik verbindung aufgabe schluss erkenntnisse vater aufgaben erst freunden zusammenhang aufnahme kollegen ergebnisse ergebnis dennoch methode beispiele zugang einmal treffen symbol einstieg github mittel formen aussagen zahl versuch jugendliche theorie toolbox diese frage linie projekten bestandteil aussage literatur javascript existenz nutzung browsers vorschl joachim quellen lehre beschreibung beweis mitteln proceedings verwendung nutzer karlsruhe sammlung setzen strich interessant widerspruch anwendungen cum logik mathematik lektionen im gegensatz ziehen haskell axiom lektion paulson baustein beweise bausteine die pr verkn dritten kalk hilfestellung programmieren fakult einnahme programmierung darstellungen dreieck notation redstone beweisen diese art senken zeile compiler im hintergrund populous coq erzeugung eine alternative korrelation negation arxiv korrektheit eing kausalit buchstabe oberstufe erfolgserlebnis entropia springer verlag karlsruher institut ausg blogeintrag programmiersprache coderdojo spielenden informatikstudium arbeitsblatt graphen technologie kit diagramme einschub ludewig axiome fehlschluss zerlegung konjugation beweises implikation omega tau vorbedingung zur anwendung aussage es computersoftware computerunterst abstraktionsgrad omega tau podcast sebastian ritterbusch computerhilfe modellansatz podcast
Modellansatz
Nullnummer

Modellansatz

Play Episode Listen Later Dec 3, 2015 86:52


Die Nullnummer eines Podcasts behandelt die Hintergründe, Themen und Motivation für die Reihe. Dazu ist Nele Heise zu Besuch nach Karlsruhe gekommen, und spricht mit Gudrun Thäter und Sebastian Ritterbusch über Podcasts, Wissenschaftskommunkation und den Modellansatz. Nele Heise, M.A., (@neleheise) ist freie Medienforscherin, Mitglied der Graduate School am Research Center Media and Communication Hamburg und beschäftigt sich in ihrem Promotionsprojekt mit den technischen und sozialen Rahmenbedingungen von Podcasting. Von 2005 bis 2011 studierte sie Kommunikationswissenschaft an der Universität Erfurt und war anschließend bis Sommer 2014 wissenschaftliche Mitarbeiterin in dem DFG-Projekt 'Die (Wieder-)Entdeckung des Publikums' am renommierten Hans-Bredow-Institut für Medienforschung an der Universität Hamburg. Als freie Medienforscherin setzt sie sich in Vorträgen, Gastartikeln, Workshops oder Paneldiskussionen mit Prozessen und Folgen des digitalen Wandels, ethischen Aspekten der Onlinekommunikation oder medialer Teilhabe auseinander. Nele kommt ursprünglich aus der freien Radio-Szene und hat 2003/2004 die Thüringen-Redaktion der Jugendzeitschrift SPIESSER aufgebaut. Im Haus der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT) befindet sich auch das Nationale Institut für Wissenschaftskommunikation (NaWik) und Nele Heise wurde von Prof. Dr. Annette Lessmöllmann eingeladen, im assozierten Master-Studiengang Wissenschaft - Medien - Kommunikation vorzutragen: In Wissen to Go (Folien) stellte sie die Frage: "Was hat Wissenschaftskommunikation mit Podcasts zu tun?". Sie kam neben der Einführung in Podcasts und aktuellen Themen der Wissenschaftskommunikation zu Formaten, die von Wissenschaffenden selbst getragen werden. Besondere Beispiele waren hier Methodisch inkorrekt, der KonScience Podcast und natürlich auch der BredowCast, der mit von ihr initiiert wurde. Diese Darstellung der Wissenschaft, fernab von Hierarchien, sieht sie als ein Produkt des Digitalen Wandels, das zeigt, welche neuen Rollen und Modelle sich in der Wissenschaftskommunikation etablieren könnten. Der Podcast SciComm – wissen, was läuft von den Studierenden des Studiengangs befasst sich entsprechend offensiv mit den aktuellen Themen der Wissenschaftskommunikation und dem Bild der Wissenschaft in den Medien: In SciComm Folge 2 im Gespräch mit Dr. Sven Stollfuß geht es um die Nerds in Big Bang Theory oder CSI und das daraus resultierende Bild der Wissenschaft. Für den Modellansatz Podcast war der von der DLR und ESA ins Leben gerufene Raumzeit Podcast ein prägendes Element, in dem die Gespräche komplexe Themen nicht scheuen oder simplifizieren, sondern sie in der erforderlichen Breite spannend erklären und so die Hörerschaft ernst nehmen. Dieser Ansatz scheint sich auch daran zu bestätigen, dass das vergleichsweise komplizierte Thema der L-Funktionen in der Zahlentheorie eine der gefragtesten Folgen des Modellansatz Podcasts ist. Dies steht im erstaunlichen Widerspruch zum Selbstverständnis der Wissenschaft in abstrakteren Themenbereichen, bei denen oft von einem Desinteresse der Öffentlichkeit ausgegangen wird. Viele Gesprächspartnerinnen im Podcast sind am Ende positiv über die Art der Themenbehandlung überrascht, und das liegt sicher auch an den Eigenheiten des besonderen Mediums. Der Podcasts ist laut Tim Pritlove das "mit Abstand persönlichste Medium überhaupt". Der Raum für Fragen, für die Themen selbst statt Klischees, erleichtert die Kommunikation für die Wissenschaffenden ungemein. So werden auch Ideen, Fehlschläge und überraschende Ansätze der Forschenden zu einem faszinierenden und lehrreichen Kommunikationsthema im Gegensatz zu Publikationen oder vereinfachenden Zusammenfassungen, die sich oft nur auf Resultate reduzieren. Gleichzeitig wird den Forschenden auf eine sehr menschliche Art die Möglichkeit geboten, über ihre mathematischen Ideen, die Faszination und Ergebnisse ihrer Arbeit zu sprechen. Dies trifft natürlich auch auf andere Forschungsgebiete zu, wie beispielsweise Daniel Meßner in den Stimmen der Kulturwissenschaft demonstriert. Auch beim BredowCast oder beim Forschergeist werden die Forschenden im Gespräch mit ihren vielfältigen Facetten und Interessen in natürlicher Weise zum Medium dargestellt. Daher waren die Forscherinnen, Absolventen und Lehrenden für den Modellansatz schon von Anfang an ein Schwerpunkt für die Auswahl der Gespräche. So fanden Themen der aktuellen Wissenschaft und faszinierende Abschlussarbeiten ihren Weg in den Podcast. Aber auch in der Lehre kann der Podcast die traditionellen Angebote unterstützen und häufige Fragen aus Sprechstunden im Dialog sehr zielgerichtet adressieren. Hier ist die Interaktion mit dem Podcast ein spannendes Thema, und Frameworks wie Podlove bieten eine umfassende Lösung, wie Publikation und Feedback für Podcasts gelöst werden kann. Ein Podcast aus der Praxis der Forschung und Lehre bietet auch die Chance, einen ausgewogeneren Einblick in die Realität der Wissenschaft zu liefern: So sprechen im Modellansatz neben Professorinnen auch junge Absolventinnen und Schüler. Dies bietet einmal einen größeren Grad an Identifikation und dies passt auch gerade zu den Ergebnissen der ARD/ZDF-Onlinestudie 2015, die eine höhere Podcastnutzung gerade bei jüngeren Personen aufzeigt. Ebenso zeigt der Podcast den selbstverständlichen Querschnitt von Frauen wie Männern in der Wissenschaft. Auch in der allgemeinen Podcastlandschaft werden die Frauenstimmen immer zahlreicher, wie die von Nele Heise initiierte Liste zeigt, die von der Hörsuppe in ein Flattrboard gebracht wurde: Frauenstimmen im Netz - die Podcasterinnen-Liste. Leider haben Podcasts in der deutschsprachigen Wissenschaftskommunikation noch keinen hohen Stellenwert, obwohl das Medium einzigartige Vorteile besitzt, wie Henning Krause im Beitrag Wissenschaft auf die Ohren: Audiopodcasts beschreibt. Hier können kuratierte Angebote wie die Wissenschaftspodcasts-Seite (@wisspod) den Einstieg erleichtern und die Verbreitung der Angebote im Wissenschaftsraum fördern. Das soll natürlich auch alle interessierten in der Wissenschaft motivieren, selbst das Mikro in die Hand zu nehmen und über ihre Berufung zu sprechen - denn wer kann authentischer die eigene Motivation, Ideen und Ergebnisse vermitteln als man selbst? Für den Start gibt es viele Anlaufpunkte, wie das Sendegate, das jährliche Wissenschaftspodcaster Treffen #GanzOhr, die Podlove Podcaster Workshops oder Podcast MeetUps in der Nähe. Die Community bietet viel Unterstützung, und so war Toby Baier beispielsweise eine große Hilfe beim Start des BredowCast. Eine Besonderheit von Podcasts ist auch die Verknüpfung des gesprochenen Worts mit den Sendungsnotizen oder Shownotes. Gerade in der Wissenschaft haben Referenzen einen hohen Stellenwert: Es geht hier um Sichtbarkeit, die Herstellung des Kontexts, die Vernetzung mit weiteren Quellen und die Belege für Aussagen. Dies kann und sollte daher in wissenschaftlichen Podcasts eine besondere Aufmerksamkeit erhalten: Neben der traditionellen Referenzierung können sprachliche Ungenauigkeiten detailliert oder korrigiert werden, und die im erwünscht flüssigen Gespräch schwierigen Querverweise nachträglich im Text erfolgen. Letztlich bieten die Texte auf dem Stand der Technik von Suchmaschinen noch eine besonders gute Auffindbarkeit der sonst schwer durchsuchbaren Audiodateien. Eine weitere interessante Ergänzung ist die Erstellung von EBooks, wie Helfrich et al. in Visualization of lithosphere subduction: application to the mantle evolution beneath the Japanese Islands demonstrieren. Hier können schriftliche Medien mit Videos und Tonmedien interaktiv zum erlebenden Lernen zusammengeführt werden. Gerade im Bereich der Lehre können Podcasts den Studierenden und den Lehrenden große Vorteile bringen: Neben dem Ansatz im Flipped Classroom das passive Lernen nach Hause und das aktive Lernen in die Vorlesung zu bringen, haben sich schon die Zusammenfassungen von ganzen Vorlesungen sehr bewährt. Im Modellansatz gibt es dazu die Beispiele der Vorlesungen zur Analysis oder die digitalen Währungen. Dabei sind die Folgen aber keine traditionellen Vorlesungsmitschnitte, sondern spannende Gespräche mit Dozent oder Übungsleiter, wo durch die Unterhaltung die Motivation deutlich steigt. Dabei müssen natürlich nicht alle Darstellungen so spektakulär sein wie das Intro der Folge 62 von Methodisch Inkorrekt (mit dem Reinhard Remfort nichts zu tun hatte). Für den Spracherwerb und auch zur Behandlung von Trauma- und Suchtpatientinnen haben sich Audiopodcasts als begleitendes Medium bewährt und es gibt in der Artikelliste von Nele Heise zum Thema Podcasts wissenschaftliche Studien zu diesem Thema. Interessant sind auch Podcast-Konzepte mit einem vordefiniertem Umfang, wie beispielsweise dem Grounded Theory Podcast (Grounded Theory auf Soundcloud). Die Gespräche werden von den Stimmen getragen - seien es so erfahrene Podcasterinnen wie Annik Rubens oder der Wissenschaftler, der zuvor nie in ein Mikro gesprochen hat - sie alle stellen die Vielfalt der Mitwirkenden dar. Gerade im Audiopodcast werden unterschiedliche Stimmen sehr offen aufgenommen und bieten einen viel tieferen persönlichen Bezug zwischen Hörerin und Sprecherin. Der Blick in die USA zeigt, welchen Stellenwert Podcasts in der Gesellschaft haben können, der sich laut Marco Arment auch noch deutlich erweitern wird. Auch die Entwicklung der Wissenschaftskommunikation ist laut dem SciComm Gespräch mit Prof. Scheufele deutlich weiter. Was sich von diesen Entwicklungen in den deutschsprachigen Raum überträgt, wird sicher auch auf die Wissenschaftspodcasts einen großen Einfluss haben. Literatur und Zusatzinformationen Nele Heise: Podcast Forschung, 5. Podlove Podcaster Workshop, Berlin, Mai 2015. Nele Heise: Forschungserkenntnisse zur Hörerschaft von Podcasts, 6. Podlove Podcaster Workshop, Berlin, November 2015. Vorträge von Nele Heise auf Slideshare Nele Heise: Studien und Artikel zum Thema Podcasts / Podcasting Forum Wissenschaftskommunikation 2015: Der kommunizierende Wissenschaftler- das (un)bekannte Wesen

united states art stand podcasts motivation trauma berlin podcasting leben prof soundcloud thema videos medium weg als nerds arbeit dabei frauen ebooks anfang entwicklung sommer hilfe dazu gesellschaft hamburg ideen einblick raum analysis universit weise bild medien kommunikation hause neben praxis realit einfluss gerade lernen bereich workshops besuch esa technik personen element reihe liste vorteile leider grad visualizations bezug aufmerksamkeit daher einf ergebnisse entwicklungen wissenschaft ans stimmen hintergr produkt beispiele netz mitglied gleichzeitig dialog einstieg rollen auswahl forschung unterhaltung texte ansatz graduate schools vielfalt aussagen angebote studien big bang theory abstand berufung wesen literatur erg mikro interessen facetten selbstverst csi faszination vortr frameworks behandlung quellen nele lehre wissenschaftler schwerpunkt frage was mediums ebenso sichtbarkeit gegensatz ergebnissen modelle stellenwert klischees rahmenbedingungen karlsruhe redaktion ein podcast aspekten interessant verbreitung prozessen widerspruch interaktion vernetzung herstellung erstellung mathematik dozent mitarbeiterin der blick studierenden umfang sprecherin erfurt teilhabe wandels resultate formaten verkn identifikation letztlich publikationen breite hierarchien eigenheiten vorlesung fakult dlr nullnummer darstellungen referenzen suchmaschinen vorlesungen im haus belege publikation die gespr absolventen forscherinnen fehlschl podcasterinnen desinteresse querschnitt die community helfrich flipped classroom forschenden zusammenfassungen marco arment lehrenden die nullnummer der raum themenbereichen podcastlandschaft mitwirkenden audiodateien karlsruher institut audio podcasts kulturwissenschaft eine besonderheit dieser ansatz absolventinnen abschlussarbeiten tim pritlove frauenstimmen worts sprechstunden technologie kit professorinnen spracherwerb medienforschung forschergeist methodisch podlove auffindbarkeit studiengangs methodisch inkorrekt ungenauigkeiten querverweise thema podcasts reinhard remfort nele heise forschungsgebiete kontexts toby baier annik rubens daniel me sendegate viele gespr sendungsnotizen promotionsprojekt zahlentheorie podlove podcaster workshop henning krause hans bredow institut sebastian ritterbusch modellansatz podcast gudrun th bredowcast konscience podcast modellansatz
Modellansatz
Steganographie

Modellansatz

Play Episode Listen Later Jun 25, 2015 100:04


Seit 2002 veranstaltet der Entropia e.V. in Karlsruhe jährlich die Gulaschprogrammiernacht, das ist ein mehrtägiger Kongress, wo Nerds, Häcksen und Maker ihre Projekte vorstellen, Erfahrungen austauschen und Vorträgen lauschen. Die GPN15 fand Anfang Juni 2015 im ZKM und der HfG Karlsruhe statt. Hier hat Marius Musch in einem Vortrag eine Einführung in die Steganographie gegeben, und spricht nun mit Sebastian Ritterbusch im Podcast. Bei der Steganographie geht es darum, eine geheime Nachricht so zu versenden, dass niemand außer dem gewünschten Empfänger die Existenz dieser Nachricht überhaupt vermutet. Der Begriff kommt aus dem griechischen und bedeutet in etwa "geheimes Schreiben". So wurden schon in der Antike erste simple Formen der Steganographie verwendet. Statt wie üblich die Nachricht in der Wachs auf einer Wachstafel zu kratzen, wurde die geheime Nachricht in das Holz darunter geritzt und wieder Wachs darüber gegossen. Anschließend konnte eine harmlose Nachricht in das Wachs geschrieben werden und die geheime Nachricht war verdeckt darunter. Mit der Zeit wurden die Verfahren dann raffinierter, so wurde im Zweiten Weltkrieg aus einem japanischen Kriegsgefangenenlager eine scheinbar harmlose Postkarte verschickt. Liest man aber nur die ersten beiden Wörter jeder Zeile ergibt sich ein völlig neues Bild und es werden die Truppenverluste der Amerikaner kommuniziert. In in einem anderen Fall vereitelte amerikanische Kriegsgefangene Jeremiah Denton die Propagandaversuche in Vietnam während des Kalten Krieges. Während eines TV-Interviews blinzelte er wiederholt das Wort T-O-R-T-U-R-E in Morsecode. In der heutigen Zeit ist es natürlich naheliegend die Steganographie in der digitalen statt der analogen Welt einzusetzen. So kann man zum Beispiel schon in (Plain-)Text eine geheime Nachricht verstecken. Viele Texteditoren zeigen standardmäßig Leerzeichen und Tabs am Zeilenende (trailing whitespace) nicht an. Dies macht sich das Tool SNOW (steganographic nature of whitespace) zu nutze, um geheime Nachrichten zu verstecken, oder man schreibt gleich komplette Programme in der etwas verrückten Programmiersprache Whitespace. Deutlich verbreiteter und effektiver ist es aber als Tarn-Medium (das so genannter Cover) ein Bild zu nehmen. Bilder haben viele nützliche Eigenschaften, insbesondere dass geringe Änderungen für das menschliche Auge unsichtbar bleiben. Aber auch ihre Größe ist vorteilhaft da ein Bild leicht um den Faktor 1000 größer ist, als die darin zu versteckende Nachricht. Bei einem Grauwertbild wird typischerweise ein Byte pro Pixel verwendet, also die Helligkeit jedes Bildpunktes wird durch einen Wert zwischen 0 für Schwarz und 255 für Weiß repräsentiert. Dieses Byte besteht wiederum aus 8 Bits, zum Beispiel der Folge 11110000 für den Wert 120. In der Steganographie kann man sich zu Nutze machen, dass das hinterste Bit (least significant bit) nur sehr wenig zum eigentlichen Farbwert beträgt. Es entscheidet nur ob die Zahl gerade oder ungerade ist und wenn der Wert geändert wird, fällt einem Menschen dieser geringe Helligkeitsunterschied gar nicht auf. Somit kann man nun seine geheime Nachricht von den ASCII-Werten in Binärzahlen konvertieren und anschließend in den least significant Bits (LSBs) einbetten. Man braucht also 8 Pixel pro Buchstabe. Weitere Verfahren gibt es auf Basis spezieller Eigenschaften von Datenformaten wie GIF, PNG oder JPEG. Bei der Steganographie gibt es aber auch einiges zu beachten. Besonders wichtig ist es die Nachricht vor dem Einbetten zu verschlüsseln. Zum einen kann uns ein Angreifer, der das Verfahren kennt und die Nachricht extrahiert, sie trotzdem nicht lesen. Zum anderen lässt sich ein gut verschlüsselter Ciphertext nicht von echtem Zufall unterscheiden, um Angriffe zu erschweren. Hat man aber Zugriff auf das Orginalbild, so wird der Unterschied und damit die Nachricht offensichtlich- hier sind besonders umgekehrte Bildersuchen hilfreich. Im realen Einsatz sind meist Wasserzeichen, die Verfahren der Steganographie verwenden. Anders als bei der Steganographie, wo das Cover völlig irrelevant für die geheime Nachricht war, bezieht sich bei den Wasserzeichen die versteckte Nachricht auf das Cover. So bestätigt das Wasserzeichen auf einem Geldschein die Authentizität eben dieses Scheines. Es gibt aber auch Wasserzeichen die lange unbekannt waren. Zum Beispiel gibt es einige Drucker bekannter Hersteller, die in die ausgedruckten Seiten ein kaum sichtbares gelbes Punktemuster einbauen. In diesem Wasserzeichen steht sowohl das Datum des Druckes als auch die Seriennummer des Druckers. Auf Geldscheinen gibt es gelben Punkte in der EURion-Konstellation, die von Kopierern, Scannern und Software erkannt werden. Aber auch Spieler von Onlinerollenspielen wie World of Warcraft sind vor Wasserzeichen nicht sicher. So wurde 2012 in einem Forum bemerkt, dass die Screenshots aus dem Spiel per Wasserzeichen den Accountname und die Server-IP des Spielers beinhalten. Allerdings hinterlässt die Steganographie auch immer zwangsweise ihre Spuren, da das Bild manipuliert werden muss. Um die oben beschriebene LSB-Methode durch eine Steganalyse zu erkennen, reicht es sich das Histogramm des Bildes anzuschauen, denn durch das Verfahren ergeben sich treppenartige Abstufungen. Dies wiederum versucht das Tool Outguess zu vermeiden, indem es die LSB Änderungen geschickt über die Datei verteilt und das Histogramm unauffällig bleibt. Beliebte Angriffsmethoden sind auch die Autokorrelation und die FFT über das Wiener-Chintschin-Theorem, womit eine sehr effiziente Berechnung möglich wird. Das aktuelle Folgenbild des Podcasts zeigt ein Bild mit steganographisch versteckter Nachricht, das Marius für einen Capture the Flag-Wettbewerb auf der GPN14 im letzten Jahr erstellt hatte und jetzt erklärt. Auch auf der GPN15 gab es dieses Jahr wieder einen Capture the Flag Wettbewerb, veranstaltet von den Squareroots aus Mannheim und KITCTF aus Karlsruhe. Auch dieses Jahr lag der Fokus auf IT-Sicherheit: Die teilnehmenden Teams erhalten eine virtuelle Maschine (Vulnbox) mit mehreren verwundbaren Diensten, die sie analysizeren, die Ausnutzbarkeit prüfen und letztlich absichern sollen. Ein zentraler Gameserver verteilt sogenannte Flaggen an alle Teams, das sind lange zufällige Zeichenketten. Diese Flaggen gilt es zu verteidigen und durch Finden und Ausnutzen von Sicherheitslücken in den Diensten der anderen Teams zu stehlen und für Punkte beim Veranstalter einzureichen. Beim CTF auf der GPN15 gab es 11 teilnehmende Teams, die sich über einen Zeitraum von 5 1/2 Stunden insgesamt 7600 Flaggen gestohlen haben. Wer mehr über CTFs erfahren möchte, sollte insbesondere den CTF Field Guide lesen. Eine Übersicht über anstehende Veranstaltungen und die verschiedenen Teams findet man unter CTF Time. Literatur und Zusatzinformationen N. F. Johnson, J. Sushil: Exploring steganography, Computer 31.2,: 26-34, 1998. I. Cox, M. Miller, J. Bloom, J. Fridrich, T. Kalker: Digital watermarking and steganography, Morgan Kaufmann, 2007. M. Musch: Seeing the unseen, Vortrag auf der GPN15, 2015.

Modellansatz
Spielcomputer

Modellansatz

Play Episode Listen Later Jun 18, 2015 122:30


Seit 2002 veranstaltet der Entropia e.V. in Karlsruhe jährlich die Gulaschprogrammiernacht, das ist ein mehrtägiger Kongress, wo Nerds, Häcksen und Maker ihre Projekte vorstellen, Erfahrungen austauschen und Vorträgen lauschen. Die GPN15 fand Anfang Juni 2015 im ZKM und der HfG Karlsruhe statt, und zog diesmal auch Mathe-Begeisterte an: Florian Gilges ist mit dem Life Science Lab als Schüler nach Karlsruhe gekommen, und will unter anderem Näherungen an die Kreiszahl effizient berechnen. Dazu baut er sich einen eigenen Computer. Im Gespräch mit Sebastian Ritterbusch erklärt er uns, wie er dazu logische Gatter aus rotem Erz baut. Zunächst ist die Kreiszahl (Pi) als das Verhältnis von Umfang zu Durchmesser eines beliebigen Kreises definiert und ermöglicht uns mit der Formel auch aus dem Radius die Fläche eines Kreises zu berechnen. Da Pi jedoch eine sogenannte irrationale und transzendente Zahl ist (d.h. dass nach dem Komma unendlich viele Stellen folgen, die keine Wiederholung aufweisen), lässt sich der Wert nie exakt angeben. Um nun eine Näherung für Pi zu berechnen, lassen sich verschiedene Verfahren verwenden: Ein Kreis wird gezeichnet und Umfang und Durchmesser gemessen, das Verhältnis ist dann eine Näherung an Pi. Eine andere Möglichkeit ist die Berechnung durch eine Winkelfunktion: Der Arkustangens hat bei 1 den Wert . Nimmt man also die Taylorentwicklung des Arkustangens mit x=1 und multipliziert mit 4, erhält man Pi. Neben der (von der Konvergenzgeschwindigkeit) relativ ineffizienten Taylor-Reihe gibt es noch viele weitere Verfahren, die ebenfalls Pi annähern. Die Berechnung will Florian in Minecraft durchführen, und baut sich dafür einen Rechner innerhalb dieses Spiels. Aber wie kann ein einfaches Spiel so etwas bieten? Schließlich ist Minecraft nur eine Nachahmung unserer Welt mit ganz natürlichen Ressourcen. So bietet eine Minecraft-Welt verschiedene Vegetations- und Klimazonen und verschieden Landschaften und Umgebungen, wie z.B. Laubwälder, Nadelwälder, Steppen, Wüsten, Schneegebiete, uvm. Es gibt jedoch auch Stoffe, die es in unserer Welt nicht gibt: Einer davon ist Redstone. Dieser besondere Stoff kann in Höhlen tief unter der Erde als Erz gefunden werden und gibt abgebaut ein Pulver, das ähnliche Eigenschaften, wie elektrische Leitungen hat. Aus Redstone-Pulver und weiteren Materialien, die man in der Welt findet, lassen sich Logikelemente bauen: Inverter, Verstärker, Verzögerer und Vergleicher. Diese Basiselemente können vom Spieler in die Welt gebaut und zu großen Schaltungen zusammengesetzt werden. Angefangen bei einfachen Speichern und Signalstärkespeichern (Redstone-Energie hat 16 Stufen von 0 bis 15), bis hin zu Logikgattern, wie UND-Gatter, XOR-Gatter und Flip-Flops. Kurzum lassen sich mit den Basiselementen alle Komponenten für einen Computer zusammenstellen, aber auch einfachere Dinge, wie Code-Schlösser und Tür-Steuerungen sind möglich. Doch so einfach, wie es nun erscheint, ist es nicht, denn jedes Basiselement hat eine Verzögerung von mindestens einer Zehntel- bis vier Zehntelsekunden. Das bedeutet, dass der Computer sehr langsam wird und Berechnungen sehr aufwendig werden. Deshalb ist Optimierung sehr wichtig, indem an jeder Stelle die Bauteile effizienter gemacht werden und die Mathematik zur Berechung ebenfalls (für den Computer) effizienter gestaltet wird. Hier konnte Florian das XOR-Gatter und den Programm-Zähler aus Halbaddierern und Volladdierern durch intelligente Kniffe deutlich beschleunigen. Eine weitere Möglichkeit besteht auch in der Nutzung von redundanten Binärdarstellungen, die bei einer großen Anzahl von Additionen große Geschwindigkeitsvorteile bringen können. Neben der Optimierung der Hardware ist auch die Optimierung der Software wichtig, was zur Mathematik zurückführt: Berechnungen wie Multiplikationen, Potenzen oder Wurzeln sind auf Logikebene komplizierte Operationen, auch wenn unsere Taschenrechner die Aufgaben in Sekundenbruchteilen lösen. Der einfachste Weg für die Multiplikation ist, dass man eine Additionskette bildet: . Führt man dieses Verfahren mit größeren Zahlen durch, wächst der Aufwand linear. Ein anderes Verfahren ist die schriftliche Multiplikation, aber es geht noch effizienter: Die Russische Bauernmultiplikation. Mit etwas Übung lassen sich so, wenn gerade kein Taschenrechner da ist, auch große Zahlen multiplizieren. Für den Computer sind jedoch beide Verfahren durch das Binärsystem äquivalent. Komplizierter sind dann schon Wurzeln. Diese lassen sich nicht so leicht berechnen, wie eine Addition oder Multiplikation. Ein mögliches Näherungsverfahren ist das Heron-Verfahren. Es gibt jedoch auch das schriftliche Wurzelziehen, das im Binärsystem leicht zu implementieren ist. Florian hat sich diese Techniken aus Videos wie dem Youtube-Kanal Schoolseasy selbst angelernt.

Modellansatz
Flipped Classroom

Modellansatz

Play Episode Listen Later Mar 19, 2015 185:01


An Pädagogischen Hochschulen werden Lehrerinnen und Lehrer für fast alle Schulformen ausgebildet, es gibt sie inzwischen in Deutschland nur noch in Baden-Württemberg. Beispielsweise seien die Pädagogische Hochschule Heidelberg und die Pädagogische Hochschule Karlsruhe genannt- hier in Karlsruhe gibt es zusätzlich auch eine Abteilung für Didaktik an der Fakultät für Mathematik am KIT. An den pädagogischen Hochschulen werden aber nicht nur Pädagogik und Didaktik unterrichtet, sondern auch die entsprechenden Fachrichtungen und jeweilige didaktische Konzepte in diesen Fachrichtungen. Christian Spannagel unterrichtet so als Professor für Mathematik und Informatik in den Fächern, und erzählt im Gespräch mit Sebastian Ritterbusch, wie er didaktische Konzepte für den Mathematikunterricht erforscht und aktiv erprobt. Die Frage nach Verbesserung des Mathematik-Unterrichts ist sehr aktuell: Die OECD-Studie zu Geschlechtsunterschieden in der Schule hat gerade in Mathematik Verbesserungspotential aufgezeigt, denn viele geben Mathe auf, weil sie nachweislich fälschlich glauben, sie könnten es nicht. Der zentrale Begriff ist hier die Selbstwirksamkeitserwartung, die insbesondere in Naturwissenschaften und Mathematik durch gesellschaftliche Einflüsse stark geprägt ist. Die Erforschung neuer Lehrmethoden kann aber nicht den Ersatz der bisherigen und erprobten Konzepte zum Ziel haben: So sind selbst vermeintlich alte Übungen zum Kopfrechnen und zur schriftlichen Division auch heute noch überaus wichtige Hilfen zur Vermittlung von Algorithmen, Stellenwertsystemen und auch zur Vorbereitung auf ein Studium. Das Ziel muss sein, den Fundus möglicher Vermittlungsformen zu bereichern, und für verschiedene Konzepte bessere Kombinationen der Verfahren zu finden. Ein nützliches neues Werkzeug ist die Tabellenkalkulation, mit der beispielsweise Würfelexperimente und Simulationen im Unterricht interaktiv erfahrbar gemacht werden können. Ebenso können Dynamische Geometriesysteme den Zugang zur Konstruktion und Analytischer Geometrie, wie beispielsweise den Satz des Thales, deutlich vereinfachen. Die Software GeoGebra ist ein solches System, das insbesondere auch unterschiedliche Darstellungen und Analyse der Konstruktionen ermöglicht. Leider ist es zu Zeit noch nicht möglich, dass in Klassen jederzeit an jedem Platz ein Rechner zum Einsatz interaktiver Experimente vorhanden ist. Aber auch an einem interaktiven Whiteboard können die Methoden durchgeführt werden. Die technische Ausstattung ist aber nur ein kleiner Schritt zur Einführung neuer Werkzeuge in den Unterricht, auch die Lehrerinnen und Lehrer müssen die Kompetenzen zum Einsatz der neuen Medien erlernen. Hier müssen die pädagogischen Hochschulen den Lehramtsstudierenden den Weg bereiten, damit das Lehrpersonal zu Beginn und auch in ihrer langen Lehrzeit für den Stand und die Entwicklung der Technik vorbereitet ist. Auch Wissensmanagement in der Form von Wikis haben in Schulen Einzug gehalten, so setzen Maria Eirich und Andrea Schellmann auf ein Schulwiki am Regiomontanus-Gymnasium Haßfurt und Lernpfade zum interaktiven Mathematik-Unterricht. Auch Schülerinnen und Schüler können hier selbst Quiz-Aufgaben erstellen. Michael Gieding und Andreas Schnirch haben für Geometrie-Vorlesungen an der PH Heidelberg ein Geometrie-Wiki auf dieser Technologie erstellt, das auch weiterhin für Lehrveranstaltungen für Lehramtsstudierende genutzt wird. Eine Einführung in die frühen interaktiven Elemente am CMS der Fakultät für Mathematik sind auf der Fragebogen-Seite mit einer Vielzahl von Beispielen zu finden. Gerade in Mathematik stellt die Einbindung digitaler Medien eine gewisse Hürde dar, da Formeln, Beweise, Algorithmen und Konstruktionszeichnung nicht leicht digitalisierbar sind- auch wenn das Textsatz-System LaTeX oder LyX im mathematischen Bereich mit perfektem Druckbild für fast alles verwendet werden kann, so muss man es erst erlernen- beispielsweise mit der l2kurz-Anleitung. Das Austauschen von abfotografierten Seiten ist da häufig deutlich effektiver. Dabei ein solcher Austausch zwischen den Lernenden sehr zu begrüßen, da es zum einen die gemeinsame Konstruktion von Lösungswegen begünstigt, aber auch die angehenden Lehrenden auf die Nutzung der Medien trainiert. Wichtig sind niederschwellige Zugänge und die Möglichkeit zu anonymen Beiträgen, da nur so das Lernen aus Fehlern ermöglicht wird. Im Flipped Classroom wird der Prozess der interaktiven Auseinandersetzung mit dem Lernstoff, der traditionell zu Hause erst bei den Hausaufgaben auftritt, in den Unterricht gebracht, und der herkömmliche Frontal-Unterricht aus dem Klassenzimmer verbannt. Dazu erhalten die Schülerinnen und Schüler oder die Studierenden zur Vorbereitung ein Video, in dem das grundsätzliche Verfahren erklärt wird. Die Unterrichtsstunde kann dann mit einer Fragerunde zum Videomaterial starten, gefolgt von einigen Aufgaben, die vom Plenum in Gruppenarbeit bearbeitet werden sollen. Hier werden Probleme und Fragen offensichtlich, die vom Lehrenden oder gemeinsam in einer Diskussion erörtert werden können. Anschließend könnte sich ein Hörsaal- oder Klassenzimmerspiel anschließen, das sowohl auflockert, als auch das Thema verfestigt. Dass besondere Ereignisse den Lernerfolg verbessern können, wurde auch beim Thema >Gestern hab ich noch Zeit genug< im Methodisch-Inkorrekt Podcast Folge 43 besprochen. Auch wenn es nicht immer außerordentliche Ereignisse geben kann, so ist eine sinnvolle Abwechslung der Lehrmethoden sicher zuträglich zur Verbesserung des Unterrichts. Neben der Frage zur zeitlichen Planung des Unterrichts sind auch Fragen innerhalb der Mathematik eine Untersuchung auf mögliche Vermittlungsmethoden interessant: Die Gaußsche Summenformel ist nicht nur wichtig zur Berechnung der Anzahl der Spiele in einer Fußball-Liga, sondern auch ein schönes Beispiel zur verschiedene mathematische Beweisverfahren. Die Formel kann durch vollständige Induktion bewiesen werden, ein anderer Ansatz ist die Verwendung von Dreieckszahlen zu einem ebenso korrekten ikonischen Beweis der Summenformel. Einen wichtigen Stellenwert hat auch die Haltung der Lehrperson: Anstatt zu demoralisieren, müssen die Lernenden in ihrem Lernprozess unterstützt und bei Bedarf geleitet werden. Dazu gehört auch die Anpassung der Komplexität an die unterschiedlichen Kenntnisse der Lernenden- eine fast unmögliche Aufgabe angesichts großer Unterschiede in den Vorkenntnissen. Eine Möglichkeit sind Angebote für optionale Übungsgruppen, oder Zusatzangebote für weitergehende Fragen. Ideal sind jedoch natürlich differenzierende Aufgaben, die von allen Lernenden je nach ihrem Kenntnisstand hinreichend und unterschiedlich umfangreich beantwortet werden können. Ein Beispiel ist hier die Aufgabe zu den Pythagoreischen Zahlentripeln, die sehr knapp, aber auch sehr weitreichend beantwortet werden kann. Eine andere interessante Frage steckt im Münzproblem, die man bis zur Frage der kleinsten Anzahl von Münzen zur Rückgabe aller Geldbeträge von 1-99 Cent beantworten kann (Optimal sind acht Münzen in vier möglichen Variationen: zB 1+1+2+5+10+10+20+50 oder 1+2+2+5+10+20+20+50). Die Frage der Evaluation von Unterrichtsmethoden wie dem Flipped Classroom ist leider nicht einfach zu beantworten: Es ist kaum möglich zwei Gruppen parallel und voneinander unbeeinflusst unterschiedlich zu unterrichten. Bei einer Evaluation zwischen verschiedenen Jahrgängen konnte ein besseres Abschneiden bei Prüfungen nicht sicher nachgewiesen werden, jedoch ist war das subjektive Empfinden der Studierenden gegenüber den neuen Methoden ausgesprochen positiv. Malte Persike hat entsprechende Ergebnisse erhalten, u.a. beim MOOC zur Wahrscheinlichkeitsrechnung, stellt aber auch zur Diskussion, dass bei mit herkömmlichen Methoden weniger erfolgreichen Dozenten die neue Methoden deutlich bessere Ergebnisse erzielen könnten. Bei der Umstellung auf Flipped Classroom-Konzepte ist die Videoerstellung oft nicht sehr aufwendig, da hier abgefilmte frühere Veranstaltungen in Frage kommen können. Dafür ist die Umstellung und die Planung des neuen Unterrichts oftmals deutlich aufwendiger, wenn man eine Stunde zum ersten Mal durchführt. Anders sieht es bei einem Massive Open Online Course, kurz MOOC, aus, für den Videos deutlich aufwendiger und in kürzerer Form produziert werden. MOOCs sind besonders durch Sebastian Thrun bekannt geworden, als er eine Vorlesung zur künstlichen Intelligenz online zur Verfügung stellte, an der etwa 160'000 Studierende teilnahmen. In der Regel werden Videos mit vorlesungsartigen Inhalten wöchentlich online gestellt, zu denen die Teilnehmer regelmäßig Aufgaben gestellt bekommen. Durch Verfügbarkeit im Internet können sehr viele an diesen Kurs teilnehmen, und durch die Verwendung offener Technologien und Zugänge ist die Teilnahme sehr niederschwellig und spricht viele Interessenten an. An der PH Heidelberg wurde der Mathe-MOOC Mathematisch Denken von Christian Spannnagel, Michael Gieding, Lutz Berger und Martin Lindner ins Leben gerufen, der das MOOC-Konzept nicht ganz klassisch umgesetzt hat. Viel mehr wurde ein Schwerpunkt auf Mathematikdidaktik gelegt: Statt einem festen Wechsel von Vorlesung und Übung wurden einführende experimentelle Einheiten eingesetzt, bei denen die Teilnehmenden schon im Vorfeld Ihre eigenen Erfahrungen mit dem Thema machen konnten. Die Bearbeitung der Aufgaben und der Vergleich der Lösungen erfolgte dann in öffentlichen Foren- eine abschließende Prüfung war in diesem MOOC nicht vorgesehen, sondern möglichst vielen einen Einstieg in die mathematische Denkweise ermöglichen. Die Teilnehmenden können sich selbst als Kiebitze, Anpacker und Formalisierer bezeichnen, auch von Aufgabe zu Aufgabe unterschiedlich- die Kiebitze sind hauptsächlich passive Zuschauer, wogegen die Anpacker die Lösungen aktiv, beispielsweise ikonisch, erarbeiten wollen. Die Formalisierer suchen schließlich die exakte mathematische Beschreibung und symbolische Lösung der Aufgaben. Diese Differenzierung ermöglicht eine Klarstellung der eigenen Teilnahmeabsicht und vereinfacht durch die Vorgabe verschiedener Ansätze den Zugang in den jeweiligen Nutzungsszenarien. MOOCs können und sollten herkömmliche Präsenzveranstaltungen nicht ersetzen, sondern die Nutzung wie beim Flipped Classroom-Konzept die Qualität der Präsenzveranstaltungen verbessern. Ausgesprochen sinnvolle Beispiele zum Einsatz von MOOCs sind Brückenkurse vor Studienbeginn, wo noch nicht alle Studierende am Studienort sind, oder in der Weiterbildung für Berufstätige. Der Mathe-MOOC Mathematisch Denken findet aktuell jedes Semester statt, und wer mitmachen möchte, kann jeweils Anfang April oder Anfang Oktober einsteigen. Die Kurse werden auch kontinuierlich weiter entwickelt. So werden nun mit Christian Freisleben-Teutscher Improvisationsmethoden eingebunden, um die gegenseitige Interaktion zwischen den Teilnehmenden zu fördern. Schon seit Beginn des Mathe-MOOCs sind auch szenische Darstellungen sehr erfolgreicher Teil der Darstellung, und dienen der Motivation und Auflockerung der manchmal trockenden Mathematik. So tritt Christian Spannagel oft als Dunkler Lord auf, der auf seine besondere Weise die Mathematik erklärt. Wie es schon Jean-Pol Martin formulierte, haben Professoren die Verantwortung neue Wege zu gehen, um für die Gesellschaft auch riskantere Wege einzuschlagen. Auch am KIT werden erfolgreich MOOCs angeboten, und der MOOC gegen Chronisches Aufschieben wurde vor kurzem mit dem Bildungsmedienpreis digita ausgezeichnet. Ein weiterer neuer Zugang ist die Gamification, bei der spielerische Elemente in spielfremde Bereiche eingeführt werden. Dies kann durch die Zuteilung von Punkten, Leveln oder Abzeichen bzw. Badges erfolgen, und dies kann auch in der Hochschullehre eingesetzt werden. Die Wahl eines Kontexts hat sich aber als kritisch herausgestellt: Wenn die Lernenden sich nicht mit dem Spiel identifizieren können, ist kaum ein Erfolg zu erwarten. Nando Stöcklin und Nico Steinbach entwickelten das erfolgreiche System QuesTanja, mit den Schülerinnen und Schüler mit Tablets selbstständig Mathematik erlernen können. Die Forschung richtet sich hier auf die Konzepte des Design-based Research, sie konzentriert sich also darauf die Methode zu entwickeln und iterativ und zyklisch zu verbessern. Auch zum Erlernen des Programmierens haben sich spielerische Konzepte bewährt, ein Beispiel dafür ist die Plattform Scratch und ScratchJr, oder auch Lightbot. Diese Lernprinzipien gehen auf Seymour Papert zurück, der schon mit der Programmiersprache Logo den Grundstein zu erziehungsorientierten Programmiersprachen gelegt hat. Die Logo-Programmiersprache gab es als Schildkrötengrafik auch schon im NDR-Klein-Computer. Eine interessante Frage im Umgang mit neuen Medien in Lehre und Wissenschaft ist die Zitierbarkeit der Angebote. Auf der einen Seite geben sich neue Nutzungsmöglichkeiten durch direkte Links an bestimmte Zeitpunkte, jedoch sind Zitate auf Videos, Audiodateien und Internetseiten noch nicht in der wissenschaftlichen Literatur etabliert. Neue Ansätze zur Vortragsaufzeichnung beim KonScience Podcast werden diskutiert. Ein wichtiger Ansatz ist auch die Vergabe von DOI-Nummern für digitale Medien, wie es auch im Open Science Radio Podcast angesprochen wurde. Letztendlich kann man bei der Erstellung von Videos für den Unterricht nicht zu viel Perfektionismus an den Tag legen, wie es auch schon Aaron Sams formulierte: "Do you need it perfect, or do you need it by Tuesday?" Literatur und Zusatzinformationen C. Spannagel: Digitale Medien in der Schule: in medio virtus, LOG IN, 180, 22-27, 2015. M. Fischer, C. Spannagel: Lernen mit Vorlesungsvideos in der umgedrehten Mathematikvorlesung, In J. Desel, J. M. Haake & C. Spannagel (Hrsg.), DeLFI 2012 – Die 10. e-Learning Fachtagung Informatik der Gesellschaft für Informatik e.V. (S. 225-236). Bonn: Köllen Druck+Verlag, 2012. C. Spannagel, J. Spannagel: Designing In-Class Activities in the Inverted Classroom Model, In J. Handke, N. Kiesler & L. Wiemeyer, L. (Hrsg.) (2013). The Inverted Classroom Model. The 2nd German ICM-Conference (S. 113-120). München: Oldenbourg Verlag, 2013. Flipped Classroom: Die umgedrehte Mathematikvorlesung Video: 10 Irrtümer zum Einsatz digitaler Medien in der Schule Podcast Lob und Tadel 019: Schulmathematik

internet pr stand design professor video research motivation system leben thema videos weg deutschland dabei erfahrungen ideal bei erfolg probleme seite ziel entwicklung dazu gesellschaft beispiel umgang schon einen platz qualit schritt spiel weise wege medien cent viel schule liga hause neben dass beginn gerade lernen bereich verantwortung evaluation technik einsatz seiten einem analyse aufgabe aufgaben diskussion prozess stunde leider wichtig unterschiede statt einf optimal fischer vergleich intelligenz ergebnisse wissenschaft studium begriff methoden ans technologie vorbereitung ereignisse austausch kurs methode haltung beispiele regel lehrer spiele zugang satz einstieg die frage planung ansatz angebote zug gruppen teilnehmer wechsel semester cms bereiche veranstaltungen literatur gamification beitr nutzung zuschauer konzepte anleitung fehlern vielzahl lehre elemente anzahl technologien einfl beschreibung teilnahme schwerpunkt werkzeug punkten auseinandersetzung tablets beispielen ebenso verfahren weiterbildung gestern anschlie beweis das ziel verbesserung inhalten bedarf stellenwert unterricht werkzeuge perfektionismus verwendung karlsruhe kompetenzen darstellung abwechslung experimente komplexit ersatz grundstein klassen anpassung baden w interaktion untersuchung umstellung erstellung studierende mathematik hausaufgaben algorithmen badges zitate die wahl studierenden whiteboards abteilung vermittlung hilfen denkweise beweise hochschulen irrt rechner kenntnisse mathe informatik ausstattung interessenten thales beispielsweise klassenzimmer schildkr einheiten mooc ein beispiel empfinden teilnehmenden letztendlich lehrerinnen vergabe vorlesung fakult berechnung darstellungen fragerunde konstruktion erlernen moocs einbindung abschneiden foren lernprozess professoren kombinationen berufst formeln internetseiten die forschung anfang april die formel eine einf didaktik dozenten delfi anfang oktober flipped classroom fundus lernenden vorgabe jahrg simulationen wikis plenum unterrichts hrsg lehrenden tadel lernerfolg videomaterial fachrichtungen handke audiodateien die kurse konstruktionen klarstellung lernstoff induktion zeitpunkte kenntnisstand massive open online courses sebastian thrun ausgesprochen lehrmethoden hochschullehre die erforschung gruppenarbeit kopfrechnen leveln auflockerung lehrpersonal lehrzeit seymour papert lyx die teilnehmenden nutzungsm geldbetr schulformen zuteilung vorkenntnissen studienbeginn programmierens hochschule karlsruhe kontexts die bearbeitung scratch jr lernpfade videoerstellung aaron sams kiebitze anpacker zusatzangebote hochschule heidelberg sebastian ritterbusch mathematikdidaktik konscience podcast druckbild
Modellansatz
Papierrechner

Modellansatz

Play Episode Listen Later Feb 5, 2015 78:00


Joachim Breitner veranstaltete im FabLab Karlsruhe einen Workshop auf dem er unter anderem seinen Taschenrechner auf Papier vorstellte. Den Rechner hat er mit einem speziellen Digitalstift realisiert, dessen genaue Funktionsweise analysiert wurde. Im Workshop ging es speziell um den Tiptoi-Stift, der auf dem Papier ein fast unsichtbares Punktemuster analysiert. Dieses Punktemuster macht das Papier zu digitalem Papier. Hier werden immer im Code 16 Punkte zu einem Block zusammengefasst, von denen die Punkte am linken und oberen Rand zur Erkennung, und die restlichen neun Punkte die eigentliche Information als Zahl mit Prüfbits beinhalten. Dabei entsprechen vier Punkte etwa einem Millimeter und daher sind die Muster, die sich auf den aktiven Bereichen wiederholen, mit dem Auge kaum zu erkennen. Die Funktionen des Stifts werden als GME-Dateien wie auf einen USB-Stick kopiert, und diese konnten in einem längeren Prozess zum Großteil analysiert werden. Zunächst wurden die im freien Ogg Vorbis-Format kodierten Tondateien gefunden, die über eine einfache Substitutions-Chiffre verschleiert wurden. Im Folge der weiteren Analyse wurden die Programme zu den Papiermustern gefunden, und aus diesen konnte die Maschinensprache der Stifte im Großteil bestimmt werden. Das System reagiert auf gescannte Codes, und kann dann verschiedene Aktionen wie das Abspielen von Audio, Variablen setzen, Rechnungen durchführen und Variablen abfragen. Ein Rätsel verblieb, warum die berechneten Werte aus den Papiercodes nicht mit den Kennungen in den Programmen übereinstimmten. Dies konnte man durch Wechsel des Stifts in einen Debug-Modus durch Drücken der Minus-Taste beim Anschalten und anschließend der Plus-Taste nachvollziehen, denn dann liest der Stift die in der Maschinensprache verwendeten Codes auf Chinesisch vor. Zum Verständnis braucht man da nur eine Tabelle der chinesischen Zahlen von 1 bis 10. Aber auch diese Zuordnung konnte inzwischen analysiert und gelöst werden. Damit können nun komplett eigene Seiten mit Papier-Code und zugehörigen GME-Programmen von jedem selbst erstellt werden, dazu wurde das tttool entwickelt, mit dem sowohl die Programme in einer speziellen Sprache, wie auch die zugehörigen Punktemuster erzeugt werden können. Das Erstellen druckbarer Seiten erfordert dann nur noch ein geeignetes Grafikprogramm und passende Hintergrundbilder, wie Joachim Breitner im Gespräch mit Sebastian Ritterbusch darlegt. Literatur und Zusatzinformationen J.Breitner: tttool, Das Schweizer Taschenmesser für den Tiptoi-Bastler Mailingliste für das tttool FabLab Karlsruhe e.V. Entropia e.V. Karlsruhe

Modellansatz
Metallschaum

Modellansatz

Play Episode Listen Later Nov 13, 2014 99:52


In den Materialwissenschaften ist man immer auf der Suche nach neuen Werkstoffen und Materialien. Sehr vielversprechend sind dabei Metallschäume, dessen Wärmeleitungseigenschaften Anastasia August am Institut für angewandte Materialien erforscht und über die sie uns im Gespräch mit Sebastian Ritterbusch erzählt.Zu den besonderen Eigenschaften von Metallschäumen gehören unter anderem die große Oberfläche bzw. Grenzfläche im Verhältnis zum Volumen wie bei Lungenbläschen und die hohe Wärmeleitungsfähigkeit im Verhältnis zum Gewicht. Gleichzeitig können Metallschäume mit Luft oder anderen Materialien wie Paraffin gefüllt werden, um besondere Eigenschaften zu erhalten. Neben Bierschaum ist auch der Badeschaum eine Möglichkeit Schäume mit ihrem außergewöhnlichem Verhalten kennenzulernen. Das geschäumte Materialgemisch erhält dabei aber typischerweise nicht durchschnittliche Materialeigenschaften, sondern es können Eigenschaften der einzelnen Materialien teilweise kombiniert werden; z.B. erhält ein Metall-Paraffinschaum eine recht hohe Wärmeleitfähigkeit vom Metall gepaart mit einer hohen Wärmekapazität und vor Allem mit einem günstigen Schmelzpunkt (45-80°C) vom Paraffin und ist damit ein sehr effizienter Latentwärmespeicher.In der Natur finden sich Schaumstrukturen zum Beispiel in Knochen, die bei hoher Stabilität ein deutlich geringeres Gewicht als ein massives Material haben. Aber auch für Knochenimplantate sind Metallschäume aus Titan durch die hohe Stabilität bei geringem Gewicht und guter Verträglichkeit sehr interessant.Problematisch ist für den Einsatz von Metallschäumen, dass noch viele quantitative Messgrößen fehlen, die Herstellung noch recht teuer ist, und insbesondere nur in kleinen Größen produziert werden kann. Als Unterscheidungsmerkmal hat sich neben der Unterscheidung in offen oder geschlossen porigen Schaum die ppi-Zahl als Maß für die Porendichte etabliert, dabei zählt man die Poren pro Inch (Zoll, entspricht 2,54 cm). Dazu erfasst man auch die mittlere Porengröße (Durchmesser), ihre Standardabweichung, die Porosität, die mittlere Stegdicke und deren Form. Weiterhin können sich Größen in verschiedenen Richtungen im Material unterscheiden, und dadurch merklich deren Eigenschaften verändern.Für die Herstellung von Metallschäumen gibt es unterschiedliche Verfahren: Zwei typische Vertreter sind das Pressen mit dem anschließenden Schmelzen von gemischtem Metall- und Metallhybridpulvern für geschlossen porige feste Schäume oder Gießverfahren, wo der Metallschaum für offen porige Materialien durch keramische Negativabbildungen von Polyurethan-Schäumen nachempfunden wird.Schon früh waren Schäume als möglichst dichte Packungen ein Forschungsfeld in der Mathematik. Im Jahr 1994 haben Weaire-Phelan eine noch optimalere regelmäßige Schaumstruktur veröffentlicht, die in der Architektur des zu den olympischen Sommerspielen 2008 in Peking errichteten Nationalen Schwimmzentrums verewigt wurde. Das ebenfalls zu den Sommerspielen errichtete Vogelnest hat im Gegenteil eine zufälligere Struktur. Lange hatte man keine verlässlichen Aussagen über die Wärmeleitfähigkeit von Metallschäumen. Bei einer Leitfähigkeit von etwa 200 W/(mK) von Aluminium erreicht ein Metallschaum Leitfähigkeiten zwischen 5-13 W/(mK) während man bei Luft von einer Leitfähigkeit von etwa 0.025 W/(mK) ausgehen kann. Außerdem haben Metallschäume einen hohen Oberflächenanteil, dies bezeichnet die vorhandene Oberfläche im Verhältnis zum Volumen. Während ein voller Metallwürfel ein Verhältnis von etwa hat, kann ein Schaum ein Verhältnis von bis zu erreichen.Eine interessante Fragestellung ist auch, ab welcher Porengröße die natürliche Konvektion in mit Luft gefüllten Metallschäumen eine Rolle gegenüber der Wärmeleitung spielt. Die relevante Größe ist hier die Rayleigh-Zahl, die für Metallschäume typischer Porengrößen ergibt, dass die natürliche Konvektion zu vernachlässigen ist.Für die Simulation wird der komplette Raum des Metallschaums diskretisiert, und es gibt eine Funktion, die als Indikatorfunktion anzeigt, ob an diesem Punkt Metall oder Luft vorliegt. Hier können sowohl aus an der Hochschule Pforzheim durchgeführten Schnitten rekonstruierte Schaumstrukturen abgebildet werden, aber auch künstlich mit Algorithmen erzeugte Schäume für die Simulation abgebildet werden. Bei der künstlichen Erzeugung von Schäumen ist die Voronoi-Zerlegung ein wichtiger Algorithmus zur Bestimmung der Poren.Den eigentlichen Wärmetransport im Metallschaum wird durch die Wärmeleitungsgleichung modelliert. Sie leitet sich aus dem Energieerhaltungssatz und dem Fourierschen Satz ab. Dieses Modell stimmt aber in dieser Form nur für homogene Materialien mit konstantem Koeffizienten . Daher müssen die Sprünge in Materialeigenschaften (etwas im Übergang Luft-Metall) zusätzlich berücksichtigt werden. Dies kann über die Phasenfeldmethode realisiert werden, wo eine künstliche, diffuse Übergangsschicht zwischen den Materialien eingeführt wird. Dies ist im Prinzip eine Art von Mollifikation, wo ein Sprung durch eine glatte monotone Funktion angenähert wird. Wenn dies zusätzlich mit der Berücksichtung der anisotropen Eigenschaften der Übergangsschicht ergänzt wird, erhält man eine Basis für die in PACE 3D implementierte Simulationsmethode, die mit verschiedenen analytischen Ergebnissen und kommerziellen Softwareprodukten erfolgreich validiert werden konnte.Die Phasenfeldmethode und die Software Pace3D stammt ursprünglich aus der Simulation von Erstarrungs- und Schmelzvorgängen auf der Mikrometerskala. Metalle erstarren in Form von sogenannten Dendriten. Das sind Kristalle, die eine gewisse Ähnlichkeit mit Schneeflocken aufweisen.Eine interessante Anwendung von Metallschäumen bietet das mutige Silent Power PC Projekt, in dem ein Metallschaum den einen Rechner effizient kühlen soll. Aus den bisherigen Erkenntnissen der Arbeitsgruppe ist anzunehmen, dass ein Großteil der Kühlleistung in einem solchen System auf der Wärmeleitung liegt - für einen Einfluss der natürlichen Konvektion scheint die Porengröße zu klein zu sein.Die Faszination für Wissenschaft inspiriert Anastasia August nicht nur in der Forschung, sondern sie demonstriert sie auch auf Science Slams und im FameLab. Sie hielt dort Vorträge über ihr Forschungsgebiet und auch über das sehr unterschätzte Thema der Stetigkeit und die Anwendung auf Temperaturen auf der Erdkugel. Mit dem Vortrag auf dem Science Slam Vorentscheid in Esslingen zu Metallschäumen hat sie sich für die Meisterschaft am 6. Dezember qualifiziert.Literatur und Zusatzinformationen A. August, B. Nestler, F. Wendler, M. Selzer, A. Kneer, E. Martens: Efficiency Study of Metal Foams for Heat Storage and Heat Exchange, CELLMAT 2010 Dresden Conference Proceedings, 148-151, 2010, Fraunhofer IFAM Dresden, 2010. A. August, B. Nestler, A. Kneer, F. Wendler, M. Rölle, M. Selzer: Offenporige metallische Schäume, Werkstoffe in der Fertigung, Ausgabe 6/ November 2011, S. 45-46, 2011. M. Rölle, A. August, M. Selzer, B. Nestler: Generierung offenporiger metallischer Schaumstrukturen zur Simulation der Wärmeübertragungseigenschaften, Forschung aktuell 2011, 21-23 Hochschule Karlsruhe Technik und Wirtschaft, S. 21-23, 2011. A. Vondrous, B. Nestler, A. August, E. Wesner, A. Choudhury, J. Hötzer: Metallic foam structures, dendrites and implementation optimizations for phase-field modelling, High Performance Computing in Science and Engineering, Transactions of the High Performance Computing Center, Stuttgart (HLRS), Pages 595-605, 2011. E. Wesner, A. August, B. Nestler: Metallische Schneeflocken, horizonte, Nr. 43, März 2014. J. Ettrich, A. Choudhury, O. Tschukin, E. Schoof, A. August, B. Nestler: Modelling of Transient Heat Conduction with Diffuse Interface Methods, Modelling and Simulation in Materials Science and Engineering, 2014. J. Ettrich, A. August, B. Nestler: Open Cell Metal Foams: Measurement and Numerical Modelling of Fluid Flow and Heat Transfer, CELLMAT 2014 Dresden Conference Proceedings, 2014. J. Ettrich, A. August, M. Rölle, B. Nestler: Digital Representation of Complex Cellular Sructures for Numerical Simulations, CELLMAT 2014 Dresden Conference Proceedings, 2014. Forschungsgruppen am KIT-ZBS Institute of Materials and Processes an der Hochschule Karlsruhe - Technik und Wirtschaft Das Institut für Werkstoffe und Werkstofftechnologien (IWWT) an der Hochschule Pforzheim

Modellansatz
Analysis und die Abschnittskontrolle

Modellansatz

Play Episode Listen Later Nov 6, 2014 133:59


Im Herbst beginnen die neuen Studiengänge der Mathematik am KIT und neben den Vorlesungen zur Linearen Algebra, Stochastik oder Numerik gehört die Analysis zu den mathematischen Vorlesungen, mit dem das Studium der Mathematik in den ersten Semestern beginnt. Dazu spricht Sebastian Ritterbusch mit Johannes Eilinghoff, der im letzten Jahr den Übungsbetrieb der Analysis-Vorlesungen mit großem Anklang organisiert hat.Die Analysis befasst sich besonders mit der Mathematik um Funktionen auf reellen Zahlen, welche Eigenschaften sie haben, und wie man diese differenzieren oder integrieren kann. Vieles zur Geschichte der Analysis findet man besonders in den Büchern von Prof. Dr. Michael von Renteln, der unter anderem über die Geschichte der Analysis im 18. Jahrhundert von Euler bis Laplace, die Geschichte der Analysis im 19. Jahrhundert von Cauchy bis Cantor, über Aspekte zur Geschichte der Analysis im 20. Jahrhundert von Hilbert bis J. v. Neumann und über die Die Mathematiker an der Technischen Hochschule Karlsruhe 1825-1945 geschrieben hat.Grundlage für die Mathematik in der Analysis sind die Zahlenmengen, wie die abzählbaren natürlichen Zahlen , ganzen Zahlen , rationale Zahlen und schließlich die überabzählbaren reellen Zahlen . Während die natürlichen Zahlen direkt mit dem Beweisprinzip der vollständigen Induktion in Verbindung stehen und für sich schon ein Thema der Zahlentheorie sind, benötigt man für die Analysis mindestens die reellen Zahlen. Diese kann man über konvergente Folgen bzw. Cauchy-Folgen rationaler Zahlen einführen. Für den Beweis der Äquivalenz dieser beiden Konvergenzbegriffe kann man die Dreiecksungleichung sehr gut gebrauchen. Ein Beispiel für eine Folge rationaler Zahlen, die gegen eine irrationale Zahl konvergieren ist , die gegen die Eulersche Zahl konvergiert, d.h. . Aus jeder Folge kann man eine Reihe bilden, indem man die Folgenglieder aufsummiert. Wichtige Reihen sind die geometrische Reihe mit Summenwert , wenn , und die divergente Harmonische Reihe, mit der man sogar Brücken bauen kann.Über den Begriff der Folge kann man auch offene Mengen und abgeschlossene Mengen definieren, so wie dies auch mit Epsilon-Umgebungen definiert werden kann. Diese Eigenschaften werden im Bereich der mathematischen Topologie noch viel umfassender eingeführt, aber schon diese Darstellungen helfen, den wichtigen Begriff der Funktion in der Analysis und deren Eigenschaften einzuführen. Zur Definition einer Funktion gehört neben der eigentlichen Abbildungsvorschrift die Angabe der Definitionsmenge und der Wertebereich. Ohne diese Informationen ist es nicht möglich Surjektivität und Injektivität nachzuweisen.Eine wichtige Eigenschaft von Funktionen ist der Begriff der Stetigkeit, die man für den Zwischenwertsatz benötigt. Damit kann man zum Beispiel wackelnde Tische reparieren oder mit Anastasia im Science Slam Orte gleicher Temperaturen auf der Erde suchen. Der Zwischenwertsatz gilt zunächst nur für reelle Funktionen, es gibt den Zwischenwertsatz aber auch in allgemeinerer Form.Eine weitere wichtige Eigenschaft von Funktionen ist die Differenzierbarkeit und das Berechnen von Ableitungen mit ihren Ableitungsregeln. Sehr wichtig ist dabei die Exponentialfunktion, die mit ihrer eigenen Ableitung übereinstimmt. Diese Funktion findet man im Alltag in jeder Kettenlinie in der Form des Cosinus Hyperbolicus wieder. Eine wichtige Anwendung für differenzierbare Funktionen ist der Mittelwertsatz, ohne den die Abschnittskontrolle auf Autobahnen zur Geschwindigkeitsüberprüfung nicht denkbar wäre. Aber auch in höheren Dimensionen kann man Differentialrechnung betreiben, und man führt dazu den Gradienten, Richtungsableitungen und z.B. die Divergenz eines Vektorfelds ein.Als Umkehrung der Differentiation erhält man die Integralrechnung. Jedoch ist das Bilden einer Stammfunktion nur bis auf eine Konstante eindeutig. Daher kann man zum Beispiel mit Beschleunigungssensoren im Handy nicht wirklich eine Positions- und Geschwindigkeitsmessung durchführen, sondern muss für die Trägheitsnavigation viele weitere Sensoren mit einbeziehen. Eine andere Einführung des Integrals ist das Lebesgue-Integral oder das Riemannsche Integral, wo man bei letzterem in einem Intervall die Fläche unter einer Kurve durch Treppenfunktionen annähert. Den Zusammenhang dieser beiden Begriff liefert der Fundamentalsatz der Analysis. Leider kann man nicht zu allen Funktionen analytische Stammfunktionen bestimmen. Hier kann dann die numerische Integration zum Einsatz kommen. Die Integration ist aber keine rein abstrakte Idee, sondern wir finden mathematische Zusammenhänge wie den Gaußsche Integralsatz direkt in der Natur wieder.Für den Start im Studium erhält man in Karlsruhe viel Unterstützung: Es gibt Vorkurse und die von der Fachschaft für Mathematik und Informatik organisierte Orientierungsphase, oder kurz O-Phase, in der man die zukünftigen Mitstudierenden kennenlernen kann. Mit diesen sollte man sich gemeinsam den Stoff von Vorlesungen, Übungen und Tutorien erarbeiten, um sich mit gelösten Übungsblättern zur Klausteilnahme zu qualifizieren, und letztlich auch die Prüfungen gemeinsam vorzubereiten.Literatur und Zusatzinformationen W. Reichel: Kurzskript Analysis 1, Vorlesung am KIT, 2012/2013. W. Reichel: Kurzskript Analysis 2, Vorlesung am KIT, 2013. H. Amann, J. Escher: Analysis 1, 3. Auflage, Birkhäuser-Verlag, 2008. O. Forster: Analysis 1, 7. Auflage, Vieweg-Verlag, 2004. H. Heuser: Lehrbuch der Analysis, Teil 1, 15. Auflage, Teubner-Verlag, 2006. K. Königsberger, Analysis 1, 5. Auflage, Springer-Verlag, 2001. W. Rudin, Analysis, 4. Auflage, Oldenbourg-Verlag, 2008. R. Strichartz, The Way of Analysis, Jones and Bartlett-Verlag, 1995. W. Walter, Analysis 1, 7. Auflage, Springer-Verlag, 2007. Konscience Podcast KNS026: Effizienz der photovoltaischen Wasserspaltung erhöht

Modellansatz
Digitale Währungen

Modellansatz

Play Episode Listen Later Aug 21, 2014 142:18


Um im digitalen Umfeld elektronischen Handel zu betreiben, benötigt man einen gesicherten Datenaustausch für Angebote, Verhandlungen und Verträge, aber letztlich auch eine Form von elektronischem Geld auf dem der Handel basiert. Ganz zentral ist dabei die moderne Kryptographie und insbesondere die Public Key-Verfahren, die durch mathematische Verfahren das ganze ermöglichen, soweit die Verfahren sicher, korrekt implementiert und richtig benutzt werden, und es nicht zu einem Fiasko wie dem Heartbleed-Bug kommt. Im Gespräch mit Gudrun Thäter erläutert Sebastian Ritterbusch die Mathematik hinter digitalem Geld und der Kryptowährung Bitcoin. Dazu geht es zunächst in die Zahlentheorie der Restklassenkörper und spezielle Restklassenringe . Mit dem kleinen Satz von Fermat versehen wir eine Einwegfunktion mit einer Falltür und kommen auf Hash-Funktionen und das RSA-Verfahren. Damit kann man auch digital Unterschreiben (sogar bei Bedarf blind signieren), wir diskutieren, wie Verträge durch einen Kollisionsangriff und dem Geburtstagsparadoxon gefälscht werden können, und wie damit erfolgreich ein Root-Zertifikat fingiert wurde. Für das zentral organisierte und anonyme digitale Geld benötigt man dann nur noch das Prinzip des geteilten Geheimnis. Leider kommt das Verfahren gegenüber weniger anonymen Verfahren heute kaum zum Einsatz, im Gegensatz zum Bitcoin-Verfahren, das sich wachsender Beliebtheit erfreut. Hier ersetzt ein Peer-to-Peer-Netzwerk und eine Hash-Kette die zentrale Instanz, und verhindert so das doppelte Ausgeben durch die gemeinsame Vergangenheit von Transaktionen, die über einen Merkle-Baum in die Block-Chain platzsparend integriert werden. Literatur und Zusatzinformationen D.Chaum, A.Fiat, M.Naor: Untraceable electronic cash, Proceedings on Advances in Cryptology, S. Goldwasser, Ed. Springer-Verlag New York, New York, NY, 319-327, 1990. S.Nakamoto: Bitcoin, A Peer-to-Peer Electronic Cash System, Whitepaper, The Cryptography Mailing List, 2008. A.Sotirov, M.Stevens, J.Appelbaum, A.Lenstra, D.Molnar, D.A.Osvik, B.Weger: MD5 considered harmful today, Creating a rogue CA certificate, Crypto 2009 Proceedings, 2009. Z.Durumeric, E.Wustrow, J.A.Halderman: ZMap - der IPv4-Scan J.A.Haldermann: Fast Internet-wide Scanning and its Security Applications, Vortrag 30C3, 2013. Heise.de, bbe: Virenscanner warnt vor Bitcoin-Blockchain, 17.5.2014. Heise.de, axk: Bitcoin: Erstmals gefährliche Konzentration der Mining-Leistung, 16.6.2014. Podcast: T.Pritlove und A.Bogk: CRE182, Elektronisches Geld Podcast: M.Richter und A.Bogk: Die Wahrheit 005, Bitcoins Podcast: F.Blue, X.Initrc, M.Malik: Death of a traveling salesman Podcast: D.Jäckel und A.Schildbach: Bitstaub, Ein Bitcoin Podcast Podcast: Bitcoin Austria: Bitcoin Update Podcast: M.Völter, G.Andresen: Omega Tau 59, Bitcoin

Modellansatz
Sicherheitsventile

Modellansatz

Play Episode Listen Later Feb 27, 2014 22:53


Sicherheitsventile sollen uns durch eine geeignete Auslegung vor Explosionen und Unglücken wie dem Sevesounglück in der Industrie schützen. Doch sind die aktuellen Sicherheitsrichtlinien zeitgemäß? Andreas Schleich hat dazu ein Sicherheitsventil mathematisch modelliert und mit der Lattice-Boltzmann Methode den Betrieb mit numerischer Fluid-Simulation simuliert. Dazu verwendete er ein Large-Eddy Modell zur Turbulenzmodellierung und validierte die Methode mit dem Strömungswiderstandskoeffizient (cW-Wert) einer Metallkugel. Im Gespräch mit Sebastian Ritterbusch erzählt er auch über Vakuumbläschen und andere Herausforderungen in der Simulation. Literatur und Zusatzinformationen OpenLB: Open source lattice Boltzmann code J. Cremers, L. Friedel: Methode zur schwingungssicheren Auslegung von federbelasteten Vollhubsicherheitsventilen mt Zu‐ und Ableitung bei Gasströmung, Chemie Ingenieur Technik 73.9: 1178-1182, 2001. D. Smith, J. Burgess, C. Powers: Relief device inlet piping: Beyond the 3 percent rule: With careful consideration, an engineer can be certain that an installation will not chatter, Hydrocarbon processing 90.11, 2001. P. Nathen, D. Gaudlitz, M. J. Krause, J. Kratzke: An extension of the Lattice Boltzmann Method for simulating turbulent flows around rotating geometries of arbitrary shape, 21st AIAA Computational Fluid Dynamics Conference. American Institute of Aeronautics and Astronautics, 2013. J. Fietz et al.: Optimized hybrid parallel lattice Boltzmann fluid flow simulations on complex geometries, Euro-Par 2012 Parallel Processing. Springer Berlin Heidelberg, 818-829, 2012.

Modellansatz
Migräne

Modellansatz

Play Episode Listen Later Feb 20, 2014 114:51


Das Gehirn ist nicht nur eine graue Substanz, sondern ein sehr komplexes Organ, wo es noch viel zu erforschen gibt. Markus Dahlem befasst sich mit der Migräne, und erklärt im Gespräch mit Gudrun Thäter und Sebastian Ritterbusch, wie hier mit Modellbildung im Gehirn neue Erkenntnisse erzielt werden: Migräne ≠ Kopfschmerzen, auf diese einfache Formel kann man es bringen. Denn Migräne ist eine Krankheit, Kopfschmerz ein Symptom. Kopfschmerzen sind nicht einmal notwendiges Merkmal dieser Volkskrankheit, die, je nach Detailtiefe der Diagnose, in bis zu 19 Unterformen klassifiziert werden kann, eine davon ohne Kopfschmerzen dafür mit visuellen Halluzinationen, die man Aura nennt. Laut der neusten Studie der Weltgesundheitsorganisation über die globale Gesundheitsbelastung ist Migräne weltweit für fast 3% der Behinderungen verantwortlich. Damit befindet sich Migräne an achter Stelle der am schwersten belastenden Krankheiten und auf dem ersten Platz unter den neurologischen Erkrankungen. Wie kann hier die Mathematik helfen? Der Verlauf einer Migräne mit Aura ist kennzeichnend für einen bestimmten Mechanismus raum-zeitlicher Strukturen. Solche Strukturen zum Beispiel in Form lokalisierter Wellensegmente sind in der Musterbildung aus Reaktion-Diffusions-Systemen vom Aktivator-Inhibitor-Typ bekannt. Literatur und Zusatzinformationen Markus A. Dahlem: Graue Substanz, SciLogs Blog. Markus A. Dahlem: Dynamik der Migräne- Modelle aus der Physik tragen dazu bei, bislang unverstandene Phänomene der Migräne zu erklären, Physik Journal 11.10: 39, 2012. Markus A. Dahlem, Thomas M. Isele: Transient localized wave patterns and their application to migraine, The Journal of Mathematical Neuroscience (JMN) 3.1: 1-28, 2013. Markus A. Dahlem: Migraine generator network and spreading depression dynamics as neuromodulation targets in episodic migraine. Chaos: An Interdisciplinary Journal of Nonlinear Science 23.4: 046101, 2013.

omega tau science & engineering podcast » Podcast Feed
141 – (Mathematische) Modellbildung

omega tau science & engineering podcast » Podcast Feed

Play Episode Listen Later Feb 14, 2014 127:20


In vielen bisherigen Episoden haben wir uns implizit mit mathematischen Modell befasst. In dieser Episode rollen wir das Thema nochmal systematisch auf und unterhalten uns dazu mit Gudrun Thäter und Sebastian Ritterbusch vom Karlsruhe Institut für Technologie (und dem Der Modellansatz Podcast). Wir unterhalten uns zunächst allgemein was Modelle sind und woher ich weiß, dass ich ein dem Modellzweck angemessenes Modell gewählt habe. Wir besprechen dann typische Abstraktionen und Lösungsverfahren für mathematische Modelle.

thema technologie modell modelle modellbildung sebastian ritterbusch gudrun th
Modellansatz
Lärmschutz

Modellansatz

Play Episode Listen Later Feb 13, 2014 32:08


Der Autoverkehr macht Lärm, und vor diesem möchte man die Umwelt mit Lärmschutzwänden oder Lärmschutzwällen schützen. Tilo Arens erklärt im Gespräch mit Sebastian Ritterbusch, wie man die Schallausbreitung mit der Helmholtz-Gleichung mathematisch modellieren kann und durch das Huygens-Prinzip mit Randelementen und Integralgleichungen simulieren kann. Literatur und Zusatzinformationen S. Chandler-Wilde, S. Langdon: Boundary element methods for acoustics, Introductory lecture notes on FEM and BEM for acoustics problems, University of Reading, 2007. EPSRC Support Mathematics for Acoustics Research Training. Mc Laughlin, Philip: Outdoor sound propagation and the boundary element method, Diss. MSc dissertation, University of Reading, 2005. A. Meier: Boundary element methods for outdoor sound propagation, Diss. Ph. D. thesis, Brunel University, 2001. A. Peplow, S. Chandler-Wilde: Noise propagation from a cutting of arbitrary cross-section and impedance, Journal of sound and vibration 223.3, 355-378, 1999.

Modellansatz
Lawinen

Modellansatz

Play Episode Listen Later Feb 6, 2014 16:36


Lawinen und Muren sind im alpinen Bergland allgegenwärtige Gefahren, daher ist die Simulation des Abgangs gerade für Anwohner und Versicherungen sehr wichtig. Auf Basis eines Geländemodell aus dem Grass GIS Geoinformationssystem hat Katharina Schratz das mathematische Modell numerisch umgesetzt, und geht im Gespräch mit Sebastian Ritterbusch auf die Besonderheiten der Diskretisierung und der speziellen CFL-Bedingungung für numerische Stabilität ein. Literatur und Zusatzinformationen Mergili, M., Schratz, K., Ostermann, A., and Fellin, W.: Physically-based modelling of granular flows with Open Source GIS, Natural Hazards and Earth System Sciences, 12, 187-200, 2012. Pudasaini, Shiva P., and Kolumban Hutter, eds. Avalanche dynamics: dynamics of rapid flows of dense granular avalanches, Springer, 2007. Mergili, Martin, et al.: Simulation of debris flows in the Central Andes based on Open Source GIS: possibilities, limitations, and parameter sensitivity, Natural hazards 61.3: 1051-1081, 2012.

Modellansatz
Windsimulation im Stadtgebiet

Modellansatz

Play Episode Listen Later Jan 30, 2014 46:41


Irina Waltschläger modelliert den Wind im Stadtgebiet, um die Luftbewegung ausgehend von einem Gebäude- und Geländemodell mit den Navier-Stokes Gleichungen als Fluid simulieren und analysieren zu können. Im Gespräch mit Sebastian Ritterbusch erklärt sie, wie sie dazu künstliche Randbedingungen auf der Basis meteorologischer Erkenntnisse zum Windprofil entworfen hat, und deren Einfluss auf die Simulation analysierte. Literatur und Zusatzinformationen I. Waltschläger, et al.: Augmented Reality Visualization of Numerical Simulations in Urban Environments, International Journal On Advances in Systems and Measurements 6.1 and 2, pp. 26-39, 2013. T. Hauenstein: Das 3D-Stadtmodell Karlsruhe, INTERGEO, Karlsruhe, 2009. S. R. Hanna, et al.: Detailed simulations of atmospheric flow and dispersion in downtown Manhattan: An application of five computational fluid dynamics models, Bulletin of the American Meteorological Society, vol. 87, no. 12, pp. 1713–1726, 2006.

ZKM | Karlsruhe /// Veranstaltungen /// Events
Sebastian Ritterbusch: 3D-Exploration

ZKM | Karlsruhe /// Veranstaltungen /// Events

Play Episode Listen Later Dec 31, 2013 16:17


3D-Festival BEYOND 2013 | Symposium Thu, October 3 − Sun, October 6, 2013 »Science: BEYOND the visible«

Modellansatz
Ad-hoc Netzwerke

Modellansatz

Play Episode Listen Later Nov 14, 2013 61:14


Leonid Chaichenets hat Ad-hoc Netze modelliert, und dadurch die Optimierung der erfolgreichen Übertragungen ermöglicht. Er erklärt im Gespräch mit Sebastian Ritterbusch wie mit Verfahren aus der stochastischen Geometrie in Zukunft bessere Kommunikationsnetze für Notkräfte entwickelt werden können. Ein besonderes Merkmal der Netze ist, dass einzelne Teilnehmer nichts über ihre Kommunikationspartner wissen. Wie soll es funktionieren, dass nicht alle versuchen gleichzeitig zu senden? Mit einer geschickten Aloha Strategie kann man alleine aus dem Verhalten der Teilnehmer die Qualität des Netzes im Voraus berechnen und damit die Gesamtleistung optimieren. Literatur und Zusatzinformationen Vortrag: Communication in wireless ad hoc networks zur Summer School "Zufall in Physik und Mathematik: Vom Quantenchaos zur freien Wahrscheinlichkeit", Bielefeld, 5. - 17. August 2013. R. Tanbourgi, H. Jäkel, L. Chaichenets, F. Jondral: Interference and Throughput in Aloha-based Ad Hoc Networks with Isotropic Node Distribution, IEEE International Symposium on Information Theory 2012, Cambridge, MA, USA, July 1 - 7, 2012. Baccelli, François and Bartłomiej Błaszczyszyn: Stochastic Geometry and Wireless Networks Volume 1: THEORY, volume 3 of Foundation and trends in networking. NOW Publishers, Delft, 2009. Baccelli, François and Bartłomiej Błaszczyszyn: Stochastic Geometry and Wireless Networks Volume 2: APPLICATIONS, volume 4 of Foundation and trends in networking. NOW Publishers, Delft, 2009.

Modellansatz
Computertomographie

Modellansatz

Play Episode Listen Later Nov 7, 2013 35:38


Yuemin Liang hat Methoden entwickelt, mit denen Bewegungen während einer Computertomographie herausgerechnet werden können, um bessere Rekonstruktionen zu erhalten. Dafür verwendet sie Marker, die im Sinogramm verräterische Spuren zeigen, wenn es zu Bewegungen gekommen ist, kann so die ungewollten Bewegungen zum Teil kompensieren, und erklärt das Ganze im Gespräch mit Sebastian Ritterbusch. Literatur und Zusatzinformationen W. Lu, P. J. Parikh, J. P. Hubenschmidt, D. G. Politte, B. R. Whiting, J. D. Bradley, And D. A. Low: Reduction of motion blurring artifacts using respiratory gated CT in sinogram space- a quantitative evaluation, Medical physics (2005), 32, 3295. W. Lu, and T. R. Mackie: Tomographic motion detection and correction directly in sinogram space, Physics in medicine and biology (2002) 47.8, 1267. A. C. Kak, and M. Slaney: Principles of computerized tomographic imaging, Vol. 33. Siam, 1988.

Modellansatz
Pumpspeicherkraftwerke

Modellansatz

Play Episode Listen Later Oct 31, 2013 42:44


Julia Dickmann optimiert den Betrieb von Pumpspeicherkraftwerken ohne die Zukunft der Strompreise und Regenfälle genau zu kennen. Dazu geht sie im Gespräch mit Sebastian Ritterbusch auf Zeitreise aus der Zukunft in die Gegenwart, und berechnet so mit Topologiematrix und Simplex-Verfahren optimale Steuerungsstrategien auf Basis von statistischen Modellen. Literatur und Zusatzinformationen Dimitri P. Bertsekas: Dynamic programming and optimal control, Vol. 1., Athena Scientific, 2005. C. Cervellera, Cristiano, V. C. P. Chen, and A. Wen: Optimization of a large-scale water reservoir network by stochastic dynamic programming with efficient state space discretization, European Journal of Operational Research 171.3: 1139-1151, 2006. B. Falguni, and D. N. Kumar: Stochastic Linear Programming for Optimal Reservoir Operation: A Case Study, Proc. of International Conference on Large Scale Water Resources Development in Developing Countries: New Dimensions of Prospects and Problems, Kathmandu, Nepal, 1997.

Modellansatz
Erdölsuche

Modellansatz

Play Episode Listen Later Oct 24, 2013 60:49


Jörg Bäuerle hat ein Verfahren zur verbesserten Erdölsuche erforscht, das passiv die elektromagnetische Ausstrahlung von Erdölfeldern auswerten kann. Wie im Gespräch mit Sebastian Ritterbusch zu hören, steckt darin viel Mathematik, Freude über L-Kurven und nicht nur ein inverses Problem. Literatur und Zusatzinformationen Poster von J. Bäuerle, A. Helfrich-Schkarbanenko, A. Sommer: Passive Erdölexploration aus der Luft, Young Investigator Network - Day, Karlsruhe, Oktober, 2013. A. Helfrich-Schkarbanenko: Elektrische Impedanztomografie in der Geoelektrik, Dissertation am Karlsruher Institut für Technologie, 2011. M. Hanke: Mathematische Grundlagen der Impedanztomographie, Skriptum, Johannes Gutenberg-Universität, 2004. W. R. B. Lionheart: EIT reconstruction algorithms: pitfalls, challenges and recent developments, arXiv preprint physics/0310151, 2003. P. C. Hansen: The L-curve and its use in the numerical treatment of inverse problems, IMM, Department of Mathematical Modelling, Technical University of Denmark, 1999.

Modellansatz
Unsichtbarkeit

Modellansatz

Play Episode Listen Later Oct 17, 2013 42:23


Andreas Helfrich-Schkarbanenko befasst sich mit der mathematischen Beschreibung der Unsichtbarkeit, Metamaterialien und berichtet im Gespräch mit Sebastian Ritterbusch über Simulationsexperimente zu akustischen und elektromagnetischen Tarnkappen. Zusammen mit Muamer Kadic und Philipp Klas passten sie eine Tarnkappe an ein inhomogenes Hintergrundmedium an. Literatur und Zusatzinformationen Übersichtsposter: Akustische Tarnkappe im inhomogenen Hintergrundmedium D. Torrent and J. Sanchez-Dehesa: Acoustic cloaking in two dimensions: a feasible approach, New Journal of Physics 10 (2008). S. Guenneau, R. C. McPhedran, S. Enoch, A. B. Movchan, M. Farhat and N. P. Nicorovici: The colours of cloaks, Journal of Optics (2010). J. B. Pendry, D. Schurig and D. R. Smith: Controlling electromagnetic fields, Science 312, 1780 (2006). K. Astala, M. Lassas, L. Paivarinta: The borderlines of the invisibility and visibility for Calderon's inverse problem, arXiv preprint arXiv:1109.2749 (2011).

Modellansatz
Die Aorta-Challenge

Modellansatz

Play Episode Listen Later Oct 10, 2013 36:08


Thomas Henn spricht mit Sebastian Ritterbusch über seine Blutflusssimulationen in der Aorta, die mathematische Beschreibung, wie man über ein Becken geht, numerische Simulationen auf einem Großrechner und über den internationalen Vergleich der Ergebnisse. Literatur und Zusatzinformationen LNCS 7746: Statistical Atlases and Computational Models of the Heart. Imaging and Modelling Challenges, Third International Workshop, STACOM 2012, Held in Conjunction with MICCAI 2012, Nice, France, October 5, 2012. M. J. Krause: Fluid flow simulation and optimisation with lattice Boltzmann methods on high performance computers: application to the human respiratory system, Dissertation at the Karlsruhe Institute of Technology, 2010. OpenLB - Open Source Lattice Boltzmann Code

Modellansatz
Mathematische Modellbildung

Modellansatz

Play Episode Listen Later Oct 3, 2013 37:21


Gudrun Thäter spricht mit Sebastian Ritterbusch über Mathematische Modellbildung und die zugehörige Vorlesung im Studium, über überraschende Ventile, dem Stau aus dem Nichts und Fußgängersimulationen. Literatur und Zusatzinformationen H.-J. Bungartz, S. Zimmer, M. Buchholz, D. Pflüger: Modellbildung und Simulation: Eine anwendungsorientierte Einführung, Springer Verlag, 2013. F. Haußer, Y. Luchko: Mathematische Modellierung mit MATLAB: Eine praxisorientierte Einführung, Spektrum Verlag, 2010. S. Howison: Practical Applied Mathematics- Modelling, Analysis, Approximation, Cambridge University Press, 2005. M. Braun: Differentialgleichungen und ihre Anwendungen, Springer Verlag, 1991.

ZKM | Karlsruhe /// Veranstaltungen /// Events
Dr. Sebastian Ritterbusch: 3D Exploration

ZKM | Karlsruhe /// Veranstaltungen /// Events

Play Episode Listen Later Dec 31, 2012 30:42


3D-Festival BEYOND 2012 | Symposium Thu, June 21 – Sun, June 24, 2012 Karlsruhe becomes the epicenter of the 3D pioneer work: The 3D-Symposium BEYOND is the continuation of the successfully conducted 3D-Festival BEYOND, gathering the most important national and international signposts and innovators of stereoscopic 3D, such as Wim Wenders, Keith Cunningham and Jeffrey Shaw featuring lectures to impel new contents next to application devices in the area of TV, art, science, storytelling and education within this future technology. These different topic areas build the bases of an unusual 3D experience, while the focus of the symposium will refer to the intermediation and transfer of knowledge with help of discussions and lectures. All lectures will be held in English!