POPULARITY
Das Laden zu Hause ist sicherlich die einfachste und komfortabelste Möglichkeit, sein Elektrofahrzeug mit frischer Energie zu versorgen, denn da steht das Auto sowieso viele Stunden Tag und Nacht herum. Wenn man ein Eigenheim besitzt, ist es außerdem ziemlich einfach, dort eine entsprechende Lademöglichkeit zu installieren.Nun leben allerdings die meisten Menschen nicht in Einfamilien-, sondern in Mehrparteienhäusern. Hier ist es deutlich komplizierter, eine Ladelösung zu verbauen, wenn man denn überhaupt den Luxus eines eigenen Stellplatzes hat.Welche gesetzlichen Randbedingungen es gibt, um Gebäude mit Ladeinfrastruktur auszurüsten und wie ein „gesunder“ Mix an privater und halböffentlicher Ladeinfrastruktur in Zukunft aussehen könnte, das erläutert uns erklärt uns Friederike Piper von Transport & Environment in dieser Episode.
Höre ein in eine faszinierende Folge des Mensch-Technik Podcasts, in der wir uns dem Thema Zukunft oder nicht-Zukunft der Elektro-Mobilität widmen. Tauche mit mir ein in die Welt der Elektrifizierung des Autos, einem Thema, das in den letzten Wochen die Schlagzeilen dominiert hat. Doch was steckt wirklich hinter den Untergangsszenarien? In dieser Episode gebe ich einen Einblick in den aktuellen Stand der Elektro-Mobilität, die politischen, ökonomischen und technologischen Randbedingungen. Wir werden die Gründe für etwaige Hindernisse erkunden und uns mutig vorwagen, um einen Blick in die Zukunft zu werfen. Begleite mich auf dieser spannenden Reise, die Dein Verständnis für die Elektro-Mobilität revolutionieren wird.
Eine Podcast-Episode mit dem Datei- und Objektspeicher-Anbieter Cloudian* zu kundenseitigen Anforderungen und strategische Antworten auf den stetig steigenden Speicherbedarf im Bereich von unstrukturierten sowie semi-strukturierten Daten, akuell verstärkt im Zusammenhang mit KI- und hybriden Cloud-Anwendungen. Mit Kundenbeispielen... *Gesprächspartner ist Herr Carsten Graf, VP EMEA Sales, bei Cloudian®. Cloudian ist ein spezialisierter Datei- und Objektspeicher Anbieter (aus dem Silicon Valley) und auf S3-API-Speichersysteme spezialisiert. Das Unternehmen stellte erstmals 2011 seine objektbasierte Plattform HyperStore® vor. Moderation und Fragen: Norbert Deuschle vom Storage Consortium. Einzelne Punkte, die in diesem Podcast näher behandelt werden (Hörzeit 20 min): Object Storage ist mit File Storage ein wesentlicher technologischer Aspekt jeder zukunftsorientierten Speicher- und Datenverwaltungsstrategie im größeren Maßstab. Objekt Storage als ein technisches Element in der Cloud hat die Datenspeicherung selbst in einen Service verwandelt (von CAPEX zu einer berechenbaren Betriebsausgabe, OPEX). Gerade entstehen mit dem raschen Wachstum im Umfeld von (generativer) KI neue Herausforderungen. Skalierbare Speicherservices für primär unstrukturierte Daten werden deshalb verstärkt nachgefragt. Ein weiterer Aspekt betrifft die Modernisierung und Integration mit Datensicherungslösungen, mit dem Schwerpunkt auf schnellen Restore und Unveränderlichbarkeit, sowie erhöhtem Datenschutz auf Grund von steigenden Cyberbedrohungen. Performance-Aspekte und Cloud-native Anwendungsszenarien sind weitere Aspekte des modernen Daten- und Speichermanagements. In diesem Zusammenhang gilt es die dynamischen Entwicklungen im KI-Umfeld auf der IT-Infrastrukturseite zu berücksichtigen und betrieblich sinnvoll abzubilden. In Summe ergeben sich daraus sich eine Reihe komplexer Anforderungen aber auch Lösungsansätze, über die wir in dieser Episode sprechen werden. Die (technologischen) Randbedingungen in diesem Zusammenhang sind: KI und Data Analytics, Flash Performance Backup- und Cyberprotection, Data Privacy DevOps-Initiativen, Cloud-native, Kubernetes & Co. Weitere Informationen zum Thema finden Sie unter www.storageconsortium.de
Die Time to Market ist insbesondere bei europäischen Herstellern mit deren Kostenstrukturen entscheidend für deren Wettbewerbsfähigkeit. Nicht nur die Zulassungsgeschwindigkeit bestimmt diese Time to Market, sondern auch die Geschwindigkeit, mit der die Hersteller ihre Produkte entwickeln, verifizieren und validieren - beispielsweise durch klinische Prüfungen. In dieser Podcast-Episode stellt Dr. Simon Sonntag vor, wie digitale Zwillinge nicht nur die Geschwindigkeit bis zur Inverkehrbringung erhöhen, sondern auch in der Post-Market-Phase nützlich sind. Er stellt im Gespräch mit Professor Johner verschiedene Einsatzbereiche vor, beschreibt die regulatorischen Randbedingungen und Möglichkeiten und gibt sowohl einen Ausblick auf die Zukunft als auch ganz konkrete erste Schritte, welche die Medizinproduktehersteller gehen sollten.
Neulich hat Benno ein Webinar gemacht und darin besprochen, welche Randbedingungen und Glaubenssätze hinter der erfolgreichen Anwendung bestimmter Philosophien stecken: - Lean - Agile - 6Sigma - TOC - Taylorismus Ein treuer Hörer, Marten Lucas, hat gefragt, ob wir das auch mal mit Scrum tun könnten. Hier das Ergebnis.
Nachhaltigkeitsmanagement I Donut-Ökonomie, Folge 18 Die Donut-Ökonomie wurde 2012 von der britischen Wirtschaftswissenschaftlerin Kate Raworth vorgestellt und seither weiterentwickelt. Die Donut-Ökonomie geht von einer Reihe planetarer und sozialer Grenzen aus: Klimawandel, Verlust der Artenvielfalt, Gesundheit und Bildung. Bei diesen Grenzen darf es kein Defizit geben. Der in Form eines Donuts visualisierte Spielraum für wirtschaftliches Handeln ergibt sich durch diese Grenzen. Es gehe darum, ökonomische Prioritäten neu zu fokussieren. Statt Wirtschaftswachstum um jeden Preis sind die ökologischen und sozialen Indikatoren als Randbedingungen zu berücksichtigen. Donut-Ökonomie ist kein generelles Postwachstumskonzept. Aber es ist diesbezüglich differenzierter. Die niederländische Hauptstadt Amsterdam hat als erstes zusammen mit Kate Raworth ein Konzept für die Stadt- und Wirtschaftsentwicklung nach der Donut-Ökonomie entwickelt. So soll die Energiegewinnung auf Solarstrom und Windkraft umgestellt und auf diese Weise der CO2-Ausstoß entscheidend gesenkt werden. Nach Möglichkeit sollen nur noch recycelte Rohstoffe zum Einsatz kommen – ab 2050 sogar zu 100 Prozent. Ein Verfahren zur Wiederverwertung von Zement wurde entwickelt. Eine Wohnungseigentümergemeinschaft baut klimaneutrale Häuser auf dem Wasser und der platzsparende Nahrungsmittelanbau mitten in der Stadt wird erprobt. Auch die Städte Kopenhagen, Philadelphia und Portland (Oregon) arbeiten an der Einführung der Donut-Ökonomie. In Deutschland stehen die Städte Bad Nauheim und Krefeld in den Startlöchern. Wie Sie hören, ist das durchaus ein umsetzbares Konzept für Wirtschafts- und Regionalpolitik. Wie jedoch einzelne Unternehmen damit nachhaltiger werden sollen, dass scheint mit der Donut-Ökonomie nicht beantwortet zu werden. Bleiben wir also noch ein Weilchen dabei, anzusehen, welche Ansätze es noch gibt, so auch in Folge 19. Auf wiederhören! Klaas Kramer, Studienbriefautor der Deutschen Akademie für Management Hier finden Sie alle Podcasts der Reihe Nachhaltigkeitsmanagement
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Erich Behrendt ist Professor an der University of Europe for Applied Sciences für Digital Transformation and Leadership und Vorsitzender des wisnet e.V. Als Basis für das Verständnis des Metaversums hilft Erich Behrendt zunächst bei der Einordnung der verschiedenen, häufig genutzten Begriffe wie: Immersion, Virtual Reality, Augmented Reality, Digital Twin usw. Natürlich wird auch über die Vision von Mark Zuckerberg diskutiert, dass wir alle in Zukunft den größten Teil unseres Lebens in einer virtuellen Welt verbringen werden. Doch welche realen Möglichkeiten mit neuen Chancen ergeben sich bereits heute für Unternehmen unter ökonomischen Randbedingungen? Wie könnte die Zukunft aussehen und warum „probieren geht über studieren“ der richtige Weg ist, sich dem Metaversum zu nähern.
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Zum Inhalt der Podcast-Episode: unstrukturierte Filedaten wachsen sowohl im Core als auch im Edge. Dazu kommt: technische Fortschritte als auch regulatorische Rahmenbedingen führen zu geänderten, dynamischen Anforderungen an den Daten-Lebenszyklus. Dazu gehört die Notwendigkeit die Verfügbarkeit dieser Daten über längere Zeiträume zu gewährleisten und sie vor Verlusten, Katastrophen und Cyber-Angriffen in verteilten Umgebungen zu schützen. IT-Verantwortliche stehen gerade hier unter zunehmenden Druck, ihre Datei-Infrastrukturen skalierbar zu erweitern aber auch zu vereinfachen und mit vertretbaren Kosten zu modernisieren. Hierbei spielen Aspekte wie Home Office, RZ-Konsolidierung nebst Rationalisierung, Datenmigrationen, Backup, Replikations-Verfahren für Disaster-Recovery-Zwecke sowie aktuell verstärkte Umweltauflagen und Compliance-Initiativen eine Rolle. Bei großen Mengen an unstrukturierten Filedaten kommen klassische Hardware-zentrierte NAS-Speicherumgebungen hier schnell an ihre Grenzen und moderne Lösungsansätze unter Einbeziehung von Cloud-Technologien sind gefordert. S3 Object Storage ist - wie bereits mehrfach thematisiert - zwar ein wichtiger Teil dieser Architektur, aber es braucht noch mehr. Wichtig sind leistungsfähige Dateisysteme, die eine sichere, kosteneffiziente und transparent skalierbare Datenspeicherung – je nach Anforderungen vor-Ort und in der Cloud - ermöglichen. Wie diese Anforderungen und Randbedingungen mit dem aktuellen Lösungsportfolio von NASUNI adressiert werden können, darum geht es in dieser Podcast Episode mit Herrn Markus Warg, Nasuni Field Technical Director, EMEA (1). Die Fragen stellt Norbert Deuschle vom Storage Consortium. Es werden u.a. folgende Aspekte angesprochen: Einleitung: Drängende Herausforderungen aus Sicht von NASUNI mit ausgewählten Beispielen. Unstrukturierte File-Daten, Objektdatenspeicher, S3 und die Cloud: Migration lokaler Fileserver-Ressourcen, NAS-, Backup- und DR-Infrastrukturen mit Hilfe von Nasuni Software und Public Cloud Anbietern wie Azure, Google oder AWS. Weshalb Organisationen diesen Weg gehen sollten. Cybersicherheit als eine Priorität: Ransomware-Angriffe nehmen zu. Business Case und Budgets für Infrastrukturinvestitionen in den Bereichen Datenschutz und Speicher-/Datenverwaltung über File-Backup- und Notfallplanung (Disaster Recovery). Welche Strategien sind für Nasuni in diesem Umfeld zielführend? Backup bringt bei einer großen Menge an unstrukturierten Filedaten aufgrund der Komplexität (Menge, Formate, Verteilung, Policies, usw.) eine Reihe von Besonderheiten mit sich, die Verantwortliche kennen sollten. Wo liegen die Herausforderungen und wie lassen sich diese Prozesse möglichst vereinfachen und beschleunigen? Reduzierung der Gesamtkosten zur Beschaffung und Verwaltung von Dateispeicher-Umgebungen (TCO) bei gleichzeitiger Erhöhung des Return-on-Invest (ROI) zur Erzeugung eines höheren Geschäftswerts aus den IT-Investitionen. Erweiterte Dateizugriffe im Hinblick auf die geschäftliche Vorteile und nicht nur auf die IT. Stichwort: Information als ein Unternehmenswert. Zusammenfassung: Die optimierte Strategie im Bereich von Filedaten-Speicherung und Verwaltung kann Unternehmen helfen die zunehmende Lücke zwischen Datenwachstum, Komplexität und IT-Infrastrukturkosten zu schließen. Das Nasuni Datenservice-Modell als Cloud-native SaaS-Software-Plattform transformiert traditionelle NAS Datei-Infrastrukturen mit einer Reihe von spezifischen Filedaten-Services und der Möglichkeit, dazu einen oder bei Bedarf mehrere Cloud-Anbieter zu wählen. Die Filedaten werden im Rahmen der Lösung innerhalb eines skalierbaren Cloud-Objektspeichers konsolidiert, um von überall auf diese Dateien sicher zugreifen zu können.
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Der Begriff “Bestandsschutz” bei Gebäude wird von vielen häufig falsch verstanden und missbraucht, weil sie sich nicht mit den dafür erforderlichen Randbedingungen auskennen. Um hier etwas Licht ins Dunkle zu bringen, habe ich eine Reihe von Videos gedreht, die sich mit dem Thema Bestandsschutz beschäftigen. Es muss jedoch klar sein, dass hier nur die “Spitze des Eisberges” sichtbar gemacht werden kann, weil das Thema “Bestandsschutz” sehr umfangreich und nicht eindeutig abgrenzbar ist. Nicht umsonst sind damit viele Fachanwälte und Gerichte befasst. Achtung - das hier ist keine Rechtsberatung! Hier ist der Link zu dem Schreiben, auf das ich mich im Video beziehe: https://www.stmb.bayern.de/assets/stmi/buw/staedtebau/iib7_hinweise_brandschutz_in_bestehenden_gebaeuden_20110725.pdf
Ist eine friedliche Scheidung überhaupt möglich, wenn die Randbedingungen nicht passen?Ich bin der Meinung: Nein. Wir brauchen eine neue Trennungskultur.Und das betrifft nicht nur das Paar selbst, nicht nur die Familie, nein, das ist ein gesellschaftliches Thema. Hier ist Umdenken gefragt. In vielen Bereichen.Nur so können die Folgen, die wir derzeit auch als Gesellschaft tragen, verändert werden. Jedes Jahr leiden über 80.000(Tendenz steigend!) Kinder unter der Scheidung ihrer Eltern und den psychosomatischen Folgen. Die Kosten für unser Gesundheitssystem und Unternehmen werden vermutlich gar nicht erfasst, wenn Menschen in der Scheidung unter dem Stress leiden und nicht mehr arbeitsfähig sind.Darum ist dieser Podcast WICHTIG für viele Menschen, auch die, die die Trennung bereits hinter sich haben oder die gar nicht unmittelbar davon betroffen sind.TEILE DIESEN PODCAST, UM DIESE MENSCHEN ZU ERREICHEN.Dann kann sich etwas verändern.Für dich. Für uns. Für unsere Kinder. Für alle.Willst Du wieder mehr Harmonie und Liebe in der Partnerschaft spüren?Möchtest Du Vertrauen aufbauen und Konflikte lösen?Oder möchtest du wissen, ob eine Begleitung in der Trennung (emotional, rechtlich und sachlich) die Lösung für deine individuelle Herausforderung ist?
Fragestellungen aus der Unterhaltung mit Christoph Hübner: Was sind Signaturen? Was sind typische Anwendungsfelder digitaler Signaturen, wer sind die typischen "Mitspieler"? Was ist deren Nutzen, den sie aus digitalen Signaturprozessen ziehen? Welche Skalierungseffekte sind im Kontext digitaler Signaturen relevant? In welche übergeordneten Ökosysteme sind digitale Signaturen eingebunden, welche externen Randbedingungen und Wechselwirkungen ergeben sich daraus? Welche Rolle spielt diese Form der Digitalisierung in Deutschland, wo stehen andere Nationen in diesem Kontext? Welche Wechselwirkungen gibt es mit der analogen Welt?
Saugute Zusammenarbeit mit Benno Löffler; Moderation: Julia Henke Wie gelingt es, Organisationen auf hervorragende Wertschöpfung einzustellen? Warum scheitern 80% aller Initiativen – ganz egal ob die Transformation „Agile“ oder „Lean“ genannt wird? Warum schadet Prozess- und Kostenfokus in manchen Firmen mehr, als er nützt? Können, Ideen, Entscheidungen, interdisziplinäre Zusammenarbeit, Engagement tragen Unternehmen in die Zukunft. Dem Management kommt dabei eine entscheidende Rolle zu, denn es setzt die Randbedingungen für die tägliche Wertschöpfung, für Innovation und für Transformation. Benno Löffler ist ein - wie soll ich sagen - irrer Typ, man muss ihn erlebt haben. Am besten natürlich in Präsenz. Wir hatten ihn in der WeSession am 1. Juni 22 zumindest schon mal virtuell zu Gast. Mit Sicherheit nicht das letzte Mal. Viel Vergnügen beim Gespräch, das im Dialog zwischen Julia Henke und Benno begann, aber - wie üblich in der Community - bald in einen lebendigen Austausch zwischen unseren Mitgliedern und Benno überging. MITGLIED WERDEN Expedition Arbeit wünscht sich viele, neue Mitglieder: Denn dann können wir gemeinsam mehr bewirken, außerdem schaffen wir nur ab einer gewissen Größe die gewünschten Netzwerk- und Matching-Effekte. Vor allem aber glauben wir, dass wir nur mit ganz vielen auch ganz viel in Sachen sinnstiftender, selbstbestimmter und wirksamer Arbeit erreichen können. Mitglied werden ist einfach. Kündigen übrigens auch. Weil es eben kein Abo ist, sondern eine Mitgliedschaft. Alles dazu findet Ihr auf unserer Website oder direkt auf der Crowdfunding-Plattform Steady: https://steadyhq.com/de/expeditionarbeit/about Kommt an Bord, seid dabei, lasst uns etwas bewegen! ALLGEMEINE LINKS zu Expedition Arbeit Ideen, Anregungen und Kritisches an die Redaktion: florian@expedition-arbeit.de Expedition Arbeit-Mitglied werden Mitglied bei Expedition Arbeit werden Du willst in der Community mitmachen? Dann melde dich bei Der öffentliche Expedition Arbeit-Newsletter Unsere halböffentliche LinkedIn-Gruppe Unsere öffentliche LinkedIn-Seite Expedition Arbeit bei Twitter Expedition Arbeit, Event-Kalender Community Management und Host Community Radio: Florian Städtler bei LinkedIn Redaktionsleitung: Wolfgang Pfeifer Sprecherin Zwischenmoderationen: Stefanie Mrachacz Schnitt und Mix: Yannik Mattes Die Musik und SFX (Sound-Effekte) in allen Sendungen stammen von der Plattform bzw. von Florian Städtler
Im Tech-Podcast nachgefragt: Expertengespräch mit HPE und Cancom am Beispiel von Scality ARTESCA, container-basierte „fast Object“ Storage Software Lösung Zum Hintergrund: Unternehmenswichtige Daten werden - von Core-to-Edge - in immer größeren Mengen erzeugt. Das betrifft Enterprise Anwendungen in Rechenzentren und in der Cloud / SaaS, Industrial Internet of Things mit Sensoren an Außenstellen, Video-Überwachung, Maschinendaten usw. Zusätzlich fordert der beschleunigte Einsatz von ML- und künstlicher Intelligenz auf Grund von Digitalisierungs-Initiativen die Speicher- und IT-Infrastruktur heraus. Stichworte: Datenmobilität, Agilität, Sicherheit, skalierbare Leistung, Kosten. Zum Podcast-Inhalt (Hörzeit: 28:21 min.) Die Gesprächspartner dieser Folge sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei Cancom SE. Die Fragen stellt Norbert Deuschle (Storage Consortium): Wo liegen für ihre Kunden derzeit die größten Herausforderungen im Bereich der Daten- und Speicherverwaltung ? ARTESCA ist ein verteiltes Objektspeichersystem, das mit Cloud-nativen Methoden als Set von containerisierten Mikroservices auf Basis einer Scale-out-Architektur aufgebaut ist. Warum soll ich mich als mittelständisches Unternehmen mit vielleicht nur 50 oder 100 TB überhaupt mit dieser Art von Lösungen beschäftigen? Mit Einsatzbeispielen (Use Cases) Kosteneffizienz, Performance und Hochverfügbarkeit sind im Bereich der Datenspeicherung wichtige Randbedingungen. Wie positioniert sich eine moderne Objekt Storage Lösung in diesem Umfeld? Hohe Datenverfügbarkeit und Sicherheit ist für Anwenderunternehmen überlebensnotwendig. Daneben spielen datenschutz-rechtliche Aspekte (Compliance, wer hat die Hoheit über die Daten), Schutz von Ransomware & Co sowie Backup- und Disaster Recovery Verfahren eine zentrale Rolle. Wie spielt das mit Object Storage zusammen und wo liegen betriebsseitig derzeit die größten Herausforderungen? Für welche Datenspeicherungs-Anforderungen ist ARTESCA primär konzipiert und was unterscheidet die Software von Scality RING, dem klassischen Objektspeicherangebot des Unternehmens? Das S3-Protokoll und Cloud-native gewinnen an Beliebtheit (Stichworte: Agilität, DevOps, Kubernetes & Co.). Allerdings besteht Kundenseitig der Bedarf, auch weiterhin bewährte File-Protokolle- und Daten einzusetzen-/zu verwalten. Wie lassen sich im Rahmen dieser Lösung beide Aspekte sinnvoll kombinieren? Weitere Information unter www.storageconsortium.de
Der Sprung ins kalte Wasser- Life Balance für neue Führungskräfte
Bernd Geropp und ich haben uns im Freiberufler Barcamp bei Maik Pfingsten kennengelernt. Ich muss zugeben, ich kannte Bernd von seinem Podcast "Führen auf den Punkt gebracht" bereits. Er mich nicht - bis zum Barcamp. :-) Bernd ist für mich ein großes Vorbild wenn es um die Vermittlung von Leadership Content aus der Praxis für die Praxis geht. Bernd fokussiert sich auf KMUs. Mit viel Humor, direkt und Wertschätzung unterstützt er Geschäftsführer besonders im technischen Umfeld und zeigt Führungskräften, wie sie ein engagiertes Team und selbstständige Mitarbeiter bekommen. Sein Podcast hat mich im Juli zudem dazu inspiriert, einen eigenen Podcast zu bauen. Fazit: Ich bin ein echter Fan :-) Besonders deshalb freut es mich sehr, dass er mich in seinen Podcast eingeladen hat. Wir sprechen über Führung - in Verwaltungen und im öffentlichen Dienst. Hier fühle ich mich zu Hause. Ich habe "Stallgeruch", wie meine geschätzte Kollegin Silvia Ziolkowski sagt. Meine Zielgruppe kommt besonders aus Non Profit, Verwaltung und Pflege. Hier funktioniert Führung gleich und anders. Mit Bernd schauen wir hinter die Kulissen zu Leadership im öffentlichen Dienst, räumen mit ein paar Vorurteilen auf und beleuchten kritisch, wie genau Führungskräfte in der Verwaltung ticken. Ein Auszug aus Bernds Inhalten zum Interview: Welche Unterschiede gibt es prinzipiell in der Führung in Unternehmen und Behörden? Unter welchen Randbedingungen kann eine Behörde eigentlich agil arbeiten? Wie wird die Führungskraft im öffentlichen Dienst definiert? Welche Unterschiede gibt es da zwischen beispielsweise Führen im Finanzamt und in einer Kita? Was sind aus Deiner Sicht die größten Herausforderungen für Führungskräfte in der Verwaltung? Ein großartiges Gespräch, was ich sehr gerne auch hier im Podcast "Der Sprungs ins kalte Wasser - Life Balance für neue Führungskräfte" teile. Mehr Infos zu Bernd findet Ihr unter: www.mehr-fuehren.de www.berndgeropp.com Mehr Infos zu mir und meinem Engagement für neue Führungskräfte gibt`s unter: www.katja-schaefer.de Folge direkt herunterladen
Mit viel Engagement sammeln Medical Startup Mitstreiter:innen und sich, die von der gleichen Produktvision und dem Beitrag für die Patienten erfüllt sind. Doch Enthusiasmus alleine reicht nicht, um ein erfolgreiches Entwickler-Team aufzubauen. Im Gespräch mit Martin Schulze beleuchtet Professor Johner Fragen, - ob es überhaupt eines eigenen Entwicklungsteams bedarf, - welche Rollen ein solches Team besetzen sollte, - wie man die idealen Bewerber:innen findet, - auf was man beim Onboarding neuer Kolleg:innen achten sollte und - welche Tools und Prozesse notwendig sind, um ein Team zu formen, das die Produktvision verwirklicht und dabei die regulatorischen Randbedingungen nie aus den Augen verliert.
Lernen und Kompetenz: Können ist wie Machen mit Ahnung In dieser kne:buster-Folge »Lernen und Kompetenz« sprechen Alexander Jungwirth und Stefan Knecht über ebendas: wie Kompetenzen entstehen und aus Einsteigern Experten werden. Experten werden können — wenn ein paar Randbedingungen passen. »Kompetenz entwickelt sich nicht durch Einsicht sondern durch emotionale Labilisierung: in Beziehung gehen, sich öffnen -- Vertrauen haben etwas zu tun, was man sonst nicht tut.« — (Arnold 2015) TL;DR? ( »too long, didn't read«) kleiner Anreisser-Beitrag auf digitalien.org: Die Guglhupf-Analogie: wie lernen Menschen? Quellen, Literatur Arnold, Rolf. 2015. “Wie man führt, ohne zu dominieren - Wie man lehrt, ohne zu belehren” https://youtu.be/5CdcCFd7JGY 48min, Vortrag am 5. KATA-Praktikertag am 20.11.2015 Stuttgart Benner, Patricia E., Christine Tanner, and Catherine Chesla. 1992. ‘From Novice to Expert: Excellence and Power in Clinical Nursing Practice'. Advanced Nursery Science, 14(3), , 13–28. Bloom, Benjamin S., and Lauren A. Sosniak, eds. 1985. Developing Talent in Young People. 1st ed. New York: Ballantine Books. 978-0-345-31951-7 978-0-345-31509-0 Dreyfus, H. & Dreyfus, St. (1986/87). Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition. Reinbek b. Hamburg: Rowohlt. (Orig.: Mind Over Machine. The Power of Human Intuition and Expertise in the Era of the Computer. New York: The Free Press, 1986). Gobet, F. & Charness, N. (2018). Expertise in chess. In K. A. Ericsson, R. R. Hoffman, A. Kozbelt & A. M. Williams (Hg.), The Cambridge Handbook of Expertise and Expert Performance. 2. Auflage (597–615). Cambridge: Cambridge University Press. Gruber, H., Harteis, C. & Rehrl, M. (2006). Professional Learning: Erfahrung als Grundlage von Handlungskompetenz. Bildung und Erziehung, 59, 193–203 Hakkarainen, K., Palonen, T., Paavola, S. & Lehtinen, E. (2004). Communities of Networked Expertise: Educational and Professional Perspectives. Amsterdam: Elsevier Hayes, John R. 1981. The Complete Problem Solver. Philadelphia, Pa: Franklin Institute Press. 978-0-89168-028-4 Honecker, Erich — zitiert in der Festansprache zum 40. Jahrestag der DDR, 7. Oktober 1989, glasnost.de -- siehe auch https://www.youtube.com/watch?v=VphPebctAsM Hunt, Andrew. 2008. Pragmatic Thinking and Learning: Refactor Your ‘Wetware'. Pragmatic Programmers. Raleigh: Pragmatic. (daraus stammt die Dreyfus-Geschichte, p22ff) “In the 1970s, the brothers Dreyfus (Hubert and Stuart) began doing their seminal research on how people attain and master skills.” “Once upon a time, two researchers (brothers) wanted to advance the state of the art in artificial intelligence. They wanted to write software that would learn and attain skills in the same manner that humans learn and gain skill (or prove that it couldn't be done). To do that, they first had to study how humans learn.” “The Dreyfus brothers looked at highly skilled practitioners, including commercial airline pilots and world-renowned chess masters. Their research showed that quite a bit changes as you move from novice to expert. You don't just “know more” or gain skill. Instead, you experience fundamental differences in how you perceive the world, how you approach problem solving, and the mental models you form and use. How you go about acquiring new skills changes. External factors that help your performance — or hinder it — change as well. Unlike other models or assessments that rate the whole person, the Dreyfus model is applicable per skill. In other words, it's a situational model and not a trait or talent model.” Kruger, Justin, and David Dunning. n.d. ‘Unskilled and Unaware of It: How Difficulties in Recognizing One's Own Incompetence Lead to Inflated Self-Assessments (PDF Download Available)'. ResearchGate. Accessed 9 February 2017. https://www.researchgate.net/publication/12688660_Unskilled_and_Unaware_of_It_How_Difficulties_in_Recognizing_One's_Own_Incompetence_Lead_to_Inflated_Self-Assessments. Lehmann, A. C. & Gruber, H. (2006). Music. In K. A. Ericsson, N. Charness, R. R. Hoffman & P. J. Feltovich (Hg.), The Cambridge Handbook of Expertise and Expert Performance (457–470). Cambridge: Cambridge University Press. Neuweg, Georg Hans. 2020. “Etwas können. Ein Beitrag zu einer Phänomenologie der Könnerschaft” in: Georg Hans Neuweg; Rico Hermkes; Tim Bonowski (Hg.)Implizites Wissen Berufs- und wirtschaftspädagogische Annäherungen. 2020. ISBN: 9783763965953 -- E-Book (PDF):ISBN: 9783763965953 -- DOI: 10.3278/6004682w - wbv-open-access.de Schön, D. A. (1983). The Reflective Practitioner. How Professionals Think in Action. New York: Basic Books. Williams, A. M., Ford, P. R., Hodges, N. J. & Ward, P. (2018). Expertise in sport: Specificity, plasticity, and adaptability in high-performance athletes. In K. A. Ericsson, R. R. Hoffman, A. Kozbelt & A. M. Williams (Hg.), The Cambridge Handbook of Expertise and Expert Performance. 2. Auflage (653–673). Cambridge: Cambridge University Press.
Gudrun spricht in dieser Folge mit Sarah Bischof, Timo Bohlig und Jonas Albrecht. Die drei haben im Sommersemester 2021 am Projektorientiertes Softwarepraktikum teilgenommen. Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle, die Idee von Lattice-Boltzmann-Methoden und die Nutzung der Hochleistungrechner am KIT. Außerdem finden sie sich für ein einführendes kleines Projekt in Gruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert oder es wird eine Podcastfolge aufgenommen. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Sarah, Timo und Jonas sind am KIT im Masterstudiengang Chemieingenieurwesen eingeschrieben. Neben den verschiedenen Masterstudiengängen Mathematik kommen aus diesem Studiengang die meisten Interessenten für das Softwarepraktikum. Im Podcast erläutern sie, was sie an der Strömungssimulation interessiert und inwieweit sie sich gut oder auch nicht so gut auf die Anforderungen vorbereitet gefühlt haben, wie sie sich die Arbeit in der Gruppe aufgeteilt haben und was sie an fachlichen und überfachlichen Dingen dort gelernt haben. Das Thema des Projektes war ein Benchmark für die Durchströmung der Aorta. Dies ist einer der Showcases für OpenLB, die auf den ersten Blick die Leistungsfähigkeit der Software demonstrieren sollen. Das Projekt wurde von der Gruppe in drei Teile gegliedert: Benchmark Test auf dem bwUniCluster 2.0 (High Performance Computer) Performance Analyse mit selbstgeschriebener Source Code Erweiterung Performance Analyse mit externer Software (Validierung der Source Code Erweiterung) Mit Hilfe der Benchmark Tests auf dem HPC konnte die maximale Skalierbarkeit des Aorta Source Codes in Abhängigkeit der Problemgröße gefunden werden. Sie gibt an, auf wie vielen Computerprozessoren der Showcase mit der höchsten Performance simuliert werden kann. Des Weiteren wurde die parallele Effizienz mit Hilfe der Speedup Kennzahl untersucht. Diese beschreibt inwiefern sich die Simulationszeit infolge von Erhöhung der Prozessoranzahl verringert. In beiden Fällen zeigten die Performanceindikatoren ein Maximum bei 400-700 Prozessoreinheiten für Problemgrößen bis zu einer Resolution von N = 80. Das Softwarepaket OpenLB beinhaltet in Release 1.4r0 keine detaillierten Schnittstellen zur Performancemessung. Durch eine Source Code Erweiterung konnte eine interne Zeitmessung der einzelnen Funktionen des Codes realisiert werden. Dabei wurden so genannte Bottlenecks identifiziert und dokumentiert, welche durch Updates in zukünftigen Versionen der Software eliminiert werden sollen. Des Weiteren konnte auch durch die Code Erweiterung eine Aussage über die Parallelisierung getroffen werden. Im Vergleich zu den Benchmark Tests können direkt Funktionen des Source Codes, die die Parallelisierung hemmen, bestimmt werden. Die Performance Analyse durch das externe Programm und durch die Source Code Erweiterung bestätigen eine gut funktionierende Parallelisierung. Die Realisierung erfolgte dabei durch die Messung der Laufzeit der Hauptschritte einer OpenLB Simulation, sowie der detaillierten Analyse einzelner Funktionen. Diese finden sich zum aktuellen Zeitpunkt im Post-Processing des "Collide And Stream" Schrittes der Simulation. Collide And Stream beschreibt einen lokalen Berechnungsschritt, einen lokalen und einen nicht lokalen Übertragungsschritt. Der Kollisionsschritt bestimmt ein lokales Gleichgewicht der Massen-, Momenten- und Energiebilanzen. Im nicht-lokalen Streaming Schritt werden diese Werte auf die angrenzenden Blöcke des Simulationsgitters übertragen. Dies ermöglicht im Vergleich zu CFD-Simulationen, die auf Basis der Finite-Volumen-Methode (FVM) die Navier-Stokes Gleichungen lösen, effizientere Parallelisierung insbesondere bei Einsatz einer HPC-Einheit. Die Post Prozessoren im Collide And Stream wenden unter anderem bestimmte, im vorangegangenen Schritt gesetzte Randbedingungen auf definierte Bereiche der Simulationsgeometrie an. Sie werden dabei nur für nicht-lokale Randbedingungen verwendet, weitere Randbedingungen können auch innerhalb des Kollisionsschrittes modelliert werden. Im Showcase der Aorta ist für das Fluid (Blut) am Eingang der Simulation eine Geschwindigkeits-Randbedingung nach Bouzidi mit Poiseuille-Strömungsprofil und am Ausgang eine "stress-free" Bedingung gewählt. Für die Aortawand ist eine no-slip Bedingung mit Fluidgeschwindigkeit null implementiert (Für genauere Informationen zum Simulationsaufbau hier und hier. Die Laufzeit der Post-Processor Funktionen, deren Aufgabe es ist die Randbedingungen anzuwenden, können mit dem Timer des Release 1.4r0 nicht analysiert werden. Mit Blick auf spätere Releases ist es mit der Source Code Erweiterung nun möglich mit geringem Aufwand Daten über die Effizienz der vorhandenen, neuer oder verbesserter Funktionen in OpenLB zu gewinnen. Eine integrierte Zeitmessung als Analysetool kann einen direkten Einfluss auf die Performance des Source Codes haben, weshalb mit Hilfe der externen Software AMDµProf die Bottlenecks validiert wurden. Sowohl bei der internen als auch externe Performance Analyse sind die selben Post-Processing Schritte als Bottlenecks erkennbar, welches die Code Erweiterung validiert. Zusätzlich konnte mit der AMDμProf-Software die aktuelle OpenLB Version 1.4r0 mit der vorherigen Version 1.3r1 verglichen werden. Dabei fällt auf, dass sich die Bottlenecks vom Berechnungsschritt in Collide And Stream (Release 1.3r1) zum Post-Processing Schritt in Collide And Stream (Release 1.4r0) verschoben haben. Abschließend wurde eine vektorisierte Version von OpenLB erfolgreich getestet und ebenfalls auf Bottlenecks untersucht. Eine Vektorisierung eines Codes, auch bekannt als SIMD, soll die Parallelisierung verbessern und der Aorta Simulation eine bessere Performance verleihen. Das Bottleneck des Post-Processing Schritts in Collide And Stream, speziell durch Implementierung neuer Bouzidi Boundaries, wurde durch eine weitere Gruppe im Rahmen des Projektorientierten Softwarepraktikums optimiert. Es konnte eine Performance Verbesserung um einen Faktor 3 erreicht werden (mit OpenMP Compiler). Durch eine gezielte Analyse der Bottlenecks im Code konnte das Potential für die Beschleunigung der Simulation erweitert werden. Aber natürlich lohnt es sich hier weiterhin anzusehen, wo noch konkretes Potential für die Beschleunigung der Simulation liegt. Zumal seit dem letzten Relounch einige Pardigmen in der Software OpenLB verändert wurden. Podcasts L. Dietz, J. Jeppener, G. Thäter: Gastransport - Gespräch im Modellansatz Podcast, Folge 214, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019. A. Akboyraz, A. Castillo, G. Thäter: Poiseuillestrom - Gespräch im Modellansatz Podcast, Folge 215, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019.A. Bayer, T. Braun, G. Thäter: Binärströmung, Gespräch im Modellansatz Podcast, Folge 218, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. Literatur und weiterführende Informationen Showcase blood flow simulation auf der Seite der Software OpenLBAortic Coarctation Simulation Based on the Lattice Boltzmann Method: Benchmark Results, Henn, Thomas;Heuveline, Vincent;Krause, Mathias J.;Ritterbusch, SebastianMRI-based computational hemodynamics in patients with aortic coarctation using the lattice Boltzmann methods: Clinical validation study; Mirzaee, Hanieh;Henn, Thomas;Krause, Mathias J.;Goubergrits, Leonid; Schumann, Christian; Neugebauer, Mathias; Kuehne, Titus; Preusser, Tobias; Hennemuth, Anja
Gudrun spricht in dieser Folge mit Mathis Fricke von der TU Darmstadt über Dynamische Benetzungsphänomene. Er hat 2020 in der Gruppe Mathematical Modeling and Analysis bei Prof. Dieter Bothe promoviert. Diese Gruppe ist in der Analysis und damit in der Fakultät für Mathematik angesiedelt, arbeitet aber stark interdisziplinär vernetzt, weil dort Probleme aus der Verfahrenstechnik modelliert und simuliert werden. Viele Anwendungen in den Ingenieurwissenschaften erfordern ein tiefes Verständnis der physikalischen Vorgänge in mehrphasigen Strömungen, d.h. Strömungen mit mehreren Komponenten. Eine sog. "Kontaktlinie" entsteht, wenn drei thermodynamische Phasen zusammenkommen und ein komplexes System bilden. Ein typisches Beispiel ist ein Flüssigkeitströpfchen, das auf einer Wand sitzt (oder sich bewegt) und von der Umgebungsluft umgeben ist. Ein wichtiger physikalischer Parameter ist dabei der "Kontaktwinkel" zwischen der Gas/Flüssig-Grenzfläche und der festen Oberfläche. Ist der Kontaktwinkel klein ist die Oberfläche hydrophil (also gut benetzend), ist der Kontaktwinkel groß ist die Oberläche hydrophob (schlecht benetzend). Je nach Anwendungsfall können beide Situationen in der Praxis gewollt sein. Zum Beispiel können stark hydrophobe Oberflächen einen Selbstreinigungseffekt aufweisen weil Wassertropfen von der Oberfläche abrollen und dabei Schmutzpartikel abtransportieren (siehe z.B. https://de.wikipedia.org/wiki/Lotoseffekt). Dynamische Benetzungsphänomene sind in Natur und Technik allgegenwärtig. Die Beine eines Wasserläufers nutzen eine ausgeklügelte hierarchische Oberflächenstruktur, um Superhydrophobie zu erreichen und das Insekt auf einer Wasseroberfläche leicht stehen und laufen zu lassen. Die Fähigkeit, dynamische Benetzungsprozesse zu verstehen und zu steuern, ist entscheidend für eine Vielzahl industrieller und technischer Prozesse wie Bioprinting und Tintenstrahldruck oder Massentransport in Mikrofluidikgeräten. Andererseits birgt das Problem der beweglichen Kontaktlinie selbst in einer stark vereinfachten Formulierung immer noch erhebliche Herausforderungen hinsichtlich der fundamentalen mathematischen Modellierung sowie der numerischen Methoden. Ein übliche Ansatz zur Beschreibung eines Mehrphasensystems auf einer makroskopischen Skala ist die Kontinuumsphysik, bei der die mikroskopische Struktur der Materie nicht explizit aufgelöst wird. Andererseits finden die physikalischen Prozesse an der Kontaktlinie auf einer sehr kleinen Längenskala statt. Man muss daher das Standardmodell der Kontinuumsphysik erweitern, um zu einer korrekten Beschreibung des Systems zu gelangen. Ein wichtiges Leitprinzip bei der mathematischen Modellierung ist dabei der zweite Hauptsatz der Thermodynamik, der besagt, dass die Entropie eines isolierten Systems niemals abnimmt. Dieses tiefe physikalische Prinzip hilft, zu einem geschlossenen und zuverlässigen Modell zu kommen. Die größte Herausforderung in der kontinuumsmechanischen Modellierung von dynamischen Benetzungsprozessen ist die Formulierung der Randbedingungen für die Navier Stokes Gleichungen an der Festkörperoberfläche sowie am freien Rand zwischen Gas und Flüssigkeit. Die klassische Arbeit von Huh und Scriven hat gezeigt, dass die übliche Haftbedingung ("no slip") an der Festkörperoberfläche nicht mit einer bewegten Kontaktlinie und damit mit einem dynamischen Benetzungsprozess verträglich ist. Man kann nämlich leicht zeigen, dass die Lösung für die Geschwindigkeit in diesem Fall unstetig an der Kontaktlinie wäre. Weil das Fluid (z.B. Wasser) aber eine innere Reibung (Viskosität) besitzt, würde dann mit einer unendlichen Rate ("singulär") innere Energie in Wärme umgewandelt ("dissipiert"). Dieses Verhalten ist offensichtlich unphysikalisch und zeigt dass eine Anpassung des Modells nötig ist. Einer der wesentlichen Beiträge von Mathis Dissertation ist die qualitative Analyse von solchen angepassten Modellen (zur Vermeidung der unphysikalischen Singularität) mit Methoden aus der Geometrie. Die Idee ist hierbei eine systematische Untersuchung der "Kinematik", d.h. der Geometrie der Bewegung der Kontaktlinie und des Kontaktwinkels. Nimmt man das transportierende Geschwindigkeitsfeld als gegeben an, so kann man einen fundamentalen geometrischen Zusammenhang zwischen der Änderungsrate des Kontaktwinkels und der Struktur des Geschwindigkeitsfeldes herleiten. Dieser geometrische (bzw. kinematische) Zusammenhang gilt universell für alle Modelle (in der betrachteten Modellklasse) und erlaubt tiefe Einsichten in das qualitative Verhalten von Lösungen. Neben der mathematischen Modellierung braucht man auch numerische Werkzeuge und Algorithmen zur Lösung der resultierenden partiellen Differentialgleichungen, die typischerweise eine Variante der bekannten Navier-Stokes-Gleichungen sind. Diese nichtlinearen PDE-Modelle erfordern eine sorgfältige Auswahl der numerischen Methoden und einen hohen Rechenaufwand. Mathis entschied sich für numerische Methoden auf der Grundlage der geometrischen VOF (Volume-of-Fluid) Methode. Die VOF Methode ist eine Finite Volumen Methode und basiert auf einem diskreten Gitter von würfelförmigen Kontrollvolumen auf dem die Lösung des PDE Systems angenähert wird. Wichtig ist hier insbesondere die Verfolgung der räumlichen Position der freien Grenzfläche und der Kontaktlinie. In der VOF Methode wird dazu für jede Gitterzelle gespeichert zu welchem Anteil sie mit Flüssigkeit bzw. Gas gefüllt ist. Aus dieser Information kann später die Form der freien Grenzfläche rekonstruiert werden. Im Rahmen von Mathis Dissertation wurden diese Rekonstruktionsverfahren hinsichtlich Ihrer Genauigkeit nahe der Kontaktlinie weiterentwickelt. Zusammen mit komplementären numerischen Methoden sowie Experimenten im Sonderforschungsbereich 1194 können die Methoden in realistischen Testfällen validiert werden. Mathis hat sich in seiner Arbeit vor allem mit der Dynamik des Anstiegs einer Flüssigkeitssäule in einer Kapillare sowie der Aufbruchdynamik von Flüssigkeitsbrücken (sog. "Kapillarbrücken") auf strukturierten Oberflächen beschäftigt. Die Simulation kann hier als eine numerische "Lupe" dienen und Phänomene sichtbar machen die, z.B wegen einer limitierten zeitlichen Auflösung, im Experiment nur schwer sichtbar gemacht werden können. Gleichzeitig werden die experimentellen Daten genutzt um die Korrektheit des Modells und des numerischen Verfahrens zu überprüfen. Literatur und weiterführende Informationen Fricke, M.: Mathematical modeling and Volume-of-Fluid based simulation of dynamic wetting Promotionsschrift (2021). de Gennes, P., Brochard-Wyart, F., Quere, D.: Capillarity and Wetting Phenomena, Springer (2004). Fricke, M., Köhne, M., Bothe, D.: A kinematic evolution equation for the dynamic contact angle and some consequences. Physica D: Nonlinear Phenomena, 394, 26–43 (2019) (siehe auch arXiv). Fricke, M., Bothe, D.: Boundary conditions for dynamic wetting – A mathematical analysis. The European Physical Journal Special Topics, 229(10), 1849–1865 (2020). Gründing, D., Smuda, M., Antritter, T., Fricke, M., Rettenmaier, D., Kummer, F., Stephan, P., Marschall, H., Bothe, D.: A comparative study of transient capillary rise using direct numerical simulations, Applied Mathematical Modelling (2020) Fricke, M., Marić, T. and Bothe, D.: Contact line advection using the geometrical Volume-of-Fluid method, Journal of Computational Physics (2020) (siehe auch arXiv) Hartmann, M., Fricke, M., Weimar, L., Gründing, D., Marić, T., Bothe, D., Hardt, S.: Breakup dynamics of Capillary Bridges on Hydrophobic Stripes, International Journal of Multiphase Flow (2021) Fricke, M., Köhne, M. and Bothe, D.: On the kinematics of contact line motion, Proceedings in Applied Mathematics and Mechanics (2018) Fricke, M., Marić, T. and Bothe, D.: Contact line advection using the Level Set method, Proceedings in Applied Mathematics and Mechanics (2019) Huh, C. and Scriven, L.E: Hydrodynamic model of steady movement of a solid/liquid/fluid contact line, Journal of Colloid and Interface Science (1971) Bothe, D., Dreyer, W.: Continuum thermodynamics of chemically reacting fluid mixtures. Acta Mechanica, 226(6), 1757–1805. (2015). Bothe, D., Prüss, J.: On the Interface Formation Model for Dynamic Triple Lines. In H. Amann, Y. Giga, H. Kozono, H. Okamoto, & M. Yamazaki (Eds.), Recent Developments of Mathematical Fluid Mechanics (pp. 25–47). Springer (2016). Podcasts Sachgeschichte: Wie läuft der Wasserläufer übers Wasser? G. Thäter, S. Claus: Zweiphasenströmungen, Gespräch im Modellansatz Podcast, Folge 164, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018 M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016
Vor einiger Zeit habe ich Jochen Lehmann ein Experteninterview im Rahmen seiner Masterarbeit gegeben. Die Masterarbeit untersucht das Potenzial agiler Methoden für die Baubranche. Ich habe mir die Fragen erneut in dieser Podcastfolge gestellt und Antworten gegeben: - Was sind überhaupt agile Methoden? - Was sind die Vor- und Nachteile? - Welche Randbedingungen gibt es bei der Umsetzung? - Wie hat sich Projektmanagement mit agilen Methoden verändert? - Sehe ich Potenzial für agile Methoden in der Baubranche?
Auf welche Randbedingungen sowie Funktionsmerkmale sollten Unternehmen bei der Evaluierung von Objektspeicherlösungen besonders achten? Katalysatoren für den Einsatz von Objekt-Speichersystemen sind das rasche Datenwachstum und neue Anwendungen, was verstärkte Investitionen in hybride Cloud-Implementierungen nach sich zieht. Traditionelle Dateisysteme spielen ebenfalls eine wichtige Rolle, um Objektstorage zu nutzen ohne bewährte Anwendungen aufwändig zu modifizieren, die im Zusammenhang mit CIFS- oder NFS-Zugriffen entwickelt wurden...
In der zweiten Episode der kleinen Reihe zum Thema User Centered Design Prozess, also nutzerfokussierte Entwicklung, der zweite Teil zum Thema Kreativitätsphase. Wie gehe ich denn nun an eine Entwicklung heran, nachdem ich die relevantren Daten gesammelt und analysiert habe, nachdem ich geklärt habe, was zu tun ist, wer mein Produkt nutzt und welche Randbedingungen erfüllt werden sollten. In der ersten Folge ging es um Personas, Rollen, Szenarios, Use Cases und Story Boards. Die zweite Folge fokussiert auf die eigentliche KOnzeptentwicklung, vom Wireframing über das Auswählen einzelner Konzepte bis hin zur Lieferung.
In der zweiten Episode der kleinen Reihe zum Thema User Centered Design Prozess, also nutzerfokussierte Entwicklung, der erste Teil zum Thema Kreativitätsphase. Wie gehe ich denn nun an eine Entwicklung heran, nachdem ich die relevantren Daten gesammelt und analysiert habe, nachdem ich geklärt habe, was zu tun ist, wer mein Produkt nutzt und welche Randbedingungen erfüllt werden sollten. Ich spreche über Themen wie Personas, Rollen, Szenarios, Use Cases und Story Boards.
Travel-Insider Podcast - DEIN Reise Podcast um besser zu fliegen
Miles & More hat eine neue Aktion aufgelegt. Dabei handelt es sich um eine Art Flatrate, um sämtliche Lufthansa-Flüge zu rabattieren. Spare also bares Geld bei deiner nächsten Flugbuchung. Wie das funktioniert, welche Randbedingungen gelten und ob sich das auch für dich lohnt, erfährst du in dieser Podcastfolge. Gemeinsam optimieren wir dein Meilenkonto und skalieren es auf einen 6-stelligen Stand, damit du endlich Business Class fliegen kannst, ohne gleich Millionär sein zu müssen. Jetzt Hörkurs anhören: https://www.travel-insider.de/meilen-autopilot/ Shownotes
Christian von Burkersroda und Volker Rozek beschäftigen sich in dieser Folge mit einem der Erfolgsfaktoren, die Rainer Guse aus dem Silicon Valley mitgebracht hatte. Sie greifen den Aspekt „sharing is caring“ auf. Im Schwerpunkt dieses Podcast besprechen sie ethische Fragen in Verbindung mit technisch organisatorischen Randbedingungen. Dass diese kein Widerspruch bilden müssen, wird oft dadurch gezeigt, dass Unternehmen mit ausgereiftem Wissensmanagement an Wert zunehmen.
Christian von Burkersroda und Volker Rozek sprechen erste Grundgedanken zum Leadership im digitalem Umfeld an. Es liegt dabei nahe, hier zunächst das allgegenwärtig Homeoffice zu betrachten. Hierbei zeigt sich, dass dieses Thema nicht trivial ist: Das menschliche ist hierbei ebenso zu berücksichtigen wie Technik, Organisation und Nachhaltigkeit. Das Mitnehmen der Mitarbeiter bei diesem Change nimmt einen sehr großen Stellenwert ein - bei diesem Prozess steht Vertrauen mit an erster Stelle. Weiterhin zeigen Christian und Volker, dass die Unternehmenskultur auf die digitalen Randbedingungen übertragen und angepasst werden muss: Auch im virtuellen Raum sind Regeln, Verbindlichkeit und wertschätzendes Miteinander unverzichtbar. Daraus folgt aber auch, dass die Anforderungen an die Führungskräfte erheblich steigen.
Wir, Vicki Kormesch und Walter Zornek, hatten unseren neuen Podcast bereits für Februar/März 2020 geplant. Durch Corona haben sich zwar die Randbedingungen geändert, aber nicht unser Anliegen; Die Vorstellung von Sozialunternehmen und ihren Machern. Sozialunternehmen, auch Social Entrepreneurs genannt, sind eine Mischung aus gemeinwohlorientierten Organisationen und Unternehmen. Ihnen geht es nicht um finanziellen Gewinn und Reichtum für die Anteilseigner. Stattdessen geht es mehr um soziale Rendite, d.h. die Steigerung des Gemeienwohls durch soziale Wirkung. Dazu werden innovative Konzepte und Technologien mit unternehmerischem Vorgehen verknüpft. Eine neue Form zivilgesellschaftlichen Engagements, um Verbesserungen für Menschen, Gesellschaft und Umwelt zu erreichen. Wir finden das sehr spannend, freuen uns auf interessante Gäste und inspirierende Geschichten.
Aspekte und Fragestellungen in der Unterhaltung mit Sandra Jörg: Was ist der grundsätzliche Vorteil von Messenger-basierter Kommunikation ggü. eMail? In welchem Kontext werden Business-Messenger heute eingesetzt? Welche Randbedingungen sind dabei zu beachten? Welche Beschränkungen haben haben aktuell verfügbare Lösungen? Offene Kommunikationskreise vs. geschlossene Kommunikationskreise, welche Konsequenzen ergeben sich daraus für eine Messenger-Lösung? Cloud-basierte Lösung vs. selbstgehostete Lösung, Randbedingungen, Wechselwirkungen. Welche zukünftigen Entwicklungen sind im Kontext der B2B-Messenger noch denkbar?
Gudrun traf sich im August 2019 in Karlsruhe zum Gespräch mit Kerstin Göpfrich. Die beiden hatten sich im April 2019 persönlich beim Nawik Symposium 'Und jetzt Du' kennengelernt, wo Kerstin ihr Projekt Ring-a-Scientist vorgestellt hat. Dieses Projekt hat sie gemeinsam mit Karl Gödel initiiert und umgesetzt. Ring-a-Scientist wurde initial durch Wikimedia, die VolkswagenStiftung und den Stifterverband im Fellowverband Freies Wissen gefördert. Ring-a-Scientist ist ein moderner Weg, wie Wissenschaft in die Schulen kommen kann – per Videokonferenz und Live-Schalte aus dem Labor. Ring-a-Scientist möchte Wissenschaft ins Klassenzimmer bringen. Dies geschieht ohne Reisen und viel Organisationsaufwand einfach live per Videokonferenz. Die Inhalte können dabei von der Studienberatung über Diskussionsrunden mit Expertinnen und Experten bis hin zu virtuellen Laborführungen, Experimenten und Einblicken in die aktuelle Forschung reichen. Wie? www.Ring-a-Scientist.org ist eine Webplattform, über die Lehrerende und Wissenschaftler unbürokratisch Termine für ein Videotelefonat vereinbaren können. Auf der Plattform legen Wissenschaftler – vom Erstsemester zur Professorin – ein Profil an. Lehrpersonen können Wissenschaftler ihrer Wahl kontaktieren und den Inhalt des Videotelefonats abstecken. Ring-a-Scientist freut sich auf viele Anfragen von Lehrerinnen und Lehrern! Wieso? Ein Videotelefonat ist weniger zeit- und kostenaufwendig als Schulbesuche. Es lässt sich einfach und flexibel im Unterricht einsetzen und ist mit dem Tagesgeschäft in der Wissenschaft gut ver- einbar. Das soll Schul- und Laborbesuche nicht ersetzen sondern ergänzen und Schulen über das lokale Umfeld hinaus erreichen – denn Unterricht im 21. Jahrhundert verdient Technologie des 21. Jahrhunderts! Kerstin Göpfrich war zum Zeitpunkt des Gespräches Marie Skłodowska-Curie Fellow am Max-Planck-Institut für medizinische Forschung in Stuttgart. Ab dem 1. Oktober leitet sie eine Max-Planck-Forschungsgruppe in Heidelberg. Im April 2017 schloss sie ihre Promotion in Physik an der University of Cambridge (UK) ab, wo sie bei Prof. Ulrich Keyser an DNA Origami Nanoporen arbeitete. Nebenbei hat Sie für verschiedene Medien gearbeitet, darunter The Naked Scientists (BBC - Radio 5 live), Cambridge TV, Spektrum der Wissenschaft und The Huffington Post. In ihrer Forschung beschäftigt sie sich mit der Frage: Was ist Leben und könnte es auch anders sein? Anstatt das Leben, wie wir es kennen, zu kopieren, versucht sie, synthetische Zellen zu entwickeln, die nicht nur aus natürlichen Bausteinen bestehen und neue Arten der Informationsverbreitung und Replikation aufweisen. Dadurch wird es möglich sein, die Randbedingungen des Lebens zu erforschen und aus praktischer Sicht neue Schnittstellen zwischen natürlichen und synthetischen Zellen aufzubauen. Bioorthogonale synthetische Zellen werden als biokompatible aktive Sonden ("Phantomzellen") in lebenden Geweben und Organismen einsetzbar sein, die in der Lage sind, die Zellumgebung zu erfassen, zu berechnen und eine Reaktion auszuführen. Literatur und weiterführende Informationen Göpfrich, K., Gödel, K.C. Ring-a-Scientist - der direkte Draht ins Labor, Biospektrum, 2019. Göpfrich, K., Platzman, P. & Spatz, J. P. Mastering Complexity: Towards Bottom-up Construction of Multifunctional Eukaryotic Synthetic Cells. Trends in Biotechnology, 2018. Göpfrich, K., Rational Design of DNA-Based Lipid Membrane Pores. PhD Thesis, 2017. K. Göpfrich:THE BLOG - DNA Sequencing In The Palm Of Your Hand, 2017. K. Göpfrich: Übersicht ihrer populärwissenschaftlichen Artikel, Video und Audio Gudruns Profil bei Ring-a-scientist Podcasts L. Hilbert, G. Thäter: Zellkerne, Gespräch im Modellansatz Podcast, Folge 206, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Gonciarz, G. Thäter: Portrait of Science, Gespräch im Modellansatz Podcast, Folge 197, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Omega Tau-Podcast 072: Forschung in der Zellbiologie, 2011. J. Schmoranze, I. Wessolowski: Beim Herrn der Mikroskope – AMBIO Core Facility, Sciencekompass Podcast, Episode 009 B, 2017.
Fragestellungen, über die ich mich mit Christian Allner unterhalten habe: Wie sieht grundsätzlich ein Social-Media-Marketing-Prozess aus? Wie unterscheidet sich Social-Media von klassischem Marketing? Welche Zielgruppen lassen sich mit Social-Media besonders gut ansprechen? Welche Abhängigkeiten bzw. Randbedingungen bestehen evtl. bzgl. der Branche bzw. allgemein B2C oder B2B? Wie sieht der Einstieg ins Social-Media-Marketing typischerweise aus? Welche Wechselwirkungen bestehen zw. Social-Media und Digitalisierung? Was unterscheidet Social-Media-Marketing für digitale Produkte von klassischen Produkten oder Dienstleistungen? Wie können sich Unternehmen mit "klassischen" Produkten/Leistungen neue Zielgruppen erschließen? Das Buddhistische Prinzip und der Bezug zum Wirtschaften
In dieser Folge spricht Gudrun mit Ayca Akboyraz und Alejandro Castillo. Beide sind im Masterstudiengang Chemieingenieurwesen bzw. Bioingenieurwesen am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Ayca stammt aus der Türkei und Alejandro ist in Mexico aufgewachsen. Beide haben in ihren Heimatländern deutsche Schulen besucht. Anschließend haben sie sich jeweils um ein Studium in Deutschland beworben. Ayca hatte sich zunächst für Wirtschaftsingenieurwesen entschieden, hat aber nach einiger Zeit gemerkt, dass ihr Chemieingenieurwesen viel mehr liegt. Das Projektorientierte Softwarepraktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. In der klassischen Theorie der Strömungsmechanik werden auf der Grundlage der Erhaltung von Masse, Impuls und Energie und unter berücksichtigung typischer Materialeigenschaften die Navier-Stokes-Gleichungen als Modell für das Strömungsverhalten von z.B. Wasser hergeleitet. Die beiden unbekannten Größen in diesem System partieller Differentialgleichungen sind das Geschwindigkeitsfeld und der Druckgradient. Wenn geeigneten Rand- und Anfangsbedingungen für die Geschwindigkeit vorgeschrieben werden, liegt im Prinzip die Lösung des Gleichungssystem fest. Sie kann aber in der Regel nur numerisch angenähert berechnet werden. Eine wichtige Ausnahme ist die Strömung durch einen Zylinder mit kreisförmigem Querschnitt. Wenn am Rand des Zylinders als Randbedingung vorgeschrieben wird, dass dort das Fluid anhaftet, also die Geschwindigkeit ganz am Rand Null ist, dann stellt sich eine zeitlich unveränderliche (stationäre) Strömung ein, die am Rand des Zylinders still steht und in der Mitte am schnellsten ist. Der Verlauf zwischen diesen beiden Extremen entspricht genau dem einer Parabel. Diese Lösung heißt Poiseuille-Strömung. Der Durchfluss ergibt sich dann aus dem Druckgradienten. Wenn der Querschnitt des Kanals nicht genau kreisförmig ist, lässt sich das Prinzip noch übertragen, aber in der Regel ist die Lösung dann nicht mehr analytisch berechenbar. Die Poiseuille-Strömung ist ein häufiges Test- oder Benchmark-Problem in der numerischen Strömungsmechanik, zumal diese Strömungskonfiguration einer der wenigen Fälle der Navier-Stokes-Gleichungen ist, die analytisch gelöst werden können. Der Sinn des Tests besteht darin, zunächst sicherzustellen, dass die Berechnung mit Hilfe von OpenLB, eine gewisse Genauigkeit aufweist. Zweitens wird die Genauigkeit der Methode überprüft, indem analysiert wird, wie der numerische Fehler mit der Gitterverfeinerung skaliert. Ayca und Alejandro haben in ihrem Projekt diesen Benchmark vollzogen und dafür Simulationen im 2D und 3D Fall mit verschiedenen Randbedingungen, die in der Lattice Boltzmann Methode vorkommen (und in OpenLB implementiert vorliegen), und Gitterverfeinerungen mit Auflösung von 25, 50, 75, 100 Unterteilungen durchgeführt. Obwohl die Randbedingungen in numerischen Verfahren die gleichen grundlegenden Ziele wie im analytischen Fall haben, entwickeln sie sich entlang konzeptionell degenerativer Linien. Während analytische Randbedingungen die zugehörige Lösung aus einer Schar von zulässigen Lösungen der Gleichungen auswählen, wirken die Randbedingungen im Lattice Boltzmann Modell dynamisch mit. Sie sind ein Teil des Lösungsprozesses, der für die Änderung des Systemzustands in Richtung der Lösung zuständig ist. Eine der häufigsten Ursachen für die Divergenz der numerischen Lösung ist die falsche Umsetzung von Randbedingungen. Daher ist es für die Genauigkeit und Konvergenz sehr wichtig, dass die geeigneten Randbedingungen für die untersuchte Geometrie und den Strömungsfall ausgewählt werden. Es gibt eine große Familie Randbedingungen, die für die Lattice Boltzmann Methode entwickelt wurden. Für das Praktikum liegt der Fokus für die Wand auf den Randbedingungen "bounce-back" (Haftbedingung), "local", "interpolated" und "bouzidi". Alle genannten Randbedingungen erzeugen ein parabolisches Strömungsprofil passend zur analytischer Lösung. Unterschiede zeigen sich darin, wie groß die numerische Fehler ist, und in welchem Maß sich der numerische Fehler durch Gitterverfeinerung reduzieren lässt. Der graphische Vergleich der Simultionsergebnisse mit der analytischen Lösung hat gezeigt, dass bouzidi Randbedingung den kleinsten numerischen Fehler und die höchste Konvergenzordnung für den 3D-Fall erzeugt, während local und interpolated Randbedingungen für den 2D-Fall bessere Ergebnisse liefern. Zu beachten ist aber, dass mit erhöhter Gitterverfeinerung die Unterschiede zwischen diesen Randbedingungen verschwinden. Bei der Auswahl der Randbedingung sollte dementsprechend ein Kompromiss zwischen Aufwand und Güte der Lösung gefunden werden. Literatur und weiterführende Informationen T. Krüger e.a.: The Lattice Boltzmann Method. Graduate Texts in Physics. Springer, 2017. M. Portinari: 2D and 3D Verification and Validation of the Lattice Boltzmann Method. Master Thesis, Montréal 2015. C.J. Amick: Steady solutions of the Navier-Stokes equations in unbounded channels and pipes. Ann. Scuola Norm. Sup. Pisa Cl. Sci. (4), 4, 473–513 (1977). A. Akboyraz und A. Castillo, Ausarbeitung Softwarepraktikum 2019. M.J. Krause e.a.: OpenLB Release 1.3: Open Source Lattice Boltzmann Code. Podcasts L. Dietz, J. Jeppener, G. Thäter: Flache Photobioreaktoren - Gespräch im Modellansatz Podcast, Folge 213, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. T. Hoffmann, G. Thäter: Luftspalt, Gespräch im Modellansatz Podcast, Folge 153, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
In dieser Folge spricht Gudrun mit Larissa Dietz und Jonathan Jeppener. Beide sind im Masterstudiengang Verfahrenstechnik am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. Das Projekt von Larissa und Jonathan betrachtete den Stofftransport von CO2-Gas in flachen Photobioreaktoren. Mit ihrer großen Oberfläche erlauben sie viel einfallendes Licht. Algenzucht im industriellen Maßstab ist unerlässlich, um die weltweite Nachfrage nach schnell nachwachsender Nahrung und erneuerbaren Energiequellen zu befriedigen. Derzeit nutzen die meisten Produzenten kosteneffiziente und einfach zu bedienende offene Teiche. Die Nachfrage nach gut steuerbaren geschlossenen Photobioreaktoren steigt durch die erhöhte Effizienz der gut einstellbaren Reaktorbedingungen. Weitere Vorteile gegenüber offenen Reaktoren sind ein geringerer CO2- und Wasserverlust und eine größere Vielfalt an kultivierbaren Arten. Für ein optimales Algenwachstum müssen die regulierende Flüssigkeitsdynamik, der Lichttransfer, biochemische Reaktionen und deren gegenseitige Wechselwirkung optimiert werden. Die Untersuchung dieser Parameter mit Hilfe gekoppelter numerischer Simulationen vermeidet teure Experimente und trägt somit zur Verbesserung geschlossener Photobioreaktoren bei. Larissa und Jonathan beschränkten sich für ihr Projekt auf die Modellierung des Stofftransports aller Komponenten und den Lichteinfall. Konkret ergeben sich dabei eine Advektions-Diffusions-Gleichung für den Gastransport und die Navier-Stokes Gleichungen für das Fluid. Die Photosynthese für CO2-Umsatz wurde daran als Quelle gekoppelt. Aufgrund der hohen Parallelisierbarkeit und der Einfachheit der Berechnungsgitterkopplungen ist die Lattice-Boltzmann-Methode (LBM) geeignet, dieses System von interagierenden Differentialgleichungen zu lösen, die Fluidströmung, Stofftransport und Strahlungsfeld beschreiben. Der Bericht von Larissa und Jonathan schlägt stabile Diffusionsparameter und eine Betriebslichtkopplung vor, die sie in ihrer Projektarbeit ermittelt haben. Der von ihnen betrachtete Testfall basiert auf der Simulation der Partikelströmung durch Trunk et al. (Quelle unten). Die beiden mussten außerdem geeignete Randbedingungen finden. Die von ihnen gefundenen Simulationsparameter gewährleisten eine stabile Simulation. Literatur und weiterführende Informationen E. Sierra e.a.: Characterization of a flat plate photobioreactor for the production of microalgae. Chemical Engineering Journal, 138:136–147, 03 2008. R. Trunk e.a.: Inertial dilute particulate fluid flow simulations with an euler–euler lattice boltzmann method. Journal of Computational Science, 17:438–445, 2016. T. Krüger e.a.: The Lattice Boltzmann Method. Graduate Texts in Physics. Springer, 2017. C. Posten and R. Rosello-Sastre: Microalgae Reactors. American Cancer Society, 2011. L. Dietz und J. Jeppener: Simulation of CO2 Distribution in Photobioreactors with the Lattice Boltzmann Method, Ausarbeitung Softwarepraktikum 2019. M.J. Krause e.a.: OpenLB Release 1.3: Open Source Lattice Boltzmann Code. Podcasts J. Kolbe, G. Thäter: Photobioreaktoren - Gespräch im Modellansatz Podcast, Folge 065, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2015.
Gerhard Jaworek vom Studienzentrum für Sehgeschädigte (SZS) des Karlsruher Institutes für Technologie (KIT) traf sich mit Christoph Erbach Rehabilitationslehrer von Beruf und angestellt bei der Firma Sehwerk am SZS zum Thema Mobilitätstraining: Wie blinde Menschen lernen sich die Welt zu erschließen. Mobilitätstraining (57:43, 27MB) Gleich bei der Vorstellung appelliert der Gast an alle, dass es am Rehabilitationslehrer-Nachwuchs mangelt, obwohl es ein sehr vielfältiger und abwechslungsreicher Beruf sei. Ein Rehalehrer unterstützt Menschen mit einer Seheinschränkung oder Blindheit, um in ein selbstständiges Leben, um in die Welt zu finden. Angefangen vom selbstständigen Stellen eines Weckers, sich anzuziehen, Körperhygiene, Nahrungszubereitung, Essen bis hin zum Umgang mit dem Blindenstock, nutzen von Navigationshilfen und was sonst noch für ein eigenständiges Leben nötig ist, umfasst die Aufgaben eines Rehalehrers. Mobilitätstraining und Unterricht in lebenspraktischen Fertigkeiten (LPF) ein lebenslanger Prozess sind, weil sich Lebensumstände ändern und daher andere Fähigkeiten und Fertigkeiten wichtig werden. Ein Kind muss beispielsweise lernen, sich selbst die Schuhe zu binden. Später braucht es den Weg zur Schule, dann wird spätestens im Studium Kochen, Wäschepflege und Haushaltsführung wichtig. Der Weg zur Uni, vermutlich sogar in einer neuen Stadt, und vieles mehr muss erlernt werden. So muss im Laufe des Lebens immer mal wieder nachtrainiert werden. Bei diesem Reha-Unterricht gibt es Basiseinheiten, wie der Umgang mit dem Langstock, aber ansonsten entsteht das Kolloquium individuell durch die Lebenssituation eines jeden einzelnen Individuums betont Christoph. Wenn jemand etwas beispielsweise auch nicht lernen möchte, ist das OK. Es geht um Lebensglück und Lebensqualität in diesem Unterricht. Grundvoraussetzung muss immer sein, dass die betroffene Person sich in diesen Bereichen verändern möchte. Oft gibt es unangemessene Einflussnahme von Angehörigen Betroffener, die in bester Absicht meinen, so ein Training verordnen zu müssen. Der Unterricht ist eine Sache. Der psychische Umgang und die Verarbeitung einer plötzlichen Erblindung eine andere. Hier ist höchste Sensibilität und Respekt gefordert. Thema sind oft ganz einfache Wünsche, wie „Für mich wäre es ein Glück, wieder selbst in meinen Garten fahren zu können.“ Der Weg dahin kann steinig sein. Zu Orientierung und Mobilität gehört weit mehr, als nur den Langstock angemessen einsetzen zu können. Training des räumlichen Vorstellungsvermögen, wo bin ich gerade im Raum, und was muss ich tun, um zu einem gewünschten anderen Ort zu gelangen, ist am Anfang manchmal gar nicht so einfach. Sicheres Gehen, wie auch die Überwindung von Stufen und Treppen stellen vor allem Menschen mit einer Altersblindheit vor große Herausforderungen. Pro Retina ist eine Selbsthilfevereinigung für Menschen mit Netzhautdegenartionen. Schwierig ist oft am Anfang, dass die betroffene Person alles so erledigen möchte, wie sie es in der Vergangenheit als sehender Mensch tat. Diagonal durch einen Raum zu laufen, geht ohne Sicht nicht mehr so ohne weiteres. Deshalb versuchen Blinde oft die Welt in einfache geometrische Strukturen zu bannen. Gerhard Jaworek hat viele Jahre in der Quadratestadt Mannheim gelebt und liebte die einfache Orientierung in den Quadraten. Der Karlsruher Fächer, ist dagegen im Vergleich eine größere Herausforderung, weil eine Vereinfachung deutlich schwieriger ist. Ein höchstes Gut und Ziel eines Mobilitätstrainings, ist die Fähigkeit, sich zum einen eine innere Karte der Umgebung vorzustellen, und zum anderen, dass man dann auch noch weiß, wo man sich auf ihr befindet und was man tun kann, wenn eine geplante Route, beispielsweise wegen einer Baustelle, nicht gegangen werden kann. Und auch hier setzt das Projekt Terrain mit optimierten Routen an. Mobilitätstraining ist auch Persönlichkeitsbildung: Man muss lernen zu fragen, um Hilfe zu bitten und die eigenen Grenzen zu akzeptieren. In Deutschland haben wir eine sehr gute Situation, da Kinder meist durch die Frühförderung schon rechtzeitig mit O&M-Training und LPF beginnen. Gerhard Jaworek hatte das große Glück in einen sehr fortschrittlichen Kindergarten für blinde Kinder nach Basel besuchen zu können. Ansonsten hätte ich in diesen Bereichen deutlich mehr Defizite nachzuholen gehabt. Wie schon in Folge 2 dieses Podcasts angesprochen, werden in O&M noch viele Hilfsmittel über den klassischen Langstock hinaus eingesetzt. Es ist gewissermaßen ein Glücksfall, das auch sehende Menschen „so faul sind“, selbst in bekannten Orten nicht auf Fußgängernavigation verzichten zu wollen. Davon profitieren blinde Menschen, die Navis und Smartphones als Hilfsmittel, sich zurecht zu finden, einsetzen. Neben Stock, Navis, Kompass findet alles Einsatz, was die Vorstellungskraft fördert. Taktile 2D-Karten bis hin zu 3D-Modellen werden nach Bedarf verwendet. Der Touch-Mapper Service bietet die Erstellung von 3D-Modellen von Karten für den 3D-Druck. Landmarks sind auch sehr wichtig, beispielsweise eine Hausecke mit Regenrinnen oder sonstige fest installierten unbeweglichen Dinge. Zur Einschätzung der Situation und auch zur Verortung in der Umgebung ist ein geschultes Gehör unverzichtbar. So findet heutzutage das Klicksonar mehr und mehr Einzug in den O&M-Unterricht. Trotz aller Möglichkeiten steht die Einfachheit im Vordergrund. Auch wenn Technik versagt, muss es eventuell gehen. Eines der am höchsten technisch entwickelte Hilfsmittel dürfte der Chip sein, der ins Auge implantiert wird, und Lichtreize an das Gehirn geben kann. Christoph Erbach hat schon Personen damit unterrichtet. Leider erfüllen die meisten blinden Menschen die Randbedingungen nicht, so dass er nur wenigen helfen kann. Die Wahrnehmung mit dem Chip ist aber eher nicht ein Sehen im klassischen Sinne. Dennoch kann diese geringe Auflösung und Lichtwahrnehmung hilfreich sein. Aktuelle technische Entwicklungen in Richtung der Künstlichen Intelligenz, autonomem Fahren, Computersehen und vielem mehr werden in Zukunft auch für blinde Menschen das Leben erleichtern und verbessern. Weitere Informationen Firma Sehwerk anderes sehen e.v. Pro Retina e.V. Rehabilitationslehrer-Nachwuchs
Es gibt immer wieder Projektarten, die ganz besonderes sind und die besondere Randbedingungen und Anforderungen haben. Festpreisprojekte gehören dazu. In dieser Episode erfährst Du: 1. Was ist ein Festpreisprojekt 2. Was sind die Besonderheiten eines Festpreisprojektes 3. Worauf solltest Du bei Festpreisprojekten achten Link zu den Shownotes: https://www.projektmanagement-maschinenbau.de/pmmb099
Die Randbedingungen, die ein toller Job mitbringen sollte, bestimme ich bei der Karriereberatung mit meinen Klienten. Wir beantworten die Frage, wie der Ort sein soll, an dem Du leben und arbeiten möchtest und wie die Räume. Außerdem finden wir ganz genau heraus, wie Deine Kunden, Chefs und auch Kollegen im Idealfall sein sollen. (In dieser Podcast-Episode erfährst Du, wie das geht.) Doch sind Randbedingungen überhaupt wichtig genug, um so viel Mühe und Gehirnschmalz da rein zu stecken? Die klingen ja eher so, als wären sie am Rande zu berücksichtigen. Dabei ergibt sich doch aus genau diesen Faktoren die Unternehmenskultur. "Die ist extrem wichtig!", findet mein heutiger Interviewpartner, Dr. Kurt Smit. Er ist geschäftsführender Gesellschafter der Kottmann GmbH in Paderborn und unterstützt Unternehmen dabei, eine Kooperationskultur (anstelle einer Wettbewerbskultur) einzuführen. Im Podcast sprechen wir unter anderem über die verschiedenen Kooperationstypen, die es gibt. Da kannst Du gleich mal checken, wie es um Deine Kollegen und Chefs bestellt ist. Und auch wie Du selbst drauf bist! So ein Podcast ist nämlich prima zur Selbstreflektion. (Dazu später mehr.) Worüber wir natürlich auch reden ist, wer was genau tun kann, wenn es gerade suboptimal läuft. ;-)
Warum der Uber-Börsengang keine gute Idee ist und warum man als Privatinvestor die Finger davon lassen sollte... Meine Gedanken für den Börsen-Mai Aktuell sind Börsengänge wieder mal ein echter Hype. Man kann kaum für ein paar Minuten offline sein, ohne nicht einen verpasst zu haben. Die größte Schlacht der letzten Wochen lieferten sich aber Uber und lyft - vor allem darum, wer von den beiden als erster an die Börse kommt. Und dieses Wettrennen ist nicht ohne, da man dem Erstplatzierten, der nun lyft heißt, die größten Chancen ausgerechnet hat, für ein erfolgreiches Börsendebüt. Nun folgt wohl im Mai auch Uber... sollte ich mir das als Privatanleger genauer ansehen oder lieber die Finger davon lassen? GLEICH VORWEG DER WICHTIGSTE DISCLAIMER: DAS IST HIER KEINE ANLAGEBERATUNG ODER EINE FUNDIERTE AUSKUNFT, DIE ZU KAUF ODER UNTERLASSUNG RÄT, SONDERN LEDIGLICH MEINE PRIVATEN GEDANKEN!!! ALSO, VORSICHT: SPEKULATIONEN AN DER BÖRSE KÖNNEN ZU VERLUSTEN FÜHREN! Ich wiederhole: Hier folgen meine eigenen Gedanken, dies stellt keine Anlageberatung dar! Worum geht es denn bei Uber und lyft genau? Beide bieten so genannte "neue Mobilitätskonzepte" an. Bei lyft hatte man immer den Eindruck, dass die Idee war, man fährt sowieso, warum nicht ein paar Leute mitnehmen und die Kosten für die Fahrt teilen (das so genannte ride sharing). Und, größter Vorteil in den USA: mit zwei oder mehr Leuten die "fast lanes" in und um die Städte herum nutzen zu können, statt nebenan auf vier oder mehr Spuren im Stau zu stehen. Wenn man dies allerdings heute auf der offiziellen Webseite versucht nachzuvollziehen, wird man bei lyft nicht wirklich fündig. Fahrer werden, kein Problem. Selbst der Umweg über Pressematerial hilft nicht weiter, da man viele Fotos und Logos bekommt, aber keine Firmengeschichte. [caption id="attachment_1851" align="aligncenter" width="300"] Keine Firmengeschichte, daher wenigstens das Logo / Bild-Quelle: lyft.com[/caption] Aber dennoch lassen sich Informationen finden: Gegründet im Sommer 2012. Klassisches Erkennungszeichen war lange Jahre der rosarote Fell-Schnurrbart, der am Kühlergrill der teilnehmenden Fahrer befestigt war und im Jahr 2015 durch eine kleine Plastik-Kopie für das Armaturenbrett im Auto abgelöst wurde. Der Service wird komplett durch eine App angebildet. Anmeldung, schon kann man wahlweise als Fahrer oder Mitfahrer "tätig" werden. In 2019 ging die Firma an die Börse und verlor, auch getrieben durch Leerverkäufe, heftig an Kurs. An sich sowieso kein solides Investment, da lyft im Jahr 2018, dank neuer Finanzierungsrunde über 600 Millionen US-$, auf 15,1 Milliarden US-$ bewertet wurde - dem aber 911 US-$ Millionen Netto-Verluste bei Einnahmen von knapp 2,2 Milliarden US-$ gegenüber stehen. Kleine Milchmädchenrechnung: 2,2 Milliarden Einnahmen hören sich gut an. Aber mit diesen Einnahmen auf einen Verlust von 911 Millionen zu kommen ist alles andere als eine gesunde Bilanz! Aber, ein kleiner Trost: selbstfahrende Fahrzeuge, in Kooperation mit General Motors, stehen auf der Liste - sollte das für Euch wichtig sein. Laut eigenen Angaben der Webseite ist lyft am 29.03.2019 mit einem Eröffnungskurs von 87,24$ an der Börse gestartet und dümpelt aktuell knapp unter 60$ im Kursverlauf hin und her. Reibach hatte hier nur gemacht, wer nach der Eröffnung schnell verkauft hat - oder mit den Wölfen die Leerverkäufe vor sich her trieb. Bisher ein enttäuschendes Ergebnis. Und wie sieht es bei Uber aus? Gegründet wurde Uber bereits in 2009. Im Unterschied zu lyft lagen die Anfänge bei Uber allerdings nicht im Teilen von Fahrten, sondern gezielt im anbieten eines Fahrers, dem so genannten Ride Hailing. (Ride Sharing ist das, was lyft groß gemacht hat) Uber ist aktuell breit aufgestellt: neben Fahrdiensten auch mit Essensbestellungen, die nach Hause geliefert werden und Uber Care für Patienten und Pflegekräfte. Ein wenig unrühmlich wurden Uber's Versuche mit autonomen Fahrzeugen publik, ich hatte damals auch etwas in meinem Blog dazu geschrieben. Die Kennzahlen von Uber sehen wie folgt aus: UBER-Kennzahlen / Bild-Quelle: Felix Richter, statista.comIm letzten Jahr wurden 11,3 Milliarden US-$ eingenommen, aber 14,3 Milliarden ausgegeben - damit produzierte Uber ein Minus von 3 Milliarden. In den letzten fünf Jahren hat Uber somit in Summe 12 Milliarden Dollar Schulden angehäuft - sammelte aber in 22 Runden um die 24 Milliarden Dollar an Startkapital ein - welches alleine zur Hälfte für die bestehenden Schulden "vernichtet" worden sein dürfte. Im Dezember 2018 reichte Uber die Unterlagen für die Aufnahme an die Börse und das offizielle Listing ein - und wird, je nach Zahl der Aktien, die Uber an die Börse geben wird, mit ca. 100 bis 120 Milliarden Dollar Wert geschätzt. 120 Milliarden - denen ein geschätztes Restvermögen von wohl bestenfalls 10-12 Milliarden Dollar gegenüber steht, welches wohl, bei der Verbrauchsrate wie bisher, in zwei bis drei Jahren aufgebraucht sein wird? Wirklich? 120 Milliarden? Wo soll dieser Wert her kommen, wo steckt dieser Goodwill? Ich kann das nicht erkennen! Den Kampf um den ersten Börsengang hat Uber gegen lyft bereits verloren. Das kann zur Folge haben, dass die Börse, auch nach dem Kurseinbruch von lyft, nun misstrauischer auf Uber gucken wird. Und damit könnte sich der Wunschwert der Marktkapitalisierung von 100 bis 120 Milliarden Dollar entsprechend reduzieren. Auch der geplante Erlös von ca. 10 Milliarden Dollar könnte schrumpfen. Was Uber wiederum hart treffen könnte, da an dem Börsengang, neben den üblichen Verdächtigen aus dem Top Management, auch Fahrer profitieren sollen: bis zu 300 Millionen Dollar sollen, laut offiziellen Prospekt des Börsengangs, ausgeschüttet werden. Nach einem klaren Kriterium: 2.500 Fahrten 100$, 5.000 Fahrten 500$ und für 10.000 Fahrten 1.000 $. Nur Fahrer mit 20.000 Fahrten und mehr werden das Maximum an 10.000 Dollar erhalten. Da wirken die Randbedingungen wie "gute Beurteilung" und im Jahr 2019 mindestens eine Fahrt bis zum 07. April durchgeführt haben eher wie ein Zuckerschlecken. Neben den Bedingungen für die USA wird es für alle Länder, in den Uber aktiv ist, eine individuelle, an das Lohn-Niveau angepasste Staffelung der "Börsen-Belohnungszahlungen" geben. Bei all dem darf man aber die aktuellen Probleme nicht übersehen: Für die weltweite Taxibranche steht Uber als Erzfeind Nummero eins auf dem Tableau. Der Wettbewerb mit lyft wird für beide, erst recht, wenn sie dann an der Börse und quartalsweise berichten müssen, nicht einfacher. Neue Anbieter mit unterschiedlichen Modellen kommen weltweit hinzu, die den Markt zusätzlich fluten und Preise drücken werden. Parallel ist eine staatliche Regulierung, wie sie auch in Deutschland bereits statt gefunden hat und Teile oder die komplette Uber-Flotte von der Straße genommen hat, jederzeit denkbar. Oder eine Regelung wie die City-Maut in London erhöht oder, eher wahrscheinlich, verschlechtert die Chancen von Fahrdienstleistern. Und, nicht zu letzt: Trotz hoher Gewinne ist die Schuldenlast, um die Angebote in den Markt zu drücken, immer noch zu hoch, als um rentabel arbeiten zu können. Dies werden sich die Börsen, im Unterschied zu Venture Capital Gebern, nicht so lange "straffrei" ansehen... somit könnte sich der Börsengang zur schlechtestes Strategie entpuppen, den man eingehen konnte. (Hat hier jemand Snap gesagt? Ja?) Nun zu meiner Einschätzung: Während sich bei lyft, wenn auch mit stop-loss-Kursen oder schnellen Kauf-Verkauf-Bewegungen am Börsengang fast "sicher" (Disclaimer: sicher ist an der Börse nichts!) ein Gewinn realisieren ließ, sehe ich bei Uber hier kaum Luft. Ich könnte mir gut vorstellen, dass die Leerverkäufer bei lyft noch wildern, bis Uber kommt - um dann hier die Kohle raus zu ziehen. Dass die Uber-Aktie schnell nach Ausgabe einbrechen wird, ist aus meiner Sicht so gut wie sicher: sämtliche relevanten Kennzahlen für Anleger stecken in den roten Zahlen und der Markt hat nicht auf diesen Börsengang gewartet, die Konkurrenz nimmt zu. Kann also gut sein, dass Uber den obligatorischen Optimismus des ersten Tages mit nimmt, um danach im Kurs auf ein eher realistisches Maß abzusinken. Ich würde mich bei diesem Börsengang, auch nicht für "Fünf-Minuten-Gewinne" einkaufen, da mir persönlich das Risiko eines zu erwartenden Gewinns zu gering ist. Zum einen habe ich die Wechselkursschwankungen zwischen Euro und Dollar, dann müsste man den Kurs minutiös verfolgen und im "richtigen Moment", sofern es den gibt, seine Order zum Verkauf ins System bekommen, um dann noch die deutschen Abgaben vom Gewinn abziehen zu müssen. Lukrativer könnte hier auch ein Leerverkauf sein, der ein gewisses Restrisiko beinhaltet. Aber dass die Aktie ihr hohes Niveau ohne schwarze Null und reale Gewinne lange halten kann, wage ich für meine Planung sehr zu bezweifeln. Andererseits sollten noch zwei weitere interessantere Börsengänge im Jahr 2019 folgen: Für die Zockermentalität sollte man Pinterest im Auge behalten, wer es lieber solide will, sollte sich die Unterlagen zu Palantir genauer ansehen. Ich wiederhole es abschließend: ! HIER FAND KEINE BERATUNG FÜR ANLAGEN ODER STRATEGIEN STATT. ICH HABE HIER NUR MEINE GEDANKEN KUND GETAN. WER DIESE NACHAHMEN MÖCHTE, TUT DIES AUF EIGENES RISIKO UND OHNE ANSPRUCH GEGEN/MEINE(R) PERSON GEGENÜBER ! Meinen PodCast abonnieren: | direkt | iTunes | Spotify | Google |
Fragestellungen, über die wir uns unterhalten haben: Was ist Open Innovation? Welche Formen von Open Innovation Zusammenschlüssen gibt es? Welche Themenfelder werden mit Open Innovation bevorzugt bearbeitet? Wer sind die typischen Initiatoren von Open Innovation Zirkeln? Wer sind typische Teilnehmer von Open Innovation Prozessen? Was sind die Voraussetzungen und Randbedingungen, damit Open Innovation funktioniert? Wo sind die Grenzen von Open Innovation? Wie sehen die typischen Vorbereitungen für einen Open Innovation Prozess aus? Wie sieht die typische Durchführung eines Open Innovation Prozesses aus? Welche Dauer haben Open Innovation Prozesse? Was passiert nach dem Open Innovation Prozess? Wie sieht der Einstieg in Open Innovation aus?
Fragestellungen, die wir besprochen haben: Welche Rolle spielt Vertrauen beim Thema Digitalisierung? Um wessen Vertrauen in wen geht es, wer sind die Mitspieler und welchen Einfluss haben sie? Wie entsteht Vertrauen? Welche Leitprinzipien lassen sich daraus ableiten? Welche Herausforderungen bringt die Digitalisierung in verschiedenen Bereichen mit sich? Wo sind die Grenzen des Machbaren im Bezug auf Vertrauen? Welche Rolle sollten hier Unternehmen, Gesellschaft, Staat spielen? Was ist Ihre Prognose wie sich das Thema Vertrauen unter den verschiedenen Aspekten und Randbedingungen weiterentwickeln wird?
Gudrun ist für die aktuelle Episode zu Gast in der Bundesanstalt für Wasserbau (BAW) am Standort in Karlsruhe. Die BAW ist etwa so alt wie die Bundesrepublik und grob gesagt zuständig für technisch-wissenschaftliche Aufgaben in allen Bereichen des Verkehrswasserbaus an den Bundeswasserstraßen und für Spezialschiffbau. Dabei berät sie die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV). Heute ist der Hauptsitz der BAW in Karlsruhe. Daneben gibt es noch einen Standort in Hamburg. Der Anlass des Besuches ist diesmal der Abschluss der Masterarbeit von Axel Rothert zu einer Fragestellung aus der BAW in Karlsruhe. Der Titel der Arbeit ist "Hybride 2D-3D-Simulation von Strömungsprozessen im Nah- und Fernfeld von Wasserbauwerken in OpenFOAM". Sie entstand in enger Zusammenarbeit mit den Kollegen Dr.-Ing. Carsten Thorenz und Franz Simons im Referat Wasserbauwerke der BAW. Nach dem Abschlussvortrag hat sich Gudrun mit Franz Simons und Axel Rothert über die Ergebnisse der Arbeit unterhalten. Neben traditionellen mathematischen Modellen, die durch physikalische Experimente kalibriert und erprobt werden, haben sich durch den technischen Fortschritt der letzen Jahrzehnte numerische Simulationen inzwischen fest etabliert. Einerseits, um numerische Näherungslösungen für die partiellen Differentialgleichungen des mathematischen Modells zu liefern, andererseits aber auch zur Durchführung virtueller Experimente. Die Simulation von hydrodynamischen Vorgängen ist hier ein gutes Beispiel. Das Fließen von Wasser muss mit Gleichungen beschrieben werden, die wiederum numerische Lösungen brauchen, wobei durch deren Komplexität auch gleich noch Ansprüche an entweder Hochleistungsrechentechnik (und damit Parallelisierung) oder andererseits gut begründete Vereinfachungen erhoben werden müssen. Das ganze muss verlässliche Aussagen liefern, damit die BAW z.B. die Hochwasserneutralität eines Wasserbauwerks garantieren kann bevor es endgültig geplant und gebaut wird. Dabei werden in der dortigen Praxis beide Wege beschritten: man investiert in modernste Rechentechnik und benutzt erprobte Vereinfachungen im Modell. Im Kontext der Umströmung von Wasserbauwerken haben unterschiedliche Regionen verschiedene dominierende Strömungsprozesse: in der Nähe des Bauwerkes gibt es eine starke Interaktion des Fließgewässers mit dem Hindernis, aber in einiger Entfernung kann man diese Interaktion vernachlässigen und den Modellansatz vereinfachen. Deshalb sollten im Nah- und Fernbereich unterschiedliche Modelle benutzt werden. Konkret sind es in der Arbeit die tiefengemittelten Flachwassergleichungen im Fernfeld und die Reynolds-gemittelten Navier- Stokes-Gleichungen (RANS) im Nahfeld der Wasserbauwerke. Wichtig ist dann natürlich, wie diese Modelle gekoppelt werden. Da eine Informationsübertragung sowohl stromaufwärts als auch stromabwärts möglich ist, ist eine Kopplung in beide Richtungen nötig. In der vorliegenden Arbeit wurde eine vorhandene Implementierung eines Mehr-Regionen-Lösers in OpenFOAM der TU München so weiter entwickelt, dass er für die Anwendungen in der BAW geeignet ist. Dafür musste sie auf die aktuell an der BAW verwendete Version von OpenFOAM portiert und anschließend parallelisiert werden, damit praxisnahe Probleme der BAW in sinnvollen Rechenzeiten bewältigt werden können. Außerdem mussten die Implementierungen der Randbedingungen so abgeändert werden, dass allgemeine Geometrien für den Untergrund und ein trocken fallen bzw. benetzen mit Wasser möglich sind. Die Implementierung wurde anhand eines realistischen Beispiels aus dem Verkehrswasserbau bestätigt. Ein etwa 1,1km langer Flussabschnitt wurde hybrid simuliert. Dabei ist ein Staustufe, bestehend aus Wehranlagen, Schleuse und Kraftwerk enthalten. Literatur und weiterführende Informationen Boyer, F. ; Fabrie, P.: Mathematical Tools for the Study of the Incompressible Navier-Stokes Equations and Related Models. New York : Springer-Verlag, 2013 Gerstner, N. ; Belzner, F. ; Thorenz, C.: Simulation of Flood Scenarios with Combined 2D/3D Numerical Models. In: Lehfeldt, R. (Hrsg.) ; Kopmann, R. (Hrsg.): 11th international conference on hydroscience and engineering. Bundesanstalt für Wasserbau, Karlsruhe, 2014 Mintgen, F.: Coupling of Shallow and Non-Shallow Flow Solvers - An Open Source Framework. München, Technische Universität, Diss., 2017 Mintgen, F. ; Manhart, M.: A bi-directional coupling of 2D shallow water and 3D Reynolds-Averaged Navier-Stokes models. 2018. Begutachtet und angenommen vom Journal of Hydraulic Research. Einsehbar: DOI: 10.1080/00221686.2017.1419989 Uijttewaal, W. S.: Hydrodynamics of shallow flows: application to rivers. In: Journal of Hydraulic Research 52 (2014), Nr. 2, S. 157-172 Podcasts R. Kopman, G. Thäter: Wasserstraßen, Gespräch im Modellansatz Podcast, Folge 24, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
Damit Du Dich in Deinem Wochenbett den wirklich wichtigen Dingen widmen kannst, sind die richtigen Randbedingungen wichtig. In Folge 16 hast Du bereits erfahren, welche Vorbereitung Dir dabei hilft, möglichst viele Tätigkeiten bereits vor der Geburt zu erledigen. In der heutigen Sendung geht es nun um die Zeit im Wochenbett. Du erfährst, mit welchem Mindset Alltagsentscheidungen getroffen werden sollten, um möglichst wenig Hektik entstehen zu lassen.
Kein Militär würde ohne Karte losziehen. Keine Schachspieler ohne Brett spielen. Nur im Business versuchen wir Strategien ohne Kenntnis und Darstellung des Umfeldes und der Randbedingungen zu entwickeln. Simon Wardley stellt ein sehr mächtiges Konzept für eine Landkarte für das Business dar. Lassen Sie Sich inspirieren und erwerben Sie ein besseres strategisches Verständnis.
Das Stratosphären-Infrarotteleskop SOFIA ist seit Ende November bei Lufthansa Technik zum C-Check. Da ich in jener Woche sowieso "im Norden" unterwegs war, habe ich die Gelegenheit genutzt und habe das Flugzeug bei LH Technik besucht. In der Episode spreche ich mit LHT's Markus Eisenhauer über die Wartungsarbeiten und einige rechtliche Randbedingungen, sowie mit Thomas Keilig und Oliver Zeile vom DSI über die Wartungsarbeiten am Teleskop.
Das Stratosphären-Infrarotteleskop SOFIA ist seit Ende November bei Lufthansa Technik zum C-Check. Da ich in jener Woche sowieso "im Norden" unterwegs war, habe ich die Gelegenheit genutzt und habe das Flugzeug bei LH Technik besucht. In der Episode spreche ich mit LHT's Markus Eisenhauer über die Wartungsarbeiten und einige rechtliche Randbedingungen, sowie mit Thomas Keilig und Oliver Zeile vom DSI über die Wartungsarbeiten am Teleskop.
Gudrun unterhält sich diesmal mit Johanna Mödl. Johanna hat von August bis Oktober 2017 ihre Bachelorarbeit Analytische und numerische Untersuchungen zum mikrowelleninduzierten Temperaturanstieg von zylindrischen Probekörpern aus Beton geschrieben. Der Hintergrund war ein Thema aus dem Institut für Massivbau und Baustofftechnologie (Abt. Baustoffe und Betonbau). Dort wird untersucht, wie hochenergetische Mikrowellen solche Temperaturunterschiede in (trockenen) Betonkörpern erzeugen, dass der Werkstoff an der Oberfläche zerstört wird. Um Erfahrungswerte im Umgang mit diesem Verfahren zu erhalten, werden derzeit Laborexperimente durch das Institut für Massivbau und Baustofftechnologie und das Institut für Hochleistungsimpuls- und Mikrowellentechnik, beides Institute des Karlsruher Instituts für Technologie, durchgeführt. Auf Basis der Messergebnisse wird versucht, den Vorgang durch einfache Gleichungen zu beschreiben, um vorhersagen zu können, wie er sich in größerem Maßstab verhält. Aufgrund der Komplexität des Prozesses werden nur vereinfachende Modelle betrachtet. Da diese sich durch partielle Differentialgleichungen beschreiben lassen, sollte der Vorgang während der Bachelorarbeit aus mathematischer Sicht analysiert werden. Die Ausbreitung der Mikrowellen-Energie als Wärme im Baustoff wird durch die Wärmeleitungsgleichung gut beschrieben. Dies ist eine in der Mathematik wohlstudierte Gleichung. Im Allgemeinen lassen sich aber analytische Lösungen nur schwer oder gar nicht berechnen. Daher mussten zusätzlich numerische Verfahren gewählt und implementiert werden, um eine Approximation der Lösung zu erhalten. Johanna entschied sich für das Finite-Differenzen-Verfahren im Raum und ein explizites Eulerverfahren in der Zeitrichtung, da beide einfach zu analysieren und zu implementieren sind. Erfreulicherweise stimmt die numerisch auf diese Weise approximierte Lösung mit den experimentellen Ergebnissen in den hauptsächlichen Gesichtspunkten überein. Die Wärme breitet sich von der Quelle in den Beton aus und es kommt im zeitlichen Verlauf zu einer kontinuierlichen Erwärmung in den Körper hinein. Das größte Problem und die vermutliche Ursache dafür, dass die Meßdaten noch nicht ganz genau mit den Simulationen übereinstimmen ist, dass man physikalisch sinnvollere Randbedingungen bräuchte. Im Moment wird - wie üblich - davon ausgegangen, dass am Rand des Betonzylinders, wo nicht die Energie eintritt, der Körper Umgebungstemperatur hat. Hier bräuchte man eine phyiskalische Modellierung, die das korrigiert. Literatur und weiterführende Informationen W. Hackbusch: Theorie und Numerik elliptischer Differentialgleichungen, Springer Spektrum, Wiesbaden, 4. Auflage, 2017. B. Lepers e.a.: A drying and thermoelastic model for fast microwave heating of concrete. Global Digital Central, Frontiers in Heat and Mass Transfer, 2014. M. Umminger e.a.: Ablation kontaminierter Oberflächen zementgebundener Bauteile beim Rückbau kerntechnischer Anlagen. Abschlussbericht, BMBF- Förderkennzeichen 02S8709 und 02S8719, Februar 2015.
Im September war ich mit meinem Freund Michael Kircher in der Gegend von Erlangen auf der Jagd. Wir haben uns zunächst darüber unterhalten was die Jagd ausmacht, welche Aufgaben Jäger (neben dem Erlegen von Tieren) in der Natur spielen, und was die rechtlichen Randbedingungen sind. Wir haben uns dann zwei Stunden (erfolglos) an einen Jagdplatz gesetzt, und hinterher nochmal rekapituliert was wir dort (nicht) erlebt haben. Wir haben uns auch ein bisschen über die Jagdbegleiter App unterhalten die Michael für die Jäger-Community entwickelt und verkauft.
Bei der Jobsuche die Randbedingungen bis ins Kleinste aufzudröseln, klingt im ersten Augenblick vielleicht etwas übertrieben. Es kann ja sein, dass ich schon froh bin, wenn ich überhaupt einen Job bekomme, der mir einigermaßen Spaß macht. Jetzt auch noch genau darauf zu achten, wie mein Chef, meine Kollegen, die Kunden und obendrein auch noch Räume und Orte sein sollen, macht die Angelegenheit ziemlich sportlich. Dabei kann genau in diesen Punkten der Hase im Pfeffer liegen. Was mir persönlich zum Beispiel die eigentlich schöne Arbeit völlig vermiesen würde, wären Klienten, die nicht freiwillig zu mir kommen. Wenn ich mich dann frage, warum das eigentlich so ist, dann lerne ich viel über mich selbst. Das hilft mir bei der Jobsuche auch an anderer Stelle weiter.
Die Generation Y, wie sie von Experten der Demographie genannt wird, erlebt, dass die Eltern oder Großeltern von Themen wie Digitalisierung oder Nachhaltigkeit recht wenig Ahnung haben. Daher ist es für diese Generation selbstverständlich, auf Augenhöhe mit den Älteren reden zu wollen. Und so ganz Unrecht haben sie auch nicht. Jetzt wird es allerdings kompliziert, da es im menschlichen Zusammenleben mehr als nur um die Fakten und den Umgang mit digitalen Medien geht. Die Erfahrung der Älteren hat auch seinen Wert, was die Jüngeren wieder begreifen müssen. Kommunikation bedeutet daher in Zukunft im Dschungel der Möglichkeiten – E-Mail, Telefon, WhatsApp, XING, LinkedIn, Twitter, Facebook – und in Anbetracht einer sich auflösenden Generationenhierarchie neue Wege des Respekts und gegenseitigen Vertrauens zu finden. Dabei steht das Ergebnis3, wie auch bei Wikipedia, im Vordergrund und löst sinnlose Regeln ab. Als Elon Musk, der visionäre Unternehmer aus Südafrika, der heute in den USA lebt und einmal eben PayPal mit aufgebaut hat, mit Tesla ein innovatives Elektroauto entwickelt und nebenbei noch mit SpaceX an Raketen baut, um damit auf den Mars fliegen zu können, seine Patente für Elektroautos freigegeben hat, müssen viele Baby-Boomer ihn für vollkommen verrückt gehalten haben. Jetzt kann doch jeder das, was Musk aufgebaut hat, kopieren, werden sie gedacht haben. Kann er? Nein, so einfach ist es nicht und zwar nicht nur technologisch gemeint. Ein Produkt besteht heute zwar auch aus Technologie, aber zu einem Großteil sind weitere Zutaten für den Erfolg notwendig. Zudem hat Musk auf etwas viel größeres durch seinen revolutionären Schritt gesetzt: auf Synergie Wenn viele Elektroautos bauen würden, dann würden die Preise sinken, die Infrastruktur von Elektrotankstellen würde sich sprunghaft entwickeln und mehr Kunden kämen auf die Idee, vom Benziner zum Elektroauto zu wechseln. Auch eine technologische Weiterentwicklung würde anstehen. Also macht es Sinn, anderen zu helfen, Elektroautos zu entwickeln. Musk wusste, dass er anschließend schnell und innovativ sein muss, um den Marktvorsprung zu halten oder auszubauen. Das Denken in wenigen kleinen Einheiten ob Firma oder Regionen gehört damit der Vergangenheit an. Die Kommunikation morgen muss also Grenzen überwinden und das hat die Generation Y schon verstanden. Sie ist ständig im Kontakt miteinander. Eine Netzwerkstruktur mit kleinen autarken Einheiten könnte so entstehen. Werden die Einheiten zu groß, wird die Kommunikation unübersichtlich und unpersönlich. Die sogenannte Dunbar-Regel besagt, dass man mit maximal 150 Menschen gleichzeitig interagieren kann. Sozialforscher führen diese Anzahl auf unsere Urzeiterfahrung zurück, bei der Menschenstämme ungefähr diese Größe hatten Die Digitalisierung hat vor allem vernetzt. Menschen sind durch neue Kommunikationskanäle räumlich und zeitlich zusammengerückt. Kommunikation und Vernetzung befruchten sich gegenseitig. Und je einfacher die Kommunikation ist, desto schneller dreht sich das Vernetzungskarussell. Menschen vernetzen sich, Sensoren vernetzen sich und liefern so neue Ergebnisse. Kombiniert man die Straßenkarte (Navigation der 1. Generation) mit Stauinformationen auf der Autobahn aus dem Radio, die von Menschen gemeldet wurden, (Navigation der 2. Generation) Geschwindigkeitssensoren (3.Generation) so kann Zeit gespart werden. Neben der Digitalisierung gibt es unser Streben nach - und die Notwendigkeit von Effizienz. „Und die Mitarbeiter von morgen werden sich anstrengen müssen, mitzukommen in einer Welt, in der die Messlatte der beruflichen Qualifikation immer höher gelegt wird. FürMittelmaß ist in der digitalen transformierten Arbeitswelt zunehmend weniger Platz.“ schreibt Tim Cole (Cole, 2015). Moderne Arbeitswelten brauchen ganz andere Orte des Arbeitens. Wir brauchen einen neuen Begriff. Vielleicht nennen wir es Bürohotel (Giesa & Clausen,2015) Um als Unternehmen innovativ zu sein, müssen Randbedingungen für das Unternehmen und die eigenen Mitarbeiter geschaffen werden. Und wo geht dies besser als in einer Arbeitsumgebung, die diese Erkenntnisse bereits berücksichtigt? Informationen sind vorgelesen aus dem Kapitel 2 erhältlich unter: http://www.bob-ag.de
Peer Kunstmann hat in Kiel Mathematik studiert und 1995 promoviert. In seiner Zeit an der Fakultät für Mathematik in Karlsruhe hat er sich 2002 habilitiert. Er arbeitet als Akademischer Oberrat dauerhaft in der Arbeitsgruppe Angewandte Analysis an unserer Fakultät. Gudrun hat das Gespräch über ein für beide interessantes Thema - das Stokesproblem - gesucht, weil beide schon über längere Zeit mit unterschiedlichen Methoden zu dieser Gleichung forschen. Das Stokesproblem ist der lineare Anteil der Navier-Stokes Gleichungen, dem klassischen Modell für Strömungen. Sie haben eine gewisse Faszination, da sie einfach genug erscheinen, um sie in ihrer Struktur sehr eingehend verstehen zu können, zeigen aber auch immer wieder, dass man sie nicht unterschätzen darf in ihrer Komplexität. Peers Interesse wurde zu Beginn seiner Zeit in Karlsruhe durch Matthias Hieber geweckt, der inzwischen an der TU Darmstadt tätig ist. Es zeigte sich seit damals als sehr aktives Forschungsgebiet, weshalb er auch immer wieder neu zu diesen Fragestellungen zurückgekehrt ist. Mit den klassischen Randbedingungen (konkret, wenn auf dem Rand vorgeschrieben wird, dass die Lösung dort verschwindet = homogene Dirichletbedingung) ist das Stokesproblem auffassbar als Laplaceoperator, der auf Räumen mit divergenzfreien Vektorfeldern agiert. Der Laplaceoperator ist sehr gut verstanden und die Einschränkung auf den abgeschlossenen Unterraum der Vektorfelder mit der Eigenschaft, dass ihre Divergenz den Wert 0 ergibt, lässt sich mit einer Orthogonalprojektion - der Helmholtzprojektion - beschreiben. Im Hilbertraumfall, d.h. wenn die Räume auf einer L^2-Struktur basieren und der Raum deshalb auch ein Skalarprodukt hat, weiß man, dass diese Projektion immer existiert und gute Eigenschaften hat. Für andere Räume ohne diese Struktur (z.B. -basiert für q nicht 2) hängt die Antwort auf die Frage, für welche q die Projektion existiert, von der Geometrie des Gebietes ab. Für beschränkte Gebiete geht vor allem die Glattheit des Randes ein. Das spiegelt sich auch auf der Seite des Laplaceproblems, wo die Regularität im Innern des Gebietes relativ elementar gezeigt werden kann, aber in der Nähe des Randes und auf dem Rand gehen in die Argumente direkt die Regularität des Randes ein. Mathematisch wird das Gebiet dabei mit Kreisen überdeckt und mit Hilfe einer sogenannten Zerlegung der Eins anschließend die Lösung für das ganze Gebiet zusammengesetzt. Für die Kreise, die ganz im Innern des Gebietes liegen, wird die Lösung auf den ganzen Raum mit dem Wert 0 fortgesetzt, weil die Behandlung des ganzen Raumes sehr einfach ist. Für Kreise am Rand, wird der Rand lokal glatt gebogen zu einer geraden Linie und (ebenfalls nach Fortsetzung mit 0) ein Halbraum-Problem gelöst. Natürlich liegt es in der Glattheit des Randes, ob das "gerade biegen" nur kleine Fehlerterme erzeugt, die sich "verstecken" lassen oder ob das nicht funktioniert. Für einen Rand, der lokal durch zweimal differenzierbare Funktion dargestellt werden kann, funktioniert diese Technik gut. Für Gebiete, die einen Rand haben, der lokal durch Lipschitzstetige Funktionen darstellbar ist, werden z.B. Randintegraldarstellungen direkt untersucht. Dort existiert die Helmholtzzerlegung für alle q im Intervall (wobei vom Gebiet abhängt). Durch die kleinen Fehlerterme, die in der Technik entstehen, wird es auch nötig, die Gleichung für die Divergenz zu untersuchen, wo keine 0 sondern eine beliebige Funktion (natürlich mit den entsprechenden Regularitätseigenschaften) als rechte Seite erlaubt ist. Ein Begriff, der eine wichtige Eigenschaft von partiellen Differentialgleichungen beschreibt, ist der der maximalen Regularität. Einfach ausgedrückt heißt das, wenn ich die rechte Seite in einem Raum vorgebe, ist die Lösung genau so viel regulärer, dass nach Anwendung des Differentialoperators das Ergebnis die Regularität der rechten Seite hat. Für das Laplaceproblem wäre also die Lösung v für jedes vorgegebene f so, dass und f im gleichen Raum sind. Diese Eigenschaft ist z.B. wichtig, wenn man bei nichtlinearen Problemen mit Hilfe von Fixpunktsätzen arbeitet, also z.B. den Operators iterativ anwenden muss. Dann sichert die maximale Regularität, dass man immer im richtigen Raum landet, um den Operator erneut anwenden zu können. Im Zusammenhang mit der Frage der maximalen Regularität hat sich der -Kalkül als sehr nützlich erwiesen. Ein anderer Zugang wählt statt der Operatorformulierung die schwache Formulierung und arbeitet mit Bilinearformen und Ergebnissen der Funktionalanalysis. Hier kann man vergleichsweise wenig abstrakt und in diesem Sinn elementar auch viel für das Stokes- und das Navier-Stokes Problem zeigen. Es gibt ein vorbildliches Buch von Hermann Sohr dazu. Literatur und weiterführende Informationen M. Geißert, P.C. Kunstmann: Weak Neumann implies H^infty for Stokes, Journal Math. Soc. Japan 67 (no. 1), 183-193, 2015. P.C. Kunstmann: Navier-Stokes equations on unbounded domains with rough initial data, Czechoslovak Math. J. 60(135) no. 2, 297–313, 2010. H. Sohr: The Navier-Stokes Equations. An Elementary Functional Analytic Approach Birkhäuser, 2001. M. Cannone: Ondelettes, Paraproduits et Navier-stokes, Diderot Editeur, 1995. G. Thäter, H. Sohr: Imaginary powers of second order differential operators and $L^q$ -Helmholtz decomposition in the infinite cylinder, Mathematische Annalen 311(3):577-602, 1998. P.C. Kunstmann, L. Weis: Maximal L_p-regularity for parabolic equations, Fourier multiplier theorems and H^infty-calculus, in Functional Analytic Methods for Evolution Equations (eds. M. Iannelli, R. Nagel and S. Piazzera), Springer Lecture Notes 1855, 65-311, 2004. P.C. Kunstmann, L. Weis: New criteria for the H^infty-calculus and the Stokes operator on bounded Lipschitz domains, Journal of Evolution Equations, March 2017, Volume 17, Issue 1, pp 387-409, 2017. G.P. Galdi: An introduction to the mathematical theory of the Navier-Stokes equations. Vol. I. Linearized steady problems. Springer Tracts in Natural Philosophy, 38. Springer-Verlag, New York, 1994. Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Markus Maier hat 2016 in der Arbeitsgruppe des Instituts für Angewandte und Numerische Mathematik am KIT promoviert, in der auch Gudrun arbeitet. Sein Thema war The Mathematical Analysis of a Micro Scale Model for Lithium-Ion Batteries. Wie der Name der Arbeit suggeriert, betrachtet er Modelle für Lithium-Ionen-Akkumulatoren (die englische Übersetzung ist für uns Deutsche etwas irreführend Batteries), die auf mikroskopischer Ebene die Stromabgabe über die elektrochemischen Eigenschaften vorhersagen können. Ausgangspunkt des Themas war der Wunsch Degradationsmechanismen - also die Alterung der Akkus - besser zu verstehen. Das Thema Strom speichern ist sehr wichtig und wird in Zukunft noch wichtiger werden. Simulationen sind hier nötig, da jedwedes Messen auf der Mikroskala unmöglich ist - es geht um Objekte von der Größe einiger Mikrometer. Das Ausweichen auf die besser durch Messungen begleitbare makroskopische Ebene im Modell ist nicht möglich, weil man nur auf der Ebene der Ionen die Abläufe nachbilden kann, die zur Alterung führen. Ein Beispiel für so einen Prozess ist, dass die Lithium Ionen nach der Wanderung durch das Elektrolyt in der Kathode auf Platzproblem treffen, die dazu führen können, dass die Katode beschädigt wird, wenn sich die Ionen den nötigen Platz verschaffen. Diese Beschädigungen führen zu Reduzierung der Kapazität. Leider ist die modellhafte Auflösung der ganzen Mikrostruktur einer Batterie numerisch noch unmöglich - weshalb die Untersuchung der Arbeit im Moment nur lokale Ergebnisse enthält. Die kristalline Struktur in der Kathode kann es auch ermöglichen, dass sich eine zweite Phase bildet, in der sich mehr Lithium-Partikel anlagern als ursprünglich Platz in der Kathode ist. Das führt auf ein 2-Phasen-Problem mit einem Phasenübergang. Der Rand zwischen den Phasen ist dann Teil der gesuchten Lösung des Problems. Dieser Teil ist im Moment noch nicht im Modell enthalten. Schließlich hat sich Markus darauf konzentriert, ein Kompromiss-Modell der Ingenieure zu untersuchen, das im Wesentlichen auf Erhaltungseigenschaften beruht. Es hat die Form eines Systems von zwei gekoppelten partiellen Differentialgleichungen für das elektrische Potential und die Lithium-Ionen-Verteilung, welche in den zwei aneinander grenzenden Gebieten gelten. Am Grenzübergang zwischen Elekrolyt und Lithium-Partikeln gilt eine nichtlinearen Gleichung. Die erste Frage ist: Wie sichert man die Existenz und Eindeutigkeit der Lösung? Die Struktur des Beweises erweist sich als hilfreich für das anschließend gewählte numerische Verfahren. Es nutzt die Monotonie des elektrischen Potentials aus. Die Argumente gelten allerdings nur für ein klein genug gewähltes Zeitintervall, weil ein konstanter Strom als Entaldungs-Randbedingung gewählt wurde (nur für kurze Zeiten realistisch). Für Modelle, die Degradation simulieren können, wären andere Randbedingungen nötig wie beispielsweise ein konstanter Widerstand. Ein Masterstudent hat mit dem Open Source Finite-Elemente-Solver deal.II das vorgeschlagene Verfahren im Rahmen seiner Abschlussarbeit programmiert und nachgewiesen, dass es funktioniert und die Resultate überzeugen können. Literatur und weiterführende Informationen A. Latz & J. Zausch: Thermodynamic consistent transport theory of Li-ion batteries, Journal of Power Sources 196 3296--3302, 2011. T. Seger: Elliptic-Parabolic Systems with Applications to Lithium-Ion Battery Models, Doktorarbeit Universität Konstanz, 2013. M. Kespe & H. Nirschl: Numerical simulation of lithium-ion battery performance considering electrode microstructure, International Journal of Energy Research 39 2062-2074, 2015. J.-M. Tarascon & M. Armand: Issues and challenges facing rechargeable lithium batteries, Nature 414 359-367, 2001. Podcasts A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016.
Rascher Datenzuwachs, komplexere Systemumgebungen, hybride Clouds und weitere rechtliche Vorgaben als Randbedingungen... Das intelligente Zusammenspiel von Backups, Snapshots und Datenreplizierung kann helfen, den gestiegenen Herausforderungen in Bezug auf Datenzugriff- und Sicherheit gerecht zu werden.
David Hipp hat am Projekt Cooking Math mitgearbeitet. In seinem darin vorgestellten Forschungsprojekt betrachtet er eine relativ einfache Form der Wellengleichung, die jedoch gut für die Beschreibung von akustischen Wellen geeignet ist. Die Gleichung beschreibt die Wellenausbreitung im Raum mit Hilfe einer partiellen Differentialgleichung. Die Lösung der Wellengleichung ist eine Funktion deren Variablen die Zeit und der Ort sind. Konkret werden in der Gleichung zeitliche und räumliche Änderungen des Zustands, also der Funktion, in Beziehung gesetzt, um die Wellenausbreitung zu beschreiben. Das mathematische Modell für Wellenausbreitung in beschränkten Gebieten umfasst neben der partiellen Differentialgleichung (die hier die Wellengleichung ist) auch noch die Anfangsbedingung, die den Zustand und die Geschwindigkeit zu Beginn des Prozesses festlegt, sowie die Bedingungen am Rand des Gebietes. Physikalisch ist klar, dass Wellen, wenn sie auf die Oberfläche am Rand treffen beispielsweise reflektiert, gebrochen oder gestreut werden können - je nachdem welche Materialeigenschaften der Rand hat. David Hipp untersucht in seiner Forschung insbesondere den Einfluss der Randbedingungen auf die Simulationen solcher Probleme - in seinem Fall also die Wellenausbreitung im Raum. Klassisch wird häufig die Dirichlet oder Neumann-Randbedingung gewählt bzw. die Robin Bedingung als Mischung der beiden. Diese drei Bedingungen auf dem Rand sind allerdings nicht immer realistisch genug, weil sie keine Bewegungen auf dem Rand erlauben.. Deshalb untersucht man derzeit dynamische Randbedingungen - das sind eben solche Bedingungen, die Bewegungen der Welle auf dem Rand zulassen. Damit kann die Wellen Energie an die Wand abgeben und die Wand selbst aktiver Teil der Wellenausbreitung wird. Das kann dann sogar zu Oberflächenwellen auf der Wand führen. Konventionelle numerische Verfahren müssen auf diese neuartigen Randbedingungen erst angepasst werden. Zwar kann David Hipp auf die Finite Elemente Diskretisierung im Raum in Kombination mit klassichen Zeitschrittverfahren zurückgreifen, jedoch muss geprüft werden ob diese Verfahren immer noch so gute Ergebnisse liefern, wie man sie von üblichen Anwendungen gewohnt ist. Eine Herausforderung der dynamischen Randbedingungen ist es, dass unterschiedliche Skalen im Prozess auftreten können, die dann auch so berücksichtigt werden müssen. Zum Beispiel schwingen die Wand und die akustische Welle mit unterschiedlichen Geschwindigkeiten oder Frequenzen. Im Moment genügt es für seine Testrechnungen, das Randgitter der FE-Diskretisierung zu belassen. In Zukunft geht es aber auch darum, hier Anpassungen für unterschiedlichste Materialien möglich zu machen um den verschiedenen Skalen gerecht zu werden. David Hipp ging im Cooking Math Projekt sehr offen und mit wenigen konkreten Vorstellungen in die Zusammenarbeit mit der Hochschule für Gestaltung (HfG) hinein. Schlussendlich ist das vorliegende Ergebnis der Zusammenarbeit mit Oliver Jelko von der HfG eine Mischung aus Lehrvideo zur Mathematik der Wellenausbreitung und professioneller Animation numerischer Testrechnungen für drei unterschiedliche Randbedingungen: Dirichlet, Neumann und akustische Randbedingung. Die akustische Randbedingung ist eine dynamische Randbedingung, die auf der modellhaften Vorstellung beruht, dass die Wand aus vielen winzigen Federn besteht, welche zu schwingen beginnen, wenn sie durch auftreffende akustische Wellen dazu angeregt werden. Als Mathematiker gehört die visuelle Darstellung der Ergebnisse zu unserer Arbeit und ist z.B. auch eine Form von Verifizierung. Aber die professionelle Animation zu Dirichlet-, Neumann und akustischen Randbedingungen durch einen Gestalter ist leichter zugänglich und erlaubt ein intuitives Verständnis. Das Video aus dem Cooking Math Projekt Literatur und Zusatzinformationen J. T. Beale, S. I. Rosencrans: Acoustic boundary conditions, Bull. Amer. Math. Soc. 80, 1276-1278, 1974. S. Larsson, V. Thomee: Partial Differential Equations with Numerical Methods, Springer, 2003. V. Rao: Boundary Condition Thinking, ein populärwissenschaftlicher Zugang zu Randbedingungen, 2011. R.P. Vito and S.A. Dixon: Blood Vessel Constitutive Models, 1995–2002, Annual Review of Biomedical Engineering 5, 413-439, 2003. Podcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting P. Krämer: Zeitintegration, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 82, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/zeitintegration
"Warum klappt es bei uns nicht?" Diese Frage stand am Ende eines Gespräches, das ich vor einer Weile mit einem Geschäftsführer eines mittelständischen Unternehmens hatte. Seine Beobachtung war, dass Projekte in seinem Unternehmen nicht wirklich gut laufen, Termine ständig verschoben werden und alles immer teurer wird als ursprünglich mal geplant. In dieser Episode versuche ich als Antwort auf diese Frage die Randbedingungen raus zu arbeiten, die aus meiner Sicht Projektarbeit im Unternehmen maßgeblich unterstützen. Dabei sollte sich ein Unternehmen die folgenden 3 Fragen stellen und schlüssige Antworten darauf finden: - Warum? - Was? - Wie? Was hinter den 3 Fragen steht erfährst Du in dieser Episode, die wie folgendermaßen gegliedert ist: - Warum sollten wir über Rahmenbedingungen für Projekte im Unternehmen nachdenken? - Welche Themen sind zu berücksichtigen? - Meine Fragen an Dich zum Weiterdenken Link zu den Shownotes: https://www.projektmanagement-maschinenbau.de/pmmb003
IT-Management Podcast | Für den Service-Management Nerd in Dir.
Welche Voraussetzungen dürfen vorhanden sein, damit die Einführung von IT-Service-Management gelingt. Das ist der Kern einer Leserfrage, die ich heute beantworten möchte. Es geht dabei nicht nur um die Voraussetzungen, sondern auch um die Randbedingungen, die für den Erfolg wichtig sind. Gleichzeitig ist dieser Beitrag der Auftakt für eine kleine Serie über Reifegrade im ITSM.
Wie bringt man einem Roboter das Gehen bei? Cornelius Kuhs hat sich dieser Frage am Humanoiden Fünf-Segment-Läufer am Institut für Technische Mechanik gestellt, und hat die Bewegungen am Modell von Differentialgleichungen auf die Energieeffizienz des Bewegungsablaufs studiert. Die Energieeffizienz bezieht sich hier auf die spezifischen Transportkosten, das ist hier die aufgebrachte Energie geteilt durch das Produkt von Gewicht und zurückgelegter Distanz. Die Bewegungsabläufe sind jedoch nicht durch analytisches Lösen der Differentialgleichungen des Modells zu bestimmen, hier wurden verschiedene Ansätze ausgetestet, die dann mittels mathematischer Optimierung auf einen möglichst geringen Energieverbrauch verbessert werden. Dabei sind viele physikalische Randbedingungen, wie der Position des Bodens, und technische Bedingungen, die beispielsweise das Umknicken des Kniegelenks verhindern, schon im Modell eingebaut. Darüber hinaus gibt es aber auch weitere Eigenschaften und Einschränkungen, die verschiedene Lösungen mehr oder weniger nützlich erscheinen lassen. Aus mathematischer Sicht sind die Eigenschaften der Zielfunktion, die in der Optimierung betrachtet wird, sehr interessant: Diese sind oft nur stückweise differenzierbar, was aber bei der Differenzenquotienten keine Probleme macht- außer es tritt ein Pol auf. Mit der Berechenbarkeit von Ableitungen stehen sehr effiziente Gradienten-basierte Optimierungsverfahren zur Verfügung, jedoch ist die Zielfunktion nicht ableitbar, so werden die erwünschten Konvergenzeigenschaften eventuell nicht erreicht. Ebenso interessant ist der Bereich der numerischen Integration, da auch hier Schwierigkeiten bei geringer Ableitbarkeit der Integranden auftreten können: Effiziente Verfahren höherer Ordnung werden nur dann schneller zum Ergebnis führen, wenn es stückweise höhere Ableitungen der Funktionen gibt, die auch beschränkt bleiben. Ebenso gibt es die Frage der Schrittweite oder der Diskretisierung in der numerischen Differenziation. Diese Fragestellungen führen auf das Gebiet der numerischen Stabilität: Hier stellt man sich nicht die Frage, ob der Roboter steht, sondern ob überhaupt ein Ergebnis berechenbar oder das Berechnete glaubhaft oder mit mehr Rechenkapazität überhaupt genauer berechnet werden kann. Literatur und Zusatzinformationen E. Westervelt, J. Grizzle, C. Chevallereau, J. Choi, B. Morris: Feedback control of dynamic bipedal robot locomotion, CRC press, 2007. F. Bauer: Optimierung der Energieeffizienz zweibeiniger Roboter durch elastische Kopplungen, KIT Scientific Publishing, 2014.
Inhaber- und Familien-geführte Unternehmen, vorallem im Mittelstand, unterliegen besonderen Randbedingungen, die es auch in der Beratung zu beachten gilt. Der Berater und Autor Jörg Poersch berichtet über seine Erfahrungen mit dieser Zielgruppe und den Menschen, die darin arbeiten und wirken.
Du musst entscheiden! Und das regelmäßig, zügig – und wenn möglich natürlich auch sachlich fundiert. Und das ist gar nicht immer so einfach. Besonders dann, wenn viele Alternativen vorliegen und unterschiedliche Randbedingungen berücksichtigt werden müssen. Warum das Treffen von Entscheidungen trotzdem so wichtig ist, obwohl Unsicherheiten im Projekt bestehen (die nicht zu vermeiden sind), kannst … Fundierte Entscheidungen treffen mit der Nutzwertanalyse Weiterlesen » The post Fundierte Entscheidungen treffen mit der Nutzwertanalyse appeared first on Projekte leicht gemacht.
Die Gründer Carlos Falquez, Iris Pantle und Balazs Pritz aus dem Karlsruher Institut für Technologie (KIT), befassen sich mit Verfahren für Strömungslärmprognose und bieten diese Ingenieurbüros und Unternehmen zur Nutzung auf ihrer Cloud-Simulationsplattform NUBERISIM an. Während für viele Strömungen die inkompressiblen Navier-Stokes-Gleichungen ausreichen, kommen hier kompressible Gleichungen zum Einsatz. Dies ändert das Gleichungssystem von einem dominant elliptischen zu einem dominant hyperbolischen System, dem die numerischen Verfahren Rechnung tragen müssen. Der Definition des Simulationsgebiets und den an dessen Rändern festzulegenden Randbedingungen kommt hier eine besondere Bedeutung zu: Beides muss aufeinander abgestimmt sein, jede ins Simulationsgebiet einlaufende Störung besitzt selbst wieder die Größenordnung akustischer Wellen und kann daher vom eigentlichen Simulationsergebnis, dem durch die Strömung erzeugten Schall, schlecht getrennt werden. Daneben ergeben sich weitere Herausforderungen, wie den Einsatz von Verfahren höherer Ordnung, um die Wellendispersion zu bewahren, deren Erhaltung in einer typischen Strömungssimulation normalerweise weder forciert wird noch das Ergebnis signifikant verbessern würde. Schließlich sind solche Verfahren hoch-instationär, so dass sich für realistische Fragestellungen äußerst lange Rechenzeiten ergeben. Dadurch wurden sie in der Vergangenheit nur in der akademischen Forschung untersucht und angewendet. Der Schritt zur kommerziellen Nutzung schien lange undenkbar. Durch moderne Parallelisierungstechniken und Cloud-Systeme jedoch steht plötzlich auch kleineren Unternehmen wie z.B. Ingenieursdienstleitern ausreichend Rechenkapazität zur Verfügung – theoretisch, denn der Zugang hierzu ist immer noch Eingeweihten vorbehalten. Darum haben die Gründer die Idee entwickelt, solche Verfahren nicht nur als Software, sondern als Plattform einschließlich Nutzeroberfläche anzubieten, gerade so wie bei einer konventionellen Software – nur eben über einen Browser anzusteuern. Die Plattform wird voraussichtlich im März zugänglich gemacht. Literatur und Zusatzinformationen Falquez, Pantle und Pritz GbR: Nubersim.de Iris Pantle: Strömungsakustik auf der Basis akustischer Analogie mit LES und URANS, Der Andere Verlag, ISBN 978-3936231823, 2002. Christoph Richter, Łukasz Panek, Norbert Schönwald, Mei Zhuang: Numerische Methoden in der Strömungsakustik – CAA, Vorlesungsskript, TU Berlin, 2005.
Wenn Du ein Schiff bauen willst, so trommle nicht Männer zusammen, um Holz zu beschaffen, Werkzeuge vorzubereiten, Aufgaben zu vergeben und die Arbeit einzuteilen, sondern lehre die Männer die Sehnsucht nach dem weiten endlosen Meer. Antoine de Saint-Exupéry Die Folge 08: Effektivität im Projekt In der Managementliteratur liest man immer wieder die Metapher der 3 Steinmetze: Ein Mann kommt auf eine Baustelle und sieht dort 3 Steinmetze. Er fragt den ersten „Was machen Sie da?“. Der Steinmetz antwortet „das sehen sie doch, ich behaue Steine und verdiene damit meinen Lebensunterhalt“. Der Mann geht weiter zum Steinmetz und fragt auch diesen „Was machen Sie da?“. Der Steinmetz antwortet: „Sehen sie her, ich bin der beste Steinmetz im ganzen Land, keiner bearbeitet Steine so gut wie ich“! Schließlich geht der Mann weiter zum dritten Steinmetz und fragt auch diesen „Was machen Sie da?“. Der dritte Steinmetz schaut sich mit glänzenden Augen um und sagt „ich trage dazu bei, eine Kathedrale zu bauen“. Alle 3 Steinmetze tun das Gleiche. Was sie elementar voneinander unterscheidet ist die jeweilige Einstellung. Der erste Steinmetz macht einfach nur seinen Job. Diese Art von Mitarbeitern tun genau das, was von Ihnen verlangt wird und leistet genau so viel wie es sein muss. Auch wenn sie fachlich zu Spitzenleistungen fähig wären, ist die Eigenmotivation meist eher gering, sich übermäßig einzubringen. In der Regel bringt diese Art von Mitarbeiter zwar ordentliche Leistungen, darüber hinaus darf aber nicht viel erwartet werden. Problematisch ist der Typus des zweiten Steinmetzes. Dieser ist damit zufrieden, einen kleinen Spezialbereich zu beherrschen, während er für alle anderen Bereiche nur Geringschätzung übrig hat. Er interessiert sich nicht für das große Ganze und welche Randbedingungen sonst noch existieren. Darum sollen sich andere kümmern. Er interessiert sich lediglich für sein Fachgebiet. Solche Mitarbeiter sind eher schwierig und in der Regel kaum, bis überhaupt nicht steuerbar. Allerdings sind sie von hoher fachlich Kompetenz, dass man auf deren Leistungen nicht verzichten kann. Der dritte Typ stellt seine Leistung in den Dienst etwas größeren, er arbeitet an einer Vision. Diese Art von Mitarbeiter begeistert sich für seine Ziele, er tut die richtigen Dinge richtig, das heißt er ist effektiv und effizient. Er richtet den Blick nicht auf seine persönliche Tätigkeit, sondern auf den Beitrag zum Gesamtergebnis. Er wendet sich der Außenwelt zu, das heißt dem Ort, an dem das Projekt Ergebnisse erzielen wird. Sein Tun dreht sich um die Frage „was kann ich zum Gelingen des Ganzen beitragen“. Doch auch wenn sie es als Projektleiter schaffen, Ihrem Team eine Vision zu geben und sie dazu zu bewegen, das große Ganze im Blick zu haben. Als IT’ler sind wir „Wissensarbeiter“ und als Wissensarbeiter ist es unsere Aufgabe effektiv zu sein. Vom Wissensarbeiter wird erwartet, dass er die richtigen Dinge richtig tut. Genau das ist der Unterschied zwischen Effektivität und Effizienz. Sie mögen die beste Technik entwickeln, um in Windeseile eine Leiter hinaufzuklettern. Wenn diese Leiter aber an der falschen Wand lehnt, macht das Ganze keinen Sinn. Peter F. Drucker konstatiert in seinem Buch „Was ist Management“ zur Frage nach dem Wissensarbeiter wie folgt: „In den Wissenstätigkeiten sind auffällig wenige effektive Menschen tätig. Wissensarbeiter zeichnen sich im Allgemeinen durch eine hohe Intelligenz aus. Das Niveau der Kenntnisse ist zumeist sehr hoch. Doch anscheinend besteht kaum ein Zusammenhang zwischen der Effektivität und der Intelligenz. Brillante Menschen sind oft auffällig ineffizient und nicht imstande zu erkennen, dass geistige Brillanz an sich keine Leistung ist. Anderseits gibt es die ungemein effektiven Arbeitstiere, während brillante aber wenig effektive Menschen oftmals jene Art von hektischer Betriebsamkeit an den Tag legen, macht das Arbeitstier einen präzisen Schritt nach dem anderen und erreicht so deutlich schneller das Ziel. Intelligenz, Vorstellungkraft und Wissen sind ohne Frage wichtige Ressourcen. Aber um sie in Resultate umzusetzen, bedarf es der Effektivität. Leider wird darauf viel zu wenig Aufmerksamkeit gerichtet. Es ist auch kein einfaches Thema. Bei den manuellen Tätigkeiten, nehmen wir als Beispiel die Fließbandarbeit, wird lediglich Effizienz benötigt, das heißt die Fähigkeit die Dinge richtig zu machen. Diese Fähigkeit unterscheidet sich von dem Vermögen, die richtigen Dinge richtig zu machen. Manuelle Tätigkeiten sind meist leicht vergleichbar und können daher auch leicht messbar gemacht werden. Wenn der Standard darin liegt, an 50 Motoren pro Stunde eine Schraube anzuziehen, so kann jeder manuelle Arbeiter daran gemessen und durch Übung gesteigert werden. Wie aber misst und steigert man aber die Leistung eines Wissensarbeiters? Die Steigerung der Effektivität ist ohne Frage ein lohnendes Ziel. Als Projektleiter ist es an dieser Stelle meine Aufgabe, für meine Teammitglieder solche Rahmenbedingungen zu schaffen, die es ihnen erlauben ihre Fähigkeiten auch optimal einzusetzen. Ein IT Projektteam setzt sich in der Regel aus Wissensarbeitern mit Spezialkenntnissen zusammen, die genau wegen dieser Spezialkenntnissen und der Aufgabenstellung des Projektes ausgewählt wurden. Jedes Teammitglied hat seine Spezialgebiet und eigene Interessen. Tatsächlich kann ein Wissensarbeiter nur dann wirklich effektiv sein, wenn er in einer Sache wirklich gut ist, sich also spezialisiert hat. Doch für sich genommen ist jedes Spezialgebiet nur ein loses Fragment. Die Ergebnisse einer Spezialisierten Tätigkeit müssen mit der einer anderen spezialisierten Tätigkeit verknüpft werden um Resultate hervorzubringen. Als Projektleiter ist es meine Aufgabe, die Kenntnisse und Fähigkeiten meiner Mitarbeiter so zu orchestrieren und zu nutzen, dass das bestmögliche Ergebnis, gemessen an den gesteckten Zielen des Projektes, dabei herauskommt. Das bedeutet aber auch, dass der Spezialist mit den notwendigen Informationen ausgestattet werden muss, wer seine Arbeitsergebnisse nutzen wird und welche spezifischen Rahmenbedingungen einen Einfluss haben. Es ist die Aufgabe des Projektleiters jedes Teammitglied mit diesen Informationen zu versorgen. Daraus ist zu schließen, dass die Kommunikation innerhalb des Projektes, eine wesentliche Voraussetzung zur Effektivität des Projektteams darstellt. Ich vergleiche das gerne mit einem Orchester. Auch wenn der Dirigent Grundfertigkeiten zu jedem einzelnen Instrument im Orchester haben mag, jeder einzelne Musiker beherrscht wahrscheinlich sein Instrument besser, als es der Dirigent könnte. Doch erst der Dirigent formt aus einer Ansammlung von individuellen Fähigkeiten das große Ganze, das im Takt und Harmonie etwas Großartiges schafft. Die Effektivität des Einzelnen und des ganzen Teams steigert man folglich durch Praktiken und Reflexion. Nur das was wiederholt getan, analysiert, verbessert und wiederholt wird, steigert die Effektivität des Einzelnen und des Teams. Praktiken erlernt man, in dem man übt, übt und nochmal übt. Doch nicht nur die Orchestrierung innerhalb des Projektes ist notwendig um Effektiv und damit Wirksam zu werden. Wenn ein Projekt in einer Organisation ein Erfolg werden soll, ist es notwendig auch das Umfeld zu verstehen. Auch wenn ich als Techniker wenig politische Ambitionen habe, so ist es als Projektmanager doch notwendig, die sozialen Netzwerke im Unternehmen zu verstehen und im Sinne des Projektes zu nutzen. In Unternehmen gibt es zwei Arten von Netzwerken. Die Beraternetzwerke und die Vertrauensnetzwerke. Beraternetzwerke In den Beraternetzwerken sind die Spezialisten für bestimmte Themen zu finden. Sie werden um Rat gebeten, wenn es um eine fachliche Expertise geht. Sie beeinflussen damit häufig bedeutende Entscheidungen und besitzen somit eine nicht unwesentliche Macht in Unternehmen. Sie werden die wichtigsten Berater im Unternehmen nach einiger Zeit identifizieren können, da sie regelmäßig in den wichtigen Meetings eingeladen sind und dort um ihre Meinung gefragt werden. Vertrauensnetzwerke Wir vertrauen den Menschen die uns in der Vergangenheit unterstützt haben und die wir auch wiederum unterstützen. Basis dafür ist meist gegenseitige Sympathie und Wertschätzung. In den Vertrauensnetzwerken werden vertrauliche Informationen ausgetauscht und Abkommen getroffen. Diese zu erkennen ist meist schwieriger als es bei den Beraternetzwerken der Fall ist. Sie finden das durch Beobachtung heraus, oder indem sie konkret fragen wer-wem vertraut und wer wieviel Einfluss auf andere hat. Achten sie darauf, wer vor und nach Meetings noch zusammen steht und wie sie sich miteinander unterhalten Die Mitglieder dieser Netzwerke im Unternehmen, könnten zu den Stakeholdern Ihres Projektes zählen. Und selbst wenn das nicht der Fall ist, hilft ihnen die Kenntnis dieser Netzwerke dabei, ihre relevanten Stakeholder auf geeignete Weise im Sinne Ihre Projektes zu beeinflussen. Bevor Sie damit beginnen, sollten Sie zunächst eine Analyse der relevanten Interessensträger durchführen. Das englische Wort für Interessensträger lautet Stakeholder, daher spricht man von einer Stakeholder Analyse. Unter einer Stakeholder Analyse versteht man die Ermittlung der Interessensträger eines Projektes, deren Macht und Einflusspotenzial, sowie die Art und Weise der Beziehung. Gründe, warum Stakeholder an einem Projekt Interesse haben könnten beispielsweise sein: -Der Stakeholder ist gezwungen, Personal dem Projekt beizustellen -Der Stakeholder hat selbst einen Vorteil durch das Projekt, dessen Durchführung oder dessen Ergebnis -Der Stakeholder identifiziert sich mit dem, wofür das Projekt oder dessen Ziele stehen. Es könnten sein: -Manager (Team-, Abteilungs-, Bereichs-, oder Unternehmensleitung) -Meinungsführer mit hohem Einfluss -Lieferanten -Kunden -Eigentümer -Konkurrenten Es gibt verschiedene Methoden der Stakeholder Analyse. Wichtig dabei ist es, deren Haltung, sowie deren Machtpotenzial zur Beeinflussung des Projektes zu kennen. Ist dies bekannt, können Maßnahmen ergriffen werden, Fürsprecher noch enger an das Projekt zu binden und Stakeholder mit ablehnender Haltung zu einer neutraleren, oder sogar positiven Sicht hin zu bewegen. In Projekten nutzt man dazu die Projekt Umfeldanalyse. Dokumentieren sie im Projektverlauf die ergriffenen Maßnahmen zum Management Ihrer Stakeholder und bewerten sie die Wirksamkeit dieser, indem sie eine Kraftfeldanalyse fortschreiben. Wie das geht, möchte ich Ihnen kurz erklären: Schauen Sie sich die Stakeholder zuerst einmal einzeln an und überlegen sie sich, welche positiven und welche negativen Konsequenzen es für den einzelnen hat, wenn das Projekt erfolgreich umgesetzt wird. Das Ergebnis dieser Überlegungen, notieren sie für jeden Entscheider in Form eine Gewinn- und Verlustrechnung. Dazu sollten sie sich ausreichend Zeit nehmen um die Vor- und Nachteile für jeden einzelnen in Ruhe zu überdenken. Anschließend wissen sie, wer tendenziell eine positive-, wer eine neutrale und wer eher eine negative Haltung Ihrem Projekt gegenüber haben wird. Schätzen Sie anschließend ein, wieviel Einfluss, bzw. Macht die betreffende Person im Hinblick auf Ihre Projektbelange hat. Das muss sich nicht immer proportional zu der Hierarchischen Position der Person im Unternehmen sein. Vergessen sie dabei auch nicht die Frage, ob die betreffenden Personen die von Ihnen erkannten Vorteile, bzw. Nachteile auch selbst kennen. Wenn Sie beispielsweise für einen Abteilungsleiter, mit der Einführung eines neuen Softwaresystems, eine deutliche Arbeitserleichterung bringen werden, er aber nur sieht, dass sich seine Leute schon wieder in etwas neues einarbeiten müssen und damit phasenweise an Produktivität einbüsen, dann müssen Sie dafür sorgen, dass er die notwendigen Informationen auch erhält. Genauso verhält es sich mit Informationen, die den ein- oder anderen von einer neutralen, in eine extrem negative Position drängen würde sobald er davon erfährt. Sagen Sie immer stets die Wahrheit, aber sagen sie nicht immer alles was wahr ist. Tragen Sie nun alle relevanten Entscheider in ein sogenanntes Kraftfeld ein. Das ist ein Koordinatensystem dessen vertikale Achse die Position der einzelnen Stakeholder darstellt. Die Skala reicht von -5 bis +5. Je nachdem ob derjenige dafür, dagegen oder neutral eingestellt ist. Auf der horizontalen Achse ist ablesbar, wieviel Macht die betreffende Person in Bezug auf Ihr Projekt hat. Die Skala dieser Achse reicht von 0 bis 10. Tragen Sie nun die identifizierten Stakeholder als Punkte in das Feld ein. Vergessen Sie dabei sich selbst nicht. Auf dem entstandenen Bild können sie nun genau sehen, wie die Parteien für und gegen das Projekt kräftemäßig verteilt sind. Stellen sie sich nun die Frage, welche Stakeholder müssten sich an welche Stelle bewegen, dass sich das Kräfteverhältnis zugunsten des Projektes wandelt? Wen müssen sie wie beeinflussen, so dass Sie das erreichen? Ein guter Weg neutrale in positive Haltungen zu wandeln, sind Vorabinformationen. Treffen sie sich mit der betreffenden Person und stellen Sie das Projekt vor. Erläutern sie die Vorteile und fragen sie um Rat was sie tun müssen, um ihn von dem Projekt zu begeistern. Unterschätzen Sie nicht die Macht des Reportings. Achten sie darauf, dass sie ihre Stakeholder in geeigneter Weise mit in Ihre Berichterstattung aufnehmen und versorgen sie diese somit mit den relevanten Informationen. Das gilt vor allem auch für die bereits positiv gestimmten Stakeholder, um diese noch enger an sie zu binden. So, damit möchte ich mich für heute von Ihnen verabschieden und hoffe es hat Ihnen Spaß gemacht. In der vergangenen Woche hat mich eine kräftige Erkältung etwas aus der Bahn geworfen und ich bin froh dass meine Stimme heute durchgehalten hat. Die vielleicht krächzende Stimme lag also nicht an einem neuen Mikrofon, sondern nur an mir. Ach ja, da ist noch etwas: Seit dieser Woche, also Februar 2015, ist unser Podcast neben iTunes und weiteren bekannten Podcast Plattformen nun auch beim online Radiosender Stitcher verfügbar und abonnierbar. In der vergangenen Woche bekamen wir grünes Licht, unsere Beiträge mit in das eigene Portfolio aufzunehmen, was uns sehr gefreut hat. Ach ja- und seit vergangener Woche, haben wir auch unseren YouTube Kanal freigeschaltet und damit steht Ihnen ein weiterer Weg zu Verfügung unsere Beiträge zu hören. Sie sehen, wir wachsen stetig. Ich freue mich schon auf das nächste Mal und wünsche Ihnen in Ihrem Projekt lauter grüne Meilensteine, Ihr Andreas Haberer Weitere Informationen finden Sie unter www.Bundesvereinigung-ITPM.de
Irina Waltschläger modelliert den Wind im Stadtgebiet, um die Luftbewegung ausgehend von einem Gebäude- und Geländemodell mit den Navier-Stokes Gleichungen als Fluid simulieren und analysieren zu können. Im Gespräch mit Sebastian Ritterbusch erklärt sie, wie sie dazu künstliche Randbedingungen auf der Basis meteorologischer Erkenntnisse zum Windprofil entworfen hat, und deren Einfluss auf die Simulation analysierte. Literatur und Zusatzinformationen I. Waltschläger, et al.: Augmented Reality Visualization of Numerical Simulations in Urban Environments, International Journal On Advances in Systems and Measurements 6.1 and 2, pp. 26-39, 2013. T. Hauenstein: Das 3D-Stadtmodell Karlsruhe, INTERGEO, Karlsruhe, 2009. S. R. Hanna, et al.: Detailed simulations of atmospheric flow and dispersion in downtown Manhattan: An application of five computational fluid dynamics models, Bulletin of the American Meteorological Society, vol. 87, no. 12, pp. 1713–1726, 2006.
In der siebten Vorlesung wird das Verhalten elektromagnetischer Wellen anhand der Randbedingungen berechnet. Daraus ergeben sich das Reflexionsgesetz, das Brechungsgesetz, sowie die Fresnelschen Formeln, die auch in Experimenten gezeigt werden.
In Episode 89 beschäftigen wir uns mit einem Konzept zur Energieerzeugung und Übertragung, nämlich Desertec. Ich habe Dr. Franz Trieb am Institut für technische Thermodynamik des DLR in Stuttgart besucht und mit ihm über verschiedene Aspekte des Konzepts gesprochen, unter anderem über Kraftwerke, Infrastruktur und technische und ökonomische Randbedingungen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Die vorliegende Arbeit “Suche nach Cepheid-artigen Veränderlichen Sternen in nördlichen Zwerggalaxien der Lokalen Gruppe” faßt die Ergebnisse des VarStarDwarves-Projektes für alle “blauen”, periodisch Variablen Sterne (VS) zusammen. Die Zielsetzung des VarStarDwarves-Projekts, das seit 1999 an der Universitäts-Sternwarte München betrieben wird, läßt sich am besten durch ein Zitat aus dem zugrundeliegenden DFG-Antrag (Ho1812) erläutern: “Die Bestimmung der Sternentstehungsgeschichte von Zwerggalaxien (ZG) erlaubt, wesentliche Randbedingungen für die Modelle der Evolution von Galaxien abzuleiten. Eine Grundvoraussetzung hierzu ist die Kenntnis der genauen Distanz der ZG. Die Beobachtung hinreichend großer Sample von Veränderlichen Sternen ermöglicht es, diese Distanzen wesentlich präziser als bisher zu bestimmen. Um diese großen Sample zu erhalten, sollen mit für Microlensing entwickelten Bildverarbeitungsmethoden VS in nahen ZG bis weit unter die bis jetzt erreichten Detektionsgrenzen nachgewiesen werden. Darüberhinaus werden die gefundenen VS auch Hinweise zur stellaren Zusammensetzung und damit zum Entwicklungszustand der ZG geben.” Die Ergebnisse für langperiodische, “rote” VS wurden bereits in der Arbeit von Snigula [2006] präsentiert. Im Rahmen des VarStarDwarves-Projekts wurden umfangreiche Modernisierungen und Verbesserungen an den Beobachtungsinstrumenten und dem Umfeld des Observatoriums Wendelstein durchgeführt und darüberhinaus die Entwicklung und der Bau einer neuen, modernen Zweikanal-CCD-Kamera initiiert. Auch diese Aspekte werden hier dokumentiert und die erreichten Fortschritte aufgezeigt (siehe hierzu Kapitel 2.2, 2.3 und 3 sowie die Anhänge A bis C). Diese Dissertation untergliedert sich weiter in eine Einleitung, die neben einer kurzen Vorstellung der mit dem Projekt befaßten Kollegen und ihrer diesbezüglichen Aufgabenbereichen v.a. eine historische Einführung in die Gebiete der Lokalen Zwerggalaxien sowie der “blauen” pulsationsveränderlichen Sterne bietet (Kap. 1), einen Überblick über Kandidatenauswahl und die durchgeführten Beobachtungen (Kap. 2.1, 2.4 und 2.5), sowie eine detaillierte Erläuterung der aufwendigen, z.T. ebenfalls im Rahmen des Projekts entwickelten Datenanalyseverfahren (Kap. 4). Die wesentlichen wissenschaftlichen Ergebnisse der Arbeit sind neue, unabhängige Entfernungsbestimmungen mittels δ Cephei Perioden-Leuchtkraftbeziehungen zu zwei der sechs VarStarDwarves Zwerge, die Bestätigung der Entfernung eines weiteren Zwergs, sowie die Entdeckung etlicher weiterer VS-Kandidaten, deren endgültige Bedeutungen erst durch weitere Beobachtungen bestimmt werden können, wobei aber durchaus mit weitreichenden Konsequenzen für das physikalische Verständnis der entsprechenden VS oder ihrer “Muttergalaxie” zu rechnen ist (Kap. 5).
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
Als essentielle Komponente des IT-Security Managements umfasst das Identity & Access Management (I&AM) saemtliche organisatorischen und technischen Prozesse der Verwaltung von Dienstnutzern einer Einrichtung und deren Berechtigungen; dabei werden die Datenbestaende verschiedenster autoritativer Datenquellen wie Personal- und Kundenverwaltungssysteme aggregiert, korreliert und in aufbereiteter Form den IT-Services zur Verfuegung gestellt. Das Federated Identity Management (FIM) hat zum Ziel, die so geschaffenen integrierten Datenbestaende auch organisationsuebergreifend nutzbar zu machen; diese Funktionalitaet wird beispielsweise im Rahmen von Business-to-Business-Kooperationen, Outsourcing-Szenarien und im Grid-Computing zunehmend dringender benoetigt. Die Vermeidung von Redundanz und Inkonsistenzen, aber auch die garantierte Verfuegbarkeit der Daten und die Einhaltung von Datenschutzbestimmungen stellen hierbei besonders kritische Erfolgsfaktoren dar. Mit der Security Assertion Markup Language (SAML), den Spezifikationen der Liberty Alliance und WS-Federation als integralem Bestandteil des Web Services WS-*-Protokollstacks haben sich industrielle und partiell standardisierte technische Ansaetze fuer FIM herauskristallisiert, deren praktische Umsetzung jedoch noch haeufig an der nur unzureichend geklaerten, komplexen organisatorischen Einbettung und den technischen Unzulaenglichkeiten hinsichtlich der Integration in bestehende IT-Infrastrukturen scheitert. In dieser Arbeit wird zunaechst eine tiefgehende und in diesem Umfang neue Anforderungsanalyse durchgefuehrt, die neben I&AM und FIM auch die als User-Centric Identity Management (UCIM) bezeichnete Benutzerperspektive beruecksichtigt; die Schwerpunkte der mehr als 60 strukturierten und gewichteten Anforderungen liegen dabei auf der Integration von I&AM- und FIM-Systemen sowohl auf der Seite der organisation, der die Benutzer angehoeren (Identity Provider), als auch beim jeweiligen Dienstleister (Service Provider), und auf dem Einbezug von organisatorischen Randbedingungen sowie ausgewaehlten Sicherheits- und Datenschutzaspekten. Im Rahmen eines umfassenden, gesamtheitlichen Architekturkonzepts wird anschliessend eine Methodik zur systematischen Integration von FIM-Komponenten in bestehende I&AM-Systeme erarbeitet. Neben der praezisen Spezifikation der technischen Systemschnittstellen, die den bestehenden Ansaetzen fehlt, fokussiert diese Arbeit auf die organisatorische Eingliederung aus Sicht des IT Service Managements, wobei insbesondere das Security Management und das Change Management nach ITIL vertieft werden. Zur Kompensation weiterer grundlegender Defizite bisheriger FIM-Ansaetze werden im Rahmen eines Werkzeugkonzepts fuenf neue FIM-Komponenten spezifiziert, die auf eine verbesserte Interoperabilitaet der FIM-Systeme der an einer so genannten Identity Federation beteiligten organisationen abzielen. Darueber hinaus wird auf Basis der eXtensible Access Control Markup Language (XACML) eine policy-basierte Privacy Management Architektur spezifiziert und integriert, die eine dezentrale Steuerung und Kontrolle von Datenfreigaben durch Administratoren und Benutzer ermoeglicht und somit essentiell zur Einhaltung von Datenschutzauflagen beitraegt. Eine Beschreibung der prototypischen Implementierung der Werkzeugkonzepte mit einer Diskussion ihrer Performanz und die methodische Anwendung des Architekturkonzepts auf ein komplexes, realistisches Szenario runden die Arbeit ab.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Die biologisch funktionale Struktur und Dynamik globulärer Proteine entfaltet sich in ihrer nativen Umgebung, die aus ionenhaltigem Wasser besteht. Die entscheidenden Wechselwirkungen sind dabei elektrostatischer Natur. Bei Molekulardynamik-(MD-)Simulationen von Protein-Lösungsmittel-Systemen müssen diese Wechselwirkungen daher genau erfasst und, wegen der Größe der behandelten Systeme, numerisch effizient berechnet werden. Es bietet sich dazu an, das üblicherweise betrachtete mikroskopische Ensemble der Lösungsmittelatome durch ein Lösungsmittelkontinuum zu ersetzen, welches die auf das Protein ausgeübten Reaktionsfeldkräfte erzeugt. Die Entwicklung einer atombasierten Kontinuumsmethode, mit der sich Reaktionsfeldkräfte und -energien bei solchen MD-Simulationen effizient und genau berechnen lassen, war das Hauptziel der vorliegenden Arbeit. Die Methode wird zunächst für Proteine in rein dielektrischen Lösungsmittelkontinua hergeleitet [B. Egwolf und P. Tavan, J. Chem. Phys. 118, 2039-2056 (2003)] und anschließend um Ionenkontinua erweitert [B. Egwolf und P. Tavan, J. Chem. Phys. 120, 2056-2068 (2004)], welche der linearisierten Poisson-Boltzmann-Gleichung gehorchen. Die zugrundeliegende Theorie wird so weit wie möglich in exakter Form vorangetrieben. Sie führt in natürlicher Weise zu einigen wenigen Näherungen, so dass sich das vom Lösungsmittelkontinuum ausgehende Reaktionsfeld in effizienter Weise mittels selbstkonsistent zu bestimmender Ladungen und Dipole darstellen lässt, die an den mikroskopisch beschriebenen Proteinatomen lokalisiert sind. Die Qualität der atombasierten Kontinuumsmethode wird anhand von Vergleichen mit dem auf sphärische Geometrien beschränkten, analytischen Kirkwood-Reaktionsfeld, einer mikroskopischen Protein-Wasser-Simulation und einer Finite-Differenzen-Methode untersucht. Darüber hinaus wird ein Verfahren für MD-Simulationen von mikroskopisch beschriebenen Protein-Lösungsmittel-Systemen mit periodischen Randbedingungen vorgestellt [G. Mathias, B. Egwolf, M. Nonella und P. Tavan, J. Chem. Phys. 118, 10847-10860 (2003)]. Dabei werden die Coulomb-Wechselwirkungen zwischen den Atomen mit Hilfe der effizienten, linear skalierenden und strukturadaptierten Multipolmethode (SAMM) bis zu einem Grenzabstand explizit berechnet und für größere Abstände durch das Kirkwood-Reaktionsfeld modelliert. Durch dieses Vorgehen können die von den Randbedingungen erzeugten Periodizitätsartefakte weitgehend unterdrückt werden. Ferner kann das Kirkwood-Reaktionsfeld im Rahmen des SAMM-Ansatzes unter vernachlässigbarem Aufwand berechnet werden.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Das Kraftmikroskop hat sich in vieler Hinsicht als effizientes Gerät für Untersuchungen und Manipulationen auf molekularer Ebene erwiesen. Dabei wird selbst unter physiologischen Bedingungen eine Auflösung erreicht, die Proteinsubstrukturen erkennen läßt. Als Kraftspektroskop kann es mechanische Eigenschaften wie Dehnungsverhalten und Reißfestigkeit einzelner Moleküle, die zwischen der Sensorfeder und der Unterlage eingespannt werden, untersuchen. Sogar die Bindungskräfte zwischen einem Molekül am Kraftsensor und einem anderen am Substrat können mittels Kraftspektroskopie mit etwa 3 pN Genauigkeit ermittelt werden. Von besonderem Interesse solcher Untersuchungen sind Moleküle mit spezifischer Affinität nach dem Schlüssel-Schloß-Prinzip, wie Rezeptor-Ligand- Systeme und Adhäsionsmoleküle. Bisher waren hauptsächlich wasserlösliche Moleküle solchen Messungen zugänglich. Bindungen zwischen amphiphilen Proteinen oder Membranproteinen zu messen, die durch hydrophobe Wechselwirkungen in der Membran verankert sind, erfordert neue Konzepte. Diesen Molekülen gilt das Augenmerk dieser Arbeit. Da die Verankerung in sogenanten „supported bi-layern“ und Vesikeln nicht immer zum gewünschten Erfolg führt, wird hier eine ungewöhnliche, aber sehr natürliche Alternative vorgestellt: Das Adhäsionsmolekül wird nicht aufwendig isoliert und der Meßmethode zugänglich gemacht, sondern bleibt in seiner natürlichen Umgebung, der Zelle, wohingegen die Methode angepasst wird. Dies ist durch die Befestigung einer Zelle am Kraftsensor eines Kraftspektroskopes geglückt und es gelang damit erstmals die Adhäsionskraft eines einzelnen Adhäsionsmoleküls in einer lebenden Zelle zu messen. So einfach diese Methode beschrieben ist, so viele Unwägbarkeiten treten dabei durch die hohe Komplexität der Zelle und der Zelloberfläche im Besonderen auf. Daher wird einleitend eine grobe Einführung in die Funktionen und den Aufbau einer Zelle und die üblichen Meßmethoden im Bereich der Zelladhäsionsmessung vorgestellt. Die Beschreibung der Meßmethode und der Umrüstung des Kraftmikroskopes zum Zelladhäsionskraftspektroskop sind durch technische Details im Anhang vervollständigt. Etwas aufwendig ist die Zusammenstellung der Daten, Theorien und Annahmen zum Aufbau eines semi-empirischen Modells zur Beschreibung der Adhäsionskraftmeßkurven beim Trennen adhärierender Zellen, auf der Basis vieler unabhängiger Einzelmolekülbindungen. Mit dem Zelladhäsionkraftspektroskop wurden dafür die Youngs-Moduli und die viskoelastischen Kelvin-Modell-Parameter verschiedener Zellen in dem eigens entwickelten „visko-elastic-response-mode“ vermessen. Ebenso wurden die Einflüsse der Zellkontaktkraft und der Kontaktzeit, sowie der Zuggeschwindigkeit auf die Zelladhäsionsantwort studiert und in Formeln gefaßt. Das Modell simuliert diese Meßdaten in guter Übereinstimmung und gibt dadurch einen Einblick in die physikalischen Randbedingungen für das einzelne Adhäsionsmolekül während solcher Experimente unter Berücksichtigung des zelltypischen Phänomens der Tetherbildung. Insbesondere kann damit die Bindungsdichte bei Adhäsionen auf verschiedenen Oberflächen berechnet werden. Demnach schließt eine Epithelzelle etwa vier Bindungen pro Quadratmikrometer mit einer Glasoberfläche, zwei mit einer anderen Epithelzelle und nur 0,8 mit einer passivierten Oberfläche. Mit kraftspektroskopischen Messungen der Adhäsionskräfte bei der Einnistung eines Trophoblasten in die Gebärmutter an einem naturnahen Laborsystem kann eine andersartige - mit dem Modell unabhängiger Bindungen nicht beschreibbare - Wechselwirkung identifiziert werden. Die Meßergebnisse deuten auf einen kooperativen Prozeß der molekularen Adhäsionsinselbildung hin. Kontrollmessungen an funktionalisierten Oberflächen erhärten diese Hypothese. Mit ersten Ergebnissen von Adhäsionsmessungen zwischen Knochenzellen und potentiellen Implantatoberflächen wird neben dem Einfluß der Oberflächenbeschaffenheit auch der des Meßmediums nachweisbar, wodurch die Generalität dieser Methode verdeutlicht wird. Im letzten Kapitel über die Interaktionen einzelner Zellen wird anhand der induzierten Lektinwechselwirkung zwischen roten Blutkörperchen die prinzipielle Möglichkeit der Zelladhäsionskraftspektroskopie Einzelmolekülereignisse zu vermessen nachgewiesen. Die dafür nötigen geringsten Kontaktkräfte von unter 40 pN, konnten durch extrem weiche Kraftsensoren (