POPULARITY
Während der Entwicklung fallen unterschiedliche Daten an. Lasst uns anhand des Entwicklungsprozesses diese Daten genauer betrachten. Inhalt der Folge: * Daten in den Schritten im Entwicklungsprozess * Beauftragung * Festlegung Anforderungen (Lasten und Pflichtenheft) * Aufteilung (HW, SW, Konstr., …) * Bearbeitung * Prototypenphase * Verifikation * Validierung * Fertigungseinführung * Beschreibungen als Word oder im Intranet? * Das Ingenieure führen Camp Trage Dich auch gerne in meinen Newsletter ein. Du findest eine Möglichkeit auf der Webseite zu dieser Folge. Der Beitrag IF211 – Daten im Entwicklungsprozess erschien zuerst auf Ingenieurbüro David C. Kirchner.
In der heutigen Folge sprechen Jan-Paul und Thorsten mit Chris a.k.a. uncomputable über das Projekt Simplicity und welche Vorteile dieses in der Zukunft für Bitcoin haben könnte. Von und mit Jan-Paul, Thorsten und Chris Produziert und geschnitten: Thorsten Hier könnt ihr uns eine Spende über Lightning da lassen: ⚡️ nodesignal@getalby.com Wenn euch unsere Arbeit gefällt, könnt ihr unsere Folgen auch auf Podcasting 2.0 Plattformen, wie Breez, Fountain oder Castamatic hören und uns so eine kleine Aufmerksamkeit da lassen. Danke an alle, die die Bitcoin Community mit ihren Spenden unterstützen! Mit diesen Spenden wird unter anderem unser Bounty Programm verwirklicht, in dem ihr euch für die Mitarbeit an einem Projekt eine Belohnung sichern könnt. -------------- Blockzeit: 819924 Simplicity Tech Report Nodesignal-Techboost – E152 – Bitcoin Transaktionen mit Murch Warum die erwartete Wartezeit auf den nächsten Block 20 Minuten anstatt 10 ist? Aufsätze zu Simplicity auf dem Blog von Blockstream Bitcoin Optech über Simplicity Simplicity, Bitcoin's Last soft Fork? with Christian Lewe - Blockstream Talk #26 Timestamps: (00:00:00) Intro (00:00:21) Vorstellung Chris (00:04:07) Basics zu Bitcoin Script (00:10:30) Die Limitierungen von Bitcoin Script (00:16:39) Einführung Simplicity (00:26:14) Wo kam die Idee von Simplicity her? (00:32:18) Wie würde Simplicity aktiviert werden? (00:41:34) Was macht die Aussagekraft von Simplicity besonders? (00:47:15) Ist Simplicity effizienter als Script? (00:57:57) Was ist eine formale Verifikation? (01:11:16) Letzte Worte und Outro -------------- Für Feedback und weitergehenden Diskussionen kommt gerne in die Telegramgruppe von Nodesignal und bewertet uns bei Spotify und Apple Podcasts. Folgt uns auch gerne bei Twitter.
Halbleiter und Mikrochips sind heute unverzichtbare Bestandteile unseres Lebens. In diesem Bereich spielt Synopsys eine entscheidende Rolle in der Entwicklung und Produktion. Synopsys ist ein Softwareunternehmen, das sich auf die Entwicklung von Tools und Lösungen für die Halbleiter- und Elektronikindustrie spezialisiert hat. Das Unternehmen bietet eine breite Palette von Produkten und Dienstleistungen an, die das Design, die Verifikation und die Optimierung von integrierten Schaltkreisen (ICs) und anderen elektronischen Systemen unterstützen. Gegründet wurde Synopsys im Jahr 1986 in den USA, mit Hauptsitz in Mountain View, Kalifornien. Seitdem hat es sich als bedeutender Akteur in der Technologiebranche etabliert. Am Ende bleibt nur noch die Frage offen, ist die Synopsys Aktie derzeit ein Kauf, oder sollte man abwarten? // Inhaltsverzeichnis: //00:00 Intro01:02 Langfristiger Chart von Synopsys01:54 Synopsys vs. S&P 500 vs. Technology ETF (XLK) vs. Cadence Design Systems vs. Ansys vs. Altair 02:50 Synopsys: Historie & Geschäftsbereiche 05:12 Einsatzgebiete & Produkte von Synopsys07:10 Eigentümerstruktur von Synopsys 08:01 CEO: Aart de Geus09:10 Synopsys: Umsatz & Margen Entwicklung 09:41 Umsatz nach Region & Segment10:56 Wachstumsbremse China?11:56 Synopsys: Gewinn- & Cashflow-Entwicklung12:46 Synopsys: Bilanz-Überblick 14:58 Synopsys: Aktienrückkäufe15:31 Synopsys: Kennzahlen-Überblick (KGV)16:30 Synopsys: Piotroski- & Levermann-Score17:19 Unternehmensbewertung zu Synopsys18:14 Chartanalyse zu Synopsys19:38 Ist die Aktie von Synopsys derzeit ein Kauf? 21:23 Disclaimer 22:51 Danke fürs Zuhören! // Zum kostenlosen Strategie-Gespräch anmelden: //
Überall, wo Sicherheit im Netz eine Rolle spielt, kommt Frank Stefan Jorga ins Spiel. Mit WebID hat er ein einzigartiges Produkt geschaffen, mit dem sich täglich tausende Menschen anhand eines Video-ID-Verfahrens authentifizieren. Von Banken über Telekommunikationsunternehmen bis hin zur Automobilbranche – sie alle setzen auf Franks digitale Lösung zur sicheren Live-Verifikation. In Folge #219 eures Digitalisierungspodcasts von Vodafone Business spricht Frank mit Host Christoph Burseg über die Herausforderungen und Chancen seines Geschäftsmodells. Weshalb spielt Vertrauen eine so wichtige Rolle in seiner Branche? Was bedeutet für ihn erfolgreiches Leadership? Und wie werden unsere Daten in Zukunft digital gespeichert und zugänglich?
Vad betyder det egentligen att vara verifierad på Insta idag och har det förlorat sin glans? Vem är den mest följda personen där? Vad är grejen med att alla plötsligt älskar Taylor Swift? Vem var det som tog 15 000 kr från Alexandra en gång, och hur har det påverkat henne?Följ oss på instagram @ordochallavisor!‘Ord och alla visor' är producerad av Silverdrake Förlag via Acastwww.silverdrakeförlag.seKlippare:Patrik Sundén@patriksundenRedaktör:Marcus Tigerdraake, marcus@silverdrakeforlag.se@marcustigerdraakeKoordinator: Victoria Tigerdraake, victoria.tigerdraake@gmail.com@victigerdraake Hosted on Acast. See acast.com/privacy for more information.
Blue Alpine Cast - Kryptowährung, News und Analysen (Bitcoin, Ethereum und co)
⛓ Bist du an DeFi oder NFTs interessiert? Jetzt Kurse buchenbluealpineresearch.com/kurse
Ein kleiner Appell heute: Lasst uns aufhören, von „Verifikation“ zu sprechen. Denn, was Twitter anbietet, das ist eine Behakung. Und um unkoordinierte Wildbehakung soll es heute vor allem gehen.
Kostenpflichtige Abomodelle bei Meta: Was bringt die Verifikation von Accounts? | Karnevalsübertragungen im Fernsehen | Wie KI sich auf das Synchronisieren auswirkt | Kommentar: Julian Reichelt und der öffentliche Diskurs Wellendorf, Sebastianwww.deutschlandfunk.de, @mediasresDirekter Link zur Audiodatei
Mikrochips besser zu machen, das ist die Mission des Start-Ups LUBIS EDA. 2021 in Kaiserslautern gegründet, kümmert sich das Unternehmen um die formale Verifikation von Mikrochips. Mitgründer und CEO Tobias Ludwig erzählt in der neuen Folge vom Mittelstand-Digital Zentrum Kaiserslautern von seinem Geschäftsmodell und dem Weg von der Idee zur Gründung.
Elon Musk hat einen Lifehack entdeckt: Wer Geld sparen möchte, muss einfach seine Rechnungen nicht mehr zahlen. Brillant! Außerdem müssen wir nochmal über den Account sprechen, der die Positionen von Privatjets twittert. Oder eher: Getwittert hat. Und wir wissen nun, nach welchen Kriterien die Verifikation für „Twitter Blue“ abläuft.
Faktenchecks gehören zum Journalismus und leisten einen wichtigen Beitrag zur öffentlichen Aufklärung. Stefan Voß hat im Gespräch mit Chefredakteurin Eva-Maria Schmidt erklärt, inwiefern Factchecking auch ein Stück weit Community Management ist und welche Tools bei der Überprüfung von Behauptungen nützlich sind. Der Journalist ist seit Ende der 1990er Jahre bei der dpa tätig und leitet seit 2017 in der Verifikation ein internationales Team. Voß beschreibt in Folge #16 des Newsfluence!-Podcasts, warum journalistische Grundfertigkeiten und Teamarbeit unerlässlich für jede Behauptungsüberprüfung ist. Ein Hörtipp für alle, die Verschwörungstheorien und einem missbräuchlichen Umgang mit sozialen Medien etwas entgegensetzen wollen. Melden Sie sich jetzt für den Live Digital Talk zum Thema "Wie funktioniert Journalismus auf TikTok? Mit Louisa Schneider, Amelie Marie Weber und Tom Klein" kostenfrei an: https://www.crowdcast.io/e/newsfluence!/register
Themen der Sendung: Russland startet offenbar Großoffensive auf den Osten der Ukraine, Verschiedene Politiker fordern Lieferung schwerer Waffen an die Ukraine, Verifikation von Bildern aus der Ukraine über den Krieg, Grüne fordern Aufarbeitung von Schwesigs Rolle bei Nord Stream 2, Internationaler Währungsfonds senkt Wachstumsprognose für die Weltwirtschaft, Ermittlungsverfahren gegen Vertreter der hessischen Linkspartei eingestellt, Partygate-Affäre: Britischer Premierminister Johnson entschuldigt sich im Parlament, Zahl der Todesopfer durch Corona in Shanghai steigen trotz Lockdown, Tote bei Bombenanschlag an Schule in Kabul, Das Wetter
Themen der Sendung: Russland startet offenbar Großoffensive auf den Osten der Ukraine, Verschiedene Politiker fordern Lieferung schwerer Waffen an die Ukraine, Verifikation von Bildern aus der Ukraine über den Krieg, Grüne fordern Aufarbeitung von Schwesigs Rolle bei Nord Stream 2, Internationaler Währungsfonds senkt Wachstumsprognose für die Weltwirtschaft, Ermittlungsverfahren gegen Vertreter der hessischen Linkspartei eingestellt, Partygate-Affäre: Britischer Premierminister Johnson entschuldigt sich im Parlament, Zahl der Todesopfer durch Corona in Shanghai steigen trotz Lockdown, Tote bei Bombenanschlag an Schule in Kabul, Das Wetter
Themen der Sendung: Russland startet offenbar Großoffensive auf den Osten der Ukraine, Verschiedene Politiker fordern Lieferung schwerer Waffen an die Ukraine, Verifikation von Bildern aus der Ukraine über den Krieg, Grüne fordern Aufarbeitung von Schwesigs Rolle bei Nord Stream 2, Internationaler Währungsfonds senkt Wachstumsprognose für die Weltwirtschaft, Ermittlungsverfahren gegen Vertreter der hessischen Linkspartei eingestellt, Partygate-Affäre: Britischer Premierminister Johnson entschuldigt sich im Parlament, Zahl der Todesopfer durch Corona in Shanghai steigen trotz Lockdown, Tote bei Bombenanschlag an Schule in Kabul, Das Wetter
Themen der Sendung: Russland startet offenbar Großoffensive auf den Osten der Ukraine, Verschiedene Politiker fordern Lieferung schwerer Waffen an die Ukraine, Verifikation von Bildern aus der Ukraine über den Krieg, Grüne fordern Aufarbeitung von Schwesigs Rolle bei Nord Stream 2, Internationaler Währungsfonds senkt Wachstumsprognose für die Weltwirtschaft, Ermittlungsverfahren gegen Vertreter der hessischen Linkspartei eingestellt, Partygate-Affäre: Britischer Premierminister Johnson entschuldigt sich im Parlament, Zahl der Todesopfer durch Corona in Shanghai steigen trotz Lockdown, Tote bei Bombenanschlag an Schule in Kabul, Das Wetter
Bereits eine Million Menschen sind aus der Ukraine geflüchtet. Der ehemalige Tröglitzer Bürgermeister Markus Nierth hat eine Familie bei sich aufgenommen. Außerdem gehts um Verifikation von Fotos und Videos im Krieg.
Mathis Lechner ist PhD-Student und Machine Learning Forscher am Institute of Science and Technology Austria in Maria Gugging bei Klosterneuburg. Seine Forschungsschwerpunkte sind Machine Learning, Formale Methoden und Robotik. In diesem Zusammenhang kam es zur Zusammenarbeit mit Forscherinnen und Forschern des IST, der TU Wien und dem MIT . In dieser Episode haben wir darüber gesprochen, welche Aspekte beachtet werden müssen, um Systeme mit neuronalen Netzen in sicherheitskritischen Systemen einsetzen zu können. Spezieller Fokus wurde auf eine Arbeit vom letzten Jahr gelegt. Zusammen mit Ramin Hasani war er Hauptautor einer Arbeit die gezeigt hat, dass mit wenigen Neuronen in autonomen Fahrsituationen teilweise bessere Ergebnisse erzielt werden können, als mit komplexen neuronalen Netzen, wenn man sich an der Natur orientiert. Diese Arbeit wurde in Nature Machine Intelligence publiziert. Das sind die im Podcast angesprochenen Paper: Neurales Netzwerk mit wenigen Neuronen (Lechner, Hasani et. Al): Neural circuit policies enabling auditable autonomy Verifikation quantisierter neuraler Netze (Henzinger et. Al.): Scalable Verification of Quantized Neural Networks (Technical Report) Adversial Training – Genauigkeit vs. Robustheit (Lechner et. Al): Adversarial Training is Not Ready for Robot Learning --- Send in a voice message: https://anchor.fm/safetycorner/message
DAS Thema 2020/21: COVID-19. Und jetzt kamen auch wir nicht mehr drum herum und haben uns der Corona-Pandemie gewidmet. Genauer gesagt den Verschwörungstheorien, die sich rund um die Pandemie entsponnen haben. Es gibt unzählig viele, in unserer Folge haben wir einige davon kategorisiert und besprochen. Das haben wir auf eher ironische Art getan, also seht uns das Bullshit-Bingo nach, das wir stellenweise veranstalten. Nichts desto trotz möchten wir hier noch einmal anmerken: Corona ist eine ernstzunehmende Krankheit, vor der wir uns alle schützen sollten. Solidarität den Mitmenschen gegenüber und das Einhalten der Schutzmaßnahmen sind essentiell bei der Bekämpfung der aktuellen Pandemie. Hotlines um das Herz auszuschütten: Tel.: 0800.1110111 (https://www.telefonseelsorge.de/) Tel.: 0800.8123456 (https://www.helios-gesundheit.de/amags/fuer-unternehmen-mitarbeiter/aktuelles/detail/news/psychologen-bieten-telefonische-beratung-ueber-die-corona-hotline-an/ ) P.S. In zwei Wochen sind wir wieder mit einer neuen Folge Sur/real für euch da! Wer bis dahin mehr von uns sehen möchte, Ihr findet uns hier: Instagram @surrealderpodcast Facebook @surrealderpodcast Lasst uns gerne Feedback da, nutzt hierzu die Podcast Plattform eurer Wahl, unsere Social Media Kanäle oder schreibt uns eine Mail an connect@surreal-podcast.com! Show Notes: Literatur: „Fake Facts: Wie Verschwörungstheorien unser Denken bestimmen“ von Katharina Nocun und Pia Lamberty, 2020 „COVID-19 Conspiracy Beliefs among Students in China and Germany – Causes and Effects” von Prof. Dr. Marc Oliver Rieger (University of Trier, Research Cluster “Cultures in Transitions”, Department IV – Business Administration), 18.11.2020 Im Web: ZDF-Artikel „Absurde Corona-Theorien. Die verrücktesten Verschwörungsmythen 2020“von Oliver Klein (Redakteur für Verifikation und Factchecking beim ZDF), 31.12.2020 Zeit-Interview mit Michael Butter (Professor für amerikanische Literatur- und Kulturgeschichte an der Universität Tübingen, forscht seit Jahren zu Verschwörungstheorien): "Die Corona-Impfung ist ein Traum für Verschwörungstheoretiker" mit Caroline Lindekamp und Lisa Hegemann, 23.01.2021 Bundeszentrale für Politische Bildung: Verschwörungstheorien ums Coronavirus NDR-Sendung Zapp: „Verschwörungstheorien ums Coronavirus“, 18.3.2020
Das Wut-Programm – Tagesschau-Therapie-Tip! Es war der Psychologe Professor Klaus-Jürgen Bruder, der angesichts der Wut über die Corona-Maßnahmen einen Tip zum Aggressionsabbau gab: Man solle ein Blatt-Papier kräftig knüllen und in die Gegend werfen. Das könnte temporär helfen. Endgültig, so Dr. Bruder, hälfe aber nur die Ablösung des Corona-Regimes. Gesagt getan: Die Macht-Um-Acht akzentuiert in dieser Folge der Nachrichten der Tagesschau die Wut-Stellen mit Papier und Wurf. Wenn Patrick Gensing, der in der ARD-Redaktion als Faktenfinder firmiert, über seinen Freund Markus Söder feststellt, dass der zum neuen „Feindbild von Corona-Leugnern“ geworden wäre, bekommt er glatt zwei Wut-Punkte. Denn der Begriff Corona-Leugner ist ein dreckiges Ideologie-Wort und hat mit Journalismus nichts zu tun. Das Wort soll die Kritiker des Merkel-Spahn-Regimes sprachlich in die Nähe der „Holocaust-Leugner“ rücken und sie so in den Nazi-Verdacht bringen. Zudem bestreiten die Grundrechte-Verteidiger natürlich keineswegs die Existenz von Viren. Aber wenn man behauptet, sie würden das Virus „leugnen“, macht man sie zu Idioten, die wissenschaftliche Erkenntnisse bestreiten. Patrick Gensing macht sich so allerdings vom Journalisten zum miesen Propaganda-Hiwi. „Mehr Infektionen durch Querdenken-Demos“ lautet eine weitere Propaganda-Schlagzeile der Tagesschau. Sie stützt sich dabei auf eine angebliche Studie, die sich schon durch die permanente Verwendung des Manipulationswortes „Corona-Leugner“ disqualifiziert. Zudem tarnt sich das Diffamierungs-Papier als „wissenschaftliche“ Erhebung, obwohl sie nicht einmal eine soziologische Vergleichsgruppe zur Verifikation hinzugezogen haben. Was bleibt ist Regierungs-Gefälligkeits-Wissenschaft, Regierungs-Müll als Nachricht getarnt: Papier und Wurf! Aber nicht nur beim Thema Corona ist die Tagesschau der Regierung dienlich. Mit der „Überschrift Bundeswehr-Einsatz - Maas will Afghanistan-Mandat verlängern“ verkauft die Redaktion den Krieg in Afghanistan als „Einsatz“. Als sei die verfassungswidrige Präsenz der Bundeswehr in Afghanistan ein Sportereignis, bei dem die Mannschaft Einsatz zeigen würde. Man lügt noch weiter, wenn die Redaktion behauptet „Der Einsatz deutscher Soldaten am Hindukusch begann als Reaktion auf die Anschläge vom 11. September 2001 in den USA.“ Aber alle anständigen Menschen wissen, dass Afghanistan nicht für die Anschläge verantwortlich war. Aber bei der ARD ist man gern unanständig, dafür wird man ja bezahlt. Papier und Wurf! Langsam gibt es nicht mehr genug Papier, um die Tagesschau-Wut zu bewältigen. Auch diese Ausgabe der MACHT-UM-ACHT stützt sich auf eine Vielzahl von Zuschauer-Zuschriften, die an diese Adresse gesandt wurden: DIE-MACHT-UM-ACHT@KENFM.DE. Dafür bedankt sich die Redaktion ganz herzlich. Der Journalist und Filmemacher Uli Gellermann beschäftigt sich seit Jahren mit der Dauermanipulation der Tagesschau. Gemeinsam mit den Co-Autoren, Volker Bräutigam und Friedhelm Klinkhammer, schrieb er das Buch „Die Macht um Acht: der Faktor Tagesschau“. Eine herausragende Lektüre über die tägliche Nachrichtensendung der ARD. Das Buch ist hier erhältlich. Bei KenFM nimmt er mit dem gleichnamigen Format die subtile Gehirnwäsche der Tagesschau alle zwei Wochen unter die Lupe. KenFM jetzt auch als kostenlose App für Android- und iOS-Geräte verfügbar! Über unsere Homepage kommt Ihr zu den Stores von Apple und Google. Hier der Link: https://kenfm.de/kenfm-app/ Abonniere jetzt den KenFM-Newsletter: https://kenfm.de/newsletter/ Jetzt KenFM unterstützen: https://www.patreon.com/KenFMde Dir gefällt unser Programm? Informationen zu weiteren Unterstützungsmöglichkeiten hier: https://kenfm.de/support/kenfm-unterstuetzen/ Jetzt kannst Du uns auch mit Bitcoins unterstützen. BitCoin Adresse: 18FpEnH1Dh83GXXGpRNqSoW5TL1z1PZgZK See acast.com/privacy for privacy and opt-out information.
Der Entwicklungsprozess ist ein Kernprozess in der Gesamtentwicklung, zu der auch die Elektronik Entwicklung gehört. Unser neues Thema. Inhalt der Folge: * Kernprozess der Entwicklung * Die Schritte des Prozesses * Beauftragung * Festlegung Anforderungen * Aufteilung * Bearbeitung * Prototypenphase * Verifikation * Validierung * Fertigungseinführung * Projekt vs. Prozess Der Beitrag IF093 – Der Entwicklungsprozess erschien zuerst auf Ingenieurbüro David C. Kirchner.
Viele Zuhörer haben Herrn Faktencheck inzwischen zweifelhafte Meldungen und ihre Fragen per Mail geschickt. Ein Teil dieser Fragen und Fakten hat etwas mit der Interpretation von Zahlen zu tun. Deswegen widmet sich Tobias Hamelmann in dieser Folge Zahlen und warum man sie immer hinterfragen sollte
Herrn Faktencheck gibt es zur aktuellen Lage in einem neuen Format. Tobias Hamelmann nimmt sich ab sofort kursierende Falschmeldungen rund um das Corona-Virus vor und erläutert, wie er sie als solche identifiziert. Heute: COVID-19 zeigt: Wir brauchen neue Regeln für Massentierhaltung und ein Verbot von Antibiotika in der Tierzucht. Ihr als Hörer seid auch gefragt: Sendet uns Aussagen und Meldungen, die ihr gern verifiziert hättet an faktencheck@geo.de.
Die DPA ist die erfolgreichste und reichweitenstärkste Nachrichtenagentur Deutschlands. Die Gesellschafter der dpa sind 179 deutsche Medienunternehmen. Die Agentur gehört ihnen allen und niemandem allein. Das schützt das wichtige Nachrichtengeschäft vor externer Einflussnahme. Mit Nachrichten alleine kann sich das stolze Medienunternehmen allerdings nicht mehr refinanzieren. Der Trend geht auch in Richtung PR.
Vom 30. Mai - 2. Juni 2019 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN19 statt. Dort traf Sebastian auf Carina Haupt, die schon auf der GPN18 von der öffentlich finanzierten Wissenschaft forderte: Publish Your Research! Carina Haupt studierte Informatik an der Hochschule Bonn-Rhein-Sieg. Aktuell befasst Sie sich wissenschaftlich mit Forschungssoftware, die meist von Wissenschaftlerinnen und Wissenschaftlern nur geringfügiger Kenntnis von Softwaretechnik oder unter Aspekten von Nachhaltigkeit entwickelt wird, da die Software nur als Mittel zum Zweck gesehen wird. Ziel der Wissenschaftlerinnen und Wissenschaftlern ist es schließlich Forschung zu betreiben und nicht Software zu entwickeln. Dabei zeigt die anhaltende Replication Crisis, die darin besteht, dass etliche publizierte wissenschaftliche Arbeiten nicht reproduzierbar sind, und somit alle abgeleiteten Arbeiten auf unsicheren Füßen stehen und eigentlich unter den geänderten Voraussetzungen wiederholt werden müssten. Eine Herausforderung ist, dass für viele Forschende, wie beispielsweise in der Mathematik, oft die Software nur zur Verifikation der eigentlichen wissenschaftlichen Aussagen verwendet wird, und daher eine deutlich geringere Wertschätzung erfährt. Auch wird ein Reputationsverlust befürchtet, wenn die Softwarequalität nicht den Ansprüchen im Kernbereich der Forschung entspricht, so dass oft von einer veröffentlichung des Source Codes und der Daten abgesehen wird. Dabei muss die Offenlegung der verwendeten Verfahren und Daten ein Grundanliegen ernsthafter Forschung sein und eine Kennzeichnung von Software beispielsweise als Proof-of-Concept sollte einen angemessenen Anspruch an die Software sicherstellen. Am Deutschen Zentrum für Luft- und Raumfahrt (DLR), leitet Carina eine Gruppe zum Software Engineering und ist dort mit ihren Kolleginnen und Kollegen für 40 Institute an 20 Standorten Ansprech- und Kooperationspartnerin für Softwareentwicklung unter anderem im wissenschaftlichen Umfeld von Luft- und Raumfahrt, Energie und Verkehr. Inzwischen ist dort ihr Enthusiasmus für Open Source, und Forschenden in der Softwareentwicklung zu unterstützen, zu ihrem eigenen Forschungsgebiet geworden. Bevor sie zum DLR kam, war sie beim Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI) im Bereich der Bioinformatik und dem Semantic Web, sowie in der Industrie und nebenberuflich bei der Froscon tätig, bis sie dem Ruf von Andreas Schreiber in ihre aktuelle Gruppe folgte. Um Außenstehenden einen schnellen und sehr unterhaltsamen Einstieg in und wichtige Motivation für das Software Engineering bei der DLR zu bieten, hat sie auf der GPN18 einen Vortrag Software-Fehler in der Raumfahrt: Disintegrating Rockets mit großem Anklang gehalten. Aber kann die Publikation von Forschungsdaten bei Auswirkungen der Replikationskrise wie der Analyse, dass über die Hälfte von Psychologiepapern nicht nachvollzogen werden können, helfen? Auf jeden Fall hätte die Veröffentlichung schon frühere Diskussionen und Verbesserungen der Ergebnisse ermöglicht, da abgeleitete Arbeiten statt der geschriebenen Darstellung auf den echten Daten ihre erweiterten Analysen hätten durchführen können. Soweit die Theorie, praktisch muss man sich eingehend damit befassen, was genau erforderlich ist, um eine Reproduzierbarkeit schon auf Seiten der Daten und Software zu ermöglichen. Das Befassen mit diesen Themen führt von einer Erstellung einer Publikation zum Begriff der Open Science oder offener Wissenschaft, die unter anderem Open Access, Open Data als auch Open Source betrifft. Hier konzentriert sich Carina in ihrer Forschung besonders auf den letzten Teil, insbesondere wie Erkenntnisse aus der Softwaretechnik dazu beitragen können, dem großen Ziel der Reproduzierbarkeit auch über die Zeit hinweg zumindest näher zu kommen. Wichtig ist auch den Entstehensprozess von Software zu betrachten. Die Fernseh-Show Bares für Rares demonstriert, wie die Wertigkeit eines Objekts durch eine nachgewiesene Herkunft signifikant beeinflusst wird. Dies erfolgt durch Nachweis der sogenannten Provenience. Der Begriff Provenience bedeutet die Aufzeichnung der Geschichte der Entstehung eines Objektes. Dies läßt sich auf Software übertragen. Die Wertigkeit und Qualität von einer Software-Publikation könnte zum Beispiel dadruch evaluiert werden indem der Build- und Entwicklungsprozess aufgezeichnet, und mit dem PROV W3C-Standards dokumentiert. Neben der Dokumentation liegt der nächste Schritt für reproduzierbare Software (vgl. E. Heitlinger: Reproduzierbarkeit – Wissenschaftliche Arbeit als Software-Projekt) darin, die erforderlichen zusätzlichen Bestandteile auch zur Verfügung zu stellen. Die nachhaltige Softwareentwicklung befasst sich in besonderem Maße damit, dass die Software von anderen sowohl genutzt als auch in Zukunft weiterentwickelt werden kann. Natürlich sollten wissenschaftliche Veröffentlichungen grundsätzlich die Wissensgewinnung und Validierung genau beschreiben, nur ist dies im gängigen Rahmen und Form normaler Publikationsformen weder in Form noch im Umfang abzubilden. Daher fordern viele Journals und Konferenzen, die Daten und Methoden in der Form von ausführbaren, web-basierten Jupyter Notebooks zur Verfügung zu stellen. Ein neuer Ansatz ist eine "Software Zitierbarkeit" zu ermöglichen, also sowohl die Form mit Weblinks und Versionierung, also auch mit Infrastruktur wie dem Dienst Zenodo, das einen Digital Object Indentifier (DOI) für Software mit einem Langzeitarchiv bereitstellt. Das ist ein Service, der in etwas weniger spezialisierter Form für unterschiedliche Medien auch von vielen Hochschulbibliotheken angeboten wird. Am DLR widmet sich die Software Engineering Initiative mit vielen Ansätzen, um Forschenden zu helfen nachhaltige Software zu entwickeln. Ein wichtiger Bestandteil sind hier Trainings, wie beispielsweise Repositories verwendet werden sollten: Hinweise für sinnvolle Commit-Messages verwenden. Wie sollten Versionen vergeben werden? Neben den eigentlichen Sourcen sollte auch der Build-Prozess und Testdaten im Repository sein Sinnvolle Struktur von Dateibäumen und sprechende Bennenung von Dateien Jedes Repository sollte eine README-Datei haben, die am Anfang kurz die Funktion der Sourcen beschreibt und in welchem Scope und in welchen Constraints die Ziele erreicht werden sollen, wie sie installiert, ausgeführt und getestet wird und wie sollte die Software zitiert werden? Unter welcher Lizenz steht die Software? Unterstützung gibt es auch durch zentrale Infrastruktur, die vom DLR beispielsweise durch eine eigene GitLab bald zur Verfügung stehen wird, und allen Forschenden einen eigenen persönlichen Bereich anbieten, sowie Projekten sofort entsprechende Strukturen bereitstellen. Die im Gespräch erwähnte SHA1-Kollision Shattered hatte einen Stillstand der für mehrere Browser grundlegende WebKit-Entwicklung zur Folge, da deren Subversion-Repository nicht mit der Hash-Kollision zurecht gekommen ist. Es gibt vielseitige Motivationsgründe für Forschende die Unterstützung der Software Engineering Initiative anzunehmen: Entweder sind sie aus einem füngeren universitären Umfeld schon mit der Thematik vertraut, oder haben Probleme durch fehlene Softwarequalität schon kennengelernt, lassen sich von Beispielen überzeugen oder Qualitätsanforderungen überreden, oder es wird ihnen durch Vorgesetzte nahe gelegt. Ein Mittel zur Motivation sind insbesondere die am DLR entwickelten Software Engineering Guidelines, die Kolleginnen und Kollegen zur Verfügung gestellt werden können. Darin sind sowohl Begründungen für das Vorgehen, aber auch einfach zur verfolgende Entscheidungsbäume und Checklisten, die je nach Größe und Kritikalität von Projekt unterschiedlich aufwendige Empfehlungen vorschlagen. Dies kann von einer TODO-Datei bis zur Integration eines vollständigen Issue-Tracker gehen, der in der höchsten Qualitätsstufe auch mit dem kompletten Code-Management integriert werden sollte. Diese Guidelines sind am DLR in eine Qualitätsinitiative integriert, bei der in jedem Institut ein Qualitätsbeauftragter oder eine Qualitätsbeauftragte zumindest erfassen sollte, warum bestimmte Empfehlungen nicht entsprochen wird, oder idealerweise das Institut dabei dazu zu motivieren diese einfach genau so umsetzen. Die erforderliche Bereitstellung digitaler Infrastruktur durch Organisationen spielt für Hochschulen neben den Bereichen des Software Engineerings auch in der Lehre eine wichtige Rolle: "Wenn technische Möglichkeiten wie Vorlesungsaufzeichnungen auch im Rahmen obligatorischer Lehrveranstaltungen genutzt werden sollen, müssen Hochschulen daher auch aus datenschutzrechtlichen Gründen entweder eine eigene Infrastruktur aufbauen oder datenschutzkonforme Dienstleistungen gegen Entgelt in Anspruch nehmen." A. Lauber-Rönsberg in Videocampus Sachsen – Machbarkeitsuntersuchung. Was alles bei der Nutzung mit Software-Repositories am Beispiel von GIT passieren kann, erzählt Sujeevan Vijayakumaran im GPN19-Vortrag Dämliche Dinge mit git anstellen. Grundlage für viele Aktivitäten der Software Engineering Group basieren auf Software Carpentries, beispielsweise mit einer GIT Einführung, die auch auf die Nachhaltigkeit abzielt. In der Helmholtz-Gesellschaft wurde das HIFIS-Projekt (Helmholtz Infrastructure for Federated ICT Services) gestartet, um die Initiativen und Erfahrungen in der Bereitstellung von Infrastrukturen innerhalb der Helmholtz Gesellschaft zu bündeln. Hier geht es nicht nur um den Betrieb der Software, sondern auch um das Training für die Services und im Allgemeinen. Dazu sollen Communities für Software Engineering und weiteren Themen gebildet werden, damit der Austausch über Erfahrungen und Wissen leichter ablaufen kann. Die Initiativen im Bereich der Research Software Engineers werden im neu gegründeten Verein DE-RSE e.V. gegründet, der vom 4.-6. Juni im Potsdam die erste Konferenz für ForschungssoftwareentwicklerInnen in Deutschland deRSE19 veranstaltet. Der Ursprung dieser Initiative liegt im WSSSPE Workshop (Working towards sustainable software for science: practice and experiences) und der Konferenz der Research Software Egineers Association. Die #deRSE19 wird auch besonders durch die TIB, dem Leibniz-Informationszentrum, Technik und Naturwissenschaften, Universitätsbibliothek, unterstützt. In der Zukunft muss es auch darum gehen, Infrastrukturen bereit zu stellen, über gute Verfahren zu informieren und auch Anreize für Forschenden zu schaffen, die verschiedenen Ansätze aufnehmen. Der Verein und das HIFIS-Projekt möchten hier mit unterschiedlichen Ansätzen dazu beitragen die Situation zu verbessern, und insbesondere die aktuelle Dynamik in Richtung Open Journals, Open Data, Open Source und Open Science zu nutzen. Für einzelne Gruppen und Instituten sollte die Wichtigkeit sich mit Open Source Lizenzen nicht unterschätzt werden: Es kann sonst zu Inkopatibilitäten zwischen verschiedenen Lizenzen kommen, oder es fehlen Einverständniserklärungen von einzelnen, nicht vertraglich verbundenen Personen. Diese können beispielsweise Studierende sein, die im Rahmen einer Abschlussarbeit an einem Projekt mitgearbeitet haben. Hier muss ein Contributor Licence Agreement bereit sein, die von sonst nicht vertraglich gebunden Beitragenden unterschrieben werden kann. Literatur und weiterführende Informationen C. Haupt, T. Schlauch: The Software Engineering Community at DLR—How We Got Where We Are, Proceedings of the Workshop on Sustainable Software for Science: Practice and Experiences (WSSSPE5. 1), 2017. A. Schreiber, C. Haupt: Raising awareness about open source licensing at the German aerospace center, 2018 IEEE Aerospace Conference. IEEE, 2018. D. A. Almeida, G. C. Murphy, G. Wilson, M. Hoye: Do software developers understand open source licenses?, Proceedings of the 25th International Conference on Program Comprehension (pp. 1-11), IEEE Press, 2017. R. Krishnamurthy, M. Meinel, C. Haupt, A. Schreiber, P. Mäder: DLR secure software engineering: position and vision paper. Proceedings of the 1st International Workshop on Security Awareness from Design to Deployment (pp. 49-50). ACM, 2018. Podcasts M. Fromm, K. Förstner: Open Science Radio C. Haupt, S. Janosch, K. Förstner: Voices from de-RSE Conference 2019, Open Science Radio, OSR171, 2019. C. Haupt, S. Druskat, K. Förstner: de-RSE Association and Conference for Research Software Engineers in Germany, Open Science Radio, OSR140, 2019. S. Janosch, K. Förstner: Forschungssoftware in Deutschland, Open Science Radio, OSR091, 2017. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/research-software-engineering GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
Medienpolitik: Entscheidung über Rundfunk-Beitrag erneut verschoben / Transforming media: Künstliche Intelligenz im Journalismus / Özgürüz: Das Exilradio von Can Dündar
Unser »Experte« Tom und der Auszubildende/Student Kevin sprechen über die formale Verifikation von Software.
Es waren mal wieder Datenspuren in Dresden. Wir haben uns dieses Mal mit Johannes unterhalten, der einen Vortrag über Ada, Spark und formale Verifikation gehalten hat. Links https://datenspuren.de/2018/ https://media.ccc.de/v/DS2018-9332-program_verification_with_spark Alle Talks: https://media.ccc.de/c/DS2018 https://learn.adacore.com https://www.adacore.com/download/ Johannes auf Twitter und GitHub
Mit 2 Gästen erheben sich heute Andreas und Patrick in die Lüfte, um sich dem Thema Digitale Währung zu nähern. Somit dreht sich heute alles ums encrypten, und, was man damit alles verbessern kann und könnte.. Lieber Fluggast, wenn dir das Gehörte gefällt oder dir Sorgenfalten auf die edle Stirn fabriziert, dann haben wir etwas für dich: iTunes Bewertungen. Gäste Christian Million, 44, beschäftigt sich seit fast 20 Jahren mit dem Thema Zahlungsverkehr. Angestellt war er bei großen Unternehmen wie der Wirtschaftsprüfungsgesellschaft KPMG, dem Technologieriesen IBM oder der Strategieberatung Horváth & Partners. Seit 2 Jahren hat er seine eigene Beratung “JAS Consulting” und hat letzte Jahr das Global Blockchain Institute gegründet, das sich mit dem Transfer von Blockchain-Forschung in die Wirtschaft beschäftigt. Neben dem Zahlungsverkehr ist seine zweite große Leidenschaft die Bühnenkunst. Er hat mehrere Kindertheaterschulen in ganz Deutschland und bietet zusätzlich eine professionelle Ausbildung zum Schauspieler, Musicaldarsteller, Musiker, Sänger, Musikpädagogen und Theaterpädagogen an. GLOBLIS - JAS Consulting STAGE ACADEMY JAS Education Jingjing Wang ist Chief Learning Officer der Coworking Academy und Coworking0711. Sie organisiert Fortbildungskurse zu den Themen digitale Währung und Blockchain. In der Automobilindustrie arbeitet sie an Anwendungsfällen für die Blockchain-Technologie. Initial Coin Offering (ICO) ist eines ihrer derzeitigen Projekte. Organizational Development, Global Strategy und IT-Technology sind ihre Spezialgebiete. Follow-up homebrew-cask F-Secure XFENCE Objective-See Bitcoin Angeblich erfunden von Satoshi Nakamoto. Man weiss aber nicht ob der Mensch wirklich existiert. Es wird vermutet, dass hinter dem Namen ein Verbund von Menschen aus der IT Branche steht. Einführung Bitcoin, Ether und mehr: Die 10 größten Kryptowährungen der Welt Grosse Firmen steigen in das Cryptocoin Business, bspw. Ethereum, ein, wegen der variablen und geringeren Überweisungskosten. tastytakos: ETH Alliance: Microsoft, Intel, CS, UBS, JPM, ING, BBVA, CME, BNY, BP - want save millions on admin/legal/transaction costs 12.03.2017, Poloniex Trollbox (Chat) Preisexplosion des Bitcoin seit November 2016. Damals 800€ pro Bitcoin. Aktuell steht er auf 1800€. Wie funktioniert der Blockchain? Bei Bitcoin wird alle 10 Minuten ein neuer Block erzeugt. Alle Maschinen, die sich am Mining beteiligen, können 1 Bitcoin für das finden dieses Blocks “gewinnen”. Jede Transaktion wird öffentlich im sogenannten Blockchain gespeichert. Jede Transaktion muss zusätzlich vom Netzwerk verifiziert werden. Dieses verifizieren beansprucht eine gewisse Arbeit. Kann diese Transaktion überhaupt richtig sein? Für die Verifikation bekommt der verifizierende Rechner ebenfalls einen gewissen Lohn. (Transaction Fee) Durch dieses System ist es sehr schwer eine Transaktion zu fälschen, weil man das gesamte Netzwerk davon überzeugen müsste, dass eine Transaktion, und alle Transaktionen die danach kommen, so stattgefunden hat. Obwohl eine Transaktion in der Regel “sofort” beim Empfänger ankommt. Muss die Transaktion erst ein paar mal erfolgreich verifiziert werden, eh man sicher sein kann, dass das Geld auch wirklich angekommen ist. Oft wartet man deshalb 2-5 Verifikationen ab. Den aktuellen Status einer Transaktion bzw. des gesamten Netzwerks kann man auf Block Explorer, Blockchain.info oder Blockr einsehen. Tipp: Blockonomics. Weil alle Transaktionen öffentlich sind, fürchten viele (berechtigt) um ihre Anonymität. Gegebenenfalls die eigene Bitcoin Adresse bleibt immer gleich, kann man nur durch durchforsten des Blockchains den Wert eines Wallets feststellen. Deshalb generieren moderne Wallets nach jeder Transaktion eine neue Wallet Adresse – die alte bleibt aber (oft) auf ewig gültig. Auf dem 28c3 gab es einen Talk, welcher bewies, dass sich aus der Transaktion, die IP der beteiligten Parteien heraus bekommen lässt. Also es ist nicht 100% anonym. Noch genauere Informationen bei bitcoin.org im FAQ. Woher bekommt man Bitcoin? Bitcoin Mining. Geschichtlich: CPU, GPU, ASIC Fast nicht mehr rentabel für den Heimanwender. Bitmain und Avalon Klein: AntMiner U2, GekkoScience, Black Arrow Mining Profitabilität: Coinwarz WhatToMine Profitabilität Mining eines Altcoins vs. Bitcoin. Erklärung verschiedener Altcoins und deren Algorithmen. SHA256, X11, Scrypt. Pool Mining vs. Solo Mining Cloud Mining Genesis Mining Code gLz1hQ gibt 3% Rabatt. Hashflare 10% Bonus Bitcoin Faucets. Einem Exchange oder einem Verkäufer, wie Bitpanda, bitcoin.de. Meist Zahlung per Überweisung, Kreditkarte oder PayPal. LocalBitcoins möchte die Anonymität steigern, indem man seine Bitcoins direkt bei einer anderen Person kauft. Woher bekommt man ein Bitcoin Wallet? Electrum, Xapo, Jaxx, MultiBit, Armory Schöne Übersicht mit Einstufung bezüglich Sicherheit direkt auf der Bitcoin Webseite Wenn einem ein Wallet Anbieter nicht mehr gefällt, kann man meist die “Keys swipen”. Damit werden die Coins mit einer sehr sehr geringen Fee an eine neue Adresse übertragen. Das dauert dann ein wenig, hat aber den Vorteil, dass man nahezu den gesamten Wert mitnehmen kann. Trading mit Bitcoin (kann man vielleicht weg lassen) Diverse Exchanges wie etwa Bitfinex, Kraken, GDAX oder Poloniex. Diese erlauben dann wahlweise Exchange Trading, Margin Trading oder Lending. Zukunftsaspekt Wozu können wir diese Technologie nutzen? Was wird gerade mit dieser Technologie schon gemacht? Apps: iOS: Blockfolio CoinCap Die folgenden kann man sich mal anschauen, sind aber insgesamt nicht so gut. Coin Ticker Lawnmower Web: CoinMarketCap Cryptowatch Sonstiges Otc clearing - Wikipedia bittunes.co.uk* Andreas Video Kurs zum handeln mit Crypto ist auf seiner Webseite erhältlich. Unsere Picks Patrick: Magic Launch Andreas: kSafe by Kitchen Safe Jingjing: Schokoladentee Christian: STAGE ACADEMY - Training for Life by Training on Stage In Spenderlaune? Wir haben Flattr und PayPal am Start und würden uns freuen.
Gewitterzellen mit ihren negativen Begleiterscheinungen wie Starkregen, Hagel oder Fallwinden verursachen Verspätungen sowie Flugausfälle und sind damit für höhere Kosten der Airlines und Flughafenbetreiber verantwortlich. Eine verlässliche Vorhersage von Gewittern bis zu mehreren Stunden könnte dagegen den Entscheidungsträgern am Flughafen einen größeren zeitlichen Spielraum geben, um auf mögliche Gewitterzellen angemessen zu reagieren und adäquate Maßnahmen zu ergreifen. Zur Bereitstellung zuverlässiger Gewittervorhersagen bis zu sechs Stunden wurde Cb-LIKE am Deutschen Zentrum für Luft- und Raumfahrt (DLR) entwickelt. Der neue Gewittervorhersagealgorithmus wird in der vorliegenden Dissertation detailliert vorgestellt. Cb-LIKE ist ein automatisiertes System, das unter Verwendung von Modelldaten des COSMO-DE Wettermodells des Deutschen Wetterdienstes (DWD) Gebiete ausweist, die eher für oder gegen eine Entwicklung von Gewittern sprechen. Vier atmosphärische Parameter (CAPE, Vertikalwind, Radarreflektivität und Temperatur an der Wolkenobergrenze) fließen in das System ein. Eine neu entwickelte „Best-Member-Selection“ sorgt dabei durch einen Abgleich zur aktuellen Gewittersituation für die automatische Auswahl des realistischsten Modelllaufes aus einem Ensemble. Dadurch wird die beste Datengrundlage für die Berechnung der Gewittervorhersagen gewährleistet. Für die Auswahl des besten Members stehen vier verschiedene Modi zur Verfügung. Ein neu entwickeltes Fuzzy-Logik System ermöglicht anschließend die Kombination der Modelldaten und die Berechnung eines Gewitterindikators von 11,6¯6 bis 88,3¯3 für jeden Gitterpunkt des Modells für die nächsten sechs Stunden in stündlichen Intervallen. Je höher der Wert des Indikators, desto mehr sprechen die Modellparameter für die Entstehung von Gewittern. Zusätzlich wird die Vorhersagequalität des neuen Algorithmus anhand einer umfassenden Verifikation unter Verwendung einer „neighbourhood-verification“ Technik und von „multi-event contingency tables“ untersucht. Für die Sommerperiode 2012 weist Cb-LIKE im Vergleich zur COSMO-DE Radarreflektivität bessere Werte in den Verifikationsgrößen auf. So ist das „Fehlalarmverhältnis“ für den neuen Algorithmus niedriger (0,48 zu 0,56), die „Wahrscheinlichkeit der Detektion“ (0,52 zu 0,45) und der „Critical Success Index“ (0,50 zu 0,48) fallen dagegen höher aus. Die Resultate zeigen, dass der Cb- LIKE Algorithmus eine sinnvolle neue Methodik für Gewittervorhersagen von hoher Qualität auf der Datenbasis des COSMO-DE Modells darstellt. Die Ergebnisse aus der Verifikation ermöglichen außerdem die Übersetzung des Cb-LIKE Indikatorfeldes in die gewünschten probabilistischen Gewittervorhersagen. Zusätzlich wird die erfolgreiche Implementierung der Cb-LIKE Gewittervorhersagen in das WxFUSION System, eine graphische Benutzeroberfläche, vorgestellt.
Schon in den 1990er Jahren versuchten Kryptographen Wege zu entwickeln, wie man das Konzept "Geld" in elektronischer Form realisieren kann, um Werte im Internet weiterreichen zu können. Nach kurzen Experimenten mit digitalem Münzgeld setzten sich dann zunächst reine Weiterleitungsdienste wie PayPal durch. Durch das relativ neue Projekt Bitcoin ist elektronisches Geld wieder in aller Munde. Im Gegensatz zu früheren Ansätzen wird hier auf ein Peer-To-Peer-System gesetzt, in dem alle finanziellen Transaktionen jedem zur Kenntnis gegeben werden. Im Gespräch mit Tim Pritlove erläutert Andreas Bogk die kryptographischen Grundlagen von eCash und Bitcoin. Themen: kommutative asymmetrische Kryptosysteme; Double Spending Problem; Blinding; eCash; PayPal; Bitcoin; die Dezentralbank; Hashfunktionen; der Bitcoin-Geldschöpfungsprozess; Transaktionskosten; Mining Pools; technische Schwachstellen von Bitcoin; Verifikation der Transaktionen; Implikationen unabhängiger Währungen; Bitcoin Exchanges; Nachvollziehbarkeit von Finanzflüssen; Drogenhandel und Geldwäsche im Bitcoin-Universum; Bitcoin und das Finanzamt; Aufwand und Kosten des Bitcoin Minings.
“Defense is not dead. Why we will have more secure computers – tomorrow” hieß einer der Vorträge auf dem 27. Chaos Communication Congress, die von Anfang an auf meiner Liste standen. Das Versprechen sichererererer Computer bekommt man schließlich nicht alle Tage. Der Vortrag von Andreas Bogk war interessant und gespickt mit Dingen, die ich mir […] 0 0 0
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Die vorliegende Arbeit behandelt zwei unterschiedliche Anwendungen aus dem Bereich der numerischen Seismologie: Das erste Thema umfasst die Entwicklung und Anwendung eines Programms zur Berechnung der lokalen Wellenausbreitung in seismischen Störungszonen (Fault Zones) mit spezieller Fokussierung auf geführte Wellen (Trapped Waves). Dieser Wellentyp wird an vielen Störungszonen beobachtet und aus seinen Eigenschaften können Informationen über die jeweilige Tiefenstruktur abgeleitet werden. Das zweite Thema dieser Arbeit behandelt die Entwicklung und Anwendung zweier Verfahren zur Berechnung der globalen Wellenausbreitung, also der Ausbreitung seismischer Wellen durch die gesamte Erde einschließlich des äußeren und inneren Erdkerns. Die verwendeten Methoden ermöglichen es, kleinräumige Strukturen in großen Tiefen wie zum Beispiel die Streueigenschaften des Erdmantels oder die kleinskalige Geschwindigkeitsstruktur an der Kern-Mantelgrenze in knapp 2900 km Tiefe zu untersuchen. Wellenausbreitung in seismischen Störungszonen: Seismische Störungszonen, wie zum Beispiel der San Andreas Fault in Kalifornien, zeigen auf beeindruckende Weise, wie die Gestalt der Erdoberfläche durch seismische Aktivität als Folge tektonischer Prozesse geprägt wird. Die genaue Kenntnis der Tiefenstruktur einer Störungszone hingegen bietet zusätzlich einen Einblick in die vergangene Seismizität, die die Struktur der jeweiligen Störung geprägt hat. Neben den tektonischen Eigenschaften einer Region lassen sich aus der Tiefenstruktur auch Voraussagen über Häufigkeit und zu erwartende Stärke zukünftiger Erdbeben ableiten. Da Erdbeben vorzugsweise in solchen Störungszonen auftreten, ist eine möglichst genaue Kenntnis der Geometrie einer Schwächezone wichtig, um Regionen mit erhöhtem Gefährdungspotenzial zu erkennen. Für die Untersuchung der Tiefenstruktur einer Störungszone stehen in vielen Fällen ausschließlich Messungen von der Erdoberfläche zur Verfügung, etwa von seismischen Netzen, die in unmittelbarer Umgebung oder direkt auf einer Störung platziert wurden. Ereignet sich nun ein Erdbeben in einigen Kilometern Tiefe innerhalb der Störungszone, breitet sich ein Teil der angeregten seismischen Wellen durch die gesamte Störungszone bis zur Erdoberfläche aus, wo sie registriert werden. Die aufgezeichneten Signale werden somit entlang ihres gesamten Laufweges durch die Struktur der Störungszone beeinflusst, was die Ableitung der tiefenabhängigen Struktur aus den Messdaten erschwert. Um trotzdem ein genaues seismisches Abbild einer Störungszone zu bekommen, analysiert man unterschiedliche Wellentypen im Seismogramm, wodurch ein Maximum an Strukturinformation abgeleitet werden kann. Einer dieser Wellentypen, der sich durch besondere Eigenschaften auszeichnet, ist die geführte Welle (Trapped Wave). Diese entsteht, wenn eine Störungszone einen ausgeprägten vertikal ausgedehnten Bereich drastisch reduzierter seismischer Ausbreitungsgeschwindigkeit (Low Velocity Layer) und nicht zu komplexer Geometrie besitzt, der als seismischer Wellenleiter wirkt. In einem solchen Wellenleiter kann sich eine geführte Welle ausbreiten, die als mit Abstand stärkstes Signal an der Erdoberfläche registriert wird, also deutlich stärkere Bodenbewegungen hervorruft als etwa die direkte Welle. Dieser Verstärkungseffekt hat unter anderem Konsequenzen für die Abschätzung der seismischen Gefährdung in der Nähe einer Störungszone, zum Beispiel wenn die Störungszone durch dicht besiedeltes Gebiet verläuft. Geführte Wellen beinhalten aufgrund ihrer hohen Sensitivität bezüglich der Eigenschaften von Niedergeschwindigkeitszonen Strukturinformationen, die aus anderen Wellentypen nicht abgeleitet werden können. Daher leistet das Verständnis dieses Wellentyps einen wichtigen Beitrag für die Ableitung möglichst vollständiger Modelle von Störungszonen. Ausbreitung von SH- und P-SV Wellen in Erdmantel und der ganzen Erde: Das allgemeine Verständnis der Struktur und Dynamik des tiefen Erdinneren basiert zu einem großen Teil auf den Ergebnissen der globalen Seismologie. Im Gegensatz zum ersten Teil dieser Arbeit haben diese Erkenntnisse keine unmittelbare Auswirkung auf unser tägliches Leben. Jedoch liefert die Kenntnis des inneren Aufbaus der Erde wichtige Erkenntnisse für die geophysikalische Grundlagenforschung bis hin zum Verständnis der Entstehungsgeschichte der Erde und unseres Planetensystems. Die Modellierung der globalen seismischen Wellenausbreitung unterscheidet sich von der lokalen Modellierungen in zwei wesentlichen Punkten: (1) die wesentlich größere Ausdehnung globaler Modelle, welche die gesamte Erde oder zumindest große Teile des Erdinnern beinhalten, und (2) der Eigenschaft seismischer Wellen, sich im globalen Maßstab hauptsächlich in der Ebene auszubreiten, die durch den Großkreis zwischen Quelle und Empfänger aufgespannt wird. Beide Punkte legen nahe, zur Verringerung des Rechenaufwands eine Symmetriebedingung einzuführen. In dieser Arbeit wird durch die Formulierung von Wellengleichung und Modell in einem sphärisch-achsensymmetrischen Koordinatensystem der – im globalen Maßstab im Allgemeinen geringe – Anteil von Variationen der seismischen Parameter und von Wellenfeldanteilen orthogonal zur Großkreisebene vernachlässigt. Diese Beschränkung führt zu einer enormen Einsparung an Rechenressourcen, da das zu berechnende seismische Wellenfeld nur noch zwei Dimensionen aufspannt. Eine Folge der Achsensymmetrie ist die Aufspaltung des seismischen Wellenfeldes in einen SH- und einen P-SV Anteil. Beide Wellenfeldanteile sind voneinander entkoppelt und breiten sich in unterschiedlichen Regionen des Erdinneren aus. Zur Berechnung des SH- und des P-SV Wellenfeldes wurden daher in dieser Arbeit zwei separate Programme SHaxi und PSVaxi entwickelt. Kapitel 3 behandelt die Berechnung des globalen SH Wellenfeldes für Achsensymmetrische Geometrien mit dem im Rahmen dieser Arbeit entwickelten Programm SHaxi. Das SH Wellenfeld besteht aus horizontal polarisierten Scherwellen, die sich in guter Näherung ausschließlich im Erdmantel, also zwischen Erdoberfläche und Kern-Mantelgrenze ausbreiten. Somit muss nur der Erdmantel als Modellraum abgebildet werden, was die Diskretisierung des Modells und die Implementierung der Wellengleichung deutlich vereinfacht. Um eine Anwendung auf modernen Parallelcomputern mit verteilter Speicherarchitektur zu ermöglichen, wurde der Modellraum durch vertikale Schnitte in gleichgroße Segmente geteilt, die von den einzelnen Elementen (Knoten) eines Parallelrechners getrennt bearbeitet werden können. Das Wellenfeld in den Randbereichen dieser Segmente muss dabei nach jedem Zeitschritt explizit zwischen benachbarten Knoten ausgetauscht werden, um die Ausbreitung durch das gesamte Modell zu ermöglichen. Ein wesentlicher Aspekt des Kapitels ist die Verifikation des Verfahrens unter besonderer Berücksichtigung der implementierten Ringquelle. Durch einen Vergleich mit analytisch berechneten Seismogrammen werden die Eigenschaften der implementierten achsensymmetrischen Ringquelle diskutiert und es wird gezeigt, dass das Programm korrekte Seismogramme berechnet, die mit einer realistischen Double-Couple Quelle vergleichbar sind. Abschließend werden bisherige Anwendungen des Programms gezeigt: (1) die Modellierung von Streuung im gesamten Erdmantel und (2) die Untersuchung von kleinskaliger Topographie der D“ Schicht im untersten Erdmantel. Kapitel 4 behandelt das Gegenstück des im vorherigen Kapitel behandelten Verfahrens: Das Programm PSVaxi zur Berechnung des globalen P-SV Wellenfeldes für achsensymmetrische Geometrien. Im Gegensatz zum SH Wellenfeld breitet sich das P-SV Wellenfeld nicht nur im Erdmantel sondern auch im äußeren und inneren Erdkern aus. Dies erforderte eine Erweiterung des Modellraums bis praktisch zum Erdmittelpunkt, die sich mit dem im SH Fall verwendeten gleichförmigen Gitter aufgrund von Grundsätzlichen Stabilitätsproblemen des verwendeten Finite Differenzen Verfahrens nicht durchführen lässt. Um diesen zusätzlichen Modellraum zu erschließen wurde eine Mehrgebietsmethode (Multi-Domain Method) implementiert. Diese füllt zusätzliche Tiefenbereiche mit neuen, jeweils gleichförmigen Gittern (Domains) aus, deren Gitterabstände an den jeweiligen Tiefenbereich angepasst sind, was für die notwendige Stabilität des Verfahrens sorgt. Zusätzlich zur tiefenabhängigen Aufteilung des Modellraumes in gleichförmige Gitter wurde eine Parallelisierung vorgenommen, um das Programm auf Parallelcomputern nutzen zu können. Dazu wurde der Modellraum durch horizontale Schnitte in einzelne Segmente zerlegt, die – analog zu den vertikalen Schnitten bei der SHaxi Parallelisierung – von den einzelnen Knoten eines Parallelrechners bearbeitet werden können. Die Kombination von Mehrgebietsmethode und Segmentierung führt zu einem recht aufwendigen Algorithmus, erlaubt jedoch die Berechnung des hochfrequenten globalen Wellenfeldes durch die ganze Erde auf Parallelrechnern mit vergleichsweise geringem Rechenaufwand. Erste Anwendungen des PSVaxi Programms werden am Ende des Kapitels diskutiert: (1) eine exemplarische Modellierung der Wellenausbreitung in einer angenommenen D“ Schicht mit Topographie (2) eine Studie des Einflusses von Niedergeschwindigkeitszonen mit Topographie auf seismische Phasen, die durch den untersten Mantel und den äußeren Kern verlaufen und (3) eine Arbeit, die die Streueigenschaften des Mantels aus an der Kern-Mantelgrenze diffraktieren Wellen ableitet.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 03/06
Das Membranprotein LMP1 des Epstein-Barr Virus (EBV) stellt das primäre Onkogen des Virus dar. Es ist essentiell für eine effiziente Transformation von B-Zellen durch das Virus und ist allein ausreichend, um Nagerfibroblasten zu transformieren. LMP1 aktiviert eine Vielzahl von Signalwegen über zwei carboxyterminale Aktivierungsregionen (CTAR1 und CTAR2), unter anderem die JNK-, die NF-κB, die PI3K- und die Jak/STAT-Signalkaskaden. Die Aufklärung der Signaltransduktion von LMP1 auf molekularer Ebene ist der Fokus intensiver wissenschaftlicher Forschung. Ziel der vorliegenden Doktorarbeit war es, neue Interaktionspartner von LMP1 zu identifizieren und so Lücken zwischen LMP1 und den weiter stromabwärts liegenden Signalwegen zu schließen. Dazu wurde im ersten Teil der Arbeit eine Methodik entwickelt, mit dem der Signalkomplex von LMP1 massenspektrometrisch untersucht werden konnte. Hierzu wurde zunächst ein Zellsystem etabliert, mit dem der LMP1-Multiproteinkomplex aus lymphoblastoiden Zelllinien (LCLs), also im viralen Kontext, präzipitiert werden konnte. Darüber hinaus wurde ein zusätzlicher Aufreinigungsschritt durch die Integration einer TEV-Protease-Schnittstelle zwischen den Transmembrandomänen und dem C-Terminus von LMP1 eingeführt. Mit diesem Verfahren wurde eine Reihe von neuen potenziellen Interaktionspartnern von LMP1 identifiziert. Von diesen konnten bereits zwei Proteine als LMP1 Interaktionspartner mit weiteren Methoden verifiziert werden, das Transmembranprotein CD48 und die Kinase TNIK. Der zweite Teil der Arbeit beleuchtet die Rolle der Protein-Tyrosin-Phosphatase SHP-1 in der Signaltransduktion von LMP1. Sie wurde in unserer Arbeitsgruppe als Interaktionskandidat von LMP1 identifiziert. Neben der Verifikation der Bindung gelang es in dieser Arbeit, die Interaktionsstelle von SHP-1 auf die beiden Tyrosine Y185 und Y186 von LMP1 zu kartieren. Damit wurde neben CTAR1 und CTAR2 ein weiteres, neues Bindemotiv von LMP1 entdeckt. Es konnte im Rahmen dieser Doktorarbeit gezeigt werden, dass LMP1 den NF-κB- und den Jak/STAT-Signalweg nicht nur induziert sondern durch die Interaktion von LMP1 mit SHP-1 diese Aktivierung regu-liert und begrenzt. LMP1 verfügt somit auch direkt auf der Ebene der Signaltransduktion über einen Me-chanismus, der seine eigene Aktivität moduliert.