Podcasts about datensatz

  • 76PODCASTS
  • 95EPISODES
  • 30mAVG DURATION
  • 1MONTHLY NEW EPISODE
  • May 29, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about datensatz

Latest podcast episodes about datensatz

News Plus
Spezialfolge | Die Cookiefalle: Ein historischer Hack

News Plus

Play Episode Listen Later May 29, 2025 32:19


Anfang Jahr sind wir wohl knapp an einer regelrechten Datenschutz-Katastrophe vorbeigeschrammt. Eine Hacker-Gruppe hat eine grosse Datenanalysefirma aus den USA mit Milliarden gehackten Standortdaten erpresst. Was lehrt uns der Hack? (Wiederholung) Die Hacker drohten damit, 17 Terabyte Daten der Firma «Gravy Analytics» zu veröffentlichen - eine gigantische Menge. In einem russischen Forum wurde ein Teil aus dem gehackten Datensatz veröffentlicht, in dem auch Daten von rund 400 Geräten aus der Schweiz zu finden waren. SRF Data hat den Datensatz analysiert: Er zeigt nicht nur, was da alles gesammelt wird, sondern auch, wie schnell sensible Daten und Informationen in die falschen Hände geraten können. Um zu illustrieren, welche Gefahr von Standortdaten ausgehen kann, sprechen wir in dieser Folge auch mit der Leiterin des Frauenhauses St. Gallen. Für Frauenhäuser und gewaltbetroffene Frauen ist das Smartphone ein Sicherheitsrisiko. Über Auffahrt wiederholen wir die beiden Folgen der «Cookiefalle» von «News Plus Hintergründe», die wir im März 2025 zum ersten Mal publiziert haben. ____________________ Abonniert den Podcast «News Plus Hintergründe», um keine Folge zu verpassen. Schickt uns eure Fragen an newsplus@srf.ch ____________________ In dieser Episode zu hören: - Ivano Somaini, Social Engineer beim Cybersicherheitsunternehmen Compass Security - Silvia Vetsch, Leiterin Frauenhaus St. Gallen ____________________ Team: - Host: Raphaël Günther - Recherche: Julian Schmidli von SRF Data - Produktion: Céline Raval - Titelmusik und Sounddesign: Thomas Baumgartner ____________________ Das ist «News Plus Hintergründe»: Aufwändig recherchierte Geschichten, die in der Schweiz zu reden geben. Ob Datenkrimi, Wirtschaftsskandal oder Politthriller – hier gibt es die ganze Story: https://www.srf.ch/audio/news-plus-hintergruende?srg_shorturl_source=newsplushintergruende

Passwort - der Podcast von heise security
i-Soon: Leak aus der chinesischen Cybercrime-Industrie

Passwort - der Podcast von heise security

Play Episode Listen Later Apr 23, 2025 122:50


Christopher und Sylvester werfen einen Blick auf das i- Soon-Leak. Im Februar 2024 tauchte auf GitHub ein Datensatz auf, der Vertriebs- und Dokumentationsmaterial der chinesischen Firma i-Soon enthielt und auch Chatprotokolle von Mitarbeitern des Unternehmens. Wer mit welchem Motiv den Datensatz veröffentlicht hat, ist nach wie vor unklar und entsprechend skeptisch sollte man ihn bewerten. Um eine reine Fälschung handelt es sich jedoch höchstwahrscheinlich nicht und die Daten offenbarten einen seltenen Einblick in die chinesische Cybercrime-Industrie, die sehr offiziell und mit dem Staat als regelmäßigem Kunden agiert. - Analyse der XZ-Hintertür: https://heise.de/-9788145 - Analysen des i-Soon-Leaks: - https://harfanglab.io/insidethelab/isoon-leak-analysis/ - https://unit42.paloaltonetworks.com/i-soon-data-leaks/ - https://www.verfassungsschutz.niedersachsen.de/startseite/aktuelles_service/aktuelle_meldungen/die-i-soon-leaks-industrialisierung-von-cyberspionage-235699.html - Report zum chinesischen Schwachstellenmanagement-Ökosystem: https://www.atlanticcouncil.org/in-depth-research-reports/report/sleight-of-hand-how-china-weaponizes-software-vulnerability/ - Aktuelle US-Anklage gegen i-Soon-Mitarbeiter: https://www.justice.gov/usao-sdny/pr/10-chinese-nationals-charged-large-scale-hacking-us-and-international-victims-behalf Mitglieder unserer Security Community auf heise security PRO hören alle Folgen bereits zwei Tage früher. Mehr Infos: https://pro.heise.de/passwort

Engineering Kiosk
#183 Event-Sourcing: Die intelligente Datenarchitektur mit semantischer Historie – mit Golo Roden

Engineering Kiosk

Play Episode Listen Later Feb 18, 2025 95:51


Event Sourcing: Ein Deep Dive mit Golo RodenSpeziell beim Debuggen stellen wir uns oft die Frage “Wie kam dieser Datensatz nun in diesen Zustand?”. Nachvollziehbarkeit ist da oft schwer. Wenn man Glück hat, gibt es irgendwo ein Log. Wenn man Pech hat, hat man nach der erfolglosen Log-Suche ein neues Ticket, um ein Log einzubauen. Wäre es nicht irgendwie cool, alle Zustandsänderungen zu protokollieren bzw. zu speichern? Oder noch besser: Dieses Verhalten als First-Class-Konzept in meiner App zu behandeln?Wenn man das Ganze weiter denkt, landet man oft beim Thema “Event Sourcing”. Event … wat?In dieser Podcast-Episode machen wir mal einen Deep Dive ins Thema Event Sourcing. Wir klären, was Event Sourcing eigentlich ist, welches Problem es eigentlich löst, wie technische Implementierungen aussehen können, was Command Query Responsibility Segregation (CQRS) und Domain Driven Design damit zu tun haben, wann man doch lieber Abstand von Event Sourcing halten sollte und welche Tools und Datenbanken dich dabei unterstützen.Bonus: Wie viele Stadtbibliotheken nutzen eigentlich Event Sourcing?Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:

Hamburg heute
Hamburg bekommt neue Oper geschenkt

Hamburg heute

Play Episode Listen Later Feb 7, 2025 15:49


„Na, nun freuen Sie sich doch mal!“ So hat Hamburgs Bürgermeister Peter Tschentscher auf all die kritischen Fragen von der Presse geantwortet, nachdem klar war, dass Hamburg eine neue Oper geschenkt bekommt. Warum es bei dem neuen Bau auf dem Baakenhöft in der Hafencity nicht zu Kostensteigerungen wie beim Bau der Elbphilharmonie kommen soll und was eine neue Oper für die Stadt bedeutet, hört ihr hier. Viel Spaß wünscht euch Maiken Was war heute in Hamburg los? Maiken Nielsen und Ole Wackermann werfen im wöchentlichen Wechsel zum Tagesende einen Blick auf die News und das aktuelle Stadtgeschehen. Das sind die Nachrichten heute mit Maiken Nielsen am Freitag, 7.2.2025 +++HAMBURG BEKOMMT NEUE OPER GESCHENKT+++ Die Stadt Hamburg und die Kühne-Stiftung haben sich auf den Neubau einer Oper auf dem Baakenhöft in der Hafencity verständigt. Anfang der Woche hatte Unternehmer Klaus-Michael Kühne noch einen Termin platzen lassen.

11KM: der tagesschau-Podcast
Das deutsche Geschäft mit Putins Schattenflotte

11KM: der tagesschau-Podcast

Play Episode Listen Later Feb 4, 2025 33:33


Russland verdient mit der “Schattenflotte” Milliarden – aber nicht nur Russland. Das internationale Rechercheprojekt "Shadow Fleets Secrets", an dem in Deutschland NDR, WDR und Süddeutsche Zeitung beteiligt waren, zeigt jetzt: Für westliche Reeder war die “Schattenflotte” offenbar ein lukratives Geschäft. Das Team der “Shadow Fleets Secrets” hat unter anderem einen Datensatz der Kyiv School of Economics ausgewertet. NDR-Investigativreporter Antonius Kempmann erzählt in dieser 11KM Folge von deutschen Reedereien, die “Putins Russland” finanziell wohl enorm helfen, von möglichen Umweltkatastrophen und Sicherheitsrisiken für Deutschland. Mehr zum exklusiven internationalen Rechercheprojekt “Shadow Fleets Secrets” mit der journalistischen Datenplattform “Follow The Money”, findet ihr auf tagesschau.de: https://www.tagesschau.de/investigativ/ndr-wdr/schattenflotte-russland-sanktionen-oel-reeder-deutschland-100.html Mit Antonius Kempmann haben wir im September darüber gesprochen, wer an Bord und im Hintergrund der “Russischen Schattenflotte” steckt. Die Folge findet ihr hier: https://1.ard.de/11KM_Ostsee_Spionageflotte Und hier geht es zu dem NDR Info Podcast “Streitkräfte und Strategien” - unserem Podcast-Tipp für heute: https://1.ard.de/Streitkraefte_und_Strategien Diese und viele weitere Folgen von 11KM findet ihr überall da, wo es Podcasts gibt, auch hier in der ARD Audiothek: https://www.ardaudiothek.de/sendung/11km-der-tagesschau-podcast/12200383/ An dieser Folge waren beteiligt: Folgenautor: Moritz Fehrle Mitarbeit: Lisa Hentschel Produktion: Regina Staerke, Konrad Winkler, Jacob Böttner, Marie-Noelle Svihla und Hanna Brünjes. Redaktionsleitung: Fumiko Lipp und Lena Gürtler 11KM: der tagesschau-Podcast wird produziert von BR24 und NDR Info. Die redaktionelle Verantwortung für diese Episode liegt beim BR.

PUNKT.PRERADOVIC Podcast
#285: Aufgetauchte Impfdaten des PEI: „Blanker Horror“ - mit Prof. Dyker und Prof. Matysik

PUNKT.PRERADOVIC Podcast

Play Episode Listen Later Jan 17, 2025 28:25


Überraschend ist beim Paul-Ehrlich-Institut ein Datensatz zu „Impf“-Nebenwirkungen hochgeladen worden. Die Chemie-Professoren Dr. Gerald Dyker und Dr. Jörg Matysik haben sich die Daten genau angeschaut. „Der blanke Horror“, so ihr Fazit. Ein Gespräch unter anderem auch über  Bauernfängerei mit dem „Post Vac“-Begriff und feige, abgetauchte Wissenschaftsinstitutionen.   Ich würde mich freuen, wenn ihr meine unabhängige journalistische Arbeit unterstützt, damit ich auch in Zukunft weitermachen kann. Vielen Dank! Ich möchte mich auch ganz herzlich bei allen bedanken, die mich bereits unterstützen. Milena Preradovic Name: Milena Preradovic IBAN: AT40 2070 2000 2509 6694 BIC: SPFNAT21XXX oder https://paypal.me/punktpreradovic     Homepage Prof. Jörg Matysik: www.cidnp.org/blog https://www.pei.de/SharedDocs/Downloads/DE/newsroom/dossiers/rohdaten-sicherheitsberichte/download-xls-uaw-daten-2020-12-27-bis-2023-12-31.html?nn=169638&cms_dlConfirm=true   https://www.pei.de/SharedDocs/Downloads/DE/newsroom/dossiers/rohdaten-sicherheitsberichte/download-xls-uaw-daten-2020-12-27-bis-2023-12-31.html?nn=169638 Infos via Anwalt Tobias ULBRICH: https://www.alexander-wallasch.de/impfgeschichten/jetzt-muessen-handschellen-klicken-pei-stellt-klammheimlich-daten-der-verdachtsmeldungen-ins-internet https://x.com/AnwaltUlbrich/status/1865523132284407841?mx=2 https://x.com/AnwaltUlbrich/status/1878424844968075523?s=31&mx=2 ------------------------- 
 Website: https://punkt-preradovic.com Odysee: https://odysee.com/@Punkt.PRERADOVIC:f Telegram: https://t.me/punktpreradovic Linkedin: https://www.linkedin.com/in/milena-preradovic-4a2836147/?originalSubdomain=at Twitter: https://twitter.com/punktpreradovic Facebook: https://www.facebook.com/punktpreradovic/ Instagram: https://www.instagram.com/punktpreradovic/ theplattform: https://theplattform.net   #corona #impfung #pei #rki #lauterbach #scholz #politik #medizin  

Hielscher oder Haase - Deutschlandfunk Nova
Nutzer-Standorte - Daten aus zehntausenden Apps stehen zum Verkauf

Hielscher oder Haase - Deutschlandfunk Nova

Play Episode Listen Later Jan 15, 2025 5:37


Millionen Standortdaten aus Apps gehen direkt an Datenhändler. Das zeigt ein Datensatz, den der Bayerische Rundfunk zusammen mit netzpolitik.org ausgewertet hat. Experten sprechen von Kontrollverlust.**********Ihr könnt uns auch auf diesen Kanälen folgen: TikTok auf&ab , TikTok wie_geht und Instagram .

ETDPODCAST
„ePA für alle“ soll „Gemeinwohlzwecke“ analysieren, Einführung jedoch verzögert - 7057

ETDPODCAST

Play Episode Listen Later Jan 13, 2025 8:20


Die elektronische Patientenakte stand zuletzt wegen Sicherheitslücken in der Kritik. Gesundheitsminister Lauterbach spricht von einem „weltweit einzigartigen Datensatz“, der für „Gemeinwohlzwecke“ analysiert werden solle. Kritik und Unsicherheiten bestehen jedoch weiterhin.

NachDenkSeiten – Die kritische Website
Alles auf tot? „Was passiert wohl, wenn die Menschen den Eindruck bekommen, dass hier ein gigantischer Betrug ablief.“

NachDenkSeiten – Die kritische Website

Play Episode Listen Later Jan 7, 2025 23:30


Das Paul-Ehrlich-Institut „veröffentlicht“ insgeheim einen Datensatz zu den Nebenwirkungen der Corona-Vakzine. Die Liste umfasst nahezu eine Million Meldungen, darunter über 1.000 zu möglichen Todesfällen im Nachgang der Spritze. Ganz nebenbei liefert die Sammlung Nahrung für eine „Verschwörungstheorie“: Offenbar gab es ungefährlichere und hochgradig toxische Chargen, was die Impfung mutmaßlich zu einem Roulettespiel machte. Und obwohlWeiterlesen

apolut: Tagesdosis
Datenkraken sollen mit ePA-Daten trainieren dürfen | Von Norbert Häring

apolut: Tagesdosis

Play Episode Listen Later Dec 2, 2024 6:15


Datenkraken sollen ihre KI-Modelle mit ePA-Daten trainieren dürfen – bei abgespecktem DatenschutzAuf einer Konferenz des Digitalverbands Bitkom hat Gesundheitsminister Karl Lauterbach offengelegt, warum die Regierung sich so für Digital Health und die elektronische Patientenakte engagiert: Weil unsere Krankheitsdaten ungemein wertvoll sind und die großen US-Datenkraken wie Google, Meta und Open AI scharf darauf sind wie läufige Hündinnen auf den Rüden.Ein Kommentar von Norbert Häring.Laut einem Bericht von der Digital Health Conference des Bitkom auf heise online, sagte Lauterbach:„Wenn Sie sich jetzt […] einmal vor Augen führen, wie groß dieser Datenschatz ist. Wir haben pro Jahr eine Milliarde Arzt-Patient-Kontakte in den Praxen.“Ohne die Opt-Out-(Wiederspruchs-)Lösung bei der elektronischen Patientenakte (ePA) seien diese umfassenden Datenspenden nicht möglich. Tag für Tag wachse dieser Datenschatz beim Forschungsdatenzentrum Gesundheit (FDZ Gesundheit), der auch um weitere Daten aus mehr als 400 medizinischen Registern und Genomdaten ergänzt werden solle.Die Daten aus der ePA über all unsere Krankheiten und Behandlungen werden also beim FDZ Gesundheit um Daten über unsere Gene und Weiteres ergänzt und dann gemeinsam „der Forschung“ zur Verfügung gestellt. Wer „die Forschung“ ist, sagte Lauterbach auch. Es sind die größten Datenkraken, die sich gewohnheitsmäßig einen Dreck um europäische Datenschutzregeln scheren, weil sie die Protektion der US-Regierung genießen. Und dieser können die Bundesregierung und erst recht die EU-Kommission keinen nachdrücklich vorgetragenen Wunsch abschlagen. Gelegentliche Griffe in die Portokassen der Konzerne für Strafen wegen Verstößen gegen das Wettbewerbsrecht oder – seltener – das Datenschutzrecht, stehen dem nicht entgegen.Mit dem Datensatz sollen, Lauterbach zufolge, KI-Systeme trainiert werden, um eine eigene generative KI aufzubauen. Von Anfang an sei die Struktur bereits so aufgebaut, dass sie „KI-ready“ ist. Der Minister sei dabei von Israel beraten worden. Datenschutz und Datennutzung wurden dafür „austariert“, erfahren wir. Das bedeutet im Klartext: Vom Datenschutz wurden beträchtliche Abstriche gemacht, damit die Daten besser genutzt werden können, und zwar von:„Wir sind im Gespräch mit Meta, mit OpenAI, mit Google, alle sind daran interessiert, ihre Sprachmodelle für diesen Datensatz zu nutzen, beziehungsweise an diesem Datensatz zu arbeiten.“Denn es solle der „größte, repräsentativste und interessanteste“ Gesundheitsdatensatz weltweit werden, so Lauterbach. Damit die großen Datenkraken diesen zum Zwecke der „Forschung“ bekommen können, wurde nicht nur der Datenschutz abgespeckt, sondern es soll auch gelten, dass der Forschungszweck entscheidend ist und nicht, wer den Forschungsantrag stellt. Gerade im Hinblick auf den „austarierten“ Datenschutz ist das eine Unverschämtheit den Patienten gegenüber, die mit dem Versprechen getäuscht werden, ihre Daten würden nur zu Forschungszwecken verwendet und seien durch so etwas wie Anonymisierung gegen Missbrauch gesichert....hier weiterlesen: https://apolut.net/datenkraken-sollen-mit-epa-daten-trainieren-durfen-von-norbert-haring/ Hosted on Acast. See acast.com/privacy for more information.

Kulturplatz HD
Futter für die KI: Wenn Kultur zum Datensatz wird

Kulturplatz HD

Play Episode Listen Later Nov 20, 2024 27:08


Eine KI ist nur so gut, wie die Daten, mit der sie trainiert wird. Diese finden sich vermehrt auch in Archiven. Was bedeutet es, wenn die kulturelle Vergangenheit zum Datensatz wird? Eva Wannenmacher und Patrick «Karpi» Karpiczenko, Satiriker und Dozent für Künstliche Intelligenz, machen den Check. Künstliche Intelligenz ist in Kunst und Kultur angekommen. Generative KI-Modelle wie ChatGPT, Midjourney und Suno dienen Kulturschaffenden als Werkzeuge – ähnlich wie Bleistift, Pinsel und Papier. Doch was steckt hinter diesen mächtigen Tools? Die grossen Sprachmodelle sowie Bild- und Tongeneratoren funktionieren nur, weil sie auf immensen Datenmengen trainiert werden. Diese stammen nicht nur aus dem Internet, sondern zunehmend auch aus Archiven und Bibliotheken. Moderatorin Eva Wannenmacher begrüsst den Satiriker und Dozenten für Künstliche Intelligenz Patrick «Karpi» Karpiczenko. Gemeinsam gehen sie der Frage nach, was passiert, wenn die kulturelle Vergangenheit zum Datensatz wird. Anhand des SRF-Archivs zeigen «Kulturplatz», welche Rolle Archive in einer von KI geprägten Zukunft spielen. Auf Knopfdruck lassen sich alte Sendungen restaurieren und verändern. Publikumslieblinge wie die Moderatorin Dorothea Furrer, Mani Matter oder Giacobbo/Müller werden von der KI wieder auf den Bildschirm geholt. Die KI legt ihnen neue Texte in den Mund oder lässt sie sogar ganze Sendungen moderieren. Der Philosoph Marshall McLuhan schrieb einst: «Das Medium ist die Botschaft». Ist die Botschaft von künstlicher Intelligenz das Wiederkäuen von Vergangenem? Produzieren generative KI-Modelle mehr als nur gefällige Nostalgie? Oder war Kreativität noch nie etwas anderes als die Wiederholung und Variation von Bestehendem? Roland Meyer, Medienwissenschaftler und Professor an der Zürcher Hochschule der Künste, erklärt, weshalb Archive zu Tresoren der Wahrheit werden können – in einer Welt, in der die Vergangenheit beliebig neu kombiniert und generiert werden kann. Dieser satirisch angehauchte «Kulturplatz» ist Teil der SRF-Themenwoche «KI und wir». Die Themenwoche beleuchtet den Einsatz und das Potenzial künstlicher Intelligenz in der Schweiz.

Dental Lab Inside – der Zahntechnik-Podcast
#43 Josef Schweiger – „Digitalisierung um der Digitalisierung willen macht keinen Sinn“

Dental Lab Inside – der Zahntechnik-Podcast

Play Episode Listen Later Sep 18, 2024 56:53


Am Berg spielen ganz andere Dinge eine Rolle als im Alltag. Deshalb zieht es Josef „Sepp“ Schweiger immer wieder hinauf in die raue Berglandschaft des Chiemgaus, seiner Heimat. Doch der Zahntechniker und Leiter des zahntechnischen Labors der Poliklinik für zahnärztliche Prothetik am LMU Klinikum München ist nicht nur trittsicher am Berg. Er ist auch sattelfest in allen Disziplinen der Zahntechnik, sowohl im konventionellen wie im digitalen Bereich. Wieso er es als großes Glück empfindet, an der Uni zu arbeiten, inwiefern das Prinzip „vom Datensatz zum Zahnersatz“ sich immer stärker verbreitet und warum die von ihm patentierten Zahnstrukturdatenbanken längerfristig relevant für die Arbeit im zahntechnischen Labor sein werden, darüber spricht Sepp Schweiger im Podcast.

Hörbar Steuern - Der DATEV-Podcast
E-Rechnung: Wenn der Postmann nicht mehr klingelt

Hörbar Steuern - Der DATEV-Podcast

Play Episode Listen Later Jul 2, 2024 38:09 Transcription Available


Nein, eine Rechnung als PDF, eingescanntes Papier oder digitales Foto ist keine E-Rechnung. Und zwar ab 2025. Dann mag man gerne digitales Dokument dazu sagen, aber mehr auch nicht. Mit der E-Rechnung gilt XML, ein strukturierter Datensatz und Maschinenlesbarkeit. Was Unternehmen nun tun sollten, welche Ausnahmen und Übergangsfristen es gibt und was das eigentlich mit Viva la ViDA zu tun hat, darüber sprechen wir in der aktuellen Ausgabe des DATEV-Podcast.

KI-Update – ein Heise-Podcast
KI-Update kompakt: LAION-5B-Datensatz, Midjourney v6, KI-Erfinder, ISO 42001

KI-Update – ein Heise-Podcast

Play Episode Listen Later Dec 21, 2023 9:40


Datensatz zum Training von Bild-KI enthielt Missbrauchsbilder Midjourney veröffentlicht Version 6 KI gilt nicht als Erfinder und Neuer Standard für KI-Systeme heise.de/ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast

Wissenschaftsmagazin
Quantensprung für die Gen-Forschung

Wissenschaftsmagazin

Play Episode Listen Later Dec 2, 2023 27:04


Die UK Biobank veröffentlicht die gesamten genetischen Daten ihrer 500'000 Studienteilnehmer. Zudem: Mit Ariane 6 und private Raketen will Europa den Zugang zum All zurückgewinnen. Und: Langschnabeligel und Co. - ausgestorben geglaubte und neue Arten entdeckt. (00:49) Quantensprung für die Gen-Forschung: Die UK Biobank veröffentlicht die gesamten genetischen Daten ihrer 500'000 Studienteilnehmer. Es ist der weltweit grösste Datensatz menschlicher Genome, der damit für Forschende aus aller Welt verfügbar wird. Das ist ein grosses Versprechen vor allem für die personalisierte Medizin: Künftig könnte es einfacher werden, Therapien auf das genetische Profil einzelner Patientinnen und Patienten abzustimmen. In der Schweiz bestehen ebenfalls Pläne, eine Biobank mit 100000 Freiwilligen aufzubauen. (00:42) Ariane 6 soll doch noch starten und Europa wieder die Tür zum All öffnen: Nach der Ausmusterung der Ariane-5-Raketen und Verspätung der Ariane 6 hat Europa zurzeit viel zu wenige Transportkapazitäten ins All. Doch nach einem geglückten wichtigen Bodentest soll die Neuentwicklung nun definitiv Mitte nächsten Sommer abheben. Zusätzlich sollen nach dem Vorbild der USA auch in Europa künftig privat entwickelte Raketen starten. (13:47) Meldungen: Workoholics sind suchtkrank. Stadtbienen haben grössere Gehirne als Landbienen. Stierkäfer zum Insekt 2024 gekürt. (19:37) Biodiversität mal positiv: Er sieht aus wie eine Kreuzung aus dem Vogel Kiwi und einem Maulwurf: der Langschnabeligel. Diese ausgestorben geglaubte Tierart hat eine Forschungsexpedition im noch weitgehend intakten Regenwald von Neuguinea entdeckt. Auch eine ganze Reihe neuer Arten wurden entdeckt.

Forschung Aktuell - Deutschlandfunk
500.000 Genomsequenzen: UK-Biobank enthält weltweit größten Datensatz

Forschung Aktuell - Deutschlandfunk

Play Episode Listen Later Nov 30, 2023 5:09


Lange, Michaelwww.deutschlandfunk.de, Forschung aktuell

PB3C Talk
#87: Vom Datensatz zur grünen Immobilie – Jasper Radü im Gespräch mit Diana Louis und Marco Helbig

PB3C Talk

Play Episode Listen Later Nov 27, 2023 29:03


ESG funktioniert nicht ohne Daten. Weder lassen sich Nachhaltigkeitsstrategien konsequent umsetzen noch besteht die Grundlage für Zertifizierungen. Umgekehrt jedoch können konstant gepflegte und immer verfügbare Datensätze jetzt nicht nur für grünere Immobilien sorgen, sondern einen deutlichen wirtschaftlichen Vorteil bedeuten. Aber welche Daten werden überhaupt benötigt – was ist vom Gesetzgeber vorgeschrieben und wo sollten Bestandshalter und ihre Asset- sowie Property-Manager die Extra-Meile gehen, um ein Plus an Nachhaltigkeit herauszuholen? Diana Louis, ESG Specialist Real Estate bei der MEAG und Marco Helbig, Head of Sustainability Management bei der IC Immobilien Gruppe haben sich dieser Frage in der neuesten Ausgabe des PB3C Talks gewidmet.

FEMture - wie Frauen in (die) Zukunft führen | female leadership
Wie können wir Datenschätze sinnvoll heben? - Interview mit Prof. Dr. Eva Anderl | 54

FEMture - wie Frauen in (die) Zukunft führen | female leadership

Play Episode Listen Later Nov 8, 2023 22:26


"Daten verbrauchen sich nicht. Wenn ich Daten nutze, sind sie danach wertvoller als vorher." Wie können Unternehmen Daten sinnvoll und gewinnbringend einsetzen? Spielt der menschliche Faktor hier noch eine Rolle? Oder sollten wir die Datenerhebung und -analyse in Zukunft einer künstlichen Intelligenz überlassen? Hierüber spreche ich heute mit Prof. Dr. Eva Anderl von der Hochschule München, wo sie an der Schnittstelle von Digitalisierung, Marketing und Data Science forscht und lehrt. Sie erklärt uns, welchen Mehrwert Daten liefern können: Wir können Dinge messbar machen, für die wir zuvor nur ein Bauchgefühl hatten; wir können Zusammenhänge erkennen; wir können damit sogar Prognosen erstellen und Handlungsempfehlungen geben, und schlussendlich können wir diese auch automatisieren. Darin steckt gewaltiges Potenzial für Unternehmen und innovative Geschäftsmodelle! Eva Anderl geht für uns darauf ein, wie und durch welche Faktoren eine unternehmenseigene Datenstrategie erfolgreich werden kann. Du wirst erfahren, wie unterschiedlichste Use Cases eine erfolgreiche Datenstrategie stützen können und warum künstliche Intelligenz bei Weitem nicht ausreicht, um einen Datensatz nutzbar zu machen, insbesondere im Hinblick auf eingebaute Biases. Denn: Selbstverständlich müssen wir ethische Fragestellungen insbesondere beim Umgang mit Daten immer mitdenken. RESSOURCEN / LINKS: [Eva Anderl, Hochschule München](https://www.hm.edu/kontakte_de/contact_detail_37520.de.html) [Eva Anderl bei LinkedIn](https://de.linkedin.com/in/evaanderl) [Mein LinkedIn Profil für wöchentliche Posts zu Agilität & Innovation](https://www.linkedin.com/in/nadinzimmermann/) [Hier buchst Du deinen Termin zum Kompetenz-Check-up](https://calendly.com/newecoaching/check-up-machen-sie-sich-fit-fur-die-zukunft) DIR GEFÄLLT WAS DU HÖRST? Dann hinterlasse mir bitte eine 5-Sterne-Bewertung auf Apple Podcasts, eine Rezension und abonniere den Podcast. Vielen Dank für deine Unterstützung! Hier bei Apple Podcasts bewerten und abonnieren: https://podcasts.apple.com/de/podcast/femture-wie-frauen-in-die-zukunft-f%C3%BChren-female-leadership/id1571909871 Dieser Podcast wird produziert von der Podcast-Agentur Podcastliebe. Mehr dazu: https://podcastliebe.net

Die Dunkelkammer – Der Investigativ-Podcast
#37 Projekt "Narco Files": Europa, die neue Kokain-Küche der Kartelle

Die Dunkelkammer – Der Investigativ-Podcast

Play Episode Listen Later Nov 6, 2023 15:19


Das Transkript zu Episode 37: Das ist die 37. Ausgabe der Dunkelkammer und sie erscheint aus gegebenem Anlass außertourlich an einem Montag.Außertourlich deshalb, da die heutige Ausgabe Teil einer internationalen Recherche ist. Sie trägt den Titel Narco Files. Und wie der Name vermuten lässt, geht es um die Organisierte Kriminalität, es geht um Drogengeschäfte, es geht um Umweltverbrechen, es geht um Geldwäscherei, es geht um Korruption und einiges mehr.Der Ausgangspunkt ist Kolumbien und von da weg geht es faktisch rund um den Globus.Narco Files. Das ist der Titel eines Projekts, an dem dutzende Journalistinnen und Journalisten aus mehr als 40 Medienhäusern in 23 Ländern monatelang gearbeitet haben.Ich war einer davon, zusammen mit meinem geschätzten Kollegen Stefan Melichar von profil, wir waren quasi Team Österreich.Gleich vorneweg: Die Österreich-Bezüge in den Narco Files sind recht sehr schmal, darum wird es heute auch noch nicht gehen.Mit Stefan Melichar habe ich übrigens in bereits in Episode 2 über eine damalige internationale Recherche zu illegalen Holzgeschäften gesprochen, an der wir beide beteiligt waren.Auch Der Standard berichtet über dieses Projekt, in dem Fall kommt die Beteiligung über die deutsche Plattform Paper Trail Media von Bastian Obermayer und Frederik Obermaier, die mit dem Standard kooperieren.Auch Frederick und Bastian waren bereits meine Gäste und zwar in Ausgabe Nummer elf. Ja, in gewisser Weise haben diese internationalen Projekte auch immer etwas von einem Familienausflug ins Ungewisse, wenngleich wir natürlich alle wissen, was wir aneinander haben. Das Projekt Narco Files ist auch ein guter Anlass, um euch mal eine internationale Recherchekooperation aus der Nähe zu beschreiben.Eines der Feedbacks, das ich regelmäßig erhalte, ist ja, erzähl doch mal, wie so eine länderübergreifende Sache eigentlich abläuft.An sich gibt es zwei Wege, wie so etwas zustande kommt. Auf kleinerer Ebene schließen sich Journalistinnen und Journalisten mehrerer Medien zusammen, um gemeinsam an etwas zu arbeiten. Das kann regional passieren, national oder auch international. Auf einer größeren Ebene läuft es dann über institutionalisierte große Recherchenetzwerke, davon gibt es global einige, mit zweien arbeite ich seit iniger Zeit eng zusammen.Da ist einmal die US-amerikanische Investigativ-Plattform ICIJ, das ist einerseits ein spendenfinanziertes Medienhaus, zugleich aber auch Netzwerk, dem weltweit 290 Mitglieder angehören, in Österreich sind das drei Leute Stefan Melichar, Ulla Kramar-Schmid vom ORF, die jetzt demnächst auch bei mir vorbeischauen wird, und ich selbst. Ein zweites internationales Netzwerk ist das Organized Crime and Corruption Reporting Project, kurz OCCRP, das in Europa und Amerika tätig ist. Auch OCCRP ist eine spendenfinanzierte Non-Profit-Organisation, mit der in der Vergangenheit mehrfach zusammengearbeitet habe, das sind ganz wunderbare Leute dort. Einer der Gründer von OCCRP ist Paul Radu, ein Mann dessen Unerschrockenheit ich aufrichtig bewundere, er ist mir ein großes Vorbild. Die aktuelle Recherche Narco Files ist zugleich auch ein OCCRP-Projekt.Wie man von solchen Projekten erfährt? Nun, es läutet in aller Regel das Telefon, und man wird gefragt, ob man mittun möchte. Und in meinem Geschäft sagt eh nie jemand nein.Es gibt also kleinere und größere Netzwerke, manche entstehen spontan, andere sind institutionalisiert, was sie verbindet ist, dass Leute medienübergreifend gemeinsam an einer Sache arbeiten. Was ist nun die Sache? Auch das ist unterschiedlich. Man kann sich vornehmen, etwas aufzuarbeiten, ohne zunächst besonderes Insiderwissen zu haben. Schon aus öffentlich zugänglichen Datenquellen lassen sich immer wieder herausragende Recherchen machen. Manchmal kommst du aber ohne Insiderwissen, ohne Whistleblower nicht mehr weiter. Und da kommt die zweite Ebene ins Spiel: Das Datenleck.  Ihr erinnert euch möglicherweise an frühere Enthüllungen wiePanama Papers, Paradise Papers, Pandora Papers, FinCen Files Ukio Leaks oder Suisse Secrets. In all diesen Fällen waren Journalisten vertrauliche Datensätze zugespielt worden.   Diese Recherchen gab es also nur, weil es die jeweiligen Datensätze gab, ohne die wäre das gar nicht möglich gewesen. Und das führt mich zu den Narco Files. Auch hier handelt es sich um ein Datenleck, richtigerweise um einen Datenhack. 2022 hatte sich ein Hacker-Kollektiv namens Guacamaya Zugang zu den Email-Postfächern der kolumbianischen Staatsanwaltschaft Fiscalía General de la Nación verschafft.Die Datensätze gingen dann an OCCRP und mehrere lateinamerikanische Medienhäuser darunter die Investigativ-Plattform CLIP. Ja und bei OCCRP setzten sich dann Leute ans Telefon und holten sich Leute rund um den Globus an Bord, um die Datensätze gemeinsam auszuwerten. Da erhält man dann als Projektpartner Zugang zu einem gesicherten Datenraum, wo man die Dokumente einsehen kann. Die Kommunikation zu einem solchen Projekt läuft zum weitaus größten Teil über Chatgruppen, wobei jedes Projekt eine Hauptgruppe und dazu oft mehrere Untergruppen hat.Weil nicht selten mehrere Projekte in mehreren Netzwerken gleichzeitig laufen, kann das schon dazu führen, dass man zwischendurch mal die Übersicht verliert, wer wann wem was wo geschrieben hat.Wie gesagt, mehr als 40 Medienhäuser aus 23 Ländern machen bei den Narco Files mit, wobei die Dunkelkammer der einzige reine Podcast ist, soweit ich das überblickeWas irgendwie auch cool ist. Was sind nun die Narco Files? Es sind mehr als sieben Millionen gehackte Emails der kolumbianischen Staatsanwaltschaft aus den Jahren 2001 bis 2022.Mit den zahlreichen Anhängen ist der Datensatz insgesamt fünf Terabyte groß. Das ist also nicht gerade wenig.Jetzt gibt es natürlich zwei ganz zentrale Fragen, die da auftauchen.Erstens: Ist das Material authentisch, unverfälscht und vollständig?Gerade OCCRP hat für österreichische Verhältnisse ein geradezu unglaubliches Fact cheking-Selbstverständnis. Dort geht nichts raus, dass nicht x-mal umgedreht wurde. Fact checking bei OCCRP bedeutet nicht, die Aussagen von politischen Entscheidungsträgern auf ihren Wahrheitsgehalt hin zu überprüfen. Es bedeutet, dass jede Journalistin und jeder Journalist, der/die auf der Website von OCCRP publiziert, die eigene Geschichte einem Fact check unterziehen muss. Da muss nahezu jeder Bestrich gegenüber dem fact checking department belegt werden. Ich habe diese Erfahrung bereits gemacht. Für Geschichten, die bei profil mal eben so von der Chefredaktion durchgewunken wurden, bin ich mit OCCRP bis zu acht Stunden beim Fact check gesessen. Acht Stunden musste ich belegen, dass das was ich da geschrieben habe, auch den Tatsachen entspricht. Das ist eine unglaubliche gute Schule, die durch im österreichischen Journalismus nur sehr wenige Leute gehen, kann man leider täglich nachlesen. OCCRP hat die kolumbianischen Datensätze intensiv geprüft, wie auch alle anderen Partner, die ja damit gearbeitet haben und darauf aufbauend zum Beispiel Anfragen gestellt haben.Das Material ist also authentisch, es kann allerdings keinen Anspruch auf Vollständigkeit erheben. Vollständig sind solche Datensätze ohnehin nie, was bedeutet schon vollständig bei einer Sammlung von E-Mails.  Zweite Zentrale Frage: Dürfens das denn überhaupt? Ich mein, es sind ja immerhin E-Mails, die einer Behörde geklaut wurden. Darüber haben wir intensiv gesprochen, das passiert eigentlich bei jeder Recherche, die auf einem Leak oder Hack aufbaut, denn am Ende ist es ja einerlei, ob ein Mitarbeiter Daten seines Arbeitgebers leakt, oder ein Hacker von außen darauf zugreift. In beiden Fällen haben die Besitzer der Daten der Weitergabe an Dritte ja nicht zugestimmt.Nun, die alles entscheidende Frage für uns ist: Gibt es ein überwiegendes öffentliches Interesse an diesen Informationen? Ist es also wichtig, dass die Öffentlichkeit von bestimmten Dingen in der Welt rund um sie erfahren?Soweit es jetzt die Narco Files betrifft war die Antwort offensichtlich ja, sonst spräche ich hier nicht.Die ausgewerteten E-Mails zeichnen ein erschütterndes Bild einer Welt, die den Kampf gegen die Drogen offensichtlich verloren hat.Die Organisierte Kriminalität ist nicht nur globalisierter Wirtschaftszweig der unfassbare Gewinne erzielt, in vielen Teilen der Welt sind Drogenbarone zu einflussreichen politischen Kräften aufgestiegen.Die Strafverfolgung? Scheitert oft. Sie kämpft mit mangelnden Ressourcen und Möglichkeiten, sie scheitert an Landesgrenzen.   Wenn ein Verbrechen grenzüberschreitend passiert, ist sind Behörden auf Kooperation angewiesen.Und die läuft mal besser mal schlechter, oft aber nur langsam.Wenn das Verbrechen aber global passiert, dann wird die Verfolgung umso zäher.Und genau das zeigen diese Datensätze: Dass sich nämlich vermeintlich isoliert arbeitende Drogenhandelsgruppierungen zu transkontinentalen Netzwerken zusammengeschlossen haben, manche dieser Gruppierungen sind institutionalisiert, andere entstehen ad hoc aus einem gemeinsamen Interesse heraus und lösen sich anschließend wieder auf. Da tut sich durchaus eine Parallele zur den Arbeit von Journalisten-Netzwerken auf. Mit Namen werden sich die beteiligten Medien im Laufe der Berichterstattung übrigens eher zurückhalten, man will weder laufende Ermittlungen gefährden, noch sich selbst.Wie es bei solchen Projekten üblich ist, wird auch nie alles auf einmal und überall veröffentlicht, das passiert dann immer gestaffelt.Auf der Website von OCCRP und denen der Partnermedien erscheinen zum Start große Stories, die anhand staatsanwaltschaftlicher Akten Veränderungen im Kokain-Geschäft beschreiben.Die traditionellen Coca-Anbaugebiete in Kolumbien, Peru und Bolivien bekommen Konkurrenz aus dem Nordwesten, der Coca-Anbau wandert nach und nach Richtung Guatemala, Mexiko, Belize und Honduras.Diese Staaten galten bisher als Durchgangsländer, jetzt wird dort eben auch angebaut.Ja und soweit es die Herstellung des Endprodukts betrifft, diese Produktionen wandern nach und nach nach Europa. Nach Spanien, nach Belgien oder in die Niederlande. Wobei das Know How hier wiederum aus Südamerika kommt.Allein in den Niederlanden wurden seit 2018 dutzende Koks-Küchen von der Polizei ausgehoben,In den Narco Files ist unter anderem der Fall einer niederländischen Gruppierung dokumentiert, die mit Hilfe kolumbianischer Partner einen Reitstall um mehr als 1,5 Millionen Euro zu einem großen Koks-Labor umbaute.Nach Europa gelangt die Droge mittlerweile oftmals, in dem sie vorgibt, alles Mögliche zu sein. Holzkohle zum Beispiel. Oder eine Imprägnierung auf Textilien. Oder Zement. Oder als Reisekoffer, in dessen Hartschale das Koks eingearbeitet wird.Teils wird auch Kokain auch als Paste verschifft.Am Ende ist ja alles nur Chemie.Die Kokain-Basis wird auf ein unverdächtiges Trägermaterial aufgebracht und am Zielort wird dann extrahiert.Das kann nicht gesund sein, und das ist es übrigens auch nicht.Also zumindest nicht für die, die es herstellen oder die, die es konsumieren.Einer unserer Projektpartner, das spezialisierte spanische Medium Narco Diario konnte mit einem kolumbianischen Kokain-Koch sprechen, der in Spanien ein sechsköpfiges Team leitete. Warum sie das machen? „Es ist das, was wir gut können”, sagt er. Er sei in einer Region in Kolumbien aufgewachsen, in der Kinder die Arbeit mit Koka erlernten, bevor sie schreiben und lesen könnten.Den Job in Spanien und die Einreise als Tourist hatten ihm seine kolumbianischen Auftraggeber verschafft, gearbeitet hat er auf einem Bauernhof irgendwo am Land.Eine Schicht dauerte 15 Tage ohne Kontakt zur Außenwelt.Für die aufwändige und aufgrund der Dämpfe gefährliche Herstellung von einem 1 Kilo Koks-Pulver im Wert von mehr als 100.000 Euro bekam er übrigens 450 Euro.Für die, die Kokain  herstellen und verkaufen lassen, war und ist das a ein sehr sehr einträgliches Geschäft.Und sie haben natürlich Helfer aus der Mitte der Gesellschaft. Rechtsanwälte, Banker, Steuerberater, Logistik-Firmen, Behördenvertreter, ja sogar korrupte Journalisten.Das und noch mehr, wollen die beteiligten Medien in den kommenden Tagen und Wochen ausrollen, ich schau mir kommende Ausgabe unter anderem den wie gesagt schmalen Bezug zu Österreich an.Da geht's um allerdings nicht um Drogen, sondern um eine mittlerweile verblichene kleine österreichische Bank, deren Namen man nun auch in Kolumbien kennt.Mehr dazu in der Dunkelkammer Nummer 38.

stories man fall land partner er mit team europa bank welt journalists euro geschichte arbeit peru mehr dar kinder hack ihr wochen gesch geschichten hackers material gibt hilfe gesellschaft beispiel schon projekt emails kr erfahrung nun region vergangenheit namen weise files bild antwort tagen wege medien kontakt sache leute dort schule stunden dass titel weil wert kampf ausgabe amerika verh interesse honduras projekte leak dingen am ende bezug manchmal anlass whistleblowers daten mitte bord bankers regel laufe teilen recherche beh spanien polizei allein telefon vorbild ebene millionen anspruch netzwerk aussagen montag tourist ressourcen naci projekten konkurrenz clip belize gleich kooperation mitglieder drogen selbstverst journalisten netzwerken die neue journalistin bez verbrechen helfer journalismus mexiko netzwerke bastian berichterstattung know how belgien paste sammlung millionen euro chemie gewinne enth beteiligung niederlanden wobei besitzer dritte herstellung globus narco korruption recherchen pandora papers projekts organized crime niederlande ermittlungen produktionen tatsachen bauernhof dokumente verfolgung kokain vollst kolumbien rechtsanw droge soweit teils orf steuerberater koks staatsanwaltschaft geldw lateinamerika ungewisse scheitert journalistinnen auftraggeber entscheidungstr impr insiderwissen einreise gruppierungen weitergabe die kommunikation textilien bolivien parallele arbeitgebers landesgrenzen medienh koka paradise papers datens den job terabytes gruppierung chefredaktion datenleck wahrheitsgehalt nordwesten non profit organisation medienhaus datenquellen wirtschaftszweig kartelle zielort chatgruppen datensatz das material familienausflug dunkelkammer holzkohle ausgabe nummer projektpartner corruption reporting project das transkript reisekoffer der ausgangspunkt acht stunden untergruppen reitstall bastian obermayer frederik obermaier suisse secrets unerschrockenheit hauptgruppe
SWR2 Zeitgenossen
Mina Saidze: „Deutschland ist ein digitales Hinterland“

SWR2 Zeitgenossen

Play Episode Listen Later Oct 14, 2023 44:16


Geboren wurde die KI-Spezialistin, Big-Data-Analystin und Expertin für Algorithmen-Ethik Mina Saidze 1993 in Hamburg. Als Tochter afghanischer Einwanderer und politischer Aktivisten fühlte sie sich „oft wie ein Ausreißer im Datensatz, da ich nicht ins Bild des neuen Deutschlands passte“. Seit Jahren verfolgt die 30-Jährige das Ziel, mehr Diversität in die IT- und Tech-Branche zu bringen. Als Gründerin von Inclusive Tech setzt sie außerdem auf eine Demokratisierung von Wissen – nicht nur Nerds sollen etwas von Künstlicher Intelligenz verstehen: „Ich bilde eine Brücke zwischen Menschen und Tech.“

11KM: der tagesschau-Podcast
Belauscht. Was KI aus unseren Stimmen liest

11KM: der tagesschau-Podcast

Play Episode Listen Later Oct 12, 2023 26:20


Künstliche Intelligenz kann anhand unserer Stimme erkennen, wie es uns geht, wie leistungsfähig wir sind oder welcher sexuellen Orientierung wir folgen. Schon heute analysieren uns Unternehmen in Echtzeit, wenn wir mit ihnen telefonieren. Und meistens wissen wir es nicht einmal. In dieser 11KM-Folge ist Rebecca Ciesielski von BR AI und Automation Lab zu Gast bei Host Victoria Koopmann und erzählt, was sie gemeinsam mit ihren Kollegen Simon Wörz und Sammy Khamis zur Künstlichen Intelligenz herausgefunden hat. Die Doku zur Recherche findet ihr hier: https://www.ardaudiothek.de/episode/ard-radiofeature/abgehoert-doku-ueber-das-geschaeft-mit-ki-stimmanalyse/ard/94821776/ Wir haben uns bei 11KM in anderen Folgen bereits mit dem Thema KI beschäftigt: Deepfake: Bei Anruf Klon: https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/deepfake-bei-anruf-klon/tagesschau/94554634/ Plötzlich im Datensatz. Wenn die KI mit Dir trainiert: https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/ploetzlich-im-datensatz-wenn-die-ki-mit-dir-trainiert/tagesschau/94587872/ Und hier noch ein Hör-Tipp der "KI-Podcast" der ARD: https://www.ardaudiothek.de/sendung/der-ki-podcast/94632864/ An dieser Folge waren beteiligt: Folgenautor:in: Lukas Waschbüsch Mitarbeit: Katharina Hübel Produktion: Ursula Kirstein, Jonas Lasse Teichmann, Konrad Winkler und Christine Dreyer Redaktionsleitung: Fumiko Lipp und Lena Gürtler 11KM: der tagesschau-Podcast wird produziert von BR24 und NDR Info. Die redaktionelle Verantwortung für diese Episode trägt der BR.

KI-Update – ein Heise-Podcast
KI-Update kompakt: Deutschland investiert in KI, Mega-Datensatz für Sprachmodell-Training, Umsatzexplosion bei Nvidia

KI-Update – ein Heise-Podcast

Play Episode Listen Later Aug 24, 2023 7:14


Unsere Themen: Deutschland will bis 2025 mehr als 1,6 Milliarden Euro in KI investieren AI2 veröffentlicht offenen Mega-Datensatz zum Training von Sprachmodellen Ideogram AI ist eine starke Midjourney-Konkurrenz, die Text kann Umsatzexplosion: Nvidia ist der Schaufelverkäufer unter den KI-Goldgräbern heise.de/ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heise.de/podcasts

KI-Update – ein Heise-Podcast
KI-Update kompakt: KI für Rezensionen bei Amazon, KI-Funktionen für Google Suche, Nvidia GPUs als Sicherheiten

KI-Update – ein Heise-Podcast

Play Episode Listen Later Aug 16, 2023 8:20


Unsere Themen: KI-Finanzierung kreativ: CoreWeave sichert sich Milliarden mit Nvidia GPUs als Sicherheiten BIOSCAN-1M ist ein Datensatz mit einer Million Insektenbildern Amazon führt KI-Zusammenfassungen für Kundenbewertungen ein Metas Audiocraft ausprobiert Google bringt neue Funktionen für die KI-Suche heise.de/ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heise.de/podcasts

KI-Update – ein Heise-Podcast
KI-Update kompakt: New York Times vs. KI, LLM-Politik, Open-Source-Datensatz für die Bioinformatik

KI-Update – ein Heise-Podcast

Play Episode Listen Later Aug 15, 2023 9:01


Unsere Themen: New York Times schützt ihre Inhalte vor KI-Unternehmen ChatGPT von OpenAI und LLaMA von Meta haben unterschiedliche politische Ausrichtungen OpenProteinSet bringt gigantischen Open-Source-Datensatz für die Bioinformatik Google untersucht das Grokking-Phänomen im KI-Training

AI News auf Deutsch
#2328 Contet farms / Konux / VisText / Fabricated article

AI News auf Deutsch

Play Episode Listen Later Jul 10, 2023 4:21


Farmen mit minderwertigen KI-generierten Inhalten profitieren von programmatischer Werbung, die von großen Marken unterstützt wird.https://futurism.com/content-farms-ai Das in München ansässige KI-Scale-Up Konux nutzt maschinelles Lernen und IoT, um den Schienenverkehr zu transformieren.https://techcrunch.com/2023/07/04/konux-db-expansion/ MIT-Forscher haben einen Datensatz namens VisText entwickelt, um automatische Diagrammbeschriftungssysteme zu verbessern.https://news.mit.edu/2023/researchers-chart-captions-ai-vistext-0630 Sprachmodelle mit künstlicher Intelligenz (KI) wie ChatGPT können betrügerische wissenschaftliche Artikel generieren, die authentisch erscheinen.https://medicalxpress.com/news/2023-07-chatgpt-generates-convincing-fake-scientific.html Visit www.integratedaisolutions.com

11KM: der tagesschau-Podcast
Plötzlich im Datensatz. Wenn die KI mit Dir trainiert

11KM: der tagesschau-Podcast

Play Episode Listen Later Jul 7, 2023 30:44


Was, wenn plötzlich ein privates Foto von Dir in einem Datensatz auftaucht, der benutzt wird, um Künstliche Intelligenz zu trainieren? Ein riesiger Datensatz, in dem nicht nur Deine Fotos, sondern auch alle möglichen anderen Bilder aus dem Internet versammelt sind. Auch pornographisches oder rassistisches Material. Spoiler: Das passiert bereits. Was Firmen, die KI trainieren, dürfen und was nicht, klären wir in dieser Folge 11KM mit Elisa Harlan von BR Data/AI Lab. Und wir erklären, wie man selbst herausfinden kann, ob das eigene Bild in so einem Datensatz aufzufinden ist. Hier der Link zur Recherche von Elisa Harlan und Katharina Brunner von BR Data/AI Lab: https://interaktiv.br.de/ki-trainingsdaten/ Und wenn ihr euch dafür interessiert, wie diskriminierend KI sein kann, dann findet ihr hier die 11KM Folge zu diesem Thema hier: “Zu sexy - wie Online-Algorithmen Frauen benachteiligen“: https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/zu-sexy-wie-online-algorithmen-frauen-benachteiligen/tagesschau/12361731/ Unser Podcast-Tipp: Banksy ist ein echtes Phantom. Es gibt viele Rätsel um seine Person und niemand weiß, wer er ist. Die ganze Geschichte gibt es ab heute im Podcast „Banksy – Rebellion oder Kitsch?“ exklusiv in der ARD Audiothek: https://www.ardaudiothek.de/sendung/banksy-rebellion-oder-kitsch/94558198/ An dieser 11KM-Folge waren beteiligt: Folgenautor: Hans Christoph Böhringer Mitarbeit: Marc Hoffmann und Katharina Hübel Produktion: Christiane Gerheuser-Kamp, Fabian Zweck und Hanna Brünjes Redaktionsleitung: Fumiko Lipp und Lena Gürtler 11KM: der tagesschau-Podcast wird produziert von BR24 und NDR Info. Die redaktionelle Verantwortung für diese Folge trägt der NDR.

Wissen gegen Krebs
Nationales Krebsregister – Wie die Daten der Forschung helfen

Wissen gegen Krebs

Play Episode Listen Later May 31, 2023 11:49


«Das nationale Krebsregister ist ein riesiger Datensatz – wie eine grosse Excel-Tabelle», erklärt Katharina Staehelin, Leiterin der Nationalen Krebsregistrierungsstelle. Rund 1,2 Millionen Tumorfälle sind bereits registriert. Ziel ist es, jede Krebsdiagnose in der Schweiz im Register zu erfassen. Denn je mehr Fälle gemeldet werden, desto grösser ist die Aussagekraft der gesammelten Daten und desto nützlicher sind sie für Forscherinnen und Forschern. So auch für Prof. Daniel Zwahlen. Der Leiter der Klinik für Radio-Onkologie am Kantonsspital Winterthur hat anhand der Daten untersucht, welchen Einfluss der Wohnort auf das Therapie-Angebot für Brustkrebspatientinnen hat. Im neuen Podcast erklären er und Katharina Staehelin, wie das Krebsregister funktioniert, wer die Daten analysieren kann und wofür diese benötigt werden.

Handelsblatt Today
Tesla-Files: So lief die Recherche ab

Handelsblatt Today

Play Episode Listen Later May 25, 2023 34:43


Insider haben dem Handelsblatt rund 100 Gigabyte an Daten zugespielt, die direkt aus dem Innersten des größten Elektroautobauers der Welt stammen sollen. Die Tesla-Files umfassen insgesamt mehr als 23.000 Dateien. Darunter finden sich unter anderem Excel-Listen, die offenbar Gehaltsangaben und Privatanschriften von mehr als 100.000 aktuellen und ehemaligen Mitarbeitenden enthalten. Tesla spricht von Datendiebstahl. Über Monate haben Investigativjournalisten des Handelsblatts die Daten ausgewertet und von externen Gutachtern prüfen lassen. Dabei sind sie auch auf Datenbanken gestoßen, die Tausende mutmaßlicher Beschwerden von Tesla-Fahrerinnen und -Fahrern enthalten. „Das ist der brisanteste Datensatz, mit dem ich je zu tun hatte“, sagt Sönke Iwersen, Co-Leiter des Investigativressorts. In einer Sonderfolge sprechen Iwersen und Investigativreporter Michael Verfürden über die Recherche zu den Tesla-Files. Sie erklären, wie die erste Kontaktaufnahme mit dem Informanten ablief, welche Geschichten das Reporterteam in dem Datenmaterial entdeckte und wie Tesla auf die Fragen des Handelsblatts zu den Tesla-Files reagierte. Das sind die Handelsblatt-Recherchen zu den Tesla-Files: https://www.handelsblatt.com/teslafiles *** Exklusives Angebot für Handelsblatt Today-Hörer: Testen Sie Handelsblatt Premium 4 Wochen für 1 € und bleiben Sie immer informiert, was die Finanzmärkte bewegt. Mehr Informationen: www.handelsblatt.com/mehrfinanzen Wenn Sie Anmerkungen, Fragen, Kritik oder Lob zu dieser Folge haben, schreiben Sie uns gern per E-Mail: today@handelsblattgroup.com Ab sofort sind wir bei WhatsApp, Signal und Telegram über folgende Nummer erreichbar: 01523 – 80 99 427 Helfen Sie uns, unsere Podcasts weiter zu verbessern. Ihre Meinung ist uns wichtig: www.handelsblatt.com/zufriedenheit

KI und Mensch
Windows 11 erhält GPT-4 Copiloten, Meta veröffentlicht Text & Voice-AI für über 1100 Sprachen, eine Open-Source-LLMs schlägt ChatGPT - News und Updates von "KI und Mensch" | Folge 9, Teil 2

KI und Mensch

Play Episode Listen Later May 25, 2023 46:55


Im zweiten Teil sprechen wir, Leya und René, über die aktuellen News aus der Welt der KI. Unter anderem mit Neuigkeiten von Microsoft für Windows 11, neue Sprach- und Übersetzungsmodelle von Meta und wie das CBS-Nachrichtenmagazin 60 Minutes eindrucksvoll demonstriert wie mit Voice Cloning Betrüger Daten stehlen können.Themen:Die virtuelle Konferenz Microsoft Build 2023 bot Entwicklern vom 23. bis 25. Mai 2023 eine Fülle an Highlights. Dazu gehörten die Einführung von Windows Copilot als zentrale KI-Hilfe für Windows 11, die Entwicklern dabei hilft, komplexe Projekte umzusetzen und zu kollaborieren. Zudem wurden Bing Chat Plugins auf Windows erweitert, um Entwicklern die Integration ihrer Apps in Windows Copilot zu ermöglichen. Eine plattformübergreifende Lösung namens Hybrid Loop wurde eingeführt, die KI-Entwicklung von Azure bis zum Client unterstützt. Außerdem gab es die Einführung von Dev Home, einer Plattform, die Entwicklern dabei hilft, unter Windows produktiver zu sein. Zuletzt wurden im Microsoft Store unter Windows neue KI-Funktionen und -Erfahrungen eingeführt, die Entwicklern mehr Interaktionsmöglichkeiten mit ihren Kunden bieten.Meta MMS ist ein KI-Sprachmodell, das über 4.000 gesprochene Sprachen erkennen und Text in über 1.100 Sprachen in Sprache umwandeln kann. Das Modell nutzt den selbstüberwachten Lernansatz wav2vec 2.0 und verfügt über einen umfangreichen Datensatz mit beschrifteten und unbeschrifteten Daten für zahlreiche Sprachen. Meta hat das Modell als Open Source veröffentlicht, um zur Erhaltung der Sprachenvielfalt beizutragen und andere Forscher zur Weiterentwicklung zu ermutigen. Es kann für verschiedene Anwendungen wie Sprach-zu-Text, Text-zu-Sprache, Sprachidentifikation und Sprachübersetzung genutzt werden.Link-Liste für die NewsMicrosoft Build mit Win 11 Copilot, Dev Home etcMicrosoft Build event in 5 minuteshttps://build.microsoft.com/en-US/homeMehr News & Videos: Microsoft Build 2023Windows 11 Copilot: https://blogs.windows.com/windowsdeveloper/2023/05/23/bringing-the-power-of-ai-to-windows-11-unlocking-a-new-era-of-productivity-for-customers-and-developers-with-windows-copilot-and-dev-home/Announcing Windows CopilotMicrosoft Fabric: https://www.microsoft.com/en-us/videoplayer/embed/RW13vu9GPT-4-Plugins für Windows:Empowering every developer with plugins for Microsoft 365 CopilotMeta MMShttps://ai.facebook.com/blog/multilingual-model-speech-recognitionPaper: https://scontent-lga3-2.xx.fbcdn.net/v/t39.8562-6/348836647_265923086001014_6878005808275791319_n.pdf60 Minuteshttps://twitter.com/60Minutes/status/1660428419438354435Nvidia:https://www.handelsblatt.com/technik/it-internet/ki-boom-nvidia-aktie-steigt-um-mehr-als-23-prozent/29168344.htmlBLIP Diffusion (Salesforce AI)https://dxli94.github.io/BLIP-Diffusion-website/MJ Updates:https://twitter.com/saana_ai/status/1661466939464507395Guanaco LLMGuanaco - Generative Universal Assistant for Natural-language Adaptive Context-aware Omnilingual outputs (guanaco-model.github.io)https://www.youtube.com/watch?v=SyuQKRt5310https://huggingface.co/spaces/uwnlp/guanaco-playground-tgihttps://twitter.com/Tim_Dettmers/status/1661379354507476994Weitere News (aber nicht in der Sendung besprochen):Governments race to regulate AI toolsGenerative Künstliche Intelligenz: Regulierung steht am ScheidewegTechTalk: KI vor dem US-KongressKünstliche Intelligenz auf dem Arbeitsmarkt: «Die Frage ist nicht, ob es Massenarbeitslosigkeit gibt, sondern wannFolgt uns auf:Twitter: https://twitter.com/KIundMenschTwitch: https://www.twitch.tv/kiundmenschYoutube: https://www.youtube.com/@kiundmensch

Techtiefen
42 AI Chatbots & Open-Assistant

Techtiefen

Play Episode Listen Later Apr 26, 2023 152:07


In der 42. Folge dieses Podcasts geht es um die Technologie, die derzeit als die Antwort auf alles und nichts gesehen wird. Andreas Köpf von Open Assistant wird interviewt und es wird diskutiert, wie ChatGPT die Technologie-Revolution angestoßen hat und welche Auswirkungen sie auf die Zukunft hat. Es werden die Grundlagen von ChatGPT wiederholt und ein ausführlicher Blick auf das Refinforcement Learning from Human Feedback (RLHF) geworfen, das den Large Language Models hilft, den Absichten der Nutzer zu folgen. Open-Assistant wird als eine Open-Source-Alternative zu ChatGPT vorgestellt, die von einer engagierten Community aufgebaut wurde und deren Datensatz veröffentlicht wurde. Es wird auch diskutiert, welche Hardware und Modelle für das Training verwendet wurden. Ethik ist ein wichtiges Thema, da bei der Erstellung der Trainingsdaten darauf geachtet werden muss, welche Antworten auf potenziell gefährliche Fragen die richtigen sind. Schließlich wird ein Blick auf die gesellschaftliche Dimension geworfen und über die bevorstehenden Transformationen und nächsten Entwicklungsschritte diskutiert.

O-TON - Der Podcast von OTTO
#158: 30.000 Dollar für ein bisschen Coden?

O-TON - Der Podcast von OTTO

Play Episode Listen Later Mar 15, 2023 12:12


30.000 Dollar Preisgeld hat OTTO kürzlich auf der Online-Plattform “Kaggle” ausgelobt – um sich von Tech-Profis aus aller Welt ein besseres Empfehlungsmodell bauen zu lassen. So sollen Produktempfehlungen auf otto.de künftig noch besser und präziser werden. Und Entwicklungsteams bei OTTO entlasten. Drei Monate dauerte diese erste „Kaggle Competition“ von OTTO, über 2.600 internationale Teams reichten knapp 37.000 Lösungen ein. Doch was bringt eine solche Unterstützung von außen wirklich? Wie läuft eine Kaggle-Challenge ab? Wer macht mit – und: Warum eigentlich? Werden bald auch andere neue Tech-Features über solche Wettbewerbe entwickelt? Und was haben am Ende die Kund*innen davon? Über die erste Kaggle-Challenge von OTTO, dessen Ergebnisse und zur Frage, ob wir zukünftig mehr Tech-Herausforderungen über Kaggle lösen wollen, darüber sprechen Sophie Baumeister und Philipp Normann im aktuellen O-TON: Shownotes: Kaggle – Was ist das? (ab 1:22) Preisgelder für das Gewinnerteam (ab 2:08) Was braucht es für eine Kaggle-Challenge? (ab 2:26) Warum OTTO bei dem Wettbewerb mitmacht (ab 3:34) Die Kaggle-Community in Zahlen (ab 4:46) Wie bewertet ihr das Ergebnis? (ab 5:24) Wie sieht's aus mit Datenschutz? (ab 6:06) Externe Hilfe - wozu? (ab 7:15) Datensatz und Gewinnermodell mit der Öffentlichkeit teilen (ab 8:55) Wann startet OTTOs nächste Kaggle-Challenge? (ab 9:57) Sophie & Philipp: Auch mal privat kagglen? (ab 10:48) Moderation: Ingo Bertram Produktion: Ornella Westerkamp, Melisa Özcan Mehr Infos: https://www.otto.de/newsroom/de/o-ton Fragen, Anmerkungen, Kritik oder Lob? Schreibt uns auf LinkedIn oder per E-Mail an ingo.bertram@otto.de.

ETDPODCAST
Nr. 4257 Einige Autoimmunerkrankungen könnten COVID-Spätfolge sein

ETDPODCAST

Play Episode Listen Later Feb 15, 2023 7:28


Forscher in Dresden haben einen riesigen Datensatz von Krankenversicherten zu Corona-Infektionen ausgewertet. Ihre Analyse zeigt einen Zusammenhang, über den bisher wenig bekannt war. Ein Molekularbiologe schließt aber auch die Impfung als Ursache nicht aus. Web: https://www.epochtimes.de Probeabo der Epoch Times Wochenzeitung: https://bit.ly/EpochProbeabo Twitter: https://twitter.com/EpochTimesDE YouTube: https://www.youtube.com/channel/UC81ACRSbWNgmnVSK6M1p_Ug Telegram: https://t.me/epochtimesde Gettr: https://gettr.com/user/epochtimesde Facebook: https://www.facebook.com/EpochTimesWelt/ Unseren Podcast finden Sie unter anderem auch hier: iTunes: https://podcasts.apple.com/at/podcast/etdpodcast/id1496589910 Spotify: https://open.spotify.com/show/277zmVduHgYooQyFIxPH97 Unterstützen Sie unabhängigen Journalismus: Per Paypal: http://bit.ly/SpendenEpochTimesDeutsch Per Banküberweisung (Epoch Times Europe GmbH, IBAN: DE 2110 0700 2405 2550 5400, BIC/SWIFT: DEUTDEDBBER, Verwendungszweck: Spenden) Vielen Dank! (c) 2023 Epoch Times

Der Data Analytics Podcast
Primärschlüssel und Fremdschlüssel in Datenbanken

Der Data Analytics Podcast

Play Episode Listen Later Feb 6, 2023 4:54


Ein Primärschlüssel ist ein eindeutiger Wert, der verwendet wird, um einen Datensatz in einer Tabelle zu identifizieren. Ein Fremdschlüssel hingegen ist ein Primärschlüssel einer anderen Tabelle, der in einer anderen Tabelle verwendet wird, um eine Beziehung zwischen den Tabellen herzustellen.

Der Data Analytics Podcast
Datensatz, Datei, Datenbank - Unterschied und Aufbau - Datenmodellierung

Der Data Analytics Podcast

Play Episode Listen Later Nov 28, 2022 8:55


Was bedeuten die Begriffe: Datensatz, Datei, Datenbank - Unterschied und Aufbau - Datenmodellierung

aufbau datenbank datei datensatz unterschied und datenmodellierung
Digital Growth
#157 - Philipp von Climatiq - Wie man mit einer öffentlichen API Nutzer gewinnt

Digital Growth

Play Episode Listen Later Sep 20, 2022 47:55


Tue, 20 Sep 2022 23:00:00 +0000 https://digital-growth.podigee.io/162-wie-man-mit-einer-offentlichen-api-nutzer-gewinnt 6e60a87f8b971815b18bae591f715f69 Heute bei uns zu gast ist der Philipp von Bieberstein, Co-Founder von climatiq. Climatiq bietet einen offenen Datensatz verbunden mit einer API, welches ermöglicht, Emissionsdaten zu sammeln, Emissionsberechnungen zu automatisieren und letztendlich datengestützte Nachhaltigkeitsentscheidungen zu treffen. Zuerst erklärt Philipp, wie Climatiq sich mit Hilfe von Produkthunt und andere Marketing-Tricks entwickelt hat. Darauf zeigt uns Philipp, wie man eine API baut, wie man sie skaliert und wie man sie im Endeffekt verkauft. (Climatiq hat eine öffentliche Datenbank!) Zuletzt diskutieren Valentin und Philipp, wie man am besten Features innerhalb einer API einbauen kann, ohne zu viel Resourcen zu verwenden. Für mehr Informationen, höre dir gerne die Podcast Folge an! Alle Links zu Philipp und Climatiq findest du hier: Julius : https://www.linkedin.com/in/bieberstein/ Enugget : https://www.climatiq.io/ Alle Links zu uns findest Du hier: Pascal: https://www.linkedin.com/in/pascal-lehnert/ Fouad: https://www.linkedin.com/in/fouadsoultana/ Valentin: https://www.linkedin.com/in/valentin-eiber-018383173/ Buch Dir jetzt Dein kostenloses Erstgespräch: https://www.digitalumsetzen.de/ Falls Du Gründer im Plattform, Software oder App Bereich bist und auch Lust hast LIVE mit uns aus der Praxis zu berichten und Gast in unserem Podcast sein möchtest, dann melde Dich gerne unter den angegebenen Links bei uns! Wir freuen uns auf Deine Nachricht! Falls Dir diese Folge gefallen hat, würden wir uns über eine 5-Sterne-Bewertung freuen! Abonniere diesen Podcast und hinterlasse uns gerne Feedback auch auf iTunes. Dadurch hilfst Du uns diesen Podcast stets zu verbessern und Dir die Inhalte zu liefern, die Dir einen großen Mehrwert liefern! full no Digital Growth,Plattform,Software,App,Growth Marketing,Growth Hacking,Aktive Usergenerierung,Wachstum,Digitales Marketing

AI News auf Deutsch
#2232 Optimus / Flamingo / Minecraft / CodeWhisperer / McDonald's

AI News auf Deutsch

Play Episode Listen Later Aug 8, 2022 4:40


Es scheint, dass Teslas Plan, einen funktionierenden Prototyp seines humanoiden Roboters vorzustellen, gut vorankommt. https://www.teslarati.com/tesla-humanoid-robot-prototype-unveiling-ai-day-2-date/ DeepMind hat vor kurzem Flamingo trainiert, eine 80B-Parameter Vision-Language-Model (VLM)-KI. https://www.infoq.com/news/2022/06/deepmind-flamingo-vlm/ Mit einer Mischung aus unbeschrifteten Minecraft-Videos und einem kleinen Datensatz von Videos, die von Auftragnehmern beschriftet wurden, konnte das Unternehmen für künstliche Intelligenz OpenAI ein neuronales Netzwerk trainieren, um Minecraft kompetent zu spielen – ein Meilenstein für die Technologie, die zuvor Schwierigkeiten hatte, das einfache, aber lockere Spiel zu knacken Spielweise . https://gizmodo.com/openai-taught-an-ai-to-play-minecraft-1849106533 Amazon hat am Donnerstag CodeWhisperer vorgestellt, ein neues Tool für Entwickler, das Codeempfehlungen deneriert. https://www.zdnet.com/article/amazon-debuts-codewhisperer-its-ml-powered-coding-companion/ Laut einer Mitteilung von BTIG-Analyst Peter Saleh hat McDonald's sein Drive-Through-Sprachassistenten-Pilotprogramm auf 24 Geschäfte ausgeweitet. https://voicebot.ai/2022/06/23/mcdonalds-expands-drive-thru-voice-assistant-pilot-after-ibms-mcd-tech-acquisition/ Visit www.integratedaisolutions.com

KI in der Industrie
KI und Ausbildung - Masterarbeit am Rollen-Prüfstand

KI in der Industrie

Play Episode Listen Later Aug 3, 2022 21:14


Stephan Letzner, Masterstudent Produktentwicklung und Working Student Global Agile Management bei TRUMPF, erzählt über die Forschungsarbeit seines Masterstudiums in der Produktentwicklung an der Hochschule Pforzheim. Das Team setzt einen Datensatz über Messdaten aus einem Rollen-Prüfstand ein und führt anhand CRISP-DM eine Mustererkennung durch Clustering mittels unsupervised learning in Python durch. Wir danken unserem neuen Podcast Partner timecho mit ihrem Zeitreihendatenbank-Projekt https://iotdb.apache.org/ https://timecho.com/ Noch mehr KI in der Industrie? https://kipodcast.de/podcast-archiv Oder unser Buch KI in der Industrie: https://www.hanser-fachbuch.de/buch/KI+in+der+Industrie/9783446463455 Shownotes: https://careerfoundry.com/en/blog/data-analytics/where-to-find-free-datasets/ Zu unserem Gesprächspartner: https://www.linkedin.com/in/stephan-johannes-letzner-7b95571bb/

Open Source in der Industrie
Viele Bilder von BMW

Open Source in der Industrie

Play Episode Listen Later Jul 12, 2022 48:17


Zusammen mit Microsoft, Nvidia und dem BMW-Unternehmen idealworks veröffentlichte der Autobauer SORDI (Synthetic Object Recognition Dataset for Industries), ein synthetisierter AI-Datensatz. Er besteht aus mehr als 800.000 fotorealistischen Bildern und Produktionsressourcen in 80 Klassen (wie z. B. Palette, Gitterbox, Gabelstapler). Außerdem umfasst der Datensatz Objekte von besonderer Relevanz in den Kerntechnologien des Automobilbaus und der Logistik. Im Podcast KI in der Industrie erklärt Jimmy Nassif von Idealworks: „Die integrierten Label ermöglichen als digitale Etiketten grundlegende Aufgaben der Bildverarbeitung wie Klassifizierung, Objektdetektion oder Segmentierung für relevante Bereiche der Produktion im Allgemeinen.“ Andere Unternehmen können Datensatz einsetzen, um ihre Modelle für die Produktion zu trainieren und Künstliche Intelligenz einzusetzen. Wir suchen einen neuen Podcast Partner - deshalb bitten wir um Hilfe: Wer wen kennt, gerne eine kurze Info an uns. Wer mehr über uns wissen will, der sollte unsere LinkedIn-Profile aufrufen. Wir nehmen auch gerne Themenwünsche und Ideen entgegen. Zu Julians Hauptberuf geht es hier https://pragmaticindustries.com/ Kontakt zu Dr. Julian Feinauer https://www.linkedin.com/in/julian-feinauer/ Kontakt zu Robert Weber https://www.linkedin.com/in/robert-weber-8920a448/

Diagnose: Zukunft - Der Experten Podcast
#93 Wie können wir von Daten aus Forschung und Medizin profitieren?

Diagnose: Zukunft - Der Experten Podcast

Play Episode Listen Later Apr 24, 2022 29:41


Liebe Zuhörende, herzlich willkommen zur 2. Staffel der „Diagnose: Zukunft“, präsentiert von eHealth-Tec. Der Podcast thematisiert die Digitalisierung des Gesundheitswesens und beleuchtet die Entwicklung in diesem Bereich aus unterschiedlichen Blickwinkeln. Zusammen mit hochkarätigen Gästen sprechen die Gastgeber Doc Esser und Tobias Leipold über Herausforderungen und mögliche Zukunftsprozesse in diesem spannenden Themenfeld. Prof. Dr. Sylvia Thun ist Direktorin der Core Unit eHealth und Interoperabilität am Berlin Institute of Health in der Charité (BIH) und geht in dieser Episode dar auf ein, wie wichtig es ist, Daten aus der medizinischen Versorgung und Forschung besser miteinander zu vernetzen. Durch zahlreiche Behandlungen, Verläufe und Diagnosen verfügen wir über einen riesigen Datensatz – dieser muss genutzt werden. Doch wie schaffen wir eine einheitliche Lösung? Können die FAIR-Prinzipien ein Ansatz sein? Und wie steht es um die Interoperabilität in Krankenhäusern? Kann das Krankenhauszukunftsgesetz die Digitalisierung unseres Gesundheitssystems fördern? Diese und weitere spannende Themen erwarten Sie in Diagnose:Zukunft, präsentiert von eHealth-Tec. Viel Spaß beim Anhören!

CorrelTalk - The CorrelAid Podcast
Open Data von Sensor.Community - Durch Teilhabe Umweltdaten zugänglich machen?

CorrelTalk - The CorrelAid Podcast

Play Episode Listen Later Mar 23, 2022 23:57


In dieser Folge stellen wir das Open Data Netzwerk Sensor.Community vor, das Daten unter anderem zur Feinstaubbelastung zur freien Verfügung stellt. Der mittlerweile 16 Milliarden Datenpunkte umfassende Datensatz wird von über 14.000 von Bürger*innen installierten Sensoren in mehr als 70 Ländern generiert. Lukas ist ehrenamtlich verantwortlich für das Partnership Development und die Internationale Community. Jasmin spricht mit ihm darüber, wie Feinstaubmessung funktioniert, wie aus einer kleinen Gruppe Freiwilliger in Stuttgart eine internationale Community wurde und welche Rolle die Unterstützung durch Institutionen für das Netzwerk spielt. Hier geht's direkt zur Live Karte: https://maps.sensor.community/#2/0.0/0.0 Und hier zu Sensor.Community Website: https://sensor.community/de/ Lust selbst zu messen? Hier die Anleitung zum Sensor: https://sensor.community/de/sensors/

KI heute
KI und Ethik – Was darf Künstliche Intelligenz?

KI heute

Play Episode Play 29 sec Highlight Listen Later Nov 23, 2021 49:27


Ethik rückt immer weiter in den Mittelpunkt beim Trainieren von KI-Systemen. Laut Wikipedia ist Ethik jener Teilbereich der Philosophie, der sich mit den Voraussetzungen und der Bewertung menschlichen Handelns befasst. Damit eine Künstliche Intelligenz ihre Aufgabe erfüllen kann, muss sie vorher mit einem Datensatz trainiert worden sein, der groß genug ist und verschiedene Möglichkeiten aufzeigt. Im Zentrum der Ethik steht das moralische Handeln, insbesondere hinsichtlich seiner Begründbarkeit und Reflexion. Wie kann eine KI demnach ethisch handeln, ohne eine Moral zu besitzen?Heute zu Gast: Arpine Ayvazyan, Beraterin im KI-UmfeldLink zum Fundstück der WocheOPITZ CONSULTING ■■■ Digitale Service Manufaktur

Shift: Leben in der digitalen Welt
Warum ist KI nicht neutral?

Shift: Leben in der digitalen Welt

Play Episode Listen Later Nov 19, 2021 1:26


Im Alltag übernimmt künstliche Intelligenz bereits viele Entscheidungen: In der Medizin, im Job oder im Internet. Doch KI ist nicht immer neutral. Deswegen gilt: Je repräsentativer der Datensatz, desto besser die KI.

Bonn-Aufwacher - der Nachrichtenpodcast von GA und RP
Wie digitalisierte Kirchenbücher des Bistums Aachen bei der Ahnenforschung helfen

Bonn-Aufwacher - der Nachrichtenpodcast von GA und RP

Play Episode Listen Later Nov 13, 2021 10:26


Das Bistum Aachen hat 400 Kirchenbücher digitalisiert. Es ist ein riesiger Datensatz, der jetzt für alle Menschen zugänglich ist. Was bringen die Bücher Ahnenforschern und der Wissenschaft? Und was bedeutet die digitale Veröffentlichung?

Düsseldorfer Aufwacher — das Morgen-Briefing
Wie digitalisierte Kirchenbücher des Bistums Aachen bei der Ahnenforschung helfen

Düsseldorfer Aufwacher — das Morgen-Briefing

Play Episode Listen Later Nov 13, 2021 10:26


Das Bistum Aachen hat 400 Kirchenbücher digitalisiert. Es ist ein riesiger Datensatz, der jetzt für alle Menschen zugänglich ist. Was bringen die Bücher Ahnenforschern und der Wissenschaft? Und was bedeutet die digitale Veröffentlichung?

Rheinische Post Aufwacher
Wie digitalisierte Kirchenbücher des Bistums Aachen bei der Ahnenforschung helfen

Rheinische Post Aufwacher

Play Episode Listen Later Nov 13, 2021 10:26


Das Bistum Aachen hat 400 Kirchenbücher digitalisiert. Es ist ein riesiger Datensatz, der jetzt für alle Menschen zugänglich ist. Was bringen die Bücher Ahnenforschern und der Wissenschaft? Und was bedeutet die digitale Veröffentlichung?

Der Ökodorf-Podcast aus Sieben Linden
Folge 14: Christoph lebt auf kleinem Fuße. Studie zum Ökodorf-C02-Fußabdruck.

Der Ökodorf-Podcast aus Sieben Linden

Play Episode Listen Later Nov 6, 2021 30:55


Christoph Strünke ist Umweltwissenschaftler und hat als Ökodorf-Bewohner einen CO2-Fußabdruck, der nur ein Viertel des Bundesdurchschnitts beträgt. Und das ist wissenschaftlich erwiesen – denn die Uni Turin hat vor einigen Jahren aus einem großen Datensatz den Fußabdruck der Sieben Lindner*innen berechnet. Die wissenschaftliche Erhebung gibt ein fundiertes Feedback zu unserem Lebensstil und zeigt auch Verbesserungspotentiale auf. Christoph ist es ein Herzensanliegen klimafreundlich zu leben, sodass alle Menschen eine Lebensgrundlage haben – und gleichzeitig der Klimawandel eingedämmt werden kann. Auch er muss verstärkt CO2 einsparen, um dieses Ziel zu erreichen. Für uns alle hat er einige Hinweise dafür, was wirklich zählt für einen kleineren Fußabdruck. Ermittle selbst Deinen CO2-Fußabdruck: https://www.wwf.de/themen-projekte/klima-energie/wwf-klimarechner Hier geht es zur Fußabdruck-Studie Ökodorf Sieben Linden: https://siebenlinden.org/de/oekolgischer-fussabdruck/ Website: www.siebenlinden.org Autorin: Simone Britsch E-Mail: podcast@siebenlinden.org Interviewpartner: Christoph Strünke Veröffentlicht unter der Creative Commons (CC BY 4.0), Copyright Freundeskreis Ökodorf e.V., 06.11.2021

News Plus
Wie Verbrecherjagd mit Insta-Bildern funktioniert

News Plus

Play Episode Listen Later Sep 6, 2021 19:50


Wir reden heute über die Firma Clearview. Die ist spezialisiert auf Gesichtserkennung und behauptet, sie sei im Besitz von über drei Milliarden Bildern. Wichtig ist das unter anderem, weil Polizeiangestellten in der Schweiz vorgeworfen wird, die Software benutzt zu haben.  Warum kann dieser Datensatz bei der Verbrecherjagd von Nutzen sein? Und wo liegen die Gefahren? Und wie kommt Clearview an all die Daten?Das fragen wir unseren Digitalredaktor Jürg Tschirren. Ausserdem: Jede und jeder kann rausfinden, ob Clearview auch sein oder ihr Bild abgespeichert hat. Wir machen den Selbstversuch.  Ihr könnt die Themen von «News Plus» beeinflussen. Worüber möchtet ihr mehr wissen? Welche Fragen habt ihr zu den News? Schreibt uns doch eine Mail an newsplus@srf.ch oder macht uns eine Sprachnachricht an 076 320 10 37.

Technikquatsch
Folge 64: Clubhouse-„Leak“, Twitchbots erschnüffeln IP-Adresse, AMD 6600 XT, Mining-Bremse gelöst, Natrium-Ionen Akkus für PKW, Witcher Monster Slayer

Technikquatsch

Play Episode Listen Later Aug 2, 2021


Technikquatsch-Discord: https://discord.gg/hWTMEbUwVk Endlich wieder zu dritt ist die Folge gepackt mit Themen: Bei Clubhouse (ja, gibt es noch) ist ein Datensatz von 38 Milliarden Telefonnummern im Darknet aufgetaucht; das beinhaltet auch Leute, die in Kontaktlisten von Nutzern waren, selbst aber nicht Clubhouse nutzten. Twitchbots erschnüffeln die IPv6-Adressen von Nutzern und spammen sie wild herum. AMD bringt mit der Radeon RX 6600 XT endlich Grafikkarten für den Mainstream-Bereich... oder zumindest wäre das früher die Mainstream-Klasse gewesen, wenn es mit einer UVP von 379 USD nicht viel zu teuer dafür wäre. Nicht schöner sind die News auf Nvidia-Seite: Die Mining-Bremse der RTX 3060 konnte inzwischen umgangen werden.Eine chinesische Firma könnte mit ihrem Natrium-Ionen-Akku Bewegung in den Markt für Elektrofahrzeuge bringen.Nachdem Intel lange verspottet wurde wegen 14nm++++++++++(++++++) und den Problemen bei ihrem 10nm-Node, benennen sie einfach alle weiteren Fertigungsprozesse um: Aus Intels 10nm Enhanced SuperFin wird Intel 7. Aber das ist erst der Anfang...TSMC hingegen könnten viellecht doch eine hochmoderne Fab in Deutschland bauen. Beim Tragen von Exoskeletten sind schwere Mathe-Aufgaben eher hinderlich.Zuletzt geben Meep und Mike ihren kurzen Eindruck von The Witcher - Monster Slayer. Viel Spaß! Sprecher: Meep, Mohammed Ali Dad, Michael Kister 00:06:35 Clubhouse: Kontaktlisten von Clubhouse-Nutzern im Darknet; 38 Milliarden Telefonnummern geleakt.https://twitter.com/mruef/status/1418693478574346242?s=2000:11:15 Bots auf Twitter erschnüffeln IPv6-Adresse von Nutzern und spammen sie in Chatshttps://twitter.com/LinoYeen/status/1420462663377641472?s=2000:21:24 AMD stellt Radeon RX 6600 XT zu einer UVP von 379 USD vorhttps://www.computerbase.de/2021-07/radeon-rx-6600-xt-vorgestellt-mehr-leistung-als-rx-5700-xt-und-rtx-3060-fuer-379-usd/00:26:08 Mining-Bremse der Nvidia RTX 3060 ausgehebelt (mal wieder)https://www.golem.de/news/miniz-erster-miner-knackt-nvidias-ethereum-drossel-2107-158553.html00:34:41 Chinesisches Unternehmen CATL stellt Natrium-Ionen-Akkus für Elektro-PKW vorhttps://www.golem.de/news/akkutechnik-catl-stellt-erste-natrium-ionen-akkus-fuer-autos-vor-2107-158529.html00:52:44 Intel benennt kommende Fertigungsprozesse um: Intel 7, Intel 4, Intel 3 und 20 Ångström...https://www.computerbase.de/2021-07/nanometer-rennen-intel-fuehrt-neue-node-namen-wie-intel-7-und-intel-4-ein/01:03:33 TSMC kommt vielleicht doch nach Deutschlandhttps://www.tomshardware.com/news/tsmc-mulls-to-build-fab-in-germany01:14:57 Zuviel Denkarbeit beeinträchtigt Exoskeletthttps://www.heise.de/news/Exoskelett-Zu-viel-geistige-Taetigkeit-bremst-Wirkung-aus-6149053.html01:18: 41 The Witcher - Monster Slayer Sprecher: Meep, Mohammed Ali Dad, Michael Kister Discord https://discord.gg/SneNarVCBMTwitter https://twitter.com/technikquatschTwitch https://www.twitch.tv/technikquatsch Ali-Express Affiliate-Link: https://s.click.aliexpress.com/e/_AfnIn5

Technikquatsch
Folge 64: Clubhouse-„Leak“, Twitchbots erschnüffeln IP-Adresse, AMD 6600 XT, Mining-Bremse gelöst, Natrium-Ionen Akkus für PKW, Witcher Monster Slayer

Technikquatsch

Play Episode Listen Later Aug 2, 2021 89:05


Technikquatsch-Discord: https://discord.gg/hWTMEbUwVk Endlich wieder zu dritt ist die Folge gepackt mit Themen: Bei Clubhouse (ja, gibt es noch) ist ein Datensatz von 38 Milliarden Telefonnummern im Darknet aufgetaucht; das beinhaltet auch Leute, die in Kontaktlisten von Nutzern waren, selbst aber nicht Clubhouse nutzten. Twitchbots erschnüffeln die IPv6-Adressen von Nutzern und spammen sie wild herum. AMD […] The post Folge 64: Clubhouse-„Leak“, Twitchbots erschnüffeln IP-Adresse, AMD 6600 XT, Mining-Bremse gelöst, Natrium-Ionen Akkus für PKW, Witcher Monster Slayer appeared first on Technikquatsch.

Der herMoney Talk: Geld- und Karrierepodcast für Frauen
#061 Gender Pay Gap: Warum Frauen 18% weniger verdienen als Männer

Der herMoney Talk: Geld- und Karrierepodcast für Frauen

Play Episode Listen Later Apr 28, 2021 44:18


Weißt du, wie viel Gehalt ein Mann in deiner Position im Schnitt bekommt? Wenn dir das klar wäre, wärst du vielleicht schockiert. Tatsache ist: Deutschlandweit liegt der Gender Pay Gap bei 18 %. Das liegt zum Beispiel daran, dass Frauen häufiger in Teilzeit arbeiten oder schlechter bezahlte Berufe wählen. Aber selbst wenn all diese Faktoren herausgerechnet werden, bleiben je nach Datensatz 2 bis 8 % übrig. Also immer noch viel zu viel! Da stellt sich natürlich die Frage: Wie lässt sich das ändern? Henrike von Platen setzt sich schon lange für den Equal Pay ein, für die gleiche Bezahlung von Männern und Frauen. Sie erklärt, was der Equal Pay Day ist und was das 2017 eingeführte Entgelttransparenzgesetz gebracht hat. Wie können Frauen davon profitieren? Was können Unternehmen für mehr Gleichberechtigung tun? Ein weiteres Interview mit Henrike von Platen findest du hier.

Der Künstlermarketing Podcast
#9 Bau Dir als Künstler Deinen eigenen Datenschatz auf

Der Künstlermarketing Podcast

Play Episode Listen Later Mar 27, 2021 8:04


Nach der letzten Folge über die Vorteile eines eigenen Ticketshops gehe ich heute nochmal tiefer rein in das Thema "Eigene Kundendaten" für Künstler. Es gibt zahlreiche Möglichkeiten, Deine E-Mail Liste ständig größer werden zu lassen. Ich zeige Dir in dieser Folge ein paar Möglichkeiten auf, die wir selber erfolgreich mit Künstlern umgesetzt haben. Wir benutzen übrigens für die E-Mail Listen unserer Künstler überwiegend den professionellen Anbieter Klick-Tipp. In die Shownotes packe ich Dir einen Link zu einem kostenlosen Webinar, wo Du Dir das Tool mal in aller Ruhe und völlig unverbindlich anschauen kannst.

Der Künstlermarketing Podcast
#8 Vorteile eines eigenen Ticketshops für Künstler

Der Künstlermarketing Podcast

Play Episode Listen Later Mar 23, 2021 10:24


In der heutigen Folge möchte ich Dir die zahlreichen Vorteile aufzeigen, die Du mit der Implementierung eines eigenen Ticketshops hast. Außerdem erzähle ich Dir von zwei Ticketshops, die wir für Künstler integriert haben und mit denen wir sechs- bzw. siebenstellige Umsätze gemeinsam mit den Künstlern realisiert haben. Das bedeutet im zweiten Fall sogar über 13.000 Bestellungen und Datensätze für den Künstler, die er in Zukunft weiter bespielen kann. Hör zu und mach's nach, es ist wirklich nicht so schwer!

WDR 5 Quarks - Hintergrund
Der digitale Flieger hat nie Verspätung - theoretisch

WDR 5 Quarks - Hintergrund

Play Episode Listen Later Mar 5, 2021 8:03


Die Flugbranche ist in der Krise. Das Luftverkehrsmanagement muss modernisiert werden. Dabei könnte KI eine große Rolle spielen. Michael Marek und Anja Steinbruch über den den digitalen Zwilling des Flugzeugs.

COSMO TECH
COSMO Tech - Wer stürmt denn da?

COSMO TECH

Play Episode Listen Later Feb 16, 2021 65:05


Wer ist beim Sturm auf das Capitol in Washington am 6. Januar dabei gewesen? Das fragen sich nicht nur Ermittlungsbehörden wie das FBI - und durchforsten das Netz nach Belegen. Der New York Times wurde ein Datensatz mit über 100.000 Ortsdaten von Tausenden Smartphones von diesem Tag zugespielt. Aus den vermeintlich anonymen Daten lassen sich mit wenigen Handgriffen ganz konkrete Personen ermitteln. Das Ende der Privatsphäre? Jörg Schieb und Dennis Horn besprechen in dieser Ausgabe die Dimension des Daten-Leak. Shownotes: http://www.wdr.de/k/cosmotech

Medbuzz - Der medizinische Wissens-Podcast
Folge 21 | Spermiogramm – von Kaulquappen, Big Data und Intimität unterm Mikroskop. 

Medbuzz - Der medizinische Wissens-Podcast

Play Episode Listen Later Jan 18, 2021 19:14


Bei einem einzigen (!) Samenerguss werden bis zu 300 Millionen Spermien übertragen. Wie viel Daten ein einziges Spermium trägt, warum die Redundanz in dem übertragenen Datensatz nicht nur für Glasfaserkabel-Besitzer bedeutsam ist, wie Sperma riecht und was die Kastanienallee in Berlin damit zu tun hat und was Intimität unterm Mikroskop wirklich bedeutet - all das in unserem neuen Podcast. Am Mikrofon wie immer: Kreimer vs. Maxeiner.

Zukunft nachholen
#160 - Ein Datensatz, mehrere Lösungen |Im Interview mit Julian Herzog von Osterus

Zukunft nachholen

Play Episode Listen Later Jan 14, 2021 30:22


Bildungsniveau, Sprachkenntnisse, Berufserfahrung aber auch Hobbies und Mail-Adresse: Osterus analysiert und hinterfragt mögliche Zusammenhänge und findet so den nächsten A-Mitarbeiter für dein Unternehmen.  Osterus verschreibt sich der Aufgabe, internationale Lebensläufe ein Stück weit greifbarer und nachvollziehbarer zu machen. Je globaler die Firma agiert, desto mehr Bewerbungen auf den Tischen der Personaler stammen aus dem Ausland.  Mehr von Julian & Osterus: julian@osterus.com https://osterus.com/ https://www.linkedin.com/in/julian-herzog-06249867/ Folge uns in den sozialen Netzwerken, um noch mehr Einblicke unserer Arbeit zu bekommen: Christoph Kühnapfel: Homepage: https://www.christophkuehnapfel.de/ Facebook: https://www.facebook.com/christophkuehnapfel/ Instagram: https://www.instagram.com/christophkuehnapfel/ LinkedIn: http://bit.ly/LnkdnCK Alexander Lapp: Homepage: https://hylax.de/Facebook: https://www.facebook.com/hylax.de Instagram: https://www.instagram.com/hylax.de/ Helmut Rother: Homepage: https://team-it-group.de/Facebook: https://www.facebook.com/TeamITGroup/ LinkedIn: https://bit.ly/LnkdnTG  

KenFM: Tagesdosis
Gehört Bitcoin die Zukunft? | Von Ernst Wolff

KenFM: Tagesdosis

Play Episode Listen Later Dec 7, 2020 4:39


Ein Kommentar von Ernst Wolff Viele Menschen suchen zurzeit nach einer Möglichkeit, ihr Vermögen oder ihre Ersparnisse gegen die kommenden Stürme im Finanzsystem abzusichern. Dabei gewinnen neben der Flucht in Sachwerte oder Edelmetalle auch die Kryptowährungen, insbesondere Bitcoin, zunehmend an Bedeutung. Deshalb hier eine Handvoll Hinweise, um das Für und Wider eines Einstiegs in Bitcoin und Co. besser abwägen zu können. 1. Bei Bitcoin handelt es sich um die erste Währung, die als Fiatwährung in die Welt gesetzt wurde. Das heißt: Im Gegensatz zu allen früheren Währungen, die historisch einmal an Edelmetalle gebunden waren, ist Bitcoin nie an einen festen physischen Wert gekoppelt gewesen. Der 2009 geschaffene Bitcoin ist also im Grunde nichts als ein Datensatz, der einzig und allein vom Vertrauen lebt, das die Menschen ihn setzen...weiterlesen hier: https://kenfm.de/gehoert-bitcoin-die-zukunft-von-ernst-wolff/ JETZT KENFM UNTERSTÜTZEN: HTTPS://WWW.PATREON.COM/KENFMDE HTTPS://DE.TIPEEE.COM/KENFM HTTPS://FLATTR.COM/@KENFM DIR GEFÄLLT UNSER PROGRAMM? INFORMATIONEN ZU WEITEREN UNTERSTÜTZUNGSMÖGLICHKEITEN HIER: HTTPS://KENFM.DE/SUPPORT/KENFM-UNTERSTUETZEN/_ DU KANNST UNS AUCH MIT BITCOINS UNTERSTÜTZEN. BITCOIN-ADRESSE: 18FPENH1DH83GXXGPRNQSOW5TL1Z1PZGZK ABONNIERE JETZT DEN KENFM-NEWSLETTER: HTTPS://KENFM.DE/NEWSLETTER/_ KENFM JETZT AUCH ALS KOSTENLOSE APP FÜR ANDROID- UND IOS-GERÄTE VERFÜGBAR! ÜBER UNSERE HOMEPAGE KOMMT IHR ZU DEN STORES VON APPLE UND GOOGLE. HIER DER LINK: HTTPS://KENFM.DE/KENFM-APP/_ WEBSITE UND SOCIAL MEDIA: HTTPS://WWW.KENFM.DE HTTPS://WWW.TWITTER.COM/TEAMKENFM HTTPS://WWW.INSTAGRAM.COM/KENFM.DE/ HTTPS://SOUNDCLOUD.COM/KEN-FM See acast.com/privacy for privacy and opt-out information.

Hielscher oder Haase - Deutschlandfunk Nova
TikTok - Video-App wird ein bisschen amerikanisch

Hielscher oder Haase - Deutschlandfunk Nova

Play Episode Listen Later Sep 21, 2020 4:32


Eigentlich sollte Tiktok aus den US-Appstores fliegen und nicht mehr unterstützt werden. Ein Deal scheint die erfolgreiche Videoplattform aus China aber nun zu retten. Das dürfte allerdings keinen einzigen Datensatz sicherer machen.

Unternehmerwissen in 15 Minuten - Mit Rayk Hahne
335: Neue Dimension von Geschäftskunden mit Michael Larche

Unternehmerwissen in 15 Minuten - Mit Rayk Hahne

Play Episode Listen Later Feb 25, 2020 15:49


Willkommen zu Unternehmerwissen in 15 Minuten. Das ist Folge 335 mit dem Head of Sales von Echobot Michael Larche. Mein Name ist Rayk Hahne, Profisportler und Unternehmensberater. Jede Woche bekommst Du eine sofort anwendbare Trainingseinheit, damit Du als Unternehmer noch besser wirst. Danke, dass Du Die Zeit mit mir verbringst. Lass uns mit dem Training beginnen.  Wenn Dir die Folge gefällt teile Sie mit Deinen Freunden unter dem Link raykhahne.de/335. In der heutigen Folge geht es um eine Dimension von Geschäftskunden. Welche 3 wichtigen Punkte kannst Du Dir aus dem heutigen Training mitnehmen? Wie Du unendlich viele B2B Kunden gewinnst. Weshalb der Erfolg in der Recherche liegt. Warum eine Suchmaschine die Branche revolutioniert. Du kennst sicher jemanden für den diese Folge unglaublich wertvoll ist. Teile sie und hilf auch anderen Unternehmern ihre Herausforderungen zu überwinden. Der Link ist raykhahne.de/335. Bevor wir gleich mit der Folge starten, habe ich noch eine Empfehlung für Dich. Der Partner diese Folge ist Echobot. Du hast zu wenig B2B Kunden, dann jetzt gerade hinsetzen und zuhören. Echobot hat aus allen zugänglichen Datenquellen es möglich gemacht auf Knopfdruck potentielle Kunden zu filtern. Als hätten das Handelsregister, die Schufa und Internetquellen ein Kind gezeugt. Eine Tiefe an Informationen die Du noch nie gesehen hast. Mitarbeiteranzahl, Position, Kassenbestand, Pressemeldungen, Branchendetails, Schlagworte und vieles mehr. Die Recherche nach neuen Kunden wird damit um über 60% reduziert, Streuverluste massiv verringert. Und jetzt kommt das Beste, es sieht auch noch cool aus und ist einfach zu bedienen. Glaubst Du nicht? Ok, wir beweisen es Dir. Echobot stellt extra für Dich als Podcasthörer eine Machbarkeitsstudie im Wert von 999€ zur Verfügung, die genau auf Dein Thema eingeht. Gehe auf www.echobot.de/rayk trage Dich dort ein und nutze diese Chance. www.echobot.de/rayk E-C-H-O-B-O-T.de/rayk Du wirst es lieben. Rayk: Willkommen Michael Larche. Bist Du ready für die heutige Trainingseinheit? Gast: Born ready Rayk: Lass uns gleich starten! - Was sind die drei wichtigsten Dinge die unsere Zuhörer über Dich wissen sollten? Gast: - 1. Ich bin 30 Jahre alt und Vertriebsleiter bei Echobot mit derzeit 14 Teammitgliedern - 2. Ich habe nebenberuflich den Master in Salesmanagement gemacht - 3. Ich stehe jeden Morgen um halb fünf auf um in eine Morgenroutine rein zu kommen Rayk: Was ist Deine spezielle Expertise? Was gibst Du den Menschen weiter? Gast: Echobot ist eine B2B Suchmaschine. So wie Google für Privatpersonen spezialisiert sich Echobot auf öffentlich verfügbare Daten aus Socialmedia, Websiten, Nachrichtenseiten oder im Handelsregister bekommt.  Wir ermöglichen Unternehmen ihre Marketingprozesse zu optimieren und 60 bis 70% der Recherchezeit einzusparen.  Rayk: Was war beruflich Deine Weltmeisterschaft? Was war Deine größte Herausforderung und wie hast Du diese überwunden? Gast: Da ist mir tatsächlich der Master eingefallen. Hier habe ich mir etwa 60 bis 80 Seiten bis zum Ende aufgespart und in 7 Tagen runter geschrieben. Das Endergebnis war in 4 Tagen zusammen 9 Stunden Schlaf und konnte meine körperlichen Grenzen erkennen. Daraus habe ich gelernt, dass ich Dinge nicht aufspare sondern kurzfristig und zeitnah erledige.  Rayk: Was kann ich mir unter dem Google für Unternehmen vorstellen? Für wen ist es geeignet? Gast: Es ist für jedes Unternehmen geeignet, das Vertrieb im B2B Bereich macht. Derzeit fokussiert auf den deutschsprachigen Raum und erweitern derzeit auf UK. Durch diese Spezialisierung können wir sehr tiefgreifende Filter bieten. Die also über den Standard hinaus gehen. Wie Unternehmen die bestimmte Wörter auf der Website haben. Auch spezielle Keywords wie Schweißtechniken im Maschinenbau, Auslandsexpansion oder Lagerneubau. Diese Informationen werden mit dem Datensatz des Unternehmens verknüpft. So kann der Unternehmer eine Email vom System bekommen die ihm diese Informationen sofort mitteilt damit er vor dem Wettbewerb beim Kunden sein kann.  Rayk: Hast du Beispiele dafür, womit man anfangen kann? Gast: Da wäre ein Übersetzungsbüro das Unterlagen in eine andere Sprache übersetzt. Dein Vertrieb recherchiert und ruft dann bei Unternehmen an. Nun bekommst du eine Info wenn ein Unternehmen schreibt, dass sie ein neues Büro in Portugal eröffnen. Diese bekommt dein Vertrieb sofort mitgeteilt und kann das Unternehmen sofort kontaktieren. Das Zweite ist eine Agentur die Investoren mit StartUps verknüpft. Hier ist es so, dass der Investor sagt: suche mir Machinenbau-StartUps und mache mir Termine mit der Geschäftsleitung. Diese müssen in Baden Württemberg sitzen und neu Technologien nutzen wie Laserschweißen. Hier bekommt die Agentur dann von uns die passenden Informationen und aktualisierte Informationen um dann den Termin auszumachen.  Rayk: Für welche Unternehmen oder Branchen ist da nicht so geeignet? Gast: An sich funktioniert das bei jeder Branche. Weniger funktioniert es wenn eine Branche sehr eingeschränkt ist. Ein Medizintechnik Unternehmen zum Beispiel hat eine Zielgruppe mit 200 Unternehmen und 20 Key Account Manager die ihre Kunden betreuen und auswendig kennen. Der kann mit externen Informationen eher wenig anfangen. Ideal ist es, wenn die Zielgruppe groß genug ist und du schwer den Überblick behalten kannst. Es müssen Unternehmensdaten sein die wir suchen. Also keine Personen wie Ärzte und Anwälte oder so. Es muss auch eine Firma sein die digital aktiv ist. Handwerker oder Zahnärzte haben eine Visitenkarte im Web, da passiert aber nicht viel. Wir haben viele im System, diese aber nicht aktiviert. Wir haben 2 Millionen Unternehmen aktiviert bei denen auch etwas passiert. Alle anderen sind da, es passiert aber wenig und du findest die Informationen aus dem Handelsregister.  Rayk: Kannst Du der Unternehmerwissen-Community kurz die 3 Schritte darstellen, mit denen Du das umsetzen würdest? Gast: Am Anfang empfehle ich erstmal mit uns zu sprechen um zu schauen ob das passt für dich Wir gehen gemeinsam ins System damit du es kennen lernen kannst und das System zu testen Einfach mal loslegen  Rayk: Grandios. Lass uns das Interview mit Deinem Spezial-Tipp für die Unternehmerwissen-Community beenden, dem besten Weg mit Dir in Kontakt zu treten und dann verabschieden wir uns. Gast: Mit mir persönlich gerne über LinkedIn oder Xing.  Ansonsten auf der Seite echobot.de/rayk anmelden damit ihr Sonderkonditionen bekommt aufgrund der Zusammenarbeit mit Rayk. Rayk: Vielen Dank das Du Deine Erfahrungen und Dein Wissen mit uns geteilt hast. Gast: Vielen Dank  die Shownotes zu dieser Folge findest Du unter raykhahne.de/335 alle Links habe ich Dir dort aufbereitet und Du kannst die Inhalte der Folge noch einmal nachlesen Wenn Du als Unternehmer endlich weniger Arbeiten möchtest, dann gehe auf unternehmerfreiheit.online , einen ausgewählten Kreis werde ich bald zeigen, wie es möglich ist, mit mehreren Unternehmen gleichzeitig weniger als 30 Stunden die Woche zu arbeiten. unternehmerfreiheit.online 3 Sachen zum Ende Abonniere den Podcast unter raykhahne.de/podcast Wenn Du noch mehr erfahren möchtest besuche mich auf Facebook und Instagram Bitte bewerte meinen Podcast bei iTunes Danke, dass Du die Zeit mit mir verbracht hast. Das Training ist vorbei, jetzt liegt es an Dir. Viel Spaß mit der Umsetzung.

Future Day - Im Dialog mit Zukunft
Philipp Hofstätter – Zukunft braucht Lebensstile

Future Day - Im Dialog mit Zukunft

Play Episode Listen Later Aug 16, 2019 30:57


Obwohl immer mehr Daten existieren, fällt es immer schwerer, Kunden und Mitarbeiter zu verstehen. Warum? Im besten Fall stehen Daten zum Nutzungsverhalten zur Verfügung, aber kaum Informationen zu Bedürfnissen in unterschiedlichen Lebensphasen. Die Lebensstile basieren auf über 30.000 Einzelbefragungen aus dem b4p-Datensatz der GIK und stellen eben jene Bedürfnisse ins Rampenlicht. Zur Methode gibt es auch immer wieder aktuelle Trainingstermine: https://futureday.network/lebensstile Die daraus entwickelten 18 Lebensstile sind als offene Konstrukte zu interpretieren, die das Begreifen von Zusammenhängen erleichtern und gleichzeitig die Komplexität der Gesellschaft anerkennen. Im Themendossier Lebensstile des Zukunftsinstituts finden sich einige Anregungen dazu in diversen Kontexten. ÜBER DEN GAST Als Business-Philosoph beschäftigt sich Philipp Hofstätter mit tiefgreifenden Analysen der Geschäftswelt. Er hat dabei den Anspruch, die wichtigsten Trends für andere begreif- und nutzbar zu machen, indem er Klarheit und Orientierung bietet. Sein spezielles Interesse gilt der Entwicklung der Märkte, datengestützten Formen der Entscheidungsfindung, neuer Management-Konzepte sowie zukünftigen Mensch-Maschine-Relationen. Davor war Hofstätter unter anderem mehrere Jahre als Projekt- und Produktmanager in verschiedenen Großprojekten im Bereich der IT, als Startup-Gründer sowie als Zukunfts- und Trendforscher tätig. ÜBER DEN HOST Florian Kondert ist Geschäftsführer der Future Day GmbH. Sein Team begleitet Unternehmen seit über 15 Jahren dabei, Zukunft in ihr Heute zu bringen. Im Kern aller Tätigkeiten stehen jene Momente, die uns neu auf die Welt blicken lassen, und in welchen wir entscheidende Weichen für die Zukunft stellen. Die Future Day GmbH kreiert solche Momente, die intellektuell und emotional inspirieren. ––––––––––––––––––––––––– ––––––––––––––––––––––––– Melden Sie sich für unseren Newsletter an, um über neue Inhalte auf dem Laufenden zu bleiben: https://futureday.network/newsletter/ ––––––––––––––––––––––––– ––––––––––––––––––––––––– Future Day online https://futureday.network https://twitter.com/fd_journey https://www.facebook.com/fdjourney/ https://www.linkedin.com/company/future-day-gmbh

Steueraffe
#19 DSGVO Teil 4

Steueraffe

Play Episode Listen Later Aug 1, 2019 16:16


Datenschutz-Grundverordnung und Tipps für die Praxis. STEUERAFFE - das ist der ultimative Tax-Podcast, der sich mit steuer- und arbeitsrechtlichen Fragen beschäftigt und diese von Experten auf einfache und verständliche Weise beantworten lässt. Im 4. Teil zum Thema DSGVO wird euch unser Experte DI Markus Liebeg wertvolle Tipps für die Praxis mit auf dem Weg geben. Mehr dazu findet ihr auch unter www.steueraffe.at

Steueraffe
#18 DSGVO Teil 3

Steueraffe

Play Episode Listen Later Jul 25, 2019 11:24


Datenschutz-Grundverordnung und Sicherheitsfragen bzgl Clouds und mobile Applikationen. STEUERAFFE - das ist der ultimative Tax-Podcast, der sich mit steuer- und arbeitsrechtlichen Fragen beschäftigt und diese von Experten auf einfache und verständliche Weise beantworten lässt. Im 3. Teil zum Thema DSGVO befassen wir uns mit Sicherheitsfragen bzgl Cloudlösungen und mobile Applikationen. Auch das Thema Datenschutzbeauftragter wird von unserem Experten DI Markus Liebeg ausführlich erläutert. Mehr dazu findet ihr auch unter www.steueraffe.at

Verdammte Erleuchtung
#04 Seelenlesung im Festnetz

Verdammte Erleuchtung

Play Episode Listen Later Jul 15, 2019 70:14


Berni und Rüdiger fahren ins Berliner Umland, wo Coach Stephan Möritz mit seiner Frau wohnt, der über eine ganz besondere Fähigkeit verfügt. Er kann am Telefon den Datensatz von Seelen seiner Kunden auslesen und ermitteln, wozu sie im Leben bestimmt sind. Etwas, das unseren beiden Helden eben noch völlig absurd vorkam, erhält durch das Gespräch eine unerwartete Logik und Dimension. Gast: Stephan Möritz, Coach (www.lebensaufgabe.com)

SWR Aktuell Netzagent
KI: Wie das BKA die Panama Papers auswertet

SWR Aktuell Netzagent

Play Episode Listen Later Jun 11, 2019 38:50


Die Panama Papers sind ein gigantischer Datensatz aus einer Anwaltskanzlei in Panama, die ihren Kunden offenbar viele Jahre geholfen hat, Straftaten zu begehen und zu verheimlichen. Nachdem ein Journalistenkonsortium an die Dokumente gelangte und über einige unsaubere Kunden berichtet hat, bekam das Bundeskriminalamt die Unterlagen. Um sie möglichst schnell und erschöpfend nach möglichen deutschen Tätern zu durchforsten, setzten die Kriminalisten erstmals Methoden der Künstlichen Intelligenz ein. Gesprächspartner: Erster Kriminalhauptkommissar Holger Miltenberger, Wissenschaftlicher Oberrat Herr Preuß. ►► Mehr Netzagent zum Anhören • Bei SWR Aktuell: http://x.swr.de/s/netzagent • In der ARD Audiothek: https://www.ardaudiothek.de/netzagent/62037366 • Bei Spotify: https://open.spotify.com/show/6m6x8uhR2TwQzJsO7GNHnj • Bei Apple Podcasts: https://podcasts.apple.com/de/podcast/swr-aktuell-netzagent/id1466938159 • Bei Google Podcasts: http://x.swr.de/s/netzagentgooglepodcasts ►► #netzagent Neues und Hintergründiges zu Cybercrime und Cyberwar, Datenschutz und Datensicherheit - Wir reden mit Experten über Technik, Politik und Gesetze, die das Internet bedrohen oder sicherer machen.

Dirks Podcast Projekttagebuch
Wie viele Deutsche Podcasts gibt es eigentlich?

Dirks Podcast Projekttagebuch

Play Episode Listen Later May 4, 2019 16:43


Ich habe ein Python Script geschrieben, das das iTunes Podcast Directory durchsucht und daraus einen Datensatz erzeugt mit dem man einige interessante Aussagen über die Deutschsprachige Podcastszene treffen kann. Wer neugierig ist findet Script, Google Spreadsheet, Excel Dokument, JSON Datensatz und ein paar Kernerkenntnisse im passenden Sendegatebeitrag.Ansonsten gibt's ein Update zu meinen Podcasts und wer gerne eine Mitgliedschaft auf https://morgenradio.de gewinnen möchte, meldet sich bis zum 15. Mai. 2019 via Mail an dirk@primbs.de oder einem meiner anderen Kanäle.

Was jetzt?
Wann heißt es denn nun Bye-bye, liebe Briten?

Was jetzt?

Play Episode Listen Later Mar 20, 2019 11:51


Eigentlich sollten sie schon fast aus der Tür sein, doch die Briten und ihr langwieriger Brexit beschäftigt auch den heutigen Gipfel der übrigen EU-Mitgliedsstaaten. Sie beraten darüber, wie groß der Aufschub sein wird, den sie Großbritannien für den EU-Austritt gewähren. Denn das Parlament hat die Vereinbarung, die Premierministerin Theresa May mit der EU über den Brexit ausgehandelt hatte, bereits zweimal abgelehnt – aber auch die Alternative – ein Austritt ohne Deal – ist den Abgeordneten nicht recht. Die Premierministerin hat nun eine Fristverlängerung bis Ende Juni beantragt, um – ja, um was eigentlich zu tun? Bettina Schulz berichtet für ZEIT ONLINE aus London, wo gestern nicht nur eine Dringlichkeitssitzung des Parlaments stattfand, sondern sich auch Theresa May am Abend an die Briten gewandt hat. Ein kleines Chromosom, das sich zusätzlich in den genetischen Datensatz fügt, kann schwerwiegende Auswirkungen auf das Leben eines Kindes und seiner Eltern haben. Trisomie 21, also Down-Syndrom, ist eine Genommutation, die oft zu körperlichen und geistigen Behinderungen führt. Medizinisch lässt sich mittlerweile mit einem Bluttest bei Schwangeren prüfen, ob ein Embryo die Veranlagung für Down Syndrom aufweist. Nun wird diskutiert, ob Krankenkassen die Kosten für solche Tests übernehmen sollen. Würden dann weniger Kinder mit Downsyndrom zu Welt kommen, und was würde das für das gesellschaftliche Klima bedeuten? Fragen dazu an Martin Spiewak, Wissensredakteur bei der ZEIT. Außerdem: von Blumen und Influencern. Mitarbeit: Viola Kiel

Modellansatz
Fluglotsen

Modellansatz

Play Episode Listen Later Feb 7, 2019 62:54


Gudrun spricht in dieser Episode mit Colin Bretl und Niko Wilhelm. Beide sind zur Zeit des Gespräches Bachelorstudenten am Karlsruher Institut für Technologie (KIT). Colin studiert Mathematik und Niko Informatik. Bevor sie sich für ein Studium am KIT entschieden haben, hatten sie an der Dualen Hochschule Karlsruhe (DHBW) ein Bachelorstudium Wirtschaftsinformatik abgeschlossen. Die beiden haben im Wintersemester 2018/19 an Gudruns Vorlesung Modellbildung teilgenommen. Wie schon in unserer ersten Podcastepisode besprochen wurde, gehört zum Programm der Vorlesung, dass die Studierenden sich in Gruppen finden, selbst ein Projekt suchen und bearbeiten. Colin und Niko haben die Arbeit von Fluglotsen betrachtet. Sie haben modelliert, wie die anfliegenden Flugzeuge am besten auf die Landebahn zugeteilt werden. Am Beispiel des Flughafens Heathrow (mit Daten vom 1. August 2018) wurde ihr erstelltes Modell getestet. Als mathematische Methode haben sie hierfür Warteschlangentheorie augewählt. Die beiden haben das Modell selbst erarbeitet, es programmiert und eine Ausarbeitung angefertigt. Die Podcastepisode zeigt, wie und warum sie ihr Problem gewählt haben und welche Schritte zum Erfolg (oder auch zum Misserfolg) geführt haben. Die Überwachung einer Flugbewegung durch Fluglotsen findet z.B beim Landeanflug auf einen Zielflughafen statt. Wollen mehrere Luftfahrzeuge in einem kurzen Zeitraum nacheinander landen, gehört es zu den Aufgaben des Lotsen, diese Reihenfolge festzulegen. Infolgedessen werden den einzelnen Luftfahrzeugführern Streckenanweisungen mitgeteilt (bspw. ob diese einmal oder mehrfach ein Warteschleife fliegen sollen). Im trivialen Fall, dass zwischen zwei ankommenden Luftfahrzeugen genug Zeit liegt, kann jedes Luftfahrzeug auf möglichst direktem Weg zur Landebahn geführt werden. Der Durchsatz, also wie viele Luftfahrzeuge in einem Zeitintervall landen können, ist in diesem Fall optimal. Bei hohem Verkehrsaufkommen gestaltet sich die Überwachung durch Fluglotsen schwieriger. Es müssen nicht nur Sicherheitsabstände zwischen den Luftfahrzeugen eingehalten werden, sondern auch physikalische Besonderheiten des Luftverkehrs und technische Restriktionen berücksichtigt werden. Diese wirken sich negativ auf den Durchsatz aus. Außerdem erschweren die Rahmenbedingungen eine mathematische Untersuchung. Im Projekt von Colin und Niko wird die Problemstellung nur für Flugzeuge, die durch Radar identifiziert werden können, betrachtet. Darunter fallen u.a. große Passagiermaschinen, wie sie an internationalen Verkehrsflughäfen vorzufinden ist. Solche Flugzeuge machen den größten Anteil an kontrollierten Flugbewegungen aus. Mit Hilfe des mathematischen Modells sollen die Grundlagen dafür geschaffen werden, verschiedene Lotsen-Strategien auf ihren Durchsatz hin zu untersuchen. Es konzentriert sich dabei zunächst auf das Standardanflugverfahren bei hohem Verkehrsaufkommen und geht davon aus, dass Flugzeuge in der Reihenfolge ihrer Ankunft landen dürfen. Wenn eine Landung nicht unmittelbar eingeleitet werden kann, müssen die Flugzeuge Standard-Warteschleifen fliegen. Die Warteschleife ermöglicht es, die Mindestgeschwindigkeit zum Fliegen aufrecht zu erhalten. Prinzipiell kreist ein Flugzeug in einer Warteschleife über einem festen Punkt. Mehrere Flugzeuge können in unterschiedlicher Höhe dieselbe Warteschleife nutzen. Für den Datensatz von Heathrow am 1. August 2018 stellte sich heraus: Zu Spitzenzeiten kommen 50 Flugzeuge pro Stunde an. In diesem Fall ist das System nicht stabil. Das bedeutet, die Lastspitze könnte im Modell nicht dauerhaft durchgehalten werden. Stabilität ist bei 38 Flugzeugen pro Stunde gerade noch so gegeben. Nach dem mathematischen Modell könnte der Flughafen Heathrow also 38 Flugzeuge pro Stunde abarbeiten, was fast dem Mittelwert über alle Anflüge am 1.8. 2018 zwischen 06:00 und 23:00 etwa entspricht (das waren im Datensatz 39,1). Literatur und weiterführende Informationen C. Bretl & N. Wilhelm: Modellierung ankommender Flugzeuge - Beschreibung mithilfe von Warteschlangen am Beispiel des Flughafens London Heathrow, 2019. J. Reichmuth and P. Berster: Past and Future Developments of the Global Air Traffic. in: M. Kaltschmitt & U. Neuling (Eds.): Biokerosene - Status and Prospects, Springer, 2018. https://doi.org/10.1007/978-3-662-53065-8_2 K.-H. Waldmann and U. M. Stocker: Stochastische Modelle - Eine anwendungsorientierte Einführung. 2nd ed. Springer, 2013. D. Baum: Grundlagen der Warteschlangentheorie. Springer, 2013. F. Shortle et al.: Fundamentals of Queueing Theory. Wiley, 2018 ICAO: Doc. 4444 Air Traffic Management, 2016. Podcasts G. Thäter, S. Ritterbusch: Mathematische Modellbildung, Gespräch im Modellansatz Podcast, Folge 1, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 1, Folge 262 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 2, Folge 263 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S. Müller, T. Pritlove: Ziviler Luftverkehr, CRE 211, Metaebene Personal Media, 2016.

Modellansatz
MINToring

Modellansatz

Play Episode Listen Later Jan 31, 2019 50:07


Gudrun ist zu Gast bei der Gleichstellungsbeauftragten der FU in Berlin, um über ihr MINToring-Projekt zu reden. Das ist seit einiger Zeit eine Einladung an Schülerinnen zum Einstieg in die Physik und Informatik. Das Projekt entwickelte dafür eine Reihe von Angeboten, nämlich: alle 2 Wochen werden verschiedene Workshops an der FU veranstaltet (ab der 7. Klasse); es werden Betriebspraktika in den Fachbereichen Physik und Informatik vermittelt und begleitet (ab der 9.Klasse); Tage an der Uni im Herbst, in denen man in Vorlesungen der Informatik, Physik und Bioinformatik hineinschnuppern kann Workshops an den Schulen Gudrun spricht außer mit der Frauenbeauftragten Mechthild Koreuber (Mathematikerin, promoviert in Wissenschaftsgeschichte) auch mit den beiden Koordinatorinnen des MINToring-Projekts Anette Dietrich (Koordinatorin Mathematik und Informatik) und Audrey Houillon (Koordination Physik). Audrey hat in München Physik studiert und in Paris am CNRS im Gebiet Neurowissenschaften promoviert. Das ist ein interdisziplinäres Forschungsthema zwischen Physik, Informatik, Psychologie und Biologie. An der TU Berlin hat sie eine Zeit als Postdoc im Gebiet computational Neuroscience gearbeitet und ist dann in die Jugend- und politische Bildung gewechselt bevor sie die Koordinationsstelle an der FU übernahm. Anette ist am Institut für Informatik, hat in Erziehungswissenschaften über Geschlechter- und in der Rassismusforschung promoviert. Ausgangspunkt für die Projektidee war für Mechthild eine Erfahrung am Rande der Abiturfeier ihrer Tochter. Aus einem Physik Leistungskurs mit 50% Mädchen wollte damals keines Physik studieren oder hatte dies als Möglichkeit auch nur in Erwägung gezogen. Wieso? Sie dachte darüber nach, wie kann man junge Frauen und Mädchen motivieren, sich für diese Fächer zu entscheiden und konkret etwas gegen den niedrigen Frauenanteil in den MINT-Fächern tun? Sie stellte sich dabei zunächst ein Projekt vor, dass interessierte Mädchen in der Abiturstufe anspricht. Interesse würde sich z.B. über die Teilnahme an Leistungskursen herausfinden lassen. Das ist aber leider z.B. in der Informatik nicht durchführbar. weil es dort fast keine Leistungskurse gibt. Außerdem wurde schnell klar, dass man schon mit jüngeren Schülerinnen beginnen sollte, um den Übergang zu den Aktionen am Girls'day zu sichern, wo die FU für Schülerinnen der Klassenstufen 5-10 jährlich etwa 1000 Plätze in ungefähr 80 kleinen Gruppen anbietet. Ein zentrales und einzigartiges Werkzeug im MINToring Projekt ist die Möglichkeit zum Betriebspraktikum an der FU. So ein Praktikum ist in der 9. oder 10. Klasse für 2-3 Wochen für alle Berliner Schüler vorgesehen. Manche intessieren sich auch für ein freiwilliges Praktikum in den Sommerferien. Es ist unüblich, so ein Praktikum an einer Universität durchzuführen. Vor allem aus dem Grund, dass sich wenige Menschen vorstellen können, dass das geht. Das Projekt MINTOring bietet aber hierfür einen Rahmen und kann Schülerinnen deshalb direkt dafür einladen. Den Rahmen bilden Einführungskurse und andere Workshops (wie z.B. für Programmiersprachen) für eine kleine Gruppe Schülerinnen und ein Abschlussvortrag mit ausführlicher Auswertung und Einordnung der Erfahrungen. Zentral ist die Forschungsarbeit in den Arbeitsgruppen (2-5 Tage) im individuellen Zuschnitt auf das Interesse jeder Schülerin. In der Zeit erleben sich die Mädchen selbst als kompetent und ihre Arbeit würd wertgeschätzt. Das Feedback der Schülerinnen war bisher stets sehr positiv. Sie schätzen am Praktikum, dass sie neues gelernt haben, Erfahrung mit Forschung sammeln durften und in der Gruppe erlebt haben, dass sie mit ihren Interessen willkommen sind und geschätzt werden. Dazu kommen ganz besondere Erlebnisse, wie dass sich eine Professorin für sie ganz persönlich interessiert und im Kontakt bleiben möchte, was in Summe zu einer sehr emotionalen Erfahrung führt, die in Erinnerungen bleibt. Für so eine erfolgreiche Arbeit musste natürlich Skepsis überwunden werden. Es ist inzwischen leichter, Ideen für altersgerechte Forschungsprojekte zu finden, nachdem es viele gelungen Beispiele gibt. Trotzdem ist nach wie vor ein großer Anteil an Arbeitszeit für die Koordination des Projekts dadurch gebunden, dass Arbeitsgruppen für Schülerinnen gefunden werden. Es ist schön, wenn inzwischen auch schon Arbeitsgruppen auf das Projekt zukommen, die durch Kritik am schlechten Frauenanteil dazu gedrängt werden, selbst auch aktiv zu werden. Konkrete Projekte aus der jüngsten Vergangenheit sind: die Umsetzung eines Needleman-Wunsch-Algorithmus am Computer. Das ist ein Optimierungsalgorithmus aus der Bioinformatik, der zum Vergleich zweier Nukleotid- bzw. Aminosäuresequenzen eingesetzt wird. ein Bio-Informatik-Projekt, wo in enger Zusammenarbeit mit dem Juniorprofessor ein Datensatz zu Krebstumoren mit der Programmiersprache R analysiert wurde. Aber auch einen Betrag liefern zu können, um ein kaputtes Mikroskop zu reparieren, ändert das Verständnis davon, wie Forschung gemacht wird. Wenn Erwachsene sagen: Ich weiß das nicht, ich muss erst probieren, um eine Lösung zu finden, dann hinterlässt das einen Eindruck. Inzwischen gibt es tatsächlich schon mehr Interessentinnen für ein Praktikum, als aufgenommen werden können. Das Projekt wurde zuerst durch das Professorinnenprogramm und später durch das Chancengleichheitsprogramm finanziert. Inzwischen werden statt dieser Drittmittel Haushaltsmittel der FU eingesetzt. In der Zukunft wäre es wichtig, dass die Finanzierung der Koordinierungsstellen auf Dauer von der FU Berlin sichergestellt wird und sich auch andere Universitäten ein Beispiel nehmen. Eine Erweiterung auf andere Fächer ist auch im Moment schon in Arbeit. Zusätzlich zu dieser Art von Projekten muss sich in der Gesellschaft noch einiges ändern. In anderen Ländern ist es viel selbstverständlicher, dass Frauen in technische Fächer gehen. Es ist erstaunlich, wie stark das Selbstbewußtsein schon leidet, wenn die Entscheidung für ein MINT-Fach ständig durch die Umgebung in Frage gestellt wird. Hier wäre mehr Ermutigung in der Schule ein guter Anfang. Podcasts A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Schäfer, I. Häuser, G. Thäter: Schülermarketing, Gespräch im Modellansatz Podcast, Folge 191, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Mischau, M. Koreuber: Gender und Mathematik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 142, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Jungbauer-Gans: Frauen in der Wissenschaft – Gleiche Chancen, Ungleiche Voraussetzungen? Zentrum für Gender Studies und feministische Zukunftsforschung, Podcast Kombinat, Universität Marburg, 2016. E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

MIXEDCAST: Podcast über VR, AR, KI
VRODOCAST #120: Cebit-Erinnerungen, Galaxy Mega-S10, Duplex-Menschen und KI-Vorurteile

MIXEDCAST: Podcast über VR, AR, KI

Play Episode Listen Later Dec 1, 2018 43:26


Hereingehört, hereingehört: Im VRODO Podcast #120 reisen wir in die Cebit-Vergangenheit und beschäftigen uns dann - wie gewohnt - mit der vielfältigen Zukunft der Computer. Den VRODO-Podcast gibt es jetzt auch bei Spotify: https://open.spotify.com/show/7nqUnwk9j5qFfjACXzc8Yg Samsungs Galaxy S10 mit 5G und Tiefensensor Laut eines Berichts plant Samsung für die nächste Generation Galaxy-Smartphones eine Art Superflaggschiff für VR und AR: Das Galaxy S10 5G soll mit einer Dualkamera an der Vorderseite und vier Kameras an der Rückseite ausgestattet sein. Das 6,7 Zoll große Gerät soll außerdem zusätzlich einen Tiefensensor nach dem Vorbild des Asus Zenfone AR (Test) und des iPhone X verbaut haben. Praktisch ist das für Augmented-Reality-Apps, so können digitale Objekte genauer und beständiger im realen Raum verankert werden. Das Gerät ist als eine Art Techdemo für 5G geplant: Es sollen nur rund zwei Millionen Einheiten produziert werde. Was bringt's? Mehr: https://vrodo.de/galaxy-s10-samsung-plant-angeblich-5g-superflaggschiff-fuer-vr-und-ar/ Stell dir vor, du nimmst den Hörer ab - und dann spricht da ein Mensch In den USA rollt in den ersten Großstädten Googles Telefon-KI Duplex aus. Kurios: Angeblich wird ein Teil der Duplex-Anrufe von Menschen übernommen. Weshalb? Und warum sollte man eine KI überhaupt anweisen, einen Anruf zu erledigen, wenn man in derselben Zeit den Anruf ebenso gut selbst erledigt hätte? Mehr: https://vrodo.de/telefon-ki-duplex-google-laesst-angeblich-auch-menschen-anrufen/ Vorurteile nicht in den Griff zu bekommen: Google schaltet KI-Feature bei Gmail ab Mit "Smart Compose" kann man bei Googles E-Mail-Service Gmail KI-unterstützt E-Mails schreiben (lassen). Google trainierte die Künstliche Intelligenz mit anonymisierten Daten des eigenen Mail-Services. Genau das wird jetzt zum Problem: Die KI hat in dem Datensatz versteckte geschlechtsspezifische Vorurteile übernommen. Erstmals entdeckt wurde das laut Google schon im Januar, als ein Forscher intern eine E-Mail verschickte mit Hinweis auf ein anstehendes Treffen mit einer Investorin. Das Programm schlug automatisch vor, dass die Investorin männlich ist (“meeting him” statt “meeting her”). Was an der Sache wirklich problematisch ist: Google bekommt die Vorurteile über Monate hinweg nicht in den Griff - und schränkt daher lieber die Funktion ein. Mehr: https://vrodo.de/ki-vorurteil-google-entfernt-geschlechtsspezifische-pronomen-aus-smart-compose/ Über den Podcast: https://vrodo.de/podcast/

KI2go - mit Tobias Budig // Künstliche Intelligenz zum Mitnehmen

Wie lernen Maschinen? Wo liegt die Schwierigkeit dabei? Künstliche Intelligenz, insbesonder maschinelles Lernen ist keine Hexerei. In der Ersten Folge der kleinen Reihe über maschinelles Lernen geht es um das "Supervised Learning". Hierbei ist in dem Datensatz das Ergebnis bekannt. Aus dem Zusammenhang Inputdaten und Ergebnis wird versucht ein möglichts gutes mathematisches Modell zu finden. Nun können zu neuen unbekannten Inpudaten die Ergebnisse vorhergesagt werden.

NDR Info - Paradise Papers: Im Schattenreich der Steueroasen
Paradise Papers (Folge 4): Inselzauber

NDR Info - Paradise Papers: Im Schattenreich der Steueroasen

Play Episode Listen Later Nov 8, 2017 37:20


Die Reporter besuchen die Isle of Man und versuchen, dem früheren Ministerpräsidenten Peter Harry Carstensen zu entlocken, warum er in dem Datensatz auftaucht.

Chaosradio
CR240 Fünf Jahre Wikidata

Chaosradio

Play Episode Listen Later Oct 26, 2017 115:35


Die Wikipedia strebt nach der Sammlung alles menschlichen Wissens. Mit einer Unmenge an menschlichen Helfern trat sie binnen weniger Jahre ihren Sieg über die klassischen Enzyklopädien an. Doch oft fehlt es den einzelnen Artikel an Struktur, viele Informationen wurden händisch gepflegt. Wissen war oft nicht so auffindbar, wie es sein könnte. Seit nun fünf Jahren gibt es das Projekt Wikidata, dass nicht nur verschiedene Sprachen der Wikipedia, sondern auch ihre Schwesterprojekte wie Wikivoyage oder Wikisource miteinander über strukturierte Metadaten verknüpft. Gleichzeitig stellt Wikidata einen eigenen Datensatz dar, und ermöglicht neue Recherchemöglichkeiten. Im Chaosradio 240 erläutern Lydia, Jens und Lucas bei Marcus Richter wie Wikidata funktioniert und wie man es für sich nutzbar machen kann.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
Differentielle Proteomanalyse und Charakterisierung von Oberflächenproteinen des retinalen Pigmentepithels gesunder und an ERU erkrankter Pferde

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07

Play Episode Listen Later Jul 18, 2015


Die equine rezidivierende Uveitis (ERU) ist eine sehr häufig auftretende autoimmune Augenerkrankung bei Pferden, welche meist mit dem Verlust der Sehfähigkeit der betroffenen Augen einhergeht. Da die ERU das einzig spontane Tiermodell für die humane autoimmune Uveitis darstellt, ist die Erforschung der zugrundeliegenden Pathomechanismen der ERU nicht nur veterinärmedizinisch, sondern auch für die Humanmedizin von großer Bedeutung. Charakteristisch für die ERU sind der Zusammenbruch der Blut-Retina-Schranke (BRS) und die Infiltration von autoaggressiven T-Lymphozyten in das innere Auge mit anschließender Zerstörung retinaler Strukturen. Beim Pferd wird die BRS, aufgrund der weitestgehend avaskulären Retina, hauptsächlich von der äußeren Komponente der BRS gebildet, dem retinalen Pigmentepithel (RPE). Im physiologischen Zustand stellt das RPE durch feste Zell-Zellverbindungen sowohl eine stabile mechanische, als auch durch seine Fähigkeit, mit Mediatoren des Immunsystems kommunizieren und interagieren zu können, eine effektive immunologische Barriere dar. Die im Verlauf der ERU stattfindenden pathophysiologischen Mechanismen, welche für den Zusammenbruch dieser Barriere verantwortlich sind, konnten bislang nicht ausreichend geklärt werden. Vor allem Änderungen im Expressionsmuster des Zelloberflächenproteoms könnten hierbei aufgrund der ständigen Interaktion und Kommunikation der RPE-Zellen mit ihrer Umgebung eine entscheidende Rolle spielen. Deshalb war es das Ziel dieser Arbeit, differentiell regulierte Zelloberflächen-proteine zwischen gesunden und uveitischen RPE-Zellen zu detektieren, welche maßgeblich an der Pathogenese der ERU beteiligt sein könnten. Um so nah wie möglich die am RPE in vivo stattfindenden physiologischen und pathophysiologischen Prozesse widerspiegeln zu können, wurden RPE-Zelloberflächenproteine von gesunden und an ERU erkrankten Pferden in dieser Studie mittels einer neuartigen in situ Biotinylierungsmethode angereichert und anschließend massenspektrometrisch analysiert. Dabei konnten insgesamt 148 Proteine identifiziert werden, von denen 81,8 % Plasmamembranproteine waren, was deutlich für den Erfolg der neuartigen Anreicherungsmethode sprach. Unter den 148 insgesamt identifizierten Proteinen befanden sich 27 differentiell regulierte Proteine, wovon in uveitischem RPE drei hoch- und 24 herunterreguliert waren. Neben den für RPE-Zellen klassischen Proteinen wie RPE65, Rhodopsin und S-Arrestin konnten auch mehrere Proteine detektiert werden, die unseres Wissens zuvor noch nicht in RPE-Zellen beschrieben wurden, wie der Glukosetransporter 4, Synaptotagmin 1 und Peripherin 2. Funktionell besonders interessant fanden wir die vier Proteine Synaptotagmin 1, Basigin, Collectrin und Perpherin 2, welche alle mit einer verminderten Expression in uveitischem RPE zu finden waren. Interessanterweise ergab sich aus einer Pathway-Analyse für alle vier Proteine eine Beteiligung an „Visual Functions“ und „Immunological Diseases“. Mittels weiterführender Analysen wie der Durchflusszytometrie, der Immunhistologie und der Quantifizierung der Protein-Fluoreszenzintensitäten ist es gelungen die bereits massenspektrometrisch identifizierte verminderte Expression von Synaptotagmin 1, Basigin, Collectrin und Perpherin 2 zu verifizieren und die Proteine näher zu charakterisieren. Die in dieser Arbeit präsentierte neuartige in situ Biotinylierungsmethode zur Anreicherung von Oberflächenproteinen, welche anschließend mittels LC-MS/MS identifiziert wurden, erwies sich als sehr effektive und innovative Methode, um Oberflächenproteine so nah wie möglich in ihrem physiologischen und pathophysiologischen in vivo Vorkommen zu untersuchen. Daher liefert der in dieser Arbeit generierte Datensatz der differentiell regulierten Proteine zwischen gesunden und uveitischen RPE-Zellen eine solide Grundlage für weitere funktionelle Analysen zur Aufklärung der Pathogenese der ERU.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 18/19
Einschränkungen der Handmotorik bei Patienten mit degenerativer Kleinhirnerkrankung während einer isometrischen Bewegungsaufgabe

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 18/19

Play Episode Listen Later Mar 12, 2015


In der vorliegenden Arbeit wurde die Handmotorik cerebellärer Patienten mit einer neuartigen feinmotorischen Bewegungsaufgabe untersucht. Bei der "Himbeer-Aufgabe" ist hervorzuheben, dass Probanden eine Zugkraft über ein Zeitintervall von 1-5 s entwickeln sollten. Erstmals wurde zudem die Modifikation aktiver Handbewegungen durch assoziatives Lernen untersucht. Erstens konnten Schwierigkeiten cerebellärer Patienten einen gleichmäßigen Kraftanstieg zu erzeugen, beobacht werden. Zweitens konnte mit Hilfe der hier erstmals auf einen physiologischen Datensatz angewandten Stochastic Frontier Analysis eine weniger ausgeprägte Kopplung von Griffkraft und Lastkraft während späterer Phasen des Zugkraftanstiegs in der Patientengruppe nachgewiesen werden. Drittens zeigte sich eine weniger häufige Änderung der Zugkraft nach einem konditionierenden Reiz in der Gruppe der cerebellären Patienten. Erklärt werden können die drei Beobachtungen über die Beeinträchtigung interner Forward-Modelle. Eine länger dauernde isometrische Bewegungsaufgabe stellt besondere Anforderungen an das ZNS. Gemäß des Konzepts der "discrete-event, sensory-driven control" erhält das ZNS nur am Anfang und am Ende der Bewegung für die Bewegungssteuerung geeignete sensorische Rückmeldungen. Dazwischen ist es auf Simulationen angewiesen. Gelingen keine adäquaten Vorhersagen, kann dies zu einem nicht-linearen Zugkraftverlauf ebenso wie zu einer beeinträchtigten Kopplung von Griffkraft und Zugkraft führen. Assoziatives Lernen des Zusammenhangs zwischen etwa einem Ton und einer in der Folge notwendigen Handlungsänderung könnte es dem ZNS ermöglichen, mit Hilfe eines genaueren internen Forward-Modells den Zeitpunkt der erforderlichen Handlungsänderung besser abzuschätzen. Mit den in dieser Arbeit objektivierten Defiziten cerebellärer Patienten konnte damit die Kleinhirnbeteiligung an internen Forward-Modellen sowie am assoziativen Lernen - Grundpfeilern sensomotorischer Konzepte - auch im Rahmen der Handmotorik weiter erhärtet werden.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
Erstellung und Bearbeitung von dreidimensionalen Ultraschall-Datensätzen von gesunden und kranken felinen Herzen sowie Entwicklung von Katzenmodellen für den Einsatz in einem Echokardiographie-Simulator

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07

Play Episode Listen Later Jan 31, 2015


In der Tiermedizin gehört die echokardiographische Untersuchung vor allem im Kleintierbereich zu den Standarduntersuchungen auf dem Gebiet der Kardiologie. Das Erlernen der Echokardiographie setzt jedoch voraus, dass Studierende der Tiermedizin und/ oder Tierärztinnen und Tierärzte die Möglichkeit haben die Echokardiographie praktisch selbst zu üben, um das korrekte Einstellen der gebräuchlichen Standardschnittebenen in der zweidimensionalen Echokardiographie zu erlernen. Im Rahmen dieser Arbeit wurde eigens für die Tiermedizin ein Echokardiographiesimulator für die Katze entwickelt. Da die elektronisch-technischen Grundlagen mit geringfügigen Modifikationen von einem humanmedizinischen Ultraschall- und Echokardiographiesimulator, dem SonoSim III der Firma Sonofit GmbH, Darmstadt, übernommen werden konnten, lag der Fokus dieser Arbeit auf der Bestückung des Simulators mit geeigneten Echokardiographiedatensätzen von herzgesunden und herzkranken Katzen, sowie dem Entwurf und der Konstruktion von realitätsnahen Katzenattrappen einerseits und Untersuchungstischen andererseits. Die Datensätze, die in den Simulator integriert wurden stammen von dreidimensionalen Echokardiographiedatensätzen verschiedener feliner Patienten. Es wurde in Abhängigkeit ihrer zugrundeliegenden Erkrankung und ihrer Relevanz sowie der Qualität des Datenmaterials die Datensätze einer gesunden und zwei herzkranker Katzen ausgewählt. Eine Jungkatze wies einen deutlichen perimembranösen Ventrikelseptumdefekt (VSD) auf, der auch ohne Doppler im B-Bild zu erkennen war. Die zweite herzkranke Katze zeigte eine asymmetrische Hypertrophie des Kammerseptums und der Papillarmuskeln (HCM), sowie eine mittelgradige Aortenklappeninsuffizienz. Der VSD und die HCM sind laut Literatur die häufigste angeborene bzw. erworbene Herzerkrankung der Katze. Die 3D-Datensätze wurden in ihre kleinsten Einheiten, die Einzelbilder, zerlegt, manuell bearbeitet, wieder zusammengefügt und der daraus entstandene Datensatz anschließend in den Simulator geladen. Die Bearbeitung diente einerseits der Verbesserung der Qualität durch Minimierung von Artefakten und andererseits der Verdeutlichung der kardialen Morphologie durch unterschiedliches Einfärben der rechten und linken Herzhälfte. Dadurch wird garantiert, dass die simulierten 2D-Echokardiogramme annähernd dem Standard heutiger realer 2D-Ultraschallbilder des Herzens entsprechen. Durch die farblich unterschiedliche Markierung der Herzhälften wird die Orientierung auch für ungeübte Untersucher erleichtert. Im Rahmen der anschließenden Umfrage, wurde die Realitätsnähe der Schnitteben von über 90% der befragten echokardiographisch vorgebildeten Studierenden als sehr gut und gut beurteilt. Auch der Wert der Kolorierung erhielt von 86 % der Studierenden sehr gute und gute Noten. Ein Untersuchungstisch wurde auf eine Art und Weise entworfen und konstruiert, dass eine praxisnahe Handhabung möglich war und gleichzeitig auf jegliches Metall als Werkstoff verzichtet werden konnte, um die Technik des Simulators nicht zu stören. Dieser Tisch wurde mit zwei austauschbaren Tischplatten, auf denen jeweils eine Katzenattrappe in linker und rechter Seitenlage fixiert war, bestückt. Das Innere der Katzenattrappen besteht aus einem Schaumstoffkern, in den Merkmale einer echten Katze, zum Beispiel Rippen zur Orientierung eingearbeitet wurden. Bezogen wurde der Schaumstoffkern mit einem maßgefertigten Kunstfell, das ebenfalls über spezifische Orientierungsmarken wie zum Beispiel die Ellbogenhautfalte verfügt. Die befragten Studierenden äußerten sich zu Design der Katzen sowie zu Funktionalität und Design des Tisches mehrheitlich überaus positiv (88 % gut oder sehr gut). Anhand der bearbeiteten Datensätze wurden drei Patientenfälle im Simulator erstellt und dazu passende Tutorials entwickelt, um auch autodidaktisches Lernen zu ermöglichen. Bei der anschließenden Evaluierung gaben 100 % der Befragten an, dass der Simulator eine sehr gute (89%) und gute (11%)Ergänzung zur echokardiographischen Untersuchung am lebenden Tier ist. Sogar 52 % der Studierenden betrachten den Simulator als sehr gute (6%) oder gute (46%) vollständige Alternative zum lebenden Tier in der Echokardiographieausbildung.

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU
Vergleich von Methoden zur Strukturfindung in der Psychometrie mit Hilfe echter Daten

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU

Play Episode Listen Later Jan 22, 2015


Die vorliegende Arbeit beschäftigt sich mit der Evaluation von strukturfindenden Methoden, die die Items psychologischer Fragebogendaten in homogene Gruppen von ähnlichen Items zusammenfassen. Ein wesentlicher Unterschied zwischen Methoden, die zu diesem Zweck verwendet werden, ist, ob sie ein zugrundeliegendes Messmodell annehmen oder ob sie nur eine möglichst brauchbare Gruppierung der Items anstreben. Zum einen gibt es die modellbasierte Faktorenanalyse (FA), die auf dem Faktormodell basiert. Der mathematische Ansatz ist ähnlich der Hauptkomponentenanalyse, oder principal component analysis (PCA). In der FA wird im Unterschied zur PCA noch angenommen, dass die Antworten auf die Items kausal von zugrundeliegenden Faktoren plus einem einzigartigen Residualterm kausal erklärt werden. Und dieser spezifische Residualterm jedes Items wird als völlig unkorreliert zu allen anderen Items angenommen. Ein Verfahren, das keine Modellannahmen trifft, ist die Clusteranalyse (CA). Hier werden lediglich Objekte zusammengefügt, die sich auf einem bestimmten Kriterium ähnlicher sind als andere. So wie man Methoden darin unterscheiden kann, ob sie ein zugrundeliegendes Modell annehmen oder nicht, kann man auch bei der Evaluation von Methoden diese Unterscheidung treffen. Eine Evaluationtechnik, die ein Modell annimmt, ist die Monte Carlo Simulation. Eine Technik, die nicht zwangsweise ein Modell zugrunde legt, ist das Resampling. Es werden Stichproben aus einem echten Datensatz gezogen und das Verhalten der Methode in diesen Stichproben wird untersucht. In der ersten Studie wurde ein solches Resampling-Verfahren angewandt, das wir Real World Simulation nennen. Es soll das bestehende Problem der mangelnden Validität von Monte Carlo Studien zur FA beheben. Es wurde eine Real World Simulation an zwei großen Datensätzen durchgeführt und die Schätzer der Modellparameter aus dem echten Datensatz anschließend für die Monte Carlo Simulation als Modellparameter verwendet. So kann getestet werden, welchen Einfluss die spezifischen Datensatzcharakteristiken sowie kontrollierte Veränderungen von ihnen auf die Funktion der Methoden haben. Die Ergebnisse legen nahe, dass die Resultate von Simulationsstudien immer stark von bestimmten Spezifikationen des Modells und seiner Verletzungen abhängen und daher keine allgemeingültigen Aussagen getroffen werden können. Die Analyse echter Daten ist wichtig, um die Funktion verschiedener Methoden zu verstehen. In der zweiten Studie wurde mit Hilfe dieser neuen Evaluationstechnik ein neues k-means Clusterungsverfahren zur Clusterung von Items getestet. Die zwei Verfahren, die vorgeschlagen wurden, sind: k-means skaliertes Distanzmaß (k-means SDM) und k-means cor. In den Analysen zeigte sich, dass sich die neuen Verfahren besser eignen, Items zu Konstrukten zuzuordnen als die EFA. Lediglich bei der Bestimmung der Anzahl der zugrundeliegenden Konstrukte, waren die EFA-Verfahren genauso gut. Aus diesem Grund wird vorgeschlagen eine Kombination dieser beiden Verfahren zu verwenden. Ein großer Vorteil der neuen Methoden ist, dass sie das Problem der Unbestimmtheit der Faktorwerte in der EFA lösen können, da die Clusterwerte der Personen auf den Clustern eindeutig bestimmt werden können. Am Ende der Arbeit wird auf die unterschiedlichen Evaluierungs- bzw. Validierungstechniken für modellbasierte und nicht-modellbasierte Verfahren eingegangen. Für die Zukunft wird vorgeschlagen, für die Evaluation des neuen k-means CA Verfahrens zur Clusterung von Items, Real World Simulationen sowie Validierungen der Clusterwerte mit Außenkriterien anzuwenden.

FOSSGIS 2014 (mp4)
Open Geodata für Ulm - ein Ansatz für das Crowdsourcing von Geodaten auch für nicht OSM'ler

FOSSGIS 2014 (mp4)

Play Episode Listen Later Mar 22, 2014


Das Schlagwort OpenData geistert seit einiger zeit durch Deutschlands Verwaltungen. Und zu Recht, denn immer mehr Menschen interessieren sich heutzutage für öffentlich zugängliche Daten, insbesondere auch für Geodaten - zahlreiche Beispiele für kostenfreie Services und Anwendungen, die die Geodaten als OpenData für den Nutzer frei zur Verfügung stellen, finden sich im Internet. Es geht hierbei außerdem häufig nicht nur um reines „Gucken“, sondern zunehmend auch um das Mitmachen und Mitgestalten von Geodaten durch den Nutzer selbst. OpenStreetMap ist ein leuchtendes Beispiel dafür. Aus diesen Überlegungen heraus wurde 2012 in einer Vorstudie geprüft, wie sich die Stadt Ulm am OpenData-Gedanken beteiligen kann. Im Frühjahr 2013 wurde dann das Projekt „map-it.ulm.de“ als eine Anwendung zum Sammeln von freien Daten über die Bürger einer Stadt im Rahmen der Gesamtumsetzung des öffentlichen Geoportals der Stadt Ulm verwirklicht. Das Projekt hat mit der 1. Aktion „Zeig mir deinen Lieblingsplatz!“ Ende Juni 2013 begonnen. Das Ziel war, die meist geliebten Orte in Ulm und Umgebung, aufgeteilt in 5 Kategorien, über Eintragung in der Karte durch Ditigalizieren zu sammeln und diese zu bewerten. Zu diesem Zweck wurde eine auf der OpenSource JavaScript Bibliotheken Ext JS 4.1.1, OpenLayers 2.12 und GeoExt 2 GIS-Applikation entwickelt. Durch die benutzerfreundliche Bedienung und zahlreiche Texthinweise konnte die Eintragung von Lieblingsplätzen sehr intuitiv gestaltet werden. In knapp 2 Wochen wurden auf diese Art und Weise über 450 POIs gesammelt, mehr als 900 Menschen haben am Projekt teilgenommen. Der gesammelte Datensatz wurde anschließend im Geoportal der Stadt Ulm veröffentlicht, mit den OSM POI-Daten abgeglichen und ist jederzeit zum Anschauen und Download als Open Data abrufbar. Dieser Vortrag soll einen Ausblick über verwendete Techniken und Ideen zur Projektrealisierung geben und diskutieren, ob und wie dies ein Weg sein kann, einfache POI-Daten, auch für OpenStreetMap zu sammeln.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Measurement of branching ratios and CP asymmetries for the decays B0->pi+pi- B0->K+pi- B0->K+K-

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05

Play Episode Listen Later Jan 30, 2013


Diese Doktorarbeit stellt eine Messung der Verzweigungsverhältnisse und CP Parameter der Zerfallskanäle B0->pi+pi-, B0->K+pi- und B0->K+K- vor. Der gesamte Belle Datensatz mit 772 Millionen BB Paaren wird untersucht. Die BB Paare wurden am KEKB e+e- Speicherring bei einer Schwerpunktsenergie, die der Masse der Y(4S) Resonanz entspricht, erzeugt. Die Analyse liefert folgende Ergebnisse für die Verzweigungsverhältnisse B(B0->pi+pi-) = (5,63 +- 0,16(stat) +- 0,16(syst)) x 10^-6 , B(B0->K+pi-) = (18,71 +- 0,25(stat) +- 0,37(syst)) x 10^-6 , B(B0->K+K-) < 14 x 10^-8 at 90% CL. Für die CP-Asymmetrien ergeben sich folgende Werte ACP (B0->pi+pi-) = 0,33 +- 0,06 (stat) +- 0,03 (syst), SCP (B0->K+pi-) = -0,64 +- 0,08 (stat) +- 0,03 (syst), ACP (B0->K+K-) = -0,061 +- 0,014 (stat) +- 0,008 (syst), wobei die Parameter ACP und SCP jeweils die direkte und die durch Mischung induzierte CP Verletzung messen. Unsere Ergebnisse schließen eine Winkel phi_2 des Unitaritätsdreiecks zwischen 23,8 und 66,8 Grad mit einer Signifikanz von 1 Sigma aus. Eine Modell unabhängige Suche nach neuer Physik beim Zerfall von B0->K+pi- zeigt eine kleine Abweichung vom Standardmodel von -0,289 +- 0,139(stat) +- 0,064(syst) mit einer Signifikanz von 1,9 Sigma.

Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU

Satellitengestützte geodätische Messmethoden, insbesondere GPS (Global Positioning System), sind von zunehmender Bedeutung in den Geowissenschaften und erlauben neue Einblicke in verschiedenste geophysikalische Prozesse. Zeitreihen hochpräziser Positionsmessungen von Punkten auf der Erdoberfläche ermöglichen unter anderem die Bestimmung von Relativgeschwindigkeiten tektonischer Einheiten, die Messung von Verformungsraten der Kruste an aktiven Störungen und Vulkanen und erlauben es Rückschlüsse auf die rheologischen Parameter der Lithosphäre und der Asthenosphäre zu ziehen. Mit zunehmender Länge und Genauigkeit der Zeitreihen ist es möglich, auch zeitabhängige dynamische tektonische Prozesse in GPS Zeitreihen zu identifizieren. Die Schwierigkeiten in der Interpretation der Messungen bestehen unter anderem darin, von Punktmessungen auf kontinuierliche Deformationsmuster zu schließen, zeitlich korreliertes Rauschen zu quantifizieren, um realistische Fehlergrenzen anzugeben, und schließlich zeitabhängige tektonische Signale von zeitabhängigem Rauschen zu trennen. In dieser Arbeit werden Lösungsansätze zu diesen Punkten erarbeitet. Zunächst wird ein Algorithmus entwickelt, durch den aus einem diskreten Geschwindigkeitsfeld, ohne Vorgabe weiterer Randbedingungen (Geometrie der Störungen etc.), der kontinuierliche zweidimensionale Tensor der Verformungsraten abgeleitet werden kann. Aus der Tensoranalysis erhält man Informationen zur maximalen Scher- und Rotationsverformungsrate, sowie zur Dilatationsrate. Die Anwendung dieses Algorithmus auf verschiedene Datensätze in Südkalifornien und Island zeigt, dass hiermit sowohl aktive Störungen identifiziert, als auch Informationen uber Bruchflächen von Erdbeben aus ko- bzw. postseismischen GPS Messungen abgeleitet werden können. Außerdem wurden zeitabhängige Signale in den GPS Geschwindigkeitsfeldern ersichtlich. Im zweiten Teil dieser Arbeit wird ein weiterer Algorithmus eingeführt, der unter Berücksichtigung der Effekte zeitabhängigen Rauschens die Berechnung der Varianz innerhalb von GPS Geschwindigkeitsfeldern ermöglicht. Somit wird außerdem der Notwendigkeit Rechnung getragen, realistische Fehlergrenzen als Grundlage zur Konfidenzabschätzung von Modellen zu definieren. Dieser Algorithmus basiert auf der Allan Varianz, die bei der Messung der Stabilität von Oszillatoren Verwendung findet und ausschließlich im Zeitbereich berechnet wird. Er wird ausführlich mit verschiedenen synthetischen Zeitreihen und Fehlermodellen getestet und auf einen südafrikanischen Datensatz angewandt. Der Vergleich mit Methoden, die auf einer Spektralanalyse oder einem Maximum Likelihood Estimator beruhen zeigt, dass der relativ schnelle Algorithmus stabile und verlässliche Angaben liefert. Zuletzt wird der entwickelte Algorithmus erweitert, um die Kovarianz der Geschwindigkeit zu erhalten. Die Anwendung auf verschiedene Datensätze an konvergenten Plattengrenzen, wo regelmäßig Kriechereignisse in Form von Slow Slip Events auftreten, zeigt für einige Stationen stark richtungsabhängige und räumlich korrelierte Geschwindigkeitsfehler. Des Weiteren konnte eine Zeitkorrelation beobachtet werden, die auf einen tektonischen Ursprung der Ereignisse hinweist. Die korrigierten Zeitreihen, von denen die modellierten Ereignisse subtrahiert wurden, haben dagegen richtungsunabhängig eine Zeitkorrelation, die etwa dem 1/f Rauschen entspricht, und weisen keine räumlich korrelierten stark exzentrischen Fehlerellipsen auf. Die Analyse ermöglicht somit eine qualitative Bewertung der Modelle zeitabhängiger Signale in GPS Zeitreihen.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 05/07
Vergleichende Analyse des Proteoms der Bursa Fabricii des Huhns zu verschiedenen Entwicklungszeitpunkten

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 05/07

Play Episode Listen Later Feb 12, 2011


Das Ziel der vorliegenden Arbeit war es, molekulare Vorgänge während der B-Zellentwicklung in der Bursa Fabricii des Haushuhns mittels proteomischer Analysen zu charakterisieren. Hierfür wurden zunächst repräsentative Zeitpunkte der bursalen B-Zellentwicklung für die Probengewinnung definiert. Daran schlossen sich qualitative Proteomanalysen der Bursa Fabricii zu den gewählten Entwicklungszeitpunkten Embryonaltag 10 (ET10), Embryonaltag 18 (ET18), Tag 2 und Tag 28 nach dem Schlupf an. Diese erfolgten durch Vorfraktionierung der Proben mittels 1D-SDS-PAGE und nano-HPLC gefolgt von Tandem-MS-Analysen. Hierbei konnten für die bursalen Proteome zu jedem Zeitpunkt zwischen 1152 und 1392 Proteine identifiziert werden (FDR < 1 %). Überschneidungen der einzelnen Zeitpunkte in 537 allgemeinen Struktur- und Stoffwechsel-Proteinen berücksichtigt, wurden insgesamt 2214 verschiedene Proteine identifiziert. Eine zusätzliche qualitative Analyse aufgereinigter bursaler B-Zellen führte zur Identifizierung von 758 Proteinen. Durch genontologische Analysen konnte festgestellt werden, dass für das Zellwachstum verantwortliche Proteine va. zu den frühen Zeitpunkten zu finden waren, während Proteine, welche eine Rolle für das Immunsystem spielen, eher zu späteren Entwicklungszeitpunkten in Erscheinung traten. Dies spiegelt die Entwicklung der Bursa von der unreifen, embryonalen Wachstums- und Differenzierungsprozessen unterliegenden Bursaanlage, zum fertig ausdifferenzierten, primär-lymphatischen Organ auf molekularer Ebene wider. Konform zu den hohen Proliferationsraten der B-Zellen während der Bursaentwicklung fanden sich in den genontologischen Analysen der B-Zellen besonders hohe Anteile an Proteinen, welche für Zellteilung verantwortlich sind. Proteine, welche in Zusammenhang mit Zellmigration stehen, wurden vor allem in der B-Zell-Probe sowie an ET10 gefunden, was als Hinweis auf eine Beteiligung dieser Proteine an der Einwanderung der B-Zellen in die Bursaanlage betrachtet werden kann. Die anschließende quantitative Proteomanalyse wurde zu denselben Entwicklungszeitpunkten an je sechs biologischen Replikaten mittels 2D-DIGE durchgeführt. In der statistischen Auswertung der quantitativen Veränderungen zeigten sich 402 hochsignifikante Unterschiede zwischen den bursalen Proteomen der verschiedenen Entwicklungszeitpunkte, wobei die sehr große Übereinstimmung der Analyseergebnisse innerhalb der biologischen Replikate die gute Reproduzierbarkeit der Experimente belegte. Die deutlichsten Veränderungen zeigten sich zwischen ET10 und allen weiteren Zeitpunkten, wohingegen innerhalb der übrigen Stadien eine geringere Anzahl signifikanter Unterschiede nachgewiesen wurde. Für die 402 differentiell exprimierten Proteine konnten verschiedene charakteristische Protein-expressionsverläufe nachgewiesen werden, welche Rückschlüsse auf die biologischen Hintergründe ermöglichten. Durch massenspektrometrische Analysen der Proteine mittels MALDI-TOF/TOF und LC-MS/MS gelang es, 203 der 242 zur Identifikation vorgesehenen Spots zu identifizieren. Im Rahmen einer bioinformatischen Auswertung des erhaltenen Datensatzes erbrachten sowohl die genontologische Analysen als auch Pathway-Analysen wesentliche Anhaltspunkte für die Auswahl besonders interessanter und vielversprechender Proteine für weiterführende funktionelle Analysen. Unter den identifizierten, differentiell exprimierten Proteinen fanden sich auffällig viele Vertreter des Aktin-Zytoskelett-Pathways, welcher für die mechanische Stabilisierung von Zellen und deren aktive Bewegungen verantwortlich ist. Dabei fielen in dieser Arbeit sowohl Vinculin als auch Gelsolin durch ihre charakteristischen Expressionsmuster auf. Vinculin zeigte zu Beginn der embryonalen Entwicklung erhöhte Abundanzwerte, welche nach ET18 steil abfielen. Als fokales Adhäsionsprotein stellt es ein Schlüsselprotein in der Regulation der Übertragung von kontraktilen Kräften dar, welche die Voraussetzung für die Migration von Zellen sind. Gelsolin, ein wichtiges Apoptose-Effektorprotein, welches auch in Verbindung mit Zellmotilität gebracht wird, zeigte erhöhte Expressionslevel an ET18, welche über die nachfolgenden Entwicklungszeitpunkte abfielen. Gelsolin konnte in drei verschiedenen Ladungs-Isoformen detektiert werden. Für die Fragestellung dieser Arbeit interessant erschien weiterhin eine Gruppe differentiell exprimierter Proteine des Retinolsäure-Metabolismus. Im Einzelnen wurden die Retinaldehydrogenase 2 (ALDH1A2), das „retinol-binding protein 5“ (RBP5), das „fatty acid-binding protein 7“ (FABP7), und Transthyretin (TTR) mit ähnlichen Proteinexpressions-profilen detektiert, welche ihr Expressionsmaximum jeweils an ET10 aufwiesen. Das könnte ein Hinweis sein, dass die embryonale Entwicklung der Bursa Fabricii von ähnlichen Faktoren gesteuert ist wie die embryonale Ausbildung der sekundär-lymphatischen Organe beim Säuger, bei der Retinolsäure-abhängige Proteine eine entscheidende Rolle spielen. Über die Thematik dieser Arbeit hinausgehend, stellt der umfangreiche proteomische Datensatz dieser Arbeit eine wertvolle Ressource dar, die sowohl für weitere Fragestellungen bezüglich der Bursa Fabricii des Huhns, als auch für die Vervollständigung der Annotation des Hühnergenoms genutzt werden können.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
Fourierdomänen modengekoppelte Laser: Aufklärung der Funktionsweise und Erschließung neuer Anwendungsbereiche

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05

Play Episode Listen Later Oct 29, 2010


Mit der Fourierdomänen Modenkopplung (FDML) wurde vor kurzem ein neuer Operationsmodus für sehr schnell in der Wellenlänge abstimmbare Laser entdeckt, bei dem ein schmalbandiger Spektralfilter resonant zur Lichtumlaufzeit im Resonator abgestimmt wird. Diese FDML-Laser, deren genaue Funktionsweise noch unverstanden ist, gehören zu den schnellsten weit abstimmbaren Lichtquellen und eignen sich besonders für die optische Kohärenztomografie (OCT), die ein junges dreidimensionales Bildgebungsverfahren darstellt. In dieser Arbeit wurden zwei Ziele parallel verfolgt. Zum einen sollten durch Optimierungen und Erweiterungen des Lasers neue Anwendungsmöglichkeiten insbesondere in der OCT ermöglicht, gleichzeitig aber auch neue Erkenntnisse über die genaue Funktionsweise der Fourierdomänen Modenkopplung auf physikalischer Ebene gewonnen werden. In dem eher anwendungsorientierten Teil dieser Arbeit wurde zunächst eine neue Methode entwickelt, mit der es in der OCT mit schnell abstimmbaren Lasern möglich ist, zweidimensionale Schnitte bei einer bestimmten Tiefe, sogenannte en face Schnitte, ohne aufwändige Computerberechnung zu erhalten. Während diese Schnitte bisher nur sehr rechenintensiv durch Nachbearbeitung und Extraktion aus einem vollständig aufgenommenen dreidimensionalen Datensatz gewonnen werden konnten, lassen diese sich nun um ein Vielfaches schneller aufnehmen und darstellen. Weiterhin wurde durch den Eigenbau eines auf Abstimmgeschwindigkeit optimierten Spektralfilters die Aufnahmegeschwindigkeit eines mit einem FDML-Laser betriebenen OCT-Systems um über eine Größenordnung erhöht, so dass dieses nun mit Abstand zu den schnellsten Systemen gehört. Obwohl bei diesen hohen Geschwindigkeiten das Signal-Rausch-Verhältnis durch Schrotrauschen bereits limitiert wird, konnten Aufnahmen sehr hoher Qualität erzeugt werden, was a priori nicht selbstverständlich war. Im Grundlagenteil dieser Arbeit wurde das Verständnis der Operationsweise der Fourierdomänen Modenkopplung erweitert. Da FDML-Laser vollständig aus Glasfaserkomponenten aufgebaut sind und Längen von mehreren Kilometern aufweisen, wurde der Einfluss der Faserdispersion auf sowohl Linienbreite und Rauschverhalten untersucht. Mit einer speziellen dispersionskompensierten Resonatorgeometrie konnte dabei ein einfaches Modell des Einflusses der Dispersion auf die Kohärenzlänge validiert und eine deutliche Erhöhung dieser erreicht werden. Ein umfassenderes Modell der Operationsweise von FDML-Lasern ist wünschenswert, um experimentell schwer zugängliche Fragestellungen beantworten zu können. Auf dem Weg dahin müssen zunächst alle physikalischen Effekte im Resonator, welche zur Lasertätigkeit beitragen, aufgeklärt werden. Hierzu wurde die zeitabhängige Leistung eines FDML-Lasers durch verschiedene Terme in der nichtlinearen Schrödingergleichung modelliert, numerisch ausgewertet und mit experimentellen Daten verglichen. Dadurch konnten wichtige an der Laseroperation beteiligte Prozesse aufgeklärt und eine Basis für weitergehende Simulationen geschaffen werden.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19
X-chromosomale Thrombozytopenie mit WASP-Mutationen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19

Play Episode Listen Later Jul 1, 2010


Das Wiskott-Aldrich Syndrom (WAS) ist eine X-chromosomal rezessiv vererbte Erkrankung mit einem sehr breiten Krankheitsspektrum, die interdisziplinäre Zusammenarbeit im Management betroffener Patienten erfordert. Ein großer Teil der Patienten mit Mutationen im Wiskott-Aldrich Syndrom-Protein (WASP)-Gen weist den milden Phänotyp der X-chromosomalen Thrombozytopenie (X-linked thrombocytopenia, XLT) auf. Intravenös verabreichte Immunglobuline und prophylaktische Antibiotika-Therapie zur Überbrückung der Zeit bis zur allogenen Stammzelltransplantation im frühen Kindesalter stellen für Patienten mit klassischem WAS das therapeutische Vorgehen der Wahl dar. Im Gegensatz dazu stellen Patienten mit dem milden klinischen Phänotyp XLT eine enorme Herausforderung bei der Entscheidung über Art und Ausmaß des therapeutischen Vorgehens dar. Besonders schwierig ist das Abwägen von sehr eingreifenden Therapiemaßnahmen wie der hämatopoietischen Stammzelltransplantation für sehr junge XLT-Patienten, die sich initial oft lediglich mit selektiver Mikrothrombozytopenie präsentieren. Zu einem so frühen Zeitpunkt kann noch keine Prognose für den Langzeitverlauf der Erkrankung gestellt werden, jedoch wäre eine frühe Evidenz-basierte Entscheidung für oder gegen diese einzig kurative Therapie extrem wichtig. Ähnlich schwierig gestaltet sich das therapeutische Management erwachsener XLT-Patienten, die fälschlicherweise als immun-thrombozytopenische Purpura klassifiziert wurden, aber möglicherweise schon XLT-assoziierte Komplikationen entwickelt haben. Diese retrospektive Multicenter-Studie wurde initiiert, um den natürlichen Krankheitsverlauf bei XLT nachzuzeichnen, die Wirksamkeit gängiger für das WAS etablierte Therapieregimes zu überprüfen und somit Evidenz für optimale Behandlungsoptionen zu schaffen. Es wurde eine retrospektive Fragebogen-basierte Datenerhebung an pädiatrischen Zentren mit Spezialisierung für angeborene Immundefekte durchgeführt. Patienten mit einer dokumentierten Mutation im WASP-Gen und einem klinischen WAS-Score von 2 oder geringer wurden in die Studie aufgenommen. Daten von insgesamt 185 Patienten aus zwölf Ländern, 2864 Patientenjahre umfassend, wurden analysiert. Um den natürlichen Krankheitsverlauf nachzuzeichnen, wurde der gesamte Datensatz für hämatopoietische Stammzelltransplantation zensiert. Das mediane Alter zum Zeitpunkt des letzten Follow-Up lag bei 11.2 Jahren. Die Gesamt-Überlebenswahrscheinlichkeit in dieser Kohorte war hervorragend. Dennoch beobachteten wir eine überraschend hohe Rate an schweren Krankheits-assoziierten Komplikationen wie potentiell lebensbedrohenden Infektionen (7.6%) oder Blutungsereignissen (14.1%), Autoimmunerkrankungen (11.9%) und malignen Tumoren (4.9%). Die Gesamtüberlebenswahrscheinlichkeit sowie die Wahrscheinlichkeit des ereignisfreien Überlebens wurden nicht statistisch signifikant durch die Art der Mutation oder die Expression von WASP beeinflusst. Patienten, die während der Beobachtungsperiode mit antibiotischer Prophylaxe oder intravenös verabreichten Immunglobulinen behandelt worden waren, zeigten keinen Überlebensvorteil gegenüber anderen. Eine Splenektomie, der sich 40 Patienten (21.6%) unterzogen hatten, stellte einen signifikanten Risikofaktor für die Entwicklung einer schwerwiegenden Infektion dar, bot jedoch keine statistisch signifikante Reduktion des Blutungsrisikos. Da Patienten mit XLT bei Ärzten verschiedener Fachrichtungen vorstellig werden, ist es von vitaler Bedeutung, das Bewusstsein für diese Erkrankung, die oft nicht oder fehldiagnostiziert wird, zu schärfen. Diese Daten definieren die Basis für den natürlichen Verlauf bei der milden Form des WAS und werden dazu beitragen, die bestmöglichen Behandlungsoptionen für jeden individuellen XLT-Patient anzubieten.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19

In der vorliegenden Arbeit wurde versucht, Konzepte für die Evaluation der Behandlungskosten von Intensivpatienten zu erstellen. Die so gewonnenen Erkenntnisse fanden Eingang in Ansätze für eine Optimierung der Ausgaben. Abschließend wurden alternative, vom DRG-System unabhängige Modelle für die Erlösberechnung untersucht. Hierfür wurden bei 390 Patienten die Behandlungskosten für ihren Intensivaufenthalt erhoben und mit aus DRG Datensätzen errechneten, durchschnittlichen Behandlungskosten, hier als „Fallwert“ bezeichnet, verglichen. Zusätzlich wurden die Ausgaben für Labordiagnostik, eventuell erwirtschaftete Zusatzentgelte (ZE), Liegedauer, Beatmungsstunden und die erreichte Anzahl an TISS28 und Intensivkomplexbehandlungspunkten (IKB) eines jeden Falles bestimmt. Die summierten Kosten aller betrachteten Fälle beliefen sich auf 5.594.345,89€ und lagen damit 389.541,65€ über dem errechneten Fallwert von 5.204.804,24€. Erst durch die ZE ergab sich eine positive Kostendeckung von 327.044,87€. Die 139 prä MDC Fälle des betrachteten Kollektivs verursachten Kosten von 4.794.728,03€ (4.060.487,28€ abzüglich ZE) und lagen damit 766.822,68€ (51.317,58€) über dem Fallwert. 55% der prä MDC Ausgaben entfielen auf die Personalkosten (PK) für ärztlichen Dienst (ÄD), Pflege (PD) und medizinisch-technischen Dienst (MTD). Sowohl bei den PK ÄD als auch den PK PD wiesen Fälle mit nichtgedeckten PK signifikant höhere Liegezeiten und PK pro Stunde auf. Die Kalkulation der PK basiert auf der aufwandsgewichteten Liegedauer, somit bilden die Kosten pro ungewichteter Stunde indirekt die Komplexität eines Falls ab. Eine lineare Regressionsfunktion zeigte jedoch, dass dieser Faktor im Vergleich zu der Liegedauer nur einen geringen Einfluss auf die Abweichung der Personalkosten vom geschätzten Fallwert hatte. Die Kosten der 251 nicht-prä MDC Fälle lagen bei 799.617,86€ und damit 377.281,02€ unterhalb des errechneten Fallwertes von 1.176.898,88€. Die ZE beliefen sich auf nur 1.081€. Die Personalkosten verursachen in diesem Kollektiv 61% der Gesamtkosten, und auch hier wiesen Fälle mit nicht gedeckten PK signifikant höhere Liegezeiten und Kosten pro Stunde auf, wobei der erstgenannte Faktor wiederum den größten Einfluss auf die Abweichung der Kosten vom Fallwert hatte. Verlässt man die Aufteilung nach MDC, so verursachten Pneumoniepatienten mit median 28.082,43€ die höchsten Kosten, gefolgt von Fällen mit Organersatztherapie mit 25.088,12€. Beide Male führte auch die Berücksichtigung von ZE nicht zu einer Deckung der medianen Ausgaben. Bei den Patienten mit Organersatztherapie lagen jedoch die summierten Kosten nach Abzug der ZE unterhalb des Fallwertes. Bei Aufnahmen aus externen Kliniken waren die mediane Kosten auch mit ZE über dem medianen Fallwert angesiedelt (14.728,89€ vs. 12.415,49€), die summierten Kosten wiesen hier von allen betrachteten Kollektiven die größte Abweichung vom summierten Fallwert auf (1.227.248,42€ bzw. abzüglich ZE 975.405,76€ vs. 789.660,45€). Die medianen Kosten der 30 Nonsurvivor waren selbst mit den ZE nicht gedeckt. Aufgrund von Ausreißern bei den Erlösen aus ZE lagen die summierten Kosten dieses Kollektivs jedoch 233.988,43€ unterhalb des Fallwertes. Somit erzielte diese Gruppe einen positiven Erlös, der über dem alle übrigen Fälle (93.056,44€) lag. Die medianen Ausgaben bei Transplantationspatienten lagen bereits ohne ZE unterhalb des geschätzten medianen Fallwertes (9.501,64€ vs. 18.735,66€). Der in einem nächsten Schritt durchgeführte Versuch, Fallkosten nicht anhand von vordefinierten Fallwerten, sondern alleine über die Kosten pro TISS28, IKB, Beatmungsstunde oder Behandlungsstunde zu evaluieren, erwies sich als wenig erfolgreich. Legte man die aus den DRG Daten errechneten Fallwerte zugrunde, so konnte nur für die Kosten pro TISS28 und nur im Kollektiv der prä MDC Patienten eine suffiziente Vorhersagekraft bezüglich der Kostendeckung festgestellt werden (AUC=0,797). Die Sachkosten Arzneimittel (SK AM) beliefen sich auf insgesamt 1.185.556,65€ und lagen damit 577.937,51€ über dem errechneten Wert. Von den Gesamtkosten entfielen 555.220,06€ auf den Ist-Verbrauch von teuren Antibiotika, Antimykotika und bestimmten Blutprodukten (SK AM mit Einzelkosten). Dies wurde als Ansatzpunkt für eine Überlegung zur Ausgabensenkung gewählt. In der Literatur besteht der Konsens, dass durch zielgerichtete Pharmakotherapie Kosten gesenkt werden können. Hiervon ausgehend wurde überprüft, ob in dem betrachteten Datensatz ein statistischer Zusammenhang zwischen den Ausgaben für Labordiagnostik und Arzneimittel bestand. Eine lineare Regressionsanalyse zeigte einen negativen Einfluss der Laborausgaben auf die SK AM mit Einzelkosten. Eine getrennte Betrachtung der mikrobiologischen Diagnostik und der klinischen Chemie ergab nur für letztere ein negatives Einfließen in die Regressionsfunktion. Ausgehend von den erhobenen Daten scheinen Mehrausgaben für einen bestimmten Bereich der Labordiagnostik somit eine Kostenersparnis bei Arzneimitteln zu ermöglichen. Abschließend wurde die Problematik der Kostendeckung bei hochkomplexen Fällen zum Anlass genommen, alternative, vom DRG-System unabhängige Methoden für die Erlösberechnung zu untersuchen. Es sollte gezeigt werden, dass aus klinischen Daten die tatsächlichen Behandlungskoten suffizient berechnet werden und diese Werte damit auch als Grundlage für die Erlösbestimmung dienen können. Von den vier untersuchten Variablen (TISS28, IKB, Beatmungsdauer und Liegedauer) zeigten der TISS28 und die Liegedauer die höchste Kostenkorrelation (R²=0,964 und R²=0,944). Bei Patienten mit einer Aufenthaltsdauer von unter 48 Stunden korrelierte von allen Variablen jedoch nur noch der TISS28 suffizient mit den Ausgaben (R²=0,884). Nach Randomisierung der betrachteten Fälle auf zwei Gruppen wurde an Kollektiv 1 für jede Variable eine Regressionsfunktion erstellt, welche bei Kollektiv 2 die Behandlungskosten vorhersagen sollte. Zuvor durchgeführte Überlegungen kamen zu dem Schluss, dass eine kubische Funktion das Verhältnis von Kosten zu Variable am besten abbildet. Die mit dem TISS28 geschätzten Kosten wichen bei den prä MDC um median -1,76%, beim Gesamtkollektiv um median -1,78% von den tatsächlichen Kosten ab. Die Schätzung anhand der Liegedauer erreichte Abweichungen von median -6,75% und -1,30%. Die mit der IKB erzielten Werte divergierten dagegen stark von den tatsächlichen Kosten (-9,57% und 16,02%). Die Kosten pro IKB Punkt wiesen jedoch eine hohe Varianz auf, was zusammen mit einer geringen Fallzahl zu einem ungenauen Regressionsmodell und damit einer eingeschränkten Beurteilbarkeit der Ergebnisse führte. Durch den Vergleich mit definierten Fallwerten ist es folglich möglich, die intensivmedizinischen Kosten von verschiedenen Patientenkollektiven zu evaluieren und Ansätze für die Optimierung der Ausgaben zu entwickeln. Auch wäre ein von Fallpauschalen losgelöstes System der Erlösberechnung, welches auf relativ simplen, klinischen Parametern basiert, denkbar.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 09/19
Strategien für die Expressionsanalyse in funktionellen Gengruppen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 09/19

Play Episode Listen Later Feb 20, 2009


Die Analyse von Genexpressionsdaten, die durch die Microarray-Technologie bereit gestellt werden, ist in den letzten Jahren zu einem interessanten Forschungsfeld der Statistik geworden. Die ersten Verfahren auf diesem Gebiet zielen darauf ab, differentiell exprimierte Gene aus der riesigen Menge aller Gene eines Microarrays heraus zu filtern. Das Resultat einer solchen genweisen Analyse ist eine Liste interessanter Gene. Derartige Listen einzeln ausgewählter Gene sind allerdings schwer in einen biologischen Kontext zu bringen. Überdies hängen sie stark von der verwendeten Analysemethode und vom jeweiligen Datensatz ab, so daß Genlisten verschiedener Arbeitsgruppen meist eine relativ schlechte Übereinstimmung aufweisen. Eine Alternative beziehungsweise Weiterführung der genweisen Herangehensweise bietet die Analyse funktioneller Gengruppen. Diese beinhalten biologisches Vorwissen über das Zusammenspiel von Genen. Somit sind relevante Gengruppen sinnvoller interpretierbar als einzelne relevante Gene. Es werden verschiedene Verfahren für die Untersuchung funktioneller Gengruppen hinsichtlich differentieller Expression vorgestellt und auf methodischer Ebene sowie anhand von realen Datenbeispielen und Simulationsstudien verglichen. Von speziellem Interesse ist hier die Familie von Gengruppen, die durch die Gene Ontology definiert wird. Die hierarchische Struktur dieser Ontologien bedeutet eine zusätzliche Herausforderung für die Analyse, insbesondere für die Adjustierung für multiples Testen. Ein globaler Test auf differentielle Expression in Gengruppen ist das GlobalAncova Verfahren, welches im Rahmen dieser Arbeit weiter entwickelt und als R Paket bereit gestellt wurde. Die Signifikanz von Gengruppen kann dabei durch ein Permutationsmodell sowie über die asymptotische Verteilung der Teststatistik bewertet werden. Wir legen die theoretischen Grundlagen und Aspekte der Programmierung des Verfahrens dar. GlobalAncova eignet sich für die Analyse komplexer Fragestellungen. Hierzu werden einige ausführliche Auswertungen präsentiert, die im Rahmen von Kooperationen mit Medizinern und Biologen durchgeführt wurden.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 09/19
Stellenwert von fäkalem Calprotectin bei Kindern über 3 Jahren mit chronisch-entzündlicher Darmerkrankung

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 09/19

Play Episode Listen Later Nov 13, 2008


Zur Einschätzung der Krankheitsaktivität bei Kindern mit chronisch-entzündlichen Darmerkrankungen (CED) werden im klinischen Alltag und für Studien Aktivitätsindices (AI) benutzt, in die sowohl klinische Symptome als auch Laborparameter einbezogen werden. Zur Beurteilung der Entzündung im Darm hat sich in den letzten Jahren die Messung des fäkalen Calprotectin etabliert. Calprotectin ist ein wesentlicher Bestandteil von neutrophilen Granulozyten und zeigt im Stuhl bei Raumtemperatur eine gute Stabilität. Ziel der vorliegenden Arbeit war es, die Korrelationen zwischen fäkalem Calprotectin und den Aktivitätsindices bzw. ausgewählten Laborparametern wie BGS, CRP, Albumin, Hämoglobin und Leukozyten bei Kindern mit CED zu untersuchen. Außerdem wurden die Calprotectin-Konzentrationen bei klinischer Remission und bei aktiver Krankheit verglichen. Für die Querschnittsuntersuchung schlossen wir retrospektiv alle CED-Patienten älter als 3 Jahre aus der gastroenterologischen Ambulanz des Dr. von Haunerschen Kinderspitals ein, bei denen zwischen März 2003 und Mai 2005 alle Daten zur Berechnung der Aktivitätsindices (AI) erhoben und zeitgleich das fäkale Calprotectin mittels ELISA gemessen wurde. Bei den Kindern mit Morbus Crohn wurden der Pediatric Crohn’s Disease Index (PCDAI) und der modifizierter Lloyd Still Index (mLSS) bestimmt, bei denen mit Colitis ulcerosa der Ulcerative Colitis Activity Index (UCAI) und ebenfalls der mLSS. Von jedem Kind wurde die erste Untersuchung mit vollständigem Datensatz in die Berechnungen einbezogen. Für die longitudinale Untersuchung wurden 151 Calprotectinmessungen von 27 Kindern (19 Morbus Crohn, 8 Colitis ulcerosa) eingeschlossen, die zu Beginn des Beobachtungszeitraumes in Remission (also einen negativen AI aufwiesen) waren und wurden über mindestens ein Jahr in der gastroenterologischen Ambulanz betreut. Diese Calprotectinmessungen wurden dann nach Krankheitsaktivität (Remission oder Schub) aufgeteilt und verglichen. Remission wurde als klinische Beschwerdefreiheit mit negativem AI definiert. Zugleich wurde Schub als Auftreten oder Verschlechterung von CED-spezifischen Symptomen festgestellt, begleitet von einer Steigerung der jeweiligen AI und einer Veränderung der Therapie. Bei der Querschnittuntersuchung wurden 104 Patienten (36 MC / 68 MC) eingeschlossen. Bei beiden Gruppen waren je zur Hälfte in klinischer Remission, die andere Hälfte zeigte Krankheitsaktivität entsprechend den berechneten AI. Bei MC korrelierten die FC-Werte signifikant mit Albumin i.S. (r= -0,52; p< 0,0001), Hb-Wert (r= -0,39; p< 0,01), CRP (r= 0,58; p< 0,0001), BSG (r= 0,51; p< 0,0001) und Leukozyten (r= 0,35; p< 0,01). Auch fanden sich signifikante Korrelationen zwischen FC-Konzentration und dem PCDAI (r= 0,50; p< 0,0001) und dem UCAI (r= 0,42; p< 0,05). Sowohl bei CU-Patienten als auch bei MC-Patienten korrelierte FC mit dem mLSS (r= -0,57 und p< 0,0001 bei CU; r= -0,39 und p< 0,01 bei MC). Nur 8 von 18 Patienten mit CU bzw. 10 von 34 Patienten mit MC in klinischer Remission zeigten ein negatives Calprotectin. Bei den Patienten, die klinisch einen Schub hatten, zeigte jeweils nur ein Patient ein negatives Calprotectin. Bei der longitudinalen Untersuchung wurde ein signifikanter Unterschied zwischen dem Median FC-Werte in der Remissions-Gruppe und dem Median der Gruppe mit aktiver Erkrankung sowohl bei Colitis ulcerosa (FC-Remission= 102 µg/g; FC-Schub= 260 µg/g; p= 0,005) als auch bei Morbus Crohn (FC-Remission= 224 µg/g; FC-Schub= 290 µg/g; p= 0,002) festgestellt. In dieser Arbeit konnte gezeigt werden, dass die Messung von fäkalem Calprotectin ein sensitiverer Marker zur Erfassung von entzündlicher Aktivität im Darm als die klinischen Aktivitätsindices ist. Des Weiteres müssen Langzeituntersuchungen klären, ob ein normaler Wert von fäkalem Calprotectin ein prädiktiver Parameter für eine länger anhaltende Remission ist.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 08/19
Wertigkeit der hochauflösenden craniellen Computertomographie in der Diagnose von Frakturen der Schädelbasis

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 08/19

Play Episode Listen Later Mar 6, 2008


Frakturen im Bereich der Schädelbasis sind mitunter (z.B. durch Aufhärtungsartefakte) schwer zu diagnostizieren. Da diese Frakturen unentdeckt und unbehandelt schwerwiegende Konsequenzen nach sich ziehen können und auch hohe Kosten verursachen, ist ihre exakte Diagnose und Darstellung von eminenter Wichtigkeit. Ziel dieser Arbeit war zu untersuchen, ob die hrCCT der bisherigen, „normalen“ CCT (nCCT) in der Detektion von Frakturen insbesondere der Schädelbasis überlegen ist. Hierbei wurden Aufnahmen in einem geräteseitig voreingestellten hochauflösenden Rekonstruktionskernel mit Kantenbetonung aus dem primären Datensatz rekonstruiert. Die Aufnahmen wurden jeweils im Knochenfenster (center 300 HU, width 2000 HU) beurteilt. Die Schichtdicke betrug 4 mm in der nCCT und 2 mm in der hrCCT. Zwei erfahrene Radiologen befundeten die CCTs im Konsensusverfahren. Es wurden insgesamt 98 Patienten mit Frakturen im Bereich des Schädels, der Schädelbasis oder der Gesichtsknochen untersucht. Insgesamt fanden sich bei 93/98 Patienten 255 Frakturen, am häufigsten lokalisiert in der Schädelbasis (70), dem Mittelgesicht (63) und der Orbita (53). In der nCCT wurden bei 64/98 Patienten insgesamt 144 Frakturen diagnostiziert. In der hrCCT wurden bei 29/98 Patienten insgesamt 77% mehr Frakturen erkannt als in der nCCT. Die hrCCT war der nCCT somit signifikant (p

Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 02/06
Die gepulste alternierende Anregung in der konfokalen Fluoreszenzspektroskopie

Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 02/06

Play Episode Listen Later Jan 19, 2007


Die konfokale Fluoreszenzspektroskopie ermöglicht die Untersuchung der Struktur und Dynamik von Biomolekülen. In den letzten Jahren konnte sie sich zunemend im Bereich der Einzelmolekülspektroskopie etablieren, jedoch besteht gerade im Hinblick auf die zunehmende Zahl der in vivo-Anwendungen Potential, die Sensitivität und die Information, die aus einem einzelnen Datensatz herausgefiltert werden kann , zu erhöhen. In dieser Arbeit konnte die Methode der gepulsten alternierenden Anregung (Pulsed Interleaved Excitation, PIE) entwickelt werden, bei der die zusätzliche Information zugänglich ist, mit welcher Anregungsquelle das jeweilige Photon erzeugt wurde.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Bedeutung des FGFR4 Polymorphismus in der Pathogenese und Progression von Tumorerkrankungen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19

Play Episode Listen Later Jan 11, 2007


In der vorliegenden Arbeit wurde die Rolle des kürzlich identifizierten Polymorphismus im Gen der Rezeptortyrosinkinase FGFR4 (fibroblast growth factor receptor 4) im besonderen Hinblick auf seine Zusammenhänge mit der humanen Tumorpathogenese näher untersucht. Es handelt sich dabei um eine Keimbahnmutation, die zu einem Austausch der hydrophoben Aminosäure Glycin gegen die hydrophile, stark geladene Aminosäure Arginin an Position 388 (Arg388) und somit zu einer veränderten Proteinstruktur in der Transmembrandomäne des Rezeptors führt. Zuvor publizierte Studien, die Tumore verschiedener Organsysteme mit Fokus auf den FGFR4 Polymorphismus untersuchten, postulieren einen Zusammenhang zwischen der Rezeptormutation und seinem Einfluss auf die Tumorprogression und das Metastasierungspotential. Um diesen Einfluss der Mutation in unserem Tumorkollektiv zu untersuchen, führten wir bei Tumorproben von 301 Patienten, die an einem Plattenepithelkarzinom aus dem Bereich des Oropharynx litten, eine Genotypisierung mittels RFLP-PCR sowie immunhistochemische Untersuchungen durch, um die Expressionsstärke des FGFR4 feststellen zu können. Dabei zeigte sich, dass der FGFR4 in 34% der Fälle in heterozygoter oder homozygoter mutierter Form im Kollektiv vorliegt. Das entspricht einer Allelfrequenz für das Arg388 von 0.2. Die Verteilung der Rezeptorexpression im Kollektiv war weitgehend gleichmäβig verteilt. Um die Auswirkungen der durch die Untersuchungen gewonnenen Parameter auf die Tumorpathogenese festzustellen, wurden sie mit einem umfassenden Datensatz, der aus den Patientenakten gewonnen wurde, korreliert. Statistische Untersuchungen wiesen keine signifikanten Zusammenhänge zwischen dem FGFR4 Genotyp und der Tumorprogression oder einem gesteigertem Metastasierungspotential nach. Auch die in anderen Organsystemen zuvor festgestellte verringerte rezidivfreie Überlebenszeit bei Vorliegen des Arg388 Allels konnte in dem Kollektiv dieser Studie nicht reproduziert werden. Bezüglich der Rezeptorexpression ergaben unsere Untersuchungen Hinweise auf einen Überlebensvorteil bei starker FGFR4 Expression. Signifikante Zusammenhänge zwischen Rezeptorexpression und Tumorgröβe oder Tumorprogression konnten jedoch nicht nachgewiesen werden und decken sich mit den Ergebnissen von Streit et al. Somit können wir die bereits mehrfach postulierte Perspektive nicht stärken, den FGFR4 als Prädiktor oder prognostischen Parameter bei Krebserkrankungen zu deklarieren.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05

Diese Dissertation beschreibt die Ergebnisse des Wendelstein Calar Alto Pixellensing Project (WeCAPP), welches in Richtung der Andromeda Galaxie (M31) nach Dunkler Materie in Form von "Massiven Kompakten Halo Objekten" (Machos) sucht. Die neuesten wissenschaftlichen Befunde legen ein Universum mit flacher Geometrie nahe, zu dessen Dichteinhalt Dunkle Materie ca. 23% beitraegt. Weitere 4.5% werden baryonischer Materie zugeschrieben, wobei von diesem Anteil bei kleiner Rotverschiebung bisher nur ca. 10% nachgewiesen werden konnten. Die Kandidaten fuer Machos in den Halos von Galaxien umfassen eine baryonische Komponente (vergangene Sterne wie z.B. Weisse Zwerge oder Neutronensterne), sowie eine nicht-baryonische Komponente, zum Beispiel in Form von primordialen Schwarzen Loechern. Da diese Objekte nur sehr schwach leuchten, sind sie dem direkten Nachweis entzogen. Sie koennen jedoch indirekt ueber den Gravitationslinseneffekt nachgewiesen werden, den sie auf das Licht von Sternen im Hintergrund ausueben. Der beobachtbare Helligkeitsanstieg ist charakteristisch fuer solche sogenannten Mikrolinsenereignisse und laesst sich gut von der Helligkeitsaenderung Veraenderlicher Sterne unterscheiden. Die Seltenheit der Gravitationslinsenereignisse machte den Aufbau eines grossen Datensatzes mit entsprechender zeitlicher Ueberdeckung notwendig, was durch simultane Beobachtungen an zwei Standorten (Wendelstein und Calar Alto) erreicht werden konnte. Nach einer kurzen Einfuehrung gibt Kapitel 2 einen Ueberblick ueber das Experiment und die Beobachtungsstrategie und stellt die Teleskope und verwendeten Instrumente vor. Desweiteren behandelt Kapitel 2 die Eigenschaften des Datensatzes (1997 - 2005) und stellt die Algorithmen und Methoden vor, die zum Reduzieren der Daten angewandt wurden. Kapitel 3 praesentiert ein aktualisiertes Modell der Massen- und Lichtverteilung der Andromeda Galaxie, welches gut mit kinematischen Daten, als auch mit Vorhersagen von stellaren Populationsmodellen uebereinstimmt. In Kapitel 4 wird dieses Modell genutzt, um die erwartete Rate von Gravitationslinsenereignissen und deren raeumliche Verteilung fuer das WeCAPP Experiment zu berechnen. Kapitel 5 praesentiert die Kandidaten fuer Mikrolinsenereignisse, die im WeCAPP Datensatz identifiziert werden konnten. Sowohl die Anzahl der Ereignisse als auch ihre raeumliche Verteilung deuten darauf hin, dass sie durch stellare Linsen in M31 selbst verursacht wurden (self-lensing). Der Machoanteil ist demgegenueber als eher gering einzuschaetzen. Der aufgebaute Datensatz ist aufgrund seiner langen zeitlichen Ueberdeckung hervorragend geeignet, intrinsisch Veraenderliche Quellen in M31 zu studieren. In Kapitel 6 wird dieser Katalog von ueber 20 000 Veraenderlichen Quellen praesentiert. Die gemessene Anzahldichte der Quellen weist eine starke Asymmetrie auf, die auf den Einfluss erhoehter Extinktion in den Spiralarmen zurueckzufuehren ist. Die Veraenderlichen lassen sich in 3 Gruppen einteilen, wobei sich in Gruppe 1 die klassischen Cepheiden befinden. Gruppe 2 enthaelt unter anderem Klasse 2 Cepheiden und RV Tauri Veraenderliche, wohingegen sich Gruppe 3 aus Langperiodischen Veraenderlichen zusammensetzt. Die Parameter, die aus der Fourieranalyse der Lichtkurven klassischer Cepheiden extrahiert werden konnten, zeigen den bekannten Verlauf mit der Periode der stellaren Pulsation. Auch fuer die Klasse 2 Cepheiden und die RV Tauri Sterne konnte eine Korrelation bestimmter Phasenparameter gefunden werden, wobei die Relation der RV Tauri Sterne eine Fortfuehrung der Relation der Klasse 2 Cepheiden ist. Dieses Ergebnis unterstuetzt die enge Verbindung zwischen beiden Arten von Veraenderlichen. Neben pulsierenden Veraenderlichen wurden auch ueber 60 klassische Novae identifiziert, deren Helligkeitsverlauf einen eruptiven Charakter aufweist. Der daraus resultierende Novakatalog, der in Kapitel 7 praesentiert wird, ist einer der groessten und homogensten seiner Art. Eine Korrelation mit historischen Novae erbrachte 5 Kandidaten fuer wiederkehrende Novae. Fuer einige Novae gelang es, den Zeitpunkt des Ausbruchs genau zu bestimmen und damit zu zeigen, dass die Konstanz der Helligkeit 15 Tage nach Maximum fuer schnelle und moderat schnelle Novae zu gelten scheint. Sehr schnelle Novae scheinen jedoch davon abzuweichen. Mit Hilfe dieser Relation und den exponentiellen Angleichungen an die Lichtkurven konnte gezeigt werden, dass fuer mittlere Abfallszeitskalen t2 die maximale Helligkeit linear mit dem Logarithmus der Abfallszeit skaliert, fuer grosse t2 jedoch eine Abflachung dieser linearen Relation festzustellen ist.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Untersuchungen über die normale Konstellation der Kupfer- und Coeruloplasmin-Konzentrationen im Serum des Menschen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19

Play Episode Listen Later Mar 23, 2006


Kupfer im Serum des Menschen lässt sich zwei Kompartimenten zuordnen: dem Coeruloplasmin-Kupferkompartiment, welches das meiste Kupfer des Serums gebunden an das Cuproprotein Coeruloplasmin enthält, und dem Nicht-Coeruloplasmin-Kupferkompartiment, dem alles übrige Kupfer gebunden vorwiegend an Albumin und Aminosäuren zugerechnet wird. Über die Kupfermengen in den beiden Kompartimenten gibt es sehr widersprüchliche Meinungen. So werden die Zahl der Kupferatome im Cpl-Molekül mit 6 bis 8 und der Anteil des nichtCplCu am gesamten Serumkupfer mit 1 bis 40% angegeben. Von einzelnen Untersuchergruppen durchgeführte Berechnungen und Messungen haben jedoch ergeben, dass das Cpl-Molekül sechs Kupferbindungsstellen besitzt, die unter normalen Bedingungen immer besetzt sind, und dass mit hochempfindlichen Nachweismethoden selbst geringe Kupfermengen wie 0,1 µmol/l in coeruloplasminfreien Seren nicht gefunden werden. Wegen dieser widersprüchlichen Angaben ist eine sinnvolle Bewertung von Cu- und Cpl-Messungen bei Patienten nicht möglich. Es gibt zwar jeweils Normbereiche für Cu und für Cpl im Serum. Diese erlauben jedoch lediglich eine getrennte Einstufung der Messwerte beider Faktoren und lassen die Abhängigkeit der Cu- von der Cpl-Konzentration unberücksichtigt. Störungen im Kupferhaushalt bleiben deshalb häufig unerkannt. In dieser Arbeit wird versucht, die Gründe für die widersprüchlichen Angaben in der Literatur aufzudecken, in dem nach Gesetzmäßigkeiten zwischen den Konzentrationen von Cu und Cpl im Serum von gesunden Menschen und von Patienten mit verschiedenen Erkrankungen gesucht wird. Denn erst wenn die Gesetzmäßigkeiten bekannt sind, können normale und pathologische Verhältnisse von Cu und Cpl im Serum des Menschen von einander abgegrenzt und Störungen im Kupferhaushalt aufgedeckt werden. Überprüft werden in dieser Arbeit die folgenden drei Hypothesen. Hypothese I: „Nahezu das gesamte Cu des Serums ist Cpl gebunden“ oder „Unter normalen Bedingungen lassen sich im Serum des Menschen keine signifikanten Konzentrationen von nichtCplCu nachweisen.“ Hypothese II: „Die Cu- und Cpl- Konzentrationen im Serum des Menschen stehen in einem festen, positiven linearen Verhältnis zueinander.“ Hypothese III: „Das Coeruloplasminmolekül im Serum des Menschen enthält konstant sechs Atome Kupfer.“ Dem Dokumentationszentrum für Kupfervergiftungen im Dr. von Haunerschen Kinderspital wurden von fünf Klinisch-chemischen Instituten in fünf Städten Deutschlands Serien (Datensätze) von Cu- und Cpl-Messwerten aus den Jahren 1988 bis 2004 für weitere Berechnungen überlassen. Aus den Datensätzen wurden in dieser Arbeit alle Parallelmessungen von Cu und Cpl in jeweils ein und derselben Serumprobe (sog. CuundCpl-Messungen) mit Hilfe der linearen Regressionsanalyse (OSL) untersucht und entsprechend der Formel „Y = a + b * X“ die Mittelwerte für „a“ = intercept = (hier:) das nichtCplCu und für „b“ = Steigung der Regressionsgeraden = (hier:) der Cu/Cpl-Koeffizient = Zahl Cu-Atome pro Cpl-Molekül berechnet. Die Regressionsformel lautet dann: „Cu = nichtCplCu + Cu/Cpl-Koeffizient * Cpl“; das Produkt „Cu/Cpl-Koeffizient * Cpl“ repräsentiert das CplCu. Analysiert wurden insgesamt 1239 CuundCpl-Messwertepaare. Das aus methodischer Sicht wichtigste Ergebnis der Untersuchung war, dass eine gemeinsame Analyse aller Datensätze zu nicht plausiblen Ergebnissen führt, weil – bei nahezu identischen mittleren Messwerten für Cu – die mittleren Cpl-Messwerte der einzelnen Institute, aber auch ein und desselben Institutes aus verschiedenen Jahren erheblich von einander abweichen. Diese offensichtlich systematische Abweichung der Cpl-Messungen hatte zur Folge, dass sich für die Datensätze unterschiedliche Cu/Cpl-Koeffizienten und damit unterschiedliche Zahlen von Cu-Atomen pro Cpl-Molekül errechneten. Getrennte Regressionsanalysen der Datensätze ergaben dann übereinstimmend für die überwiegende Zahl (mehr als 90%) der Messungen in den Seren keine statistisch signifikanten Cu-Konzentrationen im nichtCplCu-Kompartiment (mittlere Konzentrationen unter 0,2 µmol/l) und für die einzelnen Datensätze (also für jedes Labor für bestimmte Zeitabschnitte) konstante Cu/Cpl-Koeffizienten zwischen 6,0 und 8,8. Bei einer mittleren GesCu-Konzentrationen von ca. 20 µmol/l im Serum errechnet sich somit für das nichtCplCu ein Anteil von weniger 1%. Das Ergebnis bestätigt die Hypothese I dieser Arbeit und die Mittelung von Evans et al. (1989) die bei direkten Messungen in Seren von Menschen kein nichtCplCu (untere Nachweisgrenze: 0,1 µmol/l) nachweisen konnten. Die für jedes Labor (und für bestimmte Zeitperioden) als Konstante zu errechnenden Cu/Cpl-Koeffizienten (Bestätigung der Hypothese II dieser Arbeit) weisen daraufhin, dass die Cpl-Messmethoden nicht ausreichend standardisiert und ihre Ergebnisse deshalb nicht geeignet sind, die Hypothese III dieser Arbeit zu überprüfen: nur in einem der fünf Datensätze konnte der erwartete Cu/Cpl-Koeffizient von 6 gefunden werden. Im Verlauf der Untersuchungen dieser Arbeit erwies sich die Ermittlung des Cu/Cpl-Koeffizienten mittels Regressionsanalyse (OLS) als immer dann nicht möglich ist, wenn sich unter den CuundCpl-Messwertepaaren stark abweichende Messungen, wie solche mit einem Kupferüberschuss, befanden. Die Arbeit zeigt jedoch Verfahren auf, wie diese Messungen im Datensatz erkannt und entfernt werden können. Ein solches Vorgehen erwies sich jedoch als überflüssig, weil sich herausstellte, dass der nach Berechnung des Cu/Cpl-Quotienten für alle Serumproben eines Datensatzes ermittelte Median der Quotienten (MedianCu/Cpl-Q) immer nahezu identisch ist mit dem zugehörigen Cu/Cpl-Koeffizienten. Der MedianCu/Cpl-Q kann in praxi in jedem Labor z. B. täglich oder wöchentlich anhand von Routinemessungen bei Patienten ermittelt und dann anstelle des Cu/Cpl-Koeffizienten verwendet werden. Ist der Cu/Cpl-Koeffizient oder der (hier als gleichwertig gefundene) Median der Cu/Cpl-Quotienten eines Laboratoriums bekannt, lässt sich aus den Messwerten Cu und Cpl der CuSOLL-Wert der Probe ermitteln und ein Überschuss an Cu, wie er z.B. bei Patienten mit Morbus Wilson oder mit einer Kupfervergiftung vorkommt, ermitteln. Die entsprechenden Formeln lauten: „deltaCu = CuIST- Cu/Cpl-Koeff. * CplIST“ bzw. „deltaCu = CuIST- MedianCu/Cpl-Q * CplIST“. Auf diese Weise lässt sich eine „echte“ Hypercuprämie (die hypercupraemia vera), die auf ein Missverhältnis zwischen Cu und Cpl im Serum hinweist, unterscheiden von der einfachen Hypercuprämie (der hypercupraemia simplex), die immer dann auftritt, wenn Cpl im Serum z.B. bei entzündlichen oder malignen Prozessen oder unter hormonellem Einfluss bei Schwangerschaft oder Antikonzeption, erhöht ist. Ausblick: Die in dieser Arbeit ermittelten Gesetzmäßigkeiten zwischen den Konzentrationen von Cu und Cpl im Serum gesunder und kranker Menschen erlaubt eine gezielte Suche nach Patienten/Krankheiten mit Störungen im Kupferhaushalt; sie ermöglicht insbesondere eine quantitative Bestimmung des Kupferüberschusses im Serum von Menschen mit Morbus Wilson und den Kupfervergiftungen als einen zur Diagnose führenden Befund.

Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
Diversität und Abundanz des Ribulose-1,5-bisphosphat Carboxylase/Oxygenase (RubisCO) -Gens cbbL autotropher Bakterien in Agrarböden

Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06

Play Episode Listen Later Nov 12, 2004


Autotrophe Bacteria sind von zentraler Bedeutung für den terrestrischen Kohlenstoffkreislauf, da sie dem an verfügbaren organischen Kohlenstoffverbindungen armen Boden Biomasse zuführen und einen Beitrag zur Reduzierung des atmosphärischen CO2 leisten könnten. Doch während die autotrophen Prozesse und die daran beteiligten Mikroorganismen in aquatischen Habitaten bereits gut untersucht und verstanden sind, besteht noch erheblicher Forschungsbedarf zur Diversität und Abundanz autotropher Bakterienpopulationen in Böden. In dieser Arbeit sollten zentrale Fragen zur Charakterisierung der autotrophen Gemeinschaften mit Werkzeugen der molekularen mikrobiellen Ökologie bearbeitet werden. Die meisten Prokaryota, die mit CO2 als einzige Kohlenstoffquelle zu wachsen vermögen, fixieren dieses über den Calvin-Benson-Bessham Zyklus. Das Schlüsselenzym dieses Zykluses ist die Ribulose-1,5-bisphosphat Carboxylase/Oxygenase (RubisCO). Die große Untereinheit der Form I-RubisCO wird von dem Gen cbbL kodiert, welches phylogenetisch in zwei Hauptentwicklungslinien unterteilt wird: ‚green-like’ und ‚red-like’. Um einen Einblick in die genetische Diversität CO2-fixierender Bakterien in unterschiedlich gedüngten Agrarböden des Dauerdüngungsversuchs Ewiger Roggenbau in Halle/Saale zu erlangen, wurde eine auf PCR basierende Methodik entwickelt, die auf der Erfassung des Funktionsgens cbbL zielt. Es wurden Datenbankrecherchen durchgeführt und mittels den anschließenden vergleichenden Sequenzanalysen und phylogenetischen Untersuchungen bekannter cbbL-Sequenzen spezifische Oligonukleotid-Primerpaare konstruiert, die ausgewählte cbbL-Sequenzen terrestrischer Bakterien der ‚red-like’ bzw. der ‚green-like’ RubisCO-Linien amplifizieren. Mit Hilfe dieser Primer gelang es cbbL-Genbanken anzulegen, die mittels der Restriktions-Fragmentlängen-Polymorphismus-(RFLP)-Analyse und Diversitätindices untersucht und verglichen wurden; ausgewählte Sequenzen wurden einer phylogenetischen Zuordnung unterzogen. Mit den entwickelten Primerpaaren konnten in den untersuchten Böden nur eine geringe Diversität an ‚green-like’ cbbL-Sequenzen festgestellt werden, die phylogenetisch zu den cbbL-Sequenzen von Nitrobacter vulgaris und Nitrobacter winogradskyi nahe verwandt waren. Im Vergleich dazu zeichneten sich die ‚red-like’ cbbL-Sequenzen aus den Böden durch eine hohe Diversität aus, wobei sie phylogenetisch über die gesamte ‚red-like’-Gruppe verteilt waren und sich häufig als nur entfernt verwandt zu bekannten cbbL-Sequenzen herausstellten. Während mit der RFLP-Analyse Bodenbehandlungs-spezifische Muster identifiziert wurden, war nach der phylogenetischen Sequenzanalyse keine Cluster-Bildung in Abhängigkeit von der Bodenbehandlung zu beobachten. Um den Datensatz an vorhandenen ‚red-like’ cbbL-Sequenzen zu erweitern, wurden cbbL-Gene aus verschiedenen kultivierten α- und β-Proteobacteria sowie aus Bakterienisolaten, die in dieser Arbeit aus Boden gewonnen wurden, amplifiziert. Die phylogenetische Sequenzanalyse gruppierte diese cbbL-Sequenzen Taxon-unabhängig zu den verschiedenen Clustern des ‚red-like’-Baums einschließlich der neuen cbbL-Gencluster aus den Halle-Böden. Bakterielle Bodenisolate, die als cbbL-positiv identifiziert wurden, konnten basierend auf ihrer 16S rDNA-Sequenz als Organismen der Gram-positiven Gattungen Bacillus, Streptomyces und Arthrobacter klassifiziert werden. Vertreter dieser bakteriellen Gruppen waren bisher nicht als CO2-Fixierer charakterisiert worden. Der physiologische Beweis eines aktiven CO2-fixierenden Metabolismus über RubisCO steht noch aus. Die Ergebnisse der ‚red-like’ cbbL-Diversitäts-Studie dienten als Grundlage zur Konstruktion weiterer Oligonukleotide, die in der „real-time“ TaqMan-PCR zur Quantifizierung von ‚red-like’ cbbL-Genen aus Boden eingesetzt wurden. Dabei wird ersichtlich, dass in den untersuchten Bodenvarianten bis zu 107 cbbL-Genkopien/g Boden enthalten sind. Die unterschiedlichen Bodenbehandlungen scheinen keinen Einfluss auf die Abundanz von ‚red-like’ cbbL-Genen in Böden zu nehmen.

Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Palaeozoic and Mesozoic Palaeomagnetism of South America: Results from Peru, Bolivia, Argentina, and Brazil.

Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU

Play Episode Listen Later Jul 1, 2004


Im Rahmen der vorliegenden Arbeit, wurden in verschiedenen Regionen Südamerikas detaillierte paläomagnetische Untersuchungen durchgeführt. Ziel dieser Arbeiten war die Erstellung einer hochauflösenden scheinbaren Polwanderkurve für Gondwana im Paläozoikum und eine Beschreibung der paläogeographischen Entwicklung des pazifischen Gondwanarandes. In den zentralen Anden wurden ordovizische bis früh-triassische Sequenzen untersucht. Im einzelnen wurden folgende Regionen detailliert bearbeitet: die Subandine Zone, die östliche Kordillere, der Altiplano, die Famatina Ketten die argentinische Vorkordillere sowie das Paganzo Becken. Zusätzlich wurden Sedimente und Vulkanite paläozoischen und kretazischen Alters auf dem südamerikanischen Kraton untersucht. Untersuchungsgebiete waren hier die Parnaíba, Araripe und Pernambuco-Paraiba Becken in Nordost Brasilien. Insgesamt wurden im Rahmen dieser Studie 1682 orientierte Proben an mehr als 320 Lokalitäten entnommen. Detaillierte paläomagnetische Experimente ergaben jedoch lediglich für einen Bruchteil dieser Kollektion zuverlässige Daten. Die Mehrheit des untersuchten Probenmaterials ist entweder remagnetisiert oder aber trägt Magnetisierungen, die als instabil zu bezeichnen sind. Dennoch konnte eine hohe Zahl paläomagnetischer Ergebnisse von hoher Qualität erzielt werden. Diese Ergebnisse liefern wichtige Parameter für das Verständnis der paläogeographischen Entwicklung Westgondwanas. Die mesozoischen Gesteine Nordost-Brasiliens (Sardinha Formation) weisen stabile, von Magnetit getragene Remenzrichtungen auf. Diese Remanenz wurde in der frühen Kreide erworben. Die gemittelte paläomagnetische Richtung dieser Einheit (120-130 Ma) ist D= 176°; I= +05.1°; a95= 2.0°; k= 355; n= 82 Proben; N= 15 Sites),was einer Pollage von l= 84.4°S; f= 090.7°E; A95= 1.8°; K= 441.9 entspricht. Dieser Pol ist in guter Übereinstimmung mit bereits publizierten Daten datierter paläomagnetischen Pole der Unterkreide Brasiliens. Fasst man die Ergebnisse der Sardinha Formation mit publizierten und verlässlichen Daten gleichen Alters zusammen so ergibt sich ein neuer paläomagnetischer Pol für die frühe Kreide (115-133 Ma) des stabilen Südamerikas (l= 84.3°S; f= 067.7°E ; A95= 2.3°; K= 867). Die Einheiten der Mitu und Copacabana „Groups“, aufgeschlossen in den südlichen peruanischen Anden, tragen primäre, gut definierte Remanenzrichtungen die in der frühen Trias bzw. dem frühen Perm erworben wurden. Sowohl inverse als auch normale Polarität konnten bei Proben der Mitu „Group“ (244 ±6 Ma) nachgewiesen werden (D= 349.3°; I= -35.3°; a95= 4.1°; k= 351.4; n= 36 Proben; N= 5 Sites). Die hohe Qualität der Daten wird durch einen positiven Faltentest (99% Konfidenz) und eine positiven Reversaltest der Kategorie B belegt. Durch Kombination dieser Daten mit bereits publizierten paläomagnetischen Ergebnissen ergibt sich ein neuer früh-triassischer Pol von l= 78.6°S; f= 351.9°E (A95= 3.7°; K= 447). Im Gegensatz zur Mitu „Group“ wurden bei den Proben der früh-permischen Copacabana „Group“ ausschließlich Remanenzrichtungen inverser Polarität identifiziert. Diese Tatsache legt einen Erwerb der Magnetisierung während der „Permian-Carboniferous Reverse Superchron“ (PCRS) nahe. Der Faltentest ist auf dem 99% Konfidenzniveau positiv. Die gemittelte paläomagnetische Richtung von D= 166.1°; I= +48.9° (a95= 4.5°; k= 131.5; n= 39 Proben; N= 9 Sites) und der damit definierte früh-permische Pol (l= 68.2°S; f= 321.3°E; A95= 5.2°; K= 99.8) kann daher als zuverlässig betrachtet werden. Auch in diesem Fall lässt sich ein neuer paläomagnetischer Pol berechnen. Zusammen mit Literaturdaten ergibt sich ein Pol für das frühe Perm des stabilen Südamerika von l= 70.4°S; f= 341.8°E; A95= 8.8°; K= 48.3; N= 7 Daten). Die neuen Ergebnisse für das frühe Perm und die frühe Trias des stabilen Südamerikas haben weitreichende Auswirkungen auf die paläogeographische Rekonstruktion Pangäas. Sie sind nicht kompatibel mit Polen gleichen Alters wie sie für Laurussia bestimmt wurden, wenn man ein Pangäa A Konfiguration annimmt. Geht man allerdings von einer Pangäa B Konfiguration im frühen Perm und dem Modell von Pangäa A2 in der frühen Trias aus, so werden diese Unstimmigkeiten aufgelöst. In diesem paläogeographischen Szenario muß man von einer westwärtigen Bewegung Gondwanas relativ zu Laurussia während des Perms ausgehen. Diese Relativbewegung hat sich möglicherweise im Jura fortgesetzt, bis die Pangäa A Konfiguration, so wie sie allgemein für den Zeitraum vor dem Zerbrechen Pangäas akzeptiert wird, erreicht wurde. Die Einheiten der „Subandine Zone“ Boliviens (Taiguati Formation) lieferten keine primären Remanenzrichtungen. Allerdings konnte nachgewiesen werden, dass die ermittelte mittlere paläomagnetische Richtung (D= 149.0°; I= +54.0°; a95= 5.1°; k= 46; Pol: l= 58.3°S; f= 348.9°E; A95= 6.0°; K= 66) auf eine Remagnetisierung im späten Karbon zurückzuführen ist. Ein Vergleich mit Daten gleichaltriger Gestein aus anderer Regionen Südamerikas, Afrika und Australien ergibt eine sehr gute Übereinstimmung. Daher kann auch in diesem Fall ein neuer kombinierter spät-karbonischer Pol für Südamerika bestimmt werden (l= 53.0°S; f= 348.4°E; A95= 6.0°; K= 86.4; N= 8 Daten). Die neuen paläomagnetischen Pole erlauben die Erstellung einer vollständigen scheinbaren Polwanderkurve „apparent polar wander path“, APWP) für Südamerika und damit indirekt auch für Gondwana. Transferiert man diesen APWP in afrikanische Koordinaten, so zeigt es sich, dass der Paläosüdpol sich von der nördlichen Antarktis (spätes Karbon) südwärts bis in die südliche Antarktis (frühe Trias) bewegt hat. Daraus ergibt sich eine nordwärtige Drift Gondwanas mit einer mittleren Geschwindigkeit von 7.2 cm/a zwischen dem frühen Karbon und dem frühen Perm. Während des Perms liegt die aus den Daten abgeleitete mittlere Driftgeschwindigkeit bei 4.6 cm/a. Der in dieser Arbeit vorgeschlagene APWP unterstützt das Modell von Torsvik und Van der Voo (2002) und McElhinney et al. (2003) für das karbonische bis triassische Segment des APWPs Gondwanas. Widersprüche ergeben sich allerdings aus dem Vergleich der neuen spät-karbonischen Daten mit der APWP von Bachtadse und Briden (1991), Schmidt et al. (1990) und Smith (1998). Um weitere Daten für den APWP Gondwanas im frühen Paläozoikums zu gewinnen wurde die Umachiri Serie (Altiplano, Süd-Peru) beprobt. Es konnte eine stabile Magnetisierungskomponente isoliert werden (D= 003.6°; I= +45.5°; a95= +13.5°; K= 84; n= 18 Proben; N= 3 Sites). Der primäre Charakter dieser früh-ordovizischen Komponente wird durch einen positiven Faltentest (99% Konfidenzniveau) untermauert. Anhand der Remanenzrichtungen wurde die Paläobreitenlage von Süd-Peru mit 27 ±5°S bestimmt. Dieses Ergebnis ist konsistent mit der Lage des Randes Südamerikas innerhalb Gondwanas im frühen Ordoviz. Allerdings weicht die Pollage der Umachiri Serie deutlich vom Referenzpol Gondwanas für diesen Zeitbereich ab. Die Daten weisen auf eine Rotation des Beprobungsgebietes um 45° gegen den Uhrzeigersinn relativ zu dem stabilen Südamerika hin. Frühere Studien belegen, dass diese Rotationen nach dem Oligozän stattgefunden haben müssen. Sie stehen im Zusammenhang mit einer Scherzone, die sich während der andinen Deformation im nördlichen Altiplano gebildet hat. Ein anderer Schwerpunkt dieser Arbeit ist mit Hilfe paläomagnetischer Methoden die komplexen tektonischen Prozesse Nordwest-Argentiniens während des Paläozoikums anhand der „Vorkordillere“ und der „Famatina Ketten“ zu untersuchen. Innerhalb der „Vorkodillere“ wurden unter anderem die Patquia, Guandacol, Los Espejos, San Juan und die La Silla Formationen beprobt. Jede dieser Einheiten ergab primäre Remanenzrichtungen. Im Fall der San Juan und der La Silla Formation kann dies durch einen positiven Faltentest nachgewiesen werden. Sowohl die Ergebnisse der spät-permischen Patquia Formation (D= 225.8°; I= +61.8°; a95= 3.0°; k=215; n=12 Proben) und der spät-karbonischen Guandacol Formation (D= 194.1°; I= +59.8°; a95= 4.4°; k= 279; n= 8 Proben) als auch die Daten der spät-silurischen Los Espejos Formation (D= 289.8°; I= -29.9°; a95= 17.6°; k= 50; n= 20 Proben, N= 3 Sites) deuten darauf hin, dass die „Prekordillera“ um 60° mit den Uhrzeigersinn relativ zu dem stabilen Teil Südamerikas rotiert ist. Auch hier ist der Ursprung der Rotation in der känozoischen andinen Deformation zu suchen. Ältere Einheiten zeigen ein davon abweichendes Richtungsverhalten. Die Ergebnisse der früh-ordovizischen San Juan und La Silla ergeben eine Paläobreitenlage der Vorkordillere von 39.5 ±4°S. Dies ist konsistent mit ihrer Lage relativ zu Südamerika innerhalb Gondwanas im frühen Ordoviz, d. h. die Vorkodillere war zu diesem Zeitpunkt bereits ein Teil Gondwanas. Der kombinierte Datensatz der San Juan und der La Silla Formation deutet allerdings eine relative Rotation dieser Einheiten von 45° gegen dem Uhrzeigersinn hin. Daher muß von einer Rotation von 105° (gegen dem Uhrzeigersinn) zwischen dem frühen Ordoviz und dem späten Silur ausgegangen werden. Wahrscheinlich steht sie in Verbindung mit der Ocloyíc Deformation, die zur Schließung des Puna Beckens geführt hat. Die Ergebnisse für die „Famatina Ketten“ basieren auf Untersuchungen an der De La Cuesta Formation (spätes Perm) und der Suri Formation (frühes Ordoviz). In beiden Fällen konnten stabile primäre Remanenzrichtungen isoliert werden. Vergleicht man sowohl die Daten der Suri Formation (D= 107°; I= 31°; a95= 7.1°; k= 97; n= 25 Proben; N= 5 Sites) als auch die der De La Cuesta Formation (D=163.2°; I= +43.8°; a95= 10.0°; k=59.5; n= 23 Proben; N= 5 Sites) mit dem jeweiligen gleichaltrigen Referenzpol des stabilen Südamerikas und Gondwanas, so stellt sich heraus, dass nur erste eine Rotation (60° mit dem Uhrzeigersinn) belegen. Wie schon bei der San Juan und der La Silla Formation ist auch hier wahrscheinlich die Ocloyíc Deformation dafür verantwortlich. Die aus den Resultaten der Suri Formation abgeleitet Paläobreitenlage der „Famatina“ (16.5 ±3°S) deckt sich mit ihrer Position innerhalb Gondwanas im frühen Ordoviz. Man kann daher davon ausgehen, dass sie ihre Lage relativ zu dem stabilen Südamerika seit dem frühen Ordiviz nicht verändert hat. Damit kann im Gegensatz zu anderen Modellen ein para-autochthone Ursprung der „Famatina“ ausgeschlossen werden. Zusammenfassend liefern die Rahmen dieser Arbeit erzielten Daten wichtige Parameter für die Bestimmung des Zeitpunkts der „terrane“ Akkretion und der Deformationsgeschichte am westlichen Rand Gondwanas. Basierend auf diesen Ergebnisse kann gezeigt werde, dass die argentinische Vorkordillere integraler Bestandteil Südamerikas bereits im frühen Ordoviz war. Die weitere Konsolidierung des südamerikanischen Rands war mit großmaßstäblichen, vorpermischen Rotationen verbunden. Weiter Rotationen fanden während der andinen Orogenese statt. Qualitativ hochwertige Ergebnisse für Südperu unterstützen paläogeographische Modelle vom Typ Pangäa B für das frühe Perm und Pangäa A2 Konstellationen in der frühen Trias.

Volkswirtschaftliche Fakultät - Digitale Hochschulschriften der LMU
Aufsätze zur ökonometrischen Analyse diskreter Strukturen in der Arbeitsmarkt- und Entwicklungsökonomie

Volkswirtschaftliche Fakultät - Digitale Hochschulschriften der LMU

Play Episode Listen Later Jan 27, 2003


In den hier versammelten Aufsätzen werden verschiedene statistische Verfahren zur Analyse diskreter Strukturen auf Fragen der Arbeitsmarkt- und Entwicklungsökonomie angewandt. In Teil I wird untersucht, ob Arbeitslosigkeit einen Einfluss auf das Auszugsverhalten junger Menschen in der Bundesrepublik (West) hat. Die Untersuchung wird auf Basis von Daten des sozioökonomischen Panels für die Geburtsjahrgänge von 1968 bis 1981 durchgeführt. Es wird ein Hazardratenmodell geschätzt, in welchem die Zielzustände „Single-Haushalt“ und „Wohnung mit Partner“ unterschieden werden. Die Auswirkung des Einkommens auf die Auszugswahrscheinlichkeit wird semi-parametrisch modelliert. Es zeigt sich zwar, dass junge Männer, die arbeitslos werden, mit einer geringeren Wahrscheinlichkeit einen Haushalt mit einer Partnerin gründen. Darüber hinaus hat Arbeitslosigkeit jedoch keinen Einfluss auf die Auszugswahrscheinlichkeit. Die Institution Familie fungiert also für junge Menschen nur in geringem Maße als Versicherung gegen Arbeitslosigkeit. Ziel des II. Teil dieser Untersuchung ist, den Einfluss ökonomischer Faktoren auf die Wahrscheinlichkeit zu bestimmen, mit der junge Menschen in Italien das Elternhaus verlassen. Hierzu werden mit den Wellen von 1991 bis 1998 des Householdsurveys der Banca d` Italia mehrere Logit-Modelle geschätzt. Ein Ergebnis ist, dass mit der Beendigung der Schulausbildung die Auszugswahrscheinlichkeit zunimmt. Arbeitslose Männer haben gegenüber Beschäftigten eine geringere Auszugswahrscheinlichkeit. Ökonomische Faktoren haben in Italien somit einen hohen Einfluss auf das Auszugsverhalten junger Menschen. Die Bedeutung ökonomischer Größen deutet auf die Versicherungsfunktion hin, die familiäre Netzwerke in Italien einnehmen. Im Teil III der Arbeit werden die Bestimmungsfaktoren von Unterernährung und Kindersterblichkeit analysiert. Untersuchungen zu dieser Frage stehen oft vor dem Problem, dass die Datengrundlage in Entwicklungsländern schlecht ist. Im hier verwendeten Makro-Datensatz fehlen zahlreiche Beobachtungen. Bei einer in solchen Situationen üblichen Complete-case Analyse gehen viele der vorhandenen Informationen im Datensatz verloren. Mit einem Verfahren der multiplen Imputation der fehlenden Werte wird versucht, dieses Problem zu lösen. Hierzu werden mit einem Markov-Chain-Monte-Carlo-Verfahren mehrere vervollständigte Datensätze generiert, welche dann weiter bearbeitet werden. Durch die Auswertung mehrerer vervollständigter Datensätze wird eine höhere Effizienz der Schätzer erreicht. Ein Vergleich von Regressionsanalysen, die mit dem vervollständigten Daten durchgeführt wurden, mit einer Complete-case-Analyse hat gezeigt, dass sich bestimmte Koeffizienten in ihrer Größenordnung geändert haben. Bei manchen Koeffizienten sind unplausible Vorzeichen aus der Complete-case Analyse verschwunden. Es ist also vorteilhaft, bei Problemen mit fehlenden Werten moderne Imputationsverfahren zu verwenden. Durch die Ersetzung der fehlenden Werte konnten eine Reihe von Variablen zugänglich gemacht werden, die bei einer Complete-case Analyse nicht brauchbar sind, da bei deren Verwendung auf noch mehr Beobachtungen hätte verzichtet werden müssen.

Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Möglichkeiten eines DMO-Prozesses in der CMP-Refraktionsseismik

Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU

Play Episode Listen Later Jun 14, 2002


Die herk¨ommlichen Wellenfeldbearbeitungen der CMP-Refraktionsseismik basieren auf N¨aherungsl¨osungen f¨ur kleine Schichtneigungen. Dieser Ansatz hat sich f¨ur Schichtneigungswinkel bis zu ca. 100 bew¨ahrt. Mit gr¨oßer werdendem Neigungswinkel verschlechtern sich die Ergebnisse der CMP-Refraktionsseismik aber zunehmend. Große Neigungswinkel machen sich in zu hoch bestimmten Wellenausbreitungsgeschwindigkeiten und einer schlechteren Fokussierung auf gemeinsame Untergrundabschnitte durch die CMPSortierung bemerkbar. Die Probleme falsch bestimmterWellenausbreitungsgeschwindigkeiten und die schlechtere Fokussierung auf gemeinsame Untergrundspunkte, sind auch aus den Anf¨angen der CMP-Reflexionsseismik bekannt. Es gelang zuerst Judson, Shultz und Sherwood (1978) mit der Einf¨uhrung eines zus¨atzlichen Korrekturschritts das CMP-Konzept so zu erweitern, daß auch das reflektierte Wellenfeld von geneigten Schichtgrenzen korrekt bearbeitet werden konnte. Ihr Verfahren, das sie DEVILISH nannten, wurde durch eine Vielzahl von Autoren weiter verbessert und ist heute unter dem Namen DMO weitl¨aufig in der Seismik bekannt. Die DMO hat sich zum Standardschritt in der modernen seismischen Datenverarbeitung etabliert. Die vorliegende Arbeit besch¨aftigt sich erstmals mit der M¨oglichkeit einer DMOKorrektur f¨ur die CMP-Refraktionsseismik. Zu diesem Zweck mußte zun¨achst das DMOKonzept aus der Reflexionsseismik in die Refraktionsseismik ¨ubertragen und in mathematischen Grundgleichungen quantifiziert werden. F¨ur eine Erprobung der Refraktions-DMO an seismischen Daten mußte man aus den Grundgleichungen einen geeigneten Algorithmus konstruieren. Die ¨Ubertragung des DMO-Konzepts aus der Reflexionsseismik in die Refraktionsseismik erfolgte in Kapitel 3. In Kapitel 4 wurden die zugeh¨origen Grundgleichungen mit Hilfe des Hales-Kreises nach Hales (1958) hergeleitet. Es zeigt sich, daß die gewonnenen Grundgleichungen nicht mehr von der Zeit- bzw. der Ortskoordinate abh¨angen. Weil auch die LMO-Korrektur unabh¨angig von der Zeit ist, sind LMO und Refraktions-DMO,im Gegensatz zu NMO und Reflexions-DMO, im Processing kommutativ. Die Kommutativit ¨at vereinfacht das urspr¨unglich in Analogie zur Reflexionsseismik entwickelte Processing. Die Stapelung kann nach DMO (ohne vorherige LMO) mit den neigungsfreien Stapelgeschwindigkeiten entlang schr¨ager Geraden erfolgen. F¨ur die iterative Geschwindigkeitsbestimmung ben¨otigt man statt LMO-, DMO- und inverser LMO-Korrektur nur eine einfache DMO-Korrektur. Diese Erkenntnis f¨uhrt zu dem in Kapitel 3 beschriebenen Processingvorschlag. Aus den Grundgleichungen konnte in Kapitel 4 ein DMO-Algorithmus entwickelt werden. Dieser Algorithmus wirkt auf die fouriertransformierten COF-Wellenfelder. Der Weg ¨uber den Frequenz-Wellenzahl-Bereich hat sich auch schon bei der Reflexions-DMO bew¨ahrt (s. z.B. Hale, 1984; Jakubowicz, 1990). Ein o®ensichtlicher Vorteil beim Wechsel des Koordinatensystems ist, daß die recht komplizierte und numerisch aufwendige Operation der Faltung zu einer einfachen Multiplikation des Spektrums mit einem Operator wird. Im DMO-Verfahren von Hale (1984) macht sich der Autor einen heuristischen Ansatz zunutze. Es zeigt sich in dieser Arbeit, daß dieser heuristische Ansatz von Hale (1984) auch f¨ur die Refraktions-DMO funktioniert. Der gewonnene DMO-Operator (Gl. 4.64) f¨ur die Spektren der COF-Familien wurde auf dem Rechner implementiert. Bei der Implementierung der Refraktions-DMO f¨ur diskrete Wellenfelder m¨ussen die Eigenarten der Diskreten Fouriertransformation beachtet werden. Zur Vermeidung des wrap-around- E®ekts wurde deshalb eine Option zum Anf¨ugen von Nullspuren vorgeschlagen. Die bei Migrationsalgorithmen immer auftretenden, st¨orenden Ausschmierungen an den Enden der Laufzeitkurven, konnten durch eine Option zur Beschr¨ankung der ¨O®nungsweite teils unterdr¨uckt werden. Die Grundgleichungen lassen sich auch f¨ur eine theoretische Vorhersage ¨uber die Wirkungsweise des Prozesses bei der iterativen Geschwindigkeitsbestimmung nutzen. Durch die verschiedenen numerischen Versuche prognostiziert man ein schnelles Konvergieren bei den neigungsfreien CRP-Scheingeschwindigkeiten. Diese theoretische Prognose wurde mit Versuchen an synthetischen Datens¨atzen unter Verwendung des DMO-Algorithmus f¨ur den Frequenz-Wellenzahl-Bereich in Kapitel 5 best¨atigt. Die Grundgleichungen der Refraktions-DMO wurden, wie ¨ubrigens auch die Gleichungen f¨ur die Reflexions-DMO, auf der Basis des sehr einfachen 2-Schichtenmodells mit konstanten Wellenausbreitungsgeschwindigkeiten hergeleitet. Im Fall mehrerer Schichten im Hangenden einer Schichtgrenze f¨uhrt der Einsatz Reflexions-DMO i.d.R. trotzdem zu einer Verbesserung. Das Processing der CMP-Reflexionsseismik ist dann allerdings nicht mehr exakt richtig. F¨ur die Refraktions-DMO konnte mit Hilfe der Grundgleichungen gezeigt werden, daß das Verfahren bei geeignet gew¨ahlten Korrekturparametern vhan und vref sehr gut funktioniert. Mit den neigungsfreien CRP-Scheingeschwindigkeiten des direkt angrenzenden Hangenden f¨ur vhan kann man wie im 2-Schichtenfall, die neigungsfreien CRP-Scheingeschwindigkeiten des Refraktors exakt bestimmen. Die theoretisch, auf der Basis der Grundgleichungen getro®enen Aussagen, konnten an einem synthetischen Datensatz erprobt werden. Die simulierten Seismogramme wurden mit Hilfe eines Cerveny-Raytracing-Programms auf der Basis eines Mehrschichtenfalls mit Geschwindigkeitsgradienten berechnet. Anschließend wurde der Datensatz nach dem Konzept aus Kapitel 3 mit DMO bearbeitet. Das verwendete Modell wich dabei bewußt von dem zur Herleitung der DMO verwendeten Modell ab, um bei der Bearbeitung auch die Grenzen des DMO-Verfahrens auszuloten. Sowohl die Geschwindigkeitsgradienten, wie auch die kleinen Neigungen im Hangenden, wurden in der Theorie der Refraktions-DMO nicht ber¨ucksichtigt. Die Bearbeitung des synthetischen Datensatzes demonstrierte die stabile Funktionsweise der f-k-DMO. Auch die großen Amplituden anderer Wellentypen (Reflektierte und Direkte Welle) bzw. das aufaddierte Rauschen konnten die Funktionsweise nicht beeintr¨achtigen. Es zeigte sich, daß man die Geschwindigkeiten nicht durch eine langwierige Iteration verbessern mußte. Schon nach einer DMO-Korrektur mit den zu großen neigungsabh¨angigen CMP-Scheingeschwindigkeiten ließen sich die anschließend ermittelten CRP-Scheingeschwindigkeiten nicht weiter verbessern. Die Scheingeschwindigkeiten wurden mit einer ¢tV-Inversion in Geschwindigkeitstiefen-Funktionen gewandelt und zu einem 2-dimensionalen Geschwindigkeitsmodell kombiniert. Der Vergleich dieses Modells mit dem Ausgangsmodell und mit dem Modell einer CMP-Bearbeitung ohne DMO-Korrektur zeigte die Vorteile der Refraktions-DMO bei der Geschwindigkeitsbestimmung. Der zweite Ansatzpunkt bei der Konzeptionierung der Refraktions-DMO, die verbesserte Fokussierung auf gemeinsame Untergrundabschnitte, war weniger erfolgreich. Die DMO-Bearbeitung brachte keine Vorteile bei der Darstellung der refraktierenden Strukturen gegen¨uber der CMP-Bearbeitung ohne DMO. Theoretisch sollte allerdings zumindest die verbesserte Geschwindigkeitsbestimmung zu einer besseren Lotzeittransformation f¨uhren. Der E®ekt war allerdings gering. Die theoretisch erdachten Verbesserungen der Refraktions-DMO konnten an dem synthetischen Datensatz also gr¨oßtenteils best¨atigt werden. Allerdings basiert die Theorie der Refraktions-DMO, wie ¨ubrigens die Theorie der Reflexions-DMO auch, auf der Annahme zumindest lokal planarer Schichtgrenzen. Die Erweiterung der CMP-Refraktionsseismik auf gekr¨ummte Schichtgrenzen ist eine sehr spannende und anspruchsvolle Herausforderungen. Es ist zu erwarten, daß mit einer erweiterten CMP-Refraktionsseismik noch große Fortschritte in der Abbildung der refraktierenden Strukturen durch das Wellenfeld zu erzielen sind. Ho®entlich regen die ¨Uberlegungen und Ergebnisse dieser Arbeit m¨oglichst viele Leser zu Weiterentwicklungen der CMP-Refraktionsseismik an.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Untersuchung der Oberflaechensegregation geordneter Legierungen mittels Ionenstreuung am Beispiel CuAu(100)

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05

Play Episode Listen Later Jan 11, 2002


In dieser Arbeit wurde die Oberflaechensegregation bei Legierungen mittels niederenergetischer Ionenstreuung (Low Energy Ion Scattering, LEIS) am Beispiel von CuAu untersucht. Waehrend der Arbeit wurden Methoden weiterentwickelt und insbesondere bei der Computersimulation neu entwickelt. Die Vorgehensweisen sind nicht auf das hier untersuchte System beschraenkt, sondern koennen mit leichten Modifikationen auf andere uebertragen werden. Ziel der Arbeit war es, die Au-Konzentration der ersten und zweiten Atomlage der (100)-Oberflaeche der binaeren Legierung CuAu in Abhaengigkeit von der Temperatur zu bestimmen. Cu1−xAux ist ein in Bezug auf die Volumenverhaeltnisse bestens untersuchtes klassisches System mit einem Ordnungs-Unordnungs-Phasenuebergang erster Ordnung. Zwei der drei wichtigsten stoechiometrischen Kompositionen, naemlich CuAu3 und insbesondere Cu3Au sind auch hinsichtlich ihres Verhaltens an der Oberflaeche eingehend untersucht. Fuer CuAu findet man wenig Information. Es zeigt sich, daß die Analyse der zweiten Atomlage von besonderem Interesse ist. Hier unterscheiden sich (mit Ausnahme von idealen Loesungen) monotone und oszillatorische Kompositionsprofile, was Rueckschluesse auf die Art der Nachbarwechselwirkungen zulaeßt (Legierungen mit Entmischungstendenz und ordnende Legierungen respektive). Die Auswertung der Ionenstreuintensitaeten aus der zweiten Lage ist jedoch durch Fokussierungsund Neutralisationseffekte kompliziert und konnte bisher nur modellartig ueber Parameterbestimmung behandelt werden. In dieser Arbeit wurde die quantitative Auswertung der Intensitaetsverteilungen aus LEIS-Experimenten erstmals nur mit Hilfe von Computersimulationen durchgefuehrt. Damit wurde die Au-Konzentration der zweiten Atomlage bestimmt. Die notwendigen Eichungen der Streupotentiale und der thermischen Vibrationsamplituden der Oberflaeche wurden an Eichproben der reinen Komponenten, Cu(100)und Au(110)(1×2), durchgef¨uhrt. Die kritische Groeße fuer die Potentiale ist die Abschirmlaenge. Sie wurde fuer 1.5 keV Na+-Streuung fuer Cu zu 77% und fuer Au zu 95% des Firsov’schen Wertes bestimmt. Diese Ergebnisse wurden durch Ausnutzung der Vielfachstreuung gewonnen und nicht, wie sonst ueblich, mit Hilfe von sehr aufwendig zu simulierenden Polarscans welche nur zu Kontrolle verwendet wurden. Die Variation der Vibrationsamplituden zeigte, daß sich fuer die Anpassung an LEIS-Resultate Uebereinstimmung mit theoretischen Literaturwerten ergibt. Gleichzeitig zeigte sich, daß zur Anpassung bestimmter experimentellen Intensitaeten eine Gitterrelaxation senkrecht zur Oberflaeche von etwa 7% einbezogen werden muß, was mit den Literaturwerten hinsichtlich der tetragonalen Einheitszelle von geordnetem CuAu in Einklang steht. Mit dem so gewonnenen Datensatz und der di- rekt aus der He+-Streuung bestimmten Au-Konzentration der ersten Atomlage konnte durch Vergleich von Simulationsrechnungen mit Realraumkartierungen der gemessenen Intensitaeten erstmals die Komposition der ersten und zweiten Atomlage von CuAu(100) bestimmt werden. Es zeigt sich Au-Segregation in Verbindung mit leicht gestoerter idealer Volumenterminierung. Oberhalb der Uebergangsemperatur des Phasenuebergangs im Volumen faellt die Au-Konzentration von urspruenglich 95% in der ersten Lage auf 75% bei 750◦C ab, gleichzeitig steigt sie in der zweiten Lage von 5% auf etwa 30% an. Eine rein statistische Gleichverteilung wird erkenbar bis nahe an den Schmelzpunkt nicht erreicht. Fuer die Segregationsenergie wurde ein Wert von -0.3 eV ermittelt. Die Ergebnisse werden mit Simulationsrechnungen von Terser verglichen und zeigen sehr gute Uebereinstimmung, was moeglicherweise mit der guten Beschreibbarkeit der Segregation von CuAu mit Paarwechselwirkungspotentialen zusammenhaengt. Ferner wurden die Computersimulationsmethoden verbessert: Der 3D-Code MARLOWE wurde hinsichtlich Simulationsleistung gesteigert: laengere Variablen und Erweiterung zur Beruecksichtigung unterschiedlicher Vibrationsamplituden fuer vertikale und parallele Auslenkungen. Es wurde eine neue Routine zur Analyse von Trajektoriendaten entwickelt. Dabei zeigt sich, daß die hier vorangetriebene Trajektorienaufgel¨oste Analyse von LEIS-Spektren n¨utzlich ist fuer: Die Interpretation von Spektren mit einem substantiellen Anteil an Vielfachstreubeitraegen, den Gebrauch von Neutralisationsmodellen in Streusimulationen, die Bestimmung von spezifischen Neutralisationsparametern und die Identifikation von Strukturrelevanten Streuprozessen (z.B. bei rekonstruierten Oberflaechen und geordneten Legierungen).