POPULARITY
Claudia Kirchfeld kennt die Vielseitigkeit aus mehreren Perspektiven: Als ehemalige Junioren-Europameisterin, als langjährige Betreiberin einer Reitanlage – und heute als engagierte Pferdebesitzerin und Mitgründerin des Club der Besitzer von Vielseitigkeitspferden (CBV). Der CBV setzt sich für mehr Wertschätzung, Sichtbarkeit und Vernetzung von Pferdebesitzern und Züchtern im Vielseitigkeitssport ein. Denn hinter jedem erfolgreichen Pferd steht ein Team – und dazu gehören eben nicht nur Reiter und Trainer, sondern auch die Menschen, die Verantwortung übernehmen, unterstützen und langfristig begleiten. Der Verein wurde 2023 gegründet und zählt inzwischen rund 100 Mitglieder deutschlandweit. Ziel ist es, Besitzern eine Stimme zu geben, Treffpunkte auf Turnieren zu schaffen, Netzwerke zu stärken und neue Impulse für die Zukunft des Sports zu setzen. Und wenn ihr euch selbst einbringen möchtet im CBV, als Besitzer, Züchter, Sponsor: https://cbv-vielseitigkeit.de Wir sprechen über Claudias eigenen Weg in den Sport, über Verantwortung als Besitzerin, über finanzielle und emotionale Herausforderungen – und darüber, warum Pferdebesitzer im Vielseitigkeitssport oft „unter dem Radar“ laufen, obwohl sie eine tragende Säule sind. Es geht um Netzwerke, um Datenbanken, um nationale Prüfungen, um Züchter – und um die Frage, wie man den Sport langfristig stabil und lebendig hält.
Kennst du diese Situation im Team: Jemand sagt "das skaliert nicht", und plötzlich steht der Datenbankwechsel schneller im Raum als die eigentliche Frage nach dem Warum? Genau da packen wir an. Denn in vielen Systemen entscheidet nicht das nächste hippe Tool von Hacker News, sondern etwas viel Grundsätzlicheres: Datenlayout und Zugriffsmuster.In dieser Episode gehen wir einmal tief runter in den Storage-Stack. Wir schauen uns an, warum Row-Oriented-Datastores der Standard für klassische OLTP-Workloads sind und warum "SELECT id" trotzdem oft fast genauso teuer ist wie "SELECT *". Danach drehen wir die Tabelle um 90 Grad: Column Stores für OLAP, Aggregationen über viele Zeilen, Spalten-Pruning, Kompression, SIMD und warum ClickHouse, BigQuery, Snowflake oder Redshift bei Analytics so absurd schnell werden können.Und dann wird es file-basiert: CSV bekommt sein verdientes Fett weg, Apache Parquet seinen Hype, inklusive Row Groups, Metadaten im Footer und warum das für Streaming und Object Storage so gut passt. Mit Apache Iceberg setzen wir noch eine Management-Schicht oben drauf: Snapshots, Time Travel, paralleles Schreiben und das ganze Data-Lake-Feeling. Zum Schluss landen wir da, wo es richtig weh tut, beziehungsweise richtig Geld spart: Storage und Compute trennen, Tiered Storage, Kafka Connect bis Prometheus und Observability-Kosten.Wenn du beim nächsten "das skaliert nicht" nicht direkt die Datenbank tauschen willst, sondern erst mal die richtigen Fragen stellen möchtest, ist das deine Folge.Bonus: DuckDB als kleines Taschenmesser für CSV, JSON und SQL kann dein nächstes Wochenend-Experiment werden.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Gerichte urteilen meist öffentlich, die Justiz veröffentlicht aber später nur einen Bruchteil ihrer Urteile. Mit mehr Veröffentlichungen könnten Bürger leichter ihre Erfolgsaussichten recherchieren, Anwälte die Mandanten besser beraten und das Vertrauen in den Rechtsstaat insgesamt gestärkt werden. In diesem Radioreport Recht geht es um eine exklusive Recherche von ARD-Rechtsredaktion und SWR-Data Lab. Die ergab nun bei einer Stichprobe: Bundesweit werden von den ausgewerteten Gerichten nur 4 % der Urteile in kostenlose Datenbanken eingestellt. Dabei haben in 2023 und 2024 13 Gerichte überhaupt keine Entscheidung veröffentlicht. Die Redaktionen haben die Zivil- und Verwaltungsgerichtsbarkeit (ohne Amtsgerichte) ausgewertet. Andere Gerichtsbarkeiten, wie beispielsweise die Arbeitsgerichte, wurden nicht betrachtet. Darüber hat die ARD-Rechtsredaktion für den Radioreport Recht mit Sven Kersten von der Neuen Richtervereinigung und mit Til Bußmann-Welsch von der Initiative "Offene Urteile" gesprochen. ARD Radioreport Recht Redaktion und Moderation: Philip Raillon
Nach dem Tod eines Zugbegleiters in der Pfalz fordert die Eisenbahngewerkschaft EVG verpflichtende Sicherheitskonzepte für alle Verkehrsunternehmen und einheitliche Datenbanken.
Gerichte urteilen meist öffentlich, allerdings veröffentlicht die Justiz später nur einen Bruchteil der Urteile in kostenlosen staatlichen Datenbanken. Mit mehr Veröffentlichungen könnten Bürger leichter ihre Erfolgsaussichten recherchieren und Anwälte ihre Mandanten besser beraten. So könnte das Vertrauen in den Rechtsstaat insgesamt gestärkt werden. Justizreporter Philip Raillon und Robin Mai berichten von einer exklusiven Recherche der ARD-Rechtsredaktion und des SWR-Data Lab zu Gerichtsveröffentlichungen. Die ergab im Rahmen einer bundesweiten Stichprobe: Die ausgewerteten Gerichte stellen nur 4 % ihrer Urteile in den Datenbanken zur Verfügung. Dabei haben in den Jahren 2023 und 2024 von 194 ausgewerteten Gerichten 13 überhaupt keine Entscheidung veröffentlicht. Die Redaktionen haben Zivil- und Verwaltungsgerichte (ohne Amtsgerichte) analyisiert. Andere Gerichtsbarkeiten, wie etwa Strafgerichte, haben sie nicht betrachtet. In diesem Podcast sprechen die Moderatoren mit Stephanie Jauss vom SWR Data Lab. Til Bußmann-Welsch von der Initiative "Offene Urteile" stellt vor, wie er und seine Mitstreiter 1 Millionen Entscheidungen an die Öffentlichkeit holen wollen. Weitere Links zum Thema: tagesschau.de: https://www.tagesschau.de/investigativ/swr/gerichtsurteile-online-daten-100.html swr.de mit weiteren Grafiken: https://www.swr.de/swraktuell/gerichte-im-suedwesten-veroeffentlichen-wenige-urteile-100.html Die Methodik der Datenrecherche hat das SWR Data Lab hier zusammengefasst: https://www.swr.de/swraktuell/methodenteil-veroeffentlichung-von-gerichtsurteilen-100.html Podcast-Tipp: Die großen Fragen in 10 Minuten https://www.ardaudiothek.de/sendung/grosse-fragen-in-zehn-minuten-von-mdr-wissen/urn:ard:show:2f15ca4c8cf12c23/
Herkömmliche Datenbanken finden nur exakte Treffer, während Embeddings mit Bedeutungen arbeiten. Diese Zahlenvektoren in mehrdimensionalen Räumen ermöglichen semantische Suche. Statt nur "Reisekosten 2025" zu finden, erkennt das System auch Varianten wie "Reisekosten 25". Embeddings revolutionieren die Datensuche durch Bedeutungsverständnis statt Wortgleichheit. ----------------------------------------------------------- Lesen Sie den kompletten Beitrag: 577
Exasol gehört zu den Software-Unternehmen, die lange unter dem Radar liefen – damit könnte bald Schluss ein. Das börsennotierte Unternehmen bietet extrem schnelle Datenbanken an. „Wir sind fünf- bis zehnmal schneller als die Konkurrenten – und das unabhängig von der Datenmenge“, erklärt CFO Jan-Dirk Henrich im Interview bei FINANCE TV. Hinzu komme eine selten gewordene Flexibilität: On-Premise, Private Cloud oder Public Cloud.2020 ist Exasol an die Börse gegangen. Kurz darauf erreichte die Aktie ihr Allzeithoch von 27 Euro – doch das ist lange vorbei. Seit mehreren Jahren stagniert das Papier bei rund 3 Euro. Der Grund: Nach dem IPO folgte eine ambitionierte, letztlich zu teure Expansion in den USA. Das Unternehmen habe sich sehr viel vorgenommen und ein paar Faktoren falsch eingeschätzt, räumt Henrich ein. 2021 stand ein Verlust von fast 30 Millionen Euro zu Buche. Die Konsequenz: Kosten runter, Cashburn stoppen, Strategie schärfen.Heute fokussiert sich Exasol auf regulierte Branchen wie Finanzindustrie, Gesundheitswesen, öffentliche Hand und Telekommunikation. „Dort ist Datensouveränität kein Buzzword, sondern Pflicht.“ Operativ zeigt der Kurswechsel Wirkung: Der Umsatz stieg 2025 auf knapp 42 Millionen Euro, das Ebitda auf über 4 Millionen Euro, 2024 war Exasol erstmals seit dem Börsengang profitabel.Trotzdem bleibt die Aktie träge. Einer der Gründe: fehlendes Wachstum bei den wiederkehrenden Umsätzen. Henrich spricht offen von einer „Talsohle beim Churn“, die nun durchschritten sei. Ziel sei es, wieder ins Netto-Wachstum zu kommen – unter anderem durch Referenzkunden wie LBBW oder Finanz Informatik sowie die Partnerschaft mit MariaDB. Seine Botschaft an Investoren ist klar: „All pieces are in place.“Warum das Thema Cloud gerade jetzt an Bedeutung gewinnen könnte, wie KI das Geschäft von Exasol verändert und wann die Aktie ihr großes Comeback feiert – mehr dazu im Interview bei FINANCE TV.
In dieser Deep Dive Episode spricht Markus mit Hermann Futter, der seit 39 Jahren Geschäftsführer der Compass Gruppe und Co-Founder bei Angels United ist. Sie unterhalten sich darüber, wie die Compass Gruppe mehrere Medienbrüche gemeistert hat, vom Printprodukt über digitale Datenbanken bis zum Internet, und was es braucht, um als Unternehmen langfristig relevant zu bleiben. Außerdem teilt Hermann seine Perspektive als Business Angel, warum am Ende immer das Team entscheidet, weshalb Unternehmertum für ihn vor allem Neugier, aktives Handeln und Ermöglichen bedeutet und warum Startups für ihn die Expeditionsschiffe der Neuzeit sind.Production: Hanna Moser Musik (Intro/Outro): www.sebastianegger.com
Persistenz ist kein Detail, sondern prägt die gesamte Architektur. In dieser Episode diskutieren wir den klassischen Mismatch zwischen objekt-orientierter Domänenlogik und relationalen Datenbanken, die Rolle von O/R-Mappern und die Bedeutung u.a. von Aggregates und Domain-driven Design. Wir vergleichen relationale und NoSQL-Ansätze wie Dokumenten-Datenbanken und zeigen, warum unterschiedliche Persistenztechnologien zu unterschiedliche Architekturen führt. Folgen zu Konsistenz Taktisches Domain-driven Design Catalog of Patterns of Enterprise Application Architecture
LLMs wie ChatGPT klingen eloquent, speichern aber nur komprimierte Informationsversionen ohne Quellenrückverfolgung. Sie optimieren auf sprachliche Eleganz, nicht Wahrheit. Halluzinationen sind systembedingt normal. Als Research-Tool wertvoll, aber keine Wahrheitsmaschine. Verifikation bleibt essentiell. Hybrid-Systeme mit verifizierten Datenbanken könnten Zukunftslösung sein. ----------------------------------------------------------- Lesen Sie den kompletten Beitrag: 572
Rate Limiting klingt erstmal wie ein nerviges Nein. In Wahrheit ist es oft der Unterschied zwischen stabiler Plattform und dem Klassiker: kurz ein bisschen Traffic, und plötzlich ist alles down. Denn Systeme scheitern selten an einem Request, sondern fast immer an zu vielen: Retry Storms nach einem Funkloch, Thundering Herd nach einem Cache-Expire, Traffic Amplification in Microservices oder einfach ein Tenant, der als Noisy Neighbor das ganze Haus wachklingelt.In dieser Episode gehen wir gemeinsam tief ins Reliability- und Resilience-Engineering und bauen Rate Limiting von Grund auf. Wir klären, wozu Rate Limiting wirklich da ist, wie es sich von Back Pressure, Graceful Degradation, Fault Isolation und Load Shedding abgrenzt und wo du es in deiner Architektur verankerst: Client, Edge, API Gateway, Sidecar Proxy wie Envoy oder direkt an Ressourcen wie Datenbanken und Queues.Dann wird es konkret: Wir vergleichen die gängigen Strategien und Algorithmen, Fixed Window, Sliding Window, Token Bucket und Leaky Bucket, inklusive Bursts, Fairness und der Frage stateful vs. stateless. Dazu kommt die Realität: Was machst du, wenn der Rate Limiter selbst ausfällt – Fail Open vs. Fail Closed –, und warum das nicht nur Technik ist, sondern auch Produktmanagement, Monetarisierung und Kundenerlebnis.Als Bonus schauen wir auf Best Practices aus der Praxis: wie GitHub und Cloudflare Rate Limits via HTTP-Header kommunizieren, warum standardisierte Header gerade wieder Fahrt aufnehmen und wieso Rate Limiting bei GraphQL-APIs so schnell zur Kostenberechnung im Query-AST wird.Wenn du danach dein System nicht nur schneller, sondern auch stressresistenter machen willst, bist du hier richtig. Und ja, ein resilientes System darf auch mal Nein sagen, damit es morgen wieder Ja sagen kann.Bonus: Manchmal ist der beste Load Test ein einzelner Curl-Befehl zur falschen Zeit.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Dr. Vera Rödel ist Juristin mit einem Master in Medizin und Gründerin von Prof. Valmed, der ersten generativen KI-Medizinprodukt der Klasse IIb in Europa. Gemeinsam mit dem Neurologen Prof. Heinz Wiendl entwickelt sie KI-Lösungen, die klinische Entscheidungsprozesse sicher, valide und datenschutzkonform unterstützen. Ihre seltene Kombination aus juristischem und medizinischer Fachwissen und technischer Expertise macht Dr. Vera Rödel zu einer zentralen Gestalterin der medizinischen KI-Zukunft. Ihr Ziel ist es, eine verlässliche Alternative zu unregulierter „Shadow AI“ zu schaffen – mit einem System, das sich streng an Leitlinien orientiert und medizinische Erkenntnisse nachvollziehbar abbildet. Zertifizierte KI für die Medizin Gleich zu Beginn erklärt Dr. Vera Rödel, warum sie den anspruchsvollen Weg der Zertifizierung als Klasse IIb-Medizinprodukt gewählt hat. Für sie war klar, dass nur diese höhere Klassifizierung genügend Spielraum bietet, um medizinische Datenbanken fortlaufend aktualisieren zu dürfen und gleichzeitig die Qualität der Entscheidungsunterstützung abzusichern. Während viele KI-Tools bewusst geringere regulatorische Anforderungen wählen, setzt Prof. Valmed auf maximale Transparenz und medizinische Validität. Damit reagiert Dr. Vera Rödel auf den zunehmenden Einsatz von KI im klinischen Alltag, der bisher meist unkontrolliert und datenschutzrechtlich bedenklich stattfindet. KI wird unverzichtbar im Klinikalltag Im Gespräch zeigt sich, wie stark das Gesundheitswesen bereits jetzt auf KI zurückgreift. Dr. Vera Rödel beschreibt, dass viele Medizinerinnen und Mediziner ChatGPT oder ähnliche Modelle auf privaten Geräten nutzen, weil die Zeit im Alltag fehlt, komplexe Leitlinien nachzuschlagen. Genau hier sieht sie die dringende Notwendigkeit einer regulierten, sicheren und medizinisch geprüften Alternative. Für sie ist klar: KI darf im klinischen Umfeld nicht dem Zufall überlassen werden. Sie muss Ärztinnen und Ärzte entlasten, ihnen aber gleichzeitig die Sicherheit geben, dass jede Empfehlung auf valider Evidenz beruht. Wie Prof. Valmed funktioniert Die Oberfläche des Tools orientiert sich bewusst an modernen Sprachmodellen. Anwenderinnen und Anwender können Fragen so formulieren, wie sie es im Gespräch mit Kolleginnen oder Kollegen tun würden. Die KI antwortet ausschließlich auf Basis geprüfter Daten, zeigt Quellen an und verweist auf die zugrunde liegenden Leitlinien. Dr. Vera Rödel hebt hervor, dass das System lieber bewusst keine Antwort gibt, als falsche Inhalte zu generieren. Zudem arbeitet Prof. Valmed ohne personenbezogene Daten, was die Nutzung in sensiblen klinischen Umgebungen erleichtert. Das Ergebnis ist ein vertrautes, intuitives Interface, das dennoch strenge medizinische Standards erfüllt. Integration in klinische Systeme Besonders wirkungsvoll wird Prof. Valmed, wenn es direkt in bestehende KIS-Systeme integriert ist. Dr. Vera Rödel beschreibt, wie sich dadurch der Workflow spürbar verändert: Die KI erscheint genau dort, wo Entscheidungen getroffen werden, und liefert Vorschläge, ohne dass zusätzliche Fenster oder Programme geöffnet werden müssen. Diese Integration sorgt für Akzeptanz und führt dazu, dass medizinische Teams das Tool selbstverständlich in den Alltag übernehmen. Kooperationen wie jene mit Medatixx zeigen, wie stark die Nachfrage nach eingebetteten KI-Lösungen wächst. Die medizinische Datenbasis Ein wesentlicher Erfolgsfaktor des Systems ist die umfassende Datenbasis. Prof. Valmed verarbeitet rund 2,5 Millionen medizinische Dokumente, darunter Leitlinien, PubMed-Artikel im Open Access, Cochrane Reviews und EMA-Dokumente. Auch internationale Richtlinien, etwa aus Italien, sind eingebunden. Dr. Vera Rödel betont, dass diese Daten laufend aktualisiert werden und eine außergewöhnliche Breite medizinischer Sachverhalte abbilden. Das ermöglicht sichere Entscheidungen selbst bei seltenen Erkrankungen. Nutzen im Alltag Besonders eindrücklich beschreibt Dr. Vera Rödel das Feedback aus der Versorgungspraxis. Anwenderinnen und Anwender berichten über deutliche Zeitersparnis und bessere Entscheidungen, weil Leitlinien nicht länger mühsam recherchiert werden müssen. Gleichzeitig steigt die Behandlungsqualität, da die Empfehlungen immer evidenzbasiert sind. Interessant ist, dass nicht nur Ärztinnen und Ärzte, sondern auch Pflegekräfte, Apotheker und pharmazeutische Unternehmen von dem Tool profitieren. Alle erhalten schnellere, klarere und nachvollziehbare Informationen für ihre täglichen Aufgaben. KI für Patientinnen und Patienten Ein spannender Teil der Diskussion widmet sich der Frage, wie Patientinnen und Patienten künftig selbst mit KI arbeiten werden. Dr. Vera Rödel weist darauf hin, dass Menschen immer weniger googeln und stattdessen sofort KI-Systeme befragen – oft ohne zu wissen, woher die Informationen stammen. Für sie ist das ein Risiko, aber auch eine Chance. Deshalb plant sie eine Version von Prof. Valmed, die medizinisch korrekte Informationen direkt für Betroffene zugänglich macht. So könnten patientenseitige Recherchen zuverlässiger werden und das Gespräch mit Ärztinnen und Ärzten auf einer besseren Basis stattfinden. Herausforderungen und Wandel im Gesundheitssystem Im weiteren Verlauf beleuchtet Dr. Vera Rödel die strukturellen Hürden im europäischen Gesundheitssystem. Datenschutz, fragmentierte IT-Infrastrukturen und konservative Ausbildungsstrukturen erschweren den Einsatz neuer Technologien. Gleichzeitig sieht sie die Notwendigkeit, KI-Kompetenzen stärker in der medizinischen Ausbildung zu verankern, damit zukünftige Generationen sicherer und selbstbewusster mit KI arbeiten können. Europa müsse lernen, moderne Technologien schneller und mutiger zu integrieren, ohne dabei die eigenen Werte zu gefährden. Prof. Valmed Academy und Zukunftspläne Zum Schluss erklärt Dr. Vera Rödel, wie Prof. Valmed mit der eigenen KI-Weiterbildung, der Prof. Valmed Academy, Vertrauen schafft. Ärztinnen und Ärzte können dort CME-Punkte erwerben und lernen, wie KI-Systeme funktionieren, welche Grenzen sie haben und warum sie zuverlässig genutzt werden können. Zudem berichtet sie über die breite Einführung des Tools: Mehr als 2000 Ärztinnen und Ärzte nutzen Prof. Valmed bereits, dazu mehrere Universitätskliniken sowie medizinische Einrichtungen in Italien, im Mittleren Osten und in Asien. Dass Prof. Valmed vollständig bootstrapped ist, ermöglicht schnelle Entscheidungen und eine klare Ausrichtung an medizinischen Bedürfnissen Der Beitrag Dr. Vera Rödel – CEO von Prof. Valmed – schafft sicheres „ChatGPT für die Medizin“ statt riskanter Schatten-KI erschien zuerst auf Visionäre der Gesundheit.
Herzlich willkommen zu einer neuen Folge des „Die Gründer“-Podcasts! Heute geht es um ein echtes Meta-Thema: Yannick und Ole besprechen im Podcast live, wie sie eigentlich ihre Podcast-Inhalte auswählen – und binden die Community direkt in die Ideengenerierung ein. Es wird kritisch hinterfragt, warum KI und Automatisierung gerade in der Gründer- und Unternehmerlandschaft so eine große Rolle spielen und welche anderen Bereiche vielleicht wieder mehr Aufmerksamkeit bekommen sollten.Außerdem wagen die beiden Hosts einen Blick auf die Entwicklung von KI-Devices wie dem Humane AI-Pin, dessen überraschendes Ende sie analysieren. Sie greifen die Frage auf, wie KI aktuell die Arbeitwelt verändert und diskutieren aktuelle Studien mit spannenden, aber differenzierten Ergebnissen: Noch keine Massenarbeitslosigkeit, aber erste Effekte in bestimmten Junior-Positionen.Natürlich gibt's auch einen kurzen Ausflug ins Marketing und die praktische Seite von Automatisierung – mit viel Humor und klugen Gedanken, wie immer. Wer sich fragt, wie KI und neue Technologien den Alltag von Gründern beeinflussen, ist bei dieser Folge goldrichtig. Viel Spaß beim Zuhören!Timestamps00:00 KI-Podcast: Themenvielfalt gesucht05:59 KI, Regulierung und Gesellschaft09:35 Automatisierung leicht gemacht im Business12:43 Science-Fiction ohne echten Use-Case14:23 Kritik an Voice-Technologie19:25 KI, Arbeitswelt und neue Studie23:11 KI und Jobverlust: Kein Grund zur Panik25:49 KI stärkt spezialisierte Experten29:31 Schrittweise KI-Integration optimieren
KI, Bauklötze und der lange Weg vom leeren Board zur eigenen Lösung: Akshay Kothari, Co-Founder von Notion, erzählt, wie Software vom Flickenteppich zum kreativen Werkzeug wird. Aus LEGO wird eine Plattform, die Komplexität bündelt und Menschen zum Gestalten befähigt – getragen von Community, radikalem Design und der Beharrlichkeit, Systeme ganz neu zu denken. Was bleibt, ist der Stolz der Erschaffer:innen und die Frage, wie weit uns der nächste KI-Sprung wirklich trägt. Du erfährst... …wie Notion als flexible Plattform die Arbeitswelt revolutioniert. …warum Design und Kreativität bei Notion im Mittelpunkt stehen. …wie AI bei Notion die Produktivität auf ein neues Level hebt. __________________________ ||||| PERSONEN |||||
In Folge 066 der Abschweifung geht es um Reaktionen im Netz – und was sie über Menschen verraten. Sascha spricht über parasoziale Beziehungen, getriggerte Content-Creator und wie schnell Kritik mit Angriff verwechselt wird. Dabei erzählt er offen, wie er seine Analysen technisch umsetzt: mit Transkripten, Skripten und Datenbanken – nicht aus Hass, sondern aus Interesse an Strukturen. Ein Einblick in digitale Dynamiken, verletzte Egos und das, was bleibt, wenn Empathie nur behauptet wird.
In Folge 066 der Abschweifung geht es um Reaktionen im Netz – und was sie über Menschen verraten. Sascha spricht über parasoziale Beziehungen, getriggerte Content-Creator und wie schnell Kritik mit Angriff verwechselt wird. Dabei erzählt er offen, wie er seine Analysen technisch umsetzt: mit Transkripten, Skripten und Datenbanken – nicht aus Hass, sondern aus Interesse an Strukturen. Ein Einblick in digitale Dynamiken, verletzte Egos und das, was bleibt, wenn Empathie nur behauptet wird.
In Folge 066 der Abschweifung geht es um Reaktionen im Netz – und was sie über Menschen verraten. Sascha spricht über parasoziale Beziehungen, getriggerte Content-Creator und wie schnell Kritik mit Angriff verwechselt wird. Dabei erzählt er offen, wie er seine Analysen technisch umsetzt: mit Transkripten, Skripten und Datenbanken – nicht aus Hass, sondern aus Interesse an Strukturen. Ein Einblick in digitale Dynamiken, verletzte Egos und das, was bleibt, wenn Empathie nur behauptet wird.
In Folge 066 der Abschweifung geht es um Reaktionen im Netz – und was sie über Menschen verraten. Sascha spricht über parasoziale Beziehungen, getriggerte Content-Creator und wie schnell Kritik mit Angriff verwechselt wird. Dabei erzählt er offen, wie er seine Analysen technisch umsetzt: mit Transkripten, Skripten und Datenbanken – nicht aus Hass, sondern aus Interesse an Strukturen. Ein Einblick in digitale Dynamiken, verletzte Egos und das, was bleibt, wenn Empathie nur behauptet wird.
Warum Berufsunfähigkeit gerade für junge Menschen ein zentrales Finanzthema ist Und weshalb staatliche Leistungen selten ausreichen. Wie man die Höhe der Absicherung grundsätzlich denkt Lebenshaltung sichern: Welche Ausgaben dauerhaft gedeckt sein müssen. Kaufkraft erhalten: Inflation und reale Einkommensentwicklung berücksichtigen. Langfristig planen: Schutz über Jahrzehnte – auch bei Berufswechsel oder Familiengründung. Welche Vertragsmerkmale den Unterschied machen Klare Leistungsdefinitionen: Wann gilt man wirklich als berufsunfähig? Sinnvolle Anpassungsoptionen: Dynamiken, Nachversicherungsgarantien, flexible Beiträge. Transparente Bedingungen: Keine versteckten Ausschlüsse oder schwammigen Formulierungen. Wie ein strukturierter Gesundheits- und Angebotsprozess Stolpersteine vermeidet Sorgfältige Gesundheitsprüfung: Ehrliche, vollständige Angaben ohne Risiko von Rücktritten. Anonyme Voranfragen: Realistische Einschätzungen ohne Eintrag in die Datenbanken der Versicherer. Vergleichbare Angebote: Leistungsumfang und Prämien transparent gegenüberstellen. Zum Schluss: Timing, Disziplin, regelmäßige Überprüfung Früh beginnen: Günstige Prämien und volle Gesundheit nutzen. Diszipliniert bleiben: Dynamiken prüfen, Anpassungen bewusst vornehmen. Regelmäßig überprüfen: Lebensphasen ändern Bedürfnisse und Versicherungshöhen. Moderation DIALOG MODERIERT Volker Pietzsch Finanzstratege Marc Seifer Sommese & Kollegen | Ihr Vermögen sicher klug aufbauen Webinare | Sommese & Kollegen Blog | Sommese & Kollegen
Wie entsteht eine „gerechte“ Strafe – und kann künstliche Intelligenz dabei helfen? Im Live-Podcast von Auf dem Weg als Anwält:in diskutieren Corina Semadeni (Bezirksrichterin Zürich), Jonas Ackermann (Kriminalrichter Luzern) und Gregor Münch (Moderator, Strafverteidiger) über die Grundlagen und Herausforderungen richterlicher Strafzumessung: Zwischen Erfahrung, Systematik, Bauchgefühl – und der Frage, ob Algorithmen Richter:innen künftig unterstützen oder ersetzen könnten. Die zentralen Themen dieser Folge: - Richterliche Praxis der Strafzumessung: Wie Urteilsberatungen in Kollegialgerichten ablaufen, welche Rolle Referent:innen und Co-Referent:innen spielen und wie Differenzen im Gremium gelöst werden. - Zahlen, Ranges und Urteilsfindung: Warum Richter:innen meist mit einer Zahl oder Bandbreite („Range“) in die Beratung gehen – und wie sich diese während der Verhandlung verändert. - Ankereffekt & Strafanträge: Inwiefern beeinflussen Anträge der Staatsanwaltschaft die richterliche Wahrnehmung? Und wie gehen Gerichte mit diesem psychologischen Effekt um? - Vergleichsfälle & Gleichbehandlung: Wie stark prägen frühere Urteile die aktuelle Strafzumessung? Und wie gelingt der Spagat zwischen Individualisierung und Rechtsgleichheit? - Studie zur Rechtsungleichheit: Diskussion der Dissertation von Luca Ranzoni („Der Zufall regiert die Schweizer Justiz?“) und der Frage, wie stark Strafen tatsächlich voneinander abweichen. - KI in der Strafzumessung: Jonas Ackermann berichtet über seinen selbst entwickelten Prototyp zur KI-gestützten Strafzumessung – Chancen, Grenzen und ethische Fragen. - Akzeptanz richterlicher Urteile: Wie entsteht Vertrauen in ein Urteil? Wann wird eine Strafe als „gerecht“ empfunden – und was passiert, wenn Maschinen mitentscheiden? - Richterliches Selbstverständnis: Zwischen Verantwortung, Emotion, Erfahrung und Transparenz – was den Beruf des Strafrichters ausmacht. - Blick nach China: Der Vergleich zu KI-basierten Strafzumessungssystemen im Ausland – und was das für die Schweiz bedeutet. - KI versus Bauchgefühl: Warum das „Bauchgefühl“ kein Zufall, sondern Ergebnis jahrelanger Erfahrung ist – und wie Datenbanken und Tools diese Erfahrung ergänzen (oder verzerren) können. Wer sich für Strafrecht, Justizpraxis, richterliche Entscheidungsfindung und den Einsatz von KI im Gerichtssaal interessiert, bekommt hier einen einzigartigen Einblick in die Denkprozesse von Richter:innen. Diese Folge verbindet juristische Präzision mit praktischer Erfahrung und ethischer Reflexion. Sie zeigt: Strafzumessung ist keine Mathematik, sondern ein Balanceakt zwischen Menschlichkeit, Systematik und Verantwortung. Links zu diesem Podcast: - [KI-Strafzumessung: Strafzumessung mit Hilfe künstlicher Intelligenz?](https://www.strafzumessung.ch/text_strafzumessung_mit_hilfe_von_ki) - [Strafzumessung mit Hilfe künstlicher Intelligenz?](https://richterzeitung.weblaw.ch/rzissues/2024/3/strafzumessung-mit-h_8a77f64e2a.html__ONCE&login=false), Richterzeitung Justice - Justiz - Giustizia 2024/3 - [Gerechte Strafen ohne Gleichheit? Eine rechtliche und empirische Analyse der Schweizer Strafzumessungspraxis von Luca Ranzoni](https://suigeneris-verlag.ch/img/uploads/pdf/oa_pdf-060-1743070667.pdf), sui generis, Zürich 2025 - [Der Zufall regiert in der Schweizer Justiz: Ein Richter gibt ein Jahr bedingt, der andere fünfzehn Jahre Gefängnis – für dasselbe Tötungsdelikt](https://www.nzz.ch/schweiz/justizwillkuer-in-der-schweiz-strafmass-abhaengig-vom-richter-ld.1877792), NZZ vom 26.05.2025 - [Anwaltskanzlei von Gregor Münch](https://www.d32.ch/personen) - Anwaltskanzlei von [Duri Bonin](https://www.duribonin.ch) - Das Buch zum Podcast: [In schwierigem Gelände — Gespräche über Strafverfolgung, Strafverteidigung & Urteilsfindung](https://www.duribonin.ch/shop/) Die Podcasts "Auf dem Weg als Anwält:in" sind unter https://www.duribonin.ch/podcast/ oder auf allen üblichen Plattformen zu hören
Wenn der Fachbereich Hunger auf Daten hat bekommt er Fast Food oder Rohkost. Aber satt wird er nicht. Warum ist das so und was bedeutet diese Küchenanaloge? Darüber spricht Christian Krug, der Host des Podcasts „Unf*ck Your Data“ mit Stefan Franke, Mitarbeiter für Strategy and Transformation bei igefa.Analogien sind ein tolles Mittel um komplexe Themen besser verständlich oder leichter verdaubar zu machen. Genau darum gehen wir heute in die Datenküche. Als Stefan aus der Chemie in den Einkauf wechselte hatte er andere Erwartungen an die Daten in Unternehmen. Statt R und Python begegnete er Excel.Denn allzu oft bekommen Fachbereich Daten wirklich nicht gut zur Verfügung gestellt. Diese sind unzugänglich in System versteckt oder unverständlich und unauffindbar sicher im Datalake versenkt.Und wenn die mal präsentiert werden, dann entweder als FastFood, hoch aggregiert einzelne Zahlen aber wertlos für Analysen oder als Rohkost. Haufenweise Tabellen und mit Glück eine Anleitung was daraus mal werden kann.Beides führt nicht zum Erfolg.Aber wie geht es besser?Der Schlüssel heißt Kooperation und eine semantische Schicht. Eine Datenstruktur in der Daten für den Fachbereich verständlich dargestellt werden können, ohne bereits alle Analysen und Berechnungen vorweg zu nehmen.Wird diese Schicht aufgebaut ist sie ein wichtiges Asset im Datenmanagement des Unternehmens. Fehlt sie ist das Chaos vorprogrammiert.Stefan hatte auch einmal ein Thema das er mit herkömmlichen Datenbanken nicht gut lösen konnte. Eine Risikobetrachtung, die eine Stücklistenauflösung benötigte. Darin befand sich ein Zirkelbezug. Hier entdeckte er das erste mal Graphdatenbanken und Wissengraphen. Diese arbeiten nicht mit Tabellen, sondern über Beziehungen. Das hat viele Vorteile, ist aber auch kein Allheilmittel.Wann solltest du diese Datenbanken einsetzen und wann lieber nicht?Hör rein!▬▬▬▬▬▬ Profile: ▬▬▬▬Zum LinkedIn-Profil von Stefan: https://www.linkedin.com/in/stefan-franke-38a3b7130/Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/Christians Wonderlink: https://wonderl.ink/@christiankrugUnf*ck Your Data auf Linkedin: https://www.linkedin.com/company/unfck-your-data▬▬▬▬▬▬ Buchempfehlung: ▬▬▬▬Buchempfehlung von Stefan: Nachtzug nach LissabonAlle Empfehlungen in Melenas Bücherladen: https://gunzenhausen.buchhandlung.de/unfuckyourdata▬▬▬▬▬▬ Hier findest Du Unf*ck Your Data: ▬▬▬▬Zum Podcast auf Spotify: https://open.spotify.com/show/6Ow7ySMbgnir27etMYkpxT?si=dc0fd2b3c6454bfaZum Podcast auf iTunes: https://podcasts.apple.com/de/podcast/unf-ck-your-data/id1673832019Zum Podcast auf Deezer: https://deezer.page.link/FnT5kRSjf2k54iib6Zum Podcast auf Youtube: https://www.youtube.com/@unfckyourdata▬▬▬▬▬▬ Merch:...
Datenbanken sind das Rückgrat vieler Anwendungen, aber wie konsistent sind deine Daten eigentlich? Egal ob Banküberweisung, Sneaker-Kauf im Online-Shop oder das neueste Side-Project: Oft verbergen sich hinter der vermeintlich „sicheren“ Datenhaltung komplexe Stolperfallen. Wie funktionieren Transaktionen wirklich? Und warum kann ausgerechnet ein falsch gewähltes Isolationslevel zu Dirty Reads, non-repeatable Reads oder sogar zu Write Skew führen?Wir nehmen dich in dieser Episode mit auf eine Reise in die Tiefen der Konsistenzmodelle. Wolfi ist ehemaliger Forscher für Datenbanksysteme an der Uni Innsbruck. Mit ihm steigen wir ein in die Praxis und Theorie; Von Foreign Keys und Check Constraints bis hin zur Multi-Version Concurrency Control (MVCC). Du erfährst, was sich hinter Serializable, Repeatable Read, Read Committed und Read Uncommitted verbirgt und weshalb Tools wie Jepsen immer neue Fehler in selbst „sicheren“ Systemen aufdecken.Am Ende weißt du, warum dich auch als Entwickler:in das Thema Konsistenz, Isolationslevel und Transaktionsmanagement beschäftigen solltest.Bonus: Dirty Reads sind wie Gerüchte: Man hört sie, bevor sie wahr sind… aber was, wenn sie nie stimmen?Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Wie entdeckt man heute Talente für den Profifußball? Im Gespräch mit Paul Tolasz, Leiter Scouting beim Nachwuchsleistungszentrum des VfB Stuttgart, gehen wir tief rein in die Welt der Sichtung und Kaderplanung. Vom Rollenwechsel als Trainer hin zum Scout, über Strukturen, Datenbanken und Entscheidungswege bis hin zu Transfers, Förderverträgen und internationalen Strategien – Paul gibt exklusive Einblicke in seinen Alltag. Wir sprechen über die Herausforderungen des Übergangs in den Profibereich, den Vergleich internationaler Ausbildungssysteme, den Einsatz von Leihmodellen und Multi-Club-Ownership und wie das Scouting im Zusammenspiel mit Trainern und Entscheidern funktioniert. Ein Gespräch von Sako und Paul voller Klartext, Insights und Perspektiven für alle, die verstehen wollen, wie moderne Talentförderung und Kaderplanung wirklich läuft.
Immobilienbewertung steht vor einem Wendepunkt: Wie lassen sich Markttransparenz und Verlässlichkeit sichern, wenn Ressourcen knapper werden und der Immobilienmarkt immer komplexer wird? Und wäre eine zentrale Kaufpreisdatenbank auf Bundesebene der entscheidende Schritt nach vorn? In dieser Folge von IMMOblick diskutieren Peter Ache und Robert Krägenbring die wichtigsten Erkenntnisse aus ihrem Gespräch mit Christine Helbach (Gutachterausschuss Stadt Frankfurt am Main) und Frank Mause (Vorsitzender des Gutachterausschusses der Landkreise Kassel und Waldeck-Frankenberg). Sie ordnen die Debatte um die Zukunft der Gutachterausschüsse und die Reform des Baugesetzbuchs ein – fachlich fundiert, pointiert und praxisnah. Im Fokus stehen sieben Kernforderungen des DVW-Standpunkts, darunter: • die gesetzliche Verankerung von Markttransparenz als Aufgabe der Gutachterausschüsse, • die Priorisierung von Tätigkeiten angesichts des Fachkräftemangels, • die systematische Erfassung von Share-Deals und Mieten, • sowie die Einführung einer bundesweiten Kaufpreisdatenbank. Außerdem geht es um das Verhältnis zwischen Gutachterausschüssen und Sachverständigen – Konkurrenz oder Ergänzung? – und um die Chancen von Vernetzung, Standardisierung und Künstlicher Intelligenz für die Wertermittlung der Zukunft. Eine Episode, die zentrale Fragen zur Immobilienbewertung und Markttransparenz in Deutschland aufgreift und Impulse für die Praxis liefert. Weitere Informationen findest du hier: Webseite: https://dvw.de/publikationen/immoblick Social Media: LinkedIn | Instagram | Facebook
Zwei Aargauer Regionalpolizisten machten Abfragen in internen Datenbanken und leiteten sie an Drittpersonen weiter. Das Obergericht und nun auch das Bundesgericht verurteilten die Beamten wegen Amtsmissbrauch. Weiter in der Sendung: · Frick: Ein 65-jähriger Fussgänger stirbt bei einem Verkehrsunfall. Ein Traktor hatte ihn am Mittwochmorgen auf dem Fussgängerstreifen überrollt. Der Traktorfahrer ist 76 Jahre alt. · Der Feuerwehrverband Aare-Murg wird aufgelöst. Er besteht aus den Gemeinden Murgenthal (AG), Wynau (BE), Fulenbach (SO) und Wolfwil (SO). Der Grund: Die Brücke über die Aare, die zwischen den solothurnischen Gemeinden und ihren Partnern liegt, trägt nur 3.5 Tonnen. Die Tanklöschfahrzeuge dürfen sie zwar passieren, aber nur mit leerem Tank. So mache ein Feuerwehrverband keinen Sinn, so die Gemeinden.
20 € im Monat für ChatGPT Pro und fertig ist der Lack? Warum auch für Solopreneure KI (noch) keine Plug and Play Lösung ist und wie du sie trotzdem nutzen kannst um dein Business voran zu bringen. Darüber spricht Christian Krug, der Host des Podcasts „UNF#CK YOUR DATA“ mit Kirsten Biema Selbständige Coach für Agilität und Ki StrategienJa, nochmal eine KI Folge, aber es geht auch im die Daten dahinter.Einige Menschen verlassen Konzerne, weil sie das Gefühl haben nicht voranzukommen und die Prozesse sich wie in einem Hamsterrad. Sie machen sich selbständig um auf eigenen Beinen erfolgreich zu werden.Genau deinen Menschen Solopreneur*innen oder Soloselbständigen soll KI jetzt besonders gut helfen können.Und zwar in dem sie ihnen Prozesse auf Konzernniveau liefert? Ist das nicht der totale Widerspruch?Auf den ersten Blick ja. Auf den zweiten aber nicht, wenn du es richtig angehst.Denn KI Systeme bilden immer einen Durchschnitt ab in Qualität und in der Breite. Mit Zugang zu sehr viel Wissen und Datenbanken.Also Alleinunternehmer*in bist du aber nicht Durchschnitt. Du bist in dem Bereich den du aktiv bearbeitest exzellent (hoffentlich). In anderen Bereich aber leider unterhalb des Mittelmaß. Zum Beispiel Marketing oder schreiben von Angeboten oder Frameworks.Und genau da kannst du dann mit KI Systemen ansetzen, dich dort auf den Durchschnitt zu heben.Social Media Game wie von einer durchschnittlichen Agentur für deutlich weniger Geld?Angebotstexte mit Rahmeninformationen schön ausformuliert in wenigen Minuten statt einem Tag?Da liegt dein Wettbewerbsvorteil in Effizienz. Und das kann dir ein gut aufgestelltes KI System geben.Aber leider ist es eben noch kein Plug&Play, sondern braucht etwas mehr Pflege und Einrichtung. So wie jedes ERP Projekt ein Customizing macht, musst du auch deine KI Systeme auf deine Anforderungen trainieren.Das geht mit etwas Aufwand, Strategie und viel Daten. Denn mit diesen trainierst du keine KI Systeme, damit sie genau das tun was du brauchst.So klappts dann auch mit den Konzernprozessen, aber ohne Hamsterrad.▬▬▬▬▬▬ Profile: ▬▬▬▬Zum LinkedIn-Profil von Kirsten: https://www.linkedin.com/in/kirstenbiema/Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/Christians Wonderlink: https://wonderl.ink/@christiankrugUnf*ck Your Data auf Linkedin: https://www.linkedin.com/company/unfck-your-data▬▬▬▬▬▬ Buchempfehlung: ▬▬▬▬Buchempfehlung von Kirsten: The Millionaire Fastlane - MJ DeMarcoAlle Empfehlungen in Melenas Bücherladen: https://gunzenhausen.buchhandlung.de/unfuckyourdata▬▬▬▬▬▬ Hier findest Du Unf*ck Your Data: ▬▬▬▬Zum Podcast auf Spotify: https://open.spotify.com/show/6Ow7ySMbgnir27etMYkpxT?si=dc0fd2b3c6454bfaZum Podcast auf iTunes: https://podcasts.apple.com/de/podcast/unf-ck-your-data/id1673832019Zum Podcast auf Deezer:
Ralf Müller von Oracle teilt spannende Einblicke in seine beeindruckende Karriere, die vor fast drei Jahrzehnten bei Sun Microsystems ihren Anfang nahm. Nach seinem Studium der Mathematik und Informatik in Kaiserslautern führte ihn sein Weg zur Portierung von SAP R3 auf das Solaris-Betriebssystem, was schließlich zu einem unwiderstehlichen Angebot von Oracle führte. Ralf ist nicht nur ein Experte in seinem Fachgebiet, sondern auch ein großartiger Geschichtenerzähler, der seine Erfahrungen und seine Reise bis jetzt mit uns teilt. Die Welt der Workflows in Datenbanken wird in einem anderen Licht betrachtet, wenn wir uns mit der Integration im Kontext des APEX-Teams auseinandersetzen. Weit mehr als ein technischer Vergleich zwischen Flows for APEX und APEX Workflow, geht es um den Mut zur Innovation und die Entwicklung benutzerfreundlicher Lösungen, die auf die Bedürfnisse der Zukunft ausgerichtet sind. Während BPMN 2.0 mit seinen komplexen Modellierungselementen einen hohen Einstieg erfordert, ermöglicht APEX Workflow einen einfacheren Zugang, der die Automatisierung von Prozessen wie Reisekostenabrechnungen erleichtert. Abseits der technischen Details widmen wir uns auch dem täglichen Arbeitsleben und der bewussten Gestaltung von Freizeit. Flexible Arbeitszeiten und der Konsum von Nachrichten aus unabhängigen Quellen wie den Crowdreportern stehen dabei im Mittelpunkt. Die Auseinandersetzung mit der eigenen IT-Nutzung und der Balance zwischen Beruf und persönlichen Interessen bietet eine spannende Perspektive auf moderne Arbeits- und Lebensweisen. Ein besonderer Dank geht an Caro für ihre unschätzbare Unterstützung hinter den Kulissen, die diese Episode so bereichernd gemacht hat.
Mit Marc Funk (FrontNow) Staffel #12 Folge #12 | #Marketing_021 Der Podcast über Marketing, Vertrieb, Entrepreneurship und Startups *** www.frontnow.com/ www.linkedin.com/in/marcfunk/ *** Marc Funk, Gründer von FrontNow, berichtet im neuesten Marketing From Zero To One Podcast über die Entwicklung seines KI-Startups, das virtuelle Kundenberater für große Handelskonzerne wie Audi oder Jumbo realisiert. Nach einem Pivot von einem Sortimentsoptimierungstool hin zur KI-gestützten Beratung stieß das Startup mit perfektem Timing kurz vor dem ChatGPT-Hype auf starke Nachfrage. Entscheidende Erfolgsfaktoren waren frühe Großkunden, ein skalierbarer Vertrieb, proprietäre Datenbanken und strikte Compliance. Marc berichtet offen über seine Gründungserfahrungen, frühe Netzwerke, AI-First-Mindset – und über seine Vergangenheit und Begegnungen mit Jan Marsalek. *** 01:04 – Einstieg & Vorstellung 01:33 – Was FrontNow macht: KI-Kundenberatung im E-Commerce 02:28 – Use Cases: Audi Irland, Jumbo (CH) 03:16 – Teamgröße, Geschäftsmodell, Kennzahlen 04:04 – Persönlicher Hintergrund, Studium, Netzwerk 07:26 – Einstieg ins Unternehmertum, Motivation, Persönlichkeitsstruktur 09:29 – Gründungsgeschichte mit Freunden, Ursprungsidee & Pivot 12:14 – Erstes Produkt: Sortimentsoptimierung & Herausforderungen 14:59 – Entscheidung zum Pivot: virtueller KI-Kundenberater 16:53 – Erster Kunde Jumbo & Erfolgsstory mit Coop-Gruppe 19:17 – Großkundenstrategie & Preisstruktur 21:53 – SAP-Partnerschaft & Vertriebsbeschleunigung 23:03 – Skalierung über mehrere Branchen & Länder 24:32 – Events & Konferenzen als Leadquelle (z. B. OMR) 26:54 – Masterclasses & Kunden-Co-Presenting 28:16 – Eventformate & Salesstrategie 29:47 – Outbound vs. Events: Was besser funktioniert 31:19 – Aufbau des Sales-Teams: Netzwerk, Lucky Shots 33:22 – Kultureller Fit & Hiring 34:09 – KI-Technologie bei FrontNow 37:58 – Datenschutz, GDPR & technisches Setup 40:00 – Wettbewerbsvorteil durch proprietäre Datenbank 42:04 – Tech-Team & AI-First Mindset 43:52 – Zukunft von E-Commerce & Rolle von Agents 45:50 – Infrastruktur & Daten als Kernprodukt 46:34 – Generative Engine Optimization & Google/Bing 46:54 – AI-First Mindset in der Unternehmenskultur 48:41 – Hiring & AI-Kompetenz bei Bewerbenden 49:54 – Inspirierende AI-Nutzung: Beispiel Parloa 51:25 – Produktivität durch MVPs & AI 52:15 – Frühere Gründung: Online-Supermarkt & Jan Marsalek 54:38 – Insolvenz durch eingefrorene Marsalek-Gelder 57:31 – Investitionsstrukturen & Rückblick auf Wirecard-Erfahrung 58:38 – Abschluss & Kontaktbereitschaft für Zuhörer:innen *** Die Zeitangaben können leicht abweichen.
Wer mit mehreren Entwickler:innen an verschiedenen Projekten arbeitet, kennt das Problem: Wie sorgt man für eine konsistente, konfliktfreie Entwicklungsumgebung?Wir sprechen mit Stephan Hochdörfer über DDEV, ein Entwicklungswerkzeug zur automatischen Erstellungen von Umgebungen. Stephan erzählt, wie er in seiner Firma sowohl neue als auch alte Projekte erfolgreich auf DDEV umgestellt hat – und wie er damit sein Team und Freelancer überzeugt hat.Wir klären die Docker-Compose-Grundlagen von DDEV, zeigen, wie ein Projekt aufgesetzt wird, und besprechen, welche Architekturentscheidungen DDEV so robust und gleichzeitig einfach handhabbar machen.Außerdem hören wir von Stephan, wie DDEV es ermöglicht, neben den gängigen Sprachen wie PHP, JavaScript und TypeScript auch Java-Anwendungen und beliebige andere Webserver und Datenbanken zu unterstützen – dank Docker-Containern, Community-Erweiterungen und Framework-Integrationen.Im Nachgang zur Veröffentlichung hat uns folgender Hinweis von Ralf Koller / Randy Fay (Lead Maintainer bei DDEV) erreicht: DDEV wird von der DDEV Foundation und der Community entwickelt. Plattform.sh wird als Sponsor sehr wertgeschätzt, ist aber nicht der Träger des Projekts.Schreibt uns! Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.barFolgt uns! Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen. BlueskyInstagramLinkedInMeetupYouTubeMusik: Hanimo
Trump streicht Milliarden für Forschung. Datenbanken verschwinden, Projekte stoppen. Was heißt das für Klimamodelle, Tuberkulose-Tests und die deutsche Wissenschaft?
Mit Dr. Vivien Dollinger (ObjectBox Staffel #12 Folge #10 | #Marketing_021 Der Podcast über Marketing, Vertrieb, Entrepreneurship und Startups *** https://objectbox.io/ https://www.linkedin.com/in/vivien-dollinger/ *** Im Podcast-Gespräch mit Dr. Vivien Dollinger, Gründerin und CEO von ObjectBox, ging es um die Gründungsgeschichte des DeepTech Start-ups, das sich auf Datenbanken für Edge-Devices spezialisiert hat. Vivien sprach über ihre Erfahrungen mit dem Accelerator-Programm Techstars, über ihre These, dass SEO-Marketing an Relevanz verliert und warum KI-optimierte Inhalte und Agenten im Marketing zunehmend wichtiger werden. Außerdem gab sie Einblicke in die strategische Entscheidung, frühzeitig eine Vector-Datenbank für kleine Devices zu entwickeln, sowie in ihren KI-gestützten Arbeitsalltag. Zum Schluss gab sie motivierende Tipps für junge Menschen und betonte den Wert eines BWL-Studiums, von solider Bildung und eigenständigem Denken. Selbstverständlich wieder mit dabei: KI-Experte und Seriengründer Michael Högemann. *** 01:35 – Studienwahl & Gründungsmotivation 04:21 – Einstieg in die Spielebranche & Gründungsidee 07:11 – Erste Schritte & Accelerator-Erfahrung 11:32 – Gründung in UK & Brexit-Folgen 12:48 – Marktvalidierung & Vision 16:18 – Was ist IoT & was sind Embedded Devices? 18:04 – Marketing & SEO damals 20:35 – These: SEO ist tot! 22:03 – Neue Strategien für mehr Sichtbarkeit 24:50 – Wandel im Such- und Arbeitsverhalten 26:37 – KI-gestützte Optimierung der eigenen Website 29:19 – Strategischer Fokus auf Edge KI & Vector-Datenbanken 32:07 – Warum ObjectBox für Edge KI ideal ist 37:22 – Markttrends & Vision 41:12 – Konkurrenz & Marktumfeld 42:36 – Marketing & KI-gestützter Arbeitsalltag 46:14 – Eigene KI-Erfolge im Alltag 48:25 – Content-Automatisierung: Chancen & Grenzen 49:47 – Hypothetisches Neugründungsszenario jetzt mit KI 52:33 – Bildung & Einstellung junger Menschen 54:41 – Studienwahl: Empfehlung für BWL! 56:51 – Rückblick auf die eigene Studienzeit 58:47 – Tipps für angehende Gründer:innen zum Abschluss 01:00:44 – Verabschiedung & Fazit *** Die Zeitangaben können leicht abweichen.
Von Kanten und Knoten: Ein Einstieg in Graph-DatenbankenWelche Relationen die einzelnen Datensätze in deiner Datenbank haben, kann eine Rolle bei der Entscheidung spielen, welche Art von Datenbank du am besten einsetzen solltest. Wenn du unabhängige Datensätze hast, die keine Relation zueinander haben oder häufige One to Many-Relationen, sind relationale Datenbanken gut geeignet. Wenn du jedoch sehr viele Many to Many Relationen hast, spielt eine Datenbank-Art ihre Vorteile aus: Graph Datenbanken.Ein gutes Beispiel sind wohl soziale Netzwerke wie LinkedIn oder Facebook, wo Events, Personen, Firmen und Posts mit Kommentaren eine durchgehende Beziehung zueinander haben. Auch bekannt als Social Graph. Natürlich kann dies auch alles in einer relationalen Datenbank gespeichert werden, aber Fragen wie “Gib mir bitte alle Personen, über die ich im 3. Grad verbunden bin, die aus Deutschland kommen und bei Aldi gearbeitet haben” sind schwer zu beantworten. Für Graph-Datenbanken jedoch ein Klacks. Grund genug, diesem Thema eine Bühne zu geben. Darum geht es in dieser Episode.In dem Interview mit dem Experten Michael Hunger klären wir, was eine Graph-Datenbank ist, welche Anwendungsfälle sich dadurch besser abbilden lassen, als z. B. in relationalen Datenbanken, was der Ursprung von Graph Datenbanken ist, was der Unterschied eines Property-Graph-Model und dem Triple-Store-Model ist, wie man mithilfe von Sprachen wie Cypher, SPARQL und Datalog, Daten aus einem Graph extrahiert, für welche Use Cases dies ggf. nicht die richtige Datenstruktur ist und geben einen Einblick in die Themen Knowledge Graphen, LLMs und GraphRAG.Bonus: Was der Film Matrix mit Graph-Datenbanken zu tun hat.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
In unserer heutigen Folge tauchen wir ein in die Welt der Datenökonomie und ihre Bedeutung in der Immobilien- und Versicherungsbranche. Unser Gast ist Tim Peters von der Datenservice Plus GmbH, einem Unternehmen, das sich auf georeferenzierte Daten spezialisiert hat. Tim führt uns durch die Gründungsgeschichte der DatenservicePlus, einer Ausgründung aus der Provinzial, und erklärt, wie das Unternehmen mithilfe von umfangreichen Datenbanken und modernen KI-Technologien einflussreiche Lösungen im Schadensmanagement und bei der Risikobewertung bietet.Die Episode beleuchtet die immense Rolle der Daten im Versicherungswesen, indem sie als treibende Kraft für Innovationen und Effizienzsteigerungen fungieren. Tim gibt Einblicke in die Herausforderungen, mit denen sein Team konfrontiert ist, wie etwa der Umgang mit großen Datenmengen und die Sicherung der Aktualität dieser Daten. Des Weiteren diskutiert er über die sich ergebenden Chancen durch Open Data Initiativen und den möglichen Einfluss von EU-Vorhaben wie FIDA auf die zukünftige Geschäftsentwicklung.Euch erwartet eine spannende Auseinandersetzung mit den Möglichkeiten der Datenanalyse, der Nutzung von Künstlicher Intelligenz zur Anreicherung von Gebäudedaten und wie all dies den Weg für datenbasierte Entscheidungen ebnet. Seid gespannt auf inspirierende Einblicke und erfahrt, warum Daten nicht nur das neue Öl sind, sondern vielmehr der Schlüssel zu fortschrittlicher Versicherungsarbeit. Viel Vergnügen beim Zuhören!Schreibt uns gerne eine Nachricht!Sichere Dir Dein Ticket zur InsureNXT und spare 10% mit dem Rabattcode "insurancemonday" auf Kongresstickets!Folge uns auf unserer LinkedIn Unternehmensseite für weitere spannende Updates.Unsere Website: https://www.insurancemondaypodcast.de/Du möchtest Gast beim Insurance Monday Podcast sein? Schreibe uns unter info@insurancemondaypodcast.de und wir melden uns umgehend bei Dir.Dieser Podcast wird von dean productions produziert.Vielen Dank, dass Du unseren Podcast hörst!
Daten spielen die zentrale Rolle in der modernen Industrie - nicht nur im Engineering des Produktes selber, sondern auch in Vernetzung der gesamten Prozesskette von R&D, Produktion, Sales und After Sales. Doch noch immer werden Daten als Nebenprodukt der Prozesse betrachtet, und nicht als zentraler Ausgangspunkt. Und so ergeht es ihnen dann auch: Daten sind oft verstreut, unvollständig, inkonsistent oder ohne Kontext. Und sie leben in einer heterogenen Tool-Landschaft - meistens in mehreren hundert IT-Programmen und Datenbanken, die meist nicht durchgängig vernetzt sind. Das Scale-Up Spread.AI hat Lösungen entwickelt, um das zu ändern. An der Stelle von IT Großprojekten setzen sie auf eine intelligente Vernetzung der Daten durch Wissensgraphen und Konnektoren zwischen den verschiedenen IT-Inseln. Wir haben Co-Founder Philipp Noll bei uns im Studio und möchten von ihm wissen, warum Daten das neue Gold für's Engineering sind und welche Chancen sich für Firmen aus der Vernetzung ihrer Datenwelten ergeben. Die Richtung ist klar: Mit der durchgängigen Datenverfügbarkeit öffnet sich die Tür zum breiten Einsatz von AI-Agenten im Engineering. Spread.AI hat dazu eine Plattform entwickelt, mit der sich Aufgaben entlang des Entwicklungsprozesses automatisieren lassen - wir finden: eine spannende Sache! In a nutshell: Unternehmen kämpfen mit der Verfügbarkeit und Integration von Daten. Software-definierte Produkte erfordern durchgängiges Wissen. Datenqualität beeinflusst die Effizienz und Fehlerquote. AI kann helfen, Prozesse zu automatisieren und zu optimieren. Die Transformation in Unternehmen erfordert eine Anpassung der Prozesse. Kontextualisierung von Daten ist entscheidend für deren Wert. Lernprozesse aus der Automobilindustrie sind auf andere Branchen übertragbar. Die Zukunft der Produktentwicklung liegt in der Nutzung von AI und Datenintegration.
Fuzzing: Software-Stabilität durch Zufalls-generierte EingabedatenTesten, besonders automatisiertes Testen der eigenen Software, gilt als Best Practice in der Softwareentwicklung. Egal, ob wir dabei von Unit-Testing, Integration Testing, Funktions- oder Akzeptanztesting sprechen. Die Idee dabei ist, dass wir die Fehler in der Software gering halten. Auch wenn deine Tests zu einer 100%igen Code Coverage führen, heißt es nicht, dass dein Programm keine Bugs hat. Denn ein Problem gibt es bei all diesen Test-Arten: Die Input-Parameter sind i.d.R. nach einer gewissen Struktur erstellt worden. Und dies heißt noch lange nicht, dass diese Input-Parameter alle möglichen Fälle abdecken.Und genau da kommt das Thema Fuzzing bzw. Fuzz-Testing ins Spiel. Das Testen deiner Software mit zufällig generierten Input-Parametern. Das klingt erstmal wild, kann aber ganz neue Probleme in deiner Software aufdecken. Und das ist das Thema in dieser Episode.Zu Gast ist Prof. Dr. Andreas Zeller, Forscher im Bereich Softwaretesting und Autor des Fuzzing Books. Mit ihm klären wir, was Fuzzing eigentlich ist, woher es kommt und wie es sich gegenüber anderen Teststrategien, wie Unit-Testing, verhält. Er gibt uns einen Einblick in die Unterschiede von Search-Based Fuzzing, Grammar-Fuzzing, Symbolic Fuzzing sowie spezifikationsbasierten Fuzzern, wie komplexe Systeme mittels metamorphes Testen verbessert werden können, was das Orakel-Problem ist, wie z.B. Datenbanken gefuzzed werden können, aber auch wie das Ganze in der Praxis angewendet werden kann und wie du einfach mit Fuzzing starten kannst.Bonus: Was ein Orakel mit Testing zu tun hat.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Code mit Impact und Meeresschutz digital: Der Einsatz von Software bei Sea Shepherd DeutschlandIn dieser Episode tauchen wir in die Welt des Meeresschutzes ein. Florian Stadler, seit 15 Jahren aktiv und Kampagnenleiter bei Sea Shepherd Deutschland, gibt uns Einblicke, wie Software beim Meeresschutz angewandt wird, um verlorene Fischernetze (sogenannte Geisternetze) aufzuspüren und zu bergen.Wir sprechen darüber, wie mithilfe Sonar-Scans und manueller Interpretation und (teils öffentlicher) Datenbanken der Meeresboden in der Ostsee systematisch untersucht wird, um illegale Fangmethoden und Umweltschäden aufzudecken. Dabei beleuchten wir auch Herausforderungen wie Schiffs-Ortungen, Bereiche von Cyber Security, wie z. B. AIS-Spoofing, den Datenaustausch mit anderen Organisationen, Infrastruktur auf einem Schiff von Sea Shepherd, wie Software-Entwickler*innen beim Meeresschutz helfen können und den oft überraschenden Einsatz von pragmatischen Lösungen wie händisch gepflegte Excel-Listen, selbst erstellten Google Maps-Layern oder Bildmaterial von öffentlich zugänglichen Webcams. Die Grenzen zwischen Hightech und altbewährter Technik mit pragmatischen Ansätzen verschwimmen hier ganz wunderbar.Bonus: Excel vs. Hightech – Wie kann man mit simplen Tools und digitaler Navigation ganze Meeresgebiete effizient kartieren?Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Westerhaus, Christine www.deutschlandfunk.de, Forschung aktuell
Event Sourcing: Ein Deep Dive mit Golo RodenSpeziell beim Debuggen stellen wir uns oft die Frage “Wie kam dieser Datensatz nun in diesen Zustand?”. Nachvollziehbarkeit ist da oft schwer. Wenn man Glück hat, gibt es irgendwo ein Log. Wenn man Pech hat, hat man nach der erfolglosen Log-Suche ein neues Ticket, um ein Log einzubauen. Wäre es nicht irgendwie cool, alle Zustandsänderungen zu protokollieren bzw. zu speichern? Oder noch besser: Dieses Verhalten als First-Class-Konzept in meiner App zu behandeln?Wenn man das Ganze weiter denkt, landet man oft beim Thema “Event Sourcing”. Event … wat?In dieser Podcast-Episode machen wir mal einen Deep Dive ins Thema Event Sourcing. Wir klären, was Event Sourcing eigentlich ist, welches Problem es eigentlich löst, wie technische Implementierungen aussehen können, was Command Query Responsibility Segregation (CQRS) und Domain Driven Design damit zu tun haben, wann man doch lieber Abstand von Event Sourcing halten sollte und welche Tools und Datenbanken dich dabei unterstützen.Bonus: Wie viele Stadtbibliotheken nutzen eigentlich Event Sourcing?Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Über 50 Jahre Queries: Das relationale Datenbankmodell und die Sprache SQL haben Geburtstag!Relationale Datenbanken und die Abfragesprache SQL sind aus der modernen Welt nicht mehr wegzudenken. Egal ob du eine eigene Webseite mit WordPress betreibst, Business Intelligence Analysen für eine Versicherung machst oder die größte Oracle Datenbank der Welt betreibst - In allen Use Cases kommt das relationale Datenbankmodell und die Sprache SQL zum Einsatz.Und SQL ist bei weitem kein neuer heißer Scheiß. SQL ist inzwischen 50 Jahre alt und das relationale Datenbankmodell ist sogar noch 5 Jahre älter als SQL! Welche Technologie fällt dir ein, die inzwischen so alt ist, aber dennoch eine solch aktive und breite Nutzung vorweisen kann?Klar, COBOL, Fortan und Co sind bestimmt noch in irgendwelchen Kellern aktiv - Aber auch in diesem Volumen wie SQL?Dieser Umstand hat uns dazu bewegt, einmal die Frage zu beleuchten: Wie kam es eigentlich zu relationalen Datenbanken? Wie wurde SQL eigentlich erfunden? Darum geht's in dieser Episode. Wir erzählen die Geschichte von SQL.Inkl. Streit, welches Datenbankmodell das bessere ist, Wettbewerbe um die schönsten Queries zu schreiben, Behörden die Test-Suites für die Industrie schreiben und warum du IBM und Oracle ggf. mehr zu verdanken hast, als dir eigentlich lieb ist.Bonus: SQL wurde mal totgesagt, doch totgesagte leben länger.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Einen Mörder auch viele Jahre nach der Tat mit Hilfe von DNA finden? Das geht – und zwar mit Datenbanken, bei denen Leute freiwillig zur Ahnenforschung ihr genetisches Profil abgeben. Aber wie genau führt das Wissen um eine Cousine dritten Grades zu einem gesuchten Mörder?
Schweizer Versicherte bezahlen viel zu viel für Labortests: «Kassensturz» will wissen, warum die Labortarife nicht endlich günstiger werden in der Schweiz. Weitere Themen: Datenbanken erschaffen vermeintliche Zombies und Backofenreiniger im Test. Fehler in Datenbanken – Digitale Zombies sorgen für Ärger Ein vermeintlich lebender Toter und ein vermeintlich toter Lebender machen zwei Menschen grossen Ärger: Der Bankkunde hat keinen Zugriff mehr auf sein Geld, dem Telecom-Kunde wird ein Mobile-Abo verwehrt. «Kassensturz» über Kunden, die wegen Fehlern in Datenbanken übers Jenseits stolpern. Umstrittene Labortarife – Sparpotential in Millionenhöhe Schweizer Versicherte bezahlen viel zu viel für Labortests: Im Vergleich zum umliegenden Ausland resultiert ein Sparpotential in Millionenhöhe, wie eine Studie im Auftrag vom BAG belegt. Dasselbe BAG hat es in der Hand, die Tarife zu senken, wartet damit aber zu. «Kassensturz» will wissen, warum die Labortarife nicht endlich günstiger werden in der Schweiz. Backofenreiniger im Test – Zwei Produkte fallen durch Welche Backofenreiniger helfen wirklich? «Kassensturz» schickt zehn der meistverkauften Produkte zum Härtetest ins Labor: Wie gut wirken sie bereits nach einer Stunde, wie gut nach acht? Fazit: Zwei Produkte fallen durch, und wirklich überzeugend sind nur deren drei.
In dieser Folge spricht Jacqueline Klusik-Eckert mit Meike Hopp über die aktuellen Entwicklungen und Herausforderungen der Provenienzforschung. Im Fokus stehen dabei digitale Hilfsmittel wie Datenbanken, die es ermöglichen, komplexe Objekt- und Personenbiographien besser sichtbar zu machen und Wissenssilos aufzubrechen.Während Datenbanken wie das Art Loss Register und die Lost Art Datenbank seit Jahren zur Verfügung stehen, haben sich die Methoden und Werkzeuge zur Erforschung der Herkunft von Kunstwerken und Kulturgütern rasant weiterentwickelt. Die zunehmende Öffnung von Sammlungsinstitutionen hilft dabei. Dennoch gibt es erhebliche Herausforderungen bei der Standardisierung, dem Zugang zu Daten und der internationalen Zusammenarbeit. Und dabei ist das Öffnen der Silos nur ein Aspekt des ganzen. Provenienzforschung ist nämlich viel mehr als nur genug Quellen zusammenzutragen. Datenauswertung im großen Stil verlangt Kompetenzen, die noch lange nicht zum Ausbildungskanon der Kunstgeschichte gehören.Ein besonderer Fokus liegt daneben auf der Notwendigkeit, Forschungsdaten und Quellen so aufzubereiten und zu präsentieren, dass sie nicht nur für Forschende, sondern auch für die breite Öffentlichkeit zugänglich sind. Dabei betont Meike Hopp die Bedeutung der Provenienzforschung, die über die reine Restitution von Kunstwerken hinausgeht. Es geht vermehrt um Teilhabe und Ermächtigung. Betroffenen Familien und Gemeinschaften erhalten erst durch optimal aufbereitete Daten – Stichwort Mehrsprachigkeit – und Interfaces die Möglichkeit, ihre eigene Geschichte aufzuarbeiten.Trotz signifikanter Fortschritte in der Provenienzforschung bangt der Forschungsbereich noch immer um eine nachhaltige Etablierung in der kunsthistorischen Ausbildungslandschaft.Prof. Dr. Meike Hopp, Juniorprofessorin für Digitale Provenienzforschung an der TU Berlin sowie Vorsitzendes des Arbeitskreis Provenienzforschung.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702.Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de.
3 Jahre Engineering Kiosk: Geburtstagsepiode und Jahresrückblick auf 2024Der Engineering Kiosk Podcast wird stolze 3 Jahre alt. Ein Grund zu feiern. Zeitgleich geht das Jahr 2024 zu Ende. Eine Möglichkeit auf einen Rückblick, wie sich das Engineering Kiosk Projekt entwickelt. Wir sprechen über Episoden, die etws bei unseren Hörer*innen und bei uns selbst bewegt haben. Wir teilen ein paar Statistiken über den Podcast sowie unseren persönlichen Highlights, Lowlights und Neutralights. Weiterhin geben wir einen Einblick wie wir unsere Interviewgäste auswählen und wir auf gekaufte Interviews und Tech Employer Branding Agenturen reagieren. Am Ende lösen wir auch noch unsere Tech Predictions für das Jahr 2024 auf und entscheiden somit, wer das bessere Orakel ist.Bonus: Auch Podcast-Hosts streiten sich manchmal wie ein altes Ehepaar und ein paar Outtakes gibts auch.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Pessimistisches und Optimistisches Sperren in Datenbanken.Im Engineering Kiosk Adventskalender 2024 sprechen befreundete Podcaster⋅innen und wir selbst, Andy und Wolfi, jeden Tag kurz & knackig innerhalb von wenigen Minuten über ein interessantes Tech-Thema.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Suchalgorithmen: Lineare- und Binäre Suche mit Stefan Macke vom IT Berufe Podcast.Im Engineering Kiosk Adventskalender 2024 sprechen befreundete Podcaster⋅innen und wir selbst, Andy und Wolfi, jeden Tag kurz & knackig innerhalb von wenigen Minuten über ein interessantes Tech-Thema.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Zeitsynchronisation: Ein Element, wovon wir ausgehen, dass es einfach funktioniertSo gut wie jede Applikation benötigt die aktuelle Zeit als ein Element zur Berechnung, zum Logging oder auch zur Synchronisation. Besonders bei mehreren Systemen, die miteinander kommunizieren, ist die Synchronisation der Zeit essenziell. Dazu zählen z.B. verteilte Systeme wie Datenbanken oder auch IP-basierte Funk- und Videoübertragungssysteme.Doch wie funktioniert das eigentlich und was steckt dahinter? In dieser Episode geht es also um Zeit und Zeitsynchronisation.Wir sprechen über die beiden Protokolle NTP, das Network Time Protocol und PTP, das Precision Time Protocol. Was sind das für Protokolle? Wo kommen diese zum Einsatz, welche Genauigkeit legen diese zu Grunde und wo kommen diese an ihre Grenzen? Und was sind Boundary Clocks und Transparent Clocks?Weiterhin schauen wir uns mal an, wozu spezifische Hardware zur Zeitsynchronisation gebraucht wird und woher die Ursprungszeit eigentlich stammt.Das schnelle Feedback zur Episode:
In letzter Sekunde taucht Jan Marsalek unter, bevor weltweit nach ihm gefahndet wird. Er flüchtet nahezu unerkannt nach Russland, und seine Spur verliert sich. Bis jetzt. Die geheime Identität des Österreichers bekommt Risse. Von einer orthodoxen Kirche über ein Luxushotel in Dubai bis hin zu einer dubiosen Wohnung in Moskau zieht sich seine Spur. Seine Pläne sind gefährlich, und die Geschichte des meistgesuchten Österreichers der Welt wird immer unglaublicher. Ein Rechercheteam von STANDARD und "Spiegel" ist Marsaleks Spuren nach Russland gefolgt. Gemeinsam mit Journalisten vom ZDF und der russischen Investigativplattform "The Insider" haben sie dutzende Datenbanken und Leaks durchsucht, alte Weggefährten aufgespürt und Reiserouten rekonstruiert. Was sie herausgefunden haben, erzählt die Geschichte eines Österreichers, der mutmaßlich zum russischen Spion wurde. Dass Jan Marsalek von Geheimdienstlern rekrutiert wurde und für den verlängerten Arm des Kreml arbeitete. In dieser Reihe von "Inside Austria" folgen wir seiner Spur nach Russland und rekonstruieren, was wir über das Leben von Marsalek heute wissen. Und wir fragen, wie gefährlich dieser Mann wirklich ist.
Jan Marsalek, Lebemann aus Österreich und einer der meistgesuchten Wirtschaftskriminellen der Welt, spioniert also für Russland. Lange Jahre, ohne dass es jemand merkt. Um das zu bewerkstelligen, baut er ein beeindruckendes Netzwerk auf. Von einer Münchner Nobelvilla über den österreichischen Geheimdienst bis hin nach Afrika, London und eben Russland. Wofür er seine Kontakte nutzt? Marsalek spielt ein gefährliches Spiel ... Ein Rechercheteam von STANDARD und "Spiegel" ist Marsaleks Spuren nach Russland gefolgt. Gemeinsam mit Journalisten vom ZDF und der russischen Investigativplattform "The Insider" haben sie dutzende Datenbanken und Leaks durchsucht, alte Weggefährten aufgespürt und Reiserouten rekonstruiert. Was sie herausgefunden haben, erzählt die Geschichte eines Österreichers, der mutmaßlich zum russischen Spion wurde. Dass Jan Marsalek von Geheimdienstlern rekrutiert wurde und für den verlängerten Arm des Kreml arbeitete. In dieser Reihe von "Inside Austria" folgen wir seiner Spur nach Russland und rekonstruieren, was wir über das Leben von Marsalek heute wissen. Und wir fragen, wie gefährlich dieser Mann wirklich ist.
Vom Schulabbrecher aus Wien zum gefeierten Dax-Vorstand - und dann zum flüchtigen Verdächtigen im größten Wirtschaftskriminalfall der deutschen Geschichte. Als wäre diese Vita von Jan Marsalek noch nicht abenteuerlich genug, bringen neue Erkenntnisse mehr Licht in seine Verbindungen ins russische Geheimdienst-Milieu. Der Verdacht erhärtet sich: Jan Marsalek dürfte für Moskau spioniert haben. Ein Rechercheteam von STANDARD und "Spiegel" ist Marsaleks Spuren nach Russland gefolgt. Gemeinsam mit Journalisten vom ZDF und der russischen Investigativplattform "The Insider" haben sie dutzende Datenbanken und Leaks durchsucht, haben alte Weggefährten aufgespürt, Reiserouten rekonstruiert. Was sie herausgefunden haben erzählt die Geschichte eines Österreichers, der mutmaßlich zum russischen Spion wurde. Dass Jan Marsalek von Geheimdienstlern rekrutiert wurde und für den verlängerten Arm des Kreml arbeitete. In dieser Reihe von Inside Austria folgen wir seiner Spur nach Russland und rekonstruieren, was wir über das Leben von Marsalek heute wissen. Und wir fragen, wie gefährlich dieser Mann ist.