POPULARITY
Im neuen Podcast mit Stefan Brink und Niko Härting dreht sich alles um Allianzen im Datenschutz: Zunächst (ab Minute 00:40) geht es in Querbeet um die Frage, ob der unberechenbare US-Präsident Trump das EU-US Data Privacy Framework zu Fall bringen könnte – aus dem Jahr 2023, als die Allianz zwischen EU und USA noch stand. Stefan erklärte in einem Beitrag für das „Handelsblatt“, warum es sich jetzt rächen könnte, dass der Angemessenheitsbeschluss der EU-Kommission nur mit einer Executive Order des Präsidenten Biden und nicht wie von Datenschützern verlangt durch ein Parlamentsgesetz umgesetzt und abgesichert wurde: Jeder Präsident der USA hat es nun selbst in der Hand, das Abkommen wieder scheitern zu lassen. Sodann geht es (ab Minute 13:21) beim Referentenentwurf zum Data Act-Durchführungsgesetz und die bröckelnde Allianz der Datenschutz-Aufsichtsbehörden der Länder und des Bundes: Der EU-DA, der eine faire Verteilung des Datenwertes vernetzter Produkte anstrebt, bekommt in Deutschland mit der Bundesnetzagentur eine zentrale Aufsichtsbehörde für die Durchsetzung und Überwachung der Verordnung (EU) 2023/2854. Ergänzend wird eine Sonderzuständigkeit für die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit geschaffen – interessanterweise an den Aufsichtsbehörden der Länder vorbei. Aufgrund seiner Gesetzgebungskompetenz aus Artikel 74 Absatz 1 Nummer 11 Grundgesetz (Recht der Wirtschaft) begründet der Bund diese Sonderzuständigkeit der BfDI mit Artikel 87 Absatz 3 Satz 1 Grundgesetz. Die BfDI verfüge über das für eine zügige Identifizierung und Bewertung von Datenschutzfragen sowie die Aufbereitung von Sachverhalten notwendige Fachwissen und könne somit erheblich zu einer raschen Beurteilung der datenschutzrechtlichen Fragestellungen beitragen. Brechen da alte Allianzen zwischen der deutschen Datenschutzaufsichtsbehörden von Bund und Ländern? Haben wir es hier mit der Blaupause für Zentralisierung der Aufsicht über private Unternehmen beim Bund (BfDI) zu tun? Schließlich (ab Minute 29:02) gibt es offenbar eine denkwürdige Allianz zwischen Axel Voss (MdEP der EVP-Fraktion) und Max Schrems von der Datenschutz-Organisation NOYB. Voss präsentiert seinen Plan zur Revision der DS-GVO, er will in einem 3-Schichten-Modell eine Differenzierung der Pflichten der DS-GVO abhängig von der nach Unternehmensgröße (vgl. DSA zu very large online platforms VLOP) vornehmen. Schrems stimmt insoweit zu, das „one size fits all“ der DS-GVO sei schon immer verrückt gewesen. Allerdings korreliert ein an der Unternehmensgröße ausgerichteter asymmetrischer Ansatz keineswegs mit dem risikobasierten Ansatz der DS-GVO: Risiken ergeben sich aus Datenmenge, Datenarten (Art. 9-Daten) und TOMs als risikomindernden Maßnahmen – nicht zwingend aus der Unternehmensgröße. Ehemalige, bröckelnde und denkwürdige Allianzen im Datenschutz also…
Es ist eine gigantische Datenmenge, mit der man theoretisch ein Fußballspiel mit der Dauer von zwei Millionen Jahren streamen könnte. Genau diese Datenmenge ist im vergangenen Jahr durch einen der weltweit größten Internetknoten in Frankfurt gerauscht. Ein neuer Rekord, hat der Betreiber jetzt gesagt. Das lag nicht wie sonst am Fußball, sondern an Leuten, die zocken wollten. Gamer schlagen Fußball – das ist das SWR3-Topthema Kristof Kien
Inside Media: Eine Reise in die Welt des Datenjournalismus mit Regula Blocher! In unserer Serie "Inside Media" stellen wir spannende Medienpersönlichkeiten vor, die die heutige Medienlandschaft prägen. Diese Woche freuen wir uns besonders, Regula Blocher begrüßen zu dürfen! Mit ihrer Expertise nimmt sie uns mit auf eine faszinierende Reise in die Tiefen des Datenjournalismus – einer Disziplin, die weit über Zahlen und Statistiken hinausgeht und komplexe Geschichten erzählt. Warum ist Datenjournalismus so wichtig? Datenjournalismus verbindet Technik und Kreativität, um komplexe Zusammenhänge verständlich zu machen. Blocher erklärt im Interview, warum sie sich für diesen Beruf entschieden hat, welche Herausforderungen sie in ihrer Arbeit erlebt und wie Daten die Medienwelt verändern. Besonders spannend sind ihre Einblicke, wie datengetriebene Geschichten sowohl informativ als auch unterhaltsam gestaltet werden können. Ein Blick hinter die Kulissen Blocher unterrichtet Studierende der FHWien der WKW und teilt in unserem Gespräch wertvolle Tipps: Wie identifiziert man relevante Datenquellen? Welche Tools und Techniken helfen bei der Analyse? Wie wird aus einer Datenmenge eine packende Story? Dabei betont sie, wie wichtig es ist, Daten kritisch zu hinterfragen und verantwortungsvoll einzusetzen. Ihre Leidenschaft für den Beruf zeigt, dass Datenjournalismus ein Schlüssel sein kann, um wichtige gesellschaftliche Themen ins Rampenlicht zu rücken und die Öffentlichkeit aufzuklären. Inspiration für angehende Journalist:innen Ob ihr bereits im Journalismus arbeitet oder euch für datengetriebene Medien interessiert – dieses Interview bietet Inspiration pur. Regula Blocher teilt praktische Ratschläge und motiviert, die vielfältigen Möglichkeiten des Datenjournalismus zu erkunden. Lasst euch dieses spannende Gespräch nicht entgehen und taucht mit uns ein in die Welt des Datenjournalismus! Folgt uns für weitere inspirierende Einblicke in die Arbeit großartiger Medienpersönlichkeiten. #datenjournalismus #medien #journalismus #digitalemediem #storytelling #dokumentation #datenanalyse #inspiration
In dieser Folge begrüßt Franz Kubbillum Dr. Mario Lenz, den CPO von Hygraph, der sich selbst als klassischen „Nerd“ bezeichnet. Dr. Lenz promovierte im Bereich der künstlichen Intelligenz, lange bevor der große Hype einsetzte. Bevor er die Rolle des CPO übernahm, war er jahrelang CTO. Im Gespräch verrät Dr. Lenz, was genau der Unterschied zwischen diesen beiden Rollen ist und wie es zu seinem Wechsel kam. Zudem teilt er seine Tipps und Strategien im Technologie-Produkt-Umfeld. Neben diesen spannenden Themen erläutert Dr. Lenz auch, wie er mit Wünschen und Anforderungen umgeht, die nicht zur eigenen Strategie passen. Sie diskutieren auch über die Entwicklung von KI sowie die Veränderungen in Rechenleistung und Datenmenge. Neben seiner Devise „Do the job before you have the title“ teilt Dr. Lenz auch viele weitere hilfreiche Karrieretipps im Podcast. Themen - Product Management - KI-Entwicklung - C-Level - CTO vs. CPO Über Atreus – A Heidrick & Struggles Company Atreus garantiert die perfekte Interim-Ressource (m/w/d) für Missionen, die nur eine einzige Option erlauben: nachhaltigen Erfolg! Unser globales Netzwerk aus erfahrenen Managern auf Zeit zählt weltweit zu den besten. In engem Schulterschluss mit den Atreus Direktoren setzen unsere Interim Manager vor Ort Kräfte frei, die Ihr Unternehmen zukunftssicher auf das nächste Level katapultieren. ▶️ Besuchen Sie unsere Website: https://www.atreus.de/ ▶️ Interim Management: https://www.atreus.de/kompetenzen/service/interim-management/ ▶️ Für Interim Manager: https://www.atreus.de/interim-manager/ ▶️ Webseite von Hygraph: https://hygraph.com/ ▶️ LinkedIn-Profil von Dr. Mario Lenz: https://www.linkedin.com/in/mariolenz/ ▶️ Profil von Franz Kubbillum: https://www.atreus.de/team/franz-kubbillum/
Vor allem Frauen sind von der Entzündung der Schilddrüse namens Hashimoto-Thyreoiditis betroffen, sodass wir uns an dem heutigen Weltfrauentag mit der aktuellen Podcastfolge # 56 von „essenZ fürs Ohr“ noch einmal mit einem sehr frauenbezogenen Thema beschäftigen. Heike Lemberger hat sich diesem Thema gewidmet, weil sie sich aufgrund der vielen – teilweise widersprüchlichen – Empfehlungen in den Ratgebern als Betroffene nicht sehr gut informiert fühlte. Nach Recherche in der Originalliteratur räumt sie in diesem „Schnack und Snack“ mit vielen Falschannahmen auf, da sie wissenschaftlich nicht haltbar sind. Die zwei Kolleginnen thematisieren im Gespräch, dass hormonelle Veränderungen im Körper eine mögliche Ursache sein können und welche Diagnose-Möglichkeiten es von Hormon-, Antikörperbestimmung und Sonographie für Hashimoto gibt. Im Rahmen von Ernährungsempfehlungen erklärt Heike Lemberger, warum sie den Verzicht auf Gluten oder Milchprodukte in Frage stellt und zu welchen Lebensmitteln und Nahrungsergänzungsmitteln sie den Betroffenen raten würde. Es darf leicht umsetzbar und lecker sein! Heike Lemberger ist Autorin zahlreicher Bücher im Rahmen der LOGI– und Flexi-Carb-Kost, die für die Prävention und Therapie von Übergewicht oder Herz-Kreislauf-Erkrankungen empfehlenswert sind sowie Bücher zur Sporternährung. Für ein fundiertes Buch über die Ernährung bei Hashimoto fehlt ihr aber derzeit noch die Datenmenge aus hochwertigen Studien. Zusammen mit Franca Mangiameli führt Heike Lemberger die essakademie und organisiert zahlreiche Fortbildungen mit vielen verschiedenen Referent:innen. Eine davon gibt sie selbst zum Thema Ernährung bei Hashimoto. Diese Podcastfolge ist für all diejenigen, die selbst von Hashimoto betroffen sind, die sich fragen, wie die Diagnose bei Ärzt:innen abläuft und wissen möchten, worauf beim Essen zu achten ist. Website von Heike Lemberger: https://www.active-and-food.de Website der essakademie: https://www.essteam.de/ess-akademie/ Viel Freude beim Reinhören! Wenn du mir oder uns von essenZ etwas mitteilen möchtest, schreib uns gern eine E-Mail an: team@essenZ.hamburg. Feedback, Anmerkungen, Fröhliches oder auch konstruktive Kritik sind sehr willkommen! Mehr von uns findest du auch auf unserer Website https://essenz.hamburg/ sowie auf Instagram https://www.instagram.com/essenz.hamburg/ oder Linked https://de.linkedin.com/company/essenz-hamburg
Braucht jeder Mensch dieselbe Dosis Vitamine und Mineralien? Sind Nahrungsergänzungsmittel (NEM) teure Abzocke oder gibt es trotz einer gesunden, pflanzlichen Vollwerternährung wirklich Nährstoffmängel? Der Markt an NEM ist riesig und unübersichtlich. Wie sollst du wissen, ob du Defizite hast oder vielleicht sogar zu viel von den Stoffen, die du überhaupt nicht brauchst? Diese Fragen klärt Cordelia in der heutigen Folge zusammen mit Robin Sorg von der Firma Bioniq. Robin ist studierter Ernährungsberater, Leistungssportler, lebt seit neun Jahren vegan und achtet in allen Lebensbereichen auf eine ganzheitliche Gesundheit. Bioniq hat sich auf personalisierte NEM spezialisiert. Die maßgeschneiderten Nahrungsergänzungen sind so konzipiert, dass sie genau das liefern, was dein Körper wirklich braucht. Sagt Bioniq. Das Unternehmen setzt auf einen ausgefeilten Fragebogen, eine riesige Datenmenge und einfache Selbsttests, um herauszufinden, welche Nährstoffe du aktuell und individuell benötigst. Das Ziel: Ein 100% personalisiertes NEM, das deine Gesundheit durch die Optimierung des Mikronährstoffstatus unterstützt. Was macht die Firma Bioniq genau und wie kam es zu der Idee? Cordelia fühlt Robin Sorg heute intensiv auf den Zahn und nimmt dich mit hinter die Kulissen. Spielt deine Mikronährstoff-Balance eine wichtige Rolle für deine Gesundheit? In der heutigen Folge erfährst du es.
Oh leuchte mir den Weg Petunia das ultimative Modell zum Strom sparen für Gartenparties wären wohl leuchtende Pflanzen. Ohne Farbwechsel und Special-Effects gibt es das jetzt tatsächlich. In den USA kommen 2024 die ersten selbstleuchtenden Petunien auf den Markt. Zurück zu den Wurzeln Lange gab es eine Pause bei Assassins Creed. Nun ist mit Mirage ein Teil erschienen, der kürzer, kleiner und kompakter daherkommt. Ob das auch 2023 noch funktioniert und was taugt, das hat Matze sich angesehen. Aus für Discs Wir kennen das ja schon von Konsolen, jetzt greift das Aus für Discs wohl weiter um sich. Best Buy in den USA wird ab 2024 auf den Verkauf von DVD und Blu-Rays verzichten. You`re my Barbie Girl Der Kinoerfolg des Jahres 2023, nun auch in den Heimkinos. Margot Robbie verkörpert die Realverfilmung des Spielzeugs Barbie von Mattel derart spaßig, visuell beeindruckend, wenn auch schrill, dass man den Film gesehen haben muss. Barbenheimer Die beiden Blockbuster 2023 waren ohne Frage Oppenheimer und Barbie. Viele Zuschauer hatten sich beide im Double Feature reingezogen. Deswegen gibt es „Barbenheimer„. Wir sind gespannt was im Dezember da auf uns zukommt. Irgendwas passiert immer Das neue Juse Ju Album ist kritisch, ein wenig düster, macht aber eine Menge Spaß, wenn man sich auf die hintergründigen Texte einlassen kann. Netflix News Preissteigerung Es sieht so aus, als würde die nächste Preiserhöhung bei Netflix auf uns zurollen. Diesmal trifft es die Abonnenten im höchsten Preismodell. In den USA steigt das 4k Abo von 19,99$ auf 22,99$ und damit um 3$ bzw. 15%. In Europa würde das eine Steigerung von 17,99€ auf 20,99€ entsprechen. Wird es doch langsam mal Zeit zu kündigen? Macht Netflix Shops auf? Es schaut so aus, als würde Netflix mit dem Gedanken spielen, eigene Shops bzw. Netflix-Häuser zu eröffnen. Dort soll es ein Restaurant geben, Merchandise, Live-Events zu Serien und einen Hindernis-Parcous á la Squid Game. Würdet ihr dahingehen? Rettung des Internets Deep Render, ein StartUp aus UK, hat sich zum Ziel gesetzt den Bandbreitenkollaps wegen Videostreaming im Internet mittels eine KI Lösung zu bekämpfen. Mit einer Reduktion der Datenmenge um bis zu 80% würden Netflix und Co, den Internetanbietern, aber auch sich selbst eine Menge Geld sparen. Wir sind gespannt ob das klappen kann. Neues Leben für alte Kameras Du hast eine alte Kamera aber keinen Bock auf entwickeln von Filmen? Dann gibt es jetzt vielleicht genau das richtige für dich. Das I'm Back Film wird wie ein Film eingelegt und macht damit analoge Kameras digital. Der Sensor ist im Micro 4/3-Format (Sony IMX269). Die Auflösung liegt I'm Back zufolge bei 20 Megapixeln. Die Finanzierung geht über Kickstarter und wer sich jetzt ins Risiko begibt spart über 200€. Trotzdem werden noch fast 700€ fällig.
Josef Max Hajda Flattr Instagram Twitter Facebook Auphonic Credits Amazon Wishlist Flattr Mathias Schweiger Instagram Linkedin YouTube (Channel) Facebook Beitragsbild von Stable Diffusion Oh leuchte mir den Weg Petunia das ultimative Modell zum Strom sparen für Gartenparties wären wohl leuchtende Pflanzen. Ohne Farbwechsel und Special-Effects gibt es das jetzt tatsächlich. In den USA kommen 2024 die ersten selbstleuchtenden Petunien auf den Markt. Zurück zu den Wurzeln Lange gab es eine Pause bei Assassins Creed. Nun ist mit Mirage ein Teil erschienen, der kürzer, kleiner und kompakter daherkommt. Ob das auch 2023 noch funktioniert und was taugt, das hat Matze sich angesehen. Aus für Discs Wir kennen das ja schon von Konsolen, jetzt greift das Aus für Discs wohl weiter um sich. Best Buy in den USA wird ab 2024 auf den Verkauf von DVD und Blu-Rays verzichten. You`re my Barbie Girl Der Kinoerfolg des Jahres 2023, nun auch in den Heimkinos. Margot Robbie verkörpert die Realverfilmung des Spielzeugs Barbie von Mattel derart spaßig, visuell beeindruckend, wenn auch schrill, dass man den Film gesehen haben muss. Barbenheimer Die beiden Blockbuster 2023 waren ohne Frage Oppenheimer und Barbie. Viele Zuschauer hatten sich beide im Double Feature reingezogen. Deswegen gibt es „Barbenheimer„. Wir sind gespannt was im Dezember da auf uns zukommt. Irgendwas passiert immer Das neue Juse Ju Album ist kritisch, ein wenig düster, macht aber eine Menge Spaß, wenn man sich auf die hintergründigen Texte einlassen kann. Netflix News Preissteigerung Es sieht so aus, als würde die nächste Preiserhöhung bei Netflix auf uns zurollen. Diesmal trifft es die Abonnenten im höchsten Preismodell. In den USA steigt das 4k Abo von 19,99$ auf 22,99$ und damit um 3$ bzw. 15%. In Europa würde das eine Steigerung von 17,99€ auf 20,99€ entsprechen. Wird es doch langsam mal Zeit zu kündigen? Macht Netflix Shops auf? Es schaut so aus, als würde Netflix mit dem Gedanken spielen, eigene Shops bzw. Netflix-Häuser zu eröffnen. Dort soll es ein Restaurant geben, Merchandise, Live-Events zu Serien und einen Hindernis-Parcous á la Squid Game. Würdet ihr dahingehen? Rettung des Internets Deep Render, ein StartUp aus UK, hat sich zum Ziel gesetzt den Bandbreitenkollaps wegen Videostreaming im Internet mittels eine KI Lösung zu bekämpfen. Mit einer Reduktion der Datenmenge um bis zu 80% würden Netflix und Co, den Internetanbietern, aber auch sich selbst eine Menge Geld sparen. Wir sind gespannt ob das klappen kann. Neues leben für alte Kameras Du hast eine alte Kamera aber keinen Bock auf entwickeln von Filmen? Dann gibt es jetzt vielleicht genau das richtige für dich. Das I’m Back Film wird wie ein Film eingelegt und macht damit analoge Kameras digital. Der Sensor ist im Micro 4/3-Format (Sony IMX269). Die Auflösung liegt I’m Back zufolge bei 20 Megapixeln. Die Finanzierung geht über Kickstarter und wer sich jetzt ins Risiko begibt spart über 200€. Trotzdem werden noch fast 700€ fällig. Der Beitrag 256 2024 wirft Schatten voraus erschien zuerst auf Sag was! Geektalk.
12.000 Schritte, Puls bei 180, 657 Kalorien verbraucht. Fitnessapps liefern uns hilfreiche Informationen, um unser Sportprogramm und unsere gesundheitliche Entwicklung besser einschätzen zu können. Dafür sammeln sie notwendigerweise aber auch viele Daten. Aber welche eigentlich genau und was passiert mit den Daten, nachdem sie bei euch getrackt wurden? Damit euch in der Datenmenge nicht die Puste ausgeht, hat unser Moderationsduo Ute und Michael mit ihrem Gast Martin Gobbin von Stiftung Wartentest über die wichtigsten Fragen gesprochen. Sie verraten euch, wie und wo wir vorsichtig im Umgang mit Fitnessapps sein sollten.
Serious Sellers Podcast auf Deutsch: Lerne erfolgreich Verkaufen auf Amazon
In dieser Episode haben wir das Vergnügen, intensiv mit Felix Preis, dem Leiter des Performance Marketing bei AMZ Advertise, einzutauchen. Felix, ein Experte auf seinem Gebiet, bietet uns einen faszinierenden Einblick in die Welt der PPC-Werbung auf Amazon und teilt seine wertvollen Einsichten darüber, wie man Geld spart, Fehler vermeidet und das volle Potenzial der Werbung ausschöpft, um ein profitables Ranking zu erzielen. Wir erkunden die verschiedenen Umsatz-Akos-Entwicklungskurven und diskutieren, wie man seine Strategie anpassen kann, um langfristige Ziele zu erreichen. Unser tiefgreifendes Gespräch erörtert die häufigsten Fehler bei PPC-Werbung auf Amazon und zeigt, wie man den Markt erfasst, Sweet Spots findet und kontinuierlich testet und optimiert. Felix teilt seine Überlegungen zum optimalen Marketingfunnelansatz und zum klassischen Marketingfunnel von Amazon, der in vier große Bereiche unterteilt ist: Awareness, Consideration, Conversion und Loyalty. Gemeinsam enthüllen wir, wie man diese Bereiche mit Werbeformaten verknüpft, um potenzielle Fehler aufzudecken. In der abschließenden Phase unseres Gesprächs beleuchten wir die Gefahren einer zu aggressiven PPC-Werbung und diskutieren Strategien, um auf einem hart umkämpften Markt profitabel zu bleiben. Felix teilt Tipps zur Optimierung von Geboten und Platzierungen und zur effizienten Nutzung von Keywords. Er zeigt uns auch die Möglichkeiten, die PPC-Werbung auf Amazon bietet, und wie man eine nachhaltig profitable Kampagne gestalten kann. Dieses dynamische und aufschlussreiche Gespräch mit Felix Preis ist ein Muss für jeden, der den Wunsch hat, das volle Potenzial der Amazon PPC-Werbung auszuschöpfen. In Folge 93 des Serious Sellers Podcast auf Deutsch, Marcus und Felix diskutieren: 00:00 - Amazon PPC Fehlerpotenziale 06:17 - Die Bedeutung Der SEO-Strategie Für Seller 19:24 - PPC-Optimierung Und Marketingfunnel-Ansatz 33:38 - Werbungsstrategie Für Umkämpften Markt 42:23 - Optimierung Von Geboten Und Platzierungen 54:14 - Dank Und Einladung Zu Zukünftigen Daten Transkript Marcus Mokros: In der heutigen Episode unterhalte ich mich mit Felix Preis. der war schon mal Gast hier im Podcast. Der kommt von der Agentur AMSI Advertise und hat wirklich ein tiefes Verständnis über PPC-Werbung auf Amazon. Jemand ist klar, das ist ein Muss. Viele haben aber auch schon die Erfahrungen gemacht. Damit kann man viel Geld verbrennen, wenn man Fehler macht. Und genau darüber spricht er heute mit uns. was sind die fünf größten Fehlerpotenziale Bei der PPC-Werbung auf Amazon? Hallo zusammen und willkommen beim Serious Seller Podcast auf Deutsch. Mein Name ist Markus Mockross, und das ist die Show, in dem wir alles um Amazon, fba, private Label besprechen, was uns Handler auf Deutsch gesagt, ernsthafte Umsätze generiert. Daher auch der Name der Show Serious Seller Podcast auf Deutsch. Und hallo, liebe Zuhörer, zu einer neuen Episode, die hier auch gleichzeitig eine Premiere ist, weil heute nehme ich hier auch mit Video auf. aber ich begrüße erstmal meinen Gast heute, den Felix Hi, wie geht's dir? Felix: Servus, markus, herzlichen Dank. Vor allem, dass ich wieder bei dir zu Gast sein darf, habe ich mich sehr darauf gefreut. Mir geht's sehr, sehr gut. Ich hatte einen sehr angenehmen Tag bisher und freue mich jetzt sehr auf die Aufnahme mit dir. Wie geht's dir? Marcus Mokros: Sehr, sehr gut. Danke, und ich freue mich auch, dass du wieder da bist. Wir hatten ja schon eine Episode zusammen und die war wirklich sehr technisch für PPC, und ich weiß, da gab es auch sehr, sehr gutes Feedback. Und heute willst du da noch ein bisschen tiefer eintauchen mit dem Thema die fünf größten Amazon PPC Fehlerpotenziale. Genau, absolut. Ja, ich würde mal sagen, du hast dich vorbereitet und ich habe das, glaube ich, eine ganze Menge mitgebracht. Dann stell dich vielleicht erst mal vor und leg los mit dem, was du mitgebracht hast heute. Felix: Ja, sehr, sehr gerne. Vielleicht da auch direkte Zusatz am Anfang einmal Wir haben heute, wie du schon gesagt hast, auch die Premiere noch direkt eine Bildaufzeichnung. Dabei heißt Wenn jemand über ein Podcast zuhört, versuche ich, das Ganze bestmöglich so zu beschreiben, dass man auch den Zahlen folgen kann, wenn man die Bilder dazu nicht sieht. Aber ansonsten auch bei dir auf dem YouTube Channel, glaube ich, alles auch nicht live und in Farbe, aber zumindest in Farbe ohne das Live. Marcus Mokros: Da sprichst du einen sehr guten Hinweis an Die meisten hier bisher per Audio hören. Die wissen vielleicht gar nicht, dass es auf YouTube gibt Der YouTube-Kanal heißt wie der Podcast Series Seller Podcast auf Deutsch. Da findest du ihn auf YouTube, Und diese Episode findest du eben auch mit Bild. Wer das hier interessant findet und sagt, ein paar Sachen würden noch mehr Sinn machen, mit Bild zu verfolgen, da kann sie es auf YouTube nochmal angucken, an die Stelle springen oder gleich von vorne da loslegen. Felix: Jawoll, ja, weil dann würde ich direkt einmal den Ball da aufgreifen, wo du ihn mir zugespielt hast, und mich einmal vorstellen und würde auch direkt einfach mal in die Präsentation reinspringen, die ich vorbereitet habe. Ja, kurz zu mir, ich will die Leute gar nicht mit persönlichen Kram vor mir langweilen, sondern will viel lieber schnell ins fachliche starten. Aber damit ihr zumindest wisst, wer Markus gegenüber sitzt und wer euch jetzt ein bisschen die nächste halbe Stunde wahrscheinlich mit PPC Themen zutexten wird Ich bin Felix, head of Performance Marketing Manager bei AMZ Advertise, und wir sind eine Advertising-Agentur, die seit Jahr 2018 sich um Amazon Ads kümmert. Wir sind ein 26-köpfiges Team, davon über 50% der Leute im Account Management, also im Kundenkontakt und im Reihenfulfilment des Advertisements auf Amazon tätig. Wir sind kein Full Service, also keine Full Service Agentur, sondern legen unseren maximalen Fokus auf Amazon Ads und haben im letzten Jahr über 12 Millionen Euro ein Ad-Bend für unsere Kunden verwaltet und dabei jetzt mittlerweile auch über 350 verschiedene Sellerinnen begleitet und sind offizieller Amazon Ads Advanced Partner. So viel aber auch an der Stelle glaube ich erstmal an vermeintlich langweiligen Fakten. Lass uns gerne in die spannenden Themen rein starten, und da habe ich euch, wie eben schon von Markus angekündigt, 5 große Fehlerpotenziale bzw superlativ die 5 größten Fehlerpotenziale bei Amazon PPC mitgebracht, die man hier machen kann, und auch jetzt vorab. Ich glaube, es gibt extrem viele Fehlerpotenziale, und auf den einen oder anderen Seller treffen Punkt 1, 3 und 4 vielleicht zu, und dafür fehlt noch 6 und 7, und dafür haben andere absolut gar kein Fehlerpotenzial bei den Themen, die ich hier mitbringe, sondern haben vielleicht noch ganz andere Themen, die sie eher beschäftigen. Deswegen da jetzt natürlich die 5 zu finden, die für alle gelten, ist nicht möglich. Aber durch die Bank weg und die ganzen verschiedenen Accounts, die ich bisher schon gesehen und betreut habe und die wir als Agentur betreuen, lassen sich dann doch immer so die recht gleichen 5 Themen bündeln, die man bei ca 80-90% aller Seller sehen kann, dass da noch Potenzial ist, und die habe ich versucht, heute vorzubereiten und möglichst verständlich für euch mitzubringen und aufzubereiten. Dementsprechend haben wir Fehlerpotenzial Nummer 1, und zwar, dass die aktuelle Strategie nicht zu der Unternehmensvision passt. Was meine ich damit? Also? was wir ganz klassisch und häufig immer beobachten, ist, dass SellerInnen sagen hey, mein Produkt, ja, xy steht auf der Folie. Mein Produkt, der weiß ich nicht, akkubora, der war damals mal Bestseller, und jetzt habe ich kaum noch Sichtbarkeit, werde kaum noch gesehen. Oder aber auch Aussagen wie ja, ich will bei mir im Ranking in meiner Kategorie nach oben klettern. Mein Akkubora ist im Moment auf Platz 275 in der Kategorie Akkubora, und ich muss aber trotzdem profitabel sein und will ein Zielakos von 5% haben. Dann sind das einfach ja verschiedene Aussagen, die aus unserer Sicht so halt absolut im Widerspruch zueinander stehen, die so nicht passen. Weil ja, wenn man langfristig am Markt gut platziert sein möchte und möglichst profitabel Werbung schalten möchte und seinen Markt im besten Fall auch langfristig dominieren möchte, muss man einfach gucken, wie man verschiedene Parameter und Zielsitzungen so festlegt, dass man eben auch genau alle Zielsitzungen bestmöglich erreicht. Und das ist einfach so ein großer Punkt, dass viele Seller einfach sagen hey, ich habe hier ein Akkos, mit dem habe ich schon immer ganz gute Ergebnisse gefahren, ich mache genauso weiter, damit schaffe ich aber irgendwie nicht, meine Rankings zu verbessern, will aber langfristig irgendwie dann doch organisch auch unter den Top 10 in meiner Kategorie sein. Und das sind dann für mich einfach Punkte, wo ich sage, da muss man definitiv die Strategie überdenken. Es geht dann auch nicht darum, den Akkos von heute auf morgen von 5% auf 50% hochzusetzen und sein restliches Leben lang nur noch mit einem 50%igen Akkos unterwegs zu sein, aber hier ganz klar mal zu überlegen okay, wie kann ich meine Zielsetzung bzw meine Strategie so ausrichten, dass ich meine Zielsetzung erreiche, um entsprechend auch die Ziele zu erreichen, heißt hier die Leitfrage, die ich vor allem mit Fehlerpotenzial 1 einmal mitgeben möchte ist deine Strategie wirklich so gewählt, dass du auch realistisch deine Ziele erreichen kannst? oder hast du eigentlich irgendeine Strategie gewählt, die du schon seit Jahren fährst, die vermeintlich gar nicht dazu führen kann, dass du überhaupt auch nur ansatzweise die Ziele erreicht, dass es Fehlerpotenzial 1, was ich hierfür heute mitgebracht habe, Ja, das trifft euch auf den Kopf, richtig. Marcus Mokros: Wenn man von außen steht, will man wahrscheinlich alles, ohne zu sehen, was realistisch ist für die Phase Darauf will es wahrscheinlich hinaus, akzeptieren muss, in welcher phase man sich gerade befindet. Felix: Absolut, und dass man da auch regelmäßig sich hinterfragt, weil es kann natürlich sein, dass man launcht, dass man sich gut im Markt platziert Und nach einem Jahr echt sehr gute Ergebnisse erzielt, ein gutes Ranking hat, gut dabei ist, und nach einer Zeit kommen immer wieder Konkurrenten auf den Markt, das Marktumfeld verändert sich, es wird kompetitiver, cpc steigen an, gebote steigen an, die Sichtbarkeit schränkt Oder sinkt dadurch, und dass man dann auch, obwohl man schon mal gut platziert war, trotzdem wieder irgendwann zurück zum Ursprung gehen muss und dann mal wieder für ein paar Monate eine andere Strategie wählen muss, um sich wieder besser zu platzieren, heißt das Ganze quasi immer periodisch in unterschiedlichen Zykluslängen einfach wiederkehrende Themen, die einfach bei jedem Seller immer auf dem Schirm sein drücken. Und das bringt mich auch so ein bisschen zum zweiten Punkt. Hier würde ich nämlich jetzt so ein bisschen von dieser allgemeinen Aussage, die ich gerade getroffen habe, weggehen und versuchen, mal mit konkreten Beispielen hier rein zu gehen, nämlich bei dem Tipp, je niedriger mein Akos also, beziehungsweise Tipp Nummer zwei für ein Fehlerpotenzial ist zu sagen je niedriger mein Akos ist, desto höher ist meine Profitabilität und umso mehr Gewinn erziele ich. Und jetzt habe ich hier für alle, die auf YouTube dabei sind, vier Grafen mitgebracht, die ihr sehen könnt, für alle. Im Podcast versuche ich euch jetzt mal so ein bisschen abzuholen. Was man hier nämlich sehen kann, sind vier Grafen mit unterschiedlichen Umsatz-Akos-Entwicklungskurven, also in einer unterschiedlichen Relation zueinander. Und es gibt Märkte. Da sieht man relativ einfach okay, gehe ich mit einem fünfprozentigen Ziel-Akos rein und halte einen fünfprozentigen Ziel-Akos, mache ich 1000 Euro Umsatz, verdoppelte ich beispielsweise den Akos, verdoppelte ich beispielsweise auch meinen Umsatz, gehe ich auf einen zehnprozentigen Akos landig bei 2000 Euro? ne, bei einem zehnprozentigen genau bei 2000,. Bei 15 prozentigen, bei 3000 Euro heißt wir haben einfach eine lineare Steigung, so ein bisschen im Verhältnis wie viel gebe ich aus, wie viel kommt rein, und der Akos bleibt recht gleich. Dann gibt es aber auch Märkte, wo wir einfach sehen okay, es gibt gar nicht so viel Konkurrenz. Und wenn ich jetzt statt mit einem fünfprozentigen Akos deutlich aggressiver reingehe, zum Beispiel mit einem zehnprozentigen Akos, dann kriege ich gar nicht mehr unbedingt das Doppelte raus, sondern kriege immer weniger raus. Das heißt, ich habe einen abnehmenden Grenzenutzen. Ist zum Beispiel so ein klassischer Fall du bist in einem Markt, in einem Nische unterwegs, die nicht sehr kompetitiv ist, da schaltest du Werbung, du bist super profitabel, hast organisch vielleicht irgendwie den ersten oder den zweiten Platz und bist mit relativ niedrigen Geboten auch dann über die Werbung sehr, sehr gut sichtbar, und da jetzt einfach die Gebote noch weiter hochzuschrauben, wird dir vermeintlich nicht viel mehr an Umsatz bringen, einfach weil du organisch schon super gut sichtbar bist und weil du auch über die Werbung relativ einfach und günstig gute Werbepfetze einnehmen kannst, sondern eine Erhöhung der Gebote und auch das Akos würde nur dazu führen, dass einfach die gesamten Kosten steigen, der Umsatz aber relativ gesehen immer weniger ansteigt. Und dann haben wir dazu natürlich noch das Pendant, nämlich so eine Art exponentielle Profitabilitätsentwicklung, die wir vor allem immer in kompetitiven Märkten sehen. Heißt ja klassische Beispiele irgendwas Handyzubehör oder Supplementbereich, wo du einfach sehr viele Mitbewerbe hast. Wenn du da mit einem fünfprozentigen Akos reingehst, kriegst du ein kleines Stück vom Kuchen. Aber wenn du da aggressiver reingehst und vielleicht mal den doppelten Akos wie zehn Prozent wählst, kann es sogar sein, dass du durch die noch bessere Sichtbarkeit auch noch mehr an Umsätzen gewinnst. Als du an Akos oben draufpackst, heißt, die Umsatzkurve steigt einfach deutlich schneller an als die Akos Kurve. Heißt, je mehr du in Erwerbungen investierst, desto besser sichtbar bist du und umso mehr Umsätze kriegst du auch noch rein. Und die drei Grafen würde ich gerne mal so ein bisschen gegenüberstellen, weil wir jetzt natürlich das Szenario haben Okay, sagen wir, wir haben ein Beispielprodukt, wo wir eine Marge von 20 Prozent haben. Und wenn ich jetzt mit einer 20-prozentigen Marge im linearen Profitabilitätsentwicklungsmarkt sage, ich will möglichst profitabel sein, und ich gehe mit einem fünfprozentigen Akos ran, dann habe ich nämlich noch 15 Prozent ich nenn es einfach mal in Anführzeichen Gewinn übrig, und 15 Prozent von 1000 Euro Umsatz sind 150, und du bist bei 150 Euro gewinn. Würdest du jetzt aber beispielsweise sagen, dass du in dem Markt sagst okay, ich gehe vielleicht nicht mit einem fünfprozentigen Akos rein, sondern mit einem zehnprozentigen Akos, dann hat man ja im ersten Moment die Vermutung okay, ich erhöhe den Akos, verdoppel den Akos, bleibt mir viel weniger Gewinn am Ende übrig, nämlich statt 15 Prozent wie eben nur noch 10 Prozent. Aber der große Unterschied ist eben hier, dass du natürlich auch mehr Umsätze machst, und in dem Beispiel hast du dann bei 2000 Euro Umsatz. Wenn wir diese lineare Profitabilitätsentwicklung haben, hast du entsprechend nur noch 10 Prozent davon als Gewinn übrig. Die 10 Prozent von 2000 sind dann aber 200 Euro. Absolut, das bedeutet absolut, kannst du dann hier sogar mit einem höheren Akos noch höhere Gewinne einfahren. Und deswegen so ein bisschen dieser Glaubenssatz je niediger mein Akos, desto höher die Profitabilität, stimmt nicht immer, und um da vielleicht so ein bisschen auch den Bezug auf den abnehmenden Grenzen nutzen zu nehmen und die exponentielle Profitabilitätsentwicklung hier gilt halt rauszufinden. Okay, wenn ich in einem Bereich mit einem abnehmenden Grenzen nutzen bin, da macht es vielleicht nicht immer unbedingt Sinn, den Akos bis ins unermäßliche zu steigern und mehr Umsatz zu machen und so mehr Gewinn rauszuholen. In dem exponentiellen Profitabilitätsentwicklungsmarkt hingegen vielleicht schon. Und jetzt weiß ich auch, dass die Beispiele sehr, sehr theoretisch sind, weil kein Markt sieht per se so aus. Deswegen habe ich euch auf der nächsten Folie mal versucht, ein reales Konstrukt mitzubringen, um da nochmal einen weiteren Beispiel, wirklich den Benefit zu begründen. Hier haben wir nämlich jetzt mal einen Markt genommen, weil kein Markt ist in jeder Phase immer nur exponentiell oder abnehmend im Grenzen nutzen oder linear, sondern es gibt einfach ja verschiedene ich sage mal Spielräume von Akoswerten und CPCs, wo man sehr, sehr wenig Sichtbarkeit bekommt und dementsprechend auch sehr, sehr wenig Umsatz, man ab einer gewissen Höhe aber auf einmal zum Beispiel Top of Search erreicht, die erste Suchergebniszeit erreicht und so weiter und so fort viel mehr Sichtbarkeit bekommt und auf einmal wieder so einen exponentiellen Schub hat an Umsätzen, die reinkommen. Und ja, jetzt habe ich hier ein Beispiel. Ich versuche, es auch hier nochmal so runterzubrechen, dass jeder, der kein Bild dazu hat. Also deswegen glaube ich, gerade für die Folie super spannend, wenn man sich das über YouTube anguckt aber auch so runterzubrechen, dass man da auch im Podcast ganz gut folgen kann. Nehmen wir mal das Beispiel wir haben ein Produkt, das uns eine 30%ige Marge liefert. Dann können wir beobachten, dass wir mit einem 5%igen Akos sehr, sehr niedrige Gebote, vielleicht 1000 Euro in eine Woche an Umsatz reinholen, und wir haben jetzt eine 30%ige Marge. Beziehungsweise ich sehe gerade, ich habe in dem Beispiel in der Folie 30% reingeschrieben, habe dann aber mit 25% gerechnet. Deswegen würde ich kurz nochmal einen Schritt zurückgehen und bei dem Beispiel sagen wir haben kein Produkt mit einer 30%igen Marge, sondern mit einer 25%igen Marge. Also nochmal von vorne Ihr habt ein Produkt mit einer 25%igen Marge und sagt okay, wir wollen möglichst profitabel sein. Ich gehe mit einem 5%igen Akos rein und macht dann da dadurch, dass man mit 5%igen Akos nicht sehr viel Spiel hat, in der Gebotshöhe einen Umsatz in der Woche von 1000 Euro. Dann haben wir die 1000 Euro, haben 25%ige Marge, 5% gehen aber vom Akos in die Werbeausgaben rein, heißt, uns bleiben 20% übrig. Also haben wir 20% Gewinn pro Woche über die Werbung und erzielen insgesamt einen Gewinn von 200 Euro. Würde man jetzt den Akos ein bisschen anheben Richtung 10%, dann kann es immer noch sein, dass wir mit 10% Akos noch nicht so hohe Gebote haben, dass wir wirklich die relevanten konversionstarken Plätze bekommen, wo wir ausgespielt werden, was dann dazu führt, dass verhältnismäßig der Akos sehr viel ansteigt, nämlich im Vergleich zum 5% Akos sich verdoppelt, die Umsätze sich aber nicht verdoppeln, sondern wir verhältnismäßig mehr ausgeben und bei 1750 Euro Umsatz landen und dann entsprechend 25% Marge minus 10% Akos den Gewinn von 262,50 Euro haben. Das heißt, obwohl sogar wir hier im leicht abnehmenden Grenz nutzen sind, wenn wir nach der Beispiel-Grafik von eben gehen, können wir trotzdem mit einem höheren Akos hier dafür sorgen, dass wir mehr Gewinn am Ende des Tages rausholen. Spielen wir das Spiel noch ein bisschen weiter, gehen auf einen 12,5%igen Akos, dann steigt der Umsatz verhältnismäßig noch ein bisschen weniger stark. Wir haben nur noch 12,5% Gewinn übrig, nämlich 25% Marge minus 12,5% Akos, und sind bei 1900 Euro Umsatz auf einmal nur noch bei einem Gewinn von 237 Euro. Das heißt, jetzt könnte das ein Indiz dafür sein, dass wir sagen okay, unser optimaler Sweetspot liegt vielleicht nicht bei 12%, sondern liegt eher bei 10%. Also könnte man sagen okay, wir wählen hier vielleicht eine Strategie, wo wir einen 10%igen Akos anvisieren, weil wir hier deutlich mehr Gewinn rausholen. Oder aber man sagt okay, wir testen, wo liegen wirklich die Potenziale? weil wenn ich mir 12,5% Akos sehe, dass ich immer noch eine sehr geringe Ausspielung auf der ersten Suchergebnis-Seite habe, dass man sagt, wir wollen wirklich mal ganz oben ausgespielt werden, wo es relevant ist, und hier die Grenze vielleicht schon bei einem 15%igen Akos liegt, dass das gelingt, können wir dann das ich sag mal Finn und Meen beobachten, dass wir dann, wenn wir auf der ersten Suchergebnis-Seite ausgespielt werden, deutlich bessere Conversion Rates haben, wie auf einmal pro Woche einen riesigen Umsatzspunk kriegen können, durch eben mehr Sichtbarkeit, durchhöre, conversion Rates und 4.000 Euro einen Umsatz erzielen und dann entsprechend 10% Gewinn übrig haben, also 25% Marge minus 15% Akos, was dann im Gewinn von 400 Euro entspricht. Und wenn wir dann sagen, okay, da sind wir gut dabei, dann lass uns doch nochmal testen, was geht denn darüber hinaus noch? Wir dann wieder beobachten, weil jeder Markt wird ab einem gewissen Punkt, ab einem gewissen Akos dann immer mehr zu einem abnehmenden Grenz nutzen So dann sehen okay, ab einem 20%igen Akos steigen die Umsätze kaum noch an, und auf einmal schneiden wir uns sehr, sehr viel von unserem Gewinn ab, kriegen aber gar nicht mehr so viel mehr an Umsatzwachstum rein und landen dann in dem Beispiel mit 20% Akos vielleicht bei 4.250 Euro Umsatz, und das macht dann ein Gewinn von 212 Euro aus, und wir sind wieder bei einem sehr, sehr niedrigen Gewinn. Und das ist so ein bisschen ich sag mal, fehlerpotenzial. 2, was ich hier herbei oder ja ein bisschen auf den Schirm rufen möchte je niedriger mein Akos, desto höher meine Profitabilität und umso höher ist mein Gewinn. Auch hier nicht immer stimmt heißt, es geht immer darum, den Sweetspot rauszufinden, und da vielleicht direkt noch ein Praxistipp von mir mit, den ich damit geben möchte Wir sind immer ein großer Fan davon, wenn wir nicht wissen, wo der Sweetspot liegt, etwas höher anzufangen und uns dann nach unten zu navigieren, also vielleicht im 20. Bereich in dem Beispiel anzufangen, dass wir immer noch profitabel sind und wir im schlimmsten Fall nichts verlieren können, sondern ja gute Umsätze machen, auch die Rankingsteigern wertvolle Optimierungsdaten sammeln. Aber dann von oben gucken okay ab, wo werden wir wirklich profitabel, wo liegt unser Sweetspot? dass wir da keine Umsatzpotenziale verpassen? weil würden wir hier in dem Beispiel einfach immer bei 10% bleiben und versuchen, damit profitabel zu sein, würden wir einfach dieses Umsatzpotenzial, was möglicherweise bei 15% besteht, niemals sehen und uns da wirklich auf Monate und Jahre hinweg gesehen wirklich Tausende von Euros liegen lassen, die wir da profitabel reinholen können. Yes, das so ein bisschen zu vieler Potenzial. 2, ich hoffe, es war nicht zu kriptisch an der Stelle. Marcus Mokros: Ja, das ist wirklich sehr, sehr gut auf den Punkt gebracht und ja, das ist wahrscheinlich absolut verständlich, die Denkweise zu sagen. Ich möchte so wenig wie möglich aus der Hand geben pro Sale. Aber genau wie du es richtig auf den Punkt bringst, holt man sich halt dann über den Umsatz rein. Und deswegen heißt es mit PPC testen, testen, testen ja. Felix: Absolut testen, testen. Testen ist auch mein Lieblingsschlagwort, weil auch wir haben natürlich keine Glaskugel. Heißt, wir müssen bei jedem Produkt, bei jedem unserer Kunden auch immer wieder schauen wo ist der Markt, wie konvertiert unser Produkt, auch wenn wir auf der ersten Seite ausgespielt werden, wo können sweet spots liegen? heißt auch, wir haben keine Kristallkugel. Wir testen uns ran, gucken dann, was sind die besten Daten, arbeiten damit, testen, wie das Ganze läuft, und wenn es nicht so gut läuft, wie wir es haben wollen, testen wir wieder weiter. Und ja, so ist es ein stetiges Testen und optimieren. Deswegen würde ich sagen, die Optimierung schläft an der Stelle auch nie ein, sondern ja, es ist immer ein stetiges Testen an den sweet spot. Den wird man auch niemals 100% treffen, und es geht immer darum, möglichst nah ran zu kommen. Cool, ja, jawoll. Damit würde ich auch direkt übergehen zum dritten Fehlerpotenzial im PPC Bereich, nämlich dem Potenzial oder beziehungsweise dem Fakt, dass du als Seller kein optimal Marketingfunnelansatz nutzt und dir nicht der positiven Effekt bewusst bist, die der mit sich bringen kann, wenn man ihn entsprechend effizient nutzt. Ich habe euch hier mal die klassische Marketingfunnel-Definition von Amazon auch mitgewacht. Amazon unterteilt den Marketingfunnel in vier große Bereiche, nämlich einmal ja, kann man sich vorstellen, wie so eine Art Trichter ganz oben fällt ganz, ganz breit alles möglich rein, alle möglichen Zielgruppen, und ganz unten kommt dann wirklich der in Anführzeichen beste Käufer raus, der die höchsten Conversion Rates hat, der immer wieder eure Produkte kauft und wo einfach die ja die Conversion Wahrscheinlichkeit am allerhöchsten ist, und ja, so seine Werbung nach diesem Trichter und Funnelsatz aufzubauen, bringt einfach super viele Vorteile, auf die ich hier gerne einmal eingeben möchte und so ein bisschen ja das auch mit der Werbung und den Werbeformaten verknüpfen möchte, um auch hier aufzuzeigen, welche möglichen Fehlerpotenziale eventuell bei dir oder bei euch bestehen könnten. Und der Marketingfunnelansatz von Amazon gliedert sich, wie gesagt, in vier Punkte, nämlich ganz, ganz oben der Awareness-Bereich, also ein bisschen der Bewusstseins-Bereich, bedeutet da versuchen wir, kunden anzusprechen, bevor es überhaupt erste Kaufsignale gibt. Ich habe gerade mal das Beispiel von dem Akkuborb reingeworfen. Es könnte jetzt zum Beispiel sowas sein, dass wir eine Sponsor-Product-Kampagne schalten, wo wir einfach nur ganz breit auf das Keyword Werkzeug ausspielen, das heißt, jemand, der Werkzeug eingibt, und da gibt es ein sehr, sehr hohes Volumen. Ich persönlich würde auf Amazon vermutlich nicht so suchen. Die Daten zeigen aber oder sprechen. Eine andere Sprache Heißt, über das Keyword Werkzeug gibt es super viele Impressionen, ganz, ganz viele Leute, die nachsuchen. Aber ich glaube, ich muss euch nicht sagen, dass, wenn jemand Werkzeug eingibt, die Wahrscheinlichkeit, dass die Anzahl von Leuten, die so danach suchen, dann auch am Ende den Akkuborra kaufen, vermutlich relativ gering ist. Es wird aber trotzdem Leute geben, aber der Anteil ist sehr, sehr gering, während wir, wenn wir uns weiter nach unten im Trich da und im Funnel bewegen, eine immer höhere Kauf-Verscheinlichkeit haben werden. Bedeutet ja, ich habe es gerade schon mit dem Beispiel ein klassisches Fethat Keyword im Sponsor-Product-Bereich gebracht. Oder was natürlich auch super gut passt für Awareness und vor allem markenbewusstsein, sind Sponsor-Brands anzeigen oder auch beispielsweise Sponsor-Display anzeigen Jeder Art, auch vor allem auf Audiences oder auf Zielgruppen. Und das sind Kampagnen, wo es absolut nicht darum geht, einen sehr, sehr niedrigen Akkus und eine hohe Profitabilität zu erzielen, sondern wir wissen, da oben im Funnel bewegen sich ganz, ganz viele Leute, und selbst wenn wir nur ein Prozent davon abkriegen, was verhältnismäßig eine wahrscheinlich eher schwächere Conversion Rate ist, haben wir damit ein riesiges Umsatzpotenzial. Und vor allem es geht, wie gesagt, da gar nicht unbedingt um die Verkäufe an sich da greife ich aber jetzt schon so ein bisschen Punkt von später vor, da gehe ich später noch mal intensiver bei einem anderen Federpotenzial auf einen sondern es geht vor allem darum, einfach erstmal für Bewusstsein zu sorgen. Wir wollen noch gar keinen Verkauf tätigen. Wir wollen einfach nur gesehen werden. Dann haben wir den nächsten Schritt, den Consideration Bereich, also die Berücksichtigung. Da wollen wir dann Kundinnen ansprechen, die schon eine konkrete Kaufintention besitzen und wollen einfach breit im gesamten Markt oder auf Kategorien ausspielen. Das heißt auch hier, um Beispiele zu nennen, wer jetzt zum Beispiel nicht mehr nur Werkzeug, sondern wer dann zum Beispiel so was wie Bohrmaschinen relativ breit ausgespielt, um einfach da zu sagen okay, wir wissen nicht, will ja jemanden Akkuschrauber, irgendeine bestimmte Marke haben oder wie auch immer. Aber wir gehen schon ein bisschen tagetierter rein oder können natürlich auch dann wieder so ein bisschen Sponsored Product oder Sponsored Display mäßig einfach direkt ganze Kategorien ansprechen, also auch da jemand, der sich in der Kategorie bewegt, die gut zu einem Akkuschrauber passt, dass wir sagen okay, hier wollen wir direkt drauf gehen, die Leute wollen wir ansprechen und sind da schon ein bisschen tagetierter und haben schon ein bisschen vorelektiert an Leuten, die wir hier ansprechen wollen. Dann haben wir im dritten Schritt den Conversion Bereich, und hier geht es jetzt ganz klar darum, wirklich Performance im Sinne von gute Profitabilität und hohes Umsatzniveau zu erzielen. Da wollen wir nämlich Kundinnen tagetieren, die wir ganz gezielt zu Conversions bringen wollen, und ganz gezielte Keyboarder hinterlegen. Das könnte dann zum Beispiel Akkuschrauber, akkuschrauber, wenn das Ding in Farbe schwarz verfügbar ist, akkuschrauber schwarz, akkuschrauber mit irgendwelchen ich sag mal Produktmerkmalen, die das Produkt aufweist, hier direkt mit reinzunehmen und die Leute zu tagetieren, die wirklich ganz genau wissen, was sie wollen, und auch da dann ganz klassisch im Sponsored Products Bereich diese Leute anzuvisieren und dann da auch wirklich in Anführzeichen gute, weil was ist eine gute Werbung? dementsprechend eher in anderen Worten gesagt, eine profitable und eine umsatzstarke Werbung zu schalten und hier die Kunden abzuholen. Und dann haben wir im letzten Schritt noch Loyalität, also einfach Kunden zum Beispiel wiederholt zu tagetieren und mir einfach Kundinnen zu tagetieren, die bereits ganz gezielt nach unserer Marke suchen, wenn wir nicht nur gute Akkuschrauber haben, sondern vielleicht auch ich weiß nicht gute Schleifsteine, gute, was auch immer es noch an Werkzeugzubehör gibt, einfach Leute zu tagetieren, die schon nach uns als unserer Marke suchen, und ja, die erneut insvisiert zu nehmen. Und da bietet sich halt auch ganz klar wieder der Sponsored Products Bereich an, wo wir auf Markenkeywords gehen können, oder zum Beispiel auch der Sponsored Display Bereich, wo wir hier sagen können okay, wir wollen alle Leute tagetieren, die in den letzten 7, 14, 30, 60, 90 Tagen ein Produkt XY von uns gekauft haben, und einfach da nochmal sagen hey, wir haben auch noch andere Produkte, oder wenn es wiederkehrende Kaufoptionen sind, wie zum Beispiel Produkte, die man in einem 30, 60, tages, 90 Zeitfenster braucht sei es klassisches Beispiel Hundefutter zum Beispiel oder Nahrungsergänzung einfach zu sagen, hey, ihr habt schon mal bei uns gekauft, wir würden gerne Wiederwerbung spielen und euch damit wieder anvisieren. Und ja, dann da einfach ganz klar nochmal auf die Zylgruppe gehen, wo man weiß, die hat schon gekauft und die ist vermeintlich zufrieden. Und das ist der klassische Marketing Funnel Ansatz. Und was wir beobachten und deswegen auch Das war kurz so ein bisschen die Einleitung, um Kontext zu dem Ganzen zu geben Was wir beobachten, ist, dass sich Kampagnen angeguckt werden, die in diesem dritten Segment sind nämlich schon fast ganz unten im Funnel, nämlich im Conversion Bereich, wo es um Profitabilität geht und gute Arcos-Werte, wo einfach gesagt wird okay, hier, die Kampagne, die ihr hier laufen habt, die hatten viel zu hohen Arcos, beispielsweise in der Sponsored Display Kampagne, die performt gar nicht gut, die schalten wir aus, solche Kampagnen brauchen wir gar nicht. Und jetzt will ich so ein bisschen zu dem Effekt übergehen und ein Beispiel aus der Welt außerhalb von Amazon mit reinbringen. Nimm ich so ein bisschen das klassische Beispiel ihr fahrt über die Autobahn und seht dann auf der Autobahn diese riesigen Anzeigetafeln, wo wir jetzt zum Beispiel irgendeine Fast-Food-Kette sehen oder irgendeine Kaugummi-Marke, Und ich würde mich in dem Beispiel mal auf eine Kaugummi-Marke beziehen, und das ist jetzt zum Beispiel eine Werbetafel, die sich die Kaugummi-Marke gekauft hat, wo sie Geld für ausgibt. Aber diese Werbung dafür wird niemals dazu führen, dass ich jetzt in diesem Moment einen Kaugummi kaufen kann, weil er sitzt im Auto, fährt über die Autobahn und hat keine Möglichkeit, einen Kaugummi zu kaufen. Die Werbung kann aber dazu führen, dass der potenzielle Käufer sich denkt cool, da vorne kommt eine Raststätte mit einem kleinen Supermarkt, oder an der Raststätte gucke ich mal, ob es das Kaugummi gibt, fährt rechts raus, weil er nach drei Stunden Autofahrt Lust hat, einen Kaugummi zu konsumieren, und geht dann eben zur Raststätte, wo er dann eben sagt hey, ich sehe da jetzt das Kaugummi vorne in der Ablage, ich kaufe mir das Kaugummi. Und dieser Verkauf kann in dem Sinne so gesehen gar nicht richtig zugeordnet werden, weil man nicht weiß, welche Einflüsse den Kunden alle begleiten. Und deswegen ist im Marketing Funnel dieser Awareness-Bereich auch einfach super wichtig, weil er schon mal für die ersten Kontaktpunkte sorgt, weil er vielleicht dafür sorgt, dass ein Kunde zu einem späteren Zeitpunkt kauft. Und da würde ich gerne so zwei Werbeformate gegenüberstellen, nämlich Sponsored-Display, zum Beispiel Werbetafel auf der Autobahn und Sponsored-Product beispielsweise der Platz, wo ein Produkt direkt neben der Kasse angeboten wird. Weil wir haben im Sponsored-Display-Bereich die Möglichkeit, ganz viele Leute anzusprechen, auch die, die nicht gerade im Supermarkt sind, und das führt vielleicht dazu, dass die in den Supermarkt gehen und sich dieses Produkt kaufen. Und wenn dann jemand in den Supermarkt geht und sich das Produkt kauft, er dann ganz klar über die Sponsored-Product-Kampagne geht, nämlich dann über das Produkt, was schon direkt bei der Kasse ausliegt, wo noch so ein kleiner Pappbanner daneben dran steht für irgendeine Sonderrabatt-Aktion oder neues Produkt, neues Kauge-Armarkt oder ne, wie auch immer. Ich glaube, ihr wisst so ein bisschen, wo ich hin möchte Und dann da eben zuschlägt. Und was wir ganz oft beobachten, ist, dass dann gesagt wird okay, eine Sponsored-Display-Kampagne performt in der Regel schlechter als eine Sponsored-Product-Kampagne, also schalten wir die aus. Was aber vergessen wird, ist, dass wir ganz, ganz häufig den Punkt haben, dass wir über eine Sponsored-Display-Kampagne Leute schon bereits auf uns aufmerksam machen können und ganz viele Käufer erst eine Sponsored-Display-Kampagne anklicken und sich das Produkt angucken, noch mal ein bisschen stöbern und sich dann zu einem späteren Zeitpunkt für eine Sponsored-Product-Kampagne, einfach weil sie auch eingängiger und größer ist, dann nochmal wieder fürs Produkt entscheiden, auf unser Produkt gehen, das Produkt kaufen und er verkauft, dann der Sponsored-Product-Kampagne zugeordnet wird, obwohl die Sponsored-Display-Kampagne eigentlich den Weg geebnet hat. Das bedeutet nicht, jede Kampagne sollte immer das gleiche Ziel verfolgen und sollte mit dem gleichen Akkuswert betrachtet werden, sondern wir haben unterschiedliche Kampagnen, die unterschiedliche Funktionen haben, die entsprechend auch unterschiedlich bewertet werden sollten und unterschiedliche Ziele verfolgen sollten Und dementsprechend und das ist das Fehlerpotenzial einfach nur zu sagen okay, die Kampagne hat einen schlechten Akkus, die ist schlecht, die schalte ich aus, die optimiere ich ganz stark runter, ist ein riesiges Fehlerpotenzial. Was wir sehen Und was super cool sein wird, ist, dass Amazon auch gerade da die Marketing Cloud immer mehr zur Verfügung stellt und ausrollt, sodass wir in Zukunft beispielsweise über Agenturen oder über die API die Möglichkeit haben, wirklich die Customer Journey zu verfolgen und zu sehen. Okay, hier wurden Kauf getätigt, der Kunde ist auf drei Ads gegangen, ist einmal auf ein Sponsored-Display-Ad gegangen, dann auf ein Sponsored-Product-Ad und hat erst beim dritten Mal, als er dann auf das Sponsored-Product-Ad ein Wiederholz mal war, dann erst gekauft, und dann sehen wir wirklich auch den Benefit und können messen okay, wie viel Benefit gibt uns eigentlich eine Sponsored-Display-Kampagne? weil wenn der erste Kontakt über Display kommt und dann nochmal über Sponsored-Product an den Sponsored-Product gekauft wird, dann wird der Verkauf ganz klar der Sponsored-Product-Kampagne zugeordnet, obwohl die Display-Kampagne überhaupt erst den ersten Kontakt hergestellt hat. Und das ist in der langen Rede und im sehr, sehr kurzen Sinn am Ende Fehlerpotenzial 3, was ich hierfür heute aufbereitet und mitgebracht habe. Marcus Mokros: Ja, das fand ich jetzt spannend, ist interessant. Das war anfangs, wo du die verschiedenen Punkte vorgestellt hast, auch meine Frage wie kann ich denn messen, ob eben meine Aktivitäten meine Marke bekannt dazu machen, mein Markenbewusstsein, ob das auch sich für mich lohnt, im Gegensatz zu Convergence, da ist es ja, da liegt es ja klar auf der Hand. Ja, aber das ist jetzt interessant. Das fand ich sehr spannend. Felix: Ja, definitiv, da werden auch mit Sicherheit noch viele coole Sachen kommen, weil Amazon uns einfach immer mehr Daten zur Verfügung stellt. Und auch da, was Amazon in der Pipeline hat, auch gerade für die nächsten zwei Quartale, ist super spannend. Also, da kriegen wir immer mehr Einsicht auch wirklich, wie so ein bisschen die ganze Customer Journey entsteht und aussieht Und wir dadurch natürlich noch viel, viel sinnvollere Optimierungsentscheidungen auch treffen können und unsere Strategie nachhaltig auch noch besser aufstellen können. Und das ist halt super schön, dass Amazon sich auch da in den letzten Jahren schon mehr in die Richtung entwickelt hat und auch in den kommenden Jahren mit Sicherheit immer mehr und mehr in die Richtung entwickeln wird. Jawoll, das bringt mich in Wehmzuge auch schon zum vierten Fehlerpotenzial, und das bedeutet ja, es ist so ein bisschen, ich würde sagen, baut auch Fehlerpotenzial 3 auf und macht so ein bisschen die Einleitung und ebnet den Weg für gleich für Fehlerpotenzial 5. Ich habe es aber trotzdem als eigenen separaten Punkt mit reingenommen, auch wenn ich den Satz eben schon mal irgendwo, glaube ich, in einem Nebensatz versteckt habe. Fehlerpotenzial 4 ist nämlich, dass alle Kampagnen und alle Targetierungen das gleiche Akkos-Ziel verfolgen und alle möglichst profitabel laufen sollten. Also ja, mit dem Beispiel von gerade, glaube ich, wird relativ schnell ersichtlich, dass nicht jede Targetierung den gleichen Akkos-Zielwert und den gleichen Zweck erfüllen sollte Und ja man da einfach gucken kann, dass man das Budget sinnvoll einsetzt und entsprechende Zielsetzung ausrichtet. Auch hier habe ich euch noch mal ein Beispiel mitgebracht. Wenn wir jetzt ok, akkubora ist ein sehr, sehr umkämpfter Markt. Deswegen ja, wenn ihr irgendeinen Markt habt, wo ihr euch denkt hey, ok, ich bin da für gewisse Keywords organisch schon auf Platz 1 oder auf Platz 2 sichtbar, dann passt das Beispiel eigentlich ganz gut, weil dann muss ich mir kein Zauß in den Finger ziehen, dann kann sich jeder selber überlegen, wenn der Situation ist, dass er für manche Keyworder bereits organisch sehr, sehr gut rankt, dann haben wir hier nämlich das Beispiel, dass wir sagen können ok, wir schalten Werbung zum Beispiel über den Sponsor-Product-Bereich, und ja, werden da ganz oben ausgespielt und können natürlich zu einem profitablen Akkos gut performen, vor allem, wenn wir organisch auch schon sehr, sehr relevant für das Keyword ja gerankt werden. Und hier ist jetzt beispielsweise die Situation und die Gefahr, dass es sein kann, dass wir, wenn wir organisch auf Platz 1 sind für ein gewisses Keyword und unsere Konkurrenz ja nicht wirklich eine Konkurrenz ist, weil wir sind deutlich besser vom Produkt, wir haben mehr Bewertungen, wir haben vielleicht einen besseren Preis oder der Markt ist einfach noch gar nicht so übersättigt, dass wir da einfach der absolute Biggest Player sind, und jeder, der die Produkte die ersten vier oben sieht, entscheidet sich zu 80 Prozent. Für uns Kann es dann dazu führen, dass, wenn wir hier auch Werbung schalten über Sponsor-Product und uns gleichzeitig neben unsere organische Anzeige noch per Werbung neben dran setzen, dass sich unser Umsatzniveau nicht wirklich erhöht, weil die Nachfrage steigt nicht wirklich mehr wir decken organisch schon super viel ab sondern das Einzige, was passiert, ist, dass wir das mit der Sponsor-Product-Werbung noch weiter oben angezeigt werden, wie einfach nur so einen kleinen Shift sehen und sich ich sage mal in Anführerzeichen die Umsätze, die Werbeumsätze kannibalisieren, bedeutet, wie einfach das Umsatzniveau aus der organischen Anzeige rüberziehen in die Ad-Anzeige, das Umsatzniveau insgesamt nicht steigt, sondern wir einfach nur anfangen, geld auszugeben für Sales, die wir vermeintlich eh schon ausgegeben haben. Auch hier jetzt bitte nicht falsch verstehen ich bin auch häufig ein großer Fan davon, wenn wir organisch auf Platz 1 sind, trotzdem Werbung zu schalten und je nachdem manchmal auch trotzdem aggressiv zu schalten, weil es natürlich ein Werbeplatz, den Konkurrent sonst nicht mehr einnehmen kann, der uns irgendwann auch den Rang ablaufen kann. Das bedeutet, das ist eine Sache, die muss man immer im Hinterkopf behalten. Wir gehen jetzt aber hier vor allem darum, auch einfach mal zu überdenken, ob auch da eine Sponsor-Product-Kampagne mit einem sehr, sehr guten Arcos da immer wirklich das Maß aller Dinge ist, oder ob es in solchen Fällen nicht vielleicht sogar sinnvoll ist, eine profitable Sponsor-Product-Kampagne deutlich zu reduzieren und in den Hintergrund zu setzen und vielleicht eine Sponsor-Display-Kampagne zu schalten, die ihn vielleicht 4 oder 5-fach so hohen Arcos hat, weil uns die einen größen Bannerfind gibt. Wenn ich das Stichwort Tarkos noch mit reinwerfe, und um hier direkt das Ganze ein bisschen zu konkretisieren was meine ich gerade mit den Sätzen, die ich da aufgeführt habe Wenn wir das Beispiel nehmen wir machen 1000 Euro die Woche Umsatz für ein gewisses Keyword, wo wir organisch auf Platz 1 ranken, und wir schalten jetzt in Sponsor-Product-Werbung, wo wir zusätzlichen der Woche noch 100 Euro für ausgeben, und wir haben genau dieses Szenario, das eben dann dazu führt, dass wir über die Sponsor-Product-Werbe-Add 500 Euro einnehmen und die 500 Euro entsprechend so aus der organischen Anzeige rauskommen. Dann haben wir am Ende des Tages Gesamtumsätze von 1000 Euro und haben Werbeausgaben von 100 Euro und haben dann ein Tarkos für eben entsprechend diese eine Ausrichtung von knapp 10 Prozent, und die ja beispielsweise Sponsor-Product-Add hat dann Arcos von 20 Prozent, weil wir haben ja 100 Euro ausgegeben, haben 500 Euro eingenommen, also 20 Prozentigen Acos. Und dem ich sag mal, etwas kontroversen Vorschlag, der jetzt auch ein bisschen überspitzt ist, aber den ich reinwerfen möchte, einfach nur um das Beispiel zu verdeutlichen, ist die Frage, ob es nicht viel sinnvoller ist, wenn wir jetzt eine Sponsor-Display-Kampagne stattdessen schalten, die ein 100 Prozentigen Acos hat, und die Sponsor-Product-Kampagne ausschalten und das am Ende des Tages nicht, vielleicht sogar noch profitabler für uns ist. Weil was wir dann hätten, ist wir machen organisch unsere 1000 Euro wieder, weil die Sponsor-Product-Add uns die Ausgaben nicht kanibalisiert, schicken dann die 100 Euro in der Woche, die wir vorher noch mit einem 20 Prozentigen Acos in der Sponsor-Product-Kampagne hatten, dann in die Sponsor-Display-Kampagne, die mit einem 100 Prozentigen Acos performt, heißt 100 Euro Ausgaben, 100 Euro Umsatz, und dann sind wir immer noch bei 100 Euro Ausgaben. Die Sponsor-Display-Kampagne hat dann aber entsprechend 100 Euro Ausgaben, 100 Euro Umsatz, also 100 Prozentigen Acos. Aber wir kriegen einen Werbeplatz mit rein, den wir vorher organisch niemals bekommen haben, weil wir organisch ja nicht über Sponsor-Display-Plätze ausgespielt werden können, weil Sponsor-Display-Plätze eben nur über Sponsor-Display, also über die Werbeanzeige Sponsor-Display vergeben werden, und machen zusätzlich 100 Euro Umsatz, sodass wir am Ende der Woche bei 1100 Euro Umsatz lieben und 100 Euro ausgegeben haben. Und dann vom Tarkus her jetzt will ich mich beim Kopfrechnen nicht blamieren, aber bei knapp, ja, ich würde sagen, um die 9% liegen und nicht mehr bei 10%, Und am Ende des Tages gesamtwirtschaftlich profitabler sind und mehr Umsatz generiert haben, obwohl wir eine Kampagne geschaltet haben, die einen 5-fach so hohen Akkurs hatte wie die andere Kampagne, die wir zuvor laufen hatten. Und ich weiß, das ist jetzt sehr, sehr theoretisch, aber das soll zumindest dieses Beispiel aufzeigen, dass ein guter oder niedriger Akkurs nicht immer auch eine gute Performance bedeutet, und das ist das, was Fehlerpotenzial 4 hier so ein bisschen aufzeigen soll. Marcus Mokros: Ja, das ist wirklich ein sehr guter Punkt, also, dass sich gerade eben solche Plätze zu bekommen. die können einfach dann sehr interessant sein. Da kann ich mir allein schon das Bewusstsein, dass ich den Platz habe, und mein Konkurrent hat ihn nicht. Und ja, wenn ich dafür natürlich nochmal einen Umsatz steige, ist das natürlich eine klare Rechnung. Ja, definitiv. Felix: Ja wollen, dann würde ich damit auch den Abschluss mit Fehlerpotenzial 5 machen und habe euch hier direkt nochmal zwei Beispiele mitgebracht, und zwar Fehlerpotenzial 5, dass man in der Optimierung und der Auswertung der Ergebnisse sich die falschen Parameter anschaut beim Optimieren. Jetzt habe ich hier ein Beispiel mitgebracht auch das versuche ich nochmal, worte so zu erklären, dass man es auch im Podcast ohne Bild möglichst gut nachvollziehen kann Und zwar habe ich hier ein Screenshot mitgebracht von irgendeiner beliebigen Kampagne mit drei verschiedenen Keywörtern und der Performance über einen gewissen Zeitraum, und was wir hier sehen, ist, wir haben die durchschnittlichen Klickkosten. Also nein, ich fange anders an. Was für die meisten Seller der wichtigste Faktor ist bei einer Optimierung, ist der ACOS. Da brauchen wir auch nicht drüber sprechen ist ein super wichtiger Parameter. Der sollte aber niemals allein betrachtet werden. Und um euch da so ein paar Gedanken mitzugeben, welche Parameter hier noch sinnvoll sein können und in jedem Fall können immer alle Parameter sinnvoll sein Ich will jetzt aber nicht auf jeden Parameter eingehen, sondern hier nun mal so ein paar weitere Parameter mit einfließen lassen, um zu zeigen, dass nur den ACOS zu betrachten, definitiv ein großes Fehlerpotenzial oder ein großes Fehlerpotenzial darstellt. Und so haben wir das Beispiel, dass wir hier Keyword haben. Keyword 1 habe ich es mal genannt, um es zu schwerzen was ein ACOS von 1,27% hat. Und angenommen, wir hätten jetzt ein Ziel ACOS von, sagen wir mal, beispielsweise 20%, dann wäre jetzt ja der logische Schritt zu sagen okay, wir haben ein Ziel ACOS von 20%, wir sind bei einem 1,27% ACOS, also nämlich all mein Budget, was ich noch übrig habe, und steckt es in dieses Keyword und erhöht die Gebote von 1,30 weiter hoch. Wichtige Parameter, die man sich aber jetzt hier an der Stelle auch noch anschauen kann, die mich zu einer ganz anderen Interpretation der Daten bringen können, ist zum Beispiel der CPC. Nämlich zu gucken okay, mein Gebot liegt schon bei 1,30, die durchschnittlichen Klickkosten liegen bei 88 Cent, heißt, ich bin da schon bei mehr als über 50% mit dem Gebot über dem CPC. Bedeutet, ich kriege wirklich sehr, sehr viel Ausspielung mit, dass ich mir da grundsätzlich schon mal die Frage stelle okay, will ich da jetzt noch mehr meines Budgets reinstecken? weil ich mir auch hier die Frage stelle kann ich mit einem höheren Gebot überhaupt wirklich noch so viel mehr abgreifen und so so viel mehr an Umsätzen reinholen, oder sorgt es einfach nur dazu, dass ich mir zusätzlich noch die richtig teuren Klicks mit reinhole, so dass ich unnötig Ausgaben hochschießen lasse? plus ein weiterer Punkt, den ich mir hier noch anschaue, ist Top of Search. Ich sehe nämlich hier, dass ich bereits über 40% all meiner Impressionen Top of Search, also auf der Impression Share obersten Suchergebnis Seite, generiere, und das heißt, hier ist das Gebot noch weiter zu erhöhen. Und da mehr Budget reinzustecken, sehe ich gar nicht unbedingt als so sinnvoll an, obwohl der Akkus so niedrig ist, weil ich eben entsprechend schon fast alles, nämlich die Hälfte aller Impressionen, immer auf der obersten Suchergebnis Seite generiere und bekomme, und fände es daher viel, viel spannender zu sagen okay, statt in das erste Keyword noch mehr Geld reinzustecken und das Gebot zu erhöhen, gucke ich mir beispielsweise mal das zweite Keyword an, weil wir haben zwar jetzt ein Akkus von beispielsweise 20% als Zielwert definiert und liegen hier mit 21% schon tickend. Rüber würde also den Schluss zu lassen okay, ich reduziere jetzt mal die Gebote, um den Zielwert zu erreichen, sehe aber, dass das Gebot hier beispielsweise auf 56 Cent reduziert wurde und der CPC bei 75 Cent lag und mitten im 75 Cent CPC wir gerade mal 6,23% aller Impressionen wirklich auf den relevanten Plätzen eingenommen haben, was für mich den Schluss zu lassen würde okay, wenn ich vielleicht weiter oben ausgespielt werden würde und eine höhere Impression share bekomme, dann werde ich auf den Plätzen ausgespielt, wo ich wirklich auch eine gute Conversion Rate Chance habe und sehe, und werde hier viel eher reingehen, obwohl ich mit dem Akkus schon über den Zielwert bin, und sagen okay, ich teste mal, wie sich und da sind wir wieder beim Stichwort testen wie sich meine Performance verhält, wenn ich hier wirklich aggressiv reingehe und sage, wenn der CPC vorher bei 75 Cent lag und wir nur 6% Top of Search hatten, ich will mal wissen, wenn ich 20% aller guten Werbeplätze einnehme, dass ich das Gebot mal vielleicht auf 1,20 Euro anhebe und hier mal gucke, was passiert, weil ich hier einen viel größeren Hebel habe, wenn ich hier mehr Budget reinstecke, als ich es hätte, wenn ich es ins erste Keyword stecke habe. Und das ist ja so ein bisschen eine gute Überleitung. Für das zweite Beispiel, was ich mitgebracht habe, nämlich Thema Platzierung von Ergebnissen, habe ich euch nämlich auch nochmal ein Screenshot mitgebracht von der Platzierungsseite einer Kampagne und was wir hier sehen können. Was ich super spannend finde, ist, wir haben insgesamt in der Kampagne in dem Zeitfenster, was ausgewählt ist, ein Akkus von 42% und einen Umsatz von knapp 310.000 Euro gemacht, und was wir hier jetzt nämlich beobachten können das greift nämlich sehr stark an dem letzten Punkt von dem Beispiel gerade an ist, dass wir auf der restlichen Suchergebnisseite, wenn wir dort ausgespielt werden, die natürlich günstiger ist, mit 67 Cent durchschnittlichen Klickkosten etwas mehr als 10% des Gesamtumsatzes ausmachen. Also so knapp 13-14% des Gesamtwerbeumsatzes läuft über die restliche Suchergebnisseite und hatten 44% dem Akkus bei Klickkosten von 67 Cent. Wenn ich aber wirklich sehr, sehr hohe Gebote drin habe und beispielsweise auf Gebote von über einem Euro gehe, dann sehe ich, dass ich mit durchschnittlichen Klickkosten von 94 Cent also 50% teure Klickkosten als auf der restlichen Suche mit höheren Geboten auf der ersten Suchergebnisseite ausgespielt werde und auf der ersten Suchergebnisseite trotz Geboten, die 50% höher sind als auf der restlichen Suche, ein Akkus von 40% erzielen kann, der sogar noch 4% niedriger ist als auf der restlichen Suche. Plus, ich konvertiere nicht nur deutlich besser, sondern ich erziehe halt auch massiv mehr Umsatz, nämlich in dem Fall dann 240.000 Euro Umsatz, was auch knapp 70% des Umsatzes beträgt. Bedeutet, hier super cool zu sehen genau dieses Beispiel auch einfach mal zu sagen okay, wenn ich wirklich sehr, sehr schlecht auf den guten Plätzen ausgespielt werde und der Akkus zu hoch ist, einfach mal genau die andere Richtung zu wählen von der Strategie als das, was vermeintlich sehr, sehr häufig gemacht wird, nämlich Akkus zu hoch, okay, klar, dann muss ich reduzieren sondern sich wirklich auch andere Parameter mal mit anzugucken, um zu überlegen ist das wirklich die richtige Entscheidung, hier jetzt weiter runter zu optimieren? weil dann bewegen wir uns in so eine Conversion-Spirale. Wir haben ein Gebot, haben einen schlechten, zu hohen Akkus. Optimieren das Gebot nach unten. Das führt dazu, dass wir noch weiter hinten, noch weiter unten ausgespielt werden, wo die Leute weil die meisten von euch kennt's wahrscheinlich selber vom Kaufverhalten, wie viele von euch Scrollen auf Suchergebnisseite 4, 5, 6 oder 7, um den Kauf zu tätigen. Das heißt, da kauft man fast gar nichts mehr, sodass man durch die Geburtsreduzierung noch schlechter ausgespielt wird. Dadurch die Conversion-Rate noch mehr sinkt wir dadurch die Gebote noch mehr reduzieren? müssen wir dadurch noch schlechter ausgespielt werden? ja, und ich glaube, jetzt habt ihr das Muster verstanden, wir haben es wirklich in so eine Abwärtsspirale bewegen und man hier einfach sehen kann auch mit höheren Geboten kann ich durch eine bessere Ausspielung einfach noch profitabelere Werte erzielen. Und deswegen Fehlerpotenzial 5, 4, in deine Optimierung und der Auswertung der Ergebnisse schaust du dir die falschen oder nicht alle Parameter an oder ziehst die falschen Schlüsse raus. Und das ist auch ein sehr, sehr großes Fehlerpotenzial, was ich immer wieder sehe. Und ja, das würde mich soweit auch noch mal zu einer ganz kurzen kleinen Zusammenfassung bringen, markus, außer du hast eine direkte Rückfrage zu dem Punkt. Marcus Mokros: Ja, so das fand ich auf jeden Fall schon eine starke Erkenntnis. Dass ich manchmal meine Ausgaben erhöhen muss, um meine Profitabilität auch zu erhöhen, das ist ja nur natürlich, dass man denkt, dass das Gegensatz der Fall wäre. Felix: Ja, definitiv. Es ist halt wirklich in dem Sinne im ersten Moment eigentlich ja Paradox. Marcus Mokros: Aber wenn man so drüber nachdenkt, dass man halt auch schlechter ausgespielt wird, macht es ja auch wieder Sinn, richtig und eben unten auf dem oder auf den nächsten Seiten habe ich dann viele Leute, die mehr am Surfen sind als am Kaufen, und dann stimmt das natürlich, dass ich natürlich weit nach oben muss. Was würdest du denn sagen, ist ein guter Zeitraum, um so ein Gebot zu testen? Felix: Ja, einen guten Zeitraum würde ich eigentlich ungern an einem Zeitraum wirklich festmachen, sondern mehr an einer Menge an Daten. Und ich würde eine Menge an Daten nehmen, wo ich sagen würde okay, jetzt könnten wir nach Klicks gehen, aber auch dann ist wieder ein Punkt. Also andersrum Ich würde nicht nach einem Zeitraum gehen, weil ich immer abhängig von Daten machen würde würde ich jetzt sagen, wir nehmen 30 Tage, und in den 30 Tagen kommen vier Klicks rein, dann ist die Datenmenge zugereihen, um eine Entscheidung zu treffen. Das heißt, ich würde jetzt eigentlich auf eine gewisse Anzahl an Klicks gehen. Aber auch hier würde ich ungern eine Zahl reinwerfen, nämlich mit dem Beispiel habe ich ein Produkt, was für fünf Euro verkauft wird, und ich habe beispielsweise Klickkosten von 10 Cent, dann habe ich beispielsweise mit 20 Klicks schon zwei Euro Ausgaben drin, die schon eine Menge an Ausgaben machen. Wenn ich beispielsweise aber ein Produkt von einem Verkaufspreis 500 Euro verkaufe, und ich habe Klickkosten von 20 Cent, dann kann ich auch gut und gerne mal meine 200 Klicks sammeln, ohne dass ich sagen würde, das läuft jetzt katastrophal in die falsche Richtung. Deswegen würde ich es sehr produktspezifisch machen. Aber um auf deine Frage zurückzukommen ich würde es anhand von Daten und Klicks, impressionen und Bestellungen abhängig machen. Okay, gut, jawoll, dann würde ich nochmal eine ganz kurze Zusammenfassung machen der fünf Punkte, nämlich nochmal alle auf einen Blick. Punkt Nummer eins war der Punkt, dass wir gesagt haben, die aktuelle Strategie passt nicht zur Unternehmensvision. Also habe ich wirklich eine fixe Strategie, die ich seit Jahren fahre, oder könnte es sinnvoll sein, die nach der jeweiligen Entwicklung des Marktes vielleicht nochmal anzupassen? Punkt Nummer zwei ist, dass du die gesamte Palette an Werbeformaten und Tagetierungsmöglichkeiten gar nicht kennst und dementsprechend auch nicht sinnvoll mit Werbung bespielen kannst. Punkt Nummer drei du nutzt keinen optimalen Marketing-Fanl-Ansatz und bist dir der positiven Effekt nicht bewusst. Also auch hier wieder so der Punkt schaltest du nur die Profitablen in Sponsor-Product-Kampagnen oder gehst du auch auf den Sponsor-Display-Bereich ein? Punkt Nummer 4. Alle Kampagnen und Taggätierungen verfolgen das gleiche Akkos-Ziel und sollen dabei möglichst profitabel laufen. Also auch hier haben wir darüber gesprochen Verschiedene Ausrichtungen, auch verschiebende Werbeformate sollen nicht immer den gleichen Zweck erfüllen. Manche sollen nur dafür sorgen, dass wir überhaupt gesehen werden, andere sollen gut konvertieren. Und der fünfte Punkt, dass wir in der Optimierung und der Auswertung der Ergebnisse uns die falschen Parameter anschauen. Ja, beispiel von eben, denke ich, dürfte noch recht frisch sein Heißt, nur auf den Akkos zu gucken, ist nicht immer der richtige Schritt. Manchmal macht es auch Sinn, sich noch ein paar mehr, oder was heißt manchmal? in jedem Fall macht es Sinn, sich ein paar mehr zusätzliche KPIs und Metric noch hinzuziehen, um eine Optimierungsentscheidung zu treffen. Und genau haben damit sozusagen alle fünf Punkte nochmal kurz im Schnelldurchlauf wiederholt. Marcus Mokros: Prima. ja, Da kommt mir auch gleich wieder unser letzter Podcast Im Sinne. da habe ich auch den Eindruck gehabt, ich kann mal echt reden lassen, und du hast so viel Wertvolles zu sagen, dass ich hier mehr die Episode starte und wende. Felix: Wenn das heute zu einseitig war, dann möchte ich mich jetzt schon mal an der Stelle entschuldigen, und dann müssen wir beim nächsten Mal vielleicht einfach ein Q&A, eine Quickfire-Runde draus machen. Marcus Mokros: Ah, ich glaube es wird jeder Zuhörer so schätzen. das läuft Auf jeden Fall sehr, sehr schön. Ja fand ich sehr, sehr gut, was du mitgebracht hast. Felix: Ganz herzlichen Dank. Das freut mich zu hören. Marcus Mokros: Ich glaube, für PPC muss man wirklich auch der Typ sein, um das Maximale rauszuholen, da das Interesse zu haben, zu testen, die Geduld haben, abzuwarten, nicht zu früh irgendwelche Änderungen zu machen. Kannst du vielleicht sagen für den einen oder anderen da draußen, der sagt, das ist wirklich ein Sinn, das Potenzial abzuschöpfen. Mit einem Profi kannst du auch mal sagen, wie man euch erreicht. Felix: Ja, super gerne. Also vielleicht nochmal auch kurz allgemein, um euch abzuholen also wirklich jeder Seller oder jede Sellerin draußen, die ihr Marketing und speziell MSN Ads ganzheitlich und professionell ausstellen möchte, um sich da mit dem Marktvorteil zu sichern und einfach mehr Umsatz, mehr Gewinn zu machen, hat die Möglichkeit, sich bei uns eine kostenfreie Potenzialanalyse einzubuchen. Wie Markus gerade schon angesprochen hat, heißt auch hier gibt es nichts zu verlieren, sondern nur zu gewinnen, nämlich entweder nimmt man die kostenfreien Infos unserer Strategieberater mit, die man direkt im ersten Potenzialanalysegespräch von uns bekommt, oder wir heben einfach gemeinsam das Unternehmen auf die nächste Ebene, aufs nächste Level und gehen alle notwendigen Schritte an, um den Markt oder dann in dem Fall deinen Markt langfristig zu dominieren. Und da könnt ihr uns entweder, wenn ihr gerade bei YouTube dabei seid, hier über den folgenden Scan-Link euch direkt einen Termin bei unseren Strategieberatern einrufen, einbuchen, nicht einrufen, oder ihr ruft da war ich nämlich schon im nächsten Satz ihr ruft die Website wwwamz-advertisede auf, und auch dann springt euch direkt ein großer Banner ins Auge, wo ihr direkt die Möglichkeit habt, euch einen Termin bei unseren Strategieberatern einzubuchen. Ja, und so könnt ihr super easy Kontakt mit uns aufnehmen, wenn euch danach ist. Und ja, wenn ihr da einfach gucken wollt, ob ihr noch mehr für euch rausruhen könnt. Marcus Mokros: Ja, und dann haben wir das Offerers Webcam-Bild für die Leute hier auf YouTube zu gucken. Sehr gut, ja, vielen Dank. Auf jeden Fall War sehr, sehr gut vorgetragen, finde ich cool. Echt ein paar interessante Punkte, vor allen Dingen für die Leute, die schon seit Längeren verkaufen, und die fühlen sich tatsächlich genau angesprochen mit den Beispielen, die du hier gezeigt hast. Felix: Ja, ich hoffe doch, dass das Ganze für den ein oder anderen draußen ein klein mehr Wettgebracht hat. Das wäre sehr schön. Und ja, auch an der Stelle nochmal ganz herzlich und dank an dich, markus, dass ich und wir hier heute bei dir zu Besuch sein durften. Marcus Mokros: Ja, hey. Also hat mir auf jeden Fall gefreut, war nicht sehr, sehr gut, und ich denke mal, wird auch nicht das letzte Mal sein. Wenn du in Zukunft da nochmal interessante Daten zum Teilen hast, dann bist du auf jeden Fall willkommen, und so was Ja sehr gerne, Ja, sicherlich alle gerne. Ja, ja, vielen Dank auf jeden Fall für die Präsentation und an alle Zuhörer da draußen, die noch nicht folgen machen Jetzt klick auf folgende in der Podcast-App, auf Subscriben, abonnieren, wie es auch heißt, genauer an die Leute, die auch zu YouTube zu gucken, und du wirst ab jetzt mehr sehen, auch mit Video. Denn vielen Dank an alle großartige Zeit und bis zum nächsten Episode, ciao, ciao.
In dieser Folge sprechen Anna und Robindro beim live Auftritt der Schicht im Schacht mit EMployer Branding Expertin Cathereine Gouw. Catherine Gouw ist Head of Employer Branding International bei Lidl. Sie hat umfangreiche Kenntnisse in den Bereichen Personalmarketing mit den Schwerpunkten Employer Branding, Social Media Kommunikation, Hochschulmarketing, Interne Kommunikation und Karriereseite. Robindro startet in den Podcast mit der Aussage, dass Lidl eines der größten Employer Branding Projekt umgesetzt hat, die er je gesehen hat. Innerhalb des Projekts wurden große Datenmenge für die internationale Arbeitgebermarke Lidl analysiert und ausgewertet. Lidl hat sich gefragt welche Attraktivität sie als Arbeitgeber in allen 34 Ländern, in denen sie tätig sind, hat. Sie wollten diese Daten sammeln, um messbar zu werden und zu analysieren an welchen Ecken und Enden noch gearbeitet werden kann, um am Markt attraktiver wahrgenommen zu werden. Besonders interessant war dabei, die interne und die externe Wahrnehmung des Unternehmens unabhängig voneinander zu prüfen. Danach kann differenziert betrachtet werden, wie sich zum Beispiel die Wahrnehmung von Menschen verändert, sobald sie bei Lidl anfangen zu arbeiten. Anna fragt sich warum es für Lidl so wichtig war dieses Projekt umzusetzen und mit welchen Herausforderungen sie zu kämpfen hatten bzw. welche Erfolge sie seitdem verbuchen konnten. Warum ist Employer Branding wichtig? Welchen Unterschied macht es? Und wie lässt sich Employer Branding überhaupt messbar machen? All das erfahrt ihr in der 22. Folge von WORKolution. _________________Ihr habt Fragen an Anna & Robindro oder wollt ihnen schreiben wie gut euch der Podcast gefällt, dann schreibt einfach eine Mail an workolution@funkemedien.deOder meldet euch bei den beiden per LinkedIn:Anna Janina MeyerRobindro UllahDes Weiteren könnt ihr den Podcast auf allen Portalen der FUNKE Medien Gruppe und überall wo es Podcasts gibt finden. Hosted on Acast. See acast.com/privacy for more information.
In den Ferien kann das Smartphone eine grosse Hilfe sein, zum Beispiel, wenn man nach dem Weg suchen muss. Aber Vorsicht: Wer im Ausland Internet und Telefonie nutzt, bekommt Roaming-Gebühren verrechnet. Und die können je nachdem ins Geld gehen. Mit Roaming ist gemeint, dass man nicht das Handynetz des eigenen Mobilfunkanbieters nutzt, sondern ein fremdes. Und dafür werden hohe Gebühren verrechnet. Früher gab es zum Teil Schock-Telefonrechnungen von Hunderten, ja sogar Tausenden von Franken. Heute passiert das in diesem Ausmass zum Glück nicht mehr. Die Anbieter haben ein Warnsystem eingeführt. Viele Anbieter sperren auch die Standardtarife fürs Ausland und bieten Zusatzoptionen an. Dennoch können Roaming-Gebühren entstehen, die vermeidbar sind. Hier gibt es Tipps. Vor der Abreise * Falls Ihr Handy-Abo keine Auslandnutzung beinhaltet, lohnt es sich, eine Zusatz-Option zu kaufen. Prüfen Sie, welche Obergrenze für Roaming-Gebühren festgelegt wurde – heisst: Wann Sie vom Anbieter gewarnt werden. Je nach Telekomanbieter kann die Grenze bei 50, 100, 200 oder 500 Franken liegen. Ist sie hoch, lohnt es sich, diese individuell herabzusetzten – per Telefon mit dem Kundendienst oder online im eigenen Kundenkonto. Ein aktueller Vergleich von Dschungelkompass (Link siehe unten) zeigt übrigens: Mit Option telefoniert man bis zu zwölf mal günstiger. Auch bei der Datennutzung fährt man einiges besser - je nach Anbieter. * Falls Sie Stadtpläne oder Landkarten auf dem Handy nutzen möchten, laden Sie diese bereits zu Hause aufs Smartphone und nutzen Sie sie offline. So verschwenden Sie keine Daten. Das funktioniert übrigens auch mit Google-Maps. * Videos und Musik streamen, Podcasts hören, all das verbraucht riesige Datenmengen. Auch hier lohnt es sich, wenn man das vor der Reise aufs Handy lädt. Welche Option soll ich für meine Ferien lösen? Kaufen Sie eine Ausland-Option, haben Sie gewisse Gesprächsminuten und Datenmengen zur Verfügung. Diese Ferien-Pakete sind in verschiedenen Grössen erhältlich. Überlegen Sie sich beim Kauf, wie oft Sie während der Ferien im Ausland telefonieren möchten. Was die Datenmenge betrifft, so sagen Experten, reicht ein Gigabyte. Damit sollte man während zwei Wochen Ferien im Ausland ab und zu im Internet surfen können, zwischendurch Mails lesen und versenden, Fotos per Whatsapp verschicken oder auch mal auf Google Maps navigieren können. Und so können Sie Daten und Gesprächsminuten sparen Irgendwann sind auch die gratis zur Verfügung gestellten Daten und Gesprächsminuten aufgebraucht. Damit das nicht oder nicht zu schnell passiert, hier ein paar Tipps: * Schalten Sie die Roaming-Funktion aus, wenn Sie nicht telefonieren oder im Internet unterwegs sind. * Falls Sie Apps auf Ihrem Handy haben, die sich selbst im Hintergrund aktualisieren oder wahre Datenfresser sind, blockieren Sie diese. Hier erfahren Sie, wie Sie solche Apps entdecken und wie Sie sie blockieren können. * Nachrichten auf der Combox kosten. Stellen Sie diese daher ab. Eine Anleitung dazu finden Sie hier . * Denken Sie daran, dass meist auch eingehende Anrufe verrechnet werden. Nehmen Sie daher das Gespräch nur entgegen, wenn es wichtig sein könnte. * Telefonieren Sie über Internet, mit Skype, Whatsapp etc. Dann verbrauchen Sie Daten und keine Gesprächsminuten. Das ist günstiger. Wenn möglich, verbinden Sie sich mit Wlan. Dann ist das Gespräch kostenlos. * Sie können auch im Ferienland eine Prepaid-Sim-Karte kaufen und diese in ihr Handy stecken, falls es mit Dual-Sim ausgerüstet ist. Oder Sie verwenden dazu ein Zweithandy. So werden Ihnen die tieferen, inländischen Gebühren verrechnet. Der Nachteil: Sie sind nicht unter Ihrer gewohnten Nummer erreichbar. * Falls Ihnen das wichtig ist, ist allenfalls ein Pocket-Wifi die Lösung. So können Sie jederzeit über Internet telefonieren. Weitere Informationen finden Sie hier . Hilfreiche Links: * Dschungelkompass: Roaming-Vergleich Sommer 2023 für Daten und Telefonie * Dschungelkompass: Weltweite Roaming-Tarife mit Roaming-Rechner für Schweizer Handy-Abos
Moderne Fahrzeuge werden stetig digitaler und sind heute mit vielen Sensoren ausgestattet, die eine große Menge an Daten über den Betrieb des Fahrzeugs aufzeichnen. Bei Zustimmung der Kunden können diese an den Hersteller geschickt und beispielsweise verwendet werden, um den Kunden rechtzeitig vor möglichen Ausfällen zu warnen. Während Menschen aufgrund der riesigen Datenmenge einige Parameter auswerten könnten, berge Künstliche Intelligenz das Potenzial, fast unlimitierte Datenmengen auszuwerten. „Wir sehen die große Chance, mit KI deutlich mehr Dimensionen gleichzeitig zu betrachten und damit schneller richtige Entscheidungen treffen zu können", sagt Stefan Lutz, Director Quality Sales bei Porsche, im F.A.Z.-Podcast Künstliche Intelligenz. So könnte beispielsweise geprüft werden, ob die Außentemperatur kombiniert mit bestimmten Länderkonstellationen eine Auswirkung auf eine Fehlerursache habe, und den Fahrer früh informieren. Kunden könnten damit Werkstattbesuche besser planen und weniger häufig „im Nieselregen auf dem Standstreifen der A8 stehen bleiben und den Pannendienst rufen müssen.“ „Vor allem die jüngeren Kunden erwarten Digitalisierung – die wollen coole und schnelle Services“, ergänzt Dominik Jung, Data Scientist bei Porsche. Auch im Kundenkontakt könnten mit neuen Chatbots wie ChatGPT schnellere Services angeboten werden. Traditionell kämen Porsche-Kunden mit Problemen zu ihrem Händler, der sich gegebenenfalls beim Importeur erkundige, der zusätzliche Informationen ebenfalls von weiter oben in der Vertriebskette einholen müsse. „Für das Beantworten dieser technischen Fragen ist natürlich eine Vielzahl an Themen relevant: Das Wissen, wo der gleiche Fehler schonmal auftrat, welche Umgebungsparameter es gab und wie er gelöst wurde […] – und die KI kann genau diesen Feldüberblick bekommen,“ beschreibt Lutz. Die KI könne dabei mit ähnlichen Fällen Vergleiche herstellen und daraus Informationen über die Fehlerursache des konkret vorliegenden Falls ableiten. Dieser Prozess könne durch die KI-Recherche somit deutlich beschleunigt werden. Die Folge ist Teil unseres Podcasts „Künstliche Intelligenz“. Er geht den Fragen nach, was KI kann, wo sie angewendet wird, was sie bereits verändert hat und welchen Beitrag sie in der Zukunft leisten kann. Für den Podcast hat die F.A.Z. mit Peter Buxmann und Holger Schmidt zwei ausgewiesene KI-Experten an Bord geholt: Beide erforschen und lehren die Potenziale der KI und deren Auswirkungen auf Wirtschaft und Arbeit an der Technischen Universität Darmstadt. Peter Buxmann ist Inhaber des Lehrstuhls für Wirtschaftsinformatik und beschäftigt sich seit vielen Jahren mit den Anwendungen von KI, der digitalen Transformation sowie datenbasierten Geschäftsmodellen. Sein Podcast-Partner Holger Schmidt ist Digital Economist, Speaker und Autor. Seine Kernthemen sind KI, Plattform-Ökonomie und digitale Geschäftsmodelle. Die beiden Hosts greifen in jeder Folge einen neuen Aspekt der Künstlichen Intelligenz auf, erklären Zusammenhänge und geben präzise Einordnungen. Die Folgen haben eine Länge von rund dreißig Minuten und erscheinen monatlich jeweils am ersten Montag.
Der Erfolg des Chatbots ChatGPT hat einen regelrechten Wettlauf unter den Tech-Riesen ausgelöst: Microsoft arbeitet eng mit der Entwicklerfirma OpenAI zusammen und will Milliarden in das Unternehmen stecken. Der Nachfolgedienst GPT-4 könnte bald mit Microsofts Suchmaschine Bing kombiniert werden. Eine Premiumversion für 20 Dollar im Monat soll nach Angaben des Start-ups aus San Francisco ebenfalls kommen. ChatGPT basiert auf Künstlicher Intelligenz (KI) und wurde mit einer gewaltigen Datenmenge trainiert, um menschliche Sprache nachzuahmen. Der Facebook-Mutterkonzern Meta will noch in diesem Jahr mit eigenen neuen KI-Anwendungen ChatGPT Konkurrenz machen. Und der Suchmaschinen-Platzhirsch Google hat einen eigenen Chatbot namens Lamda in der Pipeline, dem ein ehemaliger Softwareingenieur sogar ein Bewusstsein zugeschrieben hat. Silicon-Valley-Reporter Stephan Scheuer spricht im Podcast über den KI-Wettlauf: „Das Beispiel OpenAI zeigt, dass es nicht unbedingt ein Gigant sein muss, der eine neue Technologie entscheidend mitprägt.“ Lesen Sie hier die Handelsblatt-Titelgeschichte zum Thema: https://www.handelsblatt.com/technik/forschung-innovation/chatgpt-sam-altman-der-mann-der-ihr-leben-veraendern-wird/28957638.html Scheuer glaubt, dass trotz aller Bedenken 2023 das Jahr der sogenannten generativen KI wird. Damit sind KI-Modelle gemeint, die eigenständig neue Texte oder Bilder erschaffen können, ohne dass ein Mensch eingreifen muss. Das wiederum könnte laut Experten einschneidende Folgen für Berufsgruppen haben, die ihr Geld bislang mit der Produktion von Texten, Tönen oder Bildern verdient haben. Handelsblatt-Today-Host Anis Micijevic hat ChatGPT gefragt, ob er sich Sorgen um seinen Job machen muss. Die Antwort: „Ich denke, dass es in naher Zukunft unwahrscheinlich ist, dass ein Sprachmodell wie ich in der Lage sein wird, einen Job wie den des Moderators von Handelsblatt Today vollständig zu übernehmen.“ Es sei jedoch wichtig zu beachten, dass die Technologie sich ständig weiterentwickle und es möglicherweise in der Zukunft Fortschritte geben werde, die diese Annahme in Frage stellen könnten, fügte der Chatbot im Mensch-Maschine-Gespräch hinzu. *** Exklusives Angebot für Handelsblatt Today-Hörer: Testen Sie Handelsblatt Premium 4 Wochen für 1 € und bleiben Sie immer informiert, was die Finanzmärkte bewegt. Mehr Informationen: www.handelsblatt.com/mehrfinanzen Wenn Sie Anmerkungen, Fragen, Kritik oder Lob zu dieser Folge haben, schreiben Sie uns gern per E-Mail: today@handelsblattgroup.com Ab sofort sind wir bei WhatsApp, Signal und Telegram über folgende Nummer erreichbar: 01523 – 80 99 427
Wieviel im Coaching und in der Trainingsplanung ist wirklcih Wissenschaft und wieviel davon ist die Kunst des Coachens? Dieser fast philosophischen Frage nähert isch Coach Sebastian Kaindl heute: 02:28 - Kunst und die Folge mit Kuis 05:08 - Die wissenschaft 07:07 - Sollte man Sportwissenschaft studieren 09:50 - Die Entscheidungfindung erfolgreicher Manager 10:40 - Erfahrung als coach und das eigene Training 11:50 - Das Beispiel Velocity based Training und ich 13:49 - Korrelationen erkennen 15:59 - Die kritische Menge an Daten 17:34 - Bodybuilder vs. Footballer 18:51 - Das Dan Pfaff System 20:10 - Turbo Boost für die eigene Erfahrung 22:06 - Connections 24:19 - Philosophie als Trainer 25:35 - Meine Prägung ls Powerlifter 26:44 - die größte Gefahr als Coach 28:04 - Wie prägt meine Verletzung meine Sicht? 31:25 - Powerlifter vs. Sprinter vs. 10000m Läufer als Coach 33:15 - Der beste Coach 34:29 - Eine große Datenmenge als Basis für Kreativität 37:10 - Das Schöne daran 39:51 - Liege ich falsch? #kaindlathleticsystem #hustleandknowledge Und folgt natürlich dem PodKASt auf allen gängigen Podcast Plattformen und uns auf IG und Youtube! Sharing is Caring Du willst mehr über Trainingsplanung und darüber wie man tatsächlich effektive Trainingspläne schreibt? Dann solltest Du Dir unseren Trainingsplanungskurs holen, wenn er im Januar wieder startet! Bei interesse einfach per Email melden und du wirst von uns benachrichtigt! kontakt@kaindl-athletic-system.de --- Send in a voice message: https://anchor.fm/kaindlathleticsystem/message
„Die Mitglieder unserer Community haben bisher 27 Millionen Fragen gestellt – und darauf 100 Millionen Antworten bekommen“, sagt Philipp Graf Montgelas, Geschäftsführer der Internet-Plattform gutefrage.net. Das seien 10.000 neue Fragen und 30.000 Antworten am Tag, mithin eine Datenmenge, die ohne Künstliche Intelligenz nicht kontrolliert werden kann. Sie filtert die 5 bis 10 Prozent an Hate Speech oder Fake News automatisch heraus und leitet nur die kritischen Fälle an das Community Management weiter. „70 Prozent dieser Inhalte, die bei den Moderatoren landen, werden auch zu Recht überprüft“ – eine Genauigkeit, die für gutefrage.net schon mehr als ausreichend ist. Neben der Moderation der Inhalte setzt gutefrage.net die KI auch ein, um Trends frühzeitig zu erkennen. „Wir haben schon im Februar gesehen, dass Energie die Gesellschaft bewegt“, erklärt Montgelas. Diese Trends nutze das Unternehmen allerdings bislang nur intern, um die Interessen der Community besser zu verstehen und um Experten zu Trendthemen auf die Plattform zu holen, die dort Fragen beantworten. Ähnlich wie Google helfe KI aber auch bei der Priorisierung von Antworten: Ein KI-System berechne für jede Antwort einen Qualitäts-Score, der auf dem Erfahrungsschatz aus Antworten der vergangenen 16 Jahre basiere. Damit könnte gutefrage.net „Antworten vergleichen und entscheiden, ob sie im Ranking weiter oben oder weiter unten erscheinen – um so das Erlebnis auf der Plattform zu verbessern.“ Die Folge ist Teil unseres Podcasts „Künstliche Intelligenz“. Er geht den Fragen nach, was KI kann, wo sie angewendet wird, was sie bereits verändert hat und welchen Beitrag sie in der Zukunft leisten kann. Für den Podcast hat die F.A.Z. mit Peter Buxmann und Holger Schmidt zwei ausgewiesene KI-Experten an Bord geholt: Beide erforschen und lehren die Potenziale der KI und deren Auswirkungen auf Wirtschaft und Arbeit an der Technischen Universität Darmstadt. Peter Buxmann ist Inhaber des Lehrstuhls für Wirtschaftsinformatik und beschäftigt sich seit vielen Jahren mit den Anwendungen von KI, der digitalen Transformation sowie datenbasierten Geschäftsmodellen. Sein Podcast-Partner Holger Schmidt ist Digital Economist, Speaker und Autor. Seine Kernthemen sind KI, Plattform-Ökonomie und digitale Geschäftsmodelle. Die beiden Hosts greifen in jeder Folge einen neuen Aspekt der Künstlichen Intelligenz auf, erklären Zusammenhänge und geben präzise Einordnungen. Die Folgen haben eine Länge von rund dreißig Minuten und erscheinen monatlich jeweils am ersten Montag.
Die Deutsche Eishockey Liga punktet mit treuen Partnern. Sowohl TV-rechteinhaber Telekom (Magenta Sport) als auch Titelsponsor PENNY haben ihre Verträge mit der DEL vorzeitig um weitere sechs Jahre bis 2028 verlängert. Finanzielle Planungssicherheit – check. Bei solch einer langfristigen Stabilität der wichtigen Verträge verliert die DEL dennoch nicht ihren digitalen Innovationsgeist: Schnellerer Social Media Content dank KI, Chips in Pucks und Trikots, die eine gigantische Datenmenge in Echtzeit liefern. Davon profitieren neben der Liga selbst, natürlich Partner, Broadcaster und Fans. Was macht die DEL so rekordverdächtig gut? Unser Gast Konstantin Krüger, Leiter Kommunikation der PENNY DEL Unsere Themen Abseits von König Fußball: Wer sind die Wettbewerber der DEL? (03:04) So gelingt finanzielle Planungssicherheit der Eishockey Liga (04:24) Absage an S-Nation: Warum die TV-Rechte erneut an die Telekom gingen (07:06) Chips im Puck: So profitieren Partner, Broadcaster und Fans (11:10) Steigende Energiekosten: Wie die DEL Nachhaltigkeit angeht (16:07) Wie positiv Titelsponsor PENNY wahrgenommen wird (21:27) Neue Content-Formate: TikTok, Podcast und Doku (25:14 Zum Blogartikel: https://sportsmaniac.de/episode384 Unsere Empfehlungen Abonniere unser Weekly Update: https://sportsmaniac.de/weekly-update Eiskalt auf den Punkt - der offizielle DEL-Podcast: https://del-podcast.podigee.io/ Unser Kontakt Folge Sports Maniac auf LinkedIn, Twitter und Facebook Folge Daniel Sprügel auf LinkedIn, Twitter und Instagram E-Mail: daniel@sportsmaniac.de Wenn dir gefällt, was du hörst, abonniere uns gerne und empfehle uns weiter. Der Sports Maniac Podcast ist eine Produktion unserer Podcast-Agentur Maniac Studios.
Heute berichtet Florian aus seinem Erfahrungsschatz im Bereich der Film-Nachbearbeitung. Wir gehen der Frage auf den Grund, wie alte Filme heute noch als UHD-Disc herausgegeben werden können, ohne an Qualität einzubüßen. 00:00 Alte Filme restaurieren und remastern 01:26 Analoges Filmmaterial 04:03 Filmkorn und Empfindlichkeit 09:19 Filmmaterial als bestes Ausgangsformat 15:27 Ton & Synchonisation 17:23 Wie hoch ist die Auflösung von Filmmaterial? 22:56 Datenmenge von Full-HD und Ultra-HD → https://www.heimkino-praxis.de/uhd-filme-auf-hd-beamer/#:~:text=%3D%208.599.633.920.000%C2%A0Bit%0A%3D%200%2C98%C2%A0TB 25:02 Archivierung 32:08 Details erschweren Kompression 39:15 Color Grading 42:18 Fazit: Wie landet ein alter Film zuhause? 45:13 Filmtipp: → Blow Out (1981) – https://amzn.to/3JarApl (Affiliate) → Dressed to Kill (1980) – https://amzn.to/3zbJcwD (Affiliate)
Excel kann dein bester Freund aber auch dein größter Feind werden. Vor allem wenn die Datenmenge explodiert, unübersichtlich wird, Pläne und Medien dazukommen und keine Übersicht mehr möglich ist, könnte eine alternative Software helfen. Planradar könnte genau so eine Software sein. Sie schafft die Dokumentation auf einer Baustelle in Übersichtlicher Weise. Einer ihrer Gründer, Domagoj Dolinsek, ist bei uns zu Gast um über Planradar zu sprechen und darum wie man mit dem Wort 'defect' in den Australischen Markt kommt, über das Wachstum und vernünftig wirtschaften bei Planradar und seine Rolle als Frühstücksdirektor. Stein auf Stein und los gehts!--- Hintergründe, Zusammenfassungen & weiterführende Links in der Future Weekly Espresso Summary: https://futureweekly.substack.com/Instagram: https://www.instagram.com/futureweekly/Youtube: https://www.youtube.com/playlist?list=PL8LI3cFS8h2S0dKczUI2vPwP6U4nrAZ64Twitter: https://twitter.com/future_weeklyLinkedIn: https://www.linkedin.com/company/future-weekly-podcast/Facebook: https://www.facebook.com/futureweeklyDiscord: https://discord.gg/9AyzUEWpgBBuzzsprout: https://austrianstartups.buzzsprout.com/---Du hast Feedback, Ideen, Moonshots oder Predictions zu den heutigen Themen? Schick uns ein Soundbite an podcast@austrianstartups.com und werde ein Teil der nächsten Episode.---Redaktion & Produktion: Stefanie Zeilinger, Christoph Hafner, Christoph Hanausek, Michael Sack---Musik (Intro/Outro): www.sebastianegger.com
Die Grünen sind Opfer eines größeren Cyberangriffs geworden. Die Partei wurde in den vergangenen Wochen mehrfach attackiert, wie der „Spiegel“ am Donnerstag berichtete. Der Zugang sei seit dem 13. Juni eingeschränkt, sagte eine Parteisprecherin dem Magazin. Dabei handele es sich um eine Sicherheitsmaßnahme, „nachdem unser IT-Dienstleister festgestellt hatte, dass sich Unbekannte Zugang zum Grünen-Netz verschafft haben.“ Der Abfluss einer „größeren Datenmenge“ sei bisher aber nicht festgestellt worden. Web: https://www.epochtimes.de Probeabo der Epoch Times Wochenzeitung: https://bit.ly/EpochProbeabo Twitter: https://twitter.com/EpochTimesDE YouTube: https://www.youtube.com/channel/UC81ACRSbWNgmnVSK6M1p_Ug Telegram: https://t.me/epochtimesde Gettr: https://gettr.com/user/epochtimesde Facebook: https://www.facebook.com/EpochTimesWelt/ Unseren Podcast finden Sie unter anderem auch hier: iTunes: https://podcasts.apple.com/at/podcast/etdpodcast/id1496589910 Spotify: https://open.spotify.com/show/277zmVduHgYooQyFIxPH97 Unterstützen Sie unabhängigen Journalismus: Per Paypal: http://bit.ly/SpendenEpochTimesDeutsch Per Banküberweisung (Epoch Times Europe GmbH, IBAN: DE 2110 0700 2405 2550 5400, BIC/SWIFT: DEUTDEDBBER, Verwendungszweck: Spenden) Vielen Dank! (c) 2022 Epoch Times
In dieser Episode reden Amit und Sebastian über den Big Data Hype, in dessen Anfängen das Berufsbild des Data Scientist entstand. Hier erfährst du: was Big Data eigentlich genau ist, wie es zu dem Hype kam und was daraus geworden ist. Links 3V Definition: https://www.inwt-statistics.de/blog-artikel-lesen/Big_Data_vs_Smart_Data.html Hypothesengenerierung aus der Datenmenge: https://www.wired.com/2008/06/pb-theory/ Hype-Zyklus: https://de.wikipedia.org/wiki/Hype-Zyklus Unsere Blogartikel zum Thema "Big Data": https://www.inwt-statistics.de/blog/tag/Big-Data.html
In unserer heutigen Episode geht es um die Digitalisierung der Ergonomie. Im Titel nennen wir es sogar die digitale Revolution, denn in dem Anwendungsbereich findet sich unglaublich viel Mehrwert für Unternehmen und Mitarbeiter. Oftmals beschäftigen wir uns im Podcast mit digitalen Anwendungen, die die Arbeit unterstützen, vereinfachen oder sogar ganz automatisieren. Das lässt sich bei physischer Arbeit nur sehr begrenzt vornehmen. Mit Hilfe der neusten Erkenntnisse zeigt uns unser Gast Adrian aber, was in dem Feld alles möglich ist. Ehrlicherweise kursieren hier derzeit einige Buzzwords, wie beispielsweise das Exoskelett. Das ist aber wie so vieles in der Digitalisierung nicht das Allheilmittel gegen jedes Problem. Vielmehr gibt es auch hier wieder einen bunten Strauß an Möglichkeiten, aus denen Unternehmen das Passende aussuchen können. Adrian beschreibt sehr anschaulich, was es mit dem digitalen Zwilling in der Ergonomie auf sich hat, wie jeder im Rahmen seiner Beratung mal Filmstar werden kann und wo am Ende der Mehrwert liegt. Sehr spannend und unterhaltsam, wenngleich das Thema der körperlichen Gesundheit sehr ernst ist. Ist das bereits das nächste Level im Arbeitsschutz? Fakt ist, Arbeitsabläufe lassen sich durch Bewegungssensoren digitalisieren. Und aus dieser Datenmenge lassen sich einige spannende Rückschlüsse ziehen, auf die Adrian im Interview eingeht. Insofern "Prädikat: Besonders wertvoll und unbedingt reinhören!"
MS-Perspektive - der Multiple Sklerose Podcast mit Nele Handwerker
In Folge #130 vom MS-Perspektive-Podcast spreche ich mit Dr. Anja Dillenseger vom MS-Zentrum in Dresden über relevante digitale Biomarker für MS-Patienten. Es geht darum, was Biomarker sind? Wie sie eine bessere Beurteilung des Ist-Zustandes ermöglichen, was wiederum eine bessere Behandlung ermöglicht. Welche Rolle dabei Smart Phones, Apps und Fitness Tracker spielen? Außerdem sprechen wir ganz konkret darüber, wie Sehstörungen erfasst werden und die Aussagekraft der Ergebnisse. Und es geht darum, wie Technik objektiv vergleichende Verlaufsdaten zeigen kann, selbst wenn andere Symptome wie Fatigue beim Messen von beispielsweise Sprechstörungen reinspielen. Hier geht es zum Blogartikel: https://ms-perspektive.de/dr-anja-dillenseger-digitale-biomarker/ Inhaltsverzeichnis Vorstellung Digitale Biomarker Überblick Detailfragen digitale Biomarker Zusammenfassung Biomarker Blitzlicht-Runde Verabschiedung Vorstellung Anja Dillenseger ist wissenschaftliche Mitarbeiterin mit akademischem Abschluss beim Multiple Sklerose Zentrum Dresden. Sie arbeitete zunächst im Groß- und Außenhandel und war Chefsekretärin bei RENO-Schuhimport. Es folgte ein BWL-Studium. Dann ging sie für 10 Monate in eine Tierarztpraxis und studierte anschließend Veterinärmedizin. Bis 2014 arbeitete sie in einer Praxis in Chemnitz, wechselte dann nach Dresden wo sie in den Jahren 2015/2016 in einer Tierarztpraxis tätig war. Und seit 2016 gehört sie zum Team des MS-Zentrum in Dresden. Digitale Biomarker Überblick Was sind Biomarker und wofür werden sie genutzt? Biomarker sind objektiv messbare Indikatoren physiologischer oder pathologischer Prozesse oder pharmakologischer Antworten auf therapeutische Interventionen. Im Rahmen der MS kann man diese Biomarker unterteilen in: diagnostische (d.h., sie helfen bei der Unterscheidung zwischen verschiedenen Erkrankungen, z.B. oligoklonale Banden), prognostische (diese unterstützen Ärzte dabei abzuschätzen, wie sich eine diagnostizierte Erkrankung entwickelt; z.B. Neurofilament) prädiktive/“vorhersagende“ (geben eine „Vorhersage“, wie die Antwort auf eine Therapie sein wird; welcher Patient profitiert von welcher Therapie? Hier ist zum Beispiel die Genotypisierung vor Siponimod-Therapie zu nennen.) Krankheitsaktivität (messen die Entzündung oder Neurodegeneration, z.B. MRT, Klinik) und Biomarker bezüglich der Therapie-Antwort (hilft zu unterscheiden, ob ein Patient auf eine Therapie anspricht). Was ist das Besondere an digitalen Biomarkern und warum sind sie so wichtig? Klassisch mussten und müssen diese Biomarker durch Ärzte oder medizinisches Personal erhoben und dokumentiert werden. Dafür fehlt leider häufig die Zeit oder das Personal oder beides (von Räumlichkeiten, um zum Beispiel Funktionstests durchzuführen, mal ganz zu schweigen). Daher ist der Gedanke, dass durch die zunehmende Digitalisierung im Gesundheitswesen zum einen diese Informationen gleich digital aufgenommen, dokumentiert und zur Verfügung gestellt werden können. Aber die Digitalisierung bietet auch die Chance, dass Patienten selbst diese Daten generieren und mit ihrem Behandlungsteam teilen. Wir hatten 2019 einmal eine Umfrage bei knapp über 200 Patienten gemacht, welche digitale Technologie sie am häufigsten verwenden. Das Smartphone war da ganz vorne mit dabei mit einer Nutzung mehrmals täglich. Smartphones bieten im Grunde alles, was man braucht: Kamera (z.B. zur Stimmungserhebung anhand des Gesichtsausdruckes), Mikrofon (zur Dokumentation der Sprache und eventuellen Auffälligkeiten), GPS und Gyroskop (zur Messung von Mobilität und Rotationsbewegungen des Körpers) etc. Also: warum dies sich nicht zunutze machen? Oder Fitness-Tracker? Wie können digitale Biomarker das Leben von Menschen mit MS verbessern in Bezug auf Behandlung und Prognose? Bei MS heißt es, frühzeitig auf Progressionen zu reagieren. Aber natürlich auch die Kontrolle der Therapie-Aktivität oder das Hinzukommen von neuen Symptomen. Normalerweise sehen wir Patienten alle 3 Monate, manchmal auch nur alle 6 Monate. Mal ehrlich, ich könnte mich nicht erinnern, wenn du mich jetzt fragen würdest, wie oft ich in den letzten 3 Monaten z.B. unter Kopfschmerzen gelitten habe. Das Gedächtnis eines jeden erinnert vielleicht die letzten 5 Tage ganz konkret, je nachdem natürlich, wie gravierend das Ereignis war. Aber im Grunde geht wohl viel Information verloren. Oder wird nicht ernst genug genommen. Wenn jetzt aber der Patient sich zum Beispiel hinsichtlich bestimmter Symptome selbst in seiner Häuslichkeit messen kann oder regelmäßig digitale Fragebögen zu den wichtigsten Symptomen zugeschickt bekommt, die Veränderung bestehender Symptome von ihm/ihr selbst über ein digitales Programm dokumentiert werden kann oder auch Schübe im Rahmen eines Tagebuches, dann unterstützt dies auch bei Visiten das Arztgespräch. Noch besser natürlich, wenn der Arzt ebenfalls (nach Zustimmung des/der Patient*in natürlich) direkt Zugriff zu diesen Informationen in Echtzeit hätte. Und da geht die Reise hin. Welche krankheitsbedingten Veränderungen bei MS-Patienten können bereits gut und effizient mit Hilfe von digitalen Biomarker erfasst werden? Die Bekanntesten hier sind wohl das MRT sowie die Untersuchung des Augenhintergrundes mittels der optischen Kohärenztomographie. Da ist dann aber noch lange nicht Schluss. Patienten an unserem Zentrum kennen hier zusätzlich die Ganganalyse, die bei uns mithilfe digitaler Technologie (z.B. ein mit Drucksensoren ausgestatteter Teppich), Opal-Sensoren, die am Körper befestigt werden und die Rotation des Körpers während verschiedener Aufgaben dokumentieren, digitale Fragebögen (Selbsteinschätzung der Mobilität) und vieles mehr. Zusätzlich gibt es bereits die Möglichkeit, Funktionstest tablet-basiert durchzuführen, ohne dass Patienten hier durch medizinisches Personal unterstützt werden müssen. Diese Funktionstests fokussieren sich hierbei auf die am häufigsten betroffenen Beeinträchtigungen im Rahmen der MS: das Gehen, das Kontrastsehen, die Kognition (also Konzentration und Verarbeitungsgeschwindigkeit) sowie die Funktion der oberen Extremitäten. Studien haben hier belegt, dass diese den papierbasierten Funktionstests in nichts nachstehen. Bisher waren solche digitalen Funktionstestungen häufig nur im Rahmen von Studien einsetzbar, aber die Überprüfung des Nutzens in der klinischen Routine nimmt gerade sehr an Fahrt auf. Apps, die Funktionstests von zuhause aus ermöglichen gibt es bereits. Im Bereich der Alzheimer-Erkrankung werden Sprach- bzw. Sprech-Aufgaben mit Erfolg eingesetzt, um Hinweise auf depressive Verstimmungen, kognitive Beeinträchtigungen und Fatigue zu erhalten. Bei MS muss dies noch überprüft werden. Da startet im April bei uns ein Projekt dazu. Wie man erkennen kann, ist die Erfassung dieser digitalen Biomarker nicht überall verfügbar. Das wird sich in Zukunft hoffentlich ändern. Welche Rolle spielen Apps, Smartphones und Fitnesstracker beim Erfassen der Daten und wie viel wird beim Arzt gemessen? Diese Tools bieten die Möglichkeit der Erfassung digitaler Biomarker! Ein Smartphone hat doch jeder. Tablets sind mittlerweile auch so erschwinglich, dass man die sich in die Praxis oder Klinik legen kann, um Testungen oder digitale Fragebögen darauf durchzuführen. Fitness-Tracker sind eher nicht so ganz verbreitet, könnten aber bei bestimmten Patienten zur Verfügung gestellt werden, was derzeit nur im Rahmen von Studien der Fall ist. Aber in diesen digitalen Werkzeugen liegt die Zukunft. Was derzeit mit Hilfe von Apps, Smartphones und Tablets gemacht werden kann bewegt sich zum Großteil auch im Bereich der Forschung. Beispiel der Einsatz von digitalen Funktionstests (Kontrastsehen, Stäbchen-Steck-Test, 7,61-Meter-Gehtest, Verarbeitungsgeschwindigkeit), wobei hier gerade auch ein Zulassungsverfahren für eine DiGA (digitale Gesundheitsanwendung auf Rezept) läuft, die Funktionstest beinhaltet, Tagebuchfunktion und noch mehr. Auch werden immer mehr Apps, sogenannte DiGAs zur Unterstützung bei bestimmten Symptomen, wie Fatigue (basierend auf etablierten psychotherapeutischen Ansätzen und Verfahren insbesondere der kognitiven Verhaltenstherapie) und demnächst auch zur Unterstützung bei depressiven Verstimmungen. Da ist viel in der Entwicklung. Auch bei uns im Zentrum ist da einiges im Gange, wie die Testung einer App für das Selbstmonitoring (auch über digitale Funktionstests), Sprachanalyse, unsere multimodale Ganganalyse und vieles mehr, an dem geforscht und entwickelt wird. Wie kompliziert ist die Auswertung der erfassten Daten? Das ist ein wichtiges Thema. Durch die digitale Erfassung und des immer umfangreicher werden Spektrums, was alles erfasst werden kann, nimmt natürlich die Datenmenge extrem zu. Die Verwendung digitaler Biomarker stellt andere Anforderungen an die Datenanalyse als die herkömmliche Verarbeitung von Daten im klinischen Alltag und sogar als die aufwändigere Verarbeitung in klinischen Studien. Um den prädiktiven Zweck eines Biomarkers zu erfüllen, ist die Datenübertragung und Datenanalyse in Echtzeit das Ziel. Dies erfordert eine Unabhängigkeit von Ort und Situation der Datenerhebung, d. h. eine Datenverarbeitung, die in der klinischen Praxis stattfinden kann, aber nicht auf die Räumlichkeiten des Neurologen beschränkt ist, und die Besuche, die in größeren Abständen stattfinden. Dazu müssen Daten aus unterschiedlichsten Quellen über standardisierte, sichere Schnittstellen digital aggregiert werden – eine Aufgabe, die weit über die Möglichkeiten einzelner Apps hinausgeht. Die allgemeine Anforderung an (automatisierte) Informationsverarbeitungssysteme besteht auch darin, dass sie zuverlässig nützliche Informationen (echte medizinische Bedürfnisse) von Rauschen unterscheiden können, z. B. durch Anwendung festgelegter Grenzwerte. Auch ist es wichtig zu überlegen, welche Daten denn Sinn machen und überhaupt wichtig sind für die Therapie und Verlaufskontrolle. Wo liegen aktuell die größten Hürden, um digitale Biomarker breitflächig einzusetzen? Grundsätzlich einmal in der Validierung der digitalen Biomarker, das heißt, messen diese auch, was man messen möchte und sind diese Messwerte auch repräsentativ und aussagekräftig? Die Privatsphäre (vor allem z.B. bei passiver Dokumentation über GPS des Smartphones) und Datenschutz sind hier besonders wichtig. Wo werden die Daten gespeichert und wer ist dafür (auch hinsichtlich des Datenschutzes) verantwortlich? Über die Datenauswertung hatten wir ja bereits gesprochen. Und hinsichtlich der Adhärenz, das heißt, der Nutzung dieser Technologie, Tests und Apps, muss der Patient ebenfalls mitarbeiten. Detailfragen digitale Biomarker Wie gut können Sehstörungen mit digitalen Biomarkern gemessen werden und welche Arten gibt es? Das Sehvermögen ist eines der am stärksten betroffenen Funktionssysteme bei Patient*innen mit MS und äußert sich häufig in Form einer Sehnervenentzündung. Die klinischen Anzeichen können von Veränderungen des Farbsehens, verminderter Sehschärfe bis hin zum vollständigen Verlust des Sehvermögens reichen. Das am häufigsten eingesetzte digitale Untersuchungsverfahren ist das OCT, die optische Kohärenz-Tomographie. Mit OCT können die Dicke der peripapillären Netzhautnervenschicht (pRNFL) und das Makulavolumen (Makula = Bereich des scharfen Sehens) gemessen werden, um nach Netzhautatrophie zu suchen. Es wurden im Bereich der Forschung Modelle entwickelt, um die Assoziation von OCT-basierten Metriken mit dem Grad der Behinderung zu bestimmen. Diese umfassten kontinuierliche Variablen wie die pRNFL-Dicke und das Makulavolumen, um die Wirkung (Zunahme oder Abnahme) auf das Risiko einer Verschlechterung der Behinderung zu quantifizieren. Die Ergebnisse legen nahe, dass die regelmäßige Überwachung der peripapillären retinalen Nervenfaserschicht ein nützlicher digitaler Biomarker zur Überwachung der Verschlechterung der Behinderung bei MS sein könnte, zumal er mit klinischen und paraklinischen Parametern des Sehvermögens, der Behinderung und der MRT korreliert. Ein weiterer digitaler Biomarker, der zur Überwachung von Sehbehinderungen verwendet werden kann, ist das Kontrastsehen. Die Prüfung der Sehschärfe bei niedrigen Kontrastverhältnissen ist von Bedeutung, da bei Menschen mit Behinderung die Schwelle, bei der ein Buchstabe noch vom Hintergrund unterschieden werden kann, deutlich höher ist als bei gesunden Personen. Digital wird diese Untersuchung derzeit allerdings nur im Rahmen der Forschung durchgeführt. Ein Bereich der noch erforscht wird, sind die okulomotorischen Störungen, die ebenfalls auftreten können, also Störungen der Augenbewegung. Die am häufigsten beobachteten Augenbewegungsstörungen sind zum Beispiel überschießende oder zu kurz erfolgende schnelle, ruckartige Augenbewegungen beim Wechsel eines Fixpunktes), gestörte horizontale Augenbeweglichkeit, und Nystagmus (unwillkürliche Augenbewegung).] Welche Sprachstörungen können MS-Patienten bekommen und wie können digitale Biomarker diese testen? Sprach- und Sprechprobleme kommen bei 40-50 % aller MS-Patienten vor. Dazu zählt vor allem die Dysarthrie, das heißt eine neurologisch bedingte Sprechstörung, die durch eine Schädigung des zentralen oder des peripheren Nervensystems verursacht wird. Dabei kann die Lautbildung bzw. Artikulation gestört sein, aber auch die Atemkapazität, die Sprechmelodie (also eher ein monotones Sprechen), dass vermehrt Pausen gemacht werden oder die Stimme sehr angespannt ist. Und das kann man sich für die Untersuchung mittels digitalen Biomarkern auch zunutze machen. Da diese Beeinträchtigungen auch nur ganz leicht auftreten können, ist es für das menschliche Ohr (also den Untersucher) manchmal schwierig zu erkennen. Nutzt man Applikationen (Apps), anhand derer Patienten Sprach-Aufgaben durchführen und diese gespeichert und analysiert wird, hat man zum einen eine objektive Erkennung von Veränderungen, die aber auch standardisiert ist. Das heißt, bei Verlaufskontrollen wird sich immer auf das gleiche „Normal“ bezogen. Menschliche Unterschiede bei Beurteilungen und der Wahrnehmung (2 Untersucher können zu unterschiedlichen Ergebnissen kommen) fallen also weg. Das Gleiche gilt für alle digitalen Biomarker. Sie sind standardisiert. Ein Problem könnten allerdings verschiedene Akzente oder Dialekte darstellen. Auch das Alter, die Komplexität der durchzuführenden Sprachaufgaben und die individuellen kognitiven Fähigkeiten müssen berücksichtigt werden. Der Vorteil von digitalen Sprachanalysen ist, dass diese auch zum Beispiel während der Visite, bei Telefonaten oder Videosprechstunden mit durchgeführt werden können, also passiv. Warum sind Untersuchungen von Sprache/des Sprechens wichtig? Neben der frühzeitigen Erfassung von Beeinträchtigungen darf man nicht vergessen, dass Sprach- bzw. Sprechbeeinträchtigungen durchaus negative Effekte hinsichtlich Berufstätigkeit und sozialer Einbindung haben, mit daraus resultierenden Einflüssen auf die Lebensqualität! Welche Auswirkungen haben Depression und Fatigue auf die Sprache und andere Symptome der MS und ist es möglich, trotz verschiedener Einflussfaktoren ein klares Bild über den Ist-Zustand eines Patienten zu gewinnen? Die Fatigue kann die Konzentrationsfähigkeit sowie die Sprech-Geschwindigkeit beeinflussen. Depressive Verstimmungen zum Beispiel zu monotoner Stimme, einer leisen Stimme oder zu negativen Einflüssen bei der Sprachanalyse führen, wenn zum Beispiel ein positives Erlebnis der vergangenen zwei Wochen berichtet werden soll, der/die Patient*in aber ein negatives Erlebnis erzählt. Anzeichen von Müdigkeit und Depression sind bereits bei gesunden Personen oder Patienten ohne neurologische Erkrankung nachweisbar. Da Müdigkeit, Depressionen und kognitive Beeinträchtigungen bei MS häufig vorkommen, könnten sie durch Sprachanalysen erfasst werden. Testbatterien können so konzipiert werden, dass sie exekutive Funktionen und Verarbeitungsgeschwindigkeit (z. B. phonematische und semantische Wortflüssigkeit), Gedächtnis (z. B. Wechsler Memory Scale und California Verbal Learning Test), Affekt und Müdigkeit (z. B. Storytelling), Sprache (Bildbeschreibung) und motorische Funktionen (Pa-ta-ka-Aufgabe) erfassen. Bislang ist die Durchführung solcher Sprach- und Sprachtests auf Studien beschränkt (bei uns am MS Zentrum Dresden wie gesagt ab April), doch kann man sich vorstellen, dass sie in Zukunft bei klinischen Besuchen von Menschen mit Behinderung oder sogar zu Hause durch den Einsatz spezieller Apps oder Aufzeichnungen bei telemedizinischen Besuchen eingesetzt werden können. Wie vielfältig sind die Ursachen für einen schlechten Gang und wie viele Tests werden benötigt, um sich ein umfassendes Bild zu machen? Beeinträchtigungen des Gehens sind mit ca. 85 % die häufigsten Symptome bei MS. Mehrere Faktoren tragen dabei zur Gangstörung bei Patient*innen mit MS bei. Sensorische Veränderungen und das daraus resultierende Ungleichgewicht, die Schwäche der unteren Extremitäten oder das Vorliegen einer Spastik sowie Kleinhirn-Ataxien haben hier wohl die größten Auswirkungen. Der in der Routine am häufigsten durchgeführte Test ist der 7,61-Meter-Gehtest. Wie der Name schon verrät, geht der/die Patient*in hier lediglich 7,61 Meter so schnell und sicher wie möglich, ohne zu rennen. Eine Schwester/Pfleger misst die dafür notwendige Zeit. Das Problem mit diesem Test ist aber, dass hier Auffälligkeiten bei Patient*innen beobachtet werden, bei denen augenscheinlich Beeinträchtigungen vorliegen. Was man nicht damit erfasst, sind Gehbeeinträchtigungen, die erst nach mehreren Minuten oder einigen zurückgelegten Metern auftreten. Auch Faktoren wie die Schrittlänge, Spurbreiten, wie fußt der Patient*in, muss mit dem Körper ausbalanciert werden, wie verändert sich das Gehen, wenn noch eine zweite Aufgabe hinzukommt, werden nicht erfasst. Diese Informationen sind aber essentiell und müssen dokumentiert und im Zeitverlauf verfolgt werden. Es ist also komplexer. Wir haben daher bei uns im Zentrum die multimodale Ganganalyse, die meine geschätzte Kollegin Frau Katrin Trentzsch etabliert hat. Hier werden neben dem 7,61-Meter-Gehtest auch ein 2-Minuten-Gehtest, die Erfassung des Ganges über das GaitRITE (ein Teppich, der über Sensoren Auskunft über die Schrittlänge, Spurbreite, Geschwindigkeit des Ganges gibt) mit und ohne Dual-Task (also eine zweite Aufgabe, die während des Gehens absolviert werden muss, um so mögliche Veränderung im Gangbild hervorzurufen) sowie den Romberg Stehtest und beobachten zusätzlich bei all diesen Tests die Rotationsbewegung des Körpers mittels am Körper befestigter Opalsensoren. Hinzu kommen Fragebögen, um subjektive Angaben über die Mobilität zu erhalten. Die Kraftmessplatte kam neu dazu, die bereits frühe Veränderungen detektieren kann. Aber das ist nur ein Teil, was das Mobilitätszentrum von Frau Trentzsch macht und machen kann. Aber es ist das, was wir jedem/r Patient*in bei uns im MS-Zentrum mindestens 1x pro Jahr anbieten. Was man nicht vergessen darf: Grundsätzlich ist es wichtig, Beeinträchtigungen des Gehens im Speziellen und der Mobilität im Allgemeinen in der täglichen Routine der Patienten zu betrachten. Das ist leider derzeit nicht vollumfänglich möglich. Die Technologie gibt es schon, aber eben allenfalls im Rahmen von Studien, noch nicht für die Routine. Fitness-Tracker oder Smartphones bieten hier gute Einsatzmöglichkeiten. Das Problem ist aber noch für die Routine-Nutzung: wo die Daten speichern, so dass Arzt und Patient diese nutzen können. Datenschutz? Wie werden aktuell die Einschränkungen durch MS auf Arme und Hände gemessen und was ist hier zukünftig realistisch? Derzeit ist der hauptsächlich verwendete Test der sogenannte 9-Hole-Peg-Test oder Stäbchen-steck-Test. Hierbei sollen jeweils mit einer Hand 9 Stäbchen in vorgebohrte Löcher auf eine Platte nacheinander eingesetzt und wieder entfernt werden. Dabei wird von einer Schwester oder Pfleger die Zeit erfasst, die dazu benötigt wird. Diese Zeit wird in Bezug gesetzt zu einer Kontroll-Kohorte (Menschen ohne Einschränkung). Wenn dieser Test regelmäßig gemacht wird, können Veränderungen sehr gut erkannt werden. Natürlich gibt es Schwankungen. Aber wenn beispielsweise eine Verschlechterung um 20 % über mindestens 3 Monate bestehen bleibt, ist dies klinisch signifikant. Diesen Test gibt es auch in etwas abgewandelter Form digital. Dazu müssen Tomaten oder Ballons zerquetscht werden, die auf dem Smartphone-Display an unterschiedlichen Stellen und in unterschiedlicher Größe erscheinen. Studien belegten bereits eine Korrelation dieses digitalen Tests mit der „herkömmlichen“ Version. Was hier aber noch weitere Vorteile bringt, ist, dass neben der Standardisierung und der Vermeidung, dass das Personal mal zu früh oder zu spät die Stopp-Uhr betätigt, zum Beispiel auch die Möglichkeit der Erfassung des Druckes, den die Finger auf dem Display ausüben. Oder die Zielgenauigkeit. Das sind alles Daten, die kann man mit dem herkömmlichen Test nicht erfassen. Diese sind aber wichtig! Und, nicht zu vergessen, diese Tests können zuhause durchgeführt werden, auch und vor allem dann, wenn Patienten Verschlechterungen bemerken und messen wollen. Auf welche Art können kognitive Probleme festgestellt werden? Kognitive Probleme beeinträchtigen häufig das Arbeitsgedächtnis, die Wortflüssigkeit, die Geschwindigkeit der Informationsverarbeitung, das verbale und visuelle Gedächtnis sowie die exekutiven Funktionen und – nach neuen Erkenntnissen – der Bereich der „Theory of Mind“ (die Fähigkeit, auf der Grundlage nonverbaler und verbalen Hinweisen auf die Emotionen anderer Menschen zu schließen). Das wären dann auch die Ansatzpunkte für mögliche Testungen. Der bisher eingesetzte Test ist der SDMT, bei dem Zahlen zu Symbolen innerhalb von 90 Sekunden zugeordnet werden müssen. Dieser Test adressiert das Arbeitsgedächtnis. Das Problem bei diesem Test ist, dass eigentlich auch die schulische Ausbildung mit zur Beurteilung des Ergebnisses herangezogen werden müsste, da das gleiche Ergebnis bei einem eine Auffälligkeit ist, während sie bei dem anderen völlig normal ist. Hinzu kommt natürlich, dass dieser Test auch beeinflusst werden kann durch andere Beeinträchtigungen, wie das Sehen oder der oberen Extremitäten. Trotzdem bleibt dieser Test auch bei der Digitalisierung der Test der Wahl und ist bereits auch als solcher verfügbar. Er ist schnell durchführbar und wenn regelmäßig absolviert, ermöglicht er im Monitoring doch das Erkennen von Veränderungen. Für den klinischen Einsatz wurde eine Reihe von vereinfachten Tests für die Kognition bei MS entwickelt, darunter Testbatterien wie der BICAMS (Brief Repeatable International Cognitive Assessment for MS), die Brief Repeatable Battery of Neuropsychological Tests und der Minimal Bewertung der kognitiven Funktion bei MS. Deren Einsatz scheitert aber an zeitlichen und personellen Engpässen (abgesehen von der Umsetzung in eine digitale Form). Aber sollte in dem Symbol-Zahlen-Test eine klinisch relevante Verschlechterung auftreten, kann eine eingehendere neuropsychologische Testung dann angeordnet werden. Zusammenfassung Biomarker Welche Entwicklungen im Bereich der digitalen Biomarker wünschst Du Dir in den kommenden 5 Jahren? Im Bereich der MS würde ich mir die Weiterentwicklung digitale Biomarker wünschen, die bereits frühe Progressionen erkennen können. Darüber hinaus wäre es wünschenswert, dass alle Patienten die Möglichkeit erhalten, von digitalen Biomarkern zu profitieren und nicht nur in ausgewählten Zentren oder im Rahmen von Studien. Wie können Patienten dabei helfen, dass digitale Biomarker schneller Verbreitung finden, um möglichst bald von den gewonnenen Ergebnissen zu profitieren? Es werden derzeit sehr viele Apps oder digitale Testmöglichkeiten sowie DiGAs (digitale Gesundheitsanwendungen auf Rezept) entwickelt. Aber häufig ist es ja so, dass der Entwickler seine Vorstellung hat, der Arzt ebenfalls, aber der „End-Nutzer“, also der Patient, diese aus den unterschiedlichsten Gründen nicht nutzt. Um dies zu vermeiden geht man dazu über, diese Innovationen durch Patienten testen zu lassen, zumindest ist es unsere Empfehlung dies zu tun. Das bieten wir auch Unternehmen mit guten Ideen im Bereich der MS an, diese durch Patienten unseres Zentrums beurteilen zu lassen. Patienten sind da sehr ehrlich und auch wahnsinnig kreativ, was Verbesserungen angeht! Da bin ich immer wieder erstaunt. Wenn aber dann solche digitalen Möglichkeiten, die auch eine qualitativ gute Datenerfassung und Bereitstellung an den Arzt ermöglichen, existieren und funktionieren, müssen sie von Patienten konsequent genutzt werden und nicht nur zu Beginn, wenn die Begeisterung groß ist. Adhärenz ist da ein großes Problem. Wir schauen auch im Rahmen eines anderen Projektes an unserem Zentrum derzeit, wie die Adhärenz bei einer App ist, die Funktionstests zuhause ermöglicht und was die Ursachen mangelnder Adhärenz sind. Wir sind gespannt auf das Ergebnis! Blitzlicht-Runde Vervollständige den Satz: „Für mich ist die Multiple Sklerose... “ … der Antrieb, möglichst hochwertige und patientenorientierte Versorgung anzubieten und weiterzuentwickeln. Wie lautet Dein aktuelles Lebensmotto? Wenn du es eilig hast, gehe langsam. Sowie: Bitte mehr Life in der Work-Life-Balance. Das Leben kann sich so schnell ändern, man hat es eben nicht in der Hand… Mit welcher Person würdest Du gern ein Kamingespräch führen und zu welchem Thema? Wenn es um Prominente geht: Martin Luther King jr.; wobei es mir schwer fällt, mich auf eine Person festzulegen. Es gab und gibt viele interessante Menschen, mit denen ein Kamingespräch bestimmt nicht langweilig werden würde. Ansonsten: meine Oma, die gestorben ist, als ich noch zu unreif war, ihr zuzuhören. Welches Buch oder Hörbuch, das Du kürzlich gelesen hast, kannst Du empfehlen und worum geht es darin? Als Hörbuch kann ich „Die Purpurnen Flüsse“ (Jean-Christophe Grange) empfehlen! Sehr gut! Höre ich immer wieder.
Trotz schleppender Digitalisierung werden auch im Schweizer Gesundheitswesen immer mehr Daten gesammelt. Bloss: Bedeuten mehr Daten auch automatisch tiefere Kosten? Und: Die ETH Zürich hat einen Algorithmus entwickelt, der kaputte Maschinen am Geräusch erkennt. Wir haben genauer hingehört. Der ganze Podcast im Überblick: (00:01:29) DNS Amplification Attack: Wenn der Postmann ein paar Milliarden mal klingelt (00:09:13) Digitalisierung des Gesundheitswesens: Sinkende Kosten dank steigender Datenmenge? (00:36:51) Die Künstliche Intelligenz, die den Schaden hört
Trotz schleppender Digitalisierung werden auch im Schweizer Gesundheitswesen immer mehr Daten gesammelt. Bloss: Bedeuten mehr Daten auch automatisch tiefere Kosten? Und: Die ETH Zürich hat einen Algorithmus entwickelt, der kaputte Maschinen am Geräusch erkennt. Wir haben genauer hingehört. Der ganze Podcast im Überblick: (00:01:29) DNS Amplification Attack: Wenn der Postmann ein paar Milliarden mal klingelt (00:09:13) Digitalisierung des Gesundheitswesens: Sinkende Kosten dank steigender Datenmenge? (00:36:51) Die Künstliche Intelligenz, die den Schaden hört
3,6 Mio. Datenpunkte werden durchschnittlich pro Bundesliga-Partie erfasst. Das sind in Summe etwa 65 Millionen Datenpunkte für die 1. und 2. Fußball-Bundesliga. Verantwortlich für diese enorme Datenmenge von rund 2,3 Terabyte Daten pro Saison ist Sportec Solutions. Der Innovationsführer in den Bereichen Spieldatenanalyse und Sporttechnologie hat das fortschrittliche Ziel, den Einsatz von Daten im deutschen Fußball zu verbessern und den Wissensdurst im Sportbusiness zu stillen. Im Sports Maniac Podcast sprechen wir mit Christian Holzer, Managing Director von Sportec Solutions, über Daten im Fußball und wie Fans, Vereine, Spieler, Sponsoren und Medien von neuen Technologien profitieren sowie Live-Daten gewinnbringend nutzen können. Die Themen im Überblick: Verwertung von Daten im Sinne der Fan-Exprience Best Cases von Datennutzung im Sport Datenbasiertes Storytelling Einsatz von künstlicher Intelligenz Datenschutz - Wo ist die Grenze? Zukunft der Datenmessung Bundesliga schauen in 5 Jahren Shownotes: Shownotes unter: https://sportsmaniac.de/episode307 Die Best-of-Seven mit Christian gibt es ab Freitag hier: https://sportsmaniac.de/episode308 Vernetze dich mit Christian Holzer auf LinkedIn Alles zu Sportec Solutions findest du hier: https://www.sportec-solutions.de/ Interessante Folgen des Sports Maniac Podcasts zum Thema Daten im Sport: #173: Focus Tomorrow: Der Weg der Bundesliga zur innovativsten Fußballliga der Welt und #278: Der smarte Tennisplatz: Wie Wingfield den Tennissport digitalisiert Hörempfehlung: Hier geht's zu "Mehr als ein Spiel", dem Podcast der DFB-Stiftungen Egidius Braun, Sepp Herberger und der DFB Kulturstiftung: https://maniacstudios.com/portfolio/mehralseinspiel Meine Buchempfehlungen: https://sportsmaniac.de/books Mehr zu unserer Podcast-Agentur Maniac Studios: https://maniacstudios.com Du willst einen Podcast starten oder als Partner im Sports Maniac Podcast werben? Hier anfragen: https://danielspruegel.com Abonniere den Sports Maniac Podcast auf Apple Podcasts, Google Podcasts, Spotify, Deezer, Soundcloud oder TuneIn Abonniere das Weekly Update: https://sportsmaniac.de/weekly-update Bewerte den Sports Maniac Podcast: https://sportsmaniac.de/bewertung Kostenfreie Facebook-Gruppe: https://sportsmaniac.de/community FACEBOOK: http://facebook.com/sportsmaniacDE INSTAGRAM: http://instagram.com/danielspruegel TWITTER: https://twitter.com/DanielSpruegel LINKEDIN: https://www.linkedin.com/company/sports-maniac Mein Podcast-Equipment: https://sportsmaniac.de/meinsetup
https://odysee.com/@Punkt.PRERADOVIC:f/Mayer_F:0 Telegram: https://t.me/punktpreradovic Website: https://punkt-preradovic.com/ 3G, 2G oder auch 1G, wie es bereits für einige Bereiche in Österreich kommen soll. Der Ausschluss von Ungeimpften scheint für den Herbst beschlossene Sache. Baden-Württemberg will ab 300 belegten Intensivbetten ungeimpften Menschen nur noch Supermarkt und Tankstelle erlauben, die anderen Bundesländer planen ähnliches. Aber sind die Maßnahmen wirklich evident? Der Physiker und Wissenschaftsjournalist Dr. Peter F. Mayer wertet für seinen Blog tkp internationale Studien aus. Und die kommen zu Ergebnissen, die der Politik widersprechen. Außerdem: WHO plant globalen Impfpass mit riesiger Datenmenge. Kommt der komplett gläserne Mensch? Ich würde mich freuen, wenn ihr meine unabhängige journalistische Arbeit unterstützen würdet, damit ich auch in Zukunft weitermachen kann. Vielen Dank! Ich möchte mich auch ganz herzlich bei allen bedanken, die mich bereits unterstützen. Milena Preradovic Name: Milena Preradovic IBAN: AT40 2070 2000 2509 6694 BIC: SPFNAT21XXX oder paypal.me/punktpreradovic Blog Peter F. Mayer: https://tkp.at/ Studien zu unserem Gespräch: https://www.statnews.com/2020/03/17/a-fiasco-in-the-making-as-the-coronavirus-pandemic-takes-hold-we-are-making-decisions-without-reliable-data/ https://www.sciencedirect.com/science/article/abs/pii/S0924857920300972 https://www.nature.com/articles/s41591-020-0822-7 https://www.medrxiv.org/content/10.1101/2021.07.08.21260210v1.full-text https://www.sciencedirect.com/science/article/pii/S0092867420306103 https://www.nature.com/articles/s41586-020-2550-z?flip=true https://www.biorxiv.org/content/10.1101/2020.05.14.095414v2 https://www.cell.com/cell/fulltext/S0092-8674(20)30610-3 https://www.researchsquare.com/article/rs-35331/v1%20 https://www.science.org/doi/10.1126/science.abh1823 https://www.sciencedirect.com/science/article/pii/S1931312821002389?via%3Dihub https://science.sciencemag.org/content/early/2021/01/06/science.abf4063https://www.youtube.com/watch?v=j7xsOsrDmPQ https://www.nature.com/articles/ni.1851 https://www.sciencedaily.com/releases/2010/03/100307215534.htm https://www.biorxiv.org/content/10.1101/2020.11.15.383323v1 https://www.i-med.ac.at/mypoint/news/749681.html https://www.i-med.ac.at/mypoint/news/749681.html https://www.frontiersin.org/articles/10.3389/fimmu.2021.684014/full https://pubmed.ncbi.nlm.nih.gov/32249185/ https://pubmed.ncbi.nlm.nih.gov/26954467/ https://pubmed.ncbi.nlm.nih.gov/32217835/ https://www.cell.com/cell/fulltext/S0092-8674(20)31008-4 70 Studien: https://tkp.at/2021/09/12/ueberblick-ueber-studien-zu-natuerlicher-immunitaet-und-t-zellen-als-wesentlichen-faktor/ https://www.medrxiv.org/content/10.1101/2021.07.20.21260863v1 https://www.nature.com/articles/s41586-021-03647-4 https://www.medrxiv.org/content/10.1101/2021.07.27.21261237v1.full-text https://blogs.bmj.com/bmj/2021/08/23/does-the-fda-think-these-data-justify-the-first-full-approval-of-a-covid-19-vaccine/ https://doi.org/10.1093/cid/ciab345 https://www.ons.gov.uk/peoplepopulationandcommunity/healthandsocialcare/conditionsanddiseases/articles/coronaviruscovid19/latestinsights#reinfections http://tkp.at/2020/12/17/t-zellen-garantieren-anhaltende-immunitaet-antikoerper-moeglicherweise-schaedlich/ https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3897733 https://www.medrxiv.org/content/10.1101/2021.08.19.21262111v1.full.pdf+html https://www.medrxiv.org/content/10.1101/2021.08.24.21262415v1 https://www.bmj.com/content/374/bmj.n1931 https://respekt.plus/2021/08/26/analyse-zu-pandemien-von-univ-prof-ddr-christian-schubert/ https://www.who.int/publications/i/item/WHO-2019-nCoV-Digital_certificates-vaccination-data_dictionary-2021.1 https://youtu.be/HUP6Z5voiS8?t=291 https://odysee.com/@BehindTheMatrix:7/Ernst-Wolff-am-Sommer-WEFF-in-Davos-(21.08.2021):3 ------------ Odysee: https://odysee.com/@Punkt.PRERADOVIC:f Telegram: https://t.me/punktpreradovic Linkedin: https://www.linkedin.com/in/milena-preradovic-4a2836147/?originalSubdomain=at Twitter: https://twitter.com/punktpreradovic Facebook: https://www.facebook.com/punktpreradovic/ Instagram: https://www.instagram.com/punktpreradovic/
MS-Perspektive - der Multiple Sklerose Podcast mit Nele Handwerker
In Folge 100 vom Podcast geht es darum, wie die Behandlung von MS-Patienten bereits heute digital unterstützt wird und welche Verbesserungen die Zukunft bringt? Bevor es losgeht, möchte ich mich bei Dir bedanken, dass du die Beiträge liest und hörst. Es macht mir großen Spaß, immer mehr Experten zu ihrem Fachwissen zu interviewen sowie die Perspektive und Erfahrungen anderer MS-Patienten zu verbreiten. Denn die Krankheit der 1.000 Gesichter verdient eine vielfältige Darstellung. Die Antworten von Prof. Ziemssen zu digitalen Tools und der Zukunft der Behandlung für MS-Patienten habe ich versucht, kurz zusammenzufassen. Vielen Dank auch an das MS-Zentrum Dresden, dass ich die Karikaturen von Phil Hubbe verwenden darf, die er für die Broschüre zum Welt-MS kreiert hat. Übrigens eine sehr lohnenswerte Lektüre: Stay Connected – Broschüre Zur guten Versorgung von MS-Patienten am Universitätsklinikum Carl Gustav Carus Dresden Vorstellung Prof. Dr. Tjalf Ziemssen leitet das MS-Zentrum am Universitätsklinikum Carl Gustav Carus in Dresden. Er war bereits mehrfach zu Gast, präsentiert einen monatlichen Patientenpodcast im Videoformat und hat das Vorwort zu meinem Erfahrungsbericht „Multiple Sklerose? Keine Angst!“ geschrieben: Podcast #032 – Interview mit Prof. Dr. Ziemssen, Neurologe und Leiter vom MS-Zentrum DresdenProf. Ziemssen Podcast #068 – Interview mit Prof. Ziemssen zur Corona-Impfung und Impfungen allgemein Zu Gast im MS-Patientenpodcast des MS-Zentrums in Dresden Digitales und Zukunft Wie sah die Patientenversorgung vor 20 Jahren im Bereich Multiple Sklerose aus? Gab es digitale Hilfsmittel? Im Jahr 2000 war die Bildgebung durch das MRT digital. In Dresden am Uniklinikum wurden damals erste PCs angeschafft, um Patientendaten digital zu sammeln. Denn es war bereits damals klar, dass die Behandlung von MS-Patienten durch eine größere Datenbasis verbessert werden kann. Was hat sich seitdem verändert? Welche digitalen Unterstützungen nutzen sie heute? Die MS als Krankheit der 1.000 Gesichter ist multidimensional. Deshalb braucht man Instrumente, die die vielfältigen Defizite möglichst frühzeitig erkennen, nicht erst, wenn es zu bleibenden Einschränkungen gekommen ist, sondern bereits bei kleinen Veränderungen eingreifen. Es sollen sowohl die Symptome auf Patientenseite genau erfasst werden, als auch das Fortschreiten der Erkrankung aus Ärztesicht. Seit wann gibt es die digitalen Funktionstests und wie helfen sie dabei die neurologische Untersuchung objektiver zu machen? Die neurologische Untersuchung ist schwer quantifizierbar. Man weiß nicht, wie viel schlechter zum Beispiel die Kraft oder das Sehen geworden ist. Der seit mehreren Jahren eingesetzte Tablet-Tests hingegen, misst die Sehkraft auf die gleiche Art, der Kognitionstest funktioniert immer gleich und muss innerhalb eines festen Zeitfensters absolviert werden und die Gehstrecke ist immer gleich lang und man vergleicht die benötigte Zeit. Dabei werden die Daten von einem Patienten über den zeitlichen Verlauf miteinander verglichen. Das erlaubt eine deutlich präzisere Bestimmung der geistigen und körperlichen Fähigkeiten. Werden die digitalen Funktionstests demnächst per App oder online möglich sein? Es wird gerade an einer App gearbeitet. In einer großen Anwendungsstudie soll nun ausprobiert werden, wie gut die Tests, die zuhause angewandt werden können, auch durchgeführt werden. Und wie nützlich die daraus entstehenden Daten sind. Die Studie startet im Herbst 2021. Für das regelmäßige ausfüllen und nutzen können Punkte gesammelt werden, die dann wiederum zu einem kleinen Obolus führen. Es wäre natürlich großartig, wenn die Tests, die man in entspannter Atmosphäre durchführen kann, zuhause mittels App oder Tablet genutzt werden. Gerade wird in Dresden auch untersucht, wie Patienten, die Tests (Tablet, Ganganalyse) empfinden und wie schwer ihnen die Durchführung fällt. Dabei kam heraus, dass die meisten Patienten, absolutes Verständnis haben und gerade die Patienten mit größeren Einschränkungen noch eher von der Sinnhaftigkeit überzeugt sind. Wichtig ist, dass PatientInnen merken, dass die Daten nicht nur gesammelt werden, sondern direkt zu einer besseren Betreuung und Behandlung bei ihnen selbst führen. Welche Bedeutung hat die Ganganalyse und welche neuen technischen Hilfsmittel helfen ihnen dabei Beeinträchtigungen früher wahrzunehmen und gegenzusteuern? Der Gang ist für den Neurologen besonders wichtig. Man schaut, wie der Patient in das Behandlungszimmer läuft. Wenn man viel Erfahrung hat, sieht man als behandelnder Arzt, ob ein Patient schlechter läuft als beim letzten Mal. Bei der Ganganalyse werden an den körpernahen Extremitäten kleine Sensoren umgeschnallt (Handgelenk, Beine). Der Patient läuft dann mehrfach über einen Spezialteppich voller Sensoren und führt verschiedene Bewegungen durch. Der zeitliche Aufwand ist gering und die Daten aussagekräftig und gut vergleichbar, um bereits frühe Veränderungen zu messen. Im späteren Verlauf werden ebenfalls feinere Abstufungen gemessen, um beispielsweise die Sturzanfälligkeit besser einschätzen zu können. Die Kraftmessplatte bietet eine weitere Möglichkeit, Kraft und Gleichgewicht zu messen und das für jedes Bein extra. Untersuchungen müssen mit wenig Zeit und Aufwand durchgeführt werden und das bei jedem Patienten mindestens einmal im Jahr, ohne die Datenspeicherung zu überfordern. Dann macht es Sinn im Alltag und bringt langfristig nützliche Daten für Arzt und Patienten. Einen genauen Einblick in die Tests erhältst Du in Folge 98 mit Max zur Kraft, Ausdauer, Balance. Wie haben sich die Studien in den letzten 20 Jahren verändert? Gibt es andere Schwerpunkte oder sind neue Aspekte hinzugekommen? Viele Patienten denken bei Studien immer nur an klinische Studien zu neuen Medikamenten. Es gibt aber auch ganz viele Studien, die zu einer besseren Diagnostik beitragen. Wichtig bei einer Studie ist, dass sie immer unter den gleichen Rahmenbedingungen durchgeführt wird, egal ob es um die Dauer geht oder eine bestimmte Art der Auswertung von MRT-Bildern. Wenn man immer wieder die gleichen Rahmenbedingungen anwendet und die gleiche Fragestellung nutzt, kann man am Ende eine valide Aussage treffen, zum Nutzen einer neuen Art der MRT-Auswertung, wie gut sich Tablettests zuhause durchführen lassen, der Aussagekraft bestimmter Blutwerte, und vielen mehr. Die neue Studie zur App, um Tests zuhause durchzuführen, könnte zum Beispiel ein deutlich genaueres Bild vom Ist-Zustand wiedergeben, weil es mehr Messungen gibt, als bei einem Test, der nur alle drei Monate durchgeführt wird, wo die Tagesform viel stärker ins Gewicht fällt. Für wen und welche Art von Terminen eignet sich die Videosprechstunde am MS-Zentrum? Nicht für ein erstes Kennenlernen, aber für das Auswerten großer Datenmengen. Wenn viele Tests durchgeführt wurden, der Patient von weiter anreist, dann ist es eine gute Möglichkeit, um diese Daten auszuwerten. Die Videosprechstunde kann gut eingesetzt werden, um beispielsweise Medikamente, Nebenwirkungen, neue Symptome zu besprechen. Für simple Fragen ist es eine gute Ergänzung. Was sind Konzept und Ziel der regelmäßigen Patientenfortbildung vom MS-Zentrum Dresden? Die unterschiedlichen Bereiche aus der medizinischen Perspektive darstellen. Neuigkeiten zum MRT, aus dem neuroimmunologischen Labor und viele weitere. Denn nur der informierte Patient kann sehr bewusst Entscheidungen treffen für sein Leben und den Umgang mit der MS. Die Veranstaltung fand vor Corona in Präsenz statt. Damals bestand der Nachteil für einige Patienten darin, dass sie nicht zum eigentlichen Termin da sein konnten, bei langer Anreise oder anderweitigen Verpflichtungen. Digital ist dieses Problem gelöst und durch die Aufzeichnung, kann der Podcast auch nachgehört werden. Hier geht es zum Newsletter, um über die nächste Patientenfortbildung informiert zu werden. Wann wird das digitale Patientenportal in den Regelbetrieb gehen und was wird darin alles gebündelt sein? Parallel zur normalen Sprechstunde soll das digitale Patientenportal viel Verwaltungsaufwand übernehmen. Der Start wird voraussichtlich in 2022 sein. Es wird einige Tage vor dem Termin im MS-Zentrum einen digitalen Check-in geben. Dort kann man überprüfen, ob die Medikamente noch stimmen, ob etwas MS-Relevantes vorgefallen ist, seit dem letzten Termin und welche Untersuchungen genau anstehen. Dann findet die Untersuchung statt. Das Tool soll erkennen, wo gerade eine Station frei ist, um die Wartezeit so gering, wie möglich zu halten. Nach der Untersuchung, erfolgt 3-4 Tage später der Check-out. Dort wird zusammengefasst, was ich mit dem Arzt besprochen habe, meine Laborwerte sind verfügbar. Das alles wird in der ersten Version zu finden sein. Perspektivisch soll das Patientenportal so ausgebaut werden, dass ich als MS-Patient einen weiteren Blick in die Zukunft habe, ca. zwei Jahre und quasi einen Fahrplan erhalte, der mir zeigt, wann das nächste MRT ansteht und andere Untersuchungen, wie die Blutabnahme. Damit kann ich als MS-Patient auch abgleichen, ob alles so lief, wie geplant oder abgewandelt wurde. Das Portal soll auch Patienten zur Verfügung stehen, deren Arzt es nicht nutzt. In dem Fall trägt der MS-Patient seine Daten ein und erhält eine Übersicht, welche Untersuchungen wann Sinn machen. Was verbirgt sich hinter dem Begriff der E-Health-Gesundheitsökonomie und welche Relevanz hat er für MS-Patienten? Hier soll gezeigt werden, welche Ersparnisse es der Gesellschaft bringt, regelmäßig Sport zu machen, Physiotherapie zu erhalten oder ein Medikament zu nehmen, dass die Multiple Sklerose in Schach hält. Dadurch kann man Innovationen belohnen und unnütze Untersuchungen, Medikamente, etc. nicht länger finanzieren. Ein Beispiel ist das MRT. Jeder Radiologe bekommt die gleiche Bezahlung, egal ob die Daten keine Auswertung zulassen oder qualitativ sehr hochwertig sind. Ein hochwertiges MRT zeigt viele Details und den Verlauf der Entzündungsaktivität und des Gehirnvolumens über die Zeit. Es können MRTs miteinander verglichen werden, die zu verschiedenen Zeiten durchgeführt werden, was wiederum die Aussagekraft für den Neurologen verbessert. In Zukunft sollte das gute MRT belohnt werden und das schlechte MRT durch Druck von außen der Vergangenheit angehören. Qualität lässt sich über Kosten gut herausfiltern. Unter Medikament A gab es 20 Fehltage und unter Medikament B nur 5 Fehltage. Dann ist Medikament B offensichtlich besser und erfolgreicher. Diese Auswertung basiert selbstverständlich auf großen Datenmengen, da man so eine Aussage nie für einen Patienten alleine treffen kann. In einem Projekt werden Krankenkassendaten ausgewertet. Anhand von Ausgaben für Medikamente und Behandlungen, die in Anspruch genommen werden, kann man sehen, wie eingeschränkt ein Patient ist. Warum ist ein eigener Studiengang für Multiple Sklerose sinnvoll und wer sind geeignete Kandidaten? Geeignete Kandidaten sollten einen Hochschulabschluss haben und medizinischen Background vorweisen. Dazu gehören Ärzte, Therapeuten, Naturwissenschaftler. Man lernt die Multiple Sklerose umfassend kennen. Der Wissensaufbau erfolgt systematisch von der Entstehung der Krankheit über die Diagnostik, das Auswerten von Statistiken, über verlaufsmodifizierenden Therapien bis hin zu symptomatischen Therapien. Wie behandle ich Spastik? Wie behandle ich Schmerzen. Es gehören aber auch die ganzen rechtlichen und sozialmedizinischen Dinge dazu. Das kann sonst nur über Jahre an einem MS-Zentrum erlernt werden. Durch den Studiengang ist es neben dem Beruf innerhalb von zwei Jahren möglich. Welche Vision verfolgen sie für die Behandlung der MS-Patienten? Unsere Vision für 2030 ist der digitale Zwilling, eine digitale Datenmenge, die dem behandelnden Arzt zeigt, wie sich die Krankheit darstellt. Das bedeutet, dass wir die Krankheit in ihren verschiedenen Verläufen verstanden und erfasst haben. Der digitale Zwilling ist kein eigentlicher Zwilling vom Patienten, sondern das eine Gesicht aus den 1.000 Gesichtern, das zu mir als individuellem Patienten am besten passt und meinen voraussichtlichen Weg und das Ansprechen auf Therapieoptionen und Lebensstil inklusive Änderungen darstellt. Es ist vielmehr eine Ansammlung von Daten der Vergangenheit, die einen Blick in die Zukunft ermöglicht, ähnlich der Wettervorhersage. Und am meisten nutzt es, wenn jeder einzelne MS-Patient dieses Wissen nutzen wird, um bewusst Entscheidungen zu treffen, aber auch Handlungsoptionen zu kennen an verschiedenen Stationen in seinem / ihrem Leben. Da es sich um ein lernendes System handelt, ist es entscheidend viele Daten zu haben und weiter zu füttern, um immer bessere Voraussagen treffen zu können. Das ist dann der Schlüssel zu einer individualisierten Therapie. Beim Thema Kognition ist die Herausforderung besonders komplex, da viele Faktoren mit hinein spielen. Zukünftige Systeme werden gewiss auch diese Komplexität mit abbilden können. Verabschiedung Möchten sie den Hörerinnen und Hörern noch etwas mit auf dem Weg geben? Unterstützen sie uns bitte bei Studien. Wissenschaftliche Studien werden systematisch in allen möglichen Bereichen durchgeführt. Sie ermöglichen uns die Multiple Sklerose immer besser behandeln zu können. Dafür brauchen wir ihre Mitarbeit. Nur so können wir Innovationen voranbringen. Vielleicht empfinden sich den systematischen Ansatz manchmal als nervig, aber er bringt die Behandlung voran. Digitale Unterstützungen müssen ebenfalls getestet und überprüft werden, um zu sehen, was es bringt, was der Mehrwert ist und wie es weitergehen kann. Dabei muss es stets darum gehen, eine sinnvolle Studie durchzuführen, die am Ende dem Patienten nutzt. Wie bleibt man über alle Neuerungen am MS-Zentrum Dresden bestmöglich informiert? Hier auf MS-Perspektive reinhören, da sind wir regelmäßig mit verschiedenen Experten zu Gast und berichten über die neuesten Themen. Dann gibt es unseren eigenen Patientenpodcast, der einmal im Monat stattfindet und den gerne alle live oder später hören und sehen können, die daran interessiert sind. Die Einladungen zum Patientenpodcast werden über den Newsletter verschickt. Abonnieren lohnt sich. Bestmögliche Gesundheit wünscht dir, Nele Mehr Informationen rund um das Thema MS erhältst du in meinem kostenlosen Newsletter. Hier findest du eine Übersicht zu allen bisher veröffentlichten Podcastfolgen.
In diesem Video wollen wir uns einmal anschauen, wie man eine Liste mit benutzerdefinierten Werten erstellen kann, die man hier als Einstellungen für den Expert Advisor auswählen kann, ohne dass der Benutzer das Programm neu Kompilieren muss. Also lassen Sie uns einmal schauen, wie man so etwas in MQL5 programmieren kann. Um das zu tun, klicken Sie bitte hier oben auf dieses kleine Symbol oder drücken Sie die F4 Taste auf Ihrer Tastatur. Das ruft hier dann den Metaeditor auf. Und hier klicken wir auf Datei, Neue Datei, Expert Advisor aus Vorlage, Weiter. Ich vergebe hier den Namen SimplerMultipleInput, klicke auf Weiter, Weiter und Fertigstellen. Jetzt kann alles oberhalb dieser OnTick Funktion hier gelöscht werden. Und auch die zwei Kommentarzeilen werden entfernt. Wir starten damit, dass wir uns hier eine Liste mit Einstiegssignalen erstellen. Dazu nutzen wir enum. Wenn man das markiert und die F1 Taste drückt, dann sehen wir, es handelt sich hier sogenannte Enumerationen. Das ist eine begrenzte Datenmenge. Zum Beispiel zwölf Monate. In unserem Fall möchten wir aber statt der Monate die entsprechenden Einstiegsmöglichkeiten verwenden. Und wir weisen hier jedem Einstieg gleichzeitig auch noch eine Zahl zu, denn auch das ist möglich. Danach erstellen wir eine Instanz von unserer Liste. Die bekommt den Namen Choice. Und mein Anfangswert soll hier ein zufälliger Einstieg sein, also RANDOM. Ich möchte das Ganze aber auch gerne etwas lesbarer gestalten. Und darum brauche ich eine zusätzliche Variable für den Einstieg als Textkette. Und in der OnTick Funktion setzen wir jetzt das Einstiegssignal. Das lässt sich ganz einfach machen, indem wir hier auf den Wert für Choice prüfen. Und wenn Choice den Wert null hat, dann setzen wir unsere string Variable Entry hier auf den Wert RANDOM. Das Ganze wiederholen wir dann noch für die anderen Einstiegssignale. Und damit wir auch etwas sehen, fügen wir hier unten noch eine Comment Ausgabe hinzu. Die wird uns auf dem Chart die Werte für Entry und Choice ausgeben. Man könnte das Ganze jetzt hier weiter ergänzen und je nachdem, welchen Wert der Benutzer auswählt, bestimmte Funktionen aufrufen. In diesem kurzen Video soll es aber nur darum gehen, dass man so eine Enumerationsliste überhaupt nutzen kann. Und das war es auch schon so weit. Wenn Sie keine Ahnung haben, wofür alle diese Codezeilen hier gut sind oder wenn Ihnen das zu schnell ging, dann möchten Sie sich vielleicht zunächst eines der anderen Videos aus dieser Grundlagenserie noch einmal anschauen. Vielleicht ist auch der Premiumkurs interessant für Sie. Den finden Sie auf unserer Webseite. Und dort gibt es jetzt auch für diese Quelltexte hier Angebote zu diesen Basiskursvideos. Für den Moment klicken wir mal auf Ansicht und blenden die Werkzeugleiste ein. Hier klicken wir dann auf Kompilieren oder drücken die F7 Taste. Das sollte ohne Fehler funktionieren. Und wenn das bei Ihnen auch so ist, dann können Sie jetzt hier oben klicken oder mit der F4 Taste in den Metatrader zurückkehren. Im Metatrader öffnen wir ein neues Chartfenster. Hier wählen wir jetzt die neu erstellte Datei SimplerMultipleInput aus, ziehen sie auf das Live Chart. Und wie man sieht, kommt hier direkt die Box mit den Einstellungen hoch. Diese Einstellungen können wir jetzt hier setzen. Und wenn wir auf Okay klicken, dann sehen wir auf dem Chart die Ausgabe. Wir haben den EMA gewählt und das ist die Auswahlnummer eins. Jetzt wiederholen wir das Ganze nochmal, bestätigen mit Ja. Diesmal wähle ich hier ADX aus und klicke auf Okay. Und sobald die nächste Preisänderung hereinkommt sehen wir: der Entry steht auf ADX, Choice hat den Wert drei. Man kann das Ganze auch mit der F7 Taste wieder aufrufen und hier einen anderen Wert setzen. Das war übrigens wieder eine Idee von einem Premiumkurs Mitglied. Und wenn Sie bereits Premiumkurs Mitglied sind und eine Idee für so ein Video haben, dann schreiben Sie mir doch einfach ein E-Mail.
BarabásiLab. Hidden Patterns. Network Thinking | Guided tour [30.04.2021] The exhibition »BarabásiLab. Hidden Patterns« introduces the work of the physicist and network scientist Albert-László Barabási and his research laboratory. The focus of the exhibition is the development of network visualization over the past 25 years, which can be seen in the projects of BarabásiLab. The world today produces more data per day than previously generated in a decade. The world's knowledge doubles every two years. To cope with this amount of data, a new science is needed: the visualization of characteristic nodes and networks, of parameters and patterns. /// Die Ausstellung »BarabásiLab. Hidden Patterns« stellt die Tätigkeit des Physikers und Netzwerkwissenschaftlers Albert-László Barabási und seines Forschungslabors vor. Der Fokus der Ausstellung liegt hierbei auf der Entwicklung der Netzwerk-Visualisierung innerhalb der letzten 25 Jahre, die sich anhand der Projekte des BarabásiLabs ablesen lässt. Die aktuelle Welt produziert so viele Daten pro Tag wie zuvor nicht in Jahrzehnten. Das Wissen der Welt verdoppelt sich alle zwei Jahre. Um diese Datenmenge bewältigen zu können, bedarf es einer neuen Wissenschaft: die Visualisierung von kennzeichnenden Knoten und Netzen, von Parametern und Mustern.
„BI kann in jedem Unternehmen gewinnbringend eingesetzt werden, z. B. um zu verstehen, wo man derzeit steht, Erfolge und Fortschritte zu überwachen, aber auch um neue Potenziale zu entdecken.“ Mit unserem Gast Tobias Löwenthal, Geschäftsführer der 4EBIT GmbH, sprechen wir über Business Intelligence (BI). Er erklärt in der Folge, warum Unternehmen einen großen Datenschatz haben und wie sie mithilfe dieser Daten bessere Entscheidungen im Einkauf treffen. Wie verschafft man sich einen ersten Überblick über die Datenmenge? Wie starten Einkaufsverantwortliche am besten ein BI-Projekt? Für diese und weitere Fragen rund um das Thema BI in der Beschaffung stand uns der Experte Rede und Antwort.
Laut IDC wird die weltweit generierte Datenmenge von geschätzten 33 Zettabyte im Jahr 2018 auf 175 Zettabyte im Jahr 2025 steigen. Schon heute sind die Daten der Unternehmen weit verstreut, mit steigender Tendenz. Warum kommt es zur Datenfragmentierung, was sind die Folgen, was kann man dagegen tun? Das Interview von Oliver Schonschek, Insider Research, mit Wolfgang Huber von Cohesity liefert Antworten.
Was dem Leben dient - Die Ethik der Biophilie für Entscheiden und Handeln
Täglicher Auszug aus dem Buch ''Was dem Leben dient - Die Ethik der Biophilie für Entscheiden und Handeln'' von Rupert Lay. Eine Zusammenstellung aus den 49 Büchern von Prof. Dr. Rupert Lay SJ gibt es in 8 Themenfeldern meist kurze, gut verständliche Schlüsselpassagen, die seine vielfältige biophile Philosophie und Ethik spiegeln. - Sprecher: Erich Ruhl-Bady
Künstliche Intelligenz, die so genannte KI, ist eines der Buzzwords unserer Zeit. Künstliche Intelligenz basiert auf dem Prinzip des Machine Learnings. Die Basis dafür ist eine große Datenmenge. KI sammelt, ordnet und analysiert riesige Datenmengen und stellt nicht nur den Datenschutz, sondern auch Unternehmen vor große Herausforderungen. Denn Fakt ist: Ob wir wollen oder nicht – Künstliche Intelligenz ist auf dem Vormarsch. Welche Daten sollten wir preisgeben? Wie viel Datenschutz ist gesund für die Wirtschaft? Und was steckt überhaupt hinter dem Buzzword KI? Antworten auf diese Fragen geben Mona Wrobel, IT-Anwältin im Bereich Technology, Media & Telecoms sowie Expertin für Datenschutz, und Behrang Raji, Referent bei dem Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit.
Thomas Blobel arbeitet an der TU München am Lehrstuhl für Trainingswissenschaft und Sportinformatik. Er forscht und lehrt seit 12 Jahren im Bereich von Sport-Informationssystemen (SIS), basierend auf Architekturkonzepten von BI-Systemen. Hierbei nutzte er verschiedene BI-Tools (u.a. Qlik View) zur Darstellung der Daten (u.a. Positionsdaten, medizinische Daten, leistungsdiagnostische Daten) und analysiert die verschiedenen SIS-Anbieter. Zudem arbeitet er seit acht Jahren für verschiedene Vereine im Profifußball. Zuletzt in der Datenaufbereitung beim FC Ingolstadt. Dort betreute er u.a. die Einführung des SAP SportsOne Systems, die Zusammenführung der verschiedenen Datenquellen im Verein und bereitete die Daten in der Analytics Cloud auf. In dieser Folge erklärt uns Thomas, wie Fußball und Business Intelligence zusammenfinden. Wir sprechen darüber, wer im Verein eigentlich Dashboards nutzt, wie die derzeitige Entwicklung aussieht und ob zukünftig Spielsysteme allein anhand von Daten erstellt und datenbasierte Spielentscheidungen getroffen werden. Welche Kennzahlen, Reportings und architektonische Aufstellungen gibt es in Fußball-Vereinen und verpasst man eventuell die Ausnahmen, wenn man stets einer angepassten Datenmenge vertraut? Wir fragen uns, was klassische Unternehmen von Fußball-Vereinen lernen können und welche Maßnahmen Fußball-Vereine ergreifen können, um datenlastiger zu werden.
Harmonie in Beziehungen - Persönlichkeitsentwicklung und Konfliktlösung
Weißt Du, welche Datenmenge an Informationen pro Sekunde durchschnittlich auf den menschlichen Organismus einströmt? Oder auch, wie viel davon der Mensch in der Lage ist, bewusst zu verarbeiten? Oder welchen Einfluss diese Informationen auf unser Leben haben? Was hat das mit der Geschichte zu tun, die keiner hören will? Und überhaupt, welche Geschichte will keiner hören? Und wie wirkt unsere Wahrnehmung darauf ein? Vielleicht interessiert Dich aber auch einfach nur, was Du tun kannst, wenn Du für die Menschen in Deinem Umfeld immer nur als Kummerkasten fungierst. Erfahre in dieser Podcast- Folge die Antworten auf diese Fragen. Damit Du lernst, wie Du Deine Geschichte verändern kannst, hat Randolph mit sehr viel Herzblut ein Webinar für Dich geschaffen: https://randolphmorenosommer.com/webinar/
Transfer Learning kommt mit einer deutliche kleineren Datenmenge aus, als andere Maschine Learning Ansätze. Christian "Chris" Rusche von BSI erklärt uns, was das für kleinere Organisation bedeutet und wie diese sich anpassen müssen. IIII
Über das neue 5G-Netz können Daten bis zu 100-mal schneller übertragen werden. Was unterscheidet 5G von den bisherigen Mobilfunkgenerationen. Welches Potenzial hat die Technologie. Und wie gefährlich ist das ultraschnelle Netz? «Einstein» zu Chancen und Risiken des neuen Mobilfunkstandards 5G. Die Mobilfunkgeneration 5G gilt als Netz der Superlative: Die Ladezeiten beim Streamen und Downloaden verkürzen sich extrem. Zudem ermöglicht die Technik, mehr Daten mit weniger Strahlung zu verschicken – die mobil übertragene Datenmenge verdoppelt sich jedes Jahr. Und die Schweizer Anbieter geben Gas. Die Schweiz liegt im Ausbau von 5G weltweit an vorderster Front. Doch der weitere Ausbau ist wegen der im internationalen Vergleich strengen Schweizer Grenzwerte schwierig. Aber der rasante Aufbau von 5G wirft hohe Wellen: «Stop 5G» heisst es bei den Gegnerinnen und Gegnern. Ihre Angst vor 5G ist gross. Sie warnen vor möglichen gesundheitlichen Folgen der elektromagnetischen Strahlen. In vielen Gemeinden regt sich der Widerstand, und Anwohner wehren sich mit Einsprachen gegen neue Antennen. Und auch wegen des strengen Grenzwertes gestaltet sich der weitere Ausbau von 5G als schwierig und teuer. Die Anbieter würden die Grenzwerte für Mobilfunkantennen deshalb gerne erhöhen. Doch welche Konsequenzen hätten gelockerte Grenzwerte und damit eine grössere Strahlenbelastung? Was weiss die Wissenschaft heute über die Gefahren der Mobilfunkstrahlung? «Einstein» sucht nach Antworten zu den brennendsten Fragen.
Über das neue 5G-Netz können Daten bis zu 100-mal schneller übertragen werden. Was unterscheidet 5G von den bisherigen Mobilfunkgenerationen. Welches Potenzial hat die Technologie. Und wie gefährlich ist das ultraschnelle Netz? «Einstein» zu Chancen und Risiken des neuen Mobilfunkstandards 5G. Die Mobilfunkgeneration 5G gilt als Netz der Superlative: Die Ladezeiten beim Streamen und Downloaden verkürzen sich extrem. Zudem ermöglicht die Technik, mehr Daten mit weniger Strahlung zu verschicken – die mobil übertragene Datenmenge verdoppelt sich jedes Jahr. Und die Schweizer Anbieter geben Gas. Die Schweiz liegt im Ausbau von 5G weltweit an vorderster Front. Doch der weitere Ausbau ist wegen der im internationalen Vergleich strengen Schweizer Grenzwerte schwierig. Aber der rasante Aufbau von 5G wirft hohe Wellen: «Stop 5G» heisst es bei den Gegnerinnen und Gegnern. Ihre Angst vor 5G ist gross. Sie warnen vor möglichen gesundheitlichen Folgen der elektromagnetischen Strahlen. In vielen Gemeinden regt sich der Widerstand, und Anwohner wehren sich mit Einsprachen gegen neue Antennen. Und auch wegen des strengen Grenzwertes gestaltet sich der weitere Ausbau von 5G als schwierig und teuer. Die Anbieter würden die Grenzwerte für Mobilfunkantennen deshalb gerne erhöhen. Doch welche Konsequenzen hätten gelockerte Grenzwerte und damit eine grössere Strahlenbelastung? Was weiss die Wissenschaft heute über die Gefahren der Mobilfunkstrahlung? «Einstein» sucht nach Antworten zu den brennendsten Fragen.
IT Manager Podcast (DE, german) - IT-Begriffe einfach und verständlich erklärt
Diese Folge wird unterstützt von Blinkist. Unter blinkist.de/itmanager erhaltet ihr 25% auf das Jahresabo Blinkist Premium. Heute dreht sich alles um das Thema: „Was ist eigentlich eine Bandbreite?” Zunächst einmal müssen Sie wissen, dass der Begriff "Bandbreite" in zwei verschiedenen Kontexten verwendet werden kann: In digitalen Systemen wird der Begriff Bandbreite oft als Synonym für die Übertragungsgeschwindigkeit oder die Übertragungskapazität verwendet. Die synonyme Verwendung der Begriffe geht auf den Zusammenhang zwischen Bandbreiten und Übertragungsraten zurück. Die Bandbreite stellt einen wichtigen Faktor dar, wenn es darum geht, die Qualität und Geschwindigkeit eines Netzwerks zu bestimmen. Die kleinste Übertragungsrate ist das Bit, weshalb die Datenübertragungsrate häufig auch als Bitrate (Einheit Bit Pro Sekunde - Bit/s) bezeichnet wird. Da heutige Netzwerke jedoch in der Regel eine viel größere Bandbreite haben, die sich mit so einer kleinen Einheit nicht gut wiedergeben lassen, sind die Angaben Megabits pro Sekunde MBits , Gigabits pro Sekunde GBits oder Terabits pro Sekunde TBits geläufiger. Sie können sich die Bandbreite auch als Wasserfluss durch ein Rohr vorstellen. Dabei ist die Bandbreite die Geschwindigkeit, mit der das Wasser sprich die Daten bei verschiedenen Bedingungen durch das Rohr, als die Verbindung, fließt. Anstelle von Bits pro Sekunde misst man jetzt Liter pro Minute. Während größere Rohre mehr Wasser liefern, fließt durch kleinere Rohre eine geringere Menge. Somit stellt die Wassermenge, die potenziell durch das Rohr fließen kann, die maximale Bandbreite dar, während die Wassermenge, die gegenwärtig durch das Rohr fließt, die aktuelle Bandbreite wiedergibt. Allerdings stammt der Begriff Bandbreite ursprünglich aus den Bereichen Physik und Signaltechnik. Dort bezeichnet er eine Spanne innerhalb eines Frequenzbereichs. Diese Spanne, auch Frequenzbereich genannt, wird durch eine obere und untere Grenzfrequenz bestimmt, in dem ein Signal übertragen wird. Grundsätzlich besitzt jeder Übertragungskanal infolge seiner physikalischen Eigenschaften eine untere und eine obere Grenzfrequenz. Je größer die Bandbreite, desto mehr Informationen lassen sich pro Zeiteinheit übertragen. In analogen Systemen wie Telefon oder Radio, wird die Bandbreite in Hertz (Hz) bzw. in Kilohertz (KHz) oder Megahertz (MHz) gemessen. So weist beispielsweise ein analoges Telefon eine untere Grenzfrequenz von 300 Hz und eine obere Grenzfrequenz von 3400 Hz. Daraus ergibt sich die Bandbreite von 3100 Hz, was für eine Übermittlung von Sprachdaten völlig ausreicht. Aber wie viel Bandbreite ist eigentlich erforderlich? Die durchschnittliche Bandbreite eines Internetanschluss in Deutschland liegt derzeit bei etwa 15 Megabit pro Sekunde (Mbit/s). Über moderne VDSL oder Kabelanschluss-Zugänge lässt sich eine Bandbreite von bis zu einigen hundert Megabit pro Sekunde (Mbit/s) erzielen. An einem Glasfaser-Anschluss ist die mögliche Bandbreite noch einmal deutlich höher, auch mehr als 1 Gigabit pro Sekunde (Gbit/s) sind problemlos möglich. Welche Bandbreite für die die Bedürfnisse eines Nutzers sinnvoll ist, hängt grundsätzlich davon ab, wofür die Übertragungskanäle genutzt werden. Beispielsweise erfordern das Streamen von Filmen in HD-Qualität, HD-Videokonferenzen und Multiplayer-Online-Spiele in HD eine höhere Bandbreite als das Webbrowsen, Streamen von Musik oder das abrufen von E-Mails. Je nach Übertragungsmedium und Übertragungstechnologie existieren typische Bandbreiten. Diese sind bei analogen Systemen beispielsweise: analoge Telefonie mit 3.400 Hertz, Integrated Services Digital Network, kurz ISDN, mit circa 130 Kilohertz, 10-Megabit-Ethernet mit circa 30 Megahertz Asymmetric Digital Subscriber Line-Anschlüsse, kurz ADSL mit circa 1,1 Megahertz und in digitalen Systemen Integrated Services Digital Network, kurz ISDN mit 64 kbit/s je Kanal, Ethernet mit 10, 100 oder 1.000 Mbit/s, Die Weiterentwicklungen der Asymmetric Digital Subscriber Line-Anschlüsse, kurz ADSL2+ mit bis zu 25 Mbit/s im Download Kommen wir zur nächsten Frage: Warum wird eigentlich die Bandbreite gemessen und wie? Grundsätzlich ist eine Messung der Bandbreite dann nötig um sicherzustellen, dass kostenpflichtige Verbindungen auch das leisten, was sie versprechen. Das gilt für private Nutzer und Unternehmen gleichermaßen. Private Nutzer können mithilfe eines Online-Bandbreitentest herausfinden, ob der vom Internetdienstanbieter berechnete Anteil der Verbindung, tatsächlich genutzt werden kann. Unternehmen hingegen, können den Durchsatz zwischen Büros messen, die mit einer von der Telefongesellschaft geleasten Leitungsverbindung verbunden werden. Für gewöhnlich erfolgt die Messung der Bandbreite mithilfe von Software oder Firmware und einer Netzwerkschnittstelle. Zu den üblichen Hilfsprogrammen für die Bandbreitenmessung zählen der Test TCP kurz TTCP und der PRTG Netzwerk Monitor. Beim TTCP wird der Durchsatz in einem IP-Netzwerk zwischen zwei Hosts gemessen. Ein Host ist der Empfänger, der andere der Sender. Jede Seite zeigt die Anzahl der übertragenen Bytes und die Zeit an, die jedes Datenpaket für die Übertragung in einer Richtung braucht. Beim PRTG wird eine grafische Oberfläche und Diagramme zur Messung von Bandbreitentrends über längere Zeiträume bereitgestellt, wobei man den Datenverkehr zwischen unterschiedlichen Schnittstellen messen kann. In der Regel wird zur Messung der Bandbreite die gesamte Datenmenge gezählt, die während eines bestimmten Zeitraums gesendet und empfangen wurde. Die resultierenden Messgrößen werden dann als Zahl pro Sekunde ausgedrückt. Eine weitere Methode zur Messung der Bandbreite besteht darin, eine Datei oder mehrere Dateien bekannter Größe zu übertragen und zu messen, wie lange die Übertragung dauert. Das Ergebnis wird in Bit/s konvertiert, indem die Größe der Dateien durch die für die Übertragung erforderliche Zeit geteilt wird. Diese Methode wird in den meisten Tests der Internetgeschwindigkeit verwendet, um die Verbindungsgeschwindigkeit eines Computers mit dem Internet zu ermitteln. Allerdings ist an dieser Stelle erwähnenswert, dass in echten Netzwerken die Bandbreite mit der Zeit je nach Nutzungs- und Netzwerkbedingungen variiert. Infolgedessen sagt eine einzelne Bandbreitenmessung sehr wenig über die tatsächliche Bandbreitennutzung aus. Eine Reihe von Messungen kann nützlicher sein, wenn Durchschnittswerte oder Trends bestimmt werden sollen. Bevor wir nun zum Schluss unseres heutigen Podcast kommen, möchte ich noch ganz kurz auf den Unterschied Bandbreite und Durchsatz eingehen. Durchsatz und Bandbreite sind Begriffe, die die Fähigkeit eines Geräts zum Übertragen von Daten in einem Netzwerk beschreiben. Der Hauptunterschied zwischen Durchsatz und Bandbreite ist, das sich die Bandbreite auf die maximal mögliche Geschwindigkeit bezieht, mit der ein Gerät Daten übertragen kann, wohingegen der Durchsatz sich auf die tatsächliche Geschwindigkeit bezieht, mit der ein Gerät zu einem bestimmten Zeitpunkt Daten überträgt. So liebe IT Profis, das wars auch schon für heute vom IT Manager Podcast, ich hoffe es hat Ihnen gefallen – wenn ja freue ich mich wie immer sehr über ein Like auf Facebook und eine fünf Sterne Bewertung bei iTunes. Nächste Woche Freitag gibt es dann natürlich wieder eine neue Folge des IT Manager Podcasts. Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail. Kontaktdaten finden Sie in unseren Show-Notes oder auf unserer Website.
Unternehmen setzen auf Design Thinking, um ihre Produkte und Dienstleistungen näher am Nutzer auszurichten. Das Human Centered Design (HCD) Team der Swisscom gilt europaweit als DAS Beispiel, wie Design Thinking ein Unternehmen transformieren kann. Im InnoPodcast erzählt Christina Taylor, Gründerin und ehemalige Leiterin des HCD-Teams, wie sie die menschenzentrierte Entwicklungsweise bei der Swisscom förderte, über Gratwanderungen im Konzern und warum sich ihre Hartnäckigkeit ausbezahlt hat. Durch ihr Schaffen hat sich die alltägliche Arbeitsweise bei der Swisscom verändert. So führte Swisscom beispielsweise als erstes Unternehmen eine kundenzentrierte Preisstruktur, die Verrechnung nach Geschwindigkeit statt nach Datenmenge, ein. Nach innen gerichtet, hatte Christina grossen Einfluss darauf wie Projektteams, sogenannte «Dreamteams», zusammengestellt wurden. Auch gelang es ihrem HCD-Team die durchschnittliche Entwicklungszeit von neuen Angeboten von 24 auf 9 Monate zu senken. Christina Taylor ist Managing Partner und Mitinhaberin der Creaholic SA in Biel, einer Schweizer Innovationsfabrik. Christinas Erfahrung reicht von der Telekommunikationsbranche (Swisscom) bis hin zu Non-Profit-Organisationen. Sie hat fünf Jahre lang im Silicon Valley am Outpost von Swisscom gearbeitet und ihr Wissen über visionäres Entrepreneurship und Human Centered Design in die Schweiz gebracht. ***** Viel Spass beim Hören der neunten Folge des #InnoPodcasts. Ihr findet uns überall, wo es Podcasts gibt. Folgt unserem Kanal auf Spotify und iTunes. Teilt diese Folge in euren Netzwerken und schickt uns euer Feedback zum Podcast gerne als Kommentar oder via E-Mail an espacelab@post.ch. ***** Ihr findet die Post auch hier: Instagram http://instagram.com/swisspost Facebook http://facebook.com/swisspost Twitter http://twitter.com/postschweiz LinkedIn http://www.linkedin.com/company/swiss-post/ Xing http://www.xing.com/companies/dieschweizerischepost Website http://www.post.ch/ ***** 01:25 – Wer ist der Mensch Christina Taylor? 03:03 – Was ist Human Centered Design (HCD)? 07:40 – Sinn & Zweck von HCD bei der Swisscom 16:20 – Wie man Dreamteams (auf)baut 21:00 – Wer überlebt in der Transformation? 28:18 – Rolle von einem Co-Creator 30:43 – Learnings bei der Gratwanderung im Konzern 42:50 – Blick auf die Schweizerische Post 47:14 – Outro und Message ans EspaceLab
Gut – besser – optimal Optimierung, besser gesagt Selbst-Optimierung ist ein wichtiger Trend unserer heutigen Zeit. Alle unsere Aktionen und Funktionen wollen wir überwachen, messen, kontrollieren. Für alles gibt es ein Programm, eine App, ein Internet-Angebot. Zehntausend Schritte am Tag sollen es mindestens sein, darüber wacht unsere Smart-Watch. Puls und Blutdruck werden dabei gleich mitgemessen. Das Gewicht muss selbstverständlich im Rahmen bleiben, und wenn es mal nicht klappt, dann bekommen wir Motivation und Begleitung von einem Internet-Coach, der sich mit Ernährung und Sport auskennt. Wir erhalten täglich eine Erinnerung unsere Grammatikübungen in der Fremdsprachen-App nicht zu vergessen und wer beim Aufräumen und Putzen überfordert ist, lässt sich durch eine Haushaltsorganisations-App unterstützen. Auf die Frage am Morgen: „Hast du heute Nacht gut geschlafen?“ war vor zehn Jahren noch die stereotype Antwort: „Ja, danke!“ oder „Nein, grauenvoll!“. Heute sagt der Gefragte nach einem Blick auf sein Handy:“63 Prozent.“ All das ist reizvoll und interessant, das ist klar, aber zwanghaft sollte es nicht werden. Und was mit der gigantischen Datenmenge passiert, die wir solchermaßen produzieren, das ist sowieso noch eine ganz andere Frage. --> https://wp.me/P7ElV2-mG
Datenschutz-Grundverordnung und Tipps für die Praxis. STEUERAFFE - das ist der ultimative Tax-Podcast, der sich mit steuer- und arbeitsrechtlichen Fragen beschäftigt und diese von Experten auf einfache und verständliche Weise beantworten lässt. Im 4. Teil zum Thema DSGVO wird euch unser Experte DI Markus Liebeg wertvolle Tipps für die Praxis mit auf dem Weg geben. Mehr dazu findet ihr auch unter www.steueraffe.at
Willkommen beim 2. Teil zum Thema DSGVO (Datenschutz-Grundverordnung. STEUERAFFE - das ist der ultimative Tax-Podcast, der sich mit steuer- und arbeitsrechtlichen Fragen beschäftigt und diese von Experten auf einfache und verständliche Weise beantworten lässt. Was ihr im 2. Teil zu hören bekommt sind Informationen rund um die Themengebiete Aufbewahrungspflicht und Informationsauskunft. Unser Experte DI Markus Liebeg gibt euch eine Antwort auf die Frage, wie man Datensätze DSGVO-gerecht löscht und was es dabei zu beachten gibt.
Fast jeder von uns hat ein Smartphone. Aber noch lange nicht jeder hat seinen digitaler Datenfriedhof im Griff und kann sagen, dass er sein Smartphone minimalisiert hat. Minimalismus auf dem Smartphone ist sicher nicht einfach, aber es nützt auch nichts, jedes neue Smartphone eine Nummer grösser zu kaufen, nur weil wir die gespeicherte Datenmenge nicht im Griff haben. Heute reden wir über die minimale Nutzung unseres täglichen, digitalen Begleiters, dem Smartphone.
Wer ist eigentlich von der DSGVO betroffen? Was sind personenbezogene und sensible Daten? STEUERAFFE - das ist der ultimative Tax-Podcast, der sich mit steuer- und arbeitsrechtlichen Fragen beschäftigt und diese von Experten auf einfache und verständliche Weise beantworten lässt. Im ersten Teil zum Thema DSGVO liefert uns DI Markus Liebeg eine Antwort auf die Frage, wer eigentlich von der Datenschutz-Grundverordnung betroffen ist. Mehr dazu findet ihr auch unter www.steueraffe.at
Dass Bilder in vielen Fällen einen großen Teil der Datenmenge moderner Webseiten ausmachen, ist allseits bekannt. Es ist jedoch oftmals nicht ausreichend, wenn die Bilder nur über die Photoshop Funktion „Für Web speichern…“ gesichert und... Ähnliche Artikel: WordPress Performance-Optimierung an einem Praxis-Beispiel Google gegen SEO Piwik Analytics
Staatsanwälte fühlen sich überlastet: es fehle an Personal und zeitgemäßer Technik. Um an Beweise zu kommen müssen sie teils riesige Datenmengen auswerten. Doch dazu fehlt die Zeit. Hinter vorgehaltener Hand sprechen sie vom Notstand in der Justiz – mit weitreichenden Konsequenzen. >> Artikel zum Nachlesen: https://detektor.fm/gesellschaft/ist-das-gerecht-ueberlastete-justiz
In der letzten Folge unseres Podcastes habe ich darüber erzählt, wie das Geschäftsmodell eines selbständigen oder freiberuflichen IT Projektmanagers funktioniert, welche Rolle Bodyleasing Firmen dabei spielen, warum konstantes Lernen und Wachsen so wichtig ist und was ich dafür tue, um meine Auftraggeber zu begeistern. In der Summe führen all diese Maßnahmen bei uns dazu, dass wir seit nunmehr 20 Jahre erfolgreich am Markt sind und wir die größten deutschen Unternehmen und Behörden zu unseren Kunden zählen dürfen. Das gelingt mir freilich nicht immer und ich will mit dem was ich erzähle auch nicht behaupten dass ich alles besser weiß und Ihr wie ein Kochrezept alles einfach nur so nachmachen müsst und dann sind Eure Auftragsbücher voll. Ich möchte Euch Ideen und Anregungen geben und wenn Ihr in jedem Podcast nur eine Idee mitnehmt die Euch weiter bringt, dann hat sich das Hören dieser Folge schon wieder gelohnt. Also damit nochmal zusammenfassend ein Fazit zur letzten Folge: Sie sind Ihr wichtigstes Produkt im Unternehmen, Weiterbildung ist unabdingbar Und das kann harte Arbeit an sich selbst sein. Eine Arbeit die man leisten muss, wenn man sich von der Masse abheben will. Dafür ist beständige Weiterbildung und Training notwendig. Leider kostet Weiterbildung nicht nur Geld, sondern konkurriert in der Regel auch mit dem produktiven Projekteinsatz. Ein Tagesseminar kostet im Schnitt etwa 1000€. Hinzu kommt der Ausfall an Einnahmen für diesen Tag. Darüber hinaus, verlangt der Auftraggeber häufig die 100% Verfügbarkeit. Er verlangt, dass der externe Mitarbeiter bereits weitergebildet ist und er nicht noch im laufenden Projekt dafür auf seine wertvolle Arbeit verzichten muss. Ein System, das mir das alles abnimmt… Wie in der Folge 1 unsers Podcasts erwähnt, bin ich in diesem Geschäft bereits seit 1993. Seither mache ich IT Projekte. Irgendwann ist mir dabei selbst aufgefallen, dass ich es seit Jahren schaffte, von einem Projekt ins nächste zu wechseln. Ohne auch nur einen Tag ungewollten Leerlauf. Dass das nicht unbedingt üblich ist, sah ich bei vielen meiner Kollegen. Einige konnten mit der Situation ohne Auftrag dazustehen gar nicht umgehen und wechselten in eine Festanstellung. Andere verloren tatsächlich dabei sogar das eigene Haus. Ich begann zu überlegen was ich anders machte und irgendwann begann ich es aufzuschreiben. Oberflächlich betrachtet waren alles erstmal nur Kleinigkeiten. Aber die Summe der Dinge die ich schon immer anders machte, macht es aus! Betrachtet man unser Business mit etwas Distanz haben wir als externe IT Projektmanager, genau wie alle anderen externen Berater, im Wesentlichen die folgenden Probleme: • Wie finde ich, möglichst ohne Leerlaufzeit einen Anschlussauftrag? • Weiterbildung ist unverzichtbar, aber neben den Seminargebühren kostet sie auch den Ausfall des Tageseinkommens. Wie soll ich das machen, wenn ich die ganze Zeit über bei meinem Kunden Vorort bin? • Wie schaffe ich es, mich als Person zu einer Marke zu machen? • Macht Werbung und Marketing für mich Sinn, wenn ich über Monate ausgebucht bin, und in der Regel noch nicht einmal verlässlich sagen kann ab wann ich wieder verfügbar bin? • Networking mit Unternehmen, Bodyleaser und Kollegen ist elementar wichtig. Wie soll ich das machen, wenn ich im Kundenprojekt eingespannt bin? • Muss ein Anteil der Provision an einen Vermittler, Recruiter oder Bodyleaser abgegeben werden? • Wie sichere ich mich und meine Leistungen auf bezahlbare weise vor Risiken ab? Heute schreiben wir den 18. Dezember 2014. Im Jahr 1993 habe ich meine Firma gegründet und ich sage nicht ganz ohne Stolz, dass ich in dieser Zeit gerade einmal 3 Wochen am Stück ohne Auftrag war. Vor 3 Jahren ist meine Frau Sandra Haberer als IT Projektmanagerin mit in unser Unternehmen eingestiegen. Als auch bei ihr und unseren danach eingestellten IT Projektmanagern unser System auf Anhieb funktionierte begannen wir darüber nachzudenken, unser Wissen und unsere Erfahrung an andere IT Projektmanager weiter zu geben. Seit nunmehr einem Jahr arbeiten wir intensiv an der „Bundesvereinigung IT Projektmanagement“ und freuen uns damit zum 15. Dezember 2015 offiziell an den Start zu gehen. Als Partner der Bundesvereinigung IT Projektmanagement stehen Ihnen nicht nur eine Vielzahl von IT Projektmanagement Profis zur Seite, sondern Sie profitieren von einem System das von Praktikern für Praktiker geschaffen wurde. Unsere Partner stehen für Qualität und Professionalität im IT Projektmanagement. Unsere Partner sind IT Projektmanagement Assistenten, IT Projektleiter, IT Programmmanager, IT Teamleiter, Projektcontroller, Qualitätssicherer und alle anderen die mit Projektmanagementaufgaben betraut sind, oder im Projektmanagement unterstützen. Das bedeutet, dass nicht nur selbständige IT Projektmanagementdienstleister von einer Partnerschaft profitieren, sondern vor allem auch angestellte IT Projektmanager. Denn bei unseren Inhalten bündelt sich Praxiserfahrung wie sonst kaum irgendwo. Eine Partnerschaft in der Bundesvereinigung IT Projektmanagement steht für Kompetenz, Effizienz und Seriosität im IT Projektmanagement. Werden wir konkret: • Profil Distribution o Im Laufe unserer beruflichen Praxis über viele Jahrzehnte hinweg haben wir eine Datenbank mit Unternehmen, die externe IT Projektmanager beschäftigen geschaffen. In dieser Datenbank verwalten wir auch Recruiting und Bodyleasingfirmen in Deutschland, Österreich und der Schweiz. Als Bundesvereinigung IT Projektmanagement kümmern wir uns um die maximale Verbreitung und Aktualität der Profile unserer Partner und bewerben diese bei Ihren potenziellen Auftraggebern. o Endlich haben Sie einen Hebel mit echter Durchschlagskraft. Mit wenigen Klicks setzen Sie sich auf „Verfügbar“ und lösen damit einen Prozess aus, der Hunderte von Unternehmen Recruiter und Bodyleaser darüber informiert dass Sie zur Verfügung stehen. • Wir werben für Ihre Leistungen o Die Profile unserer Partner sind über unser Portal nach vorheriger Anmeldung einsehbar und direkt (!) kontaktierbar und beauftragbar! Die Bundesvereingigung IT Projektmanagement schaltet sich nicht automatisch als Vermittler zwischen Auftraggeber und IT Projektmanager. Unsere Aufgabe ist es, Sie für den Markt so attraktiv wie möglich zu machen. Ihr Profil ist für den Markt also vollkommen transparent und Sie können sowohl von Bodyleasern, als auch von Unternehmen direkt kontaktiert werden. o In Ihrem Profil legen Sie Stärken an, für die Sie sich auszeichnen. Ihre Stärken können von früheren Auftraggebern nach einem „5 Sternchen Rating“ bestätigt werden. Das ist praxisorientierte Qualitätssicherung. o Als Mitglied in der Bundesvereinigung IT Projektmanagement erwarten wir von unseren Partnern eine anerkannte Projektmanagement Zertifizierung, die innerhalb eines Jahres vorzulegen ist. Mit der Vorlage des Zertifikates sind Sie berechtigt in Ihrer email Signatur „Zertifizierter (Junior, Senior, oder Prinzipal) IT Projektmanager der Bundesvereinigung IT Projektmanagement“ zu tragen. o Änderungen an Ihrem Profil, machen wir über unsere Social Marketing Kanäle an die wir automatisiert angebunden sind publik. Da wir bezahlte Werbung in diesen Kanälen schalten, erreichen wir eine maximale Reichweite die Ihnen zugutekommt. o Wir bieten unseren Partnern ein Werbevideo an, das nach der Erstellung auch über unseren YouTube-Channel erreichbar ist. Heben sie sich damit von Ihren Mitbewerbern ab und nutzen Sie dieses sehr effiziente Medium um Ihre Stärken in das richtige Licht zu rücken. o Aber hier ist ganz wichtig: Wir sind kein Bodyleasing- also kein Recruiting Unternehmen, dass an Ihrem Projekteinsatz verdient. Das möchte ich noch einmal explizit hervorheben. Wir finanzieren uns über die Mitgliedsbeiträge unserer angeschlossenen Partner. Somit können wir uns voll und ganz darauf konzentrieren, Sie in das rechte Licht für Ihre potenziellen Auftraggeber zu rücken. • Weiterbildung auf Ihre Bedürfnisse zugeschnitten o Wir sorgen dafür, dass Sie sich dann weiterbilden können, wenn Sie Zeit dafür haben. Sei es auf Reisen, oder nach Feierabend abends im Hotel. o Die kostenfreie Variante dieser Trainings für Jedermann hören Sie hier in Form unseres Podcastes. In unserem Partnerbereich finden Sie Webcasts in denen wir Trainings zu praktischen Problemstellungen liefern, deren Hürden und deren möglichen Lösungen berichten. o Projektanbieter haben auf diese Weise die Gewähr dass unsere Partner stets auf dem aktuellen Weiterbildungsstand sind und damit die Qualität der eigenen Arbeit sichern. • Wir stehen für IT Projektmanagement o Wir bewerben unser Portal in der freien Wirtschaft und sorgen durch Marketingmaßnahmen für ein Image das für Qualität und Seriosität im IT Projektmanagement steht o In wenigen Jahren wollen wir zur Plattform Nr.1 für IT Projektmanager werden. o Ich empfehle: seien auch Sie mit dabei und präsentieren Sie Ihr Profil mit Ihren Erfahrungen und Spezialisierungen in unserem Partnerbereich. Leider höre ich immer wieder: Fortbildung, das brauche ich nicht. Ich habe einen Master, ein Diplom, promoviert, oder vor 10 Jahren mal eine PM Zertifizierung gemacht…“das ist doch alles Geldmacherei, das mache ich nicht mehr“. Ich schüttle mich, wenn ich so etwas höre. Die IT Branche gehört ohne Zweifel mit zu den sich am schnellsten ändernden Branchen in der Wirtschaft und doch glauben viele Weiterbildung wäre für sie nicht notwendig? Ich kann diese negative Haltung bei angestellten schon nicht verstehen- bei Selbständigen oder Freiberuflern gleicht das einem unternehmerischen Harakiri. Schauen wir uns doch mal an wie sich das Weltwissen so verändert hat: o Das Jahr 200 vor Christus: die weltbekannte Bibliothek von Alexandria umfasst nahezu 700.000 Buchrollen. o Rund 2.200 Jahre später im Jahr 2007: Die größte Wissenssammlung der Welt, die "Library of Congress" in Washington, D.C., wuchert mit mehr als 112 Millionen Büchern und Dokumenten über Regalbretter von 857 Kilometer Länge. o Wissen wird heute in immer kürzerer Zeit geschaffen, gleichzeitig steigt die Verbreitungsgeschwindigkeit. Für eine bestimmte Datenmenge, die heute in einer Sekunde global übertragen werden kann, benötigte man 1997 noch 30 Tage. o Einst besaßen Gelehrte wie Sokrates, Da Vinci und Newton noch einen großen Teil des menschlichen Wissens, heute versteht ein Mathematiker die Rechnungen seines Kollegen nicht mehr, der naturwissenschaftliche Lehrstoff an den Universitäten muss alle zehn Jahre neu geschrieben werden. o Zwischen 1800 und 1900 hat sich das Wissen der Menschheit verdoppelt. Zwischen 1900 und 2000 verzehnfacht. Alle vier Minuten gibt es heute eine neue medizinische Erkenntnis, alle drei Minuten wird ein neuer physikalischer Zusammenhang gefunden, jede Minute eine neue chemische Formel. o Laut einer Studie von Statista.com ist die Anzahl der Internetbenutzer von 1997 mit 121 Millionen Nutzer auf heute 2,925 Mrd. Nutzer angewachsen. Die Prognose bis 2018 geht von 3,6 Mrd. Nutzern weltweit aus. o Dieses Wachstum wird dann vor allem in China und Indien stattfinden. Durch den Eintritt von China und Indien in die Wissensgesellschaft, wird sich das Wachstum des menschlichen Wissens nochmals beschleunigen. o Ab 2050 wird sich bereits das Wissen der Menschheit täglich verdoppeln und man wird die Verdoppelung des Wissens in Stunden berechnen. Und da sag mir einer er braucht keine Weiterbildung? o Wir veranstalten jährlich den Kongress der Bundesvereinigung IT Projektmanagement. Um zu vermeiden, dass unseren Partnern ein Umsatzausfall durch die Teilnahme entsteht, veranstalten wir diesen Kongress jeweils an einem Wochenende. Die Teilnahme am Kongress ist für unsere Partner kostenfrei. Anreise ist Freitagabend, wo wir bei einer kleinen Welcome Party Networking betreiben und uns in entspannter Umgebung kennen lernen. Samstag und Sonntag findet der eigentliche Kongress mit spannenden Themen für den IT Projektmanagement Berufsalltag statt. • Tools für Ihren Projektalltag o Unseren Partnern stehen im Partnerbereich jede Menge Vorlagen, Checklisten und nützliche Tools für den Projektalltag zur Verfügung. Der Einsatz dieser Hilfsmittel unterstreicht Ihre Professionalität gegenüber Ihrem Auftraggeber, spart Ihnen Zeit und damit bares Geld. All das sind nur Auszüge unserer Leistungen für unsere Partner. Informieren Sie sich, abonnieren Sie unseren Podcast und abonnieren Sie unseren Newsletter um zu verfolgen wie es bei uns weiter geht. In diesem Sinne freue ich mich schon auf die nächste Folge und wünsche Ihnen bis dahin lauter grüne Meilensteine, Ihr Andreas Haberer. Weitere Informationen finden Sie unter www.Bundesvereinigung-ITPM.de
Diese Animation stammt aus dem Kurs Business Intelligence im Online Wirstschaftsinformatik Fernstudiengang. Mehr Infos: http://oncampus.de/index.php?id=1205 Die Anzahl der Ausprägungen einer Dimension (also z.B. die Anzahl der Länder) determinieren die Länge der Achsen des Würfels. Die Achsenlängen können daher unterschiedlich sein (beispielsweise ist in der obigen Animation die Restriktion auf 4 Monate nur der Übersichtlichkeit bzw. der Größe der Darstellung geschuldet und hat keine weiteren fachlichen Gründe). Auch können mehr als drei Dimensionen betrachtet werden. Dennoch eignet sich der Würfel als Methapher, da er die Gleichwertigkeit der Auswertungsrichtungen und die Koexistenz der Dimensionen in jeder Zelle zum Ausdruck bringt. Gleichwertigkeit der Auswertungsrichtungen meint, dass die Kennzahlen und die Dimensionen in den einzelnen Zellen unabhängig voneinander sind und man beliebig zwischen den einzelnen Daten dieser multidimensionalen Datenmenge navigieren kann. Legen wir für die Schreibweise vereinfachend ein numerisches Koordinatensystem zugrunde, so kann man sich beispielsweise vom Punkt (2,2,2) zum Punkt (2,3,2), (2,2,3), (3,2,2) usw. fortbewegen. In der Terminologie der datenerzeugenden Ereignisse bedeutet dies, dass jedes Produkt in jedem Monat in jedem Land verkauft werden könnte oder dass in jedem Monat jedes Produkt in jedem Land verkauft werden kann. Auch wenn, wie gezeigt, viele wichtige Aspekte mehrdimensionaler Datenmengen mit der Würfelmetapher veranschaulicht werden können, ist ein wesentlicher Nachteil, dass eine Veranschaulichung von mehr als drei Dimensionen schwierig ist.