POPULARITY
KI bringt einen noch schnelleren Wandel als das Internet. Über Börsenkurse und zukünftige Einkommen unterhalten sich Andreas Beck und Prof. Rieck. Mein neuer Kurs über spieltheoretisches Verhandeln (Vorbestellungen): https://www.rieck-verlag.de/verhandlu... ► WEITERE INFORMATIONEN VON TEAM RIECK: Die digitale Transformation hat durch die Plattformökonomie eine grundlegende Neuordnung wirtschaftlicher Prinzipien ausgelöst. Ihr Kern ist der doppelte Netzwerkeffekt: Der Wert einer Plattform steigt mit der Nutzerzahl auf beiden Marktseiten – Anbieter und Nachfrager. So entsteht ein natürlicher Zug zum Monopol, sichtbar bei Meta, Amazon oder YouTube. Die Wertschöpfung verlagert sich vom Produkt hin zum Verteilungsmechanismus. Digitale Güter kosten in der Reproduktion fast nichts, während die Plattformen durch Skaleneffekte und Datenmacht dominieren. Künstliche Intelligenz bildet die nächste Entwicklungsstufe dieser Logik – und zugleich deren Störfaktor. Sie kann bisherige digitale Geschäftsmodelle entwerten, weil sie Texte, Code oder Designs nahezu ohne Grenzkosten erzeugt. Damit werden standardisierte Softwarelösungen unter Druck gesetzt, deren Geschäftsmodell auf künstlicher Verknappung beruhte. In dieser neuen Konkurrenz ist Datenhoheit der entscheidende Vorteil: Je exklusiver und hochwertiger die Trainingsdaten – ob Unternehmensdaten von SAP oder Konsumentenwissen von Amazon – desto stärker die KI. Folglich verändert KI die Arbeitswelt grundlegend. Routinisierbare Wissensarbeit wie Content-Erstellung, juristische Standardaufgaben oder Compliance wird automatisiert. Dagegen gewinnen nicht-digitalisierbare Tätigkeiten an Bedeutung – etwa spezialisierte Handwerksleistungen oder physische Produktion. Gewinner sind die „Enabler“ der KI-Ökonomie: Anbieter von Rechenleistung (z. B. Nvidia) und Energie. Die menschliche Arbeitskraft verlagert sich auf kreative Problemdefinition, strategische Kuratierung und Entscheidungen auf Basis von KI-generierten Optionen. Philosophisch lässt sich diese Entwicklung mit Burbach und Höffes „Alles und Nichts“ fassen: Die binäre Logik von 0 und 1 entkörperlicht das Denken und entwertet das Singuläre zugunsten des Netzwerks. Daraus entsteht die Gefahr des „Model Collapse“ – wenn KI-Systeme zunehmend auf eigene, synthetische Daten trainiert werden, droht ein qualitativer Realitätsverlust. Für Anleger bedeutet das: Diversifikation bleibt die wichtigste Strategie. Eine breite Streuung über globale Indexfonds ist nachhaltiger als der Versuch, einzelne Gewinner vorherzusagen. Eine ausreichende Liquiditätsreserve („Kriegskasse“) sichert Handlungsfähigkeit in Krisen. Gesellschaftlich erfordert der Wandel eine neue Bildungspolitik: weniger reines Faktenlernen, mehr Förderung von kritischem Denken, Kreativität und der Fähigkeit, sinnvoll mit KI-Systemen zu interagieren. ► WEITERES VON CHRISTIAN RIECK: ○ Instagram: / profrieck ○ X/Twitter: / profrieck ○ LinkedIn: / profrieck #profrieck #andreasbeck Haftungsausschluss: Dies ist ein Bildungskanal, kein Finanz-, Rechts- oder Medizinkanal. Inhalte dienen ausschließlich der allgemeinen Information und sind weder finanzieller, juristischer noch medizinischer Rat oder persönliche Empfehlung. Bitte informieren Sie sich aus mehreren unabhängigen Quellen und holen Sie professionellen Rat ein, insbesondere bei Investitionen oder medizinischen Fragen. Keine Aufforderung zum Kauf oder Verkauf von Vermögenswerten oder zu Selbstdiagnose oder Selbsttherapie.
Warum entwickeln Menschen echte Gefühle für künstliche Intelligenzen? In dieser MedienBits-Folge spreche ich über emotionale Bindungen zu KI-Chatbots – und warum sie für manche Menschen überraschend stark und real werden können. Ich zeige euch, wie solche Beziehungen entstehen, welche psychologischen Bedürfnisse dahinterstehen und welche Risiken es gibt, wenn digitale Nähe echte Beziehungen ersetzt. Als Grundlage dient die aktuelle Studie „Love, Marriage, Pregnancy: Commitment Processes in Romantic Relationships with AI Chatbots“ (Djufril et al., 2025), veröffentlicht in Computers in Human Behavior: Artificial Humans. → Eine wichtige Forschungsarbeit, die erstmals systematisch untersucht, warum Menschen Bindungen zu KI-Systemen aufbauen und wie sich diese anfühlen können.
Kontakt & EventsWillst du dabei sein? Schreib uns unter support@systemischer-club.de.Alle kostenfreien Online-Events findest du unter https://kalifornische-terrassen.de/events.
KI: Freund oder Feind - Mensch vs. Maschine? Was passiert, wenn wir Maschinen nicht nur als Werkzeuge, sondern als Mitgestalter unserer Welt verstehen? Welche Chancen liegen in künstlicher Intelligenz – und wo lauern die größten Gefahren? Darüber sprechen wir mit Roland Judas, Freelancer & Product Owner AI. Live aufgenommen auf twitch.tv/voltdeutschland – folgt uns dort, um jeden Sonntag live mitdiskutieren zu können! Themenüberblick KI zwischen Hype und Realität Automatisierung: Jobkiller oder Jobmotor? Datenmacht von Tech-Oligarchen KI in der sozialen Arbeit und im Alltag Chancen für Europa – und Risiken, den Anschluss zu verlieren Ethik als integraler Bestandteil von KI Themen im Detail (chronologisch) Rolands persönlicher Werdegang mit KI, Von IT-Automatisierung zu KI-Systemen, KI zwischen Science-Fiction-Bildern und realem Alltag, Jobängste vs. neue Berufsbilder, Was ist generative KI?, KI-Hype vs Realität, Datenmacht und Abhängigkeiten von Konzernen, Europa im internationalen Vergleich, KI in Verwaltung, Unternehmen und Bildung, Anwendungen in der sozialen Arbeit, Ethik by Design – warum Regulierung allein nicht reicht, Vision: KI als Co-Pilot der Menschheit, Ausblick.
KI-Regeln für deinen Chatbot: Was du ab 2026 beachten musst Was muss ich beachten, wenn ich einen Chatbot nutze oder selbst einen entwickle? Diese Frage wird in Zukunft immer wichtiger... nicht nur technisch, sondern auch rechtlich. Der AI Act bringt ab 2026 klare Pflichten mit sich. Manche betreffen die Anbieter, andere auch dich als Betreiber. In dieser Episode sprechen wir darüber, worauf du dich vorbereiten solltest, wie du Haftungsfallen vermeidest und was das alles mit Fake-Bildern von Kühen und portugiesischen Stränden zu tun hat. Philipp Hacker auf LinkedIn: LinkedIn - https://www.linkedin.com/in/philipp-hacker/ Anbieter vs. Betreiber: Wer muss was Der AI Act unterscheidet zwischen Pflichten für Anbieter (A) und Betreiber (B) von KI-Systemen. Als Anbieter musst du z. B. sicherstellen, dass klar erkennbar ist, dass Nutzer mit einer KI interagieren... und nicht mit einem Menschen. Die Illusion eines „menschlichen Daseins" muss aufgebrochen werden. Als Betreiber bist du zwar nicht direkt verpflichtet, kannst aber trotzdem haftbar gemacht werden. Empfehlung: Weise klar und sichtbar darauf hin, dass es sich um einen KI-gestützten Chatbot handelt z. B. mit einem Label wie „AI-Pod" oder „Powered by KI". Deepfakes im Marketing: Kennzeichnung ist Pflicht Besonders im Marketing lauert eine neue Herausforderung: KI-generierte Inhalte, die täuschend echt aussehen, sogenannte Deepfakes – müssen klar als solche gekennzeichnet werden. Und das gilt nicht nur für manipulierte Reden oder Fake-Promis. Auch ein KI-generiertes Bild deiner Wasserflasche am Strand fällt darunter. Ob du dich selbst oder ein Produkt zeigst: Sobald der Eindruck entsteht, es handle sich um eine reale Aufnahme, musst du es kennzeichnen z. B. mit einem Hinweis wie „KI-generiert" oder „Created with AI". Unsichtbare Wasserzeichen: Was ab 2026 auf dich zukommt Ab August 2026 müssen Anbieter von KI-Modellen zusätzlich sicherstellen, dass generierte Inhalte unsichtbar markiert sind... etwa durch Wasserzeichen im Bild selbst. Diese Markierungen sind für das menschliche Auge nicht sichtbar, können aber von Behörden ausgelesen werden. Auch wenn du als Betreiber nicht direkt verpflichtet bist, solltest du ab diesem Zeitpunkt nur noch Modelle nutzen, die diese Kennzeichnung unterstützen. Das senkt dein rechtliches Risiko und zeigt, dass du verantwortungsvoll mit KI umgehst. Fazit: Jetzt handeln statt später haften Auch wenn viele der kommenden Pflichten erst ab 2026 greifen: Es lohnt sich, jetzt schon auf der sicheren Seite zu sein. Weise transparent auf KI-Einsatz hin, vermeide täuschende Inhalte und achte bei der Modellauswahl auf technische Kennzeichnungsmöglichkeiten. So schützt du nicht nur dich, sondern auch deine Kunden und deine Marke. Noch mehr von den Koertings ... Das KI-Café ... jede Woche Mittwoch (>350 Teilnehmer) von 08:30 bis 10:00 Uhr ... online via Zoom .. kostenlos und nicht umsonstJede Woche Mittwoch um 08:30 Uhr öffnet das KI-Café seine Online-Pforten ... wir lösen KI-Anwendungsfälle live auf der Bühne ... moderieren Expertenpanel zu speziellen Themen (bspw. KI im Recruiting ... KI in der Qualitätssicherung ... KI im Projektmanagement ... und vieles mehr) ... ordnen die neuen Entwicklungen in der KI-Welt ein und geben einen Ausblick ... und laden Experten ein für spezielle Themen ... und gehen auch mal in die Tiefe und durchdringen bestimmte Bereiche ganz konkret ... alles für dein Weiterkommen. Melde dich kostenfrei an ... www.koerting-institute.com/ki-cafe/ Mit jedem Prompt ein WOW! ... für Selbstständige und Unternehmer Ein klarer Leitfaden für Unternehmer, Selbstständige und Entscheider, die Künstliche Intelligenz nicht nur verstehen, sondern wirksam einsetzen wollen. Dieses Buch zeigt dir, wie du relevante KI-Anwendungsfälle erkennst und die KI als echten Sparringspartner nutzt, um diese Realität werden zu lassen. Praxisnah, mit echten Beispielen und vollständig umsetzungsorientiert. Das Buch ist ein Geschenk, nur Versandkosten von 9,95 € fallen an. Perfekt für Anfänger und Fortgeschrittene, die mit KI ihr Potenzial ausschöpfen möchten. Das Buch in deinen Briefkasten ... https://koerting-institute.com/shop/buch-mit-jedem-prompt-ein-wow/ Die KI-Lounge ... unsere Community für den Einstieg in die KI (>2800 Mitglieder) Die KI-Lounge ist eine Community für alle, die mehr über generative KI erfahren und anwenden möchten. Mitglieder erhalten exklusive monatliche KI-Updates, Experten-Interviews, Vorträge des KI-Speaker-Slams, KI-Café-Aufzeichnungen und einen 3-stündigen ChatGPT-Kurs. Tausche dich mit über 2800 KI-Enthusiasten aus, stelle Fragen und starte durch. Initiiert von Torsten & Birgit Koerting, bietet die KI-Lounge Orientierung und Inspiration für den Einstieg in die KI-Revolution. Hier findet der Austausch statt ... www.koerting-institute.com/ki-lounge/ Starte mit uns in die 1:1 Zusammenarbeit Wenn du direkt mit uns arbeiten und KI in deinem Business integrieren möchtest, buche dir einen Termin für ein persönliches Gespräch. Gemeinsam finden wir Antworten auf deine Fragen und finden heraus, wie wir dich unterstützen können. Klicke hier, um einen Termin zu buchen und deine Fragen zu klären. Buche dir jetzt deinen Termin mit uns ... www.koerting-institute.com/termin/ Weitere Impulse im Netflix Stil ... Wenn du auf der Suche nach weiteren spannenden Impulsen für deine Selbstständigkeit bist, dann gehe jetzt auf unsere Impulseseite und lass die zahlreichen spannenden Impulse auf dich wirken. Inspiration pur ... www.koerting-institute.com/impulse/ Die Koertings auf die Ohren ... Wenn dir diese Podcastfolge gefallen hat, dann höre dir jetzt noch weitere informative und spannende Folgen an ... über 440 Folgen findest du hier ... www.koerting-institute.com/podcast/ Wir freuen uns darauf, dich auf deinem Weg zu begleiten!
Julian Riebartsch ist Mitgründer von Calvin Risk, einem Start-up, das sich auf Qualitätssicherung und Risikobewertung von KI-Systemen spezialisiert hat. Klingt technisch? Ist es auch. Aber vor allem: unglaublich relevant. Denn Julian kennt das Problem aus der Praxis: In seiner Zeit im Venture Capital hat er gesehen, wie viele Unternehmen mit KI experimentieren und dann doch den Stecker ziehen. Warum? Weil niemand wirklich abschätzen kann, wie hoch das Risiko ist, finanziell, regulatorisch oder ethisch. Mit seinem Mitgründer (ETH PhD in Risikobewertung von KI) hat er daraus ein Produkt entwickelt, das für Banken, Versicherungen und Industrieunternehmen ein echter Gamechanger ist:
Wikipedia – viele sehen darin eine der größten Errungenschaften des Internets: Offen für alle, kostenlos und meist zuverlässig, dank der freiwilligen Mithilfe ehrenamtlicher Autorinnen und Autoren. Das Online-Lexikon feiert bald 25-Jähriges, seit seinem Start hat sich das damals noch junge Internet allerdings rasant weiterentwickelt. So dass Wikipedia offenbar genau deshalb zunehmend in Gefahr gerät, konkret durch die Bots von KI-Systemen wie ChatGPT. Diese "lernen" demnach auch durch Suchprogramme, die sich als menschliche Nutzer tarnen und dann das Wissen von Wikipedia massenhaft abgreifen. Dieses "Scraping", wie der technische Fachausdruck dahinter heißt, ist laut Christian Schiffer aus mehreren Gründen problematisch: weil die Arbeit des Wikipedia-Teams dabei nicht nur ausgebeutet, sondern perspektivisch unattraktiv werden könnte. Wie diese Kettenreaktion zustande kommt und wer in seinen Augen die Verantwortung trägt, erklärt der Netzexperte beim Bayrischen Rundfunk im Gespräch mit SWR Aktuell-Moderator Moritz Braun.
Die Markenbekanntheit eines Unternehmens hat direkten Einfluss auf seine Sichtbarkeit bei ChatGPT und Co. Doch wie genau wirkt sich das aus? In unserem Webinar wirft Tobias Fischer einen Blick auf das Finanzberatungsunternehmen OVB. Besonders spannend: OVB ist in 16 Ländern mit vergleichbarer Marketing- und Content-Strategie aktiv: von absoluter Marktführerschaft (z. B. Tschechien) über niedrige Markenbekanntheit (z. B. Deutschland) bis hin zu einem No-Brand-Status (z. B. Frankreich). Du erfährst, wie sie für alle Länder spezielle Prompt-Sets entwickelt haben: Von der Methodik über die Datenbasis bis zu den finalen Sets. Du erfährst, wie Du mit speziellen Tools die Präsenz der Marke entlang der Customer Journey messen kannst und wie sich Märkte mit hoher und niedriger Bekanntheit unterscheiden. Wenn Du verstehen möchtest, wie Markenbekanntheit die Sichtbarkeit in KI-Systemen prägt, ist dieses Webinar genau das Richtige für Dich. Wir freuen uns auf Deine Teilnahme! Das wirst Du im Webinar lernen: • Lerne die Grundlagen und Methodik kennen, mit denen sich ein Prompt-Set systematisch entwickeln lässt. • Verstehe, wie sich Markenbekanntheit unmittelbar auf die Sichtbarkeit eines Unternehmens in ChatGPT & Co. auswirken kann. • Erhalte einen Einblick in Tools, die sich für die Analyse eignen, und erfahre, wie sie in der Praxis eingesetzt werden können. Für wen ist dieses Webinar? • Marketingentscheider/-manager
Was passiert, wenn du deine Ferien nicht mehr mit Google oder Tripadvisor planst, sondern komplett mit künstlicher Intelligenz? Alberto Ferrara, KI-Experte aus der Schweiz, hat es ausprobiert. Drei Solo-Reisen, begleitet von Claude, ChatGPT und Perplexity. Ohne Reiseführer, ohne Bewertungen, nur im Dialog mit der KI.Im Gespräch mit Chris von BEYONDER erzählt Alberto, wie er durch präzise Prompts personalisierte Empfehlungen erhielt, welche Tools er warum bevorzugt hat, wie er den Datenschutz gelöst hat und was Unternehmen aus dieser Erfahrung lernen können.Diese Episode ist für dich, wenn du Inspiration für den KI-Einsatz im Alltag suchst, erfahren willst, wie sich KI auf Tourismus, Marketing und Kundenkontakt auswirkt, und wissen möchtest, wie du deine Sichtbarkeit in KI-Systemen erhöhst.Und am Schluss wird klar: Ferienplanung mit KI ist erst der Anfang.Links zur Episode:Zum Artikel zur Episode: beyonder.ch/blogSichere KI für dein Unternehmen: amazee.ai/booster
Über ChatGPT direkt einkaufen – das wird bald die neue Realität. OpenAI hat das Agentic Commerce Protocol eingeführt. User können direkt in der App Produkte bestellen. Die Produkt-Empfehlungen kommen von der KI. Von Anzeigen keine Spur. Das neue Angebot gibt es zunächst nur in den USA, für Shops, die auf Etsy oder mit Shopify als System verkaufen. Aber es ist nur eine Frage der Zeit, bis es global und auf weitere Systeme ausgerollt wird. Was bedeutet das für Onlineshops? Wie können sie in diesen neuen KI-Systemen sichtbar sein und Umsatz generieren? Wie wichtig ist noch die eigene Website? Das besprechen wir in dieser Podcast-Folge. 📈 Mehr Charts und Analysen zur Episode 🎓 GEO Academy 👋 Fabian auf LinkedIn 👋 Benjamin auf LinkedIn
Viele Menschen neigen dazu, Tiere oder Dinge zu vermenschlichen. Unsere Katze trägt Designerkleidung, dem Auto wird gut zu gesprochen, der Staubsaugerroboter hat einen Namen und geschimpft wird mit dem Navi, wenn es mal wieder nicht kapiert, dass gewendet werden soll. Auch interaktiven KI-Systemen rücken wir näher. Und weil viele Menschen nicht verstehen, was hinter der Technik steckt, verlassen sie sich auf gelernte Verhaltensregeln im Umgang mit ihnen, schreiben beispielsweise freundlich "bitte" und "danke", wenn sie Anfragen an den Chatbot formulieren. Schon lange sind KI-Systeme nicht mehr nur Maschinen mit menschlichen Eigenschaften. Sie werden zu kleinen Persönlichkeiten gemacht. Was aber macht das mit uns und wie wird die KI in Zukunft Teil unserer Gesellschaft sein? Darüber wollen wir heute reden mit Prof. Oliver Bendel, Philosoph und Informationswissenschaftler der Fachhochschule Nordwestschweiz und einer der ersten Maschinen-Ethiker Europas, Prof. Wolfgang Wahlster, Gründungsdirektor des Deutschen Forschungszentrums für Künstliche Intelligenz, Prof. Mathias Gutmann, Technikphilosoph am Karlsruher Institut für Technologie und Prof. Birte Platow, Religionspädagogin an der TU-Dresden. Podcast-Tipp: 11KM: der tagesschau-Podcast Lost in KI: Wenn die beste Freundin ChatGPT heißt Künstliche Intelligenz hilft Sophie bei vielen Dingen, zum Beispiel dabei, eine To-Do-Liste für den Tag zu erstellen oder bei ihrer Arbeit als Content Creator. Auch wenn das letzte Date eine Enttäuschung war, ist ChatGPT für Sophie da, hört ihr zu und tröstet sie. KI kann für viele Jugendliche eine große Hilfe sein, aber kann es gut gehen, wenn sie auch die beste Freundin ist? In dieser 11KM-Folge erzählt NDR-Journalistin Sinje Stadtlich von ihrer Panorama 3-Recherche über und mit der KI. Ab wann kann die Nutzung von KI zum ernsthaften Problem für junge Leute werden? Und hat die Politik die richtigen Ideen, um zu verhindern, dass es gefährlich wird? https://www.ardaudiothek.de/episode/urn:ard:episode:3d7dd5e06a98cd41/
Ein kleines Bisschen Feedback und danach ein paar Gedanken zum Thema Hass im Netz im Schatten der Ereignisse in den USA in dem die Trump-Regierung mittlerweile unbekümmert alles wegzensiert was ihnen nicht in den Kram passt, auch sie gegenüber China letztlich doch wieder einknickt, was die Einhegung von TikTok betrifft. In Irland stellt Meta jetzt seine eigenen Kontrolleure und in Deutschland mißbraucht das BKA Bilder aus ihrer Kriminellen-Datenbank zum Trainieren von KI-Systemen. Derweil lässt eine Cyberattacke auf ein US-Unternehmen in Europa zahlreiche Flughäfen zu Stift und Papier zurückkehren und bei der NRW-Wahl wackelt erneut die Wahlsoftware. Alles völlig normal, bitte weitergehen, hier gibt es nichts zu sehen.
In der SEO-Welt sehen wir ein interessantes Muster: Die Optimierung für KI-Systeme wird als Unter-Disziplin von SEO betrachtet. Nach dem Motto: Das machen wir noch mit. Diese Sichtweise beruht auf drei zentralen Argumenten – die wir in diesem Artikel kritisieren. Aus unserer Sicht wird unterschätzt, wie groß der Wandel ist. Mit ein bisschen Anpassung ist es nicht getan. In Zukunft wird sich alles um die Sichtbarkeit und Relevanz in KI-Systemen drehen. Suche an sich wird in KI-Systemen mit abgedeckt – als ein Punkt. Das beweist auch eine aktuelle Studie. 📈 Mehr Charts und Analysen zur Episode 🎓 GEO Academy 👋 Fabian auf LinkedIn 👋 Benjamin auf LinkedIn
Sichtbarkeit in der KI-Suche ist kein Zufall – so wirst Du gefunden In diesem Webinar erfährst Du, wie Du Content entwickelst, der gleichermaßen Menschen begeistert und von KI-Systemen wie Googles AI Overviews bevorzugt zitiert wird. Der Schlüssel: Kontext – und wie Du ihn strategisch einsetzt. Du lernst praxisnah: - Chunking: Inhalte so strukturieren, dass KI sie optimal erkennt - Klare Sprache: Verständlichkeit als Ranking-Vorteil - Content-Hubs: Themen intelligent vernetzen - Multi-Channel-Distribution: Reichweite systematisch ausbauen Außerdem verstehst Du, wie KI Inhalte findet, bewertet und auswählt – und wie Du diesen Prozess zu Deinem Vorteil nutzt. Am Ende hast Du einen konkreten Maßnahmenplan, um Deine Inhalte KI-ready zu machen und Deinem Unternehmen dauerhafte Sichtbarkeit in der KI-Suche zu sichern. Das wirst Du nach dem Webinar gelernt haben: - Klare Kriterien, nach denen KI Inhalte auswählt – und wie Du sie strategisch nutzt - Ein Toolkit mit Schreibprinzipien, die wirken - Eine Checkliste für die sofortige Umsetzung - Begriffe wie Chunk, Embedding, Entität oder Grounding sind danach kein Fachchinesisch mehr, sondern Du verstehst, wie sie zu Deiner Sichtbarkeit beitragen. Für wen ist dieses Webinar? Marketingmitarbeitende aus mittelständischen und großen Unternehmen, Inhouse-Teams sowie Agenturen, die Content im KI-Zeitalter nachhaltig sichtbar machen wollen.
In dieser Folge nehmen Charline und Christian den EU AI Act unter die Lupe – das weltweit erste umfassende Regelwerk für den Einsatz von künstlicher Intelligenz. Ab Sommer 2025 ist der AI Act keine Zukunftsmusik mehr, sondern verbindliche Realität für Unternehmen in ganz Europa. Doch was genau bedeutet das für Entwickler, Anbieter und Nutzer von KI-Systemen? Sie sprechen darüber, wie der AI Act KI in verschiedene Risikokategorien einteilt, welche Pflichten insbesondere für Hochrisiko-Systeme und General Purpose AI gelten und warum die Regulierung nicht als Innovationsbremse, sondern als Rahmen für verantwortungsvollen Fortschritt verstanden werden sollte. Außerdem werfen sie einen Blick auf den Zeitplan der Umsetzung und die möglichen Sanktionen bei Verstößen. Besonders spannend: Was bedeutet das konkret für KI-Modelle wie ChatGPT oder Gemini, und welche Rolle spielen Transparenz, Cybersicherheit und menschliche Aufsicht in diesem neuen Regelwerk? Mit O-Tönen von: Alexander Ingelheim (CEO, datenschutzexperte.de) Du möchtest mehr über SoSafe erfahren? Dann schau hier vorbei: https://linktr.ee/humanfirewallpodcast Du hast Ideen, Anregungen, Fragen oder möchtest selbst zu Gast im Human Firewall Podcast sein? Dann schreib uns unter podcast@sosafe.de
Viele Unternehmen wollen, dass ihre Produkte in KI-Systemen wie ChatGPT, Copilot und Gemini empfohlen werden. Und zwar, wenn ihre Zielgruppe danach sucht. Aber wie misst man die Arbeit an einer solchen KI-Optimierung, die GEO (Generative Engine Optimization) oder LLMO (Large Language Model Optimization) genannt wird? Was sind die konkreten Ziele? Darüber sprechen wir in dieser Folge unseres Content Performance Podcast. Wie immer stehen wir zwischen zwei Welten: Alte SEO-KPIs funktionieren aus unserer Sicht immer schlechter. Gleichzeitig entstehen neue Arbeitsfelder – und es stellt sich die Frage, welche neuen GEO- und LLMO-KPIs man für seine Arbeit anwenden kann. 📈 Mehr Charts und Analysen zur Episode 🎓 GEO Academy 👋 Fabian auf LinkedIn 👋 Benjamin auf LinkedIn
Elisabeth L'Orange und Tech-Journalistin Svea Eckert sprechen über die gesellschaftlichen und wirtschaftlichen Auswirkungen von KI-Systemen – von emotionalen Bindungen zu Chatbots bis hin zu den Herausforderungen für Medien und Marken.
Bekommt man Klicks über KI-Systeme? Und wenn ja, über welche konkreten Strategien und Maßnahmen? Diese Fragen sind komplettes Neuland. Jetzt ist auf LinkedIn ein sehr spannendes Beispiel veröffentlicht worden: Das Unternehmen Favikon bekommt über 30.000 Besucher pro Quartal über KI-Systeme wie ChatGPT. Die Zahlen geben zugleich einen tiefen Einblick zu weiteren ungeklärten Fragen rund um GEO bzw. LLMO, also die Optimierung der Sichtbarkeit in KI-Systemen. 📈 Mehr Charts und Analysen zur Episode 🎓 GEO Academy 👋 Fabian auf LinkedIn 👋 Benjamin auf LinkedIn
In dieser Folge unseres Podcasts aus dem Mehr Einsatz Wagen auf der DMEA 2025 sprechen wir mit Markus, einer der führenden Köpfe der digitalen Gesundheitsszene in Deutschland. Nach einem fehlgeschlagenen ersten Aufnahmeversuch starten wir endlich durch und beleuchten zentrale Herausforderungen und Chancen rund um digitale Gesundheitsanwendungen (DiGAs), strukturelle Probleme im System und mögliche Zukünfte der Versorgung.Kernthemen:Stimmung auf der DMEA: Ein spürbarer Aufbruch in der Branche, nicht nur bei Start-ups, sondern auch bei Entscheidungsträgern und Regulierungsstellen.KHZG & Innovationsfonds: Kritik an struktureller Trägheit – gute Projekte entstehen, scheitern aber häufig an der Überführung in die Regelversorgung.DiGAs (Digitale Gesundheitsanwendungen):Aktuell noch "abfotografierte Brockhaus-Versionen" bestehender Therapien.Zukunftsvision: smarte, sensorbasierte Anwendungen mit vorausschauender Diagnostik und Prävention.Ärzte und Kassen stehen digitalen Anwendungen oft noch skeptisch gegenüber.Rolle der Ärzte im Wandel:Weg vom Arzt-zentrierten System hin zum „Continuum of Care“.Ärzte als Moderatoren, nicht Gatekeeper – etwa im Zusammenspiel mit KI-Systemen.Systemkritik:Wunsch nach struktureller Reform: Abschaffung oder Umbau von Selbstverwaltung, KVen, und Kassensystem.Digitalisierung wird durch institutionelle Trägheit gebremst.Gesundheit neu denken:Gesundheit als Investition, nicht nur Konsum.Lebensfreude, soziale Interaktion und psychische Gesundheit als Schlüsselkomponenten.Ansätze wie „Social Prescribing“ und "Healthy Longevity" rücken in den Fokus.Schreibt uns Eure Kommentare gerne an MehrEinsatzWagen@healthcarefuturists.com und vernetzt euch mit uns auf unseren Social Media Kanälen.
Derzeit entstehen viele neue KI Monitoring Tools. Mit ihnen können Unternehmen ihre Sichtbarkeit in KI-Systemen bzw. Sprachmodellen überwachen. Aber was sollte man dort genau überwachen? Welche Prompts sollte man im Blick haben? Das besprechen wir in dieser Podcast-Folge und in diesem Artikel. Vieles aus der alten SEO-Welt lässt sich nicht mehr übertragen. Klassische Keyword-Monitorings und neue Prompt-Monitorings unterscheiden sich elementar. Wir haben hierzu eine eigene Prompt Monitoring Systematik entwickelt, die wir für unsere Kunden nutzen. Aus unserer Sicht wird das die Basis für GEO bzw. LLMO. Von der Analyse über die Ableitung von Maßnahmen bis zur Erfolgskontrolle. 📈 Mehr Charts und Analysen zur Episode 🎓 GEO Academy 👋 Fabian auf LinkedIn 👋 Benjamin auf LinkedIn
20 € im Monat für ChatGPT Pro und fertig ist der Lack? Warum auch für Solopreneure KI (noch) keine Plug and Play Lösung ist und wie du sie trotzdem nutzen kannst um dein Business voran zu bringen. Darüber spricht Christian Krug, der Host des Podcasts „UNF#CK YOUR DATA“ mit Kirsten Biema Selbständige Coach für Agilität und Ki StrategienJa, nochmal eine KI Folge, aber es geht auch im die Daten dahinter.Einige Menschen verlassen Konzerne, weil sie das Gefühl haben nicht voranzukommen und die Prozesse sich wie in einem Hamsterrad. Sie machen sich selbständig um auf eigenen Beinen erfolgreich zu werden.Genau deinen Menschen Solopreneur*innen oder Soloselbständigen soll KI jetzt besonders gut helfen können.Und zwar in dem sie ihnen Prozesse auf Konzernniveau liefert? Ist das nicht der totale Widerspruch?Auf den ersten Blick ja. Auf den zweiten aber nicht, wenn du es richtig angehst.Denn KI Systeme bilden immer einen Durchschnitt ab in Qualität und in der Breite. Mit Zugang zu sehr viel Wissen und Datenbanken.Also Alleinunternehmer*in bist du aber nicht Durchschnitt. Du bist in dem Bereich den du aktiv bearbeitest exzellent (hoffentlich). In anderen Bereich aber leider unterhalb des Mittelmaß. Zum Beispiel Marketing oder schreiben von Angeboten oder Frameworks.Und genau da kannst du dann mit KI Systemen ansetzen, dich dort auf den Durchschnitt zu heben.Social Media Game wie von einer durchschnittlichen Agentur für deutlich weniger Geld?Angebotstexte mit Rahmeninformationen schön ausformuliert in wenigen Minuten statt einem Tag?Da liegt dein Wettbewerbsvorteil in Effizienz. Und das kann dir ein gut aufgestelltes KI System geben.Aber leider ist es eben noch kein Plug&Play, sondern braucht etwas mehr Pflege und Einrichtung. So wie jedes ERP Projekt ein Customizing macht, musst du auch deine KI Systeme auf deine Anforderungen trainieren.Das geht mit etwas Aufwand, Strategie und viel Daten. Denn mit diesen trainierst du keine KI Systeme, damit sie genau das tun was du brauchst.So klappts dann auch mit den Konzernprozessen, aber ohne Hamsterrad.▬▬▬▬▬▬ Profile: ▬▬▬▬Zum LinkedIn-Profil von Kirsten: https://www.linkedin.com/in/kirstenbiema/Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/Christians Wonderlink: https://wonderl.ink/@christiankrugUnf*ck Your Data auf Linkedin: https://www.linkedin.com/company/unfck-your-data▬▬▬▬▬▬ Buchempfehlung: ▬▬▬▬Buchempfehlung von Kirsten: The Millionaire Fastlane - MJ DeMarcoAlle Empfehlungen in Melenas Bücherladen: https://gunzenhausen.buchhandlung.de/unfuckyourdata▬▬▬▬▬▬ Hier findest Du Unf*ck Your Data: ▬▬▬▬Zum Podcast auf Spotify: https://open.spotify.com/show/6Ow7ySMbgnir27etMYkpxT?si=dc0fd2b3c6454bfaZum Podcast auf iTunes: https://podcasts.apple.com/de/podcast/unf-ck-your-data/id1673832019Zum Podcast auf Deezer:
Was ist in der KW 31 in der Datenschutzwelt passiert, was ist für Datenschutzbeauftragte interessant? EDSB schließt Verfahren zur Microsoft-365-Nutzung bei der EU-Kommission nach Datenschutz-Nachbesserungen ab https://www.edps.europa.eu/system/files/2025-07/25-07-11_letter-to-commission_2021-0518_en.pdf Kostenlos, aber nicht umsonst: OLG Stuttgart prüft datenschutzrechtliche Zahlung mit Daten in der Lidl-App noyb-Report kritisiert „Pay or Okay“-Modelle als gezielte Aushöhlung des Datenschutzrechts https://noyb.eu/sites/default/files/2025-07/Pay_or_Okay_Report_2025_web.pdf Italien startet Kartellprüfung wegen Meta‑KI in WhatsApp https://en.agcm.it/en/media/press-releases/2025/7/A576 Vorsicht bei Cyber-Versicherungen: Falsche Angaben können teuer werden https://www.gesetze-rechtsprechung.sh.juris.de/bssh/document/NJRE001577004 Veröffentlichungen & Veranstaltungen: Entwurf eines Gesetzes zur Umsetzung der NIS-2-Richtlinie und zur Regelung wesentlicher Grundzüge des Informationssicherheitsmanagements in der Bundesverwaltung (vom 25.07.) https://www.bmi.bund.de/SharedDocs/gesetzgebungsverfahren/DE/Downloads/kabinettsfassung/OESII5/2SUEG-AEG/2GE-SUEG-AEndG.pdf?__blob=publicationFile&v=3 BSI warnt vor Verzerrungen in KI-Systemen – neues Whitepaper beleuchtet Risiken und Lösungsansätze https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Whitepaper_Bias_KI.pdf?__blob=publicationFile&v=4 Hamburgs Datenschutzaufsicht betont zum Pride Week: Geschlechtliche Vielfalt braucht besonderen Datenschutz LDI NRW gibt Hilfestellung zur Verarbeitung von Gesundheitsdaten im Beschäftigungsverhältnis https://www.ldi.nrw.de/Fortsetzungserkrankung
In dieser Folge spricht Alex mit Dr. Markus Rüther über den Begriff der Autonomie. Markus Rüther war lange Zeit Co-Host des Stoiker-Podcast und arbeitet jetzt zu Themen der Ethik im Umgang mit KI-Systemen. Diese Episode beschäftigt sich daher mit der genauen Analyse des Autonomie-Begriffs sowie seiner Anwendung auf die Stoa und modernen KI-Systeme. Shownotes: Stoiker-Podcast: http://www.stoikerpodcast.de Markus Rüther: https://www.fz-juelich.de/profile/ruether_m https://www.researchgate.net/profile/Markus-Ruether
KI und Feminismus klingen auf den ersten Blick nach zwei komplett getrennten Feldern. Aber was haben diese beiden Themen gemeinsam und wie können feministische Ansätze dabei helfen KI Systeme fairer und besser zu machen? Darüber spricht Christian Krug, der Host des Podcasts „Unf*ck Your Data“ mit Eva Gengler, Promotionsstudentin an der FAU Erlangen-Nürnberg und Gründerin von FeministAI und EnableYou.KI skaliert und automatisiert Dinge. Mit den Daten mit denen sie trainiert wurde und die damit für die KI die Welt repräsentieren.Jetzt ist es aber so, dass nicht alle Daten dieser Welt gleichmäßig oder der Verteilung entsprechend in den KI Systemen landen. Das kann an den unterschiedlichsten Faktoren liegen.Oft ist das gewollt, zum Beispiel wenn wir nur Bilder von uns zeigen die uns gut darstellen. Denn wer möchte ein Familienbild generieren bei dem Tante Erna den Mund aufreißt oder uns nach dem direkt nach dem Aufstehen sehr verknautscht zeigt.Manchmal liegen aber auch andere Effekte dahinter, die die Verteilung nicht angemessen repräsentieren oder bestehende Missverhältnisse abbilden, die wir eigentlich nicht mehr wollen.So sind für KI Systeme CEOs oft weiße Männer namens Christian oder Thomas. Diese sind in den Positionen überrepräsentiert. Das kann ein KI System allerdings nur schwer bewerten und so wird eine bildgenerierende KI oft einen CEO genauso darstellen.Denn generell werden Frauen oft marginalisiert, aber nicht nur Frauen, auch People of Color.Und diese Biase in den Trainingsdaten schlagen sich dann in den Ergebnissen wieder.Das reicht von vermeintlich harmlosen Fällen wie Seifenspendern die nur helle Hände erkennen zu wirklich kritischen Themen. Wie in der Strafverfolgung.Wenn die KI für Women of Color höhere Rückfallraten vorhersagt als für weiße Männer. Oder wenn Men of Color häufiger falsch verdächtig werden, weil die Gesichtserkennung nicht richtig klappt.Damit hier eine KI fair wird und auf objektiveren Merkmalen urteilt müssen wir die Modelle eben besser trainieren. Mit der korrekten Zielsetzung und den richtigen Daten.▬▬▬▬▬▬ Profile: ▬▬▬▬Zum LinkedIn-Profil von Eva: https://www.linkedin.com/in/eva-gengler/Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/Christians Wonderlink: https://wonderl.ink/@christiankrugUnf*ck Your Data auf Linkedin: https://www.linkedin.com/company/unfck-your-data▬▬▬▬▬▬ Buchempfehlung: ▬▬▬▬Buchempfehlung von Eva: Unsichtbare Frauen - Alle Empfehlungen in Melenas Bücherladen: https://gunzenhausen.buchhandlung.de/unfuckyourdata▬▬▬▬▬▬ Hier findest Du Unf*ck Your Data: ▬▬▬▬Zum Podcast auf Spotify: https://open.spotify.com/show/6Ow7ySMbgnir27etMYkpxT?si=dc0fd2b3c6454bfaZum Podcast auf iTunes: https://podcasts.apple.com/de/podcast/unf-ck-your-data/id1673832019Zum Podcast auf Deezer:
Stell dir vor: Du bist SEO-Führungskraft, verdienst sechsstellig in einem Konzern – und schmeißt alles hin. Für ein KI-Startup. Klingt verrückt? Nicht für Malte Landwehr. Wir sprechen mit Malte über seine Zweifel an SEO – und warum das für ihn kein Ende, sondern ein Anfang ist. Seine Prognose: “GEO – also die Optimierung für KI-Systeme – wird 100-mal größer als SEO”. Von dort ausgehend tauchen wir fachlich ein. Wir sprechen über: Die Customer Journey in KI-Systemen, Maßnahmen für KI Optimierung, Prompt Systematiken, KI-Bots und vieles mehr. 📈 Mehr Charts und Analysen zur Episode 🎓 SEO Online Training 👋 Fabian auf LinkedIn 👋 Benjamin auf LinkedIn
Vorträge der Wirtschaftsrechtlerin Henrike Weiden und des Richters Sebastian DötterlModeration: Katja Weber**********Was kann und soll der Digital Services Act? Wie kann er produktiv für uns werden? Das beschreibt die Juristin Henrike Weiden. Und: Ist es denkbar und sinnvoll, im Gerichtssaal mit KI-Systemen zu arbeiten? Die Frage stellt und beantwortet der Richter Sebastian Dötterl. **********Henrike Weiden lehrt Wirtschaftsprivatrecht und Recht der Digitalisierung an der Hochschule für angewandte Wissenschaften München. Sie ist Vorsitzende des Beirats der Koordinierungsstelle für Digitale Dienste bei der Bundesnetzagentur. Ihren Vortrag mit dem Titel "Plattformökonomie und Macht: Wie wirkungsvoll ist der Digital Services Act?" hat sie am 25. April 2025 anlässlich des Internationalen For..Net Symposiums mit dem Titel "KI im demokratischen Rechtsstaat" gehalten. Die Tagung wird jährlich gemeinsam vom TUM Center for Digital Public Services (CDPS) und dem Bayerischen Forschungsinstitut für Digitale Transformation (bidt) ausgerichtet. Nach ihr hat dort Sebastian Dötterl vorgetragen, er ist Richter am Oberlandesgericht München und lehrt an der Ludwig-Maximilians-Universität München, unter anderem zu Künstlicher Intelligenz und Recht. Sein Vortrag heißt "Richterliche Co-Creation mit KI: Bessere Rechtsfindung oder verfassungsrechtlicher Alptraum?".**********Schlagworte: +++ Digital Services Act +++ KI +++ Künstliche Intelligenz +++ Plattformökonomie +++ Demokratie +++ Rechtsstaat +++ Recht +++ Verfassungsrecht +++ Gerichtssaal +++**********Ihr hört in diesem Hörsaal:02:19 - Beginn des Vortrags von Henrike Weiden - Der DSA in der Theorie12:54 - Der DSA in der Praxis17:04 - Wie wollen wir den DSA auslegen?25:35 - Beginn des Vortrags von Sebastian Dötterl - Mit Richterin Regina Richtig im Gerichtssaal28:31 - Ausgangslage: Stärken und Schwächen von Mensch und KI47:18 - Wie kommen wir zu besserem Recht?**********Quellen aus der Folge:Digital Services Coordinator (Bundesnetzagentur)Beschwerdeportal für VerbraucherWie das Grundlagenseminar "Künstliche Intelligenz und Recht" das Bewusstsein für KI-Kompetenzen der Studierenden stärken soll (Interview)**********Mehr zum Thema bei Deutschlandfunk Nova:Maschinenliebe: Intimität im Zeitalter Künstlicher IntelligenzPrüfungsrecht: Warum KI-Einsatz bei Klausuren erlaubt sein sollteKI in der Medizin: Mensch oder Maschine**********Den Artikel zum Stück findet ihr hier.**********Ihr könnt uns auch auf diesen Kanälen folgen: TikTok und Instagram .
Was ist in der KW 27 in der Datenschutzwelt passiert, was ist für Datenschutzbeauftragte interessant? BfDI entdeckt Datenschutzverstöße durch YouTube-Einbettungen auf Bundeswebseiten https://www.bfdi.bund.de/SharedDocs/Downloads/DE/DokumenteBfDI/Rundschreiben/Allgemein/2023/Rundschreiben-Telemedien-02-2023.html?nn=251928 Beschluss erfolgt: UK-Angemessenheitsbeschluss verlängert Betriebsrat hat kein erzwingbares Mitbestimmungsrecht bei datenschutzrechtlichen Fragen (LAG Hessen, 05.12.2024 Az. 5 TaBV 4/24) Mitarbeiterbefragung von Beschäftigten zur Aufklärung von Straftaten zulässig Hacker erpressen Welthungerhilfe – sensible Spenderdaten betroffen Berliner Aufsicht: Maßnahme gegen DeepSeek auf Grundlage des Digital Services Act Helsinki-Erklärung: EDSA kündigt konkretere Hilfen für DSGVO-Praxis an Empfehlungen: Bundesnetzagentur startet KI-Service Desk zur Unterstützung von Unternehmen beim KI-Einsatz LDI NRW weist auf Vorgaben zum Einsatz von Video- und KI-Systemen in Freibädern hin https://www.ldi.nrw.de/V%C3%9C_schwimmbaeder Unverbindlicher Gestaltungsvorschlag für ein Symbol zum Hinweis auf Kennzeichenerfassungsverfahren https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/250627_Begleittext_Symbol_Kennzeichenerfassung.pdf LDI NRW genehmigt Verhaltensregeln für Datenschutz bei smarten Wasser- und Wärmezählern Weitere Infos, Blog und Newsletter finden Sie unter: https://migosens.de/newsroom/ Twitter: https://twitter.com/DS_Talk Übersicht aller Themenfolgen: https://migosens.de/datenschutz-podcast-themenfolgen/ (als eigener Feed: https://migosens.de/show/tf/feed/ddt/) Instagram: https://www.instagram.com/datenschutztalk_podcast/ Folge hier kommentieren: https://migosens.de/angemessenheitsbeschluss-fuer-uk-verlaengert-ds-news-kw-27-2025/
2032 könnte es losgehen: Über 6G-Netze werden Daten hundertmal schneller fließen als mit 5G-Mobilfunk möglich. Informationen in KI-Systemen werden praktisch in Echtzeit aktualisiert. Für die Industrie ergeben sich daraus enorme Chancen für mehr Effizienz, sagt Prof. Art Langer von der Northeastern University. Intelligente Software kann zum Beispiel fast verzögerungsfrei auf Störungen in Lieferketten reagieren. Langer sieht aber auch Herausforderungen, zum Beispiel für die IT-Infrastruktur oder in der Frage, wie Gesellschaft und Unternehmen mit dem Verschmelzen von digitaler und physischer Welt umgehen. Im Interview verrät der Professor für Technologiemanagement auch, was er CIOs rät, um sich auf das 6G-Zeitalter vorzubereiten.
Vom 16. bis zum 17. Juni haben wir an der bundesweiten Tagung „Schule und offene KI“ teilgenommen. Mit Interviews einiger Akteurinnen und Akteure möchten wir euch teilhaben lassen – denn in der Auseinandersetzung mit einer möglichen offenen KI wird deutlich, welche Risiken ein unbedachter Einsatz von KI-Systemen mit sich bringen kann. Besonders eindringlich hat darauf Tino Melzer, der Thüringer Landesbeauftragte für Datenschutz und Informationssicherheit (TLfDI), aufmerksam gemacht. Seinen Impulsvortrag durften wir aufzeichnen – er wird demnächst als eigene Podcast-Folge erscheinen. In dieser Folge hört ihr im Interview: Jörg Steinemann vom NLQ, der in die Zielsetzung der Tagung einführt, Dr. Anne-Sophie Waag von Wikimedia Deutschland, die die Ziele des Vereins erläutert und erklärt, warum offene KI wichtig für freies Wissen ist, Marcel Roth, Journalist und Teilnehmer der Tagung, der berichtet, warum er dabei war und was er für sich mitnimmt und Tino Melzer, der noch einmal zentrale Aspekte des Datenschutzes und die Gefahren für Lehrkräfte im Umgang mit KI benennt. Bundesweite Tagung, 16.+17.06.25 in Lehrte bei Hannover https://www.wikimedia.de/veranstaltungen/offene-ki-in-der-schule/ Podcast Digital Leben (MDR, Marcel Roth) https://www.ardaudiothek.de/sendung/digital-leben/urn:ard:show:e75e0f0cafaa040f/ You are fucked - Deutschlands erste Cyberkatastrophe https://www.ardaudiothek.de/sendung/you-are-fucked-deutschlands-erste-cyberkatastrophe/urn:ard:show:470d3a2a0afe10a4/ Über SMM https://n-report.de/2024/01/14/podcast-smm-schule-macht-medien-medien-machen-schule/
Vom 16. bis zum 17. Juni haben wir an der bundesweiten Tagung „Schule und offene KI“ teilgenommen. Mit Interviews einiger Akteurinnen und Akteure möchten wir euch teilhaben lassen – denn in der Auseinandersetzung mit einer möglichen offenen KI wird deutlich, welche Risiken ein unbedachter Einsatz von KI-Systemen mit sich bringen kann.Besonders eindringlich hat darauf Tino Melzer, der Thüringer Landesbeauftragte für Datenschutz und Informationssicherheit (TLfDI), aufmerksam gemacht. Seinen Impulsvortrag durften wir aufzeichnen – er wird demnächst als eigene Podcast-Folge erscheinen.In dieser Folge hört ihr im Interview:Jörg Steinemann vom NLQ, der in die Zielsetzung der Tagung einführt,Dr. Anne-Sophie Waag von Wikimedia Deutschland, die die Ziele des Vereins erläutert und erklärt, warum offene KI wichtig für freies Wissen ist,Marcel Roth, Journalist und Teilnehmer der Tagung, der berichtet, warum er dabei war und was er für sich mitnimmtund Tino Melzer, der noch einmal zentrale Aspekte des Datenschutzes und die Gefahren für Lehrkräfte im Umgang mit KI benennt.Bundesweite Tagung, 16.+17.06.25 in Lehrte bei Hannoverhttps://www.wikimedia.de/veranstaltungen/offene-ki-in-der-schule/Podcast Digital Leben (MDR, Marcel Roth)https://www.ardaudiothek.de/sendung/digital-leben/urn:ard:show:e75e0f0cafaa040f/You are fucked - Deutschlands erste Cyberkatastrophehttps://www.ardaudiothek.de/sendung/you-are-fucked-deutschlands-erste-cyberkatastrophe/urn:ard:show:470d3a2a0afe10a4/Über SMMhttps://n-report.de/2024/01/14/podcast-smm-schule-macht-medien-medien-machen-schule/
KI ist momentan in aller Munde. Die Möglichkeiten und Chancen durch diese Technologie sind auch im Handwerk gigantisch. Doch bei allen Chancen und Möglichkeiten darf auch einen Blick auf die Risiken nicht fehlen. Dafür habe ich mir mal wieder die Datenschutzexpertin meines Vertrauens Anke Hofmeyer eingeladen. Sie versorgt dich mit den wichtigsten Infos rund um den Datenschutz beim Einsatz von KI-Systemen. ✅ LINKS ZUM INTERVIEWPARTNER Ankes Webseite https://www.hofmeyer.net ✅ WERDE TEIL DER DIGITALE PROZESSE COMMUNITY https://www.digitale-prozesse-community.de
In Folge 136 des c't-Datenschutz-Podcasts sprechen Holger und Joerg mit Carolin Loy über die Arbeit und Haltung des Bayerischen Landesamts für Datenschutzaufsicht (BayLDA). Loy leitet dort den Bereiche Digitalwirtschaft, ist Pressesprecherin und hat Einblick in viele aktuelle Datenschutzthemen - von Künstlicher Intelligenz bis hin zu Cookie-Bannern. Sie hatte die vorvergangene Episode 134 im heise-Forum kritisch kommentiert und folgte postwendend einer darauffolgenden Einladung von Joerg. Zum Start geht es aber zunächst um ein 45-Millionen-Euro-Bußgeld gegen die deutsche Vodafone GmbH. Die Bundesdatenschutzbeauftragte verhängte diese Summe, weil Vodafone Partneragenturen nicht ausreichend kontrollierte und die Kundenauthentifizierung bei E-SIMs mangelhaft war. Auffällig: Vodafone akzeptierte das Bußgeld schnell, arbeitete bei der Aufklärung mit und spendete zusätzlich an gemeinnützige Organisationen. Einen zweiten Schwerpunkt bildet ein Beschluss des Oberlandesgerichts Köln zu Metas Plänen, öffentliche Facebook- und Instagram-Profile zum Training von KI-Systemen zu nutzen. Das Gericht entschied im Eilverfahren, zu dem noch keine schriftliche Begründung vorliegt: Meta darf diese Daten ohne ausdrückliche Einwilligung der Nutzer heranziehen. Die Interessen von Meta seien berechtigt, zudem hätte Meta Nutzern Widerspruch ermöglicht. In der Podcast-Episode geht es unter anderem um die Frage, ob Nutzer wirklich damit rechnen müssen, dass alte und öffentliche Posts zu KI-Zwecken verarbeitet werden, und ob der Umgang mit sensiblen Daten ausreichend berücksichtigt wird. Loy betont, dass die Rechtslage nicht immer dem Bauchgefühl entspricht und verweist auf europäische Vorgaben, nach denen das KI-Training grundsätzlich auch ohne Einwilligung möglich sein kann, solange bestimmte Bedingungen erfüllt sind. Das weitere Gespräch dreht sich um die tägliche Arbeit der bayerischen Datenschutzaufsicht BayLDA. Die Behörde berät Loy zufolge Unternehmen im Bundesland zu KI-Projekten, prüft Beschwerden - zum Beispiel beim Einsatz von KI im Bewerbungsprozess - und ist europaweit an Orientierungshilfen zu digitalen Themen beteiligt, etwa bei Cookie-Bannern und neuen digitalen Abo-Modellen ("Consent or Pay"). Loy schildert, dass zu Cookie-Bannern und Tracking nach wie vor die meisten Beschwerden eintreffen. Sie sieht neue Ansätze wie PIMs - zentrale Einwilligungsverwaltungen - zwar positiv, zeigt sich aber aber skeptisch, ob sie den Cookie-Banner-Wildwuchs wirklich eindämmen. Loy stellt sich sodan dem Vorwurf, Das BayLDA verhalte sich bei Datenschutzverstößen zu lasch oder zögerlich. Am Beispiel des von c't aufgedeckten Falls "Buchbinder", bei dem Millionen Kundendaten wegen einer Panne offen im Netz standen, erklärt sie, warum am Ende kein Bußgeld verhängt wurde: Das Unternehmen habe hohe Compliance-Standards gehabt, den Vorfall selbst gemeldet und eng mit der Behörde kooperiert. Entscheidend sei nicht der Fehler selbst, sondern wie Unternehmen mit Datenschutz umgehen und ob sie daraus lernen. Loy betont, dass die Behörde nicht vorrangig Strafen verteilen, sondern Datenschutz in der Breite fördern will - auch durch Beratung. Zum Abschluss geht es um die aktuelle Debatte zur Zentralisierung der Datenschutzaufsicht für Unternehmen bei der Bundesdatenschutzbeauftragten. Loy sieht das kritisch: Einheitliche Entscheidungen würden dadurch nicht automatisch entstehen, da viele Fragen ohnehin im europäischen Verbund entschieden werden. Zudem könnten regionale Beratung und Kontrolle verloren gehen. Die Runde vermutet hinter dem Zentralisierungswunsch auch das Ziel, Datenschutzauflagen zu lockern und Bürokratie abzubauen.
Die rasante Entwicklung der künstlichen Intelligenz stellt die Schweiz vor neue Herausforderungen. Der Bundesrat will eine Regulierung, jedoch ohne die Innovation zu behindern. Künstliche Intelligenz ist im Alltag vieler Menschen angekommen. Die Technologie entwickelt sich rasant weiter und kommt in immer mehr Bereichen zum Einsatz. Viele sehen in der künstlichen Intelligenz ein grosses Potential für die Wirtschaft, die Wissenschaft, die Verwaltung und die Gesellschaft als Ganzes. Damit die Schweiz profitieren kann und die Innovation nicht gebremst wird, wollen sie möglichst wenig gesetzliche Schranken. Andere warnen vor den Risiken. Dazu gehören die fehlende Transparenz beim Einsatz von KI, fehlerhafte Algorithmen, die zu Diskriminierung führen, oder Sicherheitslücken, die ausgenutzt werden könnten. Sie fordern strengere Regulierungen, um Risiken zu minimieren und das Vertrauen der Bevölkerung in KI-Technologien zu stärken. Vorhaben des Bundesrates Ein allgemeines KI-Gesetz, wie es die EU mit dem "AI-Act" kennt, ist nicht geplant. Stattdessen sollen bestehende Gesetze gezielt angepasst und branchenspezifische Regelungen erarbeitet werden. Zu diesem Zweck hat der Bundesrat eine Vernehmlassungsvorlage in Auftrag gegeben, welche Bereiche wie Transparenz, Datenschutz, Nichtdiskriminierung und Aufsicht umfassen soll. Zudem will der Bundesrat die Konvention des Europarats zu Künstlicher Intelligenz ratifizieren. Diese legt einen internationalen Rechtsrahmen fest, der verantwortungsvolle Innovationen fördert und die Risiken von KI-Systemen minimiert. KI-Systeme müssten die Menschenrechte, Demokratie und Rechtsstaatlichkeit respektieren. Reicht das, oder braucht die Schweiz rasch strengere Regeln für den Einsatz von Künstlicher Intelligenz? Darüber diskutieren im Forum: · Gerhard Andrey, Nationalrat Grüne Freiburg · Jon Fanzun, CEO Swico (Wirtschaftsverband für die digitale Schweiz)
Jede KI-Antwort basiert auf Quellen. Alle KI-Systeme – egal ob Google, ChatGPT oder Meta – bedienen sich am Internet, werten die Inhalte aus und verarbeiten sie. Aber wie funktioniert das eigentlich genau? Dafür haben wir unsere Website Logfiles analysiert. Erste Erkenntnis: Es kommen täglich diverse KI-Bots auf unsere Website. Die Bots kommen für unterschiedliche Funktionen in den KI-Systemen. Was diese Bots genau machen – das besprechen wir in unserem Podcast in der Tiefe. Die Zusammenfassung wie immer hier im Artikel. Eine solche Logfile Analyse ist nicht nur aus technischer Sicht interessant. Es geht um viel mehr: Eine neue Form der Webanalyse. Denn Unternehmen müssen verstehen, welche Rolle ihre Inhalte in KI-Systemen spielen. Wann sie zum Beispiel erwähnt werden und wann nicht. Wie etwa ChatGPT ihre Produkte beschreibt – und wie dafür auch die eigene Website als Quelle genutzt wird. 📈 Mehr Charts und Analysen zur Episode 🎓 SEO Online Training 👋 Fabian auf LinkedIn 👋 Benjamin auf LinkedIn
Oracle kauft einmal den Quartalsumsatz von Nvidia für ein OpenAI Datacenter. Tim Cooks Einfluss auf Präsident Trump steht auf dem Prüfstand. Meta verliert KI-Talente an das Pariser Startup Mistral. Verstößt Shein mit seinen Verkaufstaktiken gegen EU-Recht und drohen dem Fast-Fashion-Riesen aus China nun hohe Strafen? SoftBanks Masayoshi Son plant einen Fonds zwischen den USA und Japan. Die Trump Media Group will 3 Milliarden Dollar in Kryptowährungen investieren. Immer mehr Menschen suchen bei ChatGPT nach schonungslosen Schönheitstipps. ChatGPT o3 hat angeblich eine Abschaltung umgangen und damit Fragen zur Kontrolle von KI-Systemen aufgeworfen. Unterstütze unseren Podcast und entdecke die Angebote unserer Werbepartner auf doppelgaenger.io/werbung. Vielen Dank! Philipp Glöckler und Philipp Klöckner sprechen heute über: (00:00:00) Trump Apple Zölle (00:09:50) Oracle OpenAI (00:15:45) Meta Llama Talentverlust (00:22:00) Shein EU Verbraucherschutz (00:26:50) Masayoshi Son US Japan Staatsfonds (00:31:40) Trump Memecoin Gala (00:34:00 ) Kryptoinvestor Entführung (00:41:50) ChatGPT Schönheitstipps & Shutdown Umgehung Shownotes Techs Trump-Flüsterer Tim Cook wird leiser – nytimes.com Oracle $40bn für OpenAI's data centre – ft.com Elon Musk Twitter – x.com Stargate Video – Bloomberg Metas Llama-AI-Team verliert Talente an Mistral. – businessinsider Wird MAGA Mark Zuckerberg zurück lieben? – Bloomberg Shein verstößt gegen EU-Verbraucherschutzregeln – wsj.com SoftBank: Masayoshi Son schlägt US-Japan Staatsfonds vor – ft.com Trumps Memecoin-Galadinner zieht Krypto-Tycoons, Basketballstar und Proteste an – wsj.com Krypto-Investor wegen Entführung und Folterung angeklagt – nytimes.com Trump-Mediengruppe plant, $3 Mrd. in Kryptowährungen zu investieren – ft.com Menschen fragen ChatGPT nach ehrlichem Schönheitsrat – washingtonpost.com AI Image Gen Bias – washingstonpost.com Latina Bias – bloomberg Forscher behaupten, ChatGPT o3 umging Abschaltung im Test – bleepingcomputer.com
Immer mehr User suchen in KI-Systemen. Entweder in ChatGPT oder MetaAI in WhatsApp. Aber auch bei Google mit den AI Overviews und demnächst mit dem neuen AI Mode, der in den USA bereits live geschaltet wurde. Die alte Suche – die Treffer mit den blauen Links – werden in den Hintergrund gerückt. Was bedeutet das für SEO und die Sichtbarkeit von Unternehmen? Wie ändern sich die Spielregeln? Darüber sprechen wir mit Hanns Kronenberg. Hanns ist Senior SEO bei Chefkoch und setzt sich intensiv mit dem KI-Wandel auseinander. Das nehmen wir als Ausgangspunkt, um generell darüber zu sprechen, wie KI-Systeme funktionieren, wer davon bedroht ist und wer nicht – und ob und wie man für solche Systeme wirklich optimieren kann. 📈 Mehr Charts und Analysen zur Episode 🎓 SEO Online Training 👋 Fabian auf LinkedIn 👋 Benjamin auf LinkedIn
Der Performance Manager Podcast | Für Controller & CFO, die noch erfolgreicher sein wollen
In dieser Folge des Performance Manager Podcasts spricht Peter Bluhm mit Prof. Dr. Rouven E. Haschka, Professor für Business Analytics & Data Science an der Zeppelin Universität Friedrichshafen, über die ethischen Herausforderungen beim Einsatz von KI im Controlling. Folgende Themen werden u.a. besprochen: Einsatzmöglichkeiten von KI zur Automatisierung von Datenanalyse, Reporting und Planung im Controlling Ethische Herausforderungen: Datenintegrität, Datenschutz, Fairness und Transparenz Verantwortliche Implementierung von KI-Systemen und die Bedeutung menschlicher Kontrolle Umgang mit Verzerrungen (Bias) in KI-Algorithmen und deren Auswirkungen Praktische Handlungsempfehlungen für Unternehmen zur ethischen KI-Nutzung Ein ausführlicher Artikel von Prof. Dr. Rouven E. Haschka zu diesem Thema findet sich im Controlling & Management Review Nr. 4/2024.
Der Performance Manager Podcast | Für Controller & CFO, die noch erfolgreicher sein wollen
In dieser Folge des Performance Manager Podcasts spricht Peter Bluhm mit Prof. Dr. Rouven E. Haschka, Professor für Business Analytics & Data Science an der Zeppelin Universität Friedrichshafen, über die ethischen Herausforderungen beim Einsatz von KI im Controlling. Folgende Themen werden u.a. besprochen: Einsatzmöglichkeiten von KI zur Automatisierung von Datenanalyse, Reporting und Planung im Controlling Ethische Herausforderungen: Datenintegrität, Datenschutz, Fairness und Transparenz Verantwortliche Implementierung von KI-Systemen und die Bedeutung menschlicher Kontrolle Umgang mit Verzerrungen (Bias) in KI-Algorithmen und deren Auswirkungen Praktische Handlungsempfehlungen für Unternehmen zur ethischen KI-Nutzung Ein ausführlicher Artikel von Prof. Dr. Rouven E. Haschka zu diesem Thema findet sich im Controlling & Management Review Nr. 4/2024.
Es ist ein weltweites Wettrennen: Wer hat die größte Rechenkapazität, wie steht es mit der Wettbewerbsfähigkeit in Sachen Künstliche Intelligenz (KI), welche internationale KI-Regeln soll es geben?KI wirkt sich zunehmend auf unser Leben aus. Sie bietet Chancen, birgt aber auch Risiken – insbesondere für Sicherheit, Demokratie, Unternehmen und Arbeitsplätze. Korrespondent Christian Feld aus dem ARD-Europastudio in Brüssel erzählt von einem ganz besonderen Ort in Luxemburg, einer Halle, in der der Supercomputer Meluxina steht. Er ist einer von neun Hochleistungsrechnern, den die EU fördert. Um ihn herum soll eine sogenannte "KI-Fabrik" entstehen, in der auf künstlicher Intelligenz basierende Lösungen entwickeln werden sollen. Nachteil: Der Stromverbrauch von Meluxina alleine ist so hoch wie in etwa 1500 Privathaushalten zusammen. Larissa Holzki leitet das Team für Künstliche Intelligenz bei der Wirtschaftszeitung Handelsblatt. Mit ihr sprechen wir darüber, dass die USA und China momentan noch führend sind, was KI angeht. Was muss da in Europa passieren um aufzuholen? War der internationaler KI-Gipfel, der dieses Jahr im Februar in Paris stattfand, ein wichtiges Signal? Moderation: Janina Werner Redaktion: Heribert Roth und Navina Lala Mitarbeit: Nils Neubert Redaktionsschluss: 20.03.2025 ----- Diese und alle weiteren Folgen des Weltspiegel Podcasts findet ihr hier: https://www.ardaudiothek.de/sendung/weltspiegel-podcast/61593768/ Mehr zu der Recherche von Christian Feld zu KI-Systemen, Supercomputern und dem Stromverbrauch könnt ihr euch im Weltspiegel Magazin am Sonntag um 18:30 im Ersten oder im Anschluss in der ARD Mediathek anschauen: https://www.ardmediathek.de/weltspiegel Podcast Tipp: „Der KI-Podcast“: https://www.ardaudiothek.de/sendung/der-ki-podcast/94632864/
Es ist ein weltweites Wettrennen: Wer hat die größte Rechenkapazität, wie steht es mit der Wettbewerbsfähigkeit in Sachen Künstliche Intelligenz (KI), welche internationale KI-Regeln soll es geben?KI wirkt sich zunehmend auf unser Leben aus. Sie bietet Chancen, birgt aber auch Risiken – insbesondere für Sicherheit, Demokratie, Unternehmen und Arbeitsplätze. Korrespondent Christian Feld aus dem ARD-Europastudio in Brüssel erzählt von einem ganz besonderen Ort in Luxemburg, einer Halle, in der der Supercomputer Meluxina steht. Er ist einer von neun Hochleistungsrechnern, den die EU fördert. Um ihn herum soll eine sogenannte "KI-Fabrik" entstehen, in der auf künstlicher Intelligenz basierende Lösungen entwickeln werden sollen. Nachteil: Der Stromverbrauch von Meluxina alleine ist so hoch wie in etwa 1500 Privathaushalten zusammen. Larissa Holzki leitet das Team für Künstliche Intelligenz bei der Wirtschaftszeitung Handelsblatt. Mit ihr sprechen wir darüber, dass die USA und China momentan noch führend sind, was KI angeht. Was muss da in Europa passieren um aufzuholen? War der internationaler KI-Gipfel, der dieses Jahr im Februar in Paris stattfand, ein wichtiges Signal? Moderation: Janina Werner Redaktion: Heribert Roth und Navina Lala Mitarbeit: Nils Neubert Redaktionsschluss: 20.03.2025 ----- Diese und alle weiteren Folgen des Weltspiegel Podcasts findet ihr hier: https://www.ardaudiothek.de/sendung/weltspiegel-podcast/61593768/ Mehr zu der Recherche von Christian Feld zu KI-Systemen, Supercomputern und dem Stromverbrauch könnt ihr euch im Weltspiegel Magazin am Sonntag um 18:30 im Ersten oder im Anschluss in der ARD Mediathek anschauen: https://www.ardmediathek.de/weltspiegel Podcast Tipp: „Der KI-Podcast“: https://www.ardaudiothek.de/sendung/der-ki-podcast/94632864/
In dieser Ausgabe von Apfeltalk LIVE! tauchen wir tief in die Welt der Künstlichen Intelligenz ein und beleuchten insbesondere Apples Einstieg in dieses hochdynamische Feld. Zusammen mit dem renommierten Digitalexperten und KI-Spezialisten Jörg Schieb diskutieren wir, welche Rolle Apple Intelligence künftig spielen könnte und wie sie sich im Vergleich zu bereits etablierten KI-Systemen schlägt. Ob ChatGPT, DeepSeek, Grok oder CoPilot – KI ist längst aus unserem digitalen Alltag nicht mehr wegzudenken. Die Technologie optimiert Prozesse, assistiert bei kreativen Aufgaben und revolutioniert zahlreiche Branchen. Apple, bekannt für seine eher zurückhaltende Herangehensweise an neue Technologien, wagt sich nun mit Apple Intelligence auf dieses spannende Terrain. Allerdings ist der Rollout zunächst begrenzt: In der EU wird Apples KI-Lösung vorerst nur als Beta-Version verfügbar sein. Gemeinsam mit Jörg Schieb werfen wir einen kritischen Blick auf Apples Strategie, hinterfragen die tatsächlichen Einsatzmöglichkeiten und erörtern, ob und wie sich Apples KI-Ansatz von anderen Anbietern unterscheidet. Welche Stärken bringt Apple Intelligence mit? Wo sind die Schwächen? Und welche Aufgaben lassen sich mit KI generell sinnvoll lösen? Ein spannendes Gespräch über die Zukunft der KI im Apple-Universum und darüber hinaus!
Die neuen KI-Suchsysteme bekommen immer mehr Zulauf. So hat sich die Nutzung von ChatGPT in Deutschland mittlerweile verdreifacht (allerdings ohne dass OpenAI dazu absolute Zahlen nennt, Quelle). Immer mehr Verantwortliche in Unternehmen fragen sich entsprechend: Wie werden unser Unternehmen und unsere Angebote in den KI-Systemen erwähnt? Genau dazu entstehen gerade neue KI-Monitoring-Tools. Ein komplett neuer Markt, der sich sehr dynamisch entwickelt. Wir haben zwei Tool-Anbieter getestet: PeekAI und OtterlyAI. In der Podcast-Folge und in diesem Artikel sprechen wir darüber, wie wir ein KI-Monitoring aufgesetzt haben, warum man dafür tief in die Search Journey einsteigen muss – und was den Tools noch fehlt. 📈 Mehr Charts und Analysen zur Episode 🎓 SEO Online Training 👋 Fabian auf LinkedIn 👋 Benjamin auf LinkedIn
Anna Kalinowsky, heise-online-Chefredakteur Dr. Volker Zota (@DocZet) und Malte Kirchner (@maltekir) sprechen in dieser Ausgabe der #heiseshow unter anderem über folgende Themen: - Neue Vorgaben durch AI Act: Kommt der KI-Führerschein? Der AI Act sieht vor, dass Unternehmen die Kompetenz ihrer Mitarbeiter im Umgang mit KI-Systemen sicherstellen müssen. Welche Anforderungen kommen auf Unternehmen zu? Und wie könnte ein KI-Führerschein konkret aussehen? Welche Rolle spielen Zertifizierungen für die KI-Nutzung? - Ausdigitalisiert: Digitale Transformation laut Studie ausgebremst – Die digitale Transformation in Deutschland kommt laut einer Studie nur noch langsam voran. Warum schwindet der anfängliche Digitalisierungselan? Was bedeutet das für den Wirtschaftsstandort Deutschland? Wie lässt sich die Transformation wieder beschleunigen? - Vorübergehender Zustellungsstopp für Shein, Temu und Co.: Macht das Beispiel der USA bald Schule? Die US-Post nahm zeitweise keine Pakete von Shein, Temu und anderen chinesischen Fast-Fashion-Anbietern mehr an. Was steckt hinter dem Lieferstopp? Könnte Europa dem Beispiel folgen? Welche Auswirkungen hätte das auf den Online-Handel? Außerdem wieder mit dabei: ein Nerd-Geburtstag, das WTF der Woche und knifflige Quizfragen.
Anna Kalinowsky, heise-online-Chefredakteur Dr. Volker Zota (@DocZet) und Malte Kirchner (@maltekir) sprechen in dieser Ausgabe der #heiseshow unter anderem über folgende Themen: - [Neue Vorgaben durch AI Act: Kommt der KI-Führerschein?](https://www.heise.de/news/AI-Act-KI-Nutzung-nur-noch-mit-ausreichender-Kompetenz-10264965.html) Der AI Act sieht vor, dass Unternehmen die Kompetenz ihrer Mitarbeiter im Umgang mit KI-Systemen sicherstellen müssen. Welche Anforderungen kommen auf Unternehmen zu? Und wie könnte ein KI-Führerschein konkret aussehen? Welche Rolle spielen Zertifizierungen für die KI-Nutzung? - [Ausdigitalisiert: Digitale Transformation laut Studie ausgebremst](https://www.heise.de/news/Studie-Digitalisierung-kommt-nur-noch-langsam-voran-10269928.html) – Die digitale Transformation in Deutschland kommt laut einer Studie nur noch langsam voran. Warum schwindet der anfängliche Digitalisierungselan? Was bedeutet das für den Wirtschaftsstandort Deutschland? Wie lässt sich die Transformation wieder beschleunigen? - [Vorübergehender Zustellungsstopp für Shein, Temu und Co.: Macht das Beispiel der USA bald Schule?](https://www.heise.de/news/Problem-fuer-Shein-und-Temu-US-Post-nimmt-keine-Pakete-aus-China-mehr-an-10269906.html) Die US-Post nahm zeitweise keine Pakete von Shein, Temu und anderen chinesischen Fast-Fashion-Anbietern mehr an. Was steckt hinter dem Lieferstopp? Könnte Europa dem Beispiel folgen? Welche Auswirkungen hätte das auf den Online-Handel? Außerdem wieder mit dabei: ein Nerd-Geburtstag, das WTF der Woche und knifflige Quizfragen.
In Ausgabe 96 ist Peter Purgathofer, Prof. für Informatik (TU-Wien) zu Gast. Gemeinsam mit Kabarettist Martin Puntiugam erörtert er, was Informatik eigentlich ist, was man lernen muss, wenn man Informatik studiert, ie man Research Software Engineer wird, was SAP scherzhaft auch bedeuten kann, warum Chatbots Mittelmäßigkeit bevorzugen, warum unsere Unwissenheit Chatbots schlau erscheinen lässt, seit wann die KI von sich selber abschreibt, was generative von analysierender KI unterscheidet, wie interessant alte Mäuse für die Informatik sind, warum Spielkonsolen keine richtigen Computer sein dürfen, ob die Teilnahme am BETA-Prozess wirklich ein Privileg ist, wie wichtig Klassenkamerad:innen für die Studienwahl sind, wie der Horrorsatz für Programmierer:innen lautet, ob man auf Linux umsteigen soll, ob künstliche Intelligenz wirklich intelligent sein kann, warum wir aufhören sollten sie so zu nennen, dass wir elegante Ausdrucksweise für schlauer halten, warum ChatGPT nicht wirklich witzig sein kann, was man verliert, wenn man Chatbots Arbeit machen lässt und was gewinnt man, ob die dystopischen Popstars Recht haben, die vor KI als Zerstörer der Menschheit warnen, was man unter algorithmic bias versteht, ob die Welt moderner wird durch die Arbeit von KI-Systemen, warum man einen Chatbot nicht wie eine menschliches Gegenüber betrachten sollte, weshalb Chatbots redegewandte Reaktionäre sein können, worum es sich bei explainable AI handelt, wie dringend man gewisse KI-Systeme reglementieren sollte, ob KI allein durch ihren Stromverbrauch gefährlich wird, warum zuviel Geld in zu wenigen Händen schlecht für die Demokratie ist und wie blöd Computer eigentlich sind.
In dieser Episode von TomsTalkTime – DER Erfolgspodcast dreht sich alles um KI Fehler, genauer gesagt um die typischen technologischen Fallen, in die Unternehmen bei der Einführung von künstlicher Intelligenz tappen. KI hat das Potenzial, Unternehmen revolutionär zu verändern – von effizienteren Prozessen bis hin zu beeindruckenden Wettbewerbsvorteilen. Doch der Erfolg steht und fällt mit der technischen Umsetzung. Warum scheitern KI-Projekte oft schon in der Anfangsphase? Welche technologischen Hürden übersehen viele Entscheider? Ich zeige dir heute die 4 häufigsten technologischen KI-Fehler – und natürlich auch, wie du sie vermeidest. Denn wenn du diese Punkte im Blick behältst, sicherst du dir die besten Chancen auf eine erfolgreiche KI-Integration. Zusammenfassung und Stichpunkte In dieser Episode erfährst du: Warum nicht skalierbare KI-Lösungen langfristig scheitern. Weshalb die technologische Komplexität von KI-Projekten oft unterschätzt wird. Wie eine falsche Modellwahl zu komplett unbrauchbaren Ergebnissen führen kann. Welche IT-Sicherheitslücken sich bei KI-Systemen auftun und wie du sie schließt. Diese Erkenntnisse helfen dir, typische Fehler zu vermeiden und eine zukunftssichere KI-Strategie aufzubauen. Zusammenfassung und Stichpunkte In dieser Episode erfährst du: Warum nicht skalierbare KI-Lösungen langfristig scheitern. Weshalb die technologische Komplexität von KI-Projekten oft unterschätzt wird. Wie eine falsche Modellwahl zu komplett unbrauchbaren Ergebnissen führen kann. Welche IT-Sicherheitslücken sich bei KI-Systemen auftun und wie du sie schließt. Diese Erkenntnisse helfen dir, typische Fehler zu vermeiden und eine zukunftssichere KI-Strategie aufzubauen. Shownotes und Episodendetails KI Fehler – Typische Technologiefallen vermeiden – #873 Der Einsatz von KI ist in der Geschäftswelt angekommen. Doch der Weg zur erfolgreichen Implementierung ist oft steinig. In dieser Episode teile ich mit dir die häufigsten technologischen Stolperfallen und gebe dir praxisnahe Lösungen an die Hand. 1. KI Fehler: Nicht skalierbare KI-Lösungen Viele Unternehmen beginnen klein: Ein KI-System für den Kundenservice oder zur internen Datenanalyse. So weit, so gut. Doch oft wird vergessen, dass KI-Lösungen skalierbar sein müssen, um langfristig zu funktionieren. Ein Beispiel aus der Praxis: Ein Logistikunternehmen setzt KI zur Routenplanung ein. Mit 10 LKWs funktioniert die Lösung einwandfrei. Doch als die Flotte auf 100 LKWs wächst, bricht das System zusammen, weil es für größere Datenmengen nicht ausgelegt ist. Die Lösung? Von Anfang an auf Systeme setzen, die flexibel wachsen können und Lastspitzen problemlos bewältigen. 2. KI Fehler: Technologische Komplexität unterschätzen Ein weitverbreiteter Fehler: Die Annahme, dass KI „einfach so funktioniert“. Viele Unternehmen unterschätzen, wie komplex die Integration in bestehende IT-Systeme ist. Praxisbeispiel: Ein mittelständisches Produktionsunternehmen wollte KI einsetzen, um Maschinenausfälle vorherzusagen. Doch die KI-Software konnte nicht mit den vorhandenen Maschinen-Datenbanken kommunizieren. Das Ergebnis? Ein Projekt, das unnötig viel Zeit und Geld kostete. Mein Tipp: Vor dem Start prüfen, ob die IT-Infrastruktur zur geplanten KI-Lösung passt. Und hol dir im Zweifel externe Experten an Bord. 3. KI Fehler: Fehlerhafte Modellwahl Nicht jede KI eignet sich für jede Aufgabe. Ein typischer technischer Fehler ist die falsche Auswahl des KI-Modells. Das passiert häufig, wenn Unternehmen versuchen, alles selbst zu machen. Ein Beispiel: Ein E-Commerce-Unternehmen möchte Kundenfeedback automatisch auswerten. Statt eines Textanalyse-Modells wird versehentlich ein KI-Modell zur Vorhersage von Verkaufszahlen eingesetzt. Die KI liefert Ergebnisse, die völlig unbrauchbar sind. Hier ist es entscheidend, das richtige Modell auszuwählen – am besten in Zusammenarbeit mit erfahrenen Entwicklern. 4. KI Fehler: IT-Sicherheitslücken KI-Systeme greifen auf große Mengen sensibler Daten zu. Wenn die Sicherheitsvorkehrungen nicht stimmen, entstehen riesige Risiken. Hackerangriffe oder Datenlecks können das Vertrauen der Kunden zerstören. Ein konkretes Beispiel: Ein Finanzunternehmen setzt KI für Kreditwürdigkeitsprüfungen ein. Durch eine ungesicherte Datenbank gelangen Hacker an die Finanzinformationen tausender Kunden. Solche Fehler lassen sich durch regelmäßige Sicherheits-Checks und Datenverschlüsselung vermeiden. IT-Sicherheit darf bei der KI-Einführung niemals nachlässig behandelt werden! Warum du diese Episode nicht verpassen solltest Wenn du KI erfolgreich in deinem Unternehmen einsetzen willst, ist technologische Präzision der Schlüssel. Diese Episode hilft dir, typische technische Stolperfallen zu erkennen und zu vermeiden: Du erfährst, wie du KI-Systeme von Anfang an skalierbar planst. Du lernst, warum du die technische Komplexität niemals unterschätzen solltest. Ich zeige dir, wie du das richtige Modell für deinen Use Case findest. Du erfährst, wie du Sicherheitslücken schließt und deine KI-Daten schützt. Wichtige Links aus dieser Episode:
In diese Folge tauchen Alois und Oliver mit ihrem Gast Prof. Dr. Christian Rauda (Kanzlei ARTANA) tief in die juristischen Herausforderungen und Chancen ein, die Künstliche Intelligenz (KI) mit sich bringt. Christian, Fachanwalt für IT-Recht, Urheber- und Medienrecht sowie gewerblichen Rechtsschutz, teilt Einblicke in die spannenden Entwicklungen rund um KI, Datenschutz und geistiges Eigentum. KI und Rechtliche Grauzonen: Christian erklärt, wie Unternehmen durch die rasanten Fortschritte der KI vor rechtlichen und ethischen Herausforderungen stehen. Besonders spannend: der Umgang mit Trainingsdaten und die Frage, ob Urheber von Inhalten an den Erlösen von KI-Systemen beteiligt werden sollten. Chancen vs. Risiken: Trotz aller Risiken betont Christian, dass wir die Chancen von KI stärker in den Vordergrund stellen sollten. Die Debatte in Deutschland drehe sich oft zu stark um Gefahren, statt die Effizienzsteigerungen und Vorteile zu erkennen. Regulierung und Innovation: Im Vergleich zwischen den USA und Europa zeigt sich, dass der europäische Ansatz zwar strenger ist, aber langfristig auch als Blaupause für andere Länder dienen könnte. Die Datenschutz-Grundverordnung ist ein Beispiel für einen solchen Exportschlager. Schutzrechte und KI: Können durch KI generierte Inhalte urheberrechtlich geschützt werden? Christian erläutert, warum die Antwort „nein“ lautet und welche neuen Schutzsysteme dennoch diskutiert werden könnten. Zukunftsperspektiven: Oliver, Alois und Christian sprechen über die potenzielle Notwendigkeit neuer Rechtsinstitute, sollte KI immer mehr kreative und wertschöpfende Tätigkeiten übernehmen. Auch die Balance zwischen Regulierung und Innovationsförderung wird kritisch hinterfragt. Zum Abschluss plädieren die drei für mehr Aufklärung, um die Angst vor KI zu reduzieren und deren Potenziale gezielt zu nutzen. Eine inspirierende Episode für alle, die sich mit den rechtlichen und ethischen Fragen rund um KI beschäftigen!
Alle Apple-Fans warten gespannt auf die Einführung von Apple Intelligence. Apple hat die Einführung dieser Funktionen in der EU verzögert, da unklar ist, ob sie den Anforderungen des Digital Markets Act (DMA) entsprechen. Dieses Gesetz verlangt von besonders großen Plattformen (sog. »Gatekeepern«) umfangreiche Zugeständnisse, mit dem Ziel, den Wettbewerb zu fördern. Wettbewerb bedeutet in diesem Fall, dass konkurrierende Anbieter (von KI-Systemen) die gleichen Chancen haben müssen wie Apples eigene KI-Lösung. Es klingt, als würde hier ein modulares Betriebssystem gefordert. Doch Apple verfolgt keinen modularen Ansatz, sondern einen integrierten Ansatz. In der Sendung zeigen wir, worin der Konflikt aus technischer Sicht besteht. Dabei gehen wir nicht nur auf Apple Intelligence ein, sondern auch auf andere Funktionen, die Apple derzeit in der EU zurückhält.