POPULARITY
In dieser Folge spricht Dominique mit Tara Bosenick (https://www.linkedin.com/in/tarabosenick/), Management Director bei uintent, über KI gestützten UX Research und was davon im Alltag von Produktteams wirklich trägt. Tara bringt mehr als zwei Jahrzehnte Erfahrung im UX Research mit und beobachtet sehr genau, wie sich der Einsatz von Sprachmodellen auf Research Prozesse auswirkt. UX Research steht für fundierte Entscheidungen. Wer Produkte verantwortet, braucht belastbare Erkenntnisse über Bedürfnisse, Motive und Probleme von Nutzerinnen und Nutzern. Gleichzeitig steigt der Druck. Zeit fehlt, Prioritäten konkurrieren, Entscheidungen sollen schneller fallen. Hier können KI Werkzeuge Entlastung bieten. Tara erlebt in ihren Workshops beides: Begeisterung und Ernüchterung. Sprachmodelle formulieren hervorragend. Sie helfen beim Schreiben von Screenern, Interviewleitfäden oder UX Texten. Sie unterstützen bei der Strukturierung von Gedanken. Gerade beim Formulieren entsteht spürbare Zeitersparnis im UX Research. Der große Hebel liegt jedoch in der Analyse. Transkripte auswerten, Muster erkennen, Zitate sauber belegen und daraus einen klaren Report bauen kostet Zeit. Hier setzen viele Hoffnungen an. Doch genau hier zeigt sich auch die Schwäche probabilistischer Systeme. Ein Sprachmodell berechnet Wahrscheinlichkeiten. Es liefert gut klingende Antworten. Das bedeutet nicht automatisch, dass diese Antworten auch korrekt sind. Wer im UX Research Interviews analysiert, will keine wahrscheinlichen Aussagen, sondern präzise Aussagen auf Basis echter Daten. Halluzinationen entstehen schneller als vielen bewusst ist. Ein falsch zugeordnetes Pronomen im Transkript kann bereits eine Interpretation kippen. Ein unklarer Kontext im Prompt kann dazu führen, dass externe Annahmen in die Analyse einfließen. Tara plädiert deshalb für ein sehr bewusstes Vorgehen, wie kleine Analyseschritte statt großer Gesamtaufgaben zu stellen, klare Regeln im Prompt zu formulieren, Explizite Anweisungen zu geben, nur mit den vorliegenden Daten zu arbeiten und Zitate wortwörtlich wiederzugeben. UX Research mit KI verlangt Disziplin und ein kritisches Auge. Auch die Vorbereitung von Research profitiert nur begrenzt von Automatisierung. Wer regelmäßig Interviews führt, erstellt Leitfäden oft schneller selbst, als ein Sprachmodell mit ausreichend Kontext zu versorgen. Sinnvoll kann KI im UX Research beim vorbereitenden Desk Research sein oder als Sparringspartner für Hypothesen und Fragestellungen. Spannend wird es aber beim Reporting. Layouts automatisiert befüllen, Charts erstellen und Präsentationen strukturieren spart Zeit, ohne den Kern des UX Research zu verfälschen. Hier entsteht echte Entlastung im Alltag von Product Ownern und Produktmanagerinnen. Gleichzeitig bleibt der Mensch zentral. Gute Interviews leben von Beziehung und Gesprächsdynamik. Wer UX Research komplett an Bots abgibt, verliert die unmittelbare Erfahrung mit Nutzerinnen und Nutzern. Gerade für Produktteams ist es wertvoll, Probleme aus erster Hand zu hören. Diese Erfahrung schafft ein gemeinsames Verständnis, das kein Report ersetzen kann. Datenschutz und Compliance sind lösbar, wenn passende Tarife und Verträge genutzt werden. Das größere Risiko liegt in der unkritischen Nutzung. Sprachlich überzeugende Ergebnisse verführen dazu, sie ungeprüft zu übernehmen. Für fundierten UX Research braucht es jedoch Verantwortung und Reflexion. KI gestützter UX Research ist damit weder Heilsbringer noch reine Spielerei. Er kann Prozesse beschleunigen, wenn wir die Grenzen kennen und bewusst steuern. Wer Halluzinationen versteht, Prompts strukturiert und Ergebnisse prüft, gewinnt Zeit für das Wesentliche. Für bessere Fragen, tiefere Gespräche und klarere Entscheidungen im Produktalltag.
Epsteins Netzwerk: Monarchie, Macht und Missbrauch | Ukraine-Krieg: 4 Jahre und kein Ende | Social-Media-Verbot für Kinder und Jugendliche? | Merz im Umfragetief - Christian Ehring zeigt den Irrsinn der Woche.
Epsteins Netzwerk: Monarchie, Macht und Missbrauch | Ukraine-Krieg: 4 Jahre und kein Ende | Social-Media-Verbot für Kinder und Jugendliche? | Merz im Umfragetief - Christian Ehring zeigt den Irrsinn der Woche.
Wer entscheidet, was ChatGPT antwortet? Nicht nur die Entwickler – auch ein einziger Text, ein sogenannter Systemprompt, der vor jeder Anfrage steht. Und Elon Musk kann den Systemprompt von Grok ändern - damit beeinflussen, was Millionen Menschen täglich an Antworten bekommen. Das klingt technisch, ist es aber nicht: Und genau solche Zusammenhänge versucht Letitia Parcalabescu ihren Zuschauern beizubringen. KI ist längst in der Mitte der Gesellschaft angekommen. Aber das Verständnis für das, was dahintersteckt, hält nicht Schritt. Begriffe wie Large Language Model, Tokenization oder Systemprompt geistern durch Medien und Meetings – und werden kaum erklärt. Letitia ist Forscherin bei Aleph Alpha Research und hat ihren Doktor in Computerlinguistik an der Universität Heidelberg gemacht. Bekannt ist sie aber vor allem für ihren YouTube-Kanal "AI Coffee Break" – kurze, lockere Videos, in denen eine Kaffeebohne die neueste KI-Forschung erklärt. Und so senkt sie die Schwelle dafür, sich mit komplexen Themen auseinanderzusetzen. Im Gespräch mit uns erklärt sie, welche KI-Begriffe wirklich jeder kennen sollte, warum Sprachmodelle besser antworten, wenn man ihnen 10 Euro verspricht – und warum Wissenschaft kein steifes Format braucht, um ernst genommen zu werden. Reinhören und anschließend den Kanal auf YouTube abonnieren: AI Coffee Break with Letititia. Die Kaffeebohne wartet.
E-Health Pioneers | Der Business Podcast für den digitalen Gesundheitsmarkt
97 Prozent der Klinikmitarbeitenden faxen noch – gleichzeitig investiert Recare 37 Millionen Euro in KI-gestützte Bürokratie-Automatisierung. In dieser Episode sprechen wir über hochbürokratisches Entlassmanagement, Sprachmodelle im Krankenhaus und die provokante These: Das klassische KIS wird es so nicht mehr geben. Warum die Zukunft des Krankenhauses API-basiert, KI-getrieben und datenfokussiert ist – und weshalb Wettbewerbsfähigkeit zur zentralen Frage wird.
In dieser Kurzfolge von RaDiHum20 setzen wir unsere Reihe zur DHd2026 in Wien fort und sprechen mit Axel Pichler von der Universität Wien. Axel gibt uns Einblicke in mehrere aktuelle Projekte, die sich mit generativer KI und literaturwissenschaftlicher Methodik beschäftigen. Gemeinsam mit Kolleg*innen untersucht er, inwiefern sich das Outputverhalten großer Sprachmodelle mit literaturwissenschaftlichen Interpretationsstandards vergleichen lässt. Daneben arbeitet er an einem Workflow zur Evaluation generierter Gedichtinterpretationen sowie an einer Studie zur literaturgeschichtlichen Textpraxis im Kontext von LLMs. Im Gespräch wird schnell deutlich: Eine pauschale Bilanz zur Eignung von KI in der Literaturwissenschaft gibt es nicht. Ob Large Language Models sinnvoll einsetzbar sind, hängt stark von Datensatz, Fragestellung und methodischem Design ab. Wir sind der Meinung, dass die Modelle momentan als Coding-Assistenten besonders hilfreich sind. Gleichzeitig betont Axel die Verpflichtung zur sorgfältigen Validierung: Auch KI-generierte Ergebnisse müssen kritisch geprüft und methodisch reflektiert werden.
Vorträge und Diskussion vom 2. Februar 2026 mit Prof. Dr. Kevin Bauer (Goethe-Universität Frankfurt), Sören Heß (PanocularAI), Prof. Dr. Toni Loh (Hochschule Bonn-Rhein-Sieg) und Prof. Dr. Kristian Kersting (Technische Universität Darmstadt), moderiert von Dr. Helge Bezold (Evangelische Akademie Frankfurt). Sprachmodelle wie ChatGPT, lernende KI-Systeme und hochentwickelte Roboter lassen heute vieles möglich erscheinen. Weniger beachtet wird jedoch, dass der KI-Boom grundlegende Fragen über unser Menschenbild und das Zusammenspiel von Mensch und Maschine aufwirft: Wie erweitert künstliche Intelligenz unsere Handlungsspielräume? Welche Verantwortung tragen wir, wenn wir Technologien in diesem Bereich entwickeln und anwenden? Gerade in Hessen ist eine Auseinandersetzung mit diesen Fragen relevant, denn hier florieren sowohl Forschungsprojekte zur KI als auch Unternehmen, die KI nutzen oder vorantreiben. Manche sprechen gar von einem „Silicon Valley Europas“. Dieser verheißungsvollen Sichtweise stellen wir in unserer Veranstaltung Perspektiven der Technikphilosophie und Ethik gegenüber. Forschende aus dem Netzwerk „hessian.AI“ geben Einblicke in den aktuellen Stand der KI-Forschung; ein regionales Start-up präsentiert konkrete Anwendungsfelder. Gemeinsam kommen wir offen und kritisch darüber ins Gespräch, von welchen Debatten technologische Innovationen in unserer Region begleitet werden sollten.
Input geben - Networking starten!Suchmaschinen fühlen sich heute wie Gespräche an – und genau dort müssen wir als Marke stattfinden. Gemeinsam mit Tonio Meier von Guuru gehen wir der Frage nach, warum echte Nutzerstimmen in ChatGPT, Gemini und Perplexity so stark wirken und wie wir diese Kraft gezielt für mehr Sichtbarkeit, Vertrauen und Umsatz nutzen. Statt KI-Textfabriken setzen wir auf Community: authentische Bewertungen, präzise Antworten und konkrete Erfahrungen, die Sprachmodelle als zuverlässige Signale erkennen und zitieren.Wir zeigen, wie sich aus Chats und Diskussionen hochwertige Snippets extrahieren lassen, die sich auf Produktseiten einbetten und sauber strukturieren: mit Datum, Produktbezug, Kurzfazit und klarer Autorenschaft. LLMs bevorzugen aktuelle, menschliche und spezialisierte Inhalte – das macht Freshness, Expertise und transparente Profile zu Pflicht. Der Effekt ist messbar: weniger Streuverlust, qualitativere Klicks, mehr Conversion. Gleichzeitig sinken Supportkosten, wenn How-to-Antworten der Community über KI-Tools als Self-Service gefunden werden. Wir beleuchten die Tücken der Attribution und erklären, welche Indikatoren wirklich zählen, wenn Referrals aus KI-Gesprächen unsichtbar bleiben.Spannend wird es beim Branchenblick: Während große Banken bei generischen Fragen dominieren, gewinnen Nischenanbieter mit klarer Positionierung die spitzen Suchabsichten – etwa bei Mobilität oder Nachhaltigkeit. Das Muster bleibt gleich: echte Stimmen, saubere Struktur, kontinuierliche Aktualisierung. Ob Retail, D2C oder Finance – wer Community ernsthaft fördert, liefert die Art Inhalte, die LLMs schätzen und Kundinnen und Kunden vertrauen. Hör rein, hol dir die Taktiken für KI-Sichtbarkeit mit Substanz und sag uns: Wo aktivierst du deine stärksten Stimmen?Abonniere den Podcast, teile die Folge mit deinem Team und hinterlasse eine Bewertung, wenn dir die Einsichten geholfen haben. So bleibt unsere Community sichtbar – auch in den KI-Gesprächen von morgen. Support the showVielen Dank an unsere Starken Podcast-Partner: Solunex: Der Schwerpunkt von Solunex liegt in der Unterstützung unserer Kunden im effizienten und automatisierten Verarbeiten und erzeugen von Kundenkommunikation. Dabei decken wir sowohl die Eingangsseite ab (Input Management), wobei Automatisierung und Unterstützung der Kundenteams durch den gezielten Einsatz von AI im Vordergrund stehen. Auf der Ausgangsseite (Output Management), steht ebenfalls die Automatisierung im Fokus, sowie die Nutzung sämtlicher Kontaktkanäle zwischen Kunden und Endkunden (Omnichannel Management). Vor über 35 Jahren gegründet, verfügt das Team von Solunex über langjährige Erfahrungen aus erfolgreichen Kundenprojekten, basierend auf hervorragender technischer Umsetzungskompetenz. Solunex unterstützt die Kunden über den gesamten Lebenszyklus einer Lösung aktiv und zuverlässig. https://www.solunex.ch/ AlpineAI: AlpineAI ist ein innovatives Schweizer KI-Unternehmen, das sich auf sichere und datenschutzkonforme KI-Lösungen für Unternehmen spezialisiert hat. Ihr Hauptprodukt, SwissGPT, ist eine Schweizer Version von ChatGPT, die höchste Standards beim Daten- und Geheimnisschutz gewährleistet, indem alle Informationen in Schweizer Rechenzentren verarbeitet werden. AlpineAI versteht sich als Innovationskatalysator für die KI-Transformation und arbeitet daran, Unternehmen durch massg...
In dieser Folge von EduFunk sprechen wir über ein Fach, das viele Schüler:innen herausfordert – und über eine App, die genau hier ansetzt. Zu Gast sind Leon Frischauf, Gründer der Lernplattform Studyly, und Klaus-Jürgen Spätauf, Lehrer an einer digitalen Mittelschule in Wien und langjähriger EduFunk-Hörer.Gemeinsam werfen wir einen Blick darauf, wie digitaler Mathematikunterricht aussehen kann, der wirklich unterstützt: mit sofortigem Feedback, gezielter Diagnostik, individualisierten Lernpfaden und einer klaren didaktischen Idee dahinter. Leon erklärt, wie Studyly entstanden ist, warum dort bewusst keine generativen Sprachmodelle eingesetzt werden und wie regelbasierte KI hilft, typische Fehlvorstellungen sichtbar zu machen. Klaus-Jürgen berichtet aus der Praxis, wie sich der Unterricht verändert, wenn Lehrkräfte den Lernstand ihrer Klasse auf einen Blick sehen – und warum das weder Überforderung noch Kontrollverlust bedeuten muss.Es geht um Chancen und Grenzen von KI im Unterricht, um Heterogenität in Klassen, um Motivation, Gamification und die Frage, wie Schule in den nächsten Jahren Lernen gerechter und individueller gestalten kann.Eine Folge für alle, die Mathematikunterricht neu denken wollen – praxisnah, kritisch und mit Blick nach vorn.weiterführende Links:Studyly - https://studyly.com/at/Social Media:
Viele von uns kennen mittlerweile Sprachmodelle wie ChatGPT, die in der Lage sind, die Struktur und Bedeutung unserer Sprache zu lernen und wiederzugeben. Aber wie sieht es mit der „Sprache“ unserer Zellen aus – der DNA? In dieser Folge spricht Dr. Anna Poetsch von der TU Dresden darüber, wie sie Modelle entwickelt, die helfen, die Geheimnisse der DNA zu entschlüsseln.
KI treibt Kurse, Stefan Waldhauser bleibt skeptisch. Er erklärt, warum Sprachmodelle keine AGI liefern. Er erwartet eine harte Ernüchterung beim KI-Hype. Stattdessen setzt er auf Angi als Plattform-Value, PayPal als Turnaround und The Trade Desk nach dem Bewertungsrutsch. Sein Ansatz: Cash halten, Geduld bewahren, auf Momentum warten.
Können Sie sich noch erinnern, wie das chinesische KI-Unternehmen Deepseek die Tech-Welt schockte? Wie ein Modell aus Fernost infrage stellte, ob wirklich noch mehr Daten und Rechenleistung nötig sind, um noch bessere Sprachmodelle zu konstruieren? Beine ein Jahr ist inzwischen vergangenen seitdem die Deepseek-Ingenieure auch in Europa neue Hoffnung auslösten, in der KI mithalten zu können, die häufig Milliardeninvestitionen erfordert. Das vergangene Jahr stand technologisch, wirtschaftlich, aber zunehmen auch politisch im Zeichen der KI. Niemand kommt an dieser Schlüsseltechnologie noch vorbei. Die gute Nachricht für die Nutzer: Der Wettbewerb ist groß. Es gibt eine ganze Reihe kompetenter KI-Modelle, kein einzelnes Unternehmen oder KI-System dominiert den Markt oder droht, ihn auf sich zu vereinen. Abgesänge auf Google haben sich als verfrüht erwiesen, Open AI verfügt über Spitzenmodelle, Microsoft, Meta und Anthropic konkurrieren. Und dann sind da eben auch die Anbieter aus China und manche aus Europa, die mithalten können. In unserem Jahresrückblick diskutieren wir aber nicht nur über KI. Der Fortschritt in diesem Bereich führte auch zu wachsender Sorge über Desinformation, Datenschutz und soziale Auswirkungen. Staaten reagierten unterschiedlich: Australien reguliert sozialer Medien deutlich strenger und schützt gerade Kinder und Jugendliche. Andere Länder, nicht zuletzt in Europa, denken über ähnliche Schritt nach. Und schließlich sprechen wir auch über digitale Souveränität und was das heute bedeutet. Denn auch dieser Diskurs geht weiter - und bleibt wichtig. Einen guten Start ins neue Jahr.
Künstliche Intelligenz ist 2025 endgültig im Alltag angekommen. Kaum ein Technologiethema hat Wirtschaft, Politik und Gesellschaft in diesem Jahr so geprägt wie KI. Parallel dazu ist in Deutschland das erste eigenständige Digitalministerium gestartet – und eco – Verband der Internetwirtschaft e.V. blickt auf 30 Jahre Verbandsgeschichte zurück. Doch zum Jahresende bleibt die zentrale Frage: War 2025 wirklich das lange erwartete KI-Jahr – oder vor allem ein Jahr der Erwartungen? In der Jahresabschlussfolge 2025 von „Das Ohr am Netz“ sprechen Sidonie Krug und Sven Oswald mit Dr. Aljoscha Burchardt (Principal Researcher am Deutschen Forschungszentrum für Künstliche Intelligenz, DFKI; Co-Host des ARD-Podcasts „KI – und jetzt?“) über den realen Stand der KI-Entwicklung: über echte Fortschritte, über technologische Grenzen – und darüber, wo der Hype der Realität vorausgeeilt ist. Dabei geht es unter anderem um Agentensysteme, Multimodalität, Erwartungen an Sprachmodelle und die Frage, welche gesellschaftlichen Debatten 2025 zu kurz gekommen sind. Mit Alexander Rabe, Geschäftsführer von eco, ordnen wir außerdem ein bewegtes digitalpolitisches Jahr ein: das erste Jahr mit Digitalministerium, neue regulatorische Weichenstellungen, geopolitische Verschiebungen, die Debatte um digitale Souveränität – und drei Jahrzehnte eco als Gestalter des Internets. Eine Folge über technologische Realität, politische Verantwortung und die Frage, wie ernst es Deutschland und Europa mit ihrer digitalen Zukunft ist. Weitere Informationen: Zur Folge „KI Future Tech“: https://www.eco.de/news/eco-podcast-zu-ki-future-tech-2/ Redaktion: Christin Müller, Laura Rodenbeck, Anja Wittenburg, Irmeline Uhlmann Schnitt: David Grassinger Moderation: Sidonie Krug, Sven Oswald Produktion: eco – Verband der Internetwirtschaft e.V.
«Kassensturz» zeigt in einer Spezial-Ausgabe, was KI heute schon alles kann. Im Test: der grosse Chatbot-Vergleich – mit überraschenden Resultaten. Künstliche Intelligenz – Allgegenwärtig, nützlich, aber auch beängstigend KI ist längst mehr als nur ein Sprach-Assistent. Sie scannt Röntgenbilder, erkennt Gesichter, sortiert Müll und hilft bei Texten. Doch trotz des Nutzens wächst die Sorge vor Arbeitsplatzverlusten. Segen oder Fluch? Die Debatte um die Super-Power KI im «Kassensturz». Chatbots im Test – Schweizer Eigenheiten und Halluzinationen Die Fachhochschule Nordwestschweiz FHNW testet für «Kassensturz» zehn gängige Chatbots beziehungsweise intelligente Sprachmodelle auf ihre Praxistauglichkeit. Darunter Schwergewichte wie ChatGPT und Gemini, aber auch das Schweizer Modell Lumo. Die Resultate zeigen: Viele Modelle haben Mühe mit Schweizer Eigenheiten – und neigen zu «Halluzinationen», also dem Erfinden von Zusammenhängen. So versteht Lumo zum Beispiel unter einer «Stange» im Restaurant ein Brot statt ein Bier. Die Überraschung: ChatGPT landet bloss im Mittelfeld. Ausgebeutet für KI – Wie Kenias Mikro-Jobber leiden Kenia ist ein Zentrum für KI-Mikro-Jobs. Doch hinter den Kulissen leiden sogenannte Daten-Annotatoren, Menschen die KI mit Wissen füttern, und Content-Moderatoren unter langen Arbeitszeiten, Hungerlöhnen und psychischen Belastungen. Belastungen durch Inhalte, die kaum auszuhalten sind: Kinderpornografie, Videos von Suiziden, rohe Gewalt. Anwälte schlagen deshalb Alarm und sprechen von Menschenhandel und Zwangsarbeit. Die Betroffenen fordern faire Arbeitsbedingungen und mehr Menschlichkeit. Am Pranger: Tech-Giganten wie zum Beispiel Meta, Muttergesellschaft von Facebook und WhatsApp. Die Reportage aus der kenianischen Hauptstadt Nairobi im «Kassensturz».
«Kassensturz» zeigt in einer Spezial-Ausgabe, was KI heute schon alles kann. Im Test: der grosse Chatbot-Vergleich – mit überraschenden Resultaten. Künstliche Intelligenz – Allgegenwärtig, nützlich, aber auch beängstigend KI ist längst mehr als nur ein Sprach-Assistent. Sie scannt Röntgenbilder, erkennt Gesichter, sortiert Müll und hilft bei Texten. Doch trotz des Nutzens wächst die Sorge vor Arbeitsplatzverlusten. Segen oder Fluch? Die Debatte um die Super-Power KI im «Kassensturz». Chatbots im Test – Schweizer Eigenheiten und Halluzinationen Die Fachhochschule Nordwestschweiz FHNW testet für «Kassensturz» zehn gängige Chatbots beziehungsweise intelligente Sprachmodelle auf ihre Praxistauglichkeit. Darunter Schwergewichte wie ChatGPT und Gemini, aber auch das Schweizer Modell Lumo. Die Resultate zeigen: Viele Modelle haben Mühe mit Schweizer Eigenheiten – und neigen zu «Halluzinationen», also dem Erfinden von Zusammenhängen. So versteht Lumo zum Beispiel unter einer «Stange» im Restaurant ein Brot statt ein Bier. Die Überraschung: ChatGPT landet bloss im Mittelfeld. Ausgebeutet für KI – Wie Kenias Mikro-Jobber leiden Kenia ist ein Zentrum für KI-Mikro-Jobs. Doch hinter den Kulissen leiden sogenannte Daten-Annotatoren, Menschen die KI mit Wissen füttern, und Content-Moderatoren unter langen Arbeitszeiten, Hungerlöhnen und psychischen Belastungen. Belastungen durch Inhalte, die kaum auszuhalten sind: Kinderpornografie, Videos von Suiziden, rohe Gewalt. Anwälte schlagen deshalb Alarm und sprechen von Menschenhandel und Zwangsarbeit. Die Betroffenen fordern faire Arbeitsbedingungen und mehr Menschlichkeit. Am Pranger: Tech-Giganten wie zum Beispiel Meta, Muttergesellschaft von Facebook und WhatsApp. Die Reportage aus der kenianischen Hauptstadt Nairobi im «Kassensturz».
In dieser Episode begrüßt Thomas einen ganz besonderen Gast: Prof. Dr. Carolin Durst. Sie ist nicht nur Professorin für Digital Marketing an der Hochschule Ansbach und Scientific Director bei Atonics, sondern wurde von ihren Studierenden auch zur "Professorin des Jahres 2025" gewählt. Gemeinsam blicken sie tief in die Zukunft des Marketings. Es geht nicht nur um Tools, sondern um eine fundamentale Verschiebung: Wie verändern KI-Agenten die Art, wie Kunden nach Lösungen suchen? Warum scheut die Gen Z den Telefonhörer? Und warum wird in einer digitalen Welt der persönliche Handschlag plötzlich zum wichtigsten Wettbewerbsvorteil? Eine Folge für alle, die verstehen wollen, wie man Marketing-Teams der Zukunft aufstellt und warum "Mainstream-Content" durch KI keine Chance mehr hat.
A yellow rubber duck as a problem solver — a tried and tested trick from the IT scene: In so-called rubber duck debugging, you explain your own problem to a plastic bird step by step and often discover the solution all by yourself. SBS correspondent Barbara Barkhausen reveals why loud explanations structure our thinking, where the method comes from and whether modern alternatives such as language models can replace the duck. - Eine gelbe Gummiente als Problemlöser – was nach Kinderzimmer klingt, ist ein bewährter Trick aus der IT-Szene: Beim sogenannten Rubber-Duck-Debugging erklärt man einem Plastikvogel Schritt für Schritt das eigene Problem und entdeckt dabei oft ganz von selbst die Lösung. Warum lautes Erklären unser Denken strukturiert, woher die Methode stammt und ob moderne Alternativen wie Sprachmodelle die Ente ersetzen können, verrät SBS-Korrespondentin Barbara Barkhausen.
Die Integration von Künstlicher Intelligenz in ERP-Systeme markiert einen Wendepunkt in der Gestaltung von Benutzeroberflächen. KI macht komplexe Prozesse intuitiv, personalisiert die Interaktion und reduziert Einstiegshürden – vom lernenden Interface bis hin zu dialogbasierten Sprachmodellen. Dadurch werden ERP-Systeme nicht nur effizienter, sondern auch zugänglicher für alle Anwender, selbst ohne tiefes technisches Wissen. Gleichzeitig eröffnen sich neue Chancen für Barrierefreiheit und datenbasierte Entscheidungen, während Datenschutz und Transparenz zentrale Herausforderungen bleiben. In diesem exklusiven Live-Webinar zeigen wir Dir, wie KI ERP-Systeme nicht nur effizienter, sondern auch so zugänglich macht, dass Du kein tiefes technisches Wissen mehr brauchst, um alle Potenziale zu nutzen. Das wirst Du nach dem Webinar gelernt haben Wie KI Deine ERP-Prozesse vereinfacht: Du verstehst, wie KI den "Klick-Marathon" beendet und komplexe Aufgaben in intuitive, smarte Interaktionen verwandelt. Was ein "lernendes Interface" ist: Du kennst die Vorteile von personalisierten Benutzeroberflächen, die sich Dir anpassen und Deine tägliche Arbeit erleichtern. Wie Du Einstiegshürden senkst: Du lernst, wie dialogbasierte Sprachmodelle und intuitive Oberflächen Dein ERP-System für alle Anwender zugänglich machen – auch ohne tiefes technisches Wissen. Welche neuen Chancen sich ergeben: Du siehst klar, wie KI Dein Unternehmen im Bereich Barrierefreiheit und datenbasierte Entscheidungen voranbringt. Die Herausforderungen zu meistern: Du weißt, welche zentralen Herausforderungen im Bereich Datenschutz und Transparenz bestehen und wie man diese proaktiv angeht. FRIDAY Insights ist eine gemeinsame Initiative von OMT und contentmanager.de – mit dem Ziel, komplexe Themen verständlich, praxisnah und mit echtem Mehrwert aufzubereiten.
Welche Unternehmen profitieren vom KI-Hype – auch abseits der bekannten Tech-Giganten wie Nvidia, Microsoft oder Alphabet? Im heutigen Interview analysiert Tim Schäfer die zweite Reihe der KI-Profiteure: Energieversorger, Rechenzentren, Kühlung, Infrastruktur & Software. Denn wo grosse Sprachmodelle und KI-Anwendungen betrieben werden, braucht es vor allem eins: Strom, Speicher und Struktur.
Wir sind zurück aus der kleinen Zwangspause – mit leichtem Husten, aber mit einem Thema, das deutlich größer ist als unsere Stimmbänder: Weltmodelle. Large Language Models (LLMs) wie ChatGPT, Gemini & Co. waren der perfekte Einstieg in die KI-Ära: stark in Sprache, Code und Kreativität. Jetzt kommen Systeme dazu, die nicht nur Texte generieren, sondern unsere Welt als System mit Regeln, Physik und Kausalität verstehen wollen. In der Folge sprechen wir darüber, was Weltmodelle von LLMs unterscheidet, warum „Grounding“ in echten Naturgesetzen so wichtig ist (ein Glas, das vom Tisch fällt, muss fallen – egal, was das Sprachmodell dazu meint) und wieso das überall dort spannend wird, wo KI reale Konsequenzen hat: in der Robotik, in der Stadtplanung, in der Biologie, der Materialforschung und der Klimamodellierung. Wir skizzieren unter anderem ein Weltmodell für Hamburg mit Verkehr, Baustellen, Wetter und Gebäuden, schauen auf digitale Zwillinge, die mit Weltmodellen endlich wirklich vorausschauend werden, und diskutieren, wie Sprachmodelle, agentische KI und Weltmodelle zusammenspielen können: LLMs als Interface für uns, Weltmodelle als „Physik-Engine“ im Hintergrund. Wenn du wissen willst, warum viele Forschende gerade extrem heiß auf Weltmodelle sind (ohne LLMs schlechtzureden) und wie sich damit unsere echte Welt besser simulieren und planen lässt, dann ist diese Folge für dich.
Die großen amerikanischen Tech-Konzerne wie Alphabet, Meta oder OpenAI investieren Hunderte von Milliarden Dollar in Chips und den Bau von Rechenzentren. Das Ziel: Daten-Power für den Ausbau künstlicher Intelligenz (KI). Doch bisher verdient fast niemand mit der Technologie Geld. Die großen Sprachmodelle, die Unsummen verschlingen, sind für die meisten Nutzer gratis verfügbar. „Da wird eine enorme, sehr riskante Wette eingegangen“, sagt Capital-Redakteur Jan Vollmer im Capital Wirtschaftspodcast. „Es ist noch nicht klar, wie damit eigentlich Gewinn erwirtschaftet werden soll.“ Vollmer hat das Treiben der US-Tech-Riesen in der Titelgeschichte des Wirtschaftsmagazins untersucht und kommt zu dem Schluss, dass die Unternehmen ein Geflecht von kaum überschaubaren Risiken aufgebaut haben. Damit der Boom finanziert werden kann, begeben sich die Konzerne in wachsende wechselseitige Abhängigkeiten. „Nvidia investiert in den eigenen Kunden, damit der wiederum Nvidia-Chips kauft“, sagt Vollmer über den Halbleiterhersteller. „Das Geld fließt gewissermaßen im Kreis.“ Das Problem: Die Wette betrifft nicht nur die Konzerne selbst, sondern auch die Anleger, die auf vielfältige Weise an dem KI-Boom beteiligt sind – über Aktien oder Indexfonds, die in die Wertpapiere investieren. „Der MSCI World hat einen starken Anteil von Aktien genau der Tech-Unternehmen, die diese Rechenzentren bauen“, sagt Vollmer.Eine Produktion von RTL+ Podcast.Host: Nils Kreimeier.Redaktion: Lucile Gagnière.Produktion: Andolin Sonnen. +++Weitere Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/diestundenull +++60 Tage lang kostenlos Capital+ lesen - Zugriff auf alle digitalen Artikel, Inhalte aus dem Heft und das ePaper. Unter Capital.de/plus-gratis +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.html +++ Wir verarbeiten im Zusammenhang mit dem Angebot unserer Podcasts Daten. Wenn Sie der automatischen Übermittlung der Daten widersprechen wollen, klicken Sie hier: https://datenschutz.ad-alliance.de/podcast.html +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Ein Dialekt kann Vorurteile auslösen - selbst bei einer Künstlichen Intelligenz. Eine Studie zeigt, dass Sprachmodelle wie ChatGPT Menschen systematisch benachteiligen, wenn diese einen Dialekt sprechen. Von Julia Nestlen
Künstliche Intelligenz macht uns völlig unkreativ – alles nur noch Einheitsbrei. Dieser plakativen Aussage würden viele kreative Menschen widersprechen. Denn Künstlerinnen, Musiker und Designerinnen können KI auch als Tool nutzen, um die eigenen Ideen umzusetzen. Am Ende kommt es – wie bei so ziemlich jedem Werkzeug – auf die Art und Weise an, wie wir es nutzen. Ein erster Schritt zur kreativen Nutzung der großen Sprachmodelle ist der richtige Prompt. Anne-Kathrin Gerstlauer ist Expertin im Prompten. Aber sie ist auch Profi im Schreiben und im Redigieren. Denn nur wer sich in seinem Feld gut auskennt, kann auch die KI anleiten, um ein richtig gutes Ergebnis zu erzielen. Wie wir also gut prompten, um am Ende bessere Texte zu schreiben, erklärt uns Anne-Kathrin heute im Deep-Dive. === Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/@heise-podcasts === Anzeige / Sponsorenhinweis Ende === Artikel zur Podcastfolge: https://heise.de/-11086353 https://akgerstlauer.de/ Der BlaBla-Score: https://chatgpt.com/g/g-67d97d3b6ee48191ad18055572aa8188-blablabla https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Drohungen, Rassismus, Datendiebstahl und ungefragtes Fotografieren unter der Dusche: All das könnte blühen, wenn Roboter mit KI gekoppelt werden. Im Einsatz sind solche Roboter noch nicht – die verwendeten Sprachmodelle aber schon.**********In dieser Folge mit: Moderation: Nik Potthoff Gesprächspartnerin: Carina Schroeder, DLF Nova Tech-Reporterin**********Ihr könnt uns auch auf diesen Kanälen folgen: TikTok und Instagram .
Der Dax-Konzern SAP ist ein deutsches Schwergewicht: über 34 Mrd. Euro Umsatz im Jahr 2024, mehr als 100.000 Mitarbeiterinnen und Mitarbeiter weltweit, ein Software-Gigant. Wenn allerdings von den Treibern der künstlichen Intelligenz (KI) die Rede ist, dann fällt der Name SAP eher selten, ein eigenes großes Sprachmodell (LLM) hat das Unternehmen nicht entwickelt. Im Capital-Podcast verteidigt Philipp Herzig, SAP-CTO und KI-Chef im Konzern, diese Entscheidung. „Es ist natürlich bei jeder technologischen Disruption so, dass am Anfang die Aufmerksamkeit auf denen liegt, die die Grundlagenkomponenten bauen“, sagt er. „Wir haben uns von Anfang an darauf konzentriert, was die SAP stark macht, und das ist das Einbauen von Technologie in die betriebswirtschaftlichen Anwendungen.“ Herzig verweist darauf, dass KI bereits an vielen Stellen in den Anwendungen von SAP zum Einsatz kommt und den Kunden ein eigener KI-Assistent zur Verfügung steht. Aus seiner Sicht haben sich die großen Sprachmodelle zu einer Art Rohstoff entwickelt, auf dessen Grundlage erst die eigentlich erfolgversprechenden Anwendungen entwickelt werden. „Ich kann mich an Diskussionen bei uns erinnern, da kam gerade GPT-4, und alle waren in Ehrfurcht erstarrt“, sagt Herzig. „Ich habe aber schon damals gesagt: Der Algorithmus selbst wird schnell Commodity, das ist in den letzten 40 Jahren immer passiert. Die Frage ist, was ist differenzierend? Und das sind und waren Daten und der Fokus auf die Wertschöpfung im Unternehmen.“Eine Produktion von RTL+ Podcast.Host: Nils Kreimeier.Redaktion: Lucile Gagnière.Produktion: Andolin Sonnen. +++Weitere Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/diestundenull +++60 Tage lang kostenlos Capital+ lesen - Zugriff auf alle digitalen Artikel, Inhalte aus dem Heft und das ePaper. Unter Capital.de/plus-gratis +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.html +++ Wir verarbeiten im Zusammenhang mit dem Angebot unserer Podcasts Daten. Wenn Sie der automatischen Übermittlung der Daten widersprechen wollen, klicken Sie hier: https://datenschutz.ad-alliance.de/podcast.html ++++++ Hinweis zur Werbeplatzierung von Meta: https://backend.ad-alliance.de/fileadmin/Transparency_Notice/Meta_DMAJ_TTPA_Transparency_Notice_-_A… +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Texte von Liedern sind urheberrechtlich geschützt. Und das gilt nach Ansicht des Landgerichts München auch für Sprachmodelle, also KIs wie ChatGPT. Das Gericht gab der Gema recht, die gegen das US-Unternehmen OpenAI geklagt hatte.**********In dieser Folge mit: Moderator: Dominik Schottner Gesprächspartnerin: Anne Tepper, Deutschlandfunk Nova Nachrichten**********Ihr könnt uns auch auf diesen Kanälen folgen: TikTok und Instagram .
Diese Woche gibt's Deep Talk über KI, Serien und das ewige Chaos im Haushalt
Nach einer kurzen Herbstpause sprechen Alois und Oliver darüber, wie echte Deep-Tech-Ökosysteme auf Stadtebene entstehen – jenseits von Buzzwords. Sie ordnen ein, was Deep Tech wirklich bedeutet, wo die Grenze zu Commodity-Technologien verläuft und weshalb der Begriff aktuell oft inflationär verwendet wird. Ausgehend von Deutschlands neuer Hightech-Agenda (mit Schwerpunkten wie KI, Quantencomputing und Biotechnologie) diskutieren sie, wie nationale Programme lokale Cluster beeinflussen und warum Orte mit starker Forschungs- und Infrastrukturbasis – etwa DESY und die Science City in Hamburg – als Anker dienen.Die Episode zeigt, wie Konvergenz zwischen Technologien wie KI, Quanten- und Neuromorphik-Computing, Robotik oder XR Tempo aufnimmt und welche Rolle „universelle Schnittstellen“ wie große Sprachmodelle dabei spielen. Zugleich machen die beiden deutlich, dass Grundlagenforschung geschützte Domänen braucht, während Reallabore und Sandboxes die Brücke in die Anwendung schlagen. An konkreten Beispielen wird sichtbar, weshalb kurze Wege, stabile Rahmenbedingungen, verlässliche Testflächen und klar profilierte Stadt-Stärken den Unterschied zwischen Theorie und Transfer ausmachen.Ein zentrales Motiv der Folge ist der „Übersetzer“: Personen und Formate, die Forschung, Industrie und – oft als Ankerkunden – den Staat zielgerichtet zusammenbringen. Statt Event-Inflation braucht es kuratierte Räume, in denen Themen kurz vor der Marktreife fokussiert beschleunigt werden. Genau hier setzt der Deep Tech Campus Circle an: als bewusst exklusiver Ort, an dem Köpfe, Kapital und konkrete Use Cases aufeinandertreffen, um aus Keimlingen skalierbare Innovationen zu machen.Am Ende bleibt die klare These: Deep Tech entsteht, wenn tiefe Expertise, Geduld und ein klug orchestriertes Ökosystem zusammenwirken. Wer verstehen will, wie Städte vom Strategiepapier zur sichtbaren Wertschöpfung kommen, bekommt in dieser Folge eine kompakte, praxisnahe Landkarte – von der Saat in der Grundlagenforschung bis zur Ernte im Markt.
Sozioinformatikerin und KI-Expertin Katharina Zweig im Live-Gespräch auf dem Beats & Bones Podcast-Festival 2025: Es geht unter anderem um die Komplexität von Künstlicher Intelligenz und die ethischen Herausforderungen im Umgang mit KI-Sytemen wie generativen Sprachmodellen. (00:01:06) Begrüßung (00:02:16) Vorstellung Katharina Zweig (00:05:12) Algorithmen und Daten (00:06:21) Was ist Sozioinformatik (00:11:41) Gute und schlechte KI-Tools (00:17:10) Wie funktionieren Sprachmodelle? (00:27:21) Zusammenspiel von KI und Mensch (00:32:16) KI und Psyche (00:38:33) KI und Medizin (00:42:19) Die Zukunft der KI (00:47:58) Das Spektrum-Assoziationsspiel (00:49:59) KI und Social Media (00:59:38) Die Spektrum-Zukunftsmaschine (01:04:16) Verabschiedung und Eindrücke LINKS: Hier geht’s zum Spektrum-Artikel „Die Mathematik der Fairness“: https://www.spektrum.de/pix/interactive/mathematik-der-fairness/ Hier gehts zum Spektrum-Artikel: „Digitalmanifest“: https://www.spektrum.de/thema/das-digital-manifest/1375924 >> Artikel zum Nachlesen: https://detektor.fm/wissen/die-grossen-fragen-der-wissenschaft-katharina-zweig
Sozioinformatikerin und KI-Expertin Katharina Zweig im Live-Gespräch auf dem Beats & Bones Podcast-Festival 2025: Es geht unter anderem um die Komplexität von Künstlicher Intelligenz und die ethischen Herausforderungen im Umgang mit KI-Sytemen wie generativen Sprachmodellen. (00:01:06) Begrüßung (00:02:16) Vorstellung Katharina Zweig (00:05:12) Algorithmen und Daten (00:06:21) Was ist Sozioinformatik (00:11:41) Gute und schlechte KI-Tools (00:17:10) Wie funktionieren Sprachmodelle? (00:27:21) Zusammenspiel von KI und Mensch (00:32:16) KI und Psyche (00:38:33) KI und Medizin (00:42:19) Die Zukunft der KI (00:47:58) Das Spektrum-Assoziationsspiel (00:49:59) KI und Social Media (00:59:38) Die Spektrum-Zukunftsmaschine (01:04:16) Verabschiedung und Eindrücke LINKS: Hier geht’s zum Spektrum-Artikel „Die Mathematik der Fairness“: https://www.spektrum.de/pix/interactive/mathematik-der-fairness/ Hier gehts zum Spektrum-Artikel: „Digitalmanifest“: https://www.spektrum.de/thema/das-digital-manifest/1375924 >> Artikel zum Nachlesen: https://detektor.fm/wissen/die-grossen-fragen-der-wissenschaft-katharina-zweig
Turtlezone Tiny Talks - 20 Minuten Zeitgeist-Debatten mit Gebert und Schwartz
Wie kommen KI-Suchmaschinen zu Ihren Antworten? Was ist der Unterschied zwischen dem antrainierten, statischen Wissen der Sprachmodelle und RAG-Grounding, der Retrieval Augmented Generation? Und wie lange gibt es noch eine Ko-Existenz zwischen der „alten“ Ergebnislisten-Welt des Google Crawlers und der neuen Welt der KI-Antwortmaschinen? Das sind nur einige der Fragen, die Unternehmen und Webverantwortliche heute umtreiben. Ist SEO tot und wie gelingt GEO für eine Sichtbarkeit in den KI-Antworten von Perplexity & Co.? Für den zweiten Teil des GEO-Specials von Turtlezone Tiny Talks sprechen Michael Gebert und Oliver Schwartz in der Episode 187 mit Mare Hojc, dem Gründer und Geschäftsführer der renommierten Agentur AN Digital. Ein spannender Talk mit klaren Botschaften und einem Deep Dive in die derzeit besten Strategien wie GEO gelingt. 41 Podcast-Minuten, die sich mehr als lohnen!
Künstliche Intelligenz zieht ins Labor ein: In der Chemie und Biochemie hilft sie, neue Materialien zu entdecken, Reaktionen vorherzusagen und Forschung zu beschleunigen. Hier entlang geht's zu den Links unserer Werbepartner: https://detektor.fm/werbepartner/spektrum-der-wissenschaft (00:01:38) Chemiker Maarten Dobbelaere – Forschungsgebiet? (00:03:36) Wie wurde KI in seine Forschung eingebunden? (00:05:33) Einsatz und Wirkweise von KI? (00:07:30) Wie verändert KI die Chemie? (00:11:12) Konkrete Anwendungen (00:13:48) Machine Learning ist eigentlich schon älter, Stand dazu? (00:16:31) Missverständnis KI? (00:19:02) Sprachmodelle wie ChatGPT in der Chemie einsetzbar? (00:24:41) Revolution durch KI? (00:27:53) Was kommt noch auf uns zu? >> Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcasts-ki-revolution-chemie
Künstliche Intelligenz zieht ins Labor ein: In der Chemie und Biochemie hilft sie, neue Materialien zu entdecken, Reaktionen vorherzusagen und Forschung zu beschleunigen. Hier entlang geht's zu den Links unserer Werbepartner: https://detektor.fm/werbepartner/spektrum-der-wissenschaft (00:01:38) Chemiker Maarten Dobbelaere – Forschungsgebiet? (00:03:36) Wie wurde KI in seine Forschung eingebunden? (00:05:33) Einsatz und Wirkweise von KI? (00:07:30) Wie verändert KI die Chemie? (00:11:12) Konkrete Anwendungen (00:13:48) Machine Learning ist eigentlich schon älter, Stand dazu? (00:16:31) Missverständnis KI? (00:19:02) Sprachmodelle wie ChatGPT in der Chemie einsetzbar? (00:24:41) Revolution durch KI? (00:27:53) Was kommt noch auf uns zu? >> Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcasts-ki-revolution-chemie
Künstliche Intelligenz zieht ins Labor ein: In der Chemie und Biochemie hilft sie, neue Materialien zu entdecken, Reaktionen vorherzusagen und Forschung zu beschleunigen. Hier entlang geht's zu den Links unserer Werbepartner: https://detektor.fm/werbepartner/spektrum-der-wissenschaft (00:01:38) Chemiker Maarten Dobbelaere – Forschungsgebiet? (00:03:36) Wie wurde KI in seine Forschung eingebunden? (00:05:33) Einsatz und Wirkweise von KI? (00:07:30) Wie verändert KI die Chemie? (00:11:12) Konkrete Anwendungen (00:13:48) Machine Learning ist eigentlich schon älter, Stand dazu? (00:16:31) Missverständnis KI? (00:19:02) Sprachmodelle wie ChatGPT in der Chemie einsetzbar? (00:24:41) Revolution durch KI? (00:27:53) Was kommt noch auf uns zu? >> Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcasts-ki-revolution-chemie
Jahn, Thekla www.deutschlandfunk.de, Campus & Karriere
In dieser Folge von Frauenstimmen spreche ich mit Prof. Dr. Katharina Zweig – KI-Expertin, Bestsellerautorin und Trägerin des Bundesverdienstkreuzes. Das Thema Künstliche Intelligenz war mir lange unheimlich, und ich hatte ehrlich gesagt wenig Ahnung davon. Durch Katharinas ruhige und klare Art ist mir vieles verständlicher geworden: warum KI mich fasziniert, was mich verunsichert und wo ihre Grenzen liegen. Wir reden über Fake und Echtheit, digitale Identität und darüber, warum wir Menschen unersetzlich bleiben. Besonders spannend fand ich, wie Katharina erklärt, dass Sprachmodelle keine Wissensdatenbanken sind, sondern lediglich Muster in Sprache erkennen. Dieses Gespräch hat mir eine neue Perspektive eröffnet und mir gezeigt, dass KI beeindruckend sein kann – aber nicht immer aus den Gründen, die wir denken. Ich wünsche euch viel Freude beim Zuhören!Mehr zu Prof. Dr. Katharina ZweigBundesverdienstkreuz – Meldung der RPTUArbeitsgruppe Algorithm Accountability Lab (RPTU)LinkedIn: linkedin.com/in/katharina-prof-dr-zweig-b0a9aa63/Weiß die KI, dass sie nichts weiß? (Buch)Die KI war's! (Buch)Ein Algorithmus hat kein Taktgefühl (Buch) Mehr zu Ildikó von Kürthy:www.ildikovonkuerthy.deIldikó von Kürthy bei Facebook und Instagram(Hör-)Bücher von Ildikó von Kürthy:Eine halbe Ewigkeit (Buch und Hörbuch)Mondscheintarif (Buch und Hörbuch)Morgen kann kommen (Buch und Hörbuch)Es wird Zeit (Buch und Hörbuch)Weitere Bücher und Hörbücher Hosted on Acast. See acast.com/privacy for more information.
Wer im Netz nach Grafiken oder Statistiken sucht, landet über kurz oder lang bei Statista. Das Unternehmen, das 2007 von Beratern gegründet wurde, hat sich für viele Unternehmen zur ersten Anlaufstelle entwickelt und lässt sich seine Zugänge gut bezahlen: „Das Einstiegsprodukt kostet 199 Euro im Monat für eine Einzelperson. Doch es gibt Unternehmenslizenzen, die in den sechs- oder siebenstelligen Bereich gehen“ sagt Statista-Chef Marc Berg im Wirtschaftspodcast von Capital. „Aber dafür gibt es die Garantie, dass die Daten stimmen.“ 300 Mitarbeiter, etwa ein Viertel der Belegschaft, sind mit der Recherche und Auswertung von Daten wie den Zulassungszahlen bei Autos beschäftigt und bereiten sie auf. Der Siegeszug der Künstlichen Intelligenz, über die Informationen im Internet zusammengefasst werden, macht Berg nach eigenen Angaben keine Sorge. „Wenn wir die Daten, die wir exklusiv haben, nicht freigeben, dann haben die Modelle auch keinen Zugriff darauf. Deshalb beschreiben wir nach außen nur noch qualitativ, was in den Statistiken drin ist“, sagt Berg. „Aber wir verstecken alle Datenpunkte. Das heißt, die Sprachmodelle sehen nur, dass es eine Statistik bei uns gibt, aber nicht, was sie beinhaltet.“ +++Eine Produktion von RTL+ Podcast.Host: Nils Kreimeier.Redaktion: Lucile Gagnière.Produktion: Andolin Sonnen. +++Weitere Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/diestundenull +++60 Tage lang kostenlos Capital+ lesen - Zugriff auf alle digitalen Artikel, Inhalte aus dem Heft und das ePaper. Unter Capital.de/plus-gratis +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.html +++ Wir verarbeiten im Zusammenhang mit dem Angebot unserer Podcasts Daten. Wenn Sie der automatischen Übermittlung der Daten widersprechen wollen, klicken Sie hier: https://datenschutz.ad-alliance.de/podcast.html +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Unser Partner Scalable Capital ist der einzige Broker, den du brauchst. Inklusive Trading-Flatrate, Zinsen und Portfolio-Analysen. Alle weiteren Infos gibt's hier: scalable.capital/oaws. Wer noch mehr zu Planisware wissen will: Auf unserer Deep-Dive-Plattform. Hier 1 Monat kostenlos testen: https://herohero.co/oaws/invites/VVGMROSIUA. China will keine Chips mehr von NVIDIA. Baidu testet Sprachmodelle mit eigenen Chips. Alibaba verkauft Chips für Rechenzentrum. Waymo kooperiert mit Lyft, Elliott steigt bei Workday ein, Authentic Brand Group & CVC wollen Puma, StubHub hat IPO. Leitzins runter. Asana und Monday.com kennt jeder. Planisware (WKN: A40B0L) dagegen wohl nur wenige. Dabei haben die Franzosen einen spannenden Burggraben. Viele Krypto-Firmen verdienen Geld mit Trading. Bei Figure Technologies (WKN: A41GD8) ist das anders. Hier geht's um Kreditlinien, die mit dem Eigenheim besichert werden. Klingt weird, ist aber Blockchain. Diesen Podcast vom 18.09.2025, 3:00 Uhr stellt dir die Podstars GmbH (Noah Leidinger) zur Verfügung
Johannes Kruse erforscht, in welchen Fällen sich KI in der Justiz einsetzen lässt. Ein Gespräch über Bias, Halluzinationen und die Frage, ob Sprachmodelle bessere Juristen sind als Menschen. >> Artikel zum Nachlesen: https://detektor.fm/wissen/ach-mensch-johannes-kruse-recht
Johannes Kruse erforscht, in welchen Fällen sich KI in der Justiz einsetzen lässt. Ein Gespräch über Bias, Halluzinationen und die Frage, ob Sprachmodelle bessere Juristen sind als Menschen. >> Artikel zum Nachlesen: https://detektor.fm/wissen/ach-mensch-johannes-kruse-recht
"Decision Intelligence” ist ein neuer Lösungsansatz für ein altes Problem: Wie treffen wir bessere Entscheidungen? Während Sprachmodelle wie ChatGPT eher raten als rechnen, entwickeln Unternehmen wie das Heidelberger Paretos Systeme, die aus unzähligen Datenpunkten konkrete Handlungsempfehlungen ableiten. Gregor und Marie diskutieren, welche Entscheidungen wir wirklich outsourcen sollten - und ob wir bald alle einen digitalen Berater brauchen, der uns sagt, welches Verkehrsmittel wir nehmen sollen.
Sprachmodelle agieren zunehmend agentisch: Sie steuern selbstständig Desktop- und Web-Apps, zum Beispiel Google Mail oder PayPal, und nehmen dem Anwender manche Routinearbeit ab. Das relativ neue Model Context Protocol (MCP) ist eine Schlüsseltechnik dafür. Es bietet eine einheitliche Schnittstelle, mit der Modelle egal welchen Anbieters loslegen können. Drei c't-Redakteure haben sich das neue Protokoll genauer angesehen, KI-Agenten damit erstaunliche Dinge tun lassen und bewertet, wie riskant das Ganze ist. Im c't uplink erzählt Jo Bager, was das Sprachmodell Claude auf sein Kommando (und auch ungefragt) geschafft hat. Jan Mahn erklärt, wie MCP funktioniert und worauf Firmen bei der Nutzung achten sollten. Sylvester Tremmel warnt vor den Sicherheitsrisiken der noch jungen Technik. ► Die besprochene Artikelstrecke zu KI-Agenten und dem Model Context Protocol in c't 17/2025 (Paywall): https://www.heise.de/select/ct/2025/17/2517121530368514194
Sprachmodelle agieren zunehmend agentisch: Sie steuern selbstständig Desktop- und Web-Apps, zum Beispiel Google Mail oder PayPal, und nehmen dem Anwender manche Routinearbeit ab. Das relativ neue Model Context Protocol (MCP) ist eine Schlüsseltechnik dafür. Es bietet eine einheitliche Schnittstelle, mit der Modelle egal welchen Anbieters loslegen können. Drei c't-Redakteure haben sich das neue Protokoll genauer angesehen, KI-Agenten damit erstaunliche Dinge tun lassen und bewertet, wie riskant das Ganze ist. Im c't uplink erzählt Jo Bager, was das Sprachmodell Claude auf sein Kommando (und auch ungefragt) geschafft hat. Jan Mahn erklärt, wie MCP funktioniert und worauf Firmen bei der Nutzung achten sollten. Sylvester Tremmel warnt vor den Sicherheitsrisiken der noch jungen Technik. Mit dabei: Jo Bager, Jan Mahn, Sylvester Tremmel Moderation: Greta Friedrich Produktion: Ralf Taschke Mehr zum Thema KI-Agenten und zum Model Context Protocol finden Sie in der c't-Ausgabe 17/2025, auf ct.de sowie in der c't-App für iOS und Android. Die Ausgabe 17/2025 gibt es ab dem 8. August 2025 am Kiosk.
Sprachmodelle agieren zunehmend agentisch: Sie steuern selbstständig Desktop- und Web-Apps, zum Beispiel Google Mail oder PayPal, und nehmen dem Anwender manche Routinearbeit ab. Das relativ neue Model Context Protocol (MCP) ist eine Schlüsseltechnik dafür. Es bietet eine einheitliche Schnittstelle, mit der Modelle egal welchen Anbieters loslegen können. Drei c't-Redakteure haben sich das neue Protokoll genauer angesehen, KI-Agenten damit erstaunliche Dinge tun lassen und bewertet, wie riskant das Ganze ist. Im c't uplink erzählt Jo Bager, was das Sprachmodell Claude auf sein Kommando (und auch ungefragt) geschafft hat. Jan Mahn erklärt, wie MCP funktioniert und worauf Firmen bei der Nutzung achten sollten. Sylvester Tremmel warnt vor den Sicherheitsrisiken der noch jungen Technik. Mit dabei: Jo Bager, Jan Mahn, Sylvester Tremmel Moderation: Greta Friedrich Produktion: Ralf Taschke Mehr zum Thema KI-Agenten und zum Model Context Protocol finden Sie in der c't-Ausgabe 17/2025, auf ct.de sowie in der c't-App für iOS und Android. Die Ausgabe 17/2025 gibt es ab dem 8. August 2025 am Kiosk.
KI-Sprachmodelle sind überall - aber was kommt als Nächstes? In dieser Folge werfen wir einen Blick auf die Zukunft der KI: Reicht es, Sprachmodelle einfach nur größer zu machen? Oder brauchen wir völlig neue Ansätze?
Unser heutiger Gast wurde in Dresden geboren, studierte Computerlinguistik in Leipzig und Saarbrücken und promovierte später an der Stanford University – betreut von keinem Geringeren als Andrew Ng und Chris Manning. Seine Dissertation wurde als beste Informatik-Promotion ausgezeichnet. Nach Stationen bei Microsoft und Siemens gründete er sein erstes Unternehmen: MetaMind, ein Deep-Learning-Startup, das 2016 von Salesforce übernommen wurde. Dort war er anschließend Chief Scientist, leitete große Forschungsteams und trieb die KI-Strategie des Konzerns maßgeblich voran. Heute ist er Gründer und CEO von you.com, einer KI-basierten Suchmaschine, die als datenschutzfreundliche, transparente und anpassbare Alternative zu klassischen Anbietern auftritt, mit einem starken Fokus auf Nutzendenkontrolle und verantwortungsvoller KI. Zudem investiert er über seinen Fonds AI+X in KI-Startups weltweit. Seine wissenschaftlichen Arbeiten zählen zu den meistzitierten im Bereich NLP und Deep Learning, über 170.000 Mal, und viele seiner Ideen haben die Entwicklung heutiger Sprachmodelle mitgeprägt. Ein herzliches Dankeschön an Adrian Locher, CEO und Gründer von Merantix, für die Vermittlung dieses Gesprächs. Seit über acht Jahren beschäftigen wir uns in diesem Podcast mit der Frage, wie Arbeit den Menschen stärkt, statt ihn zu schwächen. In 500 Gesprächen mit über 600 Menschen haben wir darüber gesprochen, was sich für sie geändert hat, und was sich noch ändern muss. Wie können wir verhindern, dass KI-Systeme nur effizienter, aber nicht gerechter werden und worauf kommt es bei der Gestaltung wirklich an? Welche Rolle spielt Transparenz, wenn es um Vertrauen in KI geht, besonders in sensiblen Anwendungen wie Suche, Bildung oder Arbeit? Und was braucht es, um KI so zu entwickeln, dass sie unsere Fähigkeiten erweitert, statt sie zu ersetzen? Fest steht: Für die Lösung unserer aktuellen Herausforderungen brauchen wir neue Impulse. Daher suchen wir weiter nach Methoden, Vorbildern, Erfahrungen, Tools und Ideen, die uns dem Kern von New Work näherbringen. Darüber hinaus beschäftigt uns von Anfang an die Frage, ob wirklich alle Menschen das finden und leben können, was sie im Innersten wirklich, wirklich wollen. Ihr seid bei On the Way to New Work – heute mit Richard Socher. [Hier](https://linktr.ee/onthewaytonewwork) findet ihr alle Links zum Podcast und unseren aktuellen Werbepartnern
Computer und Kommunikation (komplette Sendung) - Deutschlandfunk
Kloiber, Manfred www.deutschlandfunk.de, Computer und Kommunikation
Das ist das KI-Update vom 09.07.2025 unter anderem mit diesen Themen: Grok verbreitet Antisemitismus – und wird deaktiviert Wie KI tödliche Baustellenunfälle vermeiden helfen kann Sprachmodelle geben Frauen schlechtere Gehaltsratschläge und KI vergiften wäre wie ins Meer pinkeln Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10480062 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Die Digitalisierung Deutschlands steht an einem Wendepunkt: Im Digitalwirtschaft-Podcast sprechen wir mit Uwe Peter, dem Deutschland-Chef des amerikanischen Netzwerkausrüsters Cisco, über die drängendsten Fragen der digitalen Transformation, die allein mit der Berufung eines Digitalministers im Bund nicht gelöst werden können. Regulierung ist in den Augen von Peter zwar nicht der Königsweg, diese Entwicklung mache aber deutlich, warum die Richtlinie über Netz- und Informationssicherheit, kurz die NIS-2-Richtlinie, die bis Oktober 2024 in deutsches Recht umgesetzt werden sollte, von so großer Bedeutung sei. Die Richtlinie erweitert den Schutz kritischer Infrastrukturen erheblich. Doch Deutschland ist wegen des Auseinanderbrechens der Ampel-Koalition in Berlin an der fristgemäßen Umsetzung vorerst gescheitert, was viele Unternehmen in Unsicherheit über ihre künftigen Pflichten lässt. Auch die Künstliche Intelligenz (KI) prägt die Cybersicherheitslandschaft: Einerseits ermöglicht sie Angreifern, die Einstiegshürden für Cyberattacken zu senken und qualitativ hochwertigere Phishing-Nachrichten zu erstellen. Große Sprachmodelle können einfachen Schadcode schreiben und die Effizienz sowie Reichweite von Angriffen durch automatisierte Malware-Generierung erhöhen. Andererseits bietet KI Potenzial für die Verteidigung. Sie ermöglicht die Erkennung von Bedrohungen in Echtzeit und kann große Datenmengen analysieren, um Anomalien aufzuspüren, die auf mögliche Cyberangriffe hindeuten. Gerade hier habe Deutschland noch Chancen, aus dem oft noch immer dezentralen Aufbau seiner Datenhaltung Nutzen zu ziehen.
Mit Julius Muth (Company Shield Staffel #12 Folge #4 | #Marketing_021 Der Podcast über Marketing, Vertrieb, Entrepreneurship und Startups *** www.company-shield.com/ https://www.linkedin.com/in/julius-muth-7aa860b1/ *** Im neuesten "Marketing From Zero To One"-Podcast war Julius Muth zu Gast – Mitgründer und CEO von Company Shield, einem Berliner Cybersecurity-Startup, das sich auf moderne Sicherheitslösungen im Zeitalter der Künstlichen Intelligenz spezialisiert hat. Julius blickt auf Stationen bei PwC, Celonis und Project A zurück und bringt sowohl Beratungserfahrung als auch fundierte Tech- und Vertriebskenntnisse mit. Company Shield konzentriert sich auf den Faktor Mensch in der IT-Sicherheit – mit personalisierten, KI-basierten Simulationen realer Angriffe, die Mitarbeitende gezielt auf moderne Bedrohungen wie Deepfakes, Voice Cloning oder Phishing via WhatsApp vorbereiten. Im Gespräch berichtete Julius, wie er mit zwei Ex-Kollegen aus der Celonis-Zeit gründete, welche Ideen Company Shield vorangingen, und wie sie mithilfe eines ungewöhnlichen MVP-Ansatzes – per Brief und persönlichem Pitch – die ersten Kunden gewannen. Besonders spannend: die Kombination aus Automatisierung und KI, mit der Angriffe simuliert, personalisiert und sofortige Lernmomente geschaffen werden. Auch die Nutzung von KI im Alltag, etwa für Research, interne Tools oder Produktentwicklung, wurde diskutiert. Mit dabei war wieder Michael Högemann, der insbesondere nach Einsatzszenarien von KI für Company Shield fragte. *** 01:58 – Was Company Shield macht und warum der Mensch im Zentrum steht 03:37 – Stationen vor der Gründung: PwC, Celonis, Start-up-Projekte im Studium 08:45 – Erste Gründungserfahrungen und der Weg zur Selbstständigkeit 10:14 – Einstieg bei Celonis und Rolle im internationalen Vertrieb 14:56 – Gründungsidee und strukturierte Ideation mit Brief-Experimenten 18:25 – Warum Cybersecurity sofort Resonanz erzeugte 22:14 – Der erste zahlende Kunde und das improvisierte MVP 25:12 – Herausforderungen im B2B-Vertrieb und Early Adopter 30:08 – Brief, E-Mail, Anruf – der Mix macht's 40:03 – Einsatz von Deepfakes im Vertrieb (und wo es rechtlich kritisch wurde) 42:36 – Seriosität vs. Kreativität: Die richtige Balance im Start-up-Vertrieb 44:12 – Über 20 Angel-Investoren, darunter die Celonis-Gründer und Mario Götze 44:55 – Warum es Company Shield ohne KI nicht gäbe 49:10 – Deepfake-Angriffe in der Praxis: Der Fall Arup und andere Beispiele 50:53 – Wie das Training mit Company Shield konkret aussieht 52:18 – Technische Umsetzung: Automatisierung, Sprachmodelle, Datenintegration 54:03 – Einsatz von KI im internen Arbeitsalltag 56:57 – Effektivste Tools und KI-Anwendungen im Start-up 58:31 – Der „KI-Zwilling“ als nächster großer Schritt in der Produktentwicklung 59:40 – Warum Cybersecurity nicht mission-critical, aber trotzdem entscheidend ist 1:02:00 – Tipps gegen Cyberangriffe & menschliche Schwächen im System *** Die Zeitangaben können leicht abweichen.