POPULARITY
In dieser Kurzfolge von RaDiHum20 setzen wir unsere Reihe zur DHd2026 in Wien fort und sprechen mit Axel Pichler von der Universität Wien. Axel gibt uns Einblicke in mehrere aktuelle Projekte, die sich mit generativer KI und literaturwissenschaftlicher Methodik beschäftigen. Gemeinsam mit Kolleg*innen untersucht er, inwiefern sich das Outputverhalten großer Sprachmodelle mit literaturwissenschaftlichen Interpretationsstandards vergleichen lässt. Daneben arbeitet er an einem Workflow zur Evaluation generierter Gedichtinterpretationen sowie an einer Studie zur literaturgeschichtlichen Textpraxis im Kontext von LLMs. Im Gespräch wird schnell deutlich: Eine pauschale Bilanz zur Eignung von KI in der Literaturwissenschaft gibt es nicht. Ob Large Language Models sinnvoll einsetzbar sind, hängt stark von Datensatz, Fragestellung und methodischem Design ab. Wir sind der Meinung, dass die Modelle momentan als Coding-Assistenten besonders hilfreich sind. Gleichzeitig betont Axel die Verpflichtung zur sorgfältigen Validierung: Auch KI-generierte Ergebnisse müssen kritisch geprüft und methodisch reflektiert werden.
Vorträge und Diskussion vom 2. Februar 2026 mit Prof. Dr. Kevin Bauer (Goethe-Universität Frankfurt), Sören Heß (PanocularAI), Prof. Dr. Toni Loh (Hochschule Bonn-Rhein-Sieg) und Prof. Dr. Kristian Kersting (Technische Universität Darmstadt), moderiert von Dr. Helge Bezold (Evangelische Akademie Frankfurt). Sprachmodelle wie ChatGPT, lernende KI-Systeme und hochentwickelte Roboter lassen heute vieles möglich erscheinen. Weniger beachtet wird jedoch, dass der KI-Boom grundlegende Fragen über unser Menschenbild und das Zusammenspiel von Mensch und Maschine aufwirft: Wie erweitert künstliche Intelligenz unsere Handlungsspielräume? Welche Verantwortung tragen wir, wenn wir Technologien in diesem Bereich entwickeln und anwenden? Gerade in Hessen ist eine Auseinandersetzung mit diesen Fragen relevant, denn hier florieren sowohl Forschungsprojekte zur KI als auch Unternehmen, die KI nutzen oder vorantreiben. Manche sprechen gar von einem „Silicon Valley Europas“. Dieser verheißungsvollen Sichtweise stellen wir in unserer Veranstaltung Perspektiven der Technikphilosophie und Ethik gegenüber. Forschende aus dem Netzwerk „hessian.AI“ geben Einblicke in den aktuellen Stand der KI-Forschung; ein regionales Start-up präsentiert konkrete Anwendungsfelder. Gemeinsam kommen wir offen und kritisch darüber ins Gespräch, von welchen Debatten technologische Innovationen in unserer Region begleitet werden sollten.
Input geben - Networking starten!Suchmaschinen fühlen sich heute wie Gespräche an – und genau dort müssen wir als Marke stattfinden. Gemeinsam mit Tonio Meier von Guuru gehen wir der Frage nach, warum echte Nutzerstimmen in ChatGPT, Gemini und Perplexity so stark wirken und wie wir diese Kraft gezielt für mehr Sichtbarkeit, Vertrauen und Umsatz nutzen. Statt KI-Textfabriken setzen wir auf Community: authentische Bewertungen, präzise Antworten und konkrete Erfahrungen, die Sprachmodelle als zuverlässige Signale erkennen und zitieren.Wir zeigen, wie sich aus Chats und Diskussionen hochwertige Snippets extrahieren lassen, die sich auf Produktseiten einbetten und sauber strukturieren: mit Datum, Produktbezug, Kurzfazit und klarer Autorenschaft. LLMs bevorzugen aktuelle, menschliche und spezialisierte Inhalte – das macht Freshness, Expertise und transparente Profile zu Pflicht. Der Effekt ist messbar: weniger Streuverlust, qualitativere Klicks, mehr Conversion. Gleichzeitig sinken Supportkosten, wenn How-to-Antworten der Community über KI-Tools als Self-Service gefunden werden. Wir beleuchten die Tücken der Attribution und erklären, welche Indikatoren wirklich zählen, wenn Referrals aus KI-Gesprächen unsichtbar bleiben.Spannend wird es beim Branchenblick: Während große Banken bei generischen Fragen dominieren, gewinnen Nischenanbieter mit klarer Positionierung die spitzen Suchabsichten – etwa bei Mobilität oder Nachhaltigkeit. Das Muster bleibt gleich: echte Stimmen, saubere Struktur, kontinuierliche Aktualisierung. Ob Retail, D2C oder Finance – wer Community ernsthaft fördert, liefert die Art Inhalte, die LLMs schätzen und Kundinnen und Kunden vertrauen. Hör rein, hol dir die Taktiken für KI-Sichtbarkeit mit Substanz und sag uns: Wo aktivierst du deine stärksten Stimmen?Abonniere den Podcast, teile die Folge mit deinem Team und hinterlasse eine Bewertung, wenn dir die Einsichten geholfen haben. So bleibt unsere Community sichtbar – auch in den KI-Gesprächen von morgen. Support the showVielen Dank an unsere Starken Podcast-Partner: Solunex: Der Schwerpunkt von Solunex liegt in der Unterstützung unserer Kunden im effizienten und automatisierten Verarbeiten und erzeugen von Kundenkommunikation. Dabei decken wir sowohl die Eingangsseite ab (Input Management), wobei Automatisierung und Unterstützung der Kundenteams durch den gezielten Einsatz von AI im Vordergrund stehen. Auf der Ausgangsseite (Output Management), steht ebenfalls die Automatisierung im Fokus, sowie die Nutzung sämtlicher Kontaktkanäle zwischen Kunden und Endkunden (Omnichannel Management). Vor über 35 Jahren gegründet, verfügt das Team von Solunex über langjährige Erfahrungen aus erfolgreichen Kundenprojekten, basierend auf hervorragender technischer Umsetzungskompetenz. Solunex unterstützt die Kunden über den gesamten Lebenszyklus einer Lösung aktiv und zuverlässig. https://www.solunex.ch/ AlpineAI: AlpineAI ist ein innovatives Schweizer KI-Unternehmen, das sich auf sichere und datenschutzkonforme KI-Lösungen für Unternehmen spezialisiert hat. Ihr Hauptprodukt, SwissGPT, ist eine Schweizer Version von ChatGPT, die höchste Standards beim Daten- und Geheimnisschutz gewährleistet, indem alle Informationen in Schweizer Rechenzentren verarbeitet werden. AlpineAI versteht sich als Innovationskatalysator für die KI-Transformation und arbeitet daran, Unternehmen durch massg...
In dieser Folge von EduFunk sprechen wir über ein Fach, das viele Schüler:innen herausfordert – und über eine App, die genau hier ansetzt. Zu Gast sind Leon Frischauf, Gründer der Lernplattform Studyly, und Klaus-Jürgen Spätauf, Lehrer an einer digitalen Mittelschule in Wien und langjähriger EduFunk-Hörer.Gemeinsam werfen wir einen Blick darauf, wie digitaler Mathematikunterricht aussehen kann, der wirklich unterstützt: mit sofortigem Feedback, gezielter Diagnostik, individualisierten Lernpfaden und einer klaren didaktischen Idee dahinter. Leon erklärt, wie Studyly entstanden ist, warum dort bewusst keine generativen Sprachmodelle eingesetzt werden und wie regelbasierte KI hilft, typische Fehlvorstellungen sichtbar zu machen. Klaus-Jürgen berichtet aus der Praxis, wie sich der Unterricht verändert, wenn Lehrkräfte den Lernstand ihrer Klasse auf einen Blick sehen – und warum das weder Überforderung noch Kontrollverlust bedeuten muss.Es geht um Chancen und Grenzen von KI im Unterricht, um Heterogenität in Klassen, um Motivation, Gamification und die Frage, wie Schule in den nächsten Jahren Lernen gerechter und individueller gestalten kann.Eine Folge für alle, die Mathematikunterricht neu denken wollen – praxisnah, kritisch und mit Blick nach vorn.weiterführende Links:Studyly - https://studyly.com/at/Social Media:
Viele von uns kennen mittlerweile Sprachmodelle wie ChatGPT, die in der Lage sind, die Struktur und Bedeutung unserer Sprache zu lernen und wiederzugeben. Aber wie sieht es mit der „Sprache“ unserer Zellen aus – der DNA? In dieser Folge spricht Dr. Anna Poetsch von der TU Dresden darüber, wie sie Modelle entwickelt, die helfen, die Geheimnisse der DNA zu entschlüsseln.
KI treibt Kurse, Stefan Waldhauser bleibt skeptisch. Er erklärt, warum Sprachmodelle keine AGI liefern. Er erwartet eine harte Ernüchterung beim KI-Hype. Stattdessen setzt er auf Angi als Plattform-Value, PayPal als Turnaround und The Trade Desk nach dem Bewertungsrutsch. Sein Ansatz: Cash halten, Geduld bewahren, auf Momentum warten.
Können Sie sich noch erinnern, wie das chinesische KI-Unternehmen Deepseek die Tech-Welt schockte? Wie ein Modell aus Fernost infrage stellte, ob wirklich noch mehr Daten und Rechenleistung nötig sind, um noch bessere Sprachmodelle zu konstruieren? Beine ein Jahr ist inzwischen vergangenen seitdem die Deepseek-Ingenieure auch in Europa neue Hoffnung auslösten, in der KI mithalten zu können, die häufig Milliardeninvestitionen erfordert. Das vergangene Jahr stand technologisch, wirtschaftlich, aber zunehmen auch politisch im Zeichen der KI. Niemand kommt an dieser Schlüsseltechnologie noch vorbei. Die gute Nachricht für die Nutzer: Der Wettbewerb ist groß. Es gibt eine ganze Reihe kompetenter KI-Modelle, kein einzelnes Unternehmen oder KI-System dominiert den Markt oder droht, ihn auf sich zu vereinen. Abgesänge auf Google haben sich als verfrüht erwiesen, Open AI verfügt über Spitzenmodelle, Microsoft, Meta und Anthropic konkurrieren. Und dann sind da eben auch die Anbieter aus China und manche aus Europa, die mithalten können. In unserem Jahresrückblick diskutieren wir aber nicht nur über KI. Der Fortschritt in diesem Bereich führte auch zu wachsender Sorge über Desinformation, Datenschutz und soziale Auswirkungen. Staaten reagierten unterschiedlich: Australien reguliert sozialer Medien deutlich strenger und schützt gerade Kinder und Jugendliche. Andere Länder, nicht zuletzt in Europa, denken über ähnliche Schritt nach. Und schließlich sprechen wir auch über digitale Souveränität und was das heute bedeutet. Denn auch dieser Diskurs geht weiter - und bleibt wichtig. Einen guten Start ins neue Jahr.
Künstliche Intelligenz ist 2025 endgültig im Alltag angekommen. Kaum ein Technologiethema hat Wirtschaft, Politik und Gesellschaft in diesem Jahr so geprägt wie KI. Parallel dazu ist in Deutschland das erste eigenständige Digitalministerium gestartet – und eco – Verband der Internetwirtschaft e.V. blickt auf 30 Jahre Verbandsgeschichte zurück. Doch zum Jahresende bleibt die zentrale Frage: War 2025 wirklich das lange erwartete KI-Jahr – oder vor allem ein Jahr der Erwartungen? In der Jahresabschlussfolge 2025 von „Das Ohr am Netz“ sprechen Sidonie Krug und Sven Oswald mit Dr. Aljoscha Burchardt (Principal Researcher am Deutschen Forschungszentrum für Künstliche Intelligenz, DFKI; Co-Host des ARD-Podcasts „KI – und jetzt?“) über den realen Stand der KI-Entwicklung: über echte Fortschritte, über technologische Grenzen – und darüber, wo der Hype der Realität vorausgeeilt ist. Dabei geht es unter anderem um Agentensysteme, Multimodalität, Erwartungen an Sprachmodelle und die Frage, welche gesellschaftlichen Debatten 2025 zu kurz gekommen sind. Mit Alexander Rabe, Geschäftsführer von eco, ordnen wir außerdem ein bewegtes digitalpolitisches Jahr ein: das erste Jahr mit Digitalministerium, neue regulatorische Weichenstellungen, geopolitische Verschiebungen, die Debatte um digitale Souveränität – und drei Jahrzehnte eco als Gestalter des Internets. Eine Folge über technologische Realität, politische Verantwortung und die Frage, wie ernst es Deutschland und Europa mit ihrer digitalen Zukunft ist. Weitere Informationen: Zur Folge „KI Future Tech“: https://www.eco.de/news/eco-podcast-zu-ki-future-tech-2/ Redaktion: Christin Müller, Laura Rodenbeck, Anja Wittenburg, Irmeline Uhlmann Schnitt: David Grassinger Moderation: Sidonie Krug, Sven Oswald Produktion: eco – Verband der Internetwirtschaft e.V.
«Kassensturz» zeigt in einer Spezial-Ausgabe, was KI heute schon alles kann. Im Test: der grosse Chatbot-Vergleich – mit überraschenden Resultaten. Künstliche Intelligenz – Allgegenwärtig, nützlich, aber auch beängstigend KI ist längst mehr als nur ein Sprach-Assistent. Sie scannt Röntgenbilder, erkennt Gesichter, sortiert Müll und hilft bei Texten. Doch trotz des Nutzens wächst die Sorge vor Arbeitsplatzverlusten. Segen oder Fluch? Die Debatte um die Super-Power KI im «Kassensturz». Chatbots im Test – Schweizer Eigenheiten und Halluzinationen Die Fachhochschule Nordwestschweiz FHNW testet für «Kassensturz» zehn gängige Chatbots beziehungsweise intelligente Sprachmodelle auf ihre Praxistauglichkeit. Darunter Schwergewichte wie ChatGPT und Gemini, aber auch das Schweizer Modell Lumo. Die Resultate zeigen: Viele Modelle haben Mühe mit Schweizer Eigenheiten – und neigen zu «Halluzinationen», also dem Erfinden von Zusammenhängen. So versteht Lumo zum Beispiel unter einer «Stange» im Restaurant ein Brot statt ein Bier. Die Überraschung: ChatGPT landet bloss im Mittelfeld. Ausgebeutet für KI – Wie Kenias Mikro-Jobber leiden Kenia ist ein Zentrum für KI-Mikro-Jobs. Doch hinter den Kulissen leiden sogenannte Daten-Annotatoren, Menschen die KI mit Wissen füttern, und Content-Moderatoren unter langen Arbeitszeiten, Hungerlöhnen und psychischen Belastungen. Belastungen durch Inhalte, die kaum auszuhalten sind: Kinderpornografie, Videos von Suiziden, rohe Gewalt. Anwälte schlagen deshalb Alarm und sprechen von Menschenhandel und Zwangsarbeit. Die Betroffenen fordern faire Arbeitsbedingungen und mehr Menschlichkeit. Am Pranger: Tech-Giganten wie zum Beispiel Meta, Muttergesellschaft von Facebook und WhatsApp. Die Reportage aus der kenianischen Hauptstadt Nairobi im «Kassensturz».
«Kassensturz» zeigt in einer Spezial-Ausgabe, was KI heute schon alles kann. Im Test: der grosse Chatbot-Vergleich – mit überraschenden Resultaten. Künstliche Intelligenz – Allgegenwärtig, nützlich, aber auch beängstigend KI ist längst mehr als nur ein Sprach-Assistent. Sie scannt Röntgenbilder, erkennt Gesichter, sortiert Müll und hilft bei Texten. Doch trotz des Nutzens wächst die Sorge vor Arbeitsplatzverlusten. Segen oder Fluch? Die Debatte um die Super-Power KI im «Kassensturz». Chatbots im Test – Schweizer Eigenheiten und Halluzinationen Die Fachhochschule Nordwestschweiz FHNW testet für «Kassensturz» zehn gängige Chatbots beziehungsweise intelligente Sprachmodelle auf ihre Praxistauglichkeit. Darunter Schwergewichte wie ChatGPT und Gemini, aber auch das Schweizer Modell Lumo. Die Resultate zeigen: Viele Modelle haben Mühe mit Schweizer Eigenheiten – und neigen zu «Halluzinationen», also dem Erfinden von Zusammenhängen. So versteht Lumo zum Beispiel unter einer «Stange» im Restaurant ein Brot statt ein Bier. Die Überraschung: ChatGPT landet bloss im Mittelfeld. Ausgebeutet für KI – Wie Kenias Mikro-Jobber leiden Kenia ist ein Zentrum für KI-Mikro-Jobs. Doch hinter den Kulissen leiden sogenannte Daten-Annotatoren, Menschen die KI mit Wissen füttern, und Content-Moderatoren unter langen Arbeitszeiten, Hungerlöhnen und psychischen Belastungen. Belastungen durch Inhalte, die kaum auszuhalten sind: Kinderpornografie, Videos von Suiziden, rohe Gewalt. Anwälte schlagen deshalb Alarm und sprechen von Menschenhandel und Zwangsarbeit. Die Betroffenen fordern faire Arbeitsbedingungen und mehr Menschlichkeit. Am Pranger: Tech-Giganten wie zum Beispiel Meta, Muttergesellschaft von Facebook und WhatsApp. Die Reportage aus der kenianischen Hauptstadt Nairobi im «Kassensturz».
In dieser Episode begrüßt Thomas einen ganz besonderen Gast: Prof. Dr. Carolin Durst. Sie ist nicht nur Professorin für Digital Marketing an der Hochschule Ansbach und Scientific Director bei Atonics, sondern wurde von ihren Studierenden auch zur "Professorin des Jahres 2025" gewählt. Gemeinsam blicken sie tief in die Zukunft des Marketings. Es geht nicht nur um Tools, sondern um eine fundamentale Verschiebung: Wie verändern KI-Agenten die Art, wie Kunden nach Lösungen suchen? Warum scheut die Gen Z den Telefonhörer? Und warum wird in einer digitalen Welt der persönliche Handschlag plötzlich zum wichtigsten Wettbewerbsvorteil? Eine Folge für alle, die verstehen wollen, wie man Marketing-Teams der Zukunft aufstellt und warum "Mainstream-Content" durch KI keine Chance mehr hat.
A yellow rubber duck as a problem solver — a tried and tested trick from the IT scene: In so-called rubber duck debugging, you explain your own problem to a plastic bird step by step and often discover the solution all by yourself. SBS correspondent Barbara Barkhausen reveals why loud explanations structure our thinking, where the method comes from and whether modern alternatives such as language models can replace the duck. - Eine gelbe Gummiente als Problemlöser – was nach Kinderzimmer klingt, ist ein bewährter Trick aus der IT-Szene: Beim sogenannten Rubber-Duck-Debugging erklärt man einem Plastikvogel Schritt für Schritt das eigene Problem und entdeckt dabei oft ganz von selbst die Lösung. Warum lautes Erklären unser Denken strukturiert, woher die Methode stammt und ob moderne Alternativen wie Sprachmodelle die Ente ersetzen können, verrät SBS-Korrespondentin Barbara Barkhausen.
Die Integration von Künstlicher Intelligenz in ERP-Systeme markiert einen Wendepunkt in der Gestaltung von Benutzeroberflächen. KI macht komplexe Prozesse intuitiv, personalisiert die Interaktion und reduziert Einstiegshürden – vom lernenden Interface bis hin zu dialogbasierten Sprachmodellen. Dadurch werden ERP-Systeme nicht nur effizienter, sondern auch zugänglicher für alle Anwender, selbst ohne tiefes technisches Wissen. Gleichzeitig eröffnen sich neue Chancen für Barrierefreiheit und datenbasierte Entscheidungen, während Datenschutz und Transparenz zentrale Herausforderungen bleiben. In diesem exklusiven Live-Webinar zeigen wir Dir, wie KI ERP-Systeme nicht nur effizienter, sondern auch so zugänglich macht, dass Du kein tiefes technisches Wissen mehr brauchst, um alle Potenziale zu nutzen. Das wirst Du nach dem Webinar gelernt haben Wie KI Deine ERP-Prozesse vereinfacht: Du verstehst, wie KI den "Klick-Marathon" beendet und komplexe Aufgaben in intuitive, smarte Interaktionen verwandelt. Was ein "lernendes Interface" ist: Du kennst die Vorteile von personalisierten Benutzeroberflächen, die sich Dir anpassen und Deine tägliche Arbeit erleichtern. Wie Du Einstiegshürden senkst: Du lernst, wie dialogbasierte Sprachmodelle und intuitive Oberflächen Dein ERP-System für alle Anwender zugänglich machen – auch ohne tiefes technisches Wissen. Welche neuen Chancen sich ergeben: Du siehst klar, wie KI Dein Unternehmen im Bereich Barrierefreiheit und datenbasierte Entscheidungen voranbringt. Die Herausforderungen zu meistern: Du weißt, welche zentralen Herausforderungen im Bereich Datenschutz und Transparenz bestehen und wie man diese proaktiv angeht. FRIDAY Insights ist eine gemeinsame Initiative von OMT und contentmanager.de – mit dem Ziel, komplexe Themen verständlich, praxisnah und mit echtem Mehrwert aufzubereiten.
Welche Unternehmen profitieren vom KI-Hype – auch abseits der bekannten Tech-Giganten wie Nvidia, Microsoft oder Alphabet? Im heutigen Interview analysiert Tim Schäfer die zweite Reihe der KI-Profiteure: Energieversorger, Rechenzentren, Kühlung, Infrastruktur & Software. Denn wo grosse Sprachmodelle und KI-Anwendungen betrieben werden, braucht es vor allem eins: Strom, Speicher und Struktur.
Wir sind zurück aus der kleinen Zwangspause – mit leichtem Husten, aber mit einem Thema, das deutlich größer ist als unsere Stimmbänder: Weltmodelle. Large Language Models (LLMs) wie ChatGPT, Gemini & Co. waren der perfekte Einstieg in die KI-Ära: stark in Sprache, Code und Kreativität. Jetzt kommen Systeme dazu, die nicht nur Texte generieren, sondern unsere Welt als System mit Regeln, Physik und Kausalität verstehen wollen. In der Folge sprechen wir darüber, was Weltmodelle von LLMs unterscheidet, warum „Grounding“ in echten Naturgesetzen so wichtig ist (ein Glas, das vom Tisch fällt, muss fallen – egal, was das Sprachmodell dazu meint) und wieso das überall dort spannend wird, wo KI reale Konsequenzen hat: in der Robotik, in der Stadtplanung, in der Biologie, der Materialforschung und der Klimamodellierung. Wir skizzieren unter anderem ein Weltmodell für Hamburg mit Verkehr, Baustellen, Wetter und Gebäuden, schauen auf digitale Zwillinge, die mit Weltmodellen endlich wirklich vorausschauend werden, und diskutieren, wie Sprachmodelle, agentische KI und Weltmodelle zusammenspielen können: LLMs als Interface für uns, Weltmodelle als „Physik-Engine“ im Hintergrund. Wenn du wissen willst, warum viele Forschende gerade extrem heiß auf Weltmodelle sind (ohne LLMs schlechtzureden) und wie sich damit unsere echte Welt besser simulieren und planen lässt, dann ist diese Folge für dich.
Die großen amerikanischen Tech-Konzerne wie Alphabet, Meta oder OpenAI investieren Hunderte von Milliarden Dollar in Chips und den Bau von Rechenzentren. Das Ziel: Daten-Power für den Ausbau künstlicher Intelligenz (KI). Doch bisher verdient fast niemand mit der Technologie Geld. Die großen Sprachmodelle, die Unsummen verschlingen, sind für die meisten Nutzer gratis verfügbar. „Da wird eine enorme, sehr riskante Wette eingegangen“, sagt Capital-Redakteur Jan Vollmer im Capital Wirtschaftspodcast. „Es ist noch nicht klar, wie damit eigentlich Gewinn erwirtschaftet werden soll.“ Vollmer hat das Treiben der US-Tech-Riesen in der Titelgeschichte des Wirtschaftsmagazins untersucht und kommt zu dem Schluss, dass die Unternehmen ein Geflecht von kaum überschaubaren Risiken aufgebaut haben. Damit der Boom finanziert werden kann, begeben sich die Konzerne in wachsende wechselseitige Abhängigkeiten. „Nvidia investiert in den eigenen Kunden, damit der wiederum Nvidia-Chips kauft“, sagt Vollmer über den Halbleiterhersteller. „Das Geld fließt gewissermaßen im Kreis.“ Das Problem: Die Wette betrifft nicht nur die Konzerne selbst, sondern auch die Anleger, die auf vielfältige Weise an dem KI-Boom beteiligt sind – über Aktien oder Indexfonds, die in die Wertpapiere investieren. „Der MSCI World hat einen starken Anteil von Aktien genau der Tech-Unternehmen, die diese Rechenzentren bauen“, sagt Vollmer.Eine Produktion von RTL+ Podcast.Host: Nils Kreimeier.Redaktion: Lucile Gagnière.Produktion: Andolin Sonnen. +++Weitere Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/diestundenull +++60 Tage lang kostenlos Capital+ lesen - Zugriff auf alle digitalen Artikel, Inhalte aus dem Heft und das ePaper. Unter Capital.de/plus-gratis +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.html +++ Wir verarbeiten im Zusammenhang mit dem Angebot unserer Podcasts Daten. Wenn Sie der automatischen Übermittlung der Daten widersprechen wollen, klicken Sie hier: https://datenschutz.ad-alliance.de/podcast.html +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Ein Dialekt kann Vorurteile auslösen - selbst bei einer Künstlichen Intelligenz. Eine Studie zeigt, dass Sprachmodelle wie ChatGPT Menschen systematisch benachteiligen, wenn diese einen Dialekt sprechen. Von Julia Nestlen
Künstliche Intelligenz macht uns völlig unkreativ – alles nur noch Einheitsbrei. Dieser plakativen Aussage würden viele kreative Menschen widersprechen. Denn Künstlerinnen, Musiker und Designerinnen können KI auch als Tool nutzen, um die eigenen Ideen umzusetzen. Am Ende kommt es – wie bei so ziemlich jedem Werkzeug – auf die Art und Weise an, wie wir es nutzen. Ein erster Schritt zur kreativen Nutzung der großen Sprachmodelle ist der richtige Prompt. Anne-Kathrin Gerstlauer ist Expertin im Prompten. Aber sie ist auch Profi im Schreiben und im Redigieren. Denn nur wer sich in seinem Feld gut auskennt, kann auch die KI anleiten, um ein richtig gutes Ergebnis zu erzielen. Wie wir also gut prompten, um am Ende bessere Texte zu schreiben, erklärt uns Anne-Kathrin heute im Deep-Dive. === Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/@heise-podcasts === Anzeige / Sponsorenhinweis Ende === Artikel zur Podcastfolge: https://heise.de/-11086353 https://akgerstlauer.de/ Der BlaBla-Score: https://chatgpt.com/g/g-67d97d3b6ee48191ad18055572aa8188-blablabla https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Drohungen, Rassismus, Datendiebstahl und ungefragtes Fotografieren unter der Dusche: All das könnte blühen, wenn Roboter mit KI gekoppelt werden. Im Einsatz sind solche Roboter noch nicht – die verwendeten Sprachmodelle aber schon.**********In dieser Folge mit: Moderation: Nik Potthoff Gesprächspartnerin: Carina Schroeder, DLF Nova Tech-Reporterin**********Ihr könnt uns auch auf diesen Kanälen folgen: TikTok und Instagram .
Der Dax-Konzern SAP ist ein deutsches Schwergewicht: über 34 Mrd. Euro Umsatz im Jahr 2024, mehr als 100.000 Mitarbeiterinnen und Mitarbeiter weltweit, ein Software-Gigant. Wenn allerdings von den Treibern der künstlichen Intelligenz (KI) die Rede ist, dann fällt der Name SAP eher selten, ein eigenes großes Sprachmodell (LLM) hat das Unternehmen nicht entwickelt. Im Capital-Podcast verteidigt Philipp Herzig, SAP-CTO und KI-Chef im Konzern, diese Entscheidung. „Es ist natürlich bei jeder technologischen Disruption so, dass am Anfang die Aufmerksamkeit auf denen liegt, die die Grundlagenkomponenten bauen“, sagt er. „Wir haben uns von Anfang an darauf konzentriert, was die SAP stark macht, und das ist das Einbauen von Technologie in die betriebswirtschaftlichen Anwendungen.“ Herzig verweist darauf, dass KI bereits an vielen Stellen in den Anwendungen von SAP zum Einsatz kommt und den Kunden ein eigener KI-Assistent zur Verfügung steht. Aus seiner Sicht haben sich die großen Sprachmodelle zu einer Art Rohstoff entwickelt, auf dessen Grundlage erst die eigentlich erfolgversprechenden Anwendungen entwickelt werden. „Ich kann mich an Diskussionen bei uns erinnern, da kam gerade GPT-4, und alle waren in Ehrfurcht erstarrt“, sagt Herzig. „Ich habe aber schon damals gesagt: Der Algorithmus selbst wird schnell Commodity, das ist in den letzten 40 Jahren immer passiert. Die Frage ist, was ist differenzierend? Und das sind und waren Daten und der Fokus auf die Wertschöpfung im Unternehmen.“Eine Produktion von RTL+ Podcast.Host: Nils Kreimeier.Redaktion: Lucile Gagnière.Produktion: Andolin Sonnen. +++Weitere Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/diestundenull +++60 Tage lang kostenlos Capital+ lesen - Zugriff auf alle digitalen Artikel, Inhalte aus dem Heft und das ePaper. Unter Capital.de/plus-gratis +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.html +++ Wir verarbeiten im Zusammenhang mit dem Angebot unserer Podcasts Daten. Wenn Sie der automatischen Übermittlung der Daten widersprechen wollen, klicken Sie hier: https://datenschutz.ad-alliance.de/podcast.html ++++++ Hinweis zur Werbeplatzierung von Meta: https://backend.ad-alliance.de/fileadmin/Transparency_Notice/Meta_DMAJ_TTPA_Transparency_Notice_-_A… +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Texte von Liedern sind urheberrechtlich geschützt. Und das gilt nach Ansicht des Landgerichts München auch für Sprachmodelle, also KIs wie ChatGPT. Das Gericht gab der Gema recht, die gegen das US-Unternehmen OpenAI geklagt hatte.**********In dieser Folge mit: Moderator: Dominik Schottner Gesprächspartnerin: Anne Tepper, Deutschlandfunk Nova Nachrichten**********Ihr könnt uns auch auf diesen Kanälen folgen: TikTok und Instagram .
Diese Woche gibt's Deep Talk über KI, Serien und das ewige Chaos im Haushalt
"We are made of all those who have built and broken us." weiß Samantha. Aber wie sehr beeinflussen KI gestützte Chatbots & generative Sprachmodelle eigentlich unser Datingverhalten und was ist überhaupt Liebe? Wir sprechen über HER, was an diesem Indiefilm von Spike Jonze heute aktueller den je ist und wie sich die Fragen rund um technologische Entwicklungen und unser Sozialverhalten in den letzten Jahren verschoben haben.
Nach einer kurzen Herbstpause sprechen Alois und Oliver darüber, wie echte Deep-Tech-Ökosysteme auf Stadtebene entstehen – jenseits von Buzzwords. Sie ordnen ein, was Deep Tech wirklich bedeutet, wo die Grenze zu Commodity-Technologien verläuft und weshalb der Begriff aktuell oft inflationär verwendet wird. Ausgehend von Deutschlands neuer Hightech-Agenda (mit Schwerpunkten wie KI, Quantencomputing und Biotechnologie) diskutieren sie, wie nationale Programme lokale Cluster beeinflussen und warum Orte mit starker Forschungs- und Infrastrukturbasis – etwa DESY und die Science City in Hamburg – als Anker dienen.Die Episode zeigt, wie Konvergenz zwischen Technologien wie KI, Quanten- und Neuromorphik-Computing, Robotik oder XR Tempo aufnimmt und welche Rolle „universelle Schnittstellen“ wie große Sprachmodelle dabei spielen. Zugleich machen die beiden deutlich, dass Grundlagenforschung geschützte Domänen braucht, während Reallabore und Sandboxes die Brücke in die Anwendung schlagen. An konkreten Beispielen wird sichtbar, weshalb kurze Wege, stabile Rahmenbedingungen, verlässliche Testflächen und klar profilierte Stadt-Stärken den Unterschied zwischen Theorie und Transfer ausmachen.Ein zentrales Motiv der Folge ist der „Übersetzer“: Personen und Formate, die Forschung, Industrie und – oft als Ankerkunden – den Staat zielgerichtet zusammenbringen. Statt Event-Inflation braucht es kuratierte Räume, in denen Themen kurz vor der Marktreife fokussiert beschleunigt werden. Genau hier setzt der Deep Tech Campus Circle an: als bewusst exklusiver Ort, an dem Köpfe, Kapital und konkrete Use Cases aufeinandertreffen, um aus Keimlingen skalierbare Innovationen zu machen.Am Ende bleibt die klare These: Deep Tech entsteht, wenn tiefe Expertise, Geduld und ein klug orchestriertes Ökosystem zusammenwirken. Wer verstehen will, wie Städte vom Strategiepapier zur sichtbaren Wertschöpfung kommen, bekommt in dieser Folge eine kompakte, praxisnahe Landkarte – von der Saat in der Grundlagenforschung bis zur Ernte im Markt.
Sozioinformatikerin und KI-Expertin Katharina Zweig im Live-Gespräch auf dem Beats & Bones Podcast-Festival 2025: Es geht unter anderem um die Komplexität von Künstlicher Intelligenz und die ethischen Herausforderungen im Umgang mit KI-Sytemen wie generativen Sprachmodellen. (00:01:06) Begrüßung (00:02:16) Vorstellung Katharina Zweig (00:05:12) Algorithmen und Daten (00:06:21) Was ist Sozioinformatik (00:11:41) Gute und schlechte KI-Tools (00:17:10) Wie funktionieren Sprachmodelle? (00:27:21) Zusammenspiel von KI und Mensch (00:32:16) KI und Psyche (00:38:33) KI und Medizin (00:42:19) Die Zukunft der KI (00:47:58) Das Spektrum-Assoziationsspiel (00:49:59) KI und Social Media (00:59:38) Die Spektrum-Zukunftsmaschine (01:04:16) Verabschiedung und Eindrücke LINKS: Hier geht’s zum Spektrum-Artikel „Die Mathematik der Fairness“: https://www.spektrum.de/pix/interactive/mathematik-der-fairness/ Hier gehts zum Spektrum-Artikel: „Digitalmanifest“: https://www.spektrum.de/thema/das-digital-manifest/1375924 >> Artikel zum Nachlesen: https://detektor.fm/wissen/die-grossen-fragen-der-wissenschaft-katharina-zweig
Sozioinformatikerin und KI-Expertin Katharina Zweig im Live-Gespräch auf dem Beats & Bones Podcast-Festival 2025: Es geht unter anderem um die Komplexität von Künstlicher Intelligenz und die ethischen Herausforderungen im Umgang mit KI-Sytemen wie generativen Sprachmodellen. (00:01:06) Begrüßung (00:02:16) Vorstellung Katharina Zweig (00:05:12) Algorithmen und Daten (00:06:21) Was ist Sozioinformatik (00:11:41) Gute und schlechte KI-Tools (00:17:10) Wie funktionieren Sprachmodelle? (00:27:21) Zusammenspiel von KI und Mensch (00:32:16) KI und Psyche (00:38:33) KI und Medizin (00:42:19) Die Zukunft der KI (00:47:58) Das Spektrum-Assoziationsspiel (00:49:59) KI und Social Media (00:59:38) Die Spektrum-Zukunftsmaschine (01:04:16) Verabschiedung und Eindrücke LINKS: Hier geht’s zum Spektrum-Artikel „Die Mathematik der Fairness“: https://www.spektrum.de/pix/interactive/mathematik-der-fairness/ Hier gehts zum Spektrum-Artikel: „Digitalmanifest“: https://www.spektrum.de/thema/das-digital-manifest/1375924 >> Artikel zum Nachlesen: https://detektor.fm/wissen/die-grossen-fragen-der-wissenschaft-katharina-zweig
Turtlezone Tiny Talks - 20 Minuten Zeitgeist-Debatten mit Gebert und Schwartz
Wie kommen KI-Suchmaschinen zu Ihren Antworten? Was ist der Unterschied zwischen dem antrainierten, statischen Wissen der Sprachmodelle und RAG-Grounding, der Retrieval Augmented Generation? Und wie lange gibt es noch eine Ko-Existenz zwischen der „alten“ Ergebnislisten-Welt des Google Crawlers und der neuen Welt der KI-Antwortmaschinen? Das sind nur einige der Fragen, die Unternehmen und Webverantwortliche heute umtreiben. Ist SEO tot und wie gelingt GEO für eine Sichtbarkeit in den KI-Antworten von Perplexity & Co.? Für den zweiten Teil des GEO-Specials von Turtlezone Tiny Talks sprechen Michael Gebert und Oliver Schwartz in der Episode 187 mit Mare Hojc, dem Gründer und Geschäftsführer der renommierten Agentur AN Digital. Ein spannender Talk mit klaren Botschaften und einem Deep Dive in die derzeit besten Strategien wie GEO gelingt. 41 Podcast-Minuten, die sich mehr als lohnen!
Künstliche Intelligenz zieht ins Labor ein: In der Chemie und Biochemie hilft sie, neue Materialien zu entdecken, Reaktionen vorherzusagen und Forschung zu beschleunigen. Hier entlang geht's zu den Links unserer Werbepartner: https://detektor.fm/werbepartner/spektrum-der-wissenschaft (00:01:38) Chemiker Maarten Dobbelaere – Forschungsgebiet? (00:03:36) Wie wurde KI in seine Forschung eingebunden? (00:05:33) Einsatz und Wirkweise von KI? (00:07:30) Wie verändert KI die Chemie? (00:11:12) Konkrete Anwendungen (00:13:48) Machine Learning ist eigentlich schon älter, Stand dazu? (00:16:31) Missverständnis KI? (00:19:02) Sprachmodelle wie ChatGPT in der Chemie einsetzbar? (00:24:41) Revolution durch KI? (00:27:53) Was kommt noch auf uns zu? >> Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcasts-ki-revolution-chemie
Künstliche Intelligenz zieht ins Labor ein: In der Chemie und Biochemie hilft sie, neue Materialien zu entdecken, Reaktionen vorherzusagen und Forschung zu beschleunigen. Hier entlang geht's zu den Links unserer Werbepartner: https://detektor.fm/werbepartner/spektrum-der-wissenschaft (00:01:38) Chemiker Maarten Dobbelaere – Forschungsgebiet? (00:03:36) Wie wurde KI in seine Forschung eingebunden? (00:05:33) Einsatz und Wirkweise von KI? (00:07:30) Wie verändert KI die Chemie? (00:11:12) Konkrete Anwendungen (00:13:48) Machine Learning ist eigentlich schon älter, Stand dazu? (00:16:31) Missverständnis KI? (00:19:02) Sprachmodelle wie ChatGPT in der Chemie einsetzbar? (00:24:41) Revolution durch KI? (00:27:53) Was kommt noch auf uns zu? >> Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcasts-ki-revolution-chemie
Künstliche Intelligenz zieht ins Labor ein: In der Chemie und Biochemie hilft sie, neue Materialien zu entdecken, Reaktionen vorherzusagen und Forschung zu beschleunigen. Hier entlang geht's zu den Links unserer Werbepartner: https://detektor.fm/werbepartner/spektrum-der-wissenschaft (00:01:38) Chemiker Maarten Dobbelaere – Forschungsgebiet? (00:03:36) Wie wurde KI in seine Forschung eingebunden? (00:05:33) Einsatz und Wirkweise von KI? (00:07:30) Wie verändert KI die Chemie? (00:11:12) Konkrete Anwendungen (00:13:48) Machine Learning ist eigentlich schon älter, Stand dazu? (00:16:31) Missverständnis KI? (00:19:02) Sprachmodelle wie ChatGPT in der Chemie einsetzbar? (00:24:41) Revolution durch KI? (00:27:53) Was kommt noch auf uns zu? >> Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcasts-ki-revolution-chemie
"Die Zukunft sagt man nicht voraus – man baut sie.“ Mit dieser Aussage beschreibt der Digitalberater und Autor Thomas Knüwer im Gespräch mit Gastgeber Christian Jakubetz, warum er gemeinsam mit Richard Gutjahr und Frank Horn das Buch „20 Trends für 2035 - Warum vieles besser wird, als Sie glauben" geschrieben hat. Statt Weltuntergangsstimmung spricht Knüwer mit Gastgeber Christian Jakubetz über eine Gesellschaft, die oft von Überangst geprägt ist – und darüber, warum gerade deshalb ein nüchterner Blick nach vorn nötig ist. Knüwer erklärt, wie Sprachmodelle funktionieren, warum sie nicht nach Wahrheit streben und weshalb Journalisten verstehen müssen, was in diesen Maschinen passiert. Außerdem geht es um die neue Macht der Superinfluencer – Menschen mit Podcasts, Reichweite und Vertrauen, die klassische Medien herausfordern, ohne laut zu sein. Mehr zu "20 Trends für 35 - Warum vieles besser wird, als Sie glauben" unter https://www.zwanzigtrends.com/
Jahn, Thekla www.deutschlandfunk.de, Campus & Karriere
In dieser Folge von Frauenstimmen spreche ich mit Prof. Dr. Katharina Zweig – KI-Expertin, Bestsellerautorin und Trägerin des Bundesverdienstkreuzes. Das Thema Künstliche Intelligenz war mir lange unheimlich, und ich hatte ehrlich gesagt wenig Ahnung davon. Durch Katharinas ruhige und klare Art ist mir vieles verständlicher geworden: warum KI mich fasziniert, was mich verunsichert und wo ihre Grenzen liegen. Wir reden über Fake und Echtheit, digitale Identität und darüber, warum wir Menschen unersetzlich bleiben. Besonders spannend fand ich, wie Katharina erklärt, dass Sprachmodelle keine Wissensdatenbanken sind, sondern lediglich Muster in Sprache erkennen. Dieses Gespräch hat mir eine neue Perspektive eröffnet und mir gezeigt, dass KI beeindruckend sein kann – aber nicht immer aus den Gründen, die wir denken. Ich wünsche euch viel Freude beim Zuhören!Mehr zu Prof. Dr. Katharina ZweigBundesverdienstkreuz – Meldung der RPTUArbeitsgruppe Algorithm Accountability Lab (RPTU)LinkedIn: linkedin.com/in/katharina-prof-dr-zweig-b0a9aa63/Weiß die KI, dass sie nichts weiß? (Buch)Die KI war's! (Buch)Ein Algorithmus hat kein Taktgefühl (Buch) Mehr zu Ildikó von Kürthy:www.ildikovonkuerthy.deIldikó von Kürthy bei Facebook und Instagram(Hör-)Bücher von Ildikó von Kürthy:Eine halbe Ewigkeit (Buch und Hörbuch)Mondscheintarif (Buch und Hörbuch)Morgen kann kommen (Buch und Hörbuch)Es wird Zeit (Buch und Hörbuch)Weitere Bücher und Hörbücher Hosted on Acast. See acast.com/privacy for more information.
Wer im Netz nach Grafiken oder Statistiken sucht, landet über kurz oder lang bei Statista. Das Unternehmen, das 2007 von Beratern gegründet wurde, hat sich für viele Unternehmen zur ersten Anlaufstelle entwickelt und lässt sich seine Zugänge gut bezahlen: „Das Einstiegsprodukt kostet 199 Euro im Monat für eine Einzelperson. Doch es gibt Unternehmenslizenzen, die in den sechs- oder siebenstelligen Bereich gehen“ sagt Statista-Chef Marc Berg im Wirtschaftspodcast von Capital. „Aber dafür gibt es die Garantie, dass die Daten stimmen.“ 300 Mitarbeiter, etwa ein Viertel der Belegschaft, sind mit der Recherche und Auswertung von Daten wie den Zulassungszahlen bei Autos beschäftigt und bereiten sie auf. Der Siegeszug der Künstlichen Intelligenz, über die Informationen im Internet zusammengefasst werden, macht Berg nach eigenen Angaben keine Sorge. „Wenn wir die Daten, die wir exklusiv haben, nicht freigeben, dann haben die Modelle auch keinen Zugriff darauf. Deshalb beschreiben wir nach außen nur noch qualitativ, was in den Statistiken drin ist“, sagt Berg. „Aber wir verstecken alle Datenpunkte. Das heißt, die Sprachmodelle sehen nur, dass es eine Statistik bei uns gibt, aber nicht, was sie beinhaltet.“ +++Eine Produktion von RTL+ Podcast.Host: Nils Kreimeier.Redaktion: Lucile Gagnière.Produktion: Andolin Sonnen. +++Weitere Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/diestundenull +++60 Tage lang kostenlos Capital+ lesen - Zugriff auf alle digitalen Artikel, Inhalte aus dem Heft und das ePaper. Unter Capital.de/plus-gratis +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.html +++ Wir verarbeiten im Zusammenhang mit dem Angebot unserer Podcasts Daten. Wenn Sie der automatischen Übermittlung der Daten widersprechen wollen, klicken Sie hier: https://datenschutz.ad-alliance.de/podcast.html +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Unser Partner Scalable Capital ist der einzige Broker, den du brauchst. Inklusive Trading-Flatrate, Zinsen und Portfolio-Analysen. Alle weiteren Infos gibt's hier: scalable.capital/oaws. Wer noch mehr zu Planisware wissen will: Auf unserer Deep-Dive-Plattform. Hier 1 Monat kostenlos testen: https://herohero.co/oaws/invites/VVGMROSIUA. China will keine Chips mehr von NVIDIA. Baidu testet Sprachmodelle mit eigenen Chips. Alibaba verkauft Chips für Rechenzentrum. Waymo kooperiert mit Lyft, Elliott steigt bei Workday ein, Authentic Brand Group & CVC wollen Puma, StubHub hat IPO. Leitzins runter. Asana und Monday.com kennt jeder. Planisware (WKN: A40B0L) dagegen wohl nur wenige. Dabei haben die Franzosen einen spannenden Burggraben. Viele Krypto-Firmen verdienen Geld mit Trading. Bei Figure Technologies (WKN: A41GD8) ist das anders. Hier geht's um Kreditlinien, die mit dem Eigenheim besichert werden. Klingt weird, ist aber Blockchain. Diesen Podcast vom 18.09.2025, 3:00 Uhr stellt dir die Podstars GmbH (Noah Leidinger) zur Verfügung
Johannes Kruse erforscht, in welchen Fällen sich KI in der Justiz einsetzen lässt. Ein Gespräch über Bias, Halluzinationen und die Frage, ob Sprachmodelle bessere Juristen sind als Menschen. >> Artikel zum Nachlesen: https://detektor.fm/wissen/ach-mensch-johannes-kruse-recht
Johannes Kruse erforscht, in welchen Fällen sich KI in der Justiz einsetzen lässt. Ein Gespräch über Bias, Halluzinationen und die Frage, ob Sprachmodelle bessere Juristen sind als Menschen. >> Artikel zum Nachlesen: https://detektor.fm/wissen/ach-mensch-johannes-kruse-recht
"Decision Intelligence” ist ein neuer Lösungsansatz für ein altes Problem: Wie treffen wir bessere Entscheidungen? Während Sprachmodelle wie ChatGPT eher raten als rechnen, entwickeln Unternehmen wie das Heidelberger Paretos Systeme, die aus unzähligen Datenpunkten konkrete Handlungsempfehlungen ableiten. Gregor und Marie diskutieren, welche Entscheidungen wir wirklich outsourcen sollten - und ob wir bald alle einen digitalen Berater brauchen, der uns sagt, welches Verkehrsmittel wir nehmen sollen.
Sprachmodelle agieren zunehmend agentisch: Sie steuern selbstständig Desktop- und Web-Apps, zum Beispiel Google Mail oder PayPal, und nehmen dem Anwender manche Routinearbeit ab. Das relativ neue Model Context Protocol (MCP) ist eine Schlüsseltechnik dafür. Es bietet eine einheitliche Schnittstelle, mit der Modelle egal welchen Anbieters loslegen können. Drei c't-Redakteure haben sich das neue Protokoll genauer angesehen, KI-Agenten damit erstaunliche Dinge tun lassen und bewertet, wie riskant das Ganze ist. Im c't uplink erzählt Jo Bager, was das Sprachmodell Claude auf sein Kommando (und auch ungefragt) geschafft hat. Jan Mahn erklärt, wie MCP funktioniert und worauf Firmen bei der Nutzung achten sollten. Sylvester Tremmel warnt vor den Sicherheitsrisiken der noch jungen Technik. Mit dabei: Jo Bager, Jan Mahn, Sylvester Tremmel Moderation: Greta Friedrich Produktion: Ralf Taschke Mehr zum Thema KI-Agenten und zum Model Context Protocol finden Sie in der c't-Ausgabe 17/2025, auf ct.de sowie in der c't-App für iOS und Android. Die Ausgabe 17/2025 gibt es ab dem 8. August 2025 am Kiosk.
Sprachmodelle agieren zunehmend agentisch: Sie steuern selbstständig Desktop- und Web-Apps, zum Beispiel Google Mail oder PayPal, und nehmen dem Anwender manche Routinearbeit ab. Das relativ neue Model Context Protocol (MCP) ist eine Schlüsseltechnik dafür. Es bietet eine einheitliche Schnittstelle, mit der Modelle egal welchen Anbieters loslegen können. Drei c't-Redakteure haben sich das neue Protokoll genauer angesehen, KI-Agenten damit erstaunliche Dinge tun lassen und bewertet, wie riskant das Ganze ist. Im c't uplink erzählt Jo Bager, was das Sprachmodell Claude auf sein Kommando (und auch ungefragt) geschafft hat. Jan Mahn erklärt, wie MCP funktioniert und worauf Firmen bei der Nutzung achten sollten. Sylvester Tremmel warnt vor den Sicherheitsrisiken der noch jungen Technik. ► Die besprochene Artikelstrecke zu KI-Agenten und dem Model Context Protocol in c't 17/2025 (Paywall): https://www.heise.de/select/ct/2025/17/2517121530368514194
Sprachmodelle agieren zunehmend agentisch: Sie steuern selbstständig Desktop- und Web-Apps, zum Beispiel Google Mail oder PayPal, und nehmen dem Anwender manche Routinearbeit ab. Das relativ neue Model Context Protocol (MCP) ist eine Schlüsseltechnik dafür. Es bietet eine einheitliche Schnittstelle, mit der Modelle egal welchen Anbieters loslegen können. Drei c't-Redakteure haben sich das neue Protokoll genauer angesehen, KI-Agenten damit erstaunliche Dinge tun lassen und bewertet, wie riskant das Ganze ist. Im c't uplink erzählt Jo Bager, was das Sprachmodell Claude auf sein Kommando (und auch ungefragt) geschafft hat. Jan Mahn erklärt, wie MCP funktioniert und worauf Firmen bei der Nutzung achten sollten. Sylvester Tremmel warnt vor den Sicherheitsrisiken der noch jungen Technik. Mit dabei: Jo Bager, Jan Mahn, Sylvester Tremmel Moderation: Greta Friedrich Produktion: Ralf Taschke Mehr zum Thema KI-Agenten und zum Model Context Protocol finden Sie in der c't-Ausgabe 17/2025, auf ct.de sowie in der c't-App für iOS und Android. Die Ausgabe 17/2025 gibt es ab dem 8. August 2025 am Kiosk.
KI-Sprachmodelle sind überall - aber was kommt als Nächstes? In dieser Folge werfen wir einen Blick auf die Zukunft der KI: Reicht es, Sprachmodelle einfach nur größer zu machen? Oder brauchen wir völlig neue Ansätze?
Unser heutiger Gast wurde in Dresden geboren, studierte Computerlinguistik in Leipzig und Saarbrücken und promovierte später an der Stanford University – betreut von keinem Geringeren als Andrew Ng und Chris Manning. Seine Dissertation wurde als beste Informatik-Promotion ausgezeichnet. Nach Stationen bei Microsoft und Siemens gründete er sein erstes Unternehmen: MetaMind, ein Deep-Learning-Startup, das 2016 von Salesforce übernommen wurde. Dort war er anschließend Chief Scientist, leitete große Forschungsteams und trieb die KI-Strategie des Konzerns maßgeblich voran. Heute ist er Gründer und CEO von you.com, einer KI-basierten Suchmaschine, die als datenschutzfreundliche, transparente und anpassbare Alternative zu klassischen Anbietern auftritt, mit einem starken Fokus auf Nutzendenkontrolle und verantwortungsvoller KI. Zudem investiert er über seinen Fonds AI+X in KI-Startups weltweit. Seine wissenschaftlichen Arbeiten zählen zu den meistzitierten im Bereich NLP und Deep Learning, über 170.000 Mal, und viele seiner Ideen haben die Entwicklung heutiger Sprachmodelle mitgeprägt. Ein herzliches Dankeschön an Adrian Locher, CEO und Gründer von Merantix, für die Vermittlung dieses Gesprächs. Seit über acht Jahren beschäftigen wir uns in diesem Podcast mit der Frage, wie Arbeit den Menschen stärkt, statt ihn zu schwächen. In 500 Gesprächen mit über 600 Menschen haben wir darüber gesprochen, was sich für sie geändert hat, und was sich noch ändern muss. Wie können wir verhindern, dass KI-Systeme nur effizienter, aber nicht gerechter werden und worauf kommt es bei der Gestaltung wirklich an? Welche Rolle spielt Transparenz, wenn es um Vertrauen in KI geht, besonders in sensiblen Anwendungen wie Suche, Bildung oder Arbeit? Und was braucht es, um KI so zu entwickeln, dass sie unsere Fähigkeiten erweitert, statt sie zu ersetzen? Fest steht: Für die Lösung unserer aktuellen Herausforderungen brauchen wir neue Impulse. Daher suchen wir weiter nach Methoden, Vorbildern, Erfahrungen, Tools und Ideen, die uns dem Kern von New Work näherbringen. Darüber hinaus beschäftigt uns von Anfang an die Frage, ob wirklich alle Menschen das finden und leben können, was sie im Innersten wirklich, wirklich wollen. Ihr seid bei On the Way to New Work – heute mit Richard Socher. [Hier](https://linktr.ee/onthewaytonewwork) findet ihr alle Links zum Podcast und unseren aktuellen Werbepartnern
Computer und Kommunikation (komplette Sendung) - Deutschlandfunk
Kloiber, Manfred www.deutschlandfunk.de, Computer und Kommunikation
Das ist das KI-Update vom 09.07.2025 unter anderem mit diesen Themen: Grok verbreitet Antisemitismus – und wird deaktiviert Wie KI tödliche Baustellenunfälle vermeiden helfen kann Sprachmodelle geben Frauen schlechtere Gehaltsratschläge und KI vergiften wäre wie ins Meer pinkeln Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10480062 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Die Digitalisierung Deutschlands steht an einem Wendepunkt: Im Digitalwirtschaft-Podcast sprechen wir mit Uwe Peter, dem Deutschland-Chef des amerikanischen Netzwerkausrüsters Cisco, über die drängendsten Fragen der digitalen Transformation, die allein mit der Berufung eines Digitalministers im Bund nicht gelöst werden können. Regulierung ist in den Augen von Peter zwar nicht der Königsweg, diese Entwicklung mache aber deutlich, warum die Richtlinie über Netz- und Informationssicherheit, kurz die NIS-2-Richtlinie, die bis Oktober 2024 in deutsches Recht umgesetzt werden sollte, von so großer Bedeutung sei. Die Richtlinie erweitert den Schutz kritischer Infrastrukturen erheblich. Doch Deutschland ist wegen des Auseinanderbrechens der Ampel-Koalition in Berlin an der fristgemäßen Umsetzung vorerst gescheitert, was viele Unternehmen in Unsicherheit über ihre künftigen Pflichten lässt. Auch die Künstliche Intelligenz (KI) prägt die Cybersicherheitslandschaft: Einerseits ermöglicht sie Angreifern, die Einstiegshürden für Cyberattacken zu senken und qualitativ hochwertigere Phishing-Nachrichten zu erstellen. Große Sprachmodelle können einfachen Schadcode schreiben und die Effizienz sowie Reichweite von Angriffen durch automatisierte Malware-Generierung erhöhen. Andererseits bietet KI Potenzial für die Verteidigung. Sie ermöglicht die Erkennung von Bedrohungen in Echtzeit und kann große Datenmengen analysieren, um Anomalien aufzuspüren, die auf mögliche Cyberangriffe hindeuten. Gerade hier habe Deutschland noch Chancen, aus dem oft noch immer dezentralen Aufbau seiner Datenhaltung Nutzen zu ziehen.
Das ist das KI-Update vom 28.05.2025 unter anderem mit diesen Themen: Einloggen in verschiedene Apps mit ChatGPT Deutsches Konsortium möchte KI-Rechenzentrum bauen Mistral AI rüstet Sprachmodelle zu vernetzten Problemlösern auf und Münchner Start-up Spaitial entwickelt KI mit räumlichem Verständnis Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10418490 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Mit Julius Muth (Company Shield Staffel #12 Folge #4 | #Marketing_021 Der Podcast über Marketing, Vertrieb, Entrepreneurship und Startups *** www.company-shield.com/ https://www.linkedin.com/in/julius-muth-7aa860b1/ *** Im neuesten "Marketing From Zero To One"-Podcast war Julius Muth zu Gast – Mitgründer und CEO von Company Shield, einem Berliner Cybersecurity-Startup, das sich auf moderne Sicherheitslösungen im Zeitalter der Künstlichen Intelligenz spezialisiert hat. Julius blickt auf Stationen bei PwC, Celonis und Project A zurück und bringt sowohl Beratungserfahrung als auch fundierte Tech- und Vertriebskenntnisse mit. Company Shield konzentriert sich auf den Faktor Mensch in der IT-Sicherheit – mit personalisierten, KI-basierten Simulationen realer Angriffe, die Mitarbeitende gezielt auf moderne Bedrohungen wie Deepfakes, Voice Cloning oder Phishing via WhatsApp vorbereiten. Im Gespräch berichtete Julius, wie er mit zwei Ex-Kollegen aus der Celonis-Zeit gründete, welche Ideen Company Shield vorangingen, und wie sie mithilfe eines ungewöhnlichen MVP-Ansatzes – per Brief und persönlichem Pitch – die ersten Kunden gewannen. Besonders spannend: die Kombination aus Automatisierung und KI, mit der Angriffe simuliert, personalisiert und sofortige Lernmomente geschaffen werden. Auch die Nutzung von KI im Alltag, etwa für Research, interne Tools oder Produktentwicklung, wurde diskutiert. Mit dabei war wieder Michael Högemann, der insbesondere nach Einsatzszenarien von KI für Company Shield fragte. *** 01:58 – Was Company Shield macht und warum der Mensch im Zentrum steht 03:37 – Stationen vor der Gründung: PwC, Celonis, Start-up-Projekte im Studium 08:45 – Erste Gründungserfahrungen und der Weg zur Selbstständigkeit 10:14 – Einstieg bei Celonis und Rolle im internationalen Vertrieb 14:56 – Gründungsidee und strukturierte Ideation mit Brief-Experimenten 18:25 – Warum Cybersecurity sofort Resonanz erzeugte 22:14 – Der erste zahlende Kunde und das improvisierte MVP 25:12 – Herausforderungen im B2B-Vertrieb und Early Adopter 30:08 – Brief, E-Mail, Anruf – der Mix macht's 40:03 – Einsatz von Deepfakes im Vertrieb (und wo es rechtlich kritisch wurde) 42:36 – Seriosität vs. Kreativität: Die richtige Balance im Start-up-Vertrieb 44:12 – Über 20 Angel-Investoren, darunter die Celonis-Gründer und Mario Götze 44:55 – Warum es Company Shield ohne KI nicht gäbe 49:10 – Deepfake-Angriffe in der Praxis: Der Fall Arup und andere Beispiele 50:53 – Wie das Training mit Company Shield konkret aussieht 52:18 – Technische Umsetzung: Automatisierung, Sprachmodelle, Datenintegration 54:03 – Einsatz von KI im internen Arbeitsalltag 56:57 – Effektivste Tools und KI-Anwendungen im Start-up 58:31 – Der „KI-Zwilling“ als nächster großer Schritt in der Produktentwicklung 59:40 – Warum Cybersecurity nicht mission-critical, aber trotzdem entscheidend ist 1:02:00 – Tipps gegen Cyberangriffe & menschliche Schwächen im System *** Die Zeitangaben können leicht abweichen.
Mit Viktor von Essen (Libra Staffel #12 Folge #2 | #Marketing_021 Der Podcast über Marketing, Vertrieb, Entrepreneurship und Startups *** https://libratech.ai/ https://www.linkedin.com/in/viktor-von-essen/ *** Im neuesten "Marketing From Zero To One" Podcast-Interview ging es dieses Mal um Viktor von Essen und sein Startup Libra, eine KI-gestützte Plattform, die Anwaltskanzleien und Rechtsabteilungen dabei hilft, künstliche Intelligenz effizient in ihre tägliche Arbeit zu integrieren. Viktor erzählte von seinem Werdegang von der Bucerius Law School, der Sorbonne und Oxford über seine Zeit als Anwalt bei Freshfields bis hin zur Gründung von Libra im Jahr 2023. Das KI-Startup nutzt spezialisierte Sprachmodelle, um juristische Workflows zu optimieren, Dokumentenanalyse zu automatisieren und Anwälte bei ihrer täglichen Arbeit zu unterstützen. Er sprach über die Herausforderungen beim Aufbau eines LegalTech-Unternehmens, seine Vertriebsstrategien, die Expansion nach Polen und die regulatorischen Rahmenbedingungen für KI in Europa. Abschließend gab er Einblicke in seine Vision für die Zukunft der Rechtsbranche und die Rolle von KI in der juristischen Praxis. Mit dabei war KI-Experte und Seriengründer Michael Högemann. *** 00:58 – Begrüßung und Vorstellung 01:14 – Werdegang von Viktor und Gründung von Libra 02:55 – Finanzierung und Teamaufbau 03:34 – Expansion nach Polen 05:12 – Von der Idee zur Umsetzung 07:23 – Erstes Experiment mit KI in der Juristerei 08:53 – Von der ersten Legal-AI-Firma zu Libra 09:10 – Erster MVP von Libra 10:48 – Pivot und Weiterentwicklung 11:53 – Strategie für Wachstum 13:50 – Effektivste Vertriebsmethoden 15:45 – Libra Academy und Promptathons 18:48 – Praktische Umsetzung von Promptathons 23:37 – Langfristige Vision für Libra 25:39 – Effizienzsteigerung durch KI 28:00 – Regulatorische Herausforderungen in Europa 30:06 – Überzeugung von skeptischen Anwälten 32:03 – Disruptives Potenzial von KI in der Rechtsbranche 33:30 – Verändertes Kundenverhalten 34:38 – Integration von KI in juristische Workflows 38:17 – Nutzung von KI im eigenen Unternehmen 42:40 – Skalierung der Libra Academy 45:03 – Was wäre ohne KI passiert? 46:13 – Rat an junge Juristen 49:19 – Abschluss und Ausblick *** Die Zeitangaben können leicht abweichen.
In der heutigen Folge nehmen wir euch mit auf eine Reise in die dynamische Welt des Cloud Computings, speziell zugeschnitten auf die Versicherungsindustrie. Eure Hosts Dominik Badarne und Herbert Jansky freuen sich, heute gleich zwei hochkarätige Experten begrüßen zu dürfen: Christian Richter und Fabian Lober.Christian Richter betont die Flexibilität und Skalierbarkeit von AWS, das keine Lizenzen oder Produkte verkauft, sondern per-Use-Services anbietet. Seit 2006 wurden die Preise bereits über 130 Mal gesenkt, um diese Vorteile an die Kunden weiterzugeben. Fabian Lober hebt die Bedeutung der Zusammenarbeit zwischen verschiedenen Anbietern hervor und spricht über die einzigartigen Services und Konferenzen von AWS, wie die innovative re:Invent.In dieser Episode diskutieren wir die Herausforderungen und Chancen der Cloud-Transformation, die in der Versicherungsindustrie besonders relevant sind. Christian und Fabian teilen ihre Expertise über die Rolle der Künstlichen Intelligenz und wie AWS eigene Chips entwickelt, um kosteneffiziente Trainings für große Sprachmodelle zu ermöglichen. Wir erfahren, warum rund 61% der Versicherungsunternehmen die Cloud nutzen und wie dies die Branche transformiert.Außerdem werfen wir einen Blick auf die neueste Entwicklung bei Amazon: die Amazon Nova Familie von Large Language Models und wie diese Modelle die Effizienz und Genauigkeit von KI-Anwendungen verbessern. Wir werden auch die Performance von Matt Garman, einem AWS-Manager, erörtern und die Keynote-Highlights der AWS re:Invent-Konferenz sowie deren Bedeutung für die Cloud-Community analysieren.Freut euch auf spannende Einblicke, technische Tiefe und die neuesten Entwicklungen im Cloud-Bereich. Bleibt dran, es lohnt sich!Schreibt uns gerne eine Nachricht!Folge uns auf unserer LinkedIn Unternehmensseite für weitere spannende Updates.Unsere Website: https://www.insurancemondaypodcast.de/Du möchtest Gast beim Insurance Monday Podcast sein? Schreibe uns unter info@insurancemondaypodcast.de und wir melden uns umgehend bei Dir.Dieser Podcast wird von dean productions produziert.Vielen Dank, dass Du unseren Podcast hörst!