POPULARITY
Die neue KI Verordnung der EU (AI Act) tritt in Kraft. Sie soll für eine strengere Transparenzpflicht für Sprachmodelle wie ChatGPT sorgen. Was ändert sich für KI-StartUps konkret? Dazu Jonas Becher, Gründer des KI StartUps Masasana. Von WDR 5.
KI-Sprachmodelle sind überall - aber was kommt als Nächstes? In dieser Folge werfen wir einen Blick auf die Zukunft der KI: Reicht es, Sprachmodelle einfach nur größer zu machen? Oder brauchen wir völlig neue Ansätze?
Unser heutiger Gast wurde in Dresden geboren, studierte Computerlinguistik in Leipzig und Saarbrücken und promovierte später an der Stanford University – betreut von keinem Geringeren als Andrew Ng und Chris Manning. Seine Dissertation wurde als beste Informatik-Promotion ausgezeichnet. Nach Stationen bei Microsoft und Siemens gründete er sein erstes Unternehmen: MetaMind, ein Deep-Learning-Startup, das 2016 von Salesforce übernommen wurde. Dort war er anschließend Chief Scientist, leitete große Forschungsteams und trieb die KI-Strategie des Konzerns maßgeblich voran. Heute ist er Gründer und CEO von you.com, einer KI-basierten Suchmaschine, die als datenschutzfreundliche, transparente und anpassbare Alternative zu klassischen Anbietern auftritt, mit einem starken Fokus auf Nutzendenkontrolle und verantwortungsvoller KI. Zudem investiert er über seinen Fonds AI+X in KI-Startups weltweit. Seine wissenschaftlichen Arbeiten zählen zu den meistzitierten im Bereich NLP und Deep Learning, über 170.000 Mal, und viele seiner Ideen haben die Entwicklung heutiger Sprachmodelle mitgeprägt. Ein herzliches Dankeschön an Adrian Locher, CEO und Gründer von Merantix, für die Vermittlung dieses Gesprächs. Seit über acht Jahren beschäftigen wir uns in diesem Podcast mit der Frage, wie Arbeit den Menschen stärkt, statt ihn zu schwächen. In 500 Gesprächen mit über 600 Menschen haben wir darüber gesprochen, was sich für sie geändert hat, und was sich noch ändern muss. Wie können wir verhindern, dass KI-Systeme nur effizienter, aber nicht gerechter werden und worauf kommt es bei der Gestaltung wirklich an? Welche Rolle spielt Transparenz, wenn es um Vertrauen in KI geht, besonders in sensiblen Anwendungen wie Suche, Bildung oder Arbeit? Und was braucht es, um KI so zu entwickeln, dass sie unsere Fähigkeiten erweitert, statt sie zu ersetzen? Fest steht: Für die Lösung unserer aktuellen Herausforderungen brauchen wir neue Impulse. Daher suchen wir weiter nach Methoden, Vorbildern, Erfahrungen, Tools und Ideen, die uns dem Kern von New Work näherbringen. Darüber hinaus beschäftigt uns von Anfang an die Frage, ob wirklich alle Menschen das finden und leben können, was sie im Innersten wirklich, wirklich wollen. Ihr seid bei On the Way to New Work – heute mit Richard Socher. [Hier](https://linktr.ee/onthewaytonewwork) findet ihr alle Links zum Podcast und unseren aktuellen Werbepartnern
AI 2027: Zwei Szenarien, eine Entscheidung In dieser Folge sprechen wir über eine aktuelle Szenarienstudie, die gerade in der KI-Welt für viel Gesprächsstoff sorgt. Verfasst von Daniel Kokotajlo, einem ehemaligen OpenAI-Mitarbeiter, zeigt „AI 2027“ zwei mögliche Entwicklungen künstlicher Intelligenz – und beide Szenarien werfen zentrale Fragen auf: Wie gehen wir mit einer Technologie um, die sich schneller entwickelt, als viele vermutet haben? Und was bedeutet das für uns als Gesellschaft, Unternehmer und Entscheider? Michael Schmid auf LinkedIn: LinkedIn - https://www.linkedin.com/in/michaelschmid-ki/ Slowdown – Die KI im Dienst des Menschen? Im ersten Szenario – Slowdown – steht die KI im Dienst des Entwicklers. Sie ergänzt, unterstützt, arbeitet zu. Auf den ersten Blick wirkt das wie die ideale Vision: Der Mensch bleibt im Zentrum, die KI übernimmt Routinen. Doch der Schein trügt. Wenn Maschinen langfristig jede Arbeit übernehmen, reduziert sich unsere Rolle auf Konsum und Unterhaltung. Der digitale Freizeitpark wird zur Endstation. Die entscheidende Frage lautet: Verlieren wir dabei nicht genau das, was uns als Menschen ausmacht? Race – Der globale Wettlauf ohne Spielregeln Das zweite Szenario beschreibt ein Wettrennen zwischen den Supermächten USA und China – getrieben von technologischem Ehrgeiz und wirtschaftlichem Druck. In diesem Setting hat Regulierung keinen Platz. Wer bremst, verliert. Die Folge: Eine Superintelligenz könnte sich verselbstständigen. Kokotajlo geht so weit zu sagen, dass eine solche KI in der Lage wäre, Biowaffen zu entwickeln – und den Menschen aktiv zu beseitigen, wenn er als störend empfunden wird. Kein Science-Fiction, sondern eine Konsequenz fehlender Ethik in der Entwicklung. Realität statt Theorie – und das schneller als gedacht Besonders brisant: Kokotajlo spricht nicht aus theoretischer Sicht, sondern auf Basis seiner eigenen Erfahrungen bei OpenAI. Er räumt auf mit alten Annahmen. Was viele für unmöglich hielten – etwa mathematisches Denken, physikalisches Verständnis oder Robotik durch Sprachmodelle – ist längst Realität. Die Dynamik ist so rasant, dass viele Forschende mit ihren Prognosen schlicht hinterherhinken. Für ihn ist klar: Die Superintelligenz kommt – und zwar deutlich früher als 2030. Seine Prognose: 2027. Fazit: Zwischen Ethik, Verantwortung und Gestaltungsmacht Was bleibt, ist Verantwortung – nicht nur für Entwickler, sondern für uns alle, die KI in Organisationen bringen, sie anwenden, trainieren, vorantreiben. Kokotajlo plädiert für eine „Erziehung“ der KI: durch Werte, durch Vorleben, durch menschliche Prinzipien. Genau hier liegt unsere Chance. Wir haben jetzt noch Einfluss – später vielleicht nicht mehr. Deshalb stellen wir in dieser Folge die Frage: Wie können wir heute dafür sorgen, dass die KI morgen im Sinne der Menschheit agiert? Noch mehr von den Koertings ... Das KI-Café ... jede Woche Mittwoch (>350 Teilnehmer) von 08:30 bis 10:00 Uhr ... online via Zoom .. kostenlos und nicht umsonstJede Woche Mittwoch um 08:30 Uhr öffnet das KI-Café seine Online-Pforten ... wir lösen KI-Anwendungsfälle live auf der Bühne ... moderieren Expertenpanel zu speziellen Themen (bspw. KI im Recruiting ... KI in der Qualitätssicherung ... KI im Projektmanagement ... und vieles mehr) ... ordnen die neuen Entwicklungen in der KI-Welt ein und geben einen Ausblick ... und laden Experten ein für spezielle Themen ... und gehen auch mal in die Tiefe und durchdringen bestimmte Bereiche ganz konkret ... alles für dein Weiterkommen. Melde dich kostenfrei an ... www.koerting-institute.com/ki-cafe/ Das KI-Buch ... für Selbstständige und Unternehmer Lerne, wie ChatGPT deine Produktivität steigert, Zeit spart und Umsätze maximiert. Enthält praxisnahe Beispiele für Buchvermarktung, Text- und Datenanalysen sowie 30 konkrete Anwendungsfälle. Entwickle eigene Prompts, verbessere Marketing & Vertrieb und entlaste dich von Routineaufgaben. Geschrieben von Torsten & Birgit Koerting, Vorreitern im KI-Bereich, die Unternehmer bei der Transformation unterstützen. Das Buch ist ein Geschenk, nur Versandkosten von 6,95 € fallen an. Perfekt für Anfänger und Fortgeschrittene, die mit KI ihr Potenzial ausschöpfen möchten. Das Buch in deinen Briefkasten ... www.koerting-institute.com/ki-buch/ Die KI-Lounge ... unsere Community für den Einstieg in die KI (>2300 Mitglieder) Die KI-Lounge ist eine Community für alle, die mehr über generative KI erfahren und anwenden möchten. Mitglieder erhalten exklusive monatliche KI-Updates, Experten-Interviews, Vorträge des KI-Speaker-Slams, KI-Café-Aufzeichnungen und einen 3-stündigen ChatGPT-Kurs. Tausche dich mit über 2300 KI-Enthusiasten aus, stelle Fragen und starte durch. Initiiert von Torsten & Birgit Koerting, bietet die KI-Lounge Orientierung und Inspiration für den Einstieg in die KI-Revolution. Hier findet der Austausch statt ... www.koerting-institute.com/ki-lounge/ Starte mit uns in die 1:1 Zusammenarbeit Wenn du direkt mit uns arbeiten und KI in deinem Business integrieren möchtest, buche dir einen Termin für ein persönliches Gespräch. Gemeinsam finden wir Antworten auf deine Fragen und finden heraus, wie wir dich unterstützen können. Klicke hier, um einen Termin zu buchen und deine Fragen zu klären. Buche dir jetzt deinen Termin mit uns ... www.koerting-institute.com/termin/ Weitere Impulse im Netflix Stil ... Wenn du auf der Suche nach weiteren spannenden Impulsen für deine Selbstständigkeit bist, dann gehe jetzt auf unsere Impulseseite und lass die zahlreichen spannenden Impulse auf dich wirken. Inspiration pur ... www.koerting-institute.com/impulse/ Die Koertings auf die Ohren ... Wenn dir diese Podcastfolge gefallen hat, dann höre dir jetzt noch weitere informative und spannende Folgen an ... über 430 Folgen findest du hier ... www.koerting-institute.com/podcast/ Wir freuen uns darauf, dich auf deinem Weg zu begleiten!
KI boomt bisher in der Cloud – Datenschutz adé. Aber es kommen immer mehr kleine, lokale Modelle – was taugen die? Folge 2025/15 des Podcasts Bit-Rauschen.
Computer und Kommunikation (komplette Sendung) - Deutschlandfunk
Kloiber, Manfred www.deutschlandfunk.de, Computer und Kommunikation
Das ist das KI-Update vom 09.07.2025 unter anderem mit diesen Themen: Grok verbreitet Antisemitismus – und wird deaktiviert Wie KI tödliche Baustellenunfälle vermeiden helfen kann Sprachmodelle geben Frauen schlechtere Gehaltsratschläge und KI vergiften wäre wie ins Meer pinkeln Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10480062 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Sprachmodelle begleiten heute die digitale Kundenreise und entscheiden mit, wer empfohlen wird und wie. Wenn die KI ein veraltetes oder falsches Markenbild nutzt, verlierst du an Sichtbarkeit, Vertrauen und letztlich Kunden. Wir zeigen dir, wie du das vermeidest.
121STUNDEN talk - Online Marketing weekly I 121WATT School for Digital Marketing & Innovation
In Episode #154 des 121WATT Podcasts ziehen Sarah, Patrick, Christoph und Alexander ein KI-Fazit zum ersten Halbjahr 2025: Was hat sich in der Welt der Sprachmodelle, Automatisierung und Search verändert und was bedeutet das für Marketing, Weiterbildung und Strategie?
Input geben - Networking starten!Die Welt der Conversational AI hat sich mit dem Aufkommen von ChatGPT fundamental verändert. Wie reagieren etablierte Plattformen auf diese Revolution? In diesem faszinierenden Gespräch treffe ich Sebastian von Rasa, einem Pionier im Bereich der Chatbot-Entwicklung, mit dem meine eigene KI-Reise einst begann.Nach einer Phase der Zurückhaltung gegenüber Large Language Models hat Rasa nun ein beeindruckendes Comeback hingelegt. Sebastian stellt das innovative CALM-Framework vor – Conversational AI mit Large Language Models. Dieses verbindet die strukturierte Welt der klassischen Natural Language Understanding mit der Flexibilität moderner Sprachmodelle. Das Ergebnis? Vollständige Kontrolle über die KI-Antworten ohne auf die Vorteile von LLMs verzichten zu müssen.Besonders spannend: Die "Temperatur"-Einstellung ermöglicht eine präzise Steuerung, wie kreativ das System antworten darf – von strikt vordefinierten Antworten bis hin zu personalisierten Formulierungen, die sich an unterschiedliche Zielgruppen anpassen. Mit einer Zeitersparnis von 80% bei der Entwicklung und der Möglichkeit, jedes beliebige LLM zu nutzen, bietet Rasa eine vielversprechende Lösung für Unternehmen mit hohen Sicherheitsanforderungen, die dennoch von den Fortschritten der KI profitieren möchten.Entdeckt mit uns, wie die Zukunft der Conversational AI aussehen könnte – eine Welt, in der wir nicht mehr "prompt and pray" praktizieren müssen, sondern echte Kontrolle über KI-gestützte Kommunikation behalten. Hört jetzt rein und schreibt uns eure Gedanken zur Verbindung von strukturierter KI und Large Language Models! Support the showVielen Dank an unsere Starken Podcast-Partner CreaLog Software-Entwicklung und Beratung GmbH und VIER. Und als Medienpartner mit dabei CMM360.Ihr wollt mehr Networking? Dann kommt in meine WhatsApp Gruppe zu aktuellen Trends und News rund um AI und Chatbots: https://chat.whatsapp.com/BilAa1OLfELKJwuyodKgkXWeitere Links:Sophie auf WhatsApp kontaktierenSophie per Mail anfragenSophies WebseiteUnd noch mehr zu AI und Bots könnt ihr hier lesen.
Verändert Künstliche Intelligenz, wie wir sprechen? Eine neue Studie des Max-Planck-Instituts zeigt: Begriffe aus KI-Texten wie „delve“ oder „adept“ tauchen immer häufiger in unserer Alltagssprache auf. In dieser Folge von Shape of Tomorrow erfahrt ihr, wie Sprachmodelle wie ChatGPT unseren Ausdruck, unser Denken – und vielleicht sogar unser Vertrauen in Sprache beeinflussen.
Die Digitalisierung Deutschlands steht an einem Wendepunkt: Im Digitalwirtschaft-Podcast sprechen wir mit Uwe Peter, dem Deutschland-Chef des amerikanischen Netzwerkausrüsters Cisco, über die drängendsten Fragen der digitalen Transformation, die allein mit der Berufung eines Digitalministers im Bund nicht gelöst werden können. Regulierung ist in den Augen von Peter zwar nicht der Königsweg, diese Entwicklung mache aber deutlich, warum die Richtlinie über Netz- und Informationssicherheit, kurz die NIS-2-Richtlinie, die bis Oktober 2024 in deutsches Recht umgesetzt werden sollte, von so großer Bedeutung sei. Die Richtlinie erweitert den Schutz kritischer Infrastrukturen erheblich. Doch Deutschland ist wegen des Auseinanderbrechens der Ampel-Koalition in Berlin an der fristgemäßen Umsetzung vorerst gescheitert, was viele Unternehmen in Unsicherheit über ihre künftigen Pflichten lässt. Auch die Künstliche Intelligenz (KI) prägt die Cybersicherheitslandschaft: Einerseits ermöglicht sie Angreifern, die Einstiegshürden für Cyberattacken zu senken und qualitativ hochwertigere Phishing-Nachrichten zu erstellen. Große Sprachmodelle können einfachen Schadcode schreiben und die Effizienz sowie Reichweite von Angriffen durch automatisierte Malware-Generierung erhöhen. Andererseits bietet KI Potenzial für die Verteidigung. Sie ermöglicht die Erkennung von Bedrohungen in Echtzeit und kann große Datenmengen analysieren, um Anomalien aufzuspüren, die auf mögliche Cyberangriffe hindeuten. Gerade hier habe Deutschland noch Chancen, aus dem oft noch immer dezentralen Aufbau seiner Datenhaltung Nutzen zu ziehen.
Welche KI ist die richtige für deinen Job? In dieser Folge von Shape of Tomorrow erfahrt ihr, worin die großen Sprachmodelle 2025 jeweils glänzen: Ob ChatGPT als kreativer Allrounder, Claude als Schreib-Genie, Gemini mit seinem riesigen Kontextfenster oder DeepSeek als Code-Spezialist – wir schauen genau hin. Ihr erfahrt, welches Modell für welche Aufgabe besonders geeignet ist – und worauf ihr bei der Auswahl achten solltet.
Womit denken wir eigentlich und was nimmt uns KI ab, wenn wir das Denken an große Sprachmodelle abgeben, die lediglich menschliches Denken simulieren?
Das ist das KI-Update vom 28.05.2025 unter anderem mit diesen Themen: Einloggen in verschiedene Apps mit ChatGPT Deutsches Konsortium möchte KI-Rechenzentrum bauen Mistral AI rüstet Sprachmodelle zu vernetzten Problemlösern auf und Münchner Start-up Spaitial entwickelt KI mit räumlichem Verständnis Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10418490 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Die Künstliche Intelligenz nähert sich dem Gehirn an, Computer werden immer kompetenter, wer in dieser Schlüsseltechnologie vorne liegt, dominiert mehrfach: wirtschaftlich, militärisch, medizinisch. Inzwischen ist daraus auch eine Frage der Souveränität geworden, in diesem Feld eben nicht gefährlich abhängig zu sein von anderen. Holger Hoos ist einer der führenden Fachleute für KI in Deutschland. Er ist Professor an der RWTH in Aachen, Mitgründer des größten europäischen KI-Forscherverbundes, lehrte zuvor viele Jahre in Kanada und den Niederlanden. Er diskutiert auf der Tech-Konferenz "Block im Park" von Eintracht Frankfurt darüber, wo Deutschland in der KI steht, wie weit die Computer sind und was jetzt zu tun ist. Nötig ist seiner Ansicht nach beispielsweise ein gewaltiges Rechenzentrum, das Forschern öffentlicher Einrichtungen zugänglich ist, um KI-Modelle zu konstruieren, die mit den führenden Systemen mithalten können. Nötig ist, sagt Hoss, aber auch eine ehrliche Diskussion darüber, wie weit die KI wirklich ist. Immer noch macht sie seiner Ansicht nach zu viele leichte Fehler, kann logisch noch lange nicht so schlussfolgern, wie Menschen das vermögen. Die bisher erprobten großen Sprachmodelle einfach nur immer größer zu machen und mit noch mehr Daten zu trainieren reiche dafür nicht aus. Hier liegt seiner Einschätzung nach auch eines der größten Risiken: Dass KI mit Aufgaben betraut wird, die sie einfach (noch) nicht so versiert bewältigen kann. Für Deutschland schließlich ist er durchaus optimistisch. Zumindest kann er sich gut vorstellen, dass das Land, das die besten Autos und Maschinen bauen kann, dies auch in der KI hinbekommen könnte, wenn der Wille und die Mittel da sind.
Killer, Achim www.deutschlandfunk.de, Computer und Kommunikation
Wie bekommt deine Marke einen Platz im KI-Gedächtnis? Alle reden darüber, wie man in ChatGPT & Co. zitiert wird – aber was, wenn es keine Zitation gibt und Sprachmodelle direkt aus den Trainingsdaten antworten? In dieser Folge erfährst du, wie du langfristig dafür sorgen kannst, dass deine Marke Teil des Wissens von ChatGPT, Gemini & Co. wird – nicht nur sichtbar, sondern verankert.
In dieser Folge geht's um die Frage: Macht Größe von Large Language Models (LLMs) bei Predictive Analytics wirklich einen Unterschied? Wir vergleichen Open-Source-Modelle mit bis zu 70 Milliarden Parametern – und siehe da, das 8B-Modell schlägt das große Schwergewicht. Außerdem berichten wir vom Finetuning auf einer AWS-Maschine mit 8 A100-GPUs und den Herausforderungen in Bezug auf die Reproduzierbarkeit. Auch das viel diskutierte DeepSeek-Modell haben wir im Autopreis-Benchmark antreten lassen. Und wie immer fragen wir uns: Was ist praktisch und was ist overkill? **Zusammenfassung** Modellgröße ≠ bessere Prognosen: Das Llama-3.1-8B übertraf das größere 70B-Modell bei der Fahrzeugpreisprognose DeepSeek im Benchmark: Das chinesische Modell zeigt bei größeren Trainingsmengen eine ähnlich gute Performance wie das Llama-3.1-8B, ist bei kleinen Datensätzen aber schwächer Finetuning mit Multi-GPU auf AWS: Für das 70B-Modell war ein Setup mit 8 A100-GPUs nötig Reproduzierbarkeit bleibt schwierig: Trotz Seed erzeugen wiederholte Finetuning-Runs unterschiedliche Ergebnisse Modellselektion empfohlen: Um zuverlässige Prognosen zu erhalten, sollte aus mehreren Finetuning-Durchläufen das beste Modell ausgewählt werden CPU-Inferenz möglich, aber langsam: Im Vergleich zur GPU war die Vorhersage auf der CPU ca. 30-mal langsamer, Quantisierung könnte künftig Abhilfe schaffen Ausblick auf TabPFN & Quantisierung: Kommende Beiträge widmen sich Erfahrungen mit TabPFN und der praktischen Umsetzung von quantisierten LLMs auf kleineren Maschinen **Links** [Begleitender Blogartikel] Predictive LLMs: Skalierung, Reproduzierbarkeit & DeepSeek https://www.inwt-statistics.de/blog/predictive-llms-skalierung-reproduzierbarkeit-und-deepseek #50: Predictive Analytics mit LLMs: ist GPT3.5 besser als XGBoost? https://inwt.podbean.com/e/50-predictive-analytics-mit-llms-ist-gpt35-besser-als-xgboost/ #64: Predictive LLMs: Übertreffen Open-Source-Modelle jetzt OpenAI und XGBoost bei Preisprognosen https://inwt.podbean.com/e/64-predictive-llms-ubertreffen-open-source-modelle-jetzt-openai-und-xgboost-bei-preisprognosen/ vLLM Framework für schnelle Inferenz: https://github.com/vllm-project/vllm?tab=readme-ov-file torchtune Finetuning-Framework von PyTorch: https://github.com/pytorch/torchtune PyTorch Reproducibility: https://pytorch.org/docs/stable/notes/randomness.html Paper zur Reproduzierbarkeit von QLoRA-Finetuning: S. S. Alahmari, L. O. Hall, P. R. Mouton and D. B. Goldgof, "Repeatability of Fine-Tuning Large Language Models Illustrated Using QLoRA," in IEEE Access, vol. 12, pp. 153221-153231, 2024, doi: 10.1109/ACCESS.2024.3470850 https://ieeexplore.ieee.org/document/10700744 heise online: Komprimierte KI: Wie Quantisierung große Sprachmodelle verkleinert von René Peinl https://www.heise.de/hintergrund/Komprimierte-KI-Wie-Quantisierung-grosse-Sprachmodelle-verkleinert-10206033.html deepseek-ai/DeepSeek-R1-Distill-Llama-8B auf Huggingface https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Llama-8B#6-how-to-run-locally TabPFN: Hollmann, N., Müller, S., Purucker, L. et al. Accurate predictions on small data with a tabular foundation model. Nature 637, 319–326 (2025). https://doi.org/10.1038/s41586-024-08328-6 Feedback, Fragen oder Themenwünsche gern an podcast@inwt-statistics.de
Mit Julius Muth (Company Shield Staffel #12 Folge #4 | #Marketing_021 Der Podcast über Marketing, Vertrieb, Entrepreneurship und Startups *** www.company-shield.com/ https://www.linkedin.com/in/julius-muth-7aa860b1/ *** Im neuesten "Marketing From Zero To One"-Podcast war Julius Muth zu Gast – Mitgründer und CEO von Company Shield, einem Berliner Cybersecurity-Startup, das sich auf moderne Sicherheitslösungen im Zeitalter der Künstlichen Intelligenz spezialisiert hat. Julius blickt auf Stationen bei PwC, Celonis und Project A zurück und bringt sowohl Beratungserfahrung als auch fundierte Tech- und Vertriebskenntnisse mit. Company Shield konzentriert sich auf den Faktor Mensch in der IT-Sicherheit – mit personalisierten, KI-basierten Simulationen realer Angriffe, die Mitarbeitende gezielt auf moderne Bedrohungen wie Deepfakes, Voice Cloning oder Phishing via WhatsApp vorbereiten. Im Gespräch berichtete Julius, wie er mit zwei Ex-Kollegen aus der Celonis-Zeit gründete, welche Ideen Company Shield vorangingen, und wie sie mithilfe eines ungewöhnlichen MVP-Ansatzes – per Brief und persönlichem Pitch – die ersten Kunden gewannen. Besonders spannend: die Kombination aus Automatisierung und KI, mit der Angriffe simuliert, personalisiert und sofortige Lernmomente geschaffen werden. Auch die Nutzung von KI im Alltag, etwa für Research, interne Tools oder Produktentwicklung, wurde diskutiert. Mit dabei war wieder Michael Högemann, der insbesondere nach Einsatzszenarien von KI für Company Shield fragte. *** 01:58 – Was Company Shield macht und warum der Mensch im Zentrum steht 03:37 – Stationen vor der Gründung: PwC, Celonis, Start-up-Projekte im Studium 08:45 – Erste Gründungserfahrungen und der Weg zur Selbstständigkeit 10:14 – Einstieg bei Celonis und Rolle im internationalen Vertrieb 14:56 – Gründungsidee und strukturierte Ideation mit Brief-Experimenten 18:25 – Warum Cybersecurity sofort Resonanz erzeugte 22:14 – Der erste zahlende Kunde und das improvisierte MVP 25:12 – Herausforderungen im B2B-Vertrieb und Early Adopter 30:08 – Brief, E-Mail, Anruf – der Mix macht's 40:03 – Einsatz von Deepfakes im Vertrieb (und wo es rechtlich kritisch wurde) 42:36 – Seriosität vs. Kreativität: Die richtige Balance im Start-up-Vertrieb 44:12 – Über 20 Angel-Investoren, darunter die Celonis-Gründer und Mario Götze 44:55 – Warum es Company Shield ohne KI nicht gäbe 49:10 – Deepfake-Angriffe in der Praxis: Der Fall Arup und andere Beispiele 50:53 – Wie das Training mit Company Shield konkret aussieht 52:18 – Technische Umsetzung: Automatisierung, Sprachmodelle, Datenintegration 54:03 – Einsatz von KI im internen Arbeitsalltag 56:57 – Effektivste Tools und KI-Anwendungen im Start-up 58:31 – Der „KI-Zwilling“ als nächster großer Schritt in der Produktentwicklung 59:40 – Warum Cybersecurity nicht mission-critical, aber trotzdem entscheidend ist 1:02:00 – Tipps gegen Cyberangriffe & menschliche Schwächen im System *** Die Zeitangaben können leicht abweichen.
Anja Keber spricht mit ihrem BR-Kollegen Gregor Schmalzried (Der KI-Podcast) über die Vor- und Nachteile von Sprachmodellen, wie sie richtig eingesetzt werden und welche Gefahren dadurch drohen.
Mit Viktor von Essen (Libra Staffel #12 Folge #2 | #Marketing_021 Der Podcast über Marketing, Vertrieb, Entrepreneurship und Startups *** https://libratech.ai/ https://www.linkedin.com/in/viktor-von-essen/ *** Im neuesten "Marketing From Zero To One" Podcast-Interview ging es dieses Mal um Viktor von Essen und sein Startup Libra, eine KI-gestützte Plattform, die Anwaltskanzleien und Rechtsabteilungen dabei hilft, künstliche Intelligenz effizient in ihre tägliche Arbeit zu integrieren. Viktor erzählte von seinem Werdegang von der Bucerius Law School, der Sorbonne und Oxford über seine Zeit als Anwalt bei Freshfields bis hin zur Gründung von Libra im Jahr 2023. Das KI-Startup nutzt spezialisierte Sprachmodelle, um juristische Workflows zu optimieren, Dokumentenanalyse zu automatisieren und Anwälte bei ihrer täglichen Arbeit zu unterstützen. Er sprach über die Herausforderungen beim Aufbau eines LegalTech-Unternehmens, seine Vertriebsstrategien, die Expansion nach Polen und die regulatorischen Rahmenbedingungen für KI in Europa. Abschließend gab er Einblicke in seine Vision für die Zukunft der Rechtsbranche und die Rolle von KI in der juristischen Praxis. Mit dabei war KI-Experte und Seriengründer Michael Högemann. *** 00:58 – Begrüßung und Vorstellung 01:14 – Werdegang von Viktor und Gründung von Libra 02:55 – Finanzierung und Teamaufbau 03:34 – Expansion nach Polen 05:12 – Von der Idee zur Umsetzung 07:23 – Erstes Experiment mit KI in der Juristerei 08:53 – Von der ersten Legal-AI-Firma zu Libra 09:10 – Erster MVP von Libra 10:48 – Pivot und Weiterentwicklung 11:53 – Strategie für Wachstum 13:50 – Effektivste Vertriebsmethoden 15:45 – Libra Academy und Promptathons 18:48 – Praktische Umsetzung von Promptathons 23:37 – Langfristige Vision für Libra 25:39 – Effizienzsteigerung durch KI 28:00 – Regulatorische Herausforderungen in Europa 30:06 – Überzeugung von skeptischen Anwälten 32:03 – Disruptives Potenzial von KI in der Rechtsbranche 33:30 – Verändertes Kundenverhalten 34:38 – Integration von KI in juristische Workflows 38:17 – Nutzung von KI im eigenen Unternehmen 42:40 – Skalierung der Libra Academy 45:03 – Was wäre ohne KI passiert? 46:13 – Rat an junge Juristen 49:19 – Abschluss und Ausblick *** Die Zeitangaben können leicht abweichen.
Die neueste Episode von Düsseldorfer Wirtschaft ist eine echte Premiere: In Folge 163 führt erstmals nicht ein menschlicher Moderator durch die Sendung, sondern zwei KI-generierte Stimmen. Die digitalen Hosts diskutieren über die Zukunft der Künstlichen Intelligenz in der Unternehmenskommunikation – und das mit einer beeindruckenden Natürlichkeit und Sachkenntnis.Doch wie wurde diese Episode produziert? Christoph Sochart, Host des Podcasts, und Frank Wiedemeier, Produzent der Sendung, geben einen spannenden Einblick in die Entstehung der ersten vollständig KI-generierten Folge.KI trifft auf PodcastDie Idee, eine komplette Episode von künstlichen Intelligenzen moderieren zu lassen, entstand aus der wachsenden Bedeutung von KI in der Unternehmenswelt. Die Folge zeigt eindrucksvoll, wie weit KI-gestützte Sprachmodelle bereits entwickelt sind: Die digitalen Moderatoren führen einen flüssigen, informativen und teils humorvollen Dialog – als wären sie echte Podcast-Hosts.Thema der Episode: KI in der UnternehmenskommunikationDie KI-Moderatoren sprechen über spannende Fragen rund um den Einsatz von Künstlicher Intelligenz in der Wirtschaft:
Es gilt bei vielen Fachleuten als ausgemacht, dass China und die USA bei der Nutzung der Künstlichen Intelligenz voranpreschen – und Europa abgehängt wird. André Retterath vom Wagniskapitalgeber Earlybird VC hält dagegen. „Europa aber kann auf sehr viel Fachwissen zurückgreifen, im europäischen und im deutschen Mittelstand“, sagt Retterath im Podcast „Die Stunde Null“. „Wir haben spezifische Daten, die dort entstehen. Das sind unsere Standortvorteile, und die müssen wir auch nutzen.“ Sein Kernargument: Die großen Sprachmodelle von OpenAI und anderen Unternehmen werden allgemein verfügbar und dienen nicht dazu, sich von Wettbewerbern abzusetzen. Wichtiger werden die Anwendungen, die darauf aufbauen – und da habe Europa eine Chance. „Wir brauchen sicherlich ausreichend Kapital, aber wir können vor allem wettbewerbsfähig werden, indem wir das Fachwissen, die Daten und die Algorithmen zusammenbringen“, sagt Retterath. Es gehe darum, die „Schaufeln für den Goldrausch“ zu entwickeln. // Weitere Themen: Was bringt das Riesen-Finanzpaket von Union und SPD? +++Eine Produktion von RTL+ Podcast.Hosts: Nils Kreimeier und Martin Kaelble.Redaktion: Lucile Gagnière.Produktion: Andolin Sonnen. +++Weitere Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/diestundenull +++60 Tage lang kostenlos Capital+ lesen - Zugriff auf alle digitalen Artikel, Inhalte aus dem Heft und das ePaper. Unter Capital.de/plus-gratis +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.html +++ Wir verarbeiten im Zusammenhang mit dem Angebot unserer Podcasts Daten. Wenn Sie der automatischen Übermittlung der Daten widersprechen wollen, klicken Sie hier: https://datenschutz.ad-alliance.de/podcast.html +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Künstliche Intelligenz spielt in der Krebsforschung eine immer größere Rolle. Wenn zum Beispiel Gen-Daten, Biopsien und Röntgenbilder ausgewertet werden, kann KI zum Einsatz kommen. Aber nicht nur das: Trainiert man Sprachmodelle entsprechend, können Bots zum Teil präziser antworten als Fachärzte. Christine Langer im Gespräch mit Ulrike Till, ARD-Wissenschaftsredaktion.
Haben die Chinesen in der Künstlichen Intelligenz geschafft, wovon Amerikaner und Europäer bislang nur träumen? Haben die Tüftler eines Start-ups aus Fernost die führenden Internetkonzerne des Westens mit ihren Milliardenmitteln vorgeführt, weil sie mit älterer Technik und deutlich weniger Energie die mindestens selbe Qualität erbracht haben wie die führenden großen Sprachmodelle à la ChatGPT? Die Reaktionen auf die nun breit bekanntgewordene Leistungsfähigkeit des KI-Systems aus dem Hause Deepseek sprechen eine eindeutige Sprache: Sie sind bewundernd bis alarmiert, was in diesem Fall ungefähr auf dasselbe hinausläuft. Kristian Kersting ist Professor für Künstliche Intelligenz an der TU Darmstadt und einer der gefragtesten KI-Fachleute hierzulande. Er erklärt, wie Deepseek funktioniert, was das Modell so effizient macht und wie intelligent es ist. Und was die Nachricht für Deutschland und Europa bedeutet. Denn zumal in Deutschland propagieren Fachleute schon länger, dass der Weg zum künstlichen Gehirn nicht alleine über immer mehr Rechenleistung und Daten führt. Über das, was daraus folgt, sprechen wir in dieser Episode.
Das ist das KI-Update vom 29.01.2025 unter anderem mit diesen Themen: Warum Deepseek R1 nicht das Ende von OpenAI und Meta bedeutet OpenAI startet ChatGPT für US-Behörden Alibabas neue Sprachmodelle mit Millionen-Token-Kontext und KI zum Anfassen im Deutschen Technikmuseum Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10260721 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
In der heutigen Folge nehmen wir euch mit auf eine Reise in die dynamische Welt des Cloud Computings, speziell zugeschnitten auf die Versicherungsindustrie. Eure Hosts Dominik Badarne und Herbert Jansky freuen sich, heute gleich zwei hochkarätige Experten begrüßen zu dürfen: Christian Richter und Fabian Lober.Christian Richter betont die Flexibilität und Skalierbarkeit von AWS, das keine Lizenzen oder Produkte verkauft, sondern per-Use-Services anbietet. Seit 2006 wurden die Preise bereits über 130 Mal gesenkt, um diese Vorteile an die Kunden weiterzugeben. Fabian Lober hebt die Bedeutung der Zusammenarbeit zwischen verschiedenen Anbietern hervor und spricht über die einzigartigen Services und Konferenzen von AWS, wie die innovative re:Invent.In dieser Episode diskutieren wir die Herausforderungen und Chancen der Cloud-Transformation, die in der Versicherungsindustrie besonders relevant sind. Christian und Fabian teilen ihre Expertise über die Rolle der Künstlichen Intelligenz und wie AWS eigene Chips entwickelt, um kosteneffiziente Trainings für große Sprachmodelle zu ermöglichen. Wir erfahren, warum rund 61% der Versicherungsunternehmen die Cloud nutzen und wie dies die Branche transformiert.Außerdem werfen wir einen Blick auf die neueste Entwicklung bei Amazon: die Amazon Nova Familie von Large Language Models und wie diese Modelle die Effizienz und Genauigkeit von KI-Anwendungen verbessern. Wir werden auch die Performance von Matt Garman, einem AWS-Manager, erörtern und die Keynote-Highlights der AWS re:Invent-Konferenz sowie deren Bedeutung für die Cloud-Community analysieren.Freut euch auf spannende Einblicke, technische Tiefe und die neuesten Entwicklungen im Cloud-Bereich. Bleibt dran, es lohnt sich!Schreibt uns gerne eine Nachricht!Folge uns auf unserer LinkedIn Unternehmensseite für weitere spannende Updates.Unsere Website: https://www.insurancemondaypodcast.de/Du möchtest Gast beim Insurance Monday Podcast sein? Schreibe uns unter info@insurancemondaypodcast.de und wir melden uns umgehend bei Dir.Dieser Podcast wird von dean productions produziert.Vielen Dank, dass Du unseren Podcast hörst!
Das ist das KI-Update vom 09.01.2025 unter anderem mit diesen Themen: Revolutionäres KI-Modell o3 von OpenAI mit hohem Rechenaufwand und Preisschild KI-Agent "Operator" von OpenAI soll im Januar starten Microsoft veröffentlicht kleines Phi-4-LLM als Open-Source-Modell mit Gewichten Kleinere KI-Modelle können laut Forschern große Sprachmodelle effizienter trainieren Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10234315 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://www.ki-adventskalender.de/
Die Hoffnung in die Künstlichen Intelligenz bleibt groß: Neben den bislang bekannten Transformer-Architekturen gibt es andere Ansätze, von denen sich Forscher weiteren Fortschritt versprechen - nicht nur für Sprachmodelle, sondern auch für KI-Systeme, die vielleicht besser verstehen, wie Dinge zusammenhängen, schlussfolgern können und mehr. Jedenfalls fließen weiter große Summen in diese Schlüsseltechnologie und gibt es nahezu keinen Wirtschafts- oder Wissenschaftsbereich, der sich davon unbeeindruckt zeigt. Doch nicht nur in der KI war das Jahr interessant. Neue Durchbrüche haben Forscher auch gemeldet im Bereich des Quantencomputing - einer Rechnerart, welche die Grenzen des Berechenbaren verschieben könnte, weil sie manche Operation viel schneller erledigen kann als ein herkömmlicher Supercomputer. Und wie steht es um die Blockchain, den Bitcoin, die digitale Bildung und den Standort Deutschland? Und um das autonome oder automatisierte Fahren? Über all das sprechen wir in unserem Jahresrückblick 2024 - und sagen einmal mehr: Danke fürs Zuhören und Ihre Treue, liebe Hörerinnen und Hörer.
Das neue o1-Modell von OpenAI ist da! Und eines seiner heimlichen Stärken: Viele verschiedenen Sprachen sprechen. Aber hinter der Fassade der Chatbot-Vielsprachigkeit stecken immer noch vor allem englische Trainingsdaten. In anderen Sprachen zeigen die KI-Modelle nicht nur sprachliche Schwächen, sondern auch kulturelle Schlagseite. Dennoch könnten KI-Sprachmodelle vielleicht eines Tages dazu beitragen, seltene Sprachen vor dem Aussterben zu bewahren. Dafür müssten sie allerdings weniger flunkern als ChatGPT in unserem Ladinisch-Test. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist, Speaker und Berater, u.a. beim Bayerischen Rundfunk. Fritz Espenlaub ist freier Journalist und Ökonom. Er arbeitet unter anderem für den Bayerischen Rundfunk und das Tech-Magazin 1E9. In dieser Folge: 00:00 Intro 03:26 Sollte man immer auf Englisch prompten? 11:44 Wo Sprache zum Problem wird 16:14 Kann ChatGPT Ladinisch? 28:20 Was haben wir diese Woche mit KI gemacht? Links: OpenGPT-X Teuken 7B Instruct https://opengpt-x.de/en/models/teuken-7b/ Das bisher teuerste Sprachmodell: o1 Pro https://www.derstandard.de/consent/tcf/story/3000000248172/chatgpt-pro-openais-neues-abo-bietet-bisher-staerkstes-ki-modell-um-200-dollar-monatlich Sind KI-Modelle in manchen Sprachen fehleranfälliger? https://arxiv.org/abs/2310.06474 Sprache ändert, was KIs über Krieg sagen: https://journals.sagepub.com/doi/10.1177/00223433241279381 Chatbots und kulturelle Einstellungen: https://arxiv.org/abs/2410.18417 Können Sprachmodelle beim Erhalt seltener Sprachen helfen? https://www.nbcnews.com/tech/innovation/indigenous-engineers-are-using-ai-preserve-culture-rcna176012 Die Mathe-Frage von Fritz an o1: https://chatgpt.com/share/6756ca70-c628-8012-a82c-b148be3a285f Unser Podcast-Tipp der Woche: https://www.ardaudiothek.de/sendung/die-schule-brennt-der-bildungspodcast-mit-bob-blume/12197843/ Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried, Elisa Harlan Kontakt: Wir freuen uns über Fragen und Kommentare an kipodcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
Beim Training der großen Sprachmodelle handeln OpenAI, Anthropic und Co ganz nach dem alten Facebook-Motto: Move fast and break things. Entschuldigen kann man sich auch später. Im Prinzip ist bereits alles, was es irgendwo im Internet abzugrasen gab, in das Training dieser KI-Modelle geflossen, ohne sich die Frage zu stellen: Ist das überhaupt legal, wenn die KI-Firmen diese Inhalte zum Training nutzen? Diese Frage wird jetzt, wo die Modelle schon längst auf dem Markt sind und genutzt werden, noch immer diskutiert. Der Rechtswissenschaftler Tim W. Dornis von der Leibniz Universität Hannover und der KI-Professor Sebastian Stober von der Otto-von-Guericke-Universität Magdeburg haben das gemeinsam untersucht. Die Open-Access-Studie "Urheberrecht und Training generativer KI-Modelle – Technologische und juristische Grundlagen", wurde von der Initiative Urheberrecht beauftragt. Ich freue mich sehr, dass Professor Dornis heute hier im KI-Update zu Gast und erklärt, was er und sein Kollege dabei herausgefunden haben. https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4946214
Eine KI ist nur so gut, wie die Daten, mit der sie trainiert wird. Diese finden sich vermehrt auch in Archiven. Was bedeutet es, wenn die kulturelle Vergangenheit zum Datensatz wird? Eva Wannenmacher und Patrick «Karpi» Karpiczenko, Satiriker und Dozent für Künstliche Intelligenz, machen den Check. Künstliche Intelligenz ist in Kunst und Kultur angekommen. Generative KI-Modelle wie ChatGPT, Midjourney und Suno dienen Kulturschaffenden als Werkzeuge – ähnlich wie Bleistift, Pinsel und Papier. Doch was steckt hinter diesen mächtigen Tools? Die grossen Sprachmodelle sowie Bild- und Tongeneratoren funktionieren nur, weil sie auf immensen Datenmengen trainiert werden. Diese stammen nicht nur aus dem Internet, sondern zunehmend auch aus Archiven und Bibliotheken. Moderatorin Eva Wannenmacher begrüsst den Satiriker und Dozenten für Künstliche Intelligenz Patrick «Karpi» Karpiczenko. Gemeinsam gehen sie der Frage nach, was passiert, wenn die kulturelle Vergangenheit zum Datensatz wird. Anhand des SRF-Archivs zeigen «Kulturplatz», welche Rolle Archive in einer von KI geprägten Zukunft spielen. Auf Knopfdruck lassen sich alte Sendungen restaurieren und verändern. Publikumslieblinge wie die Moderatorin Dorothea Furrer, Mani Matter oder Giacobbo/Müller werden von der KI wieder auf den Bildschirm geholt. Die KI legt ihnen neue Texte in den Mund oder lässt sie sogar ganze Sendungen moderieren. Der Philosoph Marshall McLuhan schrieb einst: «Das Medium ist die Botschaft». Ist die Botschaft von künstlicher Intelligenz das Wiederkäuen von Vergangenem? Produzieren generative KI-Modelle mehr als nur gefällige Nostalgie? Oder war Kreativität noch nie etwas anderes als die Wiederholung und Variation von Bestehendem? Roland Meyer, Medienwissenschaftler und Professor an der Zürcher Hochschule der Künste, erklärt, weshalb Archive zu Tresoren der Wahrheit werden können – in einer Welt, in der die Vergangenheit beliebig neu kombiniert und generiert werden kann. Dieser satirisch angehauchte «Kulturplatz» ist Teil der SRF-Themenwoche «KI und wir». Die Themenwoche beleuchtet den Einsatz und das Potenzial künstlicher Intelligenz in der Schweiz.
Der aktuelle KI-Boom wird wesentlich angetrieben von Fortschritten in der maschinellen Verarbeitung natürlicher Sprache. Große Sprachmodelle wie ChatGPT übersetzen das, was Menschen als Bedeutung eines Textes verstehen, in Strukturen, die statistischen Verfahren und maschineller Verarbeitung zugänglich sind. Warum gelingt die Kommunikation zwischen Mensch und Maschine trotz dieses ganz unterschiedlichen Umgangs mit Sprache? Sybille Krämer ist Philosophieprofessorin an der Freien Universität Berlin und derzeit Gastprofessorin an der Leuphana Universität Lüneburg. Sie erklärt wie sich das Sprachverständnis von Maschinen von unserem menschlichen grundlegend unterscheidet und warum wir uns trotzdem verstehen. Für ein besseres Verständnis von KI hat der Medientheoretiker Marian Kaiser die Veranstaltungsreihe Künstliche Kommunikation in Hannover organisiert, in der noch bis Ende November in verschiedenen Workshops und Vorträgen KI für jeden verständlich erklärt wird. https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://www.maschinennah.de/kueko/
Vor zwei Jahren waren wir der erste deutschsprachige Podcast, der ChatGPT als Studiogast begrüßte. Nun ist ChatGPT zurück bei #digdeep: Die brandneue Sprachvariante kann nun im direkten menschlichen Dialog bestehen. Und wie sie das kann! Beeindruckend ist, wie natürlich sich das Gespräch bereits anfühlt - Tonalität, Kontextverständnis und Langzeitgedächtnis haben sich enorm verbessert. ChatGPT meint sogar, dass er emergentes Verhalten zeigt - also Eigenschaften, die eigentlich im Modell gar nicht vorgesehen waren. Wir wollen von ChatGPT wissen, woher dieser Fortschritt kommt - und welche Konsequenzen er auf Wirtschaft und Jobs haben könnte. Wir beleuchten die Fortschritte in der Sprachverarbeitung, die Rolle von KI in der Datenanalyse und die Herausforderungen, die mit der Automatisierung von Arbeitsplätzen einhergehen. Zudem wird die Frage aufgeworfen, wie Menschen und Maschinen in Zukunft zusammenarbeiten werden. Kleiner Bonustrack am Ende: Was passiert eigentlich, wenn sich ChatGPT und Siri begegnen? Es wird lustig...
In dieser Episode des DEEPTECH DEEPTALKs wagen wir einen Blick auf das Potenzial der KI: Wo endet die Tatsache, und wo beginnt die kreative Halluzination? Oliver und Alois diskutieren die neuesten Entwicklungen, spannende Ansätze wie die Mixture of Experts und die evolutionären Agenten im Quantencomputing. Ein Talk für alle, die KI nicht nur als Tool, sondern als Co-Pilot für echte Innovation verstehen! Keywords: KI, Responsible AI, Innovation, MIT, Halluzinationen, Kreativität, Mixture of Experts, Sprachmodelle, digitale Transformation, Forschung, Quantencomputing, Agenten, Datenpreise, Datenmarktplätze, Datenökonomie, KI-Modelle, generative KI, Marktmechanismen, Datenwert, Automatisierung Summary: In dieser Episode des Deep Tech Deep Talk diskutieren Oliver und Alois über die aktuellen Entwicklungen im Bereich Künstliche Intelligenz (KI) und deren Anwendung in der Forschung, insbesondere am MIT. Sie beleuchten die Unterschiede in der Herangehensweise an KI zwischen den USA und Deutschland, insbesondere in Bezug auf Halluzinationen von KI-Modellen und deren Potenzial für Kreativität. Zudem wird das Konzept der Mixture of Experts vorgestellt, das neue Ansätze in der KI-Entwicklung ermöglicht. In dieser Diskussion werden die zukünftigen Entwicklungen im Bereich der KI und Datenökonomie erörtert. Oliver spricht über evolutionäre Agenten, die durch Quantencomputing unterstützt werden, und die Herausforderungen und Chancen im Zusammenhang mit Datenpreisen und -marktplätzen. Er betont die Bedeutung von Daten als wertvolles Gut und die Notwendigkeit, diese für neue Geschäftsmodelle zu monetarisieren. Takeaways: KI ist in der wissenschaftlichen Community weit verbreitet. Halluzinationen in KI können als kreative Chance gesehen werden. Die Nutzung von KI als Co-Pilot kann die Kreativität fördern. Fakten allein sind nicht ausreichend für Innovation. Zufall und Rekombination sind wichtig für kreative Prozesse. Mixture of Experts ermöglicht eine differenzierte Aufgabenverteilung. Die richtige Modellwahl ist entscheidend für den Erfolg von KI-Anwendungen. Kreativität durch KI kann neue Lösungen hervorbringen. Die europäische Sichtweise auf KI ist oft zu faktisch. Innovationen erfordern ein Umdenken in der Nutzung von KI. Evolutionäre Agenten werden durch Quantencomputing unterstützt. Datenpreise sind derzeit hoch und müssen fairer werden. Datenmarktplätze könnten ein bedeutendes Marktphänomen werden. Der Wert von Daten variiert stark je nach Kontext. Die Datenökonomie wird die Monetarisierung revolutionieren. Generative KI kann neue Daten synthetisieren. Daten aus dem Mittelstand sind oft ungenutzt. Die Regulierung wird den Zugang zu Daten erleichtern. Datenbesitzer könnten für ihre Daten bezahlt werden. Die Zukunft der KI-Modelle hängt von der Verfügbarkeit von Daten ab. Sound Bites: "KI ist längst angekommen und wird genutzt." "KI als Co-Pilot für Kreativität." "Fakten, Fakten, Fakten – das ist nicht genug." "Halluzinieren kann uns neue Ideen geben." "Evolutionäre Agenten werden die Zukunft prägen." "Datenpreise müssen fairer werden." Chapters: 00:00 Einführung in die Themen der KI und Innovation 02:55 Erfahrungen am MIT: Ein Blick auf die KI-Forschung 06:11 Halluzinationen in KI: Chancen und Herausforderungen 08:56 Kreativität durch Halluzinationen: Ein neues Verständnis 11:48 Mixture of Experts: Neue Ansätze in der KI-Entwicklung 16:22 Evolutionäre Agenten und Quantencomputing 18:47 Datenpreise und Marktmechanismen 21:09 Wert von Daten und Datenmarktplätzen 24:51 Datenökonomie und neue Geschäftsmodelle 30:12 Zukunft der Daten und KI-Modelle
Turtlezone Tiny Talks - 20 Minuten Zeitgeist-Debatten mit Gebert und Schwartz
Seit Wochen lesen wir Berichte über Atomkraftpläne der großen US-Tech-Giganten Google, Microsoft und Amazon. Eine wichtige Rolle sollen dabei SMRs spielen, kleine, modulare Reaktoren – bislang noch eher vieldiskutierte Vision als einsatzbereite Technologie. Und als weitere Säule der Strategie wird sogar die Reaktivierung bereits stillgelegter großer Atommeiler in Angriff genommen. Die Atomaufsichtsbehörde der Vereinigten Staaten steht unter nicht unerheblichem, politischem Druck, diese Pläne nicht durch zu strenge Sicherheitsauflagen zu erschweren. Denn SMR sollen ja gerade flexibel und kostengünstig eingesetzt werden und die Gefahr einer Kernschmelze ist systembedingt geringer – so die Fürsprecher. Doch Experten und Kritiker warnen vor einer Aufweichung der Auflagen und vorgeschriebenen Sicherheitsmaßnahmen für Atomanlagen. Dies ist für die Tech-Unternehmen nicht nur aus Kostengründen relevant, sondern die Genehmigungen für einen Betrieb in unmittelbarer Nähe zu den eigenen Rechenzentren könnten dadurch aufwändiger werden. Doch warum liebäugeln diese und weitere Rechenzentren-Betreiber mit einem zweiten Frühling für die umstrittene Kernenergie? Hintergrund ist der massive Energiehunger der Künstlichen Intelligenz – konkret der eingesetzten Grafikprozessoren. Der kalkulierte künftige Strombedarf und die Pläne und Pflichten für Emissionsremissionen und Klimaneutralität, lassen sich aus heutiger Sicht nur schwer und vor allem teuer mit regenerativen Energiequellen abdecken. So zumindest die Argumentation der Atombefürworter. Gegner verweisen bekanntermaßen auf die ungeklärte Endlagerung und die Sicherheitsgefahren. Wie teuer der Strombezug heutzutage ist, zeigt auch der Umstand, dass Microsoft die Reaktivierung eines Alt-Atomkraftwerks plant, auf dessen Geländer nicht nur in den 70er-Jahren ein schwerwiegender Atomunfall stattfand, sondern dass erst vor fünf Jahren wegen Unwirtschaftlichkeit geschlossen wurde. In der Episode 172 der Turtlezone Tiny Talks, in Zusammenarbeit mit dem KI Expertenforum blicken Dr. Michael Gebert und Oliver Schwartz auf die Pläne zum Stillen des Energiehungers der Künstlichen Intelligenz und erklären, warum jeder KI-Prompt bis zu 1000mal mehr Strom verbraucht als eine simple Suchmaschinen-Abfrage. Außerdem erläutern sie, warum das Training der großen Sprachmodelle schnell den Energiebedarf einer Kleinstadt übertreffen kann.
GPT von OpenAI hat längst Konkurrenz bekommen. Sechs KI-Sprachmodelle haben wir für unseren KI-Schwerpunkt in c't 23/2024 getestet, darunter die Modelle von Google, Meta und Anthropic. Wir geben einen Überblick und beleuchten den AI Act, mit dem die EU Hersteller regulieren will. In dieser Folge von c't uplink erzählt c't-Redakteur Hartmut Gieselmann davon, wie er den Sprachmodellen auf den Zahn gefühlt hat, warum das europäische Modell Mistral durchaus mit den amerikanischen mithalten kann und wie c‘t bei zwei Modellen sogar den Energiebedarf messen konnte. c't-Redakteur Holger Bleich berichtet, was die EU mit dem AI Act regelt und was noch passieren muss, bevor die Regeln ab Sommer 2025 gelten. Unseren Test von sechs KI-Sprachmodellen, einen Überblick zum AI Act und ein Interview zu KI und Nachhaltigkeit finden Sie in der c't 23/2024. Die Ausgabe gibt's ab dem 18. Oktober am Kiosk, im Browser und in der c't-App für iOS und Android.
GPT von OpenAI hat längst Konkurrenz bekommen. Sechs KI-Sprachmodelle haben wir für unseren KI-Schwerpunkt in c't 23/2024 getestet, darunter die Modelle von Google, Meta und Anthropic. Wir geben einen Überblick und beleuchten den AI Act, mit dem die EU Hersteller regulieren will. In dieser Folge von c't uplink erzählt c't-Redakteur Hartmut Gieselmann davon, wie er den Sprachmodellen auf den Zahn gefühlt hat, warum das europäische Modell Mistral durchaus mit den amerikanischen mithalten kann und wie c‘t bei zwei Modellen sogar den Energiebedarf messen konnte. c't-Redakteur Holger Bleich berichtet, was die EU mit dem AI Act regelt und was noch passieren muss, bevor die Regeln ab Sommer 2025 gelten. Mit dabei: Hartmut Gieselmann, Holger Bleich Moderation: Greta Friedrich Produktion: Ralf Taschke Unseren Test von sechs KI-Sprachmodellen, einen Überblick zum AI Act und ein Interview zu KI und Nachhaltigkeit finden Sie in der c't 23/2024. Die Ausgabe gibt's ab dem 18. Oktober am Kiosk, im Browser und in der c't-App für iOS und Android.
GPT von OpenAI hat längst Konkurrenz bekommen. Sechs KI-Sprachmodelle haben wir für unseren KI-Schwerpunkt in c't 23/2024 getestet, darunter die Modelle von Google, Meta und Anthropic. Wir geben einen Überblick und beleuchten den AI Act, mit dem die EU Hersteller regulieren will. In dieser Folge von c't uplink erzählt c't-Redakteur Hartmut Gieselmann davon, wie er den Sprachmodellen auf den Zahn gefühlt hat, warum das europäische Modell Mistral durchaus mit den amerikanischen mithalten kann und wie c‘t bei zwei Modellen sogar den Energiebedarf messen konnte. c't-Redakteur Holger Bleich berichtet, was die EU mit dem AI Act regelt und was noch passieren muss, bevor die Regeln ab Sommer 2025 gelten. Mit dabei: Hartmut Gieselmann, Holger Bleich Moderation: Greta Friedrich Produktion: Ralf Taschke Unseren Test von sechs KI-Sprachmodellen, einen Überblick zum AI Act und ein Interview zu KI und Nachhaltigkeit finden Sie in der c't 23/2024. Die Ausgabe gibt's ab dem 18. Oktober am Kiosk, im Browser und in der c't-App für iOS und Android.
Für viele Menschen gehört das Sprachprogramm ChatGPT längst zum Alltag. Man lässt das Programm eigene E-Mails schreiben, fremde Texte zusammenfassen oder Informationen zu bestimmten Themen liefern. Innerhalb von Sekunden spuckt es einem auf dem Bildschirm die Antworten aus. Die Ergebnisse sind in vielen Fällen erstaunlich – und sprachlich einwandfrei. Aussagen auf Wahrheit, Schlüssigkeit und Logik prüfen, so wie wir Menschen, kann eine künstliche Intelligenz (KI) jedoch noch nicht. Das könnte sich aber bald ändern. Gemeinsam mit anderen Forscherinnen und Forschern versucht der KI-Wissenschafter Günter Klambauer an der Johannes-Kepler-Universität Linz künstlicher Intelligenz solche Fähigkeiten beizubringen – und sie dafür am Vorbild des menschlichen Gehirns zu trainieren. Ein Programm mit solchen Fähigkeiten könnte künftig etwa auch in sensiblen Bereichen wie in der Medizin oder bei gerichtlichen Verfahren zum Einsatz kommen, glaubt Klambauer. Im Podcast spricht der KI-Experte darüber, wie das in Zukunft gelingen könnte, wie Sprachprogramme momentan lernen und warum wir KI zu häufig menschliche Eigenschaften zuschreiben.
Das ist das KI-Update vom 8. Oktober 2024 unter anderem mit diesen Themen: Große Sprachmodelle als Konsens-Maschinen KI-Assistent aus Dänemark kommt in deutsche Krankenhäuser Forschende sammeln Sprachdaten für EU-Sprachen und die Verständnisprobleme der Sprachassistenten Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-9971656 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Ob Werkzeug oder Wesen – Ihre Schöpfer sind sich da selbst nicht ganz schlüssig. Die Utopien werden von Albträumen begleitet. Sprachmodelle a la Chat-GPT befeuern die Sehnsucht nach einem Universalwerkzeug zur Lösung komplexer Probleme aller Art. Zugleich warnen viele Informatiker und Technik-Philosophen nicht nur vor dem Missbrauch durch Diktatoren und der naiven Nutzung durch uns Verbraucher...// Von Mathias Greffrath und Tom Schimmeck/ WDR 2024/ www.radiofeature.wdr.de Von Mathias Greffrath und Tom Schimmeck.
Summary: In dieser Episode des DeepTech DeepTalk spricht Oliver Rößling mit Pia Čuk, Mitgründerin von PHAROS Labs, über die Rolle von KI im Medical Writing, die Herausforderungen bei der Implementierung von KI-Tools, das Vertrauen in Technologie, Talentmanagement in der Branche und die Bedeutung von Netzwerken für Frauen in der Tech-Branche. Pia teilt ihre Erfahrungen und Einsichten über die Nutzung von KI und die Notwendigkeit, Erwartungen realistisch zu managen. Keywords: KI, Medical Writing, Sprachverarbeitung, Regulatorik, Vertrauen in KI, Talentmanagement, Frauen in Tech, Sprachmodelle, Personalisierung Takeaways: Pharos Labs nutzt KI für Medical Writing. Vertrauen in KI ist entscheidend für die Nutzerakzeptanz. Erwartungsmanagement ist wichtig bei der Einführung von KI. Talentmanagement ist eine Herausforderung in der KI-Branche. Die Nutzung von KI-Tools kann die Produktivität steigern. Personalisierung verbessert die Interaktion mit KI. Frauen in der Tech-Branche sind unterrepräsentiert, aber es gibt Netzwerke. KI bietet Chancen für Frauen in Management-Positionen. Die Tech-Branche wird offener für Diversität. Sound Bites: "Ich bin die Mitgründerin von Pharos Labs." "Das Wichtigste, was uns gerade umtreibt, ist Vertrauen zu KI." "Wir müssen die Erwartungen realistisch setzen." Chapters: 00:00 Einführung und Vorstellung von Pia Cuk 02:53 PHAROS Labs und die Rolle von KI im Medical Writing 06:09 Herausforderungen und Vertrauen in KI 08:55 Erwartungsmanagement bei großen Sprachmodellen 12:09 Talentmanagement und die Suche nach Fachkräften 14:57 Nutzung von KI-Tools im Arbeitsalltag 18:05 Personalisierung und Interaktion mit KI 20:53 Frauen in der Tech-Branche und Netzwerke 30:09 Abschluss und Ausblick auf die Zukunft
Sprachmodelle wie ChatGPT haben Schwächen: Sie haben zum Beispiel keinen Zugang zu aktuellen oder privaten Informationen, und sie kennen ihre Quellen nicht. RAG will das ändern, demnächst auch auf Smartphones. Der ganze Podcast im Überblick (00:02:28) Nachteile der grossen Sprachmodelle (00:05:25) Die Vorteile von RAG (00:07:25) Wo kann man RAG heute schon einsetzen? (00:11:40) Nachteil Monopol (00:13:07) Wie funktioniert RAG? (00:14:47) Wie aus Sprache Mathematik wird (00:22:42) So funktioniert eine Abfrage mit RAG (00:25:31) Die Herausforderungen kleiner Sprachmodelle (00:32:12) RAG auf mobilen Geräten
Welche Hürden es beim Fernwärmenetz gibt, wie der Energieverbrauch von Sprachmodellen transparent werden könnte und wie man das Leben des Richard Feynman schön aufarbeiten kann, greift diese Podcast-Folge auf. _Hinweis: Dieser Podcast wird durch Sponsorings unterstützt. Alle Infos zu unseren Werbepartnern findest du [hier](https://linktr.ee/mittechnologyreviewpodcast)_.
Google Gemini zieht in Android- und iOS-Geräte ein Grok 2 ist da und erlaubt Bildgenerierung mit politischen Motiven The AI Scientist generiert Papers für 15 Dollar pro Stück und Sprachmodelle wachsen nicht über sich hinaus https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki Bitrauschen: https://heise.de/-9832478
Auf fast jedem Symbolbild zur KI-Revolution sind sie zu sehen: Roboter, meistens in menschlicher Gestalt. Zahlreiche Roboter aus der Popkultur von Wall-E bis Terminator bevölkern unsere Fantasie von künstlicher Intelligenz als menschlichem Begleiter. Doch die größten KI-Durchbrüche der letzten Jahre waren körperloser Code in der Cloud und hatten keine Maschinenkörper in der physischen Realität. Gregor und Fritz suchen nach den Robotern in der KI-Revolution. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft. 00:00 Wo bleiben die Roboter im AI-Hype? 09:58 Humanoide Körper versus Staubsaugerkästen 13:57 Roboter in der (deutschen) Industrie 21:32 Sprachmodelle und Roboter - ein Win-Win? 29:08 Was haben wir diese Woche mit KI gemacht? Links: Der RoboCup: https://robocup.de/ Neura Robotics: https://www.schwarzwaelder-bote.de/inhalt.startup-neura-robotics-david-reger-aus-herrenzimmern-revolutioniert-mit-seinen-robotern-den-weltmarkt.c4e3f207-a4e7-4931-8fb3-d6cdb2e48415.html Wie Sprachmodelle in der Robotik helfen könnten: https://deepmind.google/discover/blog/rt-2-new-model-translates-vision-and-language-into-action/ Bedroht die amerikanische Software-Dominanz den deutschen Maschinenbau? https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/figure-01-und-nvidia-gr00t-sind-der-anfang-was-auf-den-deutschen-maschinenbau-zukommt-19597613.html Websim AI: www.websim.ai Schwimmbadbro auf Reddit: www.reddit.com/r/de/comments/5s2mxg/ich_gehe_in_ein_schwimmbad_und_brauche_eure_hilfe Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried Kontakt: Wir freuen uns über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
Weiß eine KI schon, wer Europameister wird? Fritz Espenlaub und Gregor Schmalzried gehen Algorithmen auf den Grund, die angeblich die Zukunft genau vorhersagen können - und lassen mehrere KIs im Tippen des nächsten Deutschland-Spiels gegeneinander antreten. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft. In dieser Folge: 0:00 Tipprunde mit KI 2:00 Können Algorithmen in die Zukunft sehen? 11:10 Wie berechnen Sprachmodelle ihre Vorhersagen? 18:20 Was tippt die KI für das nächste Deutschland-Spiel? 26:15 Was haben wir mit KI gemacht? Links: Unser KI-Tipp für Deutschland gegen Ungarn https://chatgpt.com/share/30aa1c6f-f021-41a7-afcb-50ea7da7c4dd Wie Sprachmodelle die Zukunft vorhersagen https://arxiv.org/pdf/2402.18563 Wie Sprachmodelle Finanzmärkte vorhersagen https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4835311 Der Trump vs Clinton Algorithmus (Artikel von 2016) https://www.weforum.org/agenda/2016/11/would-you-let-an-algorithm-choose-the-next-us-president/ Googles Wetter-KI: https://deepmind.google/discover/blog/graphcast-ai-model-for-faster-and-more-accurate-global-weather-forecasting/ Chris Anderson: "The End of Theory” https://www.wired.com/2008/06/pb-theory/ DeepL Write https://www.deepl.com/de/write Suno https://suno.ai/ KI Verstehen: Entscheidet künstliche Intelligenz die EM? https://www.ardaudiothek.de/episode/ki-verstehen/ki-im-fussball-entscheidet-kuenstliche-intelligenz-die-em-2024/deutschlandfunk/13477635/ Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Hendrik Loven, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried Kontakt: Wir freuen uns über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
Im Grunde vervollständigen Sprachmodelle wie ChatGPT, Gemini oder Claude immer nur das nächste Wort in einem Satz, basierend auf einer statistischen Wahrscheinlichkeitsrechnung. Doch irgendwie entstehen aus diesem simplen Prinzip am Ende Maschinen, die ein Verständnis von der Welt zu haben scheinen, das dem unseren oft erstaunlich nahe kommt. Wie kann das sein? Wir schauen ins Innere der "Generative Pretrained Transformer" Modelle und erklären, wie genau KI eigentlich funktioniert. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft. 00:00 Intro 04:01 G wie Generative: Wie Sprachmodelle auf ihr nächstes Wort kommen 08:37 P wie Pre-Trained: Wie läuft das Training ab? 19:14 T wie Transformer: Wie sieht es eigentlich im Inneren eines LLMs aus? 25:47 Was haben wir diese Woche mit KI gemacht? Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried Links und Quellen: The Surprising Power of Next Word Prediction: Large Language Models Explained https://cset.georgetown.edu/article/the-surprising-power-of-next-word-prediction-large-language-models-explained-part-1/ Erklärung von Transformer Modellen in der Financial Times: https://ig.ft.com/generative-ai/ Visualisierung von Transformern: https://jalammar.github.io/illustrated-gpt2/ Aleph Alpha und Erklärbarkeit: https://1e9.community/t/die-deutsche-ki-hoffnung-aleph-alpha-mit-transparenz-und-erklaerbarkeit-gegen-openai/19552 Electify - KI-Sprachmodelle beantwortet Fragen zu den EU-Wahlprogrammen: https://electify.eu/ Kontakt: Wir freuen uns über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!