POPULARITY
Die Künstliche Intelligenz nähert sich dem Gehirn an, Computer werden immer kompetenter, wer in dieser Schlüsseltechnologie vorne liegt, dominiert mehrfach: wirtschaftlich, militärisch, medizinisch. Inzwischen ist daraus auch eine Frage der Souveränität geworden, in diesem Feld eben nicht gefährlich abhängig zu sein von anderen. Holger Hoos ist einer der führenden Fachleute für KI in Deutschland. Er ist Professor an der RWTH in Aachen, Mitgründer des größten europäischen KI-Forscherverbundes, lehrte zuvor viele Jahre in Kanada und den Niederlanden. Er diskutiert auf der Tech-Konferenz "Block im Park" von Eintracht Frankfurt darüber, wo Deutschland in der KI steht, wie weit die Computer sind und was jetzt zu tun ist. Nötig ist seiner Ansicht nach beispielsweise ein gewaltiges Rechenzentrum, das Forschern öffentlicher Einrichtungen zugänglich ist, um KI-Modelle zu konstruieren, die mit den führenden Systemen mithalten können. Nötig ist, sagt Hoss, aber auch eine ehrliche Diskussion darüber, wie weit die KI wirklich ist. Immer noch macht sie seiner Ansicht nach zu viele leichte Fehler, kann logisch noch lange nicht so schlussfolgern, wie Menschen das vermögen. Die bisher erprobten großen Sprachmodelle einfach nur immer größer zu machen und mit noch mehr Daten zu trainieren reiche dafür nicht aus. Hier liegt seiner Einschätzung nach auch eines der größten Risiken: Dass KI mit Aufgaben betraut wird, die sie einfach (noch) nicht so versiert bewältigen kann. Für Deutschland schließlich ist er durchaus optimistisch. Zumindest kann er sich gut vorstellen, dass das Land, das die besten Autos und Maschinen bauen kann, dies auch in der KI hinbekommen könnte, wenn der Wille und die Mittel da sind.
Wie bekommt deine Marke einen Platz im KI-Gedächtnis? Alle reden darüber, wie man in ChatGPT & Co. zitiert wird – aber was, wenn es keine Zitation gibt und Sprachmodelle direkt aus den Trainingsdaten antworten? In dieser Folge erfährst du, wie du langfristig dafür sorgen kannst, dass deine Marke Teil des Wissens von ChatGPT, Gemini & Co. wird – nicht nur sichtbar, sondern verankert.
In dieser Folge geht's um die Frage: Macht Größe von Large Language Models (LLMs) bei Predictive Analytics wirklich einen Unterschied? Wir vergleichen Open-Source-Modelle mit bis zu 70 Milliarden Parametern – und siehe da, das 8B-Modell schlägt das große Schwergewicht. Außerdem berichten wir vom Finetuning auf einer AWS-Maschine mit 8 A100-GPUs und den Herausforderungen in Bezug auf die Reproduzierbarkeit. Auch das viel diskutierte DeepSeek-Modell haben wir im Autopreis-Benchmark antreten lassen. Und wie immer fragen wir uns: Was ist praktisch und was ist overkill? **Zusammenfassung** Modellgröße ≠ bessere Prognosen: Das Llama-3.1-8B übertraf das größere 70B-Modell bei der Fahrzeugpreisprognose DeepSeek im Benchmark: Das chinesische Modell zeigt bei größeren Trainingsmengen eine ähnlich gute Performance wie das Llama-3.1-8B, ist bei kleinen Datensätzen aber schwächer Finetuning mit Multi-GPU auf AWS: Für das 70B-Modell war ein Setup mit 8 A100-GPUs nötig Reproduzierbarkeit bleibt schwierig: Trotz Seed erzeugen wiederholte Finetuning-Runs unterschiedliche Ergebnisse Modellselektion empfohlen: Um zuverlässige Prognosen zu erhalten, sollte aus mehreren Finetuning-Durchläufen das beste Modell ausgewählt werden CPU-Inferenz möglich, aber langsam: Im Vergleich zur GPU war die Vorhersage auf der CPU ca. 30-mal langsamer, Quantisierung könnte künftig Abhilfe schaffen Ausblick auf TabPFN & Quantisierung: Kommende Beiträge widmen sich Erfahrungen mit TabPFN und der praktischen Umsetzung von quantisierten LLMs auf kleineren Maschinen **Links** [Begleitender Blogartikel] Predictive LLMs: Skalierung, Reproduzierbarkeit & DeepSeek https://www.inwt-statistics.de/blog/predictive-llms-skalierung-reproduzierbarkeit-und-deepseek #50: Predictive Analytics mit LLMs: ist GPT3.5 besser als XGBoost? https://inwt.podbean.com/e/50-predictive-analytics-mit-llms-ist-gpt35-besser-als-xgboost/ #64: Predictive LLMs: Übertreffen Open-Source-Modelle jetzt OpenAI und XGBoost bei Preisprognosen https://inwt.podbean.com/e/64-predictive-llms-ubertreffen-open-source-modelle-jetzt-openai-und-xgboost-bei-preisprognosen/ vLLM Framework für schnelle Inferenz: https://github.com/vllm-project/vllm?tab=readme-ov-file torchtune Finetuning-Framework von PyTorch: https://github.com/pytorch/torchtune PyTorch Reproducibility: https://pytorch.org/docs/stable/notes/randomness.html Paper zur Reproduzierbarkeit von QLoRA-Finetuning: S. S. Alahmari, L. O. Hall, P. R. Mouton and D. B. Goldgof, "Repeatability of Fine-Tuning Large Language Models Illustrated Using QLoRA," in IEEE Access, vol. 12, pp. 153221-153231, 2024, doi: 10.1109/ACCESS.2024.3470850 https://ieeexplore.ieee.org/document/10700744 heise online: Komprimierte KI: Wie Quantisierung große Sprachmodelle verkleinert von René Peinl https://www.heise.de/hintergrund/Komprimierte-KI-Wie-Quantisierung-grosse-Sprachmodelle-verkleinert-10206033.html deepseek-ai/DeepSeek-R1-Distill-Llama-8B auf Huggingface https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Llama-8B#6-how-to-run-locally TabPFN: Hollmann, N., Müller, S., Purucker, L. et al. Accurate predictions on small data with a tabular foundation model. Nature 637, 319–326 (2025). https://doi.org/10.1038/s41586-024-08328-6 Feedback, Fragen oder Themenwünsche gern an podcast@inwt-statistics.de
Mit Julius Muth (Company Shield Staffel #12 Folge #4 | #Marketing_021 Der Podcast über Marketing, Vertrieb, Entrepreneurship und Startups *** www.company-shield.com/ https://www.linkedin.com/in/julius-muth-7aa860b1/ *** Im neuesten "Marketing From Zero To One"-Podcast war Julius Muth zu Gast – Mitgründer und CEO von Company Shield, einem Berliner Cybersecurity-Startup, das sich auf moderne Sicherheitslösungen im Zeitalter der Künstlichen Intelligenz spezialisiert hat. Julius blickt auf Stationen bei PwC, Celonis und Project A zurück und bringt sowohl Beratungserfahrung als auch fundierte Tech- und Vertriebskenntnisse mit. Company Shield konzentriert sich auf den Faktor Mensch in der IT-Sicherheit – mit personalisierten, KI-basierten Simulationen realer Angriffe, die Mitarbeitende gezielt auf moderne Bedrohungen wie Deepfakes, Voice Cloning oder Phishing via WhatsApp vorbereiten. Im Gespräch berichtete Julius, wie er mit zwei Ex-Kollegen aus der Celonis-Zeit gründete, welche Ideen Company Shield vorangingen, und wie sie mithilfe eines ungewöhnlichen MVP-Ansatzes – per Brief und persönlichem Pitch – die ersten Kunden gewannen. Besonders spannend: die Kombination aus Automatisierung und KI, mit der Angriffe simuliert, personalisiert und sofortige Lernmomente geschaffen werden. Auch die Nutzung von KI im Alltag, etwa für Research, interne Tools oder Produktentwicklung, wurde diskutiert. Mit dabei war wieder Michael Högemann, der insbesondere nach Einsatzszenarien von KI für Company Shield fragte. *** 01:58 – Was Company Shield macht und warum der Mensch im Zentrum steht 03:37 – Stationen vor der Gründung: PwC, Celonis, Start-up-Projekte im Studium 08:45 – Erste Gründungserfahrungen und der Weg zur Selbstständigkeit 10:14 – Einstieg bei Celonis und Rolle im internationalen Vertrieb 14:56 – Gründungsidee und strukturierte Ideation mit Brief-Experimenten 18:25 – Warum Cybersecurity sofort Resonanz erzeugte 22:14 – Der erste zahlende Kunde und das improvisierte MVP 25:12 – Herausforderungen im B2B-Vertrieb und Early Adopter 30:08 – Brief, E-Mail, Anruf – der Mix macht's 40:03 – Einsatz von Deepfakes im Vertrieb (und wo es rechtlich kritisch wurde) 42:36 – Seriosität vs. Kreativität: Die richtige Balance im Start-up-Vertrieb 44:12 – Über 20 Angel-Investoren, darunter die Celonis-Gründer und Mario Götze 44:55 – Warum es Company Shield ohne KI nicht gäbe 49:10 – Deepfake-Angriffe in der Praxis: Der Fall Arup und andere Beispiele 50:53 – Wie das Training mit Company Shield konkret aussieht 52:18 – Technische Umsetzung: Automatisierung, Sprachmodelle, Datenintegration 54:03 – Einsatz von KI im internen Arbeitsalltag 56:57 – Effektivste Tools und KI-Anwendungen im Start-up 58:31 – Der „KI-Zwilling“ als nächster großer Schritt in der Produktentwicklung 59:40 – Warum Cybersecurity nicht mission-critical, aber trotzdem entscheidend ist 1:02:00 – Tipps gegen Cyberangriffe & menschliche Schwächen im System *** Die Zeitangaben können leicht abweichen.
Anja Keber spricht mit ihrem BR-Kollegen Gregor Schmalzried (Der KI-Podcast) über die Vor- und Nachteile von Sprachmodellen, wie sie richtig eingesetzt werden und welche Gefahren dadurch drohen.
Mit Viktor von Essen (Libra Staffel #12 Folge #2 | #Marketing_021 Der Podcast über Marketing, Vertrieb, Entrepreneurship und Startups *** https://libratech.ai/ https://www.linkedin.com/in/viktor-von-essen/ *** Im neuesten "Marketing From Zero To One" Podcast-Interview ging es dieses Mal um Viktor von Essen und sein Startup Libra, eine KI-gestützte Plattform, die Anwaltskanzleien und Rechtsabteilungen dabei hilft, künstliche Intelligenz effizient in ihre tägliche Arbeit zu integrieren. Viktor erzählte von seinem Werdegang von der Bucerius Law School, der Sorbonne und Oxford über seine Zeit als Anwalt bei Freshfields bis hin zur Gründung von Libra im Jahr 2023. Das KI-Startup nutzt spezialisierte Sprachmodelle, um juristische Workflows zu optimieren, Dokumentenanalyse zu automatisieren und Anwälte bei ihrer täglichen Arbeit zu unterstützen. Er sprach über die Herausforderungen beim Aufbau eines LegalTech-Unternehmens, seine Vertriebsstrategien, die Expansion nach Polen und die regulatorischen Rahmenbedingungen für KI in Europa. Abschließend gab er Einblicke in seine Vision für die Zukunft der Rechtsbranche und die Rolle von KI in der juristischen Praxis. Mit dabei war KI-Experte und Seriengründer Michael Högemann. *** 00:58 – Begrüßung und Vorstellung 01:14 – Werdegang von Viktor und Gründung von Libra 02:55 – Finanzierung und Teamaufbau 03:34 – Expansion nach Polen 05:12 – Von der Idee zur Umsetzung 07:23 – Erstes Experiment mit KI in der Juristerei 08:53 – Von der ersten Legal-AI-Firma zu Libra 09:10 – Erster MVP von Libra 10:48 – Pivot und Weiterentwicklung 11:53 – Strategie für Wachstum 13:50 – Effektivste Vertriebsmethoden 15:45 – Libra Academy und Promptathons 18:48 – Praktische Umsetzung von Promptathons 23:37 – Langfristige Vision für Libra 25:39 – Effizienzsteigerung durch KI 28:00 – Regulatorische Herausforderungen in Europa 30:06 – Überzeugung von skeptischen Anwälten 32:03 – Disruptives Potenzial von KI in der Rechtsbranche 33:30 – Verändertes Kundenverhalten 34:38 – Integration von KI in juristische Workflows 38:17 – Nutzung von KI im eigenen Unternehmen 42:40 – Skalierung der Libra Academy 45:03 – Was wäre ohne KI passiert? 46:13 – Rat an junge Juristen 49:19 – Abschluss und Ausblick *** Die Zeitangaben können leicht abweichen.
Die neueste Episode von Düsseldorfer Wirtschaft ist eine echte Premiere: In Folge 163 führt erstmals nicht ein menschlicher Moderator durch die Sendung, sondern zwei KI-generierte Stimmen. Die digitalen Hosts diskutieren über die Zukunft der Künstlichen Intelligenz in der Unternehmenskommunikation – und das mit einer beeindruckenden Natürlichkeit und Sachkenntnis.Doch wie wurde diese Episode produziert? Christoph Sochart, Host des Podcasts, und Frank Wiedemeier, Produzent der Sendung, geben einen spannenden Einblick in die Entstehung der ersten vollständig KI-generierten Folge.KI trifft auf PodcastDie Idee, eine komplette Episode von künstlichen Intelligenzen moderieren zu lassen, entstand aus der wachsenden Bedeutung von KI in der Unternehmenswelt. Die Folge zeigt eindrucksvoll, wie weit KI-gestützte Sprachmodelle bereits entwickelt sind: Die digitalen Moderatoren führen einen flüssigen, informativen und teils humorvollen Dialog – als wären sie echte Podcast-Hosts.Thema der Episode: KI in der UnternehmenskommunikationDie KI-Moderatoren sprechen über spannende Fragen rund um den Einsatz von Künstlicher Intelligenz in der Wirtschaft:
Es gilt bei vielen Fachleuten als ausgemacht, dass China und die USA bei der Nutzung der Künstlichen Intelligenz voranpreschen – und Europa abgehängt wird. André Retterath vom Wagniskapitalgeber Earlybird VC hält dagegen. „Europa aber kann auf sehr viel Fachwissen zurückgreifen, im europäischen und im deutschen Mittelstand“, sagt Retterath im Podcast „Die Stunde Null“. „Wir haben spezifische Daten, die dort entstehen. Das sind unsere Standortvorteile, und die müssen wir auch nutzen.“ Sein Kernargument: Die großen Sprachmodelle von OpenAI und anderen Unternehmen werden allgemein verfügbar und dienen nicht dazu, sich von Wettbewerbern abzusetzen. Wichtiger werden die Anwendungen, die darauf aufbauen – und da habe Europa eine Chance. „Wir brauchen sicherlich ausreichend Kapital, aber wir können vor allem wettbewerbsfähig werden, indem wir das Fachwissen, die Daten und die Algorithmen zusammenbringen“, sagt Retterath. Es gehe darum, die „Schaufeln für den Goldrausch“ zu entwickeln. // Weitere Themen: Was bringt das Riesen-Finanzpaket von Union und SPD? +++Eine Produktion von RTL+ Podcast.Hosts: Nils Kreimeier und Martin Kaelble.Redaktion: Lucile Gagnière.Produktion: Andolin Sonnen. +++Weitere Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/diestundenull +++60 Tage lang kostenlos Capital+ lesen - Zugriff auf alle digitalen Artikel, Inhalte aus dem Heft und das ePaper. Unter Capital.de/plus-gratis +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.html +++ Wir verarbeiten im Zusammenhang mit dem Angebot unserer Podcasts Daten. Wenn Sie der automatischen Übermittlung der Daten widersprechen wollen, klicken Sie hier: https://datenschutz.ad-alliance.de/podcast.html +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
SAP setzt immer stärker auf Künstliche Intelligenz. Im vierten Quartal seien bei der Hälfte aller Abschlüsse mittlerweile KI-Komponenten integriert, sagte SAP-Chef Christian Klein Ende Januar. Mit der "SAP Business Data Cloud" sollen Daten über Unternehmensgrenzen hinweg für KI-Anwendungen nutzbar werden. Aber Philipp Herzig, Chief AI und Chief Technology Officer (CTO) bei SAP, sieht KI nicht als Selbstzweck: "Unser Job ist immer, die Technologie zu verstecken, weil die meisten Menschen nur den Mehrwert nutzen wollen, ohne darüber nachzudenken, wie etwas funktioniert."Deshalb ist für ihn klar: Gute KI ist unsichtbar - und maximal einen Klick entfernt. "Die besten Anwendungsfälle sind die, die das Unternehmen einfach anschalten kann, die eng in den Arbeitsfluss und die Tools der Mitarbeitenden verbaut sind." In der Praxis bedeutet das: Eine Führungskraft soll sich nicht durch komplizierte Software klicken müssen, sondern mit einem einzigen Befehl eine Leistungsbeurteilung oder eine Finanzanalyse erstellen können.Braucht Deutschland ein eigenes KI-Sprachmodell?Während OpenAI gerade sein erstes Büro in München eröffnet und Deutschland als den spannendsten KI-Markt in Europa bezeichnet, stellt sich die Frage: Muss Europa oder gar Deutschland ein eigenes großes Sprachmodell entwickeln? Herzig ist skeptisch: "Einerseits haben wir in Europa aus meiner Sicht zwei Sprachmodelle, die wir sehr gut nutzen können - Aleph Alpha und Mistral". Wichtiger sei jedoch, die Technologie sinnvoll einzusetzen, "aber jetzt einfach nur nachzubauen, was schon geht, halte ich für keine gute Idee."Dennoch sei Deutschland in der KI-Forschung weltweit führend, betont Herzig: "Die Forschung ist Weltklasse. Egal welche Uni, Sie können nach Saarbrücken, ans DFKI, an die TU München, an die LMU, das Hasso-Plattner-Institut oder die Berliner Universitäten gehen."Das Problem beginne im nächsten Schritt, ergänzt der KI-Experte und verweist exemplarisch auf das Thema Bildgenerierung. Die sogenannten Diffusionsmodelle seien an der Ludwig-Maximilians-Universität (LMU) erfunden worden. "Wer hat sie kommerzialisiert und erfolgreich gemacht? Andere Unternehmen, nicht unbedingt deutsche" sagt Herzig.Forschung top, Umsetzung flopSein Fazit: "Wir sind von der Forschung her super aufgestellt. Die Schwierigkeit, die wir haben: Sobald wir eine tolle Forschung gemacht haben, wie geht es dann weiter? Wie werden dann Unternehmen und Startups gegründet? Kriegen die das Geld?" Genau hier müsse Deutschland mutiger werden.Noch ist KI vor allem ein Werkzeug - aber SAP denkt bereits weiter. In Zukunft, so Herzig, könnten KI-Agenten selbstständig Hypothesen aufstellen, Daten auswerten und mit einer gewissen Wahrscheinlichkeit sagen: "Hier liegt das Problem." Ein Finanzchef könne dann nicht nur fragen: "Wie waren unsere Umsätze letzte Woche?". Stattdessen sei die KI in der Lage, stattdessen von sich aus Hinweise zu geben, wo sich etwas verändert hat - bevor jemand danach fragt.Herzigs Ansatz ist es, KI nicht nur einfacher bedienbar zu machen, sondern sie auch in bestehende Geschäftsprozesse zu integrieren. Das Thema KI wie ein kleines Startup innerhalb der SAP zu organisieren, um es dann "über den Rest der Firma und die 400.000 Geschäftskunden der SAP zu skalieren". Wie der SAP-CTO privat KI nutzt und wo sie sein Leben einfacher macht, erzählt Philipp Herzig in der neuen Folge von "So techt Deutschland".Sie haben Fragen für Frauke Holzmeier und Andreas Laukat? Dann schreiben Sie eine E-Mail an sotechtdeutschland@ntv.de Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.htmlAlle Rabattcodes und Infos zu unseren Werbepartnern finden Sie hier: https://linktr.ee/sotechtdeutschlandUnsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Bislang haben KI-Anbieter wie OpenAI, Google oder Meta versucht, ihre Sprachmodelle auf größtmögliche Ausgewogenheit zu trimmen, bevor sie veröffentlicht werden. Nun wird gewarnt, dass sich das ändern könnte. Was sind die Motive für eine Abkehr? Gessat, Michael www.deutschlandfunk.de, Computer und Kommunikation
Guido und Felix setzen sich in der heutigen Episode mit der faszinierenden Frage auseinander, wie Sprachmodelle unsere Überzeugungen und unser Denken beeinflussen. Der 14. Februar wird zum Auftakt eines lebhaften Gesprächs über digitale Unabhängigkeit und die Herausforderungen, die Künstliche Intelligenz (KI) in unserer Kommunikation mit sich bringt. Zunächst erfährt der Zuhörer, dass Guido einen Artikel gelesen hat, der die psychometrischen Methoden auf Large Language Models (LLMs) anwendet. Auf spannende Weise werden verschiedene Charakteristika der Modelle beleuchtet, wie sie auf unterschiedliche Geschlechter und politische Ausrichtungen reagieren. Besonders aufschlussreich ist die Feststellung, dass diese Modelle tendenziöse Ergebnisse liefern können, die kulturelle und gesellschaftliche Strömungen widerspiegeln. Der Einfluss der Trainingsdaten wird deutlich, und die Speaker diskutieren, wie etwa ein auf 4chan trainiertes Modell äußerst problematische Ansichten reproduzieren kann. Ein zentrales Thema der Episode ist, wie LLMs unsere Denkprozess während des Schreibens beeinflussen. In einer Studie wurde untersucht, wie Social-Media-Posts zu kontroversen Themen von einer Kontrollgruppe und einer Gruppe, die die Hilfe von LLMs in Anspruch nahm, verfasst werden. Hierbei stellte man fest, dass ein relevanter Teil der Teilnehmer, die mit KI-Unterstützung arbeiteten, ihre Meinungen nachhaltig änderten – dies zeigt die Macht der Sprache und wie diese im Schreibprozess genutzt wird. Das Gespräch wechselt dann den Fokus zu Verschwörungstheorien und den Möglichkeiten, Menschen von diesen abzubringen. Die Ergebnisse der Studie zeigen, dass durch gezielte Argumentation und den Einsatz von LLMs mindestens 20 Prozent der Teilnehmer ihre Meinung nachhaltig änderten. Dies wirft eine grundlegende Frage nach der Verantwortung und Nutzung von KI auf: Inwieweit können und sollten LLMs verwendet werden, um die gesellschaftliche Meinungsbildung zu steuern? Felix nimmt im Folgenden den Ball auf und spricht über die digitale Abhängigkeit von US-amerikanischen Tech-Giganten. Er betont, dass wir in Europa endlich über Alternativen diskutieren müssen, um nicht einer unkontrollierten Einflussnahme und Manipulation durch globale Unternehmen ausgeliefert zu sein. Der Diskurs über digitale Souveränität und die damit verbundene politische Verantwortung wird intensiviert, während Guido und Felix die Notwendigkeit betonen, ein Bewusstsein für die eigene Mediennutzung zu entwickeln. Im weiteren Verlauf der Episode wird die Idee erörtert, dass der gesellschaftliche Fortschritt gesichert werden muss, um nicht in alte Muster zurückzufallen, die eine Abhängigkeit von monopolistischen Strukturen fördern. Das Gespräch thematisiert auch neue Tools und Apps, die helfen können, diese Unabhängigkeit zu fördern, und schließt mit persönlichen Empfehlungen für nützliche digitale Werkzeuge. Abschließend gibt es wie immer App-Empfehlungen von Guido und Felix, die sowohl kreative als auch funktionale Tools beinhalten, um das eigene digitale Leben zu bereichern und sicherer zu gestalten. Die Episode bietet somit nicht nur tiefgreifende Einsichten in die Rolle von LLMs und deren Einfluss auf unser Denken und unsere Entscheidungen, sondern regt auch zur Reflexion über digitale Unabhängigkeit und den verantwortungsvollen Umgang mit neuen Technologien an.
Das Versprechen klingt gut: Weil die Sprachmodelle von DeepSeek besonders effizient arbeiten, soll der KI-Einsatz für Anwender aus der Industrie deutlich günstiger sein als mit bisher bekannten Werkzeugen. Was ist dran? Und: Ist die Nutzung sicher? Wie sind die Ergebnisse der in China entwickelten und trainierten künstlichen Intelligenz zu bewerten? Peter Zinn von der Industrieberatung Industrial Analytics Lab arbeitet schon mit DeepSeek, diskutiert mit Kunden mögliche Einsatzszenarien – und stellt im Podcast Vor- und Nachteile dar.
Künstliche Intelligenz spielt in der Krebsforschung eine immer größere Rolle. Wenn zum Beispiel Gen-Daten, Biopsien und Röntgenbilder ausgewertet werden, kann KI zum Einsatz kommen. Aber nicht nur das: Trainiert man Sprachmodelle entsprechend, können Bots zum Teil präziser antworten als Fachärzte. Christine Langer im Gespräch mit Ulrike Till, ARD-Wissenschaftsredaktion.
Haben die Chinesen in der Künstlichen Intelligenz geschafft, wovon Amerikaner und Europäer bislang nur träumen? Haben die Tüftler eines Start-ups aus Fernost die führenden Internetkonzerne des Westens mit ihren Milliardenmitteln vorgeführt, weil sie mit älterer Technik und deutlich weniger Energie die mindestens selbe Qualität erbracht haben wie die führenden großen Sprachmodelle à la ChatGPT? Die Reaktionen auf die nun breit bekanntgewordene Leistungsfähigkeit des KI-Systems aus dem Hause Deepseek sprechen eine eindeutige Sprache: Sie sind bewundernd bis alarmiert, was in diesem Fall ungefähr auf dasselbe hinausläuft. Kristian Kersting ist Professor für Künstliche Intelligenz an der TU Darmstadt und einer der gefragtesten KI-Fachleute hierzulande. Er erklärt, wie Deepseek funktioniert, was das Modell so effizient macht und wie intelligent es ist. Und was die Nachricht für Deutschland und Europa bedeutet. Denn zumal in Deutschland propagieren Fachleute schon länger, dass der Weg zum künstlichen Gehirn nicht alleine über immer mehr Rechenleistung und Daten führt. Über das, was daraus folgt, sprechen wir in dieser Episode.
Das ist das KI-Update vom 29.01.2025 unter anderem mit diesen Themen: Warum Deepseek R1 nicht das Ende von OpenAI und Meta bedeutet OpenAI startet ChatGPT für US-Behörden Alibabas neue Sprachmodelle mit Millionen-Token-Kontext und KI zum Anfassen im Deutschen Technikmuseum Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10260721 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
In der heutigen Folge nehmen wir euch mit auf eine Reise in die dynamische Welt des Cloud Computings, speziell zugeschnitten auf die Versicherungsindustrie. Eure Hosts Dominik Badarne und Herbert Jansky freuen sich, heute gleich zwei hochkarätige Experten begrüßen zu dürfen: Christian Richter und Fabian Lober.Christian Richter betont die Flexibilität und Skalierbarkeit von AWS, das keine Lizenzen oder Produkte verkauft, sondern per-Use-Services anbietet. Seit 2006 wurden die Preise bereits über 130 Mal gesenkt, um diese Vorteile an die Kunden weiterzugeben. Fabian Lober hebt die Bedeutung der Zusammenarbeit zwischen verschiedenen Anbietern hervor und spricht über die einzigartigen Services und Konferenzen von AWS, wie die innovative re:Invent.In dieser Episode diskutieren wir die Herausforderungen und Chancen der Cloud-Transformation, die in der Versicherungsindustrie besonders relevant sind. Christian und Fabian teilen ihre Expertise über die Rolle der Künstlichen Intelligenz und wie AWS eigene Chips entwickelt, um kosteneffiziente Trainings für große Sprachmodelle zu ermöglichen. Wir erfahren, warum rund 61% der Versicherungsunternehmen die Cloud nutzen und wie dies die Branche transformiert.Außerdem werfen wir einen Blick auf die neueste Entwicklung bei Amazon: die Amazon Nova Familie von Large Language Models und wie diese Modelle die Effizienz und Genauigkeit von KI-Anwendungen verbessern. Wir werden auch die Performance von Matt Garman, einem AWS-Manager, erörtern und die Keynote-Highlights der AWS re:Invent-Konferenz sowie deren Bedeutung für die Cloud-Community analysieren.Freut euch auf spannende Einblicke, technische Tiefe und die neuesten Entwicklungen im Cloud-Bereich. Bleibt dran, es lohnt sich!Schreibt uns gerne eine Nachricht!Folge uns auf unserer LinkedIn Unternehmensseite für weitere spannende Updates.Unsere Website: https://www.insurancemondaypodcast.de/Du möchtest Gast beim Insurance Monday Podcast sein? Schreibe uns unter info@insurancemondaypodcast.de und wir melden uns umgehend bei Dir.Dieser Podcast wird von dean productions produziert.Vielen Dank, dass Du unseren Podcast hörst!
Das ist das KI-Update vom 09.01.2025 unter anderem mit diesen Themen: Revolutionäres KI-Modell o3 von OpenAI mit hohem Rechenaufwand und Preisschild KI-Agent "Operator" von OpenAI soll im Januar starten Microsoft veröffentlicht kleines Phi-4-LLM als Open-Source-Modell mit Gewichten Kleinere KI-Modelle können laut Forschern große Sprachmodelle effizienter trainieren Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10234315 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://www.ki-adventskalender.de/
Die Hoffnung in die Künstlichen Intelligenz bleibt groß: Neben den bislang bekannten Transformer-Architekturen gibt es andere Ansätze, von denen sich Forscher weiteren Fortschritt versprechen - nicht nur für Sprachmodelle, sondern auch für KI-Systeme, die vielleicht besser verstehen, wie Dinge zusammenhängen, schlussfolgern können und mehr. Jedenfalls fließen weiter große Summen in diese Schlüsseltechnologie und gibt es nahezu keinen Wirtschafts- oder Wissenschaftsbereich, der sich davon unbeeindruckt zeigt. Doch nicht nur in der KI war das Jahr interessant. Neue Durchbrüche haben Forscher auch gemeldet im Bereich des Quantencomputing - einer Rechnerart, welche die Grenzen des Berechenbaren verschieben könnte, weil sie manche Operation viel schneller erledigen kann als ein herkömmlicher Supercomputer. Und wie steht es um die Blockchain, den Bitcoin, die digitale Bildung und den Standort Deutschland? Und um das autonome oder automatisierte Fahren? Über all das sprechen wir in unserem Jahresrückblick 2024 - und sagen einmal mehr: Danke fürs Zuhören und Ihre Treue, liebe Hörerinnen und Hörer.
Das neue o1-Modell von OpenAI ist da! Und eines seiner heimlichen Stärken: Viele verschiedenen Sprachen sprechen. Aber hinter der Fassade der Chatbot-Vielsprachigkeit stecken immer noch vor allem englische Trainingsdaten. In anderen Sprachen zeigen die KI-Modelle nicht nur sprachliche Schwächen, sondern auch kulturelle Schlagseite. Dennoch könnten KI-Sprachmodelle vielleicht eines Tages dazu beitragen, seltene Sprachen vor dem Aussterben zu bewahren. Dafür müssten sie allerdings weniger flunkern als ChatGPT in unserem Ladinisch-Test. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist, Speaker und Berater, u.a. beim Bayerischen Rundfunk. Fritz Espenlaub ist freier Journalist und Ökonom. Er arbeitet unter anderem für den Bayerischen Rundfunk und das Tech-Magazin 1E9. In dieser Folge: 00:00 Intro 03:26 Sollte man immer auf Englisch prompten? 11:44 Wo Sprache zum Problem wird 16:14 Kann ChatGPT Ladinisch? 28:20 Was haben wir diese Woche mit KI gemacht? Links: OpenGPT-X Teuken 7B Instruct https://opengpt-x.de/en/models/teuken-7b/ Das bisher teuerste Sprachmodell: o1 Pro https://www.derstandard.de/consent/tcf/story/3000000248172/chatgpt-pro-openais-neues-abo-bietet-bisher-staerkstes-ki-modell-um-200-dollar-monatlich Sind KI-Modelle in manchen Sprachen fehleranfälliger? https://arxiv.org/abs/2310.06474 Sprache ändert, was KIs über Krieg sagen: https://journals.sagepub.com/doi/10.1177/00223433241279381 Chatbots und kulturelle Einstellungen: https://arxiv.org/abs/2410.18417 Können Sprachmodelle beim Erhalt seltener Sprachen helfen? https://www.nbcnews.com/tech/innovation/indigenous-engineers-are-using-ai-preserve-culture-rcna176012 Die Mathe-Frage von Fritz an o1: https://chatgpt.com/share/6756ca70-c628-8012-a82c-b148be3a285f Unser Podcast-Tipp der Woche: https://www.ardaudiothek.de/sendung/die-schule-brennt-der-bildungspodcast-mit-bob-blume/12197843/ Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried, Elisa Harlan Kontakt: Wir freuen uns über Fragen und Kommentare an kipodcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
Datenkraken sollen ihre KI-Modelle mit ePA-Daten trainieren dürfen – bei abgespecktem DatenschutzAuf einer Konferenz des Digitalverbands Bitkom hat Gesundheitsminister Karl Lauterbach offengelegt, warum die Regierung sich so für Digital Health und die elektronische Patientenakte engagiert: Weil unsere Krankheitsdaten ungemein wertvoll sind und die großen US-Datenkraken wie Google, Meta und Open AI scharf darauf sind wie läufige Hündinnen auf den Rüden.Ein Kommentar von Norbert Häring.Laut einem Bericht von der Digital Health Conference des Bitkom auf heise online, sagte Lauterbach:„Wenn Sie sich jetzt […] einmal vor Augen führen, wie groß dieser Datenschatz ist. Wir haben pro Jahr eine Milliarde Arzt-Patient-Kontakte in den Praxen.“Ohne die Opt-Out-(Wiederspruchs-)Lösung bei der elektronischen Patientenakte (ePA) seien diese umfassenden Datenspenden nicht möglich. Tag für Tag wachse dieser Datenschatz beim Forschungsdatenzentrum Gesundheit (FDZ Gesundheit), der auch um weitere Daten aus mehr als 400 medizinischen Registern und Genomdaten ergänzt werden solle.Die Daten aus der ePA über all unsere Krankheiten und Behandlungen werden also beim FDZ Gesundheit um Daten über unsere Gene und Weiteres ergänzt und dann gemeinsam „der Forschung“ zur Verfügung gestellt. Wer „die Forschung“ ist, sagte Lauterbach auch. Es sind die größten Datenkraken, die sich gewohnheitsmäßig einen Dreck um europäische Datenschutzregeln scheren, weil sie die Protektion der US-Regierung genießen. Und dieser können die Bundesregierung und erst recht die EU-Kommission keinen nachdrücklich vorgetragenen Wunsch abschlagen. Gelegentliche Griffe in die Portokassen der Konzerne für Strafen wegen Verstößen gegen das Wettbewerbsrecht oder – seltener – das Datenschutzrecht, stehen dem nicht entgegen.Mit dem Datensatz sollen, Lauterbach zufolge, KI-Systeme trainiert werden, um eine eigene generative KI aufzubauen. Von Anfang an sei die Struktur bereits so aufgebaut, dass sie „KI-ready“ ist. Der Minister sei dabei von Israel beraten worden. Datenschutz und Datennutzung wurden dafür „austariert“, erfahren wir. Das bedeutet im Klartext: Vom Datenschutz wurden beträchtliche Abstriche gemacht, damit die Daten besser genutzt werden können, und zwar von:„Wir sind im Gespräch mit Meta, mit OpenAI, mit Google, alle sind daran interessiert, ihre Sprachmodelle für diesen Datensatz zu nutzen, beziehungsweise an diesem Datensatz zu arbeiten.“Denn es solle der „größte, repräsentativste und interessanteste“ Gesundheitsdatensatz weltweit werden, so Lauterbach. Damit die großen Datenkraken diesen zum Zwecke der „Forschung“ bekommen können, wurde nicht nur der Datenschutz abgespeckt, sondern es soll auch gelten, dass der Forschungszweck entscheidend ist und nicht, wer den Forschungsantrag stellt. Gerade im Hinblick auf den „austarierten“ Datenschutz ist das eine Unverschämtheit den Patienten gegenüber, die mit dem Versprechen getäuscht werden, ihre Daten würden nur zu Forschungszwecken verwendet und seien durch so etwas wie Anonymisierung gegen Missbrauch gesichert....hier weiterlesen: https://apolut.net/datenkraken-sollen-mit-epa-daten-trainieren-durfen-von-norbert-haring/ Hosted on Acast. See acast.com/privacy for more information.
Beim Training der großen Sprachmodelle handeln OpenAI, Anthropic und Co ganz nach dem alten Facebook-Motto: Move fast and break things. Entschuldigen kann man sich auch später. Im Prinzip ist bereits alles, was es irgendwo im Internet abzugrasen gab, in das Training dieser KI-Modelle geflossen, ohne sich die Frage zu stellen: Ist das überhaupt legal, wenn die KI-Firmen diese Inhalte zum Training nutzen? Diese Frage wird jetzt, wo die Modelle schon längst auf dem Markt sind und genutzt werden, noch immer diskutiert. Der Rechtswissenschaftler Tim W. Dornis von der Leibniz Universität Hannover und der KI-Professor Sebastian Stober von der Otto-von-Guericke-Universität Magdeburg haben das gemeinsam untersucht. Die Open-Access-Studie "Urheberrecht und Training generativer KI-Modelle – Technologische und juristische Grundlagen", wurde von der Initiative Urheberrecht beauftragt. Ich freue mich sehr, dass Professor Dornis heute hier im KI-Update zu Gast und erklärt, was er und sein Kollege dabei herausgefunden haben. https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4946214
Eine KI ist nur so gut, wie die Daten, mit der sie trainiert wird. Diese finden sich vermehrt auch in Archiven. Was bedeutet es, wenn die kulturelle Vergangenheit zum Datensatz wird? Eva Wannenmacher und Patrick «Karpi» Karpiczenko, Satiriker und Dozent für Künstliche Intelligenz, machen den Check. Künstliche Intelligenz ist in Kunst und Kultur angekommen. Generative KI-Modelle wie ChatGPT, Midjourney und Suno dienen Kulturschaffenden als Werkzeuge – ähnlich wie Bleistift, Pinsel und Papier. Doch was steckt hinter diesen mächtigen Tools? Die grossen Sprachmodelle sowie Bild- und Tongeneratoren funktionieren nur, weil sie auf immensen Datenmengen trainiert werden. Diese stammen nicht nur aus dem Internet, sondern zunehmend auch aus Archiven und Bibliotheken. Moderatorin Eva Wannenmacher begrüsst den Satiriker und Dozenten für Künstliche Intelligenz Patrick «Karpi» Karpiczenko. Gemeinsam gehen sie der Frage nach, was passiert, wenn die kulturelle Vergangenheit zum Datensatz wird. Anhand des SRF-Archivs zeigen «Kulturplatz», welche Rolle Archive in einer von KI geprägten Zukunft spielen. Auf Knopfdruck lassen sich alte Sendungen restaurieren und verändern. Publikumslieblinge wie die Moderatorin Dorothea Furrer, Mani Matter oder Giacobbo/Müller werden von der KI wieder auf den Bildschirm geholt. Die KI legt ihnen neue Texte in den Mund oder lässt sie sogar ganze Sendungen moderieren. Der Philosoph Marshall McLuhan schrieb einst: «Das Medium ist die Botschaft». Ist die Botschaft von künstlicher Intelligenz das Wiederkäuen von Vergangenem? Produzieren generative KI-Modelle mehr als nur gefällige Nostalgie? Oder war Kreativität noch nie etwas anderes als die Wiederholung und Variation von Bestehendem? Roland Meyer, Medienwissenschaftler und Professor an der Zürcher Hochschule der Künste, erklärt, weshalb Archive zu Tresoren der Wahrheit werden können – in einer Welt, in der die Vergangenheit beliebig neu kombiniert und generiert werden kann. Dieser satirisch angehauchte «Kulturplatz» ist Teil der SRF-Themenwoche «KI und wir». Die Themenwoche beleuchtet den Einsatz und das Potenzial künstlicher Intelligenz in der Schweiz.
ZusammenfassungIn dieser Episode von Fokus KI diskutieren Stefan Ponitz und Prof. Dr. Alexander Lutz über die Grundlagen und die Faszination der Künstlichen Intelligenz, insbesondere im Marketing. Sie beleuchten die Unterschiede zwischen schwacher und starker KI, die verschiedenen Facetten von Intelligenz und die Funktionsweise von Sprachmodellen. Zudem wird das Konzept der Transferintelligenz und die Herausforderungen, die mit der KI-Demenz verbunden sind, thematisiert. Takeaways der Folge:KI ist nicht mehr als Statistik. Intelligenz umfasst viele Facetten. Künstliche Intelligenz ahmt menschliche Intelligenz nach. Transferintelligenz ist entscheidend für KI. KI-Demenz zeigt die Grenzen von Sprachmodellen. Die Faszination von KI ist unbestreitbar. Schwache KI ist weit verbreitet. Starke KI existiert noch nicht. Sprachmodelle arbeiten probabilistisch. Perplexität ist ein Maß für Unordnung. Die Perplexität ist ein entscheidender Faktor für die Leistung von Sprachmodellen. Multi-Agenten-Systeme könnten die Antwortqualität von KI verbessern. Spezialisierte Sprachmodelle sind für Fachanwendungen effektiver. Die Erkennung von KI-generierten Inhalten ist gegenwärtig unzureichend. Gesellschaftliche Bildung ist notwendig, um mit KI umzugehen. Kritisches Denken muss in der Ausbildung gefördert werden. Kontaktdaten:Stefan Ponitz: https://www.fokus-ki.de https://www.linkedin.com/in/stefan-ponitz/ Professor Dr. rer. nat. Alexander Lutz: https://die-neos.de/agentur/ https://www.linkedin.com/in/prof-lutz/
Der aktuelle KI-Boom wird wesentlich angetrieben von Fortschritten in der maschinellen Verarbeitung natürlicher Sprache. Große Sprachmodelle wie ChatGPT übersetzen das, was Menschen als Bedeutung eines Textes verstehen, in Strukturen, die statistischen Verfahren und maschineller Verarbeitung zugänglich sind. Warum gelingt die Kommunikation zwischen Mensch und Maschine trotz dieses ganz unterschiedlichen Umgangs mit Sprache? Sybille Krämer ist Philosophieprofessorin an der Freien Universität Berlin und derzeit Gastprofessorin an der Leuphana Universität Lüneburg. Sie erklärt wie sich das Sprachverständnis von Maschinen von unserem menschlichen grundlegend unterscheidet und warum wir uns trotzdem verstehen. Für ein besseres Verständnis von KI hat der Medientheoretiker Marian Kaiser die Veranstaltungsreihe Künstliche Kommunikation in Hannover organisiert, in der noch bis Ende November in verschiedenen Workshops und Vorträgen KI für jeden verständlich erklärt wird. https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://www.maschinennah.de/kueko/
In dieser Episode tauchen wir ein in zwei zentrale Themen der aktuellen KI-Welt ein: Die rasanten Fortschritte der großen Sprachmodelle und das faszinierende Konzept der KI-Agenten. Zu Beginn diskutieren wir die neuesten Entwicklungen und Updates bei Modellen wie ChatGPT, Claude und Gemini. Hier erfährst du, wie die Anbieter durch agile Updates die Fähigkeiten ihrer Modelle kontinuierlich verfeinern – von verbesserten Rechenfähigkeiten bis hin zur Möglichkeit, Dateien und Bilder zu verarbeiten. Außerdem geht es um die nächste Stufe der KI: Agenten, die selbstständig agieren. Diese sogenannten „Agents“ sind darauf ausgelegt, Entscheidungen zu treffen und Aufgaben ohne menschliche Eingaben zu erledigen. Von der autonomen Verhandlung bis hin zur proaktiven Problemlösung – wir beleuchten, was es bedeutet, wenn KI über das reine Reagieren hinauswächst und aktiv in unserer Welt agiert. Ein spannender Einblick in eine Technologie, die sowohl Potenzial als auch philosophische Fragen zur Rolle des Menschen aufwirft. Quick Links: Im KI-Café für Selbstständige & Unternehmer Jeden Mittwoch um 8:30 Uhr, reflektieren wir Neues aus der Welt der KI. Mit Fokus auf der Relevanz für Selbstständige und Unternehmer. Wir gehen live auf dein individuelles Problem ein und finden gemeinsam den optimalen KI-Ansatz für deine Herausforderung. Du erhältst maßgeschneiderte Prompts, die auf deine Bedürfnisse zugeschnitten sind, um mit KI erfolgreich deine Ziele zu erreichen. Melde dich kostenfrei an … https://www.die-koertings.com/ki-cafe/ chat GPT für Gen X Dieses Buch ist dein Schlüssel, um dein Unternehmen oder deine Selbstständigkeit auf ein neues Level zu bringen. Lerne mit chatGPT, einem kraftvollen Assistenten, wie du deine Produktivität erhöhst, Zeit sparst und bessere Ergebnisse erzielst. Profitiere von praxisnahen Beispielen und konkreten Anwendungen. Unabhängig von deinem Kenntnisstand bietet dieses Buch wertvolle Einblicke und wird ein unverzichtbarer Begleiter für deinen Erfolg sein. Entdecke chatGPT und bereite dich optimal auf die Zukunft vor! Buch … https://die-koertings.com/chatgpt-genx/ KI-Masterclass Steig ein in die KI Masterclass unser Programm, welches genau für dich konzipiert ist, wenn du maximal von KI in deinem Business profitieren möchtest … du die KI in deine täglichen Arbeitsabläufe integrieren möchtest … du qualitativ hochwertigere Ergebnisse kreieren willst … du um ein Vielfaches produktiver, effektiver und effizienter werden möchtest … und du deine deine Ziele (Reichweite, Umsatz, Kunden…) und die deiner Kunden schneller und besser Wirklichkeit werden lassen möchtest! Mehr Infos … https://die-koertings.com/ki-masterclass/ Du willst mit uns sprechen? Vereinbare jetzt einen persönlichen Umsetzungstermin mit uns ... in dem wir Deine Aktuelle Situation analysieren, betrachten wo Du oder Dein Team hinmöchtest, wir können aufzeigen, wie Du dahin kommst, was Dich aktuell davon abhält und was möglicherweise notwendig ist, um Dich einen Schritt weiterzubringen und damit Du Deine Ziele erreichst. Termin ... www.die-koertings.com/termin/ Wenn du auf der Suche nach weiteren spannenden Impulsen für deine Selbstständigkeit bist, dann gehe jetzt auf unsere Impulseseite und lass die zahlreichen spannenden Impulse auf dich wirken. Impulse im Netflix Flow ... www.die-koertings.com/impulse/ Wenn dir diese Podcastfolge gefallen hat, dann höre dir jetzt noch weitere informative und spannende Folgen… Weitere Podcastfolgen ... www.die-koertings.com/podcast/ Impressum: https://die-koertings.com/impressum/
Vor zwei Jahren waren wir der erste deutschsprachige Podcast, der ChatGPT als Studiogast begrüßte. Nun ist ChatGPT zurück bei #digdeep: Die brandneue Sprachvariante kann nun im direkten menschlichen Dialog bestehen. Und wie sie das kann! Beeindruckend ist, wie natürlich sich das Gespräch bereits anfühlt - Tonalität, Kontextverständnis und Langzeitgedächtnis haben sich enorm verbessert. ChatGPT meint sogar, dass er emergentes Verhalten zeigt - also Eigenschaften, die eigentlich im Modell gar nicht vorgesehen waren. Wir wollen von ChatGPT wissen, woher dieser Fortschritt kommt - und welche Konsequenzen er auf Wirtschaft und Jobs haben könnte. Wir beleuchten die Fortschritte in der Sprachverarbeitung, die Rolle von KI in der Datenanalyse und die Herausforderungen, die mit der Automatisierung von Arbeitsplätzen einhergehen. Zudem wird die Frage aufgeworfen, wie Menschen und Maschinen in Zukunft zusammenarbeiten werden. Kleiner Bonustrack am Ende: Was passiert eigentlich, wenn sich ChatGPT und Siri begegnen? Es wird lustig...
In dieser Episode des DEEPTECH DEEPTALKs wagen wir einen Blick auf das Potenzial der KI: Wo endet die Tatsache, und wo beginnt die kreative Halluzination? Oliver und Alois diskutieren die neuesten Entwicklungen, spannende Ansätze wie die Mixture of Experts und die evolutionären Agenten im Quantencomputing. Ein Talk für alle, die KI nicht nur als Tool, sondern als Co-Pilot für echte Innovation verstehen! Keywords: KI, Responsible AI, Innovation, MIT, Halluzinationen, Kreativität, Mixture of Experts, Sprachmodelle, digitale Transformation, Forschung, Quantencomputing, Agenten, Datenpreise, Datenmarktplätze, Datenökonomie, KI-Modelle, generative KI, Marktmechanismen, Datenwert, Automatisierung Summary: In dieser Episode des Deep Tech Deep Talk diskutieren Oliver und Alois über die aktuellen Entwicklungen im Bereich Künstliche Intelligenz (KI) und deren Anwendung in der Forschung, insbesondere am MIT. Sie beleuchten die Unterschiede in der Herangehensweise an KI zwischen den USA und Deutschland, insbesondere in Bezug auf Halluzinationen von KI-Modellen und deren Potenzial für Kreativität. Zudem wird das Konzept der Mixture of Experts vorgestellt, das neue Ansätze in der KI-Entwicklung ermöglicht. In dieser Diskussion werden die zukünftigen Entwicklungen im Bereich der KI und Datenökonomie erörtert. Oliver spricht über evolutionäre Agenten, die durch Quantencomputing unterstützt werden, und die Herausforderungen und Chancen im Zusammenhang mit Datenpreisen und -marktplätzen. Er betont die Bedeutung von Daten als wertvolles Gut und die Notwendigkeit, diese für neue Geschäftsmodelle zu monetarisieren. Takeaways: KI ist in der wissenschaftlichen Community weit verbreitet. Halluzinationen in KI können als kreative Chance gesehen werden. Die Nutzung von KI als Co-Pilot kann die Kreativität fördern. Fakten allein sind nicht ausreichend für Innovation. Zufall und Rekombination sind wichtig für kreative Prozesse. Mixture of Experts ermöglicht eine differenzierte Aufgabenverteilung. Die richtige Modellwahl ist entscheidend für den Erfolg von KI-Anwendungen. Kreativität durch KI kann neue Lösungen hervorbringen. Die europäische Sichtweise auf KI ist oft zu faktisch. Innovationen erfordern ein Umdenken in der Nutzung von KI. Evolutionäre Agenten werden durch Quantencomputing unterstützt. Datenpreise sind derzeit hoch und müssen fairer werden. Datenmarktplätze könnten ein bedeutendes Marktphänomen werden. Der Wert von Daten variiert stark je nach Kontext. Die Datenökonomie wird die Monetarisierung revolutionieren. Generative KI kann neue Daten synthetisieren. Daten aus dem Mittelstand sind oft ungenutzt. Die Regulierung wird den Zugang zu Daten erleichtern. Datenbesitzer könnten für ihre Daten bezahlt werden. Die Zukunft der KI-Modelle hängt von der Verfügbarkeit von Daten ab. Sound Bites: "KI ist längst angekommen und wird genutzt." "KI als Co-Pilot für Kreativität." "Fakten, Fakten, Fakten – das ist nicht genug." "Halluzinieren kann uns neue Ideen geben." "Evolutionäre Agenten werden die Zukunft prägen." "Datenpreise müssen fairer werden." Chapters: 00:00 Einführung in die Themen der KI und Innovation 02:55 Erfahrungen am MIT: Ein Blick auf die KI-Forschung 06:11 Halluzinationen in KI: Chancen und Herausforderungen 08:56 Kreativität durch Halluzinationen: Ein neues Verständnis 11:48 Mixture of Experts: Neue Ansätze in der KI-Entwicklung 16:22 Evolutionäre Agenten und Quantencomputing 18:47 Datenpreise und Marktmechanismen 21:09 Wert von Daten und Datenmarktplätzen 24:51 Datenökonomie und neue Geschäftsmodelle 30:12 Zukunft der Daten und KI-Modelle
Turtlezone Tiny Talks - 20 Minuten Zeitgeist-Debatten mit Gebert und Schwartz
Seit Wochen lesen wir Berichte über Atomkraftpläne der großen US-Tech-Giganten Google, Microsoft und Amazon. Eine wichtige Rolle sollen dabei SMRs spielen, kleine, modulare Reaktoren – bislang noch eher vieldiskutierte Vision als einsatzbereite Technologie. Und als weitere Säule der Strategie wird sogar die Reaktivierung bereits stillgelegter großer Atommeiler in Angriff genommen. Die Atomaufsichtsbehörde der Vereinigten Staaten steht unter nicht unerheblichem, politischem Druck, diese Pläne nicht durch zu strenge Sicherheitsauflagen zu erschweren. Denn SMR sollen ja gerade flexibel und kostengünstig eingesetzt werden und die Gefahr einer Kernschmelze ist systembedingt geringer – so die Fürsprecher. Doch Experten und Kritiker warnen vor einer Aufweichung der Auflagen und vorgeschriebenen Sicherheitsmaßnahmen für Atomanlagen. Dies ist für die Tech-Unternehmen nicht nur aus Kostengründen relevant, sondern die Genehmigungen für einen Betrieb in unmittelbarer Nähe zu den eigenen Rechenzentren könnten dadurch aufwändiger werden. Doch warum liebäugeln diese und weitere Rechenzentren-Betreiber mit einem zweiten Frühling für die umstrittene Kernenergie? Hintergrund ist der massive Energiehunger der Künstlichen Intelligenz – konkret der eingesetzten Grafikprozessoren. Der kalkulierte künftige Strombedarf und die Pläne und Pflichten für Emissionsremissionen und Klimaneutralität, lassen sich aus heutiger Sicht nur schwer und vor allem teuer mit regenerativen Energiequellen abdecken. So zumindest die Argumentation der Atombefürworter. Gegner verweisen bekanntermaßen auf die ungeklärte Endlagerung und die Sicherheitsgefahren. Wie teuer der Strombezug heutzutage ist, zeigt auch der Umstand, dass Microsoft die Reaktivierung eines Alt-Atomkraftwerks plant, auf dessen Geländer nicht nur in den 70er-Jahren ein schwerwiegender Atomunfall stattfand, sondern dass erst vor fünf Jahren wegen Unwirtschaftlichkeit geschlossen wurde. In der Episode 172 der Turtlezone Tiny Talks, in Zusammenarbeit mit dem KI Expertenforum blicken Dr. Michael Gebert und Oliver Schwartz auf die Pläne zum Stillen des Energiehungers der Künstlichen Intelligenz und erklären, warum jeder KI-Prompt bis zu 1000mal mehr Strom verbraucht als eine simple Suchmaschinen-Abfrage. Außerdem erläutern sie, warum das Training der großen Sprachmodelle schnell den Energiebedarf einer Kleinstadt übertreffen kann.
GPT von OpenAI hat längst Konkurrenz bekommen. Sechs KI-Sprachmodelle haben wir für unseren KI-Schwerpunkt in c't 23/2024 getestet, darunter die Modelle von Google, Meta und Anthropic. Wir geben einen Überblick und beleuchten den AI Act, mit dem die EU Hersteller regulieren will. In dieser Folge von c't uplink erzählt c't-Redakteur Hartmut Gieselmann davon, wie er den Sprachmodellen auf den Zahn gefühlt hat, warum das europäische Modell Mistral durchaus mit den amerikanischen mithalten kann und wie c‘t bei zwei Modellen sogar den Energiebedarf messen konnte. c't-Redakteur Holger Bleich berichtet, was die EU mit dem AI Act regelt und was noch passieren muss, bevor die Regeln ab Sommer 2025 gelten. Mit dabei: Hartmut Gieselmann, Holger Bleich Moderation: Greta Friedrich Produktion: Ralf Taschke Unseren Test von sechs KI-Sprachmodellen, einen Überblick zum AI Act und ein Interview zu KI und Nachhaltigkeit finden Sie in der c't 23/2024. Die Ausgabe gibt's ab dem 18. Oktober am Kiosk, im Browser und in der c't-App für iOS und Android.
GPT von OpenAI hat längst Konkurrenz bekommen. Sechs KI-Sprachmodelle haben wir für unseren KI-Schwerpunkt in c't 23/2024 getestet, darunter die Modelle von Google, Meta und Anthropic. Wir geben einen Überblick und beleuchten den AI Act, mit dem die EU Hersteller regulieren will. In dieser Folge von c't uplink erzählt c't-Redakteur Hartmut Gieselmann davon, wie er den Sprachmodellen auf den Zahn gefühlt hat, warum das europäische Modell Mistral durchaus mit den amerikanischen mithalten kann und wie c‘t bei zwei Modellen sogar den Energiebedarf messen konnte. c't-Redakteur Holger Bleich berichtet, was die EU mit dem AI Act regelt und was noch passieren muss, bevor die Regeln ab Sommer 2025 gelten. Unseren Test von sechs KI-Sprachmodellen, einen Überblick zum AI Act und ein Interview zu KI und Nachhaltigkeit finden Sie in der c't 23/2024. Die Ausgabe gibt's ab dem 18. Oktober am Kiosk, im Browser und in der c't-App für iOS und Android.
GPT von OpenAI hat längst Konkurrenz bekommen. Sechs KI-Sprachmodelle haben wir für unseren KI-Schwerpunkt in c't 23/2024 getestet, darunter die Modelle von Google, Meta und Anthropic. Wir geben einen Überblick und beleuchten den AI Act, mit dem die EU Hersteller regulieren will. In dieser Folge von c't uplink erzählt c't-Redakteur Hartmut Gieselmann davon, wie er den Sprachmodellen auf den Zahn gefühlt hat, warum das europäische Modell Mistral durchaus mit den amerikanischen mithalten kann und wie c‘t bei zwei Modellen sogar den Energiebedarf messen konnte. c't-Redakteur Holger Bleich berichtet, was die EU mit dem AI Act regelt und was noch passieren muss, bevor die Regeln ab Sommer 2025 gelten. Mit dabei: Hartmut Gieselmann, Holger Bleich Moderation: Greta Friedrich Produktion: Ralf Taschke Unseren Test von sechs KI-Sprachmodellen, einen Überblick zum AI Act und ein Interview zu KI und Nachhaltigkeit finden Sie in der c't 23/2024. Die Ausgabe gibt's ab dem 18. Oktober am Kiosk, im Browser und in der c't-App für iOS und Android.
Für viele Menschen gehört das Sprachprogramm ChatGPT längst zum Alltag. Man lässt das Programm eigene E-Mails schreiben, fremde Texte zusammenfassen oder Informationen zu bestimmten Themen liefern. Innerhalb von Sekunden spuckt es einem auf dem Bildschirm die Antworten aus. Die Ergebnisse sind in vielen Fällen erstaunlich – und sprachlich einwandfrei. Aussagen auf Wahrheit, Schlüssigkeit und Logik prüfen, so wie wir Menschen, kann eine künstliche Intelligenz (KI) jedoch noch nicht. Das könnte sich aber bald ändern. Gemeinsam mit anderen Forscherinnen und Forschern versucht der KI-Wissenschafter Günter Klambauer an der Johannes-Kepler-Universität Linz künstlicher Intelligenz solche Fähigkeiten beizubringen – und sie dafür am Vorbild des menschlichen Gehirns zu trainieren. Ein Programm mit solchen Fähigkeiten könnte künftig etwa auch in sensiblen Bereichen wie in der Medizin oder bei gerichtlichen Verfahren zum Einsatz kommen, glaubt Klambauer. Im Podcast spricht der KI-Experte darüber, wie das in Zukunft gelingen könnte, wie Sprachprogramme momentan lernen und warum wir KI zu häufig menschliche Eigenschaften zuschreiben.
Das ist das KI-Update vom 8. Oktober 2024 unter anderem mit diesen Themen: Große Sprachmodelle als Konsens-Maschinen KI-Assistent aus Dänemark kommt in deutsche Krankenhäuser Forschende sammeln Sprachdaten für EU-Sprachen und die Verständnisprobleme der Sprachassistenten Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-9971656 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Ob Werkzeug oder Wesen – Ihre Schöpfer sind sich da selbst nicht ganz schlüssig. Die Utopien werden von Albträumen begleitet. Sprachmodelle a la Chat-GPT befeuern die Sehnsucht nach einem Universalwerkzeug zur Lösung komplexer Probleme aller Art. Zugleich warnen viele Informatiker und Technik-Philosophen nicht nur vor dem Missbrauch durch Diktatoren und der naiven Nutzung durch uns Verbraucher...// Von Mathias Greffrath und Tom Schimmeck/ WDR 2024/ www.radiofeature.wdr.de Von Mathias Greffrath und Tom Schimmeck.
Summary: In dieser Episode des DeepTech DeepTalk spricht Oliver Rößling mit Pia Čuk, Mitgründerin von PHAROS Labs, über die Rolle von KI im Medical Writing, die Herausforderungen bei der Implementierung von KI-Tools, das Vertrauen in Technologie, Talentmanagement in der Branche und die Bedeutung von Netzwerken für Frauen in der Tech-Branche. Pia teilt ihre Erfahrungen und Einsichten über die Nutzung von KI und die Notwendigkeit, Erwartungen realistisch zu managen. Keywords: KI, Medical Writing, Sprachverarbeitung, Regulatorik, Vertrauen in KI, Talentmanagement, Frauen in Tech, Sprachmodelle, Personalisierung Takeaways: Pharos Labs nutzt KI für Medical Writing. Vertrauen in KI ist entscheidend für die Nutzerakzeptanz. Erwartungsmanagement ist wichtig bei der Einführung von KI. Talentmanagement ist eine Herausforderung in der KI-Branche. Die Nutzung von KI-Tools kann die Produktivität steigern. Personalisierung verbessert die Interaktion mit KI. Frauen in der Tech-Branche sind unterrepräsentiert, aber es gibt Netzwerke. KI bietet Chancen für Frauen in Management-Positionen. Die Tech-Branche wird offener für Diversität. Sound Bites: "Ich bin die Mitgründerin von Pharos Labs." "Das Wichtigste, was uns gerade umtreibt, ist Vertrauen zu KI." "Wir müssen die Erwartungen realistisch setzen." Chapters: 00:00 Einführung und Vorstellung von Pia Cuk 02:53 PHAROS Labs und die Rolle von KI im Medical Writing 06:09 Herausforderungen und Vertrauen in KI 08:55 Erwartungsmanagement bei großen Sprachmodellen 12:09 Talentmanagement und die Suche nach Fachkräften 14:57 Nutzung von KI-Tools im Arbeitsalltag 18:05 Personalisierung und Interaktion mit KI 20:53 Frauen in der Tech-Branche und Netzwerke 30:09 Abschluss und Ausblick auf die Zukunft
Ob als Bildgenerator, Chatbot oder Transkriptions-Tool: Offene KI-Modelle versprechen Transparenz, Datenschutz und Innovation. Auch Konzerne wie Meta machen Sprachmodelle frei zugänglich. Gehört Open-Source-KI die Zukunft - oder ist sie eine Gefahr? Metz, Moritz; Walch-Nasseri, Friederike
Sprachmodelle wie ChatGPT haben Schwächen: Sie haben zum Beispiel keinen Zugang zu aktuellen oder privaten Informationen, und sie kennen ihre Quellen nicht. RAG will das ändern, demnächst auch auf Smartphones. Der ganze Podcast im Überblick (00:02:28) Nachteile der grossen Sprachmodelle (00:05:25) Die Vorteile von RAG (00:07:25) Wo kann man RAG heute schon einsetzen? (00:11:40) Nachteil Monopol (00:13:07) Wie funktioniert RAG? (00:14:47) Wie aus Sprache Mathematik wird (00:22:42) So funktioniert eine Abfrage mit RAG (00:25:31) Die Herausforderungen kleiner Sprachmodelle (00:32:12) RAG auf mobilen Geräten
Welche Hürden es beim Fernwärmenetz gibt, wie der Energieverbrauch von Sprachmodellen transparent werden könnte und wie man das Leben des Richard Feynman schön aufarbeiten kann, greift diese Podcast-Folge auf. _Hinweis: Dieser Podcast wird durch Sponsorings unterstützt. Alle Infos zu unseren Werbepartnern findest du [hier](https://linktr.ee/mittechnologyreviewpodcast)_.
Künstliche Intelligenz braucht massenhaft Daten fürs Training. Weil die verfügbaren Texte, Bilder und Videos begrenzt sind, nutzen Entwickler von Sprachmodellen zunehmend Datenfutter, das von KI erzeugt wurde. Doch das ist riskant. Metz,Moritz; Brose, Maximilian
Google Gemini zieht in Android- und iOS-Geräte ein Grok 2 ist da und erlaubt Bildgenerierung mit politischen Motiven The AI Scientist generiert Papers für 15 Dollar pro Stück und Sprachmodelle wachsen nicht über sich hinaus https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki Bitrauschen: https://heise.de/-9832478
Summary In diesem Deep Tech Deep Talk geht es um die Anwendung von AI im EdTech-Bereich, insbesondere im Bereich der Bildung. Es wird über die Bedeutung von Open Source in der Softwareentwicklung gesprochen und wie sich die Entwicklung von Sprachmodellen in den letzten Jahren verändert hat. Es wird diskutiert, wie KI die Musikindustrie beeinflusst und welche Rolle IP und Personalisierung dabei spielen. Außerdem wird die Frage nach der Zukunft von KI und der Möglichkeit einer Artificial General Intelligence (AGI) gestellt. Es wird auch darüber gesprochen, wie KI im Bereich des Lernens und der Ausbildung eingesetzt werden kann und welche Rolle Methodik und Didaktik dabei spielen. In diesem Teil des Gesprächs diskutieren Oliver, Alois und Werner die Bedeutung von personalisiertem E-Learning und E-Training. Sie betonen, dass die Individualisierung und Anpassung an die Bedürfnisse und Vorkenntnisse des Lernenden der Schlüssel zum Erfolg ist. Die Verwendung von KI ermöglicht es, personalisierte Trainings anzubieten und durch geschickte Analytik die Fortschritte der Lernenden zu verfolgen und anzupassen. Sie diskutieren auch die Rolle von Co-Piloten oder Begleitern in E-Learning und E-Training und wie sie den Lernenden helfen können, ihr volles Potenzial auszuschöpfen. Darüber hinaus sprechen sie über die Zukunft von E-Learning und E-Training, einschließlich der Entwicklung von Companion-Systemen und der Integration von Soft Skills in das Lernprozess. Keywords AI, EdTech, Bildung, Open Source, Sprachmodelle, Musikindustrie, IP, Personalisierung, KI-Zukunft, AGI, Lernen, Ausbildung, Methodik, Didaktik, personalisiertes E-Learning, E-Training, Individualisierung, Anpassung, KI, Co-Piloten, Begleiter, Fortschritt, Analytik, Zukunft, Companion-Systeme, Soft Skills Takeaways Die Anwendung von AI im EdTech-Bereich ermöglicht es, Bildungsinhalte mit technologischen Methoden zu gestalten und zu verbessern. Open Source spielt eine wichtige Rolle in der Softwareentwicklung und ermöglicht es, Produkte frei zu verwenden und weiterzuentwickeln. KI beeinflusst die Musikindustrie, indem sie neue Möglichkeiten der Personalisierung und Skalierung bietet, aber auch Fragen des Urheberrechts aufwirft. Die Zukunft von KI ist noch ungewiss, aber eine Artificial General Intelligence (AGI) könnte in den nächsten Jahren erreicht werden. Im Bereich des Lernens und der Ausbildung kann KI genutzt werden, um personalisierte und methodisch fundierte Inhalte bereitzustellen. Personalisiertes E-Learning und E-Training ermöglichen eine individuelle Anpassung an die Bedürfnisse und Vorkenntnisse der Lernenden. Die Verwendung von KI ermöglicht es, personalisierte Trainings anzubieten und den Fortschritt der Lernenden zu verfolgen und anzupassen. Co-Piloten oder Begleiter können den Lernenden helfen, ihr volles Potenzial auszuschöpfen und ihre Lernziele zu erreichen. Die Integration von Soft Skills in den Lernprozess ist ein wichtiger Aspekt des zukünftigen E-Learnings und E-Trainings. Sound Bites "Die Anwendung von AI im Ad-Tech-Bereich, insbesondere im Bereich der Bildung." "Open Source ist ein frei verfügbares System." "Die Entwicklung von Sprachmodellen und die Dekodierung von Sprache." "Ist das nicht extrem spannend für mich als Kunden? Absolut." Chapters 00:00 AI im Ad-Tech-Bereich: Anwendung in der Bildung 01:29 Die Bedeutung von Open Source in der Softwareentwicklung 05:12 Die Entwicklung von Sprachmodellen: Quantität und Qualität 09:53 KI und die Musikindustrie: IP und Personalisierung 13:08 Die Zukunft von KI: AGI und weitere Entwicklungen 18:21 KI im Lernbereich: Methodik und Didaktik 21:43 Personalisiertes E-Learning und E-Training: Anpassung an individuelle Bedürfnisse 24:57 Die Rolle von KI in personalisiertem E-Learning und E-Training 28:18 Co-Piloten und Begleiter: Unterstützung beim Lernen 29:17 Die Zukunft von E-Learning und E-Training: Companion-Systeme und Soft Skills
Wie erledigt man den innerstädtischen Lieferverkehr, ohne dass es zum Kollaps kommt? Die Tram ist eine Lösung. Darum dreht sich die neue Podcast-Folge. Außerdem dabei: Kollabierende KI-Modelle.
Summary In dieser Folge des Deep Tech Deep Talk spricht Oliver Rößling mit Professor Dr. Frank Passing über Künstliche Intelligenz (KI) und deren Anwendung in verschiedenen Branchen. Frank Passing ist Professor für Machine Learning und KI und Gründer von Intuitive AI. Sie diskutieren die Entwicklung von KI-Technologien, den Einfluss der Automobilindustrie auf Franks Karriere und die Bedeutung von Datenqualität. Sie erläutern auch die Unterschiede zwischen regelbasierten und datenbasierten KI-Systemen und wie KI in komplexen Branchen wie Finanzwesen und Compliance eingesetzt werden kann. Außerdem diskutieren sie die verschiedenen Ansätze bei der Entwicklung von KI-Modellen und die Bedeutung von hybriden Systemen. In diesem Teil des Gesprächs geht es um den Einsatz autonomer Agenten und die Nutzung von künstlicher Intelligenz (KI) zur Vereinfachung von Arbeitsprozessen. Es wird diskutiert, wie autonome Agenten Entscheidungen treffen und handeln können und wie sie in Unternehmen eingesetzt werden können. Es wird auch über die Autonomie von Agenten und die möglichen Gefahren und Potenziale diskutiert. Der Einsatz von kleinen Modellen und die Effizienz von KI werden ebenfalls angesprochen. Es wird betont, dass der Mensch immer noch die letzte Entscheidung treffen sollte und dass KI die Arbeitsprozesse erleichtern kann. Es wird auch über die Herausforderungen des Wissensmanagements und die Entwicklung neuer Produkte gesprochen. Keywords Deep Tech, Künstliche Intelligenz, Machine Learning, Automobilindustrie, Datenqualität, Regelbasierte Systeme, Datenbasierte Systeme, Finanzwesen, Compliance, KI-Modelle, Hybride Systeme, autonome Agenten, künstliche Intelligenz, Entscheidungsprozesse, Arbeitsprozesse, kleine Modelle, Effizienz, Potenziale, Gefahren, Autonomie, Wissensmanagement, Produktentwicklung Takeaways Die Entwicklung von KI-Technologien hat sich in den letzten Jahren stark verändert und bietet heute viele neue Möglichkeiten. Datenqualität ist ein entscheidender Faktor für den Erfolg von KI-Projekten. Es gibt Unterschiede zwischen regelbasierten und datenbasierten KI-Systemen, und beide Ansätze haben ihre Vor- und Nachteile. KI kann in komplexen Branchen wie dem Finanzwesen und der Compliance eingesetzt werden, um Prozesse zu verbessern und rechtliche Anforderungen zu erfüllen. Hybride Systeme, die sowohl große Sprachmodelle als auch spezifische KI-Agenten nutzen, können besonders effektiv sein. Autonome Agenten können spezifische Arbeitsprozesse vereinfachen und Entscheidungen treffen. Der Einsatz von kleinen Modellen kann effizienter sein und Energie sparen. Der Mensch sollte immer noch die letzte Entscheidung treffen und die KI unterstützen. Es gibt Potenziale und Gefahren bei der Nutzung von autonomen Agenten und künstlicher Intelligenz. Das Wissensmanagement und die Entwicklung neuer Produkte sind wichtige Aspekte bei der Nutzung von KI. Chapters 00:00 Die Entwicklung von KI-Technologien und ihre Anwendungsmöglichkeiten 02:56 Die Bedeutung von Datenqualität für KI-Projekte 07:30 Unterschiede zwischen regelbasierten und datenbasierten KI-Systemen 11:44 KI im Finanzwesen und in der Compliance 17:21 Die Vorteile hybrider KI-Systeme 19:44 Der Einsatz autonomer Agenten zur Vereinfachung von Arbeitsprozessen 22:03 Die Autonomie von Agenten und die Potenziale und Gefahren 23:54 Effizienz und Energieeinsparung durch den Einsatz kleiner Modelle 26:13 Die Rolle des Menschen bei der Entscheidungsfindung 29:53 Herausforderungen des Wissensmanagements und der Produktentwicklung
Auf fast jedem Symbolbild zur KI-Revolution sind sie zu sehen: Roboter, meistens in menschlicher Gestalt. Zahlreiche Roboter aus der Popkultur von Wall-E bis Terminator bevölkern unsere Fantasie von künstlicher Intelligenz als menschlichem Begleiter. Doch die größten KI-Durchbrüche der letzten Jahre waren körperloser Code in der Cloud und hatten keine Maschinenkörper in der physischen Realität. Gregor und Fritz suchen nach den Robotern in der KI-Revolution. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft. 00:00 Wo bleiben die Roboter im AI-Hype? 09:58 Humanoide Körper versus Staubsaugerkästen 13:57 Roboter in der (deutschen) Industrie 21:32 Sprachmodelle und Roboter - ein Win-Win? 29:08 Was haben wir diese Woche mit KI gemacht? Links: Der RoboCup: https://robocup.de/ Neura Robotics: https://www.schwarzwaelder-bote.de/inhalt.startup-neura-robotics-david-reger-aus-herrenzimmern-revolutioniert-mit-seinen-robotern-den-weltmarkt.c4e3f207-a4e7-4931-8fb3-d6cdb2e48415.html Wie Sprachmodelle in der Robotik helfen könnten: https://deepmind.google/discover/blog/rt-2-new-model-translates-vision-and-language-into-action/ Bedroht die amerikanische Software-Dominanz den deutschen Maschinenbau? https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/figure-01-und-nvidia-gr00t-sind-der-anfang-was-auf-den-deutschen-maschinenbau-zukommt-19597613.html Websim AI: www.websim.ai Schwimmbadbro auf Reddit: www.reddit.com/r/de/comments/5s2mxg/ich_gehe_in_ein_schwimmbad_und_brauche_eure_hilfe Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried Kontakt: Wir freuen uns über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
Inhaltsbeschreibung: Willkommen zur ersten Folge von "DEEPTECH DEEPTALK", moderiert von Oliver Rößling und Alois Krtil, direkt aus dem Hamburger DEEPTECH Campus. Diese Episode beleuchtet die Entwicklung und Zukunft der Künstlichen Intelligenz (KI) und bietet einen tiefen Einblick in die verschiedenen Facetten dieses bahnbrechenden Themas. Einleitung: Oliver Rößling und Alois Krtil starten die Folge mit einer kurzen Begrüßung und setzen den Rahmen für die Diskussion: die historische Entwicklung der KI, aktuelle Trends und Zukunftsaussichten. Historischer Rückblick: Frühe Anfänge der KI: Ein Blick auf die 1950er und 1960er Jahre, als Visionäre wie Alan Turing die ersten Konzepte für KI entwickelten und sich einen universellen Computer vorstellten, der komplexe Probleme lösen kann. Entwicklung der Rechenleistung: Diskussion über die Bedeutung der Rechenleistung für die Entwicklung der KI, von frühen binären Rechnern bis zu heutigen Hochleistungscomputern. Aktuelle Entwicklungen: Quantencomputing und Neuromorphes Lernen: Quantencomputer kennen nicht nur die Zustände 0 und 1, sondern alle Zustände dazwischen, was die Berechnungszeiten für komplexe Aufgaben drastisch reduziert. Vergleich mit herkömmlicher Binärrechentechnik und das revolutionäre Potenzial des Quantencomputings. Generative KI: Erklärung der generativen KI, die Musik, Texte, Bilder und Videos in Echtzeit generieren kann. Diskussion über Einsatzmöglichkeiten und Potenziale dieser Technologie. Zukünftige Perspektiven und Herausforderungen: Kausale KI und Reasoning-Kapazitäten: Fortschritte in der kausalen KI und Reasoning-Kapazitäten, die Sprachmodelle immer besser machen. Implikationen dieser Entwicklung. Autonome Systeme und Ethik: Ethische Fragen und Herausforderungen beim Einsatz autonomer Systeme. Verantwortung von Entwicklern und Gesellschaften, Maßnahmen zur Gewährleistung ethischer Standards. Gesellschaftliche Implikationen: Ängste und Erwartungen der Gesellschaft gegenüber KI. Rolle von Big Tech und Herausforderungen der Datenhoheit durch KI. Regulierung und Datenschutz: Regulierung von KI: Erklärung des European AI Act und globaler Bewegungen zur Regulierung von KI. Beitrag dieser Regelungen zur sicheren und ethisch korrekten Entwicklung der Technologie. Datenschutz und Datensicherheit: Erläuterung, wie Unternehmen und Einzelpersonen ihre Daten schützen können. Strategien zur sicheren Nutzung von Daten und die Bedeutung von Trustworthy AI. Europas Vorreiterrolle bei strengen Datenschutzgesetzen. Schlussfolgerungen und Ausblick: Zusammenfassung der wichtigsten Punkte: Die wesentlichen Erkenntnisse der Folge werden zusammengefasst, wobei die historische Entwicklung, aktuelle Trends und zukünftige Herausforderungen der KI betont werden. Ausblick auf die nächsten Folgen: Ein kurzer Teaser gibt den Zuhörern einen Ausblick auf kommende Episoden. Rößling und Krtil versprechen, weiterhin spannende und relevante Themen aus der Welt des Deep Tech zu diskutieren und interessante Gäste einzuladen. Lernziele der Folge: Verstehen der historischen Entwicklung der KI: Einblick in die Ursprünge der KI in den 1950er und 1960er Jahren und die Visionen der frühen Pioniere. Einblick in aktuelle Trends wie Quantencomputing und generative KI: Verständnis der Funktionsweise und Bedeutung dieser Technologien. Kenntnis der Herausforderungen und ethischen Fragen rund um autonome Systeme: Diskussion über die Verantwortung und ethischen Standards im Umgang mit KI. Verständnis der globalen Regulierung und Datenschutzmaßnahmen für KI: Einblick in den European AI Act und andere globale Regulierungsmaßnahmen. Bewusstsein für die gesellschaftlichen Implikationen und die Rolle von Big Tech in der KI-Entwicklung: Diskussion über die Herausforderungen der Datenhoheit und die Rolle großer Technologieunternehmen. OLIVER @ LinkedIn: https://www.linkedin.com/in/oliverroessling/ ALOIS @ LinkedIn: https://www.linkedin.com/in/alois-krtil-2985471b4/
Weiß eine KI schon, wer Europameister wird? Fritz Espenlaub und Gregor Schmalzried gehen Algorithmen auf den Grund, die angeblich die Zukunft genau vorhersagen können - und lassen mehrere KIs im Tippen des nächsten Deutschland-Spiels gegeneinander antreten. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft. In dieser Folge: 0:00 Tipprunde mit KI 2:00 Können Algorithmen in die Zukunft sehen? 11:10 Wie berechnen Sprachmodelle ihre Vorhersagen? 18:20 Was tippt die KI für das nächste Deutschland-Spiel? 26:15 Was haben wir mit KI gemacht? Links: Unser KI-Tipp für Deutschland gegen Ungarn https://chatgpt.com/share/30aa1c6f-f021-41a7-afcb-50ea7da7c4dd Wie Sprachmodelle die Zukunft vorhersagen https://arxiv.org/pdf/2402.18563 Wie Sprachmodelle Finanzmärkte vorhersagen https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4835311 Der Trump vs Clinton Algorithmus (Artikel von 2016) https://www.weforum.org/agenda/2016/11/would-you-let-an-algorithm-choose-the-next-us-president/ Googles Wetter-KI: https://deepmind.google/discover/blog/graphcast-ai-model-for-faster-and-more-accurate-global-weather-forecasting/ Chris Anderson: "The End of Theory” https://www.wired.com/2008/06/pb-theory/ DeepL Write https://www.deepl.com/de/write Suno https://suno.ai/ KI Verstehen: Entscheidet künstliche Intelligenz die EM? https://www.ardaudiothek.de/episode/ki-verstehen/ki-im-fussball-entscheidet-kuenstliche-intelligenz-die-em-2024/deutschlandfunk/13477635/ Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Hendrik Loven, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried Kontakt: Wir freuen uns über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
Im Grunde vervollständigen Sprachmodelle wie ChatGPT, Gemini oder Claude immer nur das nächste Wort in einem Satz, basierend auf einer statistischen Wahrscheinlichkeitsrechnung. Doch irgendwie entstehen aus diesem simplen Prinzip am Ende Maschinen, die ein Verständnis von der Welt zu haben scheinen, das dem unseren oft erstaunlich nahe kommt. Wie kann das sein? Wir schauen ins Innere der "Generative Pretrained Transformer" Modelle und erklären, wie genau KI eigentlich funktioniert. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft. 00:00 Intro 04:01 G wie Generative: Wie Sprachmodelle auf ihr nächstes Wort kommen 08:37 P wie Pre-Trained: Wie läuft das Training ab? 19:14 T wie Transformer: Wie sieht es eigentlich im Inneren eines LLMs aus? 25:47 Was haben wir diese Woche mit KI gemacht? Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried Links und Quellen: The Surprising Power of Next Word Prediction: Large Language Models Explained https://cset.georgetown.edu/article/the-surprising-power-of-next-word-prediction-large-language-models-explained-part-1/ Erklärung von Transformer Modellen in der Financial Times: https://ig.ft.com/generative-ai/ Visualisierung von Transformern: https://jalammar.github.io/illustrated-gpt2/ Aleph Alpha und Erklärbarkeit: https://1e9.community/t/die-deutsche-ki-hoffnung-aleph-alpha-mit-transparenz-und-erklaerbarkeit-gegen-openai/19552 Electify - KI-Sprachmodelle beantwortet Fragen zu den EU-Wahlprogrammen: https://electify.eu/ Kontakt: Wir freuen uns über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
Meta nutzt europäische Facebook- und Instagram-Daten für KI-Training US-Handelsaufsicht nimmt große Sprachmodelle ins Visier Simuliertes KI-Übersetzungsbüro verbessert literarische Übersetzungen und KI empfiehlt Kleber auf Pizza und Spaghetti mit Benzin https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Nach dem ersten Hype um ChatGPT steht fest: Generative KI ist kein Hype, sondern wird die meisten Bereiche unserer Arbeitswelt massiv verändern. Wenn generative Algorithmen unsere neuen Arbeitskollegen sein werden, so stecken sie dennoch in vielen Bereichen noch in der Grundschule. Unser Studiogast Vlad Varichev arbeitet bei Accenture daran, Unternehmensprozesse fit für KI zu machen und die neuen Möglichkeiten zu nutzen. Als er vor einigen Jahren noch an Software für Sprachübersetzungen arbeitete, waren die Fähigkeiten der LLMs (großen Sprachmodelle) von heute noch Science Fiction. Inzwischen sind die textbasierten Trainingsdaten der Welt schon ziemlich abgegrast - doch die Algorithmen machen die Sprung in die physische Welt und beginnen, neben Texten, Bildern und Videos nun auch die Robotik zu revolutionieren. Eine spannende Reise in die KI - die in wenigen Monaten sicherlich schon wieder veraltet sein wird. Also jetzt reinhören! P.S. Wir freuen uns über euer Voting für den Deutschen Podcastpreis! deutscher-podcastpreis.de - Kategorie "beste Information"
Mit KI könnte Siri endlich Kontext verstehen Große Sprachmodelle lassen sich von schlechten Beispielen verführen Freie Alternative zu KI-Entwickler Devin von Cognition AI und auch Metas Bildgenerator ist rassistisch heise.de/ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki