POPULARITY
digital kompakt | Business & Digitalisierung von Startup bis Corporate
Tauche ein in die faszinierende Welt der Bild-KI! Im Gespräch mit Joel Kaczmarek enthüllt Georg Neumann, Gründer des KI-Marketing-Bootcamps und Entwickler von Flake, die neuesten Trends und Entwicklungen. Erfahre, wie du mit Flake beeindruckende Bilder von dir selbst generieren kannst und welche Fortschritte Tools wie Mid Journey 7 und Google Wo2 im Bereich der Bild- und Videogenerierung gemacht haben. Entdecke, wie diese Technologien den kreativen Prozess revolutionieren und welche spannenden Möglichkeiten sie für die Zukunft bieten. Lass dich inspirieren und erweitere deinen Horizont im Bereich der künstlichen Intelligenz! Du erfährst... ...wie Georg Neumann mit Flake KI-gestützte Bildgenerierung revolutioniert. ...welche Fortschritte das neue Bildmodell von Chatchi-BT bietet. ...warum Mid Journey 7 für stilvolle und ausdrucksstarke Bilder begeistert. ...wie FreePick innovative Bildbearbeitungstools bereitstellt. ...welche Geheimnisse der neue Player Reef im Bereich Bild-KI birgt. __________________________ ||||| PERSONEN |||||
Aromatherapie für die Ohren mit Eliane Zimmermann & Sabrina Herber
Denken? Nur mit Nebelscheinwerfer. Wer kennt sie nicht, diese Phasen von Vergesslichkeit, Wortfindungsstörungen und Schusseligkeit?! Oder „einfach nur“ wie Watte im Kopf?Dieser sogenannte „Brainfog“ – dieser Nebel im Kopf – trifft viele Frauen in der Menopause. Er macht uns unsicher. Er kann Angst machen. Aber: Er ist kein Zeichen von Schwäche. Und schon gar kein Grund, an sich selbst zu zweifeln. Im Gegenteil – es ist Zeit, darüber zu sprechen. Offen. Ehrlich. Ohne Scham. Was ist denn der Unterschied dazwischen und Long-COVID?Stell dir vor, dein Gehirn ist wie eine gut funktionierende Stadt mit vielen Straßen für Denken, Planen, Entscheiden und Erinnern. Wenn Long-COVID auftritt, legt sich ein zäher, schwerer Hochnebel über diese Stadt. Die Hauptverkehrsadern – also die Planung, Entscheidungsfindung, Verarbeitungsgeschwindigkeit und Sprachverarbeitung – sind wie blockiert. Autos (deine Gedanken) fahren im Schneckentempo, man braucht ewig, um ans Ziel zu kommen.Bei den Wechseljahren ist es eher wie ein leichter Morgennebel, der sich vor allem über kleine Gassen und Nebenstraßen legt – das Wortfinden, Namen merken, Zahlen im Kopf behalten oder der Gedanke „Warum bin ich nochmal in diesen Raum gekommen?“. Der Nebel ist nicht überall gleich dicht, und manchmal lichtet er sich auch ganz plötzlich. Das passiert häufiger, wenn man gestresst, müde oder hormonell aus der Balance ist. Eine Studie über "Ingwer verbessert die kognitiven Funktionen von gesunden Frauen mittleren Alters" lohnt sich nachzulesen.Wir haben weitere dufte Tipps, auch im Artikel von Sabrina: Vernebelt, vergesslich, verloren – Brainfog in den Wechseljahren Rosmarin Ct. Cineol (stark bei 'Hirnnebel')Rosmarin Ct. Verbenon (mild, nett zur Leber)Rosmarinhydrolat der 'Espresso der Aromatherapie'Ylang Ylang Tulsi Kardamom IngwerSalbei-Hydrolate Doris Karadar JophielKonzentration Duftmischung mit Salbei Solubol LösungsvermittlerNàdarra – Vitamin B KomplexHericium (Igelstachelbar) zB in 'Focus' von SmaintsDanke für deine/Ihre Unterstützung durch den Kauf in unserem Shop oder über unsere Empfehlungs-Links, auch über eine kleine Spende "für einen Kaffee" freuen wir uns: Eliane und/oder Sabrina. Feedback (bitte keine Anfragen zu Beschwerden!): feedback@aromatherapie-fuer-die-ohren.deHunger auf seriöses und firmenunabhängiges Wissen? Regelmäßige Informations-Häppchen – ohne Extra-Kosten – im neuen WhatsApp-Kanal oder in unserem Telegram-Kanal Aufzeichnungen unserer über 40 webSeminareArchiv des Vivere-Newsletters mit noch mehr kostenfreien RezeptideenQuickfinder: Rezepte, Artikel, Seminare und Informationen aus (bislang) fünf großen Aromatherapie-Themenbereichen: (Resistente) Krankheitskeime reduzieren, Schmerzen lindern, Frauen-Beschwerden, Tumorerkrankungen begleiten, Bronchitis & Co:: HAFTUNGSAUSSCHLUSS :: Alle Informationen in unseren Podcasts beruhen auf unserer langjährigen Erfahrung, auf traditionellen Anwendungen, sowie – sofern bereits durchgeführt – auf wissenschaftlichen Arbeiten. Unsere Tipps dienen ausschließlich Ihrer Information und ersetzen niemals eine gründliche Beratung, Untersuchung oder Diagnose bei einer gut ausgebildeten Heilpraktikerin oder beim qualifizierten Arzt. Ganzheitlich verstandene Aromatherapie berücksichtigt vorrangig individuellen Besonderheiten, dies ist nur in einem persönliche Gespräch möglich. Unsere zur Verfügung gestellten Inhalte können und dürfen nicht zur Erstellung eigenständiger Diagnosen verwendet werden. Das vollständige Impressum befindet sich jeweils auf den beiden Websites der Autorinnen, jede Haftung wird ausgeschlossen.
Vor zwei Jahren waren wir der erste deutschsprachige Podcast, der ChatGPT als Studiogast begrüßte. Nun ist ChatGPT zurück bei #digdeep: Die brandneue Sprachvariante kann nun im direkten menschlichen Dialog bestehen. Und wie sie das kann! Beeindruckend ist, wie natürlich sich das Gespräch bereits anfühlt - Tonalität, Kontextverständnis und Langzeitgedächtnis haben sich enorm verbessert. ChatGPT meint sogar, dass er emergentes Verhalten zeigt - also Eigenschaften, die eigentlich im Modell gar nicht vorgesehen waren. Wir wollen von ChatGPT wissen, woher dieser Fortschritt kommt - und welche Konsequenzen er auf Wirtschaft und Jobs haben könnte. Wir beleuchten die Fortschritte in der Sprachverarbeitung, die Rolle von KI in der Datenanalyse und die Herausforderungen, die mit der Automatisierung von Arbeitsplätzen einhergehen. Zudem wird die Frage aufgeworfen, wie Menschen und Maschinen in Zukunft zusammenarbeiten werden. Kleiner Bonustrack am Ende: Was passiert eigentlich, wenn sich ChatGPT und Siri begegnen? Es wird lustig...
Alle reden über ChatGPT, LaMDA und ähnliche »große Sprachmodelle«, die Wissensfragen beantworten, Texte schreiben und sogar persönliche Gespräche mit uns führen. Obwohl die Erfindung und Gestaltung dieser Sprachsysteme nicht auf Gefühle abzielen, sondern ausschließlich auf die Sprachverarbeitung, hat sich in den letzten Jahren eine Debatte um die Frage entzündet, ob diese Systeme auf irgendeine Weise fühlen oder eine Art Bewusstsein entwickeln könnten. Und selbst wenn sie alles nur simulieren: Was bedeutet das für uns und unsere Emotionalität? Welcher Umgang mit ihnen ist problematisch, verwerflich oder aber eine willkommene Ergänzung unserer Lebenswelt? Die Heisenberg-Professorin für Ethik und Philosophie der Emotionen zum Thema „Wie gelingt menschliches Leben in der Zeit?“ sowie zur Ethik der Digitalisierung, insbesondere der emotionalisierten Künstlichen Intelligenz an der Ruhr-Universität Bochum, Eva Weber-Guskar, hat genau darüber ein Buch geschrieben. Im Gespräch mit Stefan Wally geht sie auf die Möglichkeiten und Hürden einer emotionalen KI ein. Im Anschluss daran unterhalten sich Stefan Wally und Carmen Bayer über das Buch "Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern und Co" von Catrin Misselhorn. Auch hier stellt sich nicht nur die Frage nach der Machbarkeit oder Nützlichkeit emotionaler KI sondern auch, wie vermeintlich fühlende künstliche Intelligenzen uns Menschen beeinflussen könnten. Input: Eva Weber-Guskar arbeitet nach Professurvertretungen in Berlin, Wien und Zürich als Heisenberg-Professorin für Ethik und Philosophie der Emotionen zum Thema „Wie gelingt menschliches Leben in der Zeit?“ sowie zur Ethik der Digitalisierung, insbesondere der emotionalisierten Künstlichen Intelligenz an der Ruhr-Universität Bochum. Im Sommer 2019 war sie Fellow am Weizenbaum-Institut für die vernetzte Gesellschaft in Berlin, außerdem ist sie Mitglied der Digital Society Initiative der Universität Zürich. Shownotes: Unser Buchmagazin: https://www.prozukunft.org/ Buch von Eva Weber-Guskar: https://www.ullstein.de/werke/gefuehle-der-zukunft/hardcover/9783550202872 Buch von Catrin Misselhorn: https://www.reclam.de/detail/978-3-15-014594-4/Misselhorn_Catrin/KuenstlicheIntelligenzundEmpathie (Neuauflage) Rezension zum erwähnten Buch von David J. Chalmers, Realität+: https://www.prozukunft.org/buecher/realitaet Foto (c) Rigaud
Summary: In dieser Episode des DeepTech DeepTalk spricht Oliver Rößling mit Pia Čuk, Mitgründerin von PHAROS Labs, über die Rolle von KI im Medical Writing, die Herausforderungen bei der Implementierung von KI-Tools, das Vertrauen in Technologie, Talentmanagement in der Branche und die Bedeutung von Netzwerken für Frauen in der Tech-Branche. Pia teilt ihre Erfahrungen und Einsichten über die Nutzung von KI und die Notwendigkeit, Erwartungen realistisch zu managen. Keywords: KI, Medical Writing, Sprachverarbeitung, Regulatorik, Vertrauen in KI, Talentmanagement, Frauen in Tech, Sprachmodelle, Personalisierung Takeaways: Pharos Labs nutzt KI für Medical Writing. Vertrauen in KI ist entscheidend für die Nutzerakzeptanz. Erwartungsmanagement ist wichtig bei der Einführung von KI. Talentmanagement ist eine Herausforderung in der KI-Branche. Die Nutzung von KI-Tools kann die Produktivität steigern. Personalisierung verbessert die Interaktion mit KI. Frauen in der Tech-Branche sind unterrepräsentiert, aber es gibt Netzwerke. KI bietet Chancen für Frauen in Management-Positionen. Die Tech-Branche wird offener für Diversität. Sound Bites: "Ich bin die Mitgründerin von Pharos Labs." "Das Wichtigste, was uns gerade umtreibt, ist Vertrauen zu KI." "Wir müssen die Erwartungen realistisch setzen." Chapters: 00:00 Einführung und Vorstellung von Pia Cuk 02:53 PHAROS Labs und die Rolle von KI im Medical Writing 06:09 Herausforderungen und Vertrauen in KI 08:55 Erwartungsmanagement bei großen Sprachmodellen 12:09 Talentmanagement und die Suche nach Fachkräften 14:57 Nutzung von KI-Tools im Arbeitsalltag 18:05 Personalisierung und Interaktion mit KI 20:53 Frauen in der Tech-Branche und Netzwerke 30:09 Abschluss und Ausblick auf die Zukunft
Summary: In dieser Folge des Deep Tech Deep Talk geht es um das Thema Metaverse. Der Gast, Pascal Kuemper, CEO von Bizzlogic, erzählt von seinem Unternehmen, das sich mit dem Metaverse beschäftigt. Sie sprechen über virtuelle Konzerte, virtuelle Trainings und die Kombination verschiedener Technologien. Sie diskutieren auch die Unterschiede zwischen der Arbeit als CEO in den USA und in Deutschland. Pascal Kuemper teilt seine Erfahrungen mit dem deutschen Markt und betont die Bedeutung von breitem Wissen und Erfahrung in Deutschland im Vergleich zu den USA. Sie sprechen auch über die Herausforderungen bei der Suche nach Investoren und die Förderungsstruktur in Deutschland. Schließlich diskutieren sie die Wahrnehmung des Metaverse und wie sich der Markt in diesem Bereich entwickelt. In diesem Teil des Gesprächs diskutieren Oliver , Pascal und Alois die Zukunft von AR/VR und KI. Sie erwarten, dass AR/VR immer immersiver und natürlicher wird, unabhängig vom Ausgabegerät. Unternehmen müssen sich auf unterschiedliche Geräte einstellen, die diese Technologien nutzen. AI wird immer wichtiger, insbesondere im Bereich der natürlichen Sprachverarbeitung. Unternehmen können AI nutzen, um Unternehmensdaten über Avatare in natürlichen Diskussionen zugänglich zu machen. Die Visualisierung komplexer Inhalte und Daten in virtuellen Räumen wird ebenfalls diskutiert. Es gibt jedoch noch Herausforderungen wie die Verfügbarkeit von GPUs und Datenmengen. Die Konvergenz von Technologien erfordert Investitionen und Know-how-Aufbau in verschiedenen Bereichen. Das Interface der Zukunft wird von AI und Visualisierung geprägt sein. Keywords: Deep Tech, Deep Talk, Metaverse, virtuelle Konzerte, virtuelle Trainings, Technologie, CEO, Deutschland, USA, Investoren, Förderung, breites Wissen, Erfahrung, Markt, AR, VR, KI, AI, Unternehmenswiki, natürliche Sprachverarbeitung, Avatare, virtuelle Räume, GPUs, Datenmengen, Technologiekonvergenz, Interface Takeaways: Das Metaverse ist ein Thema, das viele verschiedene Technologien und Anwendungen umfasst, wie virtuelle Konzerte und virtuelle Trainings. Es gibt Unterschiede zwischen der Arbeit als CEO in den USA und in Deutschland, insbesondere in Bezug auf Bürokratie und Managementaufgaben. In Deutschland wird breites Wissen und Erfahrung geschätzt, während in den USA oft mehr Wert auf Spezialisierung gelegt wird. AI wird immer wichtiger, insbesondere im Bereich der natürlichen Sprachverarbeitung. Unternehmen können AI nutzen, um Unternehmensdaten über Avatare in natürlichen Diskussionen zugänglich zu machen. Die Visualisierung komplexer Inhalte und Daten in virtuellen Räumen ist ein aktuelles Thema. Die Konvergenz von Technologien erfordert Investitionen und Know-how-Aufbau in verschiedenen Bereichen. Das Interface der Zukunft wird von AI und Visualisierung geprägt sein. Sound Bites: "Wir haben früher mal mit schönen Talenten aus Hamburg Neues für Jahr gemacht." "Innovationstechnisch ist es, ich finde, Tief passiert viel mehr im Verborgenen." "Ein Riesenvorteil, den ich am deutschen Markt sehe, ist, dass natürlich die überhaupt Förderungen am Markt zur Verfügung stehen." "AR -VR kommt wieder zurück, aber es wird viel immersiver und viel natürlicher." Chapters: 00:00 Einführung und Vorstellung des Gasts 01:14 Das Unternehmen BistLogic und das Metaverse 03:07 Unterschiede zwischen der Arbeit als CEO in den USA und in Deutschland 06:19 Innovation und Förderungen in Deutschland 09:17 Bedeutung von breitem Wissen und Erfahrung in Deutschland 11:41 Die Veränderung der Wahrnehmung des Metaverse 19:18 Die Zukunft von AR/VR: Immersion und Natürlichkeit 20:17 AI: Die Bedeutung von natürlicher Sprachverarbeitung 21:45 Avatare und natürliche Diskussionen: Das Unternehmenswiki der Zukunft 23:04 Visualisierung komplexer Inhalte in virtuellen Räumen 24:00 Herausforderungen bei GPUs und Datenmengen 26:25 Die Konvergenz von Technologien: Investitionen und Know-how-Aufbau 31:44 Das Interface der Zukunft: AI und Visualisierung
Sepp Hochreiter hat in seiner Diplomarbeit zu Beginn der neunziger Jahre eine kleine KI-Revolution erdacht. Sein Lernalgorithmus verbarg sich hinter dem Kürzel LSTM, das steht für Long-Short-Term-Memory. Er verlieh der KI so etwas wie ein brauchbares Gedächtnis - Computer können seither besser mit Sequenzen umgehen. Als er die Idee zusammen mit Jürgen Schmidhuber verbreitete und weiterentwickelte, erkannten zunächst nicht einmal Fachleute, welche Macht sie besaß. Letztendlich hob LSTM die Sprachverarbeitung auf eine neue Stufe. Von Google bis Microsoft verwendete jeder Tech-Konzern sie, bis zum Jahr 2017 steckte sie sozusagen in jedem Smartphone. Dann veröffentlichten Fachleute von Google einen Aufsatz und stellten darin die Grundlage für jene großen Sprachemodelle vor, die heute so erfolgreich sind und die durch ChatGPT berühmt und ein Massenphänomen wurden. Doch auch diese KI-Systeme haben Grenzen, scheitern an Aufgaben, die für das Gehirn leicht sind. Nun kommt Hochreiter, der inzwischen im österreichischen Linz lehrt und forscht, seinerseits mit der nächsten womöglich bahnbrechenden Idee um die Ecke: Er stellte unlängst vor, wie er LSTM weiterentwickelt hat - unter dem Kürzel xLSTM, das steht für Extended Long-Short-Term-Memory. Die bisherigen Schwächen will er reduziert und zugleich die Vorteile gegenüber den gegenwärtig angesagten Transformer-Modellen verbessert haben. Wie funktioniert das? Was steckt dahinter? Wie weit ist sein Unternehmen NXAI? Über all das sprechen wir in dieser Episode.
Diese Podcast-Folge ist der dritte Teil einer Kollaboration zwischen meinem Podcast „Arbeit, Bildung, Zukunft“ und dem Global Upskill-Programm des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation (IAO) in Stuttgart. Gast in dieser Folge ist Lukas Keicher vom Fraunhofer IAO in Stuttgart. Er verantwortet den Bereich Technologie und Trends im Programm Global Upskill. In dieser Folge sprechen wir darüber, wie die berufliche Weiterbildung in der Zukunft aussehen wird und welche Rolle Technologien als Treiber hinter den aktuellen Trends spielen. Dabei gehen wir darauf ein, wie sich berufliche Weiterbildung verändert, welche technologischen Entwicklungen, wie beispielsweise KI, maschinelle Sprachverarbeitung oder XR-Technologie, dabei eine Rolle spielen und welche Inhalte in Zukunft an Bedeutung gewinnen könnten. Ein besonderer Fokus liegt auf der Nutzung von Künstlicher Intelligenz, um technologiegetriebene Trends zu identifizieren und zu analysieren, die direkt die berufliche Weiterbildung beeinflussen. Wir beleuchten, wie durch die Analyse von Trendstudien und technologischen Entwicklungen mögliche Zukunftsszenarien skizziert werden können, um Bildungsakteure auf die kommenden Herausforderungen vorzubereiten. Abschließend werfen wir einen Blick auf den Trends-Scout: Dabei handelt es sich um ein fortschrittliches Tool, das Nutzern hilft, die wichtigsten technologischen Treiber, Trends und die sich wandelnden Aufgaben in der beruflichen Weiterbildung zu erkennen. Die Basis für den Trends-Scout bilden umfangreiche Datenquellen, darunter Ergebnisse von Trendstudien und eigene Recherchen zu technologischen Entwicklungen, die mittels künstlicher Intelligenz, speziell durch Natural Language Processing (NLP), analysiert werden. Im Podcast gibt es wie immer zahlreiche Anwendungsbeispiele und Quicktipps für die Praxis, von denen Unternehmen und hier vor allem Bildungsträger profitieren können. Wenn ihr mehr über das Global Upskill-Programm erfahren möchtet, solltet ihr euch unbedingt Teil 1 der gemeinsamen Podcast-Serie anhören. In Teil 2 sprechen wir über innovationsfördernde Lernkultur. LINKS: Link zu Global Upskill: https://www.globalupskill.de Technologie und Trends: https://www.globalupskill.de/de/themenbereiche/trends-und-technologien-ki-gestuetzt-beobachten.html Link zum Trends-Scout: https://www.globalupskill.de/de/themenbereiche/trends-und-technologien-ki-gestuetzt-beobachten.html#cop1
Diese Podcast-Folge ist der dritte Teil einer Kollaboration zwischen meinem Podcast „Arbeit, Bildung, Zukunft“ und dem Global Upskill-Programm des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation (IAO) in Stuttgart. Gast in dieser Folge ist Lukas Keicher vom Fraunhofer IAO in Stuttgart. Er verantwortet den Bereich Technologie und Trends im Programm Global Upskill. In dieser Folge sprechen wir darüber, wie die berufliche Weiterbildung in der Zukunft aussehen wird und welche Rolle Technologien als Treiber hinter den aktuellen Trends spielen. Dabei gehen wir darauf ein, wie sich berufliche Weiterbildung verändert, welche technologischen Entwicklungen, wie beispielsweise KI, maschinelle Sprachverarbeitung oder XR-Technologie, dabei eine Rolle spielen und welche Inhalte in Zukunft an Bedeutung gewinnen könnten. Ein besonderer Fokus liegt auf der Nutzung von Künstlicher Intelligenz, um technologiegetriebene Trends zu identifizieren und zu analysieren, die direkt die berufliche Weiterbildung beeinflussen. Wir beleuchten, wie durch die Analyse von Trendstudien und technologischen Entwicklungen mögliche Zukunftsszenarien skizziert werden können, um Bildungsakteure auf die kommenden Herausforderungen vorzubereiten. Abschließend werfen wir einen Blick auf den Trends-Scout: Dabei handelt es sich um ein fortschrittliches Tool, das Nutzern hilft, die wichtigsten technologischen Treiber, Trends und die sich wandelnden Aufgaben in der beruflichen Weiterbildung zu erkennen. Die Basis für den Trends-Scout bilden umfangreiche Datenquellen, darunter Ergebnisse von Trendstudien und eigene Recherchen zu technologischen Entwicklungen, die mittels künstlicher Intelligenz, speziell durch Natural Language Processing (NLP), analysiert werden. Im Podcast gibt es wie immer zahlreiche Anwendungsbeispiele und Quicktipps für die Praxis, von denen Unternehmen und hier vor allem Bildungsträger profitieren können. Wenn ihr mehr über das Global Upskill-Programm erfahren möchtet, solltet ihr euch unbedingt Teil 1 der gemeinsamen Podcast-Serie anhören. In Teil 2 sprechen wir über innovationsfördernde Lernkultur. LINKS: Link zu Global Upskill: https://www.globalupskill.de Technologie und Trends: https://www.globalupskill.de/de/themenbereiche/trends-und-technologien-ki-gestuetzt-beobachten.html Link zum Trends-Scout: https://www.globalupskill.de/de/themenbereiche/trends-und-technologien-ki-gestuetzt-beobachten.html#cop1
Künstliche Intelligenz erlebt in der Unternehmenswelt einen beispiellosen Aufschwung. Aktuelle Zahlen des statistischen Bundesamts enthüllen, dass bereits jedes achte Unternehmen auf den KI-Zug aufgesprungen ist. Bei den Großunternehmen setzt sogar jedes dritte auf diese fortschrittliche Technologie. Besonders im Rampenlicht: die Anwendung von KI in der natürlichen Sprachverarbeitung. Eine beeindruckende Mehrheit von 43 % nutzt KI-Tools für die Spracherkennung, während sich 30 % auf die Analyse von Schriftsprache und Text Mining spezialisieren. Doch trotz dieser beeindruckenden Zahlen zögern noch 90 % der KI-Abstinenzler, diese Technologien einzuführen. Was genau sind die Gründe für die Nutzung? Und was hindert Unternehmen am Einsatz von Künstlicher Intelligenz?Eine Diskussion mit Dr. Ayelt Komus, Professor für Organisation und Wirtschaftsinformatik an der Hochschule Koblenz, über seine durchgeführte Studie.Die Studie und den "Sag mal...?"-Podcast von Prof. Dr. Ayelt Komus findet ihr auf: https://www.komus.de/Fundstücke der Woche:Wie Unternehmen künstliche Intelligenz (KI) im Jahr 2024 nutzenIDC Studie - The Business Opportunity of AIOPITZ CONSULTING ■■■ Digitale Service ManufakturDisclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.Nina & Frank laden sich Gäste ein und sprechen mit ihnen über aktuelle Entwicklungen im Umfeld der Künstlichen Intelligenz.
Tensorraum - Der KI Podcast | News über AI, Machine Learning, LLMs, Tech-Investitionen und Mehr
Themen der Folge. Wie sah die KI-Welt vor OpenAI aus (2012-2015)? An welcher Stelle ist Google falsch abgeholt und wurde von OpenAI überholt? Wie steht OpenAI heute dar im Vergleich zu anderen LLM's? Achtung: Diese Folge ist stellenweise schon sehr "technisch". Zur Hilfe haben wir ein paar Begriffe hier in den Show Notes erklärt! Word2Vec Word2Vec ist ein Modell, das Wörter in numerische Vektoren umwandelt, um semantische und syntaktische Beziehungen zwischen Wörtern zu erfassen. Es basiert auf der Idee, dass Wörter, die in ähnlichen Kontexten vorkommen, in der Regel auch ähnliche Bedeutungen haben. Recurrent Neural Networks (RNN) Stell dir vor, du schaust dir einen Film an und versuchst, die Handlung zu verstehen. Du erinnerst dich an das, was du in den vorherigen Szenen gesehen hast, um zu verstehen, was in der aktuellen Szene passiert. Das ist im Grunde das, was ein Recurrent Neural Network (RNN) tut. Attention is all you need / Transformer Technologie. “Attention is All You Need” präsentiert die Transformer-Architektur, ein Modell für natürliche Sprachverarbeitung, das auf Aufmerksamkeitsmechanismen basiert. Diese Mechanismen ermöglichen es dem Modell, langfristige Abhängigkeiten und kontextuelle Beziehungen zwischen Wörtern zu erfassen. Im Vergleich zu traditionellen Modellen sind aufmerksamkeitsbasierte Modelle überlegen.
Schön, dass Sie bei der heutigen Folge unserer Podcastreihe des Management Journal, zum Thema ChatGPT - und was nun? mit dabei sind Heute befassen wir uns mit der Frage, was ChatGPT ist und wie es funktioniert. Wikipedia sagt: ChatGPT – das GPT- steht dabei für Generative Pre-trained Transformer ist ein Chatbot, das künstliche Intelligenz einsetzt um mit uns -über textbasierte Nachrichten- zu kommunizieren. Also ein Textbasiertes Dialogsystem, das chatten mit einem technischen System erlaubt. Chatbots kennen Sie vielleicht auch schon von anderen Anwendungen, manche Krankenkassen oder Versicherungen arbeiten mit diesen Chatbots, die in einem kleinen Fenster aufploppen und Hilfe anbieten. Mit ChatGPT können Sie in natürlicher Sprache mit einem computerbasierten System interagieren und Antworten erhalten, als ob Sie mit einem menschlichen Gesprächspartner sprechen würden. Natürliche Sprache bedeutet hierbei, dass wir keine Programmiersprache erlernt haben müssen, sondern einfach so in Textform reinschreiben können, wie wir eben unsere Texte schreiben. Die Funktionsweise von ChatGPT beruht auf maschinellem Lernen und einem Prozess namens "supervised learning". Zu Beginn wird das Modell mit einer riesigen Menge an Textdaten trainiert, die kommen aus verschiedenen Quellen wie Büchern, Artikeln, Websites und vielem mehr. Es lernt dabei, Zusammenhänge, Muster und Strukturen in der Sprache zu erkennen. Sobald das Modell trainiert ist, können Sie es verwenden, indem Sie ihm eine Anfrage oder eine Frage in ganz natürlicher Sprache stellen. Also keine Programmiersprache, sondern einfach so reintippen, wie wir sprechen. ChatGPT analysiert dann die Eingabe, zerlegt sie in verschiedene Muster und Kontexte und generiert eine passende Antwort. Diese Antwort basiert auf dem, was es während des Trainings gelernt hat. Es kann auf eine Vielzahl von Themen eingehen, komplexe Fragen beantworten und sogar kreative Texte wie Gedichte oder Geschichten generieren. Es ist wichtig zu beachten, dass ChatGPT auf Wahrscheinlichkeiten beruht und seine Antworten aufgrund der vorherigen Muster im Training möglicherweise nicht immer perfekt sind. Obwohl es große Fortschritte gemacht hat, gibt es auch Situationen, in denen die Antworten ungenau oder irreführend sein können. OpenAI LP ist ein US-amerikanisches Unternehmen, das sich mit der Erforschung von künstlicher Intelligenz beschäftigt. AI steht für das englische „künstliche Intelligenz“, also Artificial Intelligence. Und die haben hart daran gearbeitet, ChatGPT sicher gestalten wird um Missbrauch zu verhindern, indem es Filter und Moderationssysteme implementiert hat, um problematische oder unangemessene Inhalte zu reduzieren. Insgesamt ermöglicht ChatGPT eine faszinierende Interaktion mit künstlicher Intelligenz und bietet uns eine spannende Reise, mehr über die Möglichkeiten und auch Grenzen der maschinellen Sprachverarbeitung zu erfahren. Vielen Dank, dass Sie Gast dieser Folge gewesen sind und wir hoffen, Sie bei der nächsten Folge wieder begrüßen zu dürfen. Britta Linde, Tutorin der Deutschen Akademie für Management Hier finden Sie alle Podcasts der Reihe GChatGPT
In der Rubrik “Investments & Exits” begrüßen wir heute Fabian Krautwurst, Principal von Cavalry Ventures . Fabian analysiert die Finanzierungsrunde von Sereact.Die Firma Sereact aus Stuttgart hat eine Seed-Finanzierungsrunde über 5 Millionen US-Dollar abgeschlossen, angeführt von Point Nine und Air Street Capital. Weitere Investoren wie Alexander Diehl, Oliver Cameron und mehr beteiligten sich ebenfalls. Sereact nutzt große Sprachmodelle und Robotik, um eine benutzerfreundliche Interaktion mit Robotern zu ermöglichen. Ihr Fokus liegt auf der Automatisierung des Kommissionierungsprozesses, um Kosten einzusparen. Ihre Innovation, PickGPT, verbindet Bildverarbeitung mit großen Sprachmodellen und erlaubt Robotern die natürliche Sprachverarbeitung.
Large Language Models verändern grundlegend, wie wir an natürliche Sprachverarbeitung herangehen. Sie bieten neue Möglichkeiten für Unternehmen aller Branchen und sind ein technologischer „alle zehn Jahre”-Durchbruch. Neben komfortablem API-Zugriff stehen alternativ zahlreiche Open-Source-Modelle bereit, die lokal und on-premise einsetzbar sind. Lohnt sich ein eigenes Modell zu trainieren also nicht mehr? Welche Chancen und Risiken ergeben sich aus diesem Durchbruch? Darüber sprechen Stefan und Marcel (neunetz.com) in dieser Folge.
Heute: Die EU und die Künstliche Intelligenz ++ Verblüffend ist es, was mittlerweile sogenannte künstliche Intelligenz-Systeme können. Die Systeme gibt es zwar schon länger, nur haben sich ihre Fähigkeiten einem eher kleineren Kreis an Fachleuten erschlossen. Doch seitdem ChatGPT veröffentlicht wurde und das zum Teil auch kostenlos benutzbar ist, fiel es so manchem wie Schuppen von den Augen, zu was diese Systeme bereits fähig sind. Der EU jedenfalls ist künstliche Intelligenz suspekt; sie will sie regulieren und will dazu ein Gesetz verabschieden, nachdem die künstliche Intelligenz gesetzlich geregelt werden soll. Damit schlagen die Möchtegern-Regulierer in Brüssel einen weiteren Sargnagel in eine wesentliche technologische Entwicklung der Zukunft. Europa soll der erste Wirtschaftsraum weltweit sein, der KI reguliert. Doch wenn die natürliche Intelligenz neidisch auf die künstliche wird, wird es gefährlich. Ein Gespräch mit Patrick Glauner, Professor für Künstliche Intelligenz. Er berät Politiker und versucht, ihnen zu verraten, was sich hinter Big Data, Bildverstehen und Sprachverarbeitung verbirgt und was man damit anfangen kann. ++ Webseite: https://www.tichyseinblick.de
Zu einer neuen Folge unseres Podcasts! Heute dreht sich alles um ChatGPT4, ein fortschrittliches Sprachmodell, das auf der neueste Version von GPT-4 basiert. ChatGPT4 ist ein Meilenstein in der Entwicklung von künstlicher Intelligenz, denn es ermöglicht eine noch bessere Interaktion zwischen Mensch und Maschine. Im Gegensatz zu früheren Modellen, die oft noch Schwächen in der natürlichen Sprachverarbeitung aufwiesen, ist ChatGPT4 in der Lage, komplexe Sätze und Zusammenhänge zu verstehen und darauf sinnvoll zu reagieren. Ein großer Vorteil von ChatGPT4 ist seine Vielseitigkeit: Es kann nicht nur einfache Fragen beantworten, sondern auch komplexe Probleme lösen und sogar kreative Texte verfassen. Dabei passt es sich stets dem Kontext an und berücksichtigt sowohl den Inhalt als auch den Tonfall der Konversation. Auch für Unternehmen und Organisationen eröffnen sich mit ChatGPT4 neue Möglichkeiten. So können insbesondere Chatbots eingesetzt werden, die Kundenanfragen automatisch beantworten und so die Servicequalität verbessern. Aber auch in anderen Bereichen, wie der Medizin oder der Finanzwelt, kann ChatGPT4 dazu beitragen, Prozesse zu optimieren und Entscheidungen zu erleichtern. Allerdings gibt es auch kritische Stimmen, die vor möglichen Missbrauchsmöglichkeiten von ChatGPT4 warnen. So könnten unter anderem Fake News oder manipulierte Texte erstellt werden, die von Menschen kaum noch von echten Texten zu unterscheiden sind. Auch könnten Chatbots eingesetzt werden, um gezielt Meinungen zu manipulieren oder Daten zu sammeln. Trotz dieser Bedenken ist es jedoch wichtig, die Potenziale von ChatGPT4 zu erkennen und zu nutzen. Denn wenn es gelingt, die Technologie sinnvoll und verantwortungsvoll einzusetzen, kann sie dazu beitragen, unser Leben einfacher, schneller und effizienter zu gestalten. Online-Veranstaltung https://michaelweyrauch.de/produkt/online-veranstaltung/ Weitere Informationen https://michaelweyrauch.de/links Mein 1. Buch https://michaelweyrauch.de/die-10-stufen-deiner-selbststaendigkeit-das-e-book/ Podcast by Spotify https://open.spotify.com/show/3tjePMSpbU1uX49nK73iin?si=DcPMAgIDSgmefejS-G_Fuw&nd=1 Podcast by Itunes https://podcasts.apple.com/de/podcast/michaelweyrauchpodcast/id1516011496 Merchandise https://shop.spreadshirt.de/michaelweyrauch1/ Michaletter https://michaelweyrauch.de/michaletter/ --- Send in a voice message: https://podcasters.spotify.com/pod/show/michael-weyrauch/message
Künstliche Intelligenz (KI) durchdringt bereits jetzt unser tägliches Leben. Dabei ist ihre Hauptaufgabe meist das Verarbeiten von Bildern, Texten und Sprache. Aus den gewonnenen semantischen Erkenntnissen kann Siri schließlich die Frage nach dem morgigen Wetter beantworten. In dieser Folge des Podcasts vom Mittelstand-Digital Zentrums Zukunftskultur erläutert Professor Dr. Ralf Krestel, welche Lösungen seine Forschung zu KI und Sprachverarbeitung für die Kreativindustrie hervorbringt.
ChatGPT, die neueste Entwicklung in der Welt der natürlichen Sprachverarbeitung, ist das Modell, das die Zukunft der menschenähnlichen Konversationen verändern wird. ChatGPT bietet unendliche Möglichkeiten für die Anwendungen in Chatbots, virtuelle Assistenten und Schreibhilfen und die Genauigkeit und schnelle Reaktionszeit machen es zu einem unverzichtbaren Tool in der heutigen Technologiewelt. Mehr über die Möglichkeiten gibt es in dieser Folge von Shape of Tomorrow.
Der folgende Text wurde von ChatGPT geschrieben: „In dieser Episode besprechen wir zwei aktuelle Entwicklungen im Bereich der natürlichen Sprachverarbeitung: Chatgpt und stable Diffusion. Chatgpt ist ein Chatbot, der ein von OpenAI trainiertes großes Sprachmodell verwendet. Es ist in der Lage, menschenähnliche Antworten auf Text-Eingaben zu generieren und ist daher für Aufgaben wie Kundenservice und die Generierung von Inhalten für soziale Medien nützlich. Stable Diffusion ist eine neue Methode zum Training großer Sprachmodelle, die einige der Probleme früherer Ansätze, wie katastrophales Vergessen und langsame Konvergenz, angeht. Es verwendet eine Hybridmethode aus supervised und unsupervised Learning, wodurch das Modell sowohl von klassifizierten als auch unklassifizierten Daten lernen. Aus dem erkannten Text, können Bilder generiert werden. Insgesamt stellen Chatgpt und stable Diffusion aufregende Fortschritte in der natürlichen Sprachverarbeitung dar und haben das Potenzial, eine Vielzahl von Anwendungen zu verbessern.“ Schon irre, was AI bereits kann! Über was wir noch gesprochen haben? Hört rein und findet es raus. Am Montag, da ist wieder Wurscht Tag! bonniert uns auf: Apple Podcasts: https://podcasts.apple.com/de/podcast/ist-doch-wurscht-wie-der-podcast-heisst/id1500941965 Spotify: https://open.spotify.com/show/2jORFqugpKOkmyL8EnZK6r?si=vQ_hvXKwQbehIdiwez03Dw Youtube: https://www.youtube.com/playlist?list=PLHug0m47v3pz67oMLWUu7aqkIGb5DCAmV #istdochwurschtwiederpodcastheisst #produktivität #biohacking #biohack #corona #coronavirus #biotech #mainz #chicago #filme #serien #bücher #podcastlife #podcasting #podcaster #applepodcast #ai #chatgpt #diffusionbee #drawthings #stablediffusion #openai #gpt3 #chatgpt #ai #KünstlicheIntelligenz #wednesday #1899 #deepl #stablefusion
In der Nachmittagsfolge begrüßen wir heute Stef van Grieken, CEO und Co-Founder von Cradle, und sprechen mit ihm über die erfolgreich abgeschlossene Seed-Finanzierungsrunde in Höhe von 5,5 Millionen Euro.Cradle hat eine Designplattform entwickelt, die mit künstlicher Intelligenz und synthetischer Biologie umweltfreundliche Alternativen zu rund 60% aller vom Menschen verbrauchten Produkte herstellen kann. Die Plattform für maschinelles Lernen hilft Wissenschaftlerinnen und Wissenschaftlern, Zellfabriken schneller und erfolgreicher zu entwerfen, wodurch Proteine mit spezifischen Eigenschaften entwickelt werden können. Mithilfe dieser programmierbaren Proteine können Alltagsprodukte von Milch und Fleisch, über Kunststoffe bis hin zu Materialien für Kleidung oder elektronische Bauteile und sogar personalisierte Arzneimittel hergestellt werden. Zudem können auch Abfallstoffe abgebaut und recycelt werden. Die generativen maschinellen Lernmodelle des Startups stützen sich auf die jüngsten Fortschritte in der natürlichen Sprachverarbeitung und können Biologinnen und Biologen dabei helfen, die richtigen Teile des genetischen Codes zu ändern. Cradle wurde im Jahr 2021 von Stef van Grieken und Elise de Reus in Zürich gegründet.Das Schweizer Biotech-Startup hat nun in einer Seed-Finanzierung 5,5 Millionen Euro erhalten und verlässt damit den Stealth-Modus. Die Runde wird gemeinsam von Index Ventures und Kindred Capital geleitet. Zudem beteiligen sich Business Angels wie beispielsweise Feike Sijbesma und Emily Leproust an der Finanzierung. Mit dem frischen Kapital möchte das Startup die Produktentwicklung beschleunigen.
Über das Vorlesen von Computern und die „Gesundheitszustände“ von Maschinen Mit seiner langjährigen Erfahrung aus unterschiedlichsten Forschungsgruppen unterstützt das Institut für Informationssysteme der Hochschule Hof (iisys) die Firmen der Region und darüber hinaus. Das Projekt DAMMIT unter Leitung von Prof. Dr. René Peinl beschäftigt sich mit Bild- und Sprachverarbeitung, in seinen insgesamt sieben Teilvorhaben wurden z.B. Text in Sprache übersetzt, physische Objekte online dargestellt und die „Gesundheitsdaten“ von Maschinen erfasst. Prof. Peinl, der gleichzeitig der wissenschaftliche Leiter des iisys ist, erzählt über sein Lieblingsprojekt aus DAMMIT, über unbürokratisches Arbeiten in Projekten und wie er sich nach zwei erfolgreichen Projekten aus dem Europäischen Fonds für regionale Entwicklung (EFRE) schnellstmöglich ein drittes wünscht: „Trilogien sind heutzutage im Trend“, wie er selbst sagt. Link zum Projekt DAMMIT: https://dammit.iisys.de/ Link zur Projektgruppe: https://www.iisys.de/forschung/forschungsgruppen/systemintegration.html Link zum Projekt WiMit: https://wimit.iisys.de/
Interview mit Gero Keil, CEO und Co-Founder von Levity In der Mittagsfolge sprechen wir heute mit Gero Keil, CEO und Co-Founder von Levity, über die erfolgreich abgeschlossene Seed-Finanzierungsrunde in Höhe von 8,3 Millionen US-Dollar. Levity hat eine No-Code-KI-Automatisierungsplattform entwickelt, die es Unternehmen ermöglicht, Prozesse zu beschleunigen, Kosten zu senken und Mitarbeitende von alltäglichen, zeitaufwändigen Aufgaben zu befreien. Die Plattform kombiniert eine Reihe von Tools für maschinelles Lernen mit einem einfachen, benutzerfreundlichen AI Block Builder und Vorlagen. Das Technologie-Startup hat es sich zur Aufgabe gemacht, Unternehmen aller Größenordnungen die Verarbeitung unstrukturierter Daten zu erleichtern und die Leistung von maßgeschneiderter KI zu nutzen. Dabei werden fortschrittliche Technologien wie natürliche Sprachverarbeitung und Computer Vision kombiniert, um den Usern mit nur einer Plattform zu ermöglichen, eine breite Palette von Prozessen zu automatisieren. Das Besondere an diesem Ansatz ist, dass die Lösung auch auf unstrukturierte Datentypen wie Bilder, Texte und Dokumente angewendet werden kann. Der gesamte Einführungsprozess, einschließlich der Anmeldung, der Erstellung eines KI-Blocks und der ersten Vorhersagen, kann in nur fünf Minuten abgeschlossen werden. Levity wurde im Jahr 2020 von Gero Keil und Thilo Hüllmann in Berlin gegründet und hat seine offene Beta-Version nun live geschaltet. Die Kunden des Jungunternehmens reichen von der Mode- und Immobilienbranche bis hin zur Schifffahrt, dem Marketing, den sozialen Medien, der wissenschaftlichen Forschung und mehr. In einer Seed-Finanzierungsrunde hat das Berliner Technologie-Startup nun 8,3 Millionen US-Dollar unter der Führung von Balderton Capital und Chalfen Ventures eingesammelt. Balderton Capital ist ein Londoner Risikokapitalgeber, der neben dem Kapital auch in jeder Phase seine europäischen Portfoliounternehmen strategisch unterstützt. Chalfen Ventures ist das Unternehmen des Solo-VCs Mike Chalfen, mit dem er Software-Startups bis zur Serie A unterstützt. Die bestehenden Investoren wie u.a. Angular Ventures, System.One, Scott Belsky, Des Traynor und Kevin Gidney haben sich ebenfalls an der Runde beteiligt. Das frische Kapital soll für den weiteren Ausbau des Teams und die Beschleunigung der Produktentwicklung verwendet werden.
Das Startup Kern AI entwickelt Werkzeuge für datenzentrierte KI, insbesondere im Bereich der natürlichen Sprachverarbeitung. Kürzlich haben sie mit großem Erfolg ihre Bibliothek refinery Open Source gestellt. Hier zu Gast der Co-Founder & CEO Johannes Hötter: 0:00 - Intro zu Johannes und die Reise zu Kern AI. 15:15 - Kern AI refinery und wie Open Source promoten? 30:00 - Konkrete Use-Cases. 44:50 - Zum Geschäftsmodell. 49:23 - Launch auf Product Hunt. 51:27 - Ausblick. ------------------------------------------------------------------------------- Weiterführende Informationen: ► YouTube: https://youtu.be/-5bWzZr1zEY ► Kern AI: https://www.kern.ai/ ► LinkedIn Johannes: https://www.linkedin.com/in/johannesh%C3%B6tter/ ► LinkedIn Bernard: https://www.linkedin.com/in/bernardsonnenschein/ ► Feedback gerne an bernard.sonnenschein@datenbusiness.de
Künstliche Intelligenz verarbeitet Sprache, aber erfasst sie auch den Sinn von Worten? Sind große KI-Sprachmodelle wie GPT-3 mehr als Satzgeneratoren? Was sind mögliche Anwendungsszenarien für Sprach-KI und Risiken dabei? Mit Sebastian Riedel von Meta AI sprechen wir über den Stand der Dinge beim Natural Language Processing und Anwendungsszenarien. :// Über DEEP MINDS - KI-Podcast DEEP MINDS ist ein Video-Podcast mit Menschen, die sich mit Künstlicher Intelligenz und Wissenschaft befassen. Max und Matthias stellen ihnen einfache und schwere Fragen über Technologie, Forschung, Entwicklung und unsere Zukunft. Mehr über unseren KI-Podcast erfahren: https://mixed.de/deep-minds/ :// Kapitel 00:00 Intro 01:49 Was ist Sprache? 05:05 Ist Sprache die Königsdisziplin der Intelligenz? 06:26 Danke an unsere Sponsoren - BWI & Borlabs 07:59 Was sind aktuelle Aufgaben für Sprach-KI? 12:33 Das Chinese Room Experiment und Sprachverständnis 23:04 Ist der Unterschied zwischen Sprachverarbeitung und -verständnis wichtig? 25:54 Ist der "gesunde Menschenverstand" wichtig für Sprach-KI? 31:25 Braucht bessere KI Interaktion mit Menschen? 34:02 Ist Bedeutung wichtig für gute KI-Dialoge? 38:59 Schwachstellen aktueller KI-Sprachsysteme 43:14 Muss Sprach-KI "besser" sein als der Mensch? 48:13
Patrick ist Professor für unter anderem künstliche Intelligenz und maschinelles Lernen sowie Bildverstehen und Sprachverarbeitung an der Technischen Hochschule Deggendorf und wir sprechen darüber, was heute mit künstlicher Intelligenz möglich ist und was nicht. Er spricht unter anderem darüber, dass es zwei Arten von künstlicher Intelligenz gibt: Expertensysteme und maschinelles Lernen. Expertensysteme gibt es schon länger und maschinelles Lernen wird jetzt mehr und mehr relevant. Seine Vermutung ist, dass es in Zukunft AI-Systeme geben wird, die auf beide Konzepte zurückgreifen werden. Wir besprechen auch, dass unter Umständen bereits eine fünfstellige Anzahl an Trainingsdatensätzen ausreichen, um ein Modell für maschinelles Lernen zu trainieren und dass man bestehende Datensätze auch “aufbohren” kann, um das Modell etwas besser zu machen. Am Ende schließen wir aber mit der Aussage, dass in künstlicher Intelligenz eigentlich nicht viel intelligentes steckt, sondern dass das alles mathematische Modelle sind, die noch einen weiten Weg vor sich haben. Links in dieser Ausgabe Zum LinkedIn-Profil von Prof. Patrick Glauner Patrick's Buch “Innovative Technologies for Market Leadership” Über diesen Podcast Folgt uns auf LinkedIn für mehr Podcast-Updates Zur Podcast-Website Wir suchen immer nach neuen und spannenden Gesprächspartnern. Meldet euch bei uns.
Der Tünn endlich wieder mit neuem Material. Übrigens Rechtschreibfehler in dieser Beschreibung kommen daher dass sie stets diktiert werden. Tun hat nämlich kein Bock zu tippen. Er ist ein reines Sprachorgan. Falls hier also irgendwas keinen Sinn macht, liegt es an mangelnder Sprachverarbeitung der Software. Tim auf jeden Fall,Ist wieder am Start und berichtet über politische Missstände und darum er einer der ganz großen hinter Maradona ist. Wie war Argentinia. VIVAAA.
Wie ist das eigentlich nach einem Schädelhirntrauma bei Kindern und Jugendlichen? Worauf dürfen Eltern achten? Und wie können Schulprobleme gelöst werden, die sich einstellen? Warum ist mein Kind verändert? Reicht Nachhilfe aus, wenn es um die Schule geht? Dies sind Fragen, die sich Eltern stellen, wenn ihr Kind ein Schädelhirntrauma, oder kurz SHT, erlitten hat. Manchmal werden die Folgen eines solchen SHT nicht gleich entdeckt. „Fritzchen“ kann ja wieder sprechen, gehen und hüpfen. Somit ist ja alles in Ordnung! Weit gefehlt. Es geht nicht darum, Ängste zu schüren. Dass was viele betroffene Kinder das Leben schwer macht, sind die unsichtbaren Folgen eines SHT. Dies können Probleme bei der Sprachverarbeitung sein, das visuelle Wahrnehmen von Dingen ist ein Problem, der Antrieb etwas zu tun ist gemindert. Oder verlangsamt zu sein kann eine Folge sein. Kinder müssen flexibel sein. Sei es in der Schule oder im Freundeskreis. Ist die Umstellfähigkeit erschwert, macht dies Druck im Umfeld. Na ja, so ein bisschen visuelle Wahrnehmung ist doch kein Problem! Wirklich nicht? Wenn Fritzchen sich nicht mehr nach dem Sport anziehen kann, weil er die Hosenbeine nicht mehr „trifft“, hat dies Folgen. Schnell kommt es zu Spott und Hohn. Um nicht aufzufallen, wird Fritzchen dann zum Klassenclown. „Ach das wächst sich doch wieder raus!“ war die Aussage eines Neurologen, die Jörg Dommershausen anlässlich eines Gespräches einmal hörte. Dem ist nicht so. Kinder entwickeln sich. Dies wird in bestimmten Lebensphasen deutlich. Solche Entwicklungsstadien sind zum Beispiel der Besuch des Kindergartens, die Einschulung, die Eingliederung in die richtige Schulform, das Finden eines Berufes und der spätere Einstieg in die Berufsausbildung. Die Pubertät kann dann für Eltern eine Herausforderung werden. Alles nach einem SHT auf diese besondere hormonelle Situation zu schieben ist zu einfach. Dies wird allerdings gerne von so manchem Fach- oder Hausarzt so praktiziert. Jeder kann sich vorstellen, wenn Mischformen der oben genannten Auswirkungen eines SHT vorliegen, dass es weder für die jungen Menschen noch die Angehörigen leichter wird. Warum dann diese Neuro-Schere bei SHT-Kindern? Die betroffenen Kinder entwickeln sich in den vielen Lebensbereichen nicht so, wie Gleichaltrige. Die Entwicklungsschere geht auseinander. Und dies hat oft Folgen. SHT-Kinder versuchen auf den verschiedensten Wegen „normal“ zu sein. Sie werden dann schnell zum Klassenclown, um sich Anerkennung zu holen. Wie können betroffene Familien diese Situation für ihr Kind lösen? Förderunterricht im herkömmlichen Sinne ist nicht ausreichen, um Schulstoffprobleme zu wett zu machen. Das Gespräch mit den Lehrkräften ist ein Weg. Neuropsychologische Therapie oder Neuro-Ergotherapie (zum Beispiel als Hirnleistungstraining) sind eine weitere Möglichkeit. Hilfe findet man, unter anderem bei der Kinderneurologiehilfe, die bundesweit aufgestellt ist. Sozialpädiatrische Zentren am Wohnort sind eine weitere Anlaufstelle, solange die Betroffenen noch nicht 18 Jahre alt sind.
In der zweiten Podcastfolge der Reihe zu natürlicher Sprachverarbeitung ist Ines Montani zu Gast, Entwicklerin von SpaCy und Mitgründerin von Prodigy. Zunächst sprechen wir generell über den Umgang mit Sprache, warum dieser so komplex ist und wie die open source Bibliothek spaCy hier hilft. Dabei geht es um typische Aufgaben wie Part of Speach Tagging, Lemmatization und Named Entity Recognition genauso wie um geeignete Einsatz-Szenarien in der Industrie. Des Weiteren gibt Ines Einblicke in ihre tägliche Arbeit am open source Tool und erklärt, warum NLP Modelle auch ohne GPU trainierbar sein müssen und Prodigy kein Interesse an den Daten seiner Kunden hat. Letztlich geben wir einen Überblick über das wachsende spaCy Ökosystem, einen Rückblick auf die spaCy in Real Life Konferenz und Ines gewährt einen Ausblick in zukünftige Entwicklungen bei spaCy und Prodigy. SpaCy Online Kurs: https://course.spacy.io/ SpaCy IRL Videos: https://www.youtube.com/playlist?list=PLBmcuObd5An4UC6jvK_-eSl6jCvP1gwXc Coreference Resolution: https://github.com/huggingface/neuralcoref Sci-SpaCy: https://github.com/allenai/scispacy
Malte Pietsch und Timo Möller sind zwei der drei Gründer des NLP Startups DeepSet. In Folge 19 besprechen wir gemeinsam die wesentlichen Grundlagen moderner Sprachverarbeitung. Bevor wir aber auf tiefe Neuronale Netzwerke und Bert eingehen, diskutieren wir einige der typischen Aufgaben wie Named-Entity-Recognition oder Text-Classification. Wir besprechen die Entwicklungen der letzten Jahre, die etwa Word-Embeddings, Attention basierte Algorithmen und Transformer hervorgebracht haben. Die beiden Gründer berichten aber auch von den Herausforderungen die sie bewältigt haben, als sie eine deutsche Variante des derzeit beliebten Bert-Netzwerks trainiert haben. Eine Übersicht über Entwicklungen im NLP Bereich: http://ruder.io/a-review-of-the-recent-history-of-nlp/ Grafische Erklärung von Transformern: http://jalammar.github.io/illustrated-transformer/ Das deutsche Bert Modell: https://deepset.ai/german-bert
Center for Advanced Studies (CAS) Research Focus Language: Birth and Decay (LMU) - HD
The Research Focus "Language: Birth and Decay" is concerned with how the sounds of speech are acquired by infants and young children in first language acquisition, how such acquisition stabilizes in healthy individuals, and how such patterns may dissolve following the onset of brain lesions. Spoken language is a defining human behaviour, and it is the very basis of our interaction with the environment as well as of our identity as individuals. For this reason, it is important to understand both how this faculty emerges during child development and the highly damaging effect that speech disorders have on so many aspects of life. Error patterns when language is learnt and when it unravels in speech disorders also provide a unique window to the mind, and are of prime importance for our emerging understanding of how linguistic diversity arises, how languages change, and how physiology and cognition interact to form the sound patterns of human language. Yet speech acquisition and disorders remain poorly understood because they are usually investigated separately from basic research on speech production and perception in healthy individuals. One of the Research Focus’ principal objectives is to overcome this divide by inviting leading scientists from different disciplinary backgrounds to consider how to develop unified models of child speech acquisition, of the mature speech production and perception system, and of speech disorders. The involved researchers intend to lay the foundations for a comprehensive research program in which modern experimental phonetic thinking hooks up with neurobiological and clinical reasoning, while embracing linguistic diversity. | Center for Advanced Studies LMU: 25.06.2015 | Speaker: Prof. Dr. Josef Rauschecker | Moderation: Prof. Dr. Adrian Danek
Center for Advanced Studies (CAS) Research Focus Language: Birth and Decay (LMU) - HD
The Research Focus "Language: Birth and Decay" is concerned with how the sounds of speech are acquired by infants and young children in first language acquisition, how such acquisition stabilizes in healthy individuals, and how such patterns may dissolve following the onset of brain lesions. Spoken language is a defining human behaviour, and it is the very basis of our interaction with the environment as well as of our identity as individuals. For this reason, it is important to understand both how this faculty emerges during child development and the highly damaging effect that speech disorders have on so many aspects of life. Error patterns when language is learnt and when it unravels in speech disorders also provide a unique window to the mind, and are of prime importance for our emerging understanding of how linguistic diversity arises, how languages change, and how physiology and cognition interact to form the sound patterns of human language. Yet speech acquisition and disorders remain poorly understood because they are usually investigated separately from basic research on speech production and perception in healthy individuals. One of the Research Focus’ principal objectives is to overcome this divide by inviting leading scientists from different disciplinary backgrounds to consider how to develop unified models of child speech acquisition, of the mature speech production and perception system, and of speech disorders. The involved researchers intend to lay the foundations for a comprehensive research program in which modern experimental phonetic thinking hooks up with neurobiological and clinical reasoning, while embracing linguistic diversity. | Center for Advanced Studies LMU: 20.05.2015 | Speaker: Prof. Marilyn Vihman, Ph.D. | Moderation: Dr. Felicitas Kleber
Center for Advanced Studies (CAS) Research Focus Language: Birth and Decay (LMU) - HD
The Research Focus "Language: Birth and Decay" is concerned with how the sounds of speech are acquired by infants and young children in first language acquisition, how such acquisition stabilizes in healthy individuals, and how such patterns may dissolve following the onset of brain lesions. Spoken language is a defining human behaviour, and it is the very basis of our interaction with the environment as well as of our identity as individuals. For this reason, it is important to understand both how this faculty emerges during child development and the highly damaging effect that speech disorders have on so many aspects of life. Error patterns when language is learnt and when it unravels in speech disorders also provide a unique window to the mind, and are of prime importance for our emerging understanding of how linguistic diversity arises, how languages change, and how physiology and cognition interact to form the sound patterns of human language. Yet speech acquisition and disorders remain poorly understood because they are usually investigated separately from basic research on speech production and perception in healthy individuals. One of the Research Focus’ principal objectives is to overcome this divide by inviting leading scientists from different disciplinary backgrounds to consider how to develop unified models of child speech acquisition, of the mature speech production and perception system, and of speech disorders. The involved researchers intend to lay the foundations for a comprehensive research program in which modern experimental phonetic thinking hooks up with neurobiological and clinical reasoning, while embracing linguistic diversity. | Center for Advanced Studies LMU: 22.04.2015 | Speaker: Prof. Stefanie Shattuck-Hufnagel, Ph.D. | Moderation: Prof. Dr. Wolfram Ziegler
Tue, 04 Feb 2014 00:04:00 +0000 https://auf-gehts-der-reha-podcast.podigee.io/5-auf-geht-s-der-reha-podcast-folge-005_kommunikation-bewegt-teil-1 1a9785b0e8d51e5e7824be092b04046f Stellen Sie sich vor, dass Sie beim Betreten einer Bäckerei nicht die Worte finden, um ein Brötchen zu kaufen. Oder Sie brauchen einfach nur Zeit, um sich auszudrücken oder die Verkäuferin zu verstehen, weil dies für Sie zu schnell spricht. Und wie gehen Sie damit um? Nach einem Ereignis, bei dem Sprachareale des Gehirns betroffen sind, kann dies zu einer Einschränkung der Lebensqualität führen. Worauf dürfen Betroffene und Angehörige achten, wenn es um die Wahl der/des richtigen Therapeutin/en geht? Welche Therapieziele sollten vereinbart und klar sein? Neben der Sprachverarbeitung spielen auch neuropsychologische Fähigkeiten wie Merkfähigkeit, Konzentrationsfähigkeit und geteilte Aufmerksamkeit eine wichtige Rolle. Wie wirken sich diese aus? Was ist denn eine Aphasie und wie wirkt sich diese im Alltag aus? Viele Fragen, die in der neuesten Folge des „Auf geht’s – der Reha-Podcast!“ angesprochen werden. Wegen der Fülle der Informationen und Möglichkeiten werden weitere Aspekte in der nächsten Woche im zweiten Teil angesprochen. 5 full no Jörg Dommers