POPULARITY
Es scheint gewaltig, welche Sprünge künstliche Intelligenz in den letzten Jahren gemacht hat. Wir sprechen darüber, wie ChatGPT und Co. die Welt verändert haben und welche Welle da möglicherweise auf uns zukommt. Lässt sich das in der Zukunft noch irgendwie eindämmen und sollten wir das überhaupt versuchen? Entbrennt jetzt der Wettlauf um die Super-KI, wann entwickeln die ein Bewusstsein und was machen die dann mit uns Menschen? Als wir vor 5 Jahren den ersten Teil aufnahmen, (Folge #107) hätten wir niemals gedacht, was im Jahr 2025 schon alles Realität ist. – – – Links zum Thema: Roboter & AI - Teil 1 (Folge #107): https://open.spotify.com/episode/3WJ9H6Db24vc9bjVN0RoDg?si=dons8DPrSqigbzY2q90y_w Black Metal AI Videos: https://www.youtube.com/watch?v=RP1OiUV13KQ Buchtipp: The Coming Wave (Suleyman, Mustafa / Bhaskar, Michael) – – – LINKTREE Alle wichtigen Links zu uns findet ihr hier: https://linktr.ee/kackundsach – – – PODCAST KAPITEL (00:05:54) Recap Teil 1 und Ausblick auf die Folge (00:17:10) Neuronale Netzwerke und Deep Learning (00:19:13) Large Language Models (Chat GPT) (00:46:57) Robotik Updates (01:16:18) Die kommende KI Welle (01:43:38) Der Wettlauf um die Super-KI (02:00:29) Turing-Test 2.0 ? (02:13:42) KI und Bewusstsein (02:38:20) Gedankenexperimente, und Urheberrecht (02:51:06) Destruktive KI (02:58:35) Technologische Singularität und die Zukunft – – – Kack & Sachgeschichten - Der Podcast mit Klugschiss http://www.kackundsach.de/ Bleib auf dem Laufenden mit dem Kacki WhatsApp Kanal: https://bit.ly/kuswhatsapp – – – ausführliche Beschreibung: Der Wettlauf um künstliche Intelligenz. Während 2019 noch über ethische Fragen von KI spekuliert wurde, erleben wir heute einen Boom von Large Language Models wie ChatGPT. Die Hosts diskutieren, wie KI inzwischen Texte verfasst, Code generiert und sogar kreative Prozesse unterstützt. Doch was bedeutet das für die Gesellschaft? Besonders spannend: Der Podcast nimmt sich das sogenannte "Containment-Problem" vor – die Frage, ob eine KI-Welle überhaupt noch aufzuhalten ist. Die Antwort scheint klar: Wahrscheinlich nicht. Die Technologie verbreitet sich zu schnell und mit zu vielen Möglichkeiten, um sie einzuschränken. Doch die Hosts werfen eine beunruhigende Frage auf: Wann ersetzen Roboter tatsächlich menschliche Arbeitsplätze? Erste Anzeichen gibt es bereits in der Logistik, Produktion und Pflege. Künstliche Intelligenz und Bewusstsein – Science Fiction oder bald Realität? Eine der philosophischsten Diskussionen der Folge: Kann KI Bewusstsein entwickeln? Die Hosts sprechen über neuronale Netzwerke und wie sie menschliches Denken nachahmen. Spannende Gedankenspiele werden aufgeworfen, z. B.: Das "chinesische Zimmer" – Versteht eine KI wirklich, was sie tut, oder imitiert sie nur menschliches Verhalten? Theory of Mind – Wird eine KI jemals eigene Ziele und Wünsche haben? Der Touring-Test rückwärts – Wann müssen Menschen beweisen, dass sie keine KI sind? Die Meinung im Podcast ist gespalten. Während einige die KI-Revolution optimistisch sehen, warnen andere davor, dass wir nicht wissen, was wir da gerade erschaffen. Eine Folge voller Spekulationen, Science-Fiction-Vibes und der unweigerlichen Erkenntnis: Die Zukunft ist längst da.
Seit dem globalen Erfolg von Anwendungen wie ChatGPT ist Künstliche Intelligenz (KI) ein Thema, das die Welt beschäftigt und wohl nachhaltig verändern wird. Richard Socher ist einer der weltweit führenden Köpfe bei der Entwicklung KI-gestützter Technologien. Im Podcast "Thema in Sachsen" bei Sächsische.de spricht der gebürtige Dresdner über große Chancen, das Überwinden von Ängsten gegenüber Innovationen und seine ganz eigene Vision: mit seinem Start-up You.com den Giganten Google zu überholen. Für Richard Socher ist das, was seit anderthalb Jahren am KI-Markt passiert, eigentlich keine Überraschung. Der 40-Jährige beschäftigt sich schon seit mehr als 10 Jahren intensiv mit der Entwicklung sogenannter neuronaler Netze. An den renommierten Universitäten Princeton und Standford hat er geforscht, einen Doktor gemacht und anschließend als Chefentwickler des Weltkonzerns Salesforce sein Wissen im Cloud-Bereich eingebracht. Dennoch sagt er: "Es ist unglaublich spannend, was passiert ist, seit die Firma Open AI ChatGPT herausgebracht hat. Die Technologie gab es zwar vorher schon, aber die wirklich so zusammenzupacken, dass Menschen damit interagieren können, hat sehr viele Forscher motiviert, jetzt erst richtig loszulegen." Richtig loslegen, das macht auch Socher selbst. Und zwar mit seinem Start-up You.com. Vereinfacht ausgedrückt, handelt es sich dabei um den Anbieter einer Suchmaschine. Jedoch, so sagt es der frühere Dresdner, kann seine Erfindung mehr als Google. Doch kann er damit den milliardenschweren Konzern überholen? Socher ist überzeugt davon und findet mehrere Erklärungen dafür. Eine ist allerdings verbunden mit einer weniger guten Nachricht für Europa generell und für Deutschland im Speziellen ... Weitere Schwerpunkte des Podcast-Interviews: - Muss KI besser reguliert werden? - Ab wann ist auch für KI-Enthusiasten eine Risiko-Grenze erreicht? - Welche großen Chancen bietet der Einzug von KI in den Alltag?
Alexa, Siri und jetzt Chat-GPT: Zeitenwende jetzt auch im Internet? Ranga Yogeshwar berichtet im Mutmachpodcast von Funke über neuronale Netzwerke, statistische Katzen und falsche Ehefrauen. Dazu: Wenn Maschinen den perfekten shitstorm entfachen. Welche Jobs wird es bald nicht mehr geben? Wer entlarvt die Fake News der Maschinen? Welcher Ethik folgt KI? Kampf der Weltmächte und der Go-Moment des chinesischen Staatspräsidenten Xi. Transformer-Models und Laufsteg-Models. Halluzinierende Maschinen. Avatare als Podcast-Hosts. Plus: Das Datendilemma: So verpesten wir die Inhalte, mit denen die KI gefüttert wird. Folge 542
Ein KI-Audioexperiment von Christine Nagel über Sprachsynthese. Eine Radio-Moderatorin nutzt ein individuelles Sprachsynthese- und Sprech-Erkennungstool, um ihre persönliche KI-Stimme zu entwickeln. Als sie das Spiel ins Laufen bringt, meint sie Freiheit zu gewinnen. SIREN, Maries künstliche Stimme, verbindet sich mit allen möglichen lebenden und toten Geistern im Netz, unter anderem mit Hannah Arendt, deren Äußerungen und Ideen verfügbar geblieben sind. SIREN stellt ihr Fragen, die unsere Gegenwart betreffen. Christine Nagels Hörspiel thematisiert, was die Digitalisierung mit der menschlichen Stimme machen kann - und das, was (möglicherweise) nicht gelingt. Dies betrifft zum Beispiel ethische, rechtliche und Fragen der Firmenphilosophie der Anbieter und Programmierer von Sprachtools. Neuronale Netzwerke ermöglichen, dass sich KI-Stimmen selbst generieren. Sie reichern sich an mit Wissen und Strukturen des im Internet verfügbaren Materials. Doch wer ist der Urheber? Wer übernimmt die Verantwortung für die Lügen, die durch sie in der Welt sind und Marie zugeschrieben werden? Und: Was ist das Menschliche an der Stimme? Die KI-Stimme SIREN wurde für diese Hörspiel-Produktion programmiert. Damit befragt Christine Nagel spielerisch die technischen Entwicklungen unserer Gegenwart mit den dem Hörspiel eigenen Mitteln und stellt akute, gesellschaftspolitische Fragen. Mit Paulina Bittner (Marie), Ilse Ritter (Seele), Dietrich Eichmann (Dr. Leopold Gran, Redakteur in Ruhestand), Paul Hentze (Theobald Fahl, Redakteur), Lauren Newton (Gesangslehrerin), Lena Stolze (Ärztin), Manuel Bittorf (Sprechstundenhilfe), Birgit Beßler (Bankangestellte), einer KI-Stimme sowie Prof. Ingo Siegert, KI-Forscher Joscha Bach und Stimmen aus dem täglichen Leben. Idee, Manuskript und Regie: Christine Nagel. Komposition und Sprachaufnahmen: Peter Ehwald. Gesang: Lauren Newton. Tonschnitt und Mischung: Laura Schneider. Dramaturgie: Michael Becker. Produktion im Auftrag von NDR/DLF 2021. Gefördert durch die Senatsverwaltung für Kultur und Europa. https://ndr.de/radiokunst
Künstliche neuronale Netze werden von sozialen Medien wie Twitter und Facebook intensiv genutzt, um Inhalte zu empfehlen, die den Vorlieben der Nutzer entsprechen. Dieser Prozess ist jedoch enorm energieintensiv und entsprechend umweltschädlich. Forscher raten zu bewusster Nutzung, statt übermäßigem Konsum. Web: https://www.epochtimes.de Probeabo der Epoch Times Wochenzeitung: https://bit.ly/EpochProbeabo Twitter: https://twitter.com/EpochTimesDE YouTube: https://www.youtube.com/channel/UC81ACRSbWNgmnVSK6M1p_Ug Telegram: https://t.me/epochtimesde Gettr: https://gettr.com/user/epochtimesde Facebook: https://www.facebook.com/EpochTimesWelt/ Unseren Podcast finden Sie unter anderem auch hier: iTunes: https://podcasts.apple.com/at/podcast/etdpodcast/id1496589910 Spotify: https://open.spotify.com/show/277zmVduHgYooQyFIxPH97 Unterstützen Sie unabhängigen Journalismus: Per Paypal: http://bit.ly/SpendenEpochTimesDeutsch Per Banküberweisung (Epoch Times Europe GmbH, IBAN: DE 2110 0700 2405 2550 5400, BIC/SWIFT: DEUTDEDBBER, Verwendungszweck: Spenden) Vielen Dank! (c) 2022 Epoch Times
digital kompakt | Business & Digitalisierung von Startup bis Corporate
In der neuen AI Unplugged Episode sprechen Rasmus Rothe und Jasper Masemann über die Möglichkeiten und Einsatzgebiete von Künstlicher Intelligenz und Sprache. In diesem Bereich gab es im Jahr 2020 einige Fortschritte. Rasmus und Jasper erklären dir wichtige Grundlagen zu verschiedenen AI Tools, welche mit Sprache arbeiten, und geben dir ein technisches Grundverständnis. Du erfährst... 1) …warum die Verarbeitung von Sprache in Neuronalen Netzwerken so komplex ist 2) …auf welche Art und Weise verschiedene AI-Tools Sprache verarbeiten 3) …wie größere Neuronale Netzwerke die Verarbeitung von Sprache vorangetrieben haben 4) …warum nicht nur bessere Computer der Schlüssel zu optimierten AI-Tools sind
In der neuen AI Unplugged Episode sprechen Rasmus Rothe und Jasper Masemann über die Möglichkeiten und Einsatzgebiete von Künstlicher Intelligenz und Sprache. In diesem Bereich gab es im Jahr 2020 einige Fortschritte. Rasmus und Jasper erklären dir wichtige Grundlagen zu verschiedenen AI Tools, welche mit Sprache arbeiten, und geben dir ein technisches Grundverständnis. Du erfährst... 1) …warum die Verarbeitung von Sprache in Neuronalen Netzwerken so komplex ist 2) …auf welche Art und Weise verschiedene AI-Tools Sprache verarbeiten 3) …wie größere Neuronale Netzwerke die Verarbeitung von Sprache vorangetrieben haben 4) …warum nicht nur bessere Computer der Schlüssel zu optimierten AI-Tools sind
Hörspiel-Experiment von Christine Nagel. Eine Radio-Moderatorin nutzt ein individuelles Sprachsynthese- und Sprech-Erkennungstool, um ihre persönliche KI-Stimme zu entwickeln. Als sie das Spiel ins Laufen bringt, meint sie Freiheit zu gewinnen. SIREN, Maries künstliche Stimme, verbindet sich mit allen möglichen lebenden und toten Geistern im Netz, unter anderem mit Hannah Arendt, deren Äußerungen und Ideen verfügbar geblieben sind. SIREN stellt ihr Fragen, die unsere Gegenwart betreffen. Christine Nagels Hörspiel thematisiert, was die Digitalisierung mit der menschlichen Stimme machen kann - und das, was (möglicherweise) nicht gelingt. Dies betrifft zum Beispiel ethische, rechtliche und Fragen der Firmenphilosophie der Anbieter und Programmierer von Sprachtools. Neuronale Netzwerke ermöglichen, dass sich KI-Stimmen selbst generieren. Sie reichern sich an mit Wissen und Strukturen des im Internet verfügbaren Materials. Doch wer ist der Urheber? Wer übernimmt die Verantwortung für die Lügen, die durch sie in der Welt sind und Marie zugeschrieben werden? Und: Was ist das Menschliche an der Stimme? Die KI-Stimme SIREN wurde für diese Hörspiel-Produktion programmiert. Damit befragt Christine Nagel spielerisch die technischen Entwicklungen unserer Gegenwart mit den dem Hörspiel eigenen Mitteln und stellt akute, gesellschaftspolitische Fragen. Die Programmierung erfolgte in Zusammenarbeit mit dem Institut für Informations- und Kommunikationstechnik, Universität Magdeburg, Prof. Dr.-Ing. Ingo Siegert, und mit Joscha Bach, Kognitionswissenschaftler & KI-Forscher in San Francisco. Die Schauspielerin Paulina Bittner, deren Stimme zugrunde liegt, wurde im Studio immer wieder mit einem neuen Programmierstadium konfrontiert und reagierte im Dialog darauf. Dieser halb-dokumentarische Ansatz macht das Hörspiel zu einem Experiment: Ob und in welche Richtung sich die künstliche Intelligenz im Verlauf der Programmierung entwickeln würde, war bei Beginn der Aufnahmen nicht vorhersehbar. Mit Paulina Bittner (Marie), Ilse Ritter (Seele), Dietrich Eichmann (Dr. Leopold Gran, Redakteur in Ruhestand), Paul Hentze (Theobald Fahl, Redakteur), Lauren Newton (Gesangslehrerin), Lena Stolze (Ärztin), Manuel Bittorf (Sprechstundenhilfe), Birgit Beßler (Bankangestellte), einer KI-Stimme sowie Prof. Ingo Siegert, KI-Forscher Joscha Bach und Stimmen aus dem täglichen Leben. Idee, Manuskript und Regie: Christine Nagel. Komposition und Sprachaufnahmen: Peter Ehwald. Gesang: Lauren Newton. Tonschnitt und Mischung: Laura Schneider. Dramaturgie: Michael Becker. Produktion im Auftrag von NDR/DLF 2021 l ca. 55 min. Gefördert durch die Senatsverwaltung für Kultur und Europa. Verfügbar bis 10.03.2022. https://ndr.de/radiokunst
Die Augen, das Tor zur Seele? Wohl eher das ganze Gesicht! In dieser Folge sprechen wir -- das sind CCC, Marius und Niklas -- über die Bedeutung des Gesichts, was diese vermeintlich alltägliche Gestalt so besonders macht und worin sich menschliche und computerbasierte Gesichtserkennung unterscheiden. Wir ergründen die Rolle des Kontextes und sprechen darüber, warum das Weiße in den Augen (die Sclera) so wichtig für unsere Interaktion ist. Und: The horse is the white of the eyes and dark within!
Bei seinem KI-Podcast „AI unplugged“ spricht KI-Experte und Solvemate-Gründer Erik Pfannmöller regelmäßig mit Experten und Unternehmern über innovative Themen, Gründungen und Trends aus dem Bereich Künstliche Intelligenz. In dieser Folge klären wir Begriffe rund um maschinelles Lernen und erklären, was Algorithmen sind. Du erfährst... 1)...welche Formen von Künstlichen Intelligenzen es gibt 2)...wie KIs lernen 3)...was Algorithmen sind und welche Arten es gibt 4)...warum Daten wichtiger als der Algorithmus sind
Nach einem braven Christkind und bei viel Weihnachtsbier ratschen wir diesmal mit der Südtiroler Computerlinguistin Barbara Plank über künstliche Intelligenz, neuronale Netze, machine learning, Forschung in Südtirol und darüber, ob Alexa, Siri & Co. bald Dialekt verstehen wird.
Thema heute: Rekordjahr für Spracherkennung im Gesundheitswesen Mit der Inbetriebnahme der Telematikinfrastruktur und neuer eHealth Gesetzgebung begibt sich das deutsche Gesundheitswesen auf den Pfad der Digitalisierung. So soll ab Anfang dieses Jahres der eArztbrief eingeführt werden; das eRezept soll folgen. Damit dies gelingt, setzen die Krankenhäuser jetzt in großem Stil auf Spracherkennung – denn am Anfang aller Digitalisierung steht die Informationserfassung. Die Nachfrage erreichte im Jahr 2018 ein Rekordniveau. Erstmals wurden innerhalb eines Jahres über 15.000 weitere Ärztinnen und Ärzte in Deutschland mit Nuance Spracherkennung ausgestattet. Insgesamt setzen nun die Hälfte der deutschen Krankenhäuser die Spracherkennung von Nuance ein - darunter die drei größten privaten Gesundheitsanbieter und fast alle Universitätskliniken. „Wurde früher Spracherkennung vor allem in Fachabteilungen mit einem hohen Befundaufkommen, beispielsweise in der Radiologie oder Pathologie, verwendet, so zeichnete sich in den vergangenen achtzehn Monaten ein deutlicher Trend Richtung krankenhausweitem Einsatz der Spracherkennung ab,“ sagt man bei Nuance. Die Entwicklung in der Schweiz verläuft ebenso eindeutig wie in Deutschland. Die Nachfrage wird von der bevorstehenden Einführung des elektronischen Patientendossiers weiter gestärkt, welches ab Anfang 2020 in allen Kantonen bereitgestellt werden wird. Neben der allgemeinen Digitalisierung des Gesundheitswesens hat der Einsatz künstlicher Intelligenz die Akzeptanz und Nutzung von Spracherkennung erhöht. Neuronale Netzwerke und Deep Learning erzielen eine bisher unerreichte Erkennungsgenauigkeit. „Die einst futuristische Spracherkennung ist heute Alltagstechnologie; in vier bis fünf Jahren wird sie im gesamten Gesundheitswesen zur Basisinfrastruktur gehören. Basierend darauf können wir dann neue Lösungen anbieten, beispielsweise im Bereich der Cloud-Infrastruktur oder klinischer Assistenzsysteme für Ärzte. Diese erfreuen sich bereits heute in den USA großem Interesse und können bald auch in Europa das Arbeitsumfeld von Ärzten sicherer und bequemer machen“, so das Unternehmen. Um diesem Ziel näher zu kommen, betreibt Nuance die branchenweit größte Forschungs- und Entwicklungsabteilung mit mehr als 2.000 Experten weltweit. Neben der Einbindung in innovativen Forschungsprojekten im Pflegebereich wie beispielsweise MoreCare oder Sprint-Doku engagiert sich Nuance unter anderem am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und forscht dort gemeinsam mit anderen Global Players. Diesen Beitrag können Sie nachhören oder downloaden unter:
Malte Pietsch und Timo Möller sind zwei der drei Gründer des NLP Startups DeepSet. In Folge 19 besprechen wir gemeinsam die wesentlichen Grundlagen moderner Sprachverarbeitung. Bevor wir aber auf tiefe Neuronale Netzwerke und Bert eingehen, diskutieren wir einige der typischen Aufgaben wie Named-Entity-Recognition oder Text-Classification. Wir besprechen die Entwicklungen der letzten Jahre, die etwa Word-Embeddings, Attention basierte Algorithmen und Transformer hervorgebracht haben. Die beiden Gründer berichten aber auch von den Herausforderungen die sie bewältigt haben, als sie eine deutsche Variante des derzeit beliebten Bert-Netzwerks trainiert haben. Eine Übersicht über Entwicklungen im NLP Bereich: http://ruder.io/a-review-of-the-recent-history-of-nlp/ Grafische Erklärung von Transformern: http://jalammar.github.io/illustrated-transformer/ Das deutsche Bert Modell: https://deepset.ai/german-bert
Thema heute: Rekordjahr für Spracherkennung im Gesundheitswesen Mit der Inbetriebnahme der Telematikinfrastruktur und neuer eHealth Gesetzgebung begibt sich das deutsche Gesundheitswesen auf den Pfad der Digitalisierung. So soll ab Anfang dieses Jahres der eArztbrief eingeführt werden; das eRezept soll folgen. Damit dies gelingt, setzen die Krankenhäuser jetzt in großem Stil auf Spracherkennung – denn am Anfang aller Digitalisierung steht die Informationserfassung. Die Nachfrage erreichte im Jahr 2018 ein Rekordniveau. Erstmals wurden innerhalb eines Jahres über 15.000 weitere Ärztinnen und Ärzte in Deutschland mit Nuance Spracherkennung ausgestattet. Insgesamt setzen nun die Hälfte der deutschen Krankenhäuser die Spracherkennung von Nuance ein - darunter die drei größten privaten Gesundheitsanbieter und fast alle Universitätskliniken. „Wurde früher Spracherkennung vor allem in Fachabteilungen mit einem hohen Befundaufkommen, beispielsweise in der Radiologie oder Pathologie, verwendet, so zeichnete sich in den vergangenen achtzehn Monaten ein deutlicher Trend Richtung krankenhausweitem Einsatz der Spracherkennung ab,“ sagt man bei Nuance. Die Entwicklung in der Schweiz verläuft ebenso eindeutig wie in Deutschland. Die Nachfrage wird von der bevorstehenden Einführung des elektronischen Patientendossiers weiter gestärkt, welches ab Anfang 2020 in allen Kantonen bereitgestellt werden wird. Neben der allgemeinen Digitalisierung des Gesundheitswesens hat der Einsatz künstlicher Intelligenz die Akzeptanz und Nutzung von Spracherkennung erhöht. Neuronale Netzwerke und Deep Learning erzielen eine bisher unerreichte Erkennungsgenauigkeit. „Die einst futuristische Spracherkennung ist heute Alltagstechnologie; in vier bis fünf Jahren wird sie im gesamten Gesundheitswesen zur Basisinfrastruktur gehören. Basierend darauf können wir dann neue Lösungen anbieten, beispielsweise im Bereich der Cloud-Infrastruktur oder klinischer Assistenzsysteme für Ärzte. Diese erfreuen sich bereits heute in den USA großem Interesse und können bald auch in Europa das Arbeitsumfeld von Ärzten sicherer und bequemer machen“, so das Unternehmen. Um diesem Ziel näher zu kommen, betreibt Nuance die branchenweit größte Forschungs- und Entwicklungsabteilung mit mehr als 2.000 Experten weltweit. Neben der Einbindung in innovativen Forschungsprojekten im Pflegebereich wie beispielsweise MoreCare oder Sprint-Doku engagiert sich Nuance unter anderem am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und forscht dort gemeinsam mit anderen Global Players. Diesen Beitrag können Sie nachhören oder downloaden unter:
digital kompakt | Business & Digitalisierung von Startup bis Corporate
Bei seinem KI-Podcast „AI unplugged“ spricht KI-Experte und Solvemate-Gründer Erik Pfannmöller regelmäßig mit Experten und Unternehmern über innovative Themen, Gründungen und Trends aus dem Bereich Künstliche Intelligenz. In dieser Folge klären wir Begriffe rund um maschinelles Lernen und erklären, was Algorithmen sind. Du erfährst... 1)...welche Formen von Künstlichen Intelligenzen es gibt 2)...wie KIs lernen 3)...was Algorithmen sind und welche Arten es gibt 4)...warum Daten wichtiger als der Algorithmus sind
Thema heute: Rekordjahr für Spracherkennung im Gesundheitswesen Mit der Inbetriebnahme der Telematikinfrastruktur und neuer eHealth Gesetzgebung begibt sich das deutsche Gesundheitswesen auf den Pfad der Digitalisierung. So soll ab Anfang dieses Jahres der eArztbrief eingeführt werden; das eRezept soll folgen. Damit dies gelingt, setzen die Krankenhäuser jetzt in großem Stil auf Spracherkennung – denn am Anfang aller Digitalisierung steht die Informationserfassung. Die Nachfrage erreichte im Jahr 2018 ein Rekordniveau. Erstmals wurden innerhalb eines Jahres über 15.000 weitere Ärztinnen und Ärzte in Deutschland mit Nuance Spracherkennung ausgestattet. Insgesamt setzen nun die Hälfte der deutschen Krankenhäuser die Spracherkennung von Nuance ein - darunter die drei größten privaten Gesundheitsanbieter und fast alle Universitätskliniken. „Wurde früher Spracherkennung vor allem in Fachabteilungen mit einem hohen Befundaufkommen, beispielsweise in der Radiologie oder Pathologie, verwendet, so zeichnete sich in den vergangenen achtzehn Monaten ein deutlicher Trend Richtung krankenhausweitem Einsatz der Spracherkennung ab,“ sagt man bei Nuance. Die Entwicklung in der Schweiz verläuft ebenso eindeutig wie in Deutschland. Die Nachfrage wird von der bevorstehenden Einführung des elektronischen Patientendossiers weiter gestärkt, welches ab Anfang 2020 in allen Kantonen bereitgestellt werden wird. Neben der allgemeinen Digitalisierung des Gesundheitswesens hat der Einsatz künstlicher Intelligenz die Akzeptanz und Nutzung von Spracherkennung erhöht. Neuronale Netzwerke und Deep Learning erzielen eine bisher unerreichte Erkennungsgenauigkeit. „Die einst futuristische Spracherkennung ist heute Alltagstechnologie; in vier bis fünf Jahren wird sie im gesamten Gesundheitswesen zur Basisinfrastruktur gehören. Basierend darauf können wir dann neue Lösungen anbieten, beispielsweise im Bereich der Cloud-Infrastruktur oder klinischer Assistenzsysteme für Ärzte. Diese erfreuen sich bereits heute in den USA großem Interesse und können bald auch in Europa das Arbeitsumfeld von Ärzten sicherer und bequemer machen“, so das Unternehmen. Um diesem Ziel näher zu kommen, betreibt Nuance die branchenweit größte Forschungs- und Entwicklungsabteilung mit mehr als 2.000 Experten weltweit. Neben der Einbindung in innovativen Forschungsprojekten im Pflegebereich wie beispielsweise MoreCare oder Sprint-Doku engagiert sich Nuance unter anderem am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und forscht dort gemeinsam mit anderen Global Players. Diesen Beitrag können Sie nachhören oder downloaden unter:
1. Ein neuronales Netzwerk besteht aus einer Menge von Neuronen, die Signale empfangen und versenden können. 2. Ein Neuron gewichtet, d.h. bewertet, die empfangen Signale und entscheidet abhängig von einem Aktivierungspotenzial, was für einen Wert es versendet 3. Neuronale Netzwerke unterteilen sich in drei Schichten: 1. Eingabeschicht, 2. die Hidden- oder Deep-Schicht und 3. die Ausgabeschicht
twitter: @weik_david 1. Suche & Optimierung 2. Logik 3. Methoden der Wahrscheinlichkeit für unsicheres Schließen 4. Klassifizierung und statistische Lernmethoden 5. Künstliche Neuronale Netzwerke
„Zahlen haben kein Bauchgefühl und kennen keine Provisionen!“ – Big Data Urgestein Klaus Schlitt, Geschäftsführer der Big Data Analysis GmbH, spricht mit Oliver Kemmann in „Das Digitale Sofa“ über Big Data gestützte Einkaufs- und Controlling Prediction. Der Physiker und Serien-Gründer Klaus Schlitt beschäftigt sich schon seit Mitte der Achtziger Jahre mit der Verarbeitung großer Datenengen. Er gibt verständliche Einblicke in typische Anwendungsbeispiele der Big Data Analyse und spricht über Formeln, Constraints und Neuronale Netze. So wird das oft als abstrakt wahrgenommene Thema Big Data plötzlich greifbar und anschaulich – und selbst Nicht-Mathematikern verständlich erklärt. Reinhören lohnt sich! 00:00 Intro & Begrüßung 00:59 Vorstellung: Klaus Schlitt & Big Data Analysis GmbH 02:51 Big Data Analysis: Wie funktioniert es? + Beispiel für den typischen Big Data Analysis Case 10:13 Qualität der Daten 13:30 Formeln & Constraints 19:40 Neuronale Netzwerke 26:17 Mensch & Maschine – ein Ausblick 31:22 Literaturtipps Michio Kaku: http://mkaku.org/ Michio Kaku - „Die Physik der Zukunft. Unsre Leben in 100 Jahren“: https://www.rowohlt.de/taschenbuch/michio-kaku-die-physik-der-zukunft.html Michio Kaku - „Die Physik des Unmöglichen“: https://www.rowohlt.de/taschenbuch/michio-kaku-die-physik-des-unmoeglichen.html DataCamp: https://www.datacamp.com/ Neuronale Netze: https://martinhaunschmid.com/kunstliche-intelligenz-wie-ein-neuronales-netz-funktioniert/ Einstieg in die Statistik: https://de.udacity.com/course/intro-to-statistics--st101 Fragerunde 34:46 Ab wann ist Data Big Data? 37:47 Warum wird Phyton, eine ältere Programmiersprache, wieder häufiger genutzt? 38:40 Wie hoch ist der Anteil an Machine Learning Algorithmen? Mehr Infos zu Big Data Analysis GmbH findet ihr hier: https://bd-a.de/ Bei Fragen und Anmerkungen oder Verbesserungsvorschlägen, schickt uns gerne eine E-Mail an: DasDigitaleSofa@kemweb.de Der Podcast wird live und vor Publikum sowohl als (360°-)Video als auch als Audiofile aufgezeichnet. Zum 360°-Video auf YouTube geht es hier: https://youtu.be/RHSbaWGLxkU Folgt uns auch auf unseren anderen Social-Media-Kanälen: Facebook: www.facebook.com/KEMWEB/ Twitter: twitter.com/kemweb?lang=de Instagram: @kemweb20 YouTube: https://www.youtube.com/channel/UCVG4bhoxrFQ0cHVfDaJv1wA XING: www.xing.com/companies/kemwebgmbh&co.kg LinkedIn: de.linkedin.com/company/kemweb-gmbh-&-co-kg
Folge 6 behandelt das Thema Machine Vision, also wie man Computer vergleichbar zur menschlichen Wahrnehmung das Sehen beibringen kann. Stanislav Frolov erklärt, warum diese Aufgabe so schwierig ist und für welche Anwendungsgebiete neben dem autonomen Fahren diese Verfahren noch benötigt werden. Es werden sowohl Grundbegriffe wie Klassifizierung, Lokalisierung und Deduktion erklärt und was in den letzten 60 Jahren Forschung erreicht wurde. Natürlich geht es auch um Neuronale Netzwerke bzw. CNNs, welche im Detail erklärt werden. Nach einer grundlegenden Einführung werden auch einige populäre Netzwerkarchitekturen wie GoogleNet, YOLO angerissen
Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU
Mon, 19 Jul 2010 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/12176/ https://edoc.ub.uni-muenchen.de/12176/1/Eichenmueller_Kerstin.pdf Eichenmüller, Kerstin ddc:150, ddc:100, Fakultät für Psychologie und Pä