POPULARITY
zeig dich und sprich - Podcast für Experten*, die ihrer Botschaft eine Stimme geben wollen
Was passiert mit unserer Stimme, wenn KI täuschend echt für uns spricht? Was verändert sich für uns als Hörende und Sprechende dabei? Gemeinsam erforschen wir in dieser Folge, ob und warum selber sprechen zählt, was KI besser als wir kann und was du deshalb als Sprecher und Sprecherin beachten solltest. In dieser Folge erfährst du: *Was KI-Stimmen der menschlichen Stimme voraus haben – und was nicht *Was die menschliche Stimme wirklich ausmacht *Warum du weiterhin selber sprechen solltest *Wie du die Magie deines eigenen Sprechens bewusst nutzen kannst Die Shownotes/ weiterführende Links Instrument des Jahres 2025: Die Stimme Erfahre mehr über die Wahl der Stimme zum Instrument des Jahres 2025 und die geplanten Veranstaltungen:
In dieser Podcast-Folge spreche ich gemeinsam mit Amber (ChatGPT) über die rasante Entwicklung neuer KI-Tools im Jahr 2024 und wie sie die Arbeit von Musikproduzenten radikal verändern. Egal ob Sprachsynthese, automatisierte Mix- und Mastering-Helfer oder Kompositionsassistenten – wir beleuchten, welche Chancen und Herausforderungen KI für uns Kreative mit sich bringt und wie wir sie sinnvoll in unseren Produktionsalltag integrieren können. Neugierig auf mehr? Dann wirf einen Blick in mein neues Buch „Künstliche Intelligenz in der Musik- und Audioproduktion“ – jetzt erhältlich auf Amazon: https://amzn.eu/d/gfoojon Hier geht's zum Video: Behind The Passion – Eine Thomann Dokumentation https://youtu.be/vpnNdijhyeY
Die Slowakei hautnah, Magazin über die Slowakei in deutscher Sprache
Nachrichten, Tagesthema. Magazin: Auswirkungen des Klimawandels auf die Flusssysteme und Verfügbarkeit von Wasser. Sprachsynthese-Forschung am Institut für Informatik der Slowakischen Akademie der Wissenschaften.
Nach dem üblichen Weihnachts-Tohuwabohu und der eher trägen Silvester-Stimmung geht es nun auf ins Schaltjahr der spekulatiösen Halbweisheiten. Nach dem zu Beginn üblichen Tiefenfeuerwerk der Altherrenwitze ziemt sich Stephan an, über Herkunft und Bedeutung der Monatsnamen hinreichend unzulänglich aufzuklären. Pietsch spricht über das hohe Aggressionspotential der Gesellschaft zum Jahresausklang, zweifelt aber die Sinnhaftigkeit von Knallerverbot und Zentralfeuerwerk an. Nova zieht über Prequel-Sequels her und versinkt in wüsten Dünen fremder Welten, während Stephan die Action-Blockbuster der 80er hochleben lässt. Echte Masken und Effekte sind - wie geraffte Storylines – Grund genug, um ihn in die üblichen User-Storys verfallen zu lassen. Wie zu Weihnachten üblich, kommt aber auch hier im Podcast niemand am Essen vorbei und die bisherigen vielen Nachsätze kehren sich um, in echte Ausblicke auf gute Vorsätze für das Podcast-Jahr 2024. Stümperei³- … The great Farewell-Tour 2024 kick-off! Kritik, Themenvorschläge und Tassenbestellungen an: halbwissenhoch2@gmail.com
Sprachsynthese-Software (TTS) ist, vor allem in den letzten Jahren, in aller Munde. So gibt es zahlreiche Projekte, die sich eine möglichst natürliche Stimme als Ziel gesetzt haben. TTS-Enthusiast Thorsten Müller hat es sich zur Aufgabe gemacht, seine eigene Stimme zu synthetisieren und teilt seine Beweggründe und Erfahrungen. Das neueste Highlight: der erste in ein Modell gegossene Regiolekt.
Entdecke, wie Dir Elevenlab zur Sprachsynthese bei der Produktion von Audio-Inhalten helfen kann. Du kannst Stimmen erstellen, die verblüffend menschliche klingen, entweder mit KI-genierten Stimmen oder mit Deiner eigenen Stimme. Elevenlab bietet verschiedene Preismodelle und Zeitkontingente an. Dieses Tool ist sehr leicht in der Handhabung und Bedienung. Wie Dir Elevenlab bei der Content-Erstellung hilft, in der neunen Podcast-Episode:
Auf der jüngsten Entwicklerkonferenz Google I/O hat der Tech-Konzern viel über seine AI-Pläne verraten und viele Neuentwicklungen vorgestellt. Schwerpunkt war der mit Palm 2 verbesserte AI-Chatbot "Bard" (die direkte Konkurrenz zu #ChatGPT und #Bing) vorgestellt. Wir zeigen und erklären wie Bard funktioniert und was seine Vorteile und Schwächen gegenüber der Konkurrenz sind.Google hat auch neue Sprach-, Bild- und Musikerzeugungsfähigkeiten vorgestellt sowie Tools zur Programmunterstützung und Integration in andere Google-Dienste wie GMail.Ein weiterer Konkurrent von OpenAI, Anthropic, hat eine neue Version von ihrem Sprachmodel "Claude" vorgestellt, das extrem lange Texte (über 75.000 Wörter! ) verarbeiten kann, was für Forschung und Redaktionsarbeit hilfreich sein kann. Google hat kürzlich 300 Mio. US-Dollar in Anthropic investiert.Im Audio- und Musikbereich macht Google große Fortschritte. Wir zeigen SoundStorm und Googles Demos für AudioLM und MusicLM. KI-gestützte Sprachsynthese und -erkennung wird auch in Google-Geräte wie Pixel eingesetzt und kann auch im Alltag durch Anwendungen auf dem Handy benutzt werden.Im medizinischen Bereich könnten KI-Assistenten wie Googles neues Palm-2-Modell Ärzten helfen, Diagnosen genauer zu stellen.Hinweis: Dieses Video ist ein Teil/Ausschnitt der Live-Sendung vom 20. Mai 2023.*Link-Liste*_Bard_https://bard.google.com/?hl=en(aktuell nur über VPN, via UK oder USA, in Deutschland benutzbar). Kostenloses VPN (zum Ausprobieren): https://hide.me/de/_Palm 2_https://www.cnbc.com/2023/05/16/googles-palm-2-uses-nearly-five-times-more-text-data-than-predecessor.htmlPalm 2 Tech Report https://t.co/MXqCy1lPZO_Google I/O_Übersicht über alle Inhalte: https://io.google/2023/https://www.theverge.com/2023/5/10/23717120/google-search-ai-results-generated-experience-iohttps://www.theverge.com/2023/5/10/23718088/google-android-14-ai-wallpaper-messages-magic-compose-iohttps://www.theverge.com/2023/5/10/23718301/google-ai-workspace-features-duet-docs-gmail-io_SoundStorm / AudioLM / MusicLM_https://google-research.github.io/seanet/soundstorm/examples/https://google-research.github.io/seanet/audiolm/examples/https://ai.googleblog.com/2022/10/audiolm-language-modeling-approach-to.htmlhttps://google-research.github.io/seanet/musiclm/examples/https://blog.google/technology/ai/musiclm-google-ai-test-kitchen/ https://aitestkitchen.withgoogle.com_Mehr von/zu Google_Coding in Colab: https://blog.google/technology/developers/google-colab-ai-coding-features/Duet AI: https://9to5google.com/2023/05/10/google-workspace-duet-ai/AI in Google Workspace: https://workspace.google.com/solutions/ai/PaLM API (Coding): https://twitter.com/marktenenholtz/status/1656380980402475008Vergleich Bard vs GPT-4/Bing: https://twitter.com/emollick/status/1656475460996399104Google Codey: https://9to5google.com/2023/05/10/google-codey-programming-generative-ai/*Folgt uns auf:*Twitter: https://twitter.com/KIundMenschTwitch: https://www.twitch.tv/kiundmenschYoutube: https://www.youtube.com/@kiundmensch
[ Hinweis aus der Redaktion: Der ChatGPT-Sprach-Sound ist ein bisschen nervig - so wie das Tool, werden manche sagen. Man höre zum Zustandekommen der Sendung mein (wohlklingendes) Show-Intro. In Kürze: Die Sendung wird es dann noch mal in einer 2.0-Version geben, mit "echter" Sprachsynthese für den Chatbot-Part] #experimente #expedition #künstlicheintelligenz #natürlichesrisiko Show Notes Sendung 177 ChatGPT, Website des Anbieter Open AI Manfred Brandstätter bei LinkedIn Die Organisationstgestalter, Website VUKAwelt Barcamp - Website und Tickets Community-Veranstaltungen, Frühjahr 2023 WeSession, immer mittwochs von 18-19 Uhr, Zoom-Link https://us02web.zoom.us/j/83275054887?pwd=M3RyU0NaK2lJUXloSEwyQm53aDVZdz09 Expedition Arbeit Basecamp Leipzig, 10./11.03.23, Info & Tickets Expedition Arbeit Basecamp Freiburg, 31.03.23, Info & Tickets Expedition Arbeit Basecamp Franken/Fürth, 29.04.23, Info & Tickets VUKAwelt Barcamp Bonn, 05.05.23 MITGLIED WERDEN Expedition Arbeit wünscht sich viele, neue Mitglieder: Denn dann können wir gemeinsam mehr bewirken, außerdem schaffen wir nur ab einer gewissen Größe die gewünschten Netzwerk- und Matching-Effekte. Vor allem aber glauben wir, dass wir nur mit ganz vielen auch ganz viel in Sachen sinnstiftender, selbstbestimmter und wirksamer Arbeit erreichen können. Mitglied werden ist einfach. Kündigen übrigens auch. Weil es eben kein Abo ist, sondern eine Mitgliedschaft. Alles dazu findet Ihr auf unserer Website oder direkt auf der Crowdfunding-Plattform Steady: https://steadyhq.com/de/expeditionarbeit/about Kommt an Bord, seid dabei, lasst uns etwas bewegen! ALLGEMEINE LINKS zu Expedition Arbeit Ideen, Anregungen und Kritisches an die Redaktion: florian@expedition-arbeit.de Expedition Arbeit-Mitglied werden Mitglied bei Expedition Arbeit werden Du willst in der Community mitmachen? Dann melde dich bei Der öffentliche Expedition Arbeit-Newsletter Unsere halböffentliche LinkedIn-Gruppe Unsere öffentliche LinkedIn-Seite Expedition Arbeit bei Twitter Expedition Arbeit, Event-Kalender Community Management und Host Community Radio: Florian Städtler bei LinkedIn Redaktionsleitung: Wolfgang Pfeifer Sprecherin Zwischenmoderationen: Stefanie Mrachacz Schnitt und Mix: Yannik Mattes Die Musik und SFX (Sound-Effekte) in allen Sendungen stammen von der Plattform bzw. von Florian Städtler
Ein KI-Audioexperiment von Christine Nagel über Sprachsynthese. Eine Radio-Moderatorin nutzt ein individuelles Sprachsynthese- und Sprech-Erkennungstool, um ihre persönliche KI-Stimme zu entwickeln. Als sie das Spiel ins Laufen bringt, meint sie Freiheit zu gewinnen. SIREN, Maries künstliche Stimme, verbindet sich mit allen möglichen lebenden und toten Geistern im Netz, unter anderem mit Hannah Arendt, deren Äußerungen und Ideen verfügbar geblieben sind. SIREN stellt ihr Fragen, die unsere Gegenwart betreffen. Christine Nagels Hörspiel thematisiert, was die Digitalisierung mit der menschlichen Stimme machen kann - und das, was (möglicherweise) nicht gelingt. Dies betrifft zum Beispiel ethische, rechtliche und Fragen der Firmenphilosophie der Anbieter und Programmierer von Sprachtools. Neuronale Netzwerke ermöglichen, dass sich KI-Stimmen selbst generieren. Sie reichern sich an mit Wissen und Strukturen des im Internet verfügbaren Materials. Doch wer ist der Urheber? Wer übernimmt die Verantwortung für die Lügen, die durch sie in der Welt sind und Marie zugeschrieben werden? Und: Was ist das Menschliche an der Stimme? Die KI-Stimme SIREN wurde für diese Hörspiel-Produktion programmiert. Damit befragt Christine Nagel spielerisch die technischen Entwicklungen unserer Gegenwart mit den dem Hörspiel eigenen Mitteln und stellt akute, gesellschaftspolitische Fragen. Mit Paulina Bittner (Marie), Ilse Ritter (Seele), Dietrich Eichmann (Dr. Leopold Gran, Redakteur in Ruhestand), Paul Hentze (Theobald Fahl, Redakteur), Lauren Newton (Gesangslehrerin), Lena Stolze (Ärztin), Manuel Bittorf (Sprechstundenhilfe), Birgit Beßler (Bankangestellte), einer KI-Stimme sowie Prof. Ingo Siegert, KI-Forscher Joscha Bach und Stimmen aus dem täglichen Leben. Idee, Manuskript und Regie: Christine Nagel. Komposition und Sprachaufnahmen: Peter Ehwald. Gesang: Lauren Newton. Tonschnitt und Mischung: Laura Schneider. Dramaturgie: Michael Becker. Produktion im Auftrag von NDR/DLF 2021. Gefördert durch die Senatsverwaltung für Kultur und Europa. https://ndr.de/radiokunst
Alles neu. Alles spannend. Wir tauschen hier nicht nur die Schrammelmusik gegen Chillout-Klänge ein, wir holen auch gleich zwei neue Stimmen mit an Board. Es sind Lara und Tom. Beide sind zwar zu hören, aber es gibt sie gar nicht wirklich. Diese Stimmen sind nämlich künstlich. Dieser Kanal ist somit runderneuert. Schauen wir mal, wo das hinführt. Links Neue Intro- und Outro-Musik: Chillout von Ronald Kah Newsletter der Büchergefahr
"Sprache ist zu komplex und auch zu dynamisch und verändert sich, als dass die Maschinen das komplett fehlerfrei hinbekommen. Wir möchten den Menschen Hilfsmittel an die Hand geben, komplexe Vorgänge mit Sprache der Maschine mitzuteilen und die Maschine in die Lage versetzen, diese komplexen Vorgänge zu verstehen", sagt Dr. Joachim Köhler vom Fraunhofer IAIS im Podcast. Gesprochene Sprache ist eine der wichtigsten Arten der Kommunikation. Mit der auf dem deutschen Markt führenden KI-basierte Spracherkennungstechnologie kann das Fraunhofer IAIS gesprochene Sprache erkennen, in Text umwandeln und so durchsuchbar machen. Dies zeigt eindrucksvoll die Zusammenarbeit mit der ARD und ihren Sendern. Auch in der Interaktion mit technischen Systemen ersetzt das gesprochene Wort mehr und mehr die Tastatur oder graphische Benutzeroberflächen – Sprachassistenten werden zur Kerntechnologie für die Mensch-Maschine-Kommunikation. Auch hier kommt künstliche Intelligenz zum Einsatz und bietet einen natürlichen Zugang zu Produktangeboten und Dienstleistungen. Experten aus den Bereichen Sprachsignalverarbeitung, Sprachverstehen, künstlicher Intelligenz und Software-Engineering arbeiten derzeit an einer skalierbaren, mehrsprachigen und offenen Sprachassistenzplattform namens SPEAKER für die deutsche Industrie und den deutschen Mittelstand. Ziel des Projektes ist der Aufbau einer führenden Sprachassistenzplattform „Made in Germany“ für Business-to-Business-Anwendungen (B2B). Die Plattform soll offen, modular und skalierbar sein und Technologien, Dienste und Daten über Serviceschnittstellen bereitstellen. Dazu sollen führende Technologien der Audiovorverarbeitung, Spracherkennung, Natural-Language-Understanding (NLU), Question Answering (QA), Dialogmanagement und Sprachsynthese mittels künstlicher Intelligenz (KI) und Machine Learning zur einfachen und unkomplizierten Nutzung verfügbar gemacht werden. Webseite des Fraunhofer IAIS https://www.iais.fraunhofer.de Projekt-Website SPEAKER: https://www.speaker.fraunhofer.de/ Geschäftsfeld Speech Technologies am Fraunhofer IAIS: https://www.iais.fraunhofer.de/de/geschaeftsfelder/speech-technologies.html Dialogsysteme am Fraunhofer IAIS: https://www.iais.fraunhofer.de/de/geschaeftsfelder/speech-technologies/dialogsysteme.html Übersichtsseite zur KI-Forschung am Fraunhofer IAIS: https://www.iais.fraunhofer.de/de/forschung/kuenstliche-intelligenz.html
Automatengedüddel, ratternde Stahlkugeln, Geräusche von Tasten, Joysticks und Controllern: Hörstück über das Pachinko-Spiel mit Abstechern zum Nō-Theater, zur Shinto-Mythologie, Yakuza-Kultur und zu KI-gestützter Sprachsynthese. Von Udo Moll www.deutschlandfunkkultur.de, Klangkunst Hören bis: .. Direkter Link zur Audiodatei
Hörspiel-Experiment von Christine Nagel. Eine Radio-Moderatorin nutzt ein individuelles Sprachsynthese- und Sprech-Erkennungstool, um ihre persönliche KI-Stimme zu entwickeln. Als sie das Spiel ins Laufen bringt, meint sie Freiheit zu gewinnen. SIREN, Maries künstliche Stimme, verbindet sich mit allen möglichen lebenden und toten Geistern im Netz, unter anderem mit Hannah Arendt, deren Äußerungen und Ideen verfügbar geblieben sind. SIREN stellt ihr Fragen, die unsere Gegenwart betreffen. Christine Nagels Hörspiel thematisiert, was die Digitalisierung mit der menschlichen Stimme machen kann - und das, was (möglicherweise) nicht gelingt. Dies betrifft zum Beispiel ethische, rechtliche und Fragen der Firmenphilosophie der Anbieter und Programmierer von Sprachtools. Neuronale Netzwerke ermöglichen, dass sich KI-Stimmen selbst generieren. Sie reichern sich an mit Wissen und Strukturen des im Internet verfügbaren Materials. Doch wer ist der Urheber? Wer übernimmt die Verantwortung für die Lügen, die durch sie in der Welt sind und Marie zugeschrieben werden? Und: Was ist das Menschliche an der Stimme? Die KI-Stimme SIREN wurde für diese Hörspiel-Produktion programmiert. Damit befragt Christine Nagel spielerisch die technischen Entwicklungen unserer Gegenwart mit den dem Hörspiel eigenen Mitteln und stellt akute, gesellschaftspolitische Fragen. Die Programmierung erfolgte in Zusammenarbeit mit dem Institut für Informations- und Kommunikationstechnik, Universität Magdeburg, Prof. Dr.-Ing. Ingo Siegert, und mit Joscha Bach, Kognitionswissenschaftler & KI-Forscher in San Francisco. Die Schauspielerin Paulina Bittner, deren Stimme zugrunde liegt, wurde im Studio immer wieder mit einem neuen Programmierstadium konfrontiert und reagierte im Dialog darauf. Dieser halb-dokumentarische Ansatz macht das Hörspiel zu einem Experiment: Ob und in welche Richtung sich die künstliche Intelligenz im Verlauf der Programmierung entwickeln würde, war bei Beginn der Aufnahmen nicht vorhersehbar. Mit Paulina Bittner (Marie), Ilse Ritter (Seele), Dietrich Eichmann (Dr. Leopold Gran, Redakteur in Ruhestand), Paul Hentze (Theobald Fahl, Redakteur), Lauren Newton (Gesangslehrerin), Lena Stolze (Ärztin), Manuel Bittorf (Sprechstundenhilfe), Birgit Beßler (Bankangestellte), einer KI-Stimme sowie Prof. Ingo Siegert, KI-Forscher Joscha Bach und Stimmen aus dem täglichen Leben. Idee, Manuskript und Regie: Christine Nagel. Komposition und Sprachaufnahmen: Peter Ehwald. Gesang: Lauren Newton. Tonschnitt und Mischung: Laura Schneider. Dramaturgie: Michael Becker. Produktion im Auftrag von NDR/DLF 2021 l ca. 55 min. Gefördert durch die Senatsverwaltung für Kultur und Europa. Verfügbar bis 10.03.2022. https://ndr.de/radiokunst
Automatengedüddel, ratternde Stahlkugeln, Geräusche von Tasten, Joysticks und Controllern: Hörstück über das Pachinko-Spiel mit Abstechern zum Nō-Theater, zur Shinto-Mythologie, Yakuza-Kultur und zu KI-gestützter Sprachsynthese. Von Udo Moll www.deutschlandfunkkultur.de, Klangkunst Hören bis: 19.01.2038 04:14 Direkter Link zur Audiodatei
Von Text to speech zu Speech to Text: Heute dreht sich alles um vermenschlichte Lautsprecher, die gerne so schlau sein wollen wie eine richtige Person. Wir analysieren die Quote zwischen weiblichen und männlichen SprecherInnen und suchen Alternativen in einer “Genderless Voice”.
Der zweite Teil des Schwerpunkts zu Sprachsynthese, Voice Cloning, Voice Mimics und Deepfakes.
Der 315. Blick mit dem Schwerpunkt Voice Avatar, Voice User Interfaces, SSML und Polly.
Podcasts gelten weiterhin als Trendmedium. Aber wieviele on demand Audioshows kursieren derzeit eigentlich im deutschsprachigen Raum? Was sind die beliebtesten Themenfelder, die wichtigsten Hostingplattformen und wo lohnt es sich genauer hinzuschauen? Wir werfen einen analytischen Blick hinter die Zahlenkulissen bei Apple Podcasts. Außerdem beschäftigen wir uns mit der Frage, ob Podcasts demnächst zum Textmedium werden, denn Techniken wie automatisierte Transkripte und Sprachsynthese entwickeln sich immer weiter. Aktuell kursiert ein täuschend echtes Audio-Deepfake des US-Podcasters Joe Rogan. Shownotes: Apple Podcasts Zahlen von Dirk Primbs Real Talk Sprachsynthese und Joe Rogan Audio Deepfake Fake Joe Rogan (Audio Deepfake Turing Test) Audiomanipulation: Drunk Nancy Pelosi Pick (Christian): Soundtrap virtuelles Studio im Browser Pick (Nicolas): Vernetztes Hören mit Swoot Zur Podcastepisode: viertausendhertz.de/frq47
Podcasts gelten weiterhin als Trendmedium. Aber wieviele on demand Audioshows kursieren derzeit eigentlich im deutschsprachigen Raum? Was sind die beliebtesten Themenfelder, die wichtigsten Hostingplattformen und wo lohnt es sich genauer hinzuschauen? Wir werfen einen analytischen Blick hinter die Zahlenkulissen bei Apple Podcasts. Außerdem beschäftigen wir uns mit der Frage, ob Podcasts demnächst zum Textmedium werden, denn Techniken wie automatisierte Transkripte und Sprachsynthese entwickeln sich immer weiter. Aktuell kursiert ein täuschend echtes Audio-Deepfake des US-Podcasters Joe Rogan. Shownotes: Apple Podcasts Zahlen von Dirk Primbs Real Talk Sprachsynthese und Joe Rogan Audio Deepfake Fake Joe Rogan (Audio Deepfake Turing Test) Audiomanipulation: Drunk Nancy Pelosi Pick (Christian): Soundtrap virtuelles Studio im Browser Pick (Nicolas): Vernetztes Hören mit Swoot Zur Podcastepisode: viertausendhertz.de/frq47
Podcasts gelten weiterhin als Trendmedium. Aber wieviele on demand Audioshows kursieren derzeit eigentlich im deutschsprachigen Raum? Was sind die beliebtesten Themenfelder, die wichtigsten Hostingplattformen und wo lohnt es sich genauer hinzuschauen? Wir werfen einen analytischen Blick hinter die Zahlenkulissen bei Apple Podcasts. Außerdem beschäftigen wir uns mit der Frage, ob Podcasts demnächst zum Textmedium werden, denn Techniken wie automatisierte Transkripte und Sprachsynthese entwickeln sich immer weiter. Aktuell kursiert ein täuschend echtes Audio-Deepfake des US-Podcasters Joe Rogan. Shownotes: Apple Podcasts Zahlen von Dirk Primbs Real Talk Sprachsynthese und Joe Rogan Audio Deepfake Fake Joe Rogan (Audio Deepfake Turing Test) Audiomanipulation: Drunk Nancy Pelosi Pick (Christian): Soundtrap virtuelles Studio im Browser Pick (Nicolas): Vernetztes Hören mit Swoot Zur Podcastepisode: viertausendhertz.de/frq47
Podcasts gelten weiterhin als Trendmedium. Aber wieviele on demand Audioshows kursieren derzeit eigentlich im deutschsprachigen Raum? Was sind die beliebtesten Themenfelder, die wichtigsten Hostingplattformen und wo lohnt es sich genauer hinzuschauen? Wir werfen einen analytischen Blick hinter die Zahlenkulissen bei Apple Podcasts. Außerdem beschäftigen wir uns mit der Frage, ob Podcasts demnächst zum Textmedium werden, denn Techniken wie automatisierte Transkripte und Sprachsynthese entwickeln sich immer weiter. Aktuell kursiert ein täuschend echtes Audio-Deepfake des US-Podcasters Joe Rogan. Shownotes: Apple Podcasts Zahlen von Dirk Primbs Real Talk Sprachsynthese und Joe Rogan Audio Deepfake Fake Joe Rogan (Audio Deepfake Turing Test) Audiomanipulation: Drunk Nancy Pelosi Pick (Christian): Soundtrap virtuelles Studio im Browser Pick (Nicolas): Vernetztes Hören mit Swoot Zur Podcastepisode: viertausendhertz.de/frq47
Wenn Googles experimentelle Software mit uns spricht, klingt sie wie ein Mensch aus Fleisch und Blut. Andere Programme lernen in wenigen Minuten, die Stimmen beliebiger Personen zu imitieren. Dank künstlicher Intelligenz haben dieses Voice Cloning und die Sprachsynthese zuletzt riesige Fortschritte gemacht. Wie kann man das selbst ausprobieren? Was können künstliche Stimmen für uns tun? Und wie verhindern wir, dass sie uns täuschen? Darüber sprechen Teresa Sickert, Netzwelt-Redakteur Patrick Beuth - und ihre beiden Software-Klone. See omnystudio.com/listener for privacy information.
Nach einer Woche Pause gibt es einiges aufzuholen. Zunächst sprechen wir über eine Sprachsynthese der besonderen Art. Lyrebird.ai verspricht, aus einer einminütigen Sprachaufnahme einer beliebigen Person die Stimme synthetisieren zu können.Dadurch kann ein Computer mit der Stimme des Betreffenden dann jeden beliebigen Text sprechen. Ein paar Beispiele gibt's auch gleich.rnrnrnrnWeiter geht's mit einem amazon.de block. Zunächst eine Nachricht in eigener Sache: Sowohl für all-in.de, als auch für die Technikblase gibt's inzwischen Amazon Alexa Skills in der Beta.rnrnDann begeistert (hust,hust) amazon mit dem Echo Look. Einem persönlichen Fashion-Assistenten. Ja wer will denn keine Kamera und ein Mikrofon im Schlafzimmer? Gerne hätten wir allerdings den "Echo Knight" mal ausprobiert. Ein Alexa Gerät mit Display.rnrnEin neues Display hat auch Stephan. Sein Schnäppchen ist allerdings ein rechter Stinker und trübt dadurch etwas den Sehgenuss...rnrnEinige Geräte sehen nicht, sondern hören. Und zwar auf Ultraschalltöne, die sie prompt für die Nachverfolgung von Nutzern im "richtigen Leben" ausnutzen.rnrnMichael hat Probleme beim Buchen des Telekom StartTV Angebots. Der rosa Riese will ihm nämlich seine 50Mbit/s Hybrid-Verbindung wegnehmen, wenn er StartTV buchen will.rnrnWindows 10s ist als abgespeckte Variante von Windows 10 angekündigt und verursacht mehr Kopfzerbrechen als Jubelrufe. Edge und Marketplace-Zwang finden wir nicht so toll.rnrnEbenso nervig ist die Preisstufen-Anpassung in Apples App Store. In Europa ist jetzt nämlich 1,09€ statt 99ct der niedrigste Preis. Dafür scheint sich eine Einigung zwischen Apple und Amazon was die Prime Video App für den Apple TV 4 betrifft abzuzeichnen. Jeff Bezos und Tim Cook haben sich - so wird gerüchtet - getroffen und mal Tacheles geredet.
Was ist Alexa? Amazons Sprachassistent Alexa ist seit kurzem per Einladung in Deutschland erhältlich. Das Meisterstück von Spracherkennung und Sprachsynthese ist besonders für Blinde und Sehbehinderte und Menschen mit anderen körperlichen Behinderungen eine Technologie mit ungeahntem Potential. Was ist Echo und Echo Dot, was kann Alexa, wo und wie bekomme ich Alexa? All diese Fragen rund um Amazons Sprachassistentin beantworten Yasin und Stephan in der aktuellen Spezial-Folge des TechTalk Podcasts.
Was ist Alexa? Amazons Sprachassistent Alexa ist seit kurzem per Einladung in Deutschland erhältlich. Das Meisterstück von Spracherkennung und Sprachsynthese ist besonders für Blinde und Sehbehinderte und Menschen mit anderen körperlichen Behinderungen eine Technologie mit ungeahntem Potential. Was ist Echo und Echo Dot, was kann Alexa, wo und wie bekomme ich Alexa? All diese Fragen rund um Amazons Sprachassistentin beantworten Yasin und Stephan in der aktuellen Spezial-Folge des TechTalk Podcasts.
delamar Guitar - Gitarre spielen lernen & Gitarrenunterricht & Equipment
Henry stolperte über ein Pedal, das Gitarrentöne zur Sprachsynthese nutzt – das Korg Miku Stomp synthetisiert die Stimme der japanischen Anime-Kunstfigur Hatsune Miku, einem virtuellen Mädel, das im Land der aufgehenden Sonne schier unfassbare Popularität... Der Beitrag Hatsune Miku & Vocaloid – DG117 erschien zuerst auf delamar.FM.
CTI ist das Schmuddelthema der IT: niemand redet darüber. Die Ausnahme ist Chaosradio Express. Im Gespräch mit Tim Pritlove erläutert Lars Immisch Geschichte und Gegenwart der Computer-Telefonie-Integration. Inhalt ist sind sowohl Hardware-Technologie als auch Protokolle, Anwendungen und Trends. Zur Sprache kommen: erste Steckkarten mit analogen Telefonschnittstellen, erste Standards zur Massenbehandlung von Telefonleitungen, Signalisierung und Sprachencoding, Wählverfahren, Behandlung von Durchwahlen und automatische Assistenten, moderne Bussysteme für Telefoncomputer mit hoher Leitungsdichte, Spracherkennung und Sprachsynthese, Telefon-APIs und freie Software zur Entwicklung von Telefonie-Sprachanwendungen.