POPULARITY
In dieser Auftaktfolge der neuen Interview-Reihe im UX & Usability Podcast spricht Frede mit Manja Baudis, Gründerin der Agentur Die Lautmaler, über den Stand und die Zukunft von Conversational AI. Manja gibt einen tiefen Einblick in die Praxis und Theorie von sprachbasierten Systemen – von geskripteten Chatbots bis hin zu LLM-basierten Lösungen. Im Gespräch werden nicht nur technologische Unterschiede erläutert, sondern auch ethische Fragestellungen wie Bias, Inklusion und Datenschutz thematisiert. Manja zeigt praxisnah auf, wie menschliche Kommunikation nachgebildet werden kann, welche Herausforderungen der Kontextbezug mit sich bringt und warum Generative AI zwar vielversprechend, aber keineswegs ein Selbstläufer ist. Wer verstehen will, wie Sprache, Design und Technik im UX-Kontext verschmelzen, sollte diese Folge nicht verpassen. │ │ Zeitstempel: [00:00:00] Einführung & Vorstellung des Gastes │ [00:02:55] Was ist Conversational AI? │ [00:04:14] Unterschiede zwischen UX Design und Conversational UX │ [00:06:45] Geskriptete vs. Generative Chatbots │ [00:09:12] Relevanz von GenAI für Conversational UX │ [00:11:01] Vorteile und Nachteile von generativen Lösungen │ [00:13:35] Trends & Zukunftsausblick │ [00:15:31] Ethische Fragen & Inklusivität │ [00:19:32] Praxisbeispiele – was funktioniert (nicht)? │ [00:22:53] Wie misst man Qualität in Conversational UX? │ [00:24:48] Best Practices im Dialogdesign │ [00:27:08] Wo gibt's gute Ressourcen? │ [00:29:20] Wunschdenken: Die perfekte AI-Lösung │ [00:31:46] Datenschutz & Sicherheit │ [00:34:17] Missverständnisse im Umgang mit GenAI │ [00:36:25] Risiken übermäßiger Abhängigkeit │ [00:38:58] Bias in AI-Systemen │ [00:41:39] Einstieg ins Conversational Design │ [00:44:15] Abschluss & Dank │ │ Informationen zum Gast: Manja Baudis ist Gründerin der Berliner Agentur Die Lautmaler, die sich auf Conversational AI Design spezialisiert hat. Seit über 15 Jahren gestaltet sie sprachbasierte Dialogsysteme – von regelbasierten Chatbots bis hin zu modernen LLM-Integrationen. Mit einem Hintergrund in Computerlinguistik und einer Passion für nutzerzentrierte Kommunikation gehört sie zu den führenden Expertinnen auf diesem Gebiet im deutschsprachigen Raum. │ Mehr über Manja und Die Lautmaler: │ Webseite: https://www.dielautmaler.de │ LinkedIn: https://www.linkedin.com/in/manja-baudis/ │ │ Links und Ressourcen: Agentur Die Lautmaler: https://www.lautmaler.de/ │ ChatGPT von OpenAI: https://chat.openai.com │ Sipgate Chatbot (Beispiel aus der Praxis): https://www.sipgate.de │ Artikel zu Bias in AI (allg.): https://hbr.org/2023/07/how-to-reduce-bias-in-ai │ Tools zum Prototyping: Voiceflow (https://www.voiceflow.com), Botpress (https://botpress.com) │ │ Danke für dein Feedback und Support Du fandest diese Episode spannend? Dann abonniere den UX & Usability Podcast, teile ihn mit deinen Kolleg:innen und hinterlasse eine Bewertung. │ Wir freuen uns über dein Feedback und den Austausch mit dir – gerne über unsere Website oder auf Social Media. │ Mehr Infos unter: www.germanupa.de │ │
In seinem Hauptberuf an der Universität Zürich arbeitet Phillip Ströbel mit künstlicher Intelligenz und erstellt zum Beispiel für die Geschichtsforschung Video-Modelle mit möglichen Bildern aus der Antike. Der in Computerlinguistik doktorierte Appenzeller arbeitet aber auch als Schiedsrichter und steht in seiner ersten vollen Saison in der höchsten Liga der Schweizer Meisterschaft.Im Eisbrecher-Podcast mit Ströbel wird darum genauso über Eishockey wie auch künstliche Intelligenz diskutiert. Die KI als Schiedsrichter, die anhand der vielen Kameras im Stadion in Echtzeit Entscheide fällt? «Tönt sehr interessant!», sagt Ströbel, er hofft dennoch nicht, dass dies Realität wird: «Weil dann würden wir Schiedsrichter ja ersetzt werden.»Warum und wie Ströbel Referee wurde, warum seine Anreise an Spiele ligaweit einmalig ist, wie er das Hobby auf dem Eis nebst einer Vollzeitstelle an der Universität bewältigt, und wie er zudem auch noch junge Schiedsrichter ausbildet: All dies und mehr gibt es im neuen Eisbrecher zu hören.
Wir haben Dr. Janna Lipenkova mit dem Thema Produktentwicklung von AI Produkten zu Gast. Sie ist eine ausgewiesene und langjährige Expertin auf dem Feld von KI und NLP hat ihren Doktor in Computerlinguistik gemacht. Nachdem sie mehrere Jahre mit KI und NLP sowohl im akademischen als auch in der Industrie gearbeitet hat, hat sie inzwischen zwei eigene Unternehmen in dem Bereich gegründet, die jeweils künstliche Intelligenz nutzen, um modernste Business Intelligence bereitzustellen und helfen, intelligentere Entscheidungen, Strategien und Umsetzungen zu fördern. Zudem arbeitet sie derzeit als Autorin an einem Buch über die Entwicklung von Produkten mit KI, was bald erscheinen wird ("The Art of AI Product Management - a guide for product managers") Im Gespräch mit Tim gibt Janna zunächst ihr Definition von AI Systemen und stellt auf dieser Basis das von ihr entwickelte holistische mentale Modell vor, welches sie für die Produktentwicklung von AI Produkten empfiehlt. Sie folgt bei den drei grundsätzlichen Dimensionen des Produktmanagement (Technologie, UX, Business). Innerhalb dieser Dimensionen zeigt sie dann verschiedene Komponenten, auf, die man besonders bei der Produkte Entwicklung von AI Produkten beachten sollte. Im Bereich Technologie schlägt sie die Bereiche "Data" und "Intelligence" vor. Auf ihre Sicht zu UX von AI Produkten gehen wir in diesem Gespräch nicht so intensiv ein. Sie hat dies in einem tollen Talk beim ProductTank Cologne zuletzt sehr ausführlich getan. In der Dimension Business schlägt sie die besondere Beachtung der beiden Komponenten "Value" und "Opportunity" vor und erläutert jeweils, was sie damit meint. Quellen aus diesem Gespräch: - Artikel "Mental model of an AI system" - Buch von Dr. Janna Lipenkova für Produktmanager: The Art of AI Product Management Wer mit Janna direkt in Kontakt treten möchte oder noch weitere Fragen an sie hat, erreicht sie am besten über ihr LinkedIn Profil. Mehr über ihr Unternehmen Anacode und ihr StartUp EQUINTEL findet ihr im Netz. Wir hoffen, dass Du einige neue Impulse aus den Erfahrungen von Dr. Janna Lipenkova ziehen konntest. Bist Du selber vielleicht schon im Rahmen der Produktentwicklung von AI Produkten aktiv? Was ist dabei für Dich anders? Welche Erfahrungen hast Du selber gemacht und magst darüber berichten? Wir freuen uns, wenn du deine Erfahrungen aus der Praxis mit uns in einem Kommentar des Blog-Artikels teilst oder auf unserer Produktwerker LinkedIn-Seite. **Folgt uns Produktwerkern auf** - LinkedIn -> https://bit.ly/3gWanpT - Twitter -> https://bit.ly/3NitkPy - Youtube -> https://bit.ly/3DIIvhF - Infoletter (u.a. mit Hinweisen auf Konferenzen, Empfehlungen, Terminen für unsere kostenfreien Events usw.) -> https://bit.ly/3Why63K
Von ADHS, Autismus und Burnout über Narzissmus bis hin zu Depression: Öffnet man soziale Medien wie TikTok oder Instagram, wimmelt es von Begriffen aus dem Bereich der Psychologie. Allein zum Hashtag #adhd (engl. Abkürzung für ADHS) gibt es mehr als 28 Milliarden Beiträge - mal humorvoll gemeinte Videos, mal didaktischere Erklärstücke. Eine positive Entwicklung, die zur Entstigmatisierung von psychischen Erkrankungen führt? Oder eine Verharmlosung derselben, weil durch den inflationären Gebrauch der Begriffe plötzlich scheinbar jeder ADHS hat? Und: Inwiefern führt der häufige Sprachgebrauch zu einem Bedeutungswandel? - Ein Gespräch mit Susanne Kabatnik, Professorin für Germanistik, Computerlinguistik und Digital Humanities an der Universität Trier.
Roger Basler de Roca ist Digital Architekt, der sich auf digitale Geschäftsmodelle, Algorithmen und künstliche Intelligenz spezialisiert hat. Er hat nicht nur einen Hintergrund als Betriebsökonom FH, sowie einen MSc in Digital Business, sondern ist auch Agenturleiter der Analytics Agentur. Zu seinen Angeboten gehören Workshops zu Themen wie LinkedIn und digitale Geschäftsmodelle sowie die Integration von künstlicher Intelligenz zum Beispiel in den Schulunterricht. Interessante KI-Anwendungen: Captions.ai Perplexity.ai Catbird.ai Kontakt zu Roger Basler de Roca: LinkedIn, Roger.social, Podcast FragRoger Beispiel eines Prompts: Was ist Prompting in der künstlichen Intelligenz? ANSWER Prompting in der künstlichen Intelligenz (KI) bezieht sich auf die Gestaltung von Eingaben oder Fragen, um KI-Systeme dazu anzuregen, relevante und präzisere Antworten zu generieren (de.linkedin.com). Es ist ein wichtiger Aspekt der Verarbeitung natürlicherSprache (NLP) und Computerlinguistik und spielt eine entscheidende Rolle bei dereffektiven Kommunikation zwischen Mensch und KI (rogerbasler.ch). Ein effektiver Prompt ist klar, prägnant und fokussiert und stellt sicher, dass die KI die Absicht des Benutzers versteht und die gewünschte Ausgabe liefert (de.linkedin.com). Prompt Engineering umfasst den Prozess des Entwerfens und Erstellens von Prompts fürKI-Modelle, um sie für bestimmte Aufgaben zu trainieren, einschliesslich der Auswahl des geeigneten Datentyps und dessen Formatierung (rogerbasler.ch). Einige wichtige Gründe, warum die Erstellung effektiver Prompts wichtig ist, umfassen: - Der Suchende erhält präzise Informationen- Verbesserung der Entscheidungsfindung -Freischalten innovativer Lösungen -Minimierung von Missverständnissen und Fehlern -Verantwortungsvollere und effektivere Nutzung von KI (de.linkedin.com) Es gibt verschiedene Ressourcen und Tools, um das Prompting zu erlernen und zu optimieren, wie zum Beispiel: - Hier ein Leitfaden zur Erstellung effektiver Prompts für die KI-Bilderzeugung (re-thought.com)- Kurs zur Beherrschung von Prompt Engineering (udemy.com)- Promptgenerator für mehrere neuronale Netze (Phraser.tech) -Text to Image prompt generator für künstlerische Prompts -Lexica.art- eine Sammlung von Prompts und den daraus resultierenden Bildern,die mit Stable Diffusion erstellt wurden(de.linkedin.com) Um die Qualität der Antworten von KI-Systemen weiter zu verbessern, können Sie Klammern verwenden, um dem KI-Modell Ihre Anforderungen besser zu vermitteln.Denken Sie daran, Ihre Anweisungen spezifisch und klar zu formulieren, um die bestenErgebnisse zu erzielen (de.linkedin.com). Zusammenfassend ist das Prompting in der KI eine wesentliche Fähigkeit, die dazu beiträgt, genaue, relevante und nützliche Antworten von KI-Systemen zu erhalten, und trägt zu einem besseren Nutzererlebnis, höherer Effizienz und einem verantwortungsvolleren Einsatz von KI-Technologien beide.linkedin.com. Transkript des Beitrags in LinkedIn: Roger Basler de Roca xxxx Christoph Stelzhammer (00:01) Wenn man dir so zuhört, denkt man sich, Mensch wo hat der das alles her und der ist so was von up to date und immer bei den neusten Themen dabei. Ich komm' ja gar nicht mehr mit, irgendwie. Wie kommen deine Informationen zu dir? Wie kommst du an die Informationen? Roger Basler de Roca (00:16) Ich habe eine Weiterbildung jetzt angefangen vor zwei Jahren, ein digitaler MBA und da war das Thema "Künstliche Intelligenz" bereits sehr präsent. Ich habe dann Python gelernt, wobei ich nicht jetzt ein Python-Programmierer bin, in gar keine Form, die Logik hat mir schon geholfen und du rutschst so ein bisschen rein. Das heisst natürlich, durch meinen IT-Background von 25 Jahren, wusste ich bereits ein bisschen wie C#, Pascal u.s.w. funktioniert und das hilft dir so ein bisschen, gewisse Affinitäten zu entwickeln. Aber es gibt mittlerweile zahlreiche Foren wie Discord beispielsweise oder auch Bloglisten, wo du abonnieren kannst, wo du immer wieder informiert bist, YouTube ist ein toller Kanal, wo, wenn du halt auch dich in dieser Bubble bewegst, immer wieder Dinge zugespielt bekommst und der Rest ist "Trial- and-Error". Ich bin bei den Blogs abonniert von OpenAI. Ich habe meine eigene KI auf meinem Laptop installiert, die ich jetzt gerade trainiere für meinen Podcast und die lernt sozusagen mit meinem Wissen. Und das hilft schon, wenn du so ein bisschen "nerdig" halt drin bist und du merkst auch, das Feuer musst du haben, weil sonst ist wirklich auch ich weiss nicht, überwältigend, was da gerade passiert im Rahmen von Informationen, die ganz ehrlich, 95 % kannst du jetzt nutzen für zwei Wochen dann hat es sich bereits wieder überholt. Dieser Berufspodcast richtet sich vor allem an Fach- und Führungskräfte und nicht nur, wenn sie auf Jobsuche sind. Wenn du an Karrierechancen interessiert bist, dann erhältst du für deine Stellensuche viele wertvolle Tipps von erfahrenen Experten. In Interviews kommen erfolgreiche Menschen mit Topjobs zu Wort. Was begeistert sie besonders bei ihrer Aufgabe? Wie haben sie ihre Führungsposition gefunden? Welche Aus- und Weiterbildungen waren für sie relevant? Erfahrene HR Profis informieren dich hier über die sich verändernden Anforderungen im Arbeitsmarkt. Damit bist du immer einen Schritt voraus und der Gestalter deiner erfolgreichen Karriere. CEO's und Geschäftsführer schildern ihren Weg an die Spitze, damit du von den Besten lernen kannst. Sie geben dir viele wertvolle Tipps für deine berufliche Karriere. Weiters sind immer wieder interessante und auch bekannte Redner, Coaches und Trainer dabei. Lass dich auch von ihnen inspirieren und gestalte deine Karriere möglichst erfolgreich. Mein Name ist Christoph Stelzhammer, Inhaber der C. Stelzhammer GmbH veredelt vermitteln und des Berufszentrum.ch. Mitarbeitende zu Höchstleistungen zu bringen und in die richtigen Teams zu integrieren, gehört zu meinen Leidenschaften. Menschen erfolgreich machen und sie dabei zu unterstützen, auf ihrem beruflichen Lebensweg sich selbst sein zu können. Nimm dein Leben in die eigene Hand, folge deiner Bestimmung und lebe deine Talente. Als Fach- und Führungskraft stets authentisch aufzutreten und sich und andere erfolgreich machen. Dafür brenne ich und dieser Podcast ist auch Ausdruck meines persönlichen Lebenszwecks.
Im Jahr 1972 erschien in Italien einer der seltsamsten Songs aller Zeiten. Der gerade erst durch »Azzuro« berühmt gewordene Sänger und Schauspieler Adriano Celentano brachte mit »Prisencolinensinainciusol« ein Lied heraus, dessen Text wie amerikanisches Englisch klang, in Wirklichkeit aber kompletter Nonsens war. 50 Jahr später wird noch immer über den Song spekuliert. Dieser Podcast folgt den Spuren zurück bis zu Charlie Chaplin, Dario Fo und der Commedia dell'arte. Gast: Judith Meyer ist eine in Berlin lebende Polyglottin mit einem besonderen Interesse an nichteuropäischen Sprachen. Während ihres Magisterstudiums der Romanistik und Computerlinguistik wurde Judith Meyer als die Stimme des Deutschlernprogramms „GermanPod101“ bekannt. 2014 gründete sie das Polyglot Gathering, eine der größten Konferenzen für Polyglotte und Sprachenblogger. Des Weiteren arbeitete sie als Beraterin oder Webentwicklerin für mehrere große Unternehmen in der Welt des Sprachenlernens, entwickelte LearnYu (einen Chinesischkurs auf Basis künstlicher Intelligenz), und verfasste die 7-teilige „Script Hacking“ Reihe - Kurse zum Erlernen fremder Alphabete nach einer von ihr selbst entwickelten Methode. Host: Ralf Schlüter, geb. 1968, lebt als Kulturjournalist in Berlin. Seine Jugend verbrachte er zu etwa gleichen Teilen in Plattenläden, Buchhandlungen und Museen, immer schon mit Hang zur Querverbindung: eine Zeile von Bob Dylan brachte ihn auf den Dichter Ezra Pound, ein Patti-Smith-Plattencover auf die zeitgenössische amerikanische Fotografie. Während seines Literaturstudiums im Berlin der 90er schrieb er für den deutschen Rolling Stone und die Berliner Zeitung nicht nur über Musik. Von 2006 bis 2020 war er Stellvertretender Chefredakteur des Kunstmagazins Art. Seit 2013 moderierte er die Sendung Art Mixtape beim Webradio ByteFM. Seit dem 16. Juni 2021 läuft sein Podcast »Ulysses lesen«, der sich mit dem berühmten Roman von James Joyce beschäftigt. Er ist Mitbegründer von kultur{}botschaft, einer digitalen Strategieberatung für Kulturinstitutionen und Medienhäuser. Im Podcast Zeitgeister erkundet Schlüter, von der Musik ausgehend, den Kosmos der Gegenwartskultur noch einmal neu: auf der Suche nach übersehenen Details und unerzählten Geschichten. SHOWNOTES: Erster TV-Auftritt von Adriano Celentano mit dem Lied: https://www.youtube.com/watch?v=foU3Tgg7VJI TV-Auftritt 1974: https://www.youtube.com/watch?v=YLgkT10N8Yo Interview mit Adriano Celentano: https://www.npr.org/transcripts/164206468 Dario Fo parodiert Chansons: https://www.youtube.com/watch?v=glLl3GpNshg Ausschnitt aus »Der große Diktator« (OV): https://www.youtube.com/watch?v=isLNLpxpndA »Smokahontas« imitiert den Klang von Sprachen: https://www.youtube.com/watch?v=ybcvlxivscw Von Judith Meyer erwähntes Lied »Desert Rose« von Sting: https://www.youtube.com/watch?v=3gzqsmx1KGU Von Judith Meyer empfohlen: Ein bei uns weniger bekanntes aber besonders schönes Liebeslied auf Arabisch: https://www.youtube.com/watch?v=eqmWkqh1kt8 Slavoj Žižek-Version von»Prisencolinensinainciusol«: https://www.youtube.com/watch?v=i_qT4puLXEM Analyse des Textes: https://www.youtube.com/watch?v=MpuXudaGHGs Trapattonis Wutrede: https://www.youtube.com/watch?v=ub1zsUD7UNQ Literatur: Eric Pfeil: Azzuro. Mit 100 Songs durch Italien. Kiepenheuer& Witsch Audioproduktion: kultur{}botschaft Mehr über den Podcast gibt‘s auch zu hören bei ByteFM: https://www.byte.fm/sendungen/bytefm-magazin/ Kontakt: zeitgeister@zeit-stiftung.de Weitere Podcasts der ZEIT-Stiftung: https://www.zeit-stiftung.de/mediathek/videoundpodcast/podcast/
Im Jahr 1972 erschien in Italien einer der seltsamsten Songs aller Zeiten. Der gerade erst durch »Azzuro« berühmt gewordene Sänger und Schauspieler Adriano Celentano brachte mit »Prisencolinensinainciusol« ein Lied heraus, dessen Text wie amerikanisches Englisch klang, in Wirklichkeit aber kompletter Nonsens war. 50 Jahr später wird noch immer über den Song spekuliert. Dieser Podcast folgt den Spuren zurück bis zu Charlie Chaplin, Dario Fo und der Commedia dell'arte. Gast: Judith Meyer ist eine in Berlin lebende Polyglottin mit einem besonderen Interesse an nichteuropäischen Sprachen. Während ihres Magisterstudiums der Romanistik und Computerlinguistik wurde Judith Meyer als die Stimme des Deutschlernprogramms „GermanPod101“ bekannt. 2014 gründete sie das Polyglot Gathering, eine der größten Konferenzen für Polyglotte und Sprachenblogger. Des Weiteren arbeitete sie als Beraterin oder Webentwicklerin für mehrere große Unternehmen in der Welt des Sprachenlernens, entwickelte LearnYu (einen Chinesischkurs auf Basis künstlicher Intelligenz), und verfasste die 7-teilige „Script Hacking“ Reihe - Kurse zum Erlernen fremder Alphabete nach einer von ihr selbst entwickelten Methode. Host: Ralf Schlüter, geb. 1968, lebt als Kulturjournalist in Berlin. Seine Jugend verbrachte er zu etwa gleichen Teilen in Plattenläden, Buchhandlungen und Museen, immer schon mit Hang zur Querverbindung: eine Zeile von Bob Dylan brachte ihn auf den Dichter Ezra Pound, ein Patti-Smith-Plattencover auf die zeitgenössische amerikanische Fotografie. Während seines Literaturstudiums im Berlin der 90er schrieb er für den deutschen Rolling Stone und die Berliner Zeitung nicht nur über Musik. Von 2006 bis 2020 war er Stellvertretender Chefredakteur des Kunstmagazins Art. Seit 2013 moderierte er die Sendung Art Mixtape beim Webradio ByteFM. Seit dem 16. Juni 2021 läuft sein Podcast »Ulysses lesen«, der sich mit dem berühmten Roman von James Joyce beschäftigt. Er ist Mitbegründer von kultur{}botschaft, einer digitalen Strategieberatung für Kulturinstitutionen und Medienhäuser. Im Podcast Zeitgeister erkundet Schlüter, von der Musik ausgehend, den Kosmos der Gegenwartskultur noch einmal neu: auf der Suche nach übersehenen Details und unerzählten Geschichten. SHOWNOTES: Erster TV-Auftritt von Adriano Celentano mit dem Lied: https://www.youtube.com/watch?v=foU3Tgg7VJI TV-Auftritt 1974: https://www.youtube.com/watch?v=YLgkT10N8Yo Interview mit Adriano Celentano: https://www.npr.org/transcripts/164206468 Dario Fo parodiert Chansons: https://www.youtube.com/watch?v=glLl3GpNshg Ausschnitt aus »Der große Diktator« (OV): https://www.youtube.com/watch?v=isLNLpxpndA »Smokahontas« imitiert den Klang von Sprachen: https://www.youtube.com/watch?v=ybcvlxivscw Von Judith Meyer erwähntes Lied »Desert Rose« von Sting: https://www.youtube.com/watch?v=3gzqsmx1KGU Von Judith Meyer empfohlen: Ein bei uns weniger bekanntes aber besonders schönes Liebeslied auf Arabisch: https://www.youtube.com/watch?v=eqmWkqh1kt8 Slavoj Žižek-Version von»Prisencolinensinainciusol«: https://www.youtube.com/watch?v=i_qT4puLXEM Analyse des Textes: https://www.youtube.com/watch?v=MpuXudaGHGs Trapattonis Wutrede: https://www.youtube.com/watch?v=ub1zsUD7UNQ Literatur: Eric Pfeil: Azzuro. Mit 100 Songs durch Italien. Kiepenheuer& Witsch Audioproduktion: kultur{}botschaft Mehr über den Podcast gibt‘s auch zu hören bei ByteFM: https://www.byte.fm/sendungen/bytefm-magazin/ Kontakt: zeitgeister@zeit-stiftung.de Weitere Podcasts der ZEIT-Stiftung: https://www.zeit-stiftung.de/mediathek/videoundpodcast/podcast/
Computer können ja bekanntlich fast alles - doch beim Übersetzen stoßen sie schnell an ihre Grenzen. Aber selbst das will Google ihnen nun beibringen. Sprachwissenschaftler bleiben skeptisch.Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt", schrieb der Philosoph Ludwig Wittgenstein. Im Internet erscheinen Grenzen als Konstrukte von gestern - alles ist abrufbar, überall, zu jeder Zeit.Doch dessen Fähigkeiten lassen zu wünschen übrig. „Übersetze mich nicht" wird zu „Do not sit down", der Adventsklassiker „Macht hoch die Tür" zu „Power up the door".Computer können uns den Weg durch die Wildnis weisen, täuschend echt klingende Aufsätze schreiben und unsere Freunde auf Fotos erkennen. Trotzdem hapert es mit den Übersetzungen. Entwickler versuchen nun, das zu ändern. Einige glauben, die digitalen Dolmetscher könnten sogar so gut werden wie menschliche.„Übersetzungsprogramme funktionieren deshalb nicht einwandfrei, weil natürliche Sprache sehr komplex ist", sagt Uta Seewald-Heeg, Professorin für Computerlinguistik an der Hochschule Anhalt. „Das Besondere an der natürlichen Sprache ist, dass wir unentwegt neue Sätze bilden können und auch solche, die vorher noch nie jemand ausgesprochen hat."Um die Systeme offen zu halten für die unendlichen Weiten der Sprache, müssen auch die Programme unbeschränkt aus den vorhandenen Teilen kombinieren können.Das Unternehmen, das die Weiten des Internets ordnet und auffindbar macht, ist Google. Nun will es auch die Grenzen der Sprache auflösen: mit dem Übersetzungsprogramm Google Translate.Solche regelbasierten Systeme werden heute beispielsweise in der technischen Dokumentation, also etwa für Montageanleitungen und Online-Hilfetexte, eingesetzt, oder für Rückmeldungen von Reisenden auf Bewertungsseiten.Eine davon nutzt die Programme von Igor Jourist, Geschäftsführer der Promt GmbH. „Es ist sehr wichtig, dass man für den Bereich, aus dem man einen Text übersetzen möchte, ein spezielles Vokabular hat", sagt er. So habe man den Programmen Fachvokabular aus der Reisebranche beigebracht. Zumindest dafür sind Menschen notwendig.„Die Algorithmen suchen aus einer Reihe von Texten unbekannte, aber häufige Begriffe heraus", sagt Jourist. „Und dann sagt ein Mitarbeiter der Maschine, was das für Wörter sind: ein Verb, ein Substantiv oder ein Name, der nicht übersetzt werden soll." Das Wichtigste aber sei die Entwicklung von Algorithmen nach der Grammatik einer Sprache.Unsinns-Übersetzung auf ReiseportalEs ist einfach auf dem von Jourist belieferten Reise-Portal eine Unsinns-Übersetzung zu finden. „Übernachten Sie nicht in einem Studentenwohnheim wohnen, sollten Sie sich im Klaren sein schwierige pricing, beobachten Sie Ihre Wertsachen", heißt es über ein Resort. Was läuft falsch - trotz programmierter Grammatik, speziellen Wörterbüchern und ausgefeilten Algorithmen?„Mit Regeln kann man Sprache sehr genau und sehr gut beschreiben", sagt Uta Seewald-Heeg, „aber es sind sehr viele Regeln und einige davon beeinflussen sich gegenseitig." Das Grundproblem ist die Komplexität der Sprache.Die Grammatik bestimmt die Übersetzung - ist sie nicht eindeutig, kann kein Programm eindeutig übersetzen. Komplexere Grammatik erfordert mehr Regeln, bringt aber auch mehr KlarheitDer Satz „Der Mann sah das Mädchen mit dem Fernglas" zeigt im Deutschen nicht an, ob das Fernglas eine Sehhilfe des Mannes oder ein Accessoire des Mädchens ist. In anderen Sprachen müsste dies jedoch eindeutig sein, um es richtig übersetzen zu können.Google nutzt für seine Übersetzungen ein statistisches System, das auf großen Mengen von Daten basiert. „Wir suchen Websites, die es in mehreren Sprachen gibt, und legen diese Übersetzungen unserem Programm zugrunde. Das können Hilfeseiten von Software-Anbietern sein, aber auch Reise-Websites, Online-Shops oder Nachrichten-Seiten", sagt Hughes.Auf der Basis dieser zweisprachigen Text-Sammlungen errechnet eine Software die Wahrscheinlichkeiten, dass Sätze, Wortgruppen oder Wörter einander entsprechen. „Die Übersetzung, die herauskommt, ist die mit der höchsten Wahrscheinlichkeit dafür, dass ein Wort oder eine Passage eine Übersetzung des Ausgangstextes ist. Je mehr Daten vorhanden sind, desto besser werden die Ergebnisse", sagt Uta Seewald-Heeg.Programm lernt aus deutschsprachigen InternetseitenMehrere zehn Millionen Wörter braucht Google Translate als Basis für eine Sprache. „Das Programm geht den Text durch, der übersetzt werden soll: Wort für Wort oder Sequenz für Sequenz - und dann werden die einzelnen Übersetzungsteile aneinandergeheftet, sodass sie wie ein guter Satz in der Zielsprache aussehen", sagt Hughes. Wie ein deutscher Satz aufgebaut ist, lernt das Programm aus der Masse deutschsprachiger Internetseiten. „Im Grunde ist alles Statistik", meint Hughes.Der Entwickler weiß, dass Kontext, Satzbau oder unregelmäßige Verben dem Programm Schwierigkeiten bereiten, und dass nicht immer perfekte Übersetzungen herauskommen. „Es gibt viele Situationen, in denen die Übersetzung nicht perfekt sein muss, aber trotzdem hilfreich sein kann", sagt er.Am häufigsten werde Google Translate genutzt, um Webseiten in anderen Sprachen zu lesen. „Wenn die Übersetzung gut genug ist, um einen Text grob zu verstehen, reicht das in vielen Fällen aus."AnzeigeVielleicht ist der Anspruch falsch, sich von einem Übersetzungsprogramm stilistisch gute und grammatisch korrekte Sprache zu erhoffen. „Sowohl die regelbasierten als auch die statistischen Systeme geraten an ihre Grenzen", sagt Uta Seewald-Heeg.Die Entwickler setzten daher verstärkt auf eine Kombination aus beiden. In solchen Hybrid-Systemen werden die regelbasierten Programme um statistische Berechnungen ergänzt und die statistischen Programme lernen sprachliche Regeln.Computer sollen so gut wie Menschen werdenMacduff Hughes hat große Visionen für Google Translate: „Wir bemühen uns sehr, die Qualität der Übersetzung zu verbessern", sagt er. „Und wir sind erst fertig, wenn das System so gut ist wie ein professioneller, menschlicher Übersetzer." Das bedeutet, dem Computer zuzutrauen, was nur ein Mensch kann: Nuancen, Zwischentöne, Anspielungen, Wortspiele und Poesie hervorzubringen.Das Wesentliche der Dichtung sei nicht Mitteilung oder Aussage, schreibt Walter Benjamin in „Die Aufgabe des Übersetzers". Sondern das, was man das Unfassbare, Geheimnisvolle, Dichterische nennt.Computer können Worte übersetzen. Kontext aber können sie nicht erfassen. Bedeutung zu schaffen bleibt vorerst dem Menschen vorbehalten.Aimer, c'est se donnerL'amour est un mélange subtil de sentiments et de raison qui donne un élan vital à toutes les relations familiales. Grand fleuve qui peut tout emporter, il a besoin de ses deux rives pour le maintenir dans sa fonction : l'intelligence et la volonté. Aimer est trop souvent compris dans le seul sens de désirer et non pas dans le sens de donner et de se donner. Pour être vrai, l'amour attend toujours une réciprocité entre parents et enfants, sinon il se limite à une assimilation aux parents, à leur ressemblance, comme le font naturellement les enfants en aimant leurs parents. Il peut se dévoyer en « dévoration », les parents pouvant posséder les enfants pour eux-mêmes, ou consister à se laisser manger, dans un certain esprit de sacrifice, comme le vivent beaucoup de mamans qui n'ont plus une minute à elles et qui confondent aimer et se laisser manger. Toutes ces déviations demandent à se laisser transformées en amour vrai qui reçoit pour donner.☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆https://linktr.ee/jacksonlibon----------------------------------------------------------------------------------------------#facebook #instagram #amour #couple #couplegoals #famille #coil #doudou #youtube #twitter #tiktok #love #reeĺs #shorts #instagood #follow #like #ouy #oyu #babyshark #lilnasx #girl #happybirthday #movie #JOHNWICK #garden #menu #deviance #duckgo #trading #khan #academy #carter #carguru #ancestry #accords #abc #news #bts #cbs #bluebook #socialmedia #whatsapp #music #google #photography #memes #marketing #india #followforfollowback #likeforlikes #a #insta #fashion #k #trending #digitalmarketing #covid #o #snapchat #socialmediamarketing #bhfyp
Er ist einer der einflussreichsten jungen Forscher für Künstliche Intelligenz, lebt im Silicon Valley und ist geboren in der DDR: Richard Socher ist zu Gast bei "Alles gesagt?", dem unendlichen Podcast von ZEIT ONLINE und ZEITmagazin. 1983 kam er als Sohn eines Wissenschaftlers und einer Ingenieurin in Dresden auf die Welt, wuchs einige Jahre in Äthiopien auf, studierte Computerlinguistik in Leipzig und Saarbrücken – und machte sich einen Namen, als er in den USA an den berühmten Universitäten von Princeton und Stanford an neuronalen Netzwerken für Spracherkennung forschte. Richard Socher ist heute einer der international meistzitierten K.I.-Forscher. Eine Assistenzprofessur in Princeton lehnte er ab und gründete stattdessen ein Start-up, das 2016 vom amerikanischen Techkonzern Salesforce übernommen wurde. Richard Socher wurde Chefwissenschaftler von Salesforce und blieb es bis zum Juli dieses Jahres, als er bekannt gab, erneut ein Start-up zu gründen. Mit Jochen Wegner und Christoph Amend, den Gastgebern von "Alles gesagt?", unterhält sich Richard Socher über den Einfluss von Künstlicher Intelligenz auf unser Leben, darüber wie ihn die DDR geprägt hat, warum es ihn nicht in Deutschland gehalten hat – und was ihn an seiner zweiten großen Leidenschaft, dem Paragliden, so fasziniert. Auch diese Folge von "Alles gesagt?" wurde per Videoschaltung aufgenommen. Während die Gastgeber des Podcasts in Berlin saßen, schaltete sich Richard Socher aus Idaho zu. Er reiste zum Zeitpunkt der Aufnahme mit seiner Partnerin in einem Wohnmobil durch die USA. Nach 8 Stunden und 17 Minuten beendete Richard Socher die Unterhaltung, denn das darf bei "Alles gesagt?" nur der Gast.
Daniela macht Urlaub und will dafür eine Fremdsprache erlernen. Mithilfe der Sprachforschung und einer Sprachlehrerin an ihrer Seite will sie herausfinden, ob und wie schnell und effektiv ihr das als Erwachsene gelingt.
Them Bois is back. Lederhosen oder Dirndl an und dann gemeinsam 5 Maß im Festzelt ziehen - so muss dat. Heute live: Wahlzettel-Unpacking für die Anstehende Wien-Wahl. Die Anspannung könnte nicht größer sein. Wisst ihr noch wie es war, als wir fast einen afrikanischen War Lord mit einem Youtube Video zu Fall gebracht haben? Wir auch nicht... Außerdem geht es heute wieder einmal um das marode politische System der USA - Stay tuned! #DowntownAndCheesecakeDay Heute muss Henni sich 5 Persönlichen Fragen stellen - Unterhaltung für Groß und Klein. Naja, solange wir nicht über Computerlinguistik reden.
Digitale Sprachassistenten wie Siri oder Alexa erobern unsere Wohnungen. Wie wirken sich die kleinen Helfer auf unser Leben aus? Welche Interessen verfolgen Google und Co mit der Durchsetzung ihrer Produkte am Markt? Und was bedeutet es, dass wir uns mit Gesprächspartnern unterhalten, die durch ihre Stimmprogrammierung zwar menschlich anmuten, letztlich aber unbelebte Gegenstände sind? Trotz ständig perfektionierter Technik kommt es etwa immer wieder zu Missverständnissen in der Kommunikation zwischen Mensch und Maschine, wie der Schriftsteller Ulrich Woelk in einem Hörspiel humorvoll dargestellt hat. Im Gespräch mit dem Google-Mitarbeiter Jens Redmer und dem Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz, Wolfgang Wahlster, werden die Veränderungen durch die neuesten technischen Entwicklungen im Bereich der Computerlinguistik diskutiert. Die Moderation übernimmt die Tagesspiegel-Redakteurin Dorothee Nolte. Den Originalbeitrag und mehr finden Sie bitte hier: https://lisa.gerda-henkel-stiftung.de/siri_alexa_co?nav_id=7629
Digitale Sprachassistenten wie Siri oder Alexa erobern unsere Wohnungen. Wie wirken sich die kleinen Helfer auf unser Leben aus? Welche Interessen verfolgen Google und Co mit der Durchsetzung ihrer Produkte am Markt? Und was bedeutet es, dass wir uns mit Gesprächspartnern unterhalten, die durch ihre Stimmprogrammierung zwar menschlich anmuten, letztlich aber unbelebte Gegenstände sind? Trotz ständig perfektionierter Technik kommt es etwa immer wieder zu Missverständnissen in der Kommunikation zwischen Mensch und Maschine, wie der Schriftsteller Ulrich Woelk in einem Hörspiel humorvoll dargestellt hat. Im Gespräch mit dem Google-Mitarbeiter Jens Redmer und dem Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz, Wolfgang Wahlster, werden die Veränderungen durch die neuesten technischen Entwicklungen im Bereich der Computerlinguistik diskutiert. Die Moderation übernimmt die Tagesspiegel-Redakteurin Dorothee Nolte. Den Originalbeitrag und mehr finden Sie bitte hier: https://lisa.gerda-henkel-stiftung.de/siri_alexa_co?nav_id=7629
Schon Säuglinge können ihre Mutter an der Stimme erkennen - beim Vater wird es schon schwieriger. Später sind Menschen im Allgemeinen sehr gut darin, die Stimmen von Bekannten zu erkennen, tun sich aber schwer damit, viele und unbekannte Menschen auseinanderzuhalten. Wir reden mit Volker Dellwo vom Institut für Computerlinguistik der Universität Zürich darüber, wie sich phonetische Methoden nutzen lassen, um Menschen besser oder auch automatisch zu erkennen, und interessieren uns insbesondere für forensische Anwendungen: wie lassen sich Verbrecher an ihrer Stimme erkennen?
Morphologie spielt eine zentrale Rolle in der Computerlinguistik und ist daher u.a. im Institut für Informationswissenschaft und Sprachtechnologie (IWIST) verankert. An der 90-Sekunden-Erklärung versucht sich dieses Mal PhD Gertrud Faaß, ihrerseits Mitarbeiterin am IWIST.
Mit der Digitalisierung werden die Kulturtechniken der Schrift nicht einfach in ein neues Medium übertragen. Vielmehr werden sie durch das digitale Medium geprägt und verändert, und parallel dazu verändern sich auch die Texte. Während das Zeitalter des Buchdrucks als „Gutenberg-Galaxis“ (Marshall McLuhan) bezeichnet wurde, kann man heute von einer "Engelbart-Galaxis" sprechen: Douglas Engelbart, der Erfinder der Computer-Maus, entwickelte die erste computergestützte Textverarbeitung in den 1960er Jahren und verband so die Kulturtechniken der Schrift mit den grundlegenden technologischen Entwicklungen seiner Zeit. Diese Entwicklungen - Automatisierung, Medienintegration und Vernetzung - bestimmen heute mehr denn je unseren Umgang mit Schrift. Im Vortrag wird gezeigt, wie sich dies auf Kulturtechniken und die Schriftkultur insgesamt auswirkt und auf was wir uns für die Zukunft einstellen müssen. Henning Lobin (*1964) studierte Germanistik, Philosophie und Informatik. Nach Promotion (1991, U. Bonn) und Habilitation (1996, U. Bielefeld) wurde er 1999 auf den Lehrstuhl für Angewandte Sprachwissenschaft und Computerlinguistik an die Universität Gießen berufen. Seit 2007 leitet er das Zentrum für Medien und Interaktivität und fungierte dort als Sprecher mehrerer Forschungsverbünde. Lobin ist Autor von sieben Monografien (zuletzt 'Engelbarts Traum', 2014, 'Die wissenschaftliche Präsentation', 2012, 'Computerlinguistik und Texttechnologie', 2010) und Herausgeber zahlreicher Sammelbände. Foto: © Goethe-Institut. Martin Mařák
Seine Zeit ist knapp, weil er immer so viel um die Ohren hat. Umso mehr freut es uns. dass Hernani (vom CCCZH) mal wieder zu uns in die Sendung kommen konnte! Zusammen haben wir über Linguistik, Selektoren, Übersetzungsprogramme, Massenüberwachung und Spamfilter gesprochen, teilweise etwas querbeet. Trackliste: Suicidesixpack – Überwachungsstaat Johan Andersson – Bulldog (Wildwest Mix) Mutetus – Turbo Imploder 4.0 The Phekkis – Outrun Europa Hernanis Masterarbeit :: Masterarbeit über Linguistik und Massenüberwachung UZH Institut :: Institut für Computerlinguistik der Universität Zürich XKeyScore Fingerprints :: Writing XKS Fingerprints (NSA Leak) BND löscht Selektoren :: Blog bei Netzpolitik über die Löschaktion des Deutschen Bundesnachrichtendienstes Andrej Holm :: Zu unrecht verdächtigter Solziologe Andrej Holm YaCy :: Freie Peer-To-Peer Suchmaschine für den Heimgebrauch The Anarchists Cookbook :: The Anarchists Cookbook bei Scribd Ghoti :: Wie man Fish auch noch auf englisch schreiben kann. Left luggage detection :: Video, wenn man einen Koffer am Bahnhof stehen lässt Anne Roth :: Innenansicht einer Terrorismus-Ermittlung Majestic 12 :: Majestic 12: Distributed Search Engine File Download (169:46 min / 169 MB)
Seine Zeit ist knapp, weil er immer so viel um die Ohren hat. Umso mehr freut es uns. dass Hernani (vom CCCZH) mal wieder zu uns in die Sendung kommen konnte! Zusammen haben wir über Linguistik, Selektoren, Übersetzungsprogramme, Massenüberwachung und Spamfilter gesprochen, teilweise etwas querbeet. Trackliste: Suicidesixpack – Überwachungsstaat Johan Andersson – Bulldog (Wildwest Mix) Mutetus – Turbo Imploder 4.0 The Phekkis – Outrun Europa Hernanis Masterarbeit :: Masterarbeit über Linguistik und Massenüberwachung UZH Institut :: Institut für Computerlinguistik der Universität Zürich XKeyScore Fingerprints :: Writing XKS Fingerprints (NSA Leak) BND löscht Selektoren :: Blog bei Netzpolitik über die Löschaktion des Deutschen Bundesnachrichtendienstes Andrej Holm :: Zu unrecht verdächtigter Solziologe Andrej Holm YaCy :: Freie Peer-To-Peer Suchmaschine für den Heimgebrauch The Anarchists Cookbook :: The Anarchists Cookbook bei Scribd Ghoti :: Wie man Fish auch noch auf englisch schreiben kann. Left luggage detection :: Video, wenn man einen Koffer am Bahnhof stehen lässt Anne Roth :: Innenansicht einer Terrorismus-Ermittlung Majestic 12 :: Majestic 12: Distributed Search Engine File Download (169:46 min / 169 MB)
Dies ist die Folge 97 des Hackerfunks im OGG/Vorbis Format.File Download (169:46 min / 166 MB)
Dies ist die Folge 97 des Hackerfunks im OGG/Vorbis Format.File Download (169:46 min / 166 MB)
Jeder kennt sie – die typischen Fehler von automatischen Übersetzungen. In solchen Texten steht dann hangover, wo eigentlich der Hauskater gemeint ist, oder Dose der Freiheit, wo es darum geht, was die Freiheit bewirken kann, nämlich liberty can. Dennoch sind maschinelle Übersetzungen aus unserem täglichen Leben nicht mehr wegzudenken: sie erleichtern den Kundenkontakt bei der Grossbank, ermöglichen die schnelle Übersetzung von Webseiten, sowie Film- und Fernsehuntertiteln und bilden die Grundlage für das Postediting durch menschliche Übersetzer. Welche Technologien der heutigen maschinellen Übersetzung zugrunde liegen, was sich in den letzten 20 Jahren geändert hat und welche Entwicklungen noch ausstehen, darüber sprachen wir mit Martin Volk vom Institut für Computerlinguistik von der Universität Zürich.
In der vierten Magazinsendung geht es um Geheimnisse und geheime Botschaften – um die Kunst der Kryptographie. Ob Wikileaks oder Wikipedia, Daten- oder Verfassungsschutz, ob Bank-, Beicht- oder Briefgeheimnis: Während sich heute die einen mühen, Informationen für alle verfügbar zu machen, sind die anderen dem Geheimnis verpflichtet. In der Sendung wagen wir einen Blick in die dunklen Ecken der Wissensgeschichte – in die Welt der geheimen Codes und verschlüsselten Botschaften. Wir begeben uns auf die Spur der Suche nach dem perfekten Geheimnis, von alten Geheimbundschriften über tätowierte Boten bis zu ausgeklügeltsten Chiffrierapparaten der Geheimdienste. Es geht um Menschen, Maschinen und Manuskripte, um Elektromechanik, Computerlinguistik und Quantenforschung. In den Beiträgen werden wir begleitet von Kulturwissenschaftler Hartmut Böhme, Informationswissenschaftler Horst Völz und treffen ein internationales Entschlüsselerteam. Im Studio sprechen wir mit Joseph Vogl über Nutzen und Nachteil der Kryptographie, über ihre Rolle als Kuturtechnik und ihre historischen Kontexte.
Die Computerlinguisten um Professor Franz Guenthner beschäftigen sich hauptsächlich mit der maschinellen Verarbeitung geschriebener Sprache. Gemeinsam mit ihren Informatik-Kollegen arbeiten sie an der Erstellung von großen maschinell einsetzbaren Lexika und Grammatiken sowie an der Konstruktion von schnellen Algorithmen für innovative Suchmaschinen – denn die bestehenden halten sie für extrem verbesserungsfähig.
Fakultät für Sprach- und Literaturwissenschaften - Digitale Hochschulschriften der LMU
Gegenstand dieser Arbeit ist die Neubetrachtung und Weiterführung des bisher vor allem unter dem Namen 'Grundwortschatz' bekannten lexikographischen Konzeptes zentraler Wortschätze. Dieses Konzept hat im Bereich der Didaktik des Deutschen bereits eine lange Tradition; dort wird es verwendet, um spezielle reduzierte Wortschätze für den Erst- und Zweitsprachenerwerb zu erstellen. Mit Hilfe dieser Wortschätze soll der Spracherwerb effektiver gestaltet werden, indem der Lernende mit den zentralsten Einheiten des Wortschatzes zuerst konfrontiert wird. Diese Versuche sind wegen des Mangels an objektiven Kriterien dafür, welche Einheiten des Wortschatzes zentral sind und wie eine Selektion für einen Grundwortschatz aussehen könnte, immer kontrovers diskutiert worden. Auch in der Sprachverwandtschaftsforschung hat man das Konzept zentraler Wortschatzelemente diskutiert, wenn man etwa im Rahmen der Glottochronologie bzw. Lexikostatistik versuchte, die verwandtschaftliche Nähe zweier Sprachen zueinander festzustellen, indem man vergleicht, wie eine vorab definierte Liste zentraler Begriffe in den einzelnen Sprachen realisiert wird. Darüberhinaus wird in der allgemeinen linguistischen Forschung immer wieder die Frage diskutiert, ob es so etwas wie ein absolutes Zentrum des Wortschatzes einer Sprache überhaupt gibt und wie dieses definiert sein könnte. In der Computerlinguistik schließlich findet das Konzept zentraler Wortschätze ebenfalls Anwendung, wenn auch bisher nur implizit und ohne direkten Bezug zu den entsprechenden praktischen Anwendungen in der Sprachdidaktik; so etwa in den sogenannten Stopwortlisten des Information Retrieval oder in den Neutralwortschätzen der maschinellen Klassifikation von Texten. Das Konzept zentraler Wortschätze wird also in verschiedenen Bereichen der angewandten Linguistik aktiv eingesetzt. Explizit diskutiert worden ist es bisher aber fast nur von Sprachdidaktikern und Lexikographen. Lexikologen, theoretisch orientierte Linguisten und Computerlinguisten haben sich bisher kaum oder nur am Rande dazu geäußert. Was fehlt, ist eine Betrachtung des Konzeptes von einem weiter gefassten, anwendungsübergreifenden Standpunkt aus. Die bisherigen Diskussionsbeiträge bestehen zu einem großen Teil aus der Erarbeitung konkreter Grundwortschätze für verschiedene sprachdidaktische Anwendungen und aus kritischen Beurteilungen dieser Versuche. Die wenigen Arbeiten, die sich diesem Konzept von einem theoretisch-methodischen Winkel her nähern, tun dies fast ausschließlich im Hinblick auf den konkreten Bereich der Sprachdidaktik, indem sie etwa konkrete (sprachdidaktisch orientierte) Grundwortschätze analysieren und anhand dieser Ergebnisse spezifische Fragen der Sprachdidaktik diskutieren. Grundlegende methodische und lexikologische Fragen werden entweder im Lichte der Sprachdidaktik besprochen oder vernachlässigt. So fehlt etwa die explizite Einbindung von Erkenntnissen der Lexikologie zur Makrostruktur des Wortschatzes, die Zusammenstellung der verschiedenen konkreten Anwendungen in Sprachdidaktik und Computerlinguistik unter einem konzeptuellen Dach, die Etablierung einer konsistenten Terminologie oder eine konkrete Wortschatzanalyse zur Beantwortung lexikologischer Fragen unabhängig von einer praktischen Anwendung. Das Fehlen einer solchen übergreifenden Betrachtung ist zwar nachvollziehbar, weil das Konzept zentraler Wortschätze zunächst aus einer praktischen Notwendigkeit heraus in verschiedenen Bereichen entstanden ist; theoretisch-methodische Überlegungen, die über die einzelne praktische Anwendung hinausgehen, mussten dabei vorläufig in den Hintergrund rücken. Dennoch ist eine solch übergreifende Betrachtung nötig, um die Arbeit an zentralen Wortschätzen stärker lexikologisch zu verankern und Synergien zwischen den verschiedenen Anwendungsbereichen zu erzielen. Dazu soll die vorliegende Arbeit einen Beitrag leisten.