POPULARITY
Am 20.11.2019 fand das 3. Working Out Loud Camp in Berlin statt. Gemeinsam mit Katharina Krentz habe ich dort eine Session zur Erfolgsmessung bei Barcamps, Community Management, WOL & Co. gehalten. Wir haben erst gemeinsam einen Überbick über die Möglichkeiten und Beispiele bei Siemens und Bosch gegeben (Präsentation) und dann die Teilnehmer in kleinen Gruppen eigene Ansätze erarbeiten und vorstellen lassen. Treiber für Key Performance Indikatoren (KPI) zur Messung der Produktivität von Wissensarbeit / Beispiele Wissensbilanz, Intellectual Capital Statement, Balanced Scorecard (inkl. Strategy Map) / Formelle und informelle Organisation / Dual Operating System (Communities, Netzwerke, Guiding Coalition) / Zweck (Purpose) als übergeordnetes Ordnungskriterium / KPIs vs. OKRs / Enterprise 2.0 / McKinsey Artikel The Rise of the Networked Enterprise: Web 2.0 finds its payday (2010) / Präsentation Social Media and ROI: Why use-cases are more compelling than Excel sheets von Michael Heiss (2010) / Artikel Social Collaboration Metrics von Manfred Langen (2015) / Über 100 Millionen Eure Einsparung und Versiebenfachung der Wahrscheinlichkeit für erfolgreiche Ideen / Fallbeispiel Bosch / Messung über Feedback-Umfrage in jeder Woche mit Likert Skala möglich / Feedback reicht CEO Volkmar Denner nicht (“Business Benefit Proof” ist nötig) / WOL nimmt Einfluss auf Prinzipien der Führung und Zusammenarbeit / Messbare Effekte auf Basis von 12 WOL Anwendungsfälle / Social Collaboration Studie 2019 / Nachhaltigkeitsdreieck (ökonomisch, ökologisch, sozial) / Vorstellung der Gruppenergebnisse / Sichtbarkeit in sozialen Netzwerken / Verbesserung Employer Branding / Verkaufsförderung / Einsparung von Recruiting-Kosten / Durchlaufzeit von Projekten und Prozessen / Kundenzufriedenheit / OKRs und Dachthemen definieren / Weitere Vorgehensweise (s.u.) Das Fotoprotokoll aller Gruppenergebnisse werden wir auch noch als Blog bereitstellen. Außerdem haben sich knapp 30 der Session-Teilnehmer*innen gemeldet, die im Nachgang beginnend mit einer Webkonferenz an der Bündelung der Ergebnisse zu einem Messmodell mitarbeiten wollen.
Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU
Die vorliegende Arbeit beschäftigt sich mit der Evaluation von strukturfindenden Methoden, die die Items psychologischer Fragebogendaten in homogene Gruppen von ähnlichen Items zusammenfassen. Ein wesentlicher Unterschied zwischen Methoden, die zu diesem Zweck verwendet werden, ist, ob sie ein zugrundeliegendes Messmodell annehmen oder ob sie nur eine möglichst brauchbare Gruppierung der Items anstreben. Zum einen gibt es die modellbasierte Faktorenanalyse (FA), die auf dem Faktormodell basiert. Der mathematische Ansatz ist ähnlich der Hauptkomponentenanalyse, oder principal component analysis (PCA). In der FA wird im Unterschied zur PCA noch angenommen, dass die Antworten auf die Items kausal von zugrundeliegenden Faktoren plus einem einzigartigen Residualterm kausal erklärt werden. Und dieser spezifische Residualterm jedes Items wird als völlig unkorreliert zu allen anderen Items angenommen. Ein Verfahren, das keine Modellannahmen trifft, ist die Clusteranalyse (CA). Hier werden lediglich Objekte zusammengefügt, die sich auf einem bestimmten Kriterium ähnlicher sind als andere. So wie man Methoden darin unterscheiden kann, ob sie ein zugrundeliegendes Modell annehmen oder nicht, kann man auch bei der Evaluation von Methoden diese Unterscheidung treffen. Eine Evaluationtechnik, die ein Modell annimmt, ist die Monte Carlo Simulation. Eine Technik, die nicht zwangsweise ein Modell zugrunde legt, ist das Resampling. Es werden Stichproben aus einem echten Datensatz gezogen und das Verhalten der Methode in diesen Stichproben wird untersucht. In der ersten Studie wurde ein solches Resampling-Verfahren angewandt, das wir Real World Simulation nennen. Es soll das bestehende Problem der mangelnden Validität von Monte Carlo Studien zur FA beheben. Es wurde eine Real World Simulation an zwei großen Datensätzen durchgeführt und die Schätzer der Modellparameter aus dem echten Datensatz anschließend für die Monte Carlo Simulation als Modellparameter verwendet. So kann getestet werden, welchen Einfluss die spezifischen Datensatzcharakteristiken sowie kontrollierte Veränderungen von ihnen auf die Funktion der Methoden haben. Die Ergebnisse legen nahe, dass die Resultate von Simulationsstudien immer stark von bestimmten Spezifikationen des Modells und seiner Verletzungen abhängen und daher keine allgemeingültigen Aussagen getroffen werden können. Die Analyse echter Daten ist wichtig, um die Funktion verschiedener Methoden zu verstehen. In der zweiten Studie wurde mit Hilfe dieser neuen Evaluationstechnik ein neues k-means Clusterungsverfahren zur Clusterung von Items getestet. Die zwei Verfahren, die vorgeschlagen wurden, sind: k-means skaliertes Distanzmaß (k-means SDM) und k-means cor. In den Analysen zeigte sich, dass sich die neuen Verfahren besser eignen, Items zu Konstrukten zuzuordnen als die EFA. Lediglich bei der Bestimmung der Anzahl der zugrundeliegenden Konstrukte, waren die EFA-Verfahren genauso gut. Aus diesem Grund wird vorgeschlagen eine Kombination dieser beiden Verfahren zu verwenden. Ein großer Vorteil der neuen Methoden ist, dass sie das Problem der Unbestimmtheit der Faktorwerte in der EFA lösen können, da die Clusterwerte der Personen auf den Clustern eindeutig bestimmt werden können. Am Ende der Arbeit wird auf die unterschiedlichen Evaluierungs- bzw. Validierungstechniken für modellbasierte und nicht-modellbasierte Verfahren eingegangen. Für die Zukunft wird vorgeschlagen, für die Evaluation des neuen k-means CA Verfahrens zur Clusterung von Items, Real World Simulationen sowie Validierungen der Clusterwerte mit Außenkriterien anzuwenden.
Dieser Beitrag beschäftigt sich damit, die Analyse von Social Media Daten als eine Art „Human Sensor“ in einem Sensor Observation Service (SOS) bereitzustellen. Hintergrund ist die Möglichkeit, welche die Analyse von Social Media Daten aus den unterschiedlichen Netzwerken, wie Twitter, Facebook, Flickr oder Youtube bietet. Vor allem im Bereich der Marketinganalyse und des Katastrophenmanagements wird dies ein immer häufiger genutztes Werkzeug. Die Relevanz des Raumbezugs bei Social Media zeigt der Prototyp einer Arbeit, welcher die Ergebnisse einer gefilterten Twitter-Suche über einfache kartographische Darstellungsformen räumlich visualisiert (http://tweetmap.fh-mainz.de). Durch den Einsatz von von Natural Language Processing (NLP), z.B. der Sentimental Analyse, können Social Media Daten hinsichtlich des Inhaltes untersucht werden. Aus diesen Untersuchungen lassen sich detailliertere Informationen, ähnlich zu physikalisch gemessenen Phänomenen gewinnen. Dadurch lassen sich Social Media Daten zu einem Human Sensor wandeln. Unter Human Sensors versteht man ein Messmodell, in dem Menschen neben physikalischen Messungen, wie z.B durch Fitnessarmbänder, auch subjektive „Messungen“ wie Sinneseindrücke, Empfindungen oder persönliche Beobachtungen beitragen (vgl. Resch et al1). Die Nutzung von Social Media basierten Human-Sensors gewinnt zudem an Bedeutung, wenn diese Daten in den Zusammenhang mit anderen Datenquellen, wie z.B. Umweltinformationen, gesetzt werden können. Eine Herausforderung dieser Zusammenführung ist die Interoperabilität zwischen den Daten. Diese kann durch den Einsatz von Standards erreicht werden. Der hier vorgestellt Ansatz basiert auf dem Sensor Observation Service (SOS) aus dem Bereich des Sensor Web Enablements (SWE). Die Kombination der oben genannten Bereiche (Raum/Zeit, NLP, Human Sensor) ergibt hierfür eine Sensordatenquelle in einem SOS-Netzwerk. In diesem Netzwerk können die so verwalteten Information mit anderen räumlichen Sensordaten kombiniert werden. Der Beitrag fokussiert dabei die Konzeption und Entwicklung eines Systems, welches die Möglichkeit bietet, Daten aus Social Media Netzwerken (zunächst beispielhaft mit Twitter) und deren Analyse (NLP), als Beobachtungen in einem Sensornetzwerk als SOS zur Verfügung zu stellen. Zudem werden Ansätze gezeigt die gesammelten Daten räumlich und zeitlich zu visualisieren. Das System basiert ausschließlich auf FOSS Komponenten, wie die aus der 52°North Sensor Web Community oder Projekten aus dem Spring Framework. *1: http://www.berndresch.com/download/work/publications/resch_et_al_people_as_sensors_agit2011.pdf
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19
Otoakustische Emissionen (OAE) werden von den Äußeren Haarzellen im Corti-Organ im Rahmen der aktiven Verstärkerfunktion der Cochlea generiert. Die Messung von OAE ermöglicht somit die Beurteilung der cochleären Funktion mittels einer einfach durchzuführenden, zuverlässigen und nicht-invasiven Technik. Durch die Lage der Cochlea im Felsenbein sind die nicht-invasiven diagnostischen Möglichkeiten ansonsten deutlich eingeschränkt. Dementsprechend unklar ist bis heute die Pathophysiologie zahlreicher Innenohrschwerhörigkeiten. Könnten einzelne charakteristische Veränderungen der OAE jeweils verschiedenen pathophysiologischen Vorgängen in der Cochlea zugeordnet werden, brächte dies umfangreiche Möglichkeiten in Erforschung und Diagnostik von Innenohrschwerhörigkeiten. Eine cochleäre Ischämie mit folgender Hypoxie wird bei vielen Hörstörungen diskutiert. Ziel dieser Arbeit war die Etablierung eines Tiermodells, an dem die Veränderung der Pegel von Distorsionsprodukten Otoakustischer Emissionen (DPOAE) durch verschiedene Einflussfaktoren frequenz-spezifisch und im Zeitverlauf untersucht werden können. Insbesondere sollten die Veränderungen durch Hypoxie detailliert charakterisiert werden. Mit dem etablierten Tiermodell konnten störungsfreie DPOAE-Messungen unter stabilen Rahmenbedingungen erreicht werden. Durch kontinuierliches Monitoring mittels invasiver Blutdruckmessung und pulsoxymetrischer Bestimmung der Sauerstoffsättigung konnten kontrollierte Bedingungen zur Reduktion etwaiger Verzerrungseffekte geschaffen werden. Die Genauigkeit der Pulsoxymetrie wurde mittels Blutgasanalyse validiert. Erstmalig beschrieben werden konnte eine ausgeprägte Destabilisierung der DPOAE-Pegel unter Hypoxie. Eine bereits von mehreren Autoren berichtete Pegelabnahme konnte zudem erstmals mit dem Grad der Hypoxie korreliert werden, welcher mittels kontinuierlichem Monitoring der Sauerstoffsättigung im Blut erhoben wurde. Ein ebenfalls vorbeschriebener erneuter Abfall der DPOAE-Pegel nach Reoxygenierung wurde reproduziert. Dieser dürfte am ehesten durch osmotische Prozesse mit Ausbildung eines endolymphatischen Hydrops bedingt sein. Darüber hinaus wurde im Zusammenhang mit der Hypoxie ein vorübergehender Pegelanstieg auf Werte über den prähypoxischen Mittelwert beobachtet. Dieser wird, 44 analog zu ähnlichen Beobachtungen nach Exposition mit Tönen tiefer Frequenz, durch Verschiebung des „operating points“ der Äußeren Haarzellen erklärt. Bei suboptimaler Ausgangsposition befinden diese sich durch die Verschiebung vorübergehend in optimaler Position, was sich in einem Pegelanstieg bemerkbar macht. Die beobachtete markante Pegelinstabilität ist zwar unseres Wissens bislang für keinen der möglichen Einflussfaktoren beschrieben worden, zur Klärung ob diese tatsächlich Hypoxie-spezifisch ist bedarf es jedoch weiterer Studien. Da deutliche Unterschiede zwischen den einzelnen Frequenzen auffielen, sollten weitere Studien stets ein breites Frequenzspektrum berücksichtigen. Besonders auffallend war ein zu den Veränderungen bei 4, 8 und 16 kHz differentes Muster bei 2 kHz und insbesondere bei 12 kHz. Zusammen mit der einfach erhebbaren Pegelinstabilität könnte eine Analyse der einzelnen Frequenzen einem etwaigen Messmodell zur Erfassung einer cochleären Hypoxie zusätzliche Sicherheit bieten. Ließe sich dadurch tatsächlich eine cochleäre Hypoxie nachweisen, könnte das von großer Bedeutung für das Verständnis von Innenohrschwerhörigkeiten sein und als Bestandteil der audiologischen Diagnostik eventuell bei Therapieentscheidungen helfen.
Wie lässt sich die Reputation eines Unternehmens aufbauen und pflegen? Professor Manfred Schwaiger vom Institut für Marktorientierte Unternehmensführung an der LMU sagt: In erster Linie durch gelungene Kommunikation. Kultursponsoring ist eines der einsetzbaren Instrumente, wobei die Schwierigkeit darin besteht, seinen Erfolg zu messen. Die Münchener Forscher haben deshalb ein empirisches Messmodell entwickelt, das die Reputationswirkung transparent machen soll.