Podcasts about human computer interaction lab

  • 8PODCASTS
  • 9EPISODES
  • 56mAVG DURATION
  • ?INFREQUENT EPISODES
  • Feb 5, 2023LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about human computer interaction lab

Latest podcast episodes about human computer interaction lab

No Silly Questions- An Education Podcast for Parents
Are our children “The App Generation?” With Professor Katie Davis

No Silly Questions- An Education Podcast for Parents

Play Episode Listen Later Feb 5, 2023 39:55


Or are they “Technology's Child?”These are the titles of our guest this week, Professor Katie Davis' two books. In this episode, we talk all about “ digital media's role in the ages and stages of growing up.” How do children engage with technology at each stage of development? Are there good apps and bad apps? Youtube vs. Netflix? Does technology have an impact on creativity? Katie Davis gives us an inside look, from the front lines of academia and research, into the interplay of technology and child development.More on Katie:Katie Davis is Associate Professor at the University of Washington Information School, Adjunct Associate Professor in the College of Education, and a founding member and Co-Director of the Digital Youth Lab. Currently, she is a visiting research scientist in the Human Computer Interaction Lab at Hasso Plattner Institute in Germany. In her research, Katie investigates the impact of digital technologies on young people's learning, development, and wellbeing, and co-designs positive technology experiences with and for youth. Her work bridges the fields of human development, human-computer interaction, and the learning sciences.Katie holds two master's degrees and a doctorate in Human Development and Education from Harvard Graduate School of Education. Prior to joining the faculty at the UW iSchool, she worked with Howard Gardner and colleagues as a Project Manager at Harvard Project Zero, where she was a member of the GoodPlay Project and Developing Minds and Digital Media Project research teams. Katie is the author of several journal and conference publications, three books, with the forthcoming title “Technology's Child”, and regularly shares her work with parents, teachers, business leaders, and policymakers in an effort to build connections between research and practice.Resources:Www.nosillyquestionspodcast.comhttps://www.instagram.com/nosillyquestionspodcast/

Midday
Regulating Big Tech: Perspectives on the threat and the challenge

Midday

Play Episode Listen Later Nov 1, 2021 49:39


Today, it's Midday on Tech.  Frances Haugen has worked at several tech companies, including Facebook, whose corporate name has just been changed to Meta. When she testified to Congress recently and subsequently released thousands of internal Facebook documents, she exposed the extent to which Facebook designs algorithms that are intended to keep users glued to the program, and the pernicious consequences of that business model. Can these algorithms - the lifeblood of the Facebook business model - be regulated and controlled to eliminate those consequences? Tom's two guests today offer expert perspectives on that question. Dr. Jessica Vitak is an associate professor in the College of Information Studies at the University of Maryland. She is also the recently appointed director of the university's Human-Computer Interaction Lab. Dr. Vitakjoins us on Zoom. Joe Toscano is the founder of the Better Ethics and Consumer Outcomes Network, or BEACON, and the author of Automating Humanity (Powerhouse Books, 2018).  A former designer with Google, he was also featured in the movie, The Social Dilemma. He joins us on Zoom from New York City. See omnystudio.com/listener for privacy information.

IFOTES Podcast
Digital Loneliness, Digital Relationships - Luca CHITTARO - “Human-Computer Interaction Lab” Director, Udine University (IT)

IFOTES Podcast

Play Episode Listen Later Feb 14, 2021 33:59


The 21st century saw a massive transition from traditional face-to-face communication to computer- and smartphone - mediated interaction between individuals. Some of the positive and negative effects of this significant social change are not yet fully understood, and are the subject of a growing amount of research. This talk will introduce attendees to this new topic, illustrating factors that characterize how we communicate and relate digitally, and how they affect us. It will then explore the paradox of digital loneliness, in which the same technologies that offer us a huge, unprecedented number of connections with other people make us actually spend more and more time alone. Digital tools such as instant messaging and social networks, as any technology, have a dual use (bad and good), and the talk will highlight how a mindful approach to digital relationships is fundamental to benefit, instead of suffering, from the new opportunities of digital life. Luca CHITTARO - is full professor of Human Computer Interaction (HCI) in the Department of Mathematics and Computer Science at the University of Udine, Italy, where he heads the HCI Lab. He has co-authored over 200 international publications, and he is an ACM Distinguished Speaker.Professor Chittaro's principal interestsare in the effects of technology on human beings, and in the disciplined design of digital technologies for human use. He particularly focuses on systems to train people in facing risky and stressful situations, and to promote positive attitude and behavior change in users, especially in the health and safety domains. He has led projects funded by institutions such as the US FAAand the EU. Recorded in Udine 5th July - IFOTES Congress "Leaving loneliness, building relationships"

CrowdScience
Would you risk your life to save another?

CrowdScience

Play Episode Listen Later Jun 10, 2020 32:59


Have you ever broken up a fight? Or pushed someone out the way of an oncoming vehicle, only to be hit by it yourself? Most of us probably haven’t taken as many risks as listener Alix, who has put herself in peril to save strangers on several occasions, and she wants Crowdscience to investigate why. At a time when medical professionals have to weigh up the personal dangers of working on the frontline of the Coronavirus crisis, it’s a particularly timely question. Marnie Chesterton finds out why it’s a good thing that children push the boundaries of what’s safe during playtime, because it makes them less anxious adults. And she questions the existence of the so-called bystander effect, discovering how evolution has ensured we’re a much braver species than we sometimes give ourselves credit for. But she hears from some social scientists who say there’s no such thing as a ‘hero’, however likely they are to intervene to help others. The virtual reality experience in this programme was created by the Human-Computer Interaction Lab of the University of Udine, Italy This programme has been updated since its original publication to correct an editorial error. Presented by Marnie Chesterton Produced by Marijke Peters

university coronavirus risk udine marnie chesterton human computer interaction lab
Idea Machines
Analogies, Context, and Zettleconversation with Joel Chan [Idea Machines #24]

Idea Machines

Play Episode Listen Later Mar 17, 2020 85:26


Intro In this episode I talk to Joel Chan about cross-disciplinary knowledge transfer, zettlekasten, and too many other things to enumerate. Joel is an a professor in the University of Maryland’s College of Information Studies and a member of their Human-Computer Interaction Lab. His research focuses on understanding and creating generalizable configurations of people, computing, and information that augment human intelligence and creativity. Essentially, how can we expand our knowledge frontier faster and better.  This conversation was also an experiment. Instead of a normal interview that’s mostly the host directing the conversation, Joel and I actually let the conversation be directed by his notes. We both use a note-taking system called a zettlekasten that’s based around densely linked notes and realized hat it might be interesting to record a podcast where the structure of the conversation is Joel walking through his notes around where his main lines of research originated. For those of you who just want to hear a normal podcast, don’t worry - this episode listens like any other episode of idea machines. For those of you who are interested in the experiment, I’ve put a longer-than normal post-pod at the end of the episode. Key Takeaways Context and synthesis are two critical pieces of knowledge transfer that we don’t talk or think about enough. There is so much exciting progress to be made in how we could generate and execute on new ideas. Show Notes More meta-experiments: An entry point to Joel’s Notes from our conversation - Wright brothers - Wing warping - Control is core problem - Boxes have nothing to do with flying - George Vestral - velcro - scite.ai - Canonical way you’re supposed to do scientific literature - Even good practice - find the people via the literature - Incubation Effect - Infrastructure has no way of knowing whether a paper has been contradicted - No way to know whether paper has been Refuted, Corroborated or Expanded - Incentives around references - Herb Simon, Allen Newell - problem solving as searching in space - Continuum from ill structured problem to well structured problems - Figuring out the parameters, what is the goal state, what are the available moves - Cyber security is both cryptography and social engineering - How do we know what we know? - Only infrastructure we have for sharing is via published literature - Antedisciplinary Science - Consequences of science as a career - Art in science - As there is more literature fragmentation it’s harder to synthesize and actually figure out what the problem is - Canonical unsolved problems - List of unsolved problems in physics  - Review papers are: Hard to write and Career suicide - Formulating a problem requires synthesis - Three levels of synthesis 1. Listing citations 2. Listing by idea 3. Synthesis - Bloom’s taxonomy  - Social markers - yes I’ve read X it wasn’t useful - Conceptual flag citations - there may actually be no relation between claims and claims in paper - Types of knowledge synthesis and their criteria - If you’ve synthesized the literature you’ve exposed fractures in it - To formulate problem you need to synthesize, to synthesize you need to find the right pieces, finding the right pieces is hard - Individual synthesis systems:       - Zettlekasten       - Tinderbox system       - Roam - Graveyard of systems that have tried to create centralized knowledge repository - The memex as the philosopher’s stone of computer science - Semantic web - Shibboleth words - Open problem - “What level of knowledge do you need in a discipline” - Feynman sense of knowing a word - Information work at interdisciplinary boundaries - carol palmer - Different modes of interdisciplinary research - “Surface areas of interaction”   - Causal modeling the Judea pearl sense - Sensemaking is moving from unstructured things towards more structured things and the tools matter

The Global Startup Movement - Startup Ecosystem Leaders, Global Entrepreneurship, and Emerging Market Innovation

Adil Yalcin is the founder and CEO of Keshif, a software tool at the intersection of analytics, design, and engineering. He earned his Ph.D. in Computer Science at the University of Maryland as a member of the Human-Computer Interaction Lab. Through his research, he created the basis of Keshif as the next-generation data exploration platform. Adil's academic work in data visualization and analysis has been published and cited in various books, proceedings, and academic journals. At Keshif Adil leads technical, design, analytics, and consulting services alongside his cofounder Behar Xharra. Adil is passionate about providing refined, effective, principled solutions that lower barriers of complex tools and complex processes, i.e. solutions that are “as simple as possible, but not simpler”.

Neues Terrain
Vibrationsbänder

Neues Terrain

Play Episode Listen Later Dec 19, 2017 46:30


Richtungsinformationen lassen sich sehr gut über Vibrationen vermitteln. Dafür hat Patryk Dzierzawski im Rahmen seiner Abschlussarbeit Vibrationsbänder entwickelt, aufgebaut und evaluiert.Am Lehrstuhl vom Computer Vision for Human-Computer Interaction Lab (cv:hci) und dem Studienzentrum für Sehgeschädigte (SZS) werden nicht nur Assistive Technologien für Menschen mit Sehbehinderungen evaluiert und angeboten, sondern auch dazu unterrichtet. Weiterhin werden Studierenden Möglichkeiten geboten unter anderem mit Abschlussarbeiten in diesem Bereich sich direkt an der Forschung zu beteiligen. Patryk Dzierzawski stellt dazu hier im Gespräch mit Gerhard Jaworek seine Abschlussarbeit zu Vibrationsbändern zur Navigationsunterstützung an Arm oder Fuß vor. Die Arbeit bestand aus dem Design, der prototypischen Herstellung, einer Ansteuerung durch Smartphone und der Evaluation des vibrotaktilen Interfaces. Die Vibrationsbänder selbst bestehen aus mit 3D-Druck erstellten Band und Gehäuse, einem Mikrocontroller mit Batterie und Vibrationsmotoren. Bei der Erstellung war das Vorwissen um Wearable Computing und Robotik sehr hilfreich. Schon in der Folge 2 „Blind Orientieren“ dieses Podcasts wurden vorgestellt, wie vibrotaktile Interfaces zum Einsatz kommen können. Meisst gab es hier nur einfache Vibrationen, wo hingegen die Vibrationsbänder drei von einander unabhängig ansteuerbare Vibrationsaktoren eingesetzt werden. Damit können elementare und wichtigste Navigationsanweisungen zur Richtung und Warnmeldungen zum Anhalten sehr direkt vermittelt werden. Der große Vorteil der vibrotaktilen Vermittlung liegt dabei darin, dass der Hörsinn nicht wie bei Narration und Sonifikation eingeschränkt wird. Im Gegensatz zu kommerziellen Lösungen wie dem VibroTac System lag in der Arbeit der Fokus auf einer leichten und preiswerten selbstätigen Herstell- und Reparierbarkeit durch Rapid Prototyping Technologien mit der damit einhergehenden Reduzierung auf eine minimale Lösung, die noch die volle Navigationsunterstützung liefern kann. Die Literaturrecherche führte unter anderem zum „Gentle Guide“, wo an jedem Arm ein Vibrationsmotor eingesetzt wurde, wo durch die Nutzenden gerade die Nutzung zweier Bänder kritisch gesehen wurde, so wurde hier eine Lösung mit nur einem Band angestrebt. Interessanterweise hat sich diese reduzierte Lösung als sehr effektiv in einem Navigationstest erwiesen, wenn auch die Interpretation der Signale im Vergleich zur akustischen Ausgabe durch den Menschen etwas länger dauerte. Im FDM 3D-Druck kamen für das Armband ein flexibles TPU Filament und für den Gehäuseschutz für Platine und Batterie ein hartes Filament zum Einsatz. Für den Microcontroller Adafruit Feather 32u4 Bluefruit LE mit eingebautem Bluetooth Low Energy (BLE)-Modul musste auch die Ansteuerelektronik für die Motoren ausgelegt werden. Die Programmierung erfolgte mit der Arduino-Entwicklungsumgebung und ermöglichte die Ansteuerung durch Smartphones über Bluetooth LE. Für die technische Ansteuerung der Vibrationsbänder wurde auch eine App für Android Smartphones entwickelt. Dabei wurde auch auf die Barrierefreiheit geachtet, damit auch blinde Menschen die technischen Tests durchführen können. In den damit ermöglichten Praxistests wurde geprüft, in wie weit die gewünschte Funktion erfüllt wird, welche Vibrationsstärken und -dauer als sinnvoll und angenehm bewertet wurden. Dabei wurden die Tests sowohl in Ruhe als auch in Bewegung durchgeführt. Interessanterweise wurden am Armband zur sichereren Unterscheidbarkeit typischerweise länger und stärker gewünscht, am Fußband wurden die angesetzten Standardwerte gut akzeptiert. Die Tests beschränkten sich aber auf die reine Identifikation der Vibrationen, erweiterte Wizard-of-Oz Tests bei dem ein Mensch die Funktion einer erweiterten Software simuliert und die Hardware direkt ansteuert, sollen eine Navigation simulieren und sind Teil eines späteren Tests im Terrain-Projekt. Literatur und weiterführende Informationen S. Schätzle, T. Ende, T. Wüsthoff, C. Preusche: „Vibrotac: An ergonomic and versatile usable vibrotactile feedback device.“, RO-MAN, IEEE, 2010. A. Meier, D. J. Matthies, B. Urban, R. Wettach: „Exploring vibrotactile feedback on the body and foot for the purpose of pedestrian navigation.“ Proceedings of the 2nd international Workshop on Sensor-based Activity Recognition and Interaction. ACM, 2015.

Neues Terrain
Freiflächen

Neues Terrain

Play Episode Listen Later Aug 11, 2016 130:58


Im Gespräch mit Daniel Koester am Computer Vision for Human-Computer Interaction Lab (cv:hci) geht es um die Erkennung des freien Weges vor unseren Füßen. Das cv:hci befasst sich mit der Fragestellung, wie Menschen mit Computer oder Robotern interagieren, und wie gerade die Bildverarbeitung dazu beitragen kann. Das Thema lässt sich auch gut mit dem Begriff der Anthropromatik beschreiben, der von Karlsruher Informatikprofessoren als Wissenschaft der Symbiose von Mensch und Maschine geprägt wurde und im Institut für Anthropromatik und Robotik am Karlsruher Institut für Technologie (KIT) http://www.kit.edu/ erforscht und gelebt wird. So wurde der ARMAR Roboter, der elektronische Küchenjunge (Video), ebenfalls am Institut an der Fakultät für Informatik  entwickelt. Schon früh stellte sich heraus, dass die Steuerung von Programmierung von Computern mit höheren Programmiersprachen wie Fortran, BASIC oder Logo durch Anlehnung an die menschliche Sprache große Vorteile gegenüber der Verwendung der Maschinensprache besitzt. Damit liegt das Thema ganz natürlich im Bereich der Informatik ist aber auch gleichzeitig sehr interdisziplinär aufgestellt: Das Team des KaMaRo (Folge im Modellansatz Podcast zum KaMaRo und Probabilistischer Robotik) entwickelt den Roboter in einem Team aus den Disziplinen Maschinenbau, Elektrotechnik und Informatik. Mit der Freiflächenerkennung befasst sich Daniel Koester seit seiner Diplomarbeit, wo er die Frage anging, wie die Kurzstreckennavigation für blinde Personen erleichtert werden kann. Hier besteht eine Herausforderung darin, dass zwischen einer Fußgängernavigation und der Umgebungserfassung mit dem Blindenlangstock eine große informative Lücke besteht. Nach Abschaltung der Selective Availability des GPS liegt die erreichbare Genauigkeit bei mehreren Metern, aber selbst das ist nicht immer ausreichend. Dazu sind Hindernisse und Gefahren, wie Baustellen oder Personen auf dem Weg, natürlich in keiner Karte verzeichnet. Dabei können Informationen von anderen Verkehrsteilnehmern Navigationslösungen deutlich verbessern, wie das Navigationssystem Waze demonstriert. Die Erkennung von freien Flächen ist außer zur Unterstützung in der Fußgängernavigation auch für einige weitere Anwendungen sehr wichtig- so werden diese Techniken auch für Fahrassistenzsysteme in Autos und für die Bewegungssteuerung von Robotern genutzt. Dabei kommen neben der visuellen Erfassung der Umgebung wie bei Mobileye auch weitere Sensoren hinzu: Mit Lidar werden mit Lasern sehr schnell und genau Abstände vermessen, Beispiele sind hier das Google Driverless Car oder auch der KaMaRo. Mit Schall arbeiten Sonor-Systeme sehr robust und sind im Vergleich zu Lidar relativ preisgünstig und werden oft für Einparkhilfe verwendet. Der UltraCane ist beispielsweise ein Blindenstock mit Ultraschallunterstützung und der GuideCane leitet mit Rädern aktiv um Hindernisse herum. Mit Radar werden im Auto beispielsweise Abstandsregelungen und Notbremsassistenten umgesetzt. Die hier betrachtete Freiflächenerkennung soll aber keinesfalls den Langstock ersetzen, sondern das bewährte System möglichst hilfreich ergänzen. Dabei war es ein besonderer Schritt von der Erkennung bekannter und zu erlernenden Objekte abzusehen, sondern für eine größere Robustheit und Stabilität gerade die Abwesenheit von Objekten zu betrachten. Dazu beschränken sich die Arbeiten zunächst auf optische Sensoren, wobei Daniel Koester sich auf die Erfassung mit Stereo-Kamerasystemen konzentriert. Grundsätzlich ermöglicht die Analyse der Parataxe eine dreidimensionale Erfassung der Umgebung- dies ist zwar in gewissem Maße auch mit nur einer Kamera möglicht, die sich bewegt, jedoch mit zwei Kameras in definiertem Abstand wird dies deutlich leichter und genauer. Dies entspricht dem verbreiteten stereoskopischen Sehen von Menschen mit Augenlicht, doch mitunter kommt es zu Situationen, dass Kinder bei einem schwächeren Auge das stereoskopische Sehen nicht erlernen- hier können temporär Augenpflaster zum Einsatz kommen. Zur Rekonstruktion der Tiefenkarte aus einem Stereobild müssen zunächst korrespondierende Bildelemente gefunden werden, deren Parallaxenverschiebung dann die Bildtiefe ergibt. Ein Verfahren dazu ist das Block-Matching auf Epipolarlinien. Für ein gutes Ergebnis sollten die beiden Sensoren der Stereo-Kamera gut kalibriert und die Aufnahmen vor der Analyse rektifiziert sein. Die Zuordnung gleicher Bildelemente kann auch als lokale Kreuzkorrelation gesehen werden. Diese Tiefenrekonstruktion ist auch den menschlichen Augen nachempfunden, denen durch geeignete Wiederholung zufälliger Punkte in einem Bild eine räumliche Szene vorgespielt werden kann. Dieses Prinzip wird beim Stereogrammen oder Single Image Random Dot Stereogram (SIRDS)  ausgenutzt. Weiterhin muss man die Abbildungseigenschaften der Kameras berücksichtigen, damit die Parallaxverschiebungen auf horizontalen Linien bleiben. Ebenso müssen Vignettierungen ausgeglichen werden. Algorithmen, die nur lokale Informationen zur Identifikation von Korrespondenzen verwenden, lassen sich sehr gut parallelisieren und damit auf geeigneter Software beschleunigen. Für größere gleichmäßige Flächen kommen diese Verfahren aber an die Grenzen und müssen durch globale Verfahren ergänzt oder korrigiert werden. Dabei leiden Computer und Algorithmen in gewisser Weise auch an der Menge der Daten: Der Mensch ist ausgezeichnet darin, die Bildinformationen auf das eigentlich Wichtige zu reduzieren, der Computer hat damit aber große Schwierigkeiten. Für den Flowerbox-Testdatensatz (2GB) wurden Videos mit 1600x1200 Pixeln aufgelöste und synchronisierte Kameras in Stereo aufgezeichnet. Beispiele für synchronisierte Stereokamera-Systeme im Consumer-Bereich sind die Bumblebee oder das GoPro 3D-System. Die Kameras wurden leicht nach unten gerichtet an den Oberkörper gehalten und damit Aufnahmen gemacht, die dann zur Berechnung des Disparitätenbildes bzw. der Tiefenkarte verwendet wurden. Ebenso wurden die Videos manuell zu jedem 5. Bild gelabeled, um die tatsächliche Freifläche zur Evaluation als Referenz zu haben. Der Datensatz zeigt das grundsätzliche Problem bei der Aufnahme mit einer Kamera am Körper: Die Bewegung des Menschen lässt die Ausrichtung der Kamera stark variieren, wodurch herkömmliche Verfahren leicht an ihre Grenzen stoßen. Das entwickelte Verfahren bestimmt nun an Hand der Disparitätenkarte die Normalenvektoren für die Bereiche vor der Person. Hier wird ausgenutzt, dass bei der Betrachtung der Disparitätenkarte von unten nach oben auf freien Flächen die Entfernung kontinuierlich zunimmt. Deshalb kann man aus der Steigung bzw. dem Gradienten das Maß der Entfernungszunahme berechnen und damit die Ausrichtung und den auf der Fläche senkrecht stehenden Normalenvektor bestimmen. Die bestimmte Freifläche ist nun der zusammenhängende Bereich, bei denen der Normalenvektor ebenso aufrecht steht, wie bei dem Bereich vor den Füßen. Die Evaluation des Verfahrens erfolgte nun im Vergleich zu den gelabelten Daten aus dem Flowerbox-Datensatz. Dies führt auf eine Vierfeld-Statistik für das Verfahren. Im Ergebnis ergab sich eine korrekte Klassifikation für über 90% der Pixel auf Basis der realistischen Bilddaten. Die veröffentlichte Software ist im Blind and Vision Support System (BVS) integriert, in der erforderliche Module in der Form eine Graphen mit einander verknüpft werden können- bei Bedarf auch parallel. Eine ähnliche aber gleichzeitig deutlich umfassendere Architektur ist das Robot Operation System (ROS), das noch viele weitere Aspekte der Robotersteuerung abdeckt. Eine wichtige Bibliothek, die auch stark verwendet wurde, ist OpenCV, mit der viele Aspekte der Bildverarbeitung sehr effizient umgesetzt werden kann. Die Entwicklung der Hardware, gerade bei Mobilgeräten, lässt hoffen, dass die entwickelten Verfahren sehr bald in Echtzeit durchgeführt werden können: So können aktuelle Smartphones Spiele Software des Amiga Heimcomputers in einem interpretierten Javascript Emulator auf der Amiga Software Library auf Archive.org nahezu in Orginalgeschwindigkeit darstellen. Für die Umsetzung von Assistenzsystemen für blinde und sehgeschädigte Menschen ist aber auch immer der Austausch mit Nutzern erforderlich: So sind Freiflächen für sich für blinde Personen zunächst Bereiche ohne Orientierbarkeit, da es keinen tastbaren Anknüpfungspunkt gibt. Hier müssen entweder digitale Linien erschaffen werden, oder die Navigation sich weiter nahe an fühlbaren Hindernissen orientieren. Am cv:hci ist der Austausch durch das angeschlossene Studienzentrum für sehgeschädigte Studierende (SZS) unmittelbar gegeben, wo entwickelte Technik sich unmittelbar dem Alltagsnutzen stellen muss. Die entwickelte Freiflächenerkennung war nicht nur wissenschaftlich erfolgreich, sondern gewann auch einen Google Faculty Research Award und die Arbeitsgruppe wurde in der Lehre für ihr Praktikum den Best Praktikum Award 2015 ausgezeichnet.Literatur und weiterführende Informationen D.Koester: A Guidance and Obstacle Evasion Software Framework for Visually Impaired People, Diplomarbeit an der Fakultät für Informatik, Karlsruher Institut für Technologie (KIT), 2013.D. Koester, B. Schauerte, R. Stiefelhagen: Accessible Section Detection for Visual Guidance, IEEE International Conference on Multimedia and Expo Workshops (ICMEW), 2013.

video system mit team thema blind software videos weg auto computers dabei kinder basic gps logo mensch dazu damit schon grenzen augen schritt weise bild basis deshalb sprache bereich evaluation herausforderung archive situationen technik einsatz analyse personen chen hardware vorteile arbeiten menge im gespr aufnahme daten vergleich auge aspekte punkte umsetzung wissenschaft begriff autos ergebnis austausch schwierigkeiten beispiele institut pixel szene kamera gefahren umgebung bereiche abstand navigation sehen literatur bumblebee stereo techniken multimedia lehre lidar ebenso verfahren hindernisse stabilit karte module bedarf grunds roboter maschine wichtige ausrichtung verwendung betrachtung aufnahmen architektur weiterhin anwendungen baustellen abst algorithmen das team kameras wiederholung abwesenheit praktikum bibliothek die entwicklung hindernissen informatik computer vision objekte weges steuerung entfernung identifikation linien metern echtzeit fragestellung symbiose nutzern fakult berechnung sensoren robotik programmierung robotern computern objekten genauigkeit erfassung anlehnung erkennung oberk verfahrens arbeitsgruppe referenz ankn mobileye koester fortran elektrotechnik die bewegung diplomarbeit augenlicht karlsruher institut dieses prinzip robustheit im ergebnis klassifikation lasern mobilger freifl graphen technologie kit opencv steigung pixeln bildverarbeitung visually impaired people bewegungssteuerung assistenzsystemen bilddaten ieee international conference ein verfahren die evaluation gradienten studienzentrum die erkennung die zuordnung human computer interaction lab bildelemente der datensatz modellansatz podcast kreuzkorrelation normalenvektor
Lifelong Learning
Big Data in Medicine: "The Good, the Bad, and the Creepy" Implications for Patient Care

Lifelong Learning

Play Episode Listen Later Feb 15, 2015


Host: Alicia A. Sutton Guest: Jennifer Golbeck, PhD How will new computational techniques leveraging "big data" analytics impact healthcare systems and medical practices, and where should this data come from? Alicia Sutton welcomes Jennifer Golbeck, director of the Human Computer Interaction Lab and associate professor at the College of Information Studies of the University of Maryland, to discuss present and future directions in big data usage for medicine and society.