POPULARITY
Die aktuellen Wirtschaftsnachrichten mit Michael Weyland Thema heute:Smarte Videoüberwachung für das eigene Heim bietet Schutz, birgt aber auch Gefahren. Hacker nutzen Sicherheitslücken, um auf Aufnahmen zuzugreifen. Ob KI-basierte Objekterkennung, Steuerung über Sprachassistenz oder Fernzugriff: Smarte Überwachungskameras für den Heimgebrauch versprechen Verbrauchern mit intelligenten Funktionen ein sicheres Zuhause. Laut einer repräsentativen Bitkom-Umfrage hat im vergangenen Jahr gut jeder fünfte Bundesbürger (21 Prozent) im eigenen Haushalt eine smarte Videoüberwachung genutzt. Doch die vernetzten Geräte bergen auch Risiken. Cyberkriminelle können gezielt Schwachstellen ausnutzen, um auf Kameras zuzugreifen und private Daten zu stehlen. Wissen Einbrecher beispielsweise, zu welchen Zeiten das Haus leer ist oder Betrüger, welche Personen im Haushalt leben, haben sie leichteres Spiel. „Intelligente Überwachungskameras bieten ein hohes Maß an Sicherheit. Verbraucher sollten bei der Installation und Nutzung auf die Cybersicherheit achten“, sagt man beim TÜV-Verband. „Schon einfache Maßnahmen wie die Verwendung eines sicheren Passworts können helfen, Angreifer fernzuhalten.“ Der TÜV-Verband gibt Tipps zum Kauf und Einsatz intelligenter Videoüberwachungssysteme.Intelligente Überwachungskameras erzeugen Live-Bilder in meist hoher Auflösung. Sie sind mit dem Internet verbunden und übertragen Daten in die Cloud, auf das Handy, das Tablet oder den Computer. Hacker nutzen verschiedene Methoden, um in das Heimnetzwerk oder die Systeme von smarten Überwachungskameras einzudringen. Ein typisches Einfallstor sind unsichere Passwörter. Viele Nutzer belassen es oft bei den voreingestellten Standardpasswörtern oder nutzen in der Videoüberwachungssoftware Passwörter, die leicht zu erraten sind, sagt man beim TÜV-Verband. Der Sicherheitsgewinn eines starken, individuellen Passworts wird häufig unterschätzt. Es wird empfohlen, ein möglichst langes Passwort mit mindestens acht Zeichen und verschiedenen Zeichentypen zu verwenden. Falls vorhanden, ist eine Zwei-Faktor-Authentifizierung noch sicherer. Bei dieser Variante kann zum Beispiel ein individueller Code per SMS verschickt oder ein hardwarebasierter TAN-Generator auf dem eigenen Handy genutzt werden. Außerdem sollten Nutzer regelmäßig Software-Updates durchführen. „Ohne die jeweils neusten Updates bleiben bekannte Sicherheitslücken bestehen, die Angreifer ausnutzen können“. Wer sein Zuhause mit Kameras schützen möchte, muss bei der Platzierung einiges beachten. Grundsätzlich dürfen Überwachungskameras nur das eigene Grundstück erfassen: Nachbargrundstücke, öffentliche Wege oder gemeinsam genutzte Zufahrten bleiben tabu. Die Vorgaben gehen aber noch weiter: Die Kameras dürfen technisch nicht so geschwenkt oder ausgerichtet werden können, dass sie fremdes Eigentum filmen können. Selbst wenn das Gerät gerade auf das eigene Grundstück zeigt, kann allein die Möglichkeit der Neuausrichtung zu rechtlichen Konflikten führen. Diesen Beitrag können Sie nachhören oder downloaden unter:
Auto - Rund ums Auto. Fahrberichte, Gespräche und Informationen
Beim neuen Honda CR-V hat der japanische Automobilhersteller nichts dem Zufall überlassen und ihn mit der fortschrittlichsten Variante des Vollhybridantriebs von Honda ausgestattet. Neben dem e:HEV gibt es eine e:PHEV genannte Plug-in-Variante. Genau die haben wir getestet! Darum geht es diesmal!Er ist mittlerweile in seiner sechsten Generation angekommen, der Honda CR-V, der globale Bestseller des Automobilherstellers. Und in dieser sechsten Generation ist er ganz schön erwachsen geworden, das merkt man schon an seiner Größe. Ich meine mich nämlich daran erinnern zu können, dass er vor einigen Generationen deutlich kleiner ausgefallen ist. Wie dem auch sei: das neue SUV von Honda hat ein sehr attraktives Äußeres bekommen.Power und Drive! Neben dem bekannten e:HEV Vollhybridantrieb hat man dem CR-V als erstem Honda Modell in Europa einen dynamischen und effizienten Plug-in-Hybridantrieb (e:PHEV) spendiert. Dieser neue e:PHEV ermöglicht dem SUV eine rein elektrische Reichweite von rund 80 km. Dies wird durch eine kompaktere Batterie mit höherer Energiedichte und durch einen effizienteren Motor erreicht. Der neue CR-V bringt 135 kW (184 PS) und ein Drehmoment von 335 Nm mit, beschleunigt in 9,4 Sekunden von 0 auf 100 km/h. 195 km/h schafft er als Höchstgeschwindigkeit. Den Wagen gibt es wahlweise mit Front- und Allradantrieb, wir haben die Version e:PHEV Advance Tech 2WD getestet, die mit einem kombinierten Stromverbrauch von 17,2 kWh 100 km weit kommt. Ist die Batterie entladen, liegt der Benzinverbrauch kombiniert bei 6,2 l/100 km. An dieser Stelle möchte ist unbedingt die Tatsache erwähnen, dass der neue CR-V als erstes Honda Modell in Europa über Honda SENSING 360 verfügt. Dabei handelt es sich um hochmoderne Fahrerassistenz- und Unfallvermeidungssysteme, die für einen Rundumschutz um das Fahrzeug sorgen. Dazu gehören eine nach vorne gerichtete 100-Grad-Kamera, ein Millimeterwellenradar sowie vier Seitenradarsysteme, die zusammen die namensgebende komplette 360-Grad-Rundumsicht um das Fahrzeug gewährleisten. Objekterkennung durch Frontkamera und Radar ermöglicht ein schnelles Erkennen von Fahrspurbegrenzungen, Seitenstreifen, Motorrädern, Fahrradfahrern sowie anderen Fahrzeugen.Die Kosten!Die Preise und Ausstattungslinien für den neuen Honda CR-V hier komplett herunter zu beten würde uns leider zu viel Zeit kosten, deshalb nur der Hinweis, dass man den Wagen in einer Preisskala von 49.600 €-60.800 € bekommt. Letzteres ist genau die Advance Tech 2WD Version, die wir im Test hatten. Alle Fotos: © Honda Motor Europe Ltd. Diesen Beitrag können Sie nachhören oder downloaden unter:
Die aktuellen Automobilkurznachrichten mit Michael Weyland Thema heute: Neuer Honda CR-V erhält Fünf-Sterne Bewertung im Euro NCAP Test Der Honda Zielsetzung entsprechend, bis zum Jahr 2050 keine Verkehrstoten unter der Beteiligung von Honda Fahrzeugen zu verzeichnen, verfügt die sechste Generation des CR-V über eine Reihe an verbesserten und modernisierten Technologien, um einen der höchsten Sicherheitsstandards für Passagiere und Fußgänger in seiner Klasse zu erreichen. Honda SENSING 360° verfügt über eine 100° Frontkamera, Millimeterwellenradar und vier Eckradare, um eine vollständige 360°-Sicht rund um das Fahrzeug zu bieten. Die Objekterkennung per Bild über die upgedatete Frontkamera des CR-V und die Objekterkennung per Radar ermöglichen es dem Fahrzeug, Straßenlinien, Straßenränder, Motorräder, Radfahrer und weitere Fahrzeuge zu erkennen. Zu Hondas umfangreichem SENSING 360° Angebot gehört auch eine verbesserte Front-Querverkehrs-Warnung, welche Fahrzeuge links, rechts und vor dem Auto erkennen soll, bevor akustische, visuelle und taktile Warnungen ausgegeben werden, um den Fahrer zu warnen, wenn sich andere Fahrzeuge mit zu hoher Geschwindigkeit nähern. Wenn der Fahrer nicht reagiert, wird das Collision Mitigation Braking System ausgelöst, das automatisch einen leichten Bremsdruck ausübt, um die Wahrscheinlichkeit oder den Schweregrad eines Frontalaufpralls zu verringern. Erkennt das System eine drohende Kollision, bremst es kräftig ab. Zusätzlich zu Honda SENSING 360° verfügt die Karosserie des CR-V über eine Reihe von strukturellen Verstärkungen, um die allgemeine passive Sicherheit des Fahrzeugs zu erhöhen und die strengen Euro NCAP-Sicherheitsstandards für den Schutz erwachsener Passagiere zu erreichen. Dazu gehören der Seitenrahmen und das obere Fahrgestellelement, die mit mehreren Lastpfaden ausgelegt sind, um die Aufprallenergie effizient von den Passagieren weg zu leiten. Darüber hinaus wurde die A-Säule so gestaltet und verstärkt, dass eine Verformung der Fahrgastzelle vermieden wird. Zusätzlich verfügen alle Ausstattungsvarianten des neuen CR-V serienmäßig über insgesamt 11 Airbags, darunter Knieairbags für beide Frontinsassen, um Verletzungen bei einem Frontalaufprall zu reduzieren, sowie über Seitenairbags zum Schutz der Passagiere vorne und hinten. Erstmals ist ein zentraler Frontairbag verbaut, der bei einem Seitenaufprall eine Kollision zwischen Fahrer und Beifahrer verhindert. In Deutschland erreichen alle Modellvarianten des CR-V e:HEV und e:PHEV die Fünf-Sterne Bewertung in den neuen, strengeren NCAP-Tests. Alle Fotos: Honda Motor Europe Ltd. Diesen Beitrag können Sie nachhören oder downloaden unter:
In der Nachmittagsfolge sprechen wir heute mit Michael Putz, CEO und Co-Founder von Blackshark.ai, über die erfolgreich abgeschlossene Erweiterung der Series-A-Finanzierungsrunde in Höhe von 15 Millionen US-Dollar.Blackshark.ai ist ein KI-Unternehmen für Geoinformationsdienste, das Petabytes an Satellitenbildern in wenigen Stunden verarbeitet und Objekte, Straßen, Vegetation und andere Infrastrukturen auf der Oberfläche des Planeten erkennt sowie segmentiert. Diese semantischen Informationen werden verwendet, um eine umfassende digitale 3D-Darstellung der Welt zu erstellen. So hat das Startup beispielsweise einen digitalen 3D-Zwilling der Erde für Microsofts Flugsimulator erstellt. Blackshark.ai bedient neben den kommerziellen Unternehmen auch staatliche Kunden mit dynamischen 3D-Kartierungen, die mit hoher Frequenz und geospatialer Intelligenz erstellt werden und die Kunden somit in die Lage versetzt, mit wertvollen Einblicken fundierte sowie strategische Entscheidungen zu treffen. Insgesamt kann ein breites Spektrum globaler Herausforderungen mit den Lösungen des Startups bewältigt werden. Darunter zählen Sicherheit, Umweltschutz, Stadtplanung, Überwachung kritischer Infrastrukturen, Katastrophenschutz und humanitäre Hilfe. Herkömmliche 3D-Kartierungen basieren auf Photogrammetrie, die langsamer und kostspieliger ist, da sie u.a. eine große Menge an Bildmaterial erfordert. Das Startup hat zudem eine Plattform entwickelt, die riesige Mengen an Rohdaten aus Satelliten- und Luftbildern nahtlos in semantisch beschriftete, raumbezogene digitale Zwillinge umwandelt. Diese Software ermöglicht nicht nur eine schnelle und genaue Objekterkennung und -klassifizierung im großen Maßstab, ohne dass umfangreiche, kostspielige und zeitaufwändige Trainingsdaten benötigt werden, sondern auch eine umfassende Analyse von Landnutzung und Landbedeckung. Blackshark.ai wurde im Jahr 2020 von Brad Young, Michael Putz und Thomas Richter in Graz gegründet.Nun hat das österreichische Startup in einer Erweiterung der Series A weitere 15 Millionen US-Dollar eingesammelt, wodurch die Gesamtinvestition in der Series-A-Runde auf 35 Millionen US-Dollar steigt. Zu den bestehenden Investoren Point72 Ventures, M12 Microsoft's Venture Fund und Maxar gesellen sich In-Q-Tel, Safran, der von ISAI verwaltete VC-Fonds von Capgemini namens ISAI Cap Venture, Einstein Industries Ventures, Interwoven Ventures, Ourcrowd, Gaingels und OpAmp Capital. Mit dem frischen Kapital möchte Blackshark.ai seine 3D-Hochfrequenzkartierung und Geospatial Intelligence-Fähigkeiten erweitern und es zudem für strategische Technologieentwicklungen und zur Verstärkung der Vertriebs- und Marketingaktivitäten einsetzen.
Willkommen zur neuen Folge des KI Powerboost Podcasts! In dieser Episode spreche ich über die KI-Tools, die ich im Alltag nutze und für besonders wertvoll erachte. Mit der ständig wachsenden Anzahl an Tools auf dem Markt kann es schwierig sein, den Überblick zu behalten. Deshalb teile ich meine Empfehlungen und gebe Einblicke in die Anwendungsfälle meiner Lieblings-KI-Tools. Erfahrt, wie diese Tools mir helfen, Zeit zu sparen, Inhalte zu erstellen und neue Möglichkeiten zu entdecken. Also lasst uns direkt in die Welt der KI-Tools eintauchen und erfahren, wie sie unseren Alltag bereichern können. Viel Spaß bei dieser spannenden Folge des KI Powerboost Podcasts! Hier meine Empfehlungen aus der Folge: Der Newsletter von Theres an AI for That: https://newsletter.theresanaiforthat.com/ ChatGPT: https://chat.openai.com Midjourney: https://midjourney.com ElevenLabs: https://elevenlabs.io/ HeyGen: https://www.heygen.com/ Riverside.fm: https://riverside.fm/ Castmagic: https://www.castmagic.io/ Timestamps [00:00:13] Überblick zu wertvollen KI Tools im Alltag [00:03:18] Tool zur Prozessautomatisierung spart viel Zeit. Anwendungsbereiche: Copywriting, Entscheidungsfindung, Feedback von Kunden. [00:06:51] Überblick zu weiteren Tools [00:13:18] Fragen in meinen Stories stellen, Spannende Interviews hier geplant Keywords KI Power Boost Podcast, KI Tools, Instagram, TikTok, YouTube, Newsletter, OpenAI, Prompt Engineering, ChatGPT, Plus-Version, Plugins, Webpilot, SAP, Prozessautomatisierung, LinkedIn-Kontakte, HubSpot, Copywriting, Content-Erstellung, Blogposts, Posts, Ideen, kreative Arbeiten, Brainstormings, Entscheidungen, Konsequenzen, Chat-GPT, Perspektive, Kundenfeedback, E-Mails, Botschaft, Optimierungsvorschläge, Objekterkennung, Kamera, Bilder erklären, Statistiken erklären, Feedback, Midjourney, Bilder erzeugen, Grafikdesigner, Inspiration, Logodesigns, Webdesigns, 11Labs, Text, Stimmen, Podcast Intro, Imagefilme, Werbung, Reels, Shorts, KI-Avatar, HeyGen, Trainingsvideo, KI-Avatar-erzeugen, Feintuning, Content, Post-Production, Podcasts
Die Einführung von künstlicher Intelligenz (KI) hat Auswirkungen auf die Arbeitswelt, wobei kontroverse Positionen zu hören sind. Einige befürchten, dass KI zu Verwerfungen am Arbeitsmarkt und einer eingeschränkteren Rolle für menschliche Arbeitskräfte führen wird, während andere eine Steigerung der Produktivität und des Wohlergehens von Arbeitskräften erwarten. Auswirkungen sind spürbar bei der Automatisierung von Routineaufgaben und dadurch der Veränderungen bei der Nachfrage nach Fähigkeiten. Neue Berufe und Arbeitsplätze entstehen, die Herausforderungen im Zusammenhang mit der Weiterbildung steigen. Und der Einfluß wird in Zukunft voraussichtlich noch stärker werden. Insgesamt wird der Einsatz von KI in der Arbeitswelt sowohl Chancen als auch Herausforderungen für Beschäftigte bieten. Was ist heute schon Praxis? Was können Organisationen und Beschäftigte heute schon tun?Nicole Röttger ist Geschäftsführerin bei Apiarista und treibt hier Themen wie Transformation, Organisationsdesign und agiles Management. Als ausgebildete Pädagogin und studierte Verwaltungswissenschaftlerin bringt sie ein breites Wissen mit, wenn es darum geht, Neues in Organisationen anzuschieben.Fundstück der Woche:Auswirkungen von KI auf den ArbeitsplatzOPITZ CONSULTING ■■■ Digitale Service ManufakturDisclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.Nina & Frank laden sich Gäste ein und sprechen mit ihnen über aktuelle Entwicklungen im Umfeld der Künstlichen Intelligenz.
KI-Systeme werden seit Jahren besser darin, Bilder und Objekte zu erkennen. Ob es darum geht, eine Person an ihrem Gesicht zu identifizieren, bildgebende Verfahren in der Medizin zu unterstützen oder den Straßenverkehr mithilfe von Objekterkennung zu regeln. Auch in Industrie und Behörden ist diese Technologie im Einsatz. Mittlerweile können intelligente Systeme Bilder sogar selbst produzieren: So generiert "Dall-E 2" Bilder aus vorgegebenen Phrasen. Luminous von Aleph Alpha kann Bilder analysieren und diese erklären. GPT-4 soll Rezepte erstellen können, wenn sie ein Foto einiger Zutaten bekommt. Doch wie nutze ich Objekterkennung ganz praktisch im industriellen Umfeld, und welche Daten brauche ich dafür? Das fragen wir Prof. Patrick Tichelmann, als Prodekan der FH Köln zuständig für die Studiengänge der Ingenieurwissenschaften. Eines seiner Forschungsgebiete ist die Anwendung von Technologien der Künstlichen Intelligenz in industriellen Prozessen. Dabei geht es vor allem um die Übertragbarkeit von simulierten Reinforcement-Learning-Algorithmen auf reale Prozesse. Mit dem Ziel, Schwachstellen zu finden und Algorithmen so anzupassen, dass diese nicht mehr auftreten.Fundstück der Woche: Was kann GPT-4?Was ist Luminous von Aleph Alpha?OPITZ CONSULTING ■■■ Digitale Service ManufakturDisclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.Nina & Frank laden sich Gäste ein und sprechen mit ihnen über aktuelle Entwicklungen im Umfeld der Künstlichen Intelligenz.
Der Markt für fahrerlose Transportsysteme (FTS) hat in den letzten 20 Jahren einen technologischen Wandel erlebt. Früher stand das Fahrzeug im Fokus - heute gewinnt die Software, z. B. Navigationstechnologien, immer mehr an Bedeutung. Das Unternehmen DS AUTOMOTION ist eines der weltweit führenden Anbieter von FTS und autonomer mobiler Robotik (AMR). Seit knapp 40 Jahren sind sie auf dem FTS-Markt etabliert, wodurch sie jede technologische Entwicklung miterlebten. In dieser Podcastfolge nimmt dich der Geschäftsführer von DS AUTOMOTION und VDMA Vorstandsmitglied, Wolfgang Hillinger mit auf die Reise in die Welt der FTS & AMR. Das wirst du erfahren: Welche Kernkompetenzen DS AUTOMOTION in Bezug auf FTS und AMR stets Inhouse beherrschen will und dies sogar strategisch verankert hat Warum technologische Trends, wie 5G oder Kamerasysteme, die FTS-Branche transformieren Welchen Einfluss 5G auf die Objekterkennung und den Personenschutz hat An welchen Weiterentwicklungen des Kommunikationsstandards VDA 5050 DS AUTOMOTION zusammen mit dem VDMA arbeitet Welche Unterschiede Wolfgang Hillinger zwischen der VDA 5050 und dem Standard von Mass Robotics evaluiert Mit welcher Technologie sich DS AUTOMOTION für den IFOY Award nominiert hat Du möchtest mehr über diese Themen lernen? Dann hör jetzt rein! Zu unserem Gast: Wolfgang Hillinger ist Geschäftsführer der DS Automotion GmbH und Vorstandsmitglied des VDMA - Fachabteilung Fahrerlose-Transport-Systeme FTS. Seit fast 25 Jahre brennt seine Leidenschaft für innovative Technologien, die ein wichtiger Bestandteil von fahrerlosen Transportsystemen (FTS/AGV) und autonomer mobiler Robotik sind. Neben dieser Begeisterung für das eigene Unternehmen, hat er auch die Funktion als Vorstandsmitglied des VDMAs inne. In dieser Rolle fühlt er sich verpflichtet, die Interessen aller Mitglieder zu berücksichtigen und die Branche bei der gemeinsamen Entwicklung der VDA5050 zu vertreten. ____ Über die DS AUTOMOTION: Die DS AUTOMOTION GmbH mit Sitz in Linz ist ein weltweit führender Anbieter fahrerloser Transportsysteme und autonomer mobiler Robotik. Das Unternehmen ist seit 1984 auf die Entwicklung und Produktion von Automatisierungslösungen für unterschiedlichste Anwendungen und Branchen spezialisiert und Teil der SSI Schäfer Gruppe. Die Erfahrung aus Entwicklung und Produktion von über 8.000 kundenspezifischen Fahrzeugen fließt in die Entwicklung der eigenen Produkte und Technologien mit ein. Über 260 Mitarbeiter agieren weltweit, was sich in einer Exportquote von über 90% widerspiegelt. Du möchtest mehr über DS AUTOMOTION erfahren? Dann besuche ihre Website: www.ds-automotion.com. Vernetz dich mit Victor und Wolfgang Hillinger über LinkedIn: Victor Splittgerber: https://www.linkedin.com/in/victor-splittgerber-93547290 Wolfgang Hillinger: https://www.linkedin.com/in/wolfgang-hillinger-81b89592/ Nähere Infos zu WAKU Robotics, den Expertinnen und Experten für mobile Roboter in der Logistik und Produktion, gibt es auf www.waku-robotics.com. Bezahlte Partnerschat.
Weshalb haben wir 2 Augen? Weil mit einem Auge können wir zwar die Dinge im Sichtfeld wahrnehmen, jedoch können wir nur schwer abschätzen, wie weit sie entfernt sind. Also die Kombination von beiden Augen erlaubt uns, den richtigen Tiefeneindruck und damit die Distanz zu den Objekten zu erhalten. Damit dienen unsere Augen nicht einzig der Objekterkennung, sondern auch dazu, die zusätzliche Information der Distanz zu erfassen. Das ist oft wichtig. Beispielsweise um Gefahr korrekt einstufen zu können. Das zweite Auge schafft also den Zugang zu einer weiteren Dimension, dem Raum. Und wie das zweite Auge diesen Zugang schafft, so haben wir auch geistliche Wahrnehmung oder geistliche Augen, die uns in diesen Bereich blicken lassen. Bist Du Dir dessen bewusst? In diesem Raum geschieht nämlich auch sehr viel, das wir wahrnehmen und uns dann entsprechend verhalten können. Vielleicht blickst Du mal ganz bewusst in diesen Raum hinein. Ich wünsche Dir einen aussergewöhnlichen Tag! --- Send in a voice message: https://anchor.fm/audiostretto/message
COMPUTER VISION | AUTONOME ROBOTER | OBJEKTERKENNUNG | www.iotusecase.com | Stephan Schiffner (CTO bei Steadforce, Entwickler für skalierbare, sichere und nachhaltige digitale Plattformen) und Philipp Bannasch (Team Leader Sensorintegration bei EvoLogics, Spezialisten für Objekterkennung unter Wasser und Unterwasserkommunikation) berichten in dieser Podcastfolge von einem exotischen Use Case: Gewachsen aus einem Forschungsprojekt der TU Berlin über die Sprache der Delfine, verstand sich EvoLogics darauf, die gewonnenen Erkenntnisse auch für die menschliche Arbeit unter Wasser nutzbar zu machen. Mit einem ganzen Zoo an Robotern kundschaften sie Gewässer aus und leiten die intelligent aufbereiteten und selektierten Daten an Instanzen wie beispielsweise die Polizei weiter, um in Flüssen und Seen verborgene Objekte aufzuspüren. Diese werden bei ihrer Ermittlungsarbeit entlastet, indem ihnen vor allem ausgewählte, verdächtige Details präsentiert werden.Grundsätzlich werden die hierfür genutzten Daten per Sonar, akustisch, erhoben. Besondere Herausforderungen ergaben sich in diesem Use Case daraus, dass zunächst ein Modell entwickelt werden musste, das in der Lage ist, aus dem Datenmaterial Objekte herauszufiltern - also überhaupt als »Objekt« zu erkennen und diese im Anschluss bestimmten Kategorien zuzuordnen. Um ein Modell für solche Aufgabe zu trainieren, benötigen Entwickler ausreichend große Datenmengen, welche auf diesem speziellen Feld nicht ohne Weiteres verfügbar sind. An dieser Stelle - für das Modelltraining - kam die Kompetenz von Steadforce ins Spiel, die beispielsweise mithilfe von Datenaugmentations-Techniken den Pool künstlich zu vergrößern wussten, um die Erkennungsrate der Software trotz schlanker Datenmengen immer wieder gezielt auf die Probe zu stellen.Auch die Übertragung der »an der Quelle« gewonnen Daten selbst ist auf diesem Gebiet eine Kunst für sich. Ist die noch so gut trainierte Technik live im Einsatz, kann man sich nicht auf die gewohnten Funkverbindungen stützen – unter Wasser ist die hergebrachte Datenrate ungefähr so weit wie Modems in ihren Anfangsjahren, die mit wenigen Kilobyte pro Minute vor sich hin piepten. Zudem wird die Datenverbindung unter Wasser durch vielfältigste Einflüsse gestört. Fast lässt sich sagen, die Steuerung der Gerätschaften ist ähnlich widrigen Umständen ausgesetzt, wie wenn sie sich auf dem Mars befänden. Dem begegnen die Entwickler einerseits, indem bereits »vor Ort«, an Bord der mobilen Technik, mit der Datenauswertung begonnen wird, um gezielt ausschließlich die erfolgversprechendsten Ergebnisse zu übermitteln. Zum anderen machen sie sich die Ergebnisse aus der Delfinforschung zunutze: Im Gegensatz zum wenig komplexen – und deshalb besonders störanfälligen – »Morsen« herkömmlicher Sendegeräte, kommunizieren Delfine geradezu singend. Solchermaßen übertragene Informationen zeigen sich sehr viel widerstandsfähiger und bieten sich unbedingt für den Einsatz in der Unterwasserwelt an.(Gastgeberin | https://www.linkedin.com/in/madeleine-mickeleit/)(Interviewpartner | https://www.linkedin.com/in/stephan-schiffner-139bb54a/ )
In Folge #259 sprechen wir über Googles mobilen TPU und Facebooks Augenkontakt-Experiment für VR-Brillenträger. Pixel 6: Tensor KI-Chip soll auch AR helfen Mit dem Tensor-Chip verbaut Google im kommenden Pixel 6 erstmals einen für KI-Berechnungen optimierten Chip in einem Smartphone. Laut Googles Hardware-Chef Rick Osterloh sollen KI-Funktionen wie bessere und lokale Objekterkennung auch die Grundlage für bessere Smartphone-AR-Erfahrungen sein. Wird der Tensor-Chip wirklich ein Differenzierungsmerkmal - oder reiht er sich ein in Googles lange Liste gefloppter Tech-Gadgets? Mehr: https://mixed.de/pixel-6-pro-tensor-chip-grundlage-fuer-bahnbrechende-ar/ Facebook VR: Neue Einblicke ins XR-Labor Facebook will dieses Jahr endlich wieder Einblick in neueste VR-Forschung geben, die in zukünftige Tech-Brillen einfließen wird. Konkret zeigt Facebook schon ein Experiment mit einer VR-Brille, die per Videostream Außenstehenden Augenkontakt mit dem VR-Brillenträger ermöglicht. Würden wir so eine Augen-Brille fürchterlich gerne aufsetzen - oder finden wir sie eher zum Fürchten? Mehr: https://mixed.de/facebook-zeigt-vr-brille-mit-durchblick/ Den MIXED.de-Podcast gibt es bei Soundcloud, Spotify, iTunes, in der Google Podcast-App oder als RSS-Feed. Mehr Infos und alle Folgen: mixed.de/podcast Bitte unterstütze unsere Arbeit mit einem Werbefrei-Abo für die Seite: mixed.de/abo Oder einem Einkauf über unseren Amazon-Link (ohne Aufpreis für Dich): amzn.to/2Ytw5CN mit einem deaktivierten Werbeblocker oder einer positiven Bewertung bei iTunes, Spotify und Co.
Das Start-up Mira Robotics vermarktet den Roboter "Ugo" als Alternative zur Putzfrau. Obwohl er 22 Sensoren und drei Kameras zur Raum- und Objekterkennung besitzt, muss er von einem Mitarbeiter ferngesteuert werden.
Unter dem Schlagwort des Deep Learning hat die Wissenschaft in den vergangenen Jahren große Fortschritte gemacht, von der Bild- und Objekterkennung über dem Verstehen von Sprache oder Erzeugen von Texten. Dabei ist Machine Learning zu einem wichtigen Bestandteil vieler kommerzieller Anwendungen und Forschungsprojekte geworden: sowohl als wissenschaftliche Methode als Beispiel in der medizinischen Diagnostik, aber auch in der Wirtschaft hat Machine Learning Einzug genommen. Doch wie stehen Deep Learning, Machine Learning, Neuronale Netze, und künstliche Intelligenz miteinander in Verbindung und welche Unterschiede gibt es? Der Ingenieur und Podcaster Philipp „Teubi“ Gräbel gibt mir in dieser Folge einen Einblick ins Deep Learning und erklärt mir auch anhand seiner Forschung in der Biomedizin, wo Deep Learning eingesetzt werden kann und wo (noch) nicht. Wir sprechen über die Vorteile vom Deep Learning und welche Aspekte bei der Anwendung beachtet werden müssen.
Im MIXED.de Podcast geht's diese Woche um unser Vertrauen in KI-gestützte Objekterkennung und die GDC 2019. Wann vertrauen wir Künstlicher Intelligenz? Vor wenigen Tagen stellte Microsoft eine KI-gestützte App für Objekterkennung in Bildern vor. Sie ist insbesondere für Menschen mit Sehschwäche gedacht, die sich mit der App eine Szene durch Berührung erschließen können. Beispielsweise berührt man ein Gesicht und erhält Informationen zu Geschlecht, Alter und Emotion.Leider ist die KI nicht präzise, ihre Bildbeschreibung ist häufig unvollständig oder fehlerhaft: Aus Frauen werden Männer, die Altersangabe liegt um eine Dekade daneben oder es fehlen schlicht wichtige Kontextinformationen.Blinde können dieses Dilemma ohne sehenden Helfer nicht auflösen. Wann sollten oder können Menschen Künstlicher Intelligenz vertrauen? Mehr dazu: https://mixed.de/microsofts-neue-bild-ki-beschreibt-inhalte-auf-fotos-nach-beruehrung/ GDC 2019: Oculus Quest, Rift S und mehr Auf der GDC 2019 diese Woche könnte VR-technisch die Post abgehen: Oculus schickt sich an, den VR-Markt mit einer Brillen-Combo erneut anzugreifen. Wird Valve das Geheimnis um die mysteriöse Entwicklerbrille lüften? Wird Google VR und AR bei der Vorstellung des neuen Spiele-Streamings überhaupt erwähnen? Wir polieren unsere Glaskugeln und steigern unsere Erwartungshaltung ins Unermessliche. Mehr: https://mixed.de/bericht-oculus-rift-s-wird-naechste-woche-vorgestellt/
Viel KI, wenig AR, kein VR: Die Google I/O 2018 ist rum und wir ziehen Bilanz. Der Tobibot versagt direkt im Intro und fliegt aus der Show. Für immer. Vielleicht. Google I/O 2018: Alles ist KI Auf der Google Entwicklerkonferenz I/O 2018 macht Googles eines deutlich: Im Konzern ist ab sofort alles Künstliche Intelligenz. Sogar die Forschungsabteilung wurde von "Google Research" in "Google AI" umbenannt. Augmented Reality ist eher ein Anwendungsszenario Künstlicher Intelligenz - Computer Vision und Objekterkennung - als ein eigenständiges Feld, so scheint es. Und Virtual Reality? Die fand auf der großen Bühne gar nicht mehr statt. Dabei waren die autarken Daydream-Brillen 2017 doch noch das große Highlight. Ein Jahr später fällt die Bilanz mager aus: In Googles VR-Kosmos hat sich fast nichts bewegt. Darf eine KI anonym telefonieren? Und hat Google VR an den Haken gehängt? Wir sprechen drüber in unserem Google-I/O-Rundumschlag. Mehr dazu: https://vrodo.de/kuenstliche-intelligenz-googles-telefon-ki-muss-sich-zu-erkennen-geben/ https://vrodo.de/i-o-2018-google-setzt-alles-auf-kuenstliche-intelligenz/ Oculus goes Facebook Die Forschungsabteilung von Oculus - ehemals Oculus Research - tritt ab sofort unter anderem Namen auf: Facebook Reality Labs. Das Oculus-Wissen soll stärker in den Konzern integriert und Facebooks anderen Technologieabteilungen zugutekommen. Dass es davon reichlich gibt, demonstrierte Oculus auf Facebooks Entwicklerkonferenz F8 Anfang Mai: Highend-VR-Prototyp, realistische Avatare, Fingertracking ohne Handschuhe. Und rund 400 offene Stellen zeigen, dass Facebook mit Oculus noch lange nicht fertig ist. Was bedeutet der neue Name für die Marke Oculus? Bedeutet er überhaupt was? Mehr dazu: https://vrodo.de/oculus-forschungsabteilung-wird-in-facebook-reality-lab-umbenannt/ Infos zum Podcast-Team und alle Folgen: https://vrodo.de/podcast/
Beim VRODOCAST #76 solltet ihr euch die Ohren zuhalten - während des Intros. Oder dreht wenigstens die Lautstärke runter. Es wird hart. Wirklich. Augmented-Reality-News-Lawine Der Grund für Tobias' spontane Freudenausbrüche in Sangesform: Der AR Hype-Train gewinnt langsam an Geschwindigkeit und die Entwicklung von wichtigen Teiltechnologien schreitet voran. Wir kauen uns durch einen ganzen Schwung an AR-Neuigkeiten: Apples ARkit erkennt jetzt nicht mehr nur Böden, sondern auch Wände. Facebook gibt eine Software für Objekterkennung als Open Source frei und eine Künstliche Intelligenz berechnet aus beliebigen 2D-Videos nachträglich 3D-Szenen, die anschließend via ARKit und iPhone-Screen im Wohnzimmer betrachtet werden können. Außerdem kündigte Google einen für AR optimierten 3D-Player an, der in jedem Smartphone-Browser läuft. Mit diesem kann jedes beliebige 3D-Objekt aus dem Browser in die reale Umgebung gezogen und in Originalgröße dargestellt werden. Altspace-Gründer wechselt in Facebooks Social-Team Die VR-Branche durchlief ein Wechselbad der Gefühle, als das vielversprechende und eigentlich gut finanzierte Social-VR-Startup AltspaceVR vergangenen Sommer zuerst die Pleite verkündete, nur um wenige Wochen darauf von Microsoft gerettet zu werden. Jetzt verlässt Eric Romo, der Kopf des Social-VR-Netzwerks, das Unternehmen, bleibt seinem Thema jedoch treu: Für Facebook will der Altspace-Gründer zukünftig das Potenzial von Virtual Reality für Kommunikation und virtuelles Netzwerken erforschen. "Es war keine einfache Entscheidung, aber ich hinterlasse AltspaceVR in einem guten Zustand und bin davon überzeugt, dass mein Team die virtuelle Kommunikation für Microsofts Mixed-Reality-Ökosystem vorantreibt", schreibt Romo. Mehr: https://vrodo.de/virtual-reality-gruender-von-altspace-vr-steigt-bei-facebook-ein/
Heute geht es um freie Daten, viele Daten. Manche wurden unfreiwillig freigelassen, zum Beispiel durch die republikanische Partei in den USA. Datenschutz ist gefragt. Viele gute freie Daten stellt Wikimedia bereit. Neben der Wikipedia gibt es viel mehr. Wikimedia Commons, Wiktionary, Wikidata, Wikiquote, Wikisource, Wikibooks und weitere Projekte. Ein Kurzbericht der letzten Mitgliederversammlung in Bamberg zeigt typisches Vereinsleben. Google macht Objekterkennung für alle zugänglich und Lenovo bringt das Retro ThinkPad. Ein Gedankenexperiment zu einem moralischen Dilemma ist das Trolley-Problem. Da fehlt nur noch der Staatstrojaner für alle.Gro-Ko ist nichts für eine demokratische Weiterentwicklung. Ich hab halt nix zu verbergen oder? Was sagen da die Chinesen zur Geldwäsche? Raubkopierer sind Terroristen und alle vertrauen der unsicheren Biometrie.
Vor zehn Jahren dachten Forscher, es wäre fast unmöglich, einen Computer dazu zu bringen, den Unterschied zwischen einer Katze und einem Hund zu begreifen. Heute erkennen die Systeme des Maschinellen Sehens diesen Unterschied mit einer Genauigkeit von mehr als 99%. Wie geht das? Joseph Redmon arbeitet an YOLO (You Only Look Once), einem Open-Source-System zur Objekterkennung. YOLO kann blitzschnell Objekte in Bildern und Videos identifizieren - vom Zebra bis zum Stoppschild. In einer bemerkenswerten Live-Demonstration zeigt Redmon, welch großer Schritt gemacht wurde in Richtung von Anwendungen wie selbstfahrenden Autos, Robotik und sogar der Erkennung von Krebs.
AR und VR für Menschen mit Behinderung Virtual und Augmented Reality dienen nicht allein dem Entertainment und Games, sondern können auch in anderen Szenarien Nutzen stiften. Gerade Menschen mit Behinderungen könnten profitieren, wenn beispielsweise Augmented-Reality-Brillen die Sicht verstärken oder eine schnelle und zuverlässige Objekterkennung ermöglichen. Wir sprechen über die Potenziale von VR und AR speziell in diesem Szenario. Mehr dazu: https://vrodo.de/mixed-reality-brillen-koennten-das-sehvermoegen-des-menschen-erweitern/ https://vrodo.de/hololens-mit-dieser-app-kann-man-blind-durch-raeume-navigieren/ Die Matrix wird neu verfilmt Der Sci-Fi- und Virtual-Reality-Kultfilm "Die Matrix" wird neu aufgelegt. Boom. Gute Idee oder Wahnwitz? Wird Palmer Luckey eine Gastrolle bekommen? Ist ein Reboot wirklich notwendig? Hat der Film das Potenzial, VR cool zu machen bei den Kiddies? Wir sind geteilter Meinung und Sven versteht Keanu Reeves nicht. Mehr dazu: https://vrodo.de/virtual-reality-kultfilm-die-matrix-soll-neu-aufgelegt-werden/ Oculus und neue VR-Games Im letzten Block sprechen wir völlig planlos über den aktuellen Markt für VR-Games, was in den kommenden Monaten und speziell auf der E3 2017 passieren mag und über getrackte Haustiere. Mehr dazu: https://vrodo.de/virtual-reality-dies-ist-das-erste-getrackte-haustier/
Die OrCam MyEye ist ein Kamerasystem, welches z. B. blinden und sehbehinderten Menschen hilft, Texte zu lesen, Produkte und Geldscheine zu erkennen. Es handelt sich hierbei um ein kleines Gerät zur Bedienung und eine kleine Kamera, welche an einer Brille … Podcast Nr. 86: OrCam MyEye, Sehen mal anders… weiterlesen →
IEEE International Conference on Robotics and Automation, 2013
Dr. Tilman Buchner, Leiter des Corporate Centers für Innovation und Produkt bei Autoscout24 in München, über die mobile Autoscout24 App mit Visual Search
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Recognizing a 3D object from 2D images seems easy and occurs everyday, but it is in principle an ill-defined problem. Here we report two behavioural experiments investigating how representations of 3D objects are built under varying the conditions of the recognition context, i.e. the set of test objects, the prior object knowledge and the degree of stimulus input information. We used a classification paradigm with initially unknown, “structure only” classification criteria, consisting of a category learning part and a subsequent generalization test. The acquisition of prior object knowledge was varied with an intra-modal (visual) group and a trans-modal (blindfold motor) group. Results show that subjects are able to build structure-based object representations from desultory 2D images. We observe a clear context-dependency, i.e. the task was much more difficult without prior object knowledge (control group) and for images with poor stimulus input information. If, in the 2D image, alignment cues are only sparsely available and thus the 3D object structure is ambiguous, this lack of visual information can be trans-modally compensated by motor prior knowledge which seems to be transferred in real-time to the view-dependent representations. The results further suggest the existence of several steps in the recognition process: 1. Image understanding with generation of a hypothetical object model. 2. Transformation and rotation in order to obtain a matching with the image input signal (matching-to-fit-cycle). 3. If step 2 is unsuccessful (e.g. mirror-symmetric objects), the hypothetical object model is referred to an external reference. These three steps are run through until the object is recognized successfully (non-exhaustive search). Within this three-step process the different, so far contradictory theories of object recognition can be integrated, in that they seem to describe a portion of the recognition process each.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
In der Biomedizin haben Tiermodelle eine unentbehrliche Bedeutung erreicht. In den letzten Jahren wurde eine Methode zur Generierung von Tiermodellen eingeführt, welche auf willkürlichen genetischen Manipulationen mittels der mutagenen Substanz ENU basiert. Hierbei wurden relevante Mausvarianten ausschließlich aufgrund ihres Phänotyps selektiert und zur Gründung einer neuen Mauslinie verpaart. Da es sich hierbei um einen hypothesenfreien Ansatz handelt, wurde für die Verhaltensphänotypisierung ein komplexer Versuchsaufbau gewählt, welcher es erlaubte, eine Vielzahl von Verhaltensdimensionen in einem Test zu untersuchen. Aufgrund der schnellen und zuverlässigen Untersuchungsmöglichkeiten schien das mHB besonders gut geeignet als Hochdurchsatzverfahren im Rahmen des ENU-Projektes. Mit dieser Methode wurde eine dominante Mausvariante identifiziert, welche sich durch eine beeinträchtigte Objekterkennung von wt Tieren unterschied. Basierend auf diesem F1-Tier wurde die RO-Linie gegründet. Im Laufe der vorliegenden Arbeit wurde die RO-Linie über sieben Generationen gezüchtet und im mHB verhaltenscharakterisiert, um vor allem die Penetranz und Stabilität des Phänotyps über mehrere Generationen zu untersuchen. Dabei wurde gezeigt, dass RO-Mäuse einen sehr selektiven Verhaltensphänotyp darstellten, der sich ausschließlich in der Objekterkennung von wt-Tieren differenzieren ließ. Die Penetranz des Phänotyps lag mit 46% in einem idealen Bereich für einen dominanten Vererbungsgang. Zur weiteren Analyse des Verhaltensphänotyps von RO-Mäusen wurden diese in zwei selektiven Verhaltenstests, dem Objekterkennungstest und einem räumlichen Lerntest, untersucht. Während sich der Verhaltensphänotyp in dem selektiven Objekterkennungstest bestätigte, wurde in dem komplexen räumlichen Lerntest kein Unterschied zwischen RO--und wt-Mäusen beobachtet. Folglich konnte gezeigt werden, dass sich die beiden Linien in hippokampusabhängigen Aufgabestellungen nicht voneinander unterschieden. Durch immunhistologische als auch elektrophysiologische Untersuchungen sind Hirnareale im kortikalen Temporallappen definiert, welche zur Wahrnehmung und zur Verarbeitung der Informationen während eines Objekterkennungstests aktiviert werden. Auf dieser Kenntnis basierend wurde die c-Fos Expression nach einem Objekterkennungstest von RO-Tieren und wt-Mäusen untersucht. Die Resultate zeigten, dass bei RO-Tieren eine erhöhte sensorische Aktivität ausgelöst wurde, jedoch war in der Hirnregion zur Verarbeitung und Speicherung dieser Informationen weniger neuronale Aktivität zu erkennen. Folglich könnte die beeinträchtigte Fähigkeit zur Objekterkennung auf einen Unterschied der Tiere bei der Verarbeitung von Gedächtnisinhalten zurückzuführen sein. Zur Untersuchung der klinischen Relevanz der RO-Mäuse als Tiermodell wurde eine pharmakologische Validierung mit dem Acetylcholinesterasehemmer Metrifonate in einem selektiven Objekterkennungstest durchgeführt. Dabei wurde durch die Behandlung mit Metrifonate eine signifikante Verbesserung der Objektdiskriminierung bei RO-Tieren erreicht. Somit ist die RO-Linie als valides klinisches Tiermodell einzustufen. Als erster Versuch zur Ermittelung des manipulierten Gens sollte mittels einer Kopplungsanalyse die chromosomale Region der Mutation im Genom ausfindig gemacht werden. Dafür wurden Mikrosatellitenmarker über das komplette Genom verteilt und nach einer gekoppelten Vererbung mit dem Phänotyp in Form eines rekombinanten Locus abgesucht. Soweit wurde noch keine signifikante Kopplung zwischen dem Phänotyp und einem der genetischen Marker gefunden. Dies könnte darauf hindeuten, dass die Abstände zwischen den Mikrosatelliten zu groß gewählt waren. Eine zweite Erklärung wäre, dass der Verhaltensphänotyp nicht auf einer genetischen Grundlage basierte.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
Diese Arbeit befaßt sich mit der Objekterkennung durch Echoortung bei der Fledermaus Megaderma lyra und zeigt welche Rolle hierbei die zeitliche Integration akustischer Information spielt. Es werden zwei psychoakustische Experimente beschrieben, deren Ergebnisse mit adäquaten Modellen verglichen werden und somit einen Einblick in die Verarbeitungsmechanismen des auditorischen Systems von M. lyra gewähren. Das erste Experiment untersucht die Objekterkennung durch Echoortung anhand der spontanen Klassifizierung unbekannter virtueller Objekte im Rückspielexperiment. Hierbei ist von Interesse, welche Klassifizierungsstrategie bei der Objekterkennung Anwendung findet. Bewertet M. lyra Objekte durch den Vergleich unterschiedlicher Objektechos oder ist sie fähig das akustische Abbild eines Objektes durch eine Kreuzkorrelation ihres Lautes mit dem Objektecho zu extrahieren? Der Vergleich der Ergebnisse aus dem Verhaltensexperiment mit der Klassifizierung der Testobjekte durch unterschiedliche Modelle weist darauf hin, daß M. lyra tatsächlich die Fähigkeit besitzt, das akustische Abbild unbekannter Objekte zu extrahieren. Zudem zeigt der Vergleich mit der Klassifizierung durch ein auditorisches Modell, daß die Echoinformation von Objekten kleiner als 6,6 cm im peripheren auditorischen System spektral kodiert wird. Die Ergebnisse einer begleitenden Analyse der Echoortungslaute während des Verhaltensexperiments deuten darauf hin, daß M. lyra ihr Echoortungsverhalten zur spontanen Klassifizierung unbekannter Objekte nicht adaptiv verändert, sondern in gleicher Weise einsetzt wie bei der Klassifizierung bekannter Objekte. Das zweite Projekt befaßt sich mit den Einflüssen zeitlicher Verarbeitungsmechanismen auf die Echoabbildung. Hierzu wird die zeitliche Integration akustischer Information in Abhängigkeit des zeitlichen Abstandes zweier Schallereignisse sowohl unter passiv-akustischen Bedingungen als auch im Echoortungskontext untersucht. Unter beiden Bedingungen können bei M. lyra gleichermaßen kurze Integrationszeiten von weniger als 200 µs beobachtet werden. Der Vergleich der Ergebnisse aus dem Verhaltensexperiment mit einem auditorischen Modell der Gehörperipherie von M. lyra zeigt, daß die zeitliche Integration kurzer Signalpaare anhand der Überlappung cochleärer Filterantworten erklärt werden kann. Demnach kann das periphere auditorische System von M. lyra Objektstrukturen von weniger als 3,4 cm nicht zeitlich auflösen und somit nur spektral kodieren. Objektstrukturen von mehr als 3,4 cm könnten hingegen zeitlich aufgelöst und somit zeitlich kodiert werden. Wie die Ergebnisse des ersten Experiments zeigen, wird jedoch die akustische Information von Objekten bis zu 6,6 cm peripher rein spektral kodiert und die zeitliche Information nicht genutzt.