POPULARITY
Wie KI-Arbeitnehmer die Zukunft gestalten: Ein Blick auf Tenn.AI und die Chancen der KI-Revolution Die Zukunft der Arbeitswelt wird durch KI neu definiert. In der aktuellen Episode unseres Podcasts hatten wir die Gelegenheit, Firas Sleiman, CEO und Chief AI Officer von Tenn.AI, zu interviewen. Sein Unternehmen steht an der Spitze einer Revolution, die Unternehmen durch autonome KI-Mitarbeiter effizienter und kreativer macht. Was bedeutet das für die Arbeitswelt, und wie können Unternehmer und Selbstständige diese Entwicklungen für sich nutzen? Firas Sleiman auf LinkedIn: LinkedIn - https://www.linkedin.com/in/firassleiman/ Tenn.AI: Die Vision autonomer KI-Unternehmen Tenn.AI, das "Enterprise Neural Network," ist eine Plattform, die Unternehmen dabei unterstützt, KI-Mitarbeiter in autonomen Teams zu organisieren. Diese Teams können Aufgaben wie HR, Finanzen, Marketing und sogar komplexe Projekte übernehmen. Der Grundgedanke? Menschen können sich auf strategische Entscheidungen und kreative Prozesse konzentrieren, während KI-Mitarbeiter die operative Arbeit erledigen. Laut Sleiman ist die Plattform so konzipiert, dass sie vollständig on-premises betrieben werden kann, um höchste Datenschutzstandards zu gewährleisten – ein entscheidender Punkt für Unternehmen in Europa. Angst vor Arbeitsplatzverlust oder Chance für mehr Kreativität? Sleiman sieht die KI-Revolution optimistisch. Während einige die Sorge haben, dass KI-Arbeitsplätze überflüssig machen könnte, argumentiert er, dass genau das Gegenteil der Fall sei. Durch KI entstehen neue Möglichkeiten, Projekte umzusetzen, die bisher undenkbar waren. Ein beeindruckendes Beispiel aus unserem Podcast: Mit KI-Unterstützung schaffte es ein kleines Unternehmen, die ISO 9001-Zertifizierung in nur zehn Wochen abzuschließen – ein Prozess, der normalerweise bis zu 18 Monate dauert. "Wir sind jetzt in der Lage, Projekte anzugehen, die ohne KI niemals möglich gewesen wären," sagt Sleiman. Diese neuen Chancen schaffen nicht nur Effizienz, sondern auch neue Jobs und Geschäftsmöglichkeiten. Wirtschaftlicher Impact: 1.000x günstiger und 100x schneller Die Plattform von Tenn.AI zeigt beeindruckende Einsparungspotenziale. Ein Beispiel: Ein Regierungsprojekt, das von einem großen Beratungsunternehmen für 250.000 US-Dollar und drei Monate Arbeit umgesetzt wurde, konnte mit der KI-Plattform von Tenn.AI in nur 20 Stunden für 290 US-Dollar abgeschlossen werden – mit besserer Qualität. Diese Einsparungen schaffen eine enorme Nachfrage nach solchen Lösungen, und Tenn.AI berichtet von einer 100-prozentigen Umsetzungsquote bei Demos. Anwendungsfälle für Unternehmen und Selbständige Für Selbständige und kleinere Unternehmen bietet Tenn.AI ebenfalls großartige Möglichkeiten. Die Plattform ermöglicht es, Social Media auf Autopilot laufen zu lassen, Bild- und Videoinhalte automatisch zu generieren und historische Datenbestände zu analysieren, um strategische Erkenntnisse zu gewinnen. Diese "Flow Teams" aus KI-Mitarbeitern können schnell konfiguriert werden und bieten eine skalierbare Lösung für wiederkehrende Aufgaben. Fazit: Die Zukunft mit KI gestalten Firas Sleimans abschließende Botschaft ist klar: Die nächsten fünf Jahre werden von KI-definierten Momenten geprägt sein. Wer KI nicht integriert, wird bald im Wettbewerb zurückfallen. „Die Welt wird in Richtung KI gehen, und sie wird die größte Geldquelle der nächsten Jahre sein,“ sagt Sleiman. Wer diese Technologie nutzt, kann nicht nur effizienter arbeiten, sondern auch die eigene Kreativität und Innovationsfähigkeit auf ein neues Level heben. Der Zeitpunkt, in KI zu investieren, ist jetzt. Noch mehr von den Koertings ... Das KI-Café ... jede Woche Mittwoch (>250 Teilnehmer) von 08:30 bis 10:00 Uhr ... online via Zoom .. kostenlos und nicht umsonstJede Woche Mittwoch um 08:30 Uhr öffnet das KI-Café seine Online-Pforten ... wir lösen KI-Anwendungsfälle live auf der Bühne ... moderieren Expertenpanel zu speziellen Themen (bspw. KI im Recruiting ... KI in der Qualitätssicherung ... KI im Projektmanagement ... und vieles mehr) ... ordnen die neuen Entwicklungen in der KI-Welt ein und geben einen Ausblick ... und laden Experten ein für spezielle Themen ... und gehen auch mal in die Tiefe und durchdringen bestimmte Bereiche ganz konkret ... alles für dein Weiterkommen. Melde dich kostenfrei an ... https://www.die-koertings.com/ki-cafe/ Das KI-Buch ... für Selbstständige und Unternehmer Lerne, wie ChatGPT deine Produktivität steigert, Zeit spart und Umsätze maximiert. Enthält praxisnahe Beispiele für Buchvermarktung, Text- und Datenanalysen sowie 30 konkrete Anwendungsfälle. Entwickle eigene Prompts, verbessere Marketing & Vertrieb und entlaste dich von Routineaufgaben. Geschrieben von Torsten & Birgit Koerting, Vorreitern im KI-Bereich, die Unternehmer bei der Transformation unterstützen. Das Buch ist ein Geschenk, nur Versandkosten von 6,95 € fallen an. Perfekt für Anfänger und Fortgeschrittene, die mit KI ihr Potenzial ausschöpfen möchten. Das Buch in deinen Briefkasten ... https://koerting-institute.com/ki-buch/ Die KI-Lounge ... unsere Community für den Einstieg in die KI (>800 Mitglieder) Die KI-Lounge ist eine Community für alle, die mehr über generative KI erfahren und anwenden möchten. Mitglieder erhalten exklusive monatliche KI-Updates, Experten-Interviews, Vorträge des KI-Speaker-Slams, KI-Café-Aufzeichnungen und einen 3-stündigen ChatGPT-Kurs. Tausche dich mit über 800 KI-Enthusiasten aus, stelle Fragen und starte durch. Initiiert von Torsten & Birgit Koerting, bietet die KI-Lounge Orientierung und Inspiration für den Einstieg in die KI-Revolution. Hier findet der Austausch statt ... https://www.die-koertings.com/ki-lounge/ Starte mit uns in die 1:1 Zusammenarbeit Wenn du direkt mit uns arbeiten und KI in deinem Business integrieren möchtest, buche dir einen Termin für ein persönliches Gespräch. Gemeinsam finden wir Antworten auf deine Fragen und finden heraus, wie wir dich unterstützen können. Klicke hier, um einen Termin zu buchen und deine Fragen zu klären. Buche dir jetzt deinen Termin mit uns ... www.die-koertings.com/termin/ Weitere Impulse im Netflix Stil ... Wenn du auf der Suche nach weiteren spannenden Impulsen für deine Selbstständigkeit bist, dann gehe jetzt auf unsere Impulseseite und lass die zahlreichen spannenden Impulse auf dich wirken. Inspiration pur ... www.die-koertings.com/impulse/ Die Koertings auf die Ohren ... Wenn dir diese Podcastfolge gefallen hat, dann höre dir jetzt noch weitere informative und spannende Folgen an ... über 350 Folgen findest du hier ... www.die-koertings.com/podcast/ Wir freuen uns darauf, dich auf deinem Weg zu begleiten!
Im neuen Podcast erörtern Niko Härting und Stefan Brink in Querbeet (ab Minute 05:45) zunächst den geleakten Entwurf zu einem Beschäftigtendatengesetz. Einige Vorschläge waren zu erwarten, etwa zum Einsatz von KI-Systemen (§ 10) oder zu einem Verwertungsverbot (§ 11 – entgegen BAG Urteil vom 29. Juni 2023 - 2 AZR 296/22), andere wie das Mitbestimmungsrecht des Betriebsrats bei der Bestellung des internen oder externen Datenschutzbeauftragten (§ 12) überraschen. Eine deutliche Verschlechterung der Beschäftigtenrechte stellt die zulässige verdeckte Überwachung dar (§ 20), die aber DS-GVO widrig sein könnte. Dann werfen wir einen Blick (ab Minute 16:25) auf den BGH, der im Verfahren zum Meta Scraping ein Leitentscheidungsverfahren bestimmt hat (https://www.bundesgerichtshof.de/SharedDocs/Pressemitteilungen/DE/2024/2024206.html). Auf Basis des neuen § 552 b ZPO soll eine zügige höchstrichterliche Klärung trotz der Rücknahme von Revisionen aus prozesstaktischen Gründen oder aufgrund eines Vergleichs ermöglicht werden. Dann geht es (ab Minute 27:17) um das BKA Urteil des BVerfG vom 01. Oktober 2024 (1 BvR 1160/19). Hier waren die Verfassungsbeschwerden der GFF, verschiedener Rechtsanwälte und Fußball-Ultras gegen das BKA-Gesetz recht erfolgreich. Teilweise setzte das Gericht die Anforderungen an Zulässigkeit von Verfassungsbeschwerden (zu) hoch an, etwa wenn es in dieser komplizierten Materie auf der „hinreichenden Auseinandersetzung mit dem einschlägigen Fachrecht bezüglich der Trennung der Datenbestände im Informationssystem des Bundeskriminalamts und im polizeilichen Informationsverbund sowie der damit einhergehenden unterschiedlichen Gewichtung des Eingriffs und möglichen korrespondierenden Rechtfertigungsanforderungen“ besteht. Das kann kein Beschwerdeführer liefern. In der Sache erklärte Karlsruhe gesetzliche Befugnisse des BKA zur Datenerhebung (§ 45 Abs. 1 Satz 1 Nr. 4 BKAG) und Datenspeicherung (§ 18 Abs. 1 Nr. 2 BKAG) in Teilen für verfassungswidrig wegen Verstoß gegen das Grundrecht (!) auf informationelle Selbstbestimmung. Gesetzlich vorgesehene Einzelfallprüfungen von Behörden oder Gerichten genügten mangels eines gesetzlichen Regelungskonzepts nicht. Kritisch sehen die Hosts, das das BVerfG einmal mehr zum „Reparaturbetrieb“ verkommt, zu einer „Anstalt zur Optimierung von Grundrechtsbeschränkungen“ – und das ist sicherlich keine gute Nachricht.
Willkommen zu einer neuen Episode von Mit Schirm, Charme und Sensoren! In dieser Folge tauchen wir ein in die Welt der Large Language Models (LLMs) und wie sie die Produktion und Instandhaltung transformiert. Elisabeth diskutiert mit Michael, unserem erfahrenen Automatisierungsexperten, über den Einsatz von Large Language Models in der Industrie. In dieser Episode erfährst du: Unstrukturierte Daten nutzbar machen: Wie KI hilft, Freitextfelder und alte Datenbestände zu analysieren und wertvolle Erkenntnisse zu gewinnen. Live-Demonstration von ChatGPT: Erlebe, wie KI die häufigsten Störungen in einer Anlage identifiziert und welche Vorteile das für Unternehmen hat. Effizienzsteigerung und Fachkräftemangel bewältigen: Wie KI-Tools die Arbeit erleichtern, Fachpersonal entlasten und Mitarbeitern ermöglichen, komplexe Analysen durchzuführen. Schnelle und einfache Implementierung: Erfahre, wie einfach es ist, KI-Lösungen in bestehende Systeme zu integrieren und innerhalb weniger Wochen Ergebnisse zu erzielen. Michael und Elisabeth bieten Einblicke in ihre Erfahrungen und zeigen, wie moderne KI-Technologien nicht nur Kosten senken, sondern auch die Produktivität steigern können.
Im neuen Podcast betrachten Niko Härting und Stefan Brink in Querbeet (ab Minute 01:18) den Referentenentwurf des Innenministeriums IM, der insbesondere das heimliche Betreten von Wohnungen durchs BKA, die Zusammenführung von Datenbeständen und deren automatisierte Analyse sowie die biometrische Rasterfahndung im Internet erlauben will – kritische Beurteilung garantiert (https://netzpolitik.org/2024/bka-gesetz-anwaltverein-sieht-verfassungsbeschwerde-garantiert/). Sodann (ab Minute 15:47) erläutert Niko, der im Juni zum Vielfaltsbeauftragten des DAV gewählt wurde, warum Vielfalt als selbstverständlich sichtbar gemacht werden sollte (https://rsw.beck.de/aktuell/daily/magazin/detail/interview-njw-2024-35-vielfaeltige-anwaltschaft). Schließlich gilt ein kurzer Blick (ab Minute 20:19) dem gescheiterten Versuch der FDP, den eigenen Spitzenkandidaten in den RBB Kandidatencheck vor der LT-Wahl hineinzubringen – was das VG Potsdam lehnt mit Beschluss vom 4.9.24 unter Berufung auf § 5 ParteienG ablehnte. Das Prinzip der „abgestuften Chancengleichheit“ von Parteien verdient eine kritische Würdigung. Und natürlich schauen Stefan und Niko auf die gerade ernannte neue BfDI Louisa Specht-Riemenschneider (ab Minute 28:15), die in ihrer ersten Pressekonferenz ihre Schwerpunktthemen (KI, Gesundheit und Innere Sicherheit) vorstellte und ihre „roten Linien“ deutlich machte. Im Mittelpunkt steht dann (ab Minute 34:00) eine stattgebende Entscheidung des BVerfG, das in das endlose Spiel um die Besetzung der Stelle des OVG-Präsidenten NRW eingriff (https://www.bundesverfassungsgericht.de/SharedDocs/Entscheidungen/DE/2024/08/rk20240807_2bvr041824.html).
Mehrere deutsche Forschungszentren, Universitäten und Universitätskliniken wollen mit Hilfe von Künstlicher Intelligenz (KI) dezentrale Daten über COVID-19 gemeinsam auswerten. Ihr Ansatz beruht auf „Swarm Learning“, einer neuartigen KI-Technologie, die es ermöglicht, verteilte Datenbestände zu analysieren und dabei die Anforderungen des Datenschutzes vollständig zu erfüllen. Mein Kollege Sylvester Tremmel von der c't und ich sprechen heute mit Prof. Dr. Joachim Schultze vom Deutschen Zentrum für Neurodegenerative Erkrankungen (kurz DZNE). Das DZNE koordiniert das Vorhaben und Dr. Schultze ist Sprecher des Forschungskonsortiums. https://heise.de/ki https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://www.dzne.de/forschung/projekte/swarm-learning/
Informationssicherheit einfach verstehen - Cyber Security und Sicherheit im digitalen Raum
Wie managt man eigentlich am besten alte Datenbestände, im schlimmsten Fall in veralteten Soft- und Hardware-Systemen? Genau das nennt man Legacy Management. Und weil diese Problematik viel häufiger vorkommt als man vermuten würde, widmen wir uns in dieser Episode diesem Thema. Wenn Systeme veraltet sind und nicht mehr supportet werden, können geschäftskritische Prozesse auf diesen Systemen ganz schnell in Gefahr geraten, und damit das ganze Unternehmen. Ich erkläre dir heute ganz genau, wie es dazu kommen kann, trotz scheinbar bereits gut eingespielter IT-Umgebung. Und da der technologische Wandel so viele Neuerungen hervorbringt, aber einmal angelegte Datensätze sich nicht automatisch anpassen, erkläre ich dir heute natürlich auch, wie du dir ein eigenes Legacy Management System erstellen kannst. Wie immer mit vielen Tipps und Hinweisen, worauf du dabei besonders achten musst. LINKS: [Meine Website](https://www.paul-stengel.de) [Kontaktiere mich bei LinkedIn](https://www.linkedin.com/in/paul-g-stengel-771947216/) DIR GEFÄLLT WAS DU HÖRST? Dann hinterlasse mir bitte eine 5-Sterne-Bewertung auf Apple Podcasts, eine Rezension und abonniere den Podcast. Vielen Dank für deine Unterstützung! Hier bei Apple Podcasts bewerten und abonnieren: https://podcasts.apple.com/de/podcast/informationssicherheit-einfach-verstehen-cyber-security/id1694694337
Das Problem stellt sich vor allem für Firmen: OpenAIs ChatGPT mag ein irre praktisches und mächtiges Tool sein, doch es spricht auch einiges dagegen. Vor allem in Sachen Datenschutz, aber auch in puncto Langzeitstabilität des Funktionsumfangs hat man über das US-System schlicht keine Kontrolle. Eine interessante Alternative ist es, eine generative Sprach-KI selber zu betreiben. So bekommt man nicht nur die Hoheit über die eigenen Datenbestände zurück, sondern kann den Funktionsumfang auch gezielt an eigene Bedürfnisse anpassen. Obendrein ist das Ganze auch noch Open Source. Im c't uplink sprechen wir darüber, was man an Hardware und an Software braucht, um sich eine eigene Chat-KI zu bauen, was auf dem eigenen Testrechner funktioniert und wofür man besser einen Cloudserver anmietet. Außerdem: Wie finde ich eigentlich raus, welches von tausenden KI-Systemen am besten für meine Zwecke geeignet ist? Mit dabei: Jo Bager, Hartmut Gieselmann, Pina Merkert Moderation: Jan Schüßler Unsere Artikel zum Thema selbstgehostete Sprach-KI finden Sie in der aktuellen c't 23/2023.
Das Problem stellt sich vor allem für Firmen: OpenAIs ChatGPT mag ein irre praktisches und mächtiges Tool sein, doch es spricht auch einiges dagegen. Vor allem in Sachen Datenschutz, aber auch in puncto Langzeitstabilität des Funktionsumfangs hat man über das US-System schlicht keine Kontrolle. Eine interessante Alternative ist es, eine generative Sprach-KI selber zu betreiben. So bekommt man nicht nur die Hoheit über die eigenen Datenbestände zurück, sondern kann den Funktionsumfang auch gezielt an eigene Bedürfnisse anpassen. Obendrein ist das Ganze auch noch Open Source. Im c't uplink sprechen wir darüber, was man an Hardware und an Software braucht, um sich eine eigene Chat-KI zu bauen, was auf dem eigenen Testrechner funktioniert und wofür man besser einen Cloudserver anmietet. Außerdem: Wie finde ich eigentlich raus, welches von tausenden KI-Systemen am besten für meine Zwecke geeignet ist? Unsere Artikel zum Thema selbstgehostete Sprach-KI finden Sie in der aktuellen c't 23/2023.
Das Problem stellt sich vor allem für Firmen: OpenAIs ChatGPT mag ein irre praktisches und mächtiges Tool sein, doch es spricht auch einiges dagegen. Vor allem in Sachen Datenschutz, aber auch in puncto Langzeitstabilität des Funktionsumfangs hat man über das US-System schlicht keine Kontrolle. Eine interessante Alternative ist es, eine generative Sprach-KI selber zu betreiben. So bekommt man nicht nur die Hoheit über die eigenen Datenbestände zurück, sondern kann den Funktionsumfang auch gezielt an eigene Bedürfnisse anpassen. Obendrein ist das Ganze auch noch Open Source. Im c't uplink sprechen wir darüber, was man an Hardware und an Software braucht, um sich eine eigene Chat-KI zu bauen, was auf dem eigenen Testrechner funktioniert und wofür man besser einen Cloudserver anmietet. Außerdem: Wie finde ich eigentlich raus, welches von tausenden KI-Systemen am besten für meine Zwecke geeignet ist? Mit dabei: Jo Bager, Hartmut Gieselmann, Pina Merkert Moderation: Jan Schüßler Unsere Artikel zum Thema selbstgehostete Sprach-KI finden Sie in der aktuellen c't 23/2023.
Die Datenschutz-Grundverordnung (DSGVO) beruht auf dem Verbotsparadigma: Das Erheben und Speichern von personenbezogenen Daten ist untersagt, außer es es ist erlaubt. Eine Erlaubnis kann sich nur aus Art. 6 ergeben, in dem die Rechtsgrundlagen definiert sind, also beispielsweise ein "berechtigtes Interesse" oder eine widerrufbare Einwilligung des Dateninhabers. Fällt die Rechtsgrundlage weg, muss der Verantwortliche unverzüglich die erhobenen Daten löschen. Das muss er auch tun, wenn der Dateninhaber von seinem Recht auf "Löschen auf Zuruf" nach Art. 17 DSGVO Gebrauch macht. Diese Gemengelage macht deutlich, auf welch tönernen Füßen datengetriebene Geschäftsmodelle in der EU stehen. Auch die neuen Datengesetze wie der Data Act und Data Governance Act hebeln das Verbotsparadigma nicht aus, sondern müssen sich ihm unterordnen. Hinzu kommt, dass diverse nationale Vorschriften von Behörden und Unternehmen fordern, beispielsweise Verträge und Rechnungen eben nicht zu löschen, sondern innerhalb einer Frist verfügbar zu halten. Zusätzlich gibt es die Pflicht, geschäftliche E-Mails zehn Jahre lang zu archivieren. Außerdem sollen Verantwortliche Backups ihre Datenbestände vorhalten. All diese Ausnahmen deckt Art. 17, Abs. 3 DSGVO. Doch wie soll man das alles praktisch umsetzen; wie löscht man wirklich sicher Daten, um seinen Pflichten nachzukommen? Darüber sprechen Heise-Verlagsjustiziar Joerg Heidrich und Redakteur Holger Bleich in Episode 91 des c't-Datenschutz-Podcasts Auslegungssache. Als kompetenter Gast steht ihnen dabei Dr. Christoph Wegener zur Seite. Wegener ist promovierter Physiker und seit 1999 als freiberuflicher Berater mit der wecon.it-consulting in den Bereichen Informationssicherheit, Datenschutz und Open Source aktiv. Im Podcast erläutert er, welche Methoden er zum Löschen von Daten empfiehlt und gibt hilfreiche Tipps für die Praxis in Unternehmen.
Österreichische Post und Österreichische Datenschutzbehörde, Schadensersatz (Art. 82 DSGVO) und Recht auf Kopie (Art. 15 Abs. 3 DSGVO). In dieser Folge geht es um die beiden Entscheidungen des EuGH vom 4.5.2023 (C-300/21, https://curia.europa.eu/juris/document/document.jsf?text=&docid=273284&pageIndex=0&doclang=de&mode=req&dir=&occ=first&part=1&cid=3553780; C-487/21, https://curia.europa.eu/juris/document/document.jsf;jsessionid=0BDA73FF2A316FF3152E8D2779EB1480?text=&docid=273295&pageIndex=0&doclang=de&mode=req&dir=&occ=first&part=1&cid=3553600). Österreichische Post (ab Minute 1:45): Stefan Brink und Max Adamek sprechen darüber, wie der EuGH den Begriff des „immateriellen Schadens“ versteht. Eine „Erheblichkeitsschwelle“ gibt es bei Art. 82 DSGVO nach Auffassung des EuGH nicht, wohl aber muss der Kläger nachweisen, dass er durch einen Datenschutzverstoß einen „immateriellen Schaden“ erlitten hat. Wie die Höhe des Schadensersatzes genau festgesetzt wird, bleibt den nationalen Gerichten überlassen, die allerdings bei der Bemessung der Höhe „die unionsrechtlichen Grundsätze der Äquivalenz und der Effektivität“ zu beachten haben. Wird die Entscheidung des EuGH den deutschen Zivil- und Arbeitsgerichten die Arbeit bei Schadensersatzprozessen erleichtern? Österreichische Datenschutzbehörde (ab Minute 21:00): Niko Härting und Stefan Brink ordnen die Entscheidung ein. Gibt es nach Auffassung des EuGH ein eigenständiges „Recht auf Kopie“? Oder sind „Kopien“ jetzt verpflichtend, sobald bei einem Unternehmen oder einer Behörde ein Auskunftsersuchen nach Art. 15 DSGVO eingeht? Und wie weit geht der Begriff der „Kopie“? Wenn der EuGH jetzt keine umfassenden Kopien großer Datenbestände verlangt, wie geht ein Unternehmen oder eine Behörde damit um, dass der EuGH es zugleich die „Reproduktion von Auszügen aus Dokumenten oder gar von ganzen Dokumenten oder auch von Auszügen aus Datenbanken“ für erforderlich hält, „wenn die Kontextualisierung der verarbeiteten Daten erforderlich ist, um ihre Verständlichkeit zu gewährleisten.“ Ist ganz neuer Streit um das „Recht auf Kopie“ vorprogrammiert?
Die Polizei darf bei der Suche nach potenziellen Straftätern grundsätzlich große Datenbestände per Software analysieren. Für deren Einsatz macht das Bundesverfassungsgericht allerdings strenge Vorgaben. Die Regelungen in Hessen und Hamburg werden diesen Anforderungen bisher nicht gerecht. Die Karlsruher Richter erklärten sie deshalb für verfassungswidrig. Thomas Petri, der Bayerische Landesbeauftragte für den Datenschutz sagt, was dies für Bayern bedeutet.
In der Nachmittagsfolge sprechen wir heute mit Jan Hiesserich, Executive Vice President Strategy and Communications von Palantir, über die Öffnung seiner Softwarelösung für Startups in der frühen Wachstumsphase. Palantir ist ein Softwareunternehmen mit Sitz in Denver, welches für Unternehmen Plattformen zur Analyse von Datenbeständen entwickelt und lizensiert. Die Plattformen Palantir Gotham und Palantir Foundry verbinden die Datenanalyse mit konkreten Geschäftsprozessen, wodurch die richtigen Daten zum richtigen Zeitpunkt an die richtigen Entscheidungsträgerinnen und -träger gelangen. Das ermöglicht anspruchsvolle Analysen, reibungslose Kooperationen und kontinuierliche Verbesserungen. Dabei wirbt das Unternehmen damit, über führende Datenschutz und -sicherheitsfunktionalitäten zu verfügen, die auch eine industrieweite und unternehmensübergreifende Nutzung von Daten ermöglichen. Palantir wurde im Jahr 2003 von Peter Thiel, Alex Karp, Joe Lonsdale, Stephen Cohen, Nathan Gettings in Palo Alto gegründet. Seit September 2020 ist das Softwareunternehmen an der New York Stock Exchange gelistet. Weltweit arbeiten über 2.500 Mitarbeitende für das US-amerikanische Unternehmen. Zu den über 100 Unternehmen, die auf die Lösung von Palantir vertrauen, gehören u.a. Merck, Airbus, Ferrari, die hessische Polizei, der National Health Service und das U.S.-Verteidigungsministerium. Nun hat das Denver Startup seine Software für Startups geöffnet. Mit dem Start von Foundry for Builders sollen schnell skalierende Early-Stage Startups die Palantir Foundry-Plattform zur Verfügung gestellt bekommen, womit Palantir die jungen Unternehmen mit zunehmender Komplexität bei ihrem Wachstum unterstützt und gleichzeitig von Anfang an datengesteuerte Entscheidungen ermöglicht. Foundry for Builders umfasst inzwischen mehr als 20 Startups auf 4 Kontinenten, die in unterschiedlichen Bereichen wie u.a. Fertigung, Unterhaltung, B2B-Software, Gesundheitswesen, Finanzdienstleistungen, Energie und Blockchain tätig sind. In Frankreich hat sich das in Toulouse ansässige Unternehmen AURA AERO, ein digitaler und ökoeffizienter Flugzeughersteller, für die jüngste Kohorte von Foundry for Builders angemeldet.
Medizinische Erkenntnis durch Auswertung von Patientendaten aus verschiedenen Quellen – oder Schutz sensibler, persönlicher Informationen vor Weitergabe an Dritte: Das sind zwei berechtigte Anliegen, die meist nur schwer unter einen Hut zu bekommen sind. Der Weg, alle relevanten Daten in einen Topf zu werfen und auszuwerten, ist oft aus rechtlichen Gründen verbaut. Doch es gibt eine Alternative, die den Konflikt zwischen Kollaboration und Datenschutz auflösen kann. Das Federated Secure Computing genannte Verfahren setzt darauf, dass die Daten quasi ihren Heimathafen gar nicht verlassen. Wenn etwa mehrere Forschungseinrichtungen ihre jeweiligen Datenbestände analysieren, tun sie das für sich parallel auf dieselbe Methode und führen dann ihre Ergebnisse zusammen. Das ist kryptografisch abgesichert, so dass sich keine Rückschlüsse auf einzelne Originaldaten ziehen lassen. Und die Resultate sind im Endeffekt genauso gut wie bei einer gemeinsamen Datenbasis. Hendrik Ballhausen von der Ludwig-Maximilians-Universität München ist einer der Köpfe dieses innovativen Projekts, das vom Stifterverband im Rahmen der Initiative „Wirkung hoch 100“ gefördert wird. Die zugrunde liegenden mathematischen Verfahren gibt es schon seit den 1970er-Jahren. Neu ist der Open-Source-Ansatz, dieses verteilte Rechnen in schlanke, effiziente Anwendungen zu verpacken, um zum Beispiel Korrelationen in Daten zu erkennen. Dies nutzt nicht nur der medizinischen Forschung, sondern könnte etwa auch in der Wirtschaft zur Erstellung von Branchen-Benchmarks dienen – wenn Unternehmen, die miteinander im Wettbewerb stehen, ihre Daten einfließen lassen, ohne sie aus der Hand zu geben.
Was denn? Schon wieder Passwort-wechsel-Tag? Ja, wie alle Jahre am ersten Donnerstag im Mai, also am 05.05.2022, ist World Password Day!Es ist noch gar nicht so lange her, dass ich euch den ersten Februar des Jahres als "Ändere Dein Passwort Tag" vorgestellt habe. Und, ohne Panikmache, habe ich versucht, euch klarzumachen, dass die gängigsten Tricks, die uns die letzten Jahre begleitet haben und uns immerhin ein paar "Merkregeln" für gute Passwörter geliefert haben, nicht mehr gelten. Hacker haben aufgerüstet, die Technik kann mehr als sonst - und das wird hierbei gegen uns angewendet. Echte Sicherheit bietet nur ein zweiter Schlüssel - umso besser, dass Microsoft, Google und Apple vor ein paar Tagen angekündigt haben, auf das Passwort künftig verzichten zu wollen... und ja, zum Wohle der Sicherheit... WAS BITTE? FIDO-Keys in verschiedener Ausführung / Bild-/Quelle: privat Ich hatte auch im jährlichen Blogpost und Podcast zum "Ändere Dein Passwort"-Tag Anfang Februar bereits darauf hingewiesen, dass Phishing, Social Engineering und klassisches Hacken mit höchster IT-Power oder wirklich gute und echt wirkende Spam-Mails in Kombination mit einem deiner schwachen Passwörter ein echtes Risiko für Accounts aller Art darstellen. Vorbei die Zeiten, wo zuerst die E-Mail gehackt wird, um dann bei Versandhäusern die Passwort-Reset-E-Mail abzufordern, ohne dass du es merkst. Heutzutage existieren riesige Datenbestände, die teils aufgedeckt, teils unter dem Darknet schlummern und, rein statistisch, mindestens eine Kombi aus einer deiner E-Mails und dem zugehörigen Passwort im Klartext kennt. Auch werden Anhänge, die sich selbst installieren und jeden Tastendruck in Echtzeit um die Welt schicken oder mittlerweile richtig gut und echt klingende, eben mit den korrekten Deutschkenntnissen ausgestattete Spam-Mails verschickt, die nur auf ihre Opfer warten. Da sollten die Zeiten von 12345 als Passwort vorbei sein - und doch ist es immer noch eins der meistgenutzten und gehackten Passwörter. Dabei, und nun ein kleines Dankeschön an Intel für die Erfindung des Ändere-Dein-Passwort-Tages, immer am ersten Donnerstag im Mai. Also dieses Jahr passenderweise am 05.05. Auch passend dazu haben die drei großen, Google, Microsoft und Apple angekündigt, dass Passwort abzuschaffen. Bleibt entspannt, das ist nichts, was in der Folgewoche live und aktiv geschaltet wird, aber es ist eine sichere, nein, eine sicherere Perspektive, als sich dauernd selbst neue Passwörter zu überlegen. Oder einen Passwortmanager dazu zu verwenden. Und es ist nicht neu. Nur leider wird es noch zu wenig angewandt: der zweite Faktor. Und wie es der Zufall will, haben die drei, also, von zweien, nämlich Google und Microsoft weiß ich es mit Sicherheit, bei Apple... keine Ahnung... bereits mindestens eine Lösung am Start. Microsoft dürfte noch die jüngste Anwendung haben, die auf dem Handy einen Code, der am Rechner angezeigt wird, zur Bestätigung nochmals bestätigt oder eine Zahl von dreien angetippt haben will. In Redmond arbeitet man aber mit Hochdruck daran, die aktuelle App zu einem kompletten Passwortmanager auszubauen. Die App heißt Authenticator. Auch Google hat schon lange einen 2FA-Dienst kostenfrei im Angebot. Auch diese heißt einprägsam Google Authenticator. Hier können neben Google alle weiteren kompatiblen Dienste, sei es dein E-Mail-Anbieter oder auch ein Onlineshop oder ein weiteres Login wie bei WordPress hinterlegt werden. Im Minutentakt ändert sich ein sechsstelliger Code, der auch Service-seitig entsprechend abgeglichen werden kann. Nur so kommst du, neben Eingabe von Nutzername - der übrigens auch mit gewisser Vorsicht und nicht nur "einem für alles" im Netz benutzt werden sollte! - und deinem Passwort einen entsprechenden Code, der dir dann den Zugang zu deinem Dienst oder Account ermöglicht. Da dieser Code für jeden Account nur einmal abgerufen und in eine App gebracht werden kann, muss man dir schon das Handy aus der toten Hand schneiden, wohingegen dein Passwort gephished oder in den meisten Fällen nach ein wenig Social Engineering erraten werden kann. Oder eine Serverfarm von amazon, die man für ein paar Cent mieten kann, hat es in unter fünf Minuten geknackt. Du bist also schon ganz vorne mit auf der sicheren Seite, wenn du neben stetig wechselnden Nutzernamen und individuellen Passwörtern je Login einen zweiten Faktor über eine Authentifikation-App nutzt. Aber legen wir noch eine Schippe drauf, die das Abschaffen des Passworts mit begünstigen wird: der physikalische Schlüssel. Aktuell hat sich FIDO2 als Quasi-Standard schon im Markt etabliert, zwei prominente Vertreter haben so gut wie jedes Format mit jedem erdenklichen Funktionsumfang im Angebot: Yubico, von denen ich seit Jahren drei unterschiedliche Schlüssel benutze oder der direkte Mitbewerber, bei dem ich heute eher zuschlagen würde - aber nur aus persönlicher Präferenz, nicht, weil sie besser wären! -: Trustkey. Ich habe euch bei beiden Anbietern eines der USB-A-Einsteigermodelle verlinkt. Ihr kennt mich, amazon Junkie und so, daher ratet mal, wo die Links hingehen? Genau... wir verstehen uns! Und wer glaubt, dass 30 Euro eine Menge Holz sind, sollte sich die Produktpaletten ansehen: Yubico geht so richtig in teuer, Trustkey kostet zwar nur die Hälfte mit dem Bio-Topfmodell, aber auch da sind über 50 Euro für "nur" einen USB-Schlüssel weg. Allerdings: was für ein Schaden würde dir entstehen, wenn ein Eindringlich sich einen Tag völlig ungehindert in deiner E-Mail, facebook/meta/instadings, amazon Konto, Online-Banking und auch noch in deiner Cloud austoben könnte? Weil du überall den gleichen Nutzernamen hast und das Passwort nur zehn Stellen hat und zum Schluss einfach eine Nummer von 1-6 hochgezählt wird? Also bei mir wären es definitiv mehr als 50 Euro Schaden... andererseits könnte mir der Eindringlich aus Mitleid gerne was aufs Online-Konto packen... aber erfahrungsgemäß passiert sowas leider nie...! Aber zurück zum Thema: Erst das schlechte Gewissen: Wenn du, meinem Blog-Pod vom Februar folgende, deine Passwörter geändert hast, ist JETZT die beste Zeit, es erneut zu tun. Und zwar nach all den Regeln, die ich im Februar geschrieben hatte! Und, wo immer möglich, mit zweitem Faktor aktiv! Und klar ist eine Authenticator-App super! Aber wie wäre es mit einem Schlüssel, der erst deinen Fingerabdruck bestätigen und scannen muss, also, andersrum, aber ihr versteht mich schon, bevor er den Codeschnipsel zur Freigabe des virtuellen Eingangs in deinen Account ermöglicht?! Und ich sage es erneut: auch trotz Stick nicht schludern! Individuelle Benutzernamen und, solange sie noch da sind, moderne Passwörter mit 25 und mehr Zeichen, am besten per Passwortmanager. Und dann warten wir mal ab, was Google, Microsoft und Cupertino noch so alles einfällt, auf dem Weg in die Passwort-freie Zukunft. Und, ich habe da schon so eine Vermutung, wer wieder sein eigenes Süppchen kochen wird. Nichtsdestotrotz wird es auch ohne Passwort sicherer, weil auch hier die menschliche Komponente wieder ein Stückchen rausgenommen wird. Und eben ein fälschungssicherer und auch auf Open-Source basierender USB-Stick die Aufgabe übernimmt. Ich freue mich schon drauf! Also, passt auf eure Passwörter und Zugangsdaten auf. Und beginnt gleich heute noch, die alle mal zu ändern! PodCast abonnieren: | direkt | iTunes | Spotify | Google | amazon | STOLZ PRODUZIERT UND AUFGENOMMEN MIT Ultraschall5 Folge direkt herunterladen
Gleich mit mehreren Gesetzen im Rahmen einer "Datenstrategie" will die EU "die Führungsrolle in einer datengestützten Gesellschaft übernehmen". Der AI Act etwa ist ein Verordnungsentwurf, der die Verarbeitung von Daten in KI-Systemen regeln soll. Ihm folgte im Februar 2022 der EU-Kommissions-Vorschlag zum Data Act. Die Verordnung soll den Binnenmarkt-Gedanken auf Datenhandel übertragen. Jeder Verbrauchter darf demzufolge selbst entscheiden, wer wann Zugriff auf seine Daten erhält, um damit einen Mehrwert zu erzeugen. Hier geht es insbesondere um anfallende Daten bei Gerätenutzung (Fahrzeuge, IoT usw). All diese Initiativen treffen auf die recht rigide DSGVO. In Episode 58 der Auslegungssache ordnen Joerg und Holger zusammen mit Alexandra Ebert die Dinge ein. Alexandra ist Chief Trust Officer beim Unternehmen mostly.ai und außerdem Expertin für Datenschutz, synthetische Daten und ethische Künstliche Intelligenz. Sie weist im Podcast darauf hin, dass vermehrtes Nutzen von personenbezogenen Daten, wie es von der EU gewünscht ist, auch neue Anforderungen an die Anonymisierung vor Weiterverarbeitung stellt. Diese sei oftmals kaum noch möglich. Alexandra erklärt, wie aus echten Datenbeständen synthetische Daten generiert werden können, die dann wiederum Forschungszwecken oder dem Training von KI-Systemen dienen. Im letzteren Fall könnten synthetische Daten außerdem dafür sorgen, dass ein vorhandener Bias im echten Datenbestand korrigiert wird. Ebert sieht hier eine Chance, Tendenzen zur Diskriminierung, wie sie bei KI-Systemen nach dem Training mit Echtdaten zu beobachten sind, entgegenzuwirken.
070: Heidi Just trägt einen Titel, den es noch nicht allzu oft im deutschsprachigen Assistenzbereich gibt, dafür aber umso mehr in den USA und UK: Chief of Staff. Was genau steckt dahinter und wer ist Heidi überhaupt? Hier ein paar Stichpunkte zu ihr: Abitur BWL (bis Vordiplom) und Kommunikationswissenschaften studiert Stationen in ihrer Karriere: PR Beraterin, Pressesprecherin bei o2, 17 Jahre selbstständig in den Bereichen Kommunikationsberatung, Prozessoptimierungen, Event, Messebau, Wedding Planning, Gastronomie, Sport, Finanzierungen, Leasing, Versicherung usw. Seit November 2020 nun bei Aparavi und seit Oktober 2021 bei Allterco. Ein buntes Profil und genauso umtriebig ist auch Heidi. Heidi sagt auf ihrem LinkedIn Profil: "Als Chief of Staff bin ich gerne auch noch Kümmerer, Kommunikator, Korrektiv, Vertrauter und Diskussionspartner für das gesamte Team." Ich wünsche viel Spaß bei meiner ersten Interview Folge in 2022. Diana xoxo Infos zu Aparavi: https://www.aparavi.com/ Der Data-Mastery-Anbieter Aparavi gibt Unternehmen die Kontrolle über ihre Daten zurück. Dank der innovativen Lösung erhalten sie schnell, einfach und ortsunabhängig einen umfassenden Überblick über ihre unstrukturierten Datenbestände. Auf dieser Basis können sie CO2 einsparen, fundierte Geschäftsentscheidungen treffen und gleichzeitig Risiken minimieren sowie Kosten sparen. Infos zu Allterco: https://allterco.com/ Allterco ist ein Unternehmen, welches Innovationen durch die Entwicklung, Produktion und den Vertrieb hochwertiger IoT-Produkte liefert. Angetrieben von der Inspiration des Endverbrauchers, nachhaltig, ruhig und glücklich zu leben.
Facebook, Google oder Microsoft nutzen Content-Scanner, um auf ihren Plattformen nach Fotos und Videos zu suchen, die sexuellen Kindesmissbrauch zeigen. Die Funde melden sie an Kinderschutzorganisationen und Behörden. Doch können Algorithmen die strafbaren Medien überhaupt zuverlässig finden und ist in einem Rechtsstaat das Durchleuchten der Datenbestände unbescholtener Nutzer verhältnismäßig? Auch Sicherheitsbehörden nutzen Algorithmen und Erkennungssoftware, um beschlagnahmte Datenbestände zu durchkämmen. Die Scanner sollen einerseits Bilder zuverlässig entdecken, andererseits legale Inhalte wie harmlose Urlaubsfotos oder Erwachsenenpornographie ignorieren. Manche Systeme vergleichen mit bereits bekannten Missbrauchsbildern, andere sollen mittels maschinellem Lernen auch bisher unbekannte, verbotene Inhalte finden. Die wünschenswerte Verbreitung von zuverlässiger Verschlüsselung erschwert das Auffinden. Im c't uplink erläutern c't-Redakteure Holger Bleich und Sylvester Tremmel, sowie Heise-Justiziar Joerg Heidrich die Hintergründe zu den Content-Scannern. Mit welcher Technik findet die Erkennungssoftware die Missbrauchsbilder, ohne selbst den problematischen Inhalt zu verbreiten? Was sind die Rechtsgrundlagen, von Datenschutz bis Strafrecht, für deren Einsatz und wo sind juristische Probleme? Und welche Regelungen plant die EU in der Zukunft? Gemeinsam mit Moderator Keywan Tonekaboni diskutieren Sie, ob das Vorgehen der richtige Weg ist, die Verbreitung von sexuellen Kindesmissbrauch zu bekämpfen. Die c't 2/2022 gibt's am Kiosk, im Browser und in der c't-App für iOS und Android. In unserem YouTube-Channel c't 3003 erklärt Jan-Keno Janssen, warum ihr um Telegram besser einen großen Bogen machen solltet ("Die Zerstörung von Telegram"). === Anzeige / Sponsorenhinweis === Klick auf athleticgreens.com/uplink und sichere dir bei deiner AG1 Bestellung einen kostenlosen Jahresvorrat an Vitamin D zur Unterstützung des Immunsystems & 5 Travel Packs! AG1 ist ein All-in-One Supplement, bestehend aus 75 Vitaminen, Mineralstoffen und weiteren essentiellen Inhaltsstoffen, welche die täglichen Nährstoffbedürfnisse deines Körpers decken. Das hoch absorbierbares Pulver zahlt in die wichtigsten Gesundheitsbereiche ein: Immunsystem, Darmgesundheit, Energiehaushalt, Regeneration und gesundes Altern. === Anzeige / Sponsorenhinweis Ende ===
Facebook, Google oder Microsoft nutzen Content-Scanner, um auf ihren Plattformen nach Fotos und Videos zu suchen, die sexuellen Kindesmissbrauch zeigen. Die Funde melden sie an Kinderschutzorganisationen und Behörden. Doch können Algorithmen die strafbaren Medien überhaupt zuverlässig finden und ist in einem Rechtsstaat das Durchleuchten der Datenbestände unbescholtener Nutzer verhältnismäßig? Auch Sicherheitsbehörden nutzen Algorithmen und Erkennungssoftware, um beschlagnahmte Datenbestände zu durchkämmen. Die Scanner sollen einerseits Bilder zuverlässig entdecken, andererseits legale Inhalte wie harmlose Urlaubsfotos oder Erwachsenenpornographie ignorieren. Manche Systeme vergleichen mit bereits bekannten Missbrauchsbildern, andere sollen mittels maschinellem Lernen auch bisher unbekannte, verbotene Inhalte finden. Die wünschenswerte Verbreitung von zuverlässiger Verschlüsselung erschwert das Auffinden. Im c't uplink erläutern c't-Redakteure Holger Bleich und Sylvester Tremmel, sowie Heise-Justiziar Joerg Heidrich die Hintergründe zu den Content-Scannern. Mit welcher Technik findet die Erkennungssoftware die Missbrauchsbilder, ohne selbst den problematischen Inhalt zu verbreiten? Was sind die Rechtsgrundlagen, von Datenschutz bis Strafrecht, für deren Einsatz und wo sind juristische Probleme? Und welche Regelungen plant die EU in der Zukunft? Gemeinsam mit Moderator Keywan Tonekaboni diskutieren Sie, ob das Vorgehen der richtige Weg ist, die Verbreitung von sexuellen Kindesmissbrauch zu bekämpfen. Mit dabei: Holger Bleich, Sylvester Tremmel, Joerg Heidrich und Keywan Tonekaboni Die c't 2/2022 gibt's am Kiosk, im Browser und in der c't-App für iOS und Android. In unserem YouTube-Channel c't 3003 erklärt Jan-Keno Janssen, warum ihr um Telegram besser einen großen Bogen machen solltet ("Die Zerstörung von Telegram"). === Anzeige / Sponsorenhinweis === Klick auf athleticgreens.com/uplink und sichere dir bei deiner AG1 Bestellung einen kostenlosen Jahresvorrat an Vitamin D zur Unterstützung des Immunsystems & 5 Travel Packs! AG1 ist ein All-in-One Supplement, bestehend aus 75 Vitaminen, Mineralstoffen und weiteren essentiellen Inhaltsstoffen, welche die täglichen Nährstoffbedürfnisse deines Körpers decken. Das hoch absorbierbares Pulver zahlt in die wichtigsten Gesundheitsbereiche ein: Immunsystem, Darmgesundheit, Energiehaushalt, Regeneration und gesundes Altern. === Anzeige / Sponsorenhinweis Ende ===
Facebook, Google oder Microsoft nutzen Content-Scanner, um auf ihren Plattformen nach Fotos und Videos zu suchen, die sexuellen Kindesmissbrauch zeigen. Die Funde melden sie an Kinderschutzorganisationen und Behörden. Doch können Algorithmen die strafbaren Medien überhaupt zuverlässig finden und ist in einem Rechtsstaat das Durchleuchten der Datenbestände unbescholtener Nutzer verhältnismäßig? Auch Sicherheitsbehörden nutzen Algorithmen und Erkennungssoftware, um beschlagnahmte Datenbestände zu durchkämmen. Die Scanner sollen einerseits Bilder zuverlässig entdecken, andererseits legale Inhalte wie harmlose Urlaubsfotos oder Erwachsenenpornographie ignorieren. Manche Systeme vergleichen mit bereits bekannten Missbrauchsbildern, andere sollen mittels maschinellem Lernen auch bisher unbekannte, verbotene Inhalte finden. Die wünschenswerte Verbreitung von zuverlässiger Verschlüsselung erschwert das Auffinden. Im c't uplink erläutern c't-Redakteure Holger Bleich und Sylvester Tremmel, sowie Heise-Justiziar Joerg Heidrich die Hintergründe zu den Content-Scannern. Mit welcher Technik findet die Erkennungssoftware die Missbrauchsbilder, ohne selbst den problematischen Inhalt zu verbreiten? Was sind die Rechtsgrundlagen, von Datenschutz bis Strafrecht, für deren Einsatz und wo sind juristische Probleme? Und welche Regelungen plant die EU in der Zukunft? Gemeinsam mit Moderator Keywan Tonekaboni diskutieren Sie, ob das Vorgehen der richtige Weg ist, die Verbreitung von sexuellen Kindesmissbrauch zu bekämpfen. Mit dabei: Holger Bleich, Sylvester Tremmel, Joerg Heidrich und Keywan Tonekaboni Die c't 2/2022 gibt's am Kiosk, im Browser und in der c't-App für iOS und Android. In unserem YouTube-Channel c't 3003 erklärt Jan-Keno Janssen, warum ihr um Telegram besser einen großen Bogen machen solltet ("Die Zerstörung von Telegram"). === Anzeige / Sponsorenhinweis === Klick auf athleticgreens.com/uplink und sichere dir bei deiner AG1 Bestellung einen kostenlosen Jahresvorrat an Vitamin D zur Unterstützung des Immunsystems & 5 Travel Packs! AG1 ist ein All-in-One Supplement, bestehend aus 75 Vitaminen, Mineralstoffen und weiteren essentiellen Inhaltsstoffen, welche die täglichen Nährstoffbedürfnisse deines Körpers decken. Das hoch absorbierbares Pulver zahlt in die wichtigsten Gesundheitsbereiche ein: Immunsystem, Darmgesundheit, Energiehaushalt, Regeneration und gesundes Altern. === Anzeige / Sponsorenhinweis Ende ===
Künstliche Intelligenz und öffentliche Verwaltung – wie passt das zusammen? Die BWL-Professorin und Ethik-Expertin für KI Kerstin Prechel spricht mit Cordula Torner über diskriminierende Algorithmen, große Datenbestände und niedrigen Digitalisierungsgrad, Smart Cities, die besondere Rolle und Verantwortung des Staates als Monopolist sowie die Notwendigkeit, KI interdisziplinär anzugehen und zu lehren.
In dieser Folge geht es um die Notwendigkeit, Open-Government-Data-Portale nutzerzentriert und dezentral zu gestalten. Zu Gast sind die Weizenbaum-Wissenschaftler*innen Stefanie Hecht und Fabian Kirstein. Open-Government-Data-Portale machen Datenbestände von öffentlichen Behörden, Verwaltungen und Regierungen für die Allgemeinheit zugänglich. Dabei ist das Versprechen solcher Portale, dass sich – durch ihre verstärkte Nutzung und größere Bereitstellung öffentlicher Daten – neue Formen von zivilgesellschaftlicher Bürgerbeteiligung entwickeln, die Wirtschaft angekurbelt und eine bessere Vernetzung zwischen öffentlichen Verwaltungen und Institutionen ermöglicht wird. Um dieses Potenzial auszuschöpfen, ist dabei eine nutzerfreundliche Gestaltung, eine gut entwickelte technische Infrastruktur und ein dezentrales Datenmanagement unabdingbar.
Digital Twins führen Daten aus den wesentlichen Lebensphasen eines Produktes zusammen. Je durchgängiger in diesem Sinne die Datenbestände sind, um so größer sind die realisierbaren Nutzen: Von Optimierungen in Planung, Produktion, Vertrieb, Betrieb und Service bis zur Ausgestaltung neuer Geschäftsmodelle. Prof. Dr. Detlef Gerhard spricht in diesem Podcast über den Stand der Entwicklung und die praktischen Einsatzmöglichkeiten, über Risiken und Fragen der Datenhoheit sowie über die Herausforderungen, denen sich CIOs in Architekturfragen stellen müssen. Detlef Gerhard lehrt als Professor für Digital Engineering an der Ruhr-Universität in Bochum und gilt als Experte in allen Fragen der IT-Unterstützung der Produktentwicklung und der industriellen Produktion.
Damit das auch künftig so bleibt, muss sie sich für innovative Ideen öffnen: Das Buzzword der Stunde heißt „Industrie 4.0“. Damit ist die Digitalisierung der Industrie gemeint, etwa mit Hilfe von Automatisierungen, Künstlicher Intelligenz, Robotik und dem Internet der Dinge. Für all diese Technologien sind Daten die entscheidende Grundlage. Das Hamburger Start-up Cybus kümmert sich um die sinnvolle und sichere Nutzung genau dieser Daten. Mit seiner Connectware lassen sich Daten aus Industriegeräten, Maschinen und Sensoren auslesen und auf einer entwicklerfreundlichen API zur Verfügung stellen. Die Datenhoheit ist Cybus dabei ein essenzielles Anliegen: Ihre Kunden behalten stets die volle Kontrolle darüber, welche Daten an welchen Service-Anbieter weitergegeben werden. Im Interview mit Nils spricht Co-Gründer und -Geschäftsführer Pierre Manière über die zunehmende Bedeutung von Datenbeständen, Smart Factorys und Services sowie die Zukunft des Industriestandorts Deutschland. Der Beitrag E73: Wie funktioniert Datensicherheit in der Industrie 4.0? – Pierre Manière (Cybus) erschien zuerst auf SoftwareForFuture Podcast.
Damit das auch künftig so bleibt, muss sie sich für innovative Ideen öffnen: Das Buzzword der Stunde heißt „Industrie 4.0“. Damit ist die Digitalisierung der Industrie gemeint, etwa mit Hilfe von Automatisierungen, Künstlicher Intelligenz, Robotik und dem Internet der Dinge. Für all diese Technologien sind Daten die entscheidende Grundlage. Das Hamburger Start-up Cybus kümmert sich um die sinnvolle und sichere Nutzung genau dieser Daten. Mit seiner Connectware lassen sich Daten aus Industriegeräten, Maschinen und Sensoren auslesen und auf einer entwicklerfreundlichen API zur Verfügung stellen. Die Datenhoheit ist Cybus dabei ein essenzielles Anliegen: Ihre Kunden behalten stets die volle Kontrolle darüber, welche Daten an welchen Service-Anbieter weitergegeben werden. Im Interview mit Nils spricht Co-Gründer und -Geschäftsführer Pierre Manière über die zunehmende Bedeutung von Datenbeständen, Smart Factorys und Services sowie die Zukunft des Industriestandorts Deutschland. Der Beitrag E73: Wie funktioniert Datensicherheit in der Industrie 4.0? – Pierre Manière (Cybus) erschien zuerst auf Wege der Digitalisierung.
Dezentralisierung beschreibt eine Form, bei der Prozesse, Daten und vieles mehr nicht mehr nur zentral an einer Stelle verwaltet, durchgeführt, etc. werden, sondern dezentral an verschiedenen Standorten z.B.. Eine besondere Form der Dezentralisierung ist die dezentrale Blockchain, bei der vereinfacht gesagt Datenblöcke nicht nur aneinandergereiht werden, sondern auch an allen “Standorten” dieselben Datenbestände aufweisen.
IT Manager Podcast (DE, german) - IT-Begriffe einfach und verständlich erklärt
Heute dreht sich alles um das Thema: „Was ist eigentlich ein Ryuk?” Bei Ryuk handelt es sich um einen neuen hochriskanten Verschlüsselungstrojaner, der gezielt große Unternehmen und staatliche Behörden angreift, um immens hohe Lösegelder für die Entschlüsselung verschlüsselter Datenbestände zu fordern. Der Verschlüsselungstrojaner Ryuk trat erstmals im August 2018 in Erscheinung und erwirtschaftete seitdem mindestens 705 Bitcoins Lösegeld – umgerechnet entspricht das derzeit 2,25 Millionen Euro. Aufgrund seiner Ähnlichkeit mit der Ransomware Hermes, gehen Sicherheitsexperten davon aus, dass beide Viren von der gleichen Hackergruppe entwickelt wurden und der Ursprung von Ryuk vermutlich in Russland liegt. Ryuk tritt häufig in Kombination mit anderen Schadprogrammen wie Emotet und TrickBot auf. Er wird als besonders gefährlich eingestuft, da er neben der Verschlüsselung geschäftskritischer Daten, sämtliche Sicherungskopien die er in einem System und/ oder Netzwerk findet löscht und dadurch die Datenwiederherstellung erschwert. Bevor es allerdings zu einer Infektion mit Ryuk kommt, öffnet der Trojaner Emotet seinen Mitstreitern die Tür zum Computersystem. Dabei installiert er sich in den meisten Fällen beim Öffnen eines infizierten E-Mail-Anhangs selbst und beginnt anschließend, das gesamte Computernetzwerk auszuspähen. Im nächsten Schritt lädt er den Banking-Trojaner TrickBot nach. Dieser sammelt Informationen und sorgt für Datenabfluss. Dabei greift er vor allem Kontozugangsdaten für Bankkonten ab und gewährt den Hintermännern somit Einblick in die finanzielle Situation eines Unternehmens. Zu guter Letzt hat dann die Ryuk-Ransomware ihren großen Auftritt. Wenn die Angreifer das Unternehmen als angemessen lukrativ für eine Lösegeldforderung einschätzen, lädt TrickBot schließlich die Verschlüsselungssoftware Ryuk herunter. Diese verschlüsselt vor allem geschäftskritische Datenbestände, welche bei der Auskundschaftung des Unternehmens als besonders wichtig eingestuft worden sind. Dabei nutzt sie die starken Verschlüsselungsalgorithmen RSA-4096 und AES-256. Darüber hinaus löscht sie im gleichen Zuge sämtliche Sicherungskopien, die sie finden kann. Eine weitere Besonderheit von der Ryuk-Ransomware ist, dass sie im Gegensatz zu ihren Artgenossen, die verschlüsselten Daten nicht umbenennt, sondern eine Textdatei namens ("RyukReadMe.txt") erzeugt. Dessen Kopie fügt sie jedem vorhandenen Ordner bei, sodass die Betroffenen mehrere einzigartige Schlüssel benötigen, sprich mehr Lösegeld zahlen müssen, um die Daten zu entschlüsseln. Im finalen Schritt fordert sie mittels einer Nachricht auf dem “Sperrbildschirm” die Betroffenen auf, das Lösegeld für die Entschlüsselung der Daten zu überweisen. Um hierbei die Spuren zu verwischen, werden die Zahlungen auf mehrere Bitcoin-Wallet aufgeteilt. Wie kann man sich nun vor solchen gefährlichen Ryuk-Angriffen schützen? Der beste Schutz gegen Ryuk-Angriffe ist, das man gar nicht erst mit infizierten Dokumenten und Dateien in Kontakt kommt und für ein rundum abgesichertes Unternehmensnetzwerk sorgt. Damit ein Unternehmensnetzwerk wirklich sicher ist, müssen Sie alle Komponenten innerhalb des Netzwerks sichern, aufeinander abstimmen und auf dem neuesten Stand halten. All dies erreichen sie unter anderem durch: ● Updates und Patches, die möglichst zeitnah nach Veröffentlichung installiert werden. Damit kann man bekannte Sicherheitslücken, Schwachstellen und mögliche Einfallstore in Betriebssystemen oder Anwendungen schließen. ● einer aktuellen Antiviren-Software, die viele Schädlinge erkennt, blockiert und beseitigt, so dass es gar nicht erst zu deren Ausführung kommt. ● einer richtig konfigurierten Firewall, die die Kommunikation zwischen Netzwerk und Internet überwacht. Sobald sie einen verdächtigen Datenfluss registriert, wird diese gemeldet und die Kommunikation geblockt. ● einen Spamfilter, der eine ganze Menge schädlicher E-Mails aussortiert, so dass diese gar nicht erst in einem E-Mail Postfach landen. Allerdings können Spamfilter im Falle von Emotet und Ryuk nicht ausreichend sein. Hier müssen alle Mitarbeiter im richtigen Umgang mit E-Mails samt E-Mail Anhängen geschult werden. ● regelmäßige Security-Awareness Trainings. Dadurch können sowohl Mitarbeiter, als auch die Geschäftsführung und alle Anwender in einem Unternehmensnetzwerk für potentielle Gefahren sensibilisiert und im Umgang mit diesen geschult werden. ● regelmäßige Backups, die im Falle eines Angriffs oder eines Ausfallszenarios einen Datenverlust minimieren. ● die Deaktivierung von Makros in Office-Dokumenten Kommt es allerdings doch zu einem Sicherheitsvorfall müssen Sie Ruhe bewahren und dürfen unter keinen Umständen voreilige Maßnahmen treffen, die womöglich die Situation noch verschlimmern oder für die Analyse wertvolle Spuren vernichten könnten. Melden Sie den Vorfall an das BSI. Beim Abfluss personenbezogener Daten – was bei Emotet-Infektionen bereits durch das Ausspähen von E‑Mails aus Outlook-Postfächern geschieht – ist außerdem eine Meldung gemäß Art. 33 DSGVO an Ihren Landesdatenschutzbeauftragten in der Regel innerhalb von 72 Stunden verpflichtend. Darüber hinaus sollten sie eine Sprachregelung zum Vorfall formulieren und Ihre Mitarbeiter informieren. Im Fall einer Verschlüsselung von Daten sollten Sie grundsätzlich nicht auf die Erpressung eingehen und Lösegeld bezahlen. Stattdessen sollten die Daten nach einem Neuaufbau des Netzwerks aus Backups zurückgespielt werden. Bevor wir nun zum Schluss unseres heutigen Podcasts kommen, möchte ich noch einmal ganz kurz alle wichtigen und jüngsten Fakten über die Ransomware Ryuk zusammenfassen: Ryuk greift gezielt große Unternehmen und staatliche Behörden an, die erstens in der Lage sind hohe Lösegeldforderungen zu zahlen. Zweitens bereits mit den Schadprogrammen Emotet und TrickBot infiziert wurden. Vor dem Ausrollen von Ryuk führen die Hintermänner mithilfe der Standard-Tools der Windows-Befehlszeile eine Netzwerkerkundung durch. Die Hintermänner erreichen eine Lateral-Bewegung durch die Netzwerke der Betroffenen, indem sie die legitimen, gesammelten Anmeldeinformationen und Fernzugriffs-Tools wie RDP missbrauchen Um den Zugang aufrechtzuerhalten, erstellen die Cyberkriminellen Service-Benutzerkonten, die auch verwendet werden können, um auf Recovery-Bemühungen zu reagieren Sobald die Hintermänner Zugriff auf Konten mit erweiterten Rechten haben, deaktivieren bzw. entfernen Sie Sicherheitssoftware, Protokollierung und Backups Außerdem werden Batchskripts und Windows-Tools wie PsExec genutzt, um Ryuk über einzelne Maschinen hinweg einzusetzen. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
#Selbstfahrendes Auto #Innovation #Automobilindustrie #Auto #automatisiertesAuto #Ladeinfrastruktur #Elektromobilität #Elektroauto #AutonomesAuto #Elektromobilität #Ladesäule #AutomatedDriving #AutonomousCar von Jürgen Vagt 19.09.19 heute war Stefan Leppler von Motion Tag https://motion-tag.com/en/ zu Gast bei den Zukunftsmobilisten und wir sprachen über sein Start up und dessen Rolle in der Zukunftsmobilität. Motiontag sammelt anyomisierte Daten von Nutzern ein und zeigt mit dieser Datengrundlage Effizienzpotenziale für Mobilitätsunternehmen an. Wenn Menschen eine gewisse Wegstrecke mit mehreren Verkehrsmitteln zurücklegen, dann werden über diese Wegstrecken die Nutzerdaten per App gesammelt und aus diesen Daten werden Nutzerprofilen generiert. Mit diesen Datenbeständen können dann Optimierungen bestimmt werden, also wo müssen im Stadtgebiet mehr oder weniger Shuttle angeboten werden? Wie können Sharing-Anbieter mit Fahrrädern besser mit dem klassischen ÖPNV zusammenarbeiten? Nutzer sind zwar nicht im Fokus von motiontag, aber in den nächsten Jahren werden die Angebote der Verkehrsbetreiber immer besser, weil man die Kundenbedürfnisse besser versteht. Neue Akteure in der Mobilität In den letzten Jahren sind immer mehr und neue Akteure zu Mobilitätsanbietern geworden und das Teilen von Verkehrsmitteln wird immer populärer. Insbesondere junge Großstädter wollen kein eigenes Fahrzeug mehr besitzen und scheuen auch die Festkosten des eigenen Autos. Daher gibt es immer Sharing-Optionen und man kann von Fahrrad bis zum Auto die Fahrzeuge ausleihen und nach der Fahrt wird es von jemand anders genutzt. Daher kommen immer mehr neue Akteure in die Mobilität, Alexander Meiritz http://elektroautovergleich.org/2019/01/elektroroller-im-sharing-alexander-meiritz-emmy-sharing-bei-den-zukunftsmobilisten/ und Mladen Djuric http://elektroautovergleich.org/2019/03/elektrische-kleinbusse-im-ridesharing-die-zukunftsmobilisten-nr-24-mladen-djuric-clevershuttle/ Bislang sind diese Optionen nicht aufeinander abgestimmt und greifen nicht einander und bei diesem Problem bietet die Software von motiontag Abhilfe. Für Kommunen besteht so die Möglichkeit auch den Verkehr in der Stadt effizienter zu machen, denn viele Städte wollen den individuellen Verkehr mit privaten PKWs aus den Innenstädten drängen. Die Privat-Pkws brauchen viel Platz und erzeugen Emissionen und Lärm in dicht besiedelten Städten und viele große Kommunen und Städte werden früher oder später den Zugang von Autos erschweren. Vielleicht werden schon in ein paar Jahre automatisierte Shuttles in den Städten fahren und dann braucht man eine Datengrundlage, um diese autonomen Shuttles besser im Verkehr zu steuern. Roboter-Taxis werden eingesetzt, um Menschen aus dem Stadtgebiet zu einem Verkehrsknotenpunkt zu bringen.
IT Manager Podcast (DE, german) - IT-Begriffe einfach und verständlich erklärt
Unterstützt durch finally safe GmbH In einem spannendem Interview mit Herrn Diego Sanchez erfahren Sie, liebe IT Profis, wie man mithilfe von maschinellem Lernen Angriffe frühzeitig identifizieren und verhindern kann. Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de Kontaktdaten des Interviewpartners: Diego Sanchez sanchez@finally-safe.com Beantwortung von Fragen zu Cyberangriffen: https://www.finally-safe.com/anfrage/ Security News Artikel und Analyse: https://www.finally-safe.com/nachrichten/ BSI Empfehlungen: https://www.allianz-fuer-cybersicherheit.de/ACS/DE/_/downloads/BSI-CS_134.pdf?__blob=publicationFile&v=4 Buchempfehlungen: BLACKOUT - Morgen ist es zu spät: Roman von Marc Elsberg: https://amzn.to/2KYxIH8 ZERO – Sie wissen, was Du tust: Nachfolger von Blackout, auch vom Marc Elsberg: https://amzn.to/2V3NbJN Risiken der Industrie 4.0 – Eine Strukturierung von Bedrohungsszenarien der Smart Factory, Michael Hertel, 2015 I: Herzlich willkommen liebe IT-Profis zur heutigen Folge des IT-Manager Podcast zum Thema: Wie kann maschinelles Lernen Smartfactorys vor Cyberattacken schützen? Ja, ich weiß. Wir könnten nun eigentlich drei Episoden davon machen. Was versteht man unter maschinellem Lernen? Was sind Smartfactorys? Und wie muss ich mir Cyberattacken vorstellen? Doch heute haben wir dazu im Interview Diego Sanchez als Spezialisten zu diesem Thema. Herzlich willkommen! Stellen Sie sich doch bitte kurz selbst den IT-Profis vor. B: Ja, hallo. Mein Name ist Diego Sanchez. Ich bin Mitgründer der Firma Finally Save aus Essen. Ich selbst bin Wirtschaftsingenieur und seit der Gründung 2015 verantwortlich dafür, die Herausforderungen und Problemstellungen unserer Kunden und Interessenten zu identifizieren, zu verstehen und gemeinsam dafür Lösungen anzubieten. Dabei arbeiten wir immer eng im Team mit unseren Technikern und Entwicklern zusammen, um die passende Lösung mit Hilfe unserer Sicherheitslösung zur Erkennung von Cyberangriffen zur Verfügung zu stellen. I: Ja, ich hatte unser heutiges Thema zu Beginn schon erwähnt. Was können wir und die Hörer uns denn ganz konkret darunter eigentlich vorstellen? B: Also bei unserem Thema geht es darum, dass die Fabriken immer häufiger Ziel von Cyberangriffen werden. Ähnlich wie wir das in der letzten Podcast-Spezialfolge gehört haben. Wir stellen eine Technologie her, die ich heute beschreibe, um solche Angriffe frühzeitig zu erkennen. Damit schnell Gegenmaßnahmen ergriffen werden können, um Schäden entweder komplett zu vermeiden oder die Auswirkungen zu vermindern. Denn oft kann es zum Beispiel im medizinischen Bereich oder bei der Versorgung von Energie und Wasser, auch um Menschenleben gehen. Neben den Cyberangriffen haben wir noch die beiden Themen Smartfactory und maschinelles Lernen, die ich einmal an einem Beispiel erklären möchte. Wenn Sie sich vorstellen, ein Hersteller von chemischen Produkten, wie zum Beispiel Medikamenten. Ein solcher Hersteller verfügt über Produktionsanlagen, mit denen er verschiedene, chemische Stoffe kombiniert, dass am Ende das Medikament erzeugt wird. Diese Anlagen sind oft riesig und hochautomatisiert. Was bedeutet, dass Computer die einzelnen Prozessschritte steuern. Dazu kommt, dass viele erzeugte Daten, wie zum Beispiel Temperaturen, Drehzahlen, Schwingungen, dafür verwendet werden, um Vorhersagen über die Haltbarkeit von Maschinenteilen zu treffen. Was man predictive maintenance nennt. Oder um ganze Abläufe zu verbessern. Das bedeutet, dass Maschinen immer mehr zu eigenständigen, leistungsfähigen Computern werden, die Daten miteinander austauschen. Das Ganze nennt man Smartfactory oder die intelligente Fabrik. Maschinelles Lernen, oder auch Machine Learning genannt, ist ein Teilbereich der Künstlichen Intelligenz. Die Verfahren wurden schon in den fünfziger Jahren entwickelt, konnten aber erst in den letzten Jahren richtig nutzbar gemacht werden. Einmal durch die steigenden Datenmengen, die man benötigt, um solche Systeme anzulernen. Zum anderen auch durch die immer leistungsfähigeren Prozessoren. Kurz gesagt werden aus Datenbeständen durch Algorithmen Modelle erzeugt, um Muster und Gesetzmäßigkeiten aufzudecken. Anders ausgedrückt: Es wird künstliches Wissen aus Erfahrung generiert. Das Machine Learning verwenden wir nun, um die Daten, der vielfältigen komplexen Abläufe der Smartfactory intelligent auszuwerten. Zum Beispiel die Kommunikation zu und zwischen Maschinen, um Muster und Regeln abzuleiten. Das Ziel dabei ist es, Entscheidungen zu treffen. Was im Verkehr ist normal? Was ist anormal? Was ist gewollt oder nicht gewollt? Wo passieren verdeckte Dinge, die nicht vorgesehen sind? All das sind Hinweise oder können Hinweise sein auf versteckt ablaufende Angriffe. I: Welche Vor- beziehungsweise Nachteile gibt es denn gerade bei der Anwendung von Maschinenlernen in Smartfactorys? Weil, Sie haben jetzt ja viele Bereiche dargestellt und das ja auch so ein bisschen bildhaft gemacht, wie man sich das tatsächlich in der ja Produktionsanlage eines Herstellers auch so vorstellen kann, wie da die Maschinen miteinander agieren. Aber welche Vor- und Nachteile gibt es denn da konkret beim Einsatz solcher Techniken? B: Ich fange zuerst mal bei ein paar Nachteilen an. Selbstlernende Systeme sind immer nur so gut, wie auch die Datengrundlage, die sie erhalten. Wenn zum Beispiel ein bereits infiziertes Netzwerk als Grundlage genommen wird, kann das natürlich die Ergebnisse verfälschen. Zudem können auch dynamische Veränderungen wie kurzfristige Änderungen in Produktionsabläufen die Interpretation der Systeme beeinflussen. Was man dagegen tun kann? Wichtig ist es, sich nicht zu hundert Prozent auf die Algorithmen zu verlassen sondern diese immer im Zusammenspiel mit Experten zu verwenden. Solche Systeme also als Assistenten zu nutzen, um die gewünschten Ergebnisse zu erzielen. Kommen wir nun zu den Vorteilen. Die schieren Datenmengen, komplexe Muster und Abläufe können von Menschen zwar punktuell erfasst und interpretiert werden, jedoch nicht kontinuierlich zu jedem Zeitpunkt und voll automatisch. Dadurch werden Machine Learning Algorithmen benötigt, die diese Aufgabe übernehmen und mit der Hilfe von Menschen ständig optimiert werden. Zusätzlich verwenden Angreifer selbst hochautomatisierte Systeme und Software, um möglichst unbemerkt in Fabriken einzudringen und sich festzusetzen. Diese Änderungen und Hinweise können so klein sein, dass sie uns Menschen gar nicht auffallen. Zum Beispiel kann es die Veränderung jeder zweitausendsten Verbindung einer Maschine im Datennetz sein. Wir entwickeln Software, die Unternehmen hilft, ihre Datenströme zu nutzen, um Schaden von der Firma abzuwehren. Dazu müssen sie verstehen, wie und wohin die Daten fließen, die in jeder Sekunde entstehen. Das Ziel dabei ist es, Firmen vor Spionage und Manipulation zu schützen, die das Überleben der Firma oder das von Menschenleben bedrohen könnten. I: Okay. Das hört sich echt sehr komplex an, ehrlich gesagt, das ganze Thema auch. Gerade natürlich wenn man dann in solche Sachen reingehen muss. Das kann ich mir gut vorstellen, dass da viele Dinge vor allen Dingen analysiert werden müssen. Und wahrscheinlich dann auch über einen längeren Zeitraum. Woher kommt denn eigentlich Ihre Expertise in Ihrem Fachgebiet? B: Ja, das ist richtig. Wir haben mit klassischen Netzwerkanalysen bereits vor 14 Jahren am Institut für Internetsicherheit der Westfälischen Hochschule begonnen. Und in Zusammenarbeit mit dem BSI immer weiter entwickelt. Als in den letzten Jahren die Digitalisierung im Bereich Produktion und die Vernetzung von Maschinen zunahm, haben wir begonnen, uns mit diesem Bereich zu beschäftigen. In dem es im Kern ja auch um Datenströme geht. Da haben wir festgestellt: Maschinenkommunikation ist sehr gleichmäßig und folgt klaren Mustern. Also eine ideale Grundlage für ein Machine Learning, das wir zuvor schon in den klassischen Netzwerken eingesetzt haben. Mir persönlich hilft zudem als gelernter Wirtschaftsingenieur das Wissen über Produktionsabläufe und Kennzahlen, um Firmen besser zu verstehen. Um den Firmen und Kunden besser zu helfen, mit unserer Technik die Ziele zu erreichen. Die Ziele sind vor allem: Hohe Verfügbarkeiten, keine Unterbrechungen, Flexibilität der Produktionsanlagen, Stichwort Nullfehlerproduktion, und immer das Verhältnis zwischen Kosten, Zeit und Qualität auszubalancieren. Für viele Firmen ist die Sicherheit oder Cybersecurity immer eher ein unterstützender Faktor, der jedoch schnell zum Stolperstein für die übergeordneten Ziele werden kann. I: Und gibt es besondere Tipps zu dem Thema, die Sie unseren Zuhörern geben können? B: Ich habe mal zwei Tipps mitgebracht. Der erste: Man sollte niemals Systeme einfach vernetzen, ohne vorher kritisch die Sicherheit zu hinterfragen. Das gilt zum Beispiel auch im privaten Bereich, wenn man an Alexa, Fitnesstracker oder Smart Home Anwendungen denkt. Das andere ist: Man sollte sich nie nur auf die Technik verlassen, sondern immer auch den gesunden Menschenverstand einschalten. Zum Beispiel sollte man sich fragen, ob eine (Heizungssteuerung?) unbedingt frei im Internet verfügbar sein sollte für jedermann. #00:08:16-0# Oder dass man nicht immer auf jeden Link in der Email klickt. Im Zweifel Experten ansprechen, fragen, recherchieren. Das geht meistens auch schon kostenlos. I: Ja super. Vielen Dank für diese Tipps. Das ist immer großartig. Das kann man immer auf jeden Fall mitnehmen. Und gerade bei der ganzen Verbreitung von solchen Systemen wie Alexa und Co. muss man ja tatsächlich mal hinterfragen: Macht das wirklich so viel Sinn? Erleichtert es das Leben so ungemein, dass es wirklich erforderlich ist? Und was hole ich mir damit eigentlich auch für Sicherheitslücken eigentlich ins Haus? Gibt es bestimmte Mehrwerte, die Sie den Hörern noch zur Verfügung stellen können? Also gewisse Checklisten oder andere Dinge, wo auch die Hörer einfach nochmal ein bisschen ins Eingemachte tiefer steigen können? B: Ja, sehr gerne. Wir haben drei Punkte nochmal mitgebracht, die auch verlinkt sind. Und zwar zum einen Security News, die wir regelmäßig erstellen. Die man auf unsere Website findet oder über unseren Newsletter erhält. Darin sind auch Analysen zu Cyberangriffen enthalten. Als zweites beantworten wir sehr gerne Fragen zu Auffälligkeiten, zu Angriffen. Da kann man uns sehr gerne kontaktieren. Und als drittes gibt es auch sehr viele BSI Empfehlungen. Zum Beispiel haben wir verlinkt einen Leitfaden und eine Empfehlung wie man Anomalieerkennung und Monitoring in Prozessnetzwerken verwenden kann. I: Ja, die Informationen dazu, werden wir dann natürlich dann den Hörern in den Shownotes zur Verfügung stellen. Da packen wir die Links rein. Da kann man das jederzeit auch aufrufen und sich im Detail mal in Ruhe anschauen. Gibt es denn zu diesem Thema auch Buchempfehlungen? Wir haben immer ein bisschen die Situation bei anderen Themen, dass Buchempfehlungen manchmal gar nicht ausgesprochen werden, weil die IT-Branche sich ja so dermaßen schnell weiter entwickelt. Wie sieht es denn hier zu dem Thema hier mit den Cyberattacken der Smartfactorys aus? B: Ja, da habe ich auch mal wieder drei Dinge mitgebracht, und zwar ein Klassiker: Das Buch Blackout von dem Autor Marc Elsberg. Das ist schon etwas älter, von 2013, aber das ist heute genauso aktuell und zeigt dieses sehr abstrakte Thema IT, Cybersicherheit, was die Auswirkung auf das wahre Leben ist. Also immer noch eine Empfehlung, das Buch. Oder auch der Nachfolger mit dem Namen Zero von dem gleichen Autor. Und eine dritte Empfehlung, etwas technischer, ist das Buch Risiken der Industrie 4.0. Eine Strukturierung von Bedrohungsszenarien der Smartfactory von Michael Härtel. I: Ja auch zu diesen drei Büchern stellen wir dann natürlich entsprechende Links ein, damit man da direkt sich die Bücher auch besorgen kann. Ja, aufgrund des Interviews hier gibt es ein besonderes Angebot für unsere IT-Profis, um diese Lösung aus Ihrem Hause auch nutzen zu können. Sie sagen ja vorhin, dass Sie dort eine ganz spezielle Technik einsetzen. Haben Sie da was Spezielles für unsere Hörer im Angebot? B: Ja, wir würden unseren Hörern gerne eine Mehrzweckanalyse anbieten, mit unserem System. Das kann man sich als Suppliance vorstellen. Und das Ganze bei einer Dauer von 60 Tagen. Also im Grunde 2 Monaten für einen halbierten Preis von 3.600 Euro. Und das Angebot halten wir aufrecht bis Ende des Jahres 2019. I: Das heißt für 3.600, das heißt statt normalerweise 7.200, weil Sie sagten eben zum halben Preis. Und ich würde dann den Hörern noch hinzugeben: Je nachdem, welcher Unternehmensgröße Sie angehören, sollten Sie da immer nochmal prüfen, welche Möglichkeiten einer bundesweiten oder EU-Förderung Sie dort auch in Anspruch nehmen können. Da muss sich immer jeder mal schlau machen, in welchem Bundesland er da auch sitzt und was es da gerade für ihn gibt. Und je nach Größe des Unternehmens ist da auch schnell mal Schluss mit einer Förderung, wenn man bestimmte Umsatzgrenzen dort bereits durchbricht. Ja, vielen Dank Herr Sanchez für dieses tolle Interview und die Einblicke in diese Dinge. Auch wie diese ganzen Sachen ineinandergreifen und welche Möglichkeiten es dort heute gibt mit Maschinellem Learning dort in den Smartfactorys tatsächlich auch solche Cyberattacken abwehren und ja das Ganze im Prinzip auch damit schützen kann. Indem vorher gut ausgewertet hat, was da eigentlich so stattfindet, um dann natürlich die entsprechenden Sicherheitsmechanismen zu etablieren. Vielen Dank Ihnen!
Manfred hat in den zurückliegenden Jahren häufiger für die Kunden des Trainerlotsen Adressrecherchen gemacht. Dabei hat er auf den Kauf von Adressen in der Regel verzichtet. Wenn ein Kunde genau beschreiben konnte, wie sein zukünftiger Kunde aussehen sollte, konnte Manfred im WWW danach suchen. Die öffentlich zugänglichen Informationen lieferten die notwendigen Informationen zu den quantitativen und qualitativen Kriterien der Kunden. In vielen Fällen waren sogar die passenden Ansprechpartner zu recherchieren. Fazit: Wer keine großen Datenbestände erheben will ist mit der DIY-Adressrecherche gut beraten- Nächste Podcastfolge kommt dann am 6. März 2019. www.trainerlotse.de Wenn du direkt mit uns Kontakt aufnehmen willst, erreichst du uns entweder per eMail an ahoi@trainerlotse.de oder telefonisch unter 040-3800383 Gemafreie Musik von www.frametraxx.de
Verschlüsselung: VeraCrypt_____Themen_____ Waschmittel selber machen - Keine gute Idee___Kernseife setzt sich ab in der Maschine und landet auf der Haut____kein Wasserenthärter____nicht gut für Allergiker wegen der Kernseifereste Bezahlen per smartphone ================== - Sicherheit bei meinem alten smartphone - Geld immer dabei, ist das wirklich ein Vorteil? - Übliche Probleme: Ausgaben werden Transparent - Bezahlen wir uns in Zukunft gegenseitig für Kleinigkeiten, weil es immer leichter wird an Freunde Geld zu senden? Eine Bank schreibt meinen Eltern? Wie das? ================================ Das Kleingedruckte: postdirekt.de/datenschutz Ich möchte keinem Anwalt schreiben und meine aktuellen richtigen Daten preisgeben, damit meine Eltern keine Post mehr für mich erhalten. Trotzdem frech, dass die deutsche Post direkt offenbar Datenbestände an Privatunternehmen weiter gibt. KONTAKTLSTE STATT ADRESSBUCH ============================== hält die Liste schön übersichtlich Warum die Nummer von Leuten behalten, mit denen ich keinen Kontakt habe? X Monate kein Kontakt wird gelöscht Die großen Gefahren für eure Dinge ========================= Wasser (Schränke aus Plastik?) Feuer (Feuerfeste Dinge) Diebstahl (keine Wertsachen besitzen oder sammeln, arm wirken, verschlüsselt eure Platten) Eine positive innere Haltung zum Thema Verlust. Update: Ein Leben ohne WhatsApp___ Warum ihr NICHT wollt, dass irgendeiner eure privaten Daten in die Finger bekommt. Und warum ihr daher alles, was ihr besitzt, verschlüsseln solltet. Z.B. mit dem kostenlosen Programm VeryCrypt. Dieser Podcast wurde aufgenommen mit Audacity! Eure Mails an: marco.minimalist@googlemail.com Folge direkt herunterladen
Torsten Kleinz Welch großen Einfluss Werbung hat, kann jeder Internetnutzer unmittelbar spüren. Die kürzliche Schwemme an neuen Podcast-Formaten haben wir zum Beispiel der Öffnung eines neuen Werbemarktes zu verdanken. Dass fast jedes Medium mittlerweile viele Inhalte als Video ausliefert ist ebenso Folge der Preisentwicklung der verkauften Werbespots. So weit, so gut? Nein. Vor kurzem entdeckte man, dass ein großer Teil der Video-Einnahmen in die Taschen von Betrügern floss. Über Botnetze, gefälschte Websites und infizierte PCs konnten unbekannte Betrüger so tun, als verkauften sie Werbespots auf etablierten Websites wie der "Washington Post". Im Dezember veröffentlichte Google eine Studie, wonach eine Betrügergruppe auf diese Weise jährlich mehr als eine Milliarde Dollar abgezweigt hat -- Geld, das zur Finanzierung von Journalismus fehlt. Die Firmen, die hier massenhaft betrogen wurden oder an dem Betrug teilnahmen, sind gleichzeitig die Firmen, die über Algorithmen und Big Data unser aller Leben organisieren wollen. Dabei demonstrieren sie immer wieder, wie wenig sie über die eigenen Datenbestände und Plattformen wissen. So erfuhr das Facebook-Management erst aus den Medien, dass der eigene Anzeigenplaner "Judenhasser" als vermarktbare Zielgruppe definiert hat. Und Google musste sich fragen lassen, warum Werbespots mit Videos von IS-Anhängern und Ku-Klux-Klan-Mitgliedern ausgeliefert wird. Künstliche Intelligenz soll den Missbrauch künftig einschränken -- dabei zeigt sich immer wieder, dass künstliche Intelligenz ohne hinreichende Aufsicht desaströse Fehleinschätzungen liefert. Die gleichen Algorithmen, die Werbung zuteilen sollen, werden auch auf Inhalte losgelassen. In meinem Vortrag will ich zeigen, wie der Markt für Online-Werbung funktioniert und wie er sich entwickelt. Welche Folgen haben Branchen-Initiativen wie Googles "Adfilter" oder Gesetzesinitiativen wie die ePrivacy-Verordnung auf Werbung und damit auf das Netz? Was wurde aus dem Kampf gegen Adblocker?
Torsten Kleinz Welch großen Einfluss Werbung hat, kann jeder Internetnutzer unmittelbar spüren. Die kürzliche Schwemme an neuen Podcast-Formaten haben wir zum Beispiel der Öffnung eines neuen Werbemarktes zu verdanken. Dass fast jedes Medium mittlerweile viele Inhalte als Video ausliefert ist ebenso Folge der Preisentwicklung der verkauften Werbespots. So weit, so gut? Nein. Vor kurzem entdeckte man, dass ein großer Teil der Video-Einnahmen in die Taschen von Betrügern floss. Über Botnetze, gefälschte Websites und infizierte PCs konnten unbekannte Betrüger so tun, als verkauften sie Werbespots auf etablierten Websites wie der "Washington Post". Im Dezember veröffentlichte Google eine Studie, wonach eine Betrügergruppe auf diese Weise jährlich mehr als eine Milliarde Dollar abgezweigt hat -- Geld, das zur Finanzierung von Journalismus fehlt. Die Firmen, die hier massenhaft betrogen wurden oder an dem Betrug teilnahmen, sind gleichzeitig die Firmen, die über Algorithmen und Big Data unser aller Leben organisieren wollen. Dabei demonstrieren sie immer wieder, wie wenig sie über die eigenen Datenbestände und Plattformen wissen. So erfuhr das Facebook-Management erst aus den Medien, dass der eigene Anzeigenplaner "Judenhasser" als vermarktbare Zielgruppe definiert hat. Und Google musste sich fragen lassen, warum Werbespots mit Videos von IS-Anhängern und Ku-Klux-Klan-Mitgliedern ausgeliefert wird. Künstliche Intelligenz soll den Missbrauch künftig einschränken -- dabei zeigt sich immer wieder, dass künstliche Intelligenz ohne hinreichende Aufsicht desaströse Fehleinschätzungen liefert. Die gleichen Algorithmen, die Werbung zuteilen sollen, werden auch auf Inhalte losgelassen. In meinem Vortrag will ich zeigen, wie der Markt für Online-Werbung funktioniert und wie er sich entwickelt. Welche Folgen haben Branchen-Initiativen wie Googles "Adfilter" oder Gesetzesinitiativen wie die ePrivacy-Verordnung auf Werbung und damit auf das Netz? Was wurde aus dem Kampf gegen Adblocker?
Die Wikipedia definiert Open Data als Daten, die "von jedermann ohne jegliche Einschränkingen genutzt, weiterverbreitet und weiterverwendet werden dürfen". "Frag den Staat", die "Datenschule", "OpenDataCity" und "Journocode" sind nur einige Projekte unserer Gäste, in denen durch die Verwendung und Auswertung offener Daten ein Mehrwert für die Gesellschaft geschaffen wird. Wenn Ihr mehr über Datenjournalismus, Transparenz und die Arbeit mit großen Datenbeständen erfahren wollt, könnt ihr das im Chaosradio 243 mit Marcus Richter, Arne Semsrott, Kira Schacht und Michael Kreil.
Jürgen Ebmeyer von Bosch hat im Rahmen einer Veranstaltung der GfWM Regional Stuttgart und des Wissensmanagement MOOCs einen Vortrag zur Bosch Experts Organization gehalten. Die Aufzeichnung wurde unter CC BY Lizenz im Kanal open Academy veröffentlicht. Bei dieser Podcast-Episode handelt es sich um eine gekürzte Version des Vortrags (Fragerunde, Zwischenfragen und Störgeräusche entfernt). Allgemeine Vorstellung Bosch / Bosch Forschungscampus Rennungen / Abteilung zur Beschaffung und Bereitellung von Wissen / Normen, Bibliothek, Bosch Experts Organization (BEO), Forschungsberichte, Think Tank Talks / Explizites vs. implizites Wissen / Warum Wissen teilen? / Wissen im Entscheidungsprozess / Ursprung BEO 1996 mit Kompetenznetzwerk Montagetechnik (später Kompetenznetzwerk Fertigungstechnik) / Kompetenzmatrix erstellt / 2000 Ausdehnung auf Regionalgesellschaften / 2001 um Software ergänzt / 2002 Förderung der Geschäftsführer / BEO-Bestandteile: BEO-Experte (hat Label in ESN Bosch Connect), Bosch Centers of Competence (übergreifend, Kapazität, Budget, Ziel, Ordnungsfunktion), Communities (selbstorganisiert, übergreifen) / Selbstorganisierter Prozess der Experten-Identifikation (Vorschlag Experte durch Mitarbeiter, Experte erhält E-Mail, Experte klärt Rolle mit Chef, Experte passt Profil an, Chef erhält Mail, Chef bestätigt Kapazität) / Rolle des BEO-Experten / Suche von BEO-Experten über Enterprise Search / BEO-Main-Community in Bosch Connect / Taxonomie Bosch Topic Areas (Hauptthemen: Technologien, Methoden, Produkte, Management & Support) / Von “Knowledge Management” über “Knowledge Sharing & Continuous Learning” zu “Competences” / Experten Discovery in bestehenden Datenbeständen / Verankerung von BEO im Bosch Engineering System (BES) / Zusammenarbeit mit Bosch Training Center (BTC) / Learning Portal / Virtual Classroom / BoschTube (User Generated Video Content) / Zahlen, Daten, Fakten / 5.400 Bosch Topic Areas / 211 BEO-Communities / 17.000 Mitglieder in BEO-Main-Community / 3.100 BEO-Experten / Zitat Robert Bosch “In a large, well managed company …” (s.a. Bosch Company History, S. 11 unten)
Eine neue Software entwickelt aus großen Datenbeständen eigenständig Hypothesen. Das war bislang menschlichen Wissenschaftlern vorbehalten. >> Artikel zum Nachlesen: https://detektor.fm/wissen/forschungsquartett-data-mining-mit-siren
Eine neue Software entwickelt aus großen Datenbeständen eigenständig Hypothesen. Das war bislang menschlichen Wissenschaftlern vorbehalten. >> Artikel zum Nachlesen: https://detektor.fm/wissen/forschungsquartett-data-mining-mit-siren
Vanessa de Zeeuw Kognitive Systeme erleichtern und verbessern zunehmend auch die Arbeit im Personalbereich - sie helfen zum Beispiel dabei, Lerninhalte individueller aufzubereiten, kündigungsgefährdete Mitarbeiter zuverlässig zu identifizieren oder Zusammenhänge unterschiedlichster Datenbestände zu erkennen und Aktionen vorzuschlagen. Im Mittelpunkt steht dabei stets der Mitarbeiter: Informationen werden ihm zielgerichteter aufbereitet, seine Entscheidungen werden untermauert, Risiken und Potentiale werden ihm avisiert. Der Weg in die digitale Ära kann auch in Etappen geschehen - wichtig ist, dass Organisationen jetzt die notwendigen Schritte erkennen und in Angriff nehmen. Wie das aussehen kann stellen wir Ihnen hier anhand der Ergebnisse unserer globalen IBM Cognitive HR Studie vor.
In den Jahren 1951 bis 1962 wurden an sechs Standorten in Deutschland insgesamt 4.000 Kriegs- und Nachkriegskinder für die Studie "Deutsche Nachkriegskinder" medizinisch und psychologisch untersucht. Zwar bieten die Datenbestände für die Wissenschaftsgeschichte einen wichtigen Einblick in die Methoden und Arbeitsweisen der Psychologie in den 1950er Jahren, gleichzeitig eröffnet sich aber die Chance für eine einzigartige Langzeitstudie. Denn in einer Nachfolgestudie könnte die Entwicklung der "Nachkriegskinder" über die gesamte Lebensspanne nachvollzogen werden, und das auf der Grundlage historischer Originaldaten, die bislang noch nie vollständig ausgewertet wurden. Voraussetzung dafür ist es allerdings, die "Nachkriegskinder" wiederzufinden, und das auf Basis der Meldedaten aus den 1950er Jahren. Der Historiker und Psychologe Sascha Foerster machte sich deshalb auf die schwierige Suche nach den "Nachkriegskindern". Eine Suche, die zumindest für ein Jahr, auf einem für wissenschaftliche Projekte noch immer ungewöhnlichem Weg finanziert wurde.
Virtuelle Integration von Datenquellen mit einer Graph-Datenbank Prof. Dr. Petra Sauer, Dipl. Inf. Frank Herrmann, B.Sc. Jan Matusewicz Das gemeinsame Forschungsprojekt ArcoFaMa der Beuth Hochschule für Technik Berlin und der Hochschule für Technik und Wirtschaft Berlin schlägt einen Bogen über die Fachgebiete Datenbanksysteme, Geoinformation und Facility Management (FM). Zielstellung ist die Entwicklung einer Integrationsplattform für heterogene Datenquellen und -formate und deren Nutzung zur Integration von Datenbeständen des Projektpartners Botanischer Garten Berlin-Dahlem. Insbesondere Geodaten und FM-Fachdaten, die im operativen Einsatz üblicherweise in proprietären Datenhaltungssystemen getrennt behandelt werden, sollen integriert werden. Die Geodaten werden aus Vermessungsdaten des Außengeländes des Botanischen Gartens Berlin-Dahlem abgeleitet. Dazu werden die Vermessungsdaten in verschiedenen Arbeitsschritten extrahiert und semantisch angereichert, georeferenziert und in das CityGML-Format transformiert. Über die Integrationsplattform werden diese Daten u.a. mit Daten aus dem Facility Management verknüpft, die im IFC-Standard vorliegen. Die Integrationsplattform benutzt eine Graph-Datenbank als Metadatenspeicher. Durch das Knoten-Kanten-Datenmodell der Graph-Datenbank können sehr effizient vernetzte Strukturen abgebildet werden. Dies wird im Projekt für die virtuelle Integration der autonomen Datenquellen eingesetzt. Der Beitrag wird über den gewählten Ansatz zur Entwicklung der Integrationsplattform sowie die Besonderheiten des Datenmodells und die Transformationsschritte berichten sowie einen Einblick in das interdisziplinäre Forschungsprojekt geben.
In Forschungsprojekten, an denen mehrere Personen beteiligt sind, stellt die Datenverwaltung häufig eine große Herausforderung dar. Unterschiedliche Datenformate, die Speicherung der Daten auf verschiedenen lokalen Datenträgern, Datenverluste und ungenügende Dokumentation können für erhebliche Probleme sorgen. Auch der Austausch der aktuellen Datenbestände unter den Projektteilnehmern kann Schwierigkeiten bereiten, was die Zusammenarbeit in Forschungsprojekten weiter einschränken kann. Aus diesen Gründen wurde an der Physischen Geographie der Uni Freiburg ein webbasiertes Werkzeug entwickelt, welches das kollaborative Arbeiten mit Geodaten vereinfachen soll. Der Fokus lag dabei auf niedrigen Zugangshürden, Benutzerfreundlichkeit und hoher Flexibilität beim Export der Daten, um eine problemlose Weiterverarbeitung in gängigen Programmen zu ermöglichen. Gerade für das Bearbeiten räumlicher Daten sind normalerweise spezielle Software und Kenntnisse erforderlich. Als webbasierte Applikation stehen die zur Dateneingabe erforderlichen Werkzeuge online zur Verfügung und eine intuitiv zu bedienende Benutzeroberfläche ermöglicht die Nutzung auch ohne spezielle GIS-Kenntnisse. Weiterhin sorgt die Webapplikation für eine standardisierte Datenspeicherung, Datenvalidierung und ermöglicht das einfache Sichern und Archivieren der Daten. Die Webapplikation besteht aus einem in der Skriptsprache PHP geschriebenen Hauptprogramm. Darüber hinaus wurde auf verschiedene Open-Source-Komponenten zurückgegriffen, darunter die Webserver-Software Apache HTTP Server, das Datenbankmanagementsystem PostgreSQL mit der Geodaten-Erweiterung PostGIS und die Web-Mapping Bibliothek OpenLayers. Durch die Verwendung dieser frei verfügbaren Komponenten war es möglich, innerhalb kurzer Zeit und mit geringen Kosten ein praxistaugliches Werkzeug zur kollaborativen Geodatenverwaltung zu entwickeln.
Wir spüren instinktiv, dass Gesellschaften mit großen Einkommensunterschieden nicht gut sein können. Richard Wilkinson wertet Datenbestände zur ökonomischen Ungleichheit aus und zeigt, was sich verschlechtert, wenn die Schere zwischen Arm und Reich zu groß ist: reale Auswirkungen auf die Gesundheit, die Lebenserwartung und sogar auf so grundlegende Werte wie das Vertrauen.
Der Alltag des Rollstuhlfahrers ist deutlich komplizierter als der ohne auf Hilfsmittel angewiesener Menschen und ein neues Projekt versucht aktuelle Technologie zu nutzen, um die Planung des Alltags im öffentlichen Raum für diese Gruppe einfacher zu gestalten. Im Gespräch mit Tim Pritlove schildern die "Sozialhelden" Rául Krauthausen und Christoph Bünte, wie es zu dem Projekt kam, wie sich der Alltag von Rollstuhlfahrern so darstellt und welche der auftretenden Probleme auch andere Menschen betrifft. Themen: Rollstuhlfahrer im Alltag, der Tanzschule und dem Berghain; Planung eines Tages; Treppen und Fahrstühle; Internetpranger für defekte Fahrstühle; Google Street View und Rollstuhlfahrer; OpenStreetMap API; wie die Daten in OpenStreetMap verankert werden; Tags; OpenStreetMap Vorschlagssystem; Anzapfen bestehender öffentlicher und privater Datenbestände; Schwierigkeiten beim Einpflegen externer Daten; Preise und Förderungen; Expertenmodus zum rollstuhlgerechten Taggen von Orten; Foursquare zum Protestieren nutzen und der Bürgermeister vom S-Bahnhof Griebnitzsee; Disability Studies.
In dieser Ausgabe geht es um die Importmöglichkeiten in das InfoCenter. Wie Sie neben manuellem Imoprt von Nachrichten und Ordnern auch automatisch Feiertage oder sogar Datenbestände aus Outlook in David integrieren können, zeigt Ihnen Matthias Aust...