IT-Begriffe einfach und verständlich erklärt, das ist der IT Manager Podcast! Wer in der IT arbeitet, auf den prasseln täglich neue Informationen ein, die fast nicht zu verarbeiten sind. Dies sorgt für Verwirrung! Wir helfen IT-Verantwortlichen, vom Azubi bis zum Management, die IT besser zu verst…
innovative IT - eine Marke der ITleague GmbH! Interviews mit echten IT-Spezialisten! Inspiriert u. a. durch Ralph Friederichs, Michael Reiserer, Götz Weinmann, Benjamin Höner, Heiko Schrörs uvm.
Ingo Lücker: Herzlich willkommen, lieber Markus hier beim IT-Manager-Podcast. Schön, dass du zum Interview da bist und dass du Zeit hattest, dir das einrichten konntest. Stell doch mal so ein bisschen deine Person vor. Wo kommst du her? Was hast du ursprünglich mal gemacht? Was hat dich dann zum Thema Förderung eigentlich gebracht? #00:00:36-0# Markus von Pescatore: Ja, vielen Dank erst einmal für die Einladung für diesen Podcast. Ja, wo komme ich ursprünglich her? Du meinst beruflich natürlich. Also ich habe ursprünglich Betriebswirtschaftslehre studiert, bin also Diplom-Kaufmann in Richtung Controlling und Marketing, habe dann anschließend mit 19 mich selbstständig gemacht. Da hatte ich also, wie man es erkennen kann, noch nicht angefangen zu studieren. Dann habe ich mit Ende zwanzig alle meine Anteile, die ich von meinem Unternehmen hatte, verkauft, habe dann so ungefähr ein, anderthalb Jahre lang Pause gemacht, bin dann in einem Coaching-Unternehmen. Bei meinem Vater habe ich gestartet, das haben wir zusammen aufgebaut und in diesem Zuge kam dann halt die Thematik, dass ein Kunde auf mich zukam und meinte, dank des Coachings konnte ich jetzt mein Unternehmen weiter ausbauen. Ich kriege auf eine Investition von drei Millionen Euro dreißig Prozent als Zuschuss. Und dann hatte ich ihn gefragt, oh, interessant, wie lange wirst du denn brauchen, um das zurückzubezahlen? Und dann meint er, nee, nee, denn das ist ein nicht rückzahlbarer Zuschuss. Also das heißt, ich muss ihn nicht zurückbezahlen. Und dann dachte ich in dem Moment, oh, 900.000 Euro kriegt er vom Staat geschenkt, in Anführungsstriche, da musst du dich drum kümmern, Markus. Und so habe ich dann angefangen, Lehrgänge zu belegen. Habe gesehen, es gibt kein Studium dafür. Das gibt es erst neuerdings. Damals waren es nur Lehrgänge, habe eins nach dem anderen belegt und habe dann anschließend in 2017 ein Fördermittel Beratungsunternehmen in Erfurt gekauft. Das war für die Georg Gläve GmbH. Die besteht seit 1991. Von dem bin ich der Nachfolger. Und dann habe ich halt in Erfurt die Mitarbeiter gehabt. Die wollten aber in Rente gehen. Das waren nur noch zwei, die da waren und somit habe ich in Berlin neu gestartet. So ist das Ganze mal entstanden. #00:02:24-0# Ingo Lücker: Cool. Du sagst, da gibt es jetzt ein Studium zu dem Thema Förderung tatsächlich, oder? #00:02:30-0# Markus von Pescatore: Man kann jetzt Fördermittel, Manager oder sowas studieren. Ich glaube, es gibt einen Lehrgang mittlerweile. Es ist aber halt grundsätzlich eine Mischung aus, wie soll man sagen, Steuerberatung, BWL. Das heißt, es geht halt häufig um gewisse Fragen, die man sich stellt, wie in der Steuerberatung. Also wenn ich zum Beispiel ein Förderprojekt ansetzen möchte, muss ich gegebenenfalls etwas aktivieren in der Bilanz, damit es überhaupt gefördert werden kann. Und in dem Moment beschäftigen wir uns halt mit, ja, Bilanzen et cetera, was ist aktivierungsfähig und was nicht. Und dann sind wir quasi schon ähnlich wie eine Steuerberatung unterwegs. #00:03:08-0# Ingo Lücker: Naja, okay. Naja, sehr gut. Ja, das Förderungsthema ist natürlich ein total spannendes. Aber neben diesem Thema, wenn du nicht beruflich unterwegs bist, was gibt es denn da für Hobbys, auch wenn wir gerade in einer besonderen Situation sind? Welchen Hobbys frönst du sonst? #00:03:27-0# Markus von Pescatore: Ja, ich habe zwei Kinder, also habe ich immer viel zu tun. Die sind sechs und drei. Aber ansonsten, ich habe jahrelang American Football gespielt. Ich habe jahrelang Fußball und Basketball gespielt und ich interessiere mich in letzter Zeit verstärkt für Schach. #00:03:43-0# Ingo Lücker: Ja, sehr cool. Ja, das geht natürlich auch unter solchen Bedingungen. (lacht) #00:03:47-0# Markus von Pescatore: Das geht da runter. Es geht halt, unter solchen Bedingungen ist das Ganze entstanden, nach dem Motto „Welchen Sport kannst du noch machen?“ Und dann bin ich, ganz ehrlich, habe ich die Serie das „Damengambit“ gesehen. Und in dem Moment ging es dann los, als ich gesagt habe, okay, gut, wieso fängst du nicht selber mal wieder an zu spielen? Und in dem Sinne war es die einzige Möglichkeit, mit anderen wieder Kontakt aufzunehmen und zu sagen, lass mal eine Partie spielen. Und so ist das Ganze dann entstanden und seitdem habe ich mich mehr damit beschäftigt als jemals zuvor. #00:04:14-0# Ingo Lücker: Okay. Du hattest jetzt ja noch nicht die Möglichkeit zum Studium zu diesem Thema. Wie hast du dich oder wie hältst du dich dann auch auf dem Laufenden? Und woher bekommst du denn immer die aktuellsten Informationen? Ist das so ein ständiger Lernprozess, der eigentlich nie aufhört oder wie muss ich mir das vorstellen? #00:04:33-0# Markus von Pescatore: Genau so ist es. Also das heißt, man ist in ganz, ganz vielen Newslettern angemeldet. Man hat auch häufig Konferenzen, die man besuchen kann von den ganzen Investitionsbanken. Also das heißt, da geht es schon mal los, gibt einen Unterschied zwischen Kreditbanken, Investitionsbanken, Investmentbanken et cetera. Und das heißt, bei den Investitionsbanken, das gibt es bei jedem Bundesland. Es hat unterschiedliche Programme. Und da gehen wir dann regelmäßig zu Veranstaltungen. Dann müssen wir mit den Leuten, die da sind, sprechen und Lösungen finden und Themen besprechen. Und so kriegt man halt das den Input, was haben die gerade vor und was wird gemacht. Auf der anderen Seite lese ich mir zum Beispiel jedes Wahlprogramm durch. Nicht nur, um wählen zu gehen, sondern um auch zu sehen, was wird auf uns zukommen. Also wir werden ganz viel zum Thema Nachhaltigkeit und Energie bekommen, egal wer gewählt wird. Und so wissen wir halt, okay, wir sollten uns mit diesen Themen nochmal mehr auseinandersetzen. So holt man sich sein Knowhow. Oder so wie ich es auch gemacht habe. Man geht zu anderen Beratern und in dem Falle habe ich mir das Knowhow mit eingekauft. Naja. Aber man muss ja trotzdem lernen irgendwo. #00:05:48-0# Ingo Lücker: Jetzt sind wir ja hier beim IT-Manager-Podcast und Förderungen sind jetzt nicht direkt ein IT-Thema. Aber welche Schnittmengen gibt es hier denn eigentlich, wo, ja ich sage mal, Unternehmen davon profitieren können, gerade auch in ihrer IT zu investieren? #00:06:05-0# Markus von Pescatore: Ja, es gibt unterschiedliche Schnittmengen. Die eine Schnittmenge ist, dass ein Unternehmen sich IT-Dienstleistungen, zum Beispiel die Implementierung einer Cloud-Struktur, die IT-Sicherheit, die Schaffung von digitalen Geschäftsprozessen zum Beispiel über Formulare, über Genehmigungsprozesse, über, ich sage jetzt mal, das Handwerksunternehmen, das digitalisiert wird, vorher ist man rausgegangen und hat letztendlich auf einem Blatt Papier einen Auftrag gehabt, hat den abgearbeitet, hat ein Foto gemacht. Das war vielleicht auf einer SD-Karte jetzt, früher nicht, und so weiter und so fort. Und heute kann man quasi als Handwerker mit einem Laptop rausgehen, Fotos machen, diese direkt ablegen beim Unternehmen, man kann Prozesse direkt vom iPad oder von einem Surface, was auch immer, direkt starten. Und man verliert die Unterlagen nicht. Man kann digitale Projekt-Akten bei der Baustelle zum Beispiel haben, dass die Subunternehmer, die Bauherren, wer auch immer, drauf zugreifen kann. Man möchte also die Kommunikation zum Beispiel vereinfachen. Es ist schwierig, dass die Hardware gefördert wird. Es gibt die theoretische Möglichkeit. Ja, die gibt es. Aber das ist halt nicht so einfach. Es ist zum Beispiel die eine Schnittmenge, also die Dienstleistungen bei den Systemhäusern. Die zweite Möglichkeit, die es gibt, ist zum Beispiel, dass sogar Systemhäusern oder Software-Unternehmen die Herstellung von Software sich bezuschussen lassen können. Also Beispiel, ich habe hier ein Unternehmen in Berlin gerade. Das erweitert das Team um ungefähr zwanzig Mitarbeiter. Die wollen also ihre eigene Software ausbauen. Das heißt, die programmieren und machen zum Teil auch, ja, künstliche Intelligenz und programmieren Chatboxen und Ähnliches. Die haben so eine Community-Plattform, die sie betreiben und für das Einstellen der Mitarbeiter können sie einen Zuschuss bekommen und da wird es wieder kompliziert, ja, weil die dürfen halt zum Beispiel das zehnfache von den Sachausgaben, die sie haben, als Personalkosten ansetzen. Ist aber in Brandenburg schon wieder anders, da sind es nur das Fünffache und so muss man sich das angucken. Und das heißt, die Personalkosten werden zum Beispiel für einen Mitarbeiter zwischen 30 und 72.000 Euro, also genau genommen 24 und 72.000 in Berlin. In Brandenburg sind es wieder maximal 50.000. Jetzt siehst du schon, wie kompliziert sowas wird, dass dafür zwei Jahre pro Mitarbeiter angesetzt werden. Davon kriegt man dann so vielleicht dreißig Prozent zurück. Lange Rede, kurzer Sinn. Der investiert in ungefähr zwanzig Mitarbeiter und könnte oder kann Pi-mal dauernd eine Million als Zuschuss bekommen dafür, dass es Software programmiert. Warum ist das so in dem Falle? Weil bei Software-Unternehmen in der Regel die Sache Investition sehr gering sind. Das heißt ein Tisch, zwei PCs, drei Bildschirme, das ist jetzt nicht die Rieseninvestition gegenüber den Gehältern. Und deswegen kann man sagen, digitale Geschäftsmodelle, in welcher Form auch immer, sind in Zukunft mit Sicherheit interessant und gegebenenfalls förderfähig. Und die Dienstleistungen von IT-Systemhäusern, sei es wie gesagt die Cloud-Struktur oder, oder, ist genauso grundsätzlich momentan förderfähig. #00:09:24-0# Ingo Lücker: Ja, wenn wir hier von IT-Systemhäusern sprechen wir natürlich auch von IT-Dienstleistern, weil nicht mehr jedes IT-Unternehmen kategorisiert sich da sicherlich als IT-Systemhaus. Aber genau die passen da auf jeden Fall zu. Da gibt es sehr viele Schnittmengen dazu, gerade die von dir genannten IT-Dienstleistungen, IT-Sicherheit, digitale Geschäftsprozesse fördern zu lassen in den verschiedenen Bereichen. Welche sind denn so die wichtigsten Aspekte bezüglich Förderung, was Unternehmen beachten sollten? #00:09:53-0# Markus von Pescatore: Die wichtigsten Aspekte sind / Es gibt immer drei Aspekte, die beachtet werden müssen. Nummer eins ist: Ist das Unternehmen, das einen Zuschuss haben möchte, förderfähig? Nummer zwei ist: Ist der Berater, die Agentur, wer auch immer, die die Arbeit jetzt macht, ist das förderfähig? Also der Berater förderfähig? Und das dritte ist: Ist der Gegenstand des Fördervorhabens förderfähig? Das ist die Frage, ja? Ich habe vorhin noch vergessen zu erwähnen, dass zum Beispiel Automation und Webdesign zum Beispiel auch mit gefördert werden kann mittlerweile, eine Erstellung von Webshops et cetera bedeutet also, ein Unternehmen sagt: Ich möchte jetzt eine IT- Struktur oder einen Webshop bauen, der direkt ans Warenwirtschaftssystem angebunden ist und dieses Unternehmen geht jetzt zu einem ITler. Dann könnte es sein, dass entweder das Unternehmen nicht förderfähig ist. Warum? Es ist im falschen Bundesland, es ist in der falschen Branche, es ist vielleicht zu groß, der Jahresumsatz ist zu hoch, die Jahresbilanzsumme ist zu hoch. Es könnte aber auch sein, dass der Berater nicht autorisiert, zertifiziert ist oder dass der Gegenstand, das ist in dem Fall jetzt aber förderfähig, nicht förderfähig ist. Das ist machbar. Also zum Beispiel er will einen Kühlschrank kaufen. Dann wäre das jetzt in dem Moment nicht förderfähig. Bedeutet also, es gibt in der Fördermittelwelt gewisse Sachen, die man beachten muss. Darunter zählt zum Beispiel, dass man kleine und mittelständische Unternehmen fördern möchte und nicht Großkonzerne. Und deswegen wird ein kleines und mittelständisches Unternehmen in der Regel dadurch kategorisiert, dass es eine Anzahl von Mitarbeitern gibt, eine Anzahl oder eine Summe der Bilanzsumme, die erreicht werden darf oder des Jahresumsatzes, um eingestuft zu werden, ja? Also zum Beispiel null bis zehn Mitarbeiter ist ein Kleinstunternehmen. Zehn bis fünfzig Mitarbeiter ist ein Kleinunternehmen. Über 249 Mitarbeiter ist es ein Großunternehmen. Das heißt also, diese Schwellen hat man. Sobald man diese Anzahl überschritten hat, kann es sein, dass man keinen Zuschuss bekommt. Ansonsten würde alles passen. So kleinteilig muss man sich das manchmal angucken. #00:12:10-0# Ingo Lücker: Hört sich sehr komplex an und ich meine, es ist eine schöne Überleitung zu meiner nächsten Fragestellung auch. Warum sollte man denn eigentlich mit einem Beratungsunternehmen oder mit Experten wie euch zusammenarbeiten? Ich meine, die Komplexität dieses Themas zeigt es eigentlich. #00:12:27-0# Markus von Pescatore: Unter anderem, ja, man muss sich also angucken, habe ich überhaupt die Chance, ein Jahr Fördermittel zu bekommen? Also ich habe letztens einen Vortrag gehalten und dann hat sich jemand bei mir gemeldet und hat gesagt, bevor wir an die Honig-Töpfe rankommen, lass uns doch erst einmal gucken, meinte ich zu ihm, ob der überhaupt förderfähig ist. Und nach, ich sage jetzt mal, zwanzig Minuten sind wir zu dem Entschluss gekommen, ist er nicht. Und somit war halt die gesamte Arbeit, das gesamte Einholen von Angeboten, die gesamte Hoffnung, einen Zuschuss zu bekommen, der gesamte Aufwand, mit Beratern zu sprechen et cetera war dann in dem Moment eigentlich ad acta gelegt. Das heißt, er konnte dann ganz normal seinen Weg wählen, denn bei Förderungen ist es ja so, man muss in der Regel einen Plan einhalten. Man darf zum Beispiel nicht anfangen, bevor es eine Bewilligung gab. So das heißt also, man stellt zum Beispiel einen Antrag, dann wird dieser Antrag bewilligt. Wenn ich vorher gestartet habe, egal in welcher Form auch immer, ist das gesamte Projekt zum Beispiel nicht mehr förderfähig. Und so gibt es kleine Sachen, auf die man achten muss, die dazu führen können, dass ein Unternehmen den Zuschuss nicht bekommt. Und man muss auch eins sagen, es gibt halt, ich nenne es jetzt mal kleinere Projekte 20.000, 30.000 Euro. Es gibt aber bei den Großprojekten, wenn wir hier eine neue Halle oder Maschine zum Beispiel eine Förderung dafür einholen, dann kann es durchaus sein, dass während man eine neue Halle baut, feststellt, da ist ja noch ein Blindgänger vom Zweiten Weltkrieg und somit das gesamte Projektvorhaben, ja also die Kalkulation ist dann passé. Das heißt also, man muss sich in dem Moment damit auseinandersetzen, was machen wir denn jetzt? Ja, wir werden keine Zeiten einhalten können. Wir müssen jetzt eventuell evakuieren. Wir müssen jemanden kommen lassen. Wir haben mehrere Aufwendungen als gedacht und dann ist es gut, jemanden zu haben, der sich auskennt. Vereinfacht ausgedrückt, wenn ich eine Reise buche ins Ausland, und ich habe null Probleme, dann fällt das ja gar nicht auf. Aber in dem Moment, wo irgendein Flugzeug nicht fliegt, aus welchem Grund auch immer, geht der Stress los. Und das ist bei Fördermitteln genauso. #00:14:39-0# Ingo Lücker: Das heißt, ihr unterstützt ganz konkret auch bei Antragstellung. Das ist also mit einer der Hauptaspekte auch nicht nur dort zu beraten, sondern vor allen Dingen auch bei solchen Anträgen die Unternehmen zu unterstützen. #00:14:53-0# Markus von Pescatore: Wir unterstützen. Wir machen also die gesamte Antragsstellung, unterstützen wir bei der Bewilligung, dann geht der ganze Prozess eigentlich los. Also die ganze Arbeit, da unterstützen wir auch. Bei den Großprojekten ist Vergaberecht ein ganz, ganz großes Thema. Theoretisch ist es so, wenn du zum Beispiel eine Halle bauen möchtest und da kommt jetzt der Hallenbauer und möchte die Halle verkaufen und der Kunde kriegt den Zuschuss, dann muss man leider sagen, er muss jetzt ein Vergaberecht für diese Halle machen. Also muss also ein Auswahlverfahren nach einem Vergabeverfahren. Das ist gar nicht so einfach. Das heißt also, das Ganze betreuen wir und begleiten wir und das ist in der IT genauso. Und da drunter muss man sich dann vorstellen, dass es darum geht, dass der ITler die richtigen Rechnungen stellt, dass die Kontoauszüge so richtig sind, dass der Verwendungsnachweis richtig gemacht ist, vorweg überhaupt die Antragsstellung richtig ist et cetera. Ja, das begleiten wir von vorne bis zum Schluss. #00:15:47-0# Ingo Lücker: Super. Jetzt hattest du vorhin einen der Aspekte genannt, dass auch der Berater förderfähig sein muss. Ich weiß jetzt, es gibt bestimmte Förderungen wie „go-digital“. Da muss man tatsächlich für auch akkreditierte Partner sein. Auch bei solchen Akkreditierungen unterstützt ihr? #00:16:06-0# Markus von Pescatore: Ja, das machen wir. Der Hintergrund der Geschichte ist, und das hat mir bei der letzten Frage gehabt, wir sprechen hier immer von Steuergeldern. Das bedeutet also, der Staat sagt, und jetzt möchte ich niemandem zu nahetreten, tagsüber irgendwas anderes, abends ITler. Geht nicht, ja? Er möchte halt, dass wenn das Unternehmen sagt, ich möchte einen Zuschuss von zum Beispiel 15.000 Euro bekommen, nur Zuschuss, was bei fünfzig Prozent an einem Projekt Summe von 30.000 Euro ergibt. Wenn wir diese 15.000 Euro jetzt mehrmals rausgeben, dann möchten wir, dass das IT-Unternehmen ein vernünftiges IT-Unternehmen ist. Und das heißt, man muss dann zum Beispiel zu diesen Förderstellen gehen, einen Papierkram ausfüllen, wer bin ich? Was mache ich? Hier sind Referenzen. Damit ist nicht gemeint. Hier ist ein Logo, was ich mal betreut habe. Hier sind Bilanzen. Ihr könnt euch angucken. Mir geht es ganz gut. Ich kann das Unternehmen oder ich kann den Unternehmern helfen. Und deswegen möchte ich bei euch quasi akkreditiert werden. Und es gibt Förderstellen, da muss man akkreditiert sein und es gibt welche, da muss man es nicht. Aber daran erkennt man auch schon das Problem des Alltags, ein Unternehmen kommt auf mich zu und sagt, ich möchte ein Programm nutzen. Ich habe hier einen ITler. Markus, bitte macht das fertig. Und dann muss ich sagen, leider ist dein ITler nicht akkreditiert. Das Programm kannst du nicht nutzen. Also theoretisch schon. Da sind wir wieder bei dem Thema, das Beratungsunternehmen ist nicht akkreditiert. Das Unternehmen, was die Förderung haben möchte, das wäre förderfähig. Das Vorhaben ist förderfähig und somit funktioniert das wieder nicht. #00:17:44-0# Ingo Lücker: Okay, ja, gut zu wissen dort. Und einer der Fragen, die häufig auch in den letzten Monaten auf mich zugekommen ist, die ich so gar nicht beantworten konnte. Wie häufig kann man als Unternehmen eigentlich Förderungen in Anspruch nehmen? Also häufig gibt es ja so kleine Klauseln, die man dann mit einhaken muss. Und wenn ich jetzt so eine Förderung, meinetwegen wie „go-digital“ oder eine andere Förderung in Anspruch genommen, kann ich die mehrmals in Anspruch nehmen? Ist das nur einmalig? Können diese Dinge auch miteinander kombiniert werden? Wie muss ich mir das als Unternehmen vorstellen? #00:18:17-0# Markus von Pescatore: Also grundsätzlich können die gesamten Zuschüsse kombiniert werden. Das muss man sich so vorstellen, es gibt Fördertöpfe, die unterliegen der sogenannten De-minimis-Erklärung und manche nicht. De-minimis ist also die kleinen Beihilfen. Bedeutet, dass wir, wenn wir nicht gerade im Straßengüterverkehr tätig sind, 200.000 Euro als Zuschuss bekommen dürfen. Bedeutet, dass die Förderstellen sagen, wir wollen ja Unternehmen unterstützen und fördern. Ich komme gleich dazu, wie das Ganze mal entstanden ist. Aber wir wollen halt nicht ein Unternehmen extrem stark fördern gegenüber dem anderen. Das heißt, wir wollen eine Grenze von zum Beispiel 200.000 Euro einführen und das ist der Zuschuss, den er bekommen darf. So bedeutet, dass sobald diese 200.000 Euro erreicht sind in einem rollierenden System, also das geht alle zwei, drei Jahre nochmal neu los, dann kann man wieder andere Sachen beantragen, kann man unterschiedliche Förderung beantragen. Deswegen gibt es manchmal so einen Beihilfe-Wert, der genannt wird, der eingetragen werden muss, damit die nämlich sehen können, bei einer Antragstellung haben wir diese 200.000 Euro erreicht. Es gibt aber Fördertöpfe, wie zum Beispiel beim Bau von Hallen und Maschinen, da unterliegt man nicht der De-minimis- Regelung, da kann man durchaus zwei, drei, vier, fünf, zehn Millionen als Zuschuss bekommen. Da gibt es diese Grenze von 200.000 Euro nicht. Und das heißt also, du hast vorhin „go-digital“ genannt. Man kann bei gewissen Förderstellen häufig mehrere Anträge stellen. Man hat aber eine Höchstsumme. Also man darf zum Beispiel bei „go-digital“ 16.500 Euro maximal Zuschuss bekommen. Wenn ich also ein Projekt habe von, sagen wir, 5.000 Euro, und ich kriege 2.500 wieder, dann habe ich nicht 16.500 verwendet, dann kann ich noch mehr Anträge stellen. Jetzt sieht man aber wieder, wie wichtig es ist, jemanden wie einen Berater zu haben, der sich da drin auskennt. Der würde nämlich sagen, wenn das jetzt jemand vorhat, würde ich sagen, pass auf, stand jetzt wird Ende des Jahres der Topf beendet, du hast keine Zeit mehr, zwei Anträge zu stellen. Du musst dich jetzt entscheiden. Mach einen oder keinen, weil es ansonsten nicht mehr machbar sein wird. Er wird es von der Zeit her nicht schaffen. Man kann auch Projekte in unterschiedlichen Förderstellen unterkriegen. Also es gibt ja mehr als „go-digital“. Und wenn man sagt, das eine Projekt ist zum Beispiel die Einrichtung von Homeoffice, dann kann man das unter einem Projekt unterbringen. Und das andere Projekt ist meinetwegen die automatisierte Geschäftsprozesse, die erstellt werden müssen mit den Formularen et cetera. Dann ist das ein zweites Projekt, was unter einem anderen Fördertopf förderfähig ist. Auf der anderen Seite muss man sagen, es gibt auch viele Beratungstöpfe. Das heißt, in der Regel wird ja ein IT-Mitarbeiter erst oder ein IT-Berater erst einmal ja klären müssen mit dem Unternehmen, was möchtest du hier überhaupt haben? Und das heißt, wir müssen eine Differenzierung unter Beratung und Implementierung machen. Das heißt, in der Regel kann man erst einen Beratungstopf zum Beispiel nutzen und danach einen Implementierungstopf. Solange das sauber dokumentiert wird, gibt es eigentlich kein Problem, ja? Das Ganze entsteht dadurch, ganz kurz nur, ist, wie kann man sich eine Förderung vorstellen? Das ist ja mal eine Frage, wie ist das Ganze entstanden? Weil das gibt es schon seit dem Zweiten Weltkrieg, also nach dem Zweiten Weltkrieg. Und man muss sich das so vorstellen. Vereinfacht ausgedrückt sage ich immer, stellt euch vor, da ist ein Politiker und er trommelt auf der Brust, sagt Uga Uga. Ich möchte die Welt verändern. Dann möchte ich dazu zum Beispiel Maßnahmen treffen. Und diese Maßnahmen würden wir nicht machen, es sei denn, es wird finanziell unterstützt. Beispiel, wir sind jetzt, keine Ahnung wie viele Jahrzehnte, mit Benziner gefahren oder Diesel und jetzt möchte, und dieser Unterhaltung möchte ich dann nicht beitragen, ob es sinnvoll ist oder nicht, jetzt möchte man auf jeden Fall Elektroautos an den Mann bringen. So, bedeutet, die meisten würden es jetzt nicht machen. Warum nicht? Weil wir nicht genügend Infrastruktur haben. Also wir haben nicht Ladesäulen, die Autos fahren nicht lang genug et cetera. Man möchte das aber unbedingt haben. Also wird es zum Beispiel mit einem Zuschuss des Staates des Bundes letztendlich begünstigt. Und das heißt, es wird halt attraktiv, Finanzielles zu machen. Und siehe da, die Leute fangen an, sowas zu machen. Und das ist eigentlich Sinn und Zweck der Geschichte von Förderungen. Man möchte gewisse Maßnahmen, die man von der Gesellschaft erwartet, dadurch pushen. Deswegen wird definitiv in Richtung Elektromobilität, in Richtung Energie, in Richtung Photovoltaik, in Richtung Nachhaltigkeit wird es definitiv in Zukunft mehr geben. Warum? Weil das politisch gewollt ist. #00:23:04-0# Ingo Lücker: Auf jeden Fall ein sehr, sehr spannendes Thema und auch wie vorhin von mir schon gedacht, sehr komplex. Ich möchte nicht sagen kompliziert, aber sehr komplex. Sicherlich auch, sich über die ganzen Dinge immer auf dem Laufenden zu halten und immer up to date zu sein. Auch wie lange welches Programm geht und so weiter. Aber da ist man ja bei euch in guten Händen. Wenn ein Unternehmen so eine Förderung vorhat, dann kann man ihm da eigentlich nur die Empfehlung geben, er sollte dort auf seinen IT-Dienstleister vor allen Dingen, gerade wenn es IT-Themen sind, zugehen und fragen auch tatsächlich, ob diese Projekte dann gefördert werden können und ob der IT-Dienstleister dazu unterstützen kann. IT-Dienstleister selber, die dazu Hilfe benötigen, die können sich direkt an euch wenden auch? #00:23:51-0# Markus von Pescatore: Die können sich direkt an uns wenden. Das ist kein Problem. Gerne darf ich aber Werbung machen, nuviu.de. Sonst muss es rausschneiden. Grundsätzlich ist es so, dass wir natürlich einen erhöhten Andrang seit Corona haben. Man muss fast sagen, vor Corona war es so, dass vor allem in den neuen Bundesländern war Förderung sehr bekannt. Da gab es auch einige, die gesagt haben, ohne einen Zuschuss mache ich dieses Vorhaben nicht. Was ich persönlich, für nicht gut halte, heißt aber nicht, dass sie das alle gemacht haben. Bitte nicht falsch verstehen, es waren Vereinzelte. In den alten Bundesländern war das häufig so, dass man erklären musste, es gibt Förderungen, das ist auch legal und das darf man alles machen. Da war noch so ein bisschen, ich habe das nicht nötig. Und dank Corona, kann man in Anführungsstriche sagen, ist die Hemmschwelle auf null gefallen. Und das heißt, jeder möchte gerne einen Zuschuss bekommen. Und auf der anderen Seite ist es so, dass es für das IT-Unternehmen durchaus relevant ist, ob man dem Kunden sagt, hey, bei uns bekommst du das und kostet dich dann 30.000, 15.000, ist auf jeden Fall ein Verkaufsargument. #00:25:00-0# Ingo Lücker: Ja, das auf jeden Fall. Und ich finde es immer, es ist wichtig für alle anderen Unternehmen zu wissen, dass es diese Förderungen gibt, dass es diese großen Töpfe da gibt und dass man auf jeden Fall abklären sollte, was dort möglich ist, ja? Selbst wenn man es dann nachher nicht in Anspruch nimmt. Du hast eben schon die Webseite genannt nuviu.de. Also N U V I U Punkt D E. Ansonsten wie können Unternehmen, die dazu Hilfestellung benötigen, sich an euch wenden? Welche Telefonnummer, E-Mail-Adresse macht dort Sinn? #00:25:31-0# Markus von Pescatore: Telefonnummer? Wenn ich ehrlich bin, weiß ich jetzt gerade die eigene nicht auswendig. Interessant aber wahr. #00:25:37-0# Ingo Lücker: Die von der Homepage. #00:25:38-0# Markus von Pescatore: Die von der Homepage einfach nutzen, ja. #00:25:40-0# Ingo Lücker: Also 030948520761 und sonst per E-Mail dann an info@nuviu.de. #00:25:50-0# Markus von Pescatore: Genau nuviu kommt von New View mit ein bisschen Slang. Deswegen nuviu.de. #00:25:57-0# Ingo Lücker: (Lacht) Ja, sehr gut. Perfekt. Ja Markus, total interessant und spannend. Und ich danke dir hier für die Zeit, für das Interview. #00:26:08-0# Markus von Pescatore: Gerne. #00:26:09-0# Ingo Lücker: Und würde mich natürlich freuen, wenn das ein oder andere Unternehmen da ja auch auf euch zukommt, wenn die Hilfestellungen benötigen. #00:26:15-0# Markus von Pescatore: Gerne. Ich würde sonst noch auf eine Frage, die mir häufig gestellt wird, eingehen wollen. #00:26:18-0# Ingo Lücker: Sehr gerne. #00:26:20-0# Markus von Pescatore: Und zwar die Frage: Wenn ich eine Bewilligung bekomme, kann ich mit der Bewilligung mit dem Zuschuss dann rechnen? Wird ja häufig gerne auch gestellt. Und das bedeutet, in der Regel ist es so, wenn ich eine Bewilligung habe, wird dieses Geld für mich hintenrum freigeschaufelt. Das heißt also, man muss nicht nur darauf achten bei Förderungen, wann Beginn und Ende ist der Fördertöpfe, wann sowas enden kann. Deswegen gibt es übrigens keine Software. Häufig werde ich gefragt, gibt es nicht eine Software, wo ich meine Daten eingeben kann, mein Vorhaben eingeben kann und dann spuckt die mir aus, ob das förderfähig ist oder nicht. Weil eins der Themen ist, wie viel Geld gibt es noch im Topf? Und das hat man zum Beispiel bei den Soforthilfen gesehen, wie wichtig das war, dass man gesagt hat Ja, grundsätzlich ist eine Hilfe da, aber wenn es nicht da ist, das Geld, dann ist es halt nicht da. Und es gibt halt viele Töpfe, die funktionieren nach dem Windhund-Prinzip. Das heißt also, wer zuerst kommt, mahlt zuerst. Wenn ich aber eine Bewilligung habe, heißt es, dass intern das Geld für mich dafür beiseitegelegt wurde. Und es bedeutet, dass dieser Zuschuss, der da ist, in der Regel ausgezahlt wird, es sei denn, ich mache jetzt keine IT-Struktur, die ich bauen wollte, sondern ich mache jetzt Kühlschrank kaufen, sondern das heißt, ich muss ja nachweisen, was habe ich da gemacht. Das muss man einfach wissen, dass viele denken, sobald der Antrag bewilligt ist, ist die Arbeit ja erledigt. Nein, dann geht die Arbeit erst los. Das bedeutet, ich muss die gesamte Arbeit, die gemacht wird, dokumentieren. So was machen wir, ja. Und das heißt also, man muss dann angeben, was war mit dem Vorhaben geplant und was haben wir erreicht. Und wenn das kongruent ist, also übereinstimmend ist, dann wird letztendlich der Zuschuss bezahlt, aber man kann davon ausgehen, wenn man eine Bewilligung hat, dass dieses Geld für einen beiseitegelegt wird. Kann ich mehr Geld bekommen, als mir bewilligt wurde? Nach dem Motto, ich habe ein Projekt für 15.000 angegeben und es hat dann nachher doch 17.000 gekostet. Nein, kann ich in der Regel nicht. Muss man eher mittendrin kommunizieren und vielleicht kriegt man da ein bisschen mehr. In der Regel aber nicht. Andersherum ist es machbar. Ich habe für 15.000 beantragt und ich habe nur 13.000 genutzt. Dann ist das in der Regel kein Problem. In der Regel kein Problem. Wenn ich sage, ich beantrage zwei Millionen und nutze nachher nur 200.000, dann wird das ein Problem. Aber deswegen ist es wichtig, dass man sowas nochmal weiß. Wichtig ist einfach nur, zu erklären, die Bewilligung heißt nicht, die Arbeit ist getan. Das ist der große Unterschied zu Finanzierung. Wenn ich zur Bank gehe und einen Businessplan schreibe und den abgebe und der Bänker sagt: Du kriegst dein Geld, hier ist dein Kreditvertrag, ich unterschreibe den, dann brauche ich in der Regel, wenn es ein ganz normaler Bankvertrag ist, brauche ich ja keinen Verwendungsnachweis, muss also nicht nachweisen, was ich dafür gekauft habe. Bei Förderung schon. Das Ganze zählt übrigens auch für die ganzen KfW-Anträge und so weiter. Sobald ich ein Darlehen habe und angeben will, was ich damit machen möchte, muss ich nachher nachweisen, was ich damit gemacht habe. Das ist einfach wichtig zu wissen. Das heißt also, die Arbeit geht häufig damit los, dass die Bewilligung da ist. Die ist dann nicht beendet, sondern da geht eigentlich die Grundarbeit los. Und wenn man so Großprojekte hat, dann geht da die wirklich große Arbeit erst los. Aber man muss zum Beispiel für Personalkostenzuschüsse muss man mit der Lohnbuchhaltung sprechen, dann muss man Mittelabrufe machen, dann muss man es darstellen. Was ist, wenn ich Personal einstellen wollte, es aber nicht eingestellt habe? Wie kann ich das nachweisen, dass ich einen Mitarbeiter haben wollte? Also das sind Fragen, die dann kommen, bei der ich einfach sagen kann, wenn man alleine unterwegs ist, das wäre so, als würde ich mit der wenigen Ahnung, die ich habe, sagen: Ich möchte eine IT-Struktur aufbauen. Es funktioniert halt einfach nicht, ja? Habe ich auch schon mal versucht. Hat nicht geklappt. (beide lachen) Also ja natürlich. Also kann ich sagen, seitdem mache ich sowas auch nicht mehr. Also ich gehe dann immer mittlerweile, ich bin ja selber Unternehmer zu Leuten, bei denen ich weiß, die wissen das und das kostet mich halt Geld. Aber ich kriege dafür ein vernünftiges Ergebnis und dann, wenn ich halt alles selber machen möchte in meinem Leben, habe ich das Problem. Ich habe gar nicht so viel Zeit in meinem Leben, um alles zu lernen, was ich später nutzen möchte. Und deswegen gehe ich dann zu Leuten, die es können, gib denen Geld und krieg dafür ein vernünftiges Ergebnis. #00:30:44-0# Ingo Lücker: Naja. Cool, das war noch ein ganz, ganz wichtiger Aspekt. Vielen Dank, dass du den noch ergänzt hast, denn das ist natürlich auch immer wichtig zu beachten bei solchen Themen auf jeden Fall. Cool. Ja dann vielen Dank, lieber Markus. Und dann hoffe ich, dass wir uns schon bald wiedersehen. #00:31:01-0# Markus von Pescatore: Gerne. Ebenso viele Grüße nach unten und freue mich von IT League immer gerne zu hören. #00:31:07-0# Ingo Lücker: Ja, sehr gerne. Bis bald. Tschüss. #00:31:10-0# Markus von Pescatore: Tschüss. #00:31:11-0#
Willkommen beim IT-Manager Podcast. Aktuell IT-Themen vorgestellt und erklärt. Abonniere den IT-Manager Podcast über Apple, Spotify oder auf unserer Website. Folge uns bei YouTube, Facebook, Instagram oder Twitter. #00:00:18-1# Herzlich Willkommen beim IT-Manager Podcast. Mein Name ist Ingo Lücker, ich bin Gründer und Geschäftsführer der ITleague GmbH. Und ich freue mich, dass Sie wieder eingeschaltet haben. Ja, heute und auch natürlich in der nächsten Folge geht es um das Thema der staatlichen Förderungen. Staatliche Förderungen, das schwirrt immer so ein bisschen, ja, in der Gegend herum im Prinzip von Begrifflichkeiten her oder auch einfach nur Förderungen. Und diese staatlichen Förderungen gibt es natürlich in den verschiedensten Bereichen. Viele kennen das sicherlich schon aus den Förderungen für die, ja, Solarkraftanlagen und Solarpanels auf den Dächern, aber auch viele andere Dinge. Und staatliche Förderungen in der IT gibt es schon sehr lange, und im Moment nicht nur aufgrund von Corona natürlich auch die verschiedensten Fördertöpfe, die dort zur Verfügung stehen. Doch nicht jeder Unternehmer und nicht jedes Unternehmen setzt sich wirklich mit diesen Förderungen, ja, auseinander. Denn häufig geht es bei diesen Förderungen auch darum, dass man natürlich - ich sage mal - sich selber als Unternehmen so ein bisschen nackig machen muss, was die Unternehmenskennzahlen angeht, und natürlich auch, dass damit ein gewisser bürokratischer Aufwand verbunden ist, Projekte, die gefördert werden sollen, dass diese aufbereitet werden, dass diese entsprechend angefragt werden et cetera. Und deswegen ist es immer wieder so ein Punkt, mit dem sich Unternehmen und Unternehmer, ja, wenig auseinandersetzen. Wir möchten dazu ganz gerne ein bisschen mehr Aufklärungsarbeit leisten. Und, ja, die Besonderheiten von Förderungen ist vor allen Dingen, im ersten Stepp muss immer mal geklärt werden: Ist das Unternehmen denn überhaupt förderfähig? Also wie groß ist das Unternehmen? Wie viel Mitarbeiter beschäftigt es? Aber auch, welcher Umsatz wird erzielt? In welcher Branche ist ja auch das Unternehmen tätig? Und (lacht) vor allen Dingen natürlich auch, nicht zu vergessen: In welchem Bundesland ist das Unternehmen ansässig? Und hat das Unternehmen in den letzten Jahren schon mal Förderungen in Anspruch genommen? Und neben dem Aspekt, ob das Unternehmen förderfähig ist, ist dann auch immer noch der Part wichtig, ob das beratende Unternehmen förderfähig ist. Also für gewisse Fördertöpfe muss nämlich der Dienstleister, der dann ja im Prinzip das beim Unternehmen einrichtet, das Projekt oder die Dinge anliefert, selbst dafür akkreditiert sein. Und, ja, ohne so eine erfolgreiche Akkreditierung ist dann halt auch eine Förderung für bestimmte Fördertöpfe nicht möglich, ne? Ja, und neben diesen beiden Aspekten ist dann auch noch der Punkt des Fördervorhabens, zu klären, ob das förderfähig ist. Also sollen Dinge angeschafft werden? Geht es hier nur um Beratungsleistungen? Da muss halt sehr, sehr genau drauf geachtet werden. Und dass ist natürlich auch verschiedene Fördertöpfe gibt, also einmal die Bundesebene, die Landesebene und auch einige Spezialförderungen, manchmal sogar rein auf gezielte Städte bezogen. Ich freue mich sehr darüber, dass wir sehr viel detaillierter in dieses Thema einsteigen, wenn es für Sie denn spannend ist, dort mehr Details drüber zu erfahren. Wir haben dazu in unserer nächsten Folge den Markus von Pescatore von den Nuviu aus Berlin im Interview dazu, der uns viel detaillierter über die, ja, Dinge zu Förderungen - was ist wichtig, was ist zu beachten, und an wen kann man sich dann auch wenden, wenn man hierzu Hilfestellung benötigt - / Ich freue mich schon ganz riesig auf das Interview. Und, ja, wenn Sie Fragen dazu haben, dann kommen Sie gerne auf uns zu oder auf den Markus von Pescatore beziehungsweise hören Sie gerne auch in das Interview von uns beiden rein. Ich freue mich auf Sie. Bis dann. #00:04:05-8#
Ingo Lücker: Herzlich Willkommen beim IT-Manager-Podcast. Mein Name ist Ingo Lücker und ich freue mich riesig darauf, dass ich heute Fabian Alfes von der connecT SYSTEMHAUS AG zu Gast habe im Interview zum Thema Microsoft Teams zum Einsatz in Unternehmen. Und ja, ich freue mich sehr auf das Interview. Somit starten wir direkt ein. #00:00:38-4# Ingo Lücker: Herzlich willkommen lieber Fabian. Ich freue mich sehr, dass du Zeit gefunden hast und hier uns heute für ein Interview auch zum IT-Manager-Podcast zur Verfügung stellst. Stell dich doch einmal den Hörern vor. Was hast du früher so gemacht? Wo kommst du her? Wie bist du jetzt in deinen Fachbereich eigentlich auch und zum Thema Microsoft Teams, worum es ja heute gekommen? Erzähl doch ein bisschen dazu. #00:01:02-8# Fabian Alfes: Ja, hallo Ingo. Erstmal danke schön, dass du mich eingeladen hast, dass ich dabei sein darf. Mein Name ist Fabian Alfes. Ich bin 29 Jahre alt und Senior IT Consulting bei der connecT SYSTEMHAUS AG. Ich bin bei uns verantwortlich für den Bereich Cloud und Kollaboration. Und dazu gehört dann eben auch ausdrücklich alles rund um Office 365 und damit auch Microsoft Teams dazu. Ich mache das Ganze seit fünf Jahren bei uns, habe vorher in Dortmund Informatik studiert und, ja, bin letztlich schon immer sehr technisch interessiert gewesen, habe mich in meiner Freizeit viel damit beschäftigt. So war eigentlich, sage ich mal, mal der Weg für mich da sehr vorbestimmt, dass es so in die Richtung gehen würde. Und ja, bin auch eigentlich von Anfang an, also seit ich im Beruf bin, auch vorher schon immer sehr interessiert an Microsoft-Lösungen gewesen und habe da eben das Glück, dass ich bei der Connect mich in dem Bereich immer weiterbilden durfte, habe viele Schulungen besuchen können. Und wenn man im Microsoft-Bereich unterwegs ist, dann kommt man natürlich auch am Thema Office 365 nicht vorbei. So ist das quasi ganz automatisch passiert und ja, ist aber mittlerweile letztlich auch mein Spezialgebiet geworden. #00:02:15-8# Ingo Lücker: Ja, cool. Hört sich klasse an. Wenn du neben den ganzen Themen, die du gerade genannt hast, den ganzen beruflichen Themen, wie sieht es denn da im Privaten aus? Ja, ist da überhaupt noch Zeit für Privates und für Hobbys? #00:02:29-3# Fabian Alfes: Doch definitiv. Also mir ist eigentlich Sport immer wichtig gewesen. Ich habe da ganz viele verschiedene Sachen ausprobiert, bin eine Zeit lang Bouldern gewesen. Das hatte ich neu für mich entdeckt. Das war dann natürlich zur Corona-Zeit jetzt im letzten Jahr alles ein bisschen schwieriger. Da habe ich eher versucht mich zu Hause fit zu halten. Aber genau, dann mit ein paar Kollegen tatsächlich angefangen zu Corona-Zeit nochmal Age of Empire zu spielen. Das ist ein Echtzeit-Strategiespiel. Das machen wir so einmal die Woche, treffen wir uns da abends und spielen eine Runde oder zwei. Genau, aber gerade zuletzt, ich bin vor Kurzem Vater geworden. Und deswegen geht jetzt gerade letztlich jede freie Minute irgendwo in die Familie. #00:03:09-7# Ingo Lücker: Ja, das ist ja eine ganz neue Welt dann zu Hause, ne? #00:03:13-3# Fabian Alfes: Ja, genau. #00:03:14-6# Ingo Lücker: Ja, cool. Ja, und an die eine oder andere Laufrunde mit dir kann ich mich ja noch gut erinnern an der Siegarena, von daher. #00:03:20-2# Fabian Alfes: Ja, genau. #00:03:21-7# Ingo Lücker: Sobald das Wetter wieder schöner wird, hat man da ja auch weniger Schweinehund, der dahinter hängt. #00:03:26-3# Fabian Alfes: Richtig. #00:03:27-3# Ingo Lücker: Sehr gut. Ja wie hältst du dich denn eigentlich auf dem Laufenden zu den aktuellen Themen, gerade was Microsoft Teams angeht? Woher bekommst du so deine Information als Experte, um da auf dem Laufenden zu bleiben? Weil ich bekomme ja auch mit, Teams entwickelt sich ja irgendwie ständig weiter. Ich meine, Updates gibt es für viele Anwendungen und Lösungen. Aber bei Teams kann man ja gefühlt im Wochentakt mit neuen Funktionen und Verbesserungen rechnen. Da ist natürlich immer spannend, wie hältst du dich da auf dem Laufenden, um da auch wirklich am Ball zu bleiben? #00:03:58-4# Fabian Alfes: Ja, also das mache ich einmal ganz klassisch letztlich über den Newsletter von Microsoft. Da wird man über anstehende Änderungen immer informiert, meist auch ein paar Monate im Voraus, dass man sich so ein bisschen drauf einstellen kann, vielleicht Schulungsmaterialien und so weiter daraufhin abstimmen kann. Natürlich in der heutigen Welt geht ganz viel auch über Social Media, wo man den entsprechenden Kanälen folgt, gerade auch den MVPs auf dem Bereich. Haben wir in Deutschland zum Beispiel den Alexander Eggers. Dem folge ich. Da ist man auch immer mal wieder im engeren Kontakt, kann man eine direkte Frage platzieren. Und ansonsten halt eben über diverse Schulungen, die ja auch letztlich laufend aktualisiert werden, kann man da ganz gut auf dem Laufenden bleiben. #00:04:44-9# Ingo Lücker: Ja, cool. Ja, Microsoft Teams ist ja heute unser Thema. Es ist ja durch Home-Office im Prinzip in den letzten Monaten und auch im letzten Jahr durch die Decke geschossen. Was meinst du, was war der Grund dafür? Warum ist gerade Microsoft Teams da so sehr von den Unternehmen ja genommen worden und wurde so sehr dafür genutzt, um mit den Mitarbeitern untereinander zu kommunizieren? #00:05:11-0# Fabian Alfes: Also Microsoft hat es den Unternehmen einmal sehr einfach gemacht. Microsoft hatte relativ schnell im letzten Jahr ja reagiert und Teams-Lizenzen erstmal sehr großzügig kostenlos zur Verfügung gestellt. Und so Unternehmen natürlich diese Entscheidung erstmal sehr einfach gemacht, das dann auszuprobieren. Ich denke, viele Unternehmen sind sowieso sehr in der Microsoft-Welt unterwegs, was die Server-Landschaft angeht, was irgendwie Outlook, Exchange und so weiter angeht. Deswegen ist, denke ich, da für viele Unternehmen der Schritt erstmal sehr naheliegend gewesen, auch da auf die Microsoft-Lösung zu setzen. Zum Anderem war natürlich im letzten Jahr einfach die Notwendigkeit da für die Unternehmen plötzlich, sage ich mal, irgendwie sehr viel mobiler zu arbeiten als es vorher notwendig war. Und das hat natürlich für Microsoft Teams einen sehr großen Aufwind erstmal bedeutet. #00:06:03-8# Ingo Lücker: Ja klar, verständlich auf jeden Fall. Für die Hörer, die sich unter Microsoft Teams jetzt noch nicht sowas vorstellen können, was ist Microsoft Teams denn eigentlich? Denn häufig wird es ja auch schnell mal mit Zoom und anderen Videokonferenzen in einem Satz oder in einem Bericht genannt. Doch Microsoft Teams ist ja dann doch deutlich mehr. Vielleicht kannst du da mal so einen kleinen Überblick dazu geben, was man sich unter Microsoft Teams vorstellen kann und was damit auch machbar ist. #00:06:36-7# Fabian Alfes: Genau, also der Einstieg für ganz viele in Teams ist ja genau das, was du beschrieben hast. Das ist irgendwie ein Tool. Da kann man mit chatten. Da kann man Videokonferenzen mit machen, innerhalb vom Unternehmen, auch mit Externen. Das ist so der erste Berührungspunkt und damit kratzt man aber genau wie du sagst letztlich an der Oberfläche von dem, was in Teams möglich ist. Also Teams ist letztlich das zentrale Kommunikations-, Kollaborationstool für Unternehmen. Die letztlich ja so die interne E-Mail letztlich überflüssig machen kann. Man kann sehr schön sich strukturieren in verschiedene Bereiche des Unternehmens, Prozesse integrieren. Es gibt von Drittanbietern unheimlich viele Apps, ich glaube, es sind mittlerweile über tausend Drittanbieteranwendungen, die sich in Teams integrieren lassen. Und ja, das Ganze geht halt bis zur Telefonie. Also ich kann letztlich meine Festnetztelefonie auch nach Microsoft Teams telefonieren und bin damit mit meinen Geräten überall flexibel auf meiner klassischen Festnetztelefonnummer erreichbar. #00:07:45-7# Ingo Lücker: Das hört sich sehr umfangreich an, tatsächlich auch was diese Funktion angeht. Und du hast gerade auch die Telefonie schon angesprochen. Das bedeutet, man hat dann tatsächlich auch die Möglichkeit aus Microsoft Teams heraus direkt zu telefonieren. Wie muss ich mir das vorstellen? Muss ich eine neue Telefonnummer haben oder wie muss ich mir das vorstellen, dass ich dann aus Teams heraus telefonieren kann tatsächlich über das normale Festnetz ja eigentlich, ne? #00:08:14-5# Fabian Alfes: Genau, da gibt es prinzipiell zwei Möglichkeiten für. Die eine Möglichkeit ist, dass letztlich Microsoft der Provider wird. Das heißt, ich mache am Ende des Tages eine Portierung meiner Rufnummer von der Telekom, Vodafone, was auch immer, zu Microsoft hin und zahle dann auch meine Minutenpreise an Microsoft. Der erstmal einfachere Weg, technisch nicht ganz so aufwendige, wäre der, dass ich letztlich meinen Telefonanbieter behalte und über einen SBC, über einen Session Border Controller die Rufnummern dann umleite in Microsoft Teams rein. Dann habe ich meinen Provider, an den ich meine Minutenpreise oder meine Flatrate bezahle. Und es klingelt aber dann eben am Ende des Tages mein Teams, sodass ich letztlich keine neue Telefonanlage brauche, aber in vielen Fällen einen zu Microsoft Teams kompatiblen Session Border Controller benötige. #00:09:11-6# Ingo Lücker: Habe ich dann dadurch auch den Vorteil tatsächlich, dass, wenn ich dann in so einem Telefonat über Teams bin, bin ich auch über anderem Wege in Teams gerade nicht mehr erreichbar? Das heißt, ich habe dann da tatsächlich auch den Status, dass ich eben gerade belegt bin, weil ich dann über eine andere Telefonieverbindung tatsächlich gerade besetzt bin? #00:09:29-2# Fabian Alfes: Genau. Der Teams-Status wechselt dann, am Telefon oder im Telefonat oder sowas heißt der Status. Genau, ist dann für die Kollegen auch sichtbar und in dem Moment bin ich dann auch quasi besetzt für weitere Anrufe. #00:09:41-9# Ingo Lücker: Cool. Und ist Teams tatsächlich nur eine Lösung, die in einem Unternehmen nur Verwendung findet, oder habe ich hier auch die Möglichkeit mit anderen Unternehmen unternehmensübergreifend zusammenzuarbeiten? Wie muss man sich das mit Teams vorstellen? #00:09:57-2# Fabian Alfes: Genau, sowohl als auch. Also es geht auch übergreifend. Natürlich gilt das auf jeden Fall erstmal für die Videomeetings, wo ich ja letztlich beliebige Gäste einladen kann. Die Gäste, die ich in Videomeetings einlade, die brauchen nicht mal selbst ein eigenes Teams. Die können also auch ganz anonym zum Beispiel über den Browser teilnehmen. Aber auch, wenn man jetzt, sage ich mal, die namensgebenden Teams und Kanäle innerhalb der Anwendung betrachtet, ist es auch da möglich, dass ich Gäste einlade und dort gemeinsam zusammen arbeite an Dokumenten, Kommunikation stattfindet. Es ist also sehr flexibel auch unternehmensübergreifend einsetzbar. #00:10:39-2# Ingo Lücker: Du hattest vorhin gesagt, Microsoft hat es ja den Unternehmen sehr einfach gemacht, weil Microsoft Teams vor allen Dingen im letzten Jahr kostenlos angeboten wurde und man es kostenlos nutzen kann. Gibt es eine Grundvoraussetzung, sowas wie, ich sage mal, Microsoft Exchange Online? Also es gibt ja immer noch Unternehmen, die haben ja auch ein Exchange noch lokal, also On Premise stehen. Wie sehen da die Voraussetzungen für die Unternehmen aus, dass die die Funktionalität von Microsoft Teams auch ja möglichst umfangreich nutzen können? #00:11:17-2# Fabian Alfes: Ja, also um, ich sage mal, das Ganze sinnvoll zu nutzen, ist es natürlich sinnvoll, dass man grundsätzlich in der Office-365-Welt schon mal drin ist. Darüber läuft eben die Benutzerverwaltung, die Lizenzierung läuft darüber ab. Und ich würde schon empfehlen, dass man auch den E-Mail-Server aus der Microsoft Welt hat, dass man also einen Exchange-Server betreibt. Es gibt ja auch weitere E-Mail-Server. Das geht trotzdem. Aber man verliert sehr viel Funktionalität und das macht das hier und da dann doch komplizierter als es sein müsste. Also ganz klare Empfehlung wäre, dass man einen Exchange-Server betreibt. Wenn man den selber in der eigenen Infrastruktur betreibt, dann würde ich zumindest empfehlen eine Hybridstellung herzurichten zwischen dem Exchange Online und dem eigenen Exchange. Das sorgt dafür, dass man eben auch die umfangreichen Kalenderfunktionen verwenden kann und letztlich am Ende wirklich alle Funktionen nutzen mit Teams. Und die beste Integration in die ganze Microsoft-Welt hat man, wenn man dann eben auch die Postfächer nach Exchange Online verschiebt. Dann gibt es nochmal ein paar Extras, beispielsweise die To-Do-App von Microsoft. Die hängt davon ab, dass auch das Postfach im Exchange Online liegt. Ich würde aber sagen, mit einem Exchange On Premise und einer Hybrid-Stellung kann man Teams schon sinnvoll einsetzen. #00:12:38-3# Ingo Lücker: Cool. Die Teams-Applikation selbst, wie muss ich mir das vorstellen? Ist das eine eigene Software auf dem Desktop? Kann ich die im Webbrowser nutzen? Wie sieht es auch mit mobilen Endgeräten aus? Gibt es da native Apps oder wie ist dort die Infrastruktur von Microsoft Teams aufgebaut? #00:12:58-7# Fabian Alfes: Teams ist erstmal eine klassische Anwendung, die installiert wird auf dem PC, auf dem Laptop beispielsweise, auch für Mac natürlich verfügbar und die sich auch dort im Hintergrund sehr eigenständig aktualisiert. Man ist eigentlich immer automatisch auf dem aktuellen Stand dort, du hattest ja eben auch angesprochen, da gibt es ja regelmäßig Updates, neue Funktionen. Da muss man sich als Anwender aber sehr wenig drum kümmern, dass man die auch bekommt. Und, genau, wenn das mal keine Option ist oder wenn man vielleicht auch als Gast nur beitreten will, dann ist es eben auch im Browser möglich, einfach über teams.microsoft.com. Da dann auswählen: Ich will die WebApp benutzen. Und dann hat man auch nahezu alle Funktionen einfach direkt im Webbrowser mit drin. Das ist auch sehr gut möglich, ist allerdings beschränkt, wenn ich mich jetzt nicht vertue, auf die Chromium-Browser, also entweder auf Chrom oder auf den Microsoft Edge Browser. Damit ist das möglich. Und für die mobilen Geräte, sei es jetzt iOS oder sei es Android, gibt es native Apps, die einen sehr guten Funktionsumfang haben. Nicht immer denselben, es ist manchmal die mobile App an der einen Stelle ein bisschen voraus, manchmal auch die klassische Desktop-App, die dann mehr Funktionen bietet, aber für den mobilen Einsatz auch auf dem Smartphone auf jeden Fall sehr gut geeignet. #00:14:20-6# Ingo Lücker: Ja, ich habe das gesehen. Im Chat ist teilweise in der mobilen Variante ist dann möglich sogar sowas wie Antworten oder sowas dann zu machen, was ich dann lange Zeit oder bisher immer noch nicht habe in der Desktop-Variante tatsächlich, genau. Jetzt setzen einige Unternehmen ja auch sowas ein wie Desktopvirtualisierung, um einfach dort auch die Struktur sicherer zu machen, besser aufzubauen. Ist Teams dort auch fähig für? Also kann Microsoft Teams in solche Umgebungen implementiert werden? #00:14:52-7# Fabian Alfes: Grundsätzlich ja. Dann wird es für den Admin, sage ich mal, ein bisschen aufwendiger. Muss man ein paar Details beachten bei der Installation, dass man die richtige Variante der Teams-App dann erwischt. Und dann gibt es eben Logistiken seitens Microsoft oder auch von, ich sage mal, Visualisierern wie (Sedris?) beispielsweise, die dann eine tiefgreifende Integration bieten, sodass auch Audio- und Videotelefonate innerhalb von so einer virtuellen Lösung dann möglich sind. Gibt es aber Einschränkungen hier und da. Also bei einer Videokonferenz beispielsweise ist es jetzt nicht möglich, dass man die sich dort bis zu sieben Mal/ Sieben Videos ist ja im Moment aktuell, die man sehen kann. Das geht dann zum Beispiel in der virtuellen Lösung nicht. Und es gibt hier und da immer mal eine Funktion, die nicht verfügbar ist. Aber ich sage mal, grundsätzlich, wenn man jetzt Teams ja irgendwie über Video hinaussieht als Kommunikationstool, wo ja viel auch vielleicht Dateien, Informationen ausgetauscht werden, viel auf Textbasis sich ausgetauscht wird, dann kann man das sehr uneingeschränkt auch in so einer virtuellen oder so in einer VDI-Lösung einsetzen. #00:16:06-1# Ingo Lücker: Ja, ist natürlich wichtig einfach auch zu wissen für viele Unternehmen, weil die IT-Sicherheit da ja auch einfach viel wichtiger wird, gerade bei den vielen Fällen, die man in der Vergangenheit auch so gesehen hat. Und wenn die Unternehmen jetzt mit Microsoft Teams direkt starten, und das habe ich ja auch schon bei einigen Projekten gesehen. Die sehen: Ah, ja super. Wir können Microsoft Teams nutzen, legen wir mal los. Ich haben mir hier so eine kleine Notiz gemacht. Was sind denn die wichtigsten Dinge, die bei einer Einführung zu beachten sein sollten? Und wie geht denn ihr auch von der Connect vielleicht bei solchen Projekten heran, um Unternehmen dort ja vielleicht auch den einen oder anderen „löschen und wieder von vorne“ ersparen zu können? #00:16:56-8# Fabian Alfes: Ja, also ich will nicht sagen, dass/ Ich will es nicht unbedingt als Problem bezeichnen, aber es ist prinzipiell erstmal sehr einfach Microsoft Teams einzuführen. Das ist technisch erstmal nicht so aufwendig. Ich muss am Ende des Tages ja nur die Anwendung verteilen und dann können meine Anwender loslegen. Und das führt in vielen Fällen natürlich zu erstmal einem großen Chaos. Erstmal, jeder hat irgendwie Berechtigungen dort Teams und Kanäle anzulegen. Und dem muss man als Admin dann im Nachgang erstmal wieder Herr werden. Gerade im letzten Jahr ist es natürlich so, dass nicht immer die Zeit war auf Grund der Corona-Situation sich da vorher einen großen Plan zu machen und eine Struktur auszuarbeiten und dann über Wochen oder Monate so ein Tool einzuführen, wie es im Idealfall nun mal wäre. Das heißt, ich würde sagen, wer jetzt so angefangen hat, wie ich es am Anfang skizziert habe, für den ist noch nicht alles verloren. Aber man sollte jetzt schon dann im Nachgang da nochmal Arbeit reinstecken, das Ganze im Nachgang zu organisieren und zu strukturieren. Also wir empfehlen grundsätzlich unseren Kunden, weil Teams eben nicht nur eine Anwendung ist wie jede andere, die einfach dazukommt, sondern Teams ändert erstmal sehr viel in der Art und Weise wie im Unternehmen kommuniziert wird, wie überhaupt gearbeitet wird. Es gibt letztlich eine große Veränderung in der Arbeitskultur, weil es am Ende halt doch eben etwas anderes ist wie sich E-Mails hin- und herzuschicken. Und deswegen finden wir bei Connect es sehr wichtig, diese Herausforderung eben vorher zu sehen, zu erklären und sich entsprechend darauf vorzubereiten. Also früh in die Planung einzusteigen, früh auch, ich sage mal, wichtige Mitarbeiter zu involvieren, sich Prozesse rauszupicken, die man in Teams vielleicht dann abmelden kann. Und so dann einfach einen erfolgreichen Start von Teams zu ermöglichen, wo man auch vorher die Gelegenheit hat den Mitarbeiter zu schulen. Das finde ich ganz wichtig. #00:19:00-2# Ingo Lücker: Damit nicht dann plötzlich die große Pingerei im Unternehmen losgeht: Sie wurden zu einem neuen Kanal eingeladen. Und keiner weiß was los ist und wofür das gedacht ist, ne? #00:19:12-1# Fabian Alfes: Genauso. Wir hatten tatsächlich Unternehmen, wo wir dann irgendwann die Notbremse ziehen mussten, wo wir quasi doch alles nochmal plattgemacht haben, was sich entwickelt hat, was sich verselbstständigt hat und wir dann nochmal, ich sage mal, neu angefangen haben auf einer soliden Basis. Aber genau, insofern, ja, es macht natürlich Sinn sich im Vorfeld da viele Gedanken zu machen. Wer jetzt aber im letzten Jahr angefangen hat erstmal, ich sage mal, ein bisschen Hals über Kopf auf Grund der Situation geschuldet: Den können wir noch retten. #00:19:43-4# Ingo Lücker: Sehr gut. Dann sind sie dann bei euch auch in guten Händen, also von daher/ Und das ist sicherlich auch zum Abschluss das Wichtigste. An wen können sich denn Unternehmen, die da Hilfestellungen zu benötigen zum Thema Microsoft Teams bei der Einführung oder aber auch sich generell einfach mal mit jemandem austauschen wollen. Was wird benötigt? Was ist sinnvoll? An wen können Sie sich am besten wenden, um bei euch Kontakt aufzunehmen? #00:20:12-6# Fabian Alfes: Die können sich gerne direkt auch an mich wenden. Vielleicht kannst du irgendwie Kontaktdaten in die Shownotes am Ende packen. Und, genau, dann können wir da gucken. Was ist der Status Quo? Was ist das Ziel? Und da können wir dann unterstützen. #00:20:29-2# Ingo Lücker: Super. Wunderbar. Nehmen wir das gerne mit auf. Das Unternehmen der connecT SYSTEMHAUS AG ist unter der Domain: www.cnag.de, also C, N, A, G Punkt DE zu erreichen und da findet man dann ja auch ohne Probleme den Kontakt ja zu dir. Aber wir nehmen das natürlich in die Shownotes dort auch mit auf. Also auch deine E-Mail-Adresse können wir dann dort ja mit angeben, also alfes@cnag.de. // Und, #00:20:58-5# Fabian Alfes: Genau. // #00:20:58-5# I: ja super, ich glaube, das hat den Zuhörern einen guten Überblick darüber gegeben, was man von Microsoft Teams eigentlich erwarten kann und was man auch beachten sollte sicherlich. Und damit hat das viele ein Stück weitergebracht dahingehend auch diese Zusammenarbeit und die Kollaboration für die Zukunft nutzen zu können. Vielen Dank lieber Fabian für das Interview hier im IT-Manager-Podcast und ich freue mich schon auf die nächste Laufrunde mit dir. Vielleicht dann ja mal mit dem Nachwuchs. #00:21:32-3# Fabian Alfes: Ja, das könnte noch einen Moment dauern. Aber genau, auch dir vielen Dank, dass ich dabei sein durfte. Alles Gute! #00:21:37-8# Ingo Lücker: Super. Bis dann. Tschüss! #00:21:41-5#
Herzlich Willkommen beim IT-Manager Podcast. Mein Name ist Ingo Lücker, ich bin Gründer und Geschäftsführer der ITleague GmbH und in unserer heutigen Folge geht es um Microsoft Teams. Was ist Microsoft Teams eigentlich? Ja, im Prinzip ist es eine Kollaborationsplattform mit der sehr sehr viel möglich ist. In Zeiten von Corona und dem Homeoffice wurde Microsoft Teams meistens immer in Verbindung mit Zoom und anderen Videokonferenzen auch erwähnt. Klar, Videoconferencing ist einer der Themen, die Microsoft Teams beherrscht. Aber es geht so viel mehr. Man kann damit Besprechungen natürlich durchführen, chatten untereinander, man kann dort auch reine Telefonie drüber betreiben und natürlich auch eine Zusammenarbeit an einem Ort. Und ja, ich gehe auf die einzelnen Dinge mal so ein bisschen ein. In unserem zweiten Teil der Folge wird es dann im Interview noch viel detaillierter gehen. Aber dazu später mehr. Jetzt möchte ich erstmal so ein bisschen auf die Themen eingehen, ja, was kann ich dann eigentlich damit tun? Also zum Beispiel ein Videoanruf mit einem anderen Teilnehmer oder aber auch einer Gruppe, ist nur ein Click entfernt. Und dazu brauche ich lediglich im Prinzip die Email-Adresse des Gegenübers und somit kann ich dann ohne Probleme auch einen Videocall zu ihm herstellen. Das Ganze natürlich über eine sichere Verbindung und diese kann gleichzeitig benutzt werden dafür, um auch mal Dateien zusammen zu teilen, an diesen gleichzeitig auch zu arbeiten oder neu zu erstellen. Und man kann in diesen Besprechungen auch jederzeit Notizen erstellen und ja diese Notizen auch später wieder abrufen, weil der Besprechungschat auch später immer wieder zur Verfügung steht. Ja und das Chatten selber, das ist natürlich unabhängig von den eigentlichen Besprechungen auch möglich. Also ich habe hier die Möglichkeit sowohl unternehmensintern, als auch mit externen Parteien einfach in einen Chat zu starten. Diese Chats kann ich auch ja umbenennen. Sodass ich die auch thematisch sortieren kann und mir organisieren kann. Ebenso kann ich zu einem Chat weitere Teilnehmer hinzufügen. Dort auch ganz klar bestimmen, wie viel sieht denn dann derjenige eigentlich auch von den Inhalten, die dort schon gechattet wurden. Und wie man es auch aus anderen messenger-Systemen kennt, kann ich hier natürlich auch das Ganze ein bisschen persönlicher gestalten, indem ich hier auch mal GIF-Sticker und Emojis verwende. All das ist natürlich im Chat ohne Probleme möglich. Bei den Videokonferenzen, auf die ich eben schon eingegangen sind, da können sich je nachdem, welche Plattform man verwendet, bis zu zehntausend Teilnehmer zusammenschalten. Und tatsächlich ein und denselben Content hören, sehen und auch dran arbeiten. Eine wirklich tolle Plattform, die auch ja endgeräteübergreifend sehr, sehr gut und seamless funktioniert. Egal, ob ich an einem Desktop bin oder ob ich das über meine mobilen Endgeräte aufrufe, überall habe ich einen idealen Einsatz von den Meetings. Ja und das Telefonieren, das hat der ein oder andere eventuell schon mitbekommen, das ist auch direkt über Microsoftteams möglich. Da will ich jetzt im Detail nicht drauf eingehen, weil da würde ich dann unserem Interview vorweggreifen, aber hier ist es möglich, dass ich tatsächlich einfach mein Microsoftteams als meine eigentliche Telefonie-Plattform nutze und dort natürlich auch Gruppenanrufe und sowas, wie eine Voicemail nutzen kann und auch eine Anrufweiterleitung, et cetera. Also das sind Dinge, die gehen sehr, sehr leicht und einfach auch alles aus der Cloud heraus. Ja und beim Thema Zusammenarbeiten ist es natürlich total stark, dass man die Dateien direkt in Microsoftteams ablegen kann, organisieren kann. Ich kann die in Echtzeit in den Anwendungen auch in den Office-Anwendungen von Word, PowerPoint und Excel direkt dran arbeiten. Ich sehe auch, wer daran arbeitet, kann Kommentare hinterlegen und somit natürlich auch hier viel interaktiver an gemeinsamen Ergebnissen arbeiten. Sie sehen, Microsoftteams ist da sehr, sehr vielschichtig aufgebaut und ja, das wichtigste ist sicherlich, dass man sich gerade bei der Einführung von Microsoft Teams in Unternehmen immer auch einen Spezialisten zur Seite nimmt, der einen bei der Einführung, bei der Organisation und Struktur und dem Aufbau unterstützt. Und hier will ich auch die Brücke schlagen zu unserer Folge, die dann in Kürze veröffentlicht wird, wo wir den IT-Spezialisten Fabian Alfes, von der connecT SYSTEMHAUS AG im Interview haben. Und ja, dort gehen wir auch mal im Detail darauf ein, warum denn Microsoft Teams eigentlich dann auch so durch die Decke gegangen ist und was man alles beachten muss, auch wenn man Microsoftteams einführen möchte im Unternehmen. Welche Voraussetzungen es dafür gibt und ja, wie auch die Nutzung mobil oder auch in einer Citrix-Umgebung aussieht. All das und mehr, werden wir dann im Interview miteinander besprechen. Also, wenn dich das Thema Microsoftteams interessiert, dann höre doch gerne auch in unser Interview rein, was in Kürze online gehen wird. Ja, ich wünsche dir noch einen wunderschönen Tag. Und freue mich schon auf die nächsten Folgen. Bis dann, dein Ingo. Ciao.
Nach über einem Jahr Pause sind wir mit dem IT Manager Podcast mit einem neuen Format zurück. Die erste Folge veröffentlichten wir im April 2016 zum Thema IoT "Internet of things". Seitdem sind über 130 Folgen von uns recherchiert und publiziert worden. Nach ausgiebigem Feedback aus der Community haben wir an einem neuen Format gearbeitet. Da wir kontinuierlich zwischen 10.000-15.000 Aufrufe pro Monat haben, obwohl wir seit über einem Jahr keine neue Folge veröffentlicht haben, werden wir nun mit neuen Inhalten bereichern. Unsere Zielgruppe sind ganz klar die Geschäftskunden, also die sogenannten B2B-Kunden. Einige Beispiele für kommende Themen: Microsoft Teams in Unternehmen, staatliche Förderungen für IT-Projekte, Business Netzwerke wie der BNI, Zertifizierungen wie ISO9001 sowie ISO27001, Automatisierung und Dokumentenmanagement, digitale Unterschriften, Social Media Marketing, Cloud Telefonie und sehr viele IT-Security-Themen. Was interessiert Dich als Zuhörer in Zukunft? Oder bist Du selbst Experte und willst in Zukunft dabei sein? Wir freuen uns auf Deine Nachrichten unter podcast@itleague.de
Heute dreht sich alles um das Thema: „Was ist eigentlich ein WIPS?” Bevor ich Ihnen diese Frage beantworte, möchte ich kurz -der Verständlichkeit halber- auf die Begrifflichkeiten Intrusion Detection System und Intrusion Prevention System eingehen. Intrusion Detection Systeme (IDS) und Intrusion Prevention Systeme (IPS) sind beides Bestandteile der Netzwerkinfrastruktur und dienen dazu den Datenverkehr in Netzwerken vor Gefahren bzw. Angriffen zu schützen. Das Intrusion Detection System, kurz IDS, ist dabei in der Lage, anhand bestimmter Muster Angriffe auf Computersysteme oder Netzwerke zu erkennen und Anwender oder Administratoren zu informieren. Das Intrusion-Prevention-Systeme, kurz IPS, hingegen geht einen Schritt weiter und ist in der Lage, Angriffe auf Netzwerke oder Computersysteme abzuwehren. Kommen wir zurück zu unserer Ausgangsfrage, was ist eigentlich ein WIPS? Die Abkürzung WIPS steht für Wireless Intrusion Prevention System. Und wie der Name schon vermuten lässt, handelt sich hierbei um ein System, dass Angriffe wie DoS-Attacken, Honeypots oder Man-in-the-Middle-Angriffe und nicht autorisierte Zugriffe durch beispielsweise Access Points auf ein WLAN detektiert und abwehrt. Dabei erfolgt die Steuerung des Wireless Intrusion Prevention Systems über eine zentrale Administrationsoberfläche. Die WIPS sind in der Regel so konfiguriert, dass sie bei erkannten Bedrohungen selbständig Abwehrmaßnahmen ergreifen und gleichzeitig einen vorher festgelegten Personenkreis alarmieren. Prinzipiell besteht ein Wireless Intrusion Prevention System aus drei Komponenten. Diese sind: Sensoren zur Überwachung des Netzwerks und des Funkspektrums ein Managementsystem zur Verwaltung und Bedienung des Wireless Intrusion Prevention Systems sowie zentrale Server für die Analyse und die Kommunikation mit den Sensoren Die einzelnen Komponenten können dabei entweder dediziert* ausgeführt oder in den vorhandenen WLAN-Geräten als zusätzliche Funktionen auf Softwarebasis integriert sein. Der Vorteil von Wireless Intrusion Prevention Systeme aus dedizierten Komponenten ist, dass sie sich als Overlay-System betreiben lassen. Das bedeutet, dass Anwender ein Drahtlosnetzwerk nicht verändern müssen. Außerdem sorgt die Separierung von Überwachung und produktivem Netz für ein höheres Schutzniveau. Schauen wir uns die Funktionsweise eines Wireless Intrusion Prevention Systems etwas genauer an. Für eine wirksame Erkennung und Abwehr von nicht autorisierten WLAN-Zugriffen oder falschen Access Points überwacht und analysiert ein Wireless Intrusion Prevention System, sowohl die Funkfrequenzen als auch die im WLAN ausgetauschten Daten. Sobald ein Wireless Intrusion Prevention System einen Rogue Access Point -sprich einen nicht autorisierten Zugriffspunkt- im WLAN Netzwerk identifiziert, verschickt es De-Autorisierungspakete an den nicht autorisierten Access Point und die mit ihm verbundenen Clients. Die De-Autorisierungspakete geben sich gegenseitig als Client oder Accesspoint aus und veranlassen die Kommunikationspartner die Verbindung zu trennen. Werden zudem verdächtige Aktivitäten auf bestimmten nicht vorgesehenen Funkkanälen festgestellt, werden diese durch verschiedene Maßnahmen gesperrt. Sie können sich das Ganze auch so vorstellen: Mal angenommen, sie sind Unternehmer und betreiben eine eigene Wireless LAN Infrastruktur, um Ihren Vertriebsmitarbeitern das mobile Arbeiten mit Laptop und SmartPad zu ermöglichen. Max Mustermann ist Angestellter in der Fertigung und möchte während der Arbeitszeit auch mit seinem Smartphone per WLAN surfen. Daher hat er seinen privaten Access Point mitgebracht, den er heimlich in das Firmennetz integriert hat. Dank Ihres implementierten Wireless Intrusion Prevention Systems, wird der Rogue Access Point im eigenen Netzwerk identifiziert und automatisch abgewehrt. Gleichzeitig werden die verantwortlichen Administratoren alarmiert. Neben diesem gerade genannten Beispiel gibt es noch folgende Anwendungsfälle und Szenarien, die für den Einsatz eines Wireless Intrusion Prevention System sprechen: Szenario 1: Datendiebstahl im Netzwerk Durch den Einsatz von WIPS kann der Netzwerk-Traffic vor Snooping plus Datendiebstahl geschützt und durch Angriffe verursachte Traffic-Störungen verhindert werden. ● Szenario 2: Gastnetzwerke Durch den Einsatz von WIPS, kann das produktive Büronetzwerk vom Gastnetzwerk separiert und somit geschützt werden. Den Gästen stellt man genau genommen ein separates Netzwerk zur Verfügung und verwendet dafür ein gemeinsam genutztes Passwort. ● Szenario 3: Netzwerk-Monitoring und -Untersuchungen: Durch den Einsatz von WIPS können Angriffsversuche erkannt werden, indem für diese eine Log-Datei geschrieben wird. Weiterhin benachrichtigen sie bei bestimmten Angriffsaktivitäten und loggen auch andere Ereignisse, die man später untersuchen kann. Dabei ist es irrelevant, ob diese geblockt wurden oder nicht. ● Szenario 4: Netzwerk- und Geräteklassifizierung und -identifikation: Durch den Einsatz von WIPS, werden alle Geräte, die auf das drahtlose Netzwerk zugreifen, geprüft ob sie die notwendigen Rechte haben. Eine weitere sinnvolle Funktion von WIPS ist, dass sie die Netzwerkarchitektur, alle drahtlosen Access Points und deren Standorte identifizieren können. ● Szenario 5: Richtlinienkonformität (Policy Compliance): Durch den Einsatz von WIPS wird sichergestellt, dass alle drahtlosen Geräte identifiziert werden, die den Compliance-Regularien nicht entsprechen. Welche Vorteile ergeben sich durch den Einsatz eines Wireless Intrusion Prevention Systems? Ein Wireless Intrusion Prevention Systems bietet Anwendern gleich mehrere Vorteile. Dazu zählen unter anderen zusätzlicher Schutz der WLAN-Infrastruktur automatische Erkennung von Bedrohungen des drahtlosen Netzwerks automatische Abwehr von diversen Angriffsmethoden Erkennung und Abwehr von Rogue Access Points und Rogue Clients Erkennung und Abwehr von Evil Twin Access Points Erkennung und Neutralisation von falsch konfigurierten Access Points Durchsetzung der WLAN-Policies BYOD-Absicherung, steht für Bring your own device automatische Alarmierung bei verdächtigen Aktivitäten Wir kommen nun zum Ende unsere heutigen Podcast. Zusammenfassend lässt sich sagen: Unternehmen müssen sich heutzutage gegen zahlreiche Bedrohungen und Angriffe wie DDoS-Attacken, Honeypots oder Man-in-the-Middle-Angriffe wappnen, die ihr WLAN betreffen können. Durch den Einsatz eines Wireless Intrusion Prevention Systems, können sie nicht nur bösartige Angriffe abwehren, sondern auch beispielsweise unbeabsichtigte Vorfälle verhindern, wie das versehentliche Anmelden an einem Netzwerk in der Umgebung, welches nicht zum Firmennetzwerk gehört. Dieses Szenario könnte zu einem schwerwiegendem Sicherheitsproblem führen, da die Datensicherheit in dem unbekannten und nicht vertrauenswürdigen Netzwerk nicht sichergestellt werden kann. Das sind nur ein paar wenige Beispiele, die die Notwendigkeit einer WLAN-Absicherung durch ein Wireless Intrusion Prevention Systems, unterstreichen. So liebe IT Profis, das wars auch schon für heute vom IT Manager Podcast, ich hoffe es hat Ihnen gefallen – wenn ja freue ich mich wie immer sehr über ein Like auf Facebook und eine fünf Sterne Bewertung bei iTunes. Nächste Woche Freitag gibt es dann natürlich wieder eine neue Folge des IT Manager Podcasts. Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail. Kontaktdaten finden Sie in unseren Show-Notes oder auf unserer Website. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Diese Folge wird unterstützt von Blinkist. Unter blinkist.de/itmanager erhaltet ihr 25% auf das Jahresabo Blinkist Premium. Heute dreht sich alles um das Thema: „Was ist eigentlich eine Bandbreite?” Zunächst einmal müssen Sie wissen, dass der Begriff "Bandbreite" in zwei verschiedenen Kontexten verwendet werden kann: In digitalen Systemen wird der Begriff Bandbreite oft als Synonym für die Übertragungsgeschwindigkeit oder die Übertragungskapazität verwendet. Die synonyme Verwendung der Begriffe geht auf den Zusammenhang zwischen Bandbreiten und Übertragungsraten zurück. Die Bandbreite stellt einen wichtigen Faktor dar, wenn es darum geht, die Qualität und Geschwindigkeit eines Netzwerks zu bestimmen. Die kleinste Übertragungsrate ist das Bit, weshalb die Datenübertragungsrate häufig auch als Bitrate (Einheit Bit Pro Sekunde - Bit/s) bezeichnet wird. Da heutige Netzwerke jedoch in der Regel eine viel größere Bandbreite haben, die sich mit so einer kleinen Einheit nicht gut wiedergeben lassen, sind die Angaben Megabits pro Sekunde MBits , Gigabits pro Sekunde GBits oder Terabits pro Sekunde TBits geläufiger. Sie können sich die Bandbreite auch als Wasserfluss durch ein Rohr vorstellen. Dabei ist die Bandbreite die Geschwindigkeit, mit der das Wasser sprich die Daten bei verschiedenen Bedingungen durch das Rohr, als die Verbindung, fließt. Anstelle von Bits pro Sekunde misst man jetzt Liter pro Minute. Während größere Rohre mehr Wasser liefern, fließt durch kleinere Rohre eine geringere Menge. Somit stellt die Wassermenge, die potenziell durch das Rohr fließen kann, die maximale Bandbreite dar, während die Wassermenge, die gegenwärtig durch das Rohr fließt, die aktuelle Bandbreite wiedergibt. Allerdings stammt der Begriff Bandbreite ursprünglich aus den Bereichen Physik und Signaltechnik. Dort bezeichnet er eine Spanne innerhalb eines Frequenzbereichs. Diese Spanne, auch Frequenzbereich genannt, wird durch eine obere und untere Grenzfrequenz bestimmt, in dem ein Signal übertragen wird. Grundsätzlich besitzt jeder Übertragungskanal infolge seiner physikalischen Eigenschaften eine untere und eine obere Grenzfrequenz. Je größer die Bandbreite, desto mehr Informationen lassen sich pro Zeiteinheit übertragen. In analogen Systemen wie Telefon oder Radio, wird die Bandbreite in Hertz (Hz) bzw. in Kilohertz (KHz) oder Megahertz (MHz) gemessen. So weist beispielsweise ein analoges Telefon eine untere Grenzfrequenz von 300 Hz und eine obere Grenzfrequenz von 3400 Hz. Daraus ergibt sich die Bandbreite von 3100 Hz, was für eine Übermittlung von Sprachdaten völlig ausreicht. Aber wie viel Bandbreite ist eigentlich erforderlich? Die durchschnittliche Bandbreite eines Internetanschluss in Deutschland liegt derzeit bei etwa 15 Megabit pro Sekunde (Mbit/s). Über moderne VDSL oder Kabelanschluss-Zugänge lässt sich eine Bandbreite von bis zu einigen hundert Megabit pro Sekunde (Mbit/s) erzielen. An einem Glasfaser-Anschluss ist die mögliche Bandbreite noch einmal deutlich höher, auch mehr als 1 Gigabit pro Sekunde (Gbit/s) sind problemlos möglich. Welche Bandbreite für die die Bedürfnisse eines Nutzers sinnvoll ist, hängt grundsätzlich davon ab, wofür die Übertragungskanäle genutzt werden. Beispielsweise erfordern das Streamen von Filmen in HD-Qualität, HD-Videokonferenzen und Multiplayer-Online-Spiele in HD eine höhere Bandbreite als das Webbrowsen, Streamen von Musik oder das abrufen von E-Mails. Je nach Übertragungsmedium und Übertragungstechnologie existieren typische Bandbreiten. Diese sind bei analogen Systemen beispielsweise: analoge Telefonie mit 3.400 Hertz, Integrated Services Digital Network, kurz ISDN, mit circa 130 Kilohertz, 10-Megabit-Ethernet mit circa 30 Megahertz Asymmetric Digital Subscriber Line-Anschlüsse, kurz ADSL mit circa 1,1 Megahertz und in digitalen Systemen Integrated Services Digital Network, kurz ISDN mit 64 kbit/s je Kanal, Ethernet mit 10, 100 oder 1.000 Mbit/s, Die Weiterentwicklungen der Asymmetric Digital Subscriber Line-Anschlüsse, kurz ADSL2+ mit bis zu 25 Mbit/s im Download Kommen wir zur nächsten Frage: Warum wird eigentlich die Bandbreite gemessen und wie? Grundsätzlich ist eine Messung der Bandbreite dann nötig um sicherzustellen, dass kostenpflichtige Verbindungen auch das leisten, was sie versprechen. Das gilt für private Nutzer und Unternehmen gleichermaßen. Private Nutzer können mithilfe eines Online-Bandbreitentest herausfinden, ob der vom Internetdienstanbieter berechnete Anteil der Verbindung, tatsächlich genutzt werden kann. Unternehmen hingegen, können den Durchsatz zwischen Büros messen, die mit einer von der Telefongesellschaft geleasten Leitungsverbindung verbunden werden. Für gewöhnlich erfolgt die Messung der Bandbreite mithilfe von Software oder Firmware und einer Netzwerkschnittstelle. Zu den üblichen Hilfsprogrammen für die Bandbreitenmessung zählen der Test TCP kurz TTCP und der PRTG Netzwerk Monitor. Beim TTCP wird der Durchsatz in einem IP-Netzwerk zwischen zwei Hosts gemessen. Ein Host ist der Empfänger, der andere der Sender. Jede Seite zeigt die Anzahl der übertragenen Bytes und die Zeit an, die jedes Datenpaket für die Übertragung in einer Richtung braucht. Beim PRTG wird eine grafische Oberfläche und Diagramme zur Messung von Bandbreitentrends über längere Zeiträume bereitgestellt, wobei man den Datenverkehr zwischen unterschiedlichen Schnittstellen messen kann. In der Regel wird zur Messung der Bandbreite die gesamte Datenmenge gezählt, die während eines bestimmten Zeitraums gesendet und empfangen wurde. Die resultierenden Messgrößen werden dann als Zahl pro Sekunde ausgedrückt. Eine weitere Methode zur Messung der Bandbreite besteht darin, eine Datei oder mehrere Dateien bekannter Größe zu übertragen und zu messen, wie lange die Übertragung dauert. Das Ergebnis wird in Bit/s konvertiert, indem die Größe der Dateien durch die für die Übertragung erforderliche Zeit geteilt wird. Diese Methode wird in den meisten Tests der Internetgeschwindigkeit verwendet, um die Verbindungsgeschwindigkeit eines Computers mit dem Internet zu ermitteln. Allerdings ist an dieser Stelle erwähnenswert, dass in echten Netzwerken die Bandbreite mit der Zeit je nach Nutzungs- und Netzwerkbedingungen variiert. Infolgedessen sagt eine einzelne Bandbreitenmessung sehr wenig über die tatsächliche Bandbreitennutzung aus. Eine Reihe von Messungen kann nützlicher sein, wenn Durchschnittswerte oder Trends bestimmt werden sollen. Bevor wir nun zum Schluss unseres heutigen Podcast kommen, möchte ich noch ganz kurz auf den Unterschied Bandbreite und Durchsatz eingehen. Durchsatz und Bandbreite sind Begriffe, die die Fähigkeit eines Geräts zum Übertragen von Daten in einem Netzwerk beschreiben. Der Hauptunterschied zwischen Durchsatz und Bandbreite ist, das sich die Bandbreite auf die maximal mögliche Geschwindigkeit bezieht, mit der ein Gerät Daten übertragen kann, wohingegen der Durchsatz sich auf die tatsächliche Geschwindigkeit bezieht, mit der ein Gerät zu einem bestimmten Zeitpunkt Daten überträgt. So liebe IT Profis, das wars auch schon für heute vom IT Manager Podcast, ich hoffe es hat Ihnen gefallen – wenn ja freue ich mich wie immer sehr über ein Like auf Facebook und eine fünf Sterne Bewertung bei iTunes. Nächste Woche Freitag gibt es dann natürlich wieder eine neue Folge des IT Manager Podcasts. Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail. Kontaktdaten finden Sie in unseren Show-Notes oder auf unserer Website.
Liebe IT-Profis, wir betreiben den IT Manager Podcast nun schon bereits seit über 3,5 Jahren. Mit mittlerweile über 130 Episoden haben wir bereits viele IT-Begriffe erklärt und konnten vielen Zuhörern damit eine stetige Weiterbildung ermöglichen. Wir würden gerne wissen, wie soll es in 2020 für Euch weitergehen? Wie oft hört ihr unseren Podcast? Soll es weiterhin einmal wöchentlich ein Episode geben? Welche Themen wünscht ihr Euch für die Zukunft? Macht mit bei unserer Umfrage auf unserer Website unter innovativeIT.de Eine schöne und besinnlich Weihnachtszeit wünsche ich. Wir sind dann ab nächstes Jahr wieder für Euch da. Euer Ingo Lücker
Bei einem Wireless Access-Point, kurz WAP, handelt es sich vereinfacht ausgedrückt um eine Hardwarekomponente, die als Schnittstelle zwischen dem LAN- und dem WLAN-Netzwerk fungiert und mehreren Notebooks und anderen mobilen Endgeräte gleichzeitig den Zugriff auf Netzwerkressourcen und gegebenenfalls das Internet ermöglicht. Wireless Access Points kommen hauptsächlich bei kleineren bis großen Netzwerkinstallationen zum Einsatz. Sie dienen zur Verstärkung des Funksignals und vergrößern somit die Reichweite des WLAN-Signals im gesamten Netzwerk. Das ist insofern von Vorteil, wenn es Bereiche gibt, in denen man ein WLAN-Netzwerk nutzen möchte, die Signalstärke aber nicht ausreicht. Dabei gleicht ihre Arbeitsweise einem Switch oder eine Netzwerk-Bridge. Das bedeutet sie verbinden verschiedene Geräte auf hardwarenahem Niveau miteinander und vermeiden dabei einerseits Datenkollisionen durch Techniken wie CSMA/CA und überbrücken andererseits Unterschiede zwischen verschiedenen Übertragungsmedien. Wireless Access Points sind im OSI-Modell in der Sicherungsschicht sprich in der Schicht 2, dem Data Link Layer, angesiedelt. Sie arbeiten in der Regel nach dem Standard IEEE-802.11 und werden per sogenannter Service Set Identifier, kurz SSID, von den Geräten im Netzwerk identifiziert. Dabei wird die Funkverbindung bzw. die Kommunikation durch die Verschlüsselungsverfahren Wired Equivalent Privacy (WEP), Wi-Fi Protected Access oder Wi-Fi Protected Access 2. Wobei man erwähnen muss, dass die Vorgänger WPA und Wired Equivalent Privacy inzwischen als überholt und angreifbar gelten. Mittlerweile sind Wireless Access Points in vielfältigsten Ausführungen verfügbar. Neben spezialisierter Hardware gibt es auch Softwarelösungen, mit denen sich klassische Rechner zu einem Wireless Access Point umrüsten lassen. Außerdem lassen sich aktuelle Wireless Access Points über ein Set von verschiedenen Betriebsmodi, die unterschiedliche Infrastrukturen abbilden, unterscheiden: Hierunter zählen: Infrastruktur Modus, Ad-Hoc Modus, Client Modus, Ethernet Bridge Modus, Bridge Modus, Repeater Modus. Infrastruktur Modus Der Infrastruktur Modus wird auch Access Point Modus genannt. Er wird wiederum in drei mögliche Betriebsmodi unterteilt: Dazu zählt: das Basic Service Set, kurz BSS. Hier bedient ein einzelner Access Point alle drahtlos angebundenen Clients. Diese bilden dann ein autarkes Intranet. das Extended Service Set, kurz ESS. Hier lassen sich mehrere Access Points per Ethernet verbinden und mit einem identischen Netzwerknamen “Extended Service Set Identifier” versehen. Solche Infrastrukturen decken im Gegensatz zu einzelnen Wireless Access Points größere Fläche per Funk ab. Dabei werden die Clients automatisch zwischen den Access Points übergeben. Diesen Vorgang nennt man auch Roaming. Das Wireless Distribution System kurz WDS. Hier können mehreren Access Points derweil, drahtlos miteinander zu kommunizieren. Hier unterscheidet man zwischen Punkt-zu-Punkt-Verbindungen (Wireless Bridge) sowie Punkt-zu-Multipunkt-Verbindungen (Wireless Repeater). Ad-Hoc Modus Beim Ad-Hoc Modus sind alle beteiligten Geräte, egal ob es sich um die der Nutzer handelt oder ob es Access Points bzw. Router sind, gleichwertig. Von keinem Access Point werden "höherwertige" oder "zentrale" Aufgaben übernommen. Alle Access Points benutzen denselben Netzwerknamen und erhalten, wenn gewünscht, die gleichen Verschlüsselungseinstellungen. Da es keine zentrale Instanz gibt, sind die koordinierenden Funktionen von den jeweiligen Endgeräten zu übernehmen. Der Datentransfer erfolgt in diesem Modus über die Teilnehmer. Client Modus Der Client Modus ist eine Betriebsart, bei dem sich der im Client Modus betriebene Access Point gegenüber dem übergeordneten Access Point als Wireless Adapter verhält. Über einen solchen lassen sich Endgeräte in drahtlose Infrastrukturen einbinden, die lediglich über eine drahtgebundene Netzwerkschnittstelle verfügen. Ethernet Bridge Modus Der Modus Ethernet Bridge dient dazu, eine Verbindung zu drahtgebundenen Netzen herzustellen. Damit können mit einem Access Point verbundene Clients nicht nur untereinander kommunizieren, sondern auch auf eine per Kabel verfügbare Internetanbindung zugreifen. Bridge Modus Der Bridge Modus dient zur Verbindung von räumlich entfernten Netzwerken ohne Gebäudegrenzen. Die genutzten Access Points sind dann mit wetterfesten Außenantennen ausgerüstet, die Richt- und Rundstrahlcharakteristik aufweisen, um die Reichweite zu erhöhen. Zu berücksichtigen ist, dass zwischen den Gebäuden eine direkte Sichtverbindung besteht und die benutzten Access Points vom gleichen Hersteller sein sollten. Repeater Modus Beim Repeater Modus wird der Access Point als Repeater konfiguriert, um die Reichweite zwischen einem eingerichteten Access Point oder Router und dem Netzwerknutzer zu vergrößern. Als Repeater-Modus betrieben dient der Access Point nur der Weiterleitung von Daten. Kommen wir nun zu den Vor-und Nachteilen, die der Einsatz von Wireless Access Points bringt? Wireless Access Points bieten eine ganze Reihe von Vorteilen, die ich zum Teil bereits erwähnt habe: Dazu zählen: Mehr Benutzerzugriff – Ein gewöhnlicher WLAN-Router kann nur eine begrenzte Anzahl an Benutzerzugriffen unterstützen, während der Wireless Access Point in der Lage ist, sogar hunderten von Benutzern Zugriff zu gewähren. Außerdem hat er eine stärkere Fähigkeit, Signale zu senden und zu empfangen. Insbesondere in einem großen Bereich, der eine drahtlose Abdeckung benötigt, hat ein Wireless Access Point mehr Vorteile als ein drahtloser Router. Breitere Reichweite der Übertragung – ein Wireless Access Point kann weitere Entfernungen abdecken. Flexible Vernetzung – Ein Wireless Access Point hat eine Vielzahl von Modi zur Auswahl, die sehr flexibel sind. Die nennenswerten Nachteile von Wireless Access Points sind: Hohe Kosten – Denn je größer der Umfang des drahtlosen Unternehmensnetzwerks ist, desto mehr Wireless Access Points werden benötigt. Schlechte Stabilität –Denn anders als ein kabelgebundenes und geswitchtes Ethernet stellt die Luftschnittstelle ein vergleichsweise langsames, störanfälliges sowie geteiltes Medium dar. Zudem müssen sich die Clients die verfügbare Bandbreite teilen. Bevor wir nun zum Ende unseres heutigen Podcast kommen, möchte ich noch ganz kurz auf das Thema Sicherheit eingehen. Ein Wireless Access-Point stellt ein potenzielles Einfallstor dar. Um das Netzwerk vor dem Zugriff Unbefugter zu schützen, muss man darauf achten, dass der eingesetzte Wireless Access Point die aktuellen Sicherheitstechniken unterstützt. Außerdem lassen sich die Endgeräte mit dem WiFi-Protected Setup, kurz WPS, über das WLAN mit dem Router verbinden, ohne dass der Netzwerkschlüssel benötigt wird. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Die Abkürzung TPM steht für Trusted Platform Module. Es handelt sich hierbei um einen Mikrochip, der Computer oder ähnliche Geräte um grundlegende Sicherheitsfunktionen erweitert, um die Plattformintegrität sicherzustellen. Sobald es auf einem System installiert ist, dient es zur sicheren Hinterlegung von Schlüsseln, Passwörtern und digitalen Zertifikaten, um eine Plattform-Validierung zu ermöglichen, eine zentrale Vertrauensbasis einzurichten und die Voraussetzungen für das Management von Anwender-Legitimationen zu schaffen. Außerdem lässt sich mit dem TPM verifizieren, dass an der Hardware keine Veränderungen vorgenommen wurden und am BIOS keine Manipulationen erfolgt sind. TPM-Chips werden grundsätzlich nach der TCG-Spezifikation entwickelt. Die TCG-Spezifikation basiert auf einem offenen herstellerneutralen Industriestandard, der durch die Trusted Computing Group, einer Non-Profit-Organisation von Firmen, für das Trusted Computing entwickelt, definiert und gefördert wird. Das TPM ist laut TCG-Spezifikation ein passives Modul. Das bedeutet, dass jede Aktion einer TPM-Komponente von außerhalb des TPM über eine entsprechende Schnittstelle angestoßen werden muss. Auf den ersten Blick ist es mit einer Chipkarte vergleichbar. Das heißt es enthält unter anderem logische Einheiten, Speicherbereiche und einen Ein-/Ausgabekanal. Der signifikante Unterschied besteht jedoch darin, dass ein TPM-Chip an eine Plattform bzw. ein System gebunden ist, wogegen eine Chipkarte in aller Regel einen einzigen Besitzer hat. Die Sicherheitsfunktionen, die die TPM-Module bieten, sind umfassend. Dazu zählen: Versiegelung, Auslagerung, Bescheinigung, Schutz für kryptografische Schlüssel und sicherer Zufallsgenerator. Mit der Verschlüsselung, die auch als Sealing bezeichnet wird, können Daten an das Gerät verbunden verschlüsselt werden. Die krypotgrafischen Schlüssel werden direkt im TPM Modul abgelegt. Damit wird die Sicherheitsfunktion 'Schutz für kryptografische Schlüssel' implementiert. Vor einem Hard- oder Softwareangriff sind die Schlüssel so sehr weitreichend geschützt. Durch die als Binding oder Wrapping bezeichnete Auslagerung lassen sich Schlüssel auf externe Speicher exportieren, wodurch die Zahl der Schlüssel bei TPMs nahezu unbegrenzt ist. Mittels Remote Attestation oder Bescheinigung sichert die Technik einer entfernten Partei Fähigkeiten und Zustand des Systems zu. Meist kommen dafür das Privacy CA (Trusted Third Party) Verfahren oder die Direct Anonymous Attestation zum Einsatz. Über das Sicherheitsfeature sicherer Zufallsgenerator garantiert Ihnen das TPM gemäß der TCG-Spezifikation einen zuverlässigen Zufallsgenerator bereitzustellen, der für eine sichere Verschlüsselung unabdingbar ist. Außerdem sind im Trusted Platform Module diverse Zertifikate und Schlüsselpaare enthalten, die zum einen die Korrektheit des Herstellungsprozesses bestätigen sollen und zum anderen das Modul eindeutig identifizieren und zum Verschlüsseln oder digitalen Signieren von Daten dienen. Endorsement Zertifikat — Dieses Zertifikat bestätigt die Echtheit des TPM. Genaugenommen wird sichergestellt, dass das TPM von einem autorisierten Hersteller bereitgestellt wurde. Das TPM wird in dem Zertifikat durch ein 2048 Bit langes Schlüsselpaar, dem sog. Endorsement Key, eindeutig repräsentiert. Dieses Schlüsselpaar wird entweder bei der Herstellung des TPM-Chips vom Hersteller erzeugt oder erst zu einem späteren Zeitpunkt im Chip gebildet. In beiden Fällen verlässt der Endorsement Key das Trusted Platform Module niemals. Der Endorsement Key wird verwendet, um sog. Attestation Identity Keys, kurz AIK zu erzeugen. Der Attestation Identity Key schützt das Gerät gegen unautorisierte Firmware und modifizierte Software. Dafür wird ein Hash kritischer Sektionen der Firmware oder der Software erstellt, bevor sie ausgeführt wird. Will sich das System mit einem Netzwerk verbinden, werden diese Hash-Werte zu einem Server geschickt, der sie mit gespeicherten, legitimen Daten abgleicht. Wurden Teile seit dem letzten Start modifiziert, schlägt die Überprüfung fehl und das jeweilige System erhält keinen Zugriff aufs Netzwerk. Platform Zertifikat — Das Plattform-Zertifikat wird vom Hersteller der Plattform — also etwa eines PCs, Laptops oder Mobiltelefons — ausgestellt. Es bestätigt, dass alle Plattform-Komponenten der TCG-Spezifikation genügen und dass die Plattform ein gültiges Trusted Platform Module enthält. Es wird also bescheinigt, dass das aktuelle System eine vertrauenswürdige Plattform darstellt. Conformance Zertifikat — Dieses Zertifikat bestätigt, dass das TPM-Design in der Plattform der TCG-Spezifikation genügt und das TPM korrekt implementiert ist. Validation Zertifikat — Dieses Zertifikat stellt für Komponenten oder Komponentengruppen wie beispielsweise Grafikkarten oder Eingabegeräte die Übereinstimmung und Korrektheit der Implementierung gegenüber der TCG-Spezifikation sicher. Die genannten Zertifikate dienen dem Nachweis der Vertrauenswürdigkeit des Computersystems im Auslieferungs- bzw. Herstellungszustand. Alle entsprechenden Schlüssel befinden sich an ausgezeichneten Speicherplätzen innerhalb des TPMs. Neben diesen Zertifikaten und Schlüsseln enthält jedes Trusted Platform Module einen eindeutigen Storage Root Key, kurz SRK. Der SRK dient zur Ableitung weiterer Schlüssel, so dass eine Schlüssel-Baumstruktur entsteht. Die Blätter dieses Baumes werden zur Verschlüsselung von Daten herangezogen. Der SRK wird erzeugt, sobald die Plattform durch ihren Eigentümer in Besitz genommen wird. Als weitere fundamentale Basiskomponenten des Trusted Platform Module sind die Roots of Trust zu nennen. Die Roots of Trust for Measuring Integrity Metrics (RTM) sind für das Messen und Aufzeichnen von bestimmten sicherheitsrelevanten Zuständen und das Protokollieren der Zustände im Trusted Platform Module verantwortlich. Durch die Roots of Trust wird sichergestellt, dass sich das Computersystem in einem vertrauenswürdigen Nachfolgezustand befindet, wenn eine das System verändernde Aktion ausgeführt wurde. In einem PC heißt die RTM auch CRTM. Bevor wir nun zum Ende unseres heutigen Podcast kommen, möchte ich kurz die wichtigsten Punkte noch einmal zusammenfassen. Mit einem Trusted Platform Modul können Sie ihre Geräte wie Mainboards von PCs, Notebooks und Mobiltelefone um grundlegende Sicherheitsfunktionen erweitern. Zusammen mit einem angepassten Betriebssystem und einer geeigneten Software erstellen Sie mit einem Trusted Platform Modul eine Trusted Computing Plattform. Diese ermöglicht eine weitreichende und umfangreich konfigurierbare Zugriffs- und Verwendungskontrolle, die typischerweise in Bereichen wie dem Lizenzschutz und dem Datenschutz genutzt wird. TPM-Chips stellen Ihnen verschiedene Sicherheitsfunktionen bereit um die Plattformintegrität zu gewährleisten. Kurzum: Auf ein TPM kann immer dann zurückgegriffen werden, wenn es gilt, sichere kryptografische Operationen durchzuführen und/oder ein sicheres Speichermedium bereitzustellen. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Bevor ich Ihnen diese Frage beantworte, möchte ich ganz kurz auf zwei Begriffe eingehen, die häufig in Zusammenhang mit Hotspots genannt werden: WLAN und WiFi Die Abkürzung WLAN steht für Wireless Local Area Network und bedeutet zu Deutsch: Drahtloses lokales Netzwerk. Die Verbindung zum Internet erfolgt also drahtlos über einen sogenannten WLAN-Router. Der wesentliche Unterschied zu einem normalen LAN ist, dass das Endgerät beispielsweise ein Notebook nicht mit einem Kabel, sondern über ein Funksignal mit dem Internet verbunden ist. WLANs zeichnen sich durch ihre große Sendeleistung, Reichweite sowie ihrer hohen Datenübertragungsrate aus. WiFi hingegen steht für Wireless Fidelity und ist ein Kunstwort, das für den 802.11 Funk-Standard und dazu kompatible Geräte steht. Der Begriff WiFi wurde von einer Organisation namens Wi-Fi Alliance entwickelt, die Tests überwacht, die den nahtlosen Austausch zwischen Produkten zertifizieren. Ein Produkt, das die Tests besteht, erhält das Label "Wi-Fi certified" nach dem IEEE-802.11-Standard. Kehren wir nun zurück zu unserer Ausgangsfrage: Was ist eigentlich ein Hotspot? Ein Hotspot ist ein öffentlicher oder privater WLAN-Zugriffspunkt außerhalb des eigenen WLAN- Netzes. Öffentliche Hotspots, findet man mittlerweile an vielen öffentlichen Anlaufstellen wie Universitäten, Bibliotheken, Krankenhäusern, Flughäfen oder aber in Hotels, der Gastronomie und in Einkaufszentren. Während private WLAN-Zugänge nur von der Familie und vielleicht noch Gästen genutzt werden, sind Hotspots von vornherein auf eine öffentliche Nutzung angelegt. Man unterscheidet grundsätzlich zwischen gesicherten Netzwerken, auf die man ohne entsprechende Zugangsdaten keinen Zugriff hat, und ungesicherten Netzwerken, die für alle frei zugänglich sind. Beides hat seine Vor- und Nachteile. Ein gesichertes Netzwerk erfordert eine Authentifizierung mittels spezieller Zugangsdaten. Bei kostenpflichtigen Diensten ist eine Registrierung erforderlich, die ein wenig Zeit in Anspruch nimmt. Bei kostenfreiem WLAN, beispielsweise in Cafés oder Hotels, erhält man die Zugangsdaten meist auf Nachfrage. Hier genügt die Auswahl des entsprechenden Netzwerkes und die Eingabe der Zugangsdaten. Bei einem ungesicherten, unverschlüsselten Netzwerk erspart man sich dagegen die Zeit für Registrierung und Einrichtung und kann sofort lossurfen. Dafür ist man hier unerwünschten Spähangriffen leichter ausgeliefert. Wie funktioniert ein Hotspot-System? Grundsätzlich werden öffentliche Hotspots mit speziellen “Free WiFi” oder “Hotspot” Schildern oder Aufkleber gekennzeichnet. Sobald sich ein Nutzer in der Nähe eines öffentlichen WLAN-Hotspots befindet, muss er nur das WLAN seines Endgeräts aktivieren und nach “Verfügbare Netzwerke” suchen. Wird das WLAN des Anbieters angezeigt, kann er sich mit dem Netzwerk verbinden. Falls sich der Nutzer noch nicht authentifiziert hat, wird sein Web-Browser automatisch zunächst auf eine Anmeldeseite, ein sogenanntes Captive Portal, geleitet. Dort muss sich der Nutzer mittels Eingabe eines gültigen Prepaid- Codes oder Passwortes authentifizieren. Der eingegebene Prepaid- Code oder das Passwort wird anhand einer Datenbank, die im Internet oder lokal auf einem Hotspot-Router liegt, überprüft. Wenn der Code bzw. das Passwort mit den Informationen auf der Datenbank übereinstimmt wird der Benutzer freigeschaltet. Gleichzeitig wird ein Timer aktiviert der sicherstellt, dass der Zugang nach Ablauf der gebuchten Zeit endet und gesperrt wird. Allerdings ist es möglich, die Internet-Sitzung zwischenzeitlich zu unterbrechen. Meldet sich ein Nutzer ab, kann er sein nicht verbrauchtes Zeitguthaben später weiter nutzen. Einige Systeme bieten zudem die automatische Speicherung des Guthabens, falls der Benutzer vergisst, sich abzumelden. In der Regel sind auf Hotspots eine Benutzerisolierung konfiguriert. Das bedeutet, dass die Daten, die an einen anderen Benutzer des gleichen Hotspots gerichtet sind, nicht weitergeleitet werden und damit der gegenseitige Zugriff auf Netzwerkdienste von Geräten anderer Benutzer unterbunden wird. Allerdings bietet die Benutzerisolierung keinen Schutz gegen das Abhören eigener Daten, da diese von Cyberkriminellen mit sogenannten Sniffer-Programmen auch direkt empfangen werden können. Und da es bei der Nutzung öffentlicher Netzwerke keine absolute Sicherheit gibt, gilt jedoch die Grundregel bestenfalls überhaupt keine vertraulichen Daten über ein fremdes WLAN-Netz abzurufen. Will der Nutzer dennoch surfen, dann sollte er folgende Maßnahmen treffen: Nutzung eines Virtual Private Network (VPN): Durch die Nutzung eines VPN greift der Nutzer über einen verschlüsselten „Tunnel“ auf das Internet zu und verhindert so ein Abfangen von Daten durch einen Dritten. Deaktivierung der automatischen Anmeldung an bekannten WLAN-Hotspots: Durch die Deaktivierung der automatischen Anmeldung an bekannten Hotspots soll verhindert werden, dass Cyberkriminelle durch Benennung ihrer Hotspots nach gängigen Namen wie „Telekom“ oder „Free Wifi“ ein automatisches Einwählen von Nutzern erreichen, um dann deren Zugangsdaten abzugreifen oder den Datenverkehr mitzulesen. Grundsätzliche Deaktivierung der WLAN-Schnittstelle des Endgeräts – Aktivierung nur im Bedarfsfall: Deaktivierung der WLAN-Schnittstelle ist aus zwei verschiedenen Gründen eine wichtige Sicherheitsmaßnahme. Zum einen bietet ein ausgeschaltetes WLAN keine Angriffsfläche und zum anderen kann so das sog. WLAN-Tracking verhindert werden. Deaktivierung von Datei- und Verzeichnisfreigaben: Durch die Deaktivierung von Datei- und Verzeichnisfreigaben wird verhindert, dass das Gerät des Nutzers für andere sichtbar ist. Werden die genannten Maßnahmen zur Sicherung des eigenen Datenverkehrs getroffen, so bewegt man sich bereits deutlich sicherer durch öffentliche Netzstrukturen. Trotzdem sollte man sich im Einzelfall immer zweimal überlegen, ob man mit dem Abrufen und dem Transfer vertraulicher Daten nicht „warten“ kann, bis man sich in einer geschützten Netzwerkumgebung befindet. Bevor wir zum Schluss unseres heutigen Podcast kommen, möchte ich der Vollständigkeit halber noch kurz auf mobile Hotspots eingehen. Grundsätzlich hat es Vorteile, einen mobilen Hotspot einzurichten anstatt einen lokalen Hotspot zu nutzen. Denn lokale Hotspots, wie etwa in einem Café, sind häufig überlastet und haben zudem nur eine bestimmte Reichweite. Mit einem mobilen Hotspot ist man unabhängig von diesen Faktoren. Außerdem bietet ein mobiler Hotspot Sicherheit, da die Daten nicht über das Netzwerk eines öffentlichen lokalen Hotspots fließen, bei dem andere WLAN-Nutzer diese möglicherweise einsehen könnten. Es gibt mehrere Möglichkeiten, um einen mobilen Hotspot einzurichten. Mittels Smartphones: Als mobiler Hotspot baut das Smartphone eine Verbindung mit dem Internet auf und stellt diese anderen Geräten zur Verfügung. Dabei verbindet sich das Smartphone über das Mobilfunknetz mit einem oder mehreren internetfähigen Geräten, etwa Notebooks, PCs, Tablets und anderen Smartphones. Dieser Vorgang nennt sich Tethering. Mittels Mobile WLAN Router/MiFi Router: Hier handelt es sich um kleine Geräte, die sich mit dem mobilen Netz über 2G, 3G oder 4G verbinden und ein WLAN Netzwerk erstellen. Solche MiFi Router sind sehr praktisch, da sie es einem fast überall erlauben, schnell und unkompliziert ins Internet einzusteigen. Alles was man für mobiles Internet unterwegs braucht ist also eine SIM-Karte und einen MiFi Router (mobiler Wlan Router). Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Die Abkürzung FTP steht für File-Transfer-Protocol und ist die englische Bezeichnung für „Dateiübertragungsprotokoll”. Bei diesem Protokoll handelt es sich genauer gesagt um ein Netzwerkprotokoll, welches den Transfer von Daten zwischen einem Server und Client in einem IP-Netzwerk ermöglicht. Die ursprüngliche Spezifikation des File-Transfer-Protocol wurde am 16. April 1971 als RFC 114 veröffentlicht. RFC steht für Request for Comments und bezeichnet ein formelles Dokument der Internet Engineering Task Force. Im Oktober 1985 wurde mit RFC 959 die heute noch gültige Spezifikation des File Transfer Protocol eingeführt. Somit gilt das File-Transfer-Protocol als eines der ältesten Protokolle, die es im Zusammenhang mit dem Internet gibt. Das File-Transfer-Protocol dient primär dem Austausch von Dateien zwischen einem Client und einem Server oder der Übertragung zwischen zwei Servern. Hierbei sind mehrere Konstellationen denkbar: vom Server zum Client Client zum Server und von einem Server zu einem anderen Server. Hier spricht man in der Regel von einem Dateiaustausch mittels des File Exchange Protocols. Sobald eine FTP-Verbindung hergestellt worden ist, können FTP-User nicht nur Dateien hoch- und herunterladen, sondern auch neue Verzeichnisse anlegen, verändern, auslesen oder löschen. Außerdem können sie Dateien umbenennen, verschieben und löschen. Zudem ermöglicht das File Transfer Protocol die Berechtigungsverwaltung für Dateien. Sprich, man kann festlegen, ob gespeicherte Dateien nur vom Besitzer, von einer bestimmten Gruppe oder von der Öffentlichkeit gelesen, geändert oder ausgeführt werden dürfen. Aber lassen Sie mich die Dateiübertragung mittels des File Transfer Protokolls noch etwas näher erklären. Um einen FTP-Server zu erreichen, ist zunächst einmal der Verbindungsaufbau durch eine Benutzerauthentifizierung und einen FTP-Client notwendig. Beim FTP-Client handelt es sich um eine Software, die in den meisten Betriebssystemen standardmäßig integriert ist und welches das FTP-Protokoll zur Übertragung von Dateien nutzt. Ein FTP-Verbindungsaufbau sieht vor, dass das FTP zwei separate Verbindungen zwischen Client und Server herstellt. Eine Verbindung ist der Steuerkanal über den TCP-Port 21. Dieser Kanal dient ausschließlich zur Übertragung von FTP-Befehlen, auch Kommandos genannt und deren Antworten. Die zweite Verbindung ist der Datenkanal über den TCP-Port 20. Dieser Kanal dient ausschließlich zur Übertragung von Daten. Im ersten Schritt wird also der Steuerkanal vom FTP-Client zum FTP-Server aufgebaut. Steht der Steuerkanal werden sowohl Befehle des Clients zum Server gesendet als auch die Antworten des Servers zum Client übertragen. Im zweiten Schritt wird Datenverbindung vom FTP-Server zum FTP-Client initiiert, um die Daten auszutauschen, wie es in den Kommandos festgelegt wurde. Sobald die Dateiübertragungen abgeschlossen sind, werden die Verbindungen vom Benutzer oder vom Server (Timeout) beendet. Grundsätzlich gibt es zwei unterschiedliche Herangehensweisen, einen Datei-Transfer zwischen Client und Server zu initialisieren: den aktiven und den passiven Verbindungs-Modus. Beiden gemein ist, dass zuerst eine Steuerverbindung aufgebaut wird, über die FTP-Kommandos gesendet werden, und anschließend zum Datentransfer eine Datenverbindung aufgebaut wird. Der Unterschied liegt darin, wer diese Verbindungen aufbaut - Client oder Server. Im Detail läuft das folgendermaßen ab: Beim aktiven Verbindungsmodus reserviert der Client 2 TCP-Ports. Über den ersten Port baut er die Steuerverbindung zu Port 21 des Servers auf und teilt dem Server die 2. Port-Nummer mit, auf welchem der Client die Daten erwartet. Beim passiven Verbindungsmodus reserviert der Client 2 TCP-Ports zur eigenen Verwendung und baut über den ersten Port die Steuerverbindung zu Port 21 des Servers auf. Da eine passive Verbindung gewünscht ist, sendet der Client aus dem angesprochenen FTP-Befehlssatz das Kommando PASV. Damit weiß der Server: Eine passive Verbindung ist erwünscht, woraufhin er für sich einen TCP-Port für den Datentransfer reserviert und diesen Port dem Client mitteilt. Neben dem aktiven und dem passive Verbindungs-Modus kennt das FTP zwei verschiedene Übertragungsmodi: Den ASCII-Modus und den Binary-Modus, wobei sich die beiden Modi in der Art der Codierung unterscheiden. Der ASCII-Modus wird zur Übertragung von reinen Text-Dateien verwendet. Hier muss die Zeilenstruktur des Textes umcodiert werden. Bei diesem Vorgang wird der Zeichensatz dieser Datei an das Zielsystem angepasst. Der Binary-Modus hingegen überträgt die Dateien byteweise ohne die Daten zu ändern. Dieser Modus wird am häufigsten genutzt. Vorzugsweise natürlich bei Binär-Dateien. Außerdem bieten viele FTP-Server, vor allem Server von Universitäten ein sogenanntes Anonymous FTP an. Hier ist zum Einloggen neben den realen Benutzerkonten ein spezielles Benutzerkonto, typischerweise „anonymous“ und/oder „ftp“, vorgesehen, für das kein (oder ein beliebiges) Passwort angegeben werden muss. Früher gehörte es zum „guten Ton“, bei anonymem FTP seine eigene, gültige E-Mail-Adresse als Passwort anzugeben. Die meisten Webbrowser tun dies heute nicht mehr, da es aus Spamschutz-Gründen nicht zu empfehlen ist. Bevor wir nun zum Ende unseres heutigen Podcast kommen, möchte Ihnen kurz die Begriffe FTPS und SFTP erläutern und vor allem warum sie zum Einsatz kommen. Zunächst einmal müssen Sie wissen, obwohl ein -User zum FTP-Verbindungsaufbau stets ein Kennwort und Passwort eingeben muss, erfolgt die Übertragung von Dateien zwischen Client und Server immer unverschlüsselt. Das bedeutet, dass mit etwas Know-How und den richtigen Tools die gesamte Kommunikation einfach abgehört und auch verändert werden kann. Daher kann bei einer FTP-Verbindung kein Datenschutz oder und ein Schutz der Datenintegrität gewährleistet werden. Um die Sicherheitsprobleme des FTPs zu umgehen hat man nun zwei Möglichkeiten: den Einsatz von SFTP oder FTPS. FTPS erweitert das FTP-Protokoll um eine SSL-Verschlüsselung. Da FTPS aber auch unsichere Verbindungen auf FTP-Basis ermöglicht, ist es nicht unbedingt das sicherste Protokoll. Im Gegensatz dazu basiert SFTP auf einem neueren Protokoll: SSH (Secure Shell). Dabei werden sämtliche Verbindungen verschlüsselt über einen zuverlässigen Kanal übermittelt. Eine unverschlüsselte Verbindung ist mit SSH somit ausgeschlossen. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Jeder kennt sie, niemand mag sie: CAPTCHAs. Vermutlich haben Sie auch des Öfteren Straßenschilder abgetippt, verzerrte und oftmals undefinierbare Ziffern wiedergegeben oder auch nur Tierbilder ausgewählt, um zu bezeugen, dass sie kein Roboter, sondern ein echter Webseitenbesucher mit Herz & Seele sind, richtig? Der Begriff “CAPTCHA” steht für “Completely Automated Public Turing test to tell Computers and Humans Apart”. Frei übersetzt handelt es sich dabei also um einen „Test zur Unterscheidung zwischen Menschen und Computer“. CAPTCHAs dienen der IT-Sicherheit und werden oft als Sicherheitsmechanismus eingesetzt, um interaktive Webseiten vor Missbrauch zu schützen und automatische Eingaben oder Abfragen von Spam- und Click-Robotern (Bots) abzuwehren. Man findet sie heutzutage nahezu in allen Bereichen, in denen es menschliche Nutzer von Bots zu unterscheiden gilt. Das betrifft beispielsweise Anmeldeformulare für E-Mail-Services, Newsletter, Communities und soziale-Netzwerke, aber auch Online-Umfragen oder Web-Services wie Suchmaschinendienste. In der Regel handelt es sich bei CAPTCHAs meist um Challenge-Response-Tests, bei denen der Webseitenbesucher eine Aufgabe, die sogenannte Challenge, lösen und das entsprechende Ergebnis (Response) zurückschicken muss. Diese Art von Sicherheitsabfragen können menschliche Nutzer ohne weiteres bewältigen, während sie automatisierte Bots vor ein nahezu unlösbares Problem stellen. Welche Arten von CAPTCHAs gibt es heutzutage? Grundsätzlich lassen sich CAPTCHAS in text- und bildbasierte CAPTCHAs, Logik- und Frage-CAPTCHAs, Audio CAPTCHAs und Gamification CAPTCHAs unterteilen. Textbasierte CAPTCHAs: Sie ist die älteste Form der Human Verifikation. Textbasierte CAPTCHAs zeigen verzerrte Wörter, Buchstaben oder Zahlen mit zusätzlichen grafischen Elementen wie Linien, Bögen, Punkten oder Farbverläufen. Der Webseitenbesucher muss diese entziffern und ins Eingabefeld eintragen. Klassische Verfahren, die bei der Erstellung textbasierter CAPTCHAs zum Einsatz kommen, sind Gimpy, ez-Gimpy, Gimpy-r und Simard’s HIP. reCAPTCHA: Eine prominente Variante des klassischen Text-CAPTCHAs bietet Google mit reCAPTCHA an. Statt zufällige Lösungswörter zu generieren, bekommen Nutzer beispielsweise Straßennamen, Hausnummern, Verkehrs- und Ortsschilder sowie Fragmente eingescannter Textabschnitte angezeigt, die sie entziffern und über die Tastatur in ein Textfeld eingeben müssen. Bildbasierte CAPTCHAs zeigen mehrere Bilder an und fordern den User etwa dazu auf, sämtliche Bilder mit einer Ampel zu markieren. Die Anwendung fällt leichter und die Schutzwirkung gilt als relativ hoch. ● Audio-CAPTCHAs ermöglichen auch sehbehinderten Menschen einen Zugang zu catch-geschützten Bereichen einer Webanwendung. In der Regel werden text- oder bildbasierte Prüfverfahren mit sogenannten Audio-CAPTCHAs kombiniert. Oft wird dazu eine Schaltfläche implementiert, mit der Nutzer bei Bedarf ersatzweise eine Audio-Aufnahme abrufen – zum Beispiel eine kurze Zahlenfolge, die in ein dafür vorgesehenes Eingabefeld eingetippt wird. Logik-CAPTCHAs zeigen beispielsweise leichte Mathematik-Aufgaben, wie „Was ist die Summe aus 3+6?“. Die Aufgabe können aber auch Bots leicht lösen. Schwieriger ist eine Aufgabe wie „Berechne 3+6 und trage die ersten zwei Buchstaben der errechneten Ziffer ins Feld ein“. Hier wäre „ne“ der richtige CAPTCHA-Code. Gamification CAPTCHAs, sind mehr oder weniger unterhaltsame Minispiele, bei denen der Anwender beispielsweise Puzzleteile mit der Maus an die richtige Stelle rücken muss. Bevor wir zum Ende unseres heutigen Podcasts kommen, möchte ich noch ganz kurz auf die Frage eingehen: Gibt es alternative Lösungen zu CAPTCHAs? Obwohl CAPTCHAs zu den weitverbreitetsten Sicherheitsabfragen zur Erkennung von maschinellen Zugriffen zählen, gibt es auch alternative Sicherheitsmechanismen. Zu bekannten Alternativen gehören unter anderem: Black-Lists: Sobald Webseitenbetreiber vermehrt Spambeiträgen oder massenhafte, automatische Abfragen aus einer bestimmten Quelle verzeichnen, können sie die Black List, eine sogenannte Sperrliste nutzen, um alle Server oder IP-Adressen aufzuführen, die bei zukünftigen Abfragen blockiert werden sollen. Honeypots: Ein Honeypot ist ein für den Nutzer nicht sichtbares Formularfeld. Es stellt eine Falle für die Bots dar. Diese füllen in der Regel alle Formularfelder aus. Sie können nicht erkennen, dass das Honeypot-Feld für den Nutzer nicht sichtbar ist. Folglich wird es von Bots mit ausgefüllt. Der Nutzer hingegen sieht das Feld ja nicht und lässt es leer. Somit kann der übertragene Inhalt von der Webseite leicht als Spam erkannt werden. Content-Filter: Content-Filter bieten eine Möglichkeit, Kommentarspam auf Blogs, in Onlineshops oder Foren entgegenzuwirken. Auch diese arbeiten mit Black-Lists. Dabei definieren Webseitenbetreiber sogenannte „Hot Words“, Keywords die in erster Linie im Rahmen von Spam-Kommentaren vorkommen, um verdächtige Eingaben automatisch als computergeneriert zu identifizieren. Kommen Content-Filter zum Einsatz, steigt jedoch die Gefahr, dass auch Beiträge menschlicher Nutzer blockiert werden, sofern diese Keywords der Black-List enthalten. Serverseitige Filterung: Auf den meisten Webservern kommt eine Filter-Software zum Einsatz, die es ermöglicht, auffällige Interaktionen mit bestimmten Bereichen einer Website zu erkennen und so den Schaden durch Spam-Bots zu begrenzen. Zusammenfassend lässt sich sagen, CAPTCHAs können effektiv vor automatisierten und maschinell verbreiteten Spam-Nachrichten schützen. Obwohl die CAPTCHA-Technologie mit Einbußen in der Benutzerfreundlichkeit einhergeht und insbesondere Menschen mit Behinderungen oder Einschränkungen eine zusätzliche Barriere darstellt, ist sie für den Schutz einer Website oder eines Dienstes unverzichtbar. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Heute dreht sich alles um das Thema: „Was ist eigentlich ein Bitlocker?” Bei BitLocker handelt es sich um eine Sicherheitsfunktion von Microsoft, die in bestimmten Versionen des Windows-Betriebssystems integriert ist und eine Verschlüsselung der Systemlaufwerke, Festplatten oder Wechseldatenträger ermöglicht. Dadurch bleiben die Daten bei Diebstahl oder beim physischen Entfernen einer Festplatte aus einem Rechner geschützt. Die BitLocker-Laufwerkverschlüsselung sorgt in erster Linie dafür, dass Nutzer Daten nur dann lesen oder schreiben können, wenn sie über das erforderliche Kennwort bzw. die entsprechenden Smartcard-Anmeldeinformationen verfügen oder aber ein Datenlaufwerk auf einem Computer verwenden, der mit Bitlocker geschützt wird und über die entsprechenden Schlüssel verfügt. Darüber hinaus können Nutzer mit der BitLocker-Verschlüsselung ihr System so konfigurieren, dass dieses nur dann gestartet werden kann, wenn die richtige PIN eingegeben oder eine Schlüsseldatei auf einem Wechseldatenträger bereitgestellt wird. Wie funktioniert die BitLocker-Verschlüsselung nun genau? Zunächst einmal müssen Sie wissen, die BitLocker-Verschlüsselung durch den Advanced Encryption Standard, kurz AES, erfolgt. Die Schlüssellänge beträgt dabei 128 oder 256 Bit. Außerdem setzt BitLocker für den Idealfall voraus, dass in dem System, dessen Laufwerke verschlüsselt werden sollen, eine Trusted Platform Module -Lösung integriert ist. Hierbei handelt es sich um einen Chip, der grundlegende Sicherheitsfunktionen zur Verfügung stellt. Zwar ist ein solcher TPM-Chip für die Aktivierung von BitLocker optimal, aber nicht zwingend erforderlich. Kehren wir nun zur Frage zurück, Wie funktioniert die BitLocker-Verschlüsselung nun genau? Um ein Systemlaufwerk verschlüsseln zu können, benötigt BitLocker grundsätzlich eine eigene Partition auf der Systemfestplatte. Auf dieser befinden sich dann alle notwendigen Daten, um den Rechner zu starten und die verschlüsselten Daten der Betriebssystem-Partition zu laden. Wird die Verschlüsselung aktiviert, erstellt Windows bei Bedarf diese Partition automatisch. Diese Systempartition greift dann vor jedem Starten des Betriebssystems auf den TPM-Chip zu, um sicherzustellen, dass die Hardware im Offlinezustand weder verändert noch manipuliert wurde. Sobald die Integrität des Systems durch das TPM-Chip sichergestellt wurde, entschlüsselt BitLocker die Systemfestplatte und das Betriebssystem kann endlich starten. Grundsätzlich lässt BitLocker lässt sich abhängig von der Ausstattung des Computers in fünf verschiedenen Varianten betreiben. Computer ohne Trusted Platform Module- Wenn im Computer kein TPM-Chip integriert ist, speichert BitLocker die Daten auf einem USB-Stick. Dieser muss mit dem Computer verbunden sein, damit BitLocker booten kann. Computer mit Trusted Platform Module- Hier entschlüsselt BitLocker die Daten mit der im TPM gespeicherten Prüfsumme. Trusted Platform Module und PIN - Bei dieser Variante müssen Anwender zusätzlich bei jedem Neustart des Computers eine PIN eingeben. TPM und Startschlüssel - Statt der PIN verwendet der Computer einen Startschlüssel, der von einem USB-Stick bezogen wird. Recovery-Schlüssel - Diese Funktion wird benötigt, wenn sich die Hardware des Computers ändert oder Anwender ihre PIN nicht mehr kennen. Welche Windows-Versionen unterstützen die BitLocker-Verschlüsselung? Die Bitlocker-Verschlüsselung wird grundsätzlich nur von bestimmte Windows-Versionen unterstützt. Dazu zählen: die Ultimate- und Enterprise-Versionen von Windows Vista die Ultimate- und Enterprise-Versionen von Windows 7 die Pro- und Enterprise-Versionen von Windows 8 und Windows 8.1 die Pro- und Enterprise-Versionen von Windows 10 die Windows-Server-Versionen ab Windows Server 2008 In Windows 10 Home ist die Unterstützung der Verschlüsselung zwar grundsätzlich vorhanden aber nicht nutzbar. Bevor wir nun zum Ende unsere heutigen Podcasts kommen, möchte ich noch ganz kurz auf die Vor-und Nachteile der BitLocker-Verschlüsselung eingehen. Die BitLocker-Verschlüsselung bietet zahlreiche Vorteile. Dazu zählen: die Sicherheitsfunktion ist vollständig in das Windows-Betriebssystem integriert und einfach zu bedienen. die Bitlocker-Verschlüsselung verhindert, dass Festplatten aus einem Rechner entfernt und auf einem anderen Rechner eingelesen werden. Somit sind beim Diebstahl eines Rechners die Daten geschützt und für Unbefugte ohne Kenntnis des Schlüssels, der PIN oder dem Besitz der Schlüsseldatei nicht lesbar. die Vertrauliche Daten werden durch den Advanced Encryption Standard 128/256 gesichert der Login ist nur per Trusted Platform Module oder per Master – Key vom System möglich Neben bereits genannten Vorteilen birgt die BitLocker-Verschlüsselung auch Nachteile, wie die verzögerte Startzeit beim Booten die geringfügige erhöhte Auslastung des Systems und der Zugriffssperre, bei Verlust oder beim Vergessen des Login-Keys Zusammenfassend lässt sich sagen, dass man mit BitLocker sowohl eine effektive Datensicherung als auch Datenschutz gewährleisten kann. Auch wenn es einige Nachteile gibt, sollten Sie nicht vor einer BitLocker-Verschlüsselung abschrecken lassen. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Heute dreht sich alles um das Thema: „Was ist eigentlich ein Ryuk?” Bei Ryuk handelt es sich um einen neuen hochriskanten Verschlüsselungstrojaner, der gezielt große Unternehmen und staatliche Behörden angreift, um immens hohe Lösegelder für die Entschlüsselung verschlüsselter Datenbestände zu fordern. Der Verschlüsselungstrojaner Ryuk trat erstmals im August 2018 in Erscheinung und erwirtschaftete seitdem mindestens 705 Bitcoins Lösegeld – umgerechnet entspricht das derzeit 2,25 Millionen Euro. Aufgrund seiner Ähnlichkeit mit der Ransomware Hermes, gehen Sicherheitsexperten davon aus, dass beide Viren von der gleichen Hackergruppe entwickelt wurden und der Ursprung von Ryuk vermutlich in Russland liegt. Ryuk tritt häufig in Kombination mit anderen Schadprogrammen wie Emotet und TrickBot auf. Er wird als besonders gefährlich eingestuft, da er neben der Verschlüsselung geschäftskritischer Daten, sämtliche Sicherungskopien die er in einem System und/ oder Netzwerk findet löscht und dadurch die Datenwiederherstellung erschwert. Bevor es allerdings zu einer Infektion mit Ryuk kommt, öffnet der Trojaner Emotet seinen Mitstreitern die Tür zum Computersystem. Dabei installiert er sich in den meisten Fällen beim Öffnen eines infizierten E-Mail-Anhangs selbst und beginnt anschließend, das gesamte Computernetzwerk auszuspähen. Im nächsten Schritt lädt er den Banking-Trojaner TrickBot nach. Dieser sammelt Informationen und sorgt für Datenabfluss. Dabei greift er vor allem Kontozugangsdaten für Bankkonten ab und gewährt den Hintermännern somit Einblick in die finanzielle Situation eines Unternehmens. Zu guter Letzt hat dann die Ryuk-Ransomware ihren großen Auftritt. Wenn die Angreifer das Unternehmen als angemessen lukrativ für eine Lösegeldforderung einschätzen, lädt TrickBot schließlich die Verschlüsselungssoftware Ryuk herunter. Diese verschlüsselt vor allem geschäftskritische Datenbestände, welche bei der Auskundschaftung des Unternehmens als besonders wichtig eingestuft worden sind. Dabei nutzt sie die starken Verschlüsselungsalgorithmen RSA-4096 und AES-256. Darüber hinaus löscht sie im gleichen Zuge sämtliche Sicherungskopien, die sie finden kann. Eine weitere Besonderheit von der Ryuk-Ransomware ist, dass sie im Gegensatz zu ihren Artgenossen, die verschlüsselten Daten nicht umbenennt, sondern eine Textdatei namens ("RyukReadMe.txt") erzeugt. Dessen Kopie fügt sie jedem vorhandenen Ordner bei, sodass die Betroffenen mehrere einzigartige Schlüssel benötigen, sprich mehr Lösegeld zahlen müssen, um die Daten zu entschlüsseln. Im finalen Schritt fordert sie mittels einer Nachricht auf dem “Sperrbildschirm” die Betroffenen auf, das Lösegeld für die Entschlüsselung der Daten zu überweisen. Um hierbei die Spuren zu verwischen, werden die Zahlungen auf mehrere Bitcoin-Wallet aufgeteilt. Wie kann man sich nun vor solchen gefährlichen Ryuk-Angriffen schützen? Der beste Schutz gegen Ryuk-Angriffe ist, das man gar nicht erst mit infizierten Dokumenten und Dateien in Kontakt kommt und für ein rundum abgesichertes Unternehmensnetzwerk sorgt. Damit ein Unternehmensnetzwerk wirklich sicher ist, müssen Sie alle Komponenten innerhalb des Netzwerks sichern, aufeinander abstimmen und auf dem neuesten Stand halten. All dies erreichen sie unter anderem durch: ● Updates und Patches, die möglichst zeitnah nach Veröffentlichung installiert werden. Damit kann man bekannte Sicherheitslücken, Schwachstellen und mögliche Einfallstore in Betriebssystemen oder Anwendungen schließen. ● einer aktuellen Antiviren-Software, die viele Schädlinge erkennt, blockiert und beseitigt, so dass es gar nicht erst zu deren Ausführung kommt. ● einer richtig konfigurierten Firewall, die die Kommunikation zwischen Netzwerk und Internet überwacht. Sobald sie einen verdächtigen Datenfluss registriert, wird diese gemeldet und die Kommunikation geblockt. ● einen Spamfilter, der eine ganze Menge schädlicher E-Mails aussortiert, so dass diese gar nicht erst in einem E-Mail Postfach landen. Allerdings können Spamfilter im Falle von Emotet und Ryuk nicht ausreichend sein. Hier müssen alle Mitarbeiter im richtigen Umgang mit E-Mails samt E-Mail Anhängen geschult werden. ● regelmäßige Security-Awareness Trainings. Dadurch können sowohl Mitarbeiter, als auch die Geschäftsführung und alle Anwender in einem Unternehmensnetzwerk für potentielle Gefahren sensibilisiert und im Umgang mit diesen geschult werden. ● regelmäßige Backups, die im Falle eines Angriffs oder eines Ausfallszenarios einen Datenverlust minimieren. ● die Deaktivierung von Makros in Office-Dokumenten Kommt es allerdings doch zu einem Sicherheitsvorfall müssen Sie Ruhe bewahren und dürfen unter keinen Umständen voreilige Maßnahmen treffen, die womöglich die Situation noch verschlimmern oder für die Analyse wertvolle Spuren vernichten könnten. Melden Sie den Vorfall an das BSI. Beim Abfluss personenbezogener Daten – was bei Emotet-Infektionen bereits durch das Ausspähen von E‑Mails aus Outlook-Postfächern geschieht – ist außerdem eine Meldung gemäß Art. 33 DSGVO an Ihren Landesdatenschutzbeauftragten in der Regel innerhalb von 72 Stunden verpflichtend. Darüber hinaus sollten sie eine Sprachregelung zum Vorfall formulieren und Ihre Mitarbeiter informieren. Im Fall einer Verschlüsselung von Daten sollten Sie grundsätzlich nicht auf die Erpressung eingehen und Lösegeld bezahlen. Stattdessen sollten die Daten nach einem Neuaufbau des Netzwerks aus Backups zurückgespielt werden. Bevor wir nun zum Schluss unseres heutigen Podcasts kommen, möchte ich noch einmal ganz kurz alle wichtigen und jüngsten Fakten über die Ransomware Ryuk zusammenfassen: Ryuk greift gezielt große Unternehmen und staatliche Behörden an, die erstens in der Lage sind hohe Lösegeldforderungen zu zahlen. Zweitens bereits mit den Schadprogrammen Emotet und TrickBot infiziert wurden. Vor dem Ausrollen von Ryuk führen die Hintermänner mithilfe der Standard-Tools der Windows-Befehlszeile eine Netzwerkerkundung durch. Die Hintermänner erreichen eine Lateral-Bewegung durch die Netzwerke der Betroffenen, indem sie die legitimen, gesammelten Anmeldeinformationen und Fernzugriffs-Tools wie RDP missbrauchen Um den Zugang aufrechtzuerhalten, erstellen die Cyberkriminellen Service-Benutzerkonten, die auch verwendet werden können, um auf Recovery-Bemühungen zu reagieren Sobald die Hintermänner Zugriff auf Konten mit erweiterten Rechten haben, deaktivieren bzw. entfernen Sie Sicherheitssoftware, Protokollierung und Backups Außerdem werden Batchskripts und Windows-Tools wie PsExec genutzt, um Ryuk über einzelne Maschinen hinweg einzusetzen. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Heute dreht sich alles um das Thema: „Was ist eigentlich ein UEFI?” Die Abkürzung UEFI steht für "Unified Extensible Firmware Interface", was auf Deutsch soviel wie „Einheitliche erweiterbare Firmware-Schnittstelle“. bedeutet. Das Unified Extensible Firmware Interface ist der Nachfolger des lange bewährten Basic Input/Output System. Da das 1981 veröffentlichte PC-BIOS den rasant verändernden Anforderungen moderner Hardware und Betriebssysteme nicht mehr gerecht wurde, entstand das erste EFI (Extensible Firmware Interface) unter der Anleitung und der Initiative von Intel. 2005 wurde das UEFI-Forum zur Weiterentwicklung von EFI, unter anderem durch Microsoft, Hewlett-Packard, AMD und anderer BIOS- & PC-Hersteller gegründet. Aus diesem Zusammenschluss entstand 2006 die erste UEFI-Version 2.0. Diese bildet wie auch das BIOS, die zentrale Schnittstelle zwischen der Firmware, den einzelnen Komponenten eines Rechners und dem Betriebssystem und das System nach dem Start dem Betriebssystem zu übergeben. Im Gegensatz zum BIOS stellt das UEFI ein eigenes kleines Betriebssystem dar, sodass sich Updates direkt über das UEFI laden und installieren lassen. BIOS-Updates dagegen, mussten früher heruntergeladen und aufwendig ins BIOS eingespielt werden. Außerdem umfasst die UEFI-Spezifikation eine API-Schnittstelle, um den Bootprozess und die Booteinträge von einem laufenden Betriebssystem aus konfigurieren zu können. Die Grundfunktionen des Unified Extensible Firmware Interfaces haben sich gegenüber dem Basic Input/Output System nicht wirklich verändert. Wie das BIOS wird auch UEFI bereits bei der Herstellung eines Rechners installiert. Es ist somit das erste Programm, das nach dem Einschalten ausgeführt wird. Dabei sorgt das Unified Extensible Firmware Interface für die Initialisierung der Hardware, die Überprüfung und Aktivierung der vorhandenen Hardwarekomponenten und das Starten des Betriebssystems. Im Gegensatz zum BIOS bietet das Unified Extensible Firmware Interface allerdings viele neue Funktionen und eröffnet zusätzliche Möglichkeiten. Beispielsweise ist es über eine grafische Benutzeroberfläche bedienbar und unterstützt hochauflösende Grafikkarten schon beim Bootvorgang. Außerdem ermöglicht es die Nutzung von Netzwerkkarten schon vor dem Start des Betriebssystems. Darüber hinaus ist das Unified Extensible Firmware Interface modular erweiterbar. Eine weitere wichtige und nennenswerte Funktion ist der so genannte Secure Boot. Der im Unified Extensible Firmware Interface implementierte Secure-Boot-Mechanismus soll sicherstellen, dass nur signierte, vertrauenswürdige Software oder Betriebssysteme auf die Hardware zugreifen können. Das bedeutet wiederum, dass die Ausführung von Schadsoftware wie Viren oder Trojanern und das Starten von unerwünschten Betriebssystemen durch die Secure-Boot-Funktion verhindert wird. Zur Realisierung dieser Funktion sind in der UEFI-Firmware Signatur-Datenbanken und ein Platform Key (PK) implementiert. Dadurch ist es möglich, Softwarecode vor der Ausführung zu überprüfen. Mal angenommen man möchte ein Betriebssystem starten. Wenn die digitale Signatur im UEFI nicht hinterlegt ist, wird dieser Vorgang durch den Secure-Boot-Mechanismus verhindert. Das gilt auch für das Booten von externen Medien wie USB-Sticks oder DVDs. Ein weiterer entscheidender Unterschied ist zwischen dem BIOS und dem UEFI ist, dass Festplatten und SSDs anders partitioniert werden. Während das BIOS mit MBR arbeitet, nutzt UEFI das GPT-Partitionsschema. So kann man statt 4 primären Partitionen bis zu 128 Partitionen einrichten und statt 2,2 TByte nun 3 TByte große Speichermedien verarbeiten. Ein weiterer Vorteil des UEFIs ist, dass die parallele Initialisierung der Hardware wie CPU, Arbeitsspeicher und Chipsatz den Bootvorgang beschleunigt. Im BIOS läuft dieser Vorgang seriell ab. Leider hat das Unified Extensible Firmware Interface auch einige nennenswerte Nachteile und konzeptionelle Schwächen: Zum einen benötigen viele Hardwarekomponenten nach wie vor zwei unterschiedliche Treiber, einen für das UEFI und einen für das eigentliche Betriebssystem. Zum anderen gilt das UEFI in kritischen Systemumgebungen als Sicherheitsrisiko. Es erzeugt zumindest eine theoretische Möglichkeit, beispielsweise unter Ausnutzung der UEFI-Netzwerkunterstützung, Daten vom Betriebssystem unbemerkt an Netzwerkressourcen zu senden oder von diesen zu empfangen. Zudem stellt der Netzwerkstack unterhalb des Betriebssystems ein erhöhtes Risiko für Manipulationen oder die Ausführung von Schadsoftware dar. Trojaner und Viren könnten bereits vor dem Start des Betriebssystems auf den Rechner gelangen, da die Sicherheitssoftware der Betriebssystemumgebung im UEFI nicht aktiv ist. Bevor wir nun zum Schluss unseres heutigen Podcast kommen, möchte ich noch auf die Frage eingehen, wie sieht es eigentlich mit der Kompatibilität zum BIOS aus? Das Unified Extensible Firmware Interface bietet einen speziellen Kompatibilitätsmodus, um ältere Betriebssysteme ohne UEFI-Kompatibilität zu unterstützen. Man nennt das Modul Compatibility Support Module (CSM). Dieses Modul bildet ein normales BIOS innerhalb des UEFIs nach. Damit können auch ältere Betriebssystem mit einem UEFI-Motherboard starten. Je nach Implementierung zeigen die Systeme unterschiedliches Verhalten. Einige prüfen zunächst, ob UEFI-kompatible Bootmedien vorhanden sind und versuchen anschließend darüber zu booten. Hat dies keinen Erfolg, wechseln sie in einen BIOS-kompatiblen Modus. Andere Systeme erlauben das direkte Umschalten zwischen dem Basic Input/Output System und dem Unified Extensible Firmware Interface. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Heute dreht sich alles um das Thema: „Was ist eigentlich eine API?” Der Begriff API stammt aus dem Englischen und ist die Kurzform von „Application-Programming-Interface". Frei ins Deutsche übersetzt bedeutet das, so viel wie „Schnittstelle zur Anwendungsprogrammierung“. Allerdings wird die API umgangssprachlich meistens als Programmierschnittstelle bezeichnet und ist für das moderne Programmieren unerlässlich. Generell dienen Programmierschnittstellen zur Kommunikation, zum Austausch sowie zur Weiterverarbeitung von Daten und Inhalten zwischen verschiedenen Geräten, Programmen, Websites oder Anbietern. So ermöglichen APIs zum Beispiel die Fernsteuerung der heimischen Heizung, indem sie die Temperaturwerte, die von einem Thermostat gemessenen wurden, über eine Cloud zum Smartphone des Endverbrauchers übermitteln. Im Gegensatz zu einer Benutzerschnittstelle kommunizieren die Anwendungen direkt miteinander und nicht der Menschen mit einem System. Mal angenommen ein Internetnutzer bestellt einen Fernseher im Webshop. Dann kommuniziert er nur über die Weboberfläche des Onlineshops. Das Shopsystem selbst kann über die Programmierschnittstelle die Kundenbonität erfragen, die Zahlung per Kreditkarte oder Paypal veranlassen, bei einer Versicherung eine Garantieverlängerung abschließen und einen Spediteur beauftragen. In anderen Unternehmensprozessen gewährleisten Programmierschnittstellen beispielsweise den Austausch sowie die Weiterverarbeitung von Daten und Inhalten zwischen Customer Relationship Management (CRM), Dokumentenmanagementsystem (DMS) und Enterprise-Resource-Planning (ERP) über die Cloud. Aber wie funktioniert die API nun genau? Die Programmierschnittstelle dient wie bereits erwähnt dazu, Soft- und Hardwarekomponenten wie Anwendungen, Festplatten oder Benutzeroberflächen zu verbinden, sprich mit einer API können zwei Anwendungen, die voneinander unabhängig sind, problemlos interagieren und Inhalte, Ressourcen und Daten austauschen. Die Übergabe von Daten und Befehlen erfolgt dabei strukturiert nach einer zuvor definierten Syntax*. Hierzu werden einzelne Programmteile, die spezifische Funktionen erfüllen, vom Rest des Programmes abgekapselt. Die Module kommunizieren untereinander lediglich über die festgelegte API. Dort werden ausschließlich die Daten übergeben, die für den weiteren Programmablauf benötigt werden. Die API definiert dabei, in welcher Form Daten vom Anwendungsmodul entgegengenommen und wieder zurückgegeben werden. Der eigentliche Programmablauf innerhalb des Moduls ist für die API unwichtig. Im Gegensatz zu einer Binärschnittstelle, kurz ABI, findet in der API die Programmanbindung rein auf der Quelltext-Ebene statt. Zur Bereitstellung einer API gehört meist eine ausführliche elektronische oder aber eine papiergebundene Dokumentation, in der die einzelnen Schnittstellenfunktionen, der genauen Syntax und die möglichen Parameter aufgeführt sind. Grundsätzlich können Programmierschnittstellen in verschiedene Typen unterteilt werden: funktionsorientierte APIs, dateiorientierte APIs, objektorientierte APIs, protokollorientierte APIs und die RESTful-API-Schnittstelle. Funktionsorientierte APIs: Die funktionsorientierten Programmierschnittstellen reagieren nur auf Funktionen, wahlweise mit oder ohne Rückgabewert. Auf den Aufruf einer Funktion folgt die Ausgabe eines Referenzwertes (Handle). Dieser Wert dient zum Aufruf weiterer Funktionen, sind alle Funktionen verfügbar, wird das Handle geschlossen. Dateiorientierte APIs: Die dateiorientierten Programmierschnittstellen werden über die Befehle open, read, write und close angesprochen. Gesendete Daten werden mit write geschrieben, sollen Daten empfangen werden, sind diese mit dem read-Kommando einzulesen. Objektorientierte APIs: Die objektorientierten Programmierschnittstelle adressieren definierte Schnittstellen-Pointer, was diesem Schnittstellentyp gegenüber funktionsorientierten Schnittstellen eine erhöhte Flexibilität verleiht. Oft wird mit den Daten auch eine Typ- oder Klassen-Bibliothek übergeben. Protokollorientierte APIs: Die protokollorientierten Programmierschnittstellen befinden sich in keinerlei Abhängigkeit von Betriebssystem oder Hardware, allerdings ist das Übergabeprotokoll stets neu zu implementieren. Um diesen Vorgang zu erleichtern, werden protokollorientierte Schnittstellen im Regelfall von interface- oder funktionsorientierten Schnittstellen gekapselt. RESTful-API-Schnittstelle: Die RESTful-API-Schnittstelle stellt einen Sonderfall dar. Hierbei handelt es sich um eine Schnittstelle für Anfragen im HTTP-Format, der Datenzugriff erfolgt über GET-, PUT-, POST- und DELETE-Befehle. Programmierschnittstellen sind mittlerweile in vielen Bereichen unterschiedlichster Softwareanwendungen vorzufinden. Im Web-Umfeld kommen APIs häufig bei Online-Shops und Content-Management-Systemen zum Einsatz. Es können dadurch unterschiedliche Bezahldienstleister, Online-Marktplätze, Shop-Bewertungssysteme oder Versanddienstleister und weitere Services mit wenig Aufwand standardisiert an die verschiedenen Systeme angebunden werden. Beispielsweise existieren APIs zu Services wie: Wikipedia, Google Maps, Facebook, Twitter, PayPal, DHL etc. Bevor wir nun zum Ende unseres heutigen Podcasts kommen, möchte ich auf die Frage eingehen: Welche Vorteile ergeben sich nun durch die Verwendung von Programmierschnittstellen? Einer der vielen Vorteile ist es, die Entwicklung von Software zu vereinfachen, indem komplizierte und zeitaufwendige Aufgaben automatisiert werden. Das bedeutet, dass bestimmte Aufgaben, die mehrere Stunden in Anspruch nehmen, nun in wenigen Sekunden durchgeführt werden können. Zudem sind die angebundenen Programme weniger fehleranfällig und leichter wartbar, da modulare Programmcodes verwendet werden. Arbeiten einzelne Funktionen fehlerhaft, müssen lediglich die betroffenen Module und die an der API übergebenen Daten genauer geprüft werden. Ein weiterer Vorteil, dass sich aus einer sauber dokumentierten Programmierschnittstelle ergibt, ist die Möglichkeit der Auslagerung von Programmierarbeiten. Die Entwicklung einzelner Teilbereiche einer Software kann dank der Programmierschnittstelle mit geringem Aufwand an eine externe Softwareunternehmen oder freie Entwickler übertragen werden. Zudem können Drittanbieter selbst Funktionen für das System entwickeln. Dadurch steigert sich die Attraktivität und Flexibilität des Gesamtprodukts und es ergeben sich klare Wettbewerbsvorteile. Allerdings gibt es neben den genannten Vorteilen auch Nachteile: Um andere Anwendungen, Festplatten oder Benutzeroberflächen individuell anbinden zu können, braucht man Programmierkenntnisse. Hat man also keinen Entwickler im Unternehmen, muss man jemanden extern beauftragen. Außerdem benötigt das Entwickeln einer Anbindung Zeit. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Heute dreht sich alles um das Thema: „Was ist eigentlich ein VLAN?” Ein Virtual Local Area Network, kurz VLAN oder virtuelles LAN, ist ein virtuelles, rein logisches Netzwerk, welches auf einem physikalischen Netz basiert. Bevor wir uns aber der Ausgangsfrage widmen, möchte ich Ihnen kurz den Begriff LAN erläutern. Das physische Netzwerk, auch bekannt unter dem Begriff LAN oder Local Area Network, basiert heutzutage in den meisten Fällen auf einem oder mehreren Switches. Switches sind Geräte, die den Datenverkehr unter den Teilnehmern regeln. Hierfür werden alle Netzwerkkabel an einem Switch verbunden, um so die Kommunikation zwischen den Computern zu ermöglichen. Kehren wir nun zurück zu VLANs. Ein VLAN ist wie bereits erwähnt ein virtuelles, rein logisches Netzwerk, das auf einem physischen LAN aufsetzt und eine standortunabhängige Verbindung im gleichen LAN ermöglicht. Allerdings können VLANs nur mit Managed Switches etabliert werden. Sprich einem Switch der VLAN-fähig ist. Jedes virtuelle Netzwerk erhält dann eine Broadcast-Domäne über die ein Broadcast (Nachricht) versendet werden kann. Sobald ein Teilnehmer innerhalb des VLAN einen Broadcast sendet, erhalten nur alle Teilnehmer innerhalb dieses VLANs die Nachricht. Sprich der Broadcast wird nicht über die Grenzen des virtuellen Netzes weitergetragen. Grundsätzlich können VLANs auf zwei verschiedene Arten eingerichtet werden: portbasierte VLANs und Tagged VLANs. Je nach Typ steckt eine andere Technik dahinter. In vielen Fällen realisieren Netzwerkadministratoren ihre Installationen und Zuweisungen über eine Mischform dieser beiden Typen. Beim portbasierten VLAN wird jeder Netzteilnehmer über einen Port geleitet. Möchte man nun aus diesem einen physischen Netz zwei virtuelle Netze machen, weist man die entsprechenden Ports dem gewünschten virtuellen Netzwerk zu. Beim tagged VLAN funktioniert die Zuweisung zu VLANs dynamischer: Statt fest im Switch festgelegt, sorgt eine Markierung (Tag) im Frame des Nachrichtenpakets für die Zuordnung. Aus diesem Grund nennt man diese Technik analog zu den portbasierten Netzen auch framebasiert. In dem Tag steht die Information, in welchem VLAN man sich gerade befindet. Ein Switch kann so erkennen, in welchem Segment die Kommunikation stattfindet, und leitet die Nachricht dementsprechend weiter. Der Vorteil eines Tagged VLAN gegenüber eines portbasierten VLANs ist, das bei einer portbasierte VLAN-Verbindung, mindestens zwei Kabel zwischen den Switches verlegt werden müssen, da jedes VLAN seine eigene Verbindung braucht. Bei Tagged VLANs reicht ein Kabel, da die Verteilung über die Informationen des Frames funktioniert. Der Switch erkennt das korrekte VLAN und sendet es weiter an den entsprechenden zweiten Switch. Dort wird das Tag entfernt und das Paket an den korrekten Empfänger weitergeleitet. Bevor wir nun zum Schluss unserer heutigen Podcast kommen, möchte Ich kurz auf die Frage eingehen: Warum sollte man ein größeres LAN in mehrere kleine VLANs segmentieren? Der Einsatz von VLAN-Technologie hat gleich mehrere Vorteile: ● Erstens, die Flexibilität: Die Konfiguration findet rein auf der Basis einer Software statt und ist somit auf jedem Endgerät installierbar und hängt nicht vom Standort ab. Der Mitarbeiter kann somit auch bei wechselnden Arbeitsplätzen die Daten über das virtuelle Netzwerk erhalten. ● Zweitens, die Sicherheit: Die Broadcast-Domäne steht nur einer begrenzten Anzahl an Personen zur Verfügung und erreicht somit keine Personen für die die Informationen nicht gedacht sind. ● Drittens, die Performance: Nachrichten müssen nicht mehr das komplette Netzwerk durchlaufen. Die unnütze Belastung der Bandbreite minimiert sich somit. ● Viertens, die Ordnung: In einem LAN müssten alle Mitarbeiter bzw. deren Endgeräte verkabelt werden. Bei einem virtuellen Netz können mehrere Switches teilnehmen und die Verkabelung kann sinnvoller und ordentlicher erfolgen. ● und zuletzt der Preis: Ein Virtual Local Area Network ist die günstigere Alternative zu LANs, weil sie weniger Router benötigen und auch der hohe zeitliche Aufwand bei der Installation der parallelen Netze entfällt. Fazit: Sie sehen mithilfe von VLANs können IT-Verantwortliche ein bestehendes einzelnes physisches Netzwerk in mehrere logische virtualisierte Netzwerke unterteilen, um beispielsweise Hardwarekosten zu reduzieren, die unter anderem für den Kauf von Router anfallen, Hierarchien und Zugriffe besser kontrollieren oder aber die Sicherheit verbessern und sensible Daten schützen. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Heute dreht sich alles um das Thema: „Was ist eigentlich ein MPLS?” Hinter der Abkürzung MPLS verbirgt sich der englische Begriff Multiprotocol Label Switching. Hierbei handelt es sich um eine Technologie, die in den späten 90 er Jahren entwickelt und eingeführt wurde, um eine schnelle Übertragungsrate von Sprachkommunikation und Datenkommunikation in einem Netzwerk zu gewährleisten. Die MPLS-Technologie beruht dabei auf einem Label-basierten Weiterleitungsmechanismus. Im Gegensatz zum klassischen Datentransfer erfolgt die Routenberechnung, sprich die Weiterleitungsentscheidung hier nur einmal. Und zwar beim Eingang in das Netzwerk. Dabei werden die IP-Datenpakete entsprechend ihrer Priorität mit sogenannten Labels versehen und über einen vordefinierten Pfad durch ein verbindungsloses IP-Netz vermittelt. Gleichzeitig wird den IP-Datenpaketen die erforderliche Bandbreite zugewiesen und der Vorrang vor weniger wichtigen Paketen eingeräumt. Aber bevor wir uns in Funktionsweise des MPLS-Multiprotocol Label Switching vertiefen, möchte ich Ihnen zunächst einmal die wichtigsten Bausteine des Multiprotocol Label Switching vorstellen. Der Ingress Label Edge Router, der Egress Label Edge Router, der Label Switch Router (LSR) sowie der Label Switched Path (LSP) Der Ingress Label Edge Router ist für die Klassifizierung der eingehenden Pakete zuständig. Anhand der Zieladresse definiert bzw. signalisiert er den Label Switch Path und erweitert den IP Header des Pakets um den MPLS Header/ das Label. Der Egress Label Edge Router ist für das Entfernen des MPLS Header/ Label zuständig. Der Label Switch Router wird auch als Transit/Core-Router bezeichnet. Dieser leitet die Pakete anhand des Labels weiter und tauscht das Label gegebenenfalls aus, da diese nur zwischen 2 Hops gilt. Der Label Switched Path, ist die Gesamtstrecke zwischen dem Ingress und Egress Label Edge Router. Über diese Ende-zu-Ende Strecke werden die Pakete weitergeleitet. Dabei können Label Switched Paths statisch oder dynamisch etabliert werden. Jetzt zurück zur Funktionsweise des Multiprotocol Label Switching. Also grundsätzlich setzt der Einsatz von MPLS in IP-Netzwerken eine logische und physische Infrastruktur voraus, die aus MPLS-fähigen Routern besteht. Dabei operiert das Label-Verfahren vorrangig innerhalb eines autonomen Systems (AS), sprich einer Ansammlung verschiedener IP-Netze, die als Einheit verwaltet werden und über mindestens ein gemeinsames Interior Gateway Protocol (IGP) verbunden sind. Bevor die einzelnen Pfade aufgebaut werden können, muss das verwendete IGP dafür sorgen, dass sich alle MPLS-Router untereinander erreichen können. Sobald nun ein IP-Datenpaket in diesem MPLS-Netzwerk verschickt wird, erhält es vom Ingress-Router einen zusätzlichen MPLS-Header vor dem IP-Header des Pakets angehängt. Auf dem Übertragungsweg tauschen die einzelnen involvierten Label Switch Router das Label durch eine angepasste Variante mit eigenen Verbindungsinformationen wie Latenz, Bandbreite und Ziel-Hop, aus. Am Ende des Pfades wird das Label vom Egress Label Edge Router wieder aus dem IP-Header entfernt. Sie können sich das ganze MPLS-Netz auch als eine Postfiliale vorstellen. Mal angenommen es ist Weihnachten und Sie möchte Pakete in der ganzen Welt verschicken. Sobald Sie die Pakete dem Postbeamten überreicht haben, versieht er sie mit unterschiedlich leuchtenden Länderkennzeichen. Der nächste Postbearbeiter, der für die Postsortierung zuständig ist, ordnet das Paket anhand dieses Kennzeichens der entsprechenden Poststelle des Empfängerland zu, ohne das er überhaupt die Adresse des Pakets genauer in Augenschein genommen hat. Genauso funktioniert es in einem MPLS-Netz: Dank dem Label-basierten Weiterleitungsmechanismus werden Routing-Systeme entlastet und verfügbare Bandbreiten der Weitverkehrsnetze besser ausgelastet. Außerdem lässt sich durch das Multiprotocol Label Switching die Dienstgüte (Quality of Service (kurz QoS) ) in IP-Netzen bereitstellen und der Transport von Echtzeitdaten über paketbasierte Netze vereinfachen. Sie sehen das MPLS-Verfahren bietet zahlreiche Vorteile. Auch wenn die Vorzüge von MPLS insbesondere für Unternehmen und Einrichtungen mit verteilten Standorten interessant sind, bietet MPLS keine Immunität gegen Cyberangriffe. Das Attribut „privat“ steht in solchen Netzen nämlich nicht für Geheimhaltung und Verschlüsselung, sondern lediglich dafür, dass die verwendeten IP-Adressen nur intern erreichbar sind. Ohne zusätzliche Verschlüsselung werden sämtliche Informationen im Klartext übertragen. Daher gilt es neben der Verschlüsselung, sollten weitere Schutzmechanismen eingesetzt werden um die MPLS-fähigen Route gegen externe Zugriffe abzusichern Alles in allem kann man sagen, dass das Multiprotocol Label Switching Erstklassige Performance bietet, da die vordefinierten Pfade für sehr schnelle Übertragungsgeschwindigkeiten sorgen und nur geringen Schwankungen unterliegen. Außerdem gewährleisten VPNs auf Basis von Multiprotocol Label Switching den Internet Providern eine Menge Spielraum bei der Ressourcenverteilung, was sich auch für die Kunden auszahlt. So können ganz spezifische Leistungspakete vereinbart und die Netze jederzeit problemlos erweitert werden. Zudem können Provider dank der MPLS-Infrastruktur verschiedene Quality-of-Service-Stufen anbieten. Die gemietete Bandbreite ist dabei keineswegs statisch, sondern ebenfalls klassifizierbar. Auf diese Weise lassen sich die gewünschten Dienste wie zum Beispiel VoIP priorisieren, um eine stabile Übertragung zu garantieren. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
I: Herzlich willkommen zum IT-Manager-Podcast. Heute geht es um das Thema „Ist jetzt eigentlich alles AI? Zwischen Hype, starker und schwacher AI“, und ich habe dazu als Gast Herrn Ulrich Kerzel von der IUBH Fernstudium im Interview. Herr Kerzel verantwortet die Professur für Data Science And Artificial Intelligence. Hallo Herr Kerzel, schön, dass Sie da sind. B: Guten Morgen, hallo, ich freue mich sehr, dabei zu sein. I: Lassen Sie die Hörer doch noch ein bisschen mehr über Ihre Person wissen. B: Ja, ursprünglich bin ich von Hause aus Physiker und komme eigentlich aus der Teilchenphysik und war auch sehr lange an internationalen Großforschungseinrichtungen wie zum Beispiel dem Fermilab in der Nähe von Chicago und dem CERN bei Genf in der Schweiz. Ich sage mal, in meiner Diplomarbeit beschäftigte ich mich damit, aus Daten Erkenntnisse zu gewinne und dies mit künstlicher Intelligenz zu tun. Das mache ich jetzt seit knapp zwanzig Jahren, und damals gab es noch keine so großen Pakete wie man sie heute kennt, wie TensorFlow von Google oder PyTorch von Facebook. Damals mussten wir das alles selber programmieren, und auch Grafikkarten gab es im Wesentlichen eigentlich so nicht, sodass wir auf ganz anderen Voraussetzungen aufsetzten. Und dann nach vielen Jahren der Wissenschaft bin ich in die Wirtschaft gewechselt zu Blue Yonder, die heute ein Teil von JDA ist. Und Schwerpunkt meiner Arbeit war zum einen die Leitung des Teams zur Weiterentwicklung von Machine-Learning-Algorithmen, und so hat man die Betreuung von Kundenprojekten, zum Beispiel der Automatisierung von Warenwirtschaft im Handel mit künstlicher Intelligenz. Und jetzt seit Herbst 2018 bin ich als Professor für Data Science und künstliche Intelligenz bei der IUBH. I: Ja, super, das Wort „künstliche Intelligenz“ hätte es mir auch deutlicher vereinfacht, das natürlich auszusprechen anstatt den englischen Begriff „AI“ dazu. Und in dieser Folge haben wir uns ja genau diesem Thema AI, der künstlichen Intelligenz, angenommen, da man gefühlt mittlerweile ja überall damit auch konfrontiert wird. Und daher auch die Frage ja zu unserer heutigen Folge: Ist jetzt eigentlich alles AI? Zwischen Hype, starker und schwacher AI. Ich bin gespannt auf Ihren Input dazu. B: Ja, vielen Dank. Also ich glaube, man sollte ein bisschen mal jenseits des Hypes schauen. Überall hört man ja von AI hier und künstlicher Intelligenz da, und auf der anderen Seite sieht man auch sehr spektakuläre Erfolge, die auch die Performanz von Menschen mindestens gleichziehen oder auch übertreffen. Da haben wir dann zum Beispiel vor einiger Zeit ein AlphaGo, bei dem eine Maschine auch den besten Go-Spieler geschlagen hat, und das war damals auch relativ überraschend, da Go sehr viel komplexer als Schach ist, wo man eigentlich damals nicht damit gerechnet hat, dass jetzt schon irgendwie menschliche Mitspieler von einer Maschine geschlagen werden können. Man hat schon gedacht, dass das irgendwann passiert, aber vielleicht nicht unbedingt jetzt schon. Und man hat auch festgestellt, dass in diesem Spiel die Maschine Spielzüge entwickelt hat, die traditionell Menschen so nicht gespielt haben. Und das Spiel gibt es ja schon seit mehreren Tausend Jahren. Und es gibt auch viele weitere große Erfolge von AI, zum Beispiel bei der Erkennung von Hautkrebs, wo die Leistung von dem System die Leistung von menschlichen Spitzendermatologen übertreffen. Auf der anderen Seite hört man jetzt aber auch so auf den Artificial Intelligence, AI, künstliche Intelligenz, dass sich ja schon irgendwo auch der Eindruck aufdrängt, dass das jetzt alles nur ein Hype ist. Es gibt sogar eine aktuelle Studie von den MMC Ventures, die haben sich ungefähr dreitausend AI-Start-ups in 13 europäischen Ländern mal genauer angeschaut, und die sind zu dem Schluss gekommen, dass vierzig Prozent gar keine AI da drinnen haben. Und dann ist natürlich die Frage: Was heißt das jetzt eigentlich alles? Und dann wird es schon ein bisschen schwammiger, weil wir eigentlich nicht so genau definiert haben, was AI eigentlich ist. I: Das kann ich sehr gut nachvollziehen. Wie kann man denn dieses besser definieren? B: Ja, wenn wir uns den Begriff der künstlichen Intelligenz einmal nähern wollen, ist das gar nicht so einfach zu sehen, was damit gemeint ist. Das hängt auch damit zusammen, dass wir uns selber schwer tun, den Begriff „Intelligenz“ zu definieren. Wir haben zwar eigentlich ein ganz gutes intuitives Verständnis davon, was intelligentes Verhalten ist oder was Intelligenz ist, aber bei der formellen Definition wird das dann schon schwieriger. Ich meine, wir können mal in den Duden schauen, und da steht drin, „Intelligenz ist die Fähigkeit des Menschen, abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten“. Das klingt jetzt alles ganz gut, aber so richtig konkret, was das heißen soll, daraus wird man nicht so ganz schlau. Aber man kann eines festhalten aus dieser Definition „zweckvolles Handeln abzuleiten“, das ist schon einmal ein sehr großes Merkmal. Und das heißt aber auch, dass dieses sinnvolle oder zweckvolle Handeln auf eine konkrete Situation bezogen ist. Wenn man sich jetzt den Bereich der künstlichen Intelligenz anschaut, dann unterscheidet man zwischen starker und schwacher oder anders allgemeiner oder spezifischer Intelligenz, das sind jeweils zwei synonyme Begriffe. Unter der starken oder allgemeinen künstlichen Intelligenz versteht man Systeme, die ganz allgemein selbst denken, also hier wäre das Ziel, ein System zu entwickeln, das quasi wie ein künstliches Wesen in der Umwelt zurechtkäme und leben könnte im Sinne, dass es mit uns interagieren könnte. Es könnte zum Beispiel sich mit uns unterhalten oder sich verhalten wie mein Mensch das tun würde. Man sollte jetzt aber nicht in die Falle tappen zu sagen, „Das müsste dann sich verhalten wie Mensch“, denn warum sollte sich eine künstliche Intelligenz a priori so verhalten wie wir Menschen? Auf der anderen Seite steht dann die schwache oder spezifische Intelligenz. Das sind Systeme, die in einem ganz konkreten Bereich ähnlich gut wie ein Mensch Entscheidungen treffen oder auch besser als ein Mensch Entscheidungen treffen. Und das ist zum Beispiel das, was wir bei dem Spiel Go oder bei Erkennung von Hautkrebs oder anderen Systemen gesehen haben. Und hier schließt sich dann auch wieder der Kreis zur Definition der Intelligenz, und da sind wir wieder bei der Ableitung von zweckvollem Handeln. Und dann ist auch hier eigentlich genau die Grenze zum Hype. In der Definition steht ja nichts von spezifischen Algorithmen oder Machine Learning, und vom Gefühl her denken wir heutzutage immer bei künstlicher Intelligenz daraus an große Machine Cluster, wie sie vielleicht bei Google oder bei Amazon stehen mit ganz großen Machine-Learning-Systemen, und wir denken zum Beispiel nicht an mathematische Optimierung wie Operations Research, das es ja auch schon seit langer Zeit sehr erfolgreich gibt. Auf der anderen Seite lässt sich natürlich auch aus einer ganz einfachen linearen Regression ein natürliches oder zweckmäßiges Handeln ableiten. Aber das ist nicht unbedingt das, was wir jetzt unter dem Begriff „Künstliche Intelligenz“ zusammenfassen würden. Und diese Schwammigkeit der Definition des Begriffs „Intelligenz“, die erlaubt es dann halt ganz Vielen, da diesen Deckmantel zu packen. Und dann muss man in der Tat schon sehr genau schauen, was denn damit gemeint ist. Da hilft es, den Begriff im Hype etwas aufzublähen, weil gar nicht so genau festgelegt ist, was jetzt Intelligenz ist. Aber eines ist sicher: Die Systeme entwickeln sich rasant weiter und auch jenseits eines Hypes werden fast täglich neue Erfolge errungen, die sich erst durch die große Kombination aus riesigen Datenmengen und Machine Learning möglich wären. Hier stehen wir eigentlich erst am Anfang der ganzen Entwicklung. I: Das kann ich durchaus nachvollziehen, und in vielen Bereichen sollte man tatsächlich jetzt mehr hinterfragen, wenn jemand sagt, sie beschäftigen sich mit künstlicher Intelligenz oder haben Komponenten von künstlicher Intelligenz in ihre Systeme eingebaut, dass man tatsächlich mal hinterfragt, was bedeutet es denn konkret, und damit natürlich dann auch ein bisschen besseren Hintergrund darüber bekommt. Gibt es denn spezielle Tipps, ja, für unsere Zuhörer, was diese Dinge angeht, was sie dann in Zukunft besser machen sollten? B: (lachend) Ich glaube, wenn man jetzt bewertet, was andere Firmen oder Forscher tun mit künstlicher Intelligenz, lohnt es sich, eine gesunde Skepsis mitzubringen und einfach mal zu hinterfragen, was denn eigentlich genau gemacht wird. Wenn die nur schreiben, „Hier wird künstliche Intelligenz verwendet“, kann man durchaus mal nachfragen, „Und was heißt das jetzt? Und wo wird sie verwendet, und was soll diese AI jetzt tun? Oder was macht sie anders als man das beispielsweise mit einer mathematischen Optimierung machen würde?“ Abgesehen davon gibt es natürlich auch sehr grundlegende Forschungsarbeiten zur allgemeinen künstlichen Intelligenz. Ob und wann das passieren wird, das kann man jetzt, glaube ich, gar nicht absehen. Das heißt was wir in der Praxis sehen, ist die schwache oder spezifische künstliche Intelligenz, und da kann man auch genau fragen, wo denn diese Intelligenz stecken soll. I: Ja. Und haben Sie eine konkrete Empfehlung, wenn sich unsere Zuhörer ja deutlich detaillierter mit diesem Thema AI, also auch künstliche Intelligenz, im Prinzip beschäftigen wollen und da tiefer einsteigen wollen, weil sie das für ihre zukünftige Arbeit auch verwenden wollen? Was können die da am sinnvollsten machen? B: Also, wer da richtig tief einsteigen möchte, dem würde ich empfehlen, unsere Kurse im Fernstudium ab nächstem Frühjahr, ab nächstem Februar zu besuchen, da bieten wir auf Bachelor- und auf Master-Niveau jeweils Studiengänge in Data Science und Artificial Intelligence an. Das sind eigentlich ideale Weiterbildungsmaßnahmen, die jeder ergreifen kann, um sich tief in die Systeme einzuarbeiten, auch in dieses Feld einzusteigen. I: Und die gibt es dann im Bachelor- und Master-Niveau? Oder in welchen Bereichen gibt es die? B: Genau. Die fangen im Bachelor Data Science an, das ist die Grundlage für die späteren Master-Studiengänge. Im Bachelor bieten wir Data Science an als Grundlage für die beiden weiteren, und im Master kommen dann spezialisiert Master Data Science und Master Artificial Intelligence, je nachdem, in welche Richtung man jetzt gehen möchte. I: Super. Falls das für Sie als Zuhörer interessant sein sollte: Wir werden natürlich die Links zu diesen Studiengängen in die Shownotes mit einbringen, dann haben Sie es ein bisschen einfacher, da direkt drauf zuzugreifen. Was mich und auch sicherlich die Zuhörer noch interessieren würde: Haben Sie gute Buchempfehlungen zum Thema AI? B: Ja, da ändert sich natürlich gerade alles rasant, also fast jedes Buch, was man so sagen möchte, was jetzt rauskommt, hat ja mindestens zwei Jahre Vorlaufzeit und ist schon quasi gar nicht mehr dem aktuellen Markt hinterher. Ich glaube aber, was man empfehlen könnte, ist der Klassiker, sage ich mal, von Stuart Russell und Peter Norvig, der heißt Artificial Intelligence, A Modern Approach. Das ist ein Lehrbuch, das in sehr vielen Universitätsstudiengängen eingesetzt wird, und gibt einen großen Überblick über die Hintergründe von Artificial Intelligenz und künstlicher Intelligenz. Und ein anderes Buch, was eher nicht technisch ist, das finde ich auch sehr lesenswert, das ist von Sarah Wachter-Boettcher, das heißt Technically Wrong: Sexist Apps, Biased Algorithms, and Other Threads of Toxic Tech. Das beschäftigt sich eigentlich sehr allgemeinpopulärwissenschaftlich mit der Frage, welchen Einfluss AI eigentlich auf unser Leben hat, und insbesondere dadurch, wie Algorithmen einen Bias entwickeln können, da es ja aus den Daten lernt, die wir einem solchen Algorithmus, einer solchen künstlichen Intelligenz geben und welchen Einfluss das auf unser Leben hat. Das ist eigentlich ganz spannend zu lesen, wie man abseits von rein technischen Fragestellungen dann sieht, welche Konsequenzen sich eigentlich daraus ergeben auf unser Leben. I: Da bin ich ja schon gespannt, welches der Bücher ich dann in meine Buchliste mit aufnehmen werde, vermutlich eher die nicht so technische Variante (lachend) für mich, aber ich glaube, es gibt genug Hörer, die tatsächlich dort auch so einen Deep Dive tatsächlich machen möchten, und je nachdem, ob Studiengang oder nicht, tatsächlich mal tiefer in das ganze Thema AI auch eintauchen wollen. Auch diese Buchempfehlung werden wir mit in die Shownotes mit reinnehmen. Und ich hatte mit Herrn Kerzel im Vorfeld gesprochen, auch die Kontaktdaten von ihm, seine E-Mail-Adresse, nehmen wir mit auf, sodass Sie natürlich jederzeit in der Lage sind, auch wenn Rückfragen hier gerade zu diesem Thema und den Studiengängen ist, gerne an ihn diese Rückfragen zu richten. Ja, vielen Dank an Sie, Herr Kerzel, für dieses tolle Interview. B: Ja, herzlichen Dank, es hat mich sehr gefreut, bei Ihnen zu sein. I: Und an Sie, liebe Zuhörer, ja, vielen Dank fürs Zuhören natürlich, und schalten Sie gerne wieder ein, wir freuen uns wieder auf Sie am nächsten Freitag, wenn unsere Episode wieder online geht. Vielen Dank fürs Zuhören und bis zum nächsten Mal, Ihr Ingo Lücker, tschüss! Kontakt: Ulrich Kerzel, u.kerzel@iubh-fernstudium.de Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Die Abkürzung BIOS steht für “basic input/output system”, zu Deutsch “Basis Ein-/Ausgabe-System”. Hierbei handelt es sich um die Firmware -also die grundlegendste Software sprich dem Ur-Ladeprogramm- die jeder Computer besitzt, um überhaupt zu starten. Jedes Gerät, sei es ein Drucker oder eine Spiegelreflexkamera, hat eine solche Firmware. Im Gegensatz zu Computern, wo die Firmware eher unsichtbar im Hintergrund arbeitet, bedient man beispielsweise eine Kamera direkt über die Firmware. Die Geschichte des BIOS beginnt mit dem ersten IBM-PC. Als IBM und Microsoft die Hardware und Software, also das Betriebssystem, unabhängig voneinander entwickelten, kam die Frage auf, wie das Betriebssystem auf die Hardware zugreifen kann. Als Antwort wurde eine Schnittstelle zwischen der Hardware und dem Betriebssystem geschaffen: das BIOS. Das “Mini-Betriebssystem” läuft dabei natürlich nicht auf der Festplatte oder dem Arbeitsspeicher, sondern im ROM-Speicher der Hauptplatine, sprich dem Motherboard. Dabei kann der Speicherchip auf der Hauptplatine entweder gesockelt (sprich er kann ausgetauscht werden) oder fest verlötet sein, wie es bei vielen Notebooks der Fall. Allerdings hat das BIOS heute nicht mehr die gleiche Bedeutung, wie zu Anfangszeiten. Moderne Betriebssysteme nutzen nur noch wenige BIOS-Funktionen. Häufig wird die Hardware eines Computers mit eigenen Treibern angesprochen. Das bedeutet jedoch nicht, dass man auf das BIOS verzichten kann. Damit komme ich zum nächsten Punkt. Was passiert, wenn ich den Startknopf meines Computers betätige? Wie funktioniert das BIOS eigentlich? Also, sobald Sie den Startknopf Ihres Computers oder Laptops betätigen, wird im selben Moment die Firmware, also das BIOS, geladen. Es beginnt direkt mit einem Selbsttest, dem Power On Self Test, kurz POST. Dabei werden die grundlegenden Funktionen und Komponenten des Computers überprüft, die zum Starten des eigentlichen Betriebssystems benötigt werden wie zum Beispiel der Prozessor, die Speicher, der Interrupt-Controller, die DMA, usw. Anschließend erfolgt die Prüfung aller Hardware-Erweiterungen auf den Erweiterungskarten, wie zum Beispiel die Grafikkarte. Wenn all diese Komponenten problemlos arbeiten, werden die entsprechenden Laufwerke vom BIOS aktiviert, damit das eigentliche Betriebssystem eines Computers hochfahren kann. Allerdings können dabei auch Fehler auftreten. In diesem Fall werden alle Fehler auf dem Bildschirm angezeigt oder aber, wenn die Bildschirmausgabe nicht möglich ist, durch eine unterschiedliche Anzahl von Pieptönen signalisiert. Neben dem schnellen Überprüfen der Laufwerke dient das BIOS auch dazu, einzelne PC-Komponenten wie die CPU anzusteuern und diese zu verändern. Beispielsweise kann man so, bei neueren Prozessoren im BIOS einstellen, ob die Übertaktung der CPU -das sogenannte Overclocking- zur Optimierung der Systemleistung, eingeschaltet werden soll oder nicht. Ein weiterer wichtiger Bereich des BIOS ist der Boot-Sektor. Hier kann man als Benutzer manuell festlegen, in welcher Reihenfolge Festplatten und Laufwerke beim Hochfahren des PCs gestartet werden sollen. Normalerweise sind die einzelnen Laufwerke und Festplatten so geschaltet, dass zuerst die Festplatte startet, auf der sich das Betriebssystem befindet und andere Komponenten wie zum Beispiel ein DVD-Laufwerk erst an zweiter Stelle angesteuert werden. Es gibt aber Situationen, in denen es notwendig ist, die Boot-Reihenfolge zu ändern. Mal angenommen Sie möchten ein neues Betriebssystem von einer DVD auf einen Computer aufspielen. Dann müssen Sie auf jeden Fall die Boot-Reihenfolge ändern, damit beim Starten zuerst das DVD-Laufwerk geladen wird und nicht die Start-Festplatte. Ebenso kann das Verändern der Boot-Reihenfolge sinnvoll sein, wenn sich eine Festplatte nicht starten lässt oder man zwei verschiedene Betriebssysteme auf zwei Festplatten hat. Darüber hinaus kann das BIOS als Kontrollinstrument fungieren, welches darauf achtet, wie hoch die Temperatur der CPU ist oder wie viel Strom verbraucht wird und dergleichen. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Hinter der Abkürzung WebAuthn verbirgt sich der Begriff Web Authentication. Hierbei handelt es sich um einen veröffentlichten Webstandard für eine Programmierschnittstelle -auch bekannt unter dem Begriff Application-Programming-Interface, kurz API - die zur Authentifizierung von Usern im Web dient und anstelle von Passwörtern auf dem Public-Key-Verfahren und der Nutzung von Faktoren wie biometrischen Merkmalen, Hardware-Token oder Smartphones basiert. Darüber hinaus soll die WebAuthn-API die Kommunikation zwischen einer Webseite und einem Sicherheitsgerät einem sogenannten Token erleichtern und die Anmeldeverfahren im Internet sicherer und komfortabler machen. Die WebAuthn ist eine Kernkomponente des FIDO2-Projektes. Im März 2019 wurde sie vom World-Wide-Web-Consortium (W3C), dem Standardisierungsgremium für das Internet, und der Fast IDentity Online-Allianz, kurz FIDO-Allianz, zu einem offiziellen Webstandard erklärt. Die WebAuthn-API kann sowohl im Browser als auch auf Webplattform-Infrastrukturen integriert werden. Durch den Einsatz der WebAuthn-API können Webseitenbetreiber ihren Benutzern alternativ zum klassischen Passwort-Login, die Registrierung und Authentifizierung mittels „Authenticator“ anbieten. Bei einem “Authenticator” kann es sich dabei um einen Hardware-Security-Token handeln, wie zum Beispiel einem FIDO-USB-Sicherheitsschlüssel, der mit einem Computer verbunden wird oder aber um ein Smartphone, an dem man sich durch biometrische Informationen identifiziert wie zum Beispiel durch den Fingerabdruck, Gesichts- oder Iris-Scan. Bei WebAuthn haben User zudem die Möglichkeit, verschiedene Authenticatoren gleichzeitig für ihr Online-Konto zu registrieren. Dadurch wird für sie die Kontoverwaltung und -wiederherstellung wesentlich komfortabler. Beispielsweise kann sich ein User mit einem Fingerabdruckscanner bei mobilen Anwendungen auf seinem Mobilgerät anmelden und parallel dazu einen Hardware-Security-Token registrieren. Falls das ursprüngliche Gerät aktualisiert, verloren, gestohlen oder kompromittiert wurde, lässt sich so der Zugriff auf das Online-Konto schnell wiederherstellen Aber lassen Sie mich die Funktionsweise der Web Authentication noch etwas näher erklären. Zunächst einmal müssen Sie wissen, dass bei einer WebAuthn-Kommunikation grundsätzlich drei “Parteien” beteiligt sind: Der Authenticator, der Server und der JavaScript-Client -auch bekannt als Web App. Mal angenommen, ein User möchte sich auf einer Webseite die eine WebAuthn-API benutzt registrieren: Zu aller Erst bietet ihm die API mehrere Authentifizierungsmethoden an. Der User kann zwischen externen Hardware-Security-Token oder biometrische Authentifizierungsmethoden, wie dem Iris-Scan, der Gesichtserkennung oder dem Fingerabdruck wählen. Sobald er die gewünschte Authentifizierungsmethode ausgesucht hat, muss er seinen “Authenticator” einmalig registrieren. Bei diesem Prozess erzeugt der Server zunächst eine Challenge (Herausforderung) und sendet sie samt Login-Daten zum JavaScript-Client im Browser des Nutzers. Diese weist das Endgerät an, den neuen Authenticator zu registrieren. Anschließend generiert der “Authenticator” ein individuelles Schlüsselpaar. Der Privat Key wird auf dem Endgerät gespeichert und der Public Key wird gemeinsam mit der Credential-ID und der Signatur der Challenge an den Server übermittelt. Der Server verifiziert die Informationen und hinterlegt sie in einer Datenbank. Beim erneuten Login übermittelt der Server erneut eine Challenge. Diese wird vom Browser zusammen mit der Domain an den Authenticator weitergereicht. Nach der Bestätigung durch den Benutzer, beispielsweise durch einen Fingerabdruck-Scan wird die digitale Signatur zurück an den Server gesendet und der erfolgreiche Login erfolgt. Sie sehen, mit WebAuthn profitieren sowohl die Webentwickler als auch die User. Denn: die Web Authentication ermöglicht starke, eindeutige, auf öffentlichen Schlüsseln basierende Anmeldeinformationen für jede Webseite oder Webanwendung. Gleichzeitig minimiert sie damit das Risiko, dass User zum Opfer gefährlicher Man-in-the-Middle-Angriffe und Passwortdiebstahl durch Phishing oder Keylogging werden. Außerdem erleichtert WebAuthn die Bereitstellung sicherer Webanwendungen mit einer Auswahl an stärkeren Authentifizierungsmethoden. Auf diese Weise wird die Abhängigkeit von schwachen Passwörtern verringert. Darüber hinaus bietet WebAuthn den Benutzern die Möglichkeit, verschiedene Authenticatoren für ihr Konto zu registrieren, um die Kontoverwaltung und -wiederherstellung komfortabler zu gestalten. Bevor wir zum Ende unseres Podcasts kommen, lassen Sie mich noch einmal kurz die wichtigsten Merkmale der Web Authentication zusammenfassen: Erstens, für jeden Webservice ist ein eigener, eindeutiger Account vorhanden. Sprich, es lassen sich nicht mehr gleiche Zugangsdaten zur Anmeldung an unterschiedlichen Webservices verwenden. Zweitens, die Zugangsfaktoren wie biometrische Informationen verlassen niemals das Endgerät eines Users Drittens, die Anwender können sich mithilfe eines Hardware-Tokens, einem Smartphone oder biometrischen Merkmalen wie beispielsweise einem Fingerabdruck, Gesichtserkennung oder Iris Scan anmelden. Viertens, für die Anmeldung sind keine Passwörter notwendig. Dadurch ist diese Authentifizierungsmethode resistent gegen Man-in-the-Middle-Angriffe und verhindert den Passwortdiebstahl durch Phishing. Fünftens, WebAuthn wird inzwischen von Windows 10, Android, Google Chrome, Mozilla Firefox, Microsoft Edge und Apple Safari unterstützt. Ebenso ist die Integration auf Webseiten über den Aufruf der WebAuthn-API möglich. Fazit: Die Web Authentication ist ein Meilenstein in der Geschichte der Internetsicherheit. Sie ist der erste globale Standard für eine sichere Web-Authentifizierung und ebnet somit den Weg in eine Welt der benutzerfreundlichen, hochsicheren und passwortfreien Authentifizierung. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Seit einigen Wochen sorgt Facebook´s geheimnisvolle Libra für helle Aufregung. Doch was verbirgt sich hinter Libra? Libra ist eine geplante Digitalwährung von Facebook, die in der ersten Jahreshälfte 2020 auf den Markt kommen soll. Sie wurde als sogenannter „Stablecoin“ konzipiert. Das bedeutet, dass die Währung an einen Währungskorb traditioneller Währungen wie US-Dollar oder Euro, sowie stabiler Vermögenswerte, darunter kurzfristig fällige Staatsanleihen gebunden ist. Dadurch lässt sich eine allzu große Volatilität, sprich Wertschwankungen, vermeiden. Eines der Hauptziele von Libra ist es, denjenigen, die kein Bankkonto haben, den Zugang zu mehr finanziellen Instrumenten und Ressourcen zu ermöglichen. Außerdem soll die neue Währung Zahlungswege vereinfachen, schneller machen sowie Sicherheit und Stabilität schaffen. Das Libra-Ökosystem wird durch die Organisation Libra Association, mit Hauptsitz in Genf, betrieben und kontrolliert. Zu den 28 Gründungsmitgliedern gehören unter anderen Facebook Inc., Spotify, Paypal, Vodafone, eBay, Visa, Mastercard, Stripe, Lyft, Uber, Coinbase und Kiva. Zusätzlich hat Facebook die Tochterfirma Calibra gegründet, die ein gleichnamiges Wallet – also eine digitale Geldbörse – für die Währung entwickeln und diese in WhatsApp und Facebook Messenger integrieren soll. Wie funktioniert Facebook’s Libra? Libra ist eine Kryptowährung, die auf der Blockchain-Technologie basiert. Mal angenommen wir geben ein Libra aus. Dann wird auf der Libra-Blockchain eine Transaktion ausgeführt. Die Blockchain ist wie eine Art Buchführung, auf der gespeichert wird, wie viele Libras ausgegeben wurden und an wen bzw. an welche Adresse. Allerdings findet diese Buchführung nicht in einem Computer statt, sondern auf vielen gleichzeitig. Allerdings ist die Libra-Blockchain, im Gegensatz zu anderen Kryptowährungen wie beispielsweise Bitcoin, nur Mitgliedern der Libra Association und eventuell der Aufsichtsbehörden zugänglich. Anders formuliert, bei Libra kann nicht jeder am Netzwerk teilhaben, sondern nur diejenigen die zugelassen wurden. Wer Mitglied werden will, muss 10 Mio. USD haben, eine bestimmte Größe von Rechenkapazitäten auf Servern mitbringen und noch andere Auflagen erfüllen, insbesondere die Reichweite bzw. die Relevanz für Zahlungen haben. Zunächst sollen jedoch nur bis zu 100 Mitglieder aufgenommen werden. Kommen wir nun zur nächsten wichtigen Frage: Wie kann man Libra nutzen? Um Libra nutzen zu können, benötigen Sie zunächst eine digitale Geldbörse, die sogenannte Calibra Wallet. Sobald Ihnen die Wallet zur Verfügung steht, können sie mit klassischen Währungen wie Dollar, Euro oder Yen bei autorisierten Tauschbörsen Libras kaufen und anschließend mit ihnen bezahlen. Laut Facebook können Verbraucher den Libra für Zahlungen innerhalb des Netzwerks und in Online-Shops nutzen. Zu den ersten Akzeptanzstellen dürften die Mitglieder der Libra Association gehören wie zum Beispiel. eBay, Spotify und Uber. Last but not Least: Welche Vorteile haben Verbraucher überhaupt, wenn sie Libra einsetzen und welche Risiken müssen sie beim Einsatz beachten? Nun, in erster Linie richtet sich Libra vor allem an Menschen, die über Ländergrenzen hinweg Geld überweisen wollen. Libra bietet kostengünstige Peer-to-Peer-Geldtransfers in beliebiger Höhe und über jede Entfernung. Ein anderes Anwendungsszenario ist beispielsweise die schnelle Überweisung von Geld unter Freunden, etwa beim Aufteilen einer Rechnung. Außerdem bringt es ein Netzwerk und damit Stabilität mit. Möglicherweise lässt sich Libra sogar für die Buchführung verwenden. Darüber hinaus bietet Libra ein stabiles Instrument zur Wertaufbewahrung mit geringen Risiken aus Wechselkursschwankungen des Reservekorbs (wenn auch ohne Zinsen). Trotz dieser Vorteile gehen Inhaber von Libras eine Reihe von Risiken ein: Erstens die Wertsicherung des Libra basiert auf einem Währungskorb. Entsprechend hat der Inhaber des Libra ein Wechselkursrisiko, das um so größer ist, je geringer die Gewichtung seiner Heimatwährung im Währungskorb des Libra ist. Liegt z. B. der Anteil des Euro im Währungskorb 30 %, so erwirbt der Anleger in Libra aus dem Euroraum faktisch 30 % Euro und 70 % Fremdwährung. Zweitens, der Inhaber von Libras hat keinen direkten Anspruch auf Auszahlung in etablierten Währungen. Es gibt stattdessen einen Währungshandel zwischen Libra und anderen Währungen. Drittens, die Reserven werden nicht in Bargeld oder Sichteinlagen gehalten, sondern in festverzinslichen Anleihen. Im Fall eines Bankansturms, wenn viele Anleger gleichzeitig aus dem Libra aussteigen wollen und die Reserve hierzu genutzt werden soll, ist diese nicht sofort liquide und der Verkauf ist mit einem Wertverlust verbunden. Fazit: Libra ist eine spannende Innovation am globalen Finanzmarkt und mittelfristig sicherlich auch eine weitere Zahlungsmöglichkeit – nicht mehr und nicht weniger. Jedoch wird Libra in erster Linie nicht für die gut versorgten Menschen hierzulande entwickelt, sondern für viele Millionen Menschen in den Entwicklungsländern, die zwar ein Smartphone sowie Internetzugang, aber kein Bankkonto besitzen. Für diese Menschen kann Libra ein echter “Game-Changer” sein. Allerdings hängt der Erfolg von Libra davon ab, ob es der Libra Association gelingen wird, erfolgreich mit den Regulatoren, den Zentralbanken und dem bestehenden Finanzsystem zusammenzuarbeiten. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Die Abkürzung FIDO steht für Fast IDentity Online und ermöglicht, vereinfacht formuliert, eine starke und sichere Authentifizierung im Internet- und das ganz ohne Passwörter. Wie sie bereits wissen, gilt die Kombination von Benutzername und Passwort längst nicht mehr als der heilige Gral, wenn es um die sichere Authentifizierung im Internet geht. So wurde 2013 die FIDO-Allianz gegründet. Die gemeinnützige Organisation hat das Ziel gemeinsam mit vielen verschiedenen Unternehmen, offene und lizenzfreie Standards für die weltweite Authentifizierung im Internet zu entwickeln und so die Online-Sicherheit signifikant zu erhöhen. Um dieses Ziel zu erreichen, hat die FIDO-Allianz bis 2014 zwei lizenzfreie Standards entwickelt, die unter den Namen U2F und UAF bekannt sind. U2F ist die Abkürzung für universeller zweiter Faktor. Der Standard beschreibt eine allgemeine Zwei-Faktor-Authentifizierung. Das bedeutet, dass man mit U2F bereits existierendes Verfahren zur Benutzerauthentifizierung mit einem zusätzlichen Faktor absichert. Diese Erweiterung kann z.B. die Benutzung eines Tokens beispielsweise ein USB-Stick sein, welches Informationen beinhaltet die die Authentifizierung erst ermöglichen. Der zweite Standard ist UAF, was für universelles Rahmenwerk zur Authentifizierung steht. Der Standard beschreibt, wie man sich im Internet ohne Passwort authentifiziert. Hierzu können biometrische Verfahren zum Einsatz kommen, sodass ein Benutzer aufgefordert wird sich z.B. per Fingerabdruck an einem Gerät zu authentifizieren. Das Besondere an diesem Verfahren ist, dass der Fingerabdruck nicht an den Server weitergeleitet wird, sondern nur zu einer lokalen Authentifizierung beiträgt, sprich der Nutzer authentifiziert sich nur gegenüber einem lokalen Gerät, einem sogenannten FIDO Authenticator. Das kann beispielsweise ein Smartphone sein. Nach der lokalen Authentifizierung wird von dem Gerät die asymmetrische Kryptographie verwendet, um den Benutzer am Server authentifizieren zu können. Mit dem FIDO2 Projekt wurden die beiden FIDO-Standards U2F und UAF weiterentwickelt. FIDO2 besteht aus einer Web-Authentifizierungsspezifikation, bekannt als WebAuthn, welches für die Browser-Server-Kommunikation zuständig ist und das entsprechende Client-to-Authenticator-Protokoll, kurz CTAP-Protokoll, welches die Browser-Authenticator-Kommunikation definiert. Der neue FIDO2-Standard ersetzt das herkömmliche Passwort und führt folgende Sicherheitslevel für die Authentifizierung ein: Die Ein-Faktor-Authentifizierung: Hier wird das Passwort durch den Besitz des Authenticators ersetzt. Die Zwei Faktor Authentifizierung: Hier wird das Passwort durch den Authenticator und die Kenntnis über eine PIN, die zuvor im Authenticator gesetzt wurde, ersetzt. Die Ergänzung zu den bisherigen Standards besteht darin, dass mit FIDO2 nicht nur der Besitz des Authenticators, sondern durch die Verwendung eines PIN für den Token auch Wissen nachweisbar ist und damit gänzlich auf Passwörter verzichtet werden kann. Wie funktioniert der Authentifizierungsprozess nun genau? Den Authentifizierungsprozess übernimmt ein Challenge-Response-Verfahren, wobei der Browser bei Authentifizierung an Webseiten die Rolle eines Relays übernimmt. Im Detail verhält sich das wie folgt: Die Webseite sendet eine Challenge an den Client-Browser, dieser leitet die Challenge mit weiteren Daten an den Authenticator weiter. Der Authenticator fragt die bei der Registrierung zuvor eingerichtete Zugangsberechtigung (privater Schlüssel) ab und überprüft Wissen des Benutzers (PIN). Sind diese Schritte erfolgreich, erzeugt er eine digitale Signatur der Challenge und übergibt diese an den Browser. Der Browser reicht die signierte Challenge an die Webseite weiter, welche die Signatur überprüft und bei erfolgreicher Verifizierung den Client authentifiziert Der Vorteil von der FIDO- Authentifizierung ist, dass sie auf die fortschrittlichere Challenge-Response Technik setzen, bei der das geteilte Geheimnis (der Private-Key) den Authenticator nicht verlässt und damit nicht übertragen werden muss. Dies hat vor allem beim Kompromittieren eines Endgeräts beträchtliche Vorteile, da Malware wie Keylogger keine Chance bekommen, Informationen abzugreifen, die eine Authentifizierung bei einem Dienst ermöglichen. Auf der anderen Seite muss man für den Fall eines Authenticator-Verlusts wichtige Vorkehrungen treffen: Entweder man richtet mehrere Authenticatoren ein, um sich im Falle eines Verlustes nicht auszusperren oder man muss auf Restore Codes zurückgreifen. Ein letztes Wort zum Schluss: In einer Zeit, in der sich die Online-Sicherheitslage drastisch verschlechtert, wird die Erfindung und Einführung von offenen Authentifizierungsstandards immer wichtiger. Geräte, die mit FIDO und FIDO2 kompatibel sind, bieten das Höchstmaß an Schutz vor Phishing- und Man-in-the-Middle-Angriffen. Mittlerweile haben mehrere große Webbrowser, darunter Chrome, Firefox und Microsoft Edge, die Standards bereits implementiert. Android und Windows 10 verfügen außerdem über integrierte Unterstützung für die FIDO-Authentifizierung. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Bei GandCrab handelt es sich um einen Verschlüsselungstrojaner- und er ist mittlerweile die am weitesten verbreitete Ransomware der Welt. Die GandCrab-Ransomware-Familie trat im Januar 2018 zum ersten Mal in Erscheinung. Die gefährliche Ransomware arbeitet nach einem „Affiliate-Modell“: Das bedeutet, dass die GrandCrab- Entwickler die Ransomware interessierten Kunden als „Ransomware-as-a-Service“ zur Verfügung stellen und dafür einen Teil des Gewinns erhalten. Die beliebte Ransomware-Familie wird mittlerweile über unterschiedliche Wege verbreitet. Zu den häufigsten Angriffsvektoren gehören Spam-E-Mails, Exploit-Kits und zugehörige Malware-Kampagnen. Doch in den meisten Fällen versteckt sich GrandCrab in gefälschten Bewerbungsanschreiben, denen eine verschlüsselte Archivdatei (etwa .rar oder .zip) und eine als angebliche .pdf-Datei getarnte .exe-Datei beigefügt ist. Den Empfängern wird dann das zum Öffnen der Archivdatei nötige Passwort im Text der E-Mail oder einer ebenfalls beigefügten .txt-Datei mitgeteilt Ähnlich wie beim Vorgänger GoldenEye, der im Jahr 2016 nach ganz ähnlichem Prinzip agierte, geben sich die Angreifer als Jobsuchende aus. Doch während die Bewerbungsanschreiben bei GoldenEye noch massenhaft Rechtschreib- und Grammatikfehler aufwiesen, sieht dies bei GandCrab ganz anders aus: Die E-Mails sind tadellos und lassen keine Annahme zum Betrug zu. Wie auch schon bei GoldenEye, werden bei GrandCrab-Angriffen die Empfänger dazu verleitet, das gefälschte Bewerbungsanschreiben im Anhang zu öffnen. Dabei handelt es sich in der Regel um eine .doc, sprich eine veraltete Word-Datei. Sobald die Empfänger das Dokument öffnen, erscheint ein täuschend echter Hinweis im Microsoft Office Design. Darin werden die Empfänger aufgefordert, den Kompatibilitätsmodus zu aktivieren, da es sich bei diesem vermeintlichen Dokument um ein veraltetes Format handelt. Sobald die Empfänger dieser Aufforderung nachkommen, wird die Ausführung von Makros zugelassen und mithilfe von Windows-Bordmitteln die eigentliche Ransomware von einer zuvor gekaperten Webseite heruntergeladen und ausgeführt. GrandCrab wiederum verschlüsselt die Festplatte und ersetzt den Desktop-Hintergrund mit einem Bild der Lösegeldforderung. Im vergangenen Jahr übertraf GrandCrab andere Ransomware-Varianten in ihrer Popularität und Viralität. Einige GandCrab-Nutzer begannen Unternehmen über exponierte Remote-Desktop-Protocol-Instanzen anzugreifen oder sich direkt mit gestohlenen Domänen-Anmeldeinformationen anzumelden. Nach der Authentifizierung auf einem kompromittierten PC führten die Angreifer die Ransomware manuell aus und wiesen sie an, sich über ein ganzes Netzwerk zu verteilen. Sobald das Netzwerk infiltriert war, beseitigten sie ihre Spuren und kontaktieren die Betroffenen mit einem Entschlüsselungsangebot. Schon damals veröffentlichte das Bundesamt für Sicherheit in der Informationstechnik eine Warnung. Darin heißt es: Ransomware ist und bleibt eine ernstzunehmende Bedrohung. Das Vorgehen der Cyber-Kriminellen im aktuellen Fall zeigt zudem, dass technische Gegenmaßnahmen konsequent und durchdacht umgesetzt werden müssen. Sensibilisierungsmaßnahmen für Mitarbeiterinnen und Mitarbeiter sollten außerdem zum Standardfortbildungsprogramm in Unternehmen gehören, insbesondere dort, wo auch E-Mails von unbekannten Absendern mit unbekannten Dateianhängen geöffnet werden müssen, wie es in Personalabteilungen der Fall ist. Viele Unternehmen leiden unter dem Fachkräftemangel und freuen sich über jede Bewerbung, die sie erhalten. Dies sollte jedoch nicht zu Nachlässigkeiten bei der Cyber-Sicherheit führen." Bevor wir nun zum Ende unsere heutigen Podcasts kommen, möchte ich Ihnen noch einige Tipps zum Schutz vor Ransomware mit auf den Weg geben: Implementieren Sie eine Sicherheitslösung mit mehrschichtiger Anti-Ransomware-Abwehr, um eine GrandCrab- Infektion sowie andere Malware-Infektionen zu verhindern. Sichern Sie Ihre Daten regelmäßig Vermeiden Sie das Öffnen von E-Mail-Anhängen unbekannter E-Mails Und im Falle einer gelungenen Infektion, sollten Sie den Forderungen der Angreifer auf keiner Weise nachkommen. Sichern Sie stattdessen die verschlüsselten Informationen und verständigen Sie die Polizei. Kontakt: Ingo Lücker, ingo.luecker@itleague.de
Kontakt: Ingo Lücker, ingo.luecker@itleague.de Die Abkürzung TAP steht für Test Access Point (auch als Testzugangspunkt bezeichnet) Hierbei handelt es sich um ein Hardwaregerät, dass an einer bestimmten Stelle im Netzwerk installiert wird, um den Datentraffic zu überwachen. Test Access Points wurden entwickelt, um den gesamten Datenverkehr transparent, schnell und ohne Beeinträchtigung einer aktiven Netzwerkleitung bereitzustellen sowie verschiedene Monitoring Anwendungen und Analysezwecken durchführen zu können. Warum braucht man einen Netzwerk-TAP? Grundsätzlich gibt es viele verschiedene Methoden, um Zugang zum Netzwerk zu erhalten. Mittels eines SPAN-Ports in einem Switch oder eines in-line Anschlusses eines Überwachungsgeräts in einem Netzwerk. Allerdings sind beide dieser Methoden mit Risiken verbunden. SPAN-Ports sind oft die preiswerteste Lösung. Allerdings werden bei einer Überlastung häufig Pakete verworfen, noch bevor die Daten das Überwachungstool erreichen. Außerdem besteht das Risiko, dass einige der Fehlerpakete, die Probleme verursachen könnten, verloren gehen. Wenn diese Daten niemals an das Überwachungstool gesendet werden, weil sie verworfen wurden, ist es unmöglich Fehler aufzudecken und damit zu beheben. Beim in-line Anschluss, muss das Netzwerk jedes Mal unterbrochen werden, wenn Updates erforderlich sind oder das Tool neu gestartet werden muss. Genauso fällt bei einem Ausfall des Überwachungstools auch das Netzwerk aus. Alle diese Probleme können durch die Verwendung eines Test Access Points gelöst werden. Wenn man einen Test Access Point verwendet, hat man die Garantie, dass jedes Paket aus dem Netzwerk auch an das Überwachungstool gesendet wird. Das liegt daran, dass diese Geräte niemals überlaufen. Somit übertragen sie wirklich jedes Paket, insbesondere die wichtigen Fehlerpakete, die ein SPAN-Port möglicherweise verwirft. Wie funktioniert das Ganze nun genau? Grundsätzlich wird der Test Access Point einmalig, zwischen zwei Netzwerkgeräten installiert. Typischerweise besteht ein Test Access Point aus vier Ports: einem Port A, einem Port B und zwei Überwachungsports. Die Ports A und B sammeln den Verkehr aus dem Netzwerk und die Überwachungsports senden eine Kopie dieses Traffics an ein angeschlossenes Überwachungsgerät. Üblicherweise wird ein TAP zwischen zwei Punkten im Netzwerk platziert. Das Netzwerkkabel zwischen den Punkten A und B wird durch ein Kabelpaar ersetzt, das dann an den TAP angeschlossen wird. Der Traffic wird passiv durch den TAP geleitet, ohne dass das Netzwerk davon weiß. Das ermöglicht es dem TAP eine Kopie des Traffics zu erstellen, die an den Überwachungsport gesendet wird, um von einem weiteren Tool verwendet zu werden, ohne dass sich etwas am Fluss des Netzwerkverkehrs ändert. Welche Arten von Netzwerk TAPs gibt es? Es gibt verschiedene Ausführungen von Netzwerk Test Access Points, um unterschiedliche Funktionalitäten zu erreichen, die der Struktur und den Bedürfnissen Ihres Netzwerkes entsprechen. Breakout TAP: Breakout TAPs sind die einfachste Form von Test Access Points. Er besteht aus vier Ports: zwei Input-Ports und zwei Output-Ports. Die zwei Input-Ports sammeln dabei jeweils den Verkehr aus dem Netzwerk. Dann sendet der Breakout TAP eine Kopie dieses Traffics hinaus an die Überwachungsports. Das macht es möglich eine Kopie des Traffics aus einem einzelnen Netzwerksegment zu überwachen und/oder zu analysieren, ohne das Netzwerk zu stören. Aggregator TAPs: Mithilfe eines Aggregator TAPs kann man, den Netzwerkverkehr von mehreren Netzwerksegmenten nehmen und alle Informationen an einem einzigen Überwachungsport aggregieren. Dadurch ist es möglich, den gesamten Netzwerkverkehr mit nur einem verwendeten Überwachungstool zu sehen. Regenerator TAPs: Regenerator TAPs hingegen erlauben es den Verkehr aus einem Netzwerksegment zu nehmen und ihn an mehrere Überwachungstools zu senden. Das gibt uns die Möglichkeit einen einzigen Verkehrsstrom an eine Reihe verschiedener Überwachungstools zu senden, die jeweils unterschiedlichen Zwecken dienen, während der Traffic nur einmal aus dem Netzwerk entnommen wird. Dann gibt es noch den Bypass TAPs Der Bypass TAPs (auch bekannt als Bypass Switche) ermöglicht es, ein Netzwerktool "virtuell in-line" zu platzieren. Diese TAPs werden verwendet, wo Überwachungstools zur Erreichung von Effektivität in-line im Netzwerk platziert werden müssen. Welche Vorteile ergeben sich nun aus der Nutzung von Test Access Points? Nun ja: Zum einen können Sie selber bestimmen, wo Sie die Daten abgreifen möchten. Dadurch können sie die Qualität des Messergebnisses maßgeblich beeinflussen und verbessern. Zum anderen arbeiten Netzwerk-Test Access Points auf dem OSI Layer 1 und besitzen keine MAC-Adresse. Daher sind sie im Netzwerk unsichtbar und können demnach auch von keinem Angreifer erkannt werden. Dies ist gerade in der Netzwerk Forensik und im Sicherheitsbereich unabdingbar. Ferner sind Netzwerk-Test Access Points so aufgebaut, dass sie widerstandsfähig und transparent sind, um die Auswirkungen auf den Produktionsdatenverkehr zu minimieren oder zu eliminieren. Darüber hinaus verfügen Test Access Points über eine zusätzliche “fail-open” Technologie, die die Datenleitung auch bei einer Stromunterbrechung durchschaltet. Dadurch arbeitet der Netzwerk Test Access Point wie eine Kabelbrücke und schützt dabei alle Produktivnetze vor einem Ausfall. Ein letztes Wort zum Schluss: Test Access Points bieten einen verlustfreien und zuverlässigen Mitschnitt von Netzwerkdaten, unabhängig davon wo das Netzwerk oder das Netzwerkgerät überwacht werden soll.
Kontakt: Ingo Lücker, ingo.luecker@itleague.de Die Abkürzung DRaaS steht für Disaster Recovery as a Service. Und wie der Name schon vermuten lässt, handelt es sich hierbei um Services aus der Cloud, mit denen sich bei einem Notfall oder einer Störung IT-Services, IT-Strukturen oder Daten wiederherstellen lassen. Die Störungen können dabei auf unterschiedliche Art verursacht werden, wie zum Beispiel durch Naturkatastrophen, Hardware- und Systemausfällen, Bedienungsfehlern oder Hackerangriffen. Das Ziel einer Disaster Recovery ist es, die negativen Auswirkungen für ein Unternehmen so gering wie möglich zu halten. Beim Disaster Recovery as a Service-Modell (DRaaS-Modell) stellen Anbieter Speicherplatz, Backup Services, virtuelle IT-Strukturen oder virtuelle Server als Cloud-Dienstleistung zur Verfügung, um Notfälle jeglicher Art abzusichern, ohne dass man selbst zusätzliche Hard- und Software in einem eigenen Rechenzentrum bereitstellen muss. Nach der Störungsbehebung lassen sich alle Daten und Anwendungen problemlos auf den unternehmenseigenen Server wiederherstellen. Vor der Implementierung einer Disaster Recovery as a Service-Lösung schließen der Kunden und der Provider ein Service-Level-Agreement ab. Dieser Service-Level-Agreement beinhaltet neben den Services auch einen Disaster Recovery Plan. Dieser enthält alle Maßnahmen, Verfahren und Vorgaben aufgeführt, die in einem Störungsfall zum Tragen kommen. Außerdem sind Meldewege, Eskalationsstufen und Definitionen der Verantwortlichkeiten im Katastrophenfall Bestandteil eines jeden Disaster Recovery Plans. Die Abrechnung der Disaster Recovery Services erfolgen entweder mit einem, im Vorfeld definierten, Pauschalbetrag oder nach nutzungsabhängigem Verbrauch. Denkbar wären hier zum Beispiel Volumen der turnusgemäß kopierten Daten oder die Anzahl der wiederhergestellten Daten. Vorteile von DRaaS Es gibt gute Gründe warum man -meiner Meinung nach- Disaster Recovery as a Service Lösungen in Erwägung ziehen sollen: Erstens die Geschwindigkeit:I Im Gegensatz zu klassischen Disaster Recovery Lösungen stellen Disaster Recovery as a Service Lösungen eine viel schnellere, automatisierte und zuverlässige Recovery-Maßnahme zur Verfügung. Zweitens niedrigere Kosten und verbesserte Zuverlässigkeit Disaster Recovery as a Service Lösungen ermöglichen die Senkung von Betriebskosten. Das kommt vor allem kleineren und mittleren Unternehmen zugute die selbst nur wenig Know-how und Ressourcen für eigene Notfallmaßnahmen und -strukturen besitzen. Außerdem verbessern Disaster Recovery as a Service Lösungen die Zuverlässigkeit. 3. Drittens die verbesserte Verwaltung Durch den Einsatz von Disaster Recovery as a Service-Lösungen verringert sich der administrative Aufwand. Das bedeutet, dass sich Administratoren mit Aufgaben beschäftigen können, die mehr geschäftlichen Erfolg versprechen. 4. Viertens die nahtlose Redundanz und Skalierbarkeit Disaster Recovery as a Service-Lösungen verschaffen Administratoren ein gewisses Sicherheitsgefühl. Denn Disaster Recovery as a Service-Lösungen decken alle offenen und beunruhigenden Punkte ab. Allerdings muss man an dieser Stelle auch sagen, das Disaster Recovery as a Service auch gewissen Nachteile mit sich bringen. Da wäre zum Einen, Der Kontrollverlust: Wie bei jeder Cloud-Lösung gibt ein Unternehmen die direkte Kontrolle über den Prozess bzw. die unternehmenskritischen Daten an einen Drittanbieter ab. Da sich die Disaster Recovery-Rechenzentren nicht im firmeneigenen Netzwerk befinden und die Verbindungen in jedem Fall über das Internet verlaufen, muss man sich auf die Bandbreite und Latenzzeiten der öffentlichen Infrastruktur verlassen. Ein weiterer nennenswerter Punkt ist in diesem Zusammenhang der Standort der Rechenzentren. Die Unternehmen müssen dem Anbieter glauben, dass die Daten nur auf Servern im deutschen Rechtsraum gespeichert werden. Daher ist es für Unternehmen mit Standorten nur innerhalb Deutschlands ratsam, ausschließlich Anbieter zu wählen, die garantieren können, dass sie die Daten ausschließlich in deutschen Rechenzentren gespeichert haben. Last but not least. Hier sind fünf Fragen, die Sie sich vor der Wahl einer Disaster Recovery as a Service-Lösungen stellen sollten Wie viele und welche Art von Daten müssen Sie sichern, und wie schnell? Welche internen Ressourcen haben Sie für die Implementierung einer DRaaS-Lösung? Kann der Anbieter die fehlenden Ressourcen kompensieren? Wie umfangreich muss der Support sein? Welche Datensätze müssen Sie in Zukunft sichern, die aktuell noch nicht gesichert werden müssen? Wie hoch ist Ihr Budget? Mein Fazit: Wenn sie keine ausreichenden internen Ressourcen für eine zuverlässige Disaster Recovery haben, sollten sie diese Funktion als Service einkaufen. Denn eine Disaster Recovery-Lösung von einem Drittanbieter ist in jedem Fall besser als überhaupt keine zu haben.
Kontakt: Thomas Hampel, thomas.hampel@itleague.de Virtual Reality ist in aller Munde – und das nicht ohne Grund. Doch bevor ich Ihnen die Ausgangsfrage beantworte, möchte ich Ihnen zuallererst die Begriffe “Virtual” und “Reality” erläutern. Der Begriff "virtual" zu deutsch virtuell hat seinen Ursprung im Französischen und bedeutet "scheinbar vorhanden". Im technologischen Umfeld wird dieser Begriff schon länger verwendet, um etwas zu beschreiben, das zwar nicht physisch, jedoch in seiner Funktionalität oder Wirkung vorhanden ist, wie zum Beispiel ein virtuelles Laufwerk. Wie die meisten von Ihnen wissen, ist ein virtuelles Laufwerk, eine funktionelle Nachbildung eines CD-Laufwerks inklusive eines Datenträgers, welches zwar nicht als Hardware existiert, aber aus Anwendersicht genauso wie ein physisches Laufwerk funktioniert. Der Begriff “Reality” zu deutsch Realität hingegen bezeichnet im allgemeinen Sprachgebrauch alles, was keine Illusion ist, sprich es steht für die „Wirklichkeit” die man mit all seinen Sinneseindrücken erleben kann. Kommen wir also zurück zu der Ausgangsfrage: „Was ist eigentlich Virtual Reality?“ Die virtuelle Realität ist die Darstellung und gleichzeitige Wahrnehmung einer künstlich erschaffenen Welt. Durch die Kombination von unterschiedlichen Sinneseindrücken wie Bild und Ton entsteht das Gefühl von einer neuer Realität und Wirklichkeit. Man nennt diesen Effekt auch Immersion. Das bedeutet, dass man als Nutzer in eine computergenerierte, interaktive und virtuelle Umgebung eintaucht und Raum und Zeit der wirklichen Welt vergisst. Das wichtigste bei der ganzen Sache ist allerdings die Ausrüstung. Damit Nutzer eine virtuelle Realität wahrnehmen können, benötigen sie in erster Linie eine Virtual-Reality-Brille, kurz VR Brille,., die mithilfe zweier Displays und besonderen Linsen eine nicht existierende Realität direkt vor den Augen simuliert und ein Gerät, das die entsprechenden Bilder erzeugen kann, wie zum Beispiel eine Konsole oder einen PC. Um die virtuelle Realität nicht nur mit den Augen sondern allen Sinneszellen wahrnehmen zu können, werden neben VR-Brillen, Datenhandschuhe, Kopfhörer, Surround-Sound Systeme und Geruchssimulatoren eingesetzt. Virtual Reality ist längst nicht mehr auf die Spielewelt beschränkt, sondern wird überall dort eingesetzt wo virtuelle Unterstützung Probleme lösen.Zu dem Dinge vereinfachen, Kosten einsparen, Menschen heilen, schützen,besser ausbilden oder einfach nur faszinierende Erlebnisse bieten kann, wie bei einem virtuellen Panorama/360 Grad Rundgang durch verschiedene Objekte wie beispielsweise Häuser, Büroräume oder Restaurants und Hotels. Virtual Reality spielt vor allem in der Medizin eine große Rolle. Hier können mit Hilfe der Technologie beispielsweise Phobien behandelt werden, indem der Patient Situationen ausgesetzt wird, vor denen er panische Angst hat, ohne ihn wirklich zu gefährden. Oder der Patient -vor allem Kinder-kann sich ganz wie zu Hause fühlen, obwohl er im Krankenhaus ist, indem das eigene Schlafzimmer virtuell dargestellt wird. Ein weiteres Anwendungsbeispiel ist der Einsatz bei Planungen von Infrastrukturmaßnahmen, die das Landschaftsbild verändern. Die Umwelt kann so nachgebildet werden, dass die Bürger nicht nur sehen, sondern erleben können, was sich durch ein Vorhaben verändert. Zu sehen sind: der genaue Standort und ggf. Alternativen die Umgebung mit der existierenden Bebauung, dem Verkehrsnetz und den Sehenswürdigkeiten zur Orientierung Straßen mit fließendem Verkehr, einstellbar nach Tageszeit (auf Basis von Verkehrszählungen oder Prognosen) Ein weiteres Anwendungsbeispiel das zunehmend zu Vermarktungszwecken eingesetzt wird, ist die virtuelle Begehung von Räumlichkeiten. Dem Nutzer wird so die Möglichkeit gewährt ein Objekt von Zuhause aus zu "besichtigen". Zahlreiche Geschäfte und Hotels setzen mittlerweile solche Touren zu Werbezwecken ein und sind beispielsweise auf Google Street View zu finden. Weitere Einsatzgebiete der Virtual Reality sind unter anderem in der Architektur und Bauwesen Luft und Raumfahrt Energie-und Umwelttechnik Tourismus Kunst, Kultur und Museen VR-Games Die Vorteile der Virtual Reality liegen klar auf der Hand. Durch die neue mediale Erlebniswelt, die ein unmittelbares Erleben mit allen Sinneseindrücken verspricht, bietet sie allen Unternehmen eine große Chance neue Märkte und Zielgruppen zu erschließen. Bevor wir zum Ende unseres heutigen Podcasts kommen, möchte ich kurz erwähnen, das Sie nähere Informationen zu virtuellen Rundgängen und auf unserer Webseite https://360.itleague.de finden können.
Kontakt: Ingo Lücker, ingo.luecker@itleague.de Heute dreht sich alles um das Thema: „Was ist eigentlich Application Whitelisting?“ Beim Application Whitelisting handelt es sich um ein Verfahren, mit dem man die Ausführung nicht autorisierter oder schädlichen Applikationen auf einem IT-System oder in einem Netzwerk verhindert. Das erreicht man, indem man eine Positivliste, die sogenannten Whitelist erstellt. Auf dieser Whitelist werden alle Anwendungen aufgeführt, die auf einem Gerät oder einem System laufen dürfen. Sprich, solange eine Anwendung nicht explizit in der Whitelist eingetragen ist, ist jegliche Kommunikation oder Interaktion über diese Anwendung untersagt. Grundsätzlich bestehen Whitelisting-Produkte aus zwei Komponenten: Die erste Komponente ist ein Softwaremodul, der sogenannte Agent. Dieser wird auf allen Systemen installiert, die von der Whitelisting-Lösung geschützt werden sollen. Nach der Installation fängt der Agent alle Startversuche ab und prüft die betreffende Applikation anhand der Whitelist, ob diese in der Whitelist aufgeführt ist oder nicht. Um hier eine fälschungssichere Authentifizierung zu gewährleisten, setzt man ein Hash-Verfahren ein. Bei diesem Verfahren werden Prüfsumme ermittelt und miteinander verglichen. Beim Whitelisting generiert der Agent aus den Binärdaten der zu startenden Anwendungen einen Hash, sprich eine Prüfsumme. Diese Prüfsumme wird mit der Prüfsumme auf der Whitelist verglichen. Ist die Anwendung mit der dazugehörigen Prüfsumme nicht auf der Whitelist gelistet, wird die Ausführung der Software verweigert. Die zweite Komponente ist eine Software, die zum Ausstellen von Anwendungs- und Richtlinien-Zertifikaten (sogenannten App-Certs) zuständig ist. App-Certs sind elektronische Ausweise für Software und Anwendungen. Sie analysieren, welche Komponenten zu welchen vertrauenswürdigen Applikationen gehören und ordnen diese entsprechend zu. Außerdem kann man mit ihnen Sicherheitsregeln definieren, die die Whitelisting-Software auf den zu schützenden Systemen anwenden soll. Wo lassen sich nun Application-Whitelisting Produkte konkret einsetzen? Application-Whitelisting Produkte kommen in den unterschiedlichsten Bereichen der IT zum Einsatz. Zu den möglichen Einsatzszenarien zählen unter anderem: Firewalls werden oftmals über eine Whitelist konfiguriert. So können nur die definierten und in der Whitelist aufgeführten Kommunikationsziele über die Firewall hinweg kommunizieren, alle anderen Verbindungswünsche werden unterbunden. Ebenso kann Application-Whitelisting beim Endgeräteschutz eingesetzt werden. Hier können Endgeräte lediglich die Applikationen ausführen, die in der Whitelist aufgelistet sind. Ein weiteres Anwendungsgebiet des Application- Whitelistings ist der Jugendschutz. Über die Whitelist lässt sich ein Internetzugang so konfigurieren, dass für bestimmte User nur die in der Liste geführten Ziele aufrufbar sind. Auch E-Mail-Systeme können über eine Whitelist gesteuert werden. So können nur E-Mails von vertrauenswürdigen Absendern empfangen werden. Allerdings werden die zuvor genannten Einsatzszenarien in der Praxis von unterschiedlichen Seiten kritisiert. Beispielsweise erfordert das Application Whitelisting die Pflege von Datensätzen. Das bedeutet, die Whitelist muss dynamisch sein. In Anbetracht der Vielzahl von Programmen, Apps, Betriebssystemen und Servern kann sich die Verwaltung von Application Whitelists als schwierig erweisen. Der Aufwand lohnt sich hauptsächlich für Anbieter von Antivirenprogramme, Firewalls und weiteren Sicherheitsprogrammen. Nichtsdestotrotz kann Application Whitelisting bei folgenden Aspekten helfen: Schutz vor Schadsoftware wie Viren, Trojanern oder Ransomware, dem Schutz vor noch unbekannter Schadsoftware (Zero-Day-Exploits), dem Schutz vor Schadsoftware, die über vorhandene Sicherheitslücken eingedrungen ist und Schutz vor DLL-Injection Angriffen sowie Schutz vor Angriffen durch eigenes Personal im internen Netz Wir kommen nun zum Ende unseres Podcasts. Alles in allem kann man sagen, dass mit Application-Whitelisting-Lösung Ihre Systeme und Netzwerke nicht mehr mit Schadsoftware infiziert oder durch eigenes Personal angegriffen werden können. Die daraus resultierenden Schäden entfallen und auch aufwändige Neuinstallationen sind dann Schnee von gestern. Außerdem erfüllen Sie durch den Einsatz von Whitelisting-Produkten die gesetzlichen Anforderungen. Kurzum: Application Whitelisting reduziert Ausfälle, erhöht die Stabilität und Produktivität.
Kontakt: Ingo Lücker, ingo.luecker@itleague.de Heute dreht sich alles um das Thema: „Was ist eigentlich eine heuristische Analyse?“ Bevor ich Ihnen die Frage beantworte, möchte ich Ihnen zunächst einmal erklären, was Heuristik eigentlich ist. Der Begriff Heuristik stammt aus dem Griechischen und bedeutet so viel wie auffinden oder entdecken. Die Heuristik ist, einfach formuliert, die Lehre des Gewinnens neuer Erkenntnisse auf methodischem Weg. Kommen wir also zurück zu der Ausgangsfrage: Was ist eigentlich eine heuristische Analyse? Bei einer heuristische Analyse handelt es sich um eine Methode zur Virenerkennung. Hierbei untersucht die Heuristik den Code einer Datei nach verdächtig erscheinenden Befehlen und Merkmalen. Wenn sie einen verdächtigen Befehl erkennt, erhöht sie den “Verdächtigkeitszähler” für die Datei. Wenn der Wert des Zählers nach Untersuchung des gesamten Codes einen vordefinierten Grenzwert überschreitet, wird die Datei als verdächtig eingestuft. Der Vorteil der heuristischen Analyse im Vergleich zu signaturbasierten Virenprogrammen ist, dass man nicht nur bekannte Viren, sondern auch neue und modifizierte Viren finden und erkennen kann. Virenprogramme die rein auf Signaturbasis arbeiten, können gefährliche Viren nur dann als schädlich einstufen, wenn diese bereits bekannt sind und analysiert wurden. In der heuristischen Analyse kommen grundsätzlich zwei verschiedene Techniken zum Einsatz: Die statische Heuristik und die dynamische Heuristik. Bei der statischen Heuristik erfolgt eine Dekompilierung, also das Rückübersetzen, eines verdächtigen Objekts (Programm oder Datei) und die Untersuchung des Quellcodes. Dieser Code wird dann mit Virensignaturen verglichen, die bereits bekannt sind und sich in der heuristischen Datenbank befinden. Sobald ein vordefinierter Prozentsatz des Quellcodes mit Informationen in der heuristischen Datenbank übereinstimmt, wird das Objekt als verdächtig eingestuft. Die Vorteile dieser Methode liegen in der einfachen Umsetzung und hohen Leistungsfähigkeit. Die Erkennungsrate von neuem schädlichem Code ist jedoch gering, die Wahrscheinlichkeit von Fehlalarmen dagegen hoch. Bei einer dynamischen Heuristik werden verdächtige Programme oder Code-Teile in einer sicheren virtuellen Umgebung oder einer Sandbox ausgeführt. Das heißt, dass ein Antivirenprogramm den verdächtigen Code analysiert und alle Befehle, die durch das Aktivieren des Codes auftreten, wie Selbstreplikation, das Überschreiben von Dateien und andere Aktionen, dokumentiert. Wenn das Antivirenprogramm während einer Testausführung Aktionen erkennt/ findet, die als verdächtig einzustufen sind, wird das entsprechende Objekt für die reale Ausführung auf einem Computer komplett blockiert und der Virus somit unschädlich gemacht. Im Vergleich zur statischen erfordert die dynamische Methode mehr Systemressourcen, da für die Analyse eine sichere virtuelle Umgebung erforderlich ist und die Ausführung von Programmen auf dem Computer bis zum Abschluss der Analyse verschoben wird. Allerdings ist die Erkennungsrate von Schadprogrammen bei der dynamischen Methode entschieden höher als bei der statischen Methode und die Wahrscheinlichkeit von Fehlalarmen ist wesentlich geringer. Bevor ich zum Schluss komme möchte ich festhalten, dass die heuristische Analyse heutzutage eine zentrale Komponente in Antivirenprogrammen spielt. Moderne Antivirenprogramme kombinieren sowohl die statischen als auch dynamischen Analysemethoden, um schädliche Viren, virusartiges Verhalten und verdächtige Änderungen an Dateien umgehend zu erkennen und unwirksam zu machen. Dadurch lernt sie auf diese Weise selbstständig, neue Gefahren zu entdecken. Außerdem kann man bei einer heuristischen Analyse im Vorfeld die Genauigkeitsstufen für die Untersuchung festlegen. Allerdings möchte ich erwähnen, dass man die Heuristik sorgfältig abstimmen muss, um die bestmögliche Erkennung neuer Bedrohungen zu bieten, ohne einen Fehlalarm für völlig unschuldigen Code zu generieren.
Kontakt: Ingo Lücker, ingo.luecker@itleague.de Bei einem Honeypot zu deutsch Honigtopf handelt es sich um eine digitale Lockfalle. Das bedeutet, dass sich Honeypots nach außen hin, wie echte Computerprogramme, Serversysteme oder Netzwerke verhalten und verschiedene Dienste und Nutzer simulieren. Ähnlich wie Bären für Honig schwärmen, läuft Cyberkriminellen beim Anblick dieser unzureichend gesicherten Systeme, Anwendungen und Netzwerke das Wasser im Mund zusammen. Sobald sie einen Angriff auf die Honeypots starten, erhalten die Administratoren eine Nachricht und die Aufzeichnung der “kriminellen” Aktivitäten beginnt. Mit Honeypots lassen sich so die Angriffsmuster und Angriffsmethoden protokollieren und analysieren. Außerdem besteht sogar die Chance, dass man die Angreifer identifizieren und verfolgen kann. Da Honeypots, von den produktiven IT-Systemen und Netzwerken isoliert sind und besonders überwacht werden, kann durch das Eindringen eines Angreifers kein Schaden entstehen. Um Honeypots einzurichten gibt es in der Praxis serverseitige und clientseitige Technologien. Beim serverseitigen Honeypotting, werden Angreifer in isolierte Bereiche eines IT-Systems gelockt, um sie so von kritischen Netzwerkkomponenten fernzuhalten. Dazu simuliert ein einfacher Honeypot eine Serveranwendung, die einen oder mehrere Dienste im Netzwerk bereitstellt – beispielsweise einen Webserver. Lässt sich ein Angreifer durch das Ablenkmanöver täuschen und startet einen Versuch in das System einzudringen, zeichnet der Honeypot sämtliche Aktivitäten auf, schlägt Alarm oder leitet Gegenmaßnahmen ein. Beim clientseitigen Honeypotting wird eine Anwendungssoftware imitiert, die Serverdienste in Anspruch nimmt. Ein Paradebeispiel hierfür ist die Simulation eines Browsers, der gezielt unsichere Webseiten besucht, um Daten über Sicherheitsrisiken zu sammeln. Kommt es auf einer dieser Seiten zu einem Angriff auf den Browser oder Browser-Plug-ins, wird der Vorgang protokolliert. Grundsätzlich ist das Ziel eines Honeypots, lange unentdeckt zu bleiben und einen Angreifer zu täuschen. Daher ist eines der wichtigsten Kriterien zur Klassifizierung von Honeypots der Grad der Interaktivität mit dem Angreifer. Man unterscheidet in diesem Zusammenhang sowohl serverseitig als auch clientseitig zwischen Low-Interaction-Honeypots und High-Interaction-Honeypots. Low-Interaction-Honeypots sind Scheinziele mit einem geringen Grad an Interaktivität. Das bedeutet, dass sie in der Regel auf der Nachahmung realer Systeme oder Anwendungen basieren. Dabei werden Dienste und Funktionen nur soweit simuliert, dass ein Angriff möglich ist. High-Interaction-Honeypots sind Scheinziele mit einem hohen Grad der Interaktivität. Das bedeutet, dass es sich hierbei um reale Systeme handelt, die Server-Dienste anbieten und daher gut überwacht und abgesichert werden müssen. Neben diesen beiden Technologien gibt es noch die sogenannte Research-Honeypots und Produktion-Honeypots. Research-Honeypots werden von Forschungseinrichtungen, Behörden und vom Militär genutzt, um Informationen über neue Angriffsmuster zu sammeln und diese in aufbereiteter Form der Internet-Community zur Verfügung zu stellen. Production-Honeypots werden in Unternehmen in erster Linie zum Schutz des Firmennetzwerks eingesetzt. Hierzu werden in den Netzwerkbereichen, die im Normalbetrieb nicht angesprochen werden und weder Mitarbeitern noch Kunden Dienste zur Verfügung stellen, digitale Lockfallen installiert. Durch die fingierten Sicherheitslücken werden die Angreifer so in ein ungenutztes System gelockt und die Zugriffe können als Angriff gewertet, überwacht und analysiert werden. Wie werden Honeypots nun implementiert? Um Honeypots einzurichten beziehungsweise zu implementieren haben Administratoren grundsätzlich zwei Möglichkeiten: Entweder wird ein physisches System als Honeypot genutzt oder man implementiert einen Honeypot auf Basis von Virtualisierungs-Software. Bei einem physischen Honeypot handelt es sich um einen eigenständigen Rechner, der mit eigener Adresse in ein Netzwerk eingebunden wird. Bei einem virtuellen Honeypot handelt es sich um ein logisches System, dass durch eine Virtualisierungs-Software Ressourcen eines physischen Rechners zugeteilt bekommt. Fazit: Sie sehen, ein Honeypot kann, wenn er richtig eingesetzt wird, ein wertvoller Bestandteil eines mehrschichtigen IT Sicherheitskonzeptes sein. Sie sind ein bewährtes Mittel, um Cyberangriffe und Bedrohungen zu erkennen, zu analysieren und entsprechende Schlüsse daraus zu ziehen. Außerdem kann man mit Honeypots Angreifer von echten Serversystemen oder Netzwerken ablenken, ohne sie zu schädigen. Allerdings muss man bedenken, dass falsch konfigurierte Honeypot-Sicherheitssysteme ein hohes Sicherheitsrisiko für das Unternehmensnetzwerk und andere Systeme darstellen können. Darüber hinaus stellt die Installation und Überwachung des Systems sowie die Analyse der Angriffe einen großen Aufwand dar. Da Honeypots und Honeynets Hacker anlocken, sollten Sie vor der Implementierung und dem Live-Schalten von Honeypots sowohl IT-Security Experten, als auch einen Rechtsberater hinzuziehen.
Kontakt: Ingo Lücker, ingo.luecker@itleague.de Heute dreht sich alles um das Thema: „Was ist eigentlich ein Rootkit?“ Bei einem Rootkit handelt es sich um eine ganze Sammlung verschiedener Schadprogramme. Diese nisten sich über eine Sicherheitslücke in einen Computer ein und ermöglichen einem Angreifer, den dauerhaft Remote-Access (ferngesteuerten Zugriff) auf den Rechner. Je nachdem, auf welcher Berechtigungsebene sich das Rootkit ausgebreitet hat, kann es dem Angreifer sogar umfassende Administrationsrechte verschaffen, wodurch er die uneingeschränkte Kontrolle über den Rechner erhält. Da Rootkits in der Lage sind, sich und andere virtuellen Schädlinge zu verstecken, können sie unter anderem Änderungen auf der grundlegendsten Ebene eines Rechners vornehmen, Dateien auszuführen, das System modifizieren und seine Verwendung nachverfolgen. Und das Ganze geschieht natürlich ohne das Wissen des eigentlichen Nutzers. Deswegen werden Rootkits oft auch „Tarnviren“ genannt, obwohl sie per Definition nicht als Viren klassifiziert werden. Geschichte: Die ersten Rootkits tauchten in den frühen 90er-Jahren auf. Damals zielten sie noch ausschließlich auf Unix-ähnliche Betriebssysteme wie Linux ab. Aus dieser Zeit stammt auch ihre Bezeichnung: Mit „Root“ wird bei Unix der Administrator bezeichnet, der Wortteil „kit“ bedeutet wiederum so viel wie „Ausrüstung“ oder „Werkzeugkasten“. Ein „Rootkit“ ist also ein Programm, das einem Anwender (berechtigt oder unberechtigt) privilegierten Zugriff auf einen Computer ermöglicht. Einige von Ihnen dringen bis in den Kernel – also den innersten Kern und damit die „Wurzel“ (Englisch: „root“) – des Systems vor und werden von dort aus aktiv. Wie funktionieren Rootkits eigentlich? Inzwischen gibt es die verschiedensten Arten von Rootkits. Doch die Funktionsweise der Rootkits und das Vorgehen zur Infiltration eines Systems ist immer noch dieselbe: Infektion Zuerst wird ein System infiziert: Das geschieht entweder durch (Social Engineering, Drive-by-Download, einem USB Stick oder einem Evil Maid Attack) Social Engineering, wo Cyberkriminelle durch Beeinflussung oder bewusste Täuschung von Mitarbeitern an Zugangsdaten und Passwörter gelangen, und so Zugriff auf den Rechner erhalten und das Rootkit installieren oder durch Drive-by-Download. Hier gelangen Rootkits beim Herunterladen einer Software aus einer unsicheren Quelle oder per Klick auf einen Link oder Anhang in einer Phishing-E-Mail auf den Rechner. oder durch einen USB-Stick, der ein Rootkit enthält und durch einen unbedachter Finder und seiner Neugier auf eine Rechner gelangt oder aber durch den Häcker eigenhändig auf einem unbewachten Computer installiert wird. Man nennt diese Art von System Infizierung auch „Evil Maid Attacks“ zu Deutsch: „Böses-Dienstmädchen-Angriff. Tarnung (Stealth) Sobald das System infiziert ist, und sich das Rootkit eingenistet hat, erfolgt die Tarnung. Dafür beginnt das Rootkit, jene Prozesse zu manipulieren, über die Programme und Systemfunktionen Daten untereinander austauschen. Auf diese Weise erhält ein Virenprogramm bei einem Scan lediglich gefälschte Informationen, aus denen sämtliche Hinweise auf das Rootkit herausgefiltert wurden. Aus diesem Grund ist es selbst professioneller Antivirus-Software oft unmöglich, die Schädlinge anhand ihrer Signaturen oder einer Verhaltensanalyse (Heuristik) ausfindig zu machen. Hintertür (Backdoor) einrichten Im letzten Schritt richtet das Rootkit eine sogenannte „Backdoor“ zu deutsch eine Hintertür im System ein. Diese wird vom Angreifer Hacker mittels eines ausgespähten Passworts oder einer Shell genutzt, um dauerhaft via Remote-Access auf den Rechner zuzugreifen. Häufig werden mit einem Rootkit infizierte Rechner auch zu Bot-Netzen zusammengeschlossen und für Phishing oder DDoS-Attacken mobilisiert. Dem Rootkit kommt dabei die Aufgabe zu, jeden Anmeldevorgang und jede verdächtige Aktivität zu verbergen. Was für Rootkits gibt es eigentlich? Rootkits unterscheiden sich vor allem in ihrer Methodik, mit der sie Malware-Prozesse und Hacker-Aktivitäten tarnen. Am häufigsten kommen Kernel- und User-Mode-Rootkits zum Einsatz. Kernel-Mode-Rootkits Kernel-Mode-Rootkits nisten sich im Kernel eines Betriebssystems ein und ermöglicht somit den Tiefenzugriff auf sämtliche Hardware-Komponenten und erlaubt beliebige Veränderungen von Systemeinstellungen. Das bedeutet: Konnte ein Angreifer dort ein Rootkit platzieren, erhält er die volle Kontrolle über das gesamte System. User-Mode-Rootkit Im Gegensatz zu Kernel-Mode-Rootkits agieren User-Mode-Rootkits lediglich auf der Benutzerebene eines Computers. User-Mode-Rootkits tarnen sich, indem sie den Datenverkehr zwischen dem Betriebssystem und den installierten Viren- und Sicherheitsprogrammen abfangen und manipulieren. Sonstige Rootkits Neben diesen beiden unterscheidet man noch vier weitere Arten von Rootkits, die eher als ungefährlich eingestuft werden: Application-Rootkit: Application-Rootkit ist die primitivste Variante des Rootkits. Sie ersetzt Systemprogramme durch eigene, modifizierte Varianten und ist daher recht einfach zu erkennen. Aus diesem Grund wird sie von Angreifern kaum noch eingesetzt. Speicher-Rootkit: Speicher-Rootkit können nur im Arbeitsspeicher existieren und verschwinden demnach vom System, sobald es neu gestartet wird. Bootkits: Bootkits verändern den Bootsektor, die Software, die vor dem Laden des Betriebssystems gestartet wird. Mobile Rootkits Mobiler Rootkits attackieren vor allem Android-Geräte. Diese Rootkits sind meist Teil einer schädlichen App, die von einem Drittanbieter-App-Store heruntergeladen wird. Zu guter Letzt widme ich mich der Frage, wie kann man sich vor Rootkits schützen? Die Sicherheitsmaßnahmen gegenüber Rootkits sind grundsätzlich dieselben, die auch für andere häufig vorkommende Schädlingstypen gelten: Nutzen Sie starke Passwörter. Führen Sie regelmäßig Security Awareness Schulungen für Ihre Mitarbeiter durch Implementieren Sie mehrstufige Sicherheitsprogramme in Ihre IT-Infrastruktur. Pflegen Sie Ihr System mit regelmäßigen Updates. oder Sie nutzen speziell auf Rootkits ausgerichtete Programme wie beispielsweise den sogenannten Rootkit-Scan. In manchen Security-Softwares ist diese Funktion bereits enthalten.
Heute dreht sich alles um das Thema: „Was ist eigentlich eine Multi Cloud?“ Unter dem Begriff "Multi Cloud" versteht man die Verbindung mehrerer Cloud-Dienste und -Plattformen zu einer gemeinsamen Cloud. Das bedeutet, dass man in einer Multi Cloud-Umgebung, Cloud-Services, Anwendungen und Infrastrukturen verschiedener Anbieter miteinander kombiniert und sie parallel nutzen kann. Aus Anwendersicht verhält sich eine Multi Cloud dann wie eine einzige große Cloud (Wolke), die sowohl Public Clouds als auch Private Clouds integriert. Lassen Sie mich das Ganze an dem folgenden Beispiel erklären: Stellen Sie sich die Multi Cloud als eine Autoindustrie mit ihren verschiedenen Zulieferern vor. Die unterschiedlichen Lieferanten der Autoindustrie repräsentieren in der Multi Cloud die verschiedenen Cloud-Anbieter. Zum Teil können gleiche Services (Fahrzeugkomponenten) sogar parallel von verschiedenen Anbietern (Lieferanten) bezogen werden. Die Multi Cloud kombiniert die einzelnen Services unterschiedlicher Provider zu einer einzigen großen Cloud analog zum Autohersteller, der die verschiedenen Komponenten der einzelnen Lieferanten zu einem Fahrzeug zusammenfügt. So lassen sich in der Multi Cloud beispielsweise Infrastructure as a Services (IaaS), Platform as a Services (PaaS) und Software as a Services (SaaS) von unterschiedlichen Anbietern beziehen und parallel nutzen. Die Multi Cloud Lösung bieten dem Anwender dabei auf einer Plattform eine einheitliche Managementoberfläche. Welche Vorteile bietet Ihnen der Einsatz einer Multi Cloud? Eine Multi Cloud gibt Ihnen die Möglichkeit, für die jeweiligen Workloads den am besten geeigneten Cloud-Anbieter und Cloud-Dienst flexibel zu wählen. Gleichzeitig schützt die Nutzung von verschiedenen Cloud-Anbieter vor Abhängigkeiten. Das heißt, dass die Risiken, die durch diese Anbieterabhängigkeit entstehen, dank der parallelen Nutzung verschiedener Anbieter minimiert werden. Außerdem können Sie flexibel auf Änderungen der Kostenstruktur und der Leistungsfähigkeit der Anbieter reagieren und jeweils optimale Ergebnisse für Ihr Unternehmen erzielen. Ein weiterer Vorteil der sich durch die parallele Nutzung der Dienste-Anbieter ergibt, ist die Steigerung der Verfügbarkeit und der Ausfallsicherheit. Sprich, kommen verschiedene Cloud-Plattformen zum Einsatz, sinkt das Risiko, dass ein Ausfall bei einem einzelnen Provider das komplette Unternehmen betrifft. Im Optimalfall können die ausgefallenen Services flexibel zur Überbrückung einer Störung von einem Alternativanbieter bezogen werden. Verschwindet ein einzelner Cloud-Provider vom Markt, ist dies in der Regel ebenfalls unkritisch, da sich die benötigten Cloud-Services problemlos bei einem neuen oder bereits in der Multi Cloud vorhandenen Anbieter beziehen lassen. Ebenso können Sie Anwendungen, die hohe Ansprüche in puncto Rechenleistung, Speicherbedarf oder Netzwerkperformance haben, von einem Anbieter beziehen, der diese Anforderungen erfüllt. Andere in dieser Hinsicht unkritische Services, lassen sich bei einem besonders kostengünstigen Provider hosten. Der entstehende Service-Mix hat positive Auswirkungen sowohl auf Ihre IT-Kosten als auch auf die Leistungsfähigkeit der Anwendungen. Die Nachteile der Multi Cloud Natürlich hat auch das Konzept der Multi Cloud nicht nur Vorteile, sondern auch nennenswerte Nachteile, die man vor der Entscheidung berücksichtigen muss: Zum einen wird das Management der Multi Cloud Lösung mit der Anzahl der eingesetzten Anbieter und Cloud-Modelle komplexer und schwieriger. Außerdem steigt die die Anzahl möglicher Schnittstellen und Fehlerquellen. Zudem haben Unternehmen einen größeren Aufwand für die Verwaltung und Abrechnung der Services durch die Vielzahl verschiedener Anbieter Ein weiteres Problem ist, dass es durch die vielen verschiedenen Einzelkonzepte der Anbieter und die daraus entstehenden Inkonsistenzen kein einheitliches Datenschutz- und Datensicherheitskonzept gibt. (Das Multi Cloud Management) Um eine Multi Cloud-Lösung effizient im Unternehmen einsetzen zu können, ist eine ganzheitliche Sicht und Kontrolle der eingesetzten Cloud-Services und IT-Infrastruktur zwingend erforderlich. Diese Anforderung kann man ganz einfach durch Cloud-Management-Plattformen, kur CMP realisieren. Auf diesen Management-Plattformen lassen sich sämtliche Cloud-Modelle wie Private Cloud, Public Cloud, Hybrid Cloud und Multi Cloud unter einer gemeinsamen Management-Oberfläche vereinen und abbilden. Gleichzeitig können sowohl die Ressourcen im unternehmenseigenen Rechenzentrum als auch die virtualisierten Services der verschiedenen Cloud-Anbieter einbezogen werden. Im Optimalfall erfasst und visualisiert die Cloud-Management-Plattform die komplette IT-Landschaft des Unternehmens und ermöglicht die zentrale Verwaltung aller Services und Ressourcen. Sie sehen, mit einer Multi-Cloud können Sie also unterschiedliche „Wolken“ für unterschiedliche Aufgaben nutzen. Natürlich bestimmen die unternehmensspezifischen Workloads und individuellen Anforderungen zum Beispiel an Performance, Sicherheit, Datenschutz oder geografischer Reichweite, die Auswahlkriterien für die jeweilige Cloud-Lösungen.
Heute dreht sich alles um das Thema: „Was ist eigentlich QoS?“ Die Abkürzung QoS steht für den Fachbegriff "Quality of Service" oder zu deutsch Dienstgüte. Unter QoS werden alle Maßnahmen, Parameter und Protokolle zusammengefasst, die Einfluss auf den Datenverkehr in einem Netzwerk nehmen, um die Qualität und Erreichbarkeit eines Dienstes zu verbessern oder zu gewährleisten. Oder lassen Sie mich es so formulieren: Quality of Service ist die Qualität eines Netzwerkdienstes aus der Sicht des Anwenders. Wobei die Dienstgüte daran gemessen wird, wie der Dienst den entsprechenden Anforderungen entspricht. Grundsätzlich verhält sich ein Netzwerk standardmäßig so, dass alle Datenpakete aus jeglichen Anwendungen gleich behandelt werden. Das heißt aber auch, dass in einem Paket-orientierten Netzwerk, je nach Auslastung wohlgemerkt, die einzelnen Datenpakete unterschiedlich schnell unterwegs sein können. So lange nur Nachrichten und Dateien übertragen werden, kommt es hierbei selten zu Verzögerungen. Werden jedoch Datenpakete von Echtzeit-Anwendungen, wie beispielsweise Live-Streaming oder Voice over IP übertragen, dann wirken sich Verzögerungen oder Paketverluste negativ aus. Die Konsequenz: Es kommt zu Störungen bei der Sprach- und Videoübertragung. Beispielsweise durch abgehackte Sprache oder fehlende oder pixeligen oder ruckelnden Bild-Fragmente. Im Vergleich dazu fällt es allerdings kaum auf, wenn eine E-Mail ein paar Sekunden später beim Empfänger eintrifft. Mit Quality of Service (QoS) kann man dem Ganzen entgegenwirken, indem man bestimmte Datenpakete priorisiert. In der Praxis sieht das dann so aus, dass man die Datenpakete unterschiedlichen Dienstklassen und Verkehrsklassen zuordnet. Datenpakete einer höheren Verkehrsklasse werden in Routern oder Switche bevorzugt weitergeleitet. Doch das wiederum erfordert die Implementierung von notwendigen QoS-Mechanismen auf der ganzen Übertragungsstrecke. Sprich alle Geräte die den Datenverkehr auf der Übertragungsstrecke abwickeln sollen, wie Router oder Switches müssen die korrekte QoS-Konfiguration haben. Sinnbildlich kann man das Ganze mit einer vollen Autobahn an einem Freitagnachmittag vergleichen. Der Verkehr ist auf allen Spuren stockend, jedes Auto kommt entsprechend langsam voran, ein Überholen ist aussichtslos. Plötzlich ertönt aus der Ferne ein Krankenwagen. Damit dieser ohne Verzögerung durchfahren kann, müssen alle Fahrer auf dem linken Fahrstreifen nach links ausweichen, alle anderen nach rechts. Und jetzt stellen Sie sich vor, ein Fahrer weicht nicht aus, oder weicht anstatt nach links nach rechts aus? Ähnlich verhält es sich mit QoS. Also lassen Sie mich das noch einmal zusammenfassen. In einem typischen Netzwerk kann der Datenverkehr durch mehrere Faktoren beeinflusst werden. Beispielsweise durch: eine geringe Bandbreite, bzw. Übertragungsgeschwindigkeit. durch Laufzeitverzögerungen, die auch Delay genannt werden und bei der Umwandlung der Datenformate und durch das Routing entstehen. Durch Laufzeitschwankungen, auch bekannt als Jitter. Die Auftreten wenn beispielsweise zwei Datenpakete unterschiedliche Routen nehmen und sie zu unterschiedlichen Zeiten beim Empfänger ankommen Oder durch Paketverluste wenn Datenpakete aus verschiedenen Gründen von Netzwerkgeräten gelöscht werden. Bei QoS geht es also darum, dass man mit unterschiedlichen Verfahren oder Maßnahmen wie Überdimensionierung der Netze (viel mehr Bandbreite als erforderlich) Reservierung von Bandbreite für bestimmte Anwendungen Exklusive Nutzung für VoIP: mit MPLS, VLAN oder durch eigene Leitungen Priorisierte Übertragung bestimmter Datenpakete Verbindungsorientiertes Protokoll unterhalb der IP-SchichtWenn man das eigene Netzwerk oder eine Mietleitung kontrolliert und leistungsfähige QoS-Mechanismen durchsetzt, dann ist die Dienstgüte meist kein Problem. Beim Übergang in ein fremdes Netzwerk gehen allerdings die Eigenschaften verloren, da es bis dato keine einheitlichen Standards und Abkommen für QoS gibt. versucht bestimmte Datenpakete Vorrang zu gewähren, um den Betrieb zeitkritischer Anwendungen zu gewährleisten.
Heute dreht sich alles um das Thema: „Was ist eigentlich ein SD-Wan?“ Die Abkürzung SD-Wan steht für Software-Defined Wide Area Network. Und wie der Name schon vermuten lässt, handelt es sich hierbei um ein Weitverkehrsnetz bei dem die Netzwerksteuerung softwaremäßig erfolgt und von der Hardware getrennt ist. Es ist noch ein sehr junges Verfahren, dessen Ursprünge im Software-defined Networking (SDN) liegen. Im Gegensatz zur traditionellen WAN-Architektur, die wie Sie wissen sehr teuer und komplex sind, ermöglicht SD-WAN eine einfache und kostengünstige Einrichtung und Bereitstellung von WAN-Diensten an verteilten Standorten und bietet eine zentralisierte Verwaltung, netzwerkweite Kontrolle und Transparenz. SD-WAN ist eine Overlay-Architektur, die die traditionelle WAN-Architektur um eine Software-Ebene erweitert. Beim SD-WAN-Konzept spielen Controller eine wichtige Rolle, da sie die diversen Switches und Router steuern und die Policies an die Netzknoten verteilen. Dabei verwaltet die Software alle netzrelevanten Daten zentral. Sprich alle Informationen über das Routing, das Netzwerkmanagement, die Konfiguration und die Sicherheitsrichtlinien. Außerdem schafft die Softwaresteuerung flexible Strukturen, denen problemlos neue Links, Pfade oder Verbindungsstrukturen hinzugefügt oder geändert werden können. Ebenso können die Sicherheitsrichtlinien flexibel eingesetzt werden. Wie funktioniert SD-WAN nun eigentlich genau? Im Groben müssen Sie sich das so vorstellen: Die softwarebasierte Virtualisierung mittels Software-Defined Networking (SDN) Technologie und Network Function Virtualization (NFV) ermöglicht eine Netzwerk-Abstraktion. Die Netzwerkmanagement-Ebene, die auch Kontroll-Ebene (Control Plane) genannt wird und die optimale effektivste Route durch das Netzwerk bestimmt, wird dabei von der Datentransport-Ebene (Data Plane), die für die Weiterleitung der Datenpakete zuständig ist entkoppelt und in ein Cloud-System ausgelagert. Die Netzwerkmanagement-Ebene liegt jetzt als Overlay, über der WAN-Verbindung und ermöglicht die Priorisierung von Anwendungen und Datenpaketen sowie die Abstraktion der Unternehmensrichtlinien und eine zentralisierte Netzwerksteuerung und Überwachung. Mithilfe einer zentralen Management-Konsole können nun IT-Verantwortliche bestimmte Anwendungen und Datenströme nach Wichtigkeit priorisieren und über spezifische WAN-Verbindungen leiten. Das bedeutet, dass geschäftskritische und sicherheitsrelevante Daten und Anwendungen beispielsweise über sichere MPLS-Verbindungen verschickt werden und weniger kritische Daten über die Internetverbindungen wie Breitband, 3G/4G/LTE, Glasfaser).So kann der Datenverkehr dynamisch auf unterschiedliche Netzwerke und Verbindungen verlagert und dadurch die Bandbreite optimiert werden. Bei Ausfall einer Verbindung kann der Traffic auf andere Pfade umgeleitet werden. Dadurch kann bei einem Failover schnell reagiert und eine hohe Ausfallsicherheit erzielt werden. Darüber hinaus ermöglicht die Network Function Virtualization das WAN automatisiert anzupassen. Das heißt Netzfunktionen wie beispielsweise ein Multi-VPN, ein Internet-Breakout, oder eine Firewall können fast per Knopfdruck an bereitgestellt werden.Sie sehen, die SD-WAN Technologie erfüllt die Anforderungen, die Cloud-Services, SaaS, Big Data und IoT-Anwendungen heute an ein Netzwerk stellen. Es ergänzt und ersetzt herkömmliche WAN-Router und unterstützt Transporttechnologien wie MPLS, Internet und LTE. Durch die zentrale Netzwerksteuerung kann der Traffic in Echtzeit gesteuert werden. Es können flexible Strukturen aufgebaut, der WAN-Traffic und die Verbindungen können in Bezug auf die Kosten, Auslastung und Datensicherheit optimiert werden. Zudem kann Überlast verhindert und Verzögerungen und Paketverluste minimiert werden.Wie kann ein multinationales Unternehmen SD-WAN in seinem Netz einführen? Im Prinzip führen drei Wege zum Software-defined WAN: Ehe wir zum Schluss kommen, möchte Ich mich noch kurz einer Frage widmen: Außerdem baut SD-WAN eine einheitliche Konnektivität über jeden Transportweg auf, indem es private und öffentliche Verbindungen, Festnetze, optische Netze, das Internet und Mobilfunknetze abstrahiert, wodurch vorhandene WAN-Verbindungen beibehalten und als Tunnel genutzt werden können, um die Bandbreite zu optimieren und die effektivste Route zu bestimmen. Wie bereits geschildert, setzt ein SD-WAN auf einem bestehenden Netzwerk auf und überlagert es (Overlay). Die vorhandene WAN-Infrastruktur wird durch eine komplett neue SD-WAN-Infrastruktur ersetzt, beispielsweise durch SD-WAN Boxen. oder SD-WAN wird als Service von einem WAN-Provider oder Internet Service Provider (ISP) bezogen. Jeder Ansatz bietet seine Vorteile und Nachteile. Zusammenfassend kann ich sagen: Mit der SD-WAN-Technologie profitieren Sie durch eine Höhere Flexibilität: Da durch das intelligente Routing und hybrides Netzdesign, kritische Daten über das private MPLS, weniger kritische Daten über das öffentliche Internet geleitet werden. Außerdem können Sie mit Hilfe des Web-Portals Anpassungen wie z. B. Bandbreitenbedarf, Priorisierungen, Ports etc. kurzfristig selbst vornehmen werden. Geringere Kosten: Da Bandbreitenintensive und gleichzeitig weniger kritische Anwendungen und Daten auf das preiswertere öffentliche Internet ausgelagert (Traffic Offloading) werden. Außerdem können Sie den Bandbreitenbedarf im Bedarfsfall kurzfristig selber erhöhen und senken. Dass heißt dass die höheren Kosten für mehr Bandbreite lediglich im tatsächlich benötigten Zeitraum entstehen und nicht darüber hinaus.
Hallo und herzlich willkommen liebe IT Profis, zu einer neuen Folge des IT Manager Podcasts! Mein Name ist Ingo Lücker, schön, dass Sie wieder dabei sind! Heute dreht sich alles um das Thema: „Was ist eigentlich ein Microsoft Flow?“ Microsoft Flow ist eine Cloud-basierte Workflowplattform, um sämtliche Geschäftsprozesse, Genehmigungsvorgänge und Informationssynchronisierungen zwischen verschiedenen Applikationen und Diensten zu automatisieren. Oder einfach formuliert: Mit Microsoft Flow können Sie wiederkehrende Arbeitsschritte im beruflichen und privaten Alltag, durch automatisierte Prozesse und Workflows produktiver gestalten, ohne das Sie ständig einen Entwickler ansprechen müssen. Aber lassen Sie mich das näher erklären: Eine klassische Workflow-Anforderung besteht oft darin, das ein bestimmter Genehmigungsprozess automatisiert werden soll oder eine Benachrichtigung zu einem Prozess auszulösen. Hierbei kann es sich um die unterschiedlichsten Anwendungsfälle handeln, wie zum Beispiel die Genehmigung von Reisekosten, oder Urlaubsanträge oder die Freigabe einer Schulung. Um einen automatisierten Workflow in Microsoft Flow anzulegen, müssen Sie zunächst einen Flow definieren. Dabei legen Sie die einzelnen Arbeitsschritten und Aktionen fest, die beim Eintreten eines bestimmten Ereignisses stattfinden sollen. Sobald Sie den Flow erstellt haben, können Sie ihn auf dem Desktop oder über eine App auf einem mobilen Endgerät verwalten oder Sie teilen ihn einfach mit ihren Kollegen. Hierzu haben Sie zwei Optionen. Bei der ersten Option können Sie weitere Personen als Besitzer eintragen und ihnen die Freigabe erteilen den Flow zu bearbeiten und anzupassen. Bei der zweiten Option erhalten die Personen nur die Berechtigung, manuell auszuführende Flows zu starten. Mit dem Ein- und Ausschalter können Sie als Flow-Ersteller verhindern, dass Workflows automatisch ausgeführt und Daten verarbeitet werden. Wie sieht das Ganze nun in der Praxis aus? Nehmen wir doch mal das Beispiel: Sie möchten, dass alle E-Mail-Anlagen einer bestimmten Person in einer SharePoint-Dokumentbibliothek gespeichert werden. Für diesen Flow stellt Ihnen Microsoft Flow diverse Templates zur Verfügung. Dieses Template müssen Sie lediglich modifizieren, indem Sie die entsprechende E-Mail-ID als Absender in der zu überprüfenden Bedingung angeben. Neben den zahlreichen Templates bietet Microsoft Flow die Möglichkeit, einen benutzerdefinierten Connector oder eine benutzerdefinierte Aktion zu erstellen, dass exakt auf die aktuellen Bedürfnisse des Unternehmens zugeschnitten ist. Ein Beispiel: Über ein Web-Formular werden personenbezogenen Daten in einer Azure SQL Datenbank eingetragen. Sie möchten, dass alle eingetragenen Daten als Lead im CRM-System erfasst werden. Anschließend soll eine E-Mail mit Details zum Lead an die Vertriebsmitarbeiter gesandt werden. Hört sich komplex an, aber mit dem äußerst benutzerfreundlichen Microsoft Flow können Sie diesen Workflow mit nur wenigen Klicks und Modifikationen abbilden und automatisieren. Da mittlerweile über 180 Services und Applikationen miteinander “Connected” werden können, um plattformübergreifend Flows zu erstellen - dazu zählen nicht nur Microsoft-Produkten wie SharePoint, Dynamics 365, OneDrive oder Microsoft Teams, sondern auch Dienste von Drittanbietern wie Dropbox, Google Drive, Twitter, Facebook oder Salesforce- müssen Unternehmen vertrauliche oder kritische Geschäftsdaten schützen, die in Unternehmensdiensten wie SharePoint oder OneDrive gespeichert sind. Zum Schützen dieser Daten können Unternehmen in Microsoft Flow Data-Loss-Prevention-Richtlinien (DLP) erstellen und definieren, welche Applikation und Dienste Zugriff auf Geschäftsdaten haben und diese teilen können. Durch die DLP wird verhindert, dass wichtige Geschäftsdaten versehentlich an Connectors wie Websites von sozialen Netzwerken veröffentlicht werden. Da Microsoft Flow bereits als eigenständiger Service-Bestandteil im Microsoft Office 365 und Dynamics-365-Pakets integriert ist, können ihn Unternehmen bereits nutzen. Außerdem gibt es für mobile Endgeräte die kostenlose Flow-App, mit der man Workflows erstellen und diese anschließend veröffentlichen kann. Voraussetzung dafür ist ein aktiver Microsoft-Flow- bzw. Office-365-Unternehmens-Account und die mobile App. Ein letztes Wort, bevor ich zum Schluss komme: Mit Microsoft Flow können Sie sich nicht nur automatisiert Benachrichtigungen zukommen, Daten automatisiert mit anderen Bibliotheken synchronisieren oder Daten automatisiert an einem bestimmten Ort speichern lassen, sondern auch komplexe wiederkehrende Genehmigungsprozesse automatisieren. Flow gibt Ihnen die Möglichkeit, Ihre wertvolle Zeit für wichtige Prozesse zu nutzen, anstatt für Routinearbeiten. So liebe IT Profis, das wars auch schon für heute vom IT Manager Podcast, ich hoffe es hat Ihnen gefallen – wenn ja freue ich mich wie immer sehr über ein Like auf Facebook und eine fünf Sterne Bewertung bei iTunes. Nächste Woche Freitag gibt es dann natürlich wieder eine neue Folge des IT Manager Podcasts.
In dieser Folge erfahren Sie alles rund um das Thema: „Was ist eigentlich Smarthome?“ Zunächst einmal die Zielformulierung für ein sogenanntes Smarthome: Es soll sicherer und komfortabler als ein herkömmliches Haus sein. Was für Möglichkeiten es dafür gibt, welche Produkte eingesetzt werden und wie diese funktionieren schauen wir uns an dieser Stelle einmal gemeinsam an: Möglichkeiten für die Einrichtung eines Smarthomes sind scheinbar unbegrenzt. Ob es unter Sicherheits- und Energieaspekten die Vernetzung von Jalousien mit Außensensoren, die Heizung mit Temperaturerkennung oder aber auch Lampen, und elektronische Geräte bis hin zur Spülmaschine mit Fernsteuerung ist, mit einer vernetzten Haustechnik gelingt zum einen eine Kosteneinsparung durch z. B. Strom- und Heizkosten Einsparung, zum anderen erreicht man über die Möglichkeit der „Fernsteuerung“ per App Haushaltsaufgaben zeiteffizient zu lösen. Wie unter anderem das Starten der Waschmaschine zum gewünschten Zeitpunkt, ohne vor Ort sein zu müssen. Auch in der sogenannten Unterhaltungselektronik gibt es immer mehr Vernetzungsmöglichkeiten unter anderem natürlich von Lautsprechern, aber auch das Speichern von Daten für den gesamten Haushalt. Produkte die Smarthome bekannt gemacht haben sind natürlich die berühmt, berüchtigten Amazon Echo Gadgets in ihren verschiedensten Varianten. Meist auch als Alexa bekannt. Mithilfe von Alexa kann man sich nicht nur Fragen beantworten oder das Wetter vorlesen lassen, sondern ebenfalls die Steuerung von Smarthome – Einheiten übernehmen. Das funktioniert dann folgendermaßen: Alexa ist kontinuierlich in einer Art Standby Modus und registriert währenddessen sämtliche Kommunikation. Fällt ein Signalwort wird sie aktiv. Signalwörter sind zum Beispiel Alexa, Amazon oder auch Computer. Da Alexa mit dem Internet verbunden ist, wandelt sie das - dem Signalwort folgende – gesprochene in eine Art Suchanfrage um. Dabei lernt sie durch Interaktion mit dem Nutzer ständig dazu und erkennt dessen Stimme im Laufe der Zeit immer besser. Um Alexa nun wirklich zur Steuerung des Smarthomes nutzen zu können bedarf es der sogenannten Skills – also Erweiterungen – der Grundfähigkeiten. Diese Skills werden dann von dritt Anbietern konfiguriert. Mit dem Skill Philips Hue gelingt es unter anderem Lampen, Räume und Szenen steuern. Mit dem Skill Samsung Smart Home – Complete kann man Haushaltsgeräte wie Staubsaugerroboter oder Rasenmäher bedienen. Und nicht zuletzt mit Sonos die verschiedensten Lautsprecher regeln. Wie Sie sehen liebe IT Profis mit einem Smarthome, egal ob es nun über Alexa gesteuert oder Google Assistent und Lenovo Smart Assistent genutzt wird bietet viele Vorteile und Möglichkeiten. Neben den Vorteilen gibt es aber natürlich auch immer wieder Probleme, die bei der Nutzung dieser Produkte auftauchen, insbesondere im Datenschutz. Denn man sollte nie vergessen, dass sämtliche Kommunikation im Standby Modus des Gerätes zunächst einmal aufgezeichnet wird. Auch kann es bei Familien zu Fehlbestellungen komme, wo Alexa - wie in den Medien berichtet wurde - per Sprachsteuerung durch Kinder und dem gekoppelten 1-Click-Pay Puppenhäuser gekauft hat oder die Musik laut aufdrehte obwohl niemand im Haus war.
Hallo und herzlich willkommen liebe IT Profis, zu einer neuen Folge des IT Manager Podcasts! Mein Name ist Ingo Lücker, schön, dass Sie wieder dabei sind! Heute dreht sich alles um das Thema: „Was ist eigentlich ein PoE?“ Die Abkürzung PoE steht für Power over Ethernet (PoE) und beschreibt ein Verfahren, mit dem vor allem Netzwerkgeräte, die wenig Strom verbrauchen, wie zum Beispiel IP-Kameras, IP-Telefone, kleine Hubs und WLAN Access Points (WAP) über das Ethernet-Kabel mit Strom und Daten versorgt werden. Das hat den großen Vorteil, dass ein einziges Kabel genügt, um die Strom- und Datenübertragung zu ermöglich. Dadurch können Anschaffungs-und Betriebskosten für zusätzliche Stromversorgungskabel eingespart werden. Außerdem lassen sich Netzwerkgeräte an Orten installieren, an denen keine Stromkabel vorgesehen sind. Durch die zentrale Stromverteilung über Switches werden auch keine externe Netzadapter oder Netzteile benötigt. Ein schöner Nebeneffekt: Weniger Kabel, weniger Kabelsalat. Wie funktioniert PoE also im Detail? Damit die Endgeräte mit Strom versorgt werden können, ist eine bestehende Datenverbindung Voraussetzung. Über diese Datenverbindung stellt das Power Sourcing Equipment (PSE), eine Komponente der PoE-Architektur, fest, ob die PoE-kompatiblen Netzwerkgeräte Strom benötigen. Diese Powered Devices (PD) werden über sogenannte Endspan-Devices wie zum Beispiel Switches, oder Midspan-Devices wie zum Beispiel Hubs mit Strom versorgt. Durch die ausgefeilte Schutzfunktion des PoE-Systems wird der Strom automatisch abgeschaltet, sobald zu viel Spannung übertragen wird und die Gefahr eines Kurzschlusses droht. So werden Schäden an den anhängenden Endgeräten verhindert. Wichtig ist es hierbei, dass alle Netzwerkgeräte im Vorfeld auf Tauglichkeit für PoE untersucht werden. Beim Resistive-Power-Directory-Verfahren, prüft die Stromquelle mithilfe einer speziellen Messschaltung den Innenwiderstand des angeschlossenen Endgeräts. Ist er hochohmig, liegt also im Bereich von etwa 20 bis 26 Kiloohm und überschreitet die Kapazität einen bestimmten Wert nicht, aktiviert die Stromquelle die Energieversorgung. In einem zweiten Messschritt ermittelt die Stromquelle die Leistungsklasse des Endgeräts. PoE-Leistungsklassen: Mögliche PoE Klassen sind die Klassen 0 bis 4. Je nachdem wie viel Strom ein Netzwerkgerät benötigt, ist es einer bestimmten Klasse zugewiesen. Dadurch kann die Stromquelle die richtige Menge an Energie bereitstellen und das Netzwerkgerät entsprechend versorgen. PoE-Standards: Neben den PoE Klassen wird PoE in unterschiedliche Standards unterteilt. Jeder Standard ermöglicht unterschiedliche maximale Leistungen. Diese unterschiedlichen Standards könnt ihr in unseren ShowNotes nachlesen. Beim IEEE 802.3af-2003-Standard werden Geräte mit bis zu 15,4 W (min. 44 Volt und 350 Milliampere) auf jedem Port versorgt. Allerdings sind hier nur 12,95 Watt garantiert, da ein gewisser Anteil bei der Übertragung verloren geht. Der neuere IEEE 802.3at-2009-Standard (auch bekannt als PoE+) bietet bis zu 25,5 Watt. Der IEEE 802.3bu (PoDL) ist vor allem für einpaarige Leitungen im industriellen Umfeld wie zum Beispiel in Fahrzeugen oder Produktionsmaschinen wichtig.Hier gibt es zehn Stufen von 5 bis 50 Watt. Der IEEE 802.3bt-Standard (4PPoE oder PoE++) stellt größere Kapazitäten bis zu 55 Watt (Level 3) und 100 Watt (Level 4) für die Stromversorgung bereit. Damit kann ein ganzer Arbeitsplatz mit Rechner, Bildschirm und Telefon über ein Ethernet-Kabel versorgt werden. Ein weiterer Punkt ist der, dass man vor der Installation die zusätzliche Erwärmung des Kabels berücksichtigen muss. Denn je mehr Strom durch das LAN-Kabel fließt, umso mehr Wärme wird durch den Widerstand erzeugt. Dies beeinträchtigt jedoch die Datenübertragung. Deshalb sollte im Vorfeld geklärt werden, welcher Belastung das Kabel standhalten muss und wie die Wärme des Kabels abfließen kann. Ein vorhandenes LAN mit Power over Ethernet aufzurüsten, ist kein großes Unterfangen und in der Regel preiswerter, als eine Steckdose von einem Elektriker installieren zu lassen. Außerdem kann man durch die PoE-Technologie nicht nur von einer stärkeren Stromversorgung, sondern auch schnellerer Datenübermittlung profitieren. Beim Einsatz von PoE sollte man beachten, dass es zu einer Verlustleistung kommt. Das heißt, je länger ein Netzwerkkabel ist, desto höher ist der Verlust zwischen maximaler Leistung am Port und maximal nutzbarer Leistung. Deshalb muss beim Kauf des Kabels schon auf den Aderquerschnitt geachtet werden, der nicht über einem AWG-Wert von 24 liegen sollte (CAT5).
In dieser Folge erfahren Sie alles rund um das Thema: „Was ist eigentlich OCR?“ Hinter der Abkürzung OCR verbirgt sich der Begriff „Optical Character Recognition“, der im deutschen auch als Texterkennung bekannt ist. Das Ziel bei OCR ist also ganz einfach. Der PC beziehungsweise das Endgerät soll Texte auf Bildern erkennen und diese in ein bearbeitbares Textdokument umwandeln. Der Vorteil, Dokumente nicht mehr einzeln händisch abtippen zu müssen liegt dabei natürlich auf der Hand, denn seien wir einmal ehrlich, welches Unternehmen hat dafür im normalen Tagesgeschäft schon Zeit. Wie das Ganze funktioniert wollen wir uns nun einmal näher anschauen. Früher gelang Texterkennung nur mit speziell standardisierten Schriften, wie beispielsweise auf Checks, die dann mit Lesegeräten erkannt werden konnten. Heute können die verschiedenen Softwares auch normale Schriftbilder weitestgehend fehlerfrei „entschlüsseln“ und umwandeln. Dabei erfolgt zunächst eine Trennung zwischen Text und eventuell vorhandenen Bildern bei einer Layoutanalyse. Es werden ebenfalls bereits Formatierungen analysiert und mit voreingestellten Algorithmen übernommen. Erst im zweiten Teil geht es dann wirklich um das Textverständnis. Im Hintergrund hat die OCR-Software gängige Sprachmuster die ihr helfen Buchstaben von Zahlen und Groß- und Kleinschreibung zu unterscheiden. Dabei geht die Software vom Großen ins Kleine über, also von ganzen Textpassagen, zur Satz- und schließlich zur Buchstabenebene. Der Algorithmus vergleicht dabei konstant das gescannte Bild mit ihm bekannten Wort und Satzstrukturen und bei hoher Übereinstimmung wandelt er den erkannten Teil des Bildes dann in Buchstaben, aus denen er Worte und schließlich Sätze bildet - in ein Textdokument um, bis das am Ende mit geringer Fehlerwahrscheinlichkeit der Text vollständig umgewandelt ist. Dieses Textdokument kann dann wie gewohnt gespeichert oder weiterbearbeitet werden und somit in Datenbanken beziehungsweise Dokumentenmanagementsystemen eingepflegt und sinnvoll genutzt werden. OCR ähnliche Handschriftanalysen werden auch bei großen Unternehmen für eingehende Post genutzt, wobei dort auch beispielsweise Firmenstempel hinterlegt seien können anhand deren Muster die Software bereits die Herkunft des Briefes identifizieren kann. Dieses Verfahren wird auch oftmals für die Archivierung von Belegen oder ähnlichen Dokumenten genutzt, welche nach wie vor in Papierformat ausgestellt werden, was natürlich im Rahmen der Digitalisierung und dem gängigen Ziel so wenig herkömmliche Papierakten wie möglich im Unternehmen zu haben den Ablauf erheblich stört. Neben den vielen Vorteilen gibt es natürlich für eine fehlerfreie Übertragung von gescannten Bildern trotzdem Grenzen: Einen Besonderen Faktor spielt die Qualität des Scans, insbesondere der Kontrast zwischen Schrift und Hintergrund. Dies spielt besonders bei historischen Dokumenten eine Rolle, kann aber auch im ganz normalen Alltag zum Problem werden, da beispielsweise Belege schnell ausbleichen können oder Beschädigungen am Papier zu Erkennungsschwierigkeiten führen können. Auch Schreibschrift Dokumente können unter Umständen zu Problemen führen, da dort die Trennung der Buchstaben sehr personenabhängig und nicht immer erkennbar ist. Ebenfalls können Dokumente mit Spezialwörtern, beziehungsweise untypischen Abkürzungen den Algorithmus vor Probleme stellen, da dieser – einem Wörterbuch ähnlich - die „erkannten“ Buchstaben mit seinen hinterlegten Wörtern und Satzmustern vergleicht und demnach falsche Schlüsse ziehen könnte. Dieses Problem tritt allerdings hauptsächlich bei handschriftlichen Dokumenten auf.
In dieser Folge erfahren Sie alles rund um das Thema: „Was ist eigentlich eine Power Bi?“ Der Begriff Power BI beschreibt nicht nur eine einzelne Anwendung, sondern eine ganze Sammlung von Business Intelligence Tools von Microsoft, die man für eine cloudbasierte Analyse von Geschäftsdaten nutzen kann, um diese später graphisch auswerten zu können. Solch eine Power BI Sammlung besteht zum einen aus zentralen Power BI Services und zum anderen natürlich aber auch aus den damit verbundenen Benutzeroberflächen, Datenbanken und Gateways, damit eine Verbindung zu unterschiedlichen Datenquellen möglich ist. Microsoft Power Bi ist ein sogenanntes Software-as-a-Service Modell. Ein sehr großer Vorteil dieses Zusammenschlusses aus Business Intelligence Tools ist die Echtzeitanalyse. Nun fragen Sie sich sicherlich, was darunter zu verstehen ist. Dadurch, dass die Daten cloudbasiert sind, können verschiedenste Endgeräte jederzeit die laufenden Geschäftsprozesse überwachen. Das ist natürlich auch für Unternehmen mit mehreren Standorten oder vielen Mitarbeitern im Außendienst sehr vorteilhaft. Durch die Verbindung zu SharePoint gelingt diese Zusammenarbeit unkompliziert und sicher. Power BI Apps ermöglichen Analysen sogar auf Smartphones oder Tablets, was für den direkten, flexiblen Kundenkontakt essenziell ist. Die Ergebnisse sind leicht zu nutzen und es Bedarf keiner großen Einarbeitungsphase oder IT-Kenntnissen, sodass jeder schnell von den bereits konfigurierten Dashboards Daten entnehmen kann. Fertige Analyse Ergebnisse kann man dann ebenfalls sehr leicht auf verschiedenen verbundenen Plattformen veröffentlichen. Auch hier benötigt man keine besonderen IT Kenntnisse, da Funktionen vorprogrammiert sind, die ein intuitives, schnelles Darstellen auf Webseiten oder Blogs ermöglicht. Da es sich um eine Cloud basierte Architektur handelt, ist Power Bi eine relativ Junge Entwicklung. 2011 hat das Ganze seinen Ursprung im Projekt Crescent und wurde dann 2013 für Office 365 öffentlich vorgestellt. Zunächst gab es über verschiedene Add ins wie Power Query, Power Pivot und Power View die Verbindung zu Excel, wobei die Anbindungsmöglichkeiten in den Folgejahren um ein vielfaches erweitert wurden. Seit 2016 gibt es auch bei Azure das sogenannte Power BI Embedded. Der Aufbau einer solchen Sammlung umfasst natürlich mehrere Komponenten, die wir an dieser Stelle einmal genauer betrachten: Zunächst einmal gibt es für die Endgeräte das sogenannte Power BI Desktop, beziehungsweise Power Bi Mobile, für Smartphones. Dieses Tool dient der Verbindungsherstellung mit Datenbanken. Ebenfalls hat man nun die Möglichkeit diese Daten umzuwandeln, beziehungsweise passend zu modulieren um daraus Analyseergebnisse gewinnen zu können. Diese Ergebnisse kann man dann mit dem Tool Power BI Service teilen oder veröffentlichen. Das Tool Power BI Report Server dient dann der Speicherung und Sicherung der erstellten Ergebnisse. Ein weiteres wichtiges Tool ist Power BI Gateways, welches genutzt wird, um externe Daten zu synchronisieren. Als Fazit kann man also sagen, dass Power Bi für Unternehmen sehr viele Vorteile bieten kann, wenn es richtig genutzt und komplett integriert wird. Mitarbeiter aller Abteilungen und Standorte haben leichten Zugriff aus Daten und Analysetools beziehungsweise auf bereits angefertigte Ergebnisse. Durch die Echtzeit „überwachung“ gelingt natürlich auch eine Risikominimierung und eine Effizienz Optimierung.
In dieser Folge dreht sich alles rund um die Frage: „Was ist eigentlich eine ARM-Architektur?“ Die Geschichte der ARM-Architektur hat ihren Ursprung bei den Tüftlern Hauser und Curry, die sich als Ziel gesetzt hatten die britisch - österreichische Antwort auf die gerade erfolgreich werdende Firma Apple zu werden. Dies spiegelt sich im gewählten Namen Acorn, beziehungsweise Acorn Cambridge Processor Unit, wider, der bewusst so gewählt wurde, dass man im Alphabet vor Apple steht. Ein großes Ziel stand also schon fest, es fehlte jedoch ein Produkt, mit dem man selbst auf Erfolgskurs gehen konnte. Dieses kam dann durch Roger Wilson, einem Undergrade-Cambridge-Studenten ins Unternehmen, der mit einem fertigen System-Design - nämlich einem Rechner mit Mostek-6502-Prozessor, 256 Byte Speicher, 512 Byte ROM, einer Hexadezimal-Tastatur und kleinem Display durchstarten wollte. Dabei entstand dann auch der bekannte Satz: „Debugger brauche er nicht: seine Software sei `von Anfang an korrekt programmiert.“ Die erste Generation und auch die Folgenden, immer um mehr Speicherkapazität erweitert waren zwar erfolgreich -besonders in Universitätslaboren-, der Durchbruch kam dann aber erst 1981 als der Fernsehsender BBC ein System für die geplante Fernsehserie `The Computer Programme´ suchte. Nachdem der Gründer ein innerhalb von 4 Tagen funktionierendes System für die hohen Anforderungen der BBC versprochen hat, was bis dato allerdings noch gar nicht Existierte gelang die Entwicklung des Microprozessors tatsächlich, sodass letztendlich das Acorn Produkt weltweit zu den meistverbreiteten Mikroprozessoren wurden in den folge Jahren. Die Entwickler haben dabei unter anderem auch das Produkt Ancorn Ring entworfen, welches dann von Apple als Apple Talk adaptiert und bekannt gemacht wurde, da Acorn es versäumt hatte das Produkt patentieren zu lassen. Technisch verbirgt sich hinter einer ARM – Architektur das Ziel mit der implementierten RISC-Architektur, also Reduced Instruction Set Computing weniger Energie zu verbraucht, wodurch natürlich ebenfalls weniger Wärmeabgabe entsteht und so der Betrieb wesentlich kostengünstiger ist als der von x86-Prozessoren, ein großer Vorteil beispielsweise in der Smartphone Industrie. Neben Smartphones kommen ARM- Architekturen aber auch bei Handhelds und Notebooks, System-on-Chips in den Modulen der Industrie-Computer und Spielekonsolen vor. Eine spannende Entwicklung ist auch das Einsatzgebiet der Cloud- und Data-Center-Industrie, wobei ARM- Chips bisher noch nicht großflächig bei Rechenzentren eingesetzt werden. Neben den Vorteile für Umwelt und den gesenkten Betriebskosten durch geringeren Energieverbrauch bei gleichzeitig geringerem CO2-Ausstoß bieten ARM- Chips viele weitere Vorteile. Durch die enthaltenen 64-Bit Befehlssätze gelingt eine gesteigerte Performance, wobei zeitgleich noch immer viel ARM-Code auf Basis von 32-Bit existiert, was zu einer einfachen Migration führt, da alter 32-Bit Programm-Code nach und nach für 64-Bit-Systeme umgeschrieben werden kann. Im Cloud Geschäft spielt natürlich Skalierbarkeit der Services eine sehr große Rolle, daher ist es ein großer Vorteil, die für rechenintensive Workloads besseren x86-Chips von Intel, mit den ARM Chips für weniger anspruchsvolle Workloads zu kombinieren, wodurch Effizienz sowohl in Leistung als auch im Kostenbereich maximiert werden kann.
Unterstützt durch Sopra Steria SE Kontaktdaten des Interviewpartners: Mail: simon.oberle@soprasteria.com Tel: +49 (0) 17611998036 Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de Im heutigen Interview dreht es sich alles um das Thema Digitale Transformation. Die Digitale Transformation beschäftigt fast jedes Unternehmen. Nicht wenige fühlen sich davon auch überfordert. "Viele Unternehmen haben eine falsche Vorstellung davon, was die Digitale Transformation überhaupt ist.", findet Simon Oberle. Er leitet bei Sopra Steria Next den Bereich Future Management Consulting für Financial Services und die Digi-Labs. "Digitalisierung ist kein klassisches Projekt mit Start- und Endpunkt, sondern eine dauerhafte Reise in die Zukunft", sagt der Experte für Innovation und neue Geschäftsmodelle. Sopra Steria Next ist die Transformationsberatung von Sopra Steria Consulting. Die IT- und Management-Beratung hat 44.000 Mitarbeiter in mehr als 25 Ländern. Sie unterstützt Unternehmen und Behörden bei der Digitalen Transformation. Herr Oberle, herzlich willkommen zu unserem Interview. Was habe ich denn bei der Vorstellung Ihrer Person vergessen? B: Also ja, vielen Dank erst mal für die einleitenden Worte. Ich habe meine Karriere gestartet in einer Bank und habe dort auch relativ schnell gemerkt, dass es eigentlich zu meiner Leidenschaft gehört Dinge zu verbessern. Ich bin also sehr früh in das Thema Projekt, Projektmanagement, eingestiegen. Und bin dann so, als wir uns mit dem Thema Digitale Exzellenz bei Sopra Steria in den initialen Zügen beschäftigt haben, 2015 auch auf das Thema aufgesprungen. Weil ich einfach gemerkt habe, dass die Digitalisierung einfach wahnsinnig viele tolle neue Möglichkeiten eröffnet, Dinge besser, schneller oder effizienter zu machen. I: Wir sprechen ja heute über die Digitale Transformation. Sie beschreiben sie als dauerhafte Reise in die Zukunft, aber niemand kann ja die Zukunft vorhersehen. Ist das für Unternehmen eine Reise ins Ungewisse? B: Ja, ungewiss ist eigentlich ein ganz gutes Stichwort. Also es ist schon sehr ungewiss. Deshalb beschreiben wir das Ganze auch als Reise eben. Es ist also nicht so, dass wir da am Anfang einen Plan aufsetzen, dann setzen wir das Ganze um. Sondern es geht ja einfach darum, in dieser schnelllebigen Welt besser zurechtzukommen. Das heißt, neue Techniken für sich zu evaluieren. Es geht darum, neue Märkte zu erschließen, aber auch mit neuen Marktteilnehmern ja umgehen zu können. Deshalb ist auch aus unserer Sicht so das Thema Reise eine ganz gute Metapher dazu. Das Ziel, und das ist das, worauf Ihre Frage auch abzielt, ist dabei nicht immer unbedingt wirklich ganz klar. Geht also darum, dass Unternehmen sich ständig neu anpassen. Also aus unserer Sicht so ein stückweit wie, ja, ein Routenplaner, der eben dafür erforderlich ist und ja, dazu braucht man aus unserer Sicht eine ganz klare Strategie. I: Also im Prinzip so ein bisschen wie, dass die Umgebung und die Straßen sich dazu ändern (lacht) und deswegen man natürlich dann auch seinen Weg hier immer neu anpassen muss. Welchen Routenplaner, um diese Begrifflichkeit mal aufzugreifen, würden Sie denn hierzu empfehlen? B: (lacht) Ja, gute Frage. Also ich sage mal, der klassische gedruckte Atlas unter dem Beifahrersitz ist es natürlich nicht. Also das sollte irgendwie nicht das Thema sein. Wir können als Metapher das Beispiel Google Maps ganz gut nutzen. Es geht also darum, so die eigene Route, den eigenen Weg durch die Transformation ständig anzupassen. Sich also ständig an neue Gegebenheiten, an neue Umweltfaktoren, am Beispiel Routenplaner, an Staus meinetwegen, anpassen zu können, um so den eigenen Weg als Unternehmen zu finden. Die Digitalisierungsstrategie dabei ist die Richtung eben, die das Ganze vorgibt. Dass man nicht einfach die ganze Zeit im Kreis fährt, sondern schon eine Richtung verfolgt, aber diese Richtung auch dynamisch eben anpassen. I: Ja, das ist natürlich ein sehr starkes Bild und ich stelle mir das ja auch faszinierend vor, wenn ich so ein eigenes Google Maps für das Unternehmen hätte und immer sehen kann, wie sich denn dort gerade der Verkehr so verhält. Aber wie setzt ein Unternehmen das denn auch konkret um? B: Ja, also wichtig ist natürlich, dass man das eigene Unternehmen auf den Wandel einstellt. Das einzig Beständige ist eben der Wandel. Also Veränderung gehört zum Regelzustand für die Unternehmen in Zukunft. Ich hatte es eben schon mal angedeutet, mit neuen Technologien, aber auch neuen Mitbewerbern und neuen Märkten ist das eben wichtig. Man muss das eigene Unternehmen darauf einstellen und eben auch Dynamik ins Unternehmen (lassen?). Es gilt also, auch Lust auf die Veränderungen bei den eigenen Mitarbeitern zu erzeugen. Also es ist ja nichts negatives, Dinge anders zu machen, Dinge neu zu machen. Aber es ist natürlich, man muss die eigene Komfortzone dafür relativ häufig verlassen. Im Mittelpunkt der Fragestellung natürlich auch, wenn wir über Strategien sprechen, steht dabei natürlich: Wie kann ich als Unternehmen auch in Zukunft Geld verdienen. Und dabei sowohl neue Chancen zu ergreifen, aber auch Risiken zu erkennen, die sich auf das eigene Geschäft auswirken und somit auf das bestehende Geschäftsmodell eben. Und das dynamisch zu gestalten, das ist die zentrale Herausforderung für die Unternehmen. Aus meiner Sicht auch wichtig dabei ist, natürlich auch Dinge neu zu denken, also es ist natürlich auch wichtig, einfach nicht nur sich evolutionär weiter zu entwickeln, sondern gerade auch in der Fragestellung nach neuen Geschäftsmodellen, auch radikaler zu denken. Neu zu denken und Dinge auch mal komplett anders zu denken und somit auch das eigene Geschäftsmodell in Frage zu stellen. I: Wie sehen solche radikalen Schritte denn genau aus? Das hört sich ja dort sehr derb an, aber vielleicht haben Sie ein paar Beispiele auch dazu, damit man sich das ein bisschen besser vorstellen kann? B: Ja, ein gutes Beispiel im Moment ist das Thema der Otto Group. Die sind aktuell dabei so ihren letzten Printkatalog herzustellen. Von ihrem eigentlichen Geschäftsmodell, also dem Otto-Katalog, wegzukommen und neue Geschäftsmodelle für sich zu erschließen. Die bauen sich also gerade sehr intensiv zur digitalen Plattform um. Es geht also darum, neue Services im Multichanel oder im Omni-Chanel-Einzelhandel zu ermöglichen und somit das stationäre Ladengeschäft, aber auch neue Onlineservices zu vernetzen. Beispielsweise haben wir es da so, dass die Otto Group mittlerweile 120 Einzelunternehmen in ihrem Portfolio hat. Sie setzt also in der Route bewusst auch auf verschiedene Wege, und hat sowohl digitale Neugründungen wie About You für den Online-Versandhandel im Einsatz, aber auch weitere Dienstleistungen wie Finanzdienstleistungen wie bei Collect (EI?). Es geht also darum, neue Services auch zu gestalten, geht darum, neue Geschäftsmodelle zu entwickeln und auch bewusst das eigene Geschäftsmodell in Frage zu stellen. Und somit ist auch, ja, die Otto Group aus meiner Sicht sehr gut auch für die Zukunft aufgestellt und hat sich zu einem der größten Onlinehändler mittlerweile transformiert, weg vom veralteten Kataloghandel hin zum Neuen, hin zum Modernen, hin zum Onlinehändler. I: Das ist ja, also gerade Otto ist ja ein sehr traditionsreiches Unternehmen. Aber da gibt es ja auch andere große, auch ein Volkswagen, das künftig ja zum Beispiel auch Ökostromanbieter sein wird. Wie bekommen solche Unternehmen denn eigentlich so eine gewaltige Veränderung hin? Das ist ja nicht mal eben zu schaffen. B: Genau. Also das ist eben eine längere Reise und das ist auch eine große Herausforderung. Und wenn sich ein Unternehmen transformiert, dann braucht es eine klare Digitalisierungsstrategie davor. Man muss den eigenen Mitarbeitern eben entsprechend Orientierung geben, Orientierung dahin: Wo will sich mein eigenes Unternehmen, in welche Richtung will sich mein eigenes Unternehmen transformieren? Häufig starten die Unternehmen mit der Gründung von interdisziplinären Teams, also von Teams, die jetzt gemeinsam an Lösungen arbeiten und kein klassisches Silodenken, keine Abteilungsdenkweise mehr haben. Und es geht eben auch im Start darum, agile Entwicklungsverfahren zu nutzen. Langfristig ist klar das Ziel, einen Kulturwandel herzustellen, der wie schon angesprochen, das Thema Veränderung, das Thema Change in die Köpfe der Mitarbeiter bringt, weil nur so kann ich mich ständig auf neue Gelegenheiten, auf neue Umwelteinflüsse einstellen. I: Ja, das ist natürlich auch sehr wichtig. Gerade Kultur, die sich verändert, so etwas muss ja vorgelebt werden, das kann ja nicht einfach in der Theorie ja auch vermittelt werden. Aber führt das nicht zu Problemen, wenn solche Hierarchien plötzlich verschwinden und Teams dann ganz selbst entscheiden, woran sie arbeiten? B: Also das ist natürlich kein einfacher Weg, ganz klar. Aber es ist auch kein Weg, den man überhaupt nicht bewältigen kann. Ich nehme mal einfach ein Beispiel aus einem komplett anderen Bereich, (unv) nicht im Fokus. Beispiel die Weise Arena Bergbahn in der Schweiz. Die betreiben Alpenbergbahn, Hotels, Restaurants, vermieten Sportausrüstungen und so weiter. Dieses Unternehmen hat sich innerhalb von drei Monaten/ haben die komplette Organisation auf agile Methoden umgestellt. Also Teams gegründet, die ohne vorgegebene Aufgaben, aber mit klaren Verantwortlichkeiten eben entsprechend ausgestattet sind. Wichtig in so einer Transformation ist, die Eigenverantwortlichkeit der Mitarbeiter und der Teams zu stärken. Das heißt, es geht auch darum, das Führungsbild, die Eigeninterpretation der Führung anders aufzustellen. Es geht also darum, Richtung zu geben. Den Mitarbeitern eben nicht jeden Arbeitsschritt vorzugeben. Das ist ganz wichtig. Es geht auch darum, Mitarbeiter in diesen ganzen Prozess einzubinden. Im Fall dieser Bergbahn kam ja ein Jahr später nach der Reorganisation und nach der Agilen Transformation ein neues Rekordergebnis auf die zu. Also mal ein ganz anderes Beispiel fernab von den Beispielen, die wir gemeinhin diskutieren, aber es ist ganz interessant. Wie gesagt, ist aber auch eine Reise, die nicht einfach ist. Auch für die Mitarbeiter die Veränderungsbereitschaft erfordern. I: Ja, das glaube ich sehr gerne. Vor allen Dingen muss man dann natürlich auch immer schauen, dass man die, wie Sie eben schon gesagt haben, die Mitarbeiter richtig mitnimmt und da eventuell auch dann dazu befähigt, weil es früher vielleicht in dieser Eigenverantwortlichkeit gar nicht so notwendig war. Wie geht man denn so einen Wandel ganz konkret an und vielleicht haben Sie auch Erfahrungswerte, was dabei schiefgehen kann? B: Ja, also wenn wir wieder auf den deutschen Markt zurückblicken, dann ist das häufig so, dass man mit interdisziplinären Teams startet, mit agilen Arbeitsmethoden. Und es ist häufig, die erste Hürde, an die die Unternehmen kommen, sind einfach starre Entscheidungswege. Die können noch so agil und noch so interdisziplinär in ihren Projektteams arbeiten, wenn sie starre Entscheidungswege haben, wird ihre Anpassungsgeschwindigkeit doch deutlich darunter leiden. Das ist, wie gesagt, eine der großen Hürden, an die man zu Beginn kommt. Weil es ist, wie gesagt, auch ganz wichtig ist, immer Führung an diese neue Denkweise anzupassen. Sich also dahin zu bewegen, die komplette Organisation eben entsprechend anzupassen. Auch für die Führungskräfte ist das neue Rollenbild der Führung ein komplett anderes. Wenn es also nicht mehr den klassischen Projektleiter gibt, der vorgibt, wie das ganze Projekt abläuft, sondern sehr viel auch in die Eigenverantwortung geht, dann ist das Thema Transformation auch in der Führung und auch im Projektmanagement ein ganz entscheidender Faktor, um sich auch von der Führungskraft an sich auch als Coach zu verstehen, die eigenen Mitarbeiter zu befähigen. Es geht also um Strukturen auch, die aufgebrochen werden müssen, um den Wandel der Führungskräfte, und natürlich auch das Thema Transformation bereits in den Geschäftsführungsebenen bei den Führungskräften eben auch zu leben und somit die Richtung, die Route vorzugeben mit einer klaren Digitalisierungsstrategie, die dann bis hin zur Entwicklung und bis hin zu den einzelnen Projektteams und zu den einzelnen organisatorischen Bereichen ins Unternehmen getrieben werden. B: Ja, Digitalisierungsstrategie ist ja mittlerweile ein Begriff, der ja auch tatsächlich sehr inflationär verwendet wird. Da müssen wir uns wahrscheinlich als Unternehmen dann doch nochmal überlegen, wie wir es alternativ benennen können, damit die Unternehmen nicht immer gleich weglaufen (lachen). Und sich da auf diese Dinge dann auch mit Spaß und Freude drauf vorbereiten, damit sie einfach ihre Unternehmen natürlich auch darauf ausrichten. Ja, im Vorfeld hatten wir uns beide ja schon mal darüber unterhalten, es gibt, glaube ich, von der Sopra Steria Consulting auch ein ganz tolles Magazin, eine Broschüre, den sogenannten Management-Kompass: Transformation erfolgreich managen. Und dort können ja Führungskräfte dann auch weitere Informationen finden und Hinweise, wie sie das für ihr Unternehmen erfolgreich umsetzen können. Ich danke Ihnen jedenfalls mal für dieses tolle Interview. Es hat gute Einblicke gegeben, unseren Hörern sicherlich auch, was da am wichtigsten ist, um gerade diese Digitalisierung voranzutreiben. Und ja, vielen Dank an Sie, Herr Oberle, für dieses tolle Interview.
In dieser Folge dreht sich alles rund um die Frage: „Was ist eigentlich ein Gatekeeper?“ Der Gatekeeper hat eine wesentliche Funktion bei der sogenannten IP-Telefonie. Es dient dabei - kurz gesagt – der Steuerung zwischen IP-Netz und Telefonnetz. Nachdem IP-Telefonie inzwischen ein bekannter und verbreiteter Begriff ist, interessiert es uns als IT Profis natürlich umso mehr, wie die einzelnen Komponenten funktionieren. Seit 1996 gibt es den sogenannten H.323-Standart, der die Grundlagen zur paketvermittelten Kommunikation über Netze definiert. H.323 basiert auf dem Realtime Protocol auch bekannt als RTP, sowie dem Realtime Control Protocol, wobei man sagen muss, dass viele Anbieter SIP Lösungen H.323 vorziehen. Andere bekannte Möglichkeiten sind SIP, Jingle, Skype und IAX. Der H.323 Standard basiert auf dem ISDN-Protokoll Q.931, wodurch man ihn gut für Kombinationen zwischen IP und ISDN oder IP und Q-Interface Signalling Protocol - kurz QSIG - ,einem auf ISDN basierendes Signalisierungsprotokoll nutzen kann. Dadurch gelingt die sogenannte sanfte Migration zur IP-Telefonie leicht. Die H.323 Gateways dienen der Echtzeitkommunikation zwischen zwei Terminals mit unterschiedlichem Protokollstacks, also zum Beispiel ein H.323 mit einem SIP oder einem herkömmlichen Telefonsystem. An der Stelle kommt dann der Gatekeeper als eine Art „Übersetzer“ zum Einsatz. Wie der Name schon vermuten lässt, hat der Gatekeeper eine Kontrollfunktion, die unter Anderem das Adressieren, Autorisieren und Authentifizieren von Terminals aber auch die Bandbreitenverwaltung umfasst. Außerdem können mithilfe des Gatekeepers Video- sowie Audio-Codes übersetzt und die Medienformate umgewandelt werden. Natürlich besteht auch die Möglichkeit, zwei Terminals ohne Gatekeeper miteinander zu verbinden, dieser ermöglicht aber mit der Kontrollfunktion unter Anderem auch eine geregelte Lastverteilung, wenn beispielsweise mehr eingehende Anrufe vorhanden sind als benötigte Bandbreite. Möchte man mit dem H.323 Netz auf das klassische Netz zugreifen, muss ein Gatekeeper vorhanden sein, damit er als Übersetzer die Telefonnummer in ein IP-Adresse umwandelt. Es gibt mit GNU Gatekeeper für Windows, Mac OS und Linux eine freie Software für VoIP und Videotelefonie. Zu den GNU Gatekeeper Features gehören unter anderem die Abrechnung und Anrufberechtigung über SQL-Datenbanken. H.323-Proxy, einschließlich RTP und RTCP und policy based Routing Mechanismen. So liebe IT Profis, das wars auch schon für heute vom IT Manager Podcast, ich hoffe es hat Ihnen gefallen – wenn ja freue ich mich sehr über ein Like auf Facebook und eine fünf Sterne Bewertung bei iTunes. Nächste Woche gibt es dann wie gewohnt freitags eine neue Folge des IT Manager Podcasts. Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de
Unterstützt durch finally safe GmbH In einem spannendem Interview mit Herrn Diego Sanchez erfahren Sie, liebe IT Profis, wie man mithilfe von maschinellem Lernen Angriffe frühzeitig identifizieren und verhindern kann. Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de Kontaktdaten des Interviewpartners: Diego Sanchez sanchez@finally-safe.com Beantwortung von Fragen zu Cyberangriffen: https://www.finally-safe.com/anfrage/ Security News Artikel und Analyse: https://www.finally-safe.com/nachrichten/ BSI Empfehlungen: https://www.allianz-fuer-cybersicherheit.de/ACS/DE/_/downloads/BSI-CS_134.pdf?__blob=publicationFile&v=4 Buchempfehlungen: BLACKOUT - Morgen ist es zu spät: Roman von Marc Elsberg: https://amzn.to/2KYxIH8 ZERO – Sie wissen, was Du tust: Nachfolger von Blackout, auch vom Marc Elsberg: https://amzn.to/2V3NbJN Risiken der Industrie 4.0 – Eine Strukturierung von Bedrohungsszenarien der Smart Factory, Michael Hertel, 2015 I: Herzlich willkommen liebe IT-Profis zur heutigen Folge des IT-Manager Podcast zum Thema: Wie kann maschinelles Lernen Smartfactorys vor Cyberattacken schützen? Ja, ich weiß. Wir könnten nun eigentlich drei Episoden davon machen. Was versteht man unter maschinellem Lernen? Was sind Smartfactorys? Und wie muss ich mir Cyberattacken vorstellen? Doch heute haben wir dazu im Interview Diego Sanchez als Spezialisten zu diesem Thema. Herzlich willkommen! Stellen Sie sich doch bitte kurz selbst den IT-Profis vor. B: Ja, hallo. Mein Name ist Diego Sanchez. Ich bin Mitgründer der Firma Finally Save aus Essen. Ich selbst bin Wirtschaftsingenieur und seit der Gründung 2015 verantwortlich dafür, die Herausforderungen und Problemstellungen unserer Kunden und Interessenten zu identifizieren, zu verstehen und gemeinsam dafür Lösungen anzubieten. Dabei arbeiten wir immer eng im Team mit unseren Technikern und Entwicklern zusammen, um die passende Lösung mit Hilfe unserer Sicherheitslösung zur Erkennung von Cyberangriffen zur Verfügung zu stellen. I: Ja, ich hatte unser heutiges Thema zu Beginn schon erwähnt. Was können wir und die Hörer uns denn ganz konkret darunter eigentlich vorstellen? B: Also bei unserem Thema geht es darum, dass die Fabriken immer häufiger Ziel von Cyberangriffen werden. Ähnlich wie wir das in der letzten Podcast-Spezialfolge gehört haben. Wir stellen eine Technologie her, die ich heute beschreibe, um solche Angriffe frühzeitig zu erkennen. Damit schnell Gegenmaßnahmen ergriffen werden können, um Schäden entweder komplett zu vermeiden oder die Auswirkungen zu vermindern. Denn oft kann es zum Beispiel im medizinischen Bereich oder bei der Versorgung von Energie und Wasser, auch um Menschenleben gehen. Neben den Cyberangriffen haben wir noch die beiden Themen Smartfactory und maschinelles Lernen, die ich einmal an einem Beispiel erklären möchte. Wenn Sie sich vorstellen, ein Hersteller von chemischen Produkten, wie zum Beispiel Medikamenten. Ein solcher Hersteller verfügt über Produktionsanlagen, mit denen er verschiedene, chemische Stoffe kombiniert, dass am Ende das Medikament erzeugt wird. Diese Anlagen sind oft riesig und hochautomatisiert. Was bedeutet, dass Computer die einzelnen Prozessschritte steuern. Dazu kommt, dass viele erzeugte Daten, wie zum Beispiel Temperaturen, Drehzahlen, Schwingungen, dafür verwendet werden, um Vorhersagen über die Haltbarkeit von Maschinenteilen zu treffen. Was man predictive maintenance nennt. Oder um ganze Abläufe zu verbessern. Das bedeutet, dass Maschinen immer mehr zu eigenständigen, leistungsfähigen Computern werden, die Daten miteinander austauschen. Das Ganze nennt man Smartfactory oder die intelligente Fabrik. Maschinelles Lernen, oder auch Machine Learning genannt, ist ein Teilbereich der Künstlichen Intelligenz. Die Verfahren wurden schon in den fünfziger Jahren entwickelt, konnten aber erst in den letzten Jahren richtig nutzbar gemacht werden. Einmal durch die steigenden Datenmengen, die man benötigt, um solche Systeme anzulernen. Zum anderen auch durch die immer leistungsfähigeren Prozessoren. Kurz gesagt werden aus Datenbeständen durch Algorithmen Modelle erzeugt, um Muster und Gesetzmäßigkeiten aufzudecken. Anders ausgedrückt: Es wird künstliches Wissen aus Erfahrung generiert. Das Machine Learning verwenden wir nun, um die Daten, der vielfältigen komplexen Abläufe der Smartfactory intelligent auszuwerten. Zum Beispiel die Kommunikation zu und zwischen Maschinen, um Muster und Regeln abzuleiten. Das Ziel dabei ist es, Entscheidungen zu treffen. Was im Verkehr ist normal? Was ist anormal? Was ist gewollt oder nicht gewollt? Wo passieren verdeckte Dinge, die nicht vorgesehen sind? All das sind Hinweise oder können Hinweise sein auf versteckt ablaufende Angriffe. I: Welche Vor- beziehungsweise Nachteile gibt es denn gerade bei der Anwendung von Maschinenlernen in Smartfactorys? Weil, Sie haben jetzt ja viele Bereiche dargestellt und das ja auch so ein bisschen bildhaft gemacht, wie man sich das tatsächlich in der ja Produktionsanlage eines Herstellers auch so vorstellen kann, wie da die Maschinen miteinander agieren. Aber welche Vor- und Nachteile gibt es denn da konkret beim Einsatz solcher Techniken? B: Ich fange zuerst mal bei ein paar Nachteilen an. Selbstlernende Systeme sind immer nur so gut, wie auch die Datengrundlage, die sie erhalten. Wenn zum Beispiel ein bereits infiziertes Netzwerk als Grundlage genommen wird, kann das natürlich die Ergebnisse verfälschen. Zudem können auch dynamische Veränderungen wie kurzfristige Änderungen in Produktionsabläufen die Interpretation der Systeme beeinflussen. Was man dagegen tun kann? Wichtig ist es, sich nicht zu hundert Prozent auf die Algorithmen zu verlassen sondern diese immer im Zusammenspiel mit Experten zu verwenden. Solche Systeme also als Assistenten zu nutzen, um die gewünschten Ergebnisse zu erzielen. Kommen wir nun zu den Vorteilen. Die schieren Datenmengen, komplexe Muster und Abläufe können von Menschen zwar punktuell erfasst und interpretiert werden, jedoch nicht kontinuierlich zu jedem Zeitpunkt und voll automatisch. Dadurch werden Machine Learning Algorithmen benötigt, die diese Aufgabe übernehmen und mit der Hilfe von Menschen ständig optimiert werden. Zusätzlich verwenden Angreifer selbst hochautomatisierte Systeme und Software, um möglichst unbemerkt in Fabriken einzudringen und sich festzusetzen. Diese Änderungen und Hinweise können so klein sein, dass sie uns Menschen gar nicht auffallen. Zum Beispiel kann es die Veränderung jeder zweitausendsten Verbindung einer Maschine im Datennetz sein. Wir entwickeln Software, die Unternehmen hilft, ihre Datenströme zu nutzen, um Schaden von der Firma abzuwehren. Dazu müssen sie verstehen, wie und wohin die Daten fließen, die in jeder Sekunde entstehen. Das Ziel dabei ist es, Firmen vor Spionage und Manipulation zu schützen, die das Überleben der Firma oder das von Menschenleben bedrohen könnten. I: Okay. Das hört sich echt sehr komplex an, ehrlich gesagt, das ganze Thema auch. Gerade natürlich wenn man dann in solche Sachen reingehen muss. Das kann ich mir gut vorstellen, dass da viele Dinge vor allen Dingen analysiert werden müssen. Und wahrscheinlich dann auch über einen längeren Zeitraum. Woher kommt denn eigentlich Ihre Expertise in Ihrem Fachgebiet? B: Ja, das ist richtig. Wir haben mit klassischen Netzwerkanalysen bereits vor 14 Jahren am Institut für Internetsicherheit der Westfälischen Hochschule begonnen. Und in Zusammenarbeit mit dem BSI immer weiter entwickelt. Als in den letzten Jahren die Digitalisierung im Bereich Produktion und die Vernetzung von Maschinen zunahm, haben wir begonnen, uns mit diesem Bereich zu beschäftigen. In dem es im Kern ja auch um Datenströme geht. Da haben wir festgestellt: Maschinenkommunikation ist sehr gleichmäßig und folgt klaren Mustern. Also eine ideale Grundlage für ein Machine Learning, das wir zuvor schon in den klassischen Netzwerken eingesetzt haben. Mir persönlich hilft zudem als gelernter Wirtschaftsingenieur das Wissen über Produktionsabläufe und Kennzahlen, um Firmen besser zu verstehen. Um den Firmen und Kunden besser zu helfen, mit unserer Technik die Ziele zu erreichen. Die Ziele sind vor allem: Hohe Verfügbarkeiten, keine Unterbrechungen, Flexibilität der Produktionsanlagen, Stichwort Nullfehlerproduktion, und immer das Verhältnis zwischen Kosten, Zeit und Qualität auszubalancieren. Für viele Firmen ist die Sicherheit oder Cybersecurity immer eher ein unterstützender Faktor, der jedoch schnell zum Stolperstein für die übergeordneten Ziele werden kann. I: Und gibt es besondere Tipps zu dem Thema, die Sie unseren Zuhörern geben können? B: Ich habe mal zwei Tipps mitgebracht. Der erste: Man sollte niemals Systeme einfach vernetzen, ohne vorher kritisch die Sicherheit zu hinterfragen. Das gilt zum Beispiel auch im privaten Bereich, wenn man an Alexa, Fitnesstracker oder Smart Home Anwendungen denkt. Das andere ist: Man sollte sich nie nur auf die Technik verlassen, sondern immer auch den gesunden Menschenverstand einschalten. Zum Beispiel sollte man sich fragen, ob eine (Heizungssteuerung?) unbedingt frei im Internet verfügbar sein sollte für jedermann. #00:08:16-0# Oder dass man nicht immer auf jeden Link in der Email klickt. Im Zweifel Experten ansprechen, fragen, recherchieren. Das geht meistens auch schon kostenlos. I: Ja super. Vielen Dank für diese Tipps. Das ist immer großartig. Das kann man immer auf jeden Fall mitnehmen. Und gerade bei der ganzen Verbreitung von solchen Systemen wie Alexa und Co. muss man ja tatsächlich mal hinterfragen: Macht das wirklich so viel Sinn? Erleichtert es das Leben so ungemein, dass es wirklich erforderlich ist? Und was hole ich mir damit eigentlich auch für Sicherheitslücken eigentlich ins Haus? Gibt es bestimmte Mehrwerte, die Sie den Hörern noch zur Verfügung stellen können? Also gewisse Checklisten oder andere Dinge, wo auch die Hörer einfach nochmal ein bisschen ins Eingemachte tiefer steigen können? B: Ja, sehr gerne. Wir haben drei Punkte nochmal mitgebracht, die auch verlinkt sind. Und zwar zum einen Security News, die wir regelmäßig erstellen. Die man auf unsere Website findet oder über unseren Newsletter erhält. Darin sind auch Analysen zu Cyberangriffen enthalten. Als zweites beantworten wir sehr gerne Fragen zu Auffälligkeiten, zu Angriffen. Da kann man uns sehr gerne kontaktieren. Und als drittes gibt es auch sehr viele BSI Empfehlungen. Zum Beispiel haben wir verlinkt einen Leitfaden und eine Empfehlung wie man Anomalieerkennung und Monitoring in Prozessnetzwerken verwenden kann. I: Ja, die Informationen dazu, werden wir dann natürlich dann den Hörern in den Shownotes zur Verfügung stellen. Da packen wir die Links rein. Da kann man das jederzeit auch aufrufen und sich im Detail mal in Ruhe anschauen. Gibt es denn zu diesem Thema auch Buchempfehlungen? Wir haben immer ein bisschen die Situation bei anderen Themen, dass Buchempfehlungen manchmal gar nicht ausgesprochen werden, weil die IT-Branche sich ja so dermaßen schnell weiter entwickelt. Wie sieht es denn hier zu dem Thema hier mit den Cyberattacken der Smartfactorys aus? B: Ja, da habe ich auch mal wieder drei Dinge mitgebracht, und zwar ein Klassiker: Das Buch Blackout von dem Autor Marc Elsberg. Das ist schon etwas älter, von 2013, aber das ist heute genauso aktuell und zeigt dieses sehr abstrakte Thema IT, Cybersicherheit, was die Auswirkung auf das wahre Leben ist. Also immer noch eine Empfehlung, das Buch. Oder auch der Nachfolger mit dem Namen Zero von dem gleichen Autor. Und eine dritte Empfehlung, etwas technischer, ist das Buch Risiken der Industrie 4.0. Eine Strukturierung von Bedrohungsszenarien der Smartfactory von Michael Härtel. I: Ja auch zu diesen drei Büchern stellen wir dann natürlich entsprechende Links ein, damit man da direkt sich die Bücher auch besorgen kann. Ja, aufgrund des Interviews hier gibt es ein besonderes Angebot für unsere IT-Profis, um diese Lösung aus Ihrem Hause auch nutzen zu können. Sie sagen ja vorhin, dass Sie dort eine ganz spezielle Technik einsetzen. Haben Sie da was Spezielles für unsere Hörer im Angebot? B: Ja, wir würden unseren Hörern gerne eine Mehrzweckanalyse anbieten, mit unserem System. Das kann man sich als Suppliance vorstellen. Und das Ganze bei einer Dauer von 60 Tagen. Also im Grunde 2 Monaten für einen halbierten Preis von 3.600 Euro. Und das Angebot halten wir aufrecht bis Ende des Jahres 2019. I: Das heißt für 3.600, das heißt statt normalerweise 7.200, weil Sie sagten eben zum halben Preis. Und ich würde dann den Hörern noch hinzugeben: Je nachdem, welcher Unternehmensgröße Sie angehören, sollten Sie da immer nochmal prüfen, welche Möglichkeiten einer bundesweiten oder EU-Förderung Sie dort auch in Anspruch nehmen können. Da muss sich immer jeder mal schlau machen, in welchem Bundesland er da auch sitzt und was es da gerade für ihn gibt. Und je nach Größe des Unternehmens ist da auch schnell mal Schluss mit einer Förderung, wenn man bestimmte Umsatzgrenzen dort bereits durchbricht. Ja, vielen Dank Herr Sanchez für dieses tolle Interview und die Einblicke in diese Dinge. Auch wie diese ganzen Sachen ineinandergreifen und welche Möglichkeiten es dort heute gibt mit Maschinellem Learning dort in den Smartfactorys tatsächlich auch solche Cyberattacken abwehren und ja das Ganze im Prinzip auch damit schützen kann. Indem vorher gut ausgewertet hat, was da eigentlich so stattfindet, um dann natürlich die entsprechenden Sicherheitsmechanismen zu etablieren. Vielen Dank Ihnen!
In dieser Folge des IT Manager Podcasts dreht sich alles um das Thema: „Was ist eigentlich eine Sandboxanalyse?“ Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de Zunächst aber einmal vorweg zum Begriff Sandbox. Eine Sandbox ist nämlich ein isolierter Bereich eines Systems, indem getroffene Maßnahmen keine Auswirkungen auf die Umgebung haben. Sinnbildlich kann ein Programmierer also - wie ein Kind im Sandkasten – in der Sandbox verschiedenste Möglichkeiten testen, ohne das gesamte System in Mitleidenschaft zu ziehen, wenn ein Versuch fehlschlägt. Ein großer Vorteil ist es also Verfahren im Voraus testen zu können, bevor sie dann im regulären Tagesbetrieb fehlerfrei funktionieren müssen. Ein weiterer, bedeutender Vorteil einer Sandbox ist es, dass Malware zwar die eine Box betreffen kann, nicht aber von dort aus auf das ganze System übergreifen kann, wie es ja zumeist bei Attacken versucht wird. Für Sandboxen gibt es ganz verschiedene Anbieter, wie beispielsweise die FortiSandbox von Fortinet. Es gibt aber auch Open Source Versionen, die völlig kostenlos genutzt und getestet werden können. Sollten Sie dahingehend gerne einmal Ihre Fähigkeiten als Programmierer testen wollen gibt es bei heise.de praktische Tipps und „Baupläne“ für Einsteiger. Die Funktionsweise einer Sandbox ist dann wie folgt: Mithilfe von Programmen wie FAUmachine oder Klik können die Boxen erzeugt werden. Bei sogenannten virtuellen Maschinen kann man mit Java Virtual Machine beispielsweise innerhalb eines bestehenden Systems noch weitere virtuelle einbauen. Mithilfe von Applikationen können dann diese Sandboxen im Programmcode eingebunden werden. Damit keiner auf die Sandboxen zugreifen kann, nutzt man SecurityManager und den sogenannten ClassLoader. Mit der Anwendung Solaris Zones können bis zu 8.190 Zonen erstellt werden, die alle zum Testen genutzt werden können und eine reale Systemstruktur simulieren können. Die Zonen untereinander sind nicht gekoppelt und greifen daher nicht auf den Prozess der jeweils Anderen zu. Dadurch lassen sich gesonderte Fälle simulieren. Durch die VMware Server stehen mehrere Workstations und Server zur Verfügung, die wie eine Virtuelle Maschine genutzt werden können. Die entstehende Rechneroberfläche ist sehr einfach zu konfigurieren und jeder mögliche Bedrohungs-Fall lässt sich dabei simulieren. Unsere Ursprungsfrage, was ist eine Sandboxanalyse lässt sich nun vor diesem Hintergrundwissen gut beantworten. Durch die Vorteile einer Sandbox, können dort problemlos ganze Systeme getestet werden und im Hinblick auf potentielle Schadware, besteht die Möglichkeit diese zunächst in den gesicherten Bereichen auf ihr Risiko zu testen. Die FortiSandbox geht beispielsweise der immer größer werdenden Bedrohung durch Cyber Kriminalität und der damit einhergehenden Datenschutzverletzung entgegen, indem mit einer Sandbox-Methode eine Sicherheitsarchitektur geschaffen wird, in der sämtliche Bedrohungen separat geprüft werden und dann natürlich mit gekoppelten anderen Anwendungen gemeldet beziehungsweise eliminiert werden. Ein weiteres bekanntes Anwendungsbeispiel ist Chrome. Dort werden potenziell unsichere Programmteile kontinuierlich in unabhängigen Sandbox-Prozessen getestet.
Unterstützt von DeskCenter Solutions AG Manuel Schick können Sie unter der E-Mail-Adresse m.schick@deskcenter.com erreichen. Darüber hinaus können Interessenten an dem Webcasts teilnehmen: https://www.deskcenter.com/eventkategorie/webinar/ Unter diesem Link findet man regelmäßig die aktuellen Termine der Webinare. Auf der DMEA (09.-11-04.) in Berlin findet man den DeskCenter Solutions AG Stand D-108 in Halle 1.2. Hier ist auch noch ein Link dazu: https://www.deskcenter.com/events/dmea-april-2019-in-berlin/ Sie wollen selbst mal in einem Interview dabei sein oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail. ingo.luecker@itleague.de I: Herzlich willkommen, liebe IT-Profis, zu einer neuen Folge des IT-Manager Podcasts! Heute zu Gast im Interview ist Manuel Schick von der DeskCenter Solutions AG zum Thema MDM, EMM, auch unter anderem bekannt als eine Abkürzung für Mobile Device Management, sozusagen die einfache und zentrale Verwaltung von mobilen Endgeräten, könnte man es subsumieren. Herr Schick, herzlich willkommen zum heutigen Podcast hier! Erzählen Sie doch ein wenig über sich, damit die IT-Profis, die uns gerade zu hören, ein besseres Bild von Ihnen bekommen. B: Ja. Vielen Dank für die Einladung zum IT-Manager Podcast! Mein Name ist Manuel Schick, meine erste Berührung mit der IT-Welt hatte ich bereits 1996, wo man mit etwas Glück das Internet mit einem schnellen 56K-Modem erreichen konnte. Da Lächeln die Leute heute, weil da erreicht man ja mit jedem Smartphone deutlich höhere Raten. PCs haben mich von Anfang an fasziniert. Nach meiner Ausbildung zum Fachinformatiker Systemintegration hatte ich die großartige Möglichkeit erhalten, Kindern und Jugendlichen in Schulen die IT-Welt näher zu bringen, fliegendes Klassenzimmer, digitale Schultaschen oder Schulverwaltungen auch ans Netz zu bringen. Um ein wenig zu nennen von den Projekten, die ich hatte. Nach einem Jahrzehnt ging es dann weiter im Bereich Security bei der Firma Sophos. Aus meiner Wahrnehmung wird das Thema Sicherheit oft nicht so tief durchdacht oder durchdrängt, und das passiert oft dann, dass man sich damit tiefer beschäftigt, wenn eigentlich das Kind in den Brunnen gefallen ist und man einen Vorfall hat, und dann wird hektisch reagiert, man muss ja heute auch Meldungen machen nach Gesetzeslage, und dann kommt oft auch die Ablehnung zu bestimmten Themen oder Neuerungen, aus Angst. Danach bin ich dann in ein relativ neues IT-Thema gewechselt, MDM, EEM, oder UEM, wie man das auch immer nennen mag, wo man das Thema hat, sich mit mobilen Geräten zu beschäftigen. Da habe ich angefangen bei einem Hersteller im Support, um zu verstehen, wie Technologien funktionieren, mit welchen Herausforderungen, Problemen sich IT-Admins beschäftigen müssen, damit sie das richtig im Unternehmen/ mobile Geräte als Arbeitsgeräte einsetzen können. Danach bin ich dann in das MDM-Consulting gewechselt und bin heute auch im Produktmanagement bei der Firma DeskCenter Solutions AG tätig. Das hat die großartige Möglichkeit, dass ich mich auch mit dem Produkt anders auseinandersetzen kann, dass ich aus den Erfahrungen mit den Admins ein Stück weit auch das Produkt positionieren kann, Schwerpunkte definieren kann, auf was das ausgerichtet ist, und eben so da auch einen gewissen Einfluss nehmen kann, wie das Hauptziel für DeskCenter, das UEM, erreicht werden kann, dass wir zwei Welten zusammenführen im Management, die klassische Welt und die mobilen Geräte. Ja. I: Ja. Okay. Cool! In Ihrer Vorstellung sind ja dann doch tatsächlich sehr viele Abkürzungen eben genannt worden. Also ich hatte es ja auch eingangs schon zum Thema gesagt, MDM, EMM, UEM. Wofür stehen diese Abkürzungen? Was muss sich der Hörer darunter vorstellen? B: Okay. Angefangen hat alles mit dem Begriff MDM, zurückblickend, Mobile Device Management, auf Deutsch mobile Geräteverwaltung, da geht es im ersten Schritt darum, das sind ja/ so dass mobile Geräte im Alltag oder auch im Business-Alltag genutzt werden, Smartphones hat ja fast jeder heute, und der Chef will es dienstlich nutzen und auch der Mitarbeiter, und der erste Schritt ist einfach, es geht darum, dass man so eine Art Inventar von dem Gerät haben will, dass man also eine mobile Geräteverwaltung braucht für diese Geräte. Die werden dann dort registriert und dann kann man erst mal sehen, was ist das für ein Gerät, was da im Einsatz ist, welche Apps sind da drauf, solche Daten sammelt man da im ersten Schritt. In einem weiteren Schritt geht es dann darum, Mobile Application Management, MAM, dass man eben auch aus einer Suite heraus mobiler Lösungen Apps installieren, deinstallieren oder auch sogar verbieten oder explizit erlauben kann mit Black- und Whitelisting. Dann ein nächster Schritt ist auch, dass natürlich Mobile Content Management, MCM, dass man eben auch im Außendienst vielleicht nicht nur Daten mitnehmen will auf einem Gerät, sondern auf aktuelle Daten im Unternehmen zurückgreifen will, dass da aktuelle Lizenzangaben liegen mit Softwarepreisen, dass man die auch on-the-fly direkt abholen kann, und da ist es wichtig, dass auf diesen Geräten auch der Zugriff gesteuert wird, dass man dann ein Identity und Access Management hat für den User, dass man sehen kann, welche Geräte mit welchen Sicherheitsregeln (Werten? #00:05:21-7#) in das Unternehmen auf Daten zugreifen wollen. Und jetzt zum Schluss sind wir an dem höchsten Punkt der Entwicklung, dass wir eine einheitliche Verwaltungssoftware wollen von der klassischen Welt, den PCs, Desktops, Laptops, und der mobilen Welt, dass wir das in einer Oberfläche zusammengefasst haben wollen. Das wird dann UEM, Unified Endpoint Management genannt. Und ich denke, da kommen in Zukunft auch noch so persönliche Sachen dazu, die wir heute noch im Privatbereich nutzen, in Kleidungsstücken, Brillen, Uhren, aber auch das denke ich wird kurzfristig auch im Arbeitsalltag Einzug erhalten. Vielleicht nicht in der Form, wie wir das heute können, sondern dass dann in einer Brille vielleicht so ein Weg ist, wie man im Lager bestimmte Sachen schneller finden kann. Ja. I: Okay. Das hört sich ja sehr umfangreich an, aber mal sehr schön dargestellt, auch wie es im Prinzip den Weg vom klassischen MDM für das nur Mobile Device Management über diese einzelnen Bereiche, Segmente, bis hin zum UEM ja gefunden hat. Sie können unseren Hörern ja sicherlich am besten mal auch erzählen, welche Vor- und Nachteile bilden denn eigentlich der Einsatz solcher MDM- beziehungsweise EMM-Lösungen? B: Nachteil ist, denke ich, wenn man das nicht einsetzt, dann hat man schon Schwierigkeiten, überhaupt den Gesetzen konform zu bleiben. Da gibt es ja die DSGVO-Verordnung seit letztem Jahr, nach der ist man ja verpflichtet, dass eben Geräte in einer bestimmten Zeit, entweder habe ich die verloren oder gestohlen bekommen, inhaltlich löschen können muss. Da geht es ja um Userdaten, die da drauf sein können. Und das ist ganz abstrakt, schon einfach nur eine E-Mail-Adresse vom Kollegen oder von einem Kunden, und das hat ja fast jeder auf dem Telefon drauf, oder im Telefonbuch die Telefonnummer. Das kann ich mit einer solchen MDM-Lösung als Administrator eines Unternehmens gewährleisten, dass ich diese Geräte inhaltsmäßig auf Factory Reset zurücksetzen kann, aus der Ferne, in einer sehr kurzen Zeit von wenigen Minuten. Und dann technisch ist es ja so, da ist ein klarer Vorteil, das sind ja mobile Endgeräte, die wurden primär als Verbrauchergerät entwickelt, die waren ja eigentlich Consumer-Ware für Privatleute, als sie rauskamen, und jetzt ist das Ziel, da sie ja immer mehr und tiefer Einzug erhalten in die Businesswelt, dass man die auch managen können muss aus der Sicht von einem Administrator, und hier gibt es jetzt eben verschiedene Ansätze, das ist ja so, dass man bestimmte Compliance-Richtlinien erfüllen muss in einem Unternehmen, dass da bestimmte Daten drauf sein dürfen oder nicht, auch Apps, und dass man da nicht will, dass zum Beispiel private und dienstliche Daten auch vermischt werden. Und hier gibt es eben verschiedene Ansätze, die eine MDM-Lösung in Zusammenarbeit mit den Technologien, die die Betriebssystemhersteller von den mobilen Geräten zur Verfügung stellen, zusammenzuarbeiten. Wir haben ja einmal als Technologie von Apple das DEP und VPP und Android Enterprise, wo wir einfach Schutzmechanismen hinterlegt haben, dass wir in der MDM-Software konfigurieren können, dass der User weniger Admin-Rechte hat oder auch ein Telefon nicht mehr resetten kann, dass diese Funktionen ausgeblendet werden, und dass er sich in dieser MDM-Software auch nicht deregistrieren kann. Das ist also so, dass hier das Augenmerk darauf gerichtet werden kann, dass der Administrator wie bei dem PC seiner Aufgabe nachkommen kann, diese mobilen Geräte sicher zu verwalten und einzustellen, dass es eben Arbeitsgeräte sind und weniger Spielzeug in Anführungszeichen oder Geräte, die man sich als User customizen kann. Weil ja einfach Sicherheit auch ein wichtiges Thema ist oder Herausforderung, diese zu gewährleisten, dass man eben Kontrolle hat auf Daten auf den Geräten. Ich denke, das ist ein sehr umfangreiches Thema, es gibt auch verschiedene Lösungen, und was eine MDM im allgemeinen macht, sie kann vorhandene Lösungen, die beim Kunden da sind im Bereich E-Mail-Server, VPN, einfach von den Einstellungen auf die Geräte mit Parametern darstellen, dass wir die dort ablegen können, einmalig, und der User im besten Fall nur noch sein Passwort eingibt, um dann bestimmte Dienste abrufen zu können. Ja. Das passt. I: Ja. Perfekt. Hört sich dann ja doch sehr komplex an, und auch wenn Sie vorhin sagten, es gibt eigentlich keine Nachteile bei solchen Sachen, würde ich dann immer anführen, es kostet zwar Geld und Zeit, aber ansonsten bringt einem natürlich so eine Lösung wirklich auch nur Vorteile, um sauber und sicher auch das Ganze konfiguriert und eingesetzt zu haben. Woher nehmen Sie denn eigentlich die Erkenntnisse für diese umfangreichen Lösungen? B: Für mich ist MDM, seit ich da eingestiegen bin, ein sehr spannendes Thema, weil die Geräte immer mehr Einzug in unseren Alltag haben und das losgelöste Arbeiten von Ort und Zeit möglich machen in unserer Welt, die dadurch smarter wird. Bei der Firma DeskCenter arbeite ich im Produktmanagement sehr eng mit der Entwicklung zusammen, habe da immer Zugriff auf die neuen Features und Funktionen, die auch von den Betriebssystemherstellern kommen, sodass ich da im regen Austausch bin, und denke, dass wir so auch die Welt der Administratoren mit dem Tool vereinfachen können, einfach smarter zu machen und vieles zu automatisieren. I: Das heißt, Sie haben da ein eigenes Tool von DeskCenter Mobile im Einsatz, mit dem Sie halt Ihren Kunden dann helfen können? B: Genau. I: Okay. Gibt es besondere Tipps zu dem Thema? B: Das Thema MDM ist sehr umfangreich und das birgt natürlich auch verschiedene Fallstricke, wenn man das anfängt einzuführen und sich Gedanken macht. Ich denke, wichtig ist auf Kundenseite, sich zu überlegen, welche Ziele habe ich als Kunde, was muss ich aus Unternehmenssicht oder aus Sicht von der Sicherheit erreichen, und dann mit einem Anbieter ins Rennen zu gehen, weil sonst wird das sehr schwierig, weil es einfach sehr viele Möglichkeiten gibt, was man damit machen kann, deswegen muss man einfach am besten Use Cases mitbringen, was man aus der eigenen Sicht erreichen möchte. I: Ja, klar. Gerade use-case-basiert kann man natürlich solche Themen immer am besten angehen und umsetzen dann auch. Gibt es denn zu diesem Thema, das machen wir immer ganz gerne, Buchempfehlungen, die Sie nennen können? B: Leider nein. Da sich die IT-Welt so schnell wandelt und gerade im Mobile-Bereich, da gibt es eigentlich ständig Neuerungen auch vom Betriebssystem, Apple bringt ja Neuerungen raus und Google auch, da gibt es halt Möglichkeiten, dass man sich vielleicht versucht, um diese in Erfahrung zu bringen, bei den entsprechenden Developer-Seiten zu registrieren, oder manchmal eine gute Beratung ist besser als ein Buch. I: Ja, das stimmt natürlich. Das kenne ich auch aus der Erfahrung sehr gut. Wie können denn die Zuhörer, wenn sie jetzt mehr zu diesem Thema erfahren wollen, wie können die Zuhörer dann mehr dazu erfahren beziehungsweise Sie erreichen, gibt es da irgendwas, Kontaktdaten oder gibt es da eventuell auch Veranstaltungen, wo im Prinzip die Zuhörer sich das dort mal näher anhören und anschauen können? B: Ja, gerne. Also man kann mich gerne über die Firmendaten kontaktieren per E-Mail oder per Telefonnummer. Das andere ist, wir bieten auch Webcasts zu dem Thema MDM aktuell an oder auch auf einer kommenden Messe besuchen, also wir sind jetzt zum Beispiel auf der DMEA in Berlin im April vertreten mit einem Stand, einfach vorbeikommen, Hallo sagen, ins Gespräch kommen. I: Ja. Super! Dann werden wir natürlich Ihre Kontaktdaten und auch die Infos mal zu dem Webcast und zu den Veranstaltungen mit in die Show Notes reinnehmen, dann fällt es unseren Zuhörern einfacher, darauf zuzugreifen. Vielen Dank auf jeden Fall, Herr Schick, für dieses tolle Interview mit Ihnen zu dem Thema!
Hallo und herzlich willkommen zu einer neuen Folge des IT Manager Podcasts, schön, dass Sie dabei sind, wenn es darum geht zu erfahren, was sich eigentlich hinter dem IT Begriff Raspberry Pi verbirgt! Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de In einem Satz: Ein Raspberry Pi ist ein sehr kleiner und kostengünstiger Computer, der für Versuchsaufbauten sowie Hausautomationen und andere spezielle Anwendungsgebiete geeignet ist. Der Raspberry Pi wurde durch die gleichnamige Raspberry Pi Foundation mit dem Ziel entwickelt, einen Computer zu entwickeln, den sich beinahe jeder leisten kann. Das bedeutet, dass man aktuell einen Raspberry Pi bereits für ca 30 € kaufen kann und ihn dann für unterschiedlichste Zwecke nutzen kann. Das Ziel wurde unter anderem dadurch erreicht, da der Raspberry Pi zunächst einmal kein Gehäuse hat. Es ist zwar natürlich möglich eins zu nutzen, aber nicht unbedingt notwendig. Dieser besondere Computer ist folgendermaßen zusammengesetzt: Ein Raspberry Pi ist zunächst einmal ein sogenannter Einplatinen Computer, was zur Folge hat, dass alle Komponenten - abgesehen vom Netzteil – auf nur einer Leiterplatte untergebracht sind. Das neueste Modell, welches es erst seit Januar dieses Jahres gibt, verwendet einen BCM2837B0 Prozessor, der mit nur 1200 MHz getaktet ist. Es gibt neben den verschiedenen Modellen ebenfalls noch die Möglichkeit entweder die Lite-Version ohne eMMC-Speicher zu nutzen, oder Versionen mit 8GB, 16 oder sogar 32GB Speicher zu verwenden. Dahingehend hat sich der Raspberry Pie 2019 deutlich verbessert, zuvor lag die maximale Kapazität bei 4GB eMMC-Speicher. Für den Raspberry Pi sind mehrere Open-Source-Betriebssysteme verfügbar, wie beispielsweise „Raspian“ von Linux, oder OpenBSD. Mit der neuesten Generation ist es auch möglich, Windows zu nutzen, dies gestaltet sich jedoch schwierig, da für das Betriebssystem selbst einige GB Speicher benötigt werden. Neben den preislichen Vorteilen, die sich durch die Nutzung eines Raspberry Pis ergeben, ist der Mini Computer auch in anderer Hinsicht äußerst praktisch! Zunächst einmal spielt für einige Nutzungen mit Sicherheit die Größe eine Rolle, da ein Raspberry Pi sehr klein ist im Verhältnis zu anderen Recheneinheiten. Zum anderen ist es besonders für Entwickler hilfreich, dass der Raspberry Pi eine frei programmierbare Schnittstelle für Ein- und Ausgaben bereitstellt. Die sogenannte GPIO - General Purpose Input/Output – kann, je nach Modell entweder aus 26 Pins oder aus 40 Pins bestehen und verschiedenste Geräte, Displays, LEDs und Sensoren ansteuern. Aufgrund dieser Vorteile werden Raspberry Pis unter anderem in schulischen Einrichtungen gerne genutzt für Versuchsaufbauten, aber auch als Steuereinheiten in der Robotik finden sie ihren Einsatz.
Unterstützt von Sopra Steria Consulting In der Sonderfolge zum Thema Cyber Security erfahren Sie in einem spannenden Experteninterview mit Dr. Gerald Spiegel, dem Leiter für Information Security Solutions bei Sopra Steria Consulting in Deutschland, welche Faktoren für ein angemessenes Sicherheitsniveau in Unternehmen, Behörden aber natürlich auch im Privaten wichtig sind. Obwohl man keine 100 prozentige Sicherheit erreichen kann, gelingt es mit dem Ansatz der Informationssicherheit als Managementsystem präventiv Risiken wie Hackerangriffe und Datenlecks zu minimieren und im Falle eines Angriffs schnell und effektiv zu handeln. Besonders im Rahmen der digitalen Transformation und dem enormen Zuwachs an vernetzten Geräten bedarf es einer guten, individuell abgestimmten Cyber Security Strategie, die nicht nur Hard- und Softwareelemente bedenken sollte, sondern auch ein Sicherheitsbewusstsein bei Mitarbeitern schulen muss. Wir wünschen Ihnen viel Spaß beim Zuhören, seien Sie gespannt! Kontakt: Dr. Gerald Spiegel Tel.: +49 40 22 703-0 IT-SECURITY.DE@SOPRASTERIA.COM Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de IL: Hackerangriffe auf Firmen und Behörden werden immer raffinierter. Sicherheitsexperte Gerald Spiegel analysiert die Tricks der Angreifer seit mehr als 20 Jahren – und entwickelt für Unternehmen verschiedener Branchen Strategien, um Risiken zu minimieren und Schäden abzuwenden. Der promovierte Elektrotechnik-Ingenieur leitet den Bereich Information Security Solutions bei Sopra Steria Consulting in Deutschland. Die IT- und Managementberatung beschäftigt über 42.000 Mitarbeiter in mehr als 20 Ländern. In Deutschland unterstützt Sopra Steria Consulting mit über 3.500 Mitarbeitern Unternehmen und Behörden bei der digitalen Transformation. Herr Spiegel, herzlich Willkommen zu unserem Interview. Was habe ich bei der Vorstellung Ihrer Person vergessen? GS: Nun, von den 20 Jahren, die ich mich beruflich mit Informationssicherheit beschäftige, war ich überwiegend in der Beratung tätig. Bevor ich allerdings zu Sopra Steria Consulting kam befand ich mich für drei Jahre sozusagen auf der anderen Seite. Ich verantwortete die Informationssicherheit bei einem großen IT-Outsourcing-Dienstleister. Diese Zeit war für mich insofern sehr wertvoll, da ich den Spagat zwischen einem angemessenen Sicherheitsniveau und Kostendruck selbst aushalten musste, anstatt als Berater anderen zu erzählen wie es am besten funktioniert. Dies hilft mir noch heute, mich besser in meine Kunden hineinversetzen zu können. IL: Unser Thema heute lautet ja Cyber Security. Beinahe täglich gibt es Berichte über Hackerangriffe oder Datenlecks – auch große internationale Konzerne sind betroffen, Anfang des Jahres wurden auch persönliche Daten der Bundeskanzlerin und des Bundespräsidenten veröffentlicht. Haben wir den Kampf gegen Datendiebe und Saboteure schon verloren? GS: Nein, ich würde hier nicht von einem Kampf sprechen, den eine Seite gewinnt und die andere verliert. Es ist wohl eher ein nie endender Wettlauf, bei dem die Akteure abwechselnd die Nase vorn haben. Das hängt dann davon ab, wer neue Technologien am besten für sich nutzbar macht – der Angreifer oder die Unternehmen. Klar ist: Hundertprozentige Sicherheit und damit einen uneinholbaren Vorsprung der Unternehmen kann es nicht geben. Mit angemessenen Methoden ist es aber möglich, seine IT im Sinne von Kosten und Nutzen optimal zu sichern und Risiken erheblich zu minimieren. Prävention zahlt sich aus: Wenn Firmen in die Sicherheit ihrer IT-Systeme und in die Schulung ihrer Mitarbeiter investieren, kommen merklich weniger Angreifer an ihr Ziel. Dies lässt sich gut dadurch belegen, dass die Ursache bekannt werdender Sicherheitsvorfälle in der Regel auf das Fehlen oder Versagen selbst einfachster Maßnahmen zurückzuführen ist. Der zweite wichtige Bereich sind gut vorbereitete Reaktionen für den Fall, dass doch ein Hacker ins Firmennetzwerk eindringt. So können Firmen schnell und effektiv handeln. Mit der richtigen Vorbereitung für die IT-Forensik zum Beispiel können digitale Tatorte zügig und umfassend untersucht werden. Für Angreifer steigt damit das Risiko, ertappt und verfolgt zu werden und die Unternehmen erkennen, was zu tun ist, damit sich ein gleichartiger Vorfall zukünftig vermeiden lässt. IL: Das hört sich leichter an, als es ist, oder? Was müssen Unternehmen oder Behörden denn tun? Sie müssen das Thema Informationssicherheit offensiv und strategisch angehen. Bisher sind Maßnahmen oft nur eine Reaktion auf einen Vorfall oder eine gesetzliche Notwendigkeit. Erst wenn ein Angriff bekannt wird, wird reagiert und in die Beseitigung eventueller Schäden investiert. Kurz nach einem Vorfall befindet sich das Thema Informationssicherheit über der Wahrnehmungsschwelle des Managements, um dann relativ schnell wieder als Kostentreiber und Angelegenheit der IT-Abteilung darunter abzutauchen. Viel effektiver ist es, Informationssicherheit als Management System zu verankern, also Risiken zu identifizieren, angemessene Maßnahmen zu treffen, diese zu kontrollieren und laufend zu verbessern. Mit zunehmender Digitalisierung wird das für Firmen zu einer Frage ihres Fortbestandes im Fall von CyberAngriffen. Neue Technologien, die zunehmende Komplexität von IT und damit einhergehende Bedrohungen werden für Unternehmen zukünftig nur dann beherrschbar sein, wenn sie eine belastbare Cyber-Sicherheitsstrategie haben. „Belastbar“ bedeutet, dass die Strategie zum Geschäftsmodell ebenso wie zur IT passt, vom Management getragen wird und mit Ressourcen und Budget hinterlegt ist. IL: Was meinen Sie mit Komplexität? Meinen Sie damit, dass immer mehr Geräte miteinander vernetzt sind, zum Beispiel in Fabriken? GS: Ja, aber nicht ausschließlich. Früher befand sich IT in genau einem Rechenzentrum in der Regel auf dem Firmengelände des zugehörigen Unternehmens. Die Schnittstellen des Netzwerks nach außen waren überschaubar. Heute sprechen wir von multiplem IT-Outsourcing, Cloud, Remote Access, mobile Devices und Internet of Things. Die Angriffsfläche wächst, weil jedes vernetzte Gerät zum Einfallstor für Hacker werden kann. Das kann eine Überwachungskamera sein, eine Klimaanlage oder ein Smartphone. In den USA gab es einen Fall, bei dem Hacker Daten eines Casinos gestohlen haben. Der Zugangwar ein digitales Thermometer, das die Temperatur im Aquarium in der Lobby überwacht und meldet. Über solche Geräte können Angreifer einen Fuß ins Firmennetzwerk setzen und von dort weiter vordringen. Unternehmen müssen bei ihren Mitarbeitern ein Bewusstsein für diese Gefahren schaffen. Jedes unsichere Gerät kann zur Einladung für Hacker werden. Im Internet der Dinge sind Liefer- und Produktionsketten immer stärker vernetzt, zum Beispiel Roboter in der Produktion. Hier gibt es Studien, dass selbst der Hälfte der IT-Entscheider nicht klar ist, welche Gefahren für Angriffe von außen sich aus dieser Vernetzung ergeben. IL: Wie sieht ihrer Meinung nach eine gute Strategie gegen diese Gefahren aus? GS: Firmen müssen nicht nur ihre interne IT absichern, sondern jede Schnittstelle mit der Außenwelt. Das können Maschinen, Anlagen oder Geräte sein – oder die Smartphones oder Tablets von Mitarbeitern, wenn sie darüber Zugang zum Firmennetzwerk haben. Es gab 2017 den Fall, wo ein Patient – zufälligerweise ein Whitehat-Hacker, der sonst im Auftrag von Firmen deren IT-Sicherheit prüft – sich bei einem privaten Krankenhausaufenthalt ohne viel Mühe über das Entertainmentsystem seines Zimmers in das Klink-Netz eingeklinkt hat. Hätte er nicht vorher die Klinikleitung informiert, wäre es ihm möglich gewesen, unerkannt auf medizinische Geräte zuzugreifen. Das Beispiel zeigt, wie komplex das Thema Cybersecurity ist. Diese Komplexität bekommen Sie nur mit einem streng methodischen Vorgehen in den Griff. Startpunkt ist eine Strukturanalyse. Sie macht sichtbar, welche IT-Komponenten über welche Netzwerke kommunizieren. Welche Art von Daten sie austauschen und wie schutzbedürftig diese Daten jeweils sind. Dann folgt eine Bedrohungsanalyse: Welche Gefahren sind für die IT-Infrastruktur eines Unternehmens relevant? Dann werden die Bedrohungen eingeschätzt und priorisiert; das nennt man Risikoanalyse. Anschließend wird zum jedem Risiko eine Strategie festgelegt, die Optionen dafür sind Vermeiden, Vermindern, Übertragen (z.B. auf eine Versicherung oder einen Dienstleister) oder Akzeptieren. Nach der Umsetzung der Risikostrategien wird das Restrisiko dokumentiert, welches stets vom Management des Unternehmens getragen werden muss. IL: Laut Sicherheitsbehörden werden Angriffe nicht nur häufiger, sondern auch raffinierter. Welche Trends beobachten Sie dabei denn aktuell? GS: Es wird immer schwieriger, Angriffsmuster rechtzeitig zu erkennen. Bei Angriffen früherer Generationen ging es zum Beispiel darum, eine Webseite mit unzähligen Zugriffen lahmzulegen. Solche brachialen Angriffe bemerken Sie sofort. Neuere Angriffe leben von ihrer Unauffälligkeit. Sie werden gezielt auf einzelne Unternehmen oder sogar auf einzelne Mitarbeiter zugeschnitten. Das Ziel-Netzwerk wird sorgfältig ausgespäht. Es geht darum, sich in einem fremden System einzunisten und möglichst lange unerkannt zu bewegen. Der Angreifer will spionieren und Daten abgreifen oder manipulieren. Merkt er, dass seine Strategie nicht greift, sucht er einen anderen Weg und versucht die Spuren des ersten Versuchs zu verwischen. Deshalb dürfen Schutzmaßnahmen auch keine Standardprodukte „Out of the Box“ mehr sein, sondern müssen noch stärker auf die Unternehmen zugeschnitten werden. Die Angreifer kommen immer häufiger aus der organisierten Kriminalität. Sie haben beachtliche finanzielle Mittel, gute technische Ausstattung und nutzen die neuesten Technologien. IL: Das Megathema „Künstliche Intelligenz“ (abgekürzt häufig mit KI bezeichnet) macht auch in der Hackerszene die Runde. KI in den Händen von Kriminellen – droht da ein Sicherheits-Alptraum? GS: Künstliche Intelligenz in den Händen von Hackern ist definitiv ein Sicherheitsproblem. Aber Künstliche Intelligenz ist auch ein Teil der Lösung! Selbstlernende IT-Systeme nutzen einen verhaltensbasierten Ansatz. Wenn das System gelernt hat, wie der Datenverkehr in einem Unternehmen aussieht, kann es schon kleinste Unregelmäßigkeiten erkennen und Alarm schlagen. Die Entwicklung von KI-gestütztem Sicherheitsmonitoring kann helfen, Angriffe auf Unternehmensdaten schnellstmöglich und frühzeitig zu erkennen und einzudämmen. Auch bei der Identifizierung der Angreifer könnte KI helfen. Jeder Programmierer hat seinen persönlichen Stil, wie er Code schreibt. In den USA haben Forscher gezeigt, dass man Hacker mit Künstlicher Intelligenz enttarnen kann. Die KI wurde mit Code gefüttert und lernte die Eigenarten verschiedener Programmierer. Mit diesen Eigenarten konnte sie danach zuordnen, welcher Programmierer eine Schadsoftware geschrieben hat. IL: Was ist der größte Fehler, den Firmen bei der IT-Sicherheit machen? GS: Zu sehr auf die Technik zu vertrauen und die Bedeutung des Faktors Mensch zu vernachlässigen. Über die Mitarbeiter laufen die meisten Angriffe oder werden zumindest darüber vorbereitet! Oft handeln sie nicht einmal in böser Absicht falsch, sondern aus Unkenntnis, Bequemlichkeit oder Fahrlässigkeit. Schon ein unbedachter Klick auf einen Link oder Mailanhang kann fatal sein. Eine Untersuchung im Rahmen unseres „MANAGEMENTKOMPASS Unternehmen schützen – Risiken minimieren“ hat ergeben: In fast der Hälfte aller Firmen sind die Mitarbeiter nicht ausreichend sensibilisiert. Das ist gefährlich, denn ohne Schulungen für Mitarbeiter und das richtige Maß an Aufklärung kann eine Sicherheitsstrategie nicht funktionieren. IL: Abschließend sei die Frage gestattet: Wie schützt sich eigentlich ein IT-Sicherheitsberater persönlich vor Cyberattacken und Datenklau? – GS: Ich setze privat auch nichts anderes um als ich Unternehmen empfehle, das heißt ich halte meinen Rechner aktuell, nutze Virenschutz und Firewall, bin aufmerksam bei sonderbaren EMails und sensibilisiere meine Familie für die Gefahren des Internets. Hinsichtlich Passwörter setze ich nie das gleiche Passwort für verschiedene Web-Portale ein, sondern nutze einen Passwort-Safe, der mir auch gleich Passwörter in ausreichender Länge und Komplexität generiert. IL: Vielen Dank Herr Spiegel für das informative Interview und die Tipps.
In dieser Folge des IT Manager Podcasts dreht sich alles um das Thema: „Was ist eigentlich Malware?“ Viel Spaß beim Zuhören! Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de Der Begriff Malware ist die Kurzform von Malicious Software, übersetzt also schädliche Software und beschreibt Computerprogramme, die darauf ausgelegt sind auf verschiedenste Weise Computer und andere Geräte zu infizieren und zu schädigen. Dabei fallen unter Malware ganz verschiedene Formen der „Viren“. Bekannte Beispiele sind unter anderem Trojaner, also Programme, die sich als legitime Software ausgeben und es Angreifern ermöglichen Zugang zum System des Benutzers zu erlangen. Das kann unter anderem über gefälschte E-Mails geschehen, wie der sich aktuell im Umlauf befindende Trojaner Emotet eindrucksvoll beweist. Betroffene Geräte können dann ausspioniert werden und es kann sogar zum Eingriff in die Systeme kommen, wodurch beispielsweise Daten gesperrt werden. Aber auch die sogenannten Würmer, die anders als andere Viren eigenständige Schadprogramme sind , die sich selbst replizieren und über Computernetzwerke verbreiten können – ganz ohne menschliches Zutun – können erheblichen Schaden anrichten. Eine Infektion des Systems mit einem Wurm läuft folgendermaßen ab: Wenn der Wurm einen Weg in das System gefunden hat, zum Beispiel über eine unzureichend geschützte Netzwerkverbindung oder eine heruntergeladene Datei –, kann er sich ohne äußere Einwirkung vervielfachen und über die Netzwerk- oder Internetverbindung verbreiten und damit sehr schnell ganze Netzwerke infizieren. Jeder Ableger des ursprünglichen Schädlings besitzt dabei genau dessen Beschaffenheiten und Fähigkeiten. Angriffe dieser Art zielten früher zumeist nur darauf ab, Ressourcen zu verbrauchen und somit Systeme zu verlangsamen, inzwischen beinhalten viele Angriffe aber auch Playloads, die zur Datenspionage beziehungsweise – dem Diebstahl genutzt werden. Ransomware ist eine Form der Malware, die Daten verschlüsselt und – wie der Name bereits sagt – eine Lösegeldforderung beinhaltet. In extremen Fällen werden dabei nicht nur einzelne Daten verschlüsselt, sondern der gesamte Zugriff auf den Computer verhindert. Oftmals wird der Lösegeldforderung die Drohung hinzugefügt, die verschlüsselten Daten bei nicht Nachkommen der Forderung zu löschen. Die Liste möglicher Angriffe ist dabei beinahe grenzenlos und es ranken sich auch einige Mythen um Angriffe mit Malware, von denen wir hier einmal auf einige eingehen wollen: Zunächst einmal wie bereits erwähnt – nein, die Verbreitung von Viren und Würmer ist nicht immer aktiv Schuld des einzelnen Benutzers, die Schädlinge können sich bereits im Netzwerk befinden und durch Schwachstellen auf das jeweilige Endgerät Zugriff erlangen. Ein gefährlicher Trugschluss ist es auch, dass E-Mails von bekannten Absendern keine Malware beinhalten können. Richtig und wichtig ist natürlich Anhänge nur von bekannten Absendern zu öffnen und generell vorsichtig zu sein, jedoch können auch ebenjene bekannten Absender, ohne es zu wissen bereits infiziert sein und somit als Virenüberträger fungieren. Auch können Antiviren Lösungen leider keinen 100% igen Schutz vor Infektionen bieten, da es kontinuierlich veränderte und neue Formen der Bedrohung gibt. Hier ist für eine gute Netzwerksicherheit mit geeigneten Antiviren Programmen stets der Benutzer ebenfalls in der Pflicht sorgsam und achtsam mit Daten zu sein. Ganzheitliche IT-Security-Lösungen können hier einen deutlichen besseren Schutz bieten. Besonders im Hinblick auf die Digitalisierung und die Vernetzung von Maschinen oder auch das autonome Fahren zeigt sich, welchen erheblichen physischen Schaden Malware neben dem erbeuten von vertraulichen Daten anrichten kann. In Tests konnte Beispielsweise auf die Lenkung von Fahrzeugen zugegriffen werden und auch ein Eingriff beziehungsweise eine Parameteränderung in produzierenden Maschinen möchte man sich lieber nicht vorstellen.
Hallo und herzlich willkommen liebe IT Profis, zu einer neuen Folge des IT Manager Podcasts! Heute dreht sich alles rund um die Frage, welche Neuerungen 5G eigentlich mit sich bringen wird. Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de Aktuell dienen Frequenzen im 2 GHz Band der Versorgung mit 3G. Diese Frequenzverträge laufen aber 2020 aus und daher gibt es Anfang dieses Jahres eine neue Frequenzversteigerung, bei der dann erstmals auch das neue Frequenzband mit 3,4 bis 3,7 GHz, also den 5g Frequenzen versteigert wird. Nachdem die Netzbetreiber zuletzt deutlich den LTE-Netz Ausbau forciert haben, finden nun Tests der Nachfolgetechnik, also 5g statt. Der größte Unterschied ist der Unterschied der Architektur. Konkret bedeutet das, das anders als zuvor, nicht die Besiedlungsdichte eine Rolle spielen soll, sondern die Anforderungen der Anwender. Das bringt natürlich große Vorteile für Industriebetriebe oder auch große landwirtschaftliche Betriebe, die auf extrem kurzen Antwortzeiten und hohe Zuverlässigkeit angewiesen sind. Der Um- beziehungsweise Ausbau auf ein 5g Netz soll dabei stufenweise erfolgen und auf bereits bestehende LTE Netze aufsetzen. Das bietet dem Nutzer den Vorteil, dass er nicht zwingend neue Endgeräte kaufen muss, da er bereits bestehende Infrastruktur auch noch mit dem LTE Netz betreiben kann. Beim 5G Netz wird zwischen drei verschiedenen Bereichen unterschieden. Zum einen der „Enhanced Mobile Broadband“ Bereich, der der Verarbeitung der kontinuierlich rasant steigenden Datenmengen dient, wie beispielsweise 4k oder 8k Videos oder dem Bereich der Virtual oder Augmented Reality, wobei natürlich hohe Datenraten und sehr große Kapazitäten benötigt werden. Für eine bessere Vorstellung, was 5G Nutzung bedeuten wird kann man sich vorstellen, dass beispielsweise eine Folge der Lieblingsserie künftig innerhalb von nur unter einer Sekunde heruntergeladen werden könnte. Zum anderen gibt es den Massive Machine Type Communications – kurz M2M – Bereich, bei dem besonders im Sinne der Industrie 4.0 eine immer stärkere Verknüpfung und Kommunikation der einzelnen Elemente der Supply Chain wichtig ist. Dabei entstehen anders als beim „Enhanced Mobile Broadband“-Bereich nicht punktuell große Datenmengen, sondern es entsteht vielmehr ein kontinuierlicher Strom kleiner Datenmengen, durch die Verknüpfung selbst kleinster Alltagsgeräte wie Kühlschränke oder Lichtanlagen. Wichtig ist dabei nicht unbedingt die kürzeste Reaktionszeit, sondern ein geringer Energieverbrauch. Der Ultra-Reliable and Low Latency Communications Netzbereich, der vereinfacht gesagt höchste Zuverlässigkeit bei kurzen Antwortzeiten bietet, soll beispielsweise einen Grundpfeiler für das autonome Fahren bieten. Wichtigstes Augenmerk dabei ist, die sogenannte Latenzzeit, die zum Vergleich bei den 3G-Netzen bei ca. 100 Millisekunden liegt, im 4G-Netz dann nur noch bei etwa 30 Millisekunden und im 5G-Netz schließlich nur noch bei einer Millisekunde liegen wird. Man kann also beinahe von Echtzeit reden. Damit diese technischen Neuerungen in Deutschland Standard werden können bedarf es natürlich einem deutlichen Ausbau der mobilen Infrastruktur und des Glasfasernetzes. Im Juni 2018 wurden die Rahmenbedingungen zur Vereinheitlichung internationaler 5G Technologien gesteckt, auf deren Basis bereits erste 5G-Chips für Smartphones, Funkzellen, Router sowie Systemtechnik und weiterer Anwendungsgebiete entwickelt wurden. Da sich diese bereits in der Testphase befinden, könnte es bereits in diesem Jahr zur kommerziellen Einführung von 5G Elementen kommen. Letztendlich wird dies aber stark von der Frequenzvergabeauktion beeinflusst werden, beziehungsweise den dort benötigten Investitionsmitteln, die abschließend noch für den Netzausbau zur Verfügung stehen. Ein weiteres Problem ist stets die Genehmigung zum Bau neuer Masten, da dieser oft durch Anwohner boykottiert wird. Wir sind gespannt, was noch dieses Jahr im Bereich 5G passieren wird.
In dieser Folge dreht sich alles rund um die Frage: „Was ist eigentlich das Darknet?“ Ist es wirklich nur ein Ort krimineller Aktivitäten oder verbirgt sich vielleicht viel mehr dahinter? Seien Sie gespannt! Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de Das Stichwort Darknet taucht häufig genau dann in den Medien auf, wenn es um kriminelle Machenschaften im Internet geht. Von Waffen- und Drogenhandel über Datenklau - das Darknet scheint im öffentlichen Bewusstsein das schwarze Schaf des Internets zu sein - und ein Tummelplatz für kriminelle Aktivitäten zu bieten. Dieser Raum, der illegalen Aktivitäten den das Darknet leider bietet, ist aber bei weitem nicht die einzige Nutzungsmöglichkeit, dazu aber später mehr. Zunächst einmal ist es wichtig den Unterschied zum „normalen“ World Wide Web also dem normalen Internet wie wir es täglich nutzen zu sehen. Im Darknet gibt es nämlich keine zentralen Server. Man gelangt auch nicht über eine Suchmaschine zu Millionen an Vorschlägen zum eingegebenen Schlagwort, sondern vielmehr besteht das Darknet aus vielen einzelnen, exklusiven Netzwerken deren vorrangiges Ziel die Anonymität der Teilnehmer ist. Dabei werden nicht nur die Identitäten, sondern auch die Daten verschlüsselt, was natürlich zu einer schweren – bis hin zur unmöglichen - Überwachung des Darknets führt. Im Darknet selbst ist es eigentlich gar nicht so anders, schließlich besteht es auch aus den verschiedensten Chaträumen, sozialen Netzwerken - und viele Online-Shops. Der Unterschied verbirgt sich hinter der Frage: „Wie komme ich eigentlich ins Darknet?“ Da es eben nicht über eine herkömmliche Suchmaschine wie Google etc. funktioniert, bedarf es einer speziellen Software. Dabei gibt es aber keine allgemeingültige Methode ins Darknet zu gelangen, da die unterschiedlichen Netzwerke wiederum verschiedene Zugänge haben. Das vermutlich bekannteste Darknet ist über den sogenannten Tor Browser zu erreichen. Tor nutzt dabei TCP-Verbindungen und anonymisiert die Nutzer per „Onion Routing“. Hinter dem Begriff Onion Routing verbirgt sich eine Technik, bei der die Anfragen auf wechselnden Routern über verschiedene Server umgeleitet werden, wobei das Besondere ist, dass diese jeweils das Endziel nicht kennen. Ein spannender Fakt für Sie liebe IT Profis: im Januar 2019 nutzten zum Beispiel täglich ca. 2 Millionen Nutzer das Tor-Netzwerk. Im Darknet gibt es auch die sogenannten Hidden Services, deren Adressen auf .onion enden und aus langen Zahlen- und Buchstabenkombinationen bestehen. Aktuell gibt es bereits über 50.000 .onion-Adressen. Nun wurde bereits gesagt, dass diese Anonymität natürlich einen guten Nährboden für Kriminalität bietet. Das ist aber bei weitem nicht alles. Die Möglichkeit in den Online-Shops mit der Krypto-Währung Bitcoin zu zahlen und in Chaträumen und Netzwerken zu kommunizieren ist eine tolle Möglichkeit für Menschen in autoritär regierten Ländern, die keine Meinungsfreiheit und Pressefreiheit genießen. Es können also politische Aspekte offen kommuniziert werden, ohne Angst vor Verfolgung und unzensierte Nachrichtenmeldungen gelesen werden. Das Darknet-Netzwerke bietet also auch Menschen wie Journalisten oder Whistleblowern einen geschützten Ort. Daher haben viele ganz normale Webseiten, wie beispielsweise Facebook, ebenfalls Tor-Adressen, für genau diese positiven Seiten des Darknets. Als Fazit kann man also sagen, dass keineswegs das Darknet illegal ist oder ausschließlich negative Aspekte beinhaltet, sondern der eigentlich positive Gedanke der Anonymität ausgenutzt wird.