Dr. Hubert Jäger von Uniscon über BYOK-Irrtümer

Videoblog: „BYOK ist leider kein Cloud-Daten-Allheilmittel“

Dieses Videogespräch habe ich mit Dr. Hubert Jäger von der Firma Uniscon geführt. Dabei geht es um vorherrschende BYOK-Irrtümer (Bring Your Own Key) und wie die Sealed Plattform seiner Firma helfen kann, Cloud Computing ein gutes Stück sicherer zu machen.

Life-Hacking auf der it-sa: So unsicher sind Cloud-Daten

Die Cloud kämpft nach wie vor mit einer Reihe von Vorurteilen, darunter auch mit der Annahme, dass Daten innerhalb einer Cloud-Umgebung nur dann sicher seien, wenn man die eigenen Schlüssel mitbringt. Dieser Grundsatz (der auch unter dem Akronym BYOK (Bring Your Own Key) bekannt ist) weist allerdings eine erhebliche Schwachstelle auf: Man kann mit relativ geringem Aufwand an die für das Entschlüsseln der Daten notwendigen Schlüssel herankommen. Hierfür muss lediglich ein sogenannter „Memory Dump“ erstellt werden, der es erlaubt, mit etwas technischem Verständnis und den richtigen Tools die Schlüssel zu extrahieren und zu missbrauchen.

Die Uniscon Sealed Plattform schützt Cloud-Daten vor fremden Zugriffen

Sieht man sich die DSGVO genauer an, so fällt unter anderem Artikel 5 auf, der unter dem Punkt 1c das Prinzip der Datenminimierung genauer beschreibt. Die Forderung hierbei lautet, dass die Erhebung und Verarbeitung personenbezogener Daten stets zweckgebunden sein muss. Gewährt man einem IT-Admin von Cloud-Servern allerdings weitergehende Rechte, als diese für das Erfüllen seiner Aufgaben notwendig sind (wie zum Beispiel das Erstellen eines Memory Dump), verstößt man nicht nur gegen die DSGVO, sondern ermöglicht auch ein unsicheres Einfallstor in die Cloud-Umgebung.

Genau an dieser Stelle kommt die Sealed Plattform ins Spiel. Auf Basis dieser Uniscon-Lösung kann man den IT-Administrator einer Cloud-Infrastruktur in seinen Rechten so weit einschränken, dass das Prinzip der Datenminimierung eingehalten werden kann.

So funktioniert die Sealed Plattform im Falle eines versuchten Datenklaus

Sollte trotz eingeschränkter Adminrechte und sonstiger Sicherheitsmaßnahmen ein Angriffsversuch auf die Cloud-Daten initiiert werden, sucht die Uniscon Sealed Plattform mit vier geeigneten Maßnahmen, diesen unliebsamen Hacking-Versuch zu unterbinden und die Daten zu schützen:

Mit dem Data Clean-Up werden im Falle eines Angriffs die Daten innerhalb einer sogenanten Data Clean-Up Area präventiv gelöscht. Dort befinden sich auch die Schlüssel, womit auch diese im Angriffsfall gelöscht werden, sodass die Daten erst gar nicht entschlüsselt werden können. Mit der Filterung wird der IT-Admin von diesem Bereich ferngehalten, da dies seine Kompetenzen übersteigen würde. Und schließlich findet ein Audit statt, der sicherstellt, dass der gesamte Data Cleanup-Prozess genau den Vereinbarungen entsprochen hat und damit die Daten weiterhin als sicher gelten.

Das vollständige Interview mit Dr. Hubert Jäger auf der it-sa 2018

Disclaimer: Für diesen Videoblogeintrag hat mich die Firma Uniscon beauftragt. Bei der Ausgestaltung der Inhalte hatte ich völlig freie Hand.

Dirk Schrader von Greenbone über Sustainable Cyber Resilience

Videblog: „Nachhaltige Widerstandsfähigkeit ist die neue IT-Sicherheit“

Dieses Interview habe ich mit Dirk Schrader von Greenbone Networks auf der it-sa 2018 zum Thema Sustainable Cyber Resilience geführt. Darin spricht er unter anderem darüber, warum das Thema gerade für KRITIS-Unternehmen immer wichtiger wird.

Sustainable Cyber Resilience ist mehr als ein Buzzword

Unter dem Begriff „Sustainable Cyber Resilience“ (SCR) versteht man eine neue Herangehensweise in Sachen Informationssicherheit. Hierbei steht weniger das Gesamtkonstrukt und dessen Absicherung gegen Angriff im Vordergrund, sondern mehr die einzelnen „Assets“, die involviert sind. Das können Server und Router sein, aber Applikationen und Dienste werden hierfür betrachet. Daran verknüpft ist vor allem die Frage, welche Rolle diese einzelnen IT-Faktoren innerhalb der Geschäftsprozesse einer Firma besetzen.

Die richtigen Antworten daraus ergeben entsprechende Risikofaktoren und die passenden Maßnahmen, die sich davon ableiten lassen. Daraus resultiert eine nachhaltige Widerstandsfähigkeit, die sich für jedes einzelne Gerät oder jeden einzelnen Dienst genau bestimmen lässt. Damit wissen IT-Verantwortliche jederzeit, in welchem Ausmaß ein angegriffener Server oder ein anderes Asset zur Stabilität oder Instabilität des großen Ganzen beiträgt.

Ein weiterer Aspekt dabei: Dieses permanente Bewerten von Risikofaktoren und dem damit verbundenen Herstellen von Widerstandsfähigkeit sorgt dafür, dass die Sicherheit des gesamten Systems besser und besser wird.

SCR betrifft vor allem KRITIS-Unternehmen

Kritische Unternehmensstrukturen – also die der Energieversorger, der Gesundheitsversorger, etc. – weisen vor allem eine wesentliche Eigenschaft auf: Sie leisten einen immens wichtigen Beitrag zum gesellschaftlichen Leben und Miteinander. Obendrein sind sie hochgradig miteinander vernetzt, denn ohne Strom gibt es keine medizinische Versorgung, und so fort.

Daher kommt der Widerstandsfähigkeit der gesamten Infrastruktur dieser sogenannten KRITIS-Betriebe und -Unternehmen eine ganz besondere Rolle zu. Denn in diesen Fällen ist nicht nur die IT-Infrastruktur einem besonderen Risiko ausgesetzt, sondern auch die OT (Operational Technology). So sind zB in einem Wasserkraftwerk nicht nur die Server mögliche Angriffsziele von Hackern, sondern auch die Versorgungsanlage und deren Assets selbst. Damit muss jederzeit sichergestellt werden, dass sowohl die IT als auch die OT so widerstandsfähig wie möglich sind.

Das komplette Interview mit Dirk Schrader auf der it-sa 2018

 

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Dr. Matthias Pankert von Utimaco über eIDAS und passende Lösungen

Videoblog: „Mit dem CryptoServer CP5 werden digitale Geschäfte sicherer“

Während der it-sa 2018 habe ich dieses Interview mit Dr. Matthias Pankert von der Utimaco GmbH geführt. Darin spricht er über die zunehmende Wichtigkeit von eIDAS und über die passenden HW-Lösungen seiner Firma.

Unter Mitwirkung des BSI (Bundesamt für Sicherheit in der Informationstechnik) ist Mitte 2016 eine EU- und europaweite Verordnung mit der Nummer 910/2014 in Kraft getreten. Besser bekannt ist diese EU-Regelung unter der Abkürzung eIDAS (englisch für electronic IDentification, Authentication and trust Services), die einheitliche Spielregeln in den Bereichen „Elektronische Identifizierung“ und „Elektronische Vertrauensdienste“ schaffen soll.

eIDAS spielt im Unternehmensumfeld eine immer größere Rolle

Damit soll vor allem die digitale Wirtschaft im Kontext vertrauenswürdiger Geschäftsprozesse gefördert werden. Im Kern geht es darum, digitale Geschäfte auf einheitliche Art und Weise abwickeln zu können. Hierfür kommen unter anderem digitale Signaturen zum Einsatz, was wiederum die passenden Gerätschaften erfordert. Und genau in diesem Umfeld bewegt sich die Utimaco GmbH.

Utimaco CryptoServer ermöglichen eIDAS-konforme Geschäfte

Mit einer ganzen Reihe an eIDAS-konformen Hardware-Lösungen will Utimaco in diesem vor allem für größere Unternehmen immer wichtigeren Geschäftsbereich sichere Möglichkeiten für digitale Signaturen und andere Sicherheitsmaßnahmen an die Hand geben.

Im ersten Schritt wurde hierfür der CryptoServer CP5 entwickelt. Dabei handelt es sich um ein eIDAS-konformes Hardware-Modul, das entweder als 1U-Server in einem 19-Zoll-Rack oder als PCIe-Einsteckkarte direkt in einem Rechner verbaut werden kann. Es lässt sich zudem per Mietmodell via Cloud nutzen.

Das CP5 kommt vor allem für digitale Fernsignaturen zum Einsatz. Darüber hinaus lassen sich damit qualifizierte Zertifikate und andere Sicherheitsmaßnahmen erstellen. Er wird also überall dort benötigt, wo Schlüsselautorisierungsfunktionen erforderlich sind.

Das Interview mit Matthias Pankert auf der it-sa 2018 in voller Länge

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Leif Walter von Fortinet über Enterprise Firewalls und KI in der Security

Videoblog: „Enterprise Firewalls müssen performant, skalierbar und offen sein“

Während der it-sa 2018 habe ich mit Leif Walter von Fortinet dieses Videointerview geführt. Darin spricht er über die Besonderheiten der Fortinet Enterprise Firewalls und die künftige Rolle der Künstlichen Intelligenz im Kontext der IT-Security.

FortiGate Enterprise Firewalls sind performant, skalierbar und offen

Firewall-Lösungen für den Enterprise-Markt müssen vor allem performant und skalierbar sein, aber auch offen gegenüber anderen Systemen und Lösungen. Genau diesen Anforderungen werden Fortinet-Firewalls gerecht, indem sie auf Techniken basieren, die darauf abgestimmt sind. Hierbei steht vor allem die Netzwerk-Performance im Vordergrund genauso wie die Skalierbarkeit, die sich auf diverse Bereiche wie das Internet der Dinge und andere Segmente bezieht. Und klar, dass solche Firewall-Systeme auch mandantenfähig sein müssen.

Darüber hinaus spielen offene Schnittstellen eine zunehmend wichtige Rolle, da die Netzwerk-Topologien und ihre Komponenten immer heterogener werden und Anwender genau nach Lösungen suchen, die mit dieser Technikvielfalt klar kommen.

Künstliche Intelligenz in der IT-Security hat noch einen weiteren Weg vor sich

Die aktuelle Künstliche Intelligenz befindet sich im Grunde immer noch in einem Anfangsstadium, sodass immer noch von einer „schwachen“ KI die Rede ist, die innerhalb einer in sich geschlossenen Disziplin wie Autonomes Fahren oder Bilderkennung gute bis sehr gute Dienste leistet, also auch innerhalb der IT-Security.

Will man allerdings äußerst komplexe Bedrohungsszenarien mithilfe der Künstlichen Intelligenz schneller und zuverlässiger erkennen und abwehren können, ist eine sogenannte „starke“ KI vonnöten. Denn nur dort können die bisherigen „Insellösungen“ miteinander interagieren und schaffen damit ganz neue Modelle, die deutlich „schlauer“ sind als die heutigen Ansätze. Und genau dort wollen und werden sich Sicherheitsexperten wie Fortinet künftig noch mehr engagieren.

Das vollständige Interview mit Leif Walter

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden. 

Karsten Johannsen von IBM über Storage und KI

Videoblog: „KI-Systeme müssen skalierbar sein und gängigen Standards folgen“

Dieses Interview habe ich mit Karsten Johannsen von IBM über das Thema Künstliche Intelligenz und Storage gesprochen. Darin geht es aber auch um die Frage, warum Tech Data als wichtiger IBM-Partner die KI für sich entdeckt hat und welche Rolle IBM dabei spielt.

Tech Data begibt sich mit der KI auf neue Pfade

Gerade IT-Systemhäuser wie Tech Data müssen immer wieder neue Wege beschreiten, wollen sie neue Absatzmärkte gewinnbringend erschließen. Dazu gehört eben auch das weite Feld der Künstlichen Intelligenz, das das Unternehmen für sich entdeckt hat. So sollen in den nächsten Monaten und Jahren unter dem Begriff „Next Generation Technologies“ gemeinsam mit den Geschäftspartnern und Kunden KI-Szenarien und -Applikationen entwickelt werden.

Hierfür hat Tech Data gemeinsam mit IBM ein siebenköpfiges KI-Team aufgebaut, das sich künftig in den Bereichen Business Development, Architekturberatung, Vertrieb und Marketing tummeln wird.

Tech Data und IBM sind ein echtes KI-Gespann

Gemeinsam mit IBM will Tech Data seine Kunden (also Business Partner und Systemhäuser) näher heranführen an das Thema Künstliche Intelligenz. Hierfür gibt es dedizierte, unterstützende Maßnahmen seitens Tech Data/IBM, die den Tech Data-Kunden helfen sollen, eigene KI-Projekte umzusetzen. Denn in diesem Segment gestalten sich zahlreiche Anforderungen anders als bei herkömmlichen IT-Aufträgen, und genau an dieser Stelle soll und wird das Tech Data-IBM-KI-Team unterstützend aktiv.

Hierbei kommt vor allem das IBM-KI-Produktportfolio der Systems-Gruppe zum Einsatz, also alles, was mit den Begriffen IBM PowerAI und IBM Storage zu tun hat. So kommt es speziell bei KI-Projekten auf leistungsfähige Speicherlösungen an, da hier erfahrungsgemäß große Datenmengen anfallen und somit leistungsfähige Speichersysteme vonnöten sind.

Das verbirgt sich hinter der IBM KI-Referenzarchitektur

Wichtig ist bei einer geeigneten KI-Referenzarchitektur die Wahl der Komponenten, die den gängigen Standards folgen sollten. Wichtig ist aber auch eine bestmögliche Skalierbarkeit, sodass sich das System den jeweiligen Anforderungen ohne großen Aufwand anpassen lässt. Das ist speziell im KI-Umfeld von großer Wichtigkeit, da sich viele Unternehmen nach wie vor im Experimentierstadium befinden.

Gleichzeitig merkt dann der ein oder andere KI-Projektverantwortliche relativ schnell, dass die Datenmengen exponentiell anwachsen und die Maschine sowie die zugehörigen Speicherkomponenten schneller an ihre Grenzen stoßen als angenommen. Daher setzt Tech Data in Zusammenarbeit mit IBM auf die PowerAI- und IBM Spectrum-Produktfamilien, da diese die beschriebenen Voraussetzungen erfüllen.

Das komplette Interview mit Karsten Johannsen

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

 

Eric Dreier von Axians über den Einsatz von KI in der IT- und OT-Security

Videoblog: „Industrieanlagen sind ganz besonders schützenswert“

Dieses Interview habe ich mit Eric Dreier von Axians auf der it-sa 2018 geführt. Darin spricht er über den Einsatz von KI in der IT-Security und warum Industrieanlagen besonders schützenswert sind.

KI-Algorithmen kommen in der IT-Security verstärkt zum Einsatz

Immer dort, wo Security-Anwendungen bestimmte Muster oder Verhaltensweisen beobachten bzw. vergleichen sollen, kommen Algorithmen der Künstlichen Intelligenz vorzugsweise zum Einsatz. Das bezieht sich vor allem auf SIEM-Applikationen, mit deren Hilfe sich beispielsweise Benutzerverhalten überprüfen lassen.

Ein weiteres Feld für KI-Ansätze findet man in der sogenannten Operational Technology (OT), ein Begriff, der momentan hauptsächlich als Synonym für Industrieanlagen genutzt wird. Hierbei geht es allerdings weniger um einzelne Anwender oder Maschinen, sondern meist um die komplette Anlage und deren Risiken, von außen angegriffen zu werden. Das kann z.B. ein anormales Kommunikationsverhalten verhalten sein, was sich wiederum sehr gut in ein vorhandenes SIEM-System übertragen und dort analysieren und bewerten lässt.

Industrieanlagen sind besonders schützenswert

Vor allem die Art der Schäden im Bezug auf Industrieanlagen erfordern für diese Systeme weitaus profundere Sicherheitsmechanismen, als das bei IT-Systemen der Fall ist. So bietet der Ausfall eines Heizkraftwerks oder der Angriff auf eine hochsensible versorgungstechnische Anlage ein viel höheres Gefahrenpotenzial als der Ausfalls eines Servers o.ä. Daher ist die zugrunde liegende OT sehr viel schützenswerter als die IT.

Das komplette Videointerview mit Eric Dreier

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden. Weitere Informationen zum Thema Axians und Security finden Sie auf der zugehörigen Internetseite.

Doug Balog über das IBM Storage-Geschäft

Videoblog: „Storage ist wichtig für Multi-Cloud, KI und mehr“

Dieses Interview habe ich mit Doug Balog von IBM anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über das Event im Allgemeinen, über den Storage-Markt im Speziellen und über die IBM-Vision in punkto Speicher mit all seinen Facetten.

Die IBM Storage Strategy Days sind für IBM äußerst wichtig

Speziell der Austausch mit Kunden und Geschäftspartnern stellt für IBM – und für Doug Balog selber – einen wichtigen Baustein dar, wenn es um die weltweite Ausrichtung der richtigen Produkte und Lösungen geht.

Konkret bedeutet das: Wie sehen die Visionen seitens IBM als Unternehmen aus und wie passt das Thema Storage in dieses Szenario. Das daraus resultierende Feedback der Kunden und Partner greift IBM auf, um sich noch besser auf die Bedürfnisse und Wünsche des Marktes einstellen zu können. Schließlich handelt es sich bei Storage in Zeiten von KI & Co. um einen echten Wachstumsmarkt.

Der Storage-Markt bietet zahlreiche Möglichkeiten – für IBM, deren Partner und Kunden

Mit dem enormen Anstieg an Daten, die für neue und traditionelle Anwendungen benötigt werden, steigt auch der Bedarf an leistungsstarken und kapazitiven Speicherlösungen. Denn gerade für KI-Disziplinen wie Machine und Deep Learning sind große Datensätze vonnöten, die der Maschine dahinter die Möglichkeit bieten, die richtigen Schlüsse aus vorhandenen Mustern und Aufgaben zu ziehen. Und das erfordert natürlich Speichersysteme, die mit diesen Daten quantitativ und qualitativ zurecht kommen.

Aber auch das Thema Multi-Cloud ist eng verknüpft mit dem Thema Storage. Denn mit jeder weiteren Cloud-Umgebung, die Teil der Gesamtstrategie eines Unternehmens ist, nimmt die Anforderung zu, all die anfallenden Daten bestmöglich zu verwalten und zu speichern. Daher kommt dem zugrunde liegenden Datenmanagement in Zeiten komplexer werdender Cloud-Lösungen eine immer wichtigere Rolle zu.

Von der IBM-Vision einer Storage-zentrierten Welt

Klar, dass Storage-Systeme in Zeiten von KI und Multi-Cloud zwar ein wichtiger Bestandteil sind, aber nicht der einzige, auf den es ankommt. Denn neben den performanten Speicherlösungen sind natürlich auch schnelle Recheneinheiten vonnöten, dies ja bei IBM ebenfalls beheimatet sind. Die Rede ist unter anderem von den IBM Mainframes der Z-Serie und den Power-basierten Rechnern, aber auch Spezialplattformen wie PowerAI, die speziell für KI-Anwendungen konzipiert wurden.

Aber, und das ist eine logische Einsicht, treibt IBM das Thema Storage und KI nicht alleine am Markt voran. Daher arbeitet „Big Blue“ schon seit vielen Jahren mit allen namhaften Hardware- und Software-Herstellern zusammen, um die jeweils beste IT-Lösung für den jeweiligen Kunden bieten zu können. Hierfür leistet sich IBM ein eigenes Businesspartner-Ecosystem, das Partnern und Kunden helfen soll, die beste IBM-Lösung für ihre Anwendungen zu finden.

Übrigens: Genau aus diesem Ansinnen heraus ist die OpenPOWER Foundation entstanden

Das komplette Videointerview mit Doug Balog

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Das ist die pCloud: Funktionen, Preise, Besonderheiten

Mit pCloud gibt es einen weiteren Cloud-Anbietern am Markt, der bewusst bestimmte Dinge anders machen will als Dropbox und Co. Dazu gehören vor allem die eingebauten Sicherheitsmaßnahmen, aber auch Funktionen wie das Sichern und Wiederherstellen von (Online-)Daten unterscheiden sich von den bekannteren Diensten.

Das bekommen Sie alles mit pCloud

Die Anmeldung beim Cloud-Service pCloud ist denkbar einfach, zumindest für Facebook-Nutzer. Damit gelingt der Zugang zur Cloud-Umgebung mit wenigen Mausklicks.

Der nächste Schritt ist die Wahl des passenden Clients, aber auch hier hat pCloud alles zu bieten, was man von solch einem Service erwartet. Ob Windows, macOS, Linux, iOS oder Android – für jede Plattform steht die richtige Client-Software bereit. Selbst Windows Mobile und Browser-Erweiterungen für Google Chrome, Firefox und Opera gibt es. Schade nur, dass Apple Safari und der Internet Explorer außen vor bleiben.

pCloud Drive zum Verwalten sämtlicher Daten

Ebenfalls erwartbar, aber trotzdem sehr praktisch, ist der pCloud-eigene Explorer, genannt pCloud Drive. Damit lassen sich sämtliche Dateien wie gewohnt verwalten. Dies geschieht mithilfe des Client-Programms, das sich nahtlos in die Dateiumgebung des jeweiligen Betriebssystems integriert. Damit steht die gesamte pCloud-Umgebung wie gewohnt als virtuelles Laufwerk zur Verfügung. Per Rechtsklick können einzelne Ordner oder komplette Speichermedien in die pCloud eingebunden werden.

pCloud Drive integriert sich nahtlos ins OS des Rechners

Auch klar: Einzelne Dateien können per Link freigegeben werden genauso wie komplette Ordnerinhalte. Diese lassen sich zudem für die Offline-Nutzung markieren.

In Sachen Preismodell bietet pCloud drei Varianten: monatlich, jährlich oder Lifetime, und das entweder als Premium- oder Premium Plus-Variante. Der wesentliche Unterschied beider Varianten besteht in der Größe des verfügbaren Cloud-Speichers (500 GigaByte vs. 2 TeraByte) sowie des Download-Traffic (ebenfalls 500 GB vs. 2 TB). Alle anderen Funktionen sind in sämtlichen Preismodellen enthalten. Bemerkenswert ist vor allem das Lifetime-, also Lebenslang-Modell, bei dem man tatsächlich nur einmalig zahlt und sich dann nie wieder Gedanken um weitere mögliche Kosten machen muss.

Das unterscheidet pCloud von Dropbox und Co.

Auf den ersten Blick handelt es sich bei pCloud um einen weiteren Cloud-Anbieter, beim zweiten Hinsehen fallen allerdings diverse Unterschiede auf. So lassen sich sämtliche Daten bereits auf Client-Seite verschlüsseln. Dieser Dienst nennt sich pCloud Crypto und erlaubt das selektive Verschlüsseln einzelner Dateien oder kompletter Ordner. Damit muss nicht jedes einzelne Bild oder unkritische Dokumente verschlüsselt werden, sondern nur das, was wirklich vertraulich ist. Für dieses Mehr an Sicherheit wird ein Obolus fällig, auch hier wird unterschieden zwischen einem monatlichen, jährlichen und einem Lifetime-Plan.

Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Sehr fortschrittlich ist auch der Umgang mit Daten. So werden Funktionen wie die Versionierung und Wiederherstellung von Daten angeboten, genauso wie das Hochladen von Daten per URL. Praktisch ist obendrein die Möglichkeit, Daten von anderen Cloud-Diensten (Dropbox, OneDrive und Google Drive) sowie die Bilder von Facebook und Instagram in der pCloud-Umgebung zu sichern. Dieser Vorgang wird einmalig aktiviert und geschieht fortan automatisch.

Schick ist ebenfalls die Option, Videos und Musikstücke direkt aus der pCloud-Weboberfläche abspielen zu können. Dies erspart den Aufruf eines externen Programms und erlaubt sogar das Erstellen von Playlisten und anderen Dingen.

Mit pCloud lassen sich automatisiert Backups der Onlinedaten generieren

So wird aus pCloud eine sichere Cloud-Umgebung

Natürlich wird bei einem Cloud-Dienst wie pCloud die Sicherheit groß geschrieben. Dazu gehört neben dem bereits erwähnten Verschlüsselungsdienst pCloud Crypto auch eine Zwei-Wege-Authentifizierung. Dies geschieht ganz traditionell mithilfe eines Codes, der auf Anforderung via SMS zugestellt wird. Ein weiteres Sicherheitsfeature betrifft die mobilen Anwendungen: Hier kann ein persönlicher Zugangscode eingerichtet werden, der jedesmal beim Zugriff auf die pCloud-App angefordert wird. Für eine bestmögliche Sicherheit.

pCloud erhöht dank Zwei-Faktor-Authentifizierung deutlich

Disclaimer: Für das Verfassen und Veröffentlichen dieses Beitrags hat mich die pCloud AG beauftragt. Bei der Auswahl der Inhalte hatte ich völlig frei Hand.

Kurt Knochner von Fortinet über Cloud-Security

Videoblog: „Für die Cloud-Inhalte sind die Anwender selbst verantwortlich“

Dieses Interview habe ich im Rahmen eines IDC-Events mit Kurt Knochner des Sicherheitsexperten Fortinet geführt. Darin spricht er über die Bedrohung, denen gerade Smart-Home-Geräte ausgesetzt sind, über das Fortinet-Produkt FortiNAC und über die wichtigsten Maßnahmen, die eigene Cloud-Umgebung abzusichern.

Smart-Home-Geräte sind ein beliebtes Angriffsziel von Hackern

Smart-Home-Devices stellen in punkto Sicherheit für viele Hacker keine allzu große Herausforderung dar, und das aus gutem Grund. Denn die äußerst kurzen Entwicklungszzyklen führen dazu, dass diese Geräte nicht ausreichend gesichert sind gegen Angriffe von außen. Dabei wäre es auch in diesem Fall von großer Wichtigkeit, die Erkenntnisse in Sachen Security der letzten 20 Jahre in Smart-Home-Devices einfließen zu lassen.

Das Bedenkliche an dieser Entwicklung ist nicht nur die Angreifbarkeit der Smart Home-Devices, sondern dass damit auch das gesamte Netzwerk in Gefahr gerät. Dazu tragen obendrein Tools bei, die einen automatisierten Angriff ganz einfach machen.

Mit „FortiNAC“ lassen sich komplette Netzwerke sicherer machen

Mit dem Sicherheitstool „FortiNAC“ bietet die Firma Fortinet eine automatisierte Möglichkeit, sämtliche Netzwerkgeräte zu erkennen und zu analysieren. Auf dieser Basis lassen sich einzelne Geräte mit bestimmten Regeln belegen, so dass die IT-Admins einer Firma jederzeit wissen, wer was im Netzwerk gerade macht. Damit lässt sich ein holistischer, also ganzheitlicher Ansatz verfolgen.

Und genau an dieser Stelle kommt FortiNAC ins Spiel. Diese Sicherheitssoftware tauscht mit anderen Anwendungen von Fortinet relevante Telemetrie- und Threat-Intelligence-Daten aus, was ein Gesamtbild des gesamten Netzwerks ermöglicht. Damit lässt sich recht einfach bestimmen, welche Geräte, basierend auf bestimmten Regeln, was tun darf. Dies hat eine höhere Transparenz sowie eine bessere Kontrolle des gesamten Netzwerks zur Folge.

Cloud-Umgebungen folgen den bekannten Sicherheitsstandards

Grundsätzlich kann man festhalten, dass für Cloud-Infrastrukturen die bekannten Sicherheitsmechanismen existieren und dort auch angewendet werden. Für diesen Bereich ist nicht der Anwender selbst, sondern der Cloud Service Provider verantwortlich.

Ganz anders sieht es mit den Inhalten einer Cloud aus. Hierfür sind die Firmen und Anwender selbst zuständig, und dies am besten auf Basis der Mechanismen und Regeln der letzten 20 Jahre. Dazu gehören Dinge wie Vertraulichkeit, Verschlüsselung, Zugriffssteuerung, und so fort.

Beachtet man diese und weitere Security-Regeln, ist das Absichern von Cloud-Umgebungen ganz ähnlich dem einer herkömmlichen IT-Infrastruktur. Hierbei spielen allerdings die verschiedenen Cloud-Deployment-Modelle einen nicht zu unterschätzen Faktor. So gelten für SaaS-Anwendungen andere Sicherheitsbestimmung als für Paas- oder IaaS-Plattformen.

Zusammenfassend kann man also sagen, dass man zwischen der Sicherheit einer Cloud-Plattform und den Cloud-Anwendungen selbst unterscheiden muss, die darauf ausgeführt werden. Macht man sich diesen Umstand klar, ist das Absichern von Cloud-Infrastrukturen keine Hexerei.

Das vollständige Interview mit Kurt Knochner

Peter Ganten von Univention über Künstliche Intelligenz und Transparenz

Videoblog: „Die KI hält für uns Menschen großes Potential bereit“

Peter Ganten ist Gründer und Geschäftsführer der Univention GmbH aus Bremen, einem Software-Hersteller für Server- und Identitätsmanagement. Er ist bekennender Open-Source- und KI-Begeisteter, worüber ich mit ihm im folgenden Skype-Interview ausführlich gesprochen habe. Exklusive Einblicke in einen für Univention interessanten und aufstrebenden Bereich.

Herausforderung oder Risiko – das ist hier die KI-Frage

Über eines ist sich Herr Ganten völlig im Klaren: Die Künstliche Intelligenz mit all ihren Möglichkeiten und technischen Disziplinen hält ein unglaubliches Potential für uns Menschen und die Menschheit an sich bereit. Hier steht zum Beispiel die Medizin im Fokus, wo mithilfe der KI auf Patienten individuell zugeschnittene Medikamente möglich sind, aber auch die Früherkennung von Krankheiten verbessert werden kann. Zudem wird der Energiesektor von der KI maßgeblich profitieren genauso wie das Bildungswesen, das SchülerInnen und StudentInnen ganz neue Möglichkeiten an die Hand geben wird.

Gleichzeit können und werden neue KI-basierte Ansätze dafür sorgen, dass uns tendenziell monotone Aufgaben abgenommen werden. Die Rede ist vom Autonomen Fahren, das uns vom lästigen Steuern eines PKW befreit und wir stattdessen die Fahrt mit dem Auto für andere, sinnvollere Dinge nutzen können.

Aber, und auch da ist Herr Ganten ganz klar, dürfen wir nicht so naiv sein und glauben, dass die KI ausschließlich zum Wohle der Anwender genutzt werden kann. Daher sind wir alle dazu aufgefordert, richtig hinzusehen und die richtigen Fragen zu stellen, die sich rund um das Thema Künstliche Intelligenz ranken.

Ethik und Künstliche Intelligenz bedingen einander

So lautet eine der drängenden Fragen zum Thema KI aus Sicht von Herrn Ganten: Wie schützen wir uns bestmöglich vor Manipulationen? Dies kann zum Beispiel mithilfe von größtmöglicher Transparenz vermieden werden. Denn immer dann, wenn Algorithmen, Daten und andere Faktoren nicht öffentlich zugänglich sind, sind der Manipulation Tür und Tor geöffnet. So muss man sich ohne genaue Einblicke in KI-Anwendungen stets darauf verlassen, dass damit auch das gemacht wird, wozu die KI-Applikation eigentlich konzipiert wurde – und nicht etwa das Gegenteil davon.

Daher lautet eine der ethischen Forderungen: Die KI muss jederzeit öffentlich und nachprüfbar sein, und Unternehmen müssen sicher stellen, dass die vorhandenen Daten stets zum Wohle der Anwender und der Menschen eingesetzt werden.

Mit der Anwendung von KI nehmen die Risiken der „Erpressbarkeit“ zu

In einem seiner zahlreichen Vorträge spricht Herr Ganten von der „Erpressbarkeit der Anwender“, die im Kontext von KI eine ernstzunehmende Herausforderung darstellt. Gemeint sind damit Unternehmen und Organisationen, die auf die KI-Algorithmen von Cloud Service Providern zurückgreifen und dabei oft hochsensible Daten zu Verarbeitungszwecken bereitstellen.

So wird beispielsweise im Falle von Microsoft Office 365 jede Interaktion genauesten aufgezeichnet. Damit ist bekannt, welche Anwender mit welchen Applikationen arbeiten, welche Daten dabei mit anderen geteilt werden, und so fort. Das kann dazu führen, dass sich diese Daten mit anderen Daten in geeigneter Art und Weise verknüpfen lassen. So ließen sich beispielsweise die fachlichen Fertigkeiten bestimmter Anwender via LinkedIn an Recruiter oder andere Personen  transferieren, ohne dass der Arbeitgeber dieser Mitarbeiter Kenntnis davon erhält.

Und genau diese Möglichkeiten können letztlich dazu führen, dass Anbieter wie Microsoft neue Geschäftsmodelle entwickeln, die Unternehmen gegen Bezahlung garantieren, dass ihre in der Cloud bekannten Daten nicht für andere Zwecke missbraucht werden.

Open Source-Anwendungen stellen einen Ausweg aus dem Transparenzdilemma dar

Für ein Höchstmaß an Transparenz und Zuverlässigkeit entwickelt Univention sämtliche Lösungen als Open Source-Produkte, was den Nutzern diverse Vorteile bietet. So wissen die Kunden von Herrn Ganten jederzeit, was dort stattfindet, Programme lassen sich weiterentwickeln, und so fort. Das erhöht das Vertrauen in die Firma, was sich auf zahlreiche Bereiche positiv auswirkt. Dazu gehört das Thema Sicherheit, aber auch Innovationen werden damit gefördert, da quelloffene Systeme und Anwendungen relativ frei sind von vorgegebenen Update-Zyklen, proprietären Schnittstellen und vielem mehr.

Das Interview mit Peter Ganten in vollständiger Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma ChannelBuzz beauftragt.