Alain Fiocco, CTO OVH

Videoblog: „Mit neuen Servern und mehr Bandbreite wollen wir unsere Kunden bestmöglich unterstützen“

Während des OVH-Summit in Paris habe ich dieses Interview mit CTO Alain Fiocco geführt. Dabei erklärt er, warum OVH die Bandbreite seiner Kundenserver verdoppelt hat, warum OVH so eng mit Intel zusammenarbeitet und welche neue Hardware OVH auf dem Summit vorgestellt hat.

Mehr Bandbreite fördert neue Möglichkeiten

Während des großen OVH-Summit, zu dem mich OVH freundlicherweise eingeladen hatte, konnte Alain Fiocco gleich mal mit einer guten Nachricht einsteigen:

Die Frage, die sich dabei stellte: Warum macht OVH das? Nun, das hat zwei wesentliche Gründe. Zum einen will OVH damit seinen Kunden mehr geschäftliche Möglichkeiten einräumen, denn mehr Bandbreite bedeutet immer auch eine Verbesserung der digitalen Optionen, die man als Firma vorfindet. Und das ist – speziell im Cloud-Umfeld – von essentieller Bedeutung. Damit gehen in vielen Fällen neue Geschäftsideen und -modelle einher, die für OVH ebenfalls eine wichtige Rolle spielen.

Und da OVH seine eigene Cloud-Infrastruktur mit eigenem Backbone betreibt, der mit zunehmender Größe des Unternehmens immer leistungsfähiger wird, lässt OVH seine Kunden am eigenen Wachstum teilhaben. So haben alle etwas davon.

Die enge Zusammenarbeit mit Intel hat gute Gründe

Auf der Bühne während der großen OVH-Summit-Keynote war auch Intel, und so ganz nebenbei wurde die langjährige Zusammenarbeit mit dem Chiphersteller erwähnt – was mich als Ex-Intelianer natürlich aufhorchen ließ.

Doch warum ist das so? Auch das lässt sich recht einfach erklären. Denn als Betreiber von leistungsfähigen Cloud-Infrastrukturen mit eigener Hard- und Software ist es für OVH von größter Bedeutung, die Pläne und Roadmaps des größten Prozessorherstellers der Welt zu kennen. Um darauf die eigenen Produktentwicklungen abstimmen zu können, und das lange, bevor der neue Prozessor oder eine neue CPU-Technik auf den Markt kommt.

Mit neuer Hardware geht es in die nächsten Monate

Klar, dass solch ein riesiger Event wie der OVH-Summit nicht ohne Ankündigungen vonstatten geht, und davon gab es so einige. Die wesentlichen Neuheiten, die Alain und sein Team in Paris präsentierten, betreffen drei Referenzserver, die künftig in den weltweiten Rechenzentren von OVH zum Einsatz kommen werden. Einer davon ist der HG 2019, der erhöhte Sicherheitsfeatures bietet und obendrein zuverlässig und schnell arbeitet.

In diesem Servermodell werkeln Prozessoren der Marke Intel Xeon Scalable inklusive Optane DC-Techniken. Damit wird OVH der erste Cloud-Provider in Europa sein, der dieses neue Technikgespann aus dem Hause Intel in seine Rechner verbaut. Damit sollen verstärkt Highend-Applikationen aus den Bereichen Big Data & Analytics ermöglicht werden. Und diesen Trend wird OVH in den nächsten Monaten massiv weiter vorantreiben.

Das vollständige Interview mit Alain Fiocco (auf Englisch)

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit OVH Deutschland entstanden.

Doug Balog über das IBM Storage-Geschäft

Videoblog: „Storage ist wichtig für Multi-Cloud, KI und mehr“

Dieses Interview habe ich mit Doug Balog von IBM anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über das Event im Allgemeinen, über den Storage-Markt im Speziellen und über die IBM-Vision in punkto Speicher mit all seinen Facetten.

Die IBM Storage Strategy Days sind für IBM äußerst wichtig

Speziell der Austausch mit Kunden und Geschäftspartnern stellt für IBM – und für Doug Balog selber – einen wichtigen Baustein dar, wenn es um die weltweite Ausrichtung der richtigen Produkte und Lösungen geht.

Konkret bedeutet das: Wie sehen die Visionen seitens IBM als Unternehmen aus und wie passt das Thema Storage in dieses Szenario. Das daraus resultierende Feedback der Kunden und Partner greift IBM auf, um sich noch besser auf die Bedürfnisse und Wünsche des Marktes einstellen zu können. Schließlich handelt es sich bei Storage in Zeiten von KI & Co. um einen echten Wachstumsmarkt.

Der Storage-Markt bietet zahlreiche Möglichkeiten – für IBM, deren Partner und Kunden

Mit dem enormen Anstieg an Daten, die für neue und traditionelle Anwendungen benötigt werden, steigt auch der Bedarf an leistungsstarken und kapazitiven Speicherlösungen. Denn gerade für KI-Disziplinen wie Machine und Deep Learning sind große Datensätze vonnöten, die der Maschine dahinter die Möglichkeit bieten, die richtigen Schlüsse aus vorhandenen Mustern und Aufgaben zu ziehen. Und das erfordert natürlich Speichersysteme, die mit diesen Daten quantitativ und qualitativ zurecht kommen.

Aber auch das Thema Multi-Cloud ist eng verknüpft mit dem Thema Storage. Denn mit jeder weiteren Cloud-Umgebung, die Teil der Gesamtstrategie eines Unternehmens ist, nimmt die Anforderung zu, all die anfallenden Daten bestmöglich zu verwalten und zu speichern. Daher kommt dem zugrunde liegenden Datenmanagement in Zeiten komplexer werdender Cloud-Lösungen eine immer wichtigere Rolle zu.

Von der IBM-Vision einer Storage-zentrierten Welt

Klar, dass Storage-Systeme in Zeiten von KI und Multi-Cloud zwar ein wichtiger Bestandteil sind, aber nicht der einzige, auf den es ankommt. Denn neben den performanten Speicherlösungen sind natürlich auch schnelle Recheneinheiten vonnöten, dies ja bei IBM ebenfalls beheimatet sind. Die Rede ist unter anderem von den IBM Mainframes der Z-Serie und den Power-basierten Rechnern, aber auch Spezialplattformen wie PowerAI, die speziell für KI-Anwendungen konzipiert wurden.

Aber, und das ist eine logische Einsicht, treibt IBM das Thema Storage und KI nicht alleine am Markt voran. Daher arbeitet „Big Blue“ schon seit vielen Jahren mit allen namhaften Hardware- und Software-Herstellern zusammen, um die jeweils beste IT-Lösung für den jeweiligen Kunden bieten zu können. Hierfür leistet sich IBM ein eigenes Businesspartner-Ecosystem, das Partnern und Kunden helfen soll, die beste IBM-Lösung für ihre Anwendungen zu finden.

Übrigens: Genau aus diesem Ansinnen heraus ist die OpenPOWER Foundation entstanden

Das komplette Videointerview mit Doug Balog

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Das ist die pCloud: Funktionen, Preise, Besonderheiten

Mit pCloud gibt es einen weiteren Cloud-Anbietern am Markt, der bewusst bestimmte Dinge anders machen will als Dropbox und Co. Dazu gehören vor allem die eingebauten Sicherheitsmaßnahmen, aber auch Funktionen wie das Sichern und Wiederherstellen von (Online-)Daten unterscheiden sich von den bekannteren Diensten.

Das bekommen Sie alles mit pCloud

Die Anmeldung beim Cloud-Service pCloud ist denkbar einfach, zumindest für Facebook-Nutzer. Damit gelingt der Zugang zur Cloud-Umgebung mit wenigen Mausklicks.

Der nächste Schritt ist die Wahl des passenden Clients, aber auch hier hat pCloud alles zu bieten, was man von solch einem Service erwartet. Ob Windows, macOS, Linux, iOS oder Android – für jede Plattform steht die richtige Client-Software bereit. Selbst Windows Mobile und Browser-Erweiterungen für Google Chrome, Firefox und Opera gibt es. Schade nur, dass Apple Safari und der Internet Explorer außen vor bleiben.

pCloud Drive zum Verwalten sämtlicher Daten

Ebenfalls erwartbar, aber trotzdem sehr praktisch, ist der pCloud-eigene Explorer, genannt pCloud Drive. Damit lassen sich sämtliche Dateien wie gewohnt verwalten. Dies geschieht mithilfe des Client-Programms, das sich nahtlos in die Dateiumgebung des jeweiligen Betriebssystems integriert. Damit steht die gesamte pCloud-Umgebung wie gewohnt als virtuelles Laufwerk zur Verfügung. Per Rechtsklick können einzelne Ordner oder komplette Speichermedien in die pCloud eingebunden werden.

pCloud Drive integriert sich nahtlos ins OS des Rechners

Auch klar: Einzelne Dateien können per Link freigegeben werden genauso wie komplette Ordnerinhalte. Diese lassen sich zudem für die Offline-Nutzung markieren.

In Sachen Preismodell bietet pCloud drei Varianten: monatlich, jährlich oder Lifetime, und das entweder als Premium- oder Premium Plus-Variante. Der wesentliche Unterschied beider Varianten besteht in der Größe des verfügbaren Cloud-Speichers (500 GigaByte vs. 2 TeraByte) sowie des Download-Traffic (ebenfalls 500 GB vs. 2 TB). Alle anderen Funktionen sind in sämtlichen Preismodellen enthalten. Bemerkenswert ist vor allem das Lifetime-, also Lebenslang-Modell, bei dem man tatsächlich nur einmalig zahlt und sich dann nie wieder Gedanken um weitere mögliche Kosten machen muss.

Das unterscheidet pCloud von Dropbox und Co.

Auf den ersten Blick handelt es sich bei pCloud um einen weiteren Cloud-Anbieter, beim zweiten Hinsehen fallen allerdings diverse Unterschiede auf. So lassen sich sämtliche Daten bereits auf Client-Seite verschlüsseln. Dieser Dienst nennt sich pCloud Crypto und erlaubt das selektive Verschlüsseln einzelner Dateien oder kompletter Ordner. Damit muss nicht jedes einzelne Bild oder unkritische Dokumente verschlüsselt werden, sondern nur das, was wirklich vertraulich ist. Für dieses Mehr an Sicherheit wird ein Obolus fällig, auch hier wird unterschieden zwischen einem monatlichen, jährlichen und einem Lifetime-Plan.

Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Sehr fortschrittlich ist auch der Umgang mit Daten. So werden Funktionen wie die Versionierung und Wiederherstellung von Daten angeboten, genauso wie das Hochladen von Daten per URL. Praktisch ist obendrein die Möglichkeit, Daten von anderen Cloud-Diensten (Dropbox, OneDrive und Google Drive) sowie die Bilder von Facebook und Instagram in der pCloud-Umgebung zu sichern. Dieser Vorgang wird einmalig aktiviert und geschieht fortan automatisch.

Schick ist ebenfalls die Option, Videos und Musikstücke direkt aus der pCloud-Weboberfläche abspielen zu können. Dies erspart den Aufruf eines externen Programms und erlaubt sogar das Erstellen von Playlisten und anderen Dingen.

Mit pCloud lassen sich automatisiert Backups der Onlinedaten generieren

So wird aus pCloud eine sichere Cloud-Umgebung

Natürlich wird bei einem Cloud-Dienst wie pCloud die Sicherheit groß geschrieben. Dazu gehört neben dem bereits erwähnten Verschlüsselungsdienst pCloud Crypto auch eine Zwei-Wege-Authentifizierung. Dies geschieht ganz traditionell mithilfe eines Codes, der auf Anforderung via SMS zugestellt wird. Ein weiteres Sicherheitsfeature betrifft die mobilen Anwendungen: Hier kann ein persönlicher Zugangscode eingerichtet werden, der jedesmal beim Zugriff auf die pCloud-App angefordert wird. Für eine bestmögliche Sicherheit.

pCloud erhöht dank Zwei-Faktor-Authentifizierung deutlich

Disclaimer: Für das Verfassen und Veröffentlichen dieses Beitrags hat mich die pCloud AG beauftragt. Bei der Auswahl der Inhalte hatte ich völlig frei Hand.

Kurt Knochner von Fortinet über Cloud-Security

Videoblog: „Für die Cloud-Inhalte sind die Anwender selbst verantwortlich“

Dieses Interview habe ich im Rahmen eines IDC-Events mit Kurt Knochner des Sicherheitsexperten Fortinet geführt. Darin spricht er über die Bedrohung, denen gerade Smart-Home-Geräte ausgesetzt sind, über das Fortinet-Produkt FortiNAC und über die wichtigsten Maßnahmen, die eigene Cloud-Umgebung abzusichern.

Smart-Home-Geräte sind ein beliebtes Angriffsziel von Hackern

Smart-Home-Devices stellen in punkto Sicherheit für viele Hacker keine allzu große Herausforderung dar, und das aus gutem Grund. Denn die äußerst kurzen Entwicklungszzyklen führen dazu, dass diese Geräte nicht ausreichend gesichert sind gegen Angriffe von außen. Dabei wäre es auch in diesem Fall von großer Wichtigkeit, die Erkenntnisse in Sachen Security der letzten 20 Jahre in Smart-Home-Devices einfließen zu lassen.

Das Bedenkliche an dieser Entwicklung ist nicht nur die Angreifbarkeit der Smart Home-Devices, sondern dass damit auch das gesamte Netzwerk in Gefahr gerät. Dazu tragen obendrein Tools bei, die einen automatisierten Angriff ganz einfach machen.

Mit „FortiNAC“ lassen sich komplette Netzwerke sicherer machen

Mit dem Sicherheitstool „FortiNAC“ bietet die Firma Fortinet eine automatisierte Möglichkeit, sämtliche Netzwerkgeräte zu erkennen und zu analysieren. Auf dieser Basis lassen sich einzelne Geräte mit bestimmten Regeln belegen, so dass die IT-Admins einer Firma jederzeit wissen, wer was im Netzwerk gerade macht. Damit lässt sich ein holistischer, also ganzheitlicher Ansatz verfolgen.

Und genau an dieser Stelle kommt FortiNAC ins Spiel. Diese Sicherheitssoftware tauscht mit anderen Anwendungen von Fortinet relevante Telemetrie- und Threat-Intelligence-Daten aus, was ein Gesamtbild des gesamten Netzwerks ermöglicht. Damit lässt sich recht einfach bestimmen, welche Geräte, basierend auf bestimmten Regeln, was tun darf. Dies hat eine höhere Transparenz sowie eine bessere Kontrolle des gesamten Netzwerks zur Folge.

Cloud-Umgebungen folgen den bekannten Sicherheitsstandards

Grundsätzlich kann man festhalten, dass für Cloud-Infrastrukturen die bekannten Sicherheitsmechanismen existieren und dort auch angewendet werden. Für diesen Bereich ist nicht der Anwender selbst, sondern der Cloud Service Provider verantwortlich.

Ganz anders sieht es mit den Inhalten einer Cloud aus. Hierfür sind die Firmen und Anwender selbst zuständig, und dies am besten auf Basis der Mechanismen und Regeln der letzten 20 Jahre. Dazu gehören Dinge wie Vertraulichkeit, Verschlüsselung, Zugriffssteuerung, und so fort.

Beachtet man diese und weitere Security-Regeln, ist das Absichern von Cloud-Umgebungen ganz ähnlich dem einer herkömmlichen IT-Infrastruktur. Hierbei spielen allerdings die verschiedenen Cloud-Deployment-Modelle einen nicht zu unterschätzen Faktor. So gelten für SaaS-Anwendungen andere Sicherheitsbestimmung als für Paas- oder IaaS-Plattformen.

Zusammenfassend kann man also sagen, dass man zwischen der Sicherheit einer Cloud-Plattform und den Cloud-Anwendungen selbst unterscheiden muss, die darauf ausgeführt werden. Macht man sich diesen Umstand klar, ist das Absichern von Cloud-Infrastrukturen keine Hexerei.

Das vollständige Interview mit Kurt Knochner

Cloud-Sync

So geht’s: das eigene virtuelle Home-Office

Wir alle werden jeden Tag ein Stückchen mobiler, nur unsere Arbeitsumgebung scheint sich dieser Veränderung nicht im selben Tempo anzupassen. Dabei lässt sich mit wenigen und einfachen Schritten das eigene virtuelle Home-Office verwirklichen. Dieser Beitrag zeigt, wie das funktioniert.

Die Vorteile des eigenen virtuellen Home-Office’ lassen sich mit einem Satz zusammenfassen: Man hat immer und von überall Zugriff auf seine Daten und Anwendungen, und das ganz sicher und zuverlässig. Vorausgesetzt, man berücksichtigt drei wichtige Aspekte, von denen im folgenden die Rede sein soll.

Aspekt #1: Der eigene zentrale, lokale Datenspeicher

Was im ersten Moment wie ein Widerspruch erscheint, entpuppt sich beim zweiten Hinsehen als die perfekte Mischung aus der herkömmlichen lokalen Datenspeicherung und einer cloud-basierten Datenumgebung. IT-Experten nennen das Private-Cloud-Strukturen und sehen darin die richtige Mixtur aus Datensicherheit und Datenkomfort.

Denn zum einen bleiben die schützenswerten Daten auf dem lokalen, meist in der Firma beheimateten Datenspeicher wie zum Beispiel einem NAS (Network Attached Storage; zu dt. Netzwerk-basierter Speicher). Damit behalten die Anwender und Eigentümer die volle Kontrolle über ihre Daten. Und zum anderen wird mithilfe geeigneter Tools und Techniken der Datenbestand in die Cloud „gespiegelt“, was den Zugriff auf die Daten von jedem Ort der Welt aus erlaubt.

Wichtig dabei ist vor allem, dass keine Paralellstrukturen aufgebaut werden, sondern die Basis des Ganzen eine lokale Ordnerstruktur darstellt, die dann in geeigneter Art und Weise in die Cloud migriert und synchronisiert werden. Damit müssen Daten nicht an zwei Orten (lokaler Speicher + Cloud) verwaltet werden, sondern es gibt nur einen Ursprung (das lokale Speichermedium), die in die Cloud gespiegelt werden.

Aspekt #2: Auf den richtigen Sync-Client kommt es an

Für die Migration und Synchronisation der lokalen Daten in und mit der Cloud-Umgebung ist selbstverständlich ein Software-Werkzeug vonnöten, dass die Anwender im besten Sinne bei der Datenspeicherung in die Cloud unterstützt. Dieser sogenannte Sync-Client sollte auf keinen Fall sämtliche Daten in die Cloud transferieren und damit allen zugänglich machen. Denn in einem Unternehmensverbund ist es von größter Wichtigkeit, dass einzelne Datensätze nur ganz bestimmten Anwendern zur Verfügung stehen.

Daher sollte das Tool individuell einstellbare Zugriffs- und Freigaberechte unterstützen, was die Sicherheit der Cloud-Kollaboration deutlich erhöht. Zudem sollte der Sync-Client über Admin-Kontroll-Funktionen und eine  Kalendersynchronisation verfügen. Solch ein Tool ist beispielsweise die Open-Source-Software Seafile, die Cloud-Anbieter wie luckycloud für die Synchronisation und Migration der Daten in die Cloud einsetzen.

Aspekt #3: Cloud-Backups richtig nutzen

Schon länger ist die Rede von der sogenannten 3-2-1-Backup-Regel, die auch in Zeiten von Cloud-Speichern zur Anwendung kommen sollte. Damit folgt man der Empfehlung zahlreicher IT-Experten, von seinen Daten regelmäßig drei Sicherheitskopien mithilfe zweier unterschiedlicher Speichertechniken anzufertigen, also zum Beispiel auf Festplatte und Magnetband. Davon wiederum wird eine Kopie mit dem eigenen Cloud-Speicher synchronisiert. Das hat den großen Vorteil, dass im Falle eines Daten- bzw. Datenspeicherverlustes stets eine Kopie unversehrt bleibt. Das macht einen Daten-GAU sehr, sehr unwahrscheinlich.

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Hans-Dieter Speidel LG Electronics, über Cloud-Monitore

Videoblog: „Cloud-All-in-One-PCs sorgen für aufgeräumte Schreibtische“

Während einer IDC-Veranstaltung zum Thema Cloud Computing habe ich dieses Interview mit Heinz-Dieter Speidel von LG Electronics zum Thema Cloud-Monitore geführt. Darin spricht er über die Vorzüge spezieller Cloud-Devices und warum sich LG damit auf dem richtigen Weg sieht.

LG Electronics und die Cloud – ein nicht so offensichtliches Gespann

Eines ist klar: Die Begriffe „LG Electronics“ und „Cloud“ gehören nicht unbedingt zum Standardrepertoire eines IT-interessierten Anwenders. Dabei ist doch die Verbindung zwischen Cloud Computing und LG-Monitoren gar nicht so abwegig. Allerdings, und das durfte ich im Sofitel München lernen, findet man Cloud-Monitore vor allem im Projektgeschäft von LG, und das ziemlich erfolgreich. So hat erst eine große US-Bank mehrere 1.000 Stück dieser Spezialbildschirme für seine Mitarbeiter bestellt. Davon liest man normalerweise nichts in den Medien.

Darüber hinaus ist LG verstärkt im sogenannten Thin-Client-Geschäft unterwegs. Das sind diese auf ein Minimum reduzierten Mini-PCs, die mit einem eher rechenschwachen Prozessor, ein wenig Arbeitsspeicher und sonst nichts ausgestattet sind. Diese Geräte greifen via Inter- bzw. Intranet auf Server-Anwendungen zu, benötigen daher außer der passenden Remote-Client-Software keine weiteren Programme und damit auch keine Festplatte oder ähnlichen Speicher.

Daher war es naheliegend, beide Gerätetypen – also Cloud-Monitor und Thin-Client-PC – in einem einzigen Device zusammenzufassen, was dann als All-in-One-TC-Lösung im November auf den Markt kommt. Was LG erst einmal ein Alleinstellungsmerkmal bescheren wird. Mal sehen, wann andere Hersteller auch auf diese doch recht naheliegende Idee kommen.

LG wird diese Geräte in drei Modellen feilbieten: Als kleine Box, mit 24-Zoll- und als 38-Zoll-Monitor, der vor allem in Banken und Versicherungen zum Einsatz kommen wird.

Der Einsatz von Cloud-Monitoren ist durchaus sinnvoll

Jetzt, wo diese neue Gerätekategorie klarer wird, fallen einem auch ganz schnell diverse gute Gründe für solch ein All-in-One-Device ein:

  • Der Schreibtisch ist wesentlichen aufgeräumter, da nur noch ein Bildschirm auf dem Tisch steht
  • es gibt deutlich weniger Kabel rund um den Arbeitsplatz
  • diese Cloud-PCs kommen ohne Lüfter aus, was für mehr Ruhe sorgt
  • das Ganze ist stromsparend, da die Geräte nur etwa ein Drittel an Energie im Vergleich zu herkömmlichen Lösungen benötigen.

Cloud-Monitore können aber noch mehr

Diese neue Klasse von All-in-One-Monitoren für Cloud-Anwendungen sind universell einsetzbar, womit sich ihre Anschaffungskosten relativ schnell amortisieren. Hinzu kommt, dass sich die LG-Geräte entweder mit vorinstalliertem Windows 10 IoT oder ganz ohne Betriebssystem erwerben lassen. Und zu guter Letzt verfügen diese Cloud-Bildschirme über einen 4K-tauglichen HDMI-Anschluss, womit sich das Gerät um einen weiteren Monitor ergänzen lässt, was vor allem in Banken, Versicherungen und anderen Finanzdienstleistungsunternehmen ein unabdingbares Kaufargument darstellt.

Das vollständige Interview mit Heinz-Dieter Speidel

Peter Wüst von NetApp Deutschland über Multi-Cloud und andere Trends

Videochat: „Multi-Cloud-fähige Container-Apps sind die Zukunft“

Während einer IDC-Veranstaltung zum Thema Cloud Computing habe ich dieses Interview mit Peter Wüst von NetApp Deutschland zum Thema Multi-Cloud und Container-Programmierung geführt. Darin spricht er über den kommenden Multi-Cloud-Trend und ob schon alle darauf vorbereitet sind.

NetApp-Kunden profitieren von Cloud Infrastructure und Cloud Data Services

Unter dem Betriff „Cloud Infrastructure“ subsumiert NetApp vor allem den Begriff „Konvergierte Infrastrukturen“, mit denen private Cloud-Umgebungen innerhalb des eigenen Rechenzentrums ermöglicht werden. Dort kommen zahlreiche Standards zum Einsatz, aber auch für den Einsatz von effizienten Workflows wird dort mithilfe von NetApp-Techniken gesorgt.

Auf der anderen Seite unterstützt NetApp mit seinen Cloud Data Services vor allem diejenigen Kunden, die auf Public-Cloud-Infrastrukturen nicht verzichten wollen. Hierfür werden Cloud-Techniken wie AWS (Amazon Web Services), Microsoft Azure und Google Cloud Plattform eingesetzt.

Nicht alle Unternehmen sind auf den Multi-Cloud-Boom vorbereitet

Wie die obige Grafik eindrucksvoll zeigt, werden Multi-Cloud-Installationen innerhalb der nächsten zwei Jahre drastisch zunehmen, und das aus gutem Grund. Schließlich stellen Multi-Cloud-Installationen das Beste der unterschiedlichen Cloud-Techniken zur Verfügung. Damit hat man mithilfe dedizierter Schnittstellen gleichzeitigen Zugriff auf mehrere Cloud-Services innerhalb des eigenen Rechenzentrums und der Public Cloud.

Doch leider sind noch nicht alle Beteiligten auf die Multi-Cloud-Transformation vorbereitet. Daher wird es als Nächstes die primäre Aufgabe sein, Prozesse und Workflows für die Multi-Cloud entsprechend vorzubereiten, und das sowohl technologisch als auch kaufmännisch.

Cloud-Anwendungen per Knopfdruck kann die richtige Lösung sein

Spricht man über das Thema Cloud-Know-how, gelangt man schnell zu der Erkenntnis, dass hier immer noch viel Aufklärungsarbeit vonnöten ist. Daher gehört zu den aktuellen Bestrebungen, mithilfe der richtigen Experten eine Art Service-Katalog aufzubauen, der per Mausklick die gewünschten Cloud-Dienste zur Verfügung stellt. Damit wird die Komplexität einer Cloud-Infrastruktur aufs Wesentliche reduziert, womit der Anwender mit einfachsten Mitteln genau die Funktionen installieren und nutzen kann, die er gerade benötigt.

Micro-Services, eines der zentralen Cloud-Trends

Mit Micro-Services beschäftigen sich derzeit eine Vielzahl an Cloud-Unternehmen und -Dienstleistern. Der Grund hierfür ist recht simpel: Immer da, wo neue Software entwickelt wird, sollte sie per Design Multi-Cloud-fähig sein. Aus diesem Grund sollten für die Entwicklung dieser neuen Anwendungen und Apps Container-relevante Techniken wie Kubernetes, Docker, etc. in Betracht gezogen werden. Damit lassen sich diese cloud-tauglichen Applikationen ganz einfach per Schnittstelle (API) innerhalb der Public oder Private Cloud einbinden..

Das Videointerview mit Peter Wüst von NetApp in voller Länge

Cloud-Verschlüsselung ist vor allem in Zeiten der DSGVO enorm wichtig

So lassen sich Cloud-Daten sicher verschlüsseln

Die Datenschutzgrundverordnung (DSGVO) zwingt Anbieter von Cloud-Services zu einem verantwortungsvollen Umgang mit den Daten ihrer Kunden. Dazu gehören diverse Grundsätze, von denen in diesem Beitrag die wichtigsten drei vorgestellt werden sollen.

Grundsatz #1: Open-Source-Software steht für transparente Transaktionen

Von Cloud-Anbietern wie luckycloud wird von deren Anwendern und Kunden eine erhöhte Transparenz erwartet, gerade wegen DSGVO und Co. Das bedingt unter anderem den Einsatz von transparenter Software, was nicht in jedem Fall gegeben ist. Daher setzt zum Beispiel luckycloud auf die Open-Source-Software Seafile. Damit lassen sich innerhalb einer Private Cloud-Umgebung Daten speichern, teilen und synchronisieren.

Der wesentliche Vorteil dieses Ansatzes liegt im Öffentlichmachen der Software: Da der Quellcode für jedermann zugänglich und einsehbar ist, lassen sich darin keine geheimen Software-Funktionen verstecken, wie beispielsweise einen Staatatrojaner oder ähnliche Backdoor-Möglichkeiten. Denn damit wäre unerwünschten Gästen Tor und Tür geöffnet, was das Aus für solch einen Cloud-Anbieter bedeuten würde. Das Einzige, was dank Seafile und Co. geheim bleibt, sind die Schlüssel, mit denen die Cloud-Daten ver- und entschlüsselt werden (siehe Grundsatz #3).

Grundsatz #2: Robuste und erprobte Techniken helfen bei der Abwehr von Angriffen 

Selbst unerfahrene Anwender mögen schon einmal vom Begriff „Man-in-the-Middle-Angriff“ gehört haben. Dabei handelt es sich um eine Hackerattacke von außen (oder innen) eines Unternehmens, der mit bestimmten illegalen Hilfsmitteln die Kommunikation zwischen zwei Rechnern belauscht, um so an Informationen zu gelangen, um diese beispielsweise zu manipulieren.

Die Verbindung zwischen einem Anwender und einem Cloud-Server gehört zu einem dieser beliebten Angriffsziele. Vor allem dann, wenn der gewählte Kommunikationskanal nicht ausreichend gegen das „Mithören“ abgesichert wird. Daher setzen verantwortungsbewusste Cloud-Anbieter wie luckycloud auf das robuste TLS-Protokoll (Transport Layer Security) ein, was die Verschlüsselungstechnik des HTTPS-Webprotokolls ist. Diese Technik verschlüsselt die Kommunikation zwischen Anwender und Server vollständig, allerdings auch nicht mehr. Wichtig ist hierbei nicht unbedingt der Einsatz von teuer gekauften  Zertifikaten, die  von entsprechenden Stellen vergeben werden. 

Denn teuer ist nicht gleichbedeutend mit sicher. So stellt ein kostenlos erhältliches Zertifikat von Let’s Encrypt vollkommen sicher, dass die Verbindung zwischen Browser und Server verschlüsselt ist. Zudem existieren sogenannte EV-Zertifikate (Extended Validation), mit deren Hilfe die zugehörige Zertifizierungsstelle die reale Existenz einer Firma überprüfen und bestätigen kann.

Grundsatz #3: Durchgängige Verschlüsselung sorgt für höchstmögliche Sicherheit

Für eine höchstmögliche Sicherheit kommt es neben der transparenten Software und der richtigen Verschlüsselung der Datentransportwege auf das Verschlüsseln der Daten selbst an. Wie im Falle der luckycloud, bei der dank des Einsatzes von Seafile die kostbaren Daten auf zweierlei Wegen gegen den Diebstahl von außen (oder innen) geschützt werden: durch Verschlüsselung auf Client- als auch auf Serverseite.

Das bedeutet konkret, dass zum einen die Daten bereits dann verschlüsselt werden, bevor sie überhaupt auf dem Cloud-Server landen. Und dort werden sie nicht wieder entschlüsselt, sondern bleiben in verschlüsselter Form dort liegen. Damit haben nur die Anwender mit den passenden Zugangsdaten und Schlüsseln Zugriff auf die Daten, also nicht einmal der Cloud-Anbieter.

Zum Ver- und Entschlüsseln kommt übrigens der symmetrische, blockbasierte AES256-Verschlüsselungsalgorithmus zum Einsatz, der als sehr sicher gilt. Hierbei wird oft die sogenannte CBC-Methode (Cipher Block Chaining) eingesetzt, die das Verschlüsseln der Daten noch ein gutes Stück zuverlässiger macht. Mehr Sicherheit kann man seinen Cloud-Daten kaum angedeihen lassen. 

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Zuverlässgier Datenschutz mit eperi Gateway

Wenn Cloud-Anwendungsdaten zentral verschlüsselt werden sollen

Die DSGVO und anderen gesetzlichen Regularien bringen Anwender von Salesforce, Office 365 und anderen SaaS-Cloud-Anwendungen immer öfter dazu, sich diverse Fragens stellen:

„Wie kann ich mir sicher sein, dass meine Daten ohne Einfluss auf meine Cloud-Anwendung verschlüsselt werden?“

„Wie stelle ich sicher, dass meine Daten nicht in die falschen Hände geraten, weil zum Beispiel der Cloud-Anbieter darauf zugreifen kann?“.

„Gibt es eine probate Verschlüsselungslösung für meine Multi-Cloud-Strategie?

Unumgänglich: datenschutzkonforme Verschlüsselung

Die DSGVO und andere gesetzliche Bestimmungen führen immer öfter dazu, dass Anwender so vorsichtig wie möglich mit sensiblen und personenbezogenen Daten umgehen müssen. Dies bezieht sich auch auf Cloud-Datenspeicher und ihre Applikationen à la Salesforce, Office 365 und Co.

Denn auch hier müssen Firmen sicherstellen und nachweisen können, dass sie vor allem personenbezogene und unternehmenskritische Daten permanent und nachweisbar kontrollieren können. Ein wichtiger Aspekt hierbei ist eine Verschlüsselungstechnik, bei der ausschließlich der Cloud-Anwender auf sämtliche Schlüssel zugreifen kann, also nicht einmal der Cloud-Anbieter selbst.

Darüber hinaus sollte die Verschlüsselung der Daten keinerlei Einfluss auf die Arbeitsweise der Benutzer mit der Cloud-Anwendung haben. Doch genau das ist in einigen Fällen ein Hindernis, das viele Unternehmen und Cloud-Anbieter nur schwer überwinden können.

Zusätzliche Aufgabe: Multi-Cloud-Umgebungen

Daneben sehen sich Anbieter wie SAP, Salesforce, Microsoft und andere Cloud-Service-Provider in letzter Zeit immer häufiger mit einer großen Herausforderung konfrontiert: die Zentralisierung von IT-Sicherheitslösungen in Hybrid- und Multi-Cloud-Umgebungen. Denn mehr und mehr Firmen wollen bestehende IT-Security-Silos abbauen und eine zentrale Plattform schaffen, um auf diesem Weg den aktuellen Cyber-Risiken besser Herr werden zu können.

Dabei entpuppen sich die unterschiedlichen Verschlüsselungstechniken der Cloud-Anbieter zu einem echten Dilemma, denn wenn jeder seine Daten mithilfe seiner eigenen Technik unleserlich macht, wie soll dann ein zentraler Cloud-Datenschutz für eine Multi-Cloud-Umgebung zuverlässig funktionieren?

An dieser Stelle kommt die eperi Gateway-Plattform ins Spiel, die genau das besonders gut kann: Daten verschlüsseln und pseudonymisieren, und das über mehrere Cloud-Anwendungen hinweg, auf Basis einer zentralen Verschlüsselungsplattform.

Stopp: Verschlüsseln Salesforce & Co. ihre Daten nicht selbst?

Ja, das stimmt natürlich. Einerseits. Andererseits weisen die Verschlüsselungslösungen der jeweiligen Cloud-Anbieter oft eine kleine, aber feine Schwachstelle auf, zumindest dann, wenn man Datenschutzbeauftragter ist. Denn die Verschlüsselungslösung selbst und die notwendigen Schlüssel befinden sich nicht exklusiv unter der Kontrolle des Cloud-Anwenders. Und das ist unter dem Aspekt bestimmter Compliance-Anforderungen ein absolutes No-Go!

Der Ausweg: Daten plattformübergreifend mit eperi verschlüsseln

Fakt ist also, dass die Verschlüsselungslösungen von Salesforce oder Microsoft in einigen Fällen den Datenschutz ernst nehmen und die Usability der Cloud-Anwendung(en) nicht beeinträchtigen. Und doch hält die Verschlüsselungslösung der Cloud-Anbieter den zahlreichen internen und externen Compliance-Anforderungen nicht stand.

Das ist zum Beispiel dann der Fall, wenn global operierende Unternehmen die Datenschutzprozesse vollständig autark kontrollieren müssen und der Cloud-Anbieter unter keinen Umständen auf unverschlüsselte Daten zugreifen darf. Aber auch das Thema Data Residency stellt eine mögliche Herausforderung dar, wenn sensible Daten ein bestimmtes Hoheitsgebiet nicht verlassen dürfen.

Darüber hinaus spricht auch das Etablieren einer zentralen IT-Sicherheitsarchitektur für eine zentrale Verschlüsselungslösung wie das eperi Gateway. Denn auch hier können sämtliche Datenschutzprozesse über einen zentralen Kontrollpunkt gesteuert werden.

Umgesetzt: Cloud-Anwendungen mittels Templates eperi Gateway-tauglich machen

Wie man anhand des Beitrags eperi Gateway: So geht wirksamer Cloud-Datenschutz gut erkennen kann, weisen die eperi Cloud-Verschlüsselungslösungen ein Template-Konzept auf, das die komfortable Anbindung des eperi Gateways an nahezu beliebige Cloud-Anwendungen erlaubt. Dank dieses Konstrukts lässt sich beispielsweise festlegen, welche Verschlüsselungsmethode zum Einsatz kommt, ob bestimmte Datentypen bei der Eingabe erwartet werden, und so fort.

Bei den Templates handelt es sich herkömmliche XML-Dateien, die ausführbaren Java-Code enthalten können. Für die häufig zum Einsatz kommenden Cloud- und SaaS-Anwendungen wie Salesforce, Office 365, etc. existieren vorgefertigte Templates von eperi. Diese lassen sich mühelos anpassen bzw. neu erstellen.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

Peter Lyhne Uhrenholt, TRIAX, about TRIAX A:S

[Videoblog] CEO Peter Lyhne Uhrenholt über TRIAX A/S: Schwerpunkte, Partner, Ziele

Während der ANGA COM 2018 habe ich mit TRIAX Geschäftsführer Peter Lyhne Uhrenholt über TRIAX-Produkte und -Lösungen gesprochen, über die Zusammenarbeit mit Kabelanbietern und darüber, wo er TRIAX in den nächsten fünf bis zehn Jahren sieht.

TRIAX-Produkte und -Lösungen sorgen für zufriedene Kunden

Selbstverständlich genügen TRIAX-Produkte und -Lösungen höchsten Qualitätsansprüchen und sind darüber hinaus robust und zuverlässig im täglichen Umgang und Einsatz. Denn das ist die oberste Maxime, die Kunden von TRIAX fordern: Produkte, die funktionieren und ihren Zweck erfüllen. Und genau diesen Werten hat sich TRIAX verschrieben: Maximale Kundenzufriedenheit durch maximale Produktqualität.

Dies wird unter anderem mithilfe kontinuierlicher Forschungs- und Entwicklungsaktivitäten erreicht, in die TRIAX viel Zeit und Geld investiert. Denn um stets am Puls der Technik zu sein und mit den Anforderungen des Marktes Schritt halten zu können, will TRIAX regelmäßig neue Ansätze schaffen, die in neuen Produkten münden. Denn auch das trägt zu einer Kundenzufriedenheit im Sinne von Peter Lyhne Uhrenholt bei.

TRIAX A/S wird die Zusammenarbeit mit Kabelbetreibern weiter verstärken

TRIAX-Kunden und Kabeloperatoren pflegen seit jeher eine enge Partnerschaft. Daher ist die Zusammenarbeit seitens TRIAX mit Kabelnetzbetreibern schon seit langem von essentieller Wichtigkeit. Eine der drängesten Herausforderungen dabei ist das Verbessern und Erhöhen der Kabelbandbreite, da diese für Hotels und andere Einrichten mit umfangreichen Kabelnetzen enorm wichtig ist. Schließlich sollen Gäste und Kunden auch auf dieser Ebene zufriedengestellt werden.

Daher steigen mehr und mehr Kabeloperatoren auf die neueste Kabeltechnik DOCSIS 3.1 um, um künftig höhere Bandbreiten mit Gigabit-Tempo anbieten zu können. Und natürlich braucht es hierfür die richtigen Produkte und Lösungen, die immer die neuesten Technologien unterstützen. Aus diesem und anderen Gründen ist nicht nur für TRIAX die Zusammenarbeit mit Kabeloperatoren wichtig, sondern auch umgekehrt.

Exkurs: DOCSIS (Data Over Cable Service Interface Specification) beschreibt Schnittstellen von Kabelmodems in einem Breitbandnetz. DOCSIS 3.1 unterstützt Datenraten von bis zu 10 GBit/s im Downstream und soll Latenzen verringern.

TRIAX in 5 bis 10 Jahren: Cloud-Services und mehr Distributoren

Für Peter steht vor allem das Entwicklen einer vollständigen Lösungsplattform im Vordergrund, wenn er an die nächsten 5 bis 10 Jahre von TRIAX denkt. Schon heute bietet der aktuelle Lösungsansatz alle wichtigen Komponenten wie Kopfstellensysteme, Ethernet over Coax sowie die passende Software-Plattform, die jedoch mehr und mehr als Cloud-Service angeboten werden und verfügbar sein soll. Darüber hinaus gibt es bei TRIAX weitreichende Pläne, das bereits existierende Distributionsnetzwerk weiter auszubauen, um damit noch näher an ihre Kunden heranzukommen.

Das Interview mit Peter Lyhne Uhrenholt in voller Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.