Antigoni Chrysostomou über HPC in Deutschland

[Videoblog] Antigoni Chrysostomou über das Lenovo HPC-Geschäft

Während der International Supercomputing Conference 2018 habe ich dieses Interview mit Antigoni Chrysostomou von der Lenovo Data Center Group über das HPC-Geschäft in Deutschland geführt. Darin spricht sie über das

Der deutsche HPC-Markt im weltweiten Vergleich: echt stark!

Betrachtet man den hiesigen HPC-Markt (High-Performance Computing), kann man ihm durchaus bescheinigen, wettbewerbsfähig zu sein. Das liegt vor allem an der hohen Zahl an Forschungsinstituten, die sich in Deutschland tummeln, da diese einen großen Bedarf an viel und noch viel mehr Rechenpower zu Forschungszwecken haben.

Dazu gehört beispielsweise das Gauss Supercomputing Center, das einen Verbund der drei großen Universitätsrechenzentren darstellt. Dazu gehören das Jülicher Supercomputing Center, das Leibniz-Rechenzentrum (LRZ) in München-Garching und das HPC-Zentrum Stuttgart. Und eines davon, nämlich das LRZ, ist einer der größten RZ-Kunden Lenovos, wo gerade der größte Supercomputer Deutschlands entsteht, nämlich der SuperMUC-NG.

Daneben sind deutsche Supercomputer zahlreich in der Top-500-Liste der weltweit schnellsten Rechner vertreten. Alleine Lenovo trägt zu insgesamt 117 Systemen bei, die zu den leistungsfähigsten ihrer Art zählen, womit das Unternehmen die Top-500 in dieser Kategorie anführt.

Darum ist der HPC-Markt so interessant für Lenovo

High-Performance Computing mit seinen unterschiedlichen Ausprägungen stellt ganz bestimmte Anforderungen an Rechnersysteme, die vor allem von den HPC-Anwendern eingefordert werden. Folge: Neue Anwendungen rufen neue, innovative Lösungsansätze hervor, wovon gerne Unternehmen wie Lenovo profitieren, das sie selbst Teil dieser Innovationsmaschinerie sind. Wichtig dabei ist, dass die Entwicklerteams von Lenovo sehr stark mit ihren Kunden vernetzt sind, um so schnellst- und bestmöglich auf deren Anforderungen reagieren zu können.

Als ein „Nebeneffekt“ dieser HPC-Entwicklungen kann die Transformation solcher neuen Lösungen in den RZ-Massenmarkt betrachtet werden. Dazu gehören beispielsweise wassergekühlte Systeme, die Stück für Stück in den herkömmlichen Rechenzentren zum Einsatz kommen werden, nachdem sie sich im HPC-Umfeld bewährt haben.

Hiesige HPC-Schwerpunkte: Energieeffizienz und Warmwasserkühlung

Vor allem die hohen Ansprüche deutscher RZ-Betreiber an die Energieeffizienz eines solchen Systems treibt hierzulande ganz entscheidend zu den aktuellen Entwicklungen bei. Dies hat zwei wesentliche Gründe: Einerseits sind die Strompreise in Deutschland höher als in anderen Ländern, und zum anderen spielen bei uns die Themen Nachhaltigkeit und Verantwortung gegenüber der Umwelt eine größere Rolle als anderswo. Dies führt beispielsweise zu heißwassergekühlten Rechenzentren, wie sie in Garching bei München seit Jahren zu bewundern sind.

Ein weiterer hiesiger Aspekt, der ebenfalls mit dem Thema Energieeffizienz zu tun hat, betrifft die klassische TCO-Betrachtung. So fließen in die Gesamtkalkulation eines deutschen Rechenzentrums nicht nur die Anschaffungskosten für Hardware und Software ein, sondern auch die Energiekosten für Strom und Wasser. Was Lenovo speziell in Deutschland gegenüber anderen Anbietern einen großen Vorteil verschafft, da deren HPC-Systeme verstärkt mit Heißwasserkühlsystemen betrieben werden sollen.

Aus diesem und anderen Gründen hat Lenovo pünktlich zur ISC18 eine neue Technik vorgestellt, die sich Lenovo Neptun nennt und die das Kühlen von großen Rechenzentren mithilfe von Heißwasser ermöglichen soll – und das sehr viel energieeffizienter als andere vergleichbare Lösungsansätze.

Das komplette Videointerview mit Antigoni Chrysostomou

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Peter Lyhne Uhrenholt, TRIAX, about TRIAX A:S

[Videoblog] CEO Peter Lyhne Uhrenholt über TRIAX A/S: Schwerpunkte, Partner, Ziele

Während der ANGA COM 2018 habe ich mit TRIAX Geschäftsführer Peter Lyhne Uhrenholt über TRIAX-Produkte und -Lösungen gesprochen, über die Zusammenarbeit mit Kabelanbietern und darüber, wo er TRIAX in den nächsten fünf bis zehn Jahren sieht.

TRIAX-Produkte und -Lösungen sorgen für zufriedene Kunden

Selbstverständlich genügen TRIAX-Produkte und -Lösungen höchsten Qualitätsansprüchen und sind darüber hinaus robust und zuverlässig im täglichen Umgang und Einsatz. Denn das ist die oberste Maxime, die Kunden von TRIAX fordern: Produkte, die funktionieren und ihren Zweck erfüllen. Und genau diesen Werten hat sich TRIAX verschrieben: Maximale Kundenzufriedenheit durch maximale Produktqualität.

Dies wird unter anderem mithilfe kontinuierlicher Forschungs- und Entwicklungsaktivitäten erreicht, in die TRIAX viel Zeit und Geld investiert. Denn um stets am Puls der Technik zu sein und mit den Anforderungen des Marktes Schritt halten zu können, will TRIAX regelmäßig neue Ansätze schaffen, die in neuen Produkten münden. Denn auch das trägt zu einer Kundenzufriedenheit im Sinne von Peter Lyhne Uhrenholt bei.

TRIAX A/S wird die Zusammenarbeit mit Kabelbetreibern weiter verstärken

TRIAX-Kunden und Kabeloperatoren pflegen seit jeher eine enge Partnerschaft. Daher ist die Zusammenarbeit seitens TRIAX mit Kabelnetzbetreibern schon seit langem von essentieller Wichtigkeit. Eine der drängesten Herausforderungen dabei ist das Verbessern und Erhöhen der Kabelbandbreite, da diese für Hotels und andere Einrichten mit umfangreichen Kabelnetzen enorm wichtig ist. Schließlich sollen Gäste und Kunden auch auf dieser Ebene zufriedengestellt werden.

Daher steigen mehr und mehr Kabeloperatoren auf die neueste Kabeltechnik DOCSIS 3.1 um, um künftig höhere Bandbreiten mit Gigabit-Tempo anbieten zu können. Und natürlich braucht es hierfür die richtigen Produkte und Lösungen, die immer die neuesten Technologien unterstützen. Aus diesem und anderen Gründen ist nicht nur für TRIAX die Zusammenarbeit mit Kabeloperatoren wichtig, sondern auch umgekehrt.

Exkurs: DOCSIS (Data Over Cable Service Interface Specification) beschreibt Schnittstellen von Kabelmodems in einem Breitbandnetz. DOCSIS 3.1 unterstützt Datenraten von bis zu 10 GBit/s im Downstream und soll Latenzen verringern.

TRIAX in 5 bis 10 Jahren: Cloud-Services und mehr Distributoren

Für Peter steht vor allem das Entwicklen einer vollständigen Lösungsplattform im Vordergrund, wenn er an die nächsten 5 bis 10 Jahre von TRIAX denkt. Schon heute bietet der aktuelle Lösungsansatz alle wichtigen Komponenten wie Kopfstellensysteme, Ethernet over Coax sowie die passende Software-Plattform, die jedoch mehr und mehr als Cloud-Service angeboten werden und verfügbar sein soll. Darüber hinaus gibt es bei TRIAX weitreichende Pläne, das bereits existierende Distributionsnetzwerk weiter auszubauen, um damit noch näher an ihre Kunden heranzukommen.

Das Interview mit Peter Lyhne Uhrenholt in voller Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

Martin W. Hiegl über das Leibniz-Rechenzentrum (LRZ) und Lenovo

[Videoblog] Lenovo und die LRZ-SuperMUC-NG-Kooperation

Im Herbst 2018 geht die dritte Ausbaustufe des Lenovo Supercomputers der „Marke“ SuperMUC mit dem Zusatz „NG“ für „Next Generation“ ans Strom-Netz. Grund genug, mit einem der führenden Köpfe dieses für Lenovo so prestigeträchtigen Projekts ein Videointerview zu führen. Namentlich ist das Martin W. Hiegl von der Lenovo Data Center Group, der dort die Position des Director WW HPC & AI bekleidet. Mit ihm habe ich mich auf der International Supercomputing Conference 2018 über SuperMUC-NG und Co. unterhalten.

Darum ist für Lenovo die Kooperation mit dem Leibniz-Rechenzentrum so wichtig

Seit fast nunmehr zehn Jahren arbeiten Lenovo (seit 2014, vorher IBM) und das Leibniz-Rechenzentrum in Sachen Supercomputer zusammen. Dabei lag und liegt einer der Schwerpunkte im Bereich Energieeffizienz. So wies bereits der allererste SuperMUC im Jahr 2012 eine Heißwasserkühlung auf, die die gesamte Supercomputer-Anlage deutlich effizienter kühlte als andere Verfahren. Drei Jahre später folgte die zweite Ausbaustufe namens SuperMUC 2, und dieses Jahr im Herbst geht mit dem SuperMUC-NG die dritte Generation des Lenovo Supercomputers an der Start. Damit stellt die Kooperation mit dem LRZ für Lenovo einen wichtigen, langfristigen Baustein der Supercomputing-Strategie dar.

Der SuperMUC-NG geht im Herbst 2018 an das Strom-Netz

Nach drei Jahren SuperMUC 2 geht die dritte Generation des SuperMUC mit dem Zusatz „NG“ (wie „Next Generation“) ans Garchinger Stromnetz. Er umfasst 90 Compute-Racks, was 6.500 Compute-Knoten der Marke Lenovo ThinkSystem SD 650 DWC entspricht, die auf den skalierbaren Intel Xeon-Prozessoren basieren.

Der erste dieser Serverschränke wurde bereits ins Betrieb genommen, und über den Sommer verteilt wird Rack für Rack hinzukommen, sodass der SuperMUC-NG wie geplant im Herbst 2018 vom LRZ abgenommen und in Betrieb werden kann. Gerade rechtzeitig vor der Veröffentlichung der Herbstausgabe der Top-500-Liste, in der sich die 500 schnellsten Supercomputer der Welt befinden.

Der SuperMUC-NG weist beeindruckende Leistungswerte auf

In Sachen Leistungswerte wird der SuperMUC-NG aus dem Stand auf einem der vordersten Plätze der Top-500 klettern. Denn mit seiner Rechenleistung von rund 27 PetaFLOPS wird der LRZ-Rechner – Stand heute – der schnellste Supercomputer in Europa sein und darüber hinaus zu den Top 10 der Top 500 zählen. Das ist auch erforderlich, denn als HPC-Provider aller Münchner Universitäten ist das Leibniz-Rechenzentrum auf solche Hochleistungswerte dringend angewiesen, will es künftig seine Kunden zufriedenstellen. Denn diese benötigen die Rechenleistung des SuperMUC-NG für vielfältige Anwendungsbereiche, die mehr und mehr CPU-Power erfordern.

Die Kooperation mit dem LRZ umfasst mehr als nur Hardware

Bei der Implementierung des SuperMUC-NG gehört neben der Hardware auch die komplette Infrastruktur und die benötigte Software. Hierbei ist vor allem der Lenovo Intelligent Cluster Orchestrator zu nennen, der sich um sämtliche HPC-Funktionalitäten kümmert. Darüber hinaus zeichnet sich die Lenovo Data Center Group für die Wartung des Systems und den Anwendersupport verantwortlich.

Zudem sieht der Kooperationsvertrag eine Zusammenarbeit in Sachen Energieeffizienz vor. Hierbei soll mithilfe von optimiertem Software-Quellcode und der Energy Aware Runtime (EAR) für eine höhere Energieeffizienz gesorgt werden. Die EAR hat Lenovo in Kooperation mit dem Barcelona Supercomputing Center entwickelt. Dieses Tool sorgt unter anderem für angepasste Taktfrequenzen der Xeon-Prozessoren zur Laufzeit, je nachdem, ob eine Anwendung gerade mehr oder weniger Rechenleistung benötigt.

Das komplette Interview mit Martin W. Hiegl

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Dietmar Rauch über TRIAX Kopfstellensysteme

[Videoblog] Das leisten TRIAX Kopfstellensysteme in IP-TV-Szenarien

Dieses Interview habe ich mit Dietmar Rauch von der Firma TRIAX auf der ANGA COM 2018 geführt. Darin spricht er über TRIAX Kopfstellensysteme: Was diese so einzigartig macht, wo sie typischerweise eingesetzt werden und wie TRIAX-Kunden von diesen Systemeinheiten profitieren.

Das gehört zu TRIAX Kopfstellensystemen

TRIAX Kopfstellensystem vom Typ TDH 800

TRIAX Kopfstellensystem vom Typ TDH 800

Die TRIAX Kopfstellensysteme kommen überall dort zum Einsatz, wo in größeren oder kleineren Hotels (oder vergleichbaren Einrichtungen) parallel Fernseh-/Video- und Internetinhalte über dasselbe Koxialnetzwerk angeboten werden sollen. Hierfür stehen zahlreiche Hardware-Komponenten zur Verfügung.

Das Herzstück bildet die TDX-Serie ab, die aus zahlreichen Einzelkomponenten besteht. Das sind vor allem TDX-Basisgeräte, aber auch Ein- und Ausgangsmodule, mit denen sich die Basiskomponenten entsprechend der Anforderungen eines Hotels erweitern lassen. Aber aber auch kleinere Basiseinheiten wie die TDH 800 kommen überall dort zum Einsatz, wo auf Basis eines existierenden TV-Kabelnetzwerks Internet-basierte Dienste bereitgestellt werden sollen.

Das macht TRIAX Kopfstellensysteme so besonders

Die Besonderheit der TRIAX Kopfstellensysteme ist zum einen ihre Kompaktheit, da sie als Empfangs-/Verteilerstation sowie als Signalverarbeiter fungieren – und das in einem einzigen Gerät. Gleichzeitig sind diese Komponenten so modular aufgebaut, dass sie mit den Bedürfnissen der Anwender und Kunden wachsen. Darüber hinaus ist in die Systeme wie zum Beispiel die TDX-Serie eine intuitiv bedienbare Software integriert, die das Einrichten der Geräte mit relativ geringem Aufwand ermöglicht.

Ein weiteres Plus der TRIAX Kopfstellensysteme ist deren Hotswap-Technik und die eingebauten Netzteile, die aus Sicherheitsgründen redundant angelegt sind. Dank „Hotswap“ lassen sich einzelne Komponenten wie die Ein- und Ausgangsmodule der TDX-Serie im laufenden Betrieb austauschen – was eine reibungslose und störungsfreie IP-TV-Umgebung garantiert.

Die TRIAX Kopfstellensysteme stellen übrigens nur einen Baustein des kompletten Lösungsansatzes der Firma TRIAX dar, wie man sehr gut dem Videoblogbeitrag von und mit Torben Flodgaard Kristensen zum Thema „Ethernet over Coax“ entnehmen kann.

TRIAX Kopfstellensystem vom Typ TDX

TRIAX Kopfstellensystem vom Typ TDX

Hotels und Co. setzen TRIAX Kopfstellensysteme ein

Die zahlreichen Installationen, auf die TRIAX mittlerweile verweisen kann, kommen vorzugsweise überall dort zum Einsatz, wo Gäste, Patienten und andere Kunden mit Fernseh-, Video- und Internetinhalten versorgt werden sollen – und das über dasselbe Netzwerk. Dabei spielt es keine Rolle, welcher Internetrouter oder welches Empfangsgerät eingesetzt werden – TRIAX-Systeme unterstützen die wichtigsten Techniken und Technologien, die heute am Markt sind. Dazu gehören unter anderem HD-Inhalte, mit denen TRIAX Kopfstellensysteme mühelos klar kommen.

Doch nicht nur die Hardware steht bei TRIAX im Vordergrund, auch die Pre- und After-Sales-Unterstützung liegt dem dänischen Unternehmen sehr am Herzen. Denn zu einem erfolgreichen IP-TV-System gehört nicht nur ein perfekt funktionierendes Netzwerk mit allen Komponenten, sondern auch eine vernünftige Betreuung und Beratung seitens der TRIAX-Partner, die in die zahlreichen Projekte involviert sind.

Das Interview mit Dietmar Rauch in voller Länge

 

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

Torben Flodgaard Kristensen, TRIAX, über Ethernet over Coax

[Videoblog] So funktioniert TRIAX Ethernet over Coax

Während der ANGA COM 2018 in Köln durfte ich für die Firma TRIAX eine Interviewserie mit vier Videos produzieren, die ich ab heute auf meinem Blog veröffentliche. Das erste habe ich mit Torben Flodgaard Kristensen zum Thema „Ethernet over Coax“ geführt.

Das macht TRIAX Ethernet over Coax so einzigartig

Mit „Ethernet over Coax“ hat TRIAX eine Lösung im Portfolio, mit deren Hilfe über ein vorhandenes TV-Kabelnetz Daten verteilt werden können. Es handelt sich also um eine Verschmelzung der Ethernet- und Kabel-TV-Technik, was zahlreiche Vorteile mit sich bringt. Dazu gehört vor allem die Möglichkeit, Wifi-Zugangspunkte in das bestehende Kabel-TV-Netz zu integrieren und so den Anwendern den drahtlosen Zugang ins Koaxial-Netzwerk zu ermöglichen.

Hierfür kommt der G.hn-HomeGrid-Standard zum Einsatz, der das Spektrum von 1 bis 200 MHz nutzt, was das parallele Streamen von IP- und Fernsehsignalen erlaubt, da das TV-Signal nicht wie üblich im 8-MHz-Spektrum übertragen wird, sondern jenseits der 300-MHz-Marke. Und genau das erlaubt das gleichzeitige Übertragen von Internet- und Fernsehinhalten über ein- und dasselbe Kabelnetz.

TRIAX EoC Rückkanalfilter

TRIAX EoC Rückkanalfilter

Hierfür sind übrigens drei wesentliche Komponenten erforderlich: ein Rückkanalfilter, ein EoC-Endpunkt (Ethernet over Coax) und ein EoC-Controller. Alle drei Komponenten sorgen im Zusammenspiel dafür, dass IP- und TV-Signale über das gemeinsame Koxialkabel transferiert und dann am Endpunkt auf das jeweils richtige Geräte übertragen werden – also die Fernsehbilder auf das TV-Gerät und die Daten auf iPad, Smartphone, Laptop und Co.

TRIAX EoC Controller

TRIAX EoC Controller

Ein weiterer Vorteil der TRIAX Ethernet over Coax-Lösung ist deren Robustheit. Damit kann im Grunde jedwedes Koaxial-Kabelnetz eingesetzt werden, da die TRIAX-Technik sehr störunanfällig ist, was eine Highspeed-Internetverbindung erlaubt, trotz eines schwachen Koaxial-Signals.

Darüber hinaus erlaubt die TRIAX-Lösung das Separieren von mehreren WLAN-Netzen, sodass beispielsweise in einem Hotel das Drahtlosnetzwerk der Gäste vollständig vom Backoffice-WLAN des Hotelbetriebs entkoppelt werden kann. Das sorgt für einen hohen Sicherheitsstandard des Wi-Fi-Netzwerks.

Technisch betrachtet entspricht die WLAN-Lösung von TRIAX den gängigen Standards: Dual-Band-Wifi mit zwei Antennen, das Ausnutzen beider WLAN-Spektren (2,4 und 5 GHz), und vieles mehr.

Die Hotellerie ist ein typisches Anwendungsszenario der TRIAX-Lösung

Grundsätzlich kommt TRIAX Ethernet over Coax überall dort zum Einsatz, wo ein Koxialkabel-Netz existiert. Interessant dabei ist die Möglichkeit, auf Basis  einer Management-Software das drahtlose Netzwerk so einzurichten, dass der Anwender sich entscheiden kann zwischen kostenlosem Wifi und einem Wifi-Anschluss mit höherer Bandbreite, dann aber gegen Gebühr.

In Hotelanlange kommt TRIAX Ethernet over Coax häufig zum Einsatz

In Hotelanlangen kommt TRIAX Ethernet over Coax häufig zum Einsatz

Typischerweise wird TRIAX Ethernet over Coax in Hotelanlagen, in Krankenhäusern und sogar in Gefängnissen eingesetzt. Also immer dort, wo Koxialkabelnetze bereits existieren und der Betreiber oder Eigentümer keine aufwändige Ethernet-Verkabelung installieren lassen will.

Zudem sind dort in vielen Fällen nur im Eingangsbereich WLAN-Router mit gutem Empfang installiert, was den drahtlosen Zugang innerhalb der Hotelzimmer oder anderswo stark ausbremst. Und genau diesen Missstand eliminiert TRIAX Ethernet over Coax in Kombination mit Wifi Access Points, indem diese mit dem Koxialnetzwerk verbunden werden, was das Drahtlossignal deutlich verbessert.

Das vollständige Interview mit Torben Flodgaard Kristensen

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

luckycloud bietet eine sichere und komfortable Cloud-Umgebung

Nützliche Tipps für die richtige Auswahl von sicheren Cloud-Speichern

Bei der Wahl des richtigen Cloud-Service-Providers sind vor allem die Bereiche Sicherheit und Funktionalität zu beachten. Mit diesem Beitrag sollen die wichtigsten Merkmale vorgestellt und gezeigt werden, worin sich die aktuellen Cloud-Angebote unterscheiden.

Zunächst einmal sei darauf hingewiesen, dass sich Begriffe wie „sicherer Cloud-Speicher“ und „kostenloses Cloud-Angebot“ quasi gegenseitig ausschließen. Denn auch die Anbieter von vermeintlich kostenfreien Cloud-Plattformen wollen Geld verdienen. Und das tun sie beispielsweise mit dem Verkauf von Kundendaten oder dem Schalten von Werbung.

Diese und weitere Maßnahmen sind wenig vertrauensbildend, speziell im professionellen Geschäftsumfeld, und sind daher für den sicheren Umgang mit sensiblen Daten ungeeignet. Zudem verstößt das ein oder andere Geschäftsgebaren dieser Cloud-Anbieter gegen geltendes Recht wie der DSGVO.

Sicherheit first: Verschlüsselung, Zwei-Faktor-Authentifizierung und mehr

Das Thema Sicherheit von Cloud-Daten ist ein äußerst umfassendes, was dieser Blogbeitrag nicht umfassend abbilden kann. Allerdings hilft es vor allem weniger erfahrenen Cloud-Anwendern, die wichtigsten Begriffe zu kennen, um diese besser einordnen zu können.

Ende-zu-Ende-Verschlüsselung: Damit ist eine „echte“ Verschlüsselung gemeint, also während des kompletten Datenaustauschs bzw. Speichervorgangs. Es werden also sowohl die Daten auf dem Cloud-Speicher als auch der Transportweg via Internet gegen unliebsame Zugriffe von außen gesichert. Hierbei kommt meist der AES-Algorithmus zum Einsatz. Für dessen Sicherheitsstufe gilt: Je größer die zugehörige Bit-Zahl ist, desto sicherer wird verschlüsselt.

Zwei-Faktor-Authentifizierung: Das Einwählen auf dem Cloud-Speicher wird immer per Kennwort abgesichert, was aber passiert, wenn dieses in die falschen Hände gerät?! Aus diesem Grund sollte am besten eine sogenannte Zwei-Faktor-Authentifizierung eingesetzt werden, bei der neben dem Kennwort eine zweite Sicherheitsstufe eingebaut ist. Das kann das Bestätigen des Login-Versuchs per E-Mail sein, oder am Smartphone wird ein Sicherheitscode darstellt, der in ein entsprechendes Feld eingetragen werden muss.

IT-Infrastruktur in Deutschland: Alleine schon wegen der Einhaltung gesetzlicher Vorschriften sollte der Cloud-Anbieter sein Rechenzentrum entweder in Deutschland oder in einem anderen europäischen Land betreiben.

Open-Source-Software: Was für Experten selbstverständlich ist, löst bei weniger versierten Anwendern möglicherweise ein Stirnrunzeln aus: Der Einsatz von Open-Source-Software, deren Quellcode also öffentlich zugänglich ist. Die Idee dahinter ist jedoch ganz simpel: Nur, wenn ich weiß, wie ein Software-Programm funktioniert, kann ich mir auch sicher sein, dass dort alles mit rechten Dingen zugeht. Daher bauen seriöse Cloud-Anbieter auf Open-Source-Programme wie zum Beispiel Seafile, das Daten auf dem lokalen Computer mit der Cloud-Umgebung synchronisiert.

Datenschutzkonforme Datenverarbeitung: In Zeiten von DSGVO und Co. ist sie fast schon eine Selbstverständlichkeit, die datenschutzkonforme Datenverarbeitung. Denn nur dann kann man sich auch sicher sein, dass die eigenen personenbezogenen Daten und die seiner Kunden auf dem Cloud-Speicher wirklich geschützt sind.

Funktionale Aspekte wie Backups und Snapshots sind ebenfalls wichtig

Neben diesen primären, sicherheitsrelevanten Merkmalen sollte der Cloud-Anbieter der Wahl auch funktionale Aspekte wie regelmäßige Backups, Blockversionierung und Snapshots berücksichtigen. Auf Basis dieser Sicherheitsvorkehrungen kann gewährleistet werden, dass die eigenen Daten in den allerbesten Händen sind und selbst eine technische Störung auf Anwenderseite nicht sämtliche Daten im Nirvana verschwinden lässt.

luckycloud History- und Snapshot-Funktionen

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Gero Dieckmann über die SVA GmbH auf der CEBIT 2018

Gero Dieckmann über die SVA GmbH auf der CEBIT 2018

Dieses Videointerview mit Gero Dieckmann habe ich im Auftrag der SVA GmbH geführt. Darin spricht er über den Gesamtauftritt der SVA auf der CEBIT 2018, über den Slogan „IT back on Track“ und wie die „neue“ CEBIT bei der SVA ankommt.

Das verbirgt sich hinter dem Slogan „IT back on Track“

Diesen Slogan bewertet die SVA als eine Art Provokation, denn wenn „IT wieder auf Spur“ läuft, muss sie ja erst einmal davon abgekommen sein. So interpretiert die SVA den Einsatz von traditionellen IT-Umgebungen, auf die viele ihrer Kunden gesetzt haben bzw. immer noch setzen. So werden nämlich die zunehmenden Forderungen seitens der Fachabteilungen nach neuen Diensten wie S3-Services via Amazon Web Services, Google oder SoftLayer ignoriert. Und genau das können sich viele Unternehmen einfach nicht mehr leisten.

Das führt zu einer Art Schatten-IT, die zur Konsequenz haben kann, dass Daten via Dropbox und anderen nicht-autorisierten Cloud-Diensten Unternehmen verlassen, was vor allem in Zeiten von DSGVO und Co. äußerst unangenehme Folgen nach sich ziehen kann. Daher hat die SVA für seine Kunden (und andere Unternehmen) einen Weg gesucht und gefunden, wie das IT-Management benötigte und gewünschte Cloud-Services künftig mit geringem Aufwand bereitstellen kann.

Die Lösung hierfür ist ein umfassendes Multi-Cloud-Management, was das Speicher und Bereitstellen von Daten sowohl on-premise (direkt auf dem Server des Kunden) als auch off-premise (in der eigenen Cloud-Umgebung) ermöglicht. Und das so sicher und zuverlässig wie eben nur möglich. Realisiert wird dieser Ansatz mithilfe aktueller Techniken wie Docker, Container, Kubernetes und Helm, und das alles auf Basis der IBM Private Cloud-Plattform.

Diese CEBIT-Highlights hatte die SVA im Gepäck

Klar, dass als erstes die Anki Overdrive-Rennbahn am SVA-Stand im IBM-Pavillon ins Auge stach, die eine Vielzahl von Besuchern genau dorthin lockte. Interessanterweise haben diesen Jungentraum technisch versierte SVA-Mitbarbeiter selbst in tagelanger Arbeit selbst konzipiert, aufgebaut und zum Laufen gebracht. Eine echte Meisterleistung, wie ich finde.

Doch die die Spielzeugrennbahn war nicht nur Eye-Catcher, sondern sollte auch den gerade vorgestellten Slogan „IT back on Track“ visualisieren. So stellte jedes der kleinen Rennwagen einen bestimmten IT-/Cloud-Service dar,  die sich dank der verbauten Leitplanken an Geschäftsprozessen orientieren können und so in der Spur gehalten werden. Die Leitplanken selbst werden von der IT-Abteilung vorgegeben.

Das Ziel, das damit erreicht werden soll, ist das Umgehen so genannter Phantomstaus, die dazu führen können, dass die IT-Abteilung technische Engpässe zulässt, da diese nicht rechtzeitig erkannt werden und so Innovationstaus innerhalb der Firmen-IT entstehen.

Die SVA nimmt die Veränderungen der „neuen“ CEBIT durchaus positiv wahr

Laut Gero Dieckmann sind die Veränderungen der neuen CEBIT viel mehr als nur deren neue Schreibweise. Das macht sich unter anderem in einem neuen, angepassten Standkonzept der IBM bemerkbar, von dem die SVA als einer der größten IBM-Partner maßgeblich profitiert hat. Das hat unter anderem mit dem Umzug von der „alten“ Halle 2 in die großen, modernen Pavillons zu tun (ein Relikt der Weltausstellung EXPO 2000), in denen sich neue Konzepte und neue Ideen besser darstellen ließen als bisher.

Aber auch neue Fachbesucher schien die neue CEBIT anzulocken, wie man Gero Dieckmanns Worten entnehmen kann. So kamen nämlich nicht nur die bekannten IT-Entscheider und Geschäftsführer im dunklen Zweireiher auf diese Messe, sondern auch Software-Entwickler, Projektmanager sowie Marketing- und PR-Experten wollten sich bei der SVA über das Thema Multi-Cloud-Umgebungen und Co. informieren. Zudem waren die zahlreichen Gespräche mit potenziellen Kandidaten für die SVA sehr wertvoll auf der CEBIT 2018, da das Systemhaus aus Wiesbaden kontinuierlich wächst und immer wieder neues Personal braucht.

Damit stand für Herrn Dieckmann relativ schnell fest: Die SVA GmbH ist wohl auch 2019 wieder auf der CEBIT vertreten. Und dann vielleicht wieder mit solch einem schönen Gespräch wie diesem hier!

Zuverlässgier Datenschutz mit eperi Gateway

Cloud-Daten mit eperi Gateway vollumfänglich und wirksam schützen

Sensible Daten lassen sich innerhalb einer Cloud schützen, indem man sie verschlüsselt und pseudonymisiert. Hierfür gibt es verschiedene Ansätze: Cloud Access Security Broker (CASB), Bring Your Own Key-Dienste oder andere vergleichbare Dienste. Doch worin unterschieden sich deren Arbeitsweisen und schützen sie Cloud-Daten vollumfänglich?

Nun, CASB-Services bzw. -Anwendungen befinden sich zwischen Anwender und Cloud-Plattform und steuern, überwachen und protokollieren den gesamten Datenstrom. Im Gegensatz dazu verschlüsseln BYOK-Anbieter die Daten mithilfe von kryptografischen Schlüsseln, die sie ihren Cloud-Kunden zur Verfügung stellen.

Die Zuverlässigkeit und Machbarkeit dieser Ansätze lassen sich mithilfe dreier Aspekte und ihrer wesentlichen Fragen bewerten: Datenkontrolle, Benutzbarkeit (Usability) und Datenschutz.

Datenkontrolle: Wer kann auf die für die Verschlüsselung erforderlichen Schlüssel zugreifen und hat damit Zugriff auf die verschlüsselten Daten?

Benutzbarkeit: Können die Cloud-Anwendungen trotz der Verschlüsselung wie gewohnt genutzt werden?

Datenschutz: Sind Datensicherheit und -schutz eingeschränkt, um somit die Benutzbarkeit der Cloud-Anwendung oder einzelner Funktionen weiterhin gewährleisten zu können?

Nun muss man sich als Datenschutz-Verantwortlicher gut überlegen, welche dieser drei Merkmale von besonderer Bedeutung sind. Denn leider decken die am Markt existierenden Ansätze und Lösungen nicht alle Anforderungen gleichermaßen gut ab.

CASB-Services ermöglichen grundsätzlich einen hohen Datenschutz und die volle Datenkontrolle, dafür ist die Usability meist nicht optimal, da der Service an die verschiedenen Cloud-Applikationen  angepasst werden muss. Im schlimmsten Fall wird die Nutzung von Cloud-Services komplett verhindert, wenn sensible Daten im Spiel sind.

BYOK-Dienste: Hier stehen die Themen  „Benutzbarkeit“ und „Datenschutz“ im Vordergrund, allerdings rückt die Datenkontrolle ein wenig in den Hintergrund, da die erforderlichen kryptografischen Schlüssel zwar vom Anwender zur Verfügung gestellt werden, der Cloud-Anbieter kann allerdings auf die Schlüssel zugreifen.

eperi hilft aus dem CASB-/BYOK-Dilemma!

Jetzt kommen wir zu der Stelle, an der Sie sich vielleicht fragen: Gibt es denn eine Cloud-Verschlüsselungslösung, die alle drei Disziplinen gleichermaßen gut beherrscht? Ja, doch, die gibt es, und sie nennt sich eperi Cloud Data Protection (CDP). Damit können Sie sicher sein, bei allen drei Aspekten keine Abstriche machen zu müssen.

So erlangt keiner der Cloud-Anbieter und Datenverarbeiter Zugriff auf die Schlüssel, die Cloud-Anwendung wird durch die Verschlüsselung nicht wesentlich beeinträchtigt, und beim Datenschutz werden ebenfalls keine Kompromisse eingegangen.

Die Funktionsweise des eperi-Gateway

Die wesentliche Eigenschaft des eperi-Gateway ist seine „Vermittlerrolle“. Hierzu befindet es sich außerhalb der Cloud-Umgebung, deren Daten verschlüsselt werden sollen, entkoppelt also Cloud-Anwendungen von den Cloud-Daten. Zum anderen fungiert es als Reverse-, Forward- und API-Proxy, je nach Anwendung und Zugriffsszenario.

Außerdem ist das eperi-Gateway „Hüter“ sämtlicher Schlüssel, die für das Pseudonymisieren und Verschlüsseln der Daten erforderlich sind. Das erlaubt allen Anwendern einen transparenten, sicheren Zugriff auf die Cloud-Daten. Transparent heißt, dass die Verschlüsselung im Hintergrund für die Anwender keine spürbaren Auswirkungen hat und dass keine Installationen an Benutzer- oder Zielsystemen notwendig sind.

So funktioniert das eperi-Gateway

So fungiert das eperi-Gateway als Proxy

Ein Proxy-Server ist ganz allgemein gesprochen ein Vermittler, der die Netzwerkkommunikation zwischen zwei Endpunkten übernimmt und dabei unterschiedliche Aufgaben übernimmt. Im Falle des eperi-Gateway ist dies beispielsweise das Verschlüsseln und Entschlüsseln der Daten, die zwischen den Endpunkten ausgetauscht werden sollen.

Das eperi-Gateway fungiert im Wesentlichen als Forward- und Reverse-Proxy. Im Foward-Fall nimmt der Anwender aus seinem Netzwerk zuerst Kontakt mit dem eperi-Gateway auf, übergibt diesem seine Daten, die es verschlüsselt, und anschließend an die zugehörige Cloud-Anwendung übergibt.

In entgegengesetzter, also Reverse-Richtung, nimmt das eperi-Gateway als Proxy stellvertretend den Datenstrom entgegen, der von einer Cloud-Anwendung zurückkommt und entschlüsselt die darin verschlüsselten Daten, bevor diese an die Anwender in Klartext weitergeleitet werden.

Darüber hinaus kann das eperi-Gateway über verschiedene API-Schnittstellen in bestehende Anwendungen eingebunden werden. Das ist beispielsweise dann erforderlich, wenn die Ver- und Entschlüsselung lediglich vor- oder nachgeschaltet zum Einsatz kommt oder proprietäre Protokolle unterstützt werden müssen.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

Florian Indriksons von Lenovo

[Videoblog] Florian Indriksons über Lenovo Executive Briefing Center und Innovation Center

Dieses Videointerview habe ich mit Florian Indriksons von Lenovo geführt. Darin erklärt er, was das Lenovo Executive Briefing Center und das Lenovo Innovation Center sind und wie beide Einrichtungen von Lenovo-Partnern und -Kunden genutzt werden können.

Sabine Hammer von Lenovo

[Videoblog] Sabine Hammer über das Lenovo Channel Partner Programm

Dieses Videointerview habe ich mit Sabine Hammer von Lenovo geführt. Darin spricht sie über die Rolle der Lenovo-Partner für das RZ-Geschäft, wie Lenovo die RZ-Partner bei ihrer Arbeit unterstützt, was alles am Lenovo Partner Engagement Programm interessant ist und warum Lenovo Partnerzertifizierungen wieder eingeführt hat.