Alain Fiocco, CTO OVH

Videoblog: „Mit neuen Servern und mehr Bandbreite wollen wir unsere Kunden bestmöglich unterstützen“

Während des OVH-Summit in Paris habe ich dieses Interview mit CTO Alain Fiocco geführt. Dabei erklärt er, warum OVH die Bandbreite seiner Kundenserver verdoppelt hat, warum OVH so eng mit Intel zusammenarbeitet und welche neue Hardware OVH auf dem Summit vorgestellt hat.

Mehr Bandbreite fördert neue Möglichkeiten

Während des großen OVH-Summit, zu dem mich OVH freundlicherweise eingeladen hatte, konnte Alain Fiocco gleich mal mit einer guten Nachricht einsteigen:

Die Frage, die sich dabei stellte: Warum macht OVH das? Nun, das hat zwei wesentliche Gründe. Zum einen will OVH damit seinen Kunden mehr geschäftliche Möglichkeiten einräumen, denn mehr Bandbreite bedeutet immer auch eine Verbesserung der digitalen Optionen, die man als Firma vorfindet. Und das ist – speziell im Cloud-Umfeld – von essentieller Bedeutung. Damit gehen in vielen Fällen neue Geschäftsideen und -modelle einher, die für OVH ebenfalls eine wichtige Rolle spielen.

Und da OVH seine eigene Cloud-Infrastruktur mit eigenem Backbone betreibt, der mit zunehmender Größe des Unternehmens immer leistungsfähiger wird, lässt OVH seine Kunden am eigenen Wachstum teilhaben. So haben alle etwas davon.

Die enge Zusammenarbeit mit Intel hat gute Gründe

Auf der Bühne während der großen OVH-Summit-Keynote war auch Intel, und so ganz nebenbei wurde die langjährige Zusammenarbeit mit dem Chiphersteller erwähnt – was mich als Ex-Intelianer natürlich aufhorchen ließ.

Doch warum ist das so? Auch das lässt sich recht einfach erklären. Denn als Betreiber von leistungsfähigen Cloud-Infrastrukturen mit eigener Hard- und Software ist es für OVH von größter Bedeutung, die Pläne und Roadmaps des größten Prozessorherstellers der Welt zu kennen. Um darauf die eigenen Produktentwicklungen abstimmen zu können, und das lange, bevor der neue Prozessor oder eine neue CPU-Technik auf den Markt kommt.

Mit neuer Hardware geht es in die nächsten Monate

Klar, dass solch ein riesiger Event wie der OVH-Summit nicht ohne Ankündigungen vonstatten geht, und davon gab es so einige. Die wesentlichen Neuheiten, die Alain und sein Team in Paris präsentierten, betreffen drei Referenzserver, die künftig in den weltweiten Rechenzentren von OVH zum Einsatz kommen werden. Einer davon ist der HG 2019, der erhöhte Sicherheitsfeatures bietet und obendrein zuverlässig und schnell arbeitet.

In diesem Servermodell werkeln Prozessoren der Marke Intel Xeon Scalable inklusive Optane DC-Techniken. Damit wird OVH der erste Cloud-Provider in Europa sein, der dieses neue Technikgespann aus dem Hause Intel in seine Rechner verbaut. Damit sollen verstärkt Highend-Applikationen aus den Bereichen Big Data & Analytics ermöglicht werden. Und diesen Trend wird OVH in den nächsten Monaten massiv weiter vorantreiben.

Das vollständige Interview mit Alain Fiocco (auf Englisch)

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit OVH Deutschland entstanden.

Thomas Ehrlich, Varonis Systems

Videopost: „Mit uns machen Sie Ihre IT-Umgebung ein gutes Stück sicherer“

Dieses Videointerview habe ich mit Thomas Ehrlich von Varonis Systems auf der it-sa 2018 geführt. Darin spricht er über den notwendigen Schutz hybrider Cloud-Infrastrukturen, über den Einsatz von IBM QRadar und wie Varonis seinen Kunden bei der Umsetzung der DSGVO hilft.

Identische Rechtevergabe On-Prem und On-Cloud

Heterogene IT-Infrastrukturen sind vor allem eins: Über die Zeit gewachsen und weisen damit in vielen Fällen eine „chaotische“ Grundordnung auf. Das wirkt sich auf verschiedene Bereiche wie zum Beispiel die vergebenen Rechte aus, was sich mittel- oder unmittelbar auf die Sicherheit der IT-Umgebung auswirken kann. Soll diese „gewachsene“ Infrastruktur in eine Hybrid-Cloud migriert werden, ist es immanent wichtig, die gesamte Rechtestruktur und die dazu gehörigen Berechtigungen vor dem geplanten Umzug in die Cloud vollständig zu überprüfen und gegebenenfalls anzupassen – für eine höchstmögliche Sicherheit von Anfang an.

Falls man dies nicht selber erledigen will, kann man sich an Firmen wie Varonis Systems wenden, die sich mit der Rechtevergabe On-Premise und On-Cloud bestens auskennt.

IBM QRadar und Varonis: ein ergänzendes Gespann

Varonis-Kunden, die SIEM-Systeme wie IBM QRadar einsetzen,  importieren die Alerts und Benachrichtigungen, die Varonis im Kontext der strukturierten und unstrukturierten Kundendaten erstellt, in das QRadar-System und können damit ihr gesamtes Nachrichtensystem im großen Zusammenhang betrachten und auswerten.

Interessant an dieser Stelle ist auch die Möglichkeit, mithilfe des Varonis-Systems Alarmsignale in Echtzeit abzurufen, da diese auch in Echzeit erstellt und verschickt werden. Damit lassen sich jedwede Bedrohungen wie Ransomware & Co. schneller lokalisieren und dagegen vorgehen.

Varonis hilft seinen Kunden in Sachen DSGVO

Varonis hilft ihren Kunden, bestimmte DSGVO-Forderungen bestmöglich umzusetzen. Dazu gehört beispielsweise das obligatorische Erstellen eines Verarbeitungsverzeichnisses, das in Artikel 30 geregelt wird. Das soll sämtliche Aufgaben auflisten, die während der elektronischen Verarbeitung personenbezogener Daten anfallen. Dieser nicht ganz triviale Aufwand erfolgt am ehesten über die sogenannten Log-Dateien, die speziell im Windows-Server-Umfeld anfallen. Diese Dateien sind sehr umfangreich und müssen daher mit geeigneten Mitteln und möglichst geringem Aufwand analysiert und nach personenbezogenen Daten durchforstet werden können.

Auch hier wird Varonis für ihre Kunden aktiv, indem sie genau diese Logging-Dateien permanent analysiert und überwacht. Auf dieser Basis sind zahlreiche Erkenntnisse und Aktionen möglich, wie das Ableiten von Benutzerverhalten oder unternehmensweite Suchabfragen. Und das stets vor dem Hintergrund DSGVO-relevanter Daten und Dateien.

Das Interview mit Thomas Ehrlich auf der it-sa 2018

Disclaimer: Diesen Videoblogpost habe ich im Auftrag von Varonis Systems erstellt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

 

Marcel Mock von der totemo AG über E-Mail-Verschlüselung

Videoblog: „E-Mail-Verschlüsselung ist wichtig und simpel“

Während der it-sa 2018 habe ich dieses Videointerview mit Marcel Mock von der Schweizer Firma totemo geführt. Darin spricht er über die Neuheiten von totemomail 7.0 und welche drei Irrtümer in Sachen E-Mail-Verschlüsselung sich hartnäckig halten.

totemomail 7.0 bietet zahlreiche nützliche Features

Wesentlichste und offensichtlichste Neuerung von totemomail 7 ist die vollständig überarbeitete Bedieneroberfläche. Damit soll vor allem eine bessere Usability erreicht werden, aber auch bestimmte Prozesse und Abläufe lassen sich vereinfachen. Darüber hinaus ist es mit der aktuellen Version möglich, Microsoft Rights Management-Features innerhalb des totemo-Gateways zu nutzen. So können E-Mail-Nachrichten und angehängte Dokumente mittels Microsoft AD RMS und Azure Information Protection geschützt werden.

Zudem bietet totemomail 7 eine eigene Rechteverwaltung, sodass IT-Administratoren auch außerhalb des Microsoft’schen E-Mail-Universums ihren Mailserver mit entsprechenden Rechten versehen können.

totemomail im Einsatz

Die Top-3-Irrtümer in Sachen E-Mail-Verschlüsselung

Noch immer halten sich bestimmte Annahmen äußerst hartnäckig, was das Verschlüsseln von E-Mails betrifft – und das meist völlig zu unrecht. Der wichtigste Irrtum lautet vermutlich: Das brauchen wir nicht! Richtig? Falsch, schauen Sie sich hierzu einmal Artikel 32 der DSGVO an. Dort wird das Verschlüsseln personenbezogener Daten explizit erwähnt.

Damit hat auch unmittelbar Irrtum Nummer 2 zu tun, der da lautet: Das ist alles viel zu teuer. Das stimmt zum einen nicht, und was zum anderen so richtig teuer wird, wenn Sie auf Basis der DSGVO belangt werden, weil Sie die sensible E-Mail-Daten nicht verschlüsselt haben. Und zum dritten Vorurteil, dass man es alleine nicht schaffen kann, sollten Sie sich diese Blogpostserie etwas genauer ansehen.

Das Interview mit Marcel Mock von der it-sa 2018

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Dr. Hubert Jäger von Uniscon über BYOK-Irrtümer

Videoblog: „BYOK ist leider kein Cloud-Daten-Allheilmittel“

Dieses Videogespräch habe ich mit Dr. Hubert Jäger von der Firma Uniscon geführt. Dabei geht es um vorherrschende BYOK-Irrtümer (Bring Your Own Key) und wie die Sealed Plattform seiner Firma helfen kann, Cloud Computing ein gutes Stück sicherer zu machen.

Life-Hacking auf der it-sa: So unsicher sind Cloud-Daten

Die Cloud kämpft nach wie vor mit einer Reihe von Vorurteilen, darunter auch mit der Annahme, dass Daten innerhalb einer Cloud-Umgebung nur dann sicher seien, wenn man die eigenen Schlüssel mitbringt. Dieser Grundsatz (der auch unter dem Akronym BYOK (Bring Your Own Key) bekannt ist) weist allerdings eine erhebliche Schwachstelle auf: Man kann mit relativ geringem Aufwand an die für das Entschlüsseln der Daten notwendigen Schlüssel herankommen. Hierfür muss lediglich ein sogenannter „Memory Dump“ erstellt werden, der es erlaubt, mit etwas technischem Verständnis und den richtigen Tools die Schlüssel zu extrahieren und zu missbrauchen.

Die Uniscon Sealed Plattform schützt Cloud-Daten vor fremden Zugriffen

Sieht man sich die DSGVO genauer an, so fällt unter anderem Artikel 5 auf, der unter dem Punkt 1c das Prinzip der Datenminimierung genauer beschreibt. Die Forderung hierbei lautet, dass die Erhebung und Verarbeitung personenbezogener Daten stets zweckgebunden sein muss. Gewährt man einem IT-Admin von Cloud-Servern allerdings weitergehende Rechte, als diese für das Erfüllen seiner Aufgaben notwendig sind (wie zum Beispiel das Erstellen eines Memory Dump), verstößt man nicht nur gegen die DSGVO, sondern ermöglicht auch ein unsicheres Einfallstor in die Cloud-Umgebung.

Genau an dieser Stelle kommt die Sealed Plattform ins Spiel. Auf Basis dieser Uniscon-Lösung kann man den IT-Administrator einer Cloud-Infrastruktur in seinen Rechten so weit einschränken, dass das Prinzip der Datenminimierung eingehalten werden kann.

So funktioniert die Sealed Plattform im Falle eines versuchten Datenklaus

Sollte trotz eingeschränkter Adminrechte und sonstiger Sicherheitsmaßnahmen ein Angriffsversuch auf die Cloud-Daten initiiert werden, sucht die Uniscon Sealed Plattform mit vier geeigneten Maßnahmen, diesen unliebsamen Hacking-Versuch zu unterbinden und die Daten zu schützen:

Mit dem Data Clean-Up werden im Falle eines Angriffs die Daten innerhalb einer sogenanten Data Clean-Up Area präventiv gelöscht. Dort befinden sich auch die Schlüssel, womit auch diese im Angriffsfall gelöscht werden, sodass die Daten erst gar nicht entschlüsselt werden können. Mit der Filterung wird der IT-Admin von diesem Bereich ferngehalten, da dies seine Kompetenzen übersteigen würde. Und schließlich findet ein Audit statt, der sicherstellt, dass der gesamte Data Cleanup-Prozess genau den Vereinbarungen entsprochen hat und damit die Daten weiterhin als sicher gelten.

Das vollständige Interview mit Dr. Hubert Jäger auf der it-sa 2018

Disclaimer: Für diesen Videoblogeintrag hat mich die Firma Uniscon beauftragt. Bei der Ausgestaltung der Inhalte hatte ich völlig freie Hand.

Dirk Schrader von Greenbone über Sustainable Cyber Resilience

Videblog: „Nachhaltige Widerstandsfähigkeit ist die neue IT-Sicherheit“

Dieses Interview habe ich mit Dirk Schrader von Greenbone Networks auf der it-sa 2018 zum Thema Sustainable Cyber Resilience geführt. Darin spricht er unter anderem darüber, warum das Thema gerade für KRITIS-Unternehmen immer wichtiger wird.

Sustainable Cyber Resilience ist mehr als ein Buzzword

Unter dem Begriff „Sustainable Cyber Resilience“ (SCR) versteht man eine neue Herangehensweise in Sachen Informationssicherheit. Hierbei steht weniger das Gesamtkonstrukt und dessen Absicherung gegen Angriff im Vordergrund, sondern mehr die einzelnen „Assets“, die involviert sind. Das können Server und Router sein, aber Applikationen und Dienste werden hierfür betrachet. Daran verknüpft ist vor allem die Frage, welche Rolle diese einzelnen IT-Faktoren innerhalb der Geschäftsprozesse einer Firma besetzen.

Die richtigen Antworten daraus ergeben entsprechende Risikofaktoren und die passenden Maßnahmen, die sich davon ableiten lassen. Daraus resultiert eine nachhaltige Widerstandsfähigkeit, die sich für jedes einzelne Gerät oder jeden einzelnen Dienst genau bestimmen lässt. Damit wissen IT-Verantwortliche jederzeit, in welchem Ausmaß ein angegriffener Server oder ein anderes Asset zur Stabilität oder Instabilität des großen Ganzen beiträgt.

Ein weiterer Aspekt dabei: Dieses permanente Bewerten von Risikofaktoren und dem damit verbundenen Herstellen von Widerstandsfähigkeit sorgt dafür, dass die Sicherheit des gesamten Systems besser und besser wird.

SCR betrifft vor allem KRITIS-Unternehmen

Kritische Unternehmensstrukturen – also die der Energieversorger, der Gesundheitsversorger, etc. – weisen vor allem eine wesentliche Eigenschaft auf: Sie leisten einen immens wichtigen Beitrag zum gesellschaftlichen Leben und Miteinander. Obendrein sind sie hochgradig miteinander vernetzt, denn ohne Strom gibt es keine medizinische Versorgung, und so fort.

Daher kommt der Widerstandsfähigkeit der gesamten Infrastruktur dieser sogenannten KRITIS-Betriebe und -Unternehmen eine ganz besondere Rolle zu. Denn in diesen Fällen ist nicht nur die IT-Infrastruktur einem besonderen Risiko ausgesetzt, sondern auch die OT (Operational Technology). So sind zB in einem Wasserkraftwerk nicht nur die Server mögliche Angriffsziele von Hackern, sondern auch die Versorgungsanlage und deren Assets selbst. Damit muss jederzeit sichergestellt werden, dass sowohl die IT als auch die OT so widerstandsfähig wie möglich sind.

Das komplette Interview mit Dirk Schrader auf der it-sa 2018

 

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Dr. Matthias Pankert von Utimaco über eIDAS und passende Lösungen

Videoblog: „Mit dem CryptoServer CP5 werden digitale Geschäfte sicherer“

Während der it-sa 2018 habe ich dieses Interview mit Dr. Matthias Pankert von der Utimaco GmbH geführt. Darin spricht er über die zunehmende Wichtigkeit von eIDAS und über die passenden HW-Lösungen seiner Firma.

Unter Mitwirkung des BSI (Bundesamt für Sicherheit in der Informationstechnik) ist Mitte 2016 eine EU- und europaweite Verordnung mit der Nummer 910/2014 in Kraft getreten. Besser bekannt ist diese EU-Regelung unter der Abkürzung eIDAS (englisch für electronic IDentification, Authentication and trust Services), die einheitliche Spielregeln in den Bereichen „Elektronische Identifizierung“ und „Elektronische Vertrauensdienste“ schaffen soll.

eIDAS spielt im Unternehmensumfeld eine immer größere Rolle

Damit soll vor allem die digitale Wirtschaft im Kontext vertrauenswürdiger Geschäftsprozesse gefördert werden. Im Kern geht es darum, digitale Geschäfte auf einheitliche Art und Weise abwickeln zu können. Hierfür kommen unter anderem digitale Signaturen zum Einsatz, was wiederum die passenden Gerätschaften erfordert. Und genau in diesem Umfeld bewegt sich die Utimaco GmbH.

Utimaco CryptoServer ermöglichen eIDAS-konforme Geschäfte

Mit einer ganzen Reihe an eIDAS-konformen Hardware-Lösungen will Utimaco in diesem vor allem für größere Unternehmen immer wichtigeren Geschäftsbereich sichere Möglichkeiten für digitale Signaturen und andere Sicherheitsmaßnahmen an die Hand geben.

Im ersten Schritt wurde hierfür der CryptoServer CP5 entwickelt. Dabei handelt es sich um ein eIDAS-konformes Hardware-Modul, das entweder als 1U-Server in einem 19-Zoll-Rack oder als PCIe-Einsteckkarte direkt in einem Rechner verbaut werden kann. Es lässt sich zudem per Mietmodell via Cloud nutzen.

Das CP5 kommt vor allem für digitale Fernsignaturen zum Einsatz. Darüber hinaus lassen sich damit qualifizierte Zertifikate und andere Sicherheitsmaßnahmen erstellen. Er wird also überall dort benötigt, wo Schlüsselautorisierungsfunktionen erforderlich sind.

Das Interview mit Matthias Pankert auf der it-sa 2018 in voller Länge

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Ralf Colbus über KI-taugliche Speichersysteme

Videoblog: „Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden“

Dieses Interview habe ich mit Ralf Colbus von IBM Deutschland anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über die Rolle von Strorage-Systemen im Kontext leistungshungriger KI-Anwendungen, wie sie immer häufiger zum Einsatz kommen. Und über ein Tool, das künftig Datenwissenschaftlern helfen soll, Daten zielgerichteter und schneller zu finden.

Storage-Lösungen für KI-Anwendungen müssen zahlreichen Anforderungen genügen

KI-Anwendungen durchlaufen verschiedene Phasen, und vor allem daran sollten sich die entsprechenden Storage-Systeme orientieren. So werden im ersten Schritt sämtliche Daten für die Lernphase gesammelt, und das aus ganz unterschiedlichen Quellen, was ein System erfordert, das sowohl mit strukturierten als auch unstrukturierten Datentypen klar kommt.

Darüber hinaus muss man sich die Frage stellen: Habe ich überhaupt genug Speicherplatz für all die Daten. Hierbei geht es also um Aspekte wie die passenden Schnittstellen und die richtigen  Speichersysteme wie NAS, die ich hierfür brauche.

Als Nächstes sind die Verarbeitung und die Präparation an der Reihe. Hierzu gehört vor allem das sogenannte Taggen, also das Versehen der Daten mit Metatags. Die helfen dem Data Scientist, Daten von Anfang besser zuordnen und kategorisieren zu können. Denn wie die Praxis zeigt, verschwenden Datenwissenschaftler Zweidrittel ihrer Arbeitszeit mit dem Suchen und Auffinden der richtigen Daten. Was angesichts ihrer Stundensätze ein kaum hinnehmbarer Zustand ist.

Sobald die Verschlagwortung der Daten abgeschlossen ist, wird dieser meist riesige Datensatz in den Rechner geladen, der sie verarbeiten soll, was zum einen enorme Rechenzeiten und zum anderen schnelle Datenverbindungen erfordert.

Aber auch das Thema Datenarchivierung spielt in diesem Kontext mitunter eine gewichtige Rolle, also muss das Speichersystem auch hierfür geeignet sein. Denkbar sind hier Fälle des Autonomen Fahrens, bei denen es beispielsweise zu einem Unfall kommt, dessen rechtliche Lage eindeutig geklärt werden muss. Hierbei dreht es sich zum Beispiel um Fragen nach den Algorithmen, mit deren Hilfe das KI-Modell erstellt wurde, etc.

 Mit „MetaOcean“ gibt IBM Datenwissenschaftlern das richtige Tool an die Hand

Hinter dem Projekt „MetaOcean“ verbirgt sich der Versuch seitens IBM, vor allem Data Scientists bei der Suche nach den richtigen Daten für ihr spezielles KI-Projekt bestmöglich zu unterstützen. Hiermit lassen sich Daten von vornherein mit den passenden Schlagwörter versehen, also taggen. Das Tool kann zudem Datendoubletten ausfindig machen, was den notwendigen Datenbestand von Anfang an auf ein Minimum reduziert. Darüber hinaus erfolgt das Verschlagworten von Daten teilweise automatisiert, sodass die KI-Wissenschaftler diese Arbeit nicht ausschließlich manuell erledigen müssen.

Das Gute daran: IBM wird das Projekt „MetaOcean“ im Laufe des Herbst in ein „richtiges“ Produkt überführen, das die Datenwissenschaftlern dieser Welt beim schnellen Auffinden der richtigen Daten unterstützen und so ihre kostbare Zeit schonen soll.

Das komplette Videointerview mit Ralf Colbus

Disclaimer: Für das Erstellen dieses Videoblogpost hat mit IBM Deutschland beauftragt. Bei der Ausgestaltung der Inhalte hatte ich freie Hand.

Hans-Dieter Speidel LG Electronics, über Cloud-Monitore

Videoblog: „Cloud-All-in-One-PCs sorgen für aufgeräumte Schreibtische“

Während einer IDC-Veranstaltung zum Thema Cloud Computing habe ich dieses Interview mit Heinz-Dieter Speidel von LG Electronics zum Thema Cloud-Monitore geführt. Darin spricht er über die Vorzüge spezieller Cloud-Devices und warum sich LG damit auf dem richtigen Weg sieht.

LG Electronics und die Cloud – ein nicht so offensichtliches Gespann

Eines ist klar: Die Begriffe „LG Electronics“ und „Cloud“ gehören nicht unbedingt zum Standardrepertoire eines IT-interessierten Anwenders. Dabei ist doch die Verbindung zwischen Cloud Computing und LG-Monitoren gar nicht so abwegig. Allerdings, und das durfte ich im Sofitel München lernen, findet man Cloud-Monitore vor allem im Projektgeschäft von LG, und das ziemlich erfolgreich. So hat erst eine große US-Bank mehrere 1.000 Stück dieser Spezialbildschirme für seine Mitarbeiter bestellt. Davon liest man normalerweise nichts in den Medien.

Darüber hinaus ist LG verstärkt im sogenannten Thin-Client-Geschäft unterwegs. Das sind diese auf ein Minimum reduzierten Mini-PCs, die mit einem eher rechenschwachen Prozessor, ein wenig Arbeitsspeicher und sonst nichts ausgestattet sind. Diese Geräte greifen via Inter- bzw. Intranet auf Server-Anwendungen zu, benötigen daher außer der passenden Remote-Client-Software keine weiteren Programme und damit auch keine Festplatte oder ähnlichen Speicher.

Daher war es naheliegend, beide Gerätetypen – also Cloud-Monitor und Thin-Client-PC – in einem einzigen Device zusammenzufassen, was dann als All-in-One-TC-Lösung im November auf den Markt kommt. Was LG erst einmal ein Alleinstellungsmerkmal bescheren wird. Mal sehen, wann andere Hersteller auch auf diese doch recht naheliegende Idee kommen.

LG wird diese Geräte in drei Modellen feilbieten: Als kleine Box, mit 24-Zoll- und als 38-Zoll-Monitor, der vor allem in Banken und Versicherungen zum Einsatz kommen wird.

Der Einsatz von Cloud-Monitoren ist durchaus sinnvoll

Jetzt, wo diese neue Gerätekategorie klarer wird, fallen einem auch ganz schnell diverse gute Gründe für solch ein All-in-One-Device ein:

  • Der Schreibtisch ist wesentlichen aufgeräumter, da nur noch ein Bildschirm auf dem Tisch steht
  • es gibt deutlich weniger Kabel rund um den Arbeitsplatz
  • diese Cloud-PCs kommen ohne Lüfter aus, was für mehr Ruhe sorgt
  • das Ganze ist stromsparend, da die Geräte nur etwa ein Drittel an Energie im Vergleich zu herkömmlichen Lösungen benötigen.

Cloud-Monitore können aber noch mehr

Diese neue Klasse von All-in-One-Monitoren für Cloud-Anwendungen sind universell einsetzbar, womit sich ihre Anschaffungskosten relativ schnell amortisieren. Hinzu kommt, dass sich die LG-Geräte entweder mit vorinstalliertem Windows 10 IoT oder ganz ohne Betriebssystem erwerben lassen. Und zu guter Letzt verfügen diese Cloud-Bildschirme über einen 4K-tauglichen HDMI-Anschluss, womit sich das Gerät um einen weiteren Monitor ergänzen lässt, was vor allem in Banken, Versicherungen und anderen Finanzdienstleistungsunternehmen ein unabdingbares Kaufargument darstellt.

Das vollständige Interview mit Heinz-Dieter Speidel

SECUR'IT CUP 18 von Kaspersky

IT-Security-Lösung entwickeln und 10.000 US-Dollar gewinnen

Egal, wo man hinhört, es mangelt derzeit an IT-Fachpersonal, und das querbeet durch alle Branchen. Da ist es nur logisch und konsequent, wenn Firmen wie der Cybersicherheitsexperte Kaspersky Lab neue Wege suchen, die zu der Entdeckung künftiger Talente beitragen sollen.

Konkret handelt es sich um einen weltweit ausgeschriebenen Wettbewerb mit dem Namen SECUR’IT CUP 18, mit dessen Hilfe neue Ideen und neue Talente rund um das Thema IT-Sicherheit gesucht und gefunden werden können. Hierbei stehen drei Security-Bereiche zur Auswahl, für die intelligente, innovative und möglicherweise gewinnbringende Lösungen erdacht werden sollen.

Konkret sind das

Für diese drei Marktsegmente sollen Ideen entworfen werden, die zu pragmatischen Lösungsansätzen führen. Hierfür müssen alle interessierten und teilnehmenden Studentinnen und Studenten aller Fachrichtungen zwischen 18 und 28 Jahren bis spätestens

30. September 2018

folgende Dinge für die Vorauswahl einreichen: eine Kurzbeschreibung der Idee (maximal 1.000 Zeichen) und den eigenen Lebenslauf in Videoform.

Die glücklichen Auserwählten haben dann bis zum 4. November 2018 Zeit, eine detaillierte Beschreibung der Idee sowie einen Prototypen zu entwickeln und einzureichen. Wird man dann von Kaspersky Lab zum Finale am 29. und 30. November 2018 nach Budapest eingeladen, hat man tatsächlich die Chance,

10.000 US-Dollar zu gewinnen!

Wenn das mal nix ist. Also, worauf wartet Ihr noch! Auf diesen Link und dann auf PARTICIPATE klicken, Daten ausfüllen und mitmachen. Ich wünsche euch viel Glück!

Disclaimer: Für die Veröffentlichung dieses Beitrags hat mich Kaspersky Lab beauftragt.

Peter Wüst von NetApp Deutschland über Multi-Cloud und andere Trends

Videochat: „Multi-Cloud-fähige Container-Apps sind die Zukunft“

Während einer IDC-Veranstaltung zum Thema Cloud Computing habe ich dieses Interview mit Peter Wüst von NetApp Deutschland zum Thema Multi-Cloud und Container-Programmierung geführt. Darin spricht er über den kommenden Multi-Cloud-Trend und ob schon alle darauf vorbereitet sind.

NetApp-Kunden profitieren von Cloud Infrastructure und Cloud Data Services

Unter dem Betriff „Cloud Infrastructure“ subsumiert NetApp vor allem den Begriff „Konvergierte Infrastrukturen“, mit denen private Cloud-Umgebungen innerhalb des eigenen Rechenzentrums ermöglicht werden. Dort kommen zahlreiche Standards zum Einsatz, aber auch für den Einsatz von effizienten Workflows wird dort mithilfe von NetApp-Techniken gesorgt.

Auf der anderen Seite unterstützt NetApp mit seinen Cloud Data Services vor allem diejenigen Kunden, die auf Public-Cloud-Infrastrukturen nicht verzichten wollen. Hierfür werden Cloud-Techniken wie AWS (Amazon Web Services), Microsoft Azure und Google Cloud Plattform eingesetzt.

Nicht alle Unternehmen sind auf den Multi-Cloud-Boom vorbereitet

Wie die obige Grafik eindrucksvoll zeigt, werden Multi-Cloud-Installationen innerhalb der nächsten zwei Jahre drastisch zunehmen, und das aus gutem Grund. Schließlich stellen Multi-Cloud-Installationen das Beste der unterschiedlichen Cloud-Techniken zur Verfügung. Damit hat man mithilfe dedizierter Schnittstellen gleichzeitigen Zugriff auf mehrere Cloud-Services innerhalb des eigenen Rechenzentrums und der Public Cloud.

Doch leider sind noch nicht alle Beteiligten auf die Multi-Cloud-Transformation vorbereitet. Daher wird es als Nächstes die primäre Aufgabe sein, Prozesse und Workflows für die Multi-Cloud entsprechend vorzubereiten, und das sowohl technologisch als auch kaufmännisch.

Cloud-Anwendungen per Knopfdruck kann die richtige Lösung sein

Spricht man über das Thema Cloud-Know-how, gelangt man schnell zu der Erkenntnis, dass hier immer noch viel Aufklärungsarbeit vonnöten ist. Daher gehört zu den aktuellen Bestrebungen, mithilfe der richtigen Experten eine Art Service-Katalog aufzubauen, der per Mausklick die gewünschten Cloud-Dienste zur Verfügung stellt. Damit wird die Komplexität einer Cloud-Infrastruktur aufs Wesentliche reduziert, womit der Anwender mit einfachsten Mitteln genau die Funktionen installieren und nutzen kann, die er gerade benötigt.

Micro-Services, eines der zentralen Cloud-Trends

Mit Micro-Services beschäftigen sich derzeit eine Vielzahl an Cloud-Unternehmen und -Dienstleistern. Der Grund hierfür ist recht simpel: Immer da, wo neue Software entwickelt wird, sollte sie per Design Multi-Cloud-fähig sein. Aus diesem Grund sollten für die Entwicklung dieser neuen Anwendungen und Apps Container-relevante Techniken wie Kubernetes, Docker, etc. in Betracht gezogen werden. Damit lassen sich diese cloud-tauglichen Applikationen ganz einfach per Schnittstelle (API) innerhalb der Public oder Private Cloud einbinden..

Das Videointerview mit Peter Wüst von NetApp in voller Länge