Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Das ist die pCloud: Funktionen, Preise, Besonderheiten

Mit pCloud gibt es einen weiteren Cloud-Anbietern am Markt, der bewusst bestimmte Dinge anders machen will als Dropbox und Co. Dazu gehören vor allem die eingebauten Sicherheitsmaßnahmen, aber auch Funktionen wie das Sichern und Wiederherstellen von (Online-)Daten unterscheiden sich von den bekannteren Diensten.

Das bekommen Sie alles mit pCloud

Die Anmeldung beim Cloud-Service pCloud ist denkbar einfach, zumindest für Facebook-Nutzer. Damit gelingt der Zugang zur Cloud-Umgebung mit wenigen Mausklicks.

Der nächste Schritt ist die Wahl des passenden Clients, aber auch hier hat pCloud alles zu bieten, was man von solch einem Service erwartet. Ob Windows, macOS, Linux, iOS oder Android – für jede Plattform steht die richtige Client-Software bereit. Selbst Windows Mobile und Browser-Erweiterungen für Google Chrome, Firefox und Opera gibt es. Schade nur, dass Apple Safari und der Internet Explorer außen vor bleiben.

pCloud Drive zum Verwalten sämtlicher Daten

Ebenfalls erwartbar, aber trotzdem sehr praktisch, ist der pCloud-eigene Explorer, genannt pCloud Drive. Damit lassen sich sämtliche Dateien wie gewohnt verwalten. Dies geschieht mithilfe des Client-Programms, das sich nahtlos in die Dateiumgebung des jeweiligen Betriebssystems integriert. Damit steht die gesamte pCloud-Umgebung wie gewohnt als virtuelles Laufwerk zur Verfügung. Per Rechtsklick können einzelne Ordner oder komplette Speichermedien in die pCloud eingebunden werden.

pCloud Drive integriert sich nahtlos ins OS des Rechners

Auch klar: Einzelne Dateien können per Link freigegeben werden genauso wie komplette Ordnerinhalte. Diese lassen sich zudem für die Offline-Nutzung markieren.

In Sachen Preismodell bietet pCloud drei Varianten: monatlich, jährlich oder Lifetime, und das entweder als Premium- oder Premium Plus-Variante. Der wesentliche Unterschied beider Varianten besteht in der Größe des verfügbaren Cloud-Speichers (500 GigaByte vs. 2 TeraByte) sowie des Download-Traffic (ebenfalls 500 GB vs. 2 TB). Alle anderen Funktionen sind in sämtlichen Preismodellen enthalten. Bemerkenswert ist vor allem das Lifetime-, also Lebenslang-Modell, bei dem man tatsächlich nur einmalig zahlt und sich dann nie wieder Gedanken um weitere mögliche Kosten machen muss.

Das unterscheidet pCloud von Dropbox und Co.

Auf den ersten Blick handelt es sich bei pCloud um einen weiteren Cloud-Anbieter, beim zweiten Hinsehen fallen allerdings diverse Unterschiede auf. So lassen sich sämtliche Daten bereits auf Client-Seite verschlüsseln. Dieser Dienst nennt sich pCloud Crypto und erlaubt das selektive Verschlüsseln einzelner Dateien oder kompletter Ordner. Damit muss nicht jedes einzelne Bild oder unkritische Dokumente verschlüsselt werden, sondern nur das, was wirklich vertraulich ist. Für dieses Mehr an Sicherheit wird ein Obolus fällig, auch hier wird unterschieden zwischen einem monatlichen, jährlichen und einem Lifetime-Plan.

Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Sehr fortschrittlich ist auch der Umgang mit Daten. So werden Funktionen wie die Versionierung und Wiederherstellung von Daten angeboten, genauso wie das Hochladen von Daten per URL. Praktisch ist obendrein die Möglichkeit, Daten von anderen Cloud-Diensten (Dropbox, OneDrive und Google Drive) sowie die Bilder von Facebook und Instagram in der pCloud-Umgebung zu sichern. Dieser Vorgang wird einmalig aktiviert und geschieht fortan automatisch.

Schick ist ebenfalls die Option, Videos und Musikstücke direkt aus der pCloud-Weboberfläche abspielen zu können. Dies erspart den Aufruf eines externen Programms und erlaubt sogar das Erstellen von Playlisten und anderen Dingen.

Mit pCloud lassen sich automatisiert Backups der Onlinedaten generieren

So wird aus pCloud eine sichere Cloud-Umgebung

Natürlich wird bei einem Cloud-Dienst wie pCloud die Sicherheit groß geschrieben. Dazu gehört neben dem bereits erwähnten Verschlüsselungsdienst pCloud Crypto auch eine Zwei-Wege-Authentifizierung. Dies geschieht ganz traditionell mithilfe eines Codes, der auf Anforderung via SMS zugestellt wird. Ein weiteres Sicherheitsfeature betrifft die mobilen Anwendungen: Hier kann ein persönlicher Zugangscode eingerichtet werden, der jedesmal beim Zugriff auf die pCloud-App angefordert wird. Für eine bestmögliche Sicherheit.

pCloud erhöht dank Zwei-Faktor-Authentifizierung deutlich

Disclaimer: Für das Verfassen und Veröffentlichen dieses Beitrags hat mich die pCloud AG beauftragt. Bei der Auswahl der Inhalte hatte ich völlig frei Hand.

Kurt Knochner von Fortinet über Cloud-Security

Videoblog: „Für die Cloud-Inhalte sind die Anwender selbst verantwortlich“

Dieses Interview habe ich im Rahmen eines IDC-Events mit Kurt Knochner des Sicherheitsexperten Fortinet geführt. Darin spricht er über die Bedrohung, denen gerade Smart-Home-Geräte ausgesetzt sind, über das Fortinet-Produkt FortiNAC und über die wichtigsten Maßnahmen, die eigene Cloud-Umgebung abzusichern.

Smart-Home-Geräte sind ein beliebtes Angriffsziel von Hackern

Smart-Home-Devices stellen in punkto Sicherheit für viele Hacker keine allzu große Herausforderung dar, und das aus gutem Grund. Denn die äußerst kurzen Entwicklungszzyklen führen dazu, dass diese Geräte nicht ausreichend gesichert sind gegen Angriffe von außen. Dabei wäre es auch in diesem Fall von großer Wichtigkeit, die Erkenntnisse in Sachen Security der letzten 20 Jahre in Smart-Home-Devices einfließen zu lassen.

Das Bedenkliche an dieser Entwicklung ist nicht nur die Angreifbarkeit der Smart Home-Devices, sondern dass damit auch das gesamte Netzwerk in Gefahr gerät. Dazu tragen obendrein Tools bei, die einen automatisierten Angriff ganz einfach machen.

Mit „FortiNAC“ lassen sich komplette Netzwerke sicherer machen

Mit dem Sicherheitstool „FortiNAC“ bietet die Firma Fortinet eine automatisierte Möglichkeit, sämtliche Netzwerkgeräte zu erkennen und zu analysieren. Auf dieser Basis lassen sich einzelne Geräte mit bestimmten Regeln belegen, so dass die IT-Admins einer Firma jederzeit wissen, wer was im Netzwerk gerade macht. Damit lässt sich ein holistischer, also ganzheitlicher Ansatz verfolgen.

Und genau an dieser Stelle kommt FortiNAC ins Spiel. Diese Sicherheitssoftware tauscht mit anderen Anwendungen von Fortinet relevante Telemetrie- und Threat-Intelligence-Daten aus, was ein Gesamtbild des gesamten Netzwerks ermöglicht. Damit lässt sich recht einfach bestimmen, welche Geräte, basierend auf bestimmten Regeln, was tun darf. Dies hat eine höhere Transparenz sowie eine bessere Kontrolle des gesamten Netzwerks zur Folge.

Cloud-Umgebungen folgen den bekannten Sicherheitsstandards

Grundsätzlich kann man festhalten, dass für Cloud-Infrastrukturen die bekannten Sicherheitsmechanismen existieren und dort auch angewendet werden. Für diesen Bereich ist nicht der Anwender selbst, sondern der Cloud Service Provider verantwortlich.

Ganz anders sieht es mit den Inhalten einer Cloud aus. Hierfür sind die Firmen und Anwender selbst zuständig, und dies am besten auf Basis der Mechanismen und Regeln der letzten 20 Jahre. Dazu gehören Dinge wie Vertraulichkeit, Verschlüsselung, Zugriffssteuerung, und so fort.

Beachtet man diese und weitere Security-Regeln, ist das Absichern von Cloud-Umgebungen ganz ähnlich dem einer herkömmlichen IT-Infrastruktur. Hierbei spielen allerdings die verschiedenen Cloud-Deployment-Modelle einen nicht zu unterschätzen Faktor. So gelten für SaaS-Anwendungen andere Sicherheitsbestimmung als für Paas- oder IaaS-Plattformen.

Zusammenfassend kann man also sagen, dass man zwischen der Sicherheit einer Cloud-Plattform und den Cloud-Anwendungen selbst unterscheiden muss, die darauf ausgeführt werden. Macht man sich diesen Umstand klar, ist das Absichern von Cloud-Infrastrukturen keine Hexerei.

Das vollständige Interview mit Kurt Knochner

Peter Ganten von Univention über Künstliche Intelligenz und Transparenz

Videoblog: „Die KI hält für uns Menschen großes Potential bereit“

Peter Ganten ist Gründer und Geschäftsführer der Univention GmbH aus Bremen, einem Software-Hersteller für Server- und Identitätsmanagement. Er ist bekennender Open-Source- und KI-Begeisteter, worüber ich mit ihm im folgenden Skype-Interview ausführlich gesprochen habe. Exklusive Einblicke in einen für Univention interessanten und aufstrebenden Bereich.

Herausforderung oder Risiko – das ist hier die KI-Frage

Über eines ist sich Herr Ganten völlig im Klaren: Die Künstliche Intelligenz mit all ihren Möglichkeiten und technischen Disziplinen hält ein unglaubliches Potential für uns Menschen und die Menschheit an sich bereit. Hier steht zum Beispiel die Medizin im Fokus, wo mithilfe der KI auf Patienten individuell zugeschnittene Medikamente möglich sind, aber auch die Früherkennung von Krankheiten verbessert werden kann. Zudem wird der Energiesektor von der KI maßgeblich profitieren genauso wie das Bildungswesen, das SchülerInnen und StudentInnen ganz neue Möglichkeiten an die Hand geben wird.

Gleichzeit können und werden neue KI-basierte Ansätze dafür sorgen, dass uns tendenziell monotone Aufgaben abgenommen werden. Die Rede ist vom Autonomen Fahren, das uns vom lästigen Steuern eines PKW befreit und wir stattdessen die Fahrt mit dem Auto für andere, sinnvollere Dinge nutzen können.

Aber, und auch da ist Herr Ganten ganz klar, dürfen wir nicht so naiv sein und glauben, dass die KI ausschließlich zum Wohle der Anwender genutzt werden kann. Daher sind wir alle dazu aufgefordert, richtig hinzusehen und die richtigen Fragen zu stellen, die sich rund um das Thema Künstliche Intelligenz ranken.

Ethik und Künstliche Intelligenz bedingen einander

So lautet eine der drängenden Fragen zum Thema KI aus Sicht von Herrn Ganten: Wie schützen wir uns bestmöglich vor Manipulationen? Dies kann zum Beispiel mithilfe von größtmöglicher Transparenz vermieden werden. Denn immer dann, wenn Algorithmen, Daten und andere Faktoren nicht öffentlich zugänglich sind, sind der Manipulation Tür und Tor geöffnet. So muss man sich ohne genaue Einblicke in KI-Anwendungen stets darauf verlassen, dass damit auch das gemacht wird, wozu die KI-Applikation eigentlich konzipiert wurde – und nicht etwa das Gegenteil davon.

Daher lautet eine der ethischen Forderungen: Die KI muss jederzeit öffentlich und nachprüfbar sein, und Unternehmen müssen sicher stellen, dass die vorhandenen Daten stets zum Wohle der Anwender und der Menschen eingesetzt werden.

Mit der Anwendung von KI nehmen die Risiken der „Erpressbarkeit“ zu

In einem seiner zahlreichen Vorträge spricht Herr Ganten von der „Erpressbarkeit der Anwender“, die im Kontext von KI eine ernstzunehmende Herausforderung darstellt. Gemeint sind damit Unternehmen und Organisationen, die auf die KI-Algorithmen von Cloud Service Providern zurückgreifen und dabei oft hochsensible Daten zu Verarbeitungszwecken bereitstellen.

So wird beispielsweise im Falle von Microsoft Office 365 jede Interaktion genauesten aufgezeichnet. Damit ist bekannt, welche Anwender mit welchen Applikationen arbeiten, welche Daten dabei mit anderen geteilt werden, und so fort. Das kann dazu führen, dass sich diese Daten mit anderen Daten in geeigneter Art und Weise verknüpfen lassen. So ließen sich beispielsweise die fachlichen Fertigkeiten bestimmter Anwender via LinkedIn an Recruiter oder andere Personen  transferieren, ohne dass der Arbeitgeber dieser Mitarbeiter Kenntnis davon erhält.

Und genau diese Möglichkeiten können letztlich dazu führen, dass Anbieter wie Microsoft neue Geschäftsmodelle entwickeln, die Unternehmen gegen Bezahlung garantieren, dass ihre in der Cloud bekannten Daten nicht für andere Zwecke missbraucht werden.

Open Source-Anwendungen stellen einen Ausweg aus dem Transparenzdilemma dar

Für ein Höchstmaß an Transparenz und Zuverlässigkeit entwickelt Univention sämtliche Lösungen als Open Source-Produkte, was den Nutzern diverse Vorteile bietet. So wissen die Kunden von Herrn Ganten jederzeit, was dort stattfindet, Programme lassen sich weiterentwickeln, und so fort. Das erhöht das Vertrauen in die Firma, was sich auf zahlreiche Bereiche positiv auswirkt. Dazu gehört das Thema Sicherheit, aber auch Innovationen werden damit gefördert, da quelloffene Systeme und Anwendungen relativ frei sind von vorgegebenen Update-Zyklen, proprietären Schnittstellen und vielem mehr.

Das Interview mit Peter Ganten in vollständiger Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma ChannelBuzz beauftragt.

Thomas Harrer von IBM über KI und Daten

Videoblog: „Die KI wird uns helfen, die Welt besser zu verstehen“

Dieses Interview habe ich auf den IBM Storage Strategy Days 2018 mit Thomas Harrer geführt. Darin spricht er über die Notwendigkeit guter und valider Daten für KI-Anwendungen und was das für aktuelle und künftige Storage-Systeme bedeutet.

Die Datenexplosion der nächsten Jahre und ihre Folgen

Eine der wesentlichen Grundvoraussetzungen für eine funktionierende Künstliche Intelligenz ist das Bereitstellen und Vorhalten der benötigten Daten, die meist in großer Zahl vorliegen. Daher ist die richtige Storage-Strategie unerlässlich, will man die KI bestmöglich einsetzen und nutzen.

Eine Besonderheit kommt hierbei den unstrukturierten Daten zu, die im Verhältnis zu den strukturierten Daten deutlich schneller wachsen. Diese erfordern sehr viel leistungsfähigere und größere Speichersysteme, da hier die Datenmengen exponentiell wachsen. Das lässt sich sehr gut anhand einiger markanter Zahlen verdeutlichen.

Bis zum Jahr 2000 wurden weltweit etwa 2 Exabyte an Daten gespeichert. Das betraf alles von Büchern über Filme und anderen Informationen. Umgerechnet entspricht das 2.000 Petabyte. Mittlerweile werden 14 Exabyte an Daten generiert – und zwar pro Tag, woraus sich eine weltweit gespeicherte Datenmenge am Jahresende ergibt, die sich auf unglaubliche 20 Zettabyte beläuft.  Das sind 1.000.000.000.000.000.000.000 Bytes, also eine Million mal 1 Million mal eine Million mal 1.000.

Und diese Entwicklung schreitet weiter voran. So schätzen Experten, dass bis zum Jahr 2025 die Menschheit in etwa 165 Zettabyte an Daten generieren wird. Und was das für die benötigten Speichersysteme bedeutet, kann man sich wohl in etwa ausmalen.

Bereiche wie die Medizin treiben große Datenmenge voran

Dank medizinischer Apparaturen wie Mikroskope, Röntgengeräte, etc. werden schon seit vielen Jahren kontinuierlich Daten gesammelt und gespeichert. Hinzu kommt jetzt die Möglichkeit, das menschliche Genom immer kostengünstiger und besser analysieren und speichern zu können, wofür „nur“ etwa 700 Megabyte Datenspeicher erforderlich sind.

Will man allerdings noch das Genom sämtlicher menschlicher Bakterien entschlüsseln und protokollieren, verhält sich das gleich völlig anders. Hier kommen ganz schnell Terabyte an Daten zusammen, und das pro Patient! Was aber gleichzeitig bedeutet, dass die Erkenntnisse daraus neue Therapieformen ermöglichen, mit denen sich Patienten immer individueller behandeln lassen.

Die Künstliche Intelligenz hilft, die Welt besser zu verstehen

Die KI soll und wird uns helfen, die Welt anhand von Daten besser zu verstehen. Als Beispiel seien hier Videobilder zu nennen, die Geschehnisse aufzeichnen, die Bilder liefern für bestimmte Lebenslagen, und so fort. Klar ist hierbei, dass so sehr schnell riesige Datenmengen entstehen, die obendrein mit den typischen prozeduralen Algorithmen gar nicht richtig erfasst und verstanden werden können.

Daher sind neue Konzepte und Ansätze erforderlich, die vor allem auf Basis unstrukturierter Daten die Informationen liefern, die wir brauchen. Dazu gehören beispielsweise neuronale Netze, die mit diesen Daten ganz anders umgehen können und auch deutlich lernfähiger sind als die herkömmlichen Rechenansätze. So hilft die KI selbstfahrenden Autos, Gegenstände auf der Fahrbahn besser und schneller zu erkennen, weil sie permanent dazu lernen. Damit können autonom betriebene Fahrzeuge in Echtzeit entscheiden, wann sie bremsen sollen oder einem Hindernis einfach nur ausweichen können.

Das und vieles mehr wird uns helfen, die Welt ein bisschen verständlicher zu machen und die Automatisierung vieler Abläufe voranzutreiben.

Das komplette Videointerview mit Thomas Harrer

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Ein weiteres Interview von den IBM Storage Strategy Days 2018

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

 

Cloud-Sync

So geht’s: das eigene virtuelle Home-Office

Wir alle werden jeden Tag ein Stückchen mobiler, nur unsere Arbeitsumgebung scheint sich dieser Veränderung nicht im selben Tempo anzupassen. Dabei lässt sich mit wenigen und einfachen Schritten das eigene virtuelle Home-Office verwirklichen. Dieser Beitrag zeigt, wie das funktioniert.

Die Vorteile des eigenen virtuellen Home-Office’ lassen sich mit einem Satz zusammenfassen: Man hat immer und von überall Zugriff auf seine Daten und Anwendungen, und das ganz sicher und zuverlässig. Vorausgesetzt, man berücksichtigt drei wichtige Aspekte, von denen im folgenden die Rede sein soll.

Aspekt #1: Der eigene zentrale, lokale Datenspeicher

Was im ersten Moment wie ein Widerspruch erscheint, entpuppt sich beim zweiten Hinsehen als die perfekte Mischung aus der herkömmlichen lokalen Datenspeicherung und einer cloud-basierten Datenumgebung. IT-Experten nennen das Private-Cloud-Strukturen und sehen darin die richtige Mixtur aus Datensicherheit und Datenkomfort.

Denn zum einen bleiben die schützenswerten Daten auf dem lokalen, meist in der Firma beheimateten Datenspeicher wie zum Beispiel einem NAS (Network Attached Storage; zu dt. Netzwerk-basierter Speicher). Damit behalten die Anwender und Eigentümer die volle Kontrolle über ihre Daten. Und zum anderen wird mithilfe geeigneter Tools und Techniken der Datenbestand in die Cloud „gespiegelt“, was den Zugriff auf die Daten von jedem Ort der Welt aus erlaubt.

Wichtig dabei ist vor allem, dass keine Paralellstrukturen aufgebaut werden, sondern die Basis des Ganzen eine lokale Ordnerstruktur darstellt, die dann in geeigneter Art und Weise in die Cloud migriert und synchronisiert werden. Damit müssen Daten nicht an zwei Orten (lokaler Speicher + Cloud) verwaltet werden, sondern es gibt nur einen Ursprung (das lokale Speichermedium), die in die Cloud gespiegelt werden.

Aspekt #2: Auf den richtigen Sync-Client kommt es an

Für die Migration und Synchronisation der lokalen Daten in und mit der Cloud-Umgebung ist selbstverständlich ein Software-Werkzeug vonnöten, dass die Anwender im besten Sinne bei der Datenspeicherung in die Cloud unterstützt. Dieser sogenannte Sync-Client sollte auf keinen Fall sämtliche Daten in die Cloud transferieren und damit allen zugänglich machen. Denn in einem Unternehmensverbund ist es von größter Wichtigkeit, dass einzelne Datensätze nur ganz bestimmten Anwendern zur Verfügung stehen.

Daher sollte das Tool individuell einstellbare Zugriffs- und Freigaberechte unterstützen, was die Sicherheit der Cloud-Kollaboration deutlich erhöht. Zudem sollte der Sync-Client über Admin-Kontroll-Funktionen und eine  Kalendersynchronisation verfügen. Solch ein Tool ist beispielsweise die Open-Source-Software Seafile, die Cloud-Anbieter wie luckycloud für die Synchronisation und Migration der Daten in die Cloud einsetzen.

Aspekt #3: Cloud-Backups richtig nutzen

Schon länger ist die Rede von der sogenannten 3-2-1-Backup-Regel, die auch in Zeiten von Cloud-Speichern zur Anwendung kommen sollte. Damit folgt man der Empfehlung zahlreicher IT-Experten, von seinen Daten regelmäßig drei Sicherheitskopien mithilfe zweier unterschiedlicher Speichertechniken anzufertigen, also zum Beispiel auf Festplatte und Magnetband. Davon wiederum wird eine Kopie mit dem eigenen Cloud-Speicher synchronisiert. Das hat den großen Vorteil, dass im Falle eines Daten- bzw. Datenspeicherverlustes stets eine Kopie unversehrt bleibt. Das macht einen Daten-GAU sehr, sehr unwahrscheinlich.

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Ralf Colbus über KI-taugliche Speichersysteme

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

Dieses Interview habe ich mit Ralf Colbus von IBM Deutschland anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über die Rolle von Strorage-Systemen im Kontext leistungshungriger KI-Anwendungen, wie sie immer häufiger zum Einsatz kommen. Und über ein Tool, das künftig Datenwissenschaftlern helfen soll, Daten zielgerichteter und schneller zu finden.

Storage-Lösungen für KI-Anwendungen müssen zahlreichen Anforderungen genügen

KI-Anwendungen durchlaufen verschiedene Phasen, und vor allem daran sollten sich die entsprechenden Storage-Systeme orientieren. So werden im ersten Schritt sämtliche Daten für die Lernphase gesammelt, und das aus ganz unterschiedlichen Quellen, was ein System erfordert, das sowohl mit strukturierten als auch unstrukturierten Datentypen klar kommt.

Darüber hinaus muss man sich die Frage stellen: Habe ich überhaupt genug Speicherplatz für all die Daten. Hierbei geht es also um Aspekte wie die passenden Schnittstellen und die richtigen  Speichersysteme wie NAS, die ich hierfür brauche.

Als Nächstes sind die Verarbeitung und die Präparation an der Reihe. Hierzu gehört vor allem das sogenannte Taggen, also das Versehen der Daten mit Metatags. Die helfen dem Data Scientist, Daten von Anfang besser zuordnen und kategorisieren zu können. Denn wie die Praxis zeigt, verschwenden Datenwissenschaftler Zweidrittel ihrer Arbeitszeit mit dem Suchen und Auffinden der richtigen Daten. Was angesichts ihrer Stundensätze ein kaum hinnehmbarer Zustand ist.

Sobald die Verschlagwortung der Daten abgeschlossen ist, wird dieser meist riesige Datensatz in den Rechner geladen, der sie verarbeiten soll, was zum einen enorme Rechenzeiten und zum anderen schnelle Datenverbindungen erfordert.

Aber auch das Thema Datenarchivierung spielt in diesem Kontext mitunter eine gewichtige Rolle, also muss das Speichersystem auch hierfür geeignet sein. Denkbar sind hier Fälle des Autonomen Fahrens, bei denen es beispielsweise zu einem Unfall kommt, dessen rechtliche Lage eindeutig geklärt werden muss. Hierbei dreht es sich zum Beispiel um Fragen nach den Algorithmen, mit deren Hilfe das KI-Modell erstellt wurde, etc.

 Mit „MetaOcean“ gibt IBM Datenwissenschaftlern das richtige Tool an die Hand

Hinter dem Projekt „MetaOcean“ verbirgt sich der Versuch seitens IBM, vor allem Data Scientists bei der Suche nach den richtigen Daten für ihr spezielles KI-Projekt bestmöglich zu unterstützen. Hiermit lassen sich Daten von vornherein mit den passenden Schlagwörter versehen, also taggen. Das Tool kann zudem Datendoubletten ausfindig machen, was den notwendigen Datenbestand von Anfang an auf ein Minimum reduziert. Darüber hinaus erfolgt das Verschlagworten von Daten teilweise automatisiert, sodass die KI-Wissenschaftler diese Arbeit nicht ausschließlich manuell erledigen müssen.

Das Gute daran: IBM wird das Projekt „MetaOcean“ im Laufe des Herbst in ein „richtiges“ Produkt überführen, das die Datenwissenschaftlern dieser Welt beim schnellen Auffinden der richtigen Daten unterstützen und so ihre kostbare Zeit schonen soll.

Das komplette Videointerview mit Ralf Colbus

Disclaimer: Für das Erstellen dieses Videoblogpost hat mit IBM Deutschland beauftragt. Bei der Ausgestaltung der Inhalte hatte ich freie Hand.

Hans-Dieter Speidel LG Electronics, über Cloud-Monitore

Videoblog: „Cloud-All-in-One-PCs sorgen für aufgeräumte Schreibtische“

Während einer IDC-Veranstaltung zum Thema Cloud Computing habe ich dieses Interview mit Heinz-Dieter Speidel von LG Electronics zum Thema Cloud-Monitore geführt. Darin spricht er über die Vorzüge spezieller Cloud-Devices und warum sich LG damit auf dem richtigen Weg sieht.

LG Electronics und die Cloud – ein nicht so offensichtliches Gespann

Eines ist klar: Die Begriffe „LG Electronics“ und „Cloud“ gehören nicht unbedingt zum Standardrepertoire eines IT-interessierten Anwenders. Dabei ist doch die Verbindung zwischen Cloud Computing und LG-Monitoren gar nicht so abwegig. Allerdings, und das durfte ich im Sofitel München lernen, findet man Cloud-Monitore vor allem im Projektgeschäft von LG, und das ziemlich erfolgreich. So hat erst eine große US-Bank mehrere 1.000 Stück dieser Spezialbildschirme für seine Mitarbeiter bestellt. Davon liest man normalerweise nichts in den Medien.

Darüber hinaus ist LG verstärkt im sogenannten Thin-Client-Geschäft unterwegs. Das sind diese auf ein Minimum reduzierten Mini-PCs, die mit einem eher rechenschwachen Prozessor, ein wenig Arbeitsspeicher und sonst nichts ausgestattet sind. Diese Geräte greifen via Inter- bzw. Intranet auf Server-Anwendungen zu, benötigen daher außer der passenden Remote-Client-Software keine weiteren Programme und damit auch keine Festplatte oder ähnlichen Speicher.

Daher war es naheliegend, beide Gerätetypen – also Cloud-Monitor und Thin-Client-PC – in einem einzigen Device zusammenzufassen, was dann als All-in-One-TC-Lösung im November auf den Markt kommt. Was LG erst einmal ein Alleinstellungsmerkmal bescheren wird. Mal sehen, wann andere Hersteller auch auf diese doch recht naheliegende Idee kommen.

LG wird diese Geräte in drei Modellen feilbieten: Als kleine Box, mit 24-Zoll- und als 38-Zoll-Monitor, der vor allem in Banken und Versicherungen zum Einsatz kommen wird.

Der Einsatz von Cloud-Monitoren ist durchaus sinnvoll

Jetzt, wo diese neue Gerätekategorie klarer wird, fallen einem auch ganz schnell diverse gute Gründe für solch ein All-in-One-Device ein:

  • Der Schreibtisch ist wesentlichen aufgeräumter, da nur noch ein Bildschirm auf dem Tisch steht
  • es gibt deutlich weniger Kabel rund um den Arbeitsplatz
  • diese Cloud-PCs kommen ohne Lüfter aus, was für mehr Ruhe sorgt
  • das Ganze ist stromsparend, da die Geräte nur etwa ein Drittel an Energie im Vergleich zu herkömmlichen Lösungen benötigen.

Cloud-Monitore können aber noch mehr

Diese neue Klasse von All-in-One-Monitoren für Cloud-Anwendungen sind universell einsetzbar, womit sich ihre Anschaffungskosten relativ schnell amortisieren. Hinzu kommt, dass sich die LG-Geräte entweder mit vorinstalliertem Windows 10 IoT oder ganz ohne Betriebssystem erwerben lassen. Und zu guter Letzt verfügen diese Cloud-Bildschirme über einen 4K-tauglichen HDMI-Anschluss, womit sich das Gerät um einen weiteren Monitor ergänzen lässt, was vor allem in Banken, Versicherungen und anderen Finanzdienstleistungsunternehmen ein unabdingbares Kaufargument darstellt.

Das vollständige Interview mit Heinz-Dieter Speidel

SECUR'IT CUP 18 von Kaspersky

IT-Security-Lösung entwickeln und 10.000 US-Dollar gewinnen

Egal, wo man hinhört, es mangelt derzeit an IT-Fachpersonal, und das querbeet durch alle Branchen. Da ist es nur logisch und konsequent, wenn Firmen wie der Cybersicherheitsexperte Kaspersky Lab neue Wege suchen, die zu der Entdeckung künftiger Talente beitragen sollen.

Konkret handelt es sich um einen weltweit ausgeschriebenen Wettbewerb mit dem Namen SECUR’IT CUP 18, mit dessen Hilfe neue Ideen und neue Talente rund um das Thema IT-Sicherheit gesucht und gefunden werden können. Hierbei stehen drei Security-Bereiche zur Auswahl, für die intelligente, innovative und möglicherweise gewinnbringende Lösungen erdacht werden sollen.

Konkret sind das

Für diese drei Marktsegmente sollen Ideen entworfen werden, die zu pragmatischen Lösungsansätzen führen. Hierfür müssen alle interessierten und teilnehmenden Studentinnen und Studenten aller Fachrichtungen zwischen 18 und 28 Jahren bis spätestens

30. September 2018

folgende Dinge für die Vorauswahl einreichen: eine Kurzbeschreibung der Idee (maximal 1.000 Zeichen) und den eigenen Lebenslauf in Videoform.

Die glücklichen Auserwählten haben dann bis zum 4. November 2018 Zeit, eine detaillierte Beschreibung der Idee sowie einen Prototypen zu entwickeln und einzureichen. Wird man dann von Kaspersky Lab zum Finale am 29. und 30. November 2018 nach Budapest eingeladen, hat man tatsächlich die Chance,

10.000 US-Dollar zu gewinnen!

Wenn das mal nix ist. Also, worauf wartet Ihr noch! Auf diesen Link und dann auf PARTICIPATE klicken, Daten ausfüllen und mitmachen. Ich wünsche euch viel Glück!

Disclaimer: Für die Veröffentlichung dieses Beitrags hat mich Kaspersky Lab beauftragt.

Peter Wüst von NetApp Deutschland über Multi-Cloud und andere Trends

Videochat: „Multi-Cloud-fähige Container-Apps sind die Zukunft“

Während einer IDC-Veranstaltung zum Thema Cloud Computing habe ich dieses Interview mit Peter Wüst von NetApp Deutschland zum Thema Multi-Cloud und Container-Programmierung geführt. Darin spricht er über den kommenden Multi-Cloud-Trend und ob schon alle darauf vorbereitet sind.

NetApp-Kunden profitieren von Cloud Infrastructure und Cloud Data Services

Unter dem Betriff „Cloud Infrastructure“ subsumiert NetApp vor allem den Begriff „Konvergierte Infrastrukturen“, mit denen private Cloud-Umgebungen innerhalb des eigenen Rechenzentrums ermöglicht werden. Dort kommen zahlreiche Standards zum Einsatz, aber auch für den Einsatz von effizienten Workflows wird dort mithilfe von NetApp-Techniken gesorgt.

Auf der anderen Seite unterstützt NetApp mit seinen Cloud Data Services vor allem diejenigen Kunden, die auf Public-Cloud-Infrastrukturen nicht verzichten wollen. Hierfür werden Cloud-Techniken wie AWS (Amazon Web Services), Microsoft Azure und Google Cloud Plattform eingesetzt.

Nicht alle Unternehmen sind auf den Multi-Cloud-Boom vorbereitet

Wie die obige Grafik eindrucksvoll zeigt, werden Multi-Cloud-Installationen innerhalb der nächsten zwei Jahre drastisch zunehmen, und das aus gutem Grund. Schließlich stellen Multi-Cloud-Installationen das Beste der unterschiedlichen Cloud-Techniken zur Verfügung. Damit hat man mithilfe dedizierter Schnittstellen gleichzeitigen Zugriff auf mehrere Cloud-Services innerhalb des eigenen Rechenzentrums und der Public Cloud.

Doch leider sind noch nicht alle Beteiligten auf die Multi-Cloud-Transformation vorbereitet. Daher wird es als Nächstes die primäre Aufgabe sein, Prozesse und Workflows für die Multi-Cloud entsprechend vorzubereiten, und das sowohl technologisch als auch kaufmännisch.

Cloud-Anwendungen per Knopfdruck kann die richtige Lösung sein

Spricht man über das Thema Cloud-Know-how, gelangt man schnell zu der Erkenntnis, dass hier immer noch viel Aufklärungsarbeit vonnöten ist. Daher gehört zu den aktuellen Bestrebungen, mithilfe der richtigen Experten eine Art Service-Katalog aufzubauen, der per Mausklick die gewünschten Cloud-Dienste zur Verfügung stellt. Damit wird die Komplexität einer Cloud-Infrastruktur aufs Wesentliche reduziert, womit der Anwender mit einfachsten Mitteln genau die Funktionen installieren und nutzen kann, die er gerade benötigt.

Micro-Services, eines der zentralen Cloud-Trends

Mit Micro-Services beschäftigen sich derzeit eine Vielzahl an Cloud-Unternehmen und -Dienstleistern. Der Grund hierfür ist recht simpel: Immer da, wo neue Software entwickelt wird, sollte sie per Design Multi-Cloud-fähig sein. Aus diesem Grund sollten für die Entwicklung dieser neuen Anwendungen und Apps Container-relevante Techniken wie Kubernetes, Docker, etc. in Betracht gezogen werden. Damit lassen sich diese cloud-tauglichen Applikationen ganz einfach per Schnittstelle (API) innerhalb der Public oder Private Cloud einbinden..

Das Videointerview mit Peter Wüst von NetApp in voller Länge

Prof. Dr. Dieter Kranzlmüller vom LRZ Garching über den SuperMUC-NG

Videochat: „Der SuperMUC-NG ist ein weiterer Meilenstein für das LRZ“

Am 24.9.2018 war es soweit: Da wurde die dritte Ausbaustufe des Supercomputers mit der Bezeichnung SuperMUC-NG am Leibniz Rechenzentrum in Garching bei München in Betrieb genommen. Warum der neue Rechner für das LRZ und seine Kunden wichtig ist und ob KI-Anwendungen darauf zum Laufen kommen werden, darüber habe ich mit einem der verantwortlichen Köpfe, Prof. Dr. Dieter Kranzlmüller, gesprochen.

Profiteure des SuperMUC-NG: Wissenschaftler mit hohem Rechenbedarf

Schon bei SuperMUC und SuperMUC 2 stand eine möglichst große Bandbreite an Anwendern und Anwendungen im Vordergrund. So verteilten sich beispielsweise beim SuperMUC etwa 7,5 Milliarden Rechenzyklen auf 700 verschiedene Nutzer, die ihrerseits die Charakteristik des Supercomputers am LRZ in Garching mitbestimmen.

Natürlich sind dabei möglichst hohe Leistungswerte wichtig, und davon hat der SuperMUC-NG eine ganze Menge zu bieten. Trotz dieser enormen Rechenleistung ist der LRZ-Rechner ein äußerst energieeffizienter Supercomputer, der dank seiner Heißwasserkühlung im Gegensatz zu vielen anderen Supercomputern wesentlich ressourcenschonender mit Strom umgeht.

Hierfür beschreitet das LRZ Garching – wie bereits bei seinen Vorgängern – ganz eigene Wege: So wird zum einen die Abwärme des SuperMUC-NG zum Beheizen der LRZ-Gebäude genutzt, und zum anderen sorgen Absorptionskältemaschinen dafür, dass das heiße Kühlwasser der SuperMUC-NG-Kühlung in kaltes Wasser umgewandelt wird. Damit wird das scheinbar nutzlose Abwasser in den Wasserkreislauf rücküberführt und kann so ein zweites Mal genutzt werden.

Der SuperMUC-NG stellt einen logischen Evolutionssprung dar

Zwei Gründe sprachen für die dritte Ausbaustufe des SuperMUC: Zum einen war es in diesem Fall sinnvoller, eine neue Anlage wie den SuperMUC-NG bauen zu lassen als das „alte“ System mithilfe neuer Komponenten „upzugraden“. Das wirkt sich nämlich auf die möglichen Leistungswerte und auf die Betriebskosten äußerst positiv aus. Zudem führen neue Wissenschaftsbereiche dazu, dass immer mehr Anwender immer mehr Rechenleistung benötigen. Und auch hier bietet der SuperMUC-NG deutlich verbesserte Werte, und das nicht nur in absoluten Zahlen, sondern auch relativ, wenn man sich das Preis-Leistungsverhältnis ansieht.

Der SuperMUC-NG ist noch nicht vollends KI-tauglich

Für das Thema Künstliche Intelligenz ist der SuperMUC-NG noch nicht vollständig ausgerüstet. So setzt das LRZ Garching für Machine Learning und Deep Learning eigene neuronale Systeme ein, die mit den komplexen KI-Berechnungen einfach besser zurecht kommen als die im SuperMUC-NG verbauten Komponenten. Allerdings bietet der riesige Speicher des LRZ-Supercomputers ausreichend Platz für die großen Datenmengen, die bei KI-Anwendungen anfallen. Damit leistet der SuperMUC-NG dann doch einen wichtigen KI-Beitrag.

Aber, und da wagte Herr Kranzlmüller einen Ausblick, wird der nächste SuperMUC wohl seine eigenen KI-Komponenten aufweisen, womit dann Berechnungen und Daten auf einem einzigen System stattfinden bzw. gespeichert werden können.

Die Zusammenarbeit mit den Hardware-Lieferanten des SuperMUC-NG: sehr zufriedenstellend

Da solch ein System wie der SuperMUC-NG stets eine über viele Jahre angelegte Kooperation darstellt, kommt es für den Erfolg solch einer Installation maßgeblich auf eine kontinuierliche und partnerschaftliche Zusammenarbeit an. Und diese war im Falle des neuen LRZ-Supercomputers von großem Vertrauen geprägt. Und klar, es ging alles pünktlich vonstatten, andernfalls wäre der heutige Start des SuperMUC-NG nicht möglich gewesen.

Das komplette Interview mit Prof. Dr. Kranzlmüller vom LRZ Garching