Uhr als Symbol für Zeiterfassung

„Software zur digitalen Zeiterfassung: Ab in die Cloud“

Gerade wir Freiberufler sehen uns oft mit diesem einen Zeitdilemma konfrontiert: Wieviel quantitativer Aufwand erfordert eigentlich ein Projekt, eine Aufgabe, ein einzelner Blogbeitrag? Das betrifft aber auch Angestellte, die beispielsweise im Homeoffice arbeiten oder viel unterwegs sind. Um all diese geleistete Arbeit richtig und bequem zu erfassen, kann man sich vielerlei Tools und Software-Werkzeuge bedienen. Damit verhält man sich in bestimmten Fällen sogar gesetzeskonform.

Zeit manuell oder automatisiert erfassen

Vor allem bei wenigen Einzelprojekten oder immer wiederkehrenden Arbeiten lässt sich die eigene Arbeitszeit mithilfe bereits vorhandener Software wie Microsoft Excel oder ähnlichen Tools komfortabel erfassen. Und mit ein, zwei passenden Formeln kann man am Ende des Monats sogar eine Statistik erstellen, die aussagekräftige Erkenntnisse über die geleistete Arbeitszeit und deren Effektivität liefert.

Viel bequemer und auch rechtssicherer erfolgt die Erfassung der Zeitarbeit aber mithilfe eines geeigneten Zeiterfassungsprogramms, die es in vielfacher Weise am Markt gibt. Damit wird die eigene Arbeitszeit entweder automatisiert erfasst (z.B. beim Betreten des Firmengeländes) oder mithilfe eines mobilen Geräts wie dem Smartphone oder Tablet. So oder so: Gerade bei Unternehmen mit einer größeren Zahl an Mitarbeitern ist das die beste, weil transparente Lösung.

Lokal oder in der Cloud? Eine grundsätzliche Entscheidung

Gerade in Zeiten der DSGVO scheuen sich viele Unternehmen, personenbezogene Daten in der Cloud zu speichern – und dazu gehören die mit der Zeiterfassung in Verbindung stehenden auf jeden Fall. Daher setzen viele Firmen immer noch (oder wieder) auf die lokale Zeiterfassung, die bei allen Sicherheitsbedenken auch diverse Nachteile mit sich bringt. Der wesentlichste ist wohl die standortbezogene Erfassung der Arbeitszeiten der Mitarbeiter. Klar gibt es auch Systeme und Möglichkeiten, Daten über lokale Netzwerkgrenzen hinweg zu erfassen, aber das ist ziemlich aufwendig und erfordert eine Menge technisches Know-how und die passende Technik.

Wie viel einfacher sind da doch cloud-basierte Zeiterfassungsprogramme bzw. -systeme. Damit können sich Mitarbeiter und sogar externe Kollegen und Kolleginnen über eine einzige zentrale Plattform anmelden und ihre geleistete Arbeit jederzeit und mühelos erfassen. Und mit dem richtigen Backend und den passenden Verschlüsselungsalgorithmen ist auch das Thema Datenschutz auf der sicheren Seite.

Mit Cloud-Software die Arbeitszeit dezentral erfassen und zentral auswerten

Cloud-basierte Zeiterfassungssysteme wie edtime von eurodata bieten all die beschriebenen Vorteile – und mehr. Denn hier sind die Daten dank der ISO-Zertifizierung nach ISO/IEC 27001 und dem eigenen Rechenzentrum in Saarbrücken vollkommen sicher – und genügen damit den strengen Auflagen der DSGVO. Zudem erfolgt die Erfassung der Arbeitszeiten eines jeden Mitarbeiters entweder seitens des Unternehmens – oder durch den Anwender selbst, indem er Anfang und Ende seines Arbeitstags mithilfe seines Smartphones oder Tablets und einer mobilen App selbst erfasst. Für die jeweils bequemste Variante. 

Gesetzliche Regelungen wie das MiLoG erfordern die Zeiterfassung

Mit dem Inkrafttreten des MiLoG (Mindestlohngesetz) müssen Unternehmen bereits seit 2014 nicht nur festgelegte Stundensätze bezahlen, sondern auch die damit einhergehenden Dokumentationspflichten beachten. Das betrifft unter anderem die Erfassung der geleisteten Arbeitszeiten, die jederzeit abruf- und abbildbar sein müssen – will man sich an geltendes Recht halten.

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag der Firma SEOSEM-Consulting verfasst.

Gauthier Fanmuy, Dassault Systèmes, über No Magic und MBSE

Videoblog: „Mit No Magic lassen sich sämtliche Design-Prozesse abbilden“

Model-based Systems Engineering ermöglicht den Übergang von der realen Welt in ein virtuelles Konzept. Sagt Gauthier Fanmuy von Dassault Systèmes, mit dem ich dieses Interview während der Dassault Systèmes-Anwenderkonferenz 2018 geführt habe. Darüber hinaus spricht er über die Akquisition des MBSE-Experten No Magic und was das für Dassault Systèmes bedeutet.

MBSE hilft vor allem, die Herausforderungen besser zu verstehen, die man mithilfe eines Produkts oder Systems lösen möchte. Denn es ermöglicht einen Blick auf sämtliche Funktionen und Aktionen, die beispielsweise für den Autonomen Verkehr und ähnliches erforderlich sind.

Genau diese Option hat bisher innerhalb des Software-Portfolios von Dassault Systèmes gefehlt. Also ein Tool, mit dessen Hilfe man die Abhängigkeiten und das Zusammenspiel unterschiedlicher Systeme und Produkte im Vorfeld simulieren und verstehen kann. Und das, ohne eine einzige Designstunde dafür aufgewendet zu haben.

No Magic schließt eine wichtige Lücke im DS-Software-Portfolio

Mithilfe der Software-Tools von No Magic wie MagicDraw steht Dassault Systèmes die Option zur Verfügung, vollständige Designkonzepte von Anfang an auf nur noch einer Plattform zu planen und zu realisieren. Damit lassen sich sämtliche Abhängigkeiten und Auswirkungen darstellen und bewerten. Zudem verfolgt Dassault Systèmes mit der Akquisition von No Magic einen vollständigen DevOps-Ansatz, was den Kunden eine agile und konsistente Integration aller Design-Schritte von Anfang bis Ende ermöglicht.

Dassault-Systèmes-Kunden profitieren von der „Heirat“ mit No Magic

Da eine komplette Top-to-Buttom-Verbindung der einzelnen Design-Abschnitte bisher nicht gegeben war, können Dassault Systèmes-Kunden dank der künftigen Integration der No Magic-Tools in die 3DExperience-Plattform den gesamten Engineering-Prozess vollständig orchestrieren. Das beginnt ganz oben auf der Konzeptebene und endet auf CAD- und Elektronik-Level. Damit schaffen Dassault Systèmes und No Magic einen Ende-zu-Ende-Prozess, mit dem eine ganz neue digitale Kontinuität auf einer einzigen Plattform möglich sein wird. Das reicht dann bis in die Lieferantenkette hinein.

Das komplette Interview mit Gauthier Fanmuy

Disclaimer: Für diesen Videoblogbeitrag hat mit Dassault Systèmes beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

Udo Schneider von Trend Micro auf der it-sa 2018

Videoblog: „Apex One ist eine Oberfläche für alle Tools“

Dieses Interview habe ich mit Udo Schneider von Trend Micro auf der it-sa 2018 geführt. Darin stellt er die brandneue Security-Lösung Apex One vor, zählt auf, was Trend Micro anders macht als andere Sicherheitsfirmen und nennt seine persönlichen Top-3-Tipps in Sachen Endpoint-Security.

Apex One von Trend Micro: EIN Tool für alle Sicherheitsmaßnahmen

Mit Apex One hat Trend Micro seine neue EDR-Lösungen vorgestellt (EDR steht für Endpoint Detection and Response). In diesem neuen Produkt sind alle Endpoint-Techniken von Trend Micro eingeflossen, was vor allem für den Endanwender den großen Vorteil bringt, sämtliche Sicherheitsmerkmale über eine einzige Bedieneroberfläche abrufen und steuern zu können.

Das Aggregieren der vorhandenen Security-Tools innerhalb des Unternehmens auf Basis von Apex One bedeutet aber auch das Aggregieren sämtlicher Daten, die dort zusammenlaufen. Und das bedeutet wiederum bessere Vorhersagen hinsichtlich möglicher Angriffsszenarien und bessere Automatisierungsmöglichkeiten. Das betrifft sowohl die Integration in ein SOC als auch die Integration einer Third-Party-Lösung in Apex One.

Damit unterscheidet sich Trend Micro von seinen Mitbewerbern

30 Jahre Security-Erfahrung, das macht natürlich eine Menge aus, wenn man den Markt ingesamt betrachtet. Ob das die Erfahrung der Mitarbeiter betrifft oder die zum Einsatz kommenden Technologien oder das Wissen rund um das Thema IT-Sicherheit – vor allem damit steht Trend Micro ganz weit vorne.

Darüber hinaus werden Logdateien so ausgewertet und aufbereitet, dass auch der eher unbedarfte Anwender auf einen Blick sehen kann, wo es klemmt oder wo gerade mögliche Angriffsziele lauern – und wie sich die zugehörigen Lücken und Schwachstellen schließen lassen. Aber auch mit der bereits erwähnten Integration eigener Security-Lösungen in Applikationen von externen Anbietern unterscheidet Trend Micro von anderen Anbietern.

Drei Tipps in Sachen Endpoint-Sicherheit

Geradezu banal mutet der erste Tipp an: Regelmäßig sämtliche Endpoint-Systeme patchen, und das entweder direkt am System selbst oder in Form eines virtuellen Abwehrschilds.

Der zweite Tipp ist weniger trivial. Hierbei geht es um das Identifizieren sogenannter Einfallsvektoren, also sämtlicher Bedrohungsszenarien von außen (und innen) und wie man sich dagegen wirksam schützen kann.

Darauf setzt auch der dritte Tipp auf: Sämtliche Endpoints sind regelmäßig zu überwachen, nur so kann ich sie auch bestmöglich schützen. Damit lässt sich zuverlässig feststellen, was zum „Grundrauschen“ gehört und was tatsächlich einen Cyberangriff darstellt.

Das komplette Interview mit Udo Schneider

Disclaimer: Für diesen Videoblogbeitrag hat mich Trend Micro beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

Rüdiger Frank von Arcserve auf der it-sa 2018

Videoblog: „Die Zusammenarbeit mit dem Channel ist essentiell für Arcserve“

Dieses Interview habe ich mit Rüdiger Frank von der Firma Arcserve auf der it-sa 2018 geführt. Darin spricht er über die Rolle der Arcserve Channel Partner und über die Maßnahmen seitens Arcserve, die deutschsprachige Region weiter zu stärken.

Arcserve Channel Partner sind ein immens wichtiger Baustein

Wenn ein Unternehmen wie Arcserve zu 100 Prozent auf den Channel als Vertriebskanal setzt, spielen die Business Partner, die darin involviert sind, eine zentrale Rolle. Denn sie übernehmen gemeinsam mit Arcserve vielseitige Aufgaben, die im Fokus des Arcserve’schen Geschäftsmodells stehen. Dazu gehören Dinge wie die Akquise neuer Kunden und neuer Projekte sowie die intensive Beratung der Kunden bis hin zur Implementierung der gewählten Lösung beim Kunden selbst.

Damit kommt der Qualität der Zusammenarbeit ein entscheidender Faktor bei. Dazu gehört eine adäquate Betreuung der Channel Partner, aber auch die Güte der Gewinnspannen, die für Business Partner entsprechend lukrativ sein sollten. Und das sind sie im Falle von Arcserve, was ich auf der it-sa so gehört habe.

Arcserve stärkt die DACH-Region mit lukrativen Maßnahmen

Um eine möglichst lückenlose und sehr gute Betreuung der Channel Partner gewährleisten zu können, ergreift Arcserve aktuell diverse Maßnahmen. Dazu gehören beispielsweise zwei neue Field Sales-Mitarbeiter für den Außendienst, die sich vor Ort um die Geschäftspartner kümmern sollen. Aber auch ein Pre-Sales-Consultant ist neu an Bord, der das Vertriebsteam entsprechend unterstützt.

Darüber hinaus verstärkt Arcserve den deutschsprachigen Telefonsupport für den Channel, und das in Form von vier neuen Supportmitarbeitern, die sich intensiv um die technischen Belange der Arcserve Business Partner kümmern.

Daneben sucht Arcserve mit ausgewählten Vertriebsaktionen neue und bessere Anreize für mehr Absatz zu schaffen. Dazu zählt beispielsweise eine Promotionsaktion, bei der es zu jeder Hardware-Appliance für Endkunden eine zweite Maschine dazu gibt, und das ohne weitere Kosten. Hinzu kommt ein kostenfreier Wartungsvertrag, der auf drei Jahre angelegt ist. Kein Wunder, dass Arcserve mit diesem Angebot eine Menge Aufmerksamkeit am Markt und sehr gute Umsätze erzielen kann.

Das komplette Interview mit Rüdiger Frank

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von Arcservce verfasst.

Kai Steinbach von Arcserve auf der it-sa 2018

Videoblog: „Cloud Computing spielt bei Arcserve eine zentrale Rolle“

Dieses Interview habe ich mit Kai Steinbach von der Firma Arcserve auf der it-sa 2018 geführt. Darin spricht er darüber, wofür das Unternehmen steht und welche Rolle das Thema Cloud Computing für Arcserve spielt.

Arcserve steht für Datensicherheit und Business Continuity

Im Vordergrund aller Arcserve-Aktivitäten steht das Thema Datensicherheit. Denn zum Geschäftsmodell des Unternehmens stehen Aspekte wie Wiederherstellung von Daten, Business Continuity, Hochverfügbarkeit, und so fort. Stets hat Arcsercve dabei die Daten ihrer Kunden und den permanenten und sicheren Zugriff und diese im Auge, egal, welchen unvorhergesehenen Ereignissen die Daten ausgesetzt sind. Das können korrumpierte Daten wegen eines Platten- oder Serverausfalls genauso sein wie der Bedienfehler eines Anwender und den daraus resultierenden Datenverlusts durch versehentliches Löschen oder ähnliches. Und natürlich kann es im Worst Case-Fall auch ein Brand im Unternehmen sein, der den gesamten Datenbestand ohne die richtigen Maßnahmen bedrohen würde.

Cloud Computing, ein wichtiger Baustein für Arcserve

Gerade für kleinere und mittelgroße Unternehmen stellt eine Disaster-Recovery-Lösung auf Cloud-Basis eine optimale Lösung dar, ohne größeren technischen und finanziellen Aufwand eine zuverlässige Backup- und Restore-Strategie verfolgen zu können. Damit steht eine IT-Infrastruktur zur Verfügung, die permanent gegen mögliche Ausfälle geschützt ist. Hierbei steht es dem Kunden natürlich frei, ob er nur einzelne Systeme oder gleich seine komplette Server- und Storage-Umgebung innerhalb einer Cloud-Infrastruktur gegen Datenverlust absichert.

Und dann gibt es Unternehmen, die sich bereits für eine Mischform aus On-Premise- und Cloud-System entschieden haben, also den hybriden Ansatz verfolgen. Für diese Zielgruppe ist es ebenfalls immanent wichtig, dass der gewählte Backup- und Restore-Ansatz über beide Plattformen hinweg einheitlich funktioniert. Denn gerade bei der Migration in die Cloud funktionieren in vielen Fällen die bisher gewählten Datensicherungskonzept und -lösungen nicht mehr zuverlässig. Und genau hierfür sorgt Arcserve mit seinen erprobten Backup und Recovery-Ansätzen.

Das komplette Interview mit Kai Steinbach

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von Arcservce verfasst.

Thomas Ehrlich, Varonis Systems

Videopost: „Mit uns machen Sie Ihre IT-Umgebung ein gutes Stück sicherer“

Dieses Videointerview habe ich mit Thomas Ehrlich von Varonis Systems auf der it-sa 2018 geführt. Darin spricht er über den notwendigen Schutz hybrider Cloud-Infrastrukturen, über den Einsatz von IBM QRadar und wie Varonis seinen Kunden bei der Umsetzung der DSGVO hilft.

Identische Rechtevergabe On-Prem und On-Cloud

Heterogene IT-Infrastrukturen sind vor allem eins: Über die Zeit gewachsen und weisen damit in vielen Fällen eine „chaotische“ Grundordnung auf. Das wirkt sich auf verschiedene Bereiche wie zum Beispiel die vergebenen Rechte aus, was sich mittel- oder unmittelbar auf die Sicherheit der IT-Umgebung auswirken kann. Soll diese „gewachsene“ Infrastruktur in eine Hybrid-Cloud migriert werden, ist es immanent wichtig, die gesamte Rechtestruktur und die dazu gehörigen Berechtigungen vor dem geplanten Umzug in die Cloud vollständig zu überprüfen und gegebenenfalls anzupassen – für eine höchstmögliche Sicherheit von Anfang an.

Falls man dies nicht selber erledigen will, kann man sich an Firmen wie Varonis Systems wenden, die sich mit der Rechtevergabe On-Premise und On-Cloud bestens auskennt.

IBM QRadar und Varonis: ein ergänzendes Gespann

Varonis-Kunden, die SIEM-Systeme wie IBM QRadar einsetzen,  importieren die Alerts und Benachrichtigungen, die Varonis im Kontext der strukturierten und unstrukturierten Kundendaten erstellt, in das QRadar-System und können damit ihr gesamtes Nachrichtensystem im großen Zusammenhang betrachten und auswerten.

Interessant an dieser Stelle ist auch die Möglichkeit, mithilfe des Varonis-Systems Alarmsignale in Echtzeit abzurufen, da diese auch in Echzeit erstellt und verschickt werden. Damit lassen sich jedwede Bedrohungen wie Ransomware & Co. schneller lokalisieren und dagegen vorgehen.

Varonis hilft seinen Kunden in Sachen DSGVO

Varonis hilft ihren Kunden, bestimmte DSGVO-Forderungen bestmöglich umzusetzen. Dazu gehört beispielsweise das obligatorische Erstellen eines Verarbeitungsverzeichnisses, das in Artikel 30 geregelt wird. Das soll sämtliche Aufgaben auflisten, die während der elektronischen Verarbeitung personenbezogener Daten anfallen. Dieser nicht ganz triviale Aufwand erfolgt am ehesten über die sogenannten Log-Dateien, die speziell im Windows-Server-Umfeld anfallen. Diese Dateien sind sehr umfangreich und müssen daher mit geeigneten Mitteln und möglichst geringem Aufwand analysiert und nach personenbezogenen Daten durchforstet werden können.

Auch hier wird Varonis für ihre Kunden aktiv, indem sie genau diese Logging-Dateien permanent analysiert und überwacht. Auf dieser Basis sind zahlreiche Erkenntnisse und Aktionen möglich, wie das Ableiten von Benutzerverhalten oder unternehmensweite Suchabfragen. Und das stets vor dem Hintergrund DSGVO-relevanter Daten und Dateien.

Das Interview mit Thomas Ehrlich auf der it-sa 2018

Disclaimer: Diesen Videoblogpost habe ich im Auftrag von Varonis Systems erstellt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

 

Dr. Hubert Jäger von Uniscon über BYOK-Irrtümer

Videoblog: „BYOK ist leider kein Cloud-Daten-Allheilmittel“

Dieses Videogespräch habe ich mit Dr. Hubert Jäger von der Firma Uniscon geführt. Dabei geht es um vorherrschende BYOK-Irrtümer (Bring Your Own Key) und wie die Sealed Plattform seiner Firma helfen kann, Cloud Computing ein gutes Stück sicherer zu machen.

Life-Hacking auf der it-sa: So unsicher sind Cloud-Daten

Die Cloud kämpft nach wie vor mit einer Reihe von Vorurteilen, darunter auch mit der Annahme, dass Daten innerhalb einer Cloud-Umgebung nur dann sicher seien, wenn man die eigenen Schlüssel mitbringt. Dieser Grundsatz (der auch unter dem Akronym BYOK (Bring Your Own Key) bekannt ist) weist allerdings eine erhebliche Schwachstelle auf: Man kann mit relativ geringem Aufwand an die für das Entschlüsseln der Daten notwendigen Schlüssel herankommen. Hierfür muss lediglich ein sogenannter „Memory Dump“ erstellt werden, der es erlaubt, mit etwas technischem Verständnis und den richtigen Tools die Schlüssel zu extrahieren und zu missbrauchen.

Die Uniscon Sealed Plattform schützt Cloud-Daten vor fremden Zugriffen

Sieht man sich die DSGVO genauer an, so fällt unter anderem Artikel 5 auf, der unter dem Punkt 1c das Prinzip der Datenminimierung genauer beschreibt. Die Forderung hierbei lautet, dass die Erhebung und Verarbeitung personenbezogener Daten stets zweckgebunden sein muss. Gewährt man einem IT-Admin von Cloud-Servern allerdings weitergehende Rechte, als diese für das Erfüllen seiner Aufgaben notwendig sind (wie zum Beispiel das Erstellen eines Memory Dump), verstößt man nicht nur gegen die DSGVO, sondern ermöglicht auch ein unsicheres Einfallstor in die Cloud-Umgebung.

Genau an dieser Stelle kommt die Sealed Plattform ins Spiel. Auf Basis dieser Uniscon-Lösung kann man den IT-Administrator einer Cloud-Infrastruktur in seinen Rechten so weit einschränken, dass das Prinzip der Datenminimierung eingehalten werden kann.

So funktioniert die Sealed Plattform im Falle eines versuchten Datenklaus

Sollte trotz eingeschränkter Adminrechte und sonstiger Sicherheitsmaßnahmen ein Angriffsversuch auf die Cloud-Daten initiiert werden, sucht die Uniscon Sealed Plattform mit vier geeigneten Maßnahmen, diesen unliebsamen Hacking-Versuch zu unterbinden und die Daten zu schützen:

Mit dem Data Clean-Up werden im Falle eines Angriffs die Daten innerhalb einer sogenanten Data Clean-Up Area präventiv gelöscht. Dort befinden sich auch die Schlüssel, womit auch diese im Angriffsfall gelöscht werden, sodass die Daten erst gar nicht entschlüsselt werden können. Mit der Filterung wird der IT-Admin von diesem Bereich ferngehalten, da dies seine Kompetenzen übersteigen würde. Und schließlich findet ein Audit statt, der sicherstellt, dass der gesamte Data Cleanup-Prozess genau den Vereinbarungen entsprochen hat und damit die Daten weiterhin als sicher gelten.

Das vollständige Interview mit Dr. Hubert Jäger auf der it-sa 2018

Disclaimer: Für diesen Videoblogeintrag hat mich die Firma Uniscon beauftragt. Bei der Ausgestaltung der Inhalte hatte ich völlig freie Hand.

Karsten Johannsen von IBM über Storage und KI

Videoblog: „KI-Systeme müssen skalierbar sein und gängigen Standards folgen“

Dieses Interview habe ich mit Karsten Johannsen von IBM über das Thema Künstliche Intelligenz und Storage gesprochen. Darin geht es aber auch um die Frage, warum Tech Data als wichtiger IBM-Partner die KI für sich entdeckt hat und welche Rolle IBM dabei spielt.

Tech Data begibt sich mit der KI auf neue Pfade

Gerade IT-Systemhäuser wie Tech Data müssen immer wieder neue Wege beschreiten, wollen sie neue Absatzmärkte gewinnbringend erschließen. Dazu gehört eben auch das weite Feld der Künstlichen Intelligenz, das das Unternehmen für sich entdeckt hat. So sollen in den nächsten Monaten und Jahren unter dem Begriff „Next Generation Technologies“ gemeinsam mit den Geschäftspartnern und Kunden KI-Szenarien und -Applikationen entwickelt werden.

Hierfür hat Tech Data gemeinsam mit IBM ein siebenköpfiges KI-Team aufgebaut, das sich künftig in den Bereichen Business Development, Architekturberatung, Vertrieb und Marketing tummeln wird.

Tech Data und IBM sind ein echtes KI-Gespann

Gemeinsam mit IBM will Tech Data seine Kunden (also Business Partner und Systemhäuser) näher heranführen an das Thema Künstliche Intelligenz. Hierfür gibt es dedizierte, unterstützende Maßnahmen seitens Tech Data/IBM, die den Tech Data-Kunden helfen sollen, eigene KI-Projekte umzusetzen. Denn in diesem Segment gestalten sich zahlreiche Anforderungen anders als bei herkömmlichen IT-Aufträgen, und genau an dieser Stelle soll und wird das Tech Data-IBM-KI-Team unterstützend aktiv.

Hierbei kommt vor allem das IBM-KI-Produktportfolio der Systems-Gruppe zum Einsatz, also alles, was mit den Begriffen IBM PowerAI und IBM Storage zu tun hat. So kommt es speziell bei KI-Projekten auf leistungsfähige Speicherlösungen an, da hier erfahrungsgemäß große Datenmengen anfallen und somit leistungsfähige Speichersysteme vonnöten sind.

Das verbirgt sich hinter der IBM KI-Referenzarchitektur

Wichtig ist bei einer geeigneten KI-Referenzarchitektur die Wahl der Komponenten, die den gängigen Standards folgen sollten. Wichtig ist aber auch eine bestmögliche Skalierbarkeit, sodass sich das System den jeweiligen Anforderungen ohne großen Aufwand anpassen lässt. Das ist speziell im KI-Umfeld von großer Wichtigkeit, da sich viele Unternehmen nach wie vor im Experimentierstadium befinden.

Gleichzeitig merkt dann der ein oder andere KI-Projektverantwortliche relativ schnell, dass die Datenmengen exponentiell anwachsen und die Maschine sowie die zugehörigen Speicherkomponenten schneller an ihre Grenzen stoßen als angenommen. Daher setzt Tech Data in Zusammenarbeit mit IBM auf die PowerAI- und IBM Spectrum-Produktfamilien, da diese die beschriebenen Voraussetzungen erfüllen.

Das komplette Interview mit Karsten Johannsen

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

 

Doug Balog über das IBM Storage-Geschäft

Videoblog: „Storage ist wichtig für Multi-Cloud, KI und mehr“

Dieses Interview habe ich mit Doug Balog von IBM anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über das Event im Allgemeinen, über den Storage-Markt im Speziellen und über die IBM-Vision in punkto Speicher mit all seinen Facetten.

Die IBM Storage Strategy Days sind für IBM äußerst wichtig

Speziell der Austausch mit Kunden und Geschäftspartnern stellt für IBM – und für Doug Balog selber – einen wichtigen Baustein dar, wenn es um die weltweite Ausrichtung der richtigen Produkte und Lösungen geht.

Konkret bedeutet das: Wie sehen die Visionen seitens IBM als Unternehmen aus und wie passt das Thema Storage in dieses Szenario. Das daraus resultierende Feedback der Kunden und Partner greift IBM auf, um sich noch besser auf die Bedürfnisse und Wünsche des Marktes einstellen zu können. Schließlich handelt es sich bei Storage in Zeiten von KI & Co. um einen echten Wachstumsmarkt.

Der Storage-Markt bietet zahlreiche Möglichkeiten – für IBM, deren Partner und Kunden

Mit dem enormen Anstieg an Daten, die für neue und traditionelle Anwendungen benötigt werden, steigt auch der Bedarf an leistungsstarken und kapazitiven Speicherlösungen. Denn gerade für KI-Disziplinen wie Machine und Deep Learning sind große Datensätze vonnöten, die der Maschine dahinter die Möglichkeit bieten, die richtigen Schlüsse aus vorhandenen Mustern und Aufgaben zu ziehen. Und das erfordert natürlich Speichersysteme, die mit diesen Daten quantitativ und qualitativ zurecht kommen.

Aber auch das Thema Multi-Cloud ist eng verknüpft mit dem Thema Storage. Denn mit jeder weiteren Cloud-Umgebung, die Teil der Gesamtstrategie eines Unternehmens ist, nimmt die Anforderung zu, all die anfallenden Daten bestmöglich zu verwalten und zu speichern. Daher kommt dem zugrunde liegenden Datenmanagement in Zeiten komplexer werdender Cloud-Lösungen eine immer wichtigere Rolle zu.

Von der IBM-Vision einer Storage-zentrierten Welt

Klar, dass Storage-Systeme in Zeiten von KI und Multi-Cloud zwar ein wichtiger Bestandteil sind, aber nicht der einzige, auf den es ankommt. Denn neben den performanten Speicherlösungen sind natürlich auch schnelle Recheneinheiten vonnöten, dies ja bei IBM ebenfalls beheimatet sind. Die Rede ist unter anderem von den IBM Mainframes der Z-Serie und den Power-basierten Rechnern, aber auch Spezialplattformen wie PowerAI, die speziell für KI-Anwendungen konzipiert wurden.

Aber, und das ist eine logische Einsicht, treibt IBM das Thema Storage und KI nicht alleine am Markt voran. Daher arbeitet „Big Blue“ schon seit vielen Jahren mit allen namhaften Hardware- und Software-Herstellern zusammen, um die jeweils beste IT-Lösung für den jeweiligen Kunden bieten zu können. Hierfür leistet sich IBM ein eigenes Businesspartner-Ecosystem, das Partnern und Kunden helfen soll, die beste IBM-Lösung für ihre Anwendungen zu finden.

Übrigens: Genau aus diesem Ansinnen heraus ist die OpenPOWER Foundation entstanden

Das komplette Videointerview mit Doug Balog

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Das ist die pCloud: Funktionen, Preise, Besonderheiten

Mit pCloud gibt es einen weiteren Cloud-Anbietern am Markt, der bewusst bestimmte Dinge anders machen will als Dropbox und Co. Dazu gehören vor allem die eingebauten Sicherheitsmaßnahmen, aber auch Funktionen wie das Sichern und Wiederherstellen von (Online-)Daten unterscheiden sich von den bekannteren Diensten.

Das bekommen Sie alles mit pCloud

Die Anmeldung beim Cloud-Service pCloud ist denkbar einfach, zumindest für Facebook-Nutzer. Damit gelingt der Zugang zur Cloud-Umgebung mit wenigen Mausklicks.

Der nächste Schritt ist die Wahl des passenden Clients, aber auch hier hat pCloud alles zu bieten, was man von solch einem Service erwartet. Ob Windows, macOS, Linux, iOS oder Android – für jede Plattform steht die richtige Client-Software bereit. Selbst Windows Mobile und Browser-Erweiterungen für Google Chrome, Firefox und Opera gibt es. Schade nur, dass Apple Safari und der Internet Explorer außen vor bleiben.

pCloud Drive zum Verwalten sämtlicher Daten

Ebenfalls erwartbar, aber trotzdem sehr praktisch, ist der pCloud-eigene Explorer, genannt pCloud Drive. Damit lassen sich sämtliche Dateien wie gewohnt verwalten. Dies geschieht mithilfe des Client-Programms, das sich nahtlos in die Dateiumgebung des jeweiligen Betriebssystems integriert. Damit steht die gesamte pCloud-Umgebung wie gewohnt als virtuelles Laufwerk zur Verfügung. Per Rechtsklick können einzelne Ordner oder komplette Speichermedien in die pCloud eingebunden werden.

pCloud Drive integriert sich nahtlos ins OS des Rechners

Auch klar: Einzelne Dateien können per Link freigegeben werden genauso wie komplette Ordnerinhalte. Diese lassen sich zudem für die Offline-Nutzung markieren.

In Sachen Preismodell bietet pCloud drei Varianten: monatlich, jährlich oder Lifetime, und das entweder als Premium- oder Premium Plus-Variante. Der wesentliche Unterschied beider Varianten besteht in der Größe des verfügbaren Cloud-Speichers (500 GigaByte vs. 2 TeraByte) sowie des Download-Traffic (ebenfalls 500 GB vs. 2 TB). Alle anderen Funktionen sind in sämtlichen Preismodellen enthalten. Bemerkenswert ist vor allem das Lifetime-, also Lebenslang-Modell, bei dem man tatsächlich nur einmalig zahlt und sich dann nie wieder Gedanken um weitere mögliche Kosten machen muss.

Das unterscheidet pCloud von Dropbox und Co.

Auf den ersten Blick handelt es sich bei pCloud um einen weiteren Cloud-Anbieter, beim zweiten Hinsehen fallen allerdings diverse Unterschiede auf. So lassen sich sämtliche Daten bereits auf Client-Seite verschlüsseln. Dieser Dienst nennt sich pCloud Crypto und erlaubt das selektive Verschlüsseln einzelner Dateien oder kompletter Ordner. Damit muss nicht jedes einzelne Bild oder unkritische Dokumente verschlüsselt werden, sondern nur das, was wirklich vertraulich ist. Für dieses Mehr an Sicherheit wird ein Obolus fällig, auch hier wird unterschieden zwischen einem monatlichen, jährlichen und einem Lifetime-Plan.

Mit pCloud Crypto lassen sich Daten auf Client-Seite verschlüsseln - einzeln oder ordnerweise

Sehr fortschrittlich ist auch der Umgang mit Daten. So werden Funktionen wie die Versionierung und Wiederherstellung von Daten angeboten, genauso wie das Hochladen von Daten per URL. Praktisch ist obendrein die Möglichkeit, Daten von anderen Cloud-Diensten (Dropbox, OneDrive und Google Drive) sowie die Bilder von Facebook und Instagram in der pCloud-Umgebung zu sichern. Dieser Vorgang wird einmalig aktiviert und geschieht fortan automatisch.

Schick ist ebenfalls die Option, Videos und Musikstücke direkt aus der pCloud-Weboberfläche abspielen zu können. Dies erspart den Aufruf eines externen Programms und erlaubt sogar das Erstellen von Playlisten und anderen Dingen.

Mit pCloud lassen sich automatisiert Backups der Onlinedaten generieren

So wird aus pCloud eine sichere Cloud-Umgebung

Natürlich wird bei einem Cloud-Dienst wie pCloud die Sicherheit groß geschrieben. Dazu gehört neben dem bereits erwähnten Verschlüsselungsdienst pCloud Crypto auch eine Zwei-Wege-Authentifizierung. Dies geschieht ganz traditionell mithilfe eines Codes, der auf Anforderung via SMS zugestellt wird. Ein weiteres Sicherheitsfeature betrifft die mobilen Anwendungen: Hier kann ein persönlicher Zugangscode eingerichtet werden, der jedesmal beim Zugriff auf die pCloud-App angefordert wird. Für eine bestmögliche Sicherheit.

pCloud erhöht dank Zwei-Faktor-Authentifizierung deutlich

Disclaimer: Für das Verfassen und Veröffentlichen dieses Beitrags hat mich die pCloud AG beauftragt. Bei der Auswahl der Inhalte hatte ich völlig frei Hand.