Rüdiger Frank von Arcserve auf der it-sa 2018

Videoblog: „Die Zusammenarbeit mit dem Channel ist essentiell für Arcserve“

Dieses Interview habe ich mit Rüdiger Frank von der Firma Arcserve auf der it-sa 2018 geführt. Darin spricht er über die Rolle der Arcserve Channel Partner und über die Maßnahmen seitens Arcserve, die deutschsprachige Region weiter zu stärken.

Arcserve Channel Partner sind ein immens wichtiger Baustein

Wenn ein Unternehmen wie Arcserve zu 100 Prozent auf den Channel als Vertriebskanal setzt, spielen die Business Partner, die darin involviert sind, eine zentrale Rolle. Denn sie übernehmen gemeinsam mit Arcserve vielseitige Aufgaben, die im Fokus des Arcserve’schen Geschäftsmodells stehen. Dazu gehören Dinge wie die Akquise neuer Kunden und neuer Projekte sowie die intensive Beratung der Kunden bis hin zur Implementierung der gewählten Lösung beim Kunden selbst.

Damit kommt der Qualität der Zusammenarbeit ein entscheidender Faktor bei. Dazu gehört eine adäquate Betreuung der Channel Partner, aber auch die Güte der Gewinnspannen, die für Business Partner entsprechend lukrativ sein sollten. Und das sind sie im Falle von Arcserve, was ich auf der it-sa so gehört habe.

Arcserve stärkt die DACH-Region mit lukrativen Maßnahmen

Um eine möglichst lückenlose und sehr gute Betreuung der Channel Partner gewährleisten zu können, ergreift Arcserve aktuell diverse Maßnahmen. Dazu gehören beispielsweise zwei neue Field Sales-Mitarbeiter für den Außendienst, die sich vor Ort um die Geschäftspartner kümmern sollen. Aber auch ein Pre-Sales-Consultant ist neu an Bord, der das Vertriebsteam entsprechend unterstützt.

Darüber hinaus verstärkt Arcserve den deutschsprachigen Telefonsupport für den Channel, und das in Form von vier neuen Supportmitarbeitern, die sich intensiv um die technischen Belange der Arcserve Business Partner kümmern.

Daneben sucht Arcserve mit ausgewählten Vertriebsaktionen neue und bessere Anreize für mehr Absatz zu schaffen. Dazu zählt beispielsweise eine Promotionsaktion, bei der es zu jeder Hardware-Appliance für Endkunden eine zweite Maschine dazu gibt, und das ohne weitere Kosten. Hinzu kommt ein kostenfreier Wartungsvertrag, der auf drei Jahre angelegt ist. Kein Wunder, dass Arcserve mit diesem Angebot eine Menge Aufmerksamkeit am Markt und sehr gute Umsätze erzielen kann.

Das komplette Interview mit Rüdiger Frank

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von Arcservce verfasst.

Kai Steinbach von Arcserve auf der it-sa 2018

Videoblog: „Cloud Computing spielt bei Arcserve eine zentrale Rolle“

Dieses Interview habe ich mit Kai Steinbach von der Firma Arcserve auf der it-sa 2018 geführt. Darin spricht er darüber, wofür das Unternehmen steht und welche Rolle das Thema Cloud Computing für Arcserve spielt.

Arcserve steht für Datensicherheit und Business Continuity

Im Vordergrund aller Arcserve-Aktivitäten steht das Thema Datensicherheit. Denn zum Geschäftsmodell des Unternehmens stehen Aspekte wie Wiederherstellung von Daten, Business Continuity, Hochverfügbarkeit, und so fort. Stets hat Arcsercve dabei die Daten ihrer Kunden und den permanenten und sicheren Zugriff und diese im Auge, egal, welchen unvorhergesehenen Ereignissen die Daten ausgesetzt sind. Das können korrumpierte Daten wegen eines Platten- oder Serverausfalls genauso sein wie der Bedienfehler eines Anwender und den daraus resultierenden Datenverlusts durch versehentliches Löschen oder ähnliches. Und natürlich kann es im Worst Case-Fall auch ein Brand im Unternehmen sein, der den gesamten Datenbestand ohne die richtigen Maßnahmen bedrohen würde.

Cloud Computing, ein wichtiger Baustein für Arcserve

Gerade für kleinere und mittelgroße Unternehmen stellt eine Disaster-Recovery-Lösung auf Cloud-Basis eine optimale Lösung dar, ohne größeren technischen und finanziellen Aufwand eine zuverlässige Backup- und Restore-Strategie verfolgen zu können. Damit steht eine IT-Infrastruktur zur Verfügung, die permanent gegen mögliche Ausfälle geschützt ist. Hierbei steht es dem Kunden natürlich frei, ob er nur einzelne Systeme oder gleich seine komplette Server- und Storage-Umgebung innerhalb einer Cloud-Infrastruktur gegen Datenverlust absichert.

Und dann gibt es Unternehmen, die sich bereits für eine Mischform aus On-Premise- und Cloud-System entschieden haben, also den hybriden Ansatz verfolgen. Für diese Zielgruppe ist es ebenfalls immanent wichtig, dass der gewählte Backup- und Restore-Ansatz über beide Plattformen hinweg einheitlich funktioniert. Denn gerade bei der Migration in die Cloud funktionieren in vielen Fällen die bisher gewählten Datensicherungskonzept und -lösungen nicht mehr zuverlässig. Und genau hierfür sorgt Arcserve mit seinen erprobten Backup und Recovery-Ansätzen.

Das komplette Interview mit Kai Steinbach

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von Arcservce verfasst.

Michel Paulin auf dem OVH-Summit 2018

Videoblog: „Für uns ist die Cloud eine Open-Source-Plattform“

Dieses Videointerview habe ich mit Michel Paulin, CEO von OVH, während des großen OVH-Summit geführt. Darin spricht er über die Abkürzung S.M.A.R.T, erklärt die Bedeutung des OVH-Summit für sein Unternehmen und zeigt auf, was es mit den vier neu geschaffenen OVH-Universen auf sich hat.

Mit SMART geht OVH neue Cloud-Wege

Während seines Keynote-Vortrags sprach Michel Paulin über den Begriff „SMART“, der in diesem Fall für eine Abkürzung steht, die folgendes bedeutet:

„S“ wie Simple: Hierfür steht das Bestreben seitens OVH, das Migrieren von On-Premise-Anwendungen in die Cloud so einfach und simpel wie möglich zu machen, und das mit den passenden Tools und Prozessen.

„M“ wie Multilocal: OVH ist zwar ein global operierendes Unternehmen, versteht sich aber trotzdem als lokal fungierender Cloud-Provider, der seine Kunden genau dort betreuen und unterstützen will, wo diese ihren Sitz haben. Das geschieht in vielen Fällen gemeinsam mit lokalen Partnerunternehmen.

„A“ wie Accessible: Die OVH-Cloud muss für jeden zugänglich sein, und das auf Basis vorhersagbarer Preise.

„R“ wie Reversable: Sich an den Grundsätzen der Open Cloud Foundation orientierend, basiert die OVH-Cloud auf Open-Source-Software. Damit will OVH sicherstellen, dass kein Kunde an proprietäre Lösungen gebunden ist, wenn er sich einmal für OVH entschieden hat.

„T“ wie Transparent: Mithilfe der größtmöglichen Transparenz will OVH vor allem eine Transparenz der Daten schaffen, die in Zeiten der DSGVO unumgänglich ist. Und das gilt für die eigenen Daten genauso wie die der OVH-Kunden.

Der OVH-Summit ist Treffpunkt für Kunden und Partner

Der alljährlich stattfindende OVH-Summit ist so etwas wie die Hausmesse des Unternehmens, auf der Kunden und Partner ihre Erfahrungen, Fragen und Wünsche rund um das OVH-Universum austauschen können. Auf diesem Weg kann OVH auch zeigen, wie wichtig Geschäftspartnerschaften für das Unternehmen sind – und umgekehrt. Und natürlich ist das OVH-Summit immer wieder eine gute Gelegenheit, neue Produkte, neue Dienste und neue Ideen vorzustellen.

OVH mal 4: Von klein bis ganz groß

Was auf dem OVH-Summit ebenfalls vorgestellt wurde, sind die neuen sogenannten OVH-Universen, da Kunden mittlerweile anders mit OVH interagieren und kommunizieren. Herausgekommen sind vier Bereiche:

OVHmarket, die digitale Austauschplattform für mittelgroße Unternehmen, auf der die Kunden all das von OVH bekommen, was für ihren Cloud-Auftritt notwendig ist.

OVHspirit, der „Hardware-Shop“ der OVH, in dem der neueste Server, die neueste Strorage-Appliance und andere Zutaten bereitstehen.

OVHstack, die Schnittstelle zur OVH-Cloud, und das auf Basis von offenen Software-Lösungen.

OVHenterprise, der „Shop“ für große und größere Unternehmen, die auf die gesamte Palette an Public-, Private- und Hybrid-basierten Cloud-Infrastrukturen und -Lösungen zugreifen wollen.

Das komplette Interview mit Michel Paulin

 

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit OVH Deutschland entstanden.

Alain Fiocco, CTO OVH

Videoblog: „Mit neuen Servern und mehr Bandbreite wollen wir unsere Kunden bestmöglich unterstützen“

Während des OVH-Summit in Paris habe ich dieses Interview mit CTO Alain Fiocco geführt. Dabei erklärt er, warum OVH die Bandbreite seiner Kundenserver verdoppelt hat, warum OVH so eng mit Intel zusammenarbeitet und welche neue Hardware OVH auf dem Summit vorgestellt hat.

Mehr Bandbreite fördert neue Möglichkeiten

Während des großen OVH-Summit, zu dem mich OVH freundlicherweise eingeladen hatte, konnte Alain Fiocco gleich mal mit einer guten Nachricht einsteigen:

Die Frage, die sich dabei stellte: Warum macht OVH das? Nun, das hat zwei wesentliche Gründe. Zum einen will OVH damit seinen Kunden mehr geschäftliche Möglichkeiten einräumen, denn mehr Bandbreite bedeutet immer auch eine Verbesserung der digitalen Optionen, die man als Firma vorfindet. Und das ist – speziell im Cloud-Umfeld – von essentieller Bedeutung. Damit gehen in vielen Fällen neue Geschäftsideen und -modelle einher, die für OVH ebenfalls eine wichtige Rolle spielen.

Und da OVH seine eigene Cloud-Infrastruktur mit eigenem Backbone betreibt, der mit zunehmender Größe des Unternehmens immer leistungsfähiger wird, lässt OVH seine Kunden am eigenen Wachstum teilhaben. So haben alle etwas davon.

Die enge Zusammenarbeit mit Intel hat gute Gründe

Auf der Bühne während der großen OVH-Summit-Keynote war auch Intel, und so ganz nebenbei wurde die langjährige Zusammenarbeit mit dem Chiphersteller erwähnt – was mich als Ex-Intelianer natürlich aufhorchen ließ.

Doch warum ist das so? Auch das lässt sich recht einfach erklären. Denn als Betreiber von leistungsfähigen Cloud-Infrastrukturen mit eigener Hard- und Software ist es für OVH von größter Bedeutung, die Pläne und Roadmaps des größten Prozessorherstellers der Welt zu kennen. Um darauf die eigenen Produktentwicklungen abstimmen zu können, und das lange, bevor der neue Prozessor oder eine neue CPU-Technik auf den Markt kommt.

Mit neuer Hardware geht es in die nächsten Monate

Klar, dass solch ein riesiger Event wie der OVH-Summit nicht ohne Ankündigungen vonstatten geht, und davon gab es so einige. Die wesentlichen Neuheiten, die Alain und sein Team in Paris präsentierten, betreffen drei Referenzserver, die künftig in den weltweiten Rechenzentren von OVH zum Einsatz kommen werden. Einer davon ist der HG 2019, der erhöhte Sicherheitsfeatures bietet und obendrein zuverlässig und schnell arbeitet.

In diesem Servermodell werkeln Prozessoren der Marke Intel Xeon Scalable inklusive Optane DC-Techniken. Damit wird OVH der erste Cloud-Provider in Europa sein, der dieses neue Technikgespann aus dem Hause Intel in seine Rechner verbaut. Damit sollen verstärkt Highend-Applikationen aus den Bereichen Big Data & Analytics ermöglicht werden. Und diesen Trend wird OVH in den nächsten Monaten massiv weiter vorantreiben.

Das vollständige Interview mit Alain Fiocco (auf Englisch)

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit OVH Deutschland entstanden.

Thomas Ehrlich, Varonis Systems

Videopost: „Mit uns machen Sie Ihre IT-Umgebung ein gutes Stück sicherer“

Dieses Videointerview habe ich mit Thomas Ehrlich von Varonis Systems auf der it-sa 2018 geführt. Darin spricht er über den notwendigen Schutz hybrider Cloud-Infrastrukturen, über den Einsatz von IBM QRadar und wie Varonis seinen Kunden bei der Umsetzung der DSGVO hilft.

Identische Rechtevergabe On-Prem und On-Cloud

Heterogene IT-Infrastrukturen sind vor allem eins: Über die Zeit gewachsen und weisen damit in vielen Fällen eine „chaotische“ Grundordnung auf. Das wirkt sich auf verschiedene Bereiche wie zum Beispiel die vergebenen Rechte aus, was sich mittel- oder unmittelbar auf die Sicherheit der IT-Umgebung auswirken kann. Soll diese „gewachsene“ Infrastruktur in eine Hybrid-Cloud migriert werden, ist es immanent wichtig, die gesamte Rechtestruktur und die dazu gehörigen Berechtigungen vor dem geplanten Umzug in die Cloud vollständig zu überprüfen und gegebenenfalls anzupassen – für eine höchstmögliche Sicherheit von Anfang an.

Falls man dies nicht selber erledigen will, kann man sich an Firmen wie Varonis Systems wenden, die sich mit der Rechtevergabe On-Premise und On-Cloud bestens auskennt.

IBM QRadar und Varonis: ein ergänzendes Gespann

Varonis-Kunden, die SIEM-Systeme wie IBM QRadar einsetzen,  importieren die Alerts und Benachrichtigungen, die Varonis im Kontext der strukturierten und unstrukturierten Kundendaten erstellt, in das QRadar-System und können damit ihr gesamtes Nachrichtensystem im großen Zusammenhang betrachten und auswerten.

Interessant an dieser Stelle ist auch die Möglichkeit, mithilfe des Varonis-Systems Alarmsignale in Echtzeit abzurufen, da diese auch in Echzeit erstellt und verschickt werden. Damit lassen sich jedwede Bedrohungen wie Ransomware & Co. schneller lokalisieren und dagegen vorgehen.

Varonis hilft seinen Kunden in Sachen DSGVO

Varonis hilft ihren Kunden, bestimmte DSGVO-Forderungen bestmöglich umzusetzen. Dazu gehört beispielsweise das obligatorische Erstellen eines Verarbeitungsverzeichnisses, das in Artikel 30 geregelt wird. Das soll sämtliche Aufgaben auflisten, die während der elektronischen Verarbeitung personenbezogener Daten anfallen. Dieser nicht ganz triviale Aufwand erfolgt am ehesten über die sogenannten Log-Dateien, die speziell im Windows-Server-Umfeld anfallen. Diese Dateien sind sehr umfangreich und müssen daher mit geeigneten Mitteln und möglichst geringem Aufwand analysiert und nach personenbezogenen Daten durchforstet werden können.

Auch hier wird Varonis für ihre Kunden aktiv, indem sie genau diese Logging-Dateien permanent analysiert und überwacht. Auf dieser Basis sind zahlreiche Erkenntnisse und Aktionen möglich, wie das Ableiten von Benutzerverhalten oder unternehmensweite Suchabfragen. Und das stets vor dem Hintergrund DSGVO-relevanter Daten und Dateien.

Das Interview mit Thomas Ehrlich auf der it-sa 2018

Disclaimer: Diesen Videoblogpost habe ich im Auftrag von Varonis Systems erstellt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

 

Marcel Mock von der totemo AG über E-Mail-Verschlüselung

Videoblog: „E-Mail-Verschlüsselung ist wichtig und simpel“

Während der it-sa 2018 habe ich dieses Videointerview mit Marcel Mock von der Schweizer Firma totemo geführt. Darin spricht er über die Neuheiten von totemomail 7.0 und welche drei Irrtümer in Sachen E-Mail-Verschlüsselung sich hartnäckig halten.

totemomail 7.0 bietet zahlreiche nützliche Features

Wesentlichste und offensichtlichste Neuerung von totemomail 7 ist die vollständig überarbeitete Bedieneroberfläche. Damit soll vor allem eine bessere Usability erreicht werden, aber auch bestimmte Prozesse und Abläufe lassen sich vereinfachen. Darüber hinaus ist es mit der aktuellen Version möglich, Microsoft Rights Management-Features innerhalb des totemo-Gateways zu nutzen. So können E-Mail-Nachrichten und angehängte Dokumente mittels Microsoft AD RMS und Azure Information Protection geschützt werden.

Zudem bietet totemomail 7 eine eigene Rechteverwaltung, sodass IT-Administratoren auch außerhalb des Microsoft’schen E-Mail-Universums ihren Mailserver mit entsprechenden Rechten versehen können.

totemomail im Einsatz

Die Top-3-Irrtümer in Sachen E-Mail-Verschlüsselung

Noch immer halten sich bestimmte Annahmen äußerst hartnäckig, was das Verschlüsseln von E-Mails betrifft – und das meist völlig zu unrecht. Der wichtigste Irrtum lautet vermutlich: Das brauchen wir nicht! Richtig? Falsch, schauen Sie sich hierzu einmal Artikel 32 der DSGVO an. Dort wird das Verschlüsseln personenbezogener Daten explizit erwähnt.

Damit hat auch unmittelbar Irrtum Nummer 2 zu tun, der da lautet: Das ist alles viel zu teuer. Das stimmt zum einen nicht, und was zum anderen so richtig teuer wird, wenn Sie auf Basis der DSGVO belangt werden, weil Sie die sensible E-Mail-Daten nicht verschlüsselt haben. Und zum dritten Vorurteil, dass man es alleine nicht schaffen kann, sollten Sie sich diese Blogpostserie etwas genauer ansehen.

Das Interview mit Marcel Mock von der it-sa 2018

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Dr. Hubert Jäger von Uniscon über BYOK-Irrtümer

Videoblog: „BYOK ist leider kein Cloud-Daten-Allheilmittel“

Dieses Videogespräch habe ich mit Dr. Hubert Jäger von der Firma Uniscon geführt. Dabei geht es um vorherrschende BYOK-Irrtümer (Bring Your Own Key) und wie die Sealed Plattform seiner Firma helfen kann, Cloud Computing ein gutes Stück sicherer zu machen.

Life-Hacking auf der it-sa: So unsicher sind Cloud-Daten

Die Cloud kämpft nach wie vor mit einer Reihe von Vorurteilen, darunter auch mit der Annahme, dass Daten innerhalb einer Cloud-Umgebung nur dann sicher seien, wenn man die eigenen Schlüssel mitbringt. Dieser Grundsatz (der auch unter dem Akronym BYOK (Bring Your Own Key) bekannt ist) weist allerdings eine erhebliche Schwachstelle auf: Man kann mit relativ geringem Aufwand an die für das Entschlüsseln der Daten notwendigen Schlüssel herankommen. Hierfür muss lediglich ein sogenannter „Memory Dump“ erstellt werden, der es erlaubt, mit etwas technischem Verständnis und den richtigen Tools die Schlüssel zu extrahieren und zu missbrauchen.

Die Uniscon Sealed Plattform schützt Cloud-Daten vor fremden Zugriffen

Sieht man sich die DSGVO genauer an, so fällt unter anderem Artikel 5 auf, der unter dem Punkt 1c das Prinzip der Datenminimierung genauer beschreibt. Die Forderung hierbei lautet, dass die Erhebung und Verarbeitung personenbezogener Daten stets zweckgebunden sein muss. Gewährt man einem IT-Admin von Cloud-Servern allerdings weitergehende Rechte, als diese für das Erfüllen seiner Aufgaben notwendig sind (wie zum Beispiel das Erstellen eines Memory Dump), verstößt man nicht nur gegen die DSGVO, sondern ermöglicht auch ein unsicheres Einfallstor in die Cloud-Umgebung.

Genau an dieser Stelle kommt die Sealed Plattform ins Spiel. Auf Basis dieser Uniscon-Lösung kann man den IT-Administrator einer Cloud-Infrastruktur in seinen Rechten so weit einschränken, dass das Prinzip der Datenminimierung eingehalten werden kann.

So funktioniert die Sealed Plattform im Falle eines versuchten Datenklaus

Sollte trotz eingeschränkter Adminrechte und sonstiger Sicherheitsmaßnahmen ein Angriffsversuch auf die Cloud-Daten initiiert werden, sucht die Uniscon Sealed Plattform mit vier geeigneten Maßnahmen, diesen unliebsamen Hacking-Versuch zu unterbinden und die Daten zu schützen:

Mit dem Data Clean-Up werden im Falle eines Angriffs die Daten innerhalb einer sogenanten Data Clean-Up Area präventiv gelöscht. Dort befinden sich auch die Schlüssel, womit auch diese im Angriffsfall gelöscht werden, sodass die Daten erst gar nicht entschlüsselt werden können. Mit der Filterung wird der IT-Admin von diesem Bereich ferngehalten, da dies seine Kompetenzen übersteigen würde. Und schließlich findet ein Audit statt, der sicherstellt, dass der gesamte Data Cleanup-Prozess genau den Vereinbarungen entsprochen hat und damit die Daten weiterhin als sicher gelten.

Das vollständige Interview mit Dr. Hubert Jäger auf der it-sa 2018

Disclaimer: Für diesen Videoblogeintrag hat mich die Firma Uniscon beauftragt. Bei der Ausgestaltung der Inhalte hatte ich völlig freie Hand.

Leif Walter von Fortinet über Enterprise Firewalls und KI in der Security

Videoblog: „Enterprise Firewalls müssen performant, skalierbar und offen sein“

Während der it-sa 2018 habe ich mit Leif Walter von Fortinet dieses Videointerview geführt. Darin spricht er über die Besonderheiten der Fortinet Enterprise Firewalls und die künftige Rolle der Künstlichen Intelligenz im Kontext der IT-Security.

FortiGate Enterprise Firewalls sind performant, skalierbar und offen

Firewall-Lösungen für den Enterprise-Markt müssen vor allem performant und skalierbar sein, aber auch offen gegenüber anderen Systemen und Lösungen. Genau diesen Anforderungen werden Fortinet-Firewalls gerecht, indem sie auf Techniken basieren, die darauf abgestimmt sind. Hierbei steht vor allem die Netzwerk-Performance im Vordergrund genauso wie die Skalierbarkeit, die sich auf diverse Bereiche wie das Internet der Dinge und andere Segmente bezieht. Und klar, dass solche Firewall-Systeme auch mandantenfähig sein müssen.

Darüber hinaus spielen offene Schnittstellen eine zunehmend wichtige Rolle, da die Netzwerk-Topologien und ihre Komponenten immer heterogener werden und Anwender genau nach Lösungen suchen, die mit dieser Technikvielfalt klar kommen.

Künstliche Intelligenz in der IT-Security hat noch einen weiteren Weg vor sich

Die aktuelle Künstliche Intelligenz befindet sich im Grunde immer noch in einem Anfangsstadium, sodass immer noch von einer „schwachen“ KI die Rede ist, die innerhalb einer in sich geschlossenen Disziplin wie Autonomes Fahren oder Bilderkennung gute bis sehr gute Dienste leistet, also auch innerhalb der IT-Security.

Will man allerdings äußerst komplexe Bedrohungsszenarien mithilfe der Künstlichen Intelligenz schneller und zuverlässiger erkennen und abwehren können, ist eine sogenannte „starke“ KI vonnöten. Denn nur dort können die bisherigen „Insellösungen“ miteinander interagieren und schaffen damit ganz neue Modelle, die deutlich „schlauer“ sind als die heutigen Ansätze. Und genau dort wollen und werden sich Sicherheitsexperten wie Fortinet künftig noch mehr engagieren.

Das vollständige Interview mit Leif Walter

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden. 

Karsten Johannsen von IBM über Storage und KI

Videoblog: „KI-Systeme müssen skalierbar sein und gängigen Standards folgen“

Dieses Interview habe ich mit Karsten Johannsen von IBM über das Thema Künstliche Intelligenz und Storage gesprochen. Darin geht es aber auch um die Frage, warum Tech Data als wichtiger IBM-Partner die KI für sich entdeckt hat und welche Rolle IBM dabei spielt.

Tech Data begibt sich mit der KI auf neue Pfade

Gerade IT-Systemhäuser wie Tech Data müssen immer wieder neue Wege beschreiten, wollen sie neue Absatzmärkte gewinnbringend erschließen. Dazu gehört eben auch das weite Feld der Künstlichen Intelligenz, das das Unternehmen für sich entdeckt hat. So sollen in den nächsten Monaten und Jahren unter dem Begriff „Next Generation Technologies“ gemeinsam mit den Geschäftspartnern und Kunden KI-Szenarien und -Applikationen entwickelt werden.

Hierfür hat Tech Data gemeinsam mit IBM ein siebenköpfiges KI-Team aufgebaut, das sich künftig in den Bereichen Business Development, Architekturberatung, Vertrieb und Marketing tummeln wird.

Tech Data und IBM sind ein echtes KI-Gespann

Gemeinsam mit IBM will Tech Data seine Kunden (also Business Partner und Systemhäuser) näher heranführen an das Thema Künstliche Intelligenz. Hierfür gibt es dedizierte, unterstützende Maßnahmen seitens Tech Data/IBM, die den Tech Data-Kunden helfen sollen, eigene KI-Projekte umzusetzen. Denn in diesem Segment gestalten sich zahlreiche Anforderungen anders als bei herkömmlichen IT-Aufträgen, und genau an dieser Stelle soll und wird das Tech Data-IBM-KI-Team unterstützend aktiv.

Hierbei kommt vor allem das IBM-KI-Produktportfolio der Systems-Gruppe zum Einsatz, also alles, was mit den Begriffen IBM PowerAI und IBM Storage zu tun hat. So kommt es speziell bei KI-Projekten auf leistungsfähige Speicherlösungen an, da hier erfahrungsgemäß große Datenmengen anfallen und somit leistungsfähige Speichersysteme vonnöten sind.

Das verbirgt sich hinter der IBM KI-Referenzarchitektur

Wichtig ist bei einer geeigneten KI-Referenzarchitektur die Wahl der Komponenten, die den gängigen Standards folgen sollten. Wichtig ist aber auch eine bestmögliche Skalierbarkeit, sodass sich das System den jeweiligen Anforderungen ohne großen Aufwand anpassen lässt. Das ist speziell im KI-Umfeld von großer Wichtigkeit, da sich viele Unternehmen nach wie vor im Experimentierstadium befinden.

Gleichzeitig merkt dann der ein oder andere KI-Projektverantwortliche relativ schnell, dass die Datenmengen exponentiell anwachsen und die Maschine sowie die zugehörigen Speicherkomponenten schneller an ihre Grenzen stoßen als angenommen. Daher setzt Tech Data in Zusammenarbeit mit IBM auf die PowerAI- und IBM Spectrum-Produktfamilien, da diese die beschriebenen Voraussetzungen erfüllen.

Das komplette Interview mit Karsten Johannsen

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

 

Eric Dreier von Axians über den Einsatz von KI in der IT- und OT-Security

Videoblog: „Industrieanlagen sind ganz besonders schützenswert“

Dieses Interview habe ich mit Eric Dreier von Axians auf der it-sa 2018 geführt. Darin spricht er über den Einsatz von KI in der IT-Security und warum Industrieanlagen besonders schützenswert sind.

KI-Algorithmen kommen in der IT-Security verstärkt zum Einsatz

Immer dort, wo Security-Anwendungen bestimmte Muster oder Verhaltensweisen beobachten bzw. vergleichen sollen, kommen Algorithmen der Künstlichen Intelligenz vorzugsweise zum Einsatz. Das bezieht sich vor allem auf SIEM-Applikationen, mit deren Hilfe sich beispielsweise Benutzerverhalten überprüfen lassen.

Ein weiteres Feld für KI-Ansätze findet man in der sogenannten Operational Technology (OT), ein Begriff, der momentan hauptsächlich als Synonym für Industrieanlagen genutzt wird. Hierbei geht es allerdings weniger um einzelne Anwender oder Maschinen, sondern meist um die komplette Anlage und deren Risiken, von außen angegriffen zu werden. Das kann z.B. ein anormales Kommunikationsverhalten verhalten sein, was sich wiederum sehr gut in ein vorhandenes SIEM-System übertragen und dort analysieren und bewerten lässt.

Industrieanlagen sind besonders schützenswert

Vor allem die Art der Schäden im Bezug auf Industrieanlagen erfordern für diese Systeme weitaus profundere Sicherheitsmechanismen, als das bei IT-Systemen der Fall ist. So bietet der Ausfall eines Heizkraftwerks oder der Angriff auf eine hochsensible versorgungstechnische Anlage ein viel höheres Gefahrenpotenzial als der Ausfalls eines Servers o.ä. Daher ist die zugrunde liegende OT sehr viel schützenswerter als die IT.

Das komplette Videointerview mit Eric Dreier

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden. Weitere Informationen zum Thema Axians und Security finden Sie auf der zugehörigen Internetseite.