Sergej Schlotthauer, Matrix42, über aktuelle Sicherheitssthemen

[Videoblog] Sergej Schlotthauer über Matrix42, EgoSecure und aktuelle Sicherheitsthemen

Während einer IDC-Veranstaltung zum Thema IT-Sicherheit habe ich dieses Interview mit Sergej Schlotthauer von Matrix42 geführt. Darin spricht er über das „Center of Excellence for Security“, über Endpoint Management und die wichtigsten, aktuellen Security-Themen.

Sergej Schlotthauer verantwortet „Center of Excellence for Security“

Mit dem Zusammenschluss der beiden Firmen Matrix42 und EgoSecure entstanden für Matrix42 ganz neue Möglichkeiten, die im „Center of Excellence for Security“ mündeten. Dieser neuen Einrichtung steht Sergej Schlotthauer vor, in der unter anderem die Themen Endpoint Security und Software Management im Vordergrund stehen. Und genau mit diesen Schwerpunkten wollen und werden Matrix42 und EgoSecure künftig den Markt mit neuen Lösungen versorgen.

So gibt es beispielsweise gemeinsame Aktivitäten im Kontext der DSGVO, denn hierfür müssen Daten verschlüsselt und Zugriffe darauf verhindert werden. Und genau darum kümmert sich künftig Matrix42 mit der Expertise von EgoSecure.

Endpoint Management wird immer wichtiger

In Zeiten, in den Daten eine wahre Goldgrube darstellen, wird der Schutz derselben immer wichtiger. Daher müssen künftig vor allem die möglichen Einfalltore noch besser geschützt werden. Neben den klassischen Desktop- und Notebook-Rechnern sind das verstärkt Smartphones, Tablets und andere Geräte, auf denen Daten liegen oder die ihre Daten auf dem Firmenserver speichern wollen. Hierfür sind erprobte Managementlösungen und sichere Verschlüsselungsverfahren erforderlich.

Aktuelle Sicherheitsthemen: externe Angriffe und Datenschutz

Sieht man sich die aktuellen Sicherheitsrisiken an, mit denen IT-Beauftragte konfrontiert werden, lassen sich vor allem zwei Themen nennen: Angriffe von außen und der Datenschutz im Geiste der DSGVO.

Im Falle der externen Bedrohungen ist es zwingend erforderlich, mehr und mehr über die Automatisierung von Sicherheitsmaßnahmen nachzudenken. Denn die Bedrohungen von außen werden immer intelligenter und zielgerichteter, sodass es nicht mehr reicht, einen IT-Adminstrator vor eine Konsole zu setzen in der Hoffnung, dass er die Angriffe abwehren kann. Daher sind intelligente Systeme erforderlich, die vollautomatisch Angriffe erkennen und diese eliminieren können.

Beim zweiten Thema Datenschutz fällt auf, dass die Akzeptanz der hierfür notwendigen Maßnahmen verbessert werden sollte. Denn immer noch herrscht bei vielen Anwendern der Eindruck vor, dass Datenschutzmaßnahmen ihre Effizienz negativ beeinträchtigen – was zwar eine sehr subjektive, aber durchaus ernstzunehmende Wahrnehmung ist. Um dem vorzubeugen, sind die richtigen Mittel und Wege erforderlich, um den Anwendern das Gefühl zu geben, dass ihr Arbeitsplatz einerseits sicher und andererseits genauso produktiv wie vorher ist. Oder vielleicht sogar noch sicherer und noch produktiver als vorher.

Das vollständige Interview mit Sergej Schlotthauer

Peter Ratuschni, Dt. Nationalbibliothek, über IBM Spectrum Scale

[Videochat] „Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event!“

Auf dem großen IBM Spectrum Scale Strategy Days-Event hatte ich die Gelegenheit, dieses Videointerview mit Peter Ratuschni von der Deutschen Nationalbibliothek zu führen. Darin spricht er von gesetzlichen Verpflichtungen, großen Datenmengen sowie interessanten und wichtigen Gesprächen mit IBM-Entwicklern zum Thema Software-definded Storage.

Da Herr Ratuschni für den gesamten IT-Bereich der Dt. Nationalbibliothek verantwortlich ist, trafen er und sein Team die Entscheidung, IBM Spectrum Scale für den Storage-Fuhrpark einzusetzen. Und das aus diversen Gründen. So hat die Dt. Nationalbibliothek den gesetzlichen Auftrag, sämtliche Publikationen in Deutschland für die Nachwelt zu archivieren und zu wissenschaftlichen Zwecken zur Verfügung zu stellen. Da auf diese Weise große Datenmengen zustande kommen, setzt die Dt. Nationalbibliothek zwei IBM-Speichersysteme vom Typ Elasctic Storage Server zu Präsentationszwecken ein, auf denen IBM Spectrum Scale implementiert wurde.

Schneller Datenzugriff mit eindeutigen Dateipfaden – das ermöglicht IBM Spectrum Scale

Diese Kombination führt laut Herrn Ratuschni zu verzögerungsfreien Zugriffen auf beliebige elektronische Dokumente innerhalb der riesigen Datenbestände der Dt. Nationalbibliothek. Doch nicht nur das schnelle Bereitstellen der gewünschte Objekte steht im Vordergrund, sondern auch der garantierte Zugriff über stets dieselben Dateipfade, was mit IBM Spectrum Scale ermöglicht wird. In Ergänzung zu Spectrum Scale kommt in der Dt. Nationalbibliothek auch IBM Spectrum Protect zum Einsatz. Diese Datensicherungslösung von IBM zielt vor allem auf virtuelle Storage-Umgebungen ab, weswegen sich die Dt. Nationalbibliothek genau dafür entschieden hat.

„Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event“

Natürlich hat mich auch interessiert, warum Herr Ratuschni auf der IBM Spectrum Scale-Veranstaltung war. Bereits zum dritten Mal dabei, sieht er das Event als sehr gute Möglichkeit, alle Neuigkeiten rund um die Software-defined Storage-Lösung von IBM zu konsumieren. Obendrein schätzt er die Gelegenheit, mit IBM-Entwicklern aus Deutschland und den USA zu sprechen und so drängende Fragen zu klären. Zudem waren Veränderungen rund um den Spectrum Scale-Service für Herrn Ratuschni von großem Interesse, die ebenfalls auf dem Event vorgestellt wurden.

Dt. Nationalbibliothek, SVA und IBM – ein erprobtes Team

Interessant wurde es auch am Ende des Interviews, als die Zusammenarbeit zwischen der Dt. Nationalbibliothek und IBM ins Gespräch kam. So habe ich gelernt, dass die Firma SVA aus Wiesbaden (die ich auch schon unterstützen durfte), den Rahmenvertrag mit dem Bund in Sachen IBM-Storageprodukte inne hält. Daraus ergibt sich laut Herrn Ratuschni eine sehr gute Zusammenarbeit zwischen der Dt. Nationalbibliothek, IBM und SVA, was vor allem das Beschaffen und Bereitstellen benötigter Storage-Lösungen betrifft.

Das komplette Videointerview mit Peter Ratuschni in voller Länge

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Dirk Thometzek von Rohde & Schwarz über IBM Spectrum Scale und SpycerBoxen

[Videochat] „Mit IBM Spectrum Scale gehen keine Daten verloren – trotz Speicherwechsel“

Während der IBM Spectrum Scale Strategy Days 2018, für die mich IBM als Videoblogger engagiert hatte, durfte ich dieses Videointerview mit Dirk Thometzek führen, der bei Rohde & Schwarz für den Bereich Storage Solutions verantwortlich ist. Während der viereinhalb Minuten habe ich erfahren, über welche Themen Herr Thometzek während seines Vortrags auf dem IBM-Event gesprochen hat, warum die IBM Spectrum Scale-Technik in der SpycerBox-Serie von Rohde & Schwarz eingesetzt wird und was diese Storage-Appliances besser können als andere.

In seinem Vortrag sprach Herr Thometzek vor allem über die R&S SpycerBoxen, die von Rohde & Schwarz seit Ende 2017 in zwei Ausprägungen angeboten werden: als R&S SpycerBox Ultra TL und als R&S SpycerBox Cell. Allerdings war die Redundanz, die Spectrum Scale standardmäßig bietet, für spezielle SpycerBoxen-Anwendungen nicht ausreichend. Daher hat das Entwicklerteam von Rohde & Schwarz einen Software-Layer „gebaut“, der beim Video-Playout, also z.B. beim Ausstrahlen von Fernsehbildern, eine unterbrechungsfreie Datenübertragung garantiert. Auch davon handelte sein Vortrag.

Werbeclips müssen unterbrechungsfreie ausgestrahlt werden – dafür sorgt Rohde & Schwarz

So sprach er beispielsweise von Werbung, die einen immer höheren monetären Wert erfährt. So kostet beispielsweise ein 30-sekündiger Werbeclip während der Superbowl-Halbzeitpause rund 5 Millionen Dollar. Damit wird schnell klar, dass das Abreißen des zugehörigen Datenstroms unter monetären Aspekten ziemlich fatale Auswirkungen hätte. Der R&S-Layer, der für den unterbrechungsfreien Datenübertragung sorgt, basiert auf einer Technik, die sich Virtual Storage Access (VSA) nennt. Damit können zwei Storage-Cluster, die unabhängig voneinander arbeiten, wie ein einziger dargestellt und genutzt werden.

Mit IBM Spectrum Scale gehen keine Daten mehr verloren – trotz Speicherplatzwechsel

Doch warum kommt ausgerechnet IBM Spectrum Scale bei Rohe & Schwarz zum Einsatz? Nun, das ist vor allem der Tatsache geschuldet, dass in der Medienbranche zahlreiche Anwendungen eingesetzt werden, die unterschiedlichste Daten erzeugen, die wiederum auf unterschiedlichen Datenträgern gespeichert werden.  Daraus folgt in vielen Fällen ein wahres „Datenchaos“, das große Datensilos zur Folge hat. Dabei wird nicht unterschieden zwischen wichtigen Daten, also „Hot Data“, und weniger wichtigen Daten, also „Cold Data“. Vor allem die kalten, also weniger genutzten Daten, belegen oft teuren Datenspeicher, was eine ziemliche Verschwendung von kostbaren Ressourcen bedeutet.

Genau an dieser Stelle kommt IBM Spectrum Scale zum Einsatz. Denn mithilfe von Features wie „Global Name Space“ und „Information Lifecycle Management“ können Daten unterschiedlicher Storage-Pools für den Anwender unbemerkt verschoben werden, ohne dass sich die Zugriffspfade ändern. Folge: Daten liegen virtuell stets am gleichen Ort, obwohl sie zwischenzeitlich auf einem anderen Speicherelement „gelandet“ sein können, da sie vom teuren Speicher auf einen günstigeren transferiert wurden.

R&S SpycerBoxen genügen höchsten technischen Ansprüchen – bei der Datenraten und IOPS

In diesem Kontext wollte ich wissen, was die R&S SpycerBoxen besser machen als andere vergleichbare Lösungen. Hierbei verwies Herr Thometzek auf die langjährige Erfahrung von Rohde & Schwarz in den Bereichen Filmmastering und Videostreaming und die Anforderungen an Speicher in diesem Kontext. Da die erforderlichen Storage-Pools höchsten Leistungsanforderungen genügen müssen, die nicht jede Speicher-Hardware erfüllt, entschloss sich R&S dazu, den Video-Storage selbst zu bauen. Herausgekommen ist die SpycerBox-Familie, die ziemlich kompakte Maße aufweist, ohne dabei die erforderliche Leistung zu vernachlässigen.

So generiert beispielsweise ein 4K-Videostream problemlos einen Datenstrom von 4 bis 5 Gigabyte – pro Sekunde! Damit wird schnell klar, dass Video-Playout-Systeme echte Hochleistungssysteme sein müssen, und das zu einem überschaubaren Preis. Und genau dafür hat Rohde & Schwarz die passenden Produkte wie die SpycerBox Cell im Portfolio, die genau diesen Ansprüchen genügen.

Dirk Thometzek im Videonterview für IBM

Falls Sie die Erläuterungen von Herrn Thometzek höchstpersönlich anhören und -sehen möchten, empfehle ich dieses Videointerview. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

Alf Wachsmann vom Max Delbrück Institut über IBM Spectrum Scale

[Videochat] „Das IBM Spectrum Scale-Event ist wirklich fantastisch!“

Anlässlich der IBM Spectrum Scale Strategy Days 2018 konnte ich dieses Videointerview mit Alf Wachsmann vom Max Delbrück Centrum für molekulare Medizin führen. Darin spricht er über den aktuellen und geplanten Einsatz der Spectrum Scale-Technik innerhalb seines Instituts sowie über das Event selbst und warum er nach Ehningen zu IBM gereist ist.

Zunächst einmal wollte ich wissen, wovon der Vortrag von Herrn Wachsmann auf dem IBM-Event handelte. Nun, das Max Delbrück Centrum mit seiner Grundlagenforschung kam genauso zur Sprache wie die Einsatzbereiche von IBM Spectrum Scale, was eine perfekte Überleitung zur zweiten Frage war.

httpss://twitter.com/mhuelskoetter/status/968835972879323142

Die Software-defined Storage-Lösung namens Spectrum Scale kommt am Max Delbrück-Institut derzeit hauptsächlich zu Datenspeicherungszwecken zum Einsatz. Denn aufgrund von medizinischen Anwendungsfeldern wie Gensequenzierung, Massenspektrometrie und Mikroskopie werden am Max Delbrück Centrum riesige Datenmengen generiert, die unterschiedliche Zugriffscharakteristiken und Größen aufweisen.

IBM Spectrum Scale erlaubt einen enormen Datendurchsatz und kurze Wartezeiten

Daher können diese Daten nicht mit einem herkömmlichen Dateisystem verwaltet und analysiert werden, sondern erfordern eine Hochleistungssoftware wie IBM Spectrum Scale. Alleine schon aus Durchsatz-, aber auch aus Zeitgründen sind die Anwender des Instituts auf ein solch schnelles Datenspeichersystem angewiesen.

Doch setzt das Max Delbrück Centrum IBM Spectrum Scale überhaupt mit all seinen Möglichkeiten ein? Das konnte Herr Wachsmann mit einem „Nein“ beantworten, ergänzte aber auch gleichzeitig, dass er und sein Team die IBM-Software künftig intensiver und breiter nutzen wollen. Denn neben den bisher verwendeten Funktionen „Quotas“ und „Snapshots“ möchte er ein umfassendes Datenmangement auf Spectrum Scale-Basis implementieren.

Mithilfe der Policy Engine „Cold Data“ automatisch auf günstigere Datenspeicher transferieren

Das soll auf Basis der Policy Engine dazu führen, dass selten genutzte Dateien vom schnellen und teueren Massenspeicher automatisch auf kostengünstigere, weil langsamere Speicherbereiche zu transferiert werden. Das geht dann so weit, dass diese „kalten“ Daten letztendlich auf Bandlaufwerken landen, und das alleine schon aus Gründe der Compliance, also aufgrund von gesetzlichen Regelungen.

Für die IBM Spectrum Strategy Days 2018 hat Herr Wachsmann nur ein Wort übrig: „Fantastisch“. Das liegt zum einen an den wertvollen Informationen, aber auch an der Möglichkeit, sich mit Kollegen und IBM-Experten vor Ort auszutauschen. Denn auf diese Weise kann man etwas über Lösungsansätze anderer Firmen erfahren, auf deren Suche man gerade selbst ist. Das geht dann so weit, dass anwesende IBM-Vertreter bei der Bewältigung von Herausforderungen rund um Spectrum Scale helfen können.

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

IBM Spectrum Scale Strategy Days 2018

IBM Spectrum Scale Strategy Days 2018: Ehningen, I’m coming! [UPDATE]

Das werden meine ersten IBM Spectrum Scale Strategy Days, die ich als „eingekaufter“ Videoblogger begleiten darf. Spectrum Scale? Noch nie gehört? Ok, dann eine kurze Erklärung:

IBM Spectrum Scale ist eine skalierbare Hochleistungslösung für das Daten- und Dateimanagement (auf Basis der Technologie von IBM General Parallel File System oder GPFS, auch bekannt unter dem Codenamen Elastic Storage), die in unterschiedlichen Branchen weltweit zum Einsatz kommt. IBM Spectrum Scale vereinfacht das Datenmanagement und bietet integrierte Tools für den Informationslebenszyklus, die Petabyte an Daten und Milliarden Dateien verwalten können. So lassen sich die steigenden Kosten für das Management der ständig zunehmenden Datenmengen im Griff behalten. (Quelle: SVA GmbH)

Der IBM SSSD 2018 gliedert sich in drei Teile, wovon der erste Tag dem Einstieg in die Welt der Spectrum Scale-Softwarelösung vorbehalten ist, an den Tagen zwei und drei kommen dann zahlreiche IBM-Experten, aber auch IBM-Kunden zu Wort.

Fünf davon, genauer gesagt zwei IBM- und drei Kundenvertreter, werde ich mit meiner Videokamera befragen dürfen. Schließlich sollen die vielen Informationen, die dort präsentiert werden, nicht wieder einfach so versickern. Als Interviewpartner sind momentan folgende Personen vorgesehen:

  • Dirk Thometzek von Rohde & Schwarz GmbH & Co. KG
  • Alf Wachsmann vom Max Delbrück Center for Molecular Medicine
  • Alexander Gast vom WDR
  • Piyush Chaudhary von IBM
  • Kevin Gildea von IBM

Alle fünf Interviewpartner haben eine ganze Menge zu erzählen zum Thema IBM Spectrum Scale und Software-defined Storage. So werde ich unter anderem wissen wollen, wie IBM Spectrum Scale bei den Kunden zum Einsatz kommt, wie sich Spectrum Scale und Hadoop/Spark gegenseitig ergänzen, was Spectrum Scale und Künstliche Intelligenz miteinander zu tun haben, und einiges mehr.

Vier der fünf Interviewpartner werden einen eigenen Vortrag halten, die ich wie gewohnt per Twitter verfolgen und kommentieren werde. Das sind wie folgt:

10:15 – 10:40 Keynote: Cognitive Computing and Spectrum Scale Kevin Gildea
10:40 – 11:05 Spectrum Scale Big Data & Analytics Initiative Piyush Chaudhary (IBM)
Florian von Walter (HortonWorks)
14:00 – 14:20 Kundenbericht – Max Dellbrück Center (MDC) Alf Wachsmann (MDC)
15:40 – 16:00 Kundenbericht – Rohde & Schwarz Dirk Thometzek (R&S)

Darüber hinaus wird es weitere zahlreiche Informationen zum Thema IBM Spectrum Scale geben. Auszug gefällig?

  • Spectrum Scale Cloud Initiatitve
  • Was ist neu bei Spectrum Scale?
  • Erfahrungen aus der Portierung von Spectrum Scale auf IBM Z
  • uvm.

Seien Sie also gespannt auf das, was morgen, übermorgen und überübermorgen  in Ehningen passieren wird. Ich bin es auch. Und klar, dass ich die Videointerviews allesamt auf meinem Blog veröffentlichen werde.

[Videochat] „Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event!“

[Videochat] „Das IBM Spectrum Scale-Event ist wirklich fantastisch!“

[Videochat] „Mit IBM Spectrum Scale gehen keine Daten verloren – trotz Speicherwechsel“

[Videochat] „Autonomes Fahren profitiert von IBM Spectrum Scale und Hadoop“

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Forrester-Review-Ergebnis als Infografik

Darum ist das frühe Evaluieren von Softwarefehlern so wichtig

In Zeiten von unsicheren Software-Applikationen, die aufgrund von Schwachstellen unerwünschten Eindringlingen wie Hackern zahlreiche Angriffspunkte bieten, wird der Sicherheitscheck von selbst programmierten Anwendungen immer wichtiger. Hierbei werden Firmen von speziellen Tools wie der CAST Application Intelligence Platform (AIP) unterstützt, die innerhalb der gesamten Entwicklungsphase eingesetzt werden können.

Das Ganze nennt sich Static Application Security Testing (SAST) und ist im besten Fall Teil des Software Development Life Cycle (SDLC), was im Deutschen für Software-Entwicklungs-Lebenszyklus steht. Dabei kommt es vor allem darauf an, die entsprechenden SAST-Tools in einem möglichst frühen Entwicklungsstadium der Anwendungssoftware einzusetzen. Denn das erlaubt ein rasches Aufspüren von vorhandenen Schwachstellen und Programmierfehlern, die die Sicherheit von Applikationen gefährden können.

SAST-Tools wie die CAST AIP im Fokus von Sicherheitsexperten und CIOs

Daher verwundert es nicht, dass immer mehr Sicherheitsverantwortliche größerer Firmen die Implementierung von SAST-Werkzeugen in den Software-Entwicklungszyklus entweder bereits realisiert haben oder planen, dies zu tun. Zu diesem Ergebnis kommt zumindest das Marktforschungsinstitut Forrester Research in seiner Umfrage mit dem Titel „Forrester Data Global Business Technographics Security Survey, 2017“.

Dabei stellte sich nämlich heraus, dass schon zahlreiche Unternehmen SAST-Tools einsetzen oder planen dies zu tun. Etwas unverständlich dabei ist allerdings, warum sie damit in vielen Fällen erst zu einem recht späten Zeitpunkt innerhalb des Entwicklungszyklus‘ beginnen, und zwar erst während der Test- bzw. Produktionsphase. Dabei ist das Evaluieren von möglichen Schwachstellen zu einem früheren Zeitpunkt sehr viel sinnvoller.

Forrester-Umfrage zur Implementierung von SAST-Tools

10 Probanden und wichtige Erkenntnisse des Forrester SAST-Reviews

Dasselbe Unternehmen hat ebenfalls erst kürzlich eine umfangreiche Marktbetrachtung samt Funktionstest veröffentlicht, in dem es die zehn bekanntesten SAST-Tools unter die Lupe nimmt. Zu diesem erlesenen Feld gehören unter anderem CA Veracode, CAST, Ceckmarx, Micro Focus, Synopsys und andere Probanden. Der Name diese Studie lautet The Forrester Wave: Static Application Security Testing, Q4 2017.

Download-Tipp: Die detaillierte Auswertung der Studie steht mithilfe einer kurzen Registrierung als Download auf der CAST-Webseite zu Verfügung.

Wichtig dabei war, ob die SAST-Tools Dinge wie das Scannen von Quellcode beherrschen, und das auf möglichst breiter Programmiersprachen-Basis, inkrementelle Scans unterstützen, Meilensteine vorsehen sowie die Integration des SAST-Tools innerhalb der Entwicklungsumgebung ermöglichen, und das alles „Out of the Box“, also ab Werk quasi. Darüber hinaus wurde die aktuelle Vermarktungsstrategie sowie der Marktanteil des jeweiligen SAST-Tools betrachtet und bewertet. Herausgekommen bei dieser Evaluierung sind zahlreiche interessante Erkenntnisse:

Die CAST AIP punktet vor allem in Spezialdisziplinen

Hinter den „Platzhirschen“ Synopsys und CA Veracode tummeln sich drei ernstzunehmende Alternativen, die ihre Stärken vor allem in speziellen Bereichen ausspielen. Im Falle der CAST AIP betrifft dies unter anderem den breiten Support an Programmiersprachen, weswegen die CAST AIP eine sehr gute Option für Unternehmen darstellt, in denen Sprachen wie Javascript, .NET, Java, Python, C++, etc. zum Einsatz kommen.

Aber auch im Bereich „Akkuratesse“ kann die CAST AIP punkten. Hiermit kann der „Gesundheitszustand“ einer Anwendung ermittelt werden, und das runter bis auf Systemebene. Dabei wird vor allem die Qualität der einzelnen Softwarekomponenten sowie deren Verbindungen zueinander gemessen und bewertet.

CAST Application Intelligence Platform (AIP)

Bemerkenswert finden die Marktanalysten von Forrester auch das Dashboard der CAST AIP, mit dessen Hilfe Sicherheitsexperten, Software-Entwickler und CIOs die Qualitätsmerkmale ihrer Software auf einen Blick visualisieren können. Dazu gehören Kriterien wie Robustheit, Effizienz, Anpassbarkeit und Sicherheit der Anwendung. Aus diesen und weiteren Gründen kommt Forrester zu dem Schluss, dass die CAST AIP im Segment „Strong Performers“ anzusiedeln ist, und das wegen einer klaren Marktstrategie und einem soliden Produkt, mit dem sich Schwachstellen innerhalb von Quellcode ausfindig machen lassen.

Forrester-Review-Ergebnis als Infografik

Disclaimer: Dieser Blogbeitrag ist im Auftrag der Firma CAST entstanden, die mir bei der Ausgestaltung und Formulierung nahezu freie Hand lässt.

Sven Kaminiski, SVA, über NetApp ONTAP

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Sven Kaminski von der SVA über die Flexibilität und Möglichkeiten, die NetApp-Produkte im Allgemeinen und die ONTAP-Applikation im Speziellen bieten.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Meine erste Frage bezog sich auf die unterschiedlichen Workloads, die sich mithilfe der aktuellen NetApp-Produktlösungen abbilden lassen. Hier ist vor allem die ONTAP-Serie zu nennen, die sämtliche Protokolle am Markt unterstützt. Dazu gehört beispielsweise CIFS/SMB inklusive diverser Sicherheitsfunktionen, NFS für Unix- und VMware-Anbindungen sowie iSCSI und Fibre Channel.

Hieraus ergeben sich zahlreiche Anwendungsmöglichkeiten wie zum Beispiel Splunk-Applikationen für das Erfassen und Speichern von Maschinen-Logdaten. Es lassen sich also laut Herr Kaminski 80 bis 90 Prozent aller aktuellen Workloads mit nur einer Anwendung erfassen und speichern, nämlich mit NetApp ONTAP. Hierfür werden obendrein Funktionen wie die Hochverfügbarkeit und Disaster Recovery unterstützt.

NetApp SolidFire für Next-Gen-Rechenzentren

Darüber hinaus hat NetApp die SolidFire-Produktreihe im Portfolio, mit der Rechenzentren der nächsten Generation ausgestattet werden können. Diese Storage-Systeme wenden sich beispielsweise an Service Provider, die bestimmte Speicherklassen definieren und zugesagte Minimum-I/Os einhalten wollen und müssen, da ihre Kunden genau das von ihnen erwarten.

NetApp ONTAP ist auf allen Cloud-Infrastrukturen zu Hause

Doch wie sorgt NetApp für ein Verschmelzen von Cloud und Rechenzentrum? Nun, auch hierfür bietet die ONTAP-Produktserie sämtliche Funktionen, die hierfür erforderlich sind. So lässt sie sich in Kombination mit einem Rechenzentrum sowohl in Private- als auch Public Cloud-Umgebungen einsetzen, je nach Anforderungen und Wünschen des Kunden. Damit müssen sich diese nicht für das ein oder andere RZ-Cloud-Modell entscheiden, sondern können jederzeit die für sie beste Kombination nutzen.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videobeiträge vom SVA StorageDay 2017

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Gero Dieckmann über den SVA StorageDay 2017

Fritzbox-Datenverkehr mit Wireshark auswerten -Beitragsbild

Fritzbox und Wireshark: WLAN-Router von AVM monitoren (Teil 1)

Im Rahmen meiner Netzwerk-Monitoring-Serie habe ich bisher vor allem diejenigen Aspekte betrachtet, die sich auf größere IT-Infrastrukturen beziehen. Was aber, wenn in einem kleineren Büro, wie das in Agenturen häufig der Fall ist, nur ein WLAN-Router zum Einsatz kommt wie zum Beispiel die Fritzbox von AVM. Ist dann auch eines der komplexen Tools à la PRTG Network Monitor von Paessler vonnöten?

Die schlichte Antwort: Nein! Die etwas längere: Der gesamte Datenverkehr der Fritzbox kann mitgeschnitten und mithilfe eines passenden Tools ausgewertet werden. Im heutigen ersten Teil erfahren Sie, wie dies geschieht, im zweiten dann, wie sich diese Netzwerküberwachung praktisch anwenden lässt.

Um den Datenverkehr der Fritzbox aufzuzeichnen (oder auch nur Teile davon), ist folgende Vorgehensweise erforderlich:

Hinweis: Das folgende Beispiel wurde auf der Fritzbox 7590 mit der FritzOS-Software Version 6.92 durchgeführt.

1. Melden Sie sich an der Fritzbox an und klicken Sie auf den Menüeintrag „Inhalt“ am linken unteren Ende der Startseite.

Fritzbox - Datenpakte aufzeichnen - Schritt 2

2. Verzweigen Sie an das Ende der Übersichtsseite „Fritzbox Inhalt“ und klicken Sie auf „Fritzbox Support“.

3. Navigieren Sie zum Punkt „Paketmitschnitt“ und klicken dort auf „Paketmitschnitte“.

Fritzbox - Datenpakte aufzeichnen - Schritt 3

4. Nun sehen Sie sämtliche Schnittstellen der Fritzbox, die sich im laufenden Betrieb aufzeichnen lassen. Dazu stehen neben den klassischen LAN- und WLAN-Ports auch die USB-Buchsen und die Internetverbindung für die Überwachung zur Verfügung.

5. Klicken Sie auf Start, um den betreffenden Mitschnitt zu starten. Während der Aufzeichnung sollten Sie das Fenster nicht schließen. Der Datenmitschnitt erfolgt im Download-Ordner, zumindest ist das auf dem Mac der Fall. Sie können auch mehrere Schnittstellen gleichzeitig überwachen.

Fritzbox - Datenpakte aufzeichnen - Schritt 4

6. Sobald Sie die Datenpaketaufzeichnung beenden wollen, klicken Sie auf Stopp, und die Mitschnittsdatei(en) wird/werden auf dem Rechner mit der Kennung „eth“ gespeichert.

Mit Wireshark die Fritzbox-Protokolldaten auswerten und analysieren

Für die Auswertung der Mittschnittsdaten benötigen Sie das passende Software-Werkzeug. Ein sehr empfehlenswertes ist Wireshark, das für Windows, Mac OS und Linux gratis zum Download bereit steht.

1. Sobald Sie das Tool installiert haben, öffnen Sie mittels „Datei“, „Öffnen“ die aufgezeichnete Protokolldatei(en) des Fritzbox-Mitschnitts.

2. Der mitgeschnittene Datenverkehr (in diesem Fall der WLAN-Verbindung) gibt allerlei Aufschluss über die Verbindungsdaten der ausgewählten Schnittstelle. Dazu gehören die Quellen, auf die der WLAN-Client zugegriffen hat (in diesem Fall mein Macbook), das zugehörige Protokoll und weitere Zusatzinfos.

3. Was das in der Praxis bedeutet und wie sich die Daten interpretieren lassen, erfahren Sie im zweiten Teil dieser Fritzbox-Wireshark-Serie.

CAST Application Intelligence Platform (AIP)

Softwarequalität bewerten: Wissenswertes zu CISQ und OMG

Stellen Sie sich einmal vor, Sie möchten eine Ihrer selbst entwickelten Anwendungen auf deren Qualität hin überprüfen. Um eine möglichst zuverlässige Aussage über die Effizienz, Stabilität und Sicherheit der Applikation zu bekommen, setzen Sie beispielsweise ein Analysetool wie CAST AIP (Application Intelligence Platform) ein. Doch woher nehmen Sie die Gewissheit, dass das Analysewerkzeug auch auf die richtigen Methoden und Standards setzt, mit denen die Zuverlässigkeit einer Software sichergestellt werden kann?

Genau für diesen Zweck gibt es umfassende Regelwerke, auf denen Analysetools wie die CAST AIP basieren. So werden für die Beurteilung einer Anwendung bis zu 1.200 Bewertungskriterien herangezogen, die die Software anhand bestimmter Qualitätsindikatoren bemisst und bewertet. Hierbei werden vor allem Kriterien überprüft wie Leistungseffizienz, Zuverlässigkeit, Sicherheit, Administration und Anpassungsfähigkeit .

Leistungseffizienz: Besonders der Quellcode und die Eigenschaften der zugehörigen Software-Architektur stellen die Leistungseffizienz einer Anwendung sicher. Die Effizienz einer Applikation spielt vor allem in Hochleistungsumgebungen eine große Rolle, da es hier auf schnelle Transaktionen ankommt und ein möglichst verlustfreies Ausführen des Quellcodes im Vordergrund steht. Damit gibt die Analyse dieses Kriteriums Aufschluss darüber, wie sich fehlerhafter Code negativ auf die Unternehmensziele einer Firma auswirken kann. So spielt die Leistungseffizienz beispielsweise bei kundenorientierten Applikationen wie einem Onlineshop eine große Rolle.

Zuverlässigkeit: Elastizität und Stabilität sagen etwas über die Zuverlässigkeit einer Software-Anwendung aus. Denn nichts ist gravierender und schwerwiegender als mögliche Programmausfälle oder -abbrüche, mit denen Anwender konfrontiert werden. So wird anhand bekannter ISO-Kennzahlen eine Anwendung unter anderem daran bemessen, wie viele Mängel sich aufgrund von Programmierfehlern nachträglich eingeschlichen haben, was die Anwendung insgesamt instabiler macht. Daher werden in diesem Fall Kriterien wie Softwarecrashes, Softwareausfälle und Softwarefehler betrachtet, die einen direkten Einfluss auf Anwender haben.

Sicherheit: Die schlechte Programmierung und eine unzureichende Anwendung der zugrunde liegenden Software-Architektur sind maßgeblich für mögliche Sicherheitsverletzungen verantwortlich. Das Ergebnis der Software-Analyse dieses Kriteriums stellt eine Risikoabschätzung dar, mit welchem Aufwand sich unternehmenskritische Software-Schwachstellen identifizieren und beheben lassen.

Transferierbarkeit: Software lässt sich vor allem dann mit einem angemessenen Aufwand kontinuierlich verbessern, wenn sich der zugehörige Quellcode möglichst gut verwalten lässt. Damit lässt sich der Aufwand recht gut einschätzen, der notwendig ist, um die betreffenden Stellen im Quellcode zu identifizieren und zu eliminieren. Das sorgt gleichzeitig für einen geringen Unabhängigkeitsgrad von einzelnen Software-Entwicklern, die an der Programmierung der Anwendung beteiligt waren.

Änderbarkeit: Wie viel Aufwand ist nötig, um den Quellcode einer Anwendung gemäß der erforderlichen oder gewünschten Anforderungen seitens der Anwender/Kunden anzupassen? Anhand des Kriteriums „Anpassungsfähigkeit“ wird genau diese Frage beantwortet.

Organisationen wie CISQ und ISO geben die Qualitätstandards vor

Doch auf welchen Qualitätskriterien beruhen die genannten Analysemethoden, die von Vereinigungen und Organisationen wie dem Software Engineering Institute (SEI), der International Standards Organizations (ISO), dem Consortium for IT Software Quality (CISQ) und IEEE (International Electrical und Electronics Engineers) entwickelt und verabschiedet wurden und werden?

Organisationen wie CISQ und OMG sorgen für fehlerfreie Anwendungssoftware

Nun, um diese Frage zu beantworten, reicht ein Besuch der CISQ-Webseite, auf der unter anderem all die 86 Software-Schwachstellen aufgeführt werden, anhand derer die Leistung, Zuverlässigkeit, Sicherheit, Leistungseffizienz und Administration einer Software bewertet werden können. Dazu gehören ganz triviale Fehler wie Buffer Overflow genauso wie die Umwandlung in einen kompatiblen Datentyp. Schön an dieser Liste sind die zahlreichen Lösungsvorschläge, die für jede einzelne Software-Schwachstelle angeboten werden.

Automatisierte Function Point-Methode zur quantitativen Beurteilung von Sourcecode

Neben den qualitativen Softwarekriterien, die sich mithilfe der CISQ-Standards überprüfen lassen, kommt auch der quantitativen Bewertung einer Anwendung eine immer größere Rolle zu. So ließen sich bis Mitte 2000 keine automatisierten Aussagen über den Umfang eines Sourcecodes treffen. Diesen Misstand behob die im Jahr 2014 verabschiedete Spezifikation „Automated Function Points“, die ein gemeinsames Projekt der Object Management Group (OMG) und CISQ darstellt. Hierbei werden anhand der ISO-Norm 20926 zahlreiche Regeln zurate gezogen.

So stehen zur quantitativen Bewertung einer Anwendung insgesamt fünf Elementarprozesse zur Verfügung, die einzeln bewertet werden. Das sind laut Spezifikation IFPUG-CPM 4.3.1 Eingaben (External Input, EI), Ausgaben (External Output, EO), Abfragen (External Inquiry, EQ), interne Datenbestände (Internal Logical File, ILF) und Referenzdaten (External Interface File, EIF).

Disclaimer: Dieser Blogbeitrag ist im Auftrag der Firma CAST entstanden, die mir bei der Ausgestaltung und Formulierung nahezu freie Hand lässt.

Serie: Wireless LAN per Monitoring-Software im Auge behalten

Das heimische Wireless LAN bzw. Drahtlosnetzwerk im Auge zu behalten, damit auch alles so funktioniert, wie man das möchte, ist an sich keine große Herausforderung. Sobald es aber ein komplexeres Konstrukt wird, das aus einer Vielfahl von Routern, Access Points und Repeatern wird, auf die zahlreiche Anwender gleichzeitig zugreifen, kommt der automatisierten Überwachung dieses Wireless LAN eine besondere Bedeutung zu. Da ist ein erprobtes Software-Tool vonnöten, mit dessen Hilfe das drahtlose Netzwerk permanent kontrolliert werden kann. Hierbei müssen zahlreiche Aspekte beachtet werden.

HäkchenSämtliche Router des WLAN sollten möglichst ständig verfügbar und online sein. Hierfür sollte man vor allem die Up- und Downtime aller Geräte im Auge behalten, und das am besten mithilfe geeigneter Sensoren wie dem Ping-Sensor.

Häkchen

In jedem Netzwerk gibt es bestimmte Spitzenzeiten, in denen verstärkt auf die Infrastruktur zugegriffen wird. Das gilt auch für das Wireless LAN. In diesem Fall können Sie mithilfe geeigneter Bandbreitenmessungen herausfinden, inwieweit sich die aktuelle Auslastung des Netzwerks verhält und ob diese Traffic-Spitzenzeiten verstärkt auftreten. Ist dies der Fall, sollte man eventuell über zusätzliche WLAN-Komponenten nachdenken.

HäkchenZu diesen Beobachtungen gehört auch die Entwicklung des gesamten Datenverkehrs über einen längeren Zeitraum. Dank geeigneter Traffic-Sensoren lässt sich auf Basis von Langzeitmessungen herausfinden, welche Daten über welche Router/Access Points/Repeater transportiert werden. Auch das liefert wertvolle Hinweise auf mögliche Überlastungen des Drathlosnetzwerks.

HäkchenDas kennen Sie bestimmt selber: Sobald man sich vom WLAN-Router entfernt, nimmt die Signalstärke und damit die Verbindungsqualität ab. Im heimischen Netzwerk ist das leicht zu lösen, in größeren Wireless LAN-Umgebungen ist das nicht ganz so trivial. Hierfür sind nämlich verschiedene Gründe verantwortlich, vom defekten Wifi-Chip des Routers bis hin zur schlechten Abdeckung des gesamten WLANs, da eine unzureichende Zahl an WLAN-Komponenten vorhanden ist.