Christopher Katzinski zur Blockchain-gestützten Fertigung

[Videochat] Christopher Katzinski von IBM über Blockchain-Marktplätze

Dieses Interview habe ich mit Christopher Katzinski von IBM auf der Hannover-Messe 2018 zum Thema Blockchain-Marktplätze geführt. Darin spricht er über die Möglichkeiten, die sich daraus für Fabrikinhaber und Firmen ohne Produktionsstätten ergeben, warum die Blockchain-Technologie hierfür eingesetzt wird und was IBM an dieser Stelle leistet.

„Was zeigt die Blockchain Techdemo auf der Hannover-Messe 2018?“

Die Techdemo Hyperfacture sollte das Potential zeigen, das in der Blockchain-Technologie für das produzierende Gewerbe schlummert. Dabei handelte es sich um eine Art Marktplatz, auf dem Produzenten freie Fertigungskapazitäten „verkaufen“ und Unternehmen ohne eigene Produktionszeiten „kaufen“ können.

Um Produktionskapazitäten an den Mann oder die Frau zu bringen bzw. zu erwerben, registrieren sich Fabrikinhaber und Firmen mit Produktionsbedarf auf der IBM Blockchain-Plattform. Sodann kann ein Unternehmen, das ein zu fertigendes Produktdesign besitzt, die Produktion desselben in Auftrag geben. Hierbei lässt sich genau festlegen, in welcher Qualität ein Produkt gefertigt werden soll, bis wann die Produktion abgeschlossen sein soll, und so fort.

Anschließend wird anhand einer bestmöglichen Übereinstimmung von angebotenen Fertigungskapazitäten und benötigten Produktionsmitteln ein sogenannter „Match“ hergestellt, der wie beim Onlinedating Anbieter und Nachfrager zusammenbringt. Um die Formalien wie die Bezahlung, Vertragsabschluss, etc. kümmert sich die Blockchain-Plattform.

Mithilfe der in die Produktionslandschaft integrierten IoT-Geräte lässt sich der aktuelle Fertigungszustand permanent darstellen. Damit kann beispielsweise der Auftragnehmer überprüfen, an welchem Standort produziert wird und ob es sich dabei um den vertraglich zugesicherten Fertigungsstandort handelt.

„Warum kommt in diesem Fall die Blockchain-Technik zum Einsatz?“

Der wesentliche Grund für den Einsatz der Blockchain-Technologie ist in diesem Fall das Thema Vertrauen. Denn dank der Blockchain-Plattform, auf dem Käufer und Verkäufer ins Geschäft kommen, lassen sich sämtliche Transaktionen speichern, und das unveränderlich. Das ist vor allem für mittelständische Unternehmen oder kleinere Start-ups wichtig, die einen eingeschränkten Bekanntheitsgrad aufweisen und damit einen nicht so hohen Stellenwert wie größere, bekanntere Mitbewerber genießen.

Genau für diese Unternehmen ist nämlich das Einhalten von Qualitätsstandards von allergrößter Wichtigkeit, was sich mithilfe der Blockchain-Technik transparent nachweisen lässt. Zudem ist in solche Systeme oft ein Rating-System integriert, womit sich Qualität und Zuverlässigkeit zusätzlich beurteilen lassen. Auch das erhöht das Vertrauen in das produzierende Unternehmen.

Für den Anbieter von Fertigungskapazitäten hingegen bietet solch ein System ebenfalls Vorteile, da sich Kriterien wie die Zahlungsmoral des Käufers von Produktionsmitteln transparent abbilden lassen. Diese und weitere Maßnahmen sorgen auf Käufer- und Verkäuferseite für eine erhöhtes Vertrauen.

„Wie kommt IBM an dieser Stelle ins Spiel?“

IBM kann innerhalb des Segments „Blockchain for Business“ durchaus als Pionier bezeichnet werden. So ist „Big Blue“ unter anderem seit 2016 Mitglied in der Hyperledger Foundation, wo gemeinsam mit der Linux Foundation die Blockchain-Technologie Hyperledger Fabric und Hyperledger Composer entwickelt wurde. Bei Hyperledger Fabric handelt es sich um ein Framework, mit dessen Hilfe Blockchain-Applikation entwickelt werden können. Diese Entwicklungsumgebung ist Teil der IBM Cloud, womit dieses Framework für jedermann zugänglich ist.

Für ein besseres Verständnis, welche Projekte sich mithilfe von Blockchain-Technologien realisieren lassen, bietet IBM Beratung, Workshops und andere unterstützende Maßnahmen an. Daraus resultierten bisher mehr als 400 Kundenprojekte, die mithilfe von IBM und Blockchain auf den Weg gebracht werden konnten. Allerdings ist nicht jede Anwendung blockchain-tauglich. Aber auch hier hilft IBM, genau das herauszufinden.

Das Interview mit Christopher Katzinski in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Justus Reich (IBM) über die Sicherheit von Industrieanlagen mittels IBM QRadar SIEM

[Videochat] Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM

Dieses Videointerview habe ich auf der Hannover-Messe 2018 mit Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM geführt. Darin spricht er über das Gefahrenpotential von Industrieanlagen, wie sich die Betreiber von solchen Anlagen gegen Angriffe von außen schützen können und was das alles mit IBM zu tun hat.

„Warum lassen sich Industrieanlagen nicht ganz so trivial absichern?“

Da Industrieanlagen eine deutliche längere Laufzeit als Standard-IT-Systeme aufweisen – das reicht bis zu 20 Jahren – kommen in den aktuellen Wasserkraft- und anderen Anlagen Techniken zum Einsatz, die schon etwas betagter sind, spricht nicht auf dem neuesten Stand sind. Damit sehen sich Industrieanlagen im Vergleich zu IT-Systemen einer größeren Gefährdung seitens möglicher Hackerangriffe ausgesetzt.

Klar ist auch in diesem Zusammenhang, dass sich diese Anlagen nicht mal eben so per Software-Update patchen lassen. Und genau dieser Umstand erfordert alternative Herangehensweisen und Methoden, wenn es um das Absichern von Industrieanlagen geht.

„Wie kann man Industrieanlagen gegen Angriffe von außen schützen?“

Für den Schutz von Industrie- und anderen Anlagen hat IBM ein Software-Tool im Programm, das sich IBM QRadar SIEM nennt, das ursprünglich für den IT-Bereich entwickelt wurde. Mit QRadar lassen sich sämtliche Informationen zu allen Netzwerkgeräten wie PLC- und SCADA-Controllern sammeln und darstellen. Darüber hinaus werden weitere Informationen rund um das Netzwerk mithilfe von QRadar ermittelt, womit der Software ausreichend Informationen zur Verfügung steht, um „guten“ von „schlechtem“ Netzwerk-Traffic unterscheiden zu können. Und das wiederum ist die Grundlage für entsprechende Maßnahmen, wenn es zu einem Angriff auf eine Industrieanlage kommt.

„Wie verhält sich IBM QRadar SIEM im praktischen Einsatz?“

Anhand des Beispiels eines Wasserkraftwerks lässt sich gut zeigen, wie IBM QRadar SIEM in der Praxis arbeitet. Hierzu werden einer oder mehrere PLC-Controller, die für die Steuerung der Anlage zuständig sind, mithilfe von QRadar permanent überwacht. Konkret gesagt, werden die gesamten Kommunikationsdaten zum Controller hin und davon weg fortwährend kontrolliert und dabei in Echtzeit entschieden, ob die Kommunikation mit dem Gerät eine bekannte oder eine eher unbekannte ist. Damit lässt sich zuverlässig feststellen, ob es sich um einen Angriff auf die Anlage handelt oder ob das Standard-Kommunikationsdaten sind.

In einfachen Fällen ist QRadar in der Lage, geeignete Maßnahmen zu ergreifen, um den Angriff abzuwehren. In anderen, komplexeren Fällen können die Administratoren der Industrieanlage schnell genug auf die Anomalie reagieren und die richtigen Schlüsse daraus ziehen.

Das Videointerview mit Justus Reich in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Eduard Erhart über IBM Supply Chain Insights

Eduard Erhart über IBM Supply Chains Insights und Watson AI

Während der Hannover-Messe 2018 habe ich dieses Videointerview mit Eduard Erhart zum Thema IBM Supply Chains Insights geführt. Mit diesem Tool hilft IBM ihren Kunden, Lieferkettenprozesse künftig mithilfe von Watson AI zu optimieren und einfacher zu gestalten.

„Was zeigt IBM [auf der Hannover-Messe] zum Thema Watson AI und Supply Chains?“

Kern des Demopunktes, an dem Eduard Erhart während der Hannover-Messe 2018 sein Wissen weitergegeben hat, war das Teilen von Erkenntnissen mit Messebesuchern rund um das Thema Supply Chains, also Lieferketten, und welche Erfahrungen IBM während der letzten Jahren im Kontext ihrer Supercomputer und Speicherlösungen sammeln konnte. Herausgekommen ist ein Softwaretool, das sich IBM Supply Chain Insights nennt, mit dem auf die sehr speziellen Anforderungen von Kunden an deren Lieferketten reagiert werden kann.

„Welche Vorteile ergeben sich dabei aus dem Einsatz von Künstlicher Intelligenz (AI)?“

Laut Herrn Erhart ergeben sich im Kontext von Lieferketten durch den Einsatz von Künstlicher Intelligenz ganz neue Möglichkeiten. So lassen sich mithilfe von IBM Watson AI Services die bestehenden Supply-Chain-Daten von Unternehmen um externe Daten und Informationen anreichern, die allerdings in vielen Fällen unstrukturiert vorliegen.

Genau das erfordert eine ganz spezielle Behandlung und Verarbeitung dieser Daten von außerhalb. An dieser Stelle kommt IBM Supply Chain Insights ins Spiel. Damit lassen sich die Daten des Kunden mühelos auswerten, bewerten und in den richtigen Kontext setzen mit den eigenen und fremden Daten.

„Wie profitieren IBM-Kunden [dabei genau] von IBM Supply Chain Insights?“

Die große Herausforderung, mit der sich Kunden und Anwender konfrontiert sehen, lautet: Wie kann ich die riesigen Datenmengen sinnvoll einsetzen, um möglichst schnell gewinnbringende Informationen über meine Lieferkettenprozesse zu bekommen? Hierfür bietet sich eben das Softwaretool IBM Supply Chains Insights an, das innerhalb der IBM Cloud zur Verfügung steht.

Damit haben IBM-Kunden einerseits einen schnellen Zugriff auf diese Lieferketten-Analysesoftware, andererseits können sie gleichzeitig die anderen vorhandenen IBM-Cloud-Tools nutzen, die dort ebenfalls bereit stehen. Auch damit lassen sich Lieferkettenprobleme analysieren und beheben. Dies geschieht unter anderem auf Basis eines Chattools, auf das jeder Anwender innerhalb des Unternehmen Zugriff hat.

„Wie genau arbeitet IBM Supply Chain Insights?“

IBM Supply Chain Insights betrachtet die vorhandenen Transaktionsdaten und erkennt automatisch die Abweichungen von einem vorher definierten Soll-Zustand. Sollte dieser Fall eintreten, wird der Anwender darüber in Kenntnis gesetzt, um darauf reagieren zu können. So kann er sich mit seinem Team innerhalb eines Chatrooms von IBM Supply Chain Insights treffen, um eine möglichst probate Lösung des Problems zu eruieren.

Dabei füttert er IBM Watson AI mit den gewonnenen Erkenntnissen und möglichen Lösungsansätzen, von denen Watson wiederum lernen kann. Was am Ende dazu führen soll, dass beim nächsten Auftreten eines ähnlichen oder gleichen Problems eine Lösung schneller herbei geführt werden kann.

Das Videointerview mit Eduard Erhart in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Tobias Stöckel auf der Hannover-Messe über Predictive Maintenance

[Videochat] Tobias Stöckel über Predictive Maintenance mit IBM Watson AI

Während der Hannover-Messe 2018 habe ich dieses Interview mit Tobias Stöckel von der IBM geführt. Darin spricht er über IBM Watson AI als Frühwarnsystem bei möglichen Materialfehlern und was IBM sonst noch zum Thema Predictive Maintenance beizutragen hat – inklusive der richtigen Hardware.

„Was zeigt die Techdemo „AI powered Factory?“

An diesem großen Demopunkt, der während der gesamten Hannover-Messe 2018 mehr als gut besucht war, stand vor allem das Thema Predictive Maintenance im Vordergrund. Zutaten waren hierfür Machine Learning mithilfe von IBM Watson, die beide in der Produktion zunehmend eingesetzt werden. Damit sollen unter anderem die Automatisierung von Qualitätskontrollen mithilfe von Visual Recognition ermöglicht und die Verfügbarkeit von Equipment verbessert werden.

„Wie hilft Watson AI bei der Früherkennung von Fehlern?“

Hierfür kommt die IBM Predictive Maintenance Solution zum Einsatz, mit der sich in diesem speziellen Fall Sensorwerte auslesen lassen, die einen genauen „Befindlichkeitsstatus“ des Roboters messen und diese an die IBM-Software übergeben können. Anschließend werden diese cloud-basierten Daten an Machine-Learning-Modelle übertragen, wo sie mit historischen Daten verglichen werden. Dies ermöglicht eine ziemlich genaue Vorhersage, wie sich der Roboter anhand der Vergangenheit in der Zukunft verhalten wird.

„Was trägt IBM für die Erkennung von Defekten bei?“

Mithilfe der IBM-Software Visual Insights lassen sich unter anderem Maschine-Learning-Modelle aufbauen, die für das Trainieren von Neuronalen Netzen erforderlich sind. Damit wird in diesem Fall festgelegt, wie zu untersuchende Fabrikationsteile aussehen sollen, die einerseits in Ordnung und andererseits defekt sind.

Hierfür ist natürlich eine leistungsstarke Hardware vonnöten, mit denen solche Neuronalen Netze samt ihrer Machine-Learning-Algorithmen trainiert werden können. Diese steht mit IBM PowerAI zur Verfügung, auf denen solche Aufgaben äußerst zügig erledigt werden können.

Das hat unter anderem mit der leistungsstarken NVIDIA Tesla-Grafikhardware zu tun, die in den PowerAI-Maschinen verbaut ist. Damit können Bilderkennungsaufgaben sehr schnell durchgeführt werden, was zum Beispiel im Kontext von flexiblen Herstellungsmodellen wichtig ist. Aber auch für dynamische Fehlerklassen sind möglichst kurze Trainingszyklen äußerst relevant.

Im Falle der Roboterdemo auf der Hannover-Messe wurde das System am Sonntag vor Messebeginn innerhalb weniger Stunden trainiert, wobei die meiste Zeit das Fotografieren der entsprechenden Bauteile in Anspruch genommen hat. Das Trainieren des Machine-Learning-Algorithmus selbst dauerte laut Herrn Stöckel nur wenige Sekunden!

Das Interview mit Tobias Stöckel in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Axel Rogaischus von IBM über Blockchain, Digital Twins und Künstliche Intelligenz

[Videochat] Axel Rogaischus (IBM) zu den Top-Themen auf der Hannover-Messe 2018

Mit Axel Rogaischus von IBM Deutschland habe ich dieses Interview zu den Top-Themen auf der Hannover-Messe 2018 geführt. Darin spricht er (aus IBM-Sicht) über die Blockchain-Technik, über digitale Zwillinge und über die Künstliche Intelligenz, soll heißen über IBM Watson AI.

Top-Thema Nummer 1: Blockchain-Technologie

Hierbei geht Herr Rogaischus vor allem auf Blockchain im Business-Umfeld näher ein. Doch was sind die besonderen Herausforderungen, wenn man von Blockchain-Lösungen im kommerziellen Einsatz spricht? Laut Herrn Rogaischus ist das in den allermeisten Fällen nicht die Technik an sich, denn die funktioniert zumeist tadellos, da oft nichts anderes als eine cloud-basierte Datenbanktechnik dahinter steckt.

Ein häufiger Knackpunkt ist eher die Governance bei der Implementierung einer Blockchain-Lösung innerhalb eines Netzwerks. Soll heißen: Wer hat den Blockchain-Hut auf? Wer bestimmt die „Mitspieler“ eines Blockchain-Netzwerks? An diesen und weiteren Entscheidungen scheitern leider nach wie vor viel zu viele Blockchain-Projekte.

Top-Thema Nummer 2: Digital Twins

Mit Digital Twins sind im Allgemeinen digitale Modelle bestehender Anlagen wie einer Fabrik gemeint, mit deren Hilfe exakte Simulationen vorgenommen werden, was zu einer Verbesserung von Prozessen führen kann, zu neuen Erkenntnissen rund um das reale Vorbild des digitalen Zwillings führt und vieles mehr.

Doch was macht ein Digital-Twin-Projekt wie der Port of Rotterdam auf einem Fertigungsevent wie der Hannover-Messe? Nun, interessant an diesem Digital Twin des Rotterdamer Hafens ist laut Herr Rogaischus die Komplexität dieser riesigen Anlage, die alleine im Jahr 2016 rund 29.000 Seeschiffe und 105.000 Binnenschiffe abgefertigt hat.

Und genau solch eine aufwändig zu wartende Anlage ist nun einmal auch eine Fabrik, von denen ebenfalls verstärkt digitale Zwillinge aufgebaut werden. Hiermit lässt sich am Rechner der gesamte Material-, Fertigungs- und Prozessfluss sowie sämtliche Maschinenketten anschaulich darstellen. Und genau diese Komplexität lässt sich mit vorhandener Technik in Form von Digital Twins mühelos abbilden.

Top-Thema Nummer 3: Künstliche Intelligenz

Mit der Künstlichen Intelligenz und deren Sub-Disziplinen wie Machine und Deep Learning werden künftig ganz neue Möglichkeiten geschaffen. Bei IBM hat man hierfür sogar eine eigene Marke geschaffen, die sich IBM Watson AI nennt, also Watson Artificial Intelligence. Mit dieser Technologie will IBM Anwendern helfen, Prozesse zu vereinfachen und zu verbessern, ganz gleich, an welcher Stelle das geschehen soll.

Speziell im Fertigungsumfeld – und damit auch auf der Hannover-Messe – spielt das Thema Predictive Maintenance eine immer wichtigere Rolle. Zu nennen sind hier beispielsweise der Use Case KONE, bei dem der Aufzug- und Rolltreppenhersteller mithilfe von Watson AI seine Außendienstmitarbeiter in die Lage versetzt, die notwendigen Wartungsarbeiten noch besser steuern und planen zu können. Hierfür stehen die notwendigen Informationen und Daten mithilfe von Watson AI bereits im Vorhinein zur Verfügung, mit denen sich Ausfälle von KONE-Anlagen präventiv vorhersagen lassen.

Das Interview mit Axel Rogaischus in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Peter Ratuschni, Dt. Nationalbibliothek, über IBM Spectrum Scale

[Videochat] „Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event!“

Auf dem großen IBM Spectrum Scale Strategy Days-Event hatte ich die Gelegenheit, dieses Videointerview mit Peter Ratuschni von der Deutschen Nationalbibliothek zu führen. Darin spricht er von gesetzlichen Verpflichtungen, großen Datenmengen sowie interessanten und wichtigen Gesprächen mit IBM-Entwicklern zum Thema Software-definded Storage.

Da Herr Ratuschni für den gesamten IT-Bereich der Dt. Nationalbibliothek verantwortlich ist, trafen er und sein Team die Entscheidung, IBM Spectrum Scale für den Storage-Fuhrpark einzusetzen. Und das aus diversen Gründen. So hat die Dt. Nationalbibliothek den gesetzlichen Auftrag, sämtliche Publikationen in Deutschland für die Nachwelt zu archivieren und zu wissenschaftlichen Zwecken zur Verfügung zu stellen. Da auf diese Weise große Datenmengen zustande kommen, setzt die Dt. Nationalbibliothek zwei IBM-Speichersysteme vom Typ Elasctic Storage Server zu Präsentationszwecken ein, auf denen IBM Spectrum Scale implementiert wurde.

Schneller Datenzugriff mit eindeutigen Dateipfaden – das ermöglicht IBM Spectrum Scale

Diese Kombination führt laut Herrn Ratuschni zu verzögerungsfreien Zugriffen auf beliebige elektronische Dokumente innerhalb der riesigen Datenbestände der Dt. Nationalbibliothek. Doch nicht nur das schnelle Bereitstellen der gewünschte Objekte steht im Vordergrund, sondern auch der garantierte Zugriff über stets dieselben Dateipfade, was mit IBM Spectrum Scale ermöglicht wird. In Ergänzung zu Spectrum Scale kommt in der Dt. Nationalbibliothek auch IBM Spectrum Protect zum Einsatz. Diese Datensicherungslösung von IBM zielt vor allem auf virtuelle Storage-Umgebungen ab, weswegen sich die Dt. Nationalbibliothek genau dafür entschieden hat.

„Wichtige Infos und tolle Gespräche – darum bin ich auf diesem IBM-Event“

Natürlich hat mich auch interessiert, warum Herr Ratuschni auf der IBM Spectrum Scale-Veranstaltung war. Bereits zum dritten Mal dabei, sieht er das Event als sehr gute Möglichkeit, alle Neuigkeiten rund um die Software-defined Storage-Lösung von IBM zu konsumieren. Obendrein schätzt er die Gelegenheit, mit IBM-Entwicklern aus Deutschland und den USA zu sprechen und so drängende Fragen zu klären. Zudem waren Veränderungen rund um den Spectrum Scale-Service für Herrn Ratuschni von großem Interesse, die ebenfalls auf dem Event vorgestellt wurden.

Dt. Nationalbibliothek, SVA und IBM – ein erprobtes Team

Interessant wurde es auch am Ende des Interviews, als die Zusammenarbeit zwischen der Dt. Nationalbibliothek und IBM ins Gespräch kam. So habe ich gelernt, dass die Firma SVA aus Wiesbaden (die ich auch schon unterstützen durfte), den Rahmenvertrag mit dem Bund in Sachen IBM-Storageprodukte inne hält. Daraus ergibt sich laut Herrn Ratuschni eine sehr gute Zusammenarbeit zwischen der Dt. Nationalbibliothek, IBM und SVA, was vor allem das Beschaffen und Bereitstellen benötigter Storage-Lösungen betrifft.

Das komplette Videointerview mit Peter Ratuschni in voller Länge

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als (Video-)Blogger beauftragt.

Dirk Thometzek von Rohde & Schwarz über IBM Spectrum Scale und SpycerBoxen

[Videochat] „Mit IBM Spectrum Scale gehen keine Daten verloren – trotz Speicherwechsel“

Während der IBM Spectrum Scale Strategy Days 2018, für die mich IBM als Videoblogger engagiert hatte, durfte ich dieses Videointerview mit Dirk Thometzek führen, der bei Rohde & Schwarz für den Bereich Storage Solutions verantwortlich ist. Während der viereinhalb Minuten habe ich erfahren, über welche Themen Herr Thometzek während seines Vortrags auf dem IBM-Event gesprochen hat, warum die IBM Spectrum Scale-Technik in der SpycerBox-Serie von Rohde & Schwarz eingesetzt wird und was diese Storage-Appliances besser können als andere.

In seinem Vortrag sprach Herr Thometzek vor allem über die R&S SpycerBoxen, die von Rohde & Schwarz seit Ende 2017 in zwei Ausprägungen angeboten werden: als R&S SpycerBox Ultra TL und als R&S SpycerBox Cell. Allerdings war die Redundanz, die Spectrum Scale standardmäßig bietet, für spezielle SpycerBoxen-Anwendungen nicht ausreichend. Daher hat das Entwicklerteam von Rohde & Schwarz einen Software-Layer „gebaut“, der beim Video-Playout, also z.B. beim Ausstrahlen von Fernsehbildern, eine unterbrechungsfreie Datenübertragung garantiert. Auch davon handelte sein Vortrag.

Werbeclips müssen unterbrechungsfreie ausgestrahlt werden – dafür sorgt Rohde & Schwarz

So sprach er beispielsweise von Werbung, die einen immer höheren monetären Wert erfährt. So kostet beispielsweise ein 30-sekündiger Werbeclip während der Superbowl-Halbzeitpause rund 5 Millionen Dollar. Damit wird schnell klar, dass das Abreißen des zugehörigen Datenstroms unter monetären Aspekten ziemlich fatale Auswirkungen hätte. Der R&S-Layer, der für den unterbrechungsfreien Datenübertragung sorgt, basiert auf einer Technik, die sich Virtual Storage Access (VSA) nennt. Damit können zwei Storage-Cluster, die unabhängig voneinander arbeiten, wie ein einziger dargestellt und genutzt werden.

Mit IBM Spectrum Scale gehen keine Daten mehr verloren – trotz Speicherplatzwechsel

Doch warum kommt ausgerechnet IBM Spectrum Scale bei Rohe & Schwarz zum Einsatz? Nun, das ist vor allem der Tatsache geschuldet, dass in der Medienbranche zahlreiche Anwendungen eingesetzt werden, die unterschiedlichste Daten erzeugen, die wiederum auf unterschiedlichen Datenträgern gespeichert werden.  Daraus folgt in vielen Fällen ein wahres „Datenchaos“, das große Datensilos zur Folge hat. Dabei wird nicht unterschieden zwischen wichtigen Daten, also „Hot Data“, und weniger wichtigen Daten, also „Cold Data“. Vor allem die kalten, also weniger genutzten Daten, belegen oft teuren Datenspeicher, was eine ziemliche Verschwendung von kostbaren Ressourcen bedeutet.

Genau an dieser Stelle kommt IBM Spectrum Scale zum Einsatz. Denn mithilfe von Features wie „Global Name Space“ und „Information Lifecycle Management“ können Daten unterschiedlicher Storage-Pools für den Anwender unbemerkt verschoben werden, ohne dass sich die Zugriffspfade ändern. Folge: Daten liegen virtuell stets am gleichen Ort, obwohl sie zwischenzeitlich auf einem anderen Speicherelement „gelandet“ sein können, da sie vom teuren Speicher auf einen günstigeren transferiert wurden.

R&S SpycerBoxen genügen höchsten technischen Ansprüchen – bei der Datenraten und IOPS

In diesem Kontext wollte ich wissen, was die R&S SpycerBoxen besser machen als andere vergleichbare Lösungen. Hierbei verwies Herr Thometzek auf die langjährige Erfahrung von Rohde & Schwarz in den Bereichen Filmmastering und Videostreaming und die Anforderungen an Speicher in diesem Kontext. Da die erforderlichen Storage-Pools höchsten Leistungsanforderungen genügen müssen, die nicht jede Speicher-Hardware erfüllt, entschloss sich R&S dazu, den Video-Storage selbst zu bauen. Herausgekommen ist die SpycerBox-Familie, die ziemlich kompakte Maße aufweist, ohne dabei die erforderliche Leistung zu vernachlässigen.

So generiert beispielsweise ein 4K-Videostream problemlos einen Datenstrom von 4 bis 5 Gigabyte – pro Sekunde! Damit wird schnell klar, dass Video-Playout-Systeme echte Hochleistungssysteme sein müssen, und das zu einem überschaubaren Preis. Und genau dafür hat Rohde & Schwarz die passenden Produkte wie die SpycerBox Cell im Portfolio, die genau diesen Ansprüchen genügen.

Dirk Thometzek im Videonterview für IBM

Falls Sie die Erläuterungen von Herrn Thometzek höchstpersönlich anhören und -sehen möchten, empfehle ich dieses Videointerview. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

Alf Wachsmann vom Max Delbrück Institut über IBM Spectrum Scale

[Videochat] „Das IBM Spectrum Scale-Event ist wirklich fantastisch!“

Anlässlich der IBM Spectrum Scale Strategy Days 2018 konnte ich dieses Videointerview mit Alf Wachsmann vom Max Delbrück Centrum für molekulare Medizin führen. Darin spricht er über den aktuellen und geplanten Einsatz der Spectrum Scale-Technik innerhalb seines Instituts sowie über das Event selbst und warum er nach Ehningen zu IBM gereist ist.

Zunächst einmal wollte ich wissen, wovon der Vortrag von Herrn Wachsmann auf dem IBM-Event handelte. Nun, das Max Delbrück Centrum mit seiner Grundlagenforschung kam genauso zur Sprache wie die Einsatzbereiche von IBM Spectrum Scale, was eine perfekte Überleitung zur zweiten Frage war.

httpss://twitter.com/mhuelskoetter/status/968835972879323142

Die Software-defined Storage-Lösung namens Spectrum Scale kommt am Max Delbrück-Institut derzeit hauptsächlich zu Datenspeicherungszwecken zum Einsatz. Denn aufgrund von medizinischen Anwendungsfeldern wie Gensequenzierung, Massenspektrometrie und Mikroskopie werden am Max Delbrück Centrum riesige Datenmengen generiert, die unterschiedliche Zugriffscharakteristiken und Größen aufweisen.

IBM Spectrum Scale erlaubt einen enormen Datendurchsatz und kurze Wartezeiten

Daher können diese Daten nicht mit einem herkömmlichen Dateisystem verwaltet und analysiert werden, sondern erfordern eine Hochleistungssoftware wie IBM Spectrum Scale. Alleine schon aus Durchsatz-, aber auch aus Zeitgründen sind die Anwender des Instituts auf ein solch schnelles Datenspeichersystem angewiesen.

Doch setzt das Max Delbrück Centrum IBM Spectrum Scale überhaupt mit all seinen Möglichkeiten ein? Das konnte Herr Wachsmann mit einem „Nein“ beantworten, ergänzte aber auch gleichzeitig, dass er und sein Team die IBM-Software künftig intensiver und breiter nutzen wollen. Denn neben den bisher verwendeten Funktionen „Quotas“ und „Snapshots“ möchte er ein umfassendes Datenmangement auf Spectrum Scale-Basis implementieren.

Mithilfe der Policy Engine „Cold Data“ automatisch auf günstigere Datenspeicher transferieren

Das soll auf Basis der Policy Engine dazu führen, dass selten genutzte Dateien vom schnellen und teueren Massenspeicher automatisch auf kostengünstigere, weil langsamere Speicherbereiche zu transferiert werden. Das geht dann so weit, dass diese „kalten“ Daten letztendlich auf Bandlaufwerken landen, und das alleine schon aus Gründe der Compliance, also aufgrund von gesetzlichen Regelungen.

Für die IBM Spectrum Strategy Days 2018 hat Herr Wachsmann nur ein Wort übrig: „Fantastisch“. Das liegt zum einen an den wertvollen Informationen, aber auch an der Möglichkeit, sich mit Kollegen und IBM-Experten vor Ort auszutauschen. Denn auf diese Weise kann man etwas über Lösungsansätze anderer Firmen erfahren, auf deren Suche man gerade selbst ist. Das geht dann so weit, dass anwesende IBM-Vertreter bei der Bewältigung von Herausforderungen rund um Spectrum Scale helfen können.

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

Jahresrückblick 2017 IT-techBlog

Jahresrückblick: Das geschah 2017 auf dem IT-techBlog

In ein paar Tagen geht dieses Jahr zu Ende, noch genug Zeit also, die fast abgelaufenen 365 Tage Revue passieren zu lassen. Da das zweite Halbjahr mehr zu bieten hatte als das erste, beginnt dieser Jahresrückblick im Dezember und endet im Januar. Viel Spaß beim Schmökern!

Dezember: SVA StorageDay 2017 und eine Menge Know-how

Ende Oktober fand der SVA StorageDay 2017 statt, der bis in den Dezember hinein auf meinem IT-techBlog sichtbar wurde. Und das aus gutem Grund, schließlich war ich dort vor Ort (in der ziemlich coolen Location Millertorstadion des FC St. Pauli), um mit Teilen der anwesenden SVA-Experten Videointerviews zu führen. Herausgekommen sind insgesamt fünf Gespräche, von denen zwei im Dezember und drei im November online gegangen sind.

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Gero Dieckmann über den SVA StorageDay 2017

Darüber hinaus habe ich zwei weitere Beiträge für meinen noch recht neuen Kunden CAST veröffentlich, und zwar zu den Themen „CAST Highlight ermittelt, wie cloud-tauglich Applikationen sind“ und „Darum ist das frühe Evaluieren von Softwarefehlern so wichtig„.

Ein weiterer Schwerpunkt auf dem IT-techBlog war im Dezember eine ganze Menge an technischem Wissen rund um die Themen „Internet“, „Netzwerktechnik“, „Verschlüsselung“ und „Ping“. Ach ja, und die Tatsache, dass in München wieder einmal ein Supercomputer gebaut wird, war mir eine Nachricht wert, die auf relativ großes Interesse stieß.

SuperMUC-NG: Der nächste Supercomputer aus München

November: SVA Storage Day und Netzwerk-Monitoring

Der November hatte blog- und arbeitstechnisch eine ganze Menge zu bieten. So gingen, wie bereits erwähnt, die ersten drei Blogbeiträge des SVA StorageDay 2017 online.

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

Darüber hinaus habe ich im November eine neue Serie gestartet, und zwar zum Thema Netzwerk-Monitoring, und das aus gutem Grund. So können meine Leser unter anderem lernen, wie das Überwachen von Netzwerkkomponenten funktioniert, worin der Unterschied zwischen Realtime- und Langzeit-Monitoring von Netzwerken besteht, welche Dienste und Komponenten sich überwachen lassen und einiges mehr.

Serie: Wichtige Fragen rund um das Netzwerk-Monitoring

Ansonsten war ich für meinen Kunden CAST aktiv, und zwar zu den Themen „Analyse von DevOps-Projekten“, „DSGVO“, „Cloud-Migration“, „Sicherheit von .NET- und Java-Apps“ und „Softwarequalität bewerten“. Und was im November auch ziemlich gut ankam, was mein Beitrag zum Thema „Fritzbox und Wireshark: WLAN-Router von AVM monitoren“.

Fritzbox und Wireshark: WLAN-Router von AVM monitoren (Teil 1)

Oktober: IBM, CAST und die DSGVO

Mitte September war ich für IBM auf zwei Veranstaltungen, die ich beide in Form von Videoblogbeiträgen für die Nachwelt festhalten durfte. Herausgekommen sind zahlreiche Veröffentlichungen vom IBM Storage Strategy Day 2017 und IBM z14 Launchevent , die die Bandbreite an Gesprächen sehr gut abbilden. Ein Teil davon ging im September online, und der Rest eben erst im Oktober.

[Video] Bernd Bohne von der SDV-IT zu IBM-Mainframes

[Video] Lars Herrmann (IBM) über das IBM Z-Event

Im Oktober begann auch meine Zusammenarbeit mit der Firma CAST, die Analysesoftware bereitstellt. Die ersten Beiträge handelten von der Frage, was CAST mit der IT-SA zu tun hat und warum CAST-Analysetools echte DSGVO-Helfer sind.

Apropos DSGVO: Mitte Oktober war ich unter anderem auf einer IDC-Veranstaltung zu diesem Thema. Herausgekommen sind zahlreiche Tweets und ein zusammenfassender Blogbeitrag. Das hat insgesamt für recht viel Aufmerksamkeit auf meinem Blog gesorgt.

DSGVO-Studie: Lehrreiches IDC-Event zum Thema Datenschutz

September: Praxisbeiträge und IBM-Videoblogposts

Der neunte Monat des Jahres war ziemlich arbeitsreich, wenn ich mir die 14 Einträge so ansehe. Los ging es mit drei Praxisbeiträgen, die allesamt eine Menge an Nutzwert bieten sollten. Damit wollte ich zeigen, wie die Mac-App von wordpress.com das Bloggen vereinfacht, wie sich die Fritzbox von außen steuern und nutzen lässt und wie der Umzug einer Fritzbox auf eine andere vonstatten geht.

Der große Schwerpunkt hatte aber wie bereits geschrieben mit den zwei großen IBM-Events zu tun, die ich in Wort und Bewegtbild begleiten durfte. Dazu gehörte das IBM z14-Event im IBM Watson IoT Center zu München und der IBM Storage Strategy Day 2017, der in der IBM-Zentrale Deutschland stattfand.

Herausgekommen sind neben den beiden verlinkten Rückblicken zahlreiche Videoblogbeiträge zu den Themen Mainframe und Storage.

[Video] Ulrich Walter, IBM, über Künstliche Intelligenz und Storage

[Video] Ralf Colbus (IBM) über die NVMe-Speichertechnik

[Video] Ed Walsh, IBM, über Storage-Trends aus IBM-Sicht

[Video] Dr. Axel Köster von IBM über Cognitive Storage

August: SVA, Fritzbox, Mac und PRTG

Der August ist zumindest in Bayern ein Urlaubsmonat, was mich aber nicht davon abgehalten hat, 17 Beiträge zu veröffentlichen. Los ging’s mit den etwas verspäteten Videoblogposts vom SVA VirtualizationDay 2017, der Mitte Juni stattgefunden hatte. Dort durfte ich fünf Videointerviews führen, die allesamt im August online gegangen sind.

[Videochat] Gero Dieckmann über IT-Slogans, Virtualisierung und den FC St. Pauli

[Videochat] Christian Strijbos über VMware-Lösungen wie VMware NSX

[Videochat] Stefan Müller über virtuelle CAD-/CAM-Arbeitsplätze

[Videochat] Christian Schmidt über software-defined Anything und digitale Transformation

[Videochat] Mark Sobol über EU-DSGVO, WannaCry und mehr

Doch nicht nur mit der SVA habe ich mich beschäftigt, sondern auch mit IBM und der IT-SA, mit meiner PA-Anlage TC-Helion Voicesolo FX150, mit der Navi-App Komoot und einigen anderen Dingen mehr.

Dazu gehört vor allem das Thema Fritzbox, mit dem ich mich intensiver auseinander gesetzt habe, und die Netzwerk-Monitoring-Anwendung PRTG, die ich vorgestellt habe.

Workshop: Internetzugang für Kinder richtig einschränken (Fritzbox 7430)

Und ja, ein Beitrag zum Thema Mac und was ich an den Rechner von Apple so mag, war auch mal wieder fällig.

Juli: IBM z14-Launch in München

Der Juli stand auf dem IT-techBlog ganz im Zeichen des IBM z14-Launch, der unter anderem im Münchner Presseclub stattfand. Und da mich „Big Blue“ eingeladen hatte, konnte ich dort drei Interviews führen, die allesamt auf meinem Blog online gingen.

[Videochat] IBM z14: Machine Learning, Blockchain, Apple Pay & Co.

[Videochat] IBM z14: Mainframes forever, DSGVO-Datenkopfschmerzen und mehr

[Videochat] IBM z14: Sicherheit first + „Made in Böblingen“ [Upd]

Juni: Flash-Event von speicherguide.de in München

Anfang Juni fand in München die erste FastForward Flash-Konferenz statt, die die lieben Kollegen (RIP, Berti!) von speicherguide.de mit organisierten. Damit war für mich ganz klar, dass ich von dort aus Bericht erstatten werde – und das ganz ohne monetäre Gegenleistung. Herausgekommen sind vier interessante Videogespräche auf meinem Blog.

FlashForward-Talk: „Flash ist vor allem für read-intensive Anwendungen interessant“

#flashMunich: „Flash ist der insgesamt günstigste Datenspeicher!“

FlashForward-Chat: „Gar kein Flash einzusetzen, ist wenig sinnvoll“

FlashForward-Talk: „Flash-Speicher wird zunehmend in anderen Szenarien eingesetzt“

Darüber hinaus blieb mir noch Zeit für das genauere Betrachten eines mobilen Videobeamers, dem iCodis CB-400.

April: Die große CeBIT 2017-Nachbetrachtung

Der April stand ganz im Zeichen der CeBIT 2017, auf der ich insgesamt zehn Videobeiträge produziert habe, die ich dann Stück für Stück und nicht alle auf einmal veröffentlicht habe. Dabei war die Bandbreite an Themen sehr groß. Das reichte von einer brandneuen DataCore-Lenovo-Storage-Appliance über IBM Cognitive Computing bis hin zu einem Roboter namens Paul.

CeBIT 2017: Stefan von Dreusche über die DataCore-Lenovo-Storage-Appliance

CeBIT 2017: Stefan von Dreusche über die DataCore-Lenovo-Storage-Appliance

CeBIT 2017: Bas Zwartkruis von ZTE über Smart Cities 3.0

https://www.it-techblog.de/cebit-2017-ulrich-reiser-von-unity-robotics-ueber-den-saturn-roboter-paul/04/2017/

CeBIT 2017: Dr. Hubert Jäger von Uniscon über Sealed Cloud und iDGARD

CeBIT 2017: Jan Füllemann von in-tech engineering zur geplanten eHealth-App

CeBIT 2017: Ulrich Walter von IBM über Künstliche Intelligenz und IBM-Systeme

CeBIT 2017: Oliver Naegele über die Notwendigkeit der Blockchain-Technik

März: CeBIT 2017 und Embedded World 2017

Der März führte mich auf zwei Reisen. Zunächst auf die Embedded World 2017 nach Nürnberg, und anschließend auf die CeBIT, die traditionell in Hannover stattfindet. Allerdings bin ich zum letzten Mal im März auf die CeBIT gefahren, denn von 2018 an öffnet die große IT-Messe im Sommer ihre Tore.

TenAsys-Videoimpressionen von der Embedded World 2017

CeBIT 2017: Yasser Eissa (IBM) über kognitive Cloud-Services in Frankfurt

CeBIT 2017: Gero Dieckmann über die SVA GmbH und künftige Herausforderungen

Februar / Januar: Produkt-Reviews

Der Anfang des Jahres war – wie so oft – ziemlich ruhig hier auf dem Blog. Und so habe ich den zweiten Teil meines MacBook-Pro-mit-Touchbar-Reviews veröffentlicht, genauso wie den Kurztest einer LED-Schreibtischlampe und von nützlichem USB-C-Zubehör, was für das Macbook Pro mit Touchbar hilfreich und nützlich ist.

Meine Erfahrungen mit der Touchbar des MacBook Pro (Teil 2)

 

 

Konrad Trojok, SVA, über Cognitive Storage

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

Dieses Interview habe ich anlässlich des SVA StorageDay 2017 in Hamburg in den heiligen Hallen des Millerntorstadions gedreht. Darin spricht Konrad Trojok von der SVA über Cognitive Computing/Storage, und warum sich Unternehmen verstärkt mit diesem Thema beschäftigen sollten.

httpss://twitter.com/mhuelskoetter/status/923465683140308997

Zunächst einmal wollte ich von Herrn Trojok wissen, wie das kognitive Computing die IT-Landschaft verändern wird (kC ist ein IBM-geprägter Begriff, der die Themen Künstliche Intelligenz, Machine Learning, etc. umschreibt). Seiner Meinung nach wird Cognitive Computing die aktuellen IT-Strukturen maßgeblich verändern.

Weg vom reaktiven IT-Dienstleister, hin zur agierenden Fachabteilung

So wird das heutige Modell eines IT-Dienstleisters, der Services bereitstellt, der also lediglich auf die Anforderungen seiner Anwender reagiert, vollständig abgelöst von agierenden Fachabteilungen, deren Ideen und Konzepte die erforderlichen IT-Modelle vorgeben. Dabei werden vor allem die generierten Daten im Vordergrund stehen, die in weitaus erheblicherem Umfang genutzt werden, als das heute der Fall ist.

Doch was macht Herrn Trojok so sicher, dass sich Cognitive Computing resp. Cognitive Storage durchsetzen wird? Nun, die Begründung hierfür ist recht schlicht: Um selbstlernende Systeme nutzen zu können, sind große Datenmengen erforderlich, die in geeigneter Form gespeichert werden müssen. Dabei hilft eine aufstrebende, zunehmend „schlaue“ Technik, die sich Objektspeicher nennt.

Mit Objektspeicher lassen sich jegliche Datentypen sichern – und auswerten

Damit werden nämlich genau diese großen Datenpools samt ihrer Bearbeitung bzw. Analyse möglich sein, und das im Hinblick auf strukturierte und unstrukturierte Daten. Hierbei werden die unstrukturierten Daten – also Videos, Protokolldaten, etc. – kontinuierlich an Bedeutung gewinnen. Wichtig ist auch das Archivieren dieser Daten, die heute generiert, aber möglicherweise erst morgen oder übermorgen benötigt und verarbeitet werden.

Aber, auch da ist sich Herr Trojok sicher, hat die kognitive Reise eben erst angefangen. Daher ist man bei der SVA sehr froh darüber, mit IBM einen innovativen und visionären Partner in Sachen Cognitive Computing an seiner Seite zu haben. Denn gemeinsam mit den passenden IBM-Produkten und Lösungen zu den Themen Objektspeicher und Co. wird die Transformation vom klassischen IT-Speicher zu kognitiven Speicherlösungen gelingen.

Sicherheitsbehörden setzen erste kognitive Lösungen bereits ein

So gibt es erste Prototypen in diesem Bereich, die sehr optimistisch stimmen, dass das Unterfangen Speichertransformation gelingt. Diese kommen beispielsweise in Sicherheitsbehörden bereits zum Einsatz. Genau so werden mehr und mehr Unternehmen auf zunehmend standardisierte CC-Lösungen setzen, die bei erhöhter Verbreitung kostengünstiger werden. Damit mutieren visionäre Lösungen zu praxiserprobten Lösungen.

Disclaimer: Dieser Beitrag und das zugehörige Video sind im Auftrag der SVA GmbH/Wiesbaden entstanden. Bei der Auswahl der Interviewfragen und der Erstellung des Blogposts hat mir die SVA größtenteils freie Hand gelassen.

Weitere Videobeiträge vom SVA StorageDay 2017

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Gero Dieckmann über den SVA StorageDay 2017