PrimeServer - Vorderansicht

Lüfterlos, kompakt, zuverlässig: PrimeServer, „gefertigt in der Schweiz“

Kunden fordern immer öfter von Ihren IT-Dienstleistern, ökologisch und ökonomisch verantwortungsvolle IT-Produkte ins Portfolio aufzunehmen. Das betrifft möglichst kurze Lieferketten, aber auch nachhaltige Produktionsmittel und längere Produktzyklen. Zudem sollen Server und Co. Umwelt und Anwender möglichst wenig belasten. 

Genau diese und weitere Ansprüche hat sich das Schweizer IT-Unternehmen Prime Computer aus St. Gallen auf die rot-weißen Fahnen geschrieben. Und das, was man so liest und hört, mit anhaltendem und überzeugendem Erfolg.

Zum Produktportfolio von Prime Computer zählen drei Bereiche: Desktop-PCs, Server und HiFi-Endstufen. Allen drei ist ein innovatives, lüfterloses Produktdesign gemein. In diesem Blogbeitrag gehe ich nur auf die Serversparte von Prime Computer näher ein.

Ausstattung und Leistungsdaten: lüfterloses Serverkonzept

Im PrimeServer steckt ein Intel Xeon-Prozessor, der über bis zu 12 Kernen verfügt, je nach Leistungsansprüchen der geplanten Anwendungen. De Clou daran: Aufgrund des durchdachten Kühlungskonzepts der PrimeServer muss die Intel-CPU nicht mithilfe eines Prozessorlüfters gekühlt werden, was zu einer enormen Ruhe im Serverbetrieb führt. Damit lässt sich der Server nahezu an jedem Ort betreiben, also auch außerhalb von Serverräumen.

PrimeServer - Rückseite

Dazu trägt auch das Serverdesign bei: Dank der Aluminiumbauweise und den integrierten Kühlrippen ist eine vollständige Passivkühlung möglich. Das spart Strom und schont die Nerven der Benutzer, da man einen PrimeServer im Grunde nicht hört. Zudem erhöht sich aufgrund des lüferlosen Ansatzes die Betriebssicherheit, da Staub und andere mögliche Störfaktoren erst gar nicht ins Innere des Servers gelangen.

Arbeitsspeicherseitig sind maximal 128 Gigabyte vorgesehen, für das Speichern der Daten stehen im PrimeServer Platz für bis zu drei SSD- oder HDD-Komponenten bereit, die sich per eingebautem RAID-Controller redundant betreiben lassen. Apropos Redundanz: Zwei parallel geschaltete Netzteile sorgen für eine relativ hohe Ausfallsicherheit. Praktisch sind auch die fünf Ethernet-Anschlüsse, damit stehen in Sachen Netzwerkverkabelung zahlreiche Optionen offen. 

Aufgrund seines geringen Gewichts (5 Kilogramm) und seiner geringen Ausmaße passen zwei PrimeServer nebeneinander in einen Standard-19-Zoll-Serverschrank. Damit kommt der Rechner auch in professionellen Serverumgebungen zum Einsatz.

PrimeServer - eingebaut als Duo im 19-Zoll-Rack

Anwendungsbereiche: Von Standard-Server bis virtualisierte IT-Umgebung 

Aufgrund seiner Leistungsdaten und kompakten Bauweise sind mit dem PrimeServer zahlreiche Anwendungen denkbar und möglich. Das reicht vom ersten Server kleinerer Firmen über den Einsatz als Transaktionsserver geschäftskritischer Anwendungen bis hin zu zu Backup-, und Software-Entwicklungsszwecken. Möglich sind aber auch die klassischen Anwendungsfelder wie E-Mail-oder Backup-Server. Darüber hinaus lässt sich der PrimeServer in virtuell organisierten IT-Umgebungen einsetzen, in denen Desktop-Rechner und Notebooks zentral auf sämtliche Anwendungen und Daten zugreifen.

Testberichttipp: Das Swiss IT Magazine hat den PrimeServer ausführlich getestet. Das Ergebnis lässt sich per Mausklick ansehen.

Disclaimer: Für diesen Beitrag hat mich Prime Computer als Blogger beauftragt.

Sebastian Amtage (b.telligent) über den Status Quo der Künstlichen Intelligenz

[Videochat] Sebastian Amtage, b.telligent, über Künstliche Intelligenz

Dieses Interview habe ich während des BI Kongress 2018 mit Sebastian Amtage, dem CEO von b.telligent, über den Status Quo der Künstlichen Intelligenz geführt. Darin spricht er über den aktuellen Stand der Dinge der KI, über die größten KI-Herausforderungen und was seine Firma dazu beizutragen hat.

Wie ist es aktuell um das Thema KI bestellt?

Aus Sicht von b.telligent handelt es sich beim Thema KI um einen Hype, da viele Unternehmen im Rahmen ihrer Digitalisierungsstrategie den Einsatz von KI-Techniken und -Tools durchaus einplanen. Hierbei stehen unter anderem effizientere Prozesse und intelligentere Produkte im Vordergrund. Allerdings ist der Wissensstand in vielen Unternehmen sehr unterschiedlich ausgeprägt, vor allem der datengetriebene Ansatz der KI ist für viele Firmen noch recht neu.

Diese Unternehmen müssen erst einmal grundsätzliche Fragen klären: Woher kommen die richtigen Daten? Wie ist es um deren Qualität bestellt? Wie kann ich die vorhandenen Datenpools sinnvoll zusammenfassen, etc.

Andere Firmen hingegen beschäftigen sich mit der KI schon sehr viel länger und haben damit einen erheblich leichteren Einstieg in dieses Thema. Diese Unternehmen setzen bereits komplexere Techniken und Methoden wie Deep Learning und Machine Learning ein, was über das klassische Data Mining und statistische Modelle bei weitem hinaus geht.

Worin bestehen die größten KI-Herausforderungen?

In diesem Kontext sind zahlreiche Hürden und Hindernisse zu nennen. Das sind zum einen die bereits erwähnten Daten. Hier kommt es vor allem auf eine ausreichende Datenmenge und deren Qualität an. Zum anderen spielt das Thema Know-how innerhalb der Firma eine große Rolle. Denn oft fehlt es an sehr gut ausgebildeten KI-Experten, die solch ein Projekt sach- und fachgemäß steuern und mit Leben füllen können. Hier sind diejenigen Unternehmen auf jeden Fall im Vorteil, die sich schon mit den Themen Business Intelligence und Big Data beschäftigt haben und entsprechendes Know-how aufbauen konnten.

Was trägt b.telligent zum Thema KI bei?

Mit dem Thema Data Science, was ja einen Oberbegriff der KI darstellt, beschäftigt sich b.telligent schon seit 15 Jahren. Damit gib es im Unternehmen zahlreiche Experten, die die Herausforderungen vieler Unternehmen kennen und helfen können, diese zu bewältigen.

Für b.telligent steht meist die Hilfe zur Selbsthilfe im Vordergrund, wie sich also innerhalb von Unternehmen KI-Experten und -Projektteams ausbilden und aufbauen lassen, um sich mit dem Thema bestmöglich auseinandersetzen zu können. Das nimmt aber oft einen langen Zeitraum in Anspruch, da die Künstliche Intelligenz mit all ihren Disziplinen viel Erfahrung und Wissen voraussetzt.

Das Interview mit Sebastian Amtage in voller Länge

Dr. Konstantin Greger (Tableau Software) über Künstliche Intelligenz

[Videochat] Konstantin Greger (Tableau Software) über Künstliche Intelligenz

Dieses Videointerview habe ich während eines IDC-KI-Events mit Dr. Konstantin Greger von Tableau Software geführt. Darin spricht er über den aktuellen Zustand der Künstlichen Intelligenz in Deutschland, welchen Beitrag Tableau dazu leistet und was noch nötig ist, um den Umstieg auf die „starke“ KI zu schaffen.

Was trägt die Firma Tableau zum Thema KI bei?

Für Konstantin Greger stehen dabei vor allem zwei Aspekte im Vordergrund: Der Einsatz von KI und Machine Learning in den Anwendungen von Tableau Software selbst und bei der Unterstützung von Unternehmen und wie diese Künstliche Intelligenz für ihre Zwecke nutzen können. Hierbei wird auch das Kerngeschäft von Tableau Software sichtbar: Wie bereite ich Daten so auf, damit ich sie besser verstehen und optimal einsetzen kann. Es geht also um die Abstrahierung komplexer Datensammlungen hin zu einem verständlichen Modell, das sich auf einfache Art und Weise nutzen lässt.

Wie ist es hierzulande um das Thema KI bestellt?

Laut Herrn Greger lässt sich das weite Feld der KI in Deutschland als sehr heterogen bezeichnen. So setzen es gerade kleinere Firmen schon recht agil ein, da sie den Nutzen der Künstlichen Intelligenz für sich erkannt haben und ihr Geschäftsmodell daran ausrichten.

Im Gegensatz dazu fällt es den größeren Firmen oftmals noch recht schwer, KI-Ansätze innerhalb der geplanten Projekte sinnvoll zu integrieren. Dort sind zwar innovative Ideen vorhanden, wie sich Künstliche Intelligenz und Machine Learning einsetzen ließen, aber gleichzeitig fehlt das Know-how, um diese Ideen sinnvoll umzusetzen. Denn oft folgen diese Firmen letztlich nur dem Drang, in Sachen KI etwas zu unternehmen, da der Mitbewerber in dieser Richtung auch etwas tut. Dabei wissen diese Unternehmen oft noch gar nicht, wie sich KI richtig einsetzen lässt.

An dieser Stelle kann Tableau Software ins Spiel kommen, da ein wesentliches Element der KI, nämlich die Daten, vollkommen außer acht gelassen werden. Und genau hierbei kann Tableau helfen, nämlich beim Identifizieren, Aufbereiten und Bewerten der vorhandenen Daten.

Was sind die größten Hürden beim Umstieg von der „schwachen“ zur „starken“ KI?

Die Hürden beim Umstieg von der „schwachen“ zur „starken“ KI lassen sich als äußert vielfältig beschreiben. Das betrifft zum einen das bereits erwähnte Thema Daten. Denn für eine starke KI sind viele „gute“ und vertrauenswürdige Daten erforderlich, da ansonsten die korrespondierenden KI-Dienste und -Lösungen nicht glaubwürdig sind. Darüber hinaus fehlt es an vielen Stellen am richtigen Know-how, also an KI-Experten, die das Vorantreiben der starken KI überhaupt erst ermöglichen können.

Das Interview mit Konstantin Greger in voller Länge

 

Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

[Videochat] Jürgen Wirtgen von Microsoft zum Thema Künstliche Intelligenz

Während eines IDC-Events, auf dem eine Studie zum Thema KI in Deutschland vorgestellt wurde, habe ich dieses Interview mit Jürgen Wirtgen von Microsoft geführt. Darin spricht er über den Beitrag seitens Microsoft in Sachen KI, wie sich Daten für KI-Projekte bestmöglich nutzen lassen und was Microsoft unter der Demokratisierung der Künstlichen Intelligenz versteht.

Was leistet Microsoft im Kontext von KI?

Die Künstliche Intelligenz sieht Herr Wirtgen als eine Art übergeordneten Schirm, der sich bei Microsoft über alle Bereiche spannt. Dazu gehört beispielsweise der Bereich Produktivität (Office 365, etc.), aber auch ein eigens hierfür geschaffener Geschäftsbereich zu den Themen Cloud und KI existiert bei Microsoft. Hierfür stellt Redmond zahlreiche Entwicklungsressourcen zur Verfügung, mit deren Hilfe neue KI-Lösungen und -Dienste entstehen sollen. Das betrifft sowohl die Grundlagenforschung als auch den realen Nutzen von KI im Produktionsumfeld.

Darüber hinaus unterstützt Microsoft seine Kunden in Sachen Künstliche Intelligenz. Das reicht von der Entwicklung eines eigenen Bots bis hin zum Einsatz kognitiver Dienste oder der Entwicklung neuer Geschäftsmodelle, in denen die Künstliche Intelligenz eine entsprechende Rolle spielt.

Wie lassen sich Daten für die KI bestmöglich nutzen?

Hierzu muss erst einmal das Geschäftsmodell entwickelt und verstanden werden. Denn erst dann kann man herausfinden, welche Daten ich besitze und welche davon für mein spezielles KI-Projekt wichtig und erforderlich sind. In manchen Fällen sind zusätzliche Daten notwendig, sodass beispielswiese der Einsatz von Sensoren in Erwägung gezogen werden sollte. Diese Datengewinnung ist dann ebenfalls wichtiger Teil des Gesamtprojekts.

Müßig zu erwähnen, dass beim Sammeln und Speichern von Daten jederzeit die höchsten Sicherheitsstandards berücksichtigt werden sollten. Alleine schon aus Gründen des Datenschutzes und der Datensicherheit.

Was versteht Microsoft unter der Demokratisierung von KI?

Viele Menschen verbinden mit der Künstlichen Intelligenz vor allem wissenschaftliche Anwendungen, hinter denen sich komplexe und komplizierte Modelle befinden. Microsoft möchte erreichen, dass KI-Anwendungen von einer breiten Masse genutzt werden können. Hierfür sind Dienste erforderlich, die sich trivial nutzen und genauso einfach in bestehende Anwendungen einbinden lassen.

Hierbei kommen unter anderem die 30.000 Business Partner von Microsoft (Entwickler, Softwarehäuser, etc.) ins Spiel, die in die Lage versetzt werden sollen, ihre Software mit KI-Elementen anzureichern. Aber auch andere Bevölkerungsschichten sollen mithilfe von geeigneten Ausbildungsmaßnahmen fit gemacht werden für das Grundverständnis von KI. Denn nur so kann eine echte Demokratisierung der Künstlichen Intelligenz gelingen – und damit Ängste und Vorbehalte abgebaut werden.

Das Interview mit Jürgen Wirtgen in voller Länge

Weiterführende Informationen zum Thema Microsoft und KI

Dr. Florian Jurecka (Dassault Systemes) über Digital Twins in der Simulation

[Videochat] Dr. Florian Jurecka (Dassault Systèmes) über Digital Twins zu Simulationszwecken

Dieses Videointerview habe ich mit Dr. Florian Jurecka auf der Hannover-Messe 2018 zum Thema Digital Twins in der Simulation geführt. Darin erklärt er, was Dassault Systèmes unter dem Begriff „Digital Twin“ versteht, was die Simulationssoftware von Dassault Systèmes in diesem Kontext leistet und wie sich die Rolle der Simulation gerade verändert.

Wie definiert Dassault Systemes den Begriff „Digital Twin“?

Dassault Systemès bezeichnet den Begriff „Digital Twin“ als „3DExperience Twin“, angelehnt an ihre Business Experience Plattform 3DExperience, mit der sich unter anderem Objekte konzipieren und gestalten lassen. Damit kann ein durchgängiges Modell eines digitalen Zwillinge dargestellt werden, also von der frühen Konzeptphase  bis zum fertigen Produkt. Auf diesem Weg lassen sich alle Abschnitte einer Produktentwicklung volldigital abbilden.

Was leistet SIMULIA im Kontext „Digital Twin“?

Mit SIMULIA lässt sich laut Herrn Jurecka ein Digital Twin zum Leben erwecken. Denn mithilfe von Produktsimulationen können die funktionalen Eigenschaften einer kompletten Maschine oder eines einzelnen Werkstücks digital abgebildet werden, und das analog zum realen „Gegenstück“. Damit können physikalische Eigenschaften eines echten Objekts am Computer abgebildet werden und kleinste Abweichungen lassen sich somit mühelos feststellen.

Mithilfe des digitalen Zwillings kann man also strukturmechanische Eigenschaften genauso darstellen wie Charakteristika aus den Bereichen Strömung, Elektromagnetik, etc. Damit lassen sich die zu erwartenden Hardware-Eigenschaften anhand der zuvor definierten Anforderungen genauesten überprüfen und bewerten.

Simulation à la Digital Twin kann aber noch mehr: So lassen sich virtuelle Produkte in einer frühen Phase schrittweise verbessern, sodass spezifische Eigenschaften so schnell wie möglich berücksichtigt werden können. Und das wiederum schont Ressourcen, führt also zu weniger Ausschuss bei der späteren Produktion oder ermöglicht bessere Ergebnisse beim finalen Produkt.

Wie ändert sich die Rolle der Simulation gerade?

Die Rolle der Simulation verändert sich im Produktentwicklungsprozess fortwährend, wird also immer bedeutender und wichtiger. So kommt die Simulation beispielsweise nicht mehr ausschließlich zu Validierungszwecken zum Einsatz, sondern trägt auch einen wichtigen Beitrag zur gesamten Wertschöpfungskette bei. Das hat zum einen damit zu tun, dass Simulationen immer früher eingesetzt werden, und zum anderen im Bereich „Predictive Maintenance“ eine immer wichtigere Rolle spielen. Damit lässt sich künftig noch genauer und früher vorhersagen, wie sich ein Produkt oder Bauteil im realen Einsatz verhalten wird.

Aber auch die Zunahme von Wissen innerhalb eines Unternehmens ist dem Einsatz von Simulation geschuldet. Denn aufgrund der zunehmenden Bandbreite an Simulationstools kann zum Beispiel ein Konstrukteur mit dem passenden digitalen Werkzeug ganz früh in den Entwicklungsprozess eingebunden werden. Und das alles auf Basis von Hochleistungsrechnern, die Simulationsberechnungen immer exakter in immer kürzerer Zeit durchführen können.

Das Videointerview mit Florian Jurecka in voller Länge

Christian Tarun (IBM) über digitalen Service-Support

[Videochat] Christian Tarun (IBM) über digitalen Service-Support mittels VR

Während der Hannover-Messe 2018 habe ich mit Christian Tarun von IBM über die Möglichkeiten des digitalen Service-Supports gesprochen, speziell mithilfe von Daqri-VR-Brillen und dem Software-Tool „IBM Maximo Enterprise Asset Management“.

„Was zeigen Sie auf der Hannover-Messe 2018?“

Christian Tarun und sein Team zeigten während der Hannover-Messe 2018 IBM Maximo Enterprise Asset Management mit all seinen Möglichkeiten. Damit lassen sich vor allem Instandhaltung und vorbeugende Wartung sehr gut abbilden und administrieren. Hierbei kommen zahlreiche Sensoren zum Einsatz, mit deren Hilfe der Zustand kompletter Anlagen überwacht und gesteuert werden können. Damit kann man auf Probleme bereits reagieren, bevor sie folgenschwere Komplikationen oder Betriebsausfälle verursachen. Darüber hinaus unterstützt Maximo Außendienstmitarbeiter bei ihren täglichen Arbeiten im Serviceeinsatz.

„Inwiefern unterstützt die [am IBM-Stand gezeigte] Daqri-VR-Brille Ihre Kunden?“

Mithilfe der Daqri-VR-Brille können sich zum Beispiel Außendienstmitarbeiter auf dem virtuellem Weg relevante Informationen zu einer Anlage auf das Display der Brille holen, um so mehr zu erfahren über den aktuellen Zustand der Maschine oder einer anderen Komponente, die sie warten oder reparieren sollen. Diese Zustandsinformationen werden in Echtheit ausgelesen und in der Brille angezeigt, sodass der Techniker genau weiß, an welchen Stellen er aktiv werden muss.

Sehr praktisch ist auch die Möglichkeit, mithilfe der in der Brille eingebauten Kamera technischen Support zu bekommen. So kann sich beispielsweise ein Experte über eine Remote-Anbindung mit der Brille verbinden und sieht somit genau die Maschine, an der der Außendienstmitarbeiter nicht weiterkommt. Damit können beide gemeinsam das technische Probleme dank der Daqri-VR-Brille beheben. Auf diese Art und Weise kann die VR-Brille auch zu Schulungszwecken eingesetzt werden.

„Wie lässt sich die Daqri-VR-Brille darüber hinaus nutzen?“

Neben den aufgeführten Möglichkeiten lässt sich die Daqri-VR-Brille auch zu Navigationszwecken nutzen. So kann der Außendienstmitarbeiter exakt zu der Maschine geleitet werden, an der ein technischer Mangel aufgetreten ist, den er beheben soll.

„Was leistest IBM Maximo Enterprise Asset Management?“

IBM Maximo Enterprise Asset Management überwacht den Gesundheitszustand einer zu überwachenden Anlage, und das wie bereits erwähnt mithilfe einer Reihe von Sensoren, die an den einzelnen Bauteilen der Maschine angebracht sind.

Wichtig dabei ist, dass der Betreiber der Anlage zunächst einen gewünschten Soll-Zustandswert definiert, der in Summe nicht unterschritten werden darf. Anschließend überwacht Maximo sämtliche Einzelwerte und zeigt Unregelmäßigkeiten an, sobald diese entstehen. Wird ein Schwellenwert unterschritten, wird auf dieser Basis ein Arbeitsauftrag erstellt, der einen technischen Mitarbeiter zur Anlage  schickt, damit dieser das technische Problem behebt, bevor es überhaupt entsteht. Dies wird unter dem Begriff „Predictive Maintenance“ subsumiert.

Dank des integrierten Kartenapplikation kann der Techniker mithilfe von Maximo den Standort der fehlerhaften Anlage lokalisieren und sich anhand der Lagedaten sofort auf den Weg machen. Dieser Kartenausschnitt ist zudem interaktiv nutzbar: Per Mausklick bekomme ich sämtliche Informationen zur Anlage am Bildschirm angezeigt.

Das Videointerview mit Christian Tarun in voller Länge

Christopher Katzinski zur Blockchain-gestützten Fertigung

[Videochat] Christopher Katzinski von IBM über Blockchain-Marktplätze

Dieses Interview habe ich mit Christopher Katzinski von IBM auf der Hannover-Messe 2018 zum Thema Blockchain-Marktplätze geführt. Darin spricht er über die Möglichkeiten, die sich daraus für Fabrikinhaber und Firmen ohne Produktionsstätten ergeben, warum die Blockchain-Technologie hierfür eingesetzt wird und was IBM an dieser Stelle leistet.

„Was zeigt die Blockchain Techdemo auf der Hannover-Messe 2018?“

Die Techdemo Hyperfacture sollte das Potential zeigen, das in der Blockchain-Technologie für das produzierende Gewerbe schlummert. Dabei handelte es sich um eine Art Marktplatz, auf dem Produzenten freie Fertigungskapazitäten „verkaufen“ und Unternehmen ohne eigene Produktionszeiten „kaufen“ können.

Um Produktionskapazitäten an den Mann oder die Frau zu bringen bzw. zu erwerben, registrieren sich Fabrikinhaber und Firmen mit Produktionsbedarf auf der IBM Blockchain-Plattform. Sodann kann ein Unternehmen, das ein zu fertigendes Produktdesign besitzt, die Produktion desselben in Auftrag geben. Hierbei lässt sich genau festlegen, in welcher Qualität ein Produkt gefertigt werden soll, bis wann die Produktion abgeschlossen sein soll, und so fort.

Anschließend wird anhand einer bestmöglichen Übereinstimmung von angebotenen Fertigungskapazitäten und benötigten Produktionsmitteln ein sogenannter „Match“ hergestellt, der wie beim Onlinedating Anbieter und Nachfrager zusammenbringt. Um die Formalien wie die Bezahlung, Vertragsabschluss, etc. kümmert sich die Blockchain-Plattform.

Mithilfe der in die Produktionslandschaft integrierten IoT-Geräte lässt sich der aktuelle Fertigungszustand permanent darstellen. Damit kann beispielsweise der Auftragnehmer überprüfen, an welchem Standort produziert wird und ob es sich dabei um den vertraglich zugesicherten Fertigungsstandort handelt.

„Warum kommt in diesem Fall die Blockchain-Technik zum Einsatz?“

Der wesentliche Grund für den Einsatz der Blockchain-Technologie ist in diesem Fall das Thema Vertrauen. Denn dank der Blockchain-Plattform, auf dem Käufer und Verkäufer ins Geschäft kommen, lassen sich sämtliche Transaktionen speichern, und das unveränderlich. Das ist vor allem für mittelständische Unternehmen oder kleinere Start-ups wichtig, die einen eingeschränkten Bekanntheitsgrad aufweisen und damit einen nicht so hohen Stellenwert wie größere, bekanntere Mitbewerber genießen.

Genau für diese Unternehmen ist nämlich das Einhalten von Qualitätsstandards von allergrößter Wichtigkeit, was sich mithilfe der Blockchain-Technik transparent nachweisen lässt. Zudem ist in solche Systeme oft ein Rating-System integriert, womit sich Qualität und Zuverlässigkeit zusätzlich beurteilen lassen. Auch das erhöht das Vertrauen in das produzierende Unternehmen.

Für den Anbieter von Fertigungskapazitäten hingegen bietet solch ein System ebenfalls Vorteile, da sich Kriterien wie die Zahlungsmoral des Käufers von Produktionsmitteln transparent abbilden lassen. Diese und weitere Maßnahmen sorgen auf Käufer- und Verkäuferseite für eine erhöhtes Vertrauen.

„Wie kommt IBM an dieser Stelle ins Spiel?“

IBM kann innerhalb des Segments „Blockchain for Business“ durchaus als Pionier bezeichnet werden. So ist „Big Blue“ unter anderem seit 2016 Mitglied in der Hyperledger Foundation, wo gemeinsam mit der Linux Foundation die Blockchain-Technologie Hyperledger Fabric und Hyperledger Composer entwickelt wurde. Bei Hyperledger Fabric handelt es sich um ein Framework, mit dessen Hilfe Blockchain-Applikation entwickelt werden können. Diese Entwicklungsumgebung ist Teil der IBM Cloud, womit dieses Framework für jedermann zugänglich ist.

Für ein besseres Verständnis, welche Projekte sich mithilfe von Blockchain-Technologien realisieren lassen, bietet IBM Beratung, Workshops und andere unterstützende Maßnahmen an. Daraus resultierten bisher mehr als 400 Kundenprojekte, die mithilfe von IBM und Blockchain auf den Weg gebracht werden konnten. Allerdings ist nicht jede Anwendung blockchain-tauglich. Aber auch hier hilft IBM, genau das herauszufinden.

Das Interview mit Christopher Katzinski in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Justus Reich (IBM) über die Sicherheit von Industrieanlagen mittels IBM QRadar SIEM

[Videochat] Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM

Dieses Videointerview habe ich auf der Hannover-Messe 2018 mit Justus Reich (IBM) über sichere Industrieanlagen mithilfe von IBM QRadar SIEM geführt. Darin spricht er über das Gefahrenpotential von Industrieanlagen, wie sich die Betreiber von solchen Anlagen gegen Angriffe von außen schützen können und was das alles mit IBM zu tun hat.

„Warum lassen sich Industrieanlagen nicht ganz so trivial absichern?“

Da Industrieanlagen eine deutliche längere Laufzeit als Standard-IT-Systeme aufweisen – das reicht bis zu 20 Jahren – kommen in den aktuellen Wasserkraft- und anderen Anlagen Techniken zum Einsatz, die schon etwas betagter sind, spricht nicht auf dem neuesten Stand sind. Damit sehen sich Industrieanlagen im Vergleich zu IT-Systemen einer größeren Gefährdung seitens möglicher Hackerangriffe ausgesetzt.

Klar ist auch in diesem Zusammenhang, dass sich diese Anlagen nicht mal eben so per Software-Update patchen lassen. Und genau dieser Umstand erfordert alternative Herangehensweisen und Methoden, wenn es um das Absichern von Industrieanlagen geht.

„Wie kann man Industrieanlagen gegen Angriffe von außen schützen?“

Für den Schutz von Industrie- und anderen Anlagen hat IBM ein Software-Tool im Programm, das sich IBM QRadar SIEM nennt, das ursprünglich für den IT-Bereich entwickelt wurde. Mit QRadar lassen sich sämtliche Informationen zu allen Netzwerkgeräten wie PLC- und SCADA-Controllern sammeln und darstellen. Darüber hinaus werden weitere Informationen rund um das Netzwerk mithilfe von QRadar ermittelt, womit der Software ausreichend Informationen zur Verfügung steht, um „guten“ von „schlechtem“ Netzwerk-Traffic unterscheiden zu können. Und das wiederum ist die Grundlage für entsprechende Maßnahmen, wenn es zu einem Angriff auf eine Industrieanlage kommt.

„Wie verhält sich IBM QRadar SIEM im praktischen Einsatz?“

Anhand des Beispiels eines Wasserkraftwerks lässt sich gut zeigen, wie IBM QRadar SIEM in der Praxis arbeitet. Hierzu werden einer oder mehrere PLC-Controller, die für die Steuerung der Anlage zuständig sind, mithilfe von QRadar permanent überwacht. Konkret gesagt, werden die gesamten Kommunikationsdaten zum Controller hin und davon weg fortwährend kontrolliert und dabei in Echtzeit entschieden, ob die Kommunikation mit dem Gerät eine bekannte oder eine eher unbekannte ist. Damit lässt sich zuverlässig feststellen, ob es sich um einen Angriff auf die Anlage handelt oder ob das Standard-Kommunikationsdaten sind.

In einfachen Fällen ist QRadar in der Lage, geeignete Maßnahmen zu ergreifen, um den Angriff abzuwehren. In anderen, komplexeren Fällen können die Administratoren der Industrieanlage schnell genug auf die Anomalie reagieren und die richtigen Schlüsse daraus ziehen.

Das Videointerview mit Justus Reich in voller Länge

 

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

Steffen Hartmaier über IBM Plant Advisor

[Videochat] Steffen Hartmaier zum Einsatz des IBM Plant Advisor in der Fertigung

Während der Hannover-Messe 2018 habe ich mit Steffen Hartmann von IBM dieses Interview zum IBM Plant Advisor geführt. Darin spricht er über die Techdemo am IBM-Stand, welche Aufgaben der IBM Plant Advisor im Produktionsumfeld übernimmt und wo dieses Tool überall zum Einsatz kommt.

„Was zeigen Sie auf der Hannover-Messe 2018?“

Auf der Hannover-Messe 2018 zeigten Herr Hartmaier und sein Team in Halle 7 eine Software-Lösung, mit der sich datenbasierte Produktionsprozesse optimieren lassen. Dabei analysiert und bewertet das Tool die während der Fertigung entstehenden Daten, um so beispielsweise den Energiebedarf zu senken oder den Output zu erhöhen.

„Welche IBM-Lösung trägt dazu [seinen Anteil] bei?“

Diese Software-Lösung, die in der Fertigung zu Optimierungszwecken eingesetzt werden kann, nennt sich IBM Plant Advisor. Dabei übernimmt das Softwarewerkzeug unterschiedliche Aufgaben: Das beginnt beim „Einsammeln“ der Daten von den Maschinen, setzt sich mit dem Speichern auf der IBM Cloud-Plattform fort, wo sie analysiert und verarbeitet werden und endet beim Zurückführen eines passenden Modells in die Fabrik. Dort sollen die so gewonnenen Erkenntnisse zu einer Verbesserung der Produktionsergebnisse führen.

Interessant dabei ist, dass die generierten Modelle und ihre Daten lokal auf die Maschinen zurückgespeichert werden, sodass sich die Produktionsverantwortlichen sicher sein können, dass die Daten auf jeden Fall zur Verfügung stehen – und zwar unabhängig von der aktuellen Anbindung an die Cloud.

„Wo kommt der IBM Plant Advisor überall zum Einsatz?“

Das Einsatzspektrum des IBM Plant Advisor ist laut Herrn Hartmaier äußert vielfältig. Da es vor allem für energieintensive Produktionsanlagen konzipiert wurde, spielt es primär in den Bereichen eine Rolle, in denen z.B. das Trocknen von Baumaterial wie Zement prozesskritisch ist, da man es hier mit hohen Temperaturen zu tun hat. Dabei stehen vor allem solche Parameter im Vordergrund, die eine hohe Wechselwirkung mit anderen Faktoren aufweisen, wie zum Beispiel die Außentemperatur und der Luftdruck.

Aber auch unterschiedlich ausgeprägte Rohstoffe wie bei der Herstellung von Zement, wo z.B. große und kleine Steine für die Produktion eingesetzt werden, spielen in diesem Kontext eine Rolle. Das gilt auch für Naturprodukte wie Torf, die einen unterschiedlichen Feuchtigkeitsgehalt aufweisen.

Und genau hier setzt IBM Plant Advisor an, indem das Tool versucht, die nicht beeinflussbaren Faktoren mit den kontrollierbaren Faktoren möglichst gut zu „matchen“, sodass sich trotzdem ein optimales Ergebnis erzielen lässt. Das bedeutet konkret, dass man mit möglichst geringem Energieaufwand einen möglichst hohen Ertrag zu erreichen sucht.

Das Videointerview mit Steffen Hartmaier in voller Länge

Disclaimer: Für diesen Video-Blogpost hat mich IBM Deutschland als Blogger engagiert.

office365-verschluesselung-cloud-eperi

Office 365-Umgebungen mithilfe von eperi DSGVO-konform absichern

Es soll ja Leute geben, die können sich gar nicht mehr vorstellen, ohne Cloud-Services wie Microsoft Office 365 zurecht zu kommen. Dafür ist der Komfort und der schnelle Zugriff auf sämtliche Applikationen und Daten einfach zu gut, als dass sie jemals wieder darauf verzichten möchten.

Dabei bleibt allerdings leider viel zu oft die Sicherheit auf der Strecke. Denn mit jeder E-Mail, jedem vertraulichen Termin und mit jedem personenbezogenen Datum steigt das Risiko, dass sensible Daten in die falschen Hände geraten. Dabei ist es doch im Grunde so einfach, seine wertvollen Daten gegen den Zugriff von Unbefugten zu schützen.

Wussten Sie eigentlich, dass spätestens mit dem Inkrafttreten der DSGVO am 25. Mai 2018 nicht nur die Datenverantwortlichen eines Unternehmens in der Verantwortung stehen, sondern auch die sogenannten Auftragsverarbeiter? Das sind neben den klassischen Rechenzentrumsbetreibern auch die Anbieter von Cloud-Plattformen und Cloud-Diensten. Dazu zählt also auch Microsoft mit seinem Cloud-Service Office 365. Doch können Sie sicher sein, dass die Cloud Service Provider (CSP) sämtliche Auflagen rund um die DSGVO (und andere gesetzliche Regularien) auch wirklich vollständig einhalten? Sehen Sie, und genau das ist der Knackpunkt an der Geschichte. Und genau an der Stelle kommt das Thema Verschlüsselung ins Spiel.

Denn nur wenn Daten verschlüsselt in der Cloud gespeichert werden, kann man sich sicher sein, dass damit auch kein Unfug angestellt werden kann. Darüber hinaus will man keinen Aufwand generieren, der mit einer möglichen Anpassung der Verschlüsselungstechnik an den Cloud-Service wie Office 365 erforderlich macht. Eine Lösung, die beide Aspekt berücksichtigt, nennt sich eperi Cloud Data Protection (CDP). In diesem Fall geht die Sicherheit der Office-365-Daten noch ein erhebliches Stück weiter: Die Daten liegen faktisch gar nicht innerhalb der Office-365-Cloud-Umgebung, sondern auf einem geografisch und damit physikalisch getrennten Server, dem eperi Gateway.

eperi CDP = sichere Office 365-Cloud-Umgebungen

Damit stellt eperi Cloud Data Protection for Office 365 die ideale Ergänzung zu den Sicherheits- und Datenschutz-Funktionen dar, die Office 365 von Haus aus anbietet, indem es die Microsoft’sche Cloud-Umgebung um zentrale Datenschutz- und Compliance-Funktionen ergänzt. Damit werden sensible Informationen sicher verschlüsselt, bevor sie an die Office 365 Cloud übermittelt werden.

Ein weiterer Vorteil an dieser Lösung: Nur ein kleiner Kreis berechtigter Personen hat Zugang zu den kryptografischen Schlüsseln, die zum Ver- und Entschlüsseln sensibler Informationen in der Office 365-Cloud benötigt werden. Außerdem finden sämtliche Verschlüsselungs- und Entschlüsselungsprozesse ausschließlich unter der Kontrolle des Unternehmens außerhalb der Office 365-Cloud statt. So können nicht einmal Microsoft-Administratoren oder Mitarbeiter in externen Datenzentren auf die Daten im Klartext zugreifen.

Stellt sich nur die Frage, wie wichtige Anwendungsfunktionen, z. B. die Volltextsuche in E-Mails auf Exchange weiterhin funktionieren können, wenn die Daten in der Office 365-Cloud zu jedem Zeitpunkt verschlüsselt sind und die Microsoft Cloud-Services keinerlei Zugriff auf die Schlüssel haben? Die Antwort darauf liefert das eperi Gateway, das die Grundlage aller Cloud Data Protection-Lösungen darstellt, und die Art und Weise, wie es mit der Office 365-Cloud zusammenarbeitet und die Protokolle, die es unterstützt.

Office 365: Protokolle, Schnittstellen, Funktionen

HTTP(S): Mit dem Hypertext Transfer Protocol greifen die Anwender auf die Office-365-Anwendungen über einen Standard-Webbrowser zu. Dabei verschlüsselt HTTPS (Hypertext Transfer Protocol Secure) die Verbindungen zwischen Browser und Server. Hierbei kommt das Übertragungsprotokoll TCP/IP zum Einsatz, die Verschlüsselungstechnik dahinter wird mit SSL (Secure Socken Layer) bzw. TLS (Transport Layer Security) bezeichnet. Auf dem Server muss ein anerkanntes Zertifikat installiert sein, das eine Authentifizierung des Webbrowsers gegenüber des Webservers erlaubt.

SMTP: Mit dem Simple Mail Transfer Protocol werden innerhalb einer Office-365-Umgebung E-Mails versendet. Die Schnittstelle basiert ebenfalls auf dem Übertragungsprotokoll TCP/IP und nutzt SSL/TLS für den verschlüsselten Versand von E-Mails. Im Falle des SSL/TLS-basierten Versands spricht man auch von SMTPS (Simple Mail Transfer Protocol Secure).

Exchange Web Services (EWS): Mit den EWS greifen Anwender sicher und komfortabel auf Office 365-Postfachdaten zu. Dazu gehören E-Mails genauso wie Kalendertermine und Kontakte. Hier kommt auch HTTPS als Zugriffsprotokoll zum Einsatz.

Exchange ActiveSync (EAS): Analog zu den Exchange Web Services greift man mit EAS auf E-Mails, Kalender und Termine zu, allerdings mittels seiner Mobilgeräte wie iPhone und Tablet. Erwähnenswert ist in diesem Kontext die EAS-Funktion „Direct Push“, mit dessen Hilfe E-Mails, Terminen, etc. zwischen Office 365 und dem mobilen Endgerät synchronisiert werden. Die Daten zwischen Server und Mobilgerät werden auch über HTTPS übertragen.

MAPI over HTTP(S): Mit dem Messaging Application Programming Interface lassen sich E-Mail-Nachrichten direkt aus anderen Anwendungen als dem Mail-Programm verschicken. So lassen sich Textdokumente aus Word versendet werden, ohne dass man diese zuvor in den E-Mail-Client von Office 365 kopieren muss. MAPI over HTTPS wurde mit Microsoft Exchange 2013 eingeführt und hat seinerzeit das Vorgängerprotokoll RPC over HTTP abgelöst. Vor allem die deutlich schnellere Verbindung eines tragbaren Rechners mit dem Office 365-Mailserver via MAPI over HTTPS bietet erhebliche Vorteile gegenüber RPC over HTTP.

Müßig zu erwähnen, dass das eperi Gateway diese Protokolle, Funktionen und Schnittstellen von Office 365 unterstützt. Denn nur dann ist eine durchgängige Verschlüsselung innerhalb der Office 365 Cloud-Umgebung möglich.

eperi Gateway & Office 365: ein erprobtes E-Mail-Team

Eine Besonderheit des eperi Gateway ist seine unkomplizierte Verschlüsselungstechnik. Damit muss sich der Anwender nicht um passende Schlüssel oder ähnliche Dinge kümmern. So verfasst er einfach eine unverschlüsselte E-Mail-Nachricht und versendet diese. Diese landet auf dem E-Mail-Server des Empfängers, wo sie unmittelbar nach Erhalt vom eperi Gateway verschlüsselt und dann automatisch an Office 365 weitergeleitet wird. Da nur das Unternehmen des Empfängers über den Schlüssel zum Dekodieren der Nachricht verfügt, können ausschließlich berechtige Anwender des Unternehmens und sonst niemand die Nachricht lesen.

Interessant ist obendrein die Option, über die Outlook Web Apps auf die Office 365-Umgebung zuzugreifen. Da sich zwischen Browser und Office 365 Cloud-Umgebung ebenfalls das eperi Gateway um die Ver- und Entschlüsselung der Nachrichten kümmert, können E-Mails ganz bequem von jedem Ort der Welt via Webbrowser abgerufen werden – und das vollkommen geschützt.

Trotz Verschlüsselung nach E-Mails und Dateien suchen

Mit einem speziellen Trick können Anwender innerhalb einer Office 365 Cloud-Umgebung verschlüsselte E-Mails und Dateien suchen und finden. Hierzu legt das eperi Gateway einen vollständigen Index aller E-Mails und Dateien an, der nicht in der Office 365-Cloud, sondern in der sicheren Kundenumgebung, z.B. auf dem eperi Gateway-Server gespeichert wird. Das entkoppelt die Office-Umgebung vom eperi Gateway, was zusätzlich die Sicherheit erhöht.

Sucht dann ein Benutzer nach einem Datum oder Begriff, wird dieses/r zunächst an das eperi Gateway weitergeleitet. Dort wird die modifizierte Suchanfrage mithilfe der richtigen Datenset-ID an die Office 365-Cloud-Umgebung gesendet, die anhand dieser eindeutigen Nummer das richtige, verschlüsselte Suchergebnis aus der Office 365-Umgebung an das eperi Gateway zurückgibt. Dort wird die E-Mail oder Datei entschlüsselt und dem Anwender als Klartext zur Verfügung gestellt. Damit wird zu jeder Zeit sichergestellt, dass Suchergebnisse wie E-Mails oder Dateien niemals öffentlich vorliegen und damit Office 365-Inhalte auch nicht kompromittiert werden können.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.