Christian Beedgen, CTO und Mitgründer vomn Sumo Logic

Videoblog: „Unsere Monitoring Services sorgen für bessere Server und Apps“

Seit der Gründung seiner Firma Sumo Logic im Jahre 2010 beschäftigt sich Christian Beedgen mit dieser einen entscheidenden Frage: Wie schaffen wir es, die Webserver und -anwendungen dieser Welt ein bisschen sicherer und zuverlässiger zu machen? Die Antwort finden seine Kunden wie AirBnb, Adobe und viele andere in den Monitoring Services seines Unternehmens.

Genau darüber durfte ich mit Christian vergangenen Freitag in München reden. Herausgekommen ist das nachfolgende Interview, in dem ich so manch Wissenswertes zum Thema Monitoring erfahren habe.

Sumo Logic betreibt Log Management „as a Service“

Sumo Logic betrachte ihre Monitoring Management-Lösung als „Software as a Service“, was dem Ganzen wohl ziemlich nahe kommt. Damit lassen sich sowohl Anwendungen als auch komplette Server überwachen. Und natürlich kann Sumo Logic auch auftretende Fehler lokalisieren und beheben.

Der Vorteil für die Kunden liegt auf der Hand: Anstatt mithilfe eines dedizierten Servers oder einer speziellen Anwendung im Hintergrund sämtliche Aktivitäten selbst zu beobachten (wie das zum Beispiel mit Paessler-Tools der Fall ist) , übernimmt Sumo Logic diese Aufgabe für seine Kunden, und das ohne jegliche Software-Installation. Okay, ein kleiner Agent muss einmal beim Anwender installiert werden. Das kann aber sogar der Kunde selbst erledigen, womit er die Kontrolle darüber behält, wo der Agent läuft und was er an Daten nach draußen schicken darf.

Praktisch an diesem Monitoring-Service ist auch die mögliche Skalierung, die bei Sumo Logic direkt auf dem Cloud-Server vorgenommen wird. Damit spielt es keine Rolle, ob ein, zwei oder mehr Rechner bzw. Anwendungen oder Dienste überwacht werden sollen. Diese kann das Unternehmen von Christian Beedgen beliebig dazu schalten, je nachdem, was der installierte Agent vorsieht.

Log-Daten helfen bei der Überwachung von Webservern und -applikationen

Gerade für Unternehmen wie AirBnB oder Adobe steht ein wesentliches Merkmal im Vordergrund des unternehmerischen Tuns: Die permanente Verfügbarkeit ihrer Webserver, auf denen ihre Kunden 24/7 unterwegs sind und sich informieren und buchen und Inhalte auf den Rechner laden. Da können Wartezeiten von wenigen Sekunden schon zu einem Transaktionsabbruch des Kunden führen. Und genau hier setzt Sumo Logic mit seinen Services an. Denn jeder noch so kleine „Schluckauf“ eines Webservers oder unvorhergesehene Komplikationen werden identifiziert und möglichst schnell behoben.

Sumo Logic überwacht Anwendungen und Webserver auf Anomalien hin

Doch nicht nur das unnatürliche Verhalten von Webservern steht bei Sumo Logic im Fokus. So kann das Unternehmen mithilfe seines Monitoring genau sehen, wer sich auf den überwachten Servern anmeldet, was er dort tut, und so fort. Treten dabei Unregelmäßigkeiten auf, kann darauf sofort reagiert und die entsprechenden Maßnahmen eingeleitet werden. Das betrifft übrigens auch den Zugriff auf Applikation innerhalb des Netzwerks, da auch hier Bedrohungen lauern.

Was die Sumo Logic-Studie zeigt

Eine von Sumo Logic in Auftrag gegebene Untersuchung der aktuellen Kundenstruktur zeigt dreierlei: Multi-Cloud-Umgebungen nehmen zu und Lambda-Funktionen erfreuen sich immer größerer Beliebtheit, was sich auch über Container-Techniken wie Kubernetes & Co. sagen lässt. Was natürlich mittel- und unmittelbare Auswirkungen auf die Monitoring Services von Sumo Logic hat.

Das vollständige Videointerview mit Christian Beedgen von Sumo Logic

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit Eloquenza PR entstanden.

Doug Balog über das IBM Storage-Geschäft

Videoblog: „Storage ist wichtig für Multi-Cloud, KI und mehr“

Dieses Interview habe ich mit Doug Balog von IBM anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über das Event im Allgemeinen, über den Storage-Markt im Speziellen und über die IBM-Vision in punkto Speicher mit all seinen Facetten.

Die IBM Storage Strategy Days sind für IBM äußerst wichtig

Speziell der Austausch mit Kunden und Geschäftspartnern stellt für IBM – und für Doug Balog selber – einen wichtigen Baustein dar, wenn es um die weltweite Ausrichtung der richtigen Produkte und Lösungen geht.

Konkret bedeutet das: Wie sehen die Visionen seitens IBM als Unternehmen aus und wie passt das Thema Storage in dieses Szenario. Das daraus resultierende Feedback der Kunden und Partner greift IBM auf, um sich noch besser auf die Bedürfnisse und Wünsche des Marktes einstellen zu können. Schließlich handelt es sich bei Storage in Zeiten von KI & Co. um einen echten Wachstumsmarkt.

Der Storage-Markt bietet zahlreiche Möglichkeiten – für IBM, deren Partner und Kunden

Mit dem enormen Anstieg an Daten, die für neue und traditionelle Anwendungen benötigt werden, steigt auch der Bedarf an leistungsstarken und kapazitiven Speicherlösungen. Denn gerade für KI-Disziplinen wie Machine und Deep Learning sind große Datensätze vonnöten, die der Maschine dahinter die Möglichkeit bieten, die richtigen Schlüsse aus vorhandenen Mustern und Aufgaben zu ziehen. Und das erfordert natürlich Speichersysteme, die mit diesen Daten quantitativ und qualitativ zurecht kommen.

Aber auch das Thema Multi-Cloud ist eng verknüpft mit dem Thema Storage. Denn mit jeder weiteren Cloud-Umgebung, die Teil der Gesamtstrategie eines Unternehmens ist, nimmt die Anforderung zu, all die anfallenden Daten bestmöglich zu verwalten und zu speichern. Daher kommt dem zugrunde liegenden Datenmanagement in Zeiten komplexer werdender Cloud-Lösungen eine immer wichtigere Rolle zu.

Von der IBM-Vision einer Storage-zentrierten Welt

Klar, dass Storage-Systeme in Zeiten von KI und Multi-Cloud zwar ein wichtiger Bestandteil sind, aber nicht der einzige, auf den es ankommt. Denn neben den performanten Speicherlösungen sind natürlich auch schnelle Recheneinheiten vonnöten, dies ja bei IBM ebenfalls beheimatet sind. Die Rede ist unter anderem von den IBM Mainframes der Z-Serie und den Power-basierten Rechnern, aber auch Spezialplattformen wie PowerAI, die speziell für KI-Anwendungen konzipiert wurden.

Aber, und das ist eine logische Einsicht, treibt IBM das Thema Storage und KI nicht alleine am Markt voran. Daher arbeitet „Big Blue“ schon seit vielen Jahren mit allen namhaften Hardware- und Software-Herstellern zusammen, um die jeweils beste IT-Lösung für den jeweiligen Kunden bieten zu können. Hierfür leistet sich IBM ein eigenes Businesspartner-Ecosystem, das Partnern und Kunden helfen soll, die beste IBM-Lösung für ihre Anwendungen zu finden.

Übrigens: Genau aus diesem Ansinnen heraus ist die OpenPOWER Foundation entstanden

Das komplette Videointerview mit Doug Balog

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Scott Tease über das weltweite Lenovo HPC-Geschäft

[Videoblog] Scott Tease über das weltweite HPC-Geschäft von Lenovo

Scott Tease verantwortet das weltweite HPC-Geschäft bei Lenovo (High-Performance Computing) und hat demzufolge eine ganze Menge zu diesem Thema zu sagen. Aus diesem Grund habe ich mit ihm während der International Supercomputing Conference 2018 ein Videointerview geführt. Darin spricht er über das HPC-Business von Lenovo im Allgemeinen, über die Besonderheiten der Warmwasser-Kühlungstechnologie Lenovo Neptune und über einen aktuellen HPC-Trend.

Lenovo stellt den führenden HPC-Anbieter dar

Betrachtet man die zweimal jährlich erscheinenden Top-500-Liste der 500 schnellsten Supercomputer der Welt, taucht dort Lenovo aktuell öfter auf als alle anderen Anbieter von Superrechnern, nämlich genau jedes vierte Mal. Das entspricht rein rechnerisch knapp 25 Prozent, worauf Lenovo mächtig stolz ist.  Das gilt ganz besonders für die Vielzahl an unterschiedlichen Konfigurationen, die das Unternehmen an seine Kunden verkauft.

So bekommen diese Firmen genau den Supercomputer, den sie für ihre Zwecke benötigen. Ob das der SuperMUC-NG mit seiner Warmwasser-gekühlten Anlage ist, der Marconi-Supercomputer in Italien, der MareNostrum4 des Barcelona Supercomputing Center oder der Niagara, der leistungsstärkste Supercomputer in Kanada mit gut 3 Petaflops – diese und andere Lenovo-Kunden setzen Supercomputing-System ein, die auf sie abgestimmt wurden.

Doch nicht nur bei Großkunden wie dem Leibniz-Rechenzentrum ist Lenovo gut im Geschäft. Denn auch mit kleineren Unternehmen und wissenschaftlichen Einrichtungen, die nicht unbedingt einen Supercomputer der Marke SuperMUC-NG brauchen, macht Lenovo aktuell gute Abschlüsse. So profitieren all diejenigen, die nur kleinere Recheneinheiten im Server benötigen, genauso von der zugrunde liegenden Lenovo Supercomputing-Technik.

Lenovo Neptun: Warmwasserkühlung zu diversen Zwecken

Bereits seit 2012 arbeitet Lenovo gemeinsam  mit dem Leibniz-Rechenzentrum an einem Kühlungssystem, das auf der Warmwassertechnik basiert. Dabei handelte es sich um den ersten SuperMUC, der von dieser seinerzeit noch ziemlich neuen Technik profitierte. Das Ziel damals (und heute) war eine deutliche Reduktion der Stromkosten, die solch ein Supercomputing verantwortet. Und genau diese Ideen und Konzepte, die daraus entstanden sind, werden heute unter der Bezeichnung Lenovo Neptun zusammengefasst. Gemeint ist damit eine Warmwasserkühlung für Großrechner, die Lenovo in den nächsten Jahren in einer Vielzahl von HPC-Systemen verbauen will.

Neben dieser direkten Warmwasserkühlung hat Lenovo aber auch kleinere Wärmeableitersysteme in petto. Dazu gehört zum Beispiel Rear Door Heat eXchanger. Damit lässt sich ebenfalls sehr effizient die Wärme eines Rechnersystems ableiten. Der Supercomputer MareNostrum4 des Barcelona Supercomputing Center setzt beispielsweise auf diese Technik. Dabei handelt es sich um eine Art Heizung, die anstelle der Serverrack-Tür am Rechner angebracht wird.

Darüber hinaus hat Lenovo eine Kühlungstechnik namens Thermal Transfers Module (TTM) im Programm. Damit lassen sich ganz im Sinne von Lenovo Neptun Systeme mithilfe von warmen Wasser kühlen, allerdings nicht auf System-, sondern auf CPU-Ebene. Dabei handelt sich um ein Hybridsystem, das einerseits die klassische Luftzirkulierung und andererseits die neuartige Warmwasserkühlung einsetzt. TTM kommt vor allem in kleineren Rechnereinheiten zum Einsatz, in denen aus Platzgründen Techniken wie Lenovo Neptun keine Option ist. Dies sorgt für mehr Rechnerleistung bei weniger Abwärme – und für weniger Lärm.

Aktuelle HPC-Trend: GPU statt CPU

Einer der wesentlichen HPC-Trends betrifft die Prozessortechnik, die verstärkt in Supercomputern zum Einsatz kommt. So findet nämlich gerade eine Transformation vom traditionell CPU-lastigen Rechnermodell hin zu GPU-Systemen steht. Das bedeutet konkret, dass vor allem Spezialanwendungen mehr und mehr von der Multicore-Architektur der Hochleistungsgrafikkarten wie einer NVIDIA V100 profitieren. Dazu gehört beispielsweise das riesige Themenfeld der Künstlichen Intelligenz, das aufgrund seiner hohen Rechneranforderungen verstärkt auf GPUs setzen wird. HPC at its best, sozusagen.

Das komplette Interview mit Scott Tease (auf Englisch)

Sergej Schlotthauer, Matrix42, über aktuelle Sicherheitssthemen

[Videoblog] Sergej Schlotthauer über Matrix42, EgoSecure und aktuelle Sicherheitsthemen

Während einer IDC-Veranstaltung zum Thema IT-Sicherheit habe ich dieses Interview mit Sergej Schlotthauer von Matrix42 geführt. Darin spricht er über das „Center of Excellence for Security“, über Endpoint Management und die wichtigsten, aktuellen Security-Themen.

Sergej Schlotthauer verantwortet „Center of Excellence for Security“

Mit dem Zusammenschluss der beiden Firmen Matrix42 und EgoSecure entstanden für Matrix42 ganz neue Möglichkeiten, die im „Center of Excellence for Security“ mündeten. Dieser neuen Einrichtung steht Sergej Schlotthauer vor, in der unter anderem die Themen Endpoint Security und Software Management im Vordergrund stehen. Und genau mit diesen Schwerpunkten wollen und werden Matrix42 und EgoSecure künftig den Markt mit neuen Lösungen versorgen.

So gibt es beispielsweise gemeinsame Aktivitäten im Kontext der DSGVO, denn hierfür müssen Daten verschlüsselt und Zugriffe darauf verhindert werden. Und genau darum kümmert sich künftig Matrix42 mit der Expertise von EgoSecure.

Endpoint Management wird immer wichtiger

In Zeiten, in den Daten eine wahre Goldgrube darstellen, wird der Schutz derselben immer wichtiger. Daher müssen künftig vor allem die möglichen Einfalltore noch besser geschützt werden. Neben den klassischen Desktop- und Notebook-Rechnern sind das verstärkt Smartphones, Tablets und andere Geräte, auf denen Daten liegen oder die ihre Daten auf dem Firmenserver speichern wollen. Hierfür sind erprobte Managementlösungen und sichere Verschlüsselungsverfahren erforderlich.

Aktuelle Sicherheitsthemen: externe Angriffe und Datenschutz

Sieht man sich die aktuellen Sicherheitsrisiken an, mit denen IT-Beauftragte konfrontiert werden, lassen sich vor allem zwei Themen nennen: Angriffe von außen und der Datenschutz im Geiste der DSGVO.

Im Falle der externen Bedrohungen ist es zwingend erforderlich, mehr und mehr über die Automatisierung von Sicherheitsmaßnahmen nachzudenken. Denn die Bedrohungen von außen werden immer intelligenter und zielgerichteter, sodass es nicht mehr reicht, einen IT-Adminstrator vor eine Konsole zu setzen in der Hoffnung, dass er die Angriffe abwehren kann. Daher sind intelligente Systeme erforderlich, die vollautomatisch Angriffe erkennen und diese eliminieren können.

Beim zweiten Thema Datenschutz fällt auf, dass die Akzeptanz der hierfür notwendigen Maßnahmen verbessert werden sollte. Denn immer noch herrscht bei vielen Anwendern der Eindruck vor, dass Datenschutzmaßnahmen ihre Effizienz negativ beeinträchtigen – was zwar eine sehr subjektive, aber durchaus ernstzunehmende Wahrnehmung ist. Um dem vorzubeugen, sind die richtigen Mittel und Wege erforderlich, um den Anwendern das Gefühl zu geben, dass ihr Arbeitsplatz einerseits sicher und andererseits genauso produktiv wie vorher ist. Oder vielleicht sogar noch sicherer und noch produktiver als vorher.

Das vollständige Interview mit Sergej Schlotthauer

Matthias Hartmann (IBM) über die digitale Transformation

CEBIT 2018: Matthias Hartmann, IBM, über die digitale Transformation

Während der CEBIT 2018 hatte ich die Gelegenheit, dieses Interview mit Matthias Hartmann, General Manager IBM DACH, zu führen. Darin spricht er über sein erklärtes Lieblingsthema „Digitale Transformation“: Wo wir stehen, wie IBM helfen kann und ob die CEBIT in diesem Kontext der richtige Neuanfang ist.

Wie ist es hierzulande um die digitale Transformation bestellt?

In diesem Punkt ist Herr Hartmann etwas zwiegespalten: Es ist nicht so schlecht, wie oft behauptet wird, aber auch noch nicht so, wie es eigentlich sein sollte. Hierbei tun sich diverse Fragen auf:

  • Wie gehen Unternehmen mit der digitalen Transformation um?
  • Wie nimmt der einfache Anwender die digitale Transformation wahr?
  • Wie verhält es sich diesbezüglich mit grenzüberschreitenden Regeln und Regularien?

Wer aus Herrn Hartmanns Sicht zur digitalen Transformation auf jeden Fall beiträgt, ist die stetig größer werdende Start-up-Szene in Deutschland, aber auch die großen Technologieunternehmen wie IBM, Intel und Co. Und doch, so Hartmann, geht es eher um Wissen, um Kultur, um Geschäftsmodelle, als um eine rein technische Betrachtungsweise dieses Themas.

Wie kann die IBM bei der digitalen Transformation helfen?

Wichtig ist aus Herrn Hartmanns Sicht erst einmal die Bereitschaft, neue Dinge und Wege auszuprobieren – mit allen Möglichkeiten, sowohl im erfolgreichen als auch im weniger erfolgreichen Sinne. In diesem Zusammenhang sieht sich IBM als eine Art „Bereitsteller“ von Plattformen, an denen Unternehmen jedweder Couleur und Größe partizipieren können. Damit will „Big Blue“ leichter „konsumierbar“ werden, wie das Beispiel Watson ja sehr deutlich zeigt. Das belegt eindrucksvoll, dass sich IBM permanent dem Markt anpasst, um auf diesem Weg ein zuverlässiger und innovativer Partner sein zu können, den viele Firmen bei ihrer ganz persönlichen digitalen Transformation brauchen.

Stellt die „neue“ CEBIT einen Neuanfang dar?

Ja, so Herr Hartmann, die CEBIT 2018 ist ein Neuanfang, gar ein großer Wurf, über den er sich recht angetan zeigt. Nicht zuletzt wohl auch deshalb, weil die IBM als kritischer Geist an den Ideen- und Konzeptfindungstreffen teilgenommen hat. Natürlich muss man abwarten, wie die „neue“ CEBIT ankommt und welche Lehre daraus gezogen werden können. Doch eines ist für ihn völlig klar: Die Entscheidung – auch seitens der IBM – Technik und Technologie anfassbarer und transparenter zu machen, war eine sehr gute.

Und es ist wohl so, wie Herr Hartmann es sagt: Die neuen Konzepte und Ideen wurden angenommen, selbst viele Kritiker finden auf einmal wieder Gefallen an der CEBIT. Und selbst wenn die Besucherzahlen noch einmal schlechter waren als im vorherigen Jahr: Der Neustart der CEBIT war wichtig und richtig und macht Mut für weitere Ausgaben.

Das vollständige Interview mit Matthias Hartmann

 

Florian Indriksons von Lenovo

[Videoblog] Florian Indriksons über Lenovo Executive Briefing Center und Innovation Center

Dieses Videointerview habe ich mit Florian Indriksons von Lenovo geführt. Darin erklärt er, was das Lenovo Executive Briefing Center und das Lenovo Innovation Center sind und wie beide Einrichtungen von Lenovo-Partnern und -Kunden genutzt werden können.

Sabine Hammer von Lenovo

[Videoblog] Sabine Hammer über das Lenovo Channel Partner Programm

Dieses Videointerview habe ich mit Sabine Hammer von Lenovo geführt. Darin spricht sie über die Rolle der Lenovo-Partner für das RZ-Geschäft, wie Lenovo die RZ-Partner bei ihrer Arbeit unterstützt, was alles am Lenovo Partner Engagement Programm interessant ist und warum Lenovo Partnerzertifizierungen wieder eingeführt hat.

PrimeServer - Vorderansicht

Lüfterlos, kompakt, zuverlässig: PrimeServer, „gefertigt in der Schweiz“

Kunden fordern immer öfter von Ihren IT-Dienstleistern, ökologisch und ökonomisch verantwortungsvolle IT-Produkte ins Portfolio aufzunehmen. Das betrifft möglichst kurze Lieferketten, aber auch nachhaltige Produktionsmittel und längere Produktzyklen. Zudem sollen Server und Co. Umwelt und Anwender möglichst wenig belasten. 

Genau diese und weitere Ansprüche hat sich das Schweizer IT-Unternehmen Prime Computer aus St. Gallen auf die rot-weißen Fahnen geschrieben. Und das, was man so liest und hört, mit anhaltendem und überzeugendem Erfolg.

Zum Produktportfolio von Prime Computer zählen drei Bereiche: Desktop-PCs, Server und HiFi-Endstufen. Allen drei ist ein innovatives, lüfterloses Produktdesign gemein. In diesem Blogbeitrag gehe ich nur auf die Serversparte von Prime Computer näher ein.

Ausstattung und Leistungsdaten: lüfterloses Serverkonzept

Im PrimeServer steckt ein Intel Xeon-Prozessor, der über bis zu 12 Kernen verfügt, je nach Leistungsansprüchen der geplanten Anwendungen. De Clou daran: Aufgrund des durchdachten Kühlungskonzepts der PrimeServer muss die Intel-CPU nicht mithilfe eines Prozessorlüfters gekühlt werden, was zu einer enormen Ruhe im Serverbetrieb führt. Damit lässt sich der Server nahezu an jedem Ort betreiben, also auch außerhalb von Serverräumen.

PrimeServer - Rückseite

Dazu trägt auch das Serverdesign bei: Dank der Aluminiumbauweise und den integrierten Kühlrippen ist eine vollständige Passivkühlung möglich. Das spart Strom und schont die Nerven der Benutzer, da man einen PrimeServer im Grunde nicht hört. Zudem erhöht sich aufgrund des lüferlosen Ansatzes die Betriebssicherheit, da Staub und andere mögliche Störfaktoren erst gar nicht ins Innere des Servers gelangen.

Arbeitsspeicherseitig sind maximal 128 Gigabyte vorgesehen, für das Speichern der Daten stehen im PrimeServer Platz für bis zu drei SSD- oder HDD-Komponenten bereit, die sich per eingebautem RAID-Controller redundant betreiben lassen. Apropos Redundanz: Zwei parallel geschaltete Netzteile sorgen für eine relativ hohe Ausfallsicherheit. Praktisch sind auch die fünf Ethernet-Anschlüsse, damit stehen in Sachen Netzwerkverkabelung zahlreiche Optionen offen. 

Aufgrund seines geringen Gewichts (5 Kilogramm) und seiner geringen Ausmaße passen zwei PrimeServer nebeneinander in einen Standard-19-Zoll-Serverschrank. Damit kommt der Rechner auch in professionellen Serverumgebungen zum Einsatz.

PrimeServer - eingebaut als Duo im 19-Zoll-Rack

Anwendungsbereiche: Von Standard-Server bis virtualisierte IT-Umgebung 

Aufgrund seiner Leistungsdaten und kompakten Bauweise sind mit dem PrimeServer zahlreiche Anwendungen denkbar und möglich. Das reicht vom ersten Server kleinerer Firmen über den Einsatz als Transaktionsserver geschäftskritischer Anwendungen bis hin zu zu Backup-, und Software-Entwicklungsszwecken. Möglich sind aber auch die klassischen Anwendungsfelder wie E-Mail-oder Backup-Server. Darüber hinaus lässt sich der PrimeServer in virtuell organisierten IT-Umgebungen einsetzen, in denen Desktop-Rechner und Notebooks zentral auf sämtliche Anwendungen und Daten zugreifen.

Testberichttipp: Das Swiss IT Magazine hat den PrimeServer ausführlich getestet. Das Ergebnis lässt sich per Mausklick ansehen.

Disclaimer: Für diesen Beitrag hat mich Prime Computer als Blogger beauftragt.

Dr. Florian Jurecka (Dassault Systemes) über Digital Twins in der Simulation

[Videochat] Dr. Florian Jurecka (Dassault Systèmes) über Digital Twins zu Simulationszwecken

Dieses Videointerview habe ich mit Dr. Florian Jurecka auf der Hannover-Messe 2018 zum Thema Digital Twins in der Simulation geführt. Darin erklärt er, was Dassault Systèmes unter dem Begriff „Digital Twin“ versteht, was die Simulationssoftware von Dassault Systèmes in diesem Kontext leistet und wie sich die Rolle der Simulation gerade verändert.

Wie definiert Dassault Systemes den Begriff „Digital Twin“?

Dassault Systemès bezeichnet den Begriff „Digital Twin“ als „3DExperience Twin“, angelehnt an ihre Business Experience Plattform 3DExperience, mit der sich unter anderem Objekte konzipieren und gestalten lassen. Damit kann ein durchgängiges Modell eines digitalen Zwillinge dargestellt werden, also von der frühen Konzeptphase  bis zum fertigen Produkt. Auf diesem Weg lassen sich alle Abschnitte einer Produktentwicklung volldigital abbilden.

Was leistet SIMULIA im Kontext „Digital Twin“?

Mit SIMULIA lässt sich laut Herrn Jurecka ein Digital Twin zum Leben erwecken. Denn mithilfe von Produktsimulationen können die funktionalen Eigenschaften einer kompletten Maschine oder eines einzelnen Werkstücks digital abgebildet werden, und das analog zum realen „Gegenstück“. Damit können physikalische Eigenschaften eines echten Objekts am Computer abgebildet werden und kleinste Abweichungen lassen sich somit mühelos feststellen.

Mithilfe des digitalen Zwillings kann man also strukturmechanische Eigenschaften genauso darstellen wie Charakteristika aus den Bereichen Strömung, Elektromagnetik, etc. Damit lassen sich die zu erwartenden Hardware-Eigenschaften anhand der zuvor definierten Anforderungen genauesten überprüfen und bewerten.

Simulation à la Digital Twin kann aber noch mehr: So lassen sich virtuelle Produkte in einer frühen Phase schrittweise verbessern, sodass spezifische Eigenschaften so schnell wie möglich berücksichtigt werden können. Und das wiederum schont Ressourcen, führt also zu weniger Ausschuss bei der späteren Produktion oder ermöglicht bessere Ergebnisse beim finalen Produkt.

Wie ändert sich die Rolle der Simulation gerade?

Die Rolle der Simulation verändert sich im Produktentwicklungsprozess fortwährend, wird also immer bedeutender und wichtiger. So kommt die Simulation beispielsweise nicht mehr ausschließlich zu Validierungszwecken zum Einsatz, sondern trägt auch einen wichtigen Beitrag zur gesamten Wertschöpfungskette bei. Das hat zum einen damit zu tun, dass Simulationen immer früher eingesetzt werden, und zum anderen im Bereich „Predictive Maintenance“ eine immer wichtigere Rolle spielen. Damit lässt sich künftig noch genauer und früher vorhersagen, wie sich ein Produkt oder Bauteil im realen Einsatz verhalten wird.

Aber auch die Zunahme von Wissen innerhalb eines Unternehmens ist dem Einsatz von Simulation geschuldet. Denn aufgrund der zunehmenden Bandbreite an Simulationstools kann zum Beispiel ein Konstrukteur mit dem passenden digitalen Werkzeug ganz früh in den Entwicklungsprozess eingebunden werden. Und das alles auf Basis von Hochleistungsrechnern, die Simulationsberechnungen immer exakter in immer kürzerer Zeit durchführen können.

Das Videointerview mit Florian Jurecka in voller Länge

Christian Tarun (IBM) über digitalen Service-Support

[Videochat] Christian Tarun (IBM) über digitalen Service-Support mittels VR

Während der Hannover-Messe 2018 habe ich mit Christian Tarun von IBM über die Möglichkeiten des digitalen Service-Supports gesprochen, speziell mithilfe von Daqri-VR-Brillen und dem Software-Tool „IBM Maximo Enterprise Asset Management“.

„Was zeigen Sie auf der Hannover-Messe 2018?“

Christian Tarun und sein Team zeigten während der Hannover-Messe 2018 IBM Maximo Enterprise Asset Management mit all seinen Möglichkeiten. Damit lassen sich vor allem Instandhaltung und vorbeugende Wartung sehr gut abbilden und administrieren. Hierbei kommen zahlreiche Sensoren zum Einsatz, mit deren Hilfe der Zustand kompletter Anlagen überwacht und gesteuert werden können. Damit kann man auf Probleme bereits reagieren, bevor sie folgenschwere Komplikationen oder Betriebsausfälle verursachen. Darüber hinaus unterstützt Maximo Außendienstmitarbeiter bei ihren täglichen Arbeiten im Serviceeinsatz.

„Inwiefern unterstützt die [am IBM-Stand gezeigte] Daqri-VR-Brille Ihre Kunden?“

Mithilfe der Daqri-VR-Brille können sich zum Beispiel Außendienstmitarbeiter auf dem virtuellem Weg relevante Informationen zu einer Anlage auf das Display der Brille holen, um so mehr zu erfahren über den aktuellen Zustand der Maschine oder einer anderen Komponente, die sie warten oder reparieren sollen. Diese Zustandsinformationen werden in Echtheit ausgelesen und in der Brille angezeigt, sodass der Techniker genau weiß, an welchen Stellen er aktiv werden muss.

Sehr praktisch ist auch die Möglichkeit, mithilfe der in der Brille eingebauten Kamera technischen Support zu bekommen. So kann sich beispielsweise ein Experte über eine Remote-Anbindung mit der Brille verbinden und sieht somit genau die Maschine, an der der Außendienstmitarbeiter nicht weiterkommt. Damit können beide gemeinsam das technische Probleme dank der Daqri-VR-Brille beheben. Auf diese Art und Weise kann die VR-Brille auch zu Schulungszwecken eingesetzt werden.

„Wie lässt sich die Daqri-VR-Brille darüber hinaus nutzen?“

Neben den aufgeführten Möglichkeiten lässt sich die Daqri-VR-Brille auch zu Navigationszwecken nutzen. So kann der Außendienstmitarbeiter exakt zu der Maschine geleitet werden, an der ein technischer Mangel aufgetreten ist, den er beheben soll.

„Was leistest IBM Maximo Enterprise Asset Management?“

IBM Maximo Enterprise Asset Management überwacht den Gesundheitszustand einer zu überwachenden Anlage, und das wie bereits erwähnt mithilfe einer Reihe von Sensoren, die an den einzelnen Bauteilen der Maschine angebracht sind.

Wichtig dabei ist, dass der Betreiber der Anlage zunächst einen gewünschten Soll-Zustandswert definiert, der in Summe nicht unterschritten werden darf. Anschließend überwacht Maximo sämtliche Einzelwerte und zeigt Unregelmäßigkeiten an, sobald diese entstehen. Wird ein Schwellenwert unterschritten, wird auf dieser Basis ein Arbeitsauftrag erstellt, der einen technischen Mitarbeiter zur Anlage  schickt, damit dieser das technische Problem behebt, bevor es überhaupt entsteht. Dies wird unter dem Begriff „Predictive Maintenance“ subsumiert.

Dank des integrierten Kartenapplikation kann der Techniker mithilfe von Maximo den Standort der fehlerhaften Anlage lokalisieren und sich anhand der Lagedaten sofort auf den Weg machen. Dieser Kartenausschnitt ist zudem interaktiv nutzbar: Per Mausklick bekomme ich sämtliche Informationen zur Anlage am Bildschirm angezeigt.

Das Videointerview mit Christian Tarun in voller Länge