Antigoni Chrysostomou über HPC in Deutschland

[Videoblog] Antigoni Chrysostomou über das Lenovo HPC-Geschäft

Während der International Supercomputing Conference 2018 habe ich dieses Interview mit Antigoni Chrysostomou von der Lenovo Data Center Group über das HPC-Geschäft in Deutschland geführt. Darin spricht sie über das

Der deutsche HPC-Markt im weltweiten Vergleich: echt stark!

Betrachtet man den hiesigen HPC-Markt (High-Performance Computing), kann man ihm durchaus bescheinigen, wettbewerbsfähig zu sein. Das liegt vor allem an der hohen Zahl an Forschungsinstituten, die sich in Deutschland tummeln, da diese einen großen Bedarf an viel und noch viel mehr Rechenpower zu Forschungszwecken haben.

Dazu gehört beispielsweise das Gauss Supercomputing Center, das einen Verbund der drei großen Universitätsrechenzentren darstellt. Dazu gehören das Jülicher Supercomputing Center, das Leibniz-Rechenzentrum (LRZ) in München-Garching und das HPC-Zentrum Stuttgart. Und eines davon, nämlich das LRZ, ist einer der größten RZ-Kunden Lenovos, wo gerade der größte Supercomputer Deutschlands entsteht, nämlich der SuperMUC-NG.

Daneben sind deutsche Supercomputer zahlreich in der Top-500-Liste der weltweit schnellsten Rechner vertreten. Alleine Lenovo trägt zu insgesamt 117 Systemen bei, die zu den leistungsfähigsten ihrer Art zählen, womit das Unternehmen die Top-500 in dieser Kategorie anführt.

Darum ist der HPC-Markt so interessant für Lenovo

High-Performance Computing mit seinen unterschiedlichen Ausprägungen stellt ganz bestimmte Anforderungen an Rechnersysteme, die vor allem von den HPC-Anwendern eingefordert werden. Folge: Neue Anwendungen rufen neue, innovative Lösungsansätze hervor, wovon gerne Unternehmen wie Lenovo profitieren, das sie selbst Teil dieser Innovationsmaschinerie sind. Wichtig dabei ist, dass die Entwicklerteams von Lenovo sehr stark mit ihren Kunden vernetzt sind, um so schnellst- und bestmöglich auf deren Anforderungen reagieren zu können.

Als ein „Nebeneffekt“ dieser HPC-Entwicklungen kann die Transformation solcher neuen Lösungen in den RZ-Massenmarkt betrachtet werden. Dazu gehören beispielsweise wassergekühlte Systeme, die Stück für Stück in den herkömmlichen Rechenzentren zum Einsatz kommen werden, nachdem sie sich im HPC-Umfeld bewährt haben.

Hiesige HPC-Schwerpunkte: Energieeffizienz und Warmwasserkühlung

Vor allem die hohen Ansprüche deutscher RZ-Betreiber an die Energieeffizienz eines solchen Systems treibt hierzulande ganz entscheidend zu den aktuellen Entwicklungen bei. Dies hat zwei wesentliche Gründe: Einerseits sind die Strompreise in Deutschland höher als in anderen Ländern, und zum anderen spielen bei uns die Themen Nachhaltigkeit und Verantwortung gegenüber der Umwelt eine größere Rolle als anderswo. Dies führt beispielsweise zu heißwassergekühlten Rechenzentren, wie sie in Garching bei München seit Jahren zu bewundern sind.

Ein weiterer hiesiger Aspekt, der ebenfalls mit dem Thema Energieeffizienz zu tun hat, betrifft die klassische TCO-Betrachtung. So fließen in die Gesamtkalkulation eines deutschen Rechenzentrums nicht nur die Anschaffungskosten für Hardware und Software ein, sondern auch die Energiekosten für Strom und Wasser. Was Lenovo speziell in Deutschland gegenüber anderen Anbietern einen großen Vorteil verschafft, da deren HPC-Systeme verstärkt mit Heißwasserkühlsystemen betrieben werden sollen.

Aus diesem und anderen Gründen hat Lenovo pünktlich zur ISC18 eine neue Technik vorgestellt, die sich Lenovo Neptun nennt und die das Kühlen von großen Rechenzentren mithilfe von Heißwasser ermöglichen soll – und das sehr viel energieeffizienter als andere vergleichbare Lösungsansätze.

Das komplette Videointerview mit Antigoni Chrysostomou

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Sergej Schlotthauer, Matrix42, über aktuelle Sicherheitssthemen

[Videoblog] Sergej Schlotthauer über Matrix42, EgoSecure und aktuelle Sicherheitsthemen

Während einer IDC-Veranstaltung zum Thema IT-Sicherheit habe ich dieses Interview mit Sergej Schlotthauer von Matrix42 geführt. Darin spricht er über das „Center of Excellence for Security“, über Endpoint Management und die wichtigsten, aktuellen Security-Themen.

Sergej Schlotthauer verantwortet „Center of Excellence for Security“

Mit dem Zusammenschluss der beiden Firmen Matrix42 und EgoSecure entstanden für Matrix42 ganz neue Möglichkeiten, die im „Center of Excellence for Security“ mündeten. Dieser neuen Einrichtung steht Sergej Schlotthauer vor, in der unter anderem die Themen Endpoint Security und Software Management im Vordergrund stehen. Und genau mit diesen Schwerpunkten wollen und werden Matrix42 und EgoSecure künftig den Markt mit neuen Lösungen versorgen.

So gibt es beispielsweise gemeinsame Aktivitäten im Kontext der DSGVO, denn hierfür müssen Daten verschlüsselt und Zugriffe darauf verhindert werden. Und genau darum kümmert sich künftig Matrix42 mit der Expertise von EgoSecure.

Endpoint Management wird immer wichtiger

In Zeiten, in den Daten eine wahre Goldgrube darstellen, wird der Schutz derselben immer wichtiger. Daher müssen künftig vor allem die möglichen Einfalltore noch besser geschützt werden. Neben den klassischen Desktop- und Notebook-Rechnern sind das verstärkt Smartphones, Tablets und andere Geräte, auf denen Daten liegen oder die ihre Daten auf dem Firmenserver speichern wollen. Hierfür sind erprobte Managementlösungen und sichere Verschlüsselungsverfahren erforderlich.

Aktuelle Sicherheitsthemen: externe Angriffe und Datenschutz

Sieht man sich die aktuellen Sicherheitsrisiken an, mit denen IT-Beauftragte konfrontiert werden, lassen sich vor allem zwei Themen nennen: Angriffe von außen und der Datenschutz im Geiste der DSGVO.

Im Falle der externen Bedrohungen ist es zwingend erforderlich, mehr und mehr über die Automatisierung von Sicherheitsmaßnahmen nachzudenken. Denn die Bedrohungen von außen werden immer intelligenter und zielgerichteter, sodass es nicht mehr reicht, einen IT-Adminstrator vor eine Konsole zu setzen in der Hoffnung, dass er die Angriffe abwehren kann. Daher sind intelligente Systeme erforderlich, die vollautomatisch Angriffe erkennen und diese eliminieren können.

Beim zweiten Thema Datenschutz fällt auf, dass die Akzeptanz der hierfür notwendigen Maßnahmen verbessert werden sollte. Denn immer noch herrscht bei vielen Anwendern der Eindruck vor, dass Datenschutzmaßnahmen ihre Effizienz negativ beeinträchtigen – was zwar eine sehr subjektive, aber durchaus ernstzunehmende Wahrnehmung ist. Um dem vorzubeugen, sind die richtigen Mittel und Wege erforderlich, um den Anwendern das Gefühl zu geben, dass ihr Arbeitsplatz einerseits sicher und andererseits genauso produktiv wie vorher ist. Oder vielleicht sogar noch sicherer und noch produktiver als vorher.

Das vollständige Interview mit Sergej Schlotthauer

Udo Schneider, Trend Micro, über die akteulle IT-Sicherheitslage

[Videoblog] Udo Schneider, Trend Micro, über die aktuelle IT-Sicherheitslage

Während einer IDC-Veranstaltung zum Thema IT-Sicherheit habe ich dieses Interview mit Udo Schneider von Trend Micro Deutschland geführt. Darin spricht er über interne und externe Gefahren, wie man sich dagegen schützen kann und wie Künstliche Intelligenz die IT-Abteilung unterstützen kann.

Diese Gefahren lauern derzeit im Internet

Sieht man sich die aktuelle Gefahrenlage an, lauern vor allem zwei Bedrohungen auf Anwender: Die klassischen Erpressungstrojaner wie Wannacry und Konsorten, die auch als Ransomeware bezeichnet werden. Leider beschäftigt das immer noch viele zu viele Unternehmen, weil sie offenkundig noch nicht die richtigen Abwehrmechanismen implementieren konnten – oder im schlimmsten Fall wollten, da sie die potenzielle Bedrohung nicht ernst genug nehmen. Zu diesem Schluss kommt übrigens auch die groß angelegte IDC-Studie, die auf der Veranstaltung vorgestellt wurde.

Daneben macht der sogenannte Scheckbetrug (englisch: Business E-Mail Compromise, BEC) von sich Reden. In diesem Fall gehen Cyber-Erpresser vor allem gegen größere Unternehmen vor, um so an hohe Geldsummen heranzukommen. Dass sich dieses „Geschäftsmodell“ lohnt, zeigen Schätzungen von Trend Micro: So sollen alleine in diesem Jahr mittels BEC etwa 9 Milliarden US-Dollar erbeutet werden.

Die Vorgehensweise der BEC-Betrüger ist ganz oft dieselbe: Diese versenden an einen Finanzbeauftragten (z.B. den CFO der Firma) eine E-Mail mit dem Hinweis, er oder sie solle eine Summe X an einen Lieferanten oder ähnliches Unternehmen überweisen – was dann oft sehr gutgläubig auch geschieht. Dabei wäre es in vielen Fällen so einfach, diese Schadensfälle zu verringern bzw. ganz auszuschließen.

Große Gefahren lauern auch innerhalb vieler Unternehmen

Große Risiken gehen nach wie vor von den Anwendern selbst aus, wie das Beispiel BEC zeigt. Denn anstatt vorsichtig mit unseriösen Anfragen umzugehen, vertrauen viele Anwender nach wie vor auf die Technik und dass diese schon zwischen gut und böse unterscheiden kann. Hier ist also primär Aufklärungsarbeit notwendig, um Cyber-Angriffen effizient zu begegnen, und seien sie noch so banal und eigentlich leicht zu durchschauen. Dies können Trainings sein (auch auf Management-Ebene) oder regelmäßige Veranstaltung oder einfach nur interne Newsletter seitens der Security-Abteilung.

Gesunder Menschenverstand und Technik: So schützt man sich vor Angriffen

In Sachen Cyber-Angriffe müssen zwei Bereiche betrachtet werden: Zum einen sind für einen effektiven Schutz von Anwendern, Daten und Anwendungen technische Hilfemittel zwingend erforderlich. Hierzu gehören Security-Anwendungen, die helfen sollen, E-Mails nach schadhaften Inhalten zu filtern oder Webseiten vor dem Einschleusen von Schadcode zu schützen. Anti-Malware-Applikationen gehen mittlerweile sogar so weit, dass Krypto-Software Festplatten und andere Speicherkomponenten erst gar nicht verschlüsseln kann.

Darüber hinaus können organisatorische Maßnehmen helfen, Unternehmen vor unliebsamen Besuchern und Erpressungsversuchen zu bewahren. Dazu gehört neben dem richtigen Filtern und Scannen von E-Mails auch der regelmäßige Hinweis an die Anwender, nicht auf jeden Link zu klicken, der sich innerhalb einer Nachricht befindet.

So kann die Künstliche Intelligenz die IT-Abteilung unterstützen

Grundsätzlich kann die Künstliche Intelligenz (KI) resourcen-seitige Herausforderungen lösen. Denn redet man mit IT-Sicherheitsbeaurtragten in Unternehmen, bekommt man immer wieder zu hören, dass es aktuell nicht genügend Kandidaten am Markt gibt, mit deren Hilfe die anstehenden Aufgaben in Umfang und Qualität bewältigt und gelöst werden können.

Genau an dieser Stelle kommt die KI ins Spiel, da diese deutlich besser skaliert als IT-Security-Personal. Soll heißen, dass eine automatisierte Abwehr von Angriffen, so wie sie die KI leisten kann, deutlich effizienter und flexibler ist als mit Menschen, die noch nicht einmal zur Verfügung stehen. Die Herausforderung der KI besteht allerdings im Trainieren der zugehörigen Algorithmen und Anwendungen, wofür aussagekräftige und verlässliche Daten erforderlich sind. Und genau dieser Punkt bereitet vielen Unternehmen immer noch großen Kopfschmerzen.

Das komplette Videointerview mit Udo Schneider

 

Peter Lyhne Uhrenholt, TRIAX, about TRIAX A:S

[Videoblog] CEO Peter Lyhne Uhrenholt über TRIAX A/S: Schwerpunkte, Partner, Ziele

Während der ANGA COM 2018 habe ich mit TRIAX Geschäftsführer Peter Lyhne Uhrenholt über TRIAX-Produkte und -Lösungen gesprochen, über die Zusammenarbeit mit Kabelanbietern und darüber, wo er TRIAX in den nächsten fünf bis zehn Jahren sieht.

TRIAX-Produkte und -Lösungen sorgen für zufriedene Kunden

Selbstverständlich genügen TRIAX-Produkte und -Lösungen höchsten Qualitätsansprüchen und sind darüber hinaus robust und zuverlässig im täglichen Umgang und Einsatz. Denn das ist die oberste Maxime, die Kunden von TRIAX fordern: Produkte, die funktionieren und ihren Zweck erfüllen. Und genau diesen Werten hat sich TRIAX verschrieben: Maximale Kundenzufriedenheit durch maximale Produktqualität.

Dies wird unter anderem mithilfe kontinuierlicher Forschungs- und Entwicklungsaktivitäten erreicht, in die TRIAX viel Zeit und Geld investiert. Denn um stets am Puls der Technik zu sein und mit den Anforderungen des Marktes Schritt halten zu können, will TRIAX regelmäßig neue Ansätze schaffen, die in neuen Produkten münden. Denn auch das trägt zu einer Kundenzufriedenheit im Sinne von Peter Lyhne Uhrenholt bei.

TRIAX A/S wird die Zusammenarbeit mit Kabelbetreibern weiter verstärken

TRIAX-Kunden und Kabeloperatoren pflegen seit jeher eine enge Partnerschaft. Daher ist die Zusammenarbeit seitens TRIAX mit Kabelnetzbetreibern schon seit langem von essentieller Wichtigkeit. Eine der drängesten Herausforderungen dabei ist das Verbessern und Erhöhen der Kabelbandbreite, da diese für Hotels und andere Einrichten mit umfangreichen Kabelnetzen enorm wichtig ist. Schließlich sollen Gäste und Kunden auch auf dieser Ebene zufriedengestellt werden.

Daher steigen mehr und mehr Kabeloperatoren auf die neueste Kabeltechnik DOCSIS 3.1 um, um künftig höhere Bandbreiten mit Gigabit-Tempo anbieten zu können. Und natürlich braucht es hierfür die richtigen Produkte und Lösungen, die immer die neuesten Technologien unterstützen. Aus diesem und anderen Gründen ist nicht nur für TRIAX die Zusammenarbeit mit Kabeloperatoren wichtig, sondern auch umgekehrt.

Exkurs: DOCSIS (Data Over Cable Service Interface Specification) beschreibt Schnittstellen von Kabelmodems in einem Breitbandnetz. DOCSIS 3.1 unterstützt Datenraten von bis zu 10 GBit/s im Downstream und soll Latenzen verringern.

TRIAX in 5 bis 10 Jahren: Cloud-Services und mehr Distributoren

Für Peter steht vor allem das Entwicklen einer vollständigen Lösungsplattform im Vordergrund, wenn er an die nächsten 5 bis 10 Jahre von TRIAX denkt. Schon heute bietet der aktuelle Lösungsansatz alle wichtigen Komponenten wie Kopfstellensysteme, Ethernet over Coax sowie die passende Software-Plattform, die jedoch mehr und mehr als Cloud-Service angeboten werden und verfügbar sein soll. Darüber hinaus gibt es bei TRIAX weitreichende Pläne, das bereits existierende Distributionsnetzwerk weiter auszubauen, um damit noch näher an ihre Kunden heranzukommen.

Das Interview mit Peter Lyhne Uhrenholt in voller Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

Rick Koopman about Lenovo and AI

[Videoblog] Darum ist Künstliche Intelligenz für Lenovo so wichtig

Dieses Interview habe ich mit Rick Koopman von der Lenovo Data Center Group auf der International Supercomputing Conference 2018 geführt. Darin spricht er über das Thema KI (Künstliche Intelligenz) und warum es so wichtig für Lenovo ist. Darüber hinaus ließ er mich an den aktuellen KI-Entwicklungen teilhaben und zeigte auch, was Lenovo-Kunden in nächster Zeit in Sachen KI von Lenovo erwarten können.

Künstliche Intelligenz ist für Lenovo ein wichtiges Thema

Lenovo-Lösungen und das Thema KI passen zwangsläufig gut zusammen, weil sich beide Seiten sehr gut ergänzen. Damit ermöglicht Lenovo seinen Kunden, deren Arbeit und Projekte noch besser realisieren als ohne KI. Davon profitieren zahlreiche Bereiche wie die Wissenschaften und das Gesundheitswesen, wo Bilderkennungsalgorithmen eine wichtige Rolle spielen. Und genau dort kommt die KI zum Einsatz, und das häufig in Form von Machine Learning und Deep Learning. Das erfordert natürlich optimierte und auf den Kunden zugeschnittene Lösungen und Algorithmen, die Lenovo bieten kann und will.

NVIDA V100-CPU-Lösung und Warmwasserkühlung sind auf dem Vormarsch

Sieht man sich die aktuellen Algorithmen und Anwendungen an, wird schnell klar, dass ein Großteil immer noch sehr prozessor-lastig ist, da sich die Software-Entwickler immer noch stark an der Prozessor-basierten Programmierung orientieren. Allerdings verschieben sich hier die Grenzen zunehmend, sodass neue Ansätze und Techniken erforderlich sind. Eine Möglichkeit ist der Einsatz von Spezialhardware, die auf einer großen Zahl von Grafikchips beruht, was sich in einer leistungsfähigen und parallel arbeitenden Multicore-Architektur widerspiegelt.

Das führt dann zu KI-Hardware-Lösungen wie NVIDIA V100. Dieser Hochleistungsgrafikprozessor wurde speziell für die Bereiche KI, HPC und Co. entwickelt und beruht auf der NVIDIA Volta-Technologie. Laut NVIDIA entspricht die Rechenleistung eines einzigen Grafikprozessors der von 100 herkömmlichen CPUs. Darüber hinaus ist der V100-Prozessor mit einem eigenen Speicher von 16 bzw. 32 Gigabyte ausgestattet, was den Zugriff auf häufig benötigte Daten deutlich beschleunigt.

Klar ist aber auch, dass diese hohe Dichte an CPU- und GPU-Komponenten die Wärmeentwicklung innerhalb eines KI-Systems deutlich erhöht, was ganz neue Kühlungsmethoden erfordert. Daher wird Lenovo künftig verstärkt auf die Warmwasserkühlung setzen, was sich sehr gut anhand der neuen Technologie Lenovo Neptune zeigt. Diese soll sowohl in kleineren Systemen wie auch in kompletten Rechenzentren zum Einsatz kommen. Dass das sehr gut funktioniert, zeigt das Leibniz-Rechenzentrum (LRZ) bereits seit vielen Jahren.

KI-Algorithmen „wandern“ auf IoT-Geräte – zur Entlastung des Zentralrechners

Zweifellos werden und müssen die Kapazitäten in Sachen KI deutlich erhöht werden. Dazu gehört auch eine spezielle Form der Dezentralisierung von Rechenleistung, die unmittelbar mit dem aufstrebenden Internet der Dinge (IoT) verknüpft ist. Damit lässt sich die bisher zentrale Rechenpower eines einzelnen Supercomputers auf angeschlossene Recheneinheiten „transferieren“, sodass die CPU-GPU-Power näher an die Anwender rückt.

Damit kann beispielsweise die notwendige Bild-/Audio-/Videoerkennung direkt vom IoT-Gerät selbst durchgeführt werden, das die Daten erfasst hat. Dazu gehören unter anderem Kameras sowie Audio- und Infrarotsensoren, die den Zentralrechner von den maßgeblichen Rechenarbeiten entlasten können. Was dazu führt, dass der Supercomputer permanent mit den IoT-Geräten Zwischenergebnisse austauscht und daraus nur noch das finale Ergebnis erstellt.

Das Videointerview mit Rick Koopman in voller Länge

 

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Martin W. Hiegl über das Leibniz-Rechenzentrum (LRZ) und Lenovo

[Videoblog] Lenovo und die LRZ-SuperMUC-NG-Kooperation

Im Herbst 2018 geht die dritte Ausbaustufe des Lenovo Supercomputers der „Marke“ SuperMUC mit dem Zusatz „NG“ für „Next Generation“ ans Strom-Netz. Grund genug, mit einem der führenden Köpfe dieses für Lenovo so prestigeträchtigen Projekts ein Videointerview zu führen. Namentlich ist das Martin W. Hiegl von der Lenovo Data Center Group, der dort die Position des Director WW HPC & AI bekleidet. Mit ihm habe ich mich auf der International Supercomputing Conference 2018 über SuperMUC-NG und Co. unterhalten.

Darum ist für Lenovo die Kooperation mit dem Leibniz-Rechenzentrum so wichtig

Seit fast nunmehr zehn Jahren arbeiten Lenovo (seit 2014, vorher IBM) und das Leibniz-Rechenzentrum in Sachen Supercomputer zusammen. Dabei lag und liegt einer der Schwerpunkte im Bereich Energieeffizienz. So wies bereits der allererste SuperMUC im Jahr 2012 eine Heißwasserkühlung auf, die die gesamte Supercomputer-Anlage deutlich effizienter kühlte als andere Verfahren. Drei Jahre später folgte die zweite Ausbaustufe namens SuperMUC 2, und dieses Jahr im Herbst geht mit dem SuperMUC-NG die dritte Generation des Lenovo Supercomputers an der Start. Damit stellt die Kooperation mit dem LRZ für Lenovo einen wichtigen, langfristigen Baustein der Supercomputing-Strategie dar.

Der SuperMUC-NG geht im Herbst 2018 an das Strom-Netz

Nach drei Jahren SuperMUC 2 geht die dritte Generation des SuperMUC mit dem Zusatz „NG“ (wie „Next Generation“) ans Garchinger Stromnetz. Er umfasst 90 Compute-Racks, was 6.500 Compute-Knoten der Marke Lenovo ThinkSystem SD 650 DWC entspricht, die auf den skalierbaren Intel Xeon-Prozessoren basieren.

Der erste dieser Serverschränke wurde bereits ins Betrieb genommen, und über den Sommer verteilt wird Rack für Rack hinzukommen, sodass der SuperMUC-NG wie geplant im Herbst 2018 vom LRZ abgenommen und in Betrieb werden kann. Gerade rechtzeitig vor der Veröffentlichung der Herbstausgabe der Top-500-Liste, in der sich die 500 schnellsten Supercomputer der Welt befinden.

Der SuperMUC-NG weist beeindruckende Leistungswerte auf

In Sachen Leistungswerte wird der SuperMUC-NG aus dem Stand auf einem der vordersten Plätze der Top-500 klettern. Denn mit seiner Rechenleistung von rund 27 PetaFLOPS wird der LRZ-Rechner – Stand heute – der schnellste Supercomputer in Europa sein und darüber hinaus zu den Top 10 der Top 500 zählen. Das ist auch erforderlich, denn als HPC-Provider aller Münchner Universitäten ist das Leibniz-Rechenzentrum auf solche Hochleistungswerte dringend angewiesen, will es künftig seine Kunden zufriedenstellen. Denn diese benötigen die Rechenleistung des SuperMUC-NG für vielfältige Anwendungsbereiche, die mehr und mehr CPU-Power erfordern.

Die Kooperation mit dem LRZ umfasst mehr als nur Hardware

Bei der Implementierung des SuperMUC-NG gehört neben der Hardware auch die komplette Infrastruktur und die benötigte Software. Hierbei ist vor allem der Lenovo Intelligent Cluster Orchestrator zu nennen, der sich um sämtliche HPC-Funktionalitäten kümmert. Darüber hinaus zeichnet sich die Lenovo Data Center Group für die Wartung des Systems und den Anwendersupport verantwortlich.

Zudem sieht der Kooperationsvertrag eine Zusammenarbeit in Sachen Energieeffizienz vor. Hierbei soll mithilfe von optimiertem Software-Quellcode und der Energy Aware Runtime (EAR) für eine höhere Energieeffizienz gesorgt werden. Die EAR hat Lenovo in Kooperation mit dem Barcelona Supercomputing Center entwickelt. Dieses Tool sorgt unter anderem für angepasste Taktfrequenzen der Xeon-Prozessoren zur Laufzeit, je nachdem, ob eine Anwendung gerade mehr oder weniger Rechenleistung benötigt.

Das komplette Interview mit Martin W. Hiegl

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Dietmar Rauch über TRIAX Kopfstellensysteme

[Videoblog] Das leisten TRIAX Kopfstellensysteme in IP-TV-Szenarien

Dieses Interview habe ich mit Dietmar Rauch von der Firma TRIAX auf der ANGA COM 2018 geführt. Darin spricht er über TRIAX Kopfstellensysteme: Was diese so einzigartig macht, wo sie typischerweise eingesetzt werden und wie TRIAX-Kunden von diesen Systemeinheiten profitieren.

Das gehört zu TRIAX Kopfstellensystemen

TRIAX Kopfstellensystem vom Typ TDH 800

TRIAX Kopfstellensystem vom Typ TDH 800

Die TRIAX Kopfstellensysteme kommen überall dort zum Einsatz, wo in größeren oder kleineren Hotels (oder vergleichbaren Einrichtungen) parallel Fernseh-/Video- und Internetinhalte über dasselbe Koxialnetzwerk angeboten werden sollen. Hierfür stehen zahlreiche Hardware-Komponenten zur Verfügung.

Das Herzstück bildet die TDX-Serie ab, die aus zahlreichen Einzelkomponenten besteht. Das sind vor allem TDX-Basisgeräte, aber auch Ein- und Ausgangsmodule, mit denen sich die Basiskomponenten entsprechend der Anforderungen eines Hotels erweitern lassen. Aber aber auch kleinere Basiseinheiten wie die TDH 800 kommen überall dort zum Einsatz, wo auf Basis eines existierenden TV-Kabelnetzwerks Internet-basierte Dienste bereitgestellt werden sollen.

Das macht TRIAX Kopfstellensysteme so besonders

Die Besonderheit der TRIAX Kopfstellensysteme ist zum einen ihre Kompaktheit, da sie als Empfangs-/Verteilerstation sowie als Signalverarbeiter fungieren – und das in einem einzigen Gerät. Gleichzeitig sind diese Komponenten so modular aufgebaut, dass sie mit den Bedürfnissen der Anwender und Kunden wachsen. Darüber hinaus ist in die Systeme wie zum Beispiel die TDX-Serie eine intuitiv bedienbare Software integriert, die das Einrichten der Geräte mit relativ geringem Aufwand ermöglicht.

Ein weiteres Plus der TRIAX Kopfstellensysteme ist deren Hotswap-Technik und die eingebauten Netzteile, die aus Sicherheitsgründen redundant angelegt sind. Dank „Hotswap“ lassen sich einzelne Komponenten wie die Ein- und Ausgangsmodule der TDX-Serie im laufenden Betrieb austauschen – was eine reibungslose und störungsfreie IP-TV-Umgebung garantiert.

Die TRIAX Kopfstellensysteme stellen übrigens nur einen Baustein des kompletten Lösungsansatzes der Firma TRIAX dar, wie man sehr gut dem Videoblogbeitrag von und mit Torben Flodgaard Kristensen zum Thema „Ethernet over Coax“ entnehmen kann.

TRIAX Kopfstellensystem vom Typ TDX

TRIAX Kopfstellensystem vom Typ TDX

Hotels und Co. setzen TRIAX Kopfstellensysteme ein

Die zahlreichen Installationen, auf die TRIAX mittlerweile verweisen kann, kommen vorzugsweise überall dort zum Einsatz, wo Gäste, Patienten und andere Kunden mit Fernseh-, Video- und Internetinhalten versorgt werden sollen – und das über dasselbe Netzwerk. Dabei spielt es keine Rolle, welcher Internetrouter oder welches Empfangsgerät eingesetzt werden – TRIAX-Systeme unterstützen die wichtigsten Techniken und Technologien, die heute am Markt sind. Dazu gehören unter anderem HD-Inhalte, mit denen TRIAX Kopfstellensysteme mühelos klar kommen.

Doch nicht nur die Hardware steht bei TRIAX im Vordergrund, auch die Pre- und After-Sales-Unterstützung liegt dem dänischen Unternehmen sehr am Herzen. Denn zu einem erfolgreichen IP-TV-System gehört nicht nur ein perfekt funktionierendes Netzwerk mit allen Komponenten, sondern auch eine vernünftige Betreuung und Beratung seitens der TRIAX-Partner, die in die zahlreichen Projekte involviert sind.

Das Interview mit Dietmar Rauch in voller Länge

 

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

Torben Flodgaard Kristensen, TRIAX, über Ethernet over Coax

[Videoblog] So funktioniert TRIAX Ethernet over Coax

Während der ANGA COM 2018 in Köln durfte ich für die Firma TRIAX eine Interviewserie mit vier Videos produzieren, die ich ab heute auf meinem Blog veröffentliche. Das erste habe ich mit Torben Flodgaard Kristensen zum Thema „Ethernet over Coax“ geführt.

Das macht TRIAX Ethernet over Coax so einzigartig

Mit „Ethernet over Coax“ hat TRIAX eine Lösung im Portfolio, mit deren Hilfe über ein vorhandenes TV-Kabelnetz Daten verteilt werden können. Es handelt sich also um eine Verschmelzung der Ethernet- und Kabel-TV-Technik, was zahlreiche Vorteile mit sich bringt. Dazu gehört vor allem die Möglichkeit, Wifi-Zugangspunkte in das bestehende Kabel-TV-Netz zu integrieren und so den Anwendern den drahtlosen Zugang ins Koaxial-Netzwerk zu ermöglichen.

Hierfür kommt der G.hn-HomeGrid-Standard zum Einsatz, der das Spektrum von 1 bis 200 MHz nutzt, was das parallele Streamen von IP- und Fernsehsignalen erlaubt, da das TV-Signal nicht wie üblich im 8-MHz-Spektrum übertragen wird, sondern jenseits der 300-MHz-Marke. Und genau das erlaubt das gleichzeitige Übertragen von Internet- und Fernsehinhalten über ein- und dasselbe Kabelnetz.

TRIAX EoC Rückkanalfilter

TRIAX EoC Rückkanalfilter

Hierfür sind übrigens drei wesentliche Komponenten erforderlich: ein Rückkanalfilter, ein EoC-Endpunkt (Ethernet over Coax) und ein EoC-Controller. Alle drei Komponenten sorgen im Zusammenspiel dafür, dass IP- und TV-Signale über das gemeinsame Koxialkabel transferiert und dann am Endpunkt auf das jeweils richtige Geräte übertragen werden – also die Fernsehbilder auf das TV-Gerät und die Daten auf iPad, Smartphone, Laptop und Co.

TRIAX EoC Controller

TRIAX EoC Controller

Ein weiterer Vorteil der TRIAX Ethernet over Coax-Lösung ist deren Robustheit. Damit kann im Grunde jedwedes Koaxial-Kabelnetz eingesetzt werden, da die TRIAX-Technik sehr störunanfällig ist, was eine Highspeed-Internetverbindung erlaubt, trotz eines schwachen Koaxial-Signals.

Darüber hinaus erlaubt die TRIAX-Lösung das Separieren von mehreren WLAN-Netzen, sodass beispielsweise in einem Hotel das Drahtlosnetzwerk der Gäste vollständig vom Backoffice-WLAN des Hotelbetriebs entkoppelt werden kann. Das sorgt für einen hohen Sicherheitsstandard des Wi-Fi-Netzwerks.

Technisch betrachtet entspricht die WLAN-Lösung von TRIAX den gängigen Standards: Dual-Band-Wifi mit zwei Antennen, das Ausnutzen beider WLAN-Spektren (2,4 und 5 GHz), und vieles mehr.

Die Hotellerie ist ein typisches Anwendungsszenario der TRIAX-Lösung

Grundsätzlich kommt TRIAX Ethernet over Coax überall dort zum Einsatz, wo ein Koxialkabel-Netz existiert. Interessant dabei ist die Möglichkeit, auf Basis  einer Management-Software das drahtlose Netzwerk so einzurichten, dass der Anwender sich entscheiden kann zwischen kostenlosem Wifi und einem Wifi-Anschluss mit höherer Bandbreite, dann aber gegen Gebühr.

In Hotelanlange kommt TRIAX Ethernet over Coax häufig zum Einsatz

In Hotelanlangen kommt TRIAX Ethernet over Coax häufig zum Einsatz

Typischerweise wird TRIAX Ethernet over Coax in Hotelanlagen, in Krankenhäusern und sogar in Gefängnissen eingesetzt. Also immer dort, wo Koxialkabelnetze bereits existieren und der Betreiber oder Eigentümer keine aufwändige Ethernet-Verkabelung installieren lassen will.

Zudem sind dort in vielen Fällen nur im Eingangsbereich WLAN-Router mit gutem Empfang installiert, was den drahtlosen Zugang innerhalb der Hotelzimmer oder anderswo stark ausbremst. Und genau diesen Missstand eliminiert TRIAX Ethernet over Coax in Kombination mit Wifi Access Points, indem diese mit dem Koxialnetzwerk verbunden werden, was das Drahtlossignal deutlich verbessert.

Das vollständige Interview mit Torben Flodgaard Kristensen

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

luckycloud bietet eine sichere und komfortable Cloud-Umgebung

Nützliche Tipps für die richtige Auswahl von sicheren Cloud-Speichern

Bei der Wahl des richtigen Cloud-Service-Providers sind vor allem die Bereiche Sicherheit und Funktionalität zu beachten. Mit diesem Beitrag sollen die wichtigsten Merkmale vorgestellt und gezeigt werden, worin sich die aktuellen Cloud-Angebote unterscheiden.

Zunächst einmal sei darauf hingewiesen, dass sich Begriffe wie „sicherer Cloud-Speicher“ und „kostenloses Cloud-Angebot“ quasi gegenseitig ausschließen. Denn auch die Anbieter von vermeintlich kostenfreien Cloud-Plattformen wollen Geld verdienen. Und das tun sie beispielsweise mit dem Verkauf von Kundendaten oder dem Schalten von Werbung.

Diese und weitere Maßnahmen sind wenig vertrauensbildend, speziell im professionellen Geschäftsumfeld, und sind daher für den sicheren Umgang mit sensiblen Daten ungeeignet. Zudem verstößt das ein oder andere Geschäftsgebaren dieser Cloud-Anbieter gegen geltendes Recht wie der DSGVO.

Sicherheit first: Verschlüsselung, Zwei-Faktor-Authentifizierung und mehr

Das Thema Sicherheit von Cloud-Daten ist ein äußerst umfassendes, was dieser Blogbeitrag nicht umfassend abbilden kann. Allerdings hilft es vor allem weniger erfahrenen Cloud-Anwendern, die wichtigsten Begriffe zu kennen, um diese besser einordnen zu können.

Ende-zu-Ende-Verschlüsselung: Damit ist eine „echte“ Verschlüsselung gemeint, also während des kompletten Datenaustauschs bzw. Speichervorgangs. Es werden also sowohl die Daten auf dem Cloud-Speicher als auch der Transportweg via Internet gegen unliebsame Zugriffe von außen gesichert. Hierbei kommt meist der AES-Algorithmus zum Einsatz. Für dessen Sicherheitsstufe gilt: Je größer die zugehörige Bit-Zahl ist, desto sicherer wird verschlüsselt.

Zwei-Faktor-Authentifizierung: Das Einwählen auf dem Cloud-Speicher wird immer per Kennwort abgesichert, was aber passiert, wenn dieses in die falschen Hände gerät?! Aus diesem Grund sollte am besten eine sogenannte Zwei-Faktor-Authentifizierung eingesetzt werden, bei der neben dem Kennwort eine zweite Sicherheitsstufe eingebaut ist. Das kann das Bestätigen des Login-Versuchs per E-Mail sein, oder am Smartphone wird ein Sicherheitscode darstellt, der in ein entsprechendes Feld eingetragen werden muss.

IT-Infrastruktur in Deutschland: Alleine schon wegen der Einhaltung gesetzlicher Vorschriften sollte der Cloud-Anbieter sein Rechenzentrum entweder in Deutschland oder in einem anderen europäischen Land betreiben.

Open-Source-Software: Was für Experten selbstverständlich ist, löst bei weniger versierten Anwendern möglicherweise ein Stirnrunzeln aus: Der Einsatz von Open-Source-Software, deren Quellcode also öffentlich zugänglich ist. Die Idee dahinter ist jedoch ganz simpel: Nur, wenn ich weiß, wie ein Software-Programm funktioniert, kann ich mir auch sicher sein, dass dort alles mit rechten Dingen zugeht. Daher bauen seriöse Cloud-Anbieter auf Open-Source-Programme wie zum Beispiel Seafile, das Daten auf dem lokalen Computer mit der Cloud-Umgebung synchronisiert.

Datenschutzkonforme Datenverarbeitung: In Zeiten von DSGVO und Co. ist sie fast schon eine Selbstverständlichkeit, die datenschutzkonforme Datenverarbeitung. Denn nur dann kann man sich auch sicher sein, dass die eigenen personenbezogenen Daten und die seiner Kunden auf dem Cloud-Speicher wirklich geschützt sind.

Funktionale Aspekte wie Backups und Snapshots sind ebenfalls wichtig

Neben diesen primären, sicherheitsrelevanten Merkmalen sollte der Cloud-Anbieter der Wahl auch funktionale Aspekte wie regelmäßige Backups, Blockversionierung und Snapshots berücksichtigen. Auf Basis dieser Sicherheitsvorkehrungen kann gewährleistet werden, dass die eigenen Daten in den allerbesten Händen sind und selbst eine technische Störung auf Anwenderseite nicht sämtliche Daten im Nirvana verschwinden lässt.

luckycloud History- und Snapshot-Funktionen

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Dominic Gaspary, Volkswagen AG, über VW We Experience

[Videoblog] Dominic Gaspary von der Volkswagen AG über VW We Experience

Auf der diesjährigen, komplett renovierten CEBIT habe ich dieses Interview mit Dominic Gaspary von der Volkswagen AG geführt. Thema war VW We Experience, das auf der IT-Messe in Hannover am IBM-Stand vorgestellt wurde. Und das geschah – räumlich betrachtet – aus gutem Grund.

Das verbirgt sich hinter „VW We Experience“

Grundsätzlich ist zu sagen, dass es sich bei Volkswagen We um ein digitales Ökosystem handelt. Konkret gesagt ist VW We der digitale Versuch, VW-Fahrer an jedem digitalen Touchpoint zu begegnen und ihm bestimmte Mehrwerte während der Autofahrt zu ermöglichen. Dazu gehören unter anderem so Dinge wie der Kofferraum als Lieferadresse für Amazon-Pakete, das Smartphone als digitale Parkuhr – und eben VW We Experience.

We Experience ist ein Bestandteil der VW-App „We Park“ und erlaubt beispielsweise das Einlösen von Gutscheinen entweder aus der App oder direkt aus dem Auto heraus.

Das können Autofahrer von We Experience erwarten

We Experience kann aber noch mehr. So bekommt der Fahrer beispielsweise im Falle eines niedrigen Wischwasserstands die nächste Tankstelle angezeigt, bei der sich der Wassertank wieder füllen lässt und erhält dafür in vielen Fällen sogar einen kleinen Rabatt eingeräumt. Hierfür werden Daten des Fahrzeugs genutzt, sodass VW-Besitzer nach und nach in den Genuss von Mehrwertdiensten kommen, die ihnen helfen, besser von A nach B zu gelangen.

Die We-Kooperation von IBM und Volkswagen im Detail

Volkswagen hat IBM ganz bewusst als Technologiepartner gewählt, um sich von „Big Blue“ in den Bereichen Machine Learning und Datenverarbeitung unterstützen zu lassen. IBM wiederum erlebt die Zusammenarbeit mit VW als enge Partnerschaft, aus der zukünftig weitere Dienste hervorgehen sollen. Diese neuen – aber auch aktuellen – Services entwickeln IBM und VW gemeinsam in Berlin, wo Mitarbeiter beider Firmen an neuen Konzepten und Ideen feilen.

Im Hintergrund kommt übrigens IBM Watson zum Einsatz, der die entscheidenden Impulse in Sachen Machine Learning und Co. liefert. Hierfür werden unter anderem Fahrzeug- und Bewegungsdaten benötigt, die VW an IBM Watson liefert, der daraus bestimmte Empfehlungen und Angebote ableitet. Das geschieht sehr individuell, also an die Bedürfnisse und Vorzüge des Autofahrers angepasst.

Das ist von VW We Experience noch zu erwarten

Volkswagen will und wird mit We Experience künftig weitere Bereiche erschließen und damit neue Teilnehmer in das Programm integrieren. Das können Tankstellenbesitzer bzw. -ketten sein, aber auch Einkaufszentren oder Ladengeschäfte. Das reicht vom Wechseln der Winterreifen bis hin zu speziellen Angeboten seitens der VW-Händler, die natürlich auch Teil des Ökosystems werden sollen. Aber letztlich sollen VW-Fahrer besser an die Marke Volkswagen gebunden werden. Hierzu bietet der Konzern mit VW We ein Fahrerlebnis, mit dem man Zeit und Geld spart.

Das komplette Interview in voller Länge