Scott Tease über das weltweite Lenovo HPC-Geschäft

[Videoblog] Scott Tease über das weltweite HPC-Geschäft von Lenovo

Scott Tease verantwortet das weltweite HPC-Geschäft bei Lenovo (High-Performance Computing) und hat demzufolge eine ganze Menge zu diesem Thema zu sagen. Aus diesem Grund habe ich mit ihm während der International Supercomputing Conference 2018 ein Videointerview geführt. Darin spricht er über das HPC-Business von Lenovo im Allgemeinen, über die Besonderheiten der Warmwasser-Kühlungstechnologie Lenovo Neptune und über einen aktuellen HPC-Trend.

Lenovo stellt den führenden HPC-Anbieter dar

Betrachtet man die zweimal jährlich erscheinenden Top-500-Liste der 500 schnellsten Supercomputer der Welt, taucht dort Lenovo aktuell öfter auf als alle anderen Anbieter von Superrechnern, nämlich genau jedes vierte Mal. Das entspricht rein rechnerisch knapp 25 Prozent, worauf Lenovo mächtig stolz ist.  Das gilt ganz besonders für die Vielzahl an unterschiedlichen Konfigurationen, die das Unternehmen an seine Kunden verkauft.

So bekommen diese Firmen genau den Supercomputer, den sie für ihre Zwecke benötigen. Ob das der SuperMUC-NG mit seiner Warmwasser-gekühlten Anlage ist, der Marconi-Supercomputer in Italien, der MareNostrum4 des Barcelona Supercomputing Center oder der Niagara, der leistungsstärkste Supercomputer in Kanada mit gut 3 Petaflops – diese und andere Lenovo-Kunden setzen Supercomputing-System ein, die auf sie abgestimmt wurden.

Doch nicht nur bei Großkunden wie dem Leibniz-Rechenzentrum ist Lenovo gut im Geschäft. Denn auch mit kleineren Unternehmen und wissenschaftlichen Einrichtungen, die nicht unbedingt einen Supercomputer der Marke SuperMUC-NG brauchen, macht Lenovo aktuell gute Abschlüsse. So profitieren all diejenigen, die nur kleinere Recheneinheiten im Server benötigen, genauso von der zugrunde liegenden Lenovo Supercomputing-Technik.

Lenovo Neptun: Warmwasserkühlung zu diversen Zwecken

Bereits seit 2012 arbeitet Lenovo gemeinsam  mit dem Leibniz-Rechenzentrum an einem Kühlungssystem, das auf der Warmwassertechnik basiert. Dabei handelte es sich um den ersten SuperMUC, der von dieser seinerzeit noch ziemlich neuen Technik profitierte. Das Ziel damals (und heute) war eine deutliche Reduktion der Stromkosten, die solch ein Supercomputing verantwortet. Und genau diese Ideen und Konzepte, die daraus entstanden sind, werden heute unter der Bezeichnung Lenovo Neptun zusammengefasst. Gemeint ist damit eine Warmwasserkühlung für Großrechner, die Lenovo in den nächsten Jahren in einer Vielzahl von HPC-Systemen verbauen will.

Neben dieser direkten Warmwasserkühlung hat Lenovo aber auch kleinere Wärmeableitersysteme in petto. Dazu gehört zum Beispiel Rear Door Heat eXchanger. Damit lässt sich ebenfalls sehr effizient die Wärme eines Rechnersystems ableiten. Der Supercomputer MareNostrum4 des Barcelona Supercomputing Center setzt beispielsweise auf diese Technik. Dabei handelt es sich um eine Art Heizung, die anstelle der Serverrack-Tür am Rechner angebracht wird.

Darüber hinaus hat Lenovo eine Kühlungstechnik namens Thermal Transfers Module (TTM) im Programm. Damit lassen sich ganz im Sinne von Lenovo Neptun Systeme mithilfe von warmen Wasser kühlen, allerdings nicht auf System-, sondern auf CPU-Ebene. Dabei handelt sich um ein Hybridsystem, das einerseits die klassische Luftzirkulierung und andererseits die neuartige Warmwasserkühlung einsetzt. TTM kommt vor allem in kleineren Rechnereinheiten zum Einsatz, in denen aus Platzgründen Techniken wie Lenovo Neptun keine Option ist. Dies sorgt für mehr Rechnerleistung bei weniger Abwärme – und für weniger Lärm.

Aktuelle HPC-Trend: GPU statt CPU

Einer der wesentlichen HPC-Trends betrifft die Prozessortechnik, die verstärkt in Supercomputern zum Einsatz kommt. So findet nämlich gerade eine Transformation vom traditionell CPU-lastigen Rechnermodell hin zu GPU-Systemen steht. Das bedeutet konkret, dass vor allem Spezialanwendungen mehr und mehr von der Multicore-Architektur der Hochleistungsgrafikkarten wie einer NVIDIA V100 profitieren. Dazu gehört beispielsweise das riesige Themenfeld der Künstlichen Intelligenz, das aufgrund seiner hohen Rechneranforderungen verstärkt auf GPUs setzen wird. HPC at its best, sozusagen.

Das komplette Interview mit Scott Tease (auf Englisch)

Dagmar Schuller von der audDEERING GmbH

Dagmar Schuller von audEERING über emotionale Künstliche Intelligenz

Um die ganze Bandbreite der menschlichen Emotionen zu beschreiben, soll ein Video dazu herhalten, dieses Phänomen zu visualisieren – und damit die Palette an Möglichkeiten sichtbar zu machen, die in dem Thema „emotionale Künstliche Intelligenz“ steckt.

In diesem Videoclip zeigt die Bloggerin Ewa Placzynska sehr anschaulich, wie mithilfe eines einzigen Worts Dutzende von Gefühlen und Emotionen transportiert werden können. Und genau das ist es, womit sich das Startup-Unternehmen audEERING aus Gilching bei München beschäftigt – und dies nach eigenem Bekunden ziemlich erfolgreich.

Wie das funktioniert und worauf es dabei ankommt hat mir die Geschäftsführerin und Co-Gründering Dagmar Schuller in einem zweiteiligen Videointerview nähergebracht. Im heutigen ersten Teil spricht sie über ihre Vision in Sachen emotionale Künstliche Intelligenz, über die involvierten Branchen und über die zum Einsatz kommenden Geräte und Plattformen.

Die Vision: intelligente Technik „made in Bavaria“

Die grundlegende Vision von audEERING zum Thema emotionale Künstliche Intelligenz ist in der Annahme begründet, dass Maschinen sehr viel besser in der Lage sind, menschliche Regungen und Emotionen anhand des gesprochenen Worts zu bewerten als der Menschen selbst. Der maßgebliche Beitrag von audEERING in diesem Kontext ist ein besserer und schnellerer Austausch von Mensch und Maschine, wenn es um das analytische Bewerten von menschlichen Stimmungen geht.

Dabei spielt eine wesentliche Rolle, dass Rechner und andere Geräte viel eher dazu in der Lage sind, aus einer Vielzahl an Emotionen die richtigen „herauszuhören“ als wir selbst. Das hat oft damit zu tun, dass der Mensch in vielen Fällen Gefangener seiner Gefühle ist und damit gar nicht wahrnehmen kann, was der Gegenüber gerade sagt, und vor allem wie er es sagt.

Rein markttechnisch betrachtet sieht sich audEERING als B2B-Marke, mit deren Hilfe Firmen und Einrichtungen in der Lage sind, ihre Software auf Basis der Kerntechnologie openSMILE so zu gestalten, dass ein größtmöglicher Nutzen daraus entsteht. Aber natürlich sollen auch Anwender anhand der drei kleinen audEERING-Wellen erkennen, dass im Gerät oder in der jeweiligen Software eine intelligente Technik „made in Bavaria“ steckt.

Die Firma audEERING ermöglicht das Analysieren und Erfassen von Stimmungen in Stimmen

audEERING-Software kommt in fünf Kernbereichen zum Einsatz

audEERING spielt in aktuell fünf Branchen eine wichtige Rolle, wenn es um das stimmbasierte Erkennen von Emotionen geht. Konkret handelt es sich um die Branchen Automotive, Call Center, Marketing, Medizin und Personal Assistant.

Automotive: Hier lässt sich anhand der aktuellen Stimmung im Auto feststellen, wie es dem Fahrer oder den Beifahrern geht, um auf dieser Basis die richtigen Maßnahmen einzuleiten (Stichworte: Übel-/Müdigkeit, Stress, Aggressionen, etc.).

Call Center: Mitarbeiter werden unterstützt, besser auf den Anrufer und dessen Emotionen zu reagieren. Der Agent erhält in Echtzeit Informationen, um das Gespräch richtig zu leiten.

Marketing: Die Emotionen von Kunden werden durch Atem- und Stimmgeräusche analysiert, um Werbung in Echtzeit darauf einzustellen oder um auszuwerten, wie ein Proband emotional auf ein vorgestelltes Produkt reagiert.

Medizin: Kürzeste Sprachaufnahmen können zur Frühdiagnostik von Krankheiten wie Parkinson, Depressionen oder ADHS dienen. Hier findet ein reger Austausch mit Kliniken und im Kontext von medizinischen Studien statt.

Personal Assistant: Roboter werden in die Lage versetzt, Emotionen in feinen Abstufungen zu erkennen und sozial mit ihrem menschlichen Gegenüber zu interagieren.

Diese möglichen Kernbereiche mündeten bereits in zahlreichen Applikation wie Audiary, Callyser und sensAI-Music.

audEERING-Software kommt auf unterschiedlichsten Geräten zum Einsatz

Grundsätzlich ist die audEERING-Software openSMILE multi-plattforn-tauglich. Sie kann also Daten sowohl aus der Cloud als auch von Großrechnern beziehen, die für das intelligente Erkennen von Stimmungen in Stimmen erforderlich sind. Allerdings bevorzugt audEERING das lokale Speichern und Nutzen lokaler Daten, also auf dem Endgerät selbst. Das kann eine Smartwatch sein, ein Smartphone oder jedes andere Device, auf dem die zugrundeliegende Software installiert werden kann.

Die Vorteile dieses lokalen Ansatzes sind klar: Zum einen hat der Anwender seine Daten jederzeit unter Kontrolle, was für viele Leute gerade in Zeiten des verstärkten Datenschutzes einen unvergleichlichen Mehrwert darstellt. Darüber sollen und dürfen besonders sensitive Daten, wie sie zum Beispiel im Bereich Medizin anfallen, den lokalen Bereich möglichst gar nicht verlassen, sodass hier das Erfassen und Berechnen von Emotionen am besten direkt auf dem Gerät stattfindet.

Das komplette Interview mit Dagmar Schuller

Zuverlässgier Datenschutz mit eperi Gateway

Wenn Cloud-Anwendungsdaten zentral verschlüsselt werden sollen

Die DSGVO und anderen gesetzlichen Regularien bringen Anwender von Salesforce, Office 365 und anderen SaaS-Cloud-Anwendungen immer öfter dazu, sich diverse Fragens stellen:

„Wie kann ich mir sicher sein, dass meine Daten ohne Einfluss auf meine Cloud-Anwendung verschlüsselt werden?“

„Wie stelle ich sicher, dass meine Daten nicht in die falschen Hände geraten, weil zum Beispiel der Cloud-Anbieter darauf zugreifen kann?“.

„Gibt es eine probate Verschlüsselungslösung für meine Multi-Cloud-Strategie?

Unumgänglich: datenschutzkonforme Verschlüsselung

Die DSGVO und andere gesetzliche Bestimmungen führen immer öfter dazu, dass Anwender so vorsichtig wie möglich mit sensiblen und personenbezogenen Daten umgehen müssen. Dies bezieht sich auch auf Cloud-Datenspeicher und ihre Applikationen à la Salesforce, Office 365 und Co.

Denn auch hier müssen Firmen sicherstellen und nachweisen können, dass sie vor allem personenbezogene und unternehmenskritische Daten permanent und nachweisbar kontrollieren können. Ein wichtiger Aspekt hierbei ist eine Verschlüsselungstechnik, bei der ausschließlich der Cloud-Anwender auf sämtliche Schlüssel zugreifen kann, also nicht einmal der Cloud-Anbieter selbst.

Darüber hinaus sollte die Verschlüsselung der Daten keinerlei Einfluss auf die Arbeitsweise der Benutzer mit der Cloud-Anwendung haben. Doch genau das ist in einigen Fällen ein Hindernis, das viele Unternehmen und Cloud-Anbieter nur schwer überwinden können.

Zusätzliche Aufgabe: Multi-Cloud-Umgebungen

Daneben sehen sich Anbieter wie SAP, Salesforce, Microsoft und andere Cloud-Service-Provider in letzter Zeit immer häufiger mit einer großen Herausforderung konfrontiert: die Zentralisierung von IT-Sicherheitslösungen in Hybrid- und Multi-Cloud-Umgebungen. Denn mehr und mehr Firmen wollen bestehende IT-Security-Silos abbauen und eine zentrale Plattform schaffen, um auf diesem Weg den aktuellen Cyber-Risiken besser Herr werden zu können.

Dabei entpuppen sich die unterschiedlichen Verschlüsselungstechniken der Cloud-Anbieter zu einem echten Dilemma, denn wenn jeder seine Daten mithilfe seiner eigenen Technik unleserlich macht, wie soll dann ein zentraler Cloud-Datenschutz für eine Multi-Cloud-Umgebung zuverlässig funktionieren?

An dieser Stelle kommt die eperi Gateway-Plattform ins Spiel, die genau das besonders gut kann: Daten verschlüsseln und pseudonymisieren, und das über mehrere Cloud-Anwendungen hinweg, auf Basis einer zentralen Verschlüsselungsplattform.

Stopp: Verschlüsseln Salesforce & Co. ihre Daten nicht selbst?

Ja, das stimmt natürlich. Einerseits. Andererseits weisen die Verschlüsselungslösungen der jeweiligen Cloud-Anbieter oft eine kleine, aber feine Schwachstelle auf, zumindest dann, wenn man Datenschutzbeauftragter ist. Denn die Verschlüsselungslösung selbst und die notwendigen Schlüssel befinden sich nicht exklusiv unter der Kontrolle des Cloud-Anwenders. Und das ist unter dem Aspekt bestimmter Compliance-Anforderungen ein absolutes No-Go!

Der Ausweg: Daten plattformübergreifend mit eperi verschlüsseln

Fakt ist also, dass die Verschlüsselungslösungen von Salesforce oder Microsoft in einigen Fällen den Datenschutz ernst nehmen und die Usability der Cloud-Anwendung(en) nicht beeinträchtigen. Und doch hält die Verschlüsselungslösung der Cloud-Anbieter den zahlreichen internen und externen Compliance-Anforderungen nicht stand.

Das ist zum Beispiel dann der Fall, wenn global operierende Unternehmen die Datenschutzprozesse vollständig autark kontrollieren müssen und der Cloud-Anbieter unter keinen Umständen auf unverschlüsselte Daten zugreifen darf. Aber auch das Thema Data Residency stellt eine mögliche Herausforderung dar, wenn sensible Daten ein bestimmtes Hoheitsgebiet nicht verlassen dürfen.

Darüber hinaus spricht auch das Etablieren einer zentralen IT-Sicherheitsarchitektur für eine zentrale Verschlüsselungslösung wie das eperi Gateway. Denn auch hier können sämtliche Datenschutzprozesse über einen zentralen Kontrollpunkt gesteuert werden.

Umgesetzt: Cloud-Anwendungen mittels Templates eperi Gateway-tauglich machen

Wie man anhand des Beitrags eperi Gateway: So geht wirksamer Cloud-Datenschutz gut erkennen kann, weisen die eperi Cloud-Verschlüsselungslösungen ein Template-Konzept auf, das die komfortable Anbindung des eperi Gateways an nahezu beliebige Cloud-Anwendungen erlaubt. Dank dieses Konstrukts lässt sich beispielsweise festlegen, welche Verschlüsselungsmethode zum Einsatz kommt, ob bestimmte Datentypen bei der Eingabe erwartet werden, und so fort.

Bei den Templates handelt es sich herkömmliche XML-Dateien, die ausführbaren Java-Code enthalten können. Für die häufig zum Einsatz kommenden Cloud- und SaaS-Anwendungen wie Salesforce, Office 365, etc. existieren vorgefertigte Templates von eperi. Diese lassen sich mühelos anpassen bzw. neu erstellen.

Disclaimer: Dieser Beitrag basiert auf diesem verlinkten Blogartikel, den ich für meinen Kunden eperi verfasst habe.

Antigoni Chrysostomou über HPC in Deutschland

[Videoblog] Antigoni Chrysostomou über das Lenovo HPC-Geschäft

Während der International Supercomputing Conference 2018 habe ich dieses Interview mit Antigoni Chrysostomou von der Lenovo Data Center Group über das HPC-Geschäft in Deutschland geführt. Darin spricht sie über das

Der deutsche HPC-Markt im weltweiten Vergleich: echt stark!

Betrachtet man den hiesigen HPC-Markt (High-Performance Computing), kann man ihm durchaus bescheinigen, wettbewerbsfähig zu sein. Das liegt vor allem an der hohen Zahl an Forschungsinstituten, die sich in Deutschland tummeln, da diese einen großen Bedarf an viel und noch viel mehr Rechenpower zu Forschungszwecken haben.

Dazu gehört beispielsweise das Gauss Supercomputing Center, das einen Verbund der drei großen Universitätsrechenzentren darstellt. Dazu gehören das Jülicher Supercomputing Center, das Leibniz-Rechenzentrum (LRZ) in München-Garching und das HPC-Zentrum Stuttgart. Und eines davon, nämlich das LRZ, ist einer der größten RZ-Kunden Lenovos, wo gerade der größte Supercomputer Deutschlands entsteht, nämlich der SuperMUC-NG.

Daneben sind deutsche Supercomputer zahlreich in der Top-500-Liste der weltweit schnellsten Rechner vertreten. Alleine Lenovo trägt zu insgesamt 117 Systemen bei, die zu den leistungsfähigsten ihrer Art zählen, womit das Unternehmen die Top-500 in dieser Kategorie anführt.

Darum ist der HPC-Markt so interessant für Lenovo

High-Performance Computing mit seinen unterschiedlichen Ausprägungen stellt ganz bestimmte Anforderungen an Rechnersysteme, die vor allem von den HPC-Anwendern eingefordert werden. Folge: Neue Anwendungen rufen neue, innovative Lösungsansätze hervor, wovon gerne Unternehmen wie Lenovo profitieren, das sie selbst Teil dieser Innovationsmaschinerie sind. Wichtig dabei ist, dass die Entwicklerteams von Lenovo sehr stark mit ihren Kunden vernetzt sind, um so schnellst- und bestmöglich auf deren Anforderungen reagieren zu können.

Als ein „Nebeneffekt“ dieser HPC-Entwicklungen kann die Transformation solcher neuen Lösungen in den RZ-Massenmarkt betrachtet werden. Dazu gehören beispielsweise wassergekühlte Systeme, die Stück für Stück in den herkömmlichen Rechenzentren zum Einsatz kommen werden, nachdem sie sich im HPC-Umfeld bewährt haben.

Hiesige HPC-Schwerpunkte: Energieeffizienz und Warmwasserkühlung

Vor allem die hohen Ansprüche deutscher RZ-Betreiber an die Energieeffizienz eines solchen Systems treibt hierzulande ganz entscheidend zu den aktuellen Entwicklungen bei. Dies hat zwei wesentliche Gründe: Einerseits sind die Strompreise in Deutschland höher als in anderen Ländern, und zum anderen spielen bei uns die Themen Nachhaltigkeit und Verantwortung gegenüber der Umwelt eine größere Rolle als anderswo. Dies führt beispielsweise zu heißwassergekühlten Rechenzentren, wie sie in Garching bei München seit Jahren zu bewundern sind.

Ein weiterer hiesiger Aspekt, der ebenfalls mit dem Thema Energieeffizienz zu tun hat, betrifft die klassische TCO-Betrachtung. So fließen in die Gesamtkalkulation eines deutschen Rechenzentrums nicht nur die Anschaffungskosten für Hardware und Software ein, sondern auch die Energiekosten für Strom und Wasser. Was Lenovo speziell in Deutschland gegenüber anderen Anbietern einen großen Vorteil verschafft, da deren HPC-Systeme verstärkt mit Heißwasserkühlsystemen betrieben werden sollen.

Aus diesem und anderen Gründen hat Lenovo pünktlich zur ISC18 eine neue Technik vorgestellt, die sich Lenovo Neptun nennt und die das Kühlen von großen Rechenzentren mithilfe von Heißwasser ermöglichen soll – und das sehr viel energieeffizienter als andere vergleichbare Lösungsansätze.

Das komplette Videointerview mit Antigoni Chrysostomou

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Sergej Schlotthauer, Matrix42, über aktuelle Sicherheitssthemen

[Videoblog] Sergej Schlotthauer über Matrix42, EgoSecure und aktuelle Sicherheitsthemen

Während einer IDC-Veranstaltung zum Thema IT-Sicherheit habe ich dieses Interview mit Sergej Schlotthauer von Matrix42 geführt. Darin spricht er über das „Center of Excellence for Security“, über Endpoint Management und die wichtigsten, aktuellen Security-Themen.

Sergej Schlotthauer verantwortet „Center of Excellence for Security“

Mit dem Zusammenschluss der beiden Firmen Matrix42 und EgoSecure entstanden für Matrix42 ganz neue Möglichkeiten, die im „Center of Excellence for Security“ mündeten. Dieser neuen Einrichtung steht Sergej Schlotthauer vor, in der unter anderem die Themen Endpoint Security und Software Management im Vordergrund stehen. Und genau mit diesen Schwerpunkten wollen und werden Matrix42 und EgoSecure künftig den Markt mit neuen Lösungen versorgen.

So gibt es beispielsweise gemeinsame Aktivitäten im Kontext der DSGVO, denn hierfür müssen Daten verschlüsselt und Zugriffe darauf verhindert werden. Und genau darum kümmert sich künftig Matrix42 mit der Expertise von EgoSecure.

Endpoint Management wird immer wichtiger

In Zeiten, in den Daten eine wahre Goldgrube darstellen, wird der Schutz derselben immer wichtiger. Daher müssen künftig vor allem die möglichen Einfalltore noch besser geschützt werden. Neben den klassischen Desktop- und Notebook-Rechnern sind das verstärkt Smartphones, Tablets und andere Geräte, auf denen Daten liegen oder die ihre Daten auf dem Firmenserver speichern wollen. Hierfür sind erprobte Managementlösungen und sichere Verschlüsselungsverfahren erforderlich.

Aktuelle Sicherheitsthemen: externe Angriffe und Datenschutz

Sieht man sich die aktuellen Sicherheitsrisiken an, mit denen IT-Beauftragte konfrontiert werden, lassen sich vor allem zwei Themen nennen: Angriffe von außen und der Datenschutz im Geiste der DSGVO.

Im Falle der externen Bedrohungen ist es zwingend erforderlich, mehr und mehr über die Automatisierung von Sicherheitsmaßnahmen nachzudenken. Denn die Bedrohungen von außen werden immer intelligenter und zielgerichteter, sodass es nicht mehr reicht, einen IT-Adminstrator vor eine Konsole zu setzen in der Hoffnung, dass er die Angriffe abwehren kann. Daher sind intelligente Systeme erforderlich, die vollautomatisch Angriffe erkennen und diese eliminieren können.

Beim zweiten Thema Datenschutz fällt auf, dass die Akzeptanz der hierfür notwendigen Maßnahmen verbessert werden sollte. Denn immer noch herrscht bei vielen Anwendern der Eindruck vor, dass Datenschutzmaßnahmen ihre Effizienz negativ beeinträchtigen – was zwar eine sehr subjektive, aber durchaus ernstzunehmende Wahrnehmung ist. Um dem vorzubeugen, sind die richtigen Mittel und Wege erforderlich, um den Anwendern das Gefühl zu geben, dass ihr Arbeitsplatz einerseits sicher und andererseits genauso produktiv wie vorher ist. Oder vielleicht sogar noch sicherer und noch produktiver als vorher.

Das vollständige Interview mit Sergej Schlotthauer

Udo Schneider, Trend Micro, über die akteulle IT-Sicherheitslage

[Videoblog] Udo Schneider, Trend Micro, über die aktuelle IT-Sicherheitslage

Während einer IDC-Veranstaltung zum Thema IT-Sicherheit habe ich dieses Interview mit Udo Schneider von Trend Micro Deutschland geführt. Darin spricht er über interne und externe Gefahren, wie man sich dagegen schützen kann und wie Künstliche Intelligenz die IT-Abteilung unterstützen kann.

Diese Gefahren lauern derzeit im Internet

Sieht man sich die aktuelle Gefahrenlage an, lauern vor allem zwei Bedrohungen auf Anwender: Die klassischen Erpressungstrojaner wie Wannacry und Konsorten, die auch als Ransomeware bezeichnet werden. Leider beschäftigt das immer noch viele zu viele Unternehmen, weil sie offenkundig noch nicht die richtigen Abwehrmechanismen implementieren konnten – oder im schlimmsten Fall wollten, da sie die potenzielle Bedrohung nicht ernst genug nehmen. Zu diesem Schluss kommt übrigens auch die groß angelegte IDC-Studie, die auf der Veranstaltung vorgestellt wurde.

Daneben macht der sogenannte Scheckbetrug (englisch: Business E-Mail Compromise, BEC) von sich Reden. In diesem Fall gehen Cyber-Erpresser vor allem gegen größere Unternehmen vor, um so an hohe Geldsummen heranzukommen. Dass sich dieses „Geschäftsmodell“ lohnt, zeigen Schätzungen von Trend Micro: So sollen alleine in diesem Jahr mittels BEC etwa 9 Milliarden US-Dollar erbeutet werden.

Die Vorgehensweise der BEC-Betrüger ist ganz oft dieselbe: Diese versenden an einen Finanzbeauftragten (z.B. den CFO der Firma) eine E-Mail mit dem Hinweis, er oder sie solle eine Summe X an einen Lieferanten oder ähnliches Unternehmen überweisen – was dann oft sehr gutgläubig auch geschieht. Dabei wäre es in vielen Fällen so einfach, diese Schadensfälle zu verringern bzw. ganz auszuschließen.

Große Gefahren lauern auch innerhalb vieler Unternehmen

Große Risiken gehen nach wie vor von den Anwendern selbst aus, wie das Beispiel BEC zeigt. Denn anstatt vorsichtig mit unseriösen Anfragen umzugehen, vertrauen viele Anwender nach wie vor auf die Technik und dass diese schon zwischen gut und böse unterscheiden kann. Hier ist also primär Aufklärungsarbeit notwendig, um Cyber-Angriffen effizient zu begegnen, und seien sie noch so banal und eigentlich leicht zu durchschauen. Dies können Trainings sein (auch auf Management-Ebene) oder regelmäßige Veranstaltung oder einfach nur interne Newsletter seitens der Security-Abteilung.

Gesunder Menschenverstand und Technik: So schützt man sich vor Angriffen

In Sachen Cyber-Angriffe müssen zwei Bereiche betrachtet werden: Zum einen sind für einen effektiven Schutz von Anwendern, Daten und Anwendungen technische Hilfemittel zwingend erforderlich. Hierzu gehören Security-Anwendungen, die helfen sollen, E-Mails nach schadhaften Inhalten zu filtern oder Webseiten vor dem Einschleusen von Schadcode zu schützen. Anti-Malware-Applikationen gehen mittlerweile sogar so weit, dass Krypto-Software Festplatten und andere Speicherkomponenten erst gar nicht verschlüsseln kann.

Darüber hinaus können organisatorische Maßnehmen helfen, Unternehmen vor unliebsamen Besuchern und Erpressungsversuchen zu bewahren. Dazu gehört neben dem richtigen Filtern und Scannen von E-Mails auch der regelmäßige Hinweis an die Anwender, nicht auf jeden Link zu klicken, der sich innerhalb einer Nachricht befindet.

So kann die Künstliche Intelligenz die IT-Abteilung unterstützen

Grundsätzlich kann die Künstliche Intelligenz (KI) resourcen-seitige Herausforderungen lösen. Denn redet man mit IT-Sicherheitsbeaurtragten in Unternehmen, bekommt man immer wieder zu hören, dass es aktuell nicht genügend Kandidaten am Markt gibt, mit deren Hilfe die anstehenden Aufgaben in Umfang und Qualität bewältigt und gelöst werden können.

Genau an dieser Stelle kommt die KI ins Spiel, da diese deutlich besser skaliert als IT-Security-Personal. Soll heißen, dass eine automatisierte Abwehr von Angriffen, so wie sie die KI leisten kann, deutlich effizienter und flexibler ist als mit Menschen, die noch nicht einmal zur Verfügung stehen. Die Herausforderung der KI besteht allerdings im Trainieren der zugehörigen Algorithmen und Anwendungen, wofür aussagekräftige und verlässliche Daten erforderlich sind. Und genau dieser Punkt bereitet vielen Unternehmen immer noch großen Kopfschmerzen.

Das komplette Videointerview mit Udo Schneider

 

Peter Lyhne Uhrenholt, TRIAX, about TRIAX A:S

[Videoblog] CEO Peter Lyhne Uhrenholt über TRIAX A/S: Schwerpunkte, Partner, Ziele

Während der ANGA COM 2018 habe ich mit TRIAX Geschäftsführer Peter Lyhne Uhrenholt über TRIAX-Produkte und -Lösungen gesprochen, über die Zusammenarbeit mit Kabelanbietern und darüber, wo er TRIAX in den nächsten fünf bis zehn Jahren sieht.

TRIAX-Produkte und -Lösungen sorgen für zufriedene Kunden

Selbstverständlich genügen TRIAX-Produkte und -Lösungen höchsten Qualitätsansprüchen und sind darüber hinaus robust und zuverlässig im täglichen Umgang und Einsatz. Denn das ist die oberste Maxime, die Kunden von TRIAX fordern: Produkte, die funktionieren und ihren Zweck erfüllen. Und genau diesen Werten hat sich TRIAX verschrieben: Maximale Kundenzufriedenheit durch maximale Produktqualität.

Dies wird unter anderem mithilfe kontinuierlicher Forschungs- und Entwicklungsaktivitäten erreicht, in die TRIAX viel Zeit und Geld investiert. Denn um stets am Puls der Technik zu sein und mit den Anforderungen des Marktes Schritt halten zu können, will TRIAX regelmäßig neue Ansätze schaffen, die in neuen Produkten münden. Denn auch das trägt zu einer Kundenzufriedenheit im Sinne von Peter Lyhne Uhrenholt bei.

TRIAX A/S wird die Zusammenarbeit mit Kabelbetreibern weiter verstärken

TRIAX-Kunden und Kabeloperatoren pflegen seit jeher eine enge Partnerschaft. Daher ist die Zusammenarbeit seitens TRIAX mit Kabelnetzbetreibern schon seit langem von essentieller Wichtigkeit. Eine der drängesten Herausforderungen dabei ist das Verbessern und Erhöhen der Kabelbandbreite, da diese für Hotels und andere Einrichten mit umfangreichen Kabelnetzen enorm wichtig ist. Schließlich sollen Gäste und Kunden auch auf dieser Ebene zufriedengestellt werden.

Daher steigen mehr und mehr Kabeloperatoren auf die neueste Kabeltechnik DOCSIS 3.1 um, um künftig höhere Bandbreiten mit Gigabit-Tempo anbieten zu können. Und natürlich braucht es hierfür die richtigen Produkte und Lösungen, die immer die neuesten Technologien unterstützen. Aus diesem und anderen Gründen ist nicht nur für TRIAX die Zusammenarbeit mit Kabeloperatoren wichtig, sondern auch umgekehrt.

Exkurs: DOCSIS (Data Over Cable Service Interface Specification) beschreibt Schnittstellen von Kabelmodems in einem Breitbandnetz. DOCSIS 3.1 unterstützt Datenraten von bis zu 10 GBit/s im Downstream und soll Latenzen verringern.

TRIAX in 5 bis 10 Jahren: Cloud-Services und mehr Distributoren

Für Peter steht vor allem das Entwicklen einer vollständigen Lösungsplattform im Vordergrund, wenn er an die nächsten 5 bis 10 Jahre von TRIAX denkt. Schon heute bietet der aktuelle Lösungsansatz alle wichtigen Komponenten wie Kopfstellensysteme, Ethernet over Coax sowie die passende Software-Plattform, die jedoch mehr und mehr als Cloud-Service angeboten werden und verfügbar sein soll. Darüber hinaus gibt es bei TRIAX weitreichende Pläne, das bereits existierende Distributionsnetzwerk weiter auszubauen, um damit noch näher an ihre Kunden heranzukommen.

Das Interview mit Peter Lyhne Uhrenholt in voller Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

Rick Koopman about Lenovo and AI

[Videoblog] Darum ist Künstliche Intelligenz für Lenovo so wichtig

Dieses Interview habe ich mit Rick Koopman von der Lenovo Data Center Group auf der International Supercomputing Conference 2018 geführt. Darin spricht er über das Thema KI (Künstliche Intelligenz) und warum es so wichtig für Lenovo ist. Darüber hinaus ließ er mich an den aktuellen KI-Entwicklungen teilhaben und zeigte auch, was Lenovo-Kunden in nächster Zeit in Sachen KI von Lenovo erwarten können.

Künstliche Intelligenz ist für Lenovo ein wichtiges Thema

Lenovo-Lösungen und das Thema KI passen zwangsläufig gut zusammen, weil sich beide Seiten sehr gut ergänzen. Damit ermöglicht Lenovo seinen Kunden, deren Arbeit und Projekte noch besser realisieren als ohne KI. Davon profitieren zahlreiche Bereiche wie die Wissenschaften und das Gesundheitswesen, wo Bilderkennungsalgorithmen eine wichtige Rolle spielen. Und genau dort kommt die KI zum Einsatz, und das häufig in Form von Machine Learning und Deep Learning. Das erfordert natürlich optimierte und auf den Kunden zugeschnittene Lösungen und Algorithmen, die Lenovo bieten kann und will.

NVIDA V100-CPU-Lösung und Warmwasserkühlung sind auf dem Vormarsch

Sieht man sich die aktuellen Algorithmen und Anwendungen an, wird schnell klar, dass ein Großteil immer noch sehr prozessor-lastig ist, da sich die Software-Entwickler immer noch stark an der Prozessor-basierten Programmierung orientieren. Allerdings verschieben sich hier die Grenzen zunehmend, sodass neue Ansätze und Techniken erforderlich sind. Eine Möglichkeit ist der Einsatz von Spezialhardware, die auf einer großen Zahl von Grafikchips beruht, was sich in einer leistungsfähigen und parallel arbeitenden Multicore-Architektur widerspiegelt.

Das führt dann zu KI-Hardware-Lösungen wie NVIDIA V100. Dieser Hochleistungsgrafikprozessor wurde speziell für die Bereiche KI, HPC und Co. entwickelt und beruht auf der NVIDIA Volta-Technologie. Laut NVIDIA entspricht die Rechenleistung eines einzigen Grafikprozessors der von 100 herkömmlichen CPUs. Darüber hinaus ist der V100-Prozessor mit einem eigenen Speicher von 16 bzw. 32 Gigabyte ausgestattet, was den Zugriff auf häufig benötigte Daten deutlich beschleunigt.

Klar ist aber auch, dass diese hohe Dichte an CPU- und GPU-Komponenten die Wärmeentwicklung innerhalb eines KI-Systems deutlich erhöht, was ganz neue Kühlungsmethoden erfordert. Daher wird Lenovo künftig verstärkt auf die Warmwasserkühlung setzen, was sich sehr gut anhand der neuen Technologie Lenovo Neptune zeigt. Diese soll sowohl in kleineren Systemen wie auch in kompletten Rechenzentren zum Einsatz kommen. Dass das sehr gut funktioniert, zeigt das Leibniz-Rechenzentrum (LRZ) bereits seit vielen Jahren.

KI-Algorithmen „wandern“ auf IoT-Geräte – zur Entlastung des Zentralrechners

Zweifellos werden und müssen die Kapazitäten in Sachen KI deutlich erhöht werden. Dazu gehört auch eine spezielle Form der Dezentralisierung von Rechenleistung, die unmittelbar mit dem aufstrebenden Internet der Dinge (IoT) verknüpft ist. Damit lässt sich die bisher zentrale Rechenpower eines einzelnen Supercomputers auf angeschlossene Recheneinheiten „transferieren“, sodass die CPU-GPU-Power näher an die Anwender rückt.

Damit kann beispielsweise die notwendige Bild-/Audio-/Videoerkennung direkt vom IoT-Gerät selbst durchgeführt werden, das die Daten erfasst hat. Dazu gehören unter anderem Kameras sowie Audio- und Infrarotsensoren, die den Zentralrechner von den maßgeblichen Rechenarbeiten entlasten können. Was dazu führt, dass der Supercomputer permanent mit den IoT-Geräten Zwischenergebnisse austauscht und daraus nur noch das finale Ergebnis erstellt.

Das Videointerview mit Rick Koopman in voller Länge

 

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Martin W. Hiegl über das Leibniz-Rechenzentrum (LRZ) und Lenovo

[Videoblog] Lenovo und die LRZ-SuperMUC-NG-Kooperation

Im Herbst 2018 geht die dritte Ausbaustufe des Lenovo Supercomputers der „Marke“ SuperMUC mit dem Zusatz „NG“ für „Next Generation“ ans Strom-Netz. Grund genug, mit einem der führenden Köpfe dieses für Lenovo so prestigeträchtigen Projekts ein Videointerview zu führen. Namentlich ist das Martin W. Hiegl von der Lenovo Data Center Group, der dort die Position des Director WW HPC & AI bekleidet. Mit ihm habe ich mich auf der International Supercomputing Conference 2018 über SuperMUC-NG und Co. unterhalten.

Darum ist für Lenovo die Kooperation mit dem Leibniz-Rechenzentrum so wichtig

Seit fast nunmehr zehn Jahren arbeiten Lenovo (seit 2014, vorher IBM) und das Leibniz-Rechenzentrum in Sachen Supercomputer zusammen. Dabei lag und liegt einer der Schwerpunkte im Bereich Energieeffizienz. So wies bereits der allererste SuperMUC im Jahr 2012 eine Heißwasserkühlung auf, die die gesamte Supercomputer-Anlage deutlich effizienter kühlte als andere Verfahren. Drei Jahre später folgte die zweite Ausbaustufe namens SuperMUC 2, und dieses Jahr im Herbst geht mit dem SuperMUC-NG die dritte Generation des Lenovo Supercomputers an der Start. Damit stellt die Kooperation mit dem LRZ für Lenovo einen wichtigen, langfristigen Baustein der Supercomputing-Strategie dar.

Der SuperMUC-NG geht im Herbst 2018 an das Strom-Netz

Nach drei Jahren SuperMUC 2 geht die dritte Generation des SuperMUC mit dem Zusatz „NG“ (wie „Next Generation“) ans Garchinger Stromnetz. Er umfasst 90 Compute-Racks, was 6.500 Compute-Knoten der Marke Lenovo ThinkSystem SD 650 DWC entspricht, die auf den skalierbaren Intel Xeon-Prozessoren basieren.

Der erste dieser Serverschränke wurde bereits ins Betrieb genommen, und über den Sommer verteilt wird Rack für Rack hinzukommen, sodass der SuperMUC-NG wie geplant im Herbst 2018 vom LRZ abgenommen und in Betrieb werden kann. Gerade rechtzeitig vor der Veröffentlichung der Herbstausgabe der Top-500-Liste, in der sich die 500 schnellsten Supercomputer der Welt befinden.

Der SuperMUC-NG weist beeindruckende Leistungswerte auf

In Sachen Leistungswerte wird der SuperMUC-NG aus dem Stand auf einem der vordersten Plätze der Top-500 klettern. Denn mit seiner Rechenleistung von rund 27 PetaFLOPS wird der LRZ-Rechner – Stand heute – der schnellste Supercomputer in Europa sein und darüber hinaus zu den Top 10 der Top 500 zählen. Das ist auch erforderlich, denn als HPC-Provider aller Münchner Universitäten ist das Leibniz-Rechenzentrum auf solche Hochleistungswerte dringend angewiesen, will es künftig seine Kunden zufriedenstellen. Denn diese benötigen die Rechenleistung des SuperMUC-NG für vielfältige Anwendungsbereiche, die mehr und mehr CPU-Power erfordern.

Die Kooperation mit dem LRZ umfasst mehr als nur Hardware

Bei der Implementierung des SuperMUC-NG gehört neben der Hardware auch die komplette Infrastruktur und die benötigte Software. Hierbei ist vor allem der Lenovo Intelligent Cluster Orchestrator zu nennen, der sich um sämtliche HPC-Funktionalitäten kümmert. Darüber hinaus zeichnet sich die Lenovo Data Center Group für die Wartung des Systems und den Anwendersupport verantwortlich.

Zudem sieht der Kooperationsvertrag eine Zusammenarbeit in Sachen Energieeffizienz vor. Hierbei soll mithilfe von optimiertem Software-Quellcode und der Energy Aware Runtime (EAR) für eine höhere Energieeffizienz gesorgt werden. Die EAR hat Lenovo in Kooperation mit dem Barcelona Supercomputing Center entwickelt. Dieses Tool sorgt unter anderem für angepasste Taktfrequenzen der Xeon-Prozessoren zur Laufzeit, je nachdem, ob eine Anwendung gerade mehr oder weniger Rechenleistung benötigt.

Das komplette Interview mit Martin W. Hiegl

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Dietmar Rauch über TRIAX Kopfstellensysteme

[Videoblog] Das leisten TRIAX Kopfstellensysteme in IP-TV-Szenarien

Dieses Interview habe ich mit Dietmar Rauch von der Firma TRIAX auf der ANGA COM 2018 geführt. Darin spricht er über TRIAX Kopfstellensysteme: Was diese so einzigartig macht, wo sie typischerweise eingesetzt werden und wie TRIAX-Kunden von diesen Systemeinheiten profitieren.

Das gehört zu TRIAX Kopfstellensystemen

TRIAX Kopfstellensystem vom Typ TDH 800

TRIAX Kopfstellensystem vom Typ TDH 800

Die TRIAX Kopfstellensysteme kommen überall dort zum Einsatz, wo in größeren oder kleineren Hotels (oder vergleichbaren Einrichtungen) parallel Fernseh-/Video- und Internetinhalte über dasselbe Koxialnetzwerk angeboten werden sollen. Hierfür stehen zahlreiche Hardware-Komponenten zur Verfügung.

Das Herzstück bildet die TDX-Serie ab, die aus zahlreichen Einzelkomponenten besteht. Das sind vor allem TDX-Basisgeräte, aber auch Ein- und Ausgangsmodule, mit denen sich die Basiskomponenten entsprechend der Anforderungen eines Hotels erweitern lassen. Aber aber auch kleinere Basiseinheiten wie die TDH 800 kommen überall dort zum Einsatz, wo auf Basis eines existierenden TV-Kabelnetzwerks Internet-basierte Dienste bereitgestellt werden sollen.

Das macht TRIAX Kopfstellensysteme so besonders

Die Besonderheit der TRIAX Kopfstellensysteme ist zum einen ihre Kompaktheit, da sie als Empfangs-/Verteilerstation sowie als Signalverarbeiter fungieren – und das in einem einzigen Gerät. Gleichzeitig sind diese Komponenten so modular aufgebaut, dass sie mit den Bedürfnissen der Anwender und Kunden wachsen. Darüber hinaus ist in die Systeme wie zum Beispiel die TDX-Serie eine intuitiv bedienbare Software integriert, die das Einrichten der Geräte mit relativ geringem Aufwand ermöglicht.

Ein weiteres Plus der TRIAX Kopfstellensysteme ist deren Hotswap-Technik und die eingebauten Netzteile, die aus Sicherheitsgründen redundant angelegt sind. Dank „Hotswap“ lassen sich einzelne Komponenten wie die Ein- und Ausgangsmodule der TDX-Serie im laufenden Betrieb austauschen – was eine reibungslose und störungsfreie IP-TV-Umgebung garantiert.

Die TRIAX Kopfstellensysteme stellen übrigens nur einen Baustein des kompletten Lösungsansatzes der Firma TRIAX dar, wie man sehr gut dem Videoblogbeitrag von und mit Torben Flodgaard Kristensen zum Thema „Ethernet over Coax“ entnehmen kann.

TRIAX Kopfstellensystem vom Typ TDX

TRIAX Kopfstellensystem vom Typ TDX

Hotels und Co. setzen TRIAX Kopfstellensysteme ein

Die zahlreichen Installationen, auf die TRIAX mittlerweile verweisen kann, kommen vorzugsweise überall dort zum Einsatz, wo Gäste, Patienten und andere Kunden mit Fernseh-, Video- und Internetinhalten versorgt werden sollen – und das über dasselbe Netzwerk. Dabei spielt es keine Rolle, welcher Internetrouter oder welches Empfangsgerät eingesetzt werden – TRIAX-Systeme unterstützen die wichtigsten Techniken und Technologien, die heute am Markt sind. Dazu gehören unter anderem HD-Inhalte, mit denen TRIAX Kopfstellensysteme mühelos klar kommen.

Doch nicht nur die Hardware steht bei TRIAX im Vordergrund, auch die Pre- und After-Sales-Unterstützung liegt dem dänischen Unternehmen sehr am Herzen. Denn zu einem erfolgreichen IP-TV-System gehört nicht nur ein perfekt funktionierendes Netzwerk mit allen Komponenten, sondern auch eine vernünftige Betreuung und Beratung seitens der TRIAX-Partner, die in die zahlreichen Projekte involviert sind.

Das Interview mit Dietmar Rauch in voller Länge

 

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.