Poppy Szkiler von Quiet Mark im Interview

Videoblog: „Wir wollen für mehr Ruhe im Büro und Zuhause sorgen!“

Während der IFA 2018 durfte ich dieses Videointerview mit Poppy Szkiler führen. Sie ist die Gründerin und CEO der britischen Firma Quiet Mark, die es sich zum Ziel gesetzt hat, die Welt ein bisschen leiser und damit ein bisschen besser zu machen.

Mit dem Q-Logo die GeräuschverschmutzungQuiet Mark hat eine klare Vision: In mehr als 30 Produktkategorien sollen jeweils die geräuschärmsten und damit nervenschonendsten Geräte mit dem Q-Logo versehen werden. Dies signalisiert Kunden und Anwendern, dass es sich hierbei um Gerätschaften handelt, die man so gut wie gar nicht hört – zumindest im Vergleich mit Konkurrenzprodukten.

Diese Idee ist gar nicht so neu: Bereits Ende der 1960er gründete der Großvater von Poppy die Noise Abatement Society, die es sich damals wie heute zum Ziel gemacht hat, gesetzliche Regelungen rund um die Lärmbelästigung von Produkten einzuführen bzw. regelmäßig zu verbessern.

Mit der „Quiet Revolution“ gegen die Lärmbelästigung des Alltags

Mit all dem Lärm, der uns jeden Tag umgibt und der unsere Gesundheit, unseren Schlaf und andere Faktoren negativ beeinflusst, müssen sich Anwender nicht mehr zufrieden geben. Zumindest dann, wenn es nach Quiet Mark geht. Denn die permanente Lärmbelästigung lässt sich reduzieren, indem man beim Kauf des neuen Staubsaugers oder des Laubbläsers auf das Q-Logo achtet, dass signalisiert: „Hier hat der Hersteller bei der Konzeption des Produkts auf eine möglichst geringe Geräuschentwicklung geachtet“. Diesem Bestreben sieht sich Poppy Szkiler höchstpersönlich verpflichtet. Sie will damit für mehr Ruhe im Büro und Zuhause sorgen.

Mehr Stille für den Alltag, das ist die Vision von Quiet Mark

Die natürliche Stille, die uns eigentlich umgibt, verschwindet immer mehr. Dabei ist sie für uns und unser Wohlbefinden so immanent wichtig. Denn mehr Ruhe bedeutet mehr Regeneration unseres Biorhythmus. Und jeder kann seinen eigenen Teil dazu beitragen, und das nicht nur mithilfe der Produkte, die mit dem Q-Logo versehen sind.

Philips und andere Hersteller vertrauen Quiet Mark und dem Q-Logo

Mehr und mehr Hersteller setzen das Q-Logo gezielt als Verkaufsargument ihrer Produkte ein. So findet man den Aufkleber unter anderem auf Staubsaugern und Luftbefeuchtern des niederländischen Unternehmens Philips. Damit lassen sich mittlerweile die entsprechenden Gerätschaften besser verkaufen, da Anwender mehr und mehr nach lärmreduzierten Produkten Ausschau halten. Für alle also ein echter Mehrgewinn.

Das komplette Videointerview mit Poppy Szkiler und Philips

Disclaimer: Für diesen Videobeitrag hat mich die Firma Quiet Mark engagiert und bezahlt. Bei der Ausgestaltung der Fragen und des Videos hatte ich nahezu freie Hand.

Die E-Ink-Tastatur des Lenovo Yoga Book C930 ist äußert anpassungsfähig und lernt dank KI permanent dazu

[Videochat] Mirco Krebs von Lenovo über Künstliche Intelligenz in Notebooks

Während der IFA 2018 habe ich dieses Interview mit Mirco Krebs von Lenovo geführt. Darin spricht der General Manager und Territory Leader der PCSD (PC and Smart Devices Group) DACH über das neue Wachstum von Lenovo, warum der B2B-Markt bei Lenovo gerade überproportional wächst und wie das Thema Künstliche Intelligenz Yoga Book-Anwendern hilft, besser zu schreiben.

Lenovo wächst und gedeiht

Legt man die Quartalszahlen des ersten Geschäftsvierteljahres zugrunde, geht es Lenovo derzeit ziemlich gut. So konnte der Umsatz im Vergleich zum Vorjahr um 20 Prozent gesteigert werden, der Gewinn fiel ebenfalls besser aus als im Vorjahreszeitraum, und auch sonst erfreut sich Lenovo allerbester Gesundheit.

So bescheinigt das Marktforschungsinstitut IDC Lenovo im PC- und Tablet-Segment einen weltweiten Marktanteil von 16,4 Prozent. Darüber hinaus sieht Gartner Lenovo in der Kategorie „schnell wachsender Computerhersteller“ auf dem ersten Platz . Aber auch die Sparte „Rechenzentrum“ wächst und gedeiht sehr ordentlich: Dort legte das Unternehmen in der Disziplin „Gewinn“ um 68 Prozent im Vergleich zum Vorjahr zu.

Die DACH-Regin wächst ebenfalls – und das dank Windows 10

Und wie verhält es sich mit den Zahlen in Herrn Krebs‘ „Einzugsgebiet“, also in Deutschland, Österreich und der Schweiz? Nun, dort ist Lenovo ähnlich erfolgreich, und das sowohl beim Umsatz als auch bei den Absatzzahlen. Gerade der sogenannte kommerzielle (B2B-)Markt ist hierzulande und bei den Alpennachbarn deutlich gewachsen, und das in einem äußerst umkämpften Segment.

Diesen überproportionalen Anstieg im B2B-PC-Markt hat Lenovo gewissermaßen Microsoft zu verdanken. Denn mit dem schrittweisen Umstieg zahlreicher Firmen von Windows 7 auf Windows 10 erfolgt gleichzeitig in vielen Fällen auch eine Neuanschaffung bei der Hardware, und hier kann Lenovo offensichtlich bei seinen Kunden sehr gut punkten. Das hat wohl unter anderem mit der engen Zusammenarbeit zwischen Intel und Lenovo zu tun, was vielen Anwendern das Gefühl gibt, auf ein erfahrenes und eingespieltes Team zu setzen.

Künstliche Intelligenz hält bei Lenovo jetzt auch in Notebooks Einzug

Dass sich Lenovo mit dem Thema Künstliche Intelligenz schon länger beschäftigt, ist für aufmerksame Leser dieser Blogs kein großes Geheimnis. Dass sich dieser Trend jetzt allerdings auch beim Thema Notebooks breit macht, hat mich während der IFA doch einigermaßen überrascht.

Denn mithilfe der erst kürzlich vorgestellten E-Ink-Tastatur des Yoga Book C930 hilft Lenovo seinen Kunden, besser, schneller und effizienter auf dem Laptop Texte zu schreiben. Hierfür kommt auf dem Gerät eine Software zum Einsatz, die das Schreibverhalten des Anwenders analysiert und auf dieser Basis die Tastatur den Schreibbedürfnissen des Notebook-Anwenders anpasst.

Dazu gehören die unterschiedlichen Schreibgewohnheiten genauso wie die ergonomischen Unterschiede, die sich von Anwender zu Anwender ergeben. Das ermöglicht eine ganz neue Schreibqualität beim 2-Finger-Tippen, auf die sich sicherlich schon viele User freuen.

Das komplette Interview mit Mirco Krebs

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von Lenovo verfasst und veröffentlicht. Dabei ließ mir das Unternehmen nahezu freie Hand.

Cloud-Verschlüsselung ist vor allem in Zeiten der DSGVO enorm wichtig

So lassen sich Cloud-Daten sicher verschlüsseln

Die Datenschutzgrundverordnung (DSGVO) zwingt Anbieter von Cloud-Services zu einem verantwortungsvollen Umgang mit den Daten ihrer Kunden. Dazu gehören diverse Grundsätze, von denen in diesem Beitrag die wichtigsten drei vorgestellt werden sollen.

Grundsatz #1: Open-Source-Software steht für transparente Transaktionen

Von Cloud-Anbietern wie luckycloud wird von deren Anwendern und Kunden eine erhöhte Transparenz erwartet, gerade wegen DSGVO und Co. Das bedingt unter anderem den Einsatz von transparenter Software, was nicht in jedem Fall gegeben ist. Daher setzt zum Beispiel luckycloud auf die Open-Source-Software Seafile. Damit lassen sich innerhalb einer Private Cloud-Umgebung Daten speichern, teilen und synchronisieren.

Der wesentliche Vorteil dieses Ansatzes liegt im Öffentlichmachen der Software: Da der Quellcode für jedermann zugänglich und einsehbar ist, lassen sich darin keine geheimen Software-Funktionen verstecken, wie beispielsweise einen Staatatrojaner oder ähnliche Backdoor-Möglichkeiten. Denn damit wäre unerwünschten Gästen Tor und Tür geöffnet, was das Aus für solch einen Cloud-Anbieter bedeuten würde. Das Einzige, was dank Seafile und Co. geheim bleibt, sind die Schlüssel, mit denen die Cloud-Daten ver- und entschlüsselt werden (siehe Grundsatz #3).

Grundsatz #2: Robuste und erprobte Techniken helfen bei der Abwehr von Angriffen 

Selbst unerfahrene Anwender mögen schon einmal vom Begriff „Man-in-the-Middle-Angriff“ gehört haben. Dabei handelt es sich um eine Hackerattacke von außen (oder innen) eines Unternehmens, der mit bestimmten illegalen Hilfsmitteln die Kommunikation zwischen zwei Rechnern belauscht, um so an Informationen zu gelangen, um diese beispielsweise zu manipulieren.

Die Verbindung zwischen einem Anwender und einem Cloud-Server gehört zu einem dieser beliebten Angriffsziele. Vor allem dann, wenn der gewählte Kommunikationskanal nicht ausreichend gegen das „Mithören“ abgesichert wird. Daher setzen verantwortungsbewusste Cloud-Anbieter wie luckycloud auf das robuste TLS-Protokoll (Transport Layer Security) ein, was die Verschlüsselungstechnik des HTTPS-Webprotokolls ist. Diese Technik verschlüsselt die Kommunikation zwischen Anwender und Server vollständig, allerdings auch nicht mehr. Wichtig ist hierbei nicht unbedingt der Einsatz von teuer gekauften  Zertifikaten, die  von entsprechenden Stellen vergeben werden. 

Denn teuer ist nicht gleichbedeutend mit sicher. So stellt ein kostenlos erhältliches Zertifikat von Let’s Encrypt vollkommen sicher, dass die Verbindung zwischen Browser und Server verschlüsselt ist. Zudem existieren sogenannte EV-Zertifikate (Extended Validation), mit deren Hilfe die zugehörige Zertifizierungsstelle die reale Existenz einer Firma überprüfen und bestätigen kann.

Grundsatz #3: Durchgängige Verschlüsselung sorgt für höchstmögliche Sicherheit

Für eine höchstmögliche Sicherheit kommt es neben der transparenten Software und der richtigen Verschlüsselung der Datentransportwege auf das Verschlüsseln der Daten selbst an. Wie im Falle der luckycloud, bei der dank des Einsatzes von Seafile die kostbaren Daten auf zweierlei Wegen gegen den Diebstahl von außen (oder innen) geschützt werden: durch Verschlüsselung auf Client- als auch auf Serverseite.

Das bedeutet konkret, dass zum einen die Daten bereits dann verschlüsselt werden, bevor sie überhaupt auf dem Cloud-Server landen. Und dort werden sie nicht wieder entschlüsselt, sondern bleiben in verschlüsselter Form dort liegen. Damit haben nur die Anwender mit den passenden Zugangsdaten und Schlüsseln Zugriff auf die Daten, also nicht einmal der Cloud-Anbieter.

Zum Ver- und Entschlüsseln kommt übrigens der symmetrische, blockbasierte AES256-Verschlüsselungsalgorithmus zum Einsatz, der als sehr sicher gilt. Hierbei wird oft die sogenannte CBC-Methode (Cipher Block Chaining) eingesetzt, die das Verschlüsseln der Daten noch ein gutes Stück zuverlässiger macht. Mehr Sicherheit kann man seinen Cloud-Daten kaum angedeihen lassen. 

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Antigoni Chrysostomou über HPC in Deutschland

[Videoblog] Antigoni Chrysostomou über das Lenovo HPC-Geschäft

Während der International Supercomputing Conference 2018 habe ich dieses Interview mit Antigoni Chrysostomou von der Lenovo Data Center Group über das HPC-Geschäft in Deutschland geführt. Darin spricht sie über das

Der deutsche HPC-Markt im weltweiten Vergleich: echt stark!

Betrachtet man den hiesigen HPC-Markt (High-Performance Computing), kann man ihm durchaus bescheinigen, wettbewerbsfähig zu sein. Das liegt vor allem an der hohen Zahl an Forschungsinstituten, die sich in Deutschland tummeln, da diese einen großen Bedarf an viel und noch viel mehr Rechenpower zu Forschungszwecken haben.

Dazu gehört beispielsweise das Gauss Supercomputing Center, das einen Verbund der drei großen Universitätsrechenzentren darstellt. Dazu gehören das Jülicher Supercomputing Center, das Leibniz-Rechenzentrum (LRZ) in München-Garching und das HPC-Zentrum Stuttgart. Und eines davon, nämlich das LRZ, ist einer der größten RZ-Kunden Lenovos, wo gerade der größte Supercomputer Deutschlands entsteht, nämlich der SuperMUC-NG.

Daneben sind deutsche Supercomputer zahlreich in der Top-500-Liste der weltweit schnellsten Rechner vertreten. Alleine Lenovo trägt zu insgesamt 117 Systemen bei, die zu den leistungsfähigsten ihrer Art zählen, womit das Unternehmen die Top-500 in dieser Kategorie anführt.

Darum ist der HPC-Markt so interessant für Lenovo

High-Performance Computing mit seinen unterschiedlichen Ausprägungen stellt ganz bestimmte Anforderungen an Rechnersysteme, die vor allem von den HPC-Anwendern eingefordert werden. Folge: Neue Anwendungen rufen neue, innovative Lösungsansätze hervor, wovon gerne Unternehmen wie Lenovo profitieren, das sie selbst Teil dieser Innovationsmaschinerie sind. Wichtig dabei ist, dass die Entwicklerteams von Lenovo sehr stark mit ihren Kunden vernetzt sind, um so schnellst- und bestmöglich auf deren Anforderungen reagieren zu können.

Als ein „Nebeneffekt“ dieser HPC-Entwicklungen kann die Transformation solcher neuen Lösungen in den RZ-Massenmarkt betrachtet werden. Dazu gehören beispielsweise wassergekühlte Systeme, die Stück für Stück in den herkömmlichen Rechenzentren zum Einsatz kommen werden, nachdem sie sich im HPC-Umfeld bewährt haben.

Hiesige HPC-Schwerpunkte: Energieeffizienz und Warmwasserkühlung

Vor allem die hohen Ansprüche deutscher RZ-Betreiber an die Energieeffizienz eines solchen Systems treibt hierzulande ganz entscheidend zu den aktuellen Entwicklungen bei. Dies hat zwei wesentliche Gründe: Einerseits sind die Strompreise in Deutschland höher als in anderen Ländern, und zum anderen spielen bei uns die Themen Nachhaltigkeit und Verantwortung gegenüber der Umwelt eine größere Rolle als anderswo. Dies führt beispielsweise zu heißwassergekühlten Rechenzentren, wie sie in Garching bei München seit Jahren zu bewundern sind.

Ein weiterer hiesiger Aspekt, der ebenfalls mit dem Thema Energieeffizienz zu tun hat, betrifft die klassische TCO-Betrachtung. So fließen in die Gesamtkalkulation eines deutschen Rechenzentrums nicht nur die Anschaffungskosten für Hardware und Software ein, sondern auch die Energiekosten für Strom und Wasser. Was Lenovo speziell in Deutschland gegenüber anderen Anbietern einen großen Vorteil verschafft, da deren HPC-Systeme verstärkt mit Heißwasserkühlsystemen betrieben werden sollen.

Aus diesem und anderen Gründen hat Lenovo pünktlich zur ISC18 eine neue Technik vorgestellt, die sich Lenovo Neptun nennt und die das Kühlen von großen Rechenzentren mithilfe von Heißwasser ermöglichen soll – und das sehr viel energieeffizienter als andere vergleichbare Lösungsansätze.

Das komplette Videointerview mit Antigoni Chrysostomou

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Peter Lyhne Uhrenholt, TRIAX, about TRIAX A:S

[Videoblog] CEO Peter Lyhne Uhrenholt über TRIAX A/S: Schwerpunkte, Partner, Ziele

Während der ANGA COM 2018 habe ich mit TRIAX Geschäftsführer Peter Lyhne Uhrenholt über TRIAX-Produkte und -Lösungen gesprochen, über die Zusammenarbeit mit Kabelanbietern und darüber, wo er TRIAX in den nächsten fünf bis zehn Jahren sieht.

TRIAX-Produkte und -Lösungen sorgen für zufriedene Kunden

Selbstverständlich genügen TRIAX-Produkte und -Lösungen höchsten Qualitätsansprüchen und sind darüber hinaus robust und zuverlässig im täglichen Umgang und Einsatz. Denn das ist die oberste Maxime, die Kunden von TRIAX fordern: Produkte, die funktionieren und ihren Zweck erfüllen. Und genau diesen Werten hat sich TRIAX verschrieben: Maximale Kundenzufriedenheit durch maximale Produktqualität.

Dies wird unter anderem mithilfe kontinuierlicher Forschungs- und Entwicklungsaktivitäten erreicht, in die TRIAX viel Zeit und Geld investiert. Denn um stets am Puls der Technik zu sein und mit den Anforderungen des Marktes Schritt halten zu können, will TRIAX regelmäßig neue Ansätze schaffen, die in neuen Produkten münden. Denn auch das trägt zu einer Kundenzufriedenheit im Sinne von Peter Lyhne Uhrenholt bei.

TRIAX A/S wird die Zusammenarbeit mit Kabelbetreibern weiter verstärken

TRIAX-Kunden und Kabeloperatoren pflegen seit jeher eine enge Partnerschaft. Daher ist die Zusammenarbeit seitens TRIAX mit Kabelnetzbetreibern schon seit langem von essentieller Wichtigkeit. Eine der drängesten Herausforderungen dabei ist das Verbessern und Erhöhen der Kabelbandbreite, da diese für Hotels und andere Einrichten mit umfangreichen Kabelnetzen enorm wichtig ist. Schließlich sollen Gäste und Kunden auch auf dieser Ebene zufriedengestellt werden.

Daher steigen mehr und mehr Kabeloperatoren auf die neueste Kabeltechnik DOCSIS 3.1 um, um künftig höhere Bandbreiten mit Gigabit-Tempo anbieten zu können. Und natürlich braucht es hierfür die richtigen Produkte und Lösungen, die immer die neuesten Technologien unterstützen. Aus diesem und anderen Gründen ist nicht nur für TRIAX die Zusammenarbeit mit Kabeloperatoren wichtig, sondern auch umgekehrt.

Exkurs: DOCSIS (Data Over Cable Service Interface Specification) beschreibt Schnittstellen von Kabelmodems in einem Breitbandnetz. DOCSIS 3.1 unterstützt Datenraten von bis zu 10 GBit/s im Downstream und soll Latenzen verringern.

TRIAX in 5 bis 10 Jahren: Cloud-Services und mehr Distributoren

Für Peter steht vor allem das Entwicklen einer vollständigen Lösungsplattform im Vordergrund, wenn er an die nächsten 5 bis 10 Jahre von TRIAX denkt. Schon heute bietet der aktuelle Lösungsansatz alle wichtigen Komponenten wie Kopfstellensysteme, Ethernet over Coax sowie die passende Software-Plattform, die jedoch mehr und mehr als Cloud-Service angeboten werden und verfügbar sein soll. Darüber hinaus gibt es bei TRIAX weitreichende Pläne, das bereits existierende Distributionsnetzwerk weiter auszubauen, um damit noch näher an ihre Kunden heranzukommen.

Das Interview mit Peter Lyhne Uhrenholt in voller Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

Martin W. Hiegl über das Leibniz-Rechenzentrum (LRZ) und Lenovo

[Videoblog] Lenovo und die LRZ-SuperMUC-NG-Kooperation

Im Herbst 2018 geht die dritte Ausbaustufe des Lenovo Supercomputers der „Marke“ SuperMUC mit dem Zusatz „NG“ für „Next Generation“ ans Strom-Netz. Grund genug, mit einem der führenden Köpfe dieses für Lenovo so prestigeträchtigen Projekts ein Videointerview zu führen. Namentlich ist das Martin W. Hiegl von der Lenovo Data Center Group, der dort die Position des Director WW HPC & AI bekleidet. Mit ihm habe ich mich auf der International Supercomputing Conference 2018 über SuperMUC-NG und Co. unterhalten.

Darum ist für Lenovo die Kooperation mit dem Leibniz-Rechenzentrum so wichtig

Seit fast nunmehr zehn Jahren arbeiten Lenovo (seit 2014, vorher IBM) und das Leibniz-Rechenzentrum in Sachen Supercomputer zusammen. Dabei lag und liegt einer der Schwerpunkte im Bereich Energieeffizienz. So wies bereits der allererste SuperMUC im Jahr 2012 eine Heißwasserkühlung auf, die die gesamte Supercomputer-Anlage deutlich effizienter kühlte als andere Verfahren. Drei Jahre später folgte die zweite Ausbaustufe namens SuperMUC 2, und dieses Jahr im Herbst geht mit dem SuperMUC-NG die dritte Generation des Lenovo Supercomputers an der Start. Damit stellt die Kooperation mit dem LRZ für Lenovo einen wichtigen, langfristigen Baustein der Supercomputing-Strategie dar.

Der SuperMUC-NG geht im Herbst 2018 an das Strom-Netz

Nach drei Jahren SuperMUC 2 geht die dritte Generation des SuperMUC mit dem Zusatz „NG“ (wie „Next Generation“) ans Garchinger Stromnetz. Er umfasst 90 Compute-Racks, was 6.500 Compute-Knoten der Marke Lenovo ThinkSystem SD 650 DWC entspricht, die auf den skalierbaren Intel Xeon-Prozessoren basieren.

Der erste dieser Serverschränke wurde bereits ins Betrieb genommen, und über den Sommer verteilt wird Rack für Rack hinzukommen, sodass der SuperMUC-NG wie geplant im Herbst 2018 vom LRZ abgenommen und in Betrieb werden kann. Gerade rechtzeitig vor der Veröffentlichung der Herbstausgabe der Top-500-Liste, in der sich die 500 schnellsten Supercomputer der Welt befinden.

Der SuperMUC-NG weist beeindruckende Leistungswerte auf

In Sachen Leistungswerte wird der SuperMUC-NG aus dem Stand auf einem der vordersten Plätze der Top-500 klettern. Denn mit seiner Rechenleistung von rund 27 PetaFLOPS wird der LRZ-Rechner – Stand heute – der schnellste Supercomputer in Europa sein und darüber hinaus zu den Top 10 der Top 500 zählen. Das ist auch erforderlich, denn als HPC-Provider aller Münchner Universitäten ist das Leibniz-Rechenzentrum auf solche Hochleistungswerte dringend angewiesen, will es künftig seine Kunden zufriedenstellen. Denn diese benötigen die Rechenleistung des SuperMUC-NG für vielfältige Anwendungsbereiche, die mehr und mehr CPU-Power erfordern.

Die Kooperation mit dem LRZ umfasst mehr als nur Hardware

Bei der Implementierung des SuperMUC-NG gehört neben der Hardware auch die komplette Infrastruktur und die benötigte Software. Hierbei ist vor allem der Lenovo Intelligent Cluster Orchestrator zu nennen, der sich um sämtliche HPC-Funktionalitäten kümmert. Darüber hinaus zeichnet sich die Lenovo Data Center Group für die Wartung des Systems und den Anwendersupport verantwortlich.

Zudem sieht der Kooperationsvertrag eine Zusammenarbeit in Sachen Energieeffizienz vor. Hierbei soll mithilfe von optimiertem Software-Quellcode und der Energy Aware Runtime (EAR) für eine höhere Energieeffizienz gesorgt werden. Die EAR hat Lenovo in Kooperation mit dem Barcelona Supercomputing Center entwickelt. Dieses Tool sorgt unter anderem für angepasste Taktfrequenzen der Xeon-Prozessoren zur Laufzeit, je nachdem, ob eine Anwendung gerade mehr oder weniger Rechenleistung benötigt.

Das komplette Interview mit Martin W. Hiegl

Disclaimer: Diesen Video-Blogbeitrag habe ich im Auftrag von Lenovo verfasst. Bei der Ausgestaltung hatte ich freie Hand.

Dietmar Rauch über TRIAX Kopfstellensysteme

[Videoblog] Das leisten TRIAX Kopfstellensysteme in IP-TV-Szenarien

Dieses Interview habe ich mit Dietmar Rauch von der Firma TRIAX auf der ANGA COM 2018 geführt. Darin spricht er über TRIAX Kopfstellensysteme: Was diese so einzigartig macht, wo sie typischerweise eingesetzt werden und wie TRIAX-Kunden von diesen Systemeinheiten profitieren.

Das gehört zu TRIAX Kopfstellensystemen

TRIAX Kopfstellensystem vom Typ TDH 800

TRIAX Kopfstellensystem vom Typ TDH 800

Die TRIAX Kopfstellensysteme kommen überall dort zum Einsatz, wo in größeren oder kleineren Hotels (oder vergleichbaren Einrichtungen) parallel Fernseh-/Video- und Internetinhalte über dasselbe Koxialnetzwerk angeboten werden sollen. Hierfür stehen zahlreiche Hardware-Komponenten zur Verfügung.

Das Herzstück bildet die TDX-Serie ab, die aus zahlreichen Einzelkomponenten besteht. Das sind vor allem TDX-Basisgeräte, aber auch Ein- und Ausgangsmodule, mit denen sich die Basiskomponenten entsprechend der Anforderungen eines Hotels erweitern lassen. Aber aber auch kleinere Basiseinheiten wie die TDH 800 kommen überall dort zum Einsatz, wo auf Basis eines existierenden TV-Kabelnetzwerks Internet-basierte Dienste bereitgestellt werden sollen.

Das macht TRIAX Kopfstellensysteme so besonders

Die Besonderheit der TRIAX Kopfstellensysteme ist zum einen ihre Kompaktheit, da sie als Empfangs-/Verteilerstation sowie als Signalverarbeiter fungieren – und das in einem einzigen Gerät. Gleichzeitig sind diese Komponenten so modular aufgebaut, dass sie mit den Bedürfnissen der Anwender und Kunden wachsen. Darüber hinaus ist in die Systeme wie zum Beispiel die TDX-Serie eine intuitiv bedienbare Software integriert, die das Einrichten der Geräte mit relativ geringem Aufwand ermöglicht.

Ein weiteres Plus der TRIAX Kopfstellensysteme ist deren Hotswap-Technik und die eingebauten Netzteile, die aus Sicherheitsgründen redundant angelegt sind. Dank „Hotswap“ lassen sich einzelne Komponenten wie die Ein- und Ausgangsmodule der TDX-Serie im laufenden Betrieb austauschen – was eine reibungslose und störungsfreie IP-TV-Umgebung garantiert.

Die TRIAX Kopfstellensysteme stellen übrigens nur einen Baustein des kompletten Lösungsansatzes der Firma TRIAX dar, wie man sehr gut dem Videoblogbeitrag von und mit Torben Flodgaard Kristensen zum Thema „Ethernet over Coax“ entnehmen kann.

TRIAX Kopfstellensystem vom Typ TDX

TRIAX Kopfstellensystem vom Typ TDX

Hotels und Co. setzen TRIAX Kopfstellensysteme ein

Die zahlreichen Installationen, auf die TRIAX mittlerweile verweisen kann, kommen vorzugsweise überall dort zum Einsatz, wo Gäste, Patienten und andere Kunden mit Fernseh-, Video- und Internetinhalten versorgt werden sollen – und das über dasselbe Netzwerk. Dabei spielt es keine Rolle, welcher Internetrouter oder welches Empfangsgerät eingesetzt werden – TRIAX-Systeme unterstützen die wichtigsten Techniken und Technologien, die heute am Markt sind. Dazu gehören unter anderem HD-Inhalte, mit denen TRIAX Kopfstellensysteme mühelos klar kommen.

Doch nicht nur die Hardware steht bei TRIAX im Vordergrund, auch die Pre- und After-Sales-Unterstützung liegt dem dänischen Unternehmen sehr am Herzen. Denn zu einem erfolgreichen IP-TV-System gehört nicht nur ein perfekt funktionierendes Netzwerk mit allen Komponenten, sondern auch eine vernünftige Betreuung und Beratung seitens der TRIAX-Partner, die in die zahlreichen Projekte involviert sind.

Das Interview mit Dietmar Rauch in voller Länge

 

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

Torben Flodgaard Kristensen, TRIAX, über Ethernet over Coax

[Videoblog] So funktioniert TRIAX Ethernet over Coax

Während der ANGA COM 2018 in Köln durfte ich für die Firma TRIAX eine Interviewserie mit vier Videos produzieren, die ich ab heute auf meinem Blog veröffentliche. Das erste habe ich mit Torben Flodgaard Kristensen zum Thema „Ethernet over Coax“ geführt.

Das macht TRIAX Ethernet over Coax so einzigartig

Mit „Ethernet over Coax“ hat TRIAX eine Lösung im Portfolio, mit deren Hilfe über ein vorhandenes TV-Kabelnetz Daten verteilt werden können. Es handelt sich also um eine Verschmelzung der Ethernet- und Kabel-TV-Technik, was zahlreiche Vorteile mit sich bringt. Dazu gehört vor allem die Möglichkeit, Wifi-Zugangspunkte in das bestehende Kabel-TV-Netz zu integrieren und so den Anwendern den drahtlosen Zugang ins Koaxial-Netzwerk zu ermöglichen.

Hierfür kommt der G.hn-HomeGrid-Standard zum Einsatz, der das Spektrum von 1 bis 200 MHz nutzt, was das parallele Streamen von IP- und Fernsehsignalen erlaubt, da das TV-Signal nicht wie üblich im 8-MHz-Spektrum übertragen wird, sondern jenseits der 300-MHz-Marke. Und genau das erlaubt das gleichzeitige Übertragen von Internet- und Fernsehinhalten über ein- und dasselbe Kabelnetz.

TRIAX EoC Rückkanalfilter

TRIAX EoC Rückkanalfilter

Hierfür sind übrigens drei wesentliche Komponenten erforderlich: ein Rückkanalfilter, ein EoC-Endpunkt (Ethernet over Coax) und ein EoC-Controller. Alle drei Komponenten sorgen im Zusammenspiel dafür, dass IP- und TV-Signale über das gemeinsame Koxialkabel transferiert und dann am Endpunkt auf das jeweils richtige Geräte übertragen werden – also die Fernsehbilder auf das TV-Gerät und die Daten auf iPad, Smartphone, Laptop und Co.

TRIAX EoC Controller

TRIAX EoC Controller

Ein weiterer Vorteil der TRIAX Ethernet over Coax-Lösung ist deren Robustheit. Damit kann im Grunde jedwedes Koaxial-Kabelnetz eingesetzt werden, da die TRIAX-Technik sehr störunanfällig ist, was eine Highspeed-Internetverbindung erlaubt, trotz eines schwachen Koaxial-Signals.

Darüber hinaus erlaubt die TRIAX-Lösung das Separieren von mehreren WLAN-Netzen, sodass beispielsweise in einem Hotel das Drahtlosnetzwerk der Gäste vollständig vom Backoffice-WLAN des Hotelbetriebs entkoppelt werden kann. Das sorgt für einen hohen Sicherheitsstandard des Wi-Fi-Netzwerks.

Technisch betrachtet entspricht die WLAN-Lösung von TRIAX den gängigen Standards: Dual-Band-Wifi mit zwei Antennen, das Ausnutzen beider WLAN-Spektren (2,4 und 5 GHz), und vieles mehr.

Die Hotellerie ist ein typisches Anwendungsszenario der TRIAX-Lösung

Grundsätzlich kommt TRIAX Ethernet over Coax überall dort zum Einsatz, wo ein Koxialkabel-Netz existiert. Interessant dabei ist die Möglichkeit, auf Basis  einer Management-Software das drahtlose Netzwerk so einzurichten, dass der Anwender sich entscheiden kann zwischen kostenlosem Wifi und einem Wifi-Anschluss mit höherer Bandbreite, dann aber gegen Gebühr.

In Hotelanlange kommt TRIAX Ethernet over Coax häufig zum Einsatz

In Hotelanlangen kommt TRIAX Ethernet over Coax häufig zum Einsatz

Typischerweise wird TRIAX Ethernet over Coax in Hotelanlagen, in Krankenhäusern und sogar in Gefängnissen eingesetzt. Also immer dort, wo Koxialkabelnetze bereits existieren und der Betreiber oder Eigentümer keine aufwändige Ethernet-Verkabelung installieren lassen will.

Zudem sind dort in vielen Fällen nur im Eingangsbereich WLAN-Router mit gutem Empfang installiert, was den drahtlosen Zugang innerhalb der Hotelzimmer oder anderswo stark ausbremst. Und genau diesen Missstand eliminiert TRIAX Ethernet over Coax in Kombination mit Wifi Access Points, indem diese mit dem Koxialnetzwerk verbunden werden, was das Drahtlossignal deutlich verbessert.

Das vollständige Interview mit Torben Flodgaard Kristensen

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma TRIAX beauftragt.

luckycloud bietet eine sichere und komfortable Cloud-Umgebung

Nützliche Tipps für die richtige Auswahl von sicheren Cloud-Speichern

Bei der Wahl des richtigen Cloud-Service-Providers sind vor allem die Bereiche Sicherheit und Funktionalität zu beachten. Mit diesem Beitrag sollen die wichtigsten Merkmale vorgestellt und gezeigt werden, worin sich die aktuellen Cloud-Angebote unterscheiden.

Zunächst einmal sei darauf hingewiesen, dass sich Begriffe wie „sicherer Cloud-Speicher“ und „kostenloses Cloud-Angebot“ quasi gegenseitig ausschließen. Denn auch die Anbieter von vermeintlich kostenfreien Cloud-Plattformen wollen Geld verdienen. Und das tun sie beispielsweise mit dem Verkauf von Kundendaten oder dem Schalten von Werbung.

Diese und weitere Maßnahmen sind wenig vertrauensbildend, speziell im professionellen Geschäftsumfeld, und sind daher für den sicheren Umgang mit sensiblen Daten ungeeignet. Zudem verstößt das ein oder andere Geschäftsgebaren dieser Cloud-Anbieter gegen geltendes Recht wie der DSGVO.

Sicherheit first: Verschlüsselung, Zwei-Faktor-Authentifizierung und mehr

Das Thema Sicherheit von Cloud-Daten ist ein äußerst umfassendes, was dieser Blogbeitrag nicht umfassend abbilden kann. Allerdings hilft es vor allem weniger erfahrenen Cloud-Anwendern, die wichtigsten Begriffe zu kennen, um diese besser einordnen zu können.

Ende-zu-Ende-Verschlüsselung: Damit ist eine „echte“ Verschlüsselung gemeint, also während des kompletten Datenaustauschs bzw. Speichervorgangs. Es werden also sowohl die Daten auf dem Cloud-Speicher als auch der Transportweg via Internet gegen unliebsame Zugriffe von außen gesichert. Hierbei kommt meist der AES-Algorithmus zum Einsatz. Für dessen Sicherheitsstufe gilt: Je größer die zugehörige Bit-Zahl ist, desto sicherer wird verschlüsselt.

Zwei-Faktor-Authentifizierung: Das Einwählen auf dem Cloud-Speicher wird immer per Kennwort abgesichert, was aber passiert, wenn dieses in die falschen Hände gerät?! Aus diesem Grund sollte am besten eine sogenannte Zwei-Faktor-Authentifizierung eingesetzt werden, bei der neben dem Kennwort eine zweite Sicherheitsstufe eingebaut ist. Das kann das Bestätigen des Login-Versuchs per E-Mail sein, oder am Smartphone wird ein Sicherheitscode darstellt, der in ein entsprechendes Feld eingetragen werden muss.

IT-Infrastruktur in Deutschland: Alleine schon wegen der Einhaltung gesetzlicher Vorschriften sollte der Cloud-Anbieter sein Rechenzentrum entweder in Deutschland oder in einem anderen europäischen Land betreiben.

Open-Source-Software: Was für Experten selbstverständlich ist, löst bei weniger versierten Anwendern möglicherweise ein Stirnrunzeln aus: Der Einsatz von Open-Source-Software, deren Quellcode also öffentlich zugänglich ist. Die Idee dahinter ist jedoch ganz simpel: Nur, wenn ich weiß, wie ein Software-Programm funktioniert, kann ich mir auch sicher sein, dass dort alles mit rechten Dingen zugeht. Daher bauen seriöse Cloud-Anbieter auf Open-Source-Programme wie zum Beispiel Seafile, das Daten auf dem lokalen Computer mit der Cloud-Umgebung synchronisiert.

Datenschutzkonforme Datenverarbeitung: In Zeiten von DSGVO und Co. ist sie fast schon eine Selbstverständlichkeit, die datenschutzkonforme Datenverarbeitung. Denn nur dann kann man sich auch sicher sein, dass die eigenen personenbezogenen Daten und die seiner Kunden auf dem Cloud-Speicher wirklich geschützt sind.

Funktionale Aspekte wie Backups und Snapshots sind ebenfalls wichtig

Neben diesen primären, sicherheitsrelevanten Merkmalen sollte der Cloud-Anbieter der Wahl auch funktionale Aspekte wie regelmäßige Backups, Blockversionierung und Snapshots berücksichtigen. Auf Basis dieser Sicherheitsvorkehrungen kann gewährleistet werden, dass die eigenen Daten in den allerbesten Händen sind und selbst eine technische Störung auf Anwenderseite nicht sämtliche Daten im Nirvana verschwinden lässt.

luckycloud History- und Snapshot-Funktionen

Disclaimer: Diesen Blogbeitrag habe ich im Auftrag von luckycloud erstellt und veröffentlicht.

Gero Dieckmann über die SVA GmbH auf der CEBIT 2018

Gero Dieckmann über die SVA GmbH auf der CEBIT 2018

Dieses Videointerview mit Gero Dieckmann habe ich im Auftrag der SVA GmbH geführt. Darin spricht er über den Gesamtauftritt der SVA auf der CEBIT 2018, über den Slogan „IT back on Track“ und wie die „neue“ CEBIT bei der SVA ankommt.

Das verbirgt sich hinter dem Slogan „IT back on Track“

Diesen Slogan bewertet die SVA als eine Art Provokation, denn wenn „IT wieder auf Spur“ läuft, muss sie ja erst einmal davon abgekommen sein. So interpretiert die SVA den Einsatz von traditionellen IT-Umgebungen, auf die viele ihrer Kunden gesetzt haben bzw. immer noch setzen. So werden nämlich die zunehmenden Forderungen seitens der Fachabteilungen nach neuen Diensten wie S3-Services via Amazon Web Services, Google oder SoftLayer ignoriert. Und genau das können sich viele Unternehmen einfach nicht mehr leisten.

Das führt zu einer Art Schatten-IT, die zur Konsequenz haben kann, dass Daten via Dropbox und anderen nicht-autorisierten Cloud-Diensten Unternehmen verlassen, was vor allem in Zeiten von DSGVO und Co. äußerst unangenehme Folgen nach sich ziehen kann. Daher hat die SVA für seine Kunden (und andere Unternehmen) einen Weg gesucht und gefunden, wie das IT-Management benötigte und gewünschte Cloud-Services künftig mit geringem Aufwand bereitstellen kann.

Die Lösung hierfür ist ein umfassendes Multi-Cloud-Management, was das Speicher und Bereitstellen von Daten sowohl on-premise (direkt auf dem Server des Kunden) als auch off-premise (in der eigenen Cloud-Umgebung) ermöglicht. Und das so sicher und zuverlässig wie eben nur möglich. Realisiert wird dieser Ansatz mithilfe aktueller Techniken wie Docker, Container, Kubernetes und Helm, und das alles auf Basis der IBM Private Cloud-Plattform.

Diese CEBIT-Highlights hatte die SVA im Gepäck

Klar, dass als erstes die Anki Overdrive-Rennbahn am SVA-Stand im IBM-Pavillon ins Auge stach, die eine Vielzahl von Besuchern genau dorthin lockte. Interessanterweise haben diesen Jungentraum technisch versierte SVA-Mitbarbeiter selbst in tagelanger Arbeit selbst konzipiert, aufgebaut und zum Laufen gebracht. Eine echte Meisterleistung, wie ich finde.

Doch die die Spielzeugrennbahn war nicht nur Eye-Catcher, sondern sollte auch den gerade vorgestellten Slogan „IT back on Track“ visualisieren. So stellte jedes der kleinen Rennwagen einen bestimmten IT-/Cloud-Service dar,  die sich dank der verbauten Leitplanken an Geschäftsprozessen orientieren können und so in der Spur gehalten werden. Die Leitplanken selbst werden von der IT-Abteilung vorgegeben.

Das Ziel, das damit erreicht werden soll, ist das Umgehen so genannter Phantomstaus, die dazu führen können, dass die IT-Abteilung technische Engpässe zulässt, da diese nicht rechtzeitig erkannt werden und so Innovationstaus innerhalb der Firmen-IT entstehen.

Die SVA nimmt die Veränderungen der „neuen“ CEBIT durchaus positiv wahr

Laut Gero Dieckmann sind die Veränderungen der neuen CEBIT viel mehr als nur deren neue Schreibweise. Das macht sich unter anderem in einem neuen, angepassten Standkonzept der IBM bemerkbar, von dem die SVA als einer der größten IBM-Partner maßgeblich profitiert hat. Das hat unter anderem mit dem Umzug von der „alten“ Halle 2 in die großen, modernen Pavillons zu tun (ein Relikt der Weltausstellung EXPO 2000), in denen sich neue Konzepte und neue Ideen besser darstellen ließen als bisher.

Aber auch neue Fachbesucher schien die neue CEBIT anzulocken, wie man Gero Dieckmanns Worten entnehmen kann. So kamen nämlich nicht nur die bekannten IT-Entscheider und Geschäftsführer im dunklen Zweireiher auf diese Messe, sondern auch Software-Entwickler, Projektmanager sowie Marketing- und PR-Experten wollten sich bei der SVA über das Thema Multi-Cloud-Umgebungen und Co. informieren. Zudem waren die zahlreichen Gespräche mit potenziellen Kandidaten für die SVA sehr wertvoll auf der CEBIT 2018, da das Systemhaus aus Wiesbaden kontinuierlich wächst und immer wieder neues Personal braucht.

Damit stand für Herrn Dieckmann relativ schnell fest: Die SVA GmbH ist wohl auch 2019 wieder auf der CEBIT vertreten. Und dann vielleicht wieder mit solch einem schönen Gespräch wie diesem hier!