DSAG-Kongress 2018

Mit Axians auf dem DSAG-Kongress 2018: vPack für SAP HANA-Cloud

„Business ohne Grenzen – Architektur der Zukunft“, so lautete das Motto des diesjährigen Jahreskongress der deutschsprachigen SAP-Anwendergruppe e.V. (DSAG). Neben dem Teilnehmerrekord mit über 5.000 interessierten Besuchern zählten sicherlich die über 300 Fachvorträge zu den Highlights der Veranstaltung im schönen Leipzig.

Im Zentrum des Geschehens stand unter anderem das Thema Digitalisierung, das im Vorfeld des Events per Umfrage der DSAG abgeklopft wurde. So bestätigten darin mehr als ein Drittel der Befragten, dass sie sich durchaus gut vorbereitet sehen in Sachen digitale Prozesse und Arbeitsabläufe.

SAP-Architektur der Zukunft: HANA, oder was?

Eines der Themen auf dem DSAG-Kongress lautet: Wie sieht die SAP-Architektur der Zukunft aus, was können also alternative Betriebsmodelle zu HANA sein.

S4/HANA setzen rund 78 Prozent der DSAG-Mitgliedsunternehmen ein, was die enorme Relevanz dieser Plattform belegt. Trotzdem sind sich nur rund 41 Prozent der Befragten sicher, dass sie die Businesssuite bis 2025 durch ein alternatives Modell ablösen werden. Die Umfrage zeigt zudem, dass neben den bekannten Applikationsthemen die IT-Infrastruktur eine große Rolle spielt. Allerdings haben viele der befragten Unternehmen noch keine Entscheidung darüber getroffen, ob sie in die Enterprise Cloud von SAP oder in eine alternative Public Cloud migrieren.

Darum prüfe, wer sich an die SAP-Cloud binde

Naheliegend dabei ist natürlich, den Quasi-Standard von SAP zu nutzen. Wer diese Möglichkeit prüft, stößt jedoch auf einige Herausforderungen. Dazu gehört zum Beispiel die Sicherstellung eines wirtschaftlichen Betriebs, aber auch die Komplexität der Migration ist nicht zu unterschätzen. Darüber hinaus hält das oft diskutierte Public-Cloud-Thema viele Unternehmen vom Gang in die HANA Enterprise Cloud ab. So scheuen sich viele IT-Verantwortliche davor, unternehmenskritische Daten auf einer geteilten Infrastruktur zu verarbeiten. Warum also nicht die Infrastruktur gleich selbst aufbauen?

Das mag für zahlreiche Anwender ein verlockender Gedanke sein, allerdings ist hierbei darauf zu achten, dass die Infrastruktur-Komponenten komplett von SAP zertifiziert sein müssen. Ansonsten kann später möglicherweise der SAP-Support nicht in vollem Umfang in Anspruch genommen werden. Hinzu kommt, die benötigte Hardware in der richtigen „Größe“ auszuwählen. Denn überdimensionierte Infrastrukturen verursachen zu hohe Anschaffungskosten. Daher ist es empfehlenswert, auf ein flexibel skalierbares Modell zu setzen, bei dem man zunächst „klein“ anfängt, das dann sukzessive wachsen kann. 

Wie sich dieser Herausforderung sinnvoll begegnen lässt, zeigte das IT-Haus Axians. Die eigens hierfür entwickelte Lösung vPack ist für SAP HANA und S/4 HANA zertifiziert und bietet in drei Ausprägungen die Möglichkeit, eine dediziert skalierbare Infrastruktur aufzubauen.

SAP HANA als Managed Private Cloud im Rechenzentrum

Diese Lösung ist für den Betrieb von SAP-Produktivsystemen konzipiert und wird anhand der individuellen Unternehmensanforderungen dimensioniert. Die Hardware steht im Rechenzentrum des Anwenderunternehmens. Es handelt sich also um eine reine Private Cloud, die Axians vollständig remote administriert. Für die Anschaffung zahlt das Anwenderunternehmen nichts – berechnet wird lediglich ein monatlicher Basispreis für eine Mindestmenge an CPU-Rechenzeit sowie für den benötigten Arbeits- und Festplattenspeicher. Damit werden CAPEX zu OPEX, also aus Anlageinvestitionen reine Betriebskosten, was sich natürlich günstig auf die Bilanz eines Unternehmens auswirken kann.

Darüber hinaus werden die Ressourcen nutzungsbasiert abgerechnet. Diese Lösung ist also äußert flexibel und skalierbar und kombiniert die Bezahlmodalitäten einer Public Cloud mit der Sicherheit einer Private Cloud, da sich die Daten zu jeder Zeit ausschließlich im Unternehmen befinden.

SAP HANA als Managed Hosted Private Cloud

Diese Variante baut auf der vorherigen auf und sieht zusätzlich eine voll zertifizierte Backup-as-a-Service-Anbindung vor. Die Hardware steht nicht beim Anwender selbst, sondern als Private Cloud bei einem Colocator.  Somit bietet diese Lösung den Vorteil eines vollumfänglichen Disaster Recovery-Ansatzes, ohne dabei einen weiteren eigenen Standort einbinden zu müssen.

SAP HANA als Managed Hosted Hybrid Cloud

Diese vPack-Variante basiert auf den beiden vorherigen Optionen. Hier steht die Lösung ebenfalls bei einem Colocator und die Überwachung übernimmt Axians. Zusätzlich zum Produktivsystem auf der Private Cloud und einem Backup as a Service lassen sich ergänzend Entwicklungssysteme und weitere Workloads auf der Shared-Plattform von Axians über eine Public Cloud betreiben.

Zur eigenen vPack-SAP-HANA-Cloud in nur 45 Tagen

Der IT-Dienstleister konfektioniert vPack anhand der individuellen Anforderungen des Anwenders. Von der Beauftragung bis zur Inbetriebnahme der individualisierten Lösung vergehen maximal 45 Tage. Es fallen keine Anschaffungskosten an, und vPack lässt sich per Plug & Play unkompliziert starten. Das IT-Haus gewährleistet eine Verfügbarkeit von mindestens 99,95% Prozent, während die Abrechnung nach Verbrauch die Kosten für jede einzelne virtuelle Maschine transparent macht. Bei der gemanagten Lösung steht den Anwendern 24 Stunden an sieben Tagen in der Woche eine deutschsprachige Hotline zur Verfügung. 

Mit diesem Ansatz kommt der Anbieter den Forderungen der SAP-Community nach, die nach Alternativen für die ERP-Transformation sucht. Hierbei will vPack die Anwender als Infrastrukturumgebung unterstützen. Praktischerweise erleichtert die integrierte Management-Oberfläche den Umgang mit der Umgebung. Axians bietet vPack als OPEX-basiertes Gesamtpaket an. Es enthält die Infrastruktur inklusive Software als auch integrierte Managed Services für Plattform, Hypervisior und Betriebssystem bis hin zur SAP-Basis.

Diese Ansätze und alternativen Modelle stießen laut Axians während des Kongresse bei den Teilnehmern und Anwendern auf große Zustimmung.

Linktipps:

Disclaimer: Dieser Blogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Wilfried Cleres, Fujitsu Deutschland

Videoblog: „Die KI im Rechenzentrum erkennt Anomalien schon im Voraus“

Dieses Videointerview habe ich mit Wilfried Cleres von Fujitsu und Wolfram Muehlboeck von CA Technologies auf dem Fujitsu Forum 2018 geführt. Thema war der Einsatz der Künstlichen Intelligenz im Rechenzentrum und wo es dort bereits sinnvoll genutzt werden kann.

Die KI sorgt für „vorausschauende Rechenzentren“

Die KI im Rechenzentrum scheint den Kinderschuhen zu entwachsen und kommt immer öfter auch in Produktivsystemen zum Einsatz. So gibt es beispielsweise eine Software, die sich Mainframe Operational Intelligence nennt. Diese KI-Software erfasst kontinuierlich den riesigen Datenstrom eines Rechenzentrums und lernt damit nach und nach, Anomalien im RZ selbstständig zu erkennen und davor rechtzeitig zu warnen.

Praktische Anwendung der KI im Rechenzentrum

Anhand der zahlreichen Metriken, die in einem Rechenzentrum anfallen, vermag die KI-Software anhand des Zeitablaufs das „normale“ Verhalten sämtlicher Parameter von „auffälligen“ Situationen zu unterscheiden. Das gelingt vor allem wegen der möglichen Korrelationen der vorhandenen Werte zueinander, woraus sich eine immer bessere Vorhersage eines möglichen Hardware-Defekts oder zu erwartenden Netzwerkproblems ergibt. Davon lassen sich natürlich eine Vielzahl an möglichen Reaktionen ableiten: Von der E-Mail-Warnung bis hin zur automatischen Fehlerbehebung ist so ziemlich alles denkbar.

Das Verständnis für die KI im Rechenzentrum sollte verbessert werden

Da es sich bei der KI im Rechenzentrum ja immer noch um eine sehr junge Disziplin handelt, gilt ein besonderes Augenmerk der Bewusstsein-Schaffung für die Möglichkeiten der Künstlichen Intelligenz. Denn nur anhand probater und sinnvoller Einsatzszenarien und -möglichkeiten lassen sich die Anwender eines Rechenzentrums auch von der Sinnhaftigkeit der KI in ihrem Umfeld überzeugen. Denn auch hier gilt: Die KI will keine Arbeitsplätze wegnehmen, sondern diese sichern und neu schaffen.

Das komplette Interview zur KI im Rechenzentrum

Uwe Scheuber, Fujitsu Deutschland

Videoblog: “ Mit unseren Management-Tools gelingt der Umstieg in die Multi-Cloud“

Dem Thema Multi-Cloud begegnet man allerorten, also auch auf dem diesjährigen Fujitsu Forum, auf dem ich zum zweiten Mal dabei sein durfte.

Dort habe ich das nachfolgende Interview mit einem der Fujitsu-Experten zum Thema Cloud geführt, nämlich mit Uwe Scheuber, seines Zeichens Director Cloud & Hybrid IT. Von ihm wollte ich wissen, was seine Kunden zum Thema Cloud gerade umtreibt, wie Fujitsu seine Kunden beim Gang in die Multi-Cloud unterstützt, wie die Migration in die Multi-Cloud aussehen kann und wie es Fujitsu schafft, in Multi-Cloud-Projekten als „Single Point of Contact“ wahrgenommen zu werden.

Firmen gehen gerade vermehrt in mehrere Cloud-Umgebungen

Der Trend zur Multi-Cloud hält an, keine Frage. Dass hierbei Fujitsu seine Kunden berät und unterstützt, ist ja wohl klar. Und das sowohl im Bezug auf Public als auch auf Private Clouds. Hierfür hat Fujitsu ein Software-Tool entwickelt, das sich Fujitsu Cloud Services Management nennt. Damit führt Fujitsu mehrere Cloud-Plattform unter einer Bedieneroberfläche zusammen und schafft es so, Microsoft Azure, Amazon AWS, Google Cloud, Oracle Cloud, VMware Cloud und viele andere in eine Multi-Cloud zu migrieren.

Das birgt zwei wesentliche Vorteile in sich: Vorhandene Workloads können beinahe beliebig von einer Cloud-Plattform auf die andere verschoben werden, und die Kosten lassen sich damit wesentlich einfacher transparent machen.

Multi-Cloud-Migration in der Praxis mit Fujitsu

Selbst mit großen Private-Cloud-Installationen, bestehend aus 3.500 virtuellen Azure-Instanzen und virtuellen VMware-Instanzen im eigenen Rechenzentrum, lassen sich diese riesigen Infrastrukturen mithilfe des Fujitsu Cloud Services Management nahezu nahtlos beispielsweise in eine Amazon Web Services-Umgebung überführen und verwalten.

Für Kunden wichtig: „Single Point of Contact“

Klar, dass sich bei der eigenen Multi-Cloud-Strategie irgendwann die Frage stellt: Wer ist eigentlich mein direkter Ansprechpartner? Google? Microsoft? Amazon? Oder gar alle zusammen. Um genau diese Unklarheiten erst gar nicht entstehen zu lassen, hat Fujitsu mit allen großen Cloud-Providern Verträge abgeschlossen, die das Unternehmen als Vertragspartner gegenüber den eigenen Kunden auftreten lassen. Damit stellt Fujitsu für seine Multi-Cloud-Kunden den alleinigen Ansprechpartner dar, wenn es um Fragen zur Migration der einzelnen Cloud-Dienste geht.

Das komplette Interview mit Uwe Scheuber

 

Christian Beedgen, CTO und Mitgründer vomn Sumo Logic

Videoblog: „Unsere Monitoring Services sorgen für bessere Server und Apps“

Seit der Gründung seiner Firma Sumo Logic im Jahre 2010 beschäftigt sich Christian Beedgen mit dieser einen entscheidenden Frage: Wie schaffen wir es, die Webserver und -anwendungen dieser Welt ein bisschen sicherer und zuverlässiger zu machen? Die Antwort finden seine Kunden wie AirBnb, Adobe und viele andere in den Monitoring Services seines Unternehmens.

Genau darüber durfte ich mit Christian vergangenen Freitag in München reden. Herausgekommen ist das nachfolgende Interview, in dem ich so manch Wissenswertes zum Thema Monitoring erfahren habe.

Sumo Logic betreibt Log Management „as a Service“

Sumo Logic betrachte ihre Monitoring Management-Lösung als „Software as a Service“, was dem Ganzen wohl ziemlich nahe kommt. Damit lassen sich sowohl Anwendungen als auch komplette Server überwachen. Und natürlich kann Sumo Logic auch auftretende Fehler lokalisieren und beheben.

Der Vorteil für die Kunden liegt auf der Hand: Anstatt mithilfe eines dedizierten Servers oder einer speziellen Anwendung im Hintergrund sämtliche Aktivitäten selbst zu beobachten (wie das zum Beispiel mit Paessler-Tools der Fall ist) , übernimmt Sumo Logic diese Aufgabe für seine Kunden, und das ohne jegliche Software-Installation. Okay, ein kleiner Agent muss einmal beim Anwender installiert werden. Das kann aber sogar der Kunde selbst erledigen, womit er die Kontrolle darüber behält, wo der Agent läuft und was er an Daten nach draußen schicken darf.

Praktisch an diesem Monitoring-Service ist auch die mögliche Skalierung, die bei Sumo Logic direkt auf dem Cloud-Server vorgenommen wird. Damit spielt es keine Rolle, ob ein, zwei oder mehr Rechner bzw. Anwendungen oder Dienste überwacht werden sollen. Diese kann das Unternehmen von Christian Beedgen beliebig dazu schalten, je nachdem, was der installierte Agent vorsieht.

Log-Daten helfen bei der Überwachung von Webservern und -applikationen

Gerade für Unternehmen wie AirBnB oder Adobe steht ein wesentliches Merkmal im Vordergrund des unternehmerischen Tuns: Die permanente Verfügbarkeit ihrer Webserver, auf denen ihre Kunden 24/7 unterwegs sind und sich informieren und buchen und Inhalte auf den Rechner laden. Da können Wartezeiten von wenigen Sekunden schon zu einem Transaktionsabbruch des Kunden führen. Und genau hier setzt Sumo Logic mit seinen Services an. Denn jeder noch so kleine „Schluckauf“ eines Webservers oder unvorhergesehene Komplikationen werden identifiziert und möglichst schnell behoben.

Sumo Logic überwacht Anwendungen und Webserver auf Anomalien hin

Doch nicht nur das unnatürliche Verhalten von Webservern steht bei Sumo Logic im Fokus. So kann das Unternehmen mithilfe seines Monitoring genau sehen, wer sich auf den überwachten Servern anmeldet, was er dort tut, und so fort. Treten dabei Unregelmäßigkeiten auf, kann darauf sofort reagiert und die entsprechenden Maßnahmen eingeleitet werden. Das betrifft übrigens auch den Zugriff auf Applikation innerhalb des Netzwerks, da auch hier Bedrohungen lauern.

Was die Sumo Logic-Studie zeigt

Eine von Sumo Logic in Auftrag gegebene Untersuchung der aktuellen Kundenstruktur zeigt dreierlei: Multi-Cloud-Umgebungen nehmen zu und Lambda-Funktionen erfreuen sich immer größerer Beliebtheit, was sich auch über Container-Techniken wie Kubernetes & Co. sagen lässt. Was natürlich mittel- und unmittelbare Auswirkungen auf die Monitoring Services von Sumo Logic hat.

Das vollständige Videointerview mit Christian Beedgen von Sumo Logic

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit Eloquenza PR entstanden.

Philipp Bohn über das Unify UCC-Tool Circuit

Videoblog: „Circuit ist eine offene UCC-Plattform, und zwar Made in Germany“

Dieses Videointerview habe ich mit Philipp Bohn von der Firma Unify/Atos geführt. Darin spricht er über die Besonderheiten des UCC-Tools Circuit, welche Chancen ein Kommunikations- und Kollaborationswerkzeug wie Circuit bietet, welche Hürden bei der Implementierung zu überwinden sind und was von der UCC-Plattform künftig noch zu erwarten ist.

Das macht Circuit anders als andere UCC-Tools

Circuit unterscheidet sich vor allem in drei wesentlichen Aspekten von anderen, vergleichbaren UCC-Tools (Slack, etc.):

Eine Applikation für alle Kommunikationskanäle: Egal, ob Video- oder Audiochat, ob Screen- oder Dokumenten-Sharing – Circuit vereint all seine Kommunikations- und Kollaborationsmöglichkeiten unter einer gemeinsamen Bedieneroberfläche.

Offene Plattform: Mithilfe zahlreicher Schnittstellen bietet Unify mit Circuit zahlreiche Verbindungen von und zu externen Anwendungen, sodass sich das UCC-Tool in ganz unterschiedlichen Ausprägungen und zu unterschiedlichen Zwecken in zahlreichen Applikationen wiederfindet.

Skalierbare Kommunikation: Circuit ist eine leistungsfähige Plattform, mit deren Hilfe bis zu 300 Teilnehmer an einer einzigen Video- oder Audiokonferenz teilnehmen können. Das ist speziell für größere Firmen sehr relevant und ein häufiger Anwendungsfall.

Circuit bietet zahlreiche Chancen und Möglichkeiten

Circuit bietet zahlreiche Features, mit denen sich ganz unterschiedliche Dinge und Aufgaben erledigen lassen. Dazu gehört zuvorderst die virtuelle Kollaboration, also das Teamwork über geografische Grenzen hinweg. Denn egal, ob im Büro oder Zuhause oder auf Reisen, stets bietet Circuit die passende Verbindung zum Arbeitsplatz inklusive aller Daten und Dokumente. Das geht dann soweit, dass ein Videocall am PC gestartet und dann im Zug oder Auto per mobiler App fortgesetzt werden kann.

Klar ist aber auch, dass eine Plattform wie Circuit eine leistungsfähige Infrastruktur und möglichst aktuelle Endgeräte erfordert. Andernfalls kann das UCC-Tool nicht in dem Maße genutzt werden, wie es eigentlich möglich ist.

Unify hat mit Circuit noch viele Erweiterungen vor

Vor allem die Integration in externe Plattformen und Anwendungen steht bei Unify in Sachen Circuit ganz weit oben auf der Agenda. Das zeigt sich unter anderem an der Kooperation mit Zapier, wo schon zahlreiche Verknüpfungen zwischen Circuit und anderen Internetanwendungen bestehen und Anwender sogar eigene Mini-Anwendungen „bauen“ können, und das ohne größeren Programmieraufwand.

Circuit ist in Plattformen wie Zapier integriert

Aber auch das Thema Telefonie nimmt Unify im Kontext von Circuit sehr ernst, da in diesem Bereich eine möglichst hohe Integration der firmeninternen Telefonanlage in die UCC-Umgebung gerade hierzulande für viele Unternehmen immer noch sehr wichtig ist.

Doch nicht nur in Software, sondern auch in Hardware will und wird Unify künftig investieren. Dazu gehört das PC-basierte Produkt Circuit Meetingroom, mit dessen Hilfe vor allem die Videotelefonie deutlich besser funktionieren soll.

Mit Circut Meetingroom holt von sich Videokonferenzen auf den Schreibtisch

Darüber hinaus investiert Unify in eine noch deutlich bessere Skalierbarkeit ihrer UCC-Plattform. So bietet Circuit Events bis zu 1.000 Anwendern gleichzeitig die Möglichkeit, an Webinar-ähnlichen Videokonferenzen teilzunehmen.

Das Interview mit Philipp Bohn in voller Länge

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden.

Udo Schneider von Trend Micro auf der it-sa 2018

Videoblog: „Apex One ist eine Oberfläche für alle Tools“

Dieses Interview habe ich mit Udo Schneider von Trend Micro auf der it-sa 2018 geführt. Darin stellt er die brandneue Security-Lösung Apex One vor, zählt auf, was Trend Micro anders macht als andere Sicherheitsfirmen und nennt seine persönlichen Top-3-Tipps in Sachen Endpoint-Security.

Apex One von Trend Micro: EIN Tool für alle Sicherheitsmaßnahmen

Mit Apex One hat Trend Micro seine neue EDR-Lösungen vorgestellt (EDR steht für Endpoint Detection and Response). In diesem neuen Produkt sind alle Endpoint-Techniken von Trend Micro eingeflossen, was vor allem für den Endanwender den großen Vorteil bringt, sämtliche Sicherheitsmerkmale über eine einzige Bedieneroberfläche abrufen und steuern zu können.

Das Aggregieren der vorhandenen Security-Tools innerhalb des Unternehmens auf Basis von Apex One bedeutet aber auch das Aggregieren sämtlicher Daten, die dort zusammenlaufen. Und das bedeutet wiederum bessere Vorhersagen hinsichtlich möglicher Angriffsszenarien und bessere Automatisierungsmöglichkeiten. Das betrifft sowohl die Integration in ein SOC als auch die Integration einer Third-Party-Lösung in Apex One.

Damit unterscheidet sich Trend Micro von seinen Mitbewerbern

30 Jahre Security-Erfahrung, das macht natürlich eine Menge aus, wenn man den Markt ingesamt betrachtet. Ob das die Erfahrung der Mitarbeiter betrifft oder die zum Einsatz kommenden Technologien oder das Wissen rund um das Thema IT-Sicherheit – vor allem damit steht Trend Micro ganz weit vorne.

Darüber hinaus werden Logdateien so ausgewertet und aufbereitet, dass auch der eher unbedarfte Anwender auf einen Blick sehen kann, wo es klemmt oder wo gerade mögliche Angriffsziele lauern – und wie sich die zugehörigen Lücken und Schwachstellen schließen lassen. Aber auch mit der bereits erwähnten Integration eigener Security-Lösungen in Applikationen von externen Anbietern unterscheidet Trend Micro von anderen Anbietern.

Drei Tipps in Sachen Endpoint-Sicherheit

Geradezu banal mutet der erste Tipp an: Regelmäßig sämtliche Endpoint-Systeme patchen, und das entweder direkt am System selbst oder in Form eines virtuellen Abwehrschilds.

Der zweite Tipp ist weniger trivial. Hierbei geht es um das Identifizieren sogenannter Einfallsvektoren, also sämtlicher Bedrohungsszenarien von außen (und innen) und wie man sich dagegen wirksam schützen kann.

Darauf setzt auch der dritte Tipp auf: Sämtliche Endpoints sind regelmäßig zu überwachen, nur so kann ich sie auch bestmöglich schützen. Damit lässt sich zuverlässig feststellen, was zum „Grundrauschen“ gehört und was tatsächlich einen Cyberangriff darstellt.

Das komplette Interview mit Udo Schneider

Disclaimer: Für diesen Videoblogbeitrag hat mich Trend Micro beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

Rüdiger Frank von Arcserve auf der it-sa 2018

Videoblog: „Die Zusammenarbeit mit dem Channel ist essentiell für Arcserve“

Dieses Interview habe ich mit Rüdiger Frank von der Firma Arcserve auf der it-sa 2018 geführt. Darin spricht er über die Rolle der Arcserve Channel Partner und über die Maßnahmen seitens Arcserve, die deutschsprachige Region weiter zu stärken.

Arcserve Channel Partner sind ein immens wichtiger Baustein

Wenn ein Unternehmen wie Arcserve zu 100 Prozent auf den Channel als Vertriebskanal setzt, spielen die Business Partner, die darin involviert sind, eine zentrale Rolle. Denn sie übernehmen gemeinsam mit Arcserve vielseitige Aufgaben, die im Fokus des Arcserve’schen Geschäftsmodells stehen. Dazu gehören Dinge wie die Akquise neuer Kunden und neuer Projekte sowie die intensive Beratung der Kunden bis hin zur Implementierung der gewählten Lösung beim Kunden selbst.

Damit kommt der Qualität der Zusammenarbeit ein entscheidender Faktor bei. Dazu gehört eine adäquate Betreuung der Channel Partner, aber auch die Güte der Gewinnspannen, die für Business Partner entsprechend lukrativ sein sollten. Und das sind sie im Falle von Arcserve, was ich auf der it-sa so gehört habe.

Arcserve stärkt die DACH-Region mit lukrativen Maßnahmen

Um eine möglichst lückenlose und sehr gute Betreuung der Channel Partner gewährleisten zu können, ergreift Arcserve aktuell diverse Maßnahmen. Dazu gehören beispielsweise zwei neue Field Sales-Mitarbeiter für den Außendienst, die sich vor Ort um die Geschäftspartner kümmern sollen. Aber auch ein Pre-Sales-Consultant ist neu an Bord, der das Vertriebsteam entsprechend unterstützt.

Darüber hinaus verstärkt Arcserve den deutschsprachigen Telefonsupport für den Channel, und das in Form von vier neuen Supportmitarbeitern, die sich intensiv um die technischen Belange der Arcserve Business Partner kümmern.

Daneben sucht Arcserve mit ausgewählten Vertriebsaktionen neue und bessere Anreize für mehr Absatz zu schaffen. Dazu zählt beispielsweise eine Promotionsaktion, bei der es zu jeder Hardware-Appliance für Endkunden eine zweite Maschine dazu gibt, und das ohne weitere Kosten. Hinzu kommt ein kostenfreier Wartungsvertrag, der auf drei Jahre angelegt ist. Kein Wunder, dass Arcserve mit diesem Angebot eine Menge Aufmerksamkeit am Markt und sehr gute Umsätze erzielen kann.

Das komplette Interview mit Rüdiger Frank

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von Arcservce verfasst.

Kai Steinbach von Arcserve auf der it-sa 2018

Videoblog: „Cloud Computing spielt bei Arcserve eine zentrale Rolle“

Dieses Interview habe ich mit Kai Steinbach von der Firma Arcserve auf der it-sa 2018 geführt. Darin spricht er darüber, wofür das Unternehmen steht und welche Rolle das Thema Cloud Computing für Arcserve spielt.

Arcserve steht für Datensicherheit und Business Continuity

Im Vordergrund aller Arcserve-Aktivitäten steht das Thema Datensicherheit. Denn zum Geschäftsmodell des Unternehmens stehen Aspekte wie Wiederherstellung von Daten, Business Continuity, Hochverfügbarkeit, und so fort. Stets hat Arcsercve dabei die Daten ihrer Kunden und den permanenten und sicheren Zugriff und diese im Auge, egal, welchen unvorhergesehenen Ereignissen die Daten ausgesetzt sind. Das können korrumpierte Daten wegen eines Platten- oder Serverausfalls genauso sein wie der Bedienfehler eines Anwender und den daraus resultierenden Datenverlusts durch versehentliches Löschen oder ähnliches. Und natürlich kann es im Worst Case-Fall auch ein Brand im Unternehmen sein, der den gesamten Datenbestand ohne die richtigen Maßnahmen bedrohen würde.

Cloud Computing, ein wichtiger Baustein für Arcserve

Gerade für kleinere und mittelgroße Unternehmen stellt eine Disaster-Recovery-Lösung auf Cloud-Basis eine optimale Lösung dar, ohne größeren technischen und finanziellen Aufwand eine zuverlässige Backup- und Restore-Strategie verfolgen zu können. Damit steht eine IT-Infrastruktur zur Verfügung, die permanent gegen mögliche Ausfälle geschützt ist. Hierbei steht es dem Kunden natürlich frei, ob er nur einzelne Systeme oder gleich seine komplette Server- und Storage-Umgebung innerhalb einer Cloud-Infrastruktur gegen Datenverlust absichert.

Und dann gibt es Unternehmen, die sich bereits für eine Mischform aus On-Premise- und Cloud-System entschieden haben, also den hybriden Ansatz verfolgen. Für diese Zielgruppe ist es ebenfalls immanent wichtig, dass der gewählte Backup- und Restore-Ansatz über beide Plattformen hinweg einheitlich funktioniert. Denn gerade bei der Migration in die Cloud funktionieren in vielen Fällen die bisher gewählten Datensicherungskonzept und -lösungen nicht mehr zuverlässig. Und genau hierfür sorgt Arcserve mit seinen erprobten Backup und Recovery-Ansätzen.

Das komplette Interview mit Kai Steinbach

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von Arcservce verfasst.

Michel Paulin auf dem OVH-Summit 2018

Videoblog: „Für uns ist die Cloud eine Open-Source-Plattform“

Dieses Videointerview habe ich mit Michel Paulin, CEO von OVH, während des großen OVH-Summit geführt. Darin spricht er über die Abkürzung S.M.A.R.T, erklärt die Bedeutung des OVH-Summit für sein Unternehmen und zeigt auf, was es mit den vier neu geschaffenen OVH-Universen auf sich hat.

Mit SMART geht OVH neue Cloud-Wege

Während seines Keynote-Vortrags sprach Michel Paulin über den Begriff „SMART“, der in diesem Fall für eine Abkürzung steht, die folgendes bedeutet:

„S“ wie Simple: Hierfür steht das Bestreben seitens OVH, das Migrieren von On-Premise-Anwendungen in die Cloud so einfach und simpel wie möglich zu machen, und das mit den passenden Tools und Prozessen.

„M“ wie Multilocal: OVH ist zwar ein global operierendes Unternehmen, versteht sich aber trotzdem als lokal fungierender Cloud-Provider, der seine Kunden genau dort betreuen und unterstützen will, wo diese ihren Sitz haben. Das geschieht in vielen Fällen gemeinsam mit lokalen Partnerunternehmen.

„A“ wie Accessible: Die OVH-Cloud muss für jeden zugänglich sein, und das auf Basis vorhersagbarer Preise.

„R“ wie Reversable: Sich an den Grundsätzen der Open Cloud Foundation orientierend, basiert die OVH-Cloud auf Open-Source-Software. Damit will OVH sicherstellen, dass kein Kunde an proprietäre Lösungen gebunden ist, wenn er sich einmal für OVH entschieden hat.

„T“ wie Transparent: Mithilfe der größtmöglichen Transparenz will OVH vor allem eine Transparenz der Daten schaffen, die in Zeiten der DSGVO unumgänglich ist. Und das gilt für die eigenen Daten genauso wie die der OVH-Kunden.

Der OVH-Summit ist Treffpunkt für Kunden und Partner

Der alljährlich stattfindende OVH-Summit ist so etwas wie die Hausmesse des Unternehmens, auf der Kunden und Partner ihre Erfahrungen, Fragen und Wünsche rund um das OVH-Universum austauschen können. Auf diesem Weg kann OVH auch zeigen, wie wichtig Geschäftspartnerschaften für das Unternehmen sind – und umgekehrt. Und natürlich ist das OVH-Summit immer wieder eine gute Gelegenheit, neue Produkte, neue Dienste und neue Ideen vorzustellen.

OVH mal 4: Von klein bis ganz groß

Was auf dem OVH-Summit ebenfalls vorgestellt wurde, sind die neuen sogenannten OVH-Universen, da Kunden mittlerweile anders mit OVH interagieren und kommunizieren. Herausgekommen sind vier Bereiche:

OVHmarket, die digitale Austauschplattform für mittelgroße Unternehmen, auf der die Kunden all das von OVH bekommen, was für ihren Cloud-Auftritt notwendig ist.

OVHspirit, der „Hardware-Shop“ der OVH, in dem der neueste Server, die neueste Strorage-Appliance und andere Zutaten bereitstehen.

OVHstack, die Schnittstelle zur OVH-Cloud, und das auf Basis von offenen Software-Lösungen.

OVHenterprise, der „Shop“ für große und größere Unternehmen, die auf die gesamte Palette an Public-, Private- und Hybrid-basierten Cloud-Infrastrukturen und -Lösungen zugreifen wollen.

Das komplette Interview mit Michel Paulin

 

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit OVH Deutschland entstanden.

Alain Fiocco, CTO OVH

Videoblog: „Mit neuen Servern und mehr Bandbreite wollen wir unsere Kunden bestmöglich unterstützen“

Während des OVH-Summit in Paris habe ich dieses Interview mit CTO Alain Fiocco geführt. Dabei erklärt er, warum OVH die Bandbreite seiner Kundenserver verdoppelt hat, warum OVH so eng mit Intel zusammenarbeitet und welche neue Hardware OVH auf dem Summit vorgestellt hat.

Mehr Bandbreite fördert neue Möglichkeiten

Während des großen OVH-Summit, zu dem mich OVH freundlicherweise eingeladen hatte, konnte Alain Fiocco gleich mal mit einer guten Nachricht einsteigen:

Die Frage, die sich dabei stellte: Warum macht OVH das? Nun, das hat zwei wesentliche Gründe. Zum einen will OVH damit seinen Kunden mehr geschäftliche Möglichkeiten einräumen, denn mehr Bandbreite bedeutet immer auch eine Verbesserung der digitalen Optionen, die man als Firma vorfindet. Und das ist – speziell im Cloud-Umfeld – von essentieller Bedeutung. Damit gehen in vielen Fällen neue Geschäftsideen und -modelle einher, die für OVH ebenfalls eine wichtige Rolle spielen.

Und da OVH seine eigene Cloud-Infrastruktur mit eigenem Backbone betreibt, der mit zunehmender Größe des Unternehmens immer leistungsfähiger wird, lässt OVH seine Kunden am eigenen Wachstum teilhaben. So haben alle etwas davon.

Die enge Zusammenarbeit mit Intel hat gute Gründe

Auf der Bühne während der großen OVH-Summit-Keynote war auch Intel, und so ganz nebenbei wurde die langjährige Zusammenarbeit mit dem Chiphersteller erwähnt – was mich als Ex-Intelianer natürlich aufhorchen ließ.

Doch warum ist das so? Auch das lässt sich recht einfach erklären. Denn als Betreiber von leistungsfähigen Cloud-Infrastrukturen mit eigener Hard- und Software ist es für OVH von größter Bedeutung, die Pläne und Roadmaps des größten Prozessorherstellers der Welt zu kennen. Um darauf die eigenen Produktentwicklungen abstimmen zu können, und das lange, bevor der neue Prozessor oder eine neue CPU-Technik auf den Markt kommt.

Mit neuer Hardware geht es in die nächsten Monate

Klar, dass solch ein riesiger Event wie der OVH-Summit nicht ohne Ankündigungen vonstatten geht, und davon gab es so einige. Die wesentlichen Neuheiten, die Alain und sein Team in Paris präsentierten, betreffen drei Referenzserver, die künftig in den weltweiten Rechenzentren von OVH zum Einsatz kommen werden. Einer davon ist der HG 2019, der erhöhte Sicherheitsfeatures bietet und obendrein zuverlässig und schnell arbeitet.

In diesem Servermodell werkeln Prozessoren der Marke Intel Xeon Scalable inklusive Optane DC-Techniken. Damit wird OVH der erste Cloud-Provider in Europa sein, der dieses neue Technikgespann aus dem Hause Intel in seine Rechner verbaut. Damit sollen verstärkt Highend-Applikationen aus den Bereichen Big Data & Analytics ermöglicht werden. Und diesen Trend wird OVH in den nächsten Monaten massiv weiter vorantreiben.

Das vollständige Interview mit Alain Fiocco (auf Englisch)

Disclaimer: Dieser Videoblogpost ist in Zusammenarbeit mit OVH Deutschland entstanden.