Dirk Thometzek von Rohde & Schwarz über IBM Spectrum Scale und SpycerBoxen

[Videochat] „Mit IBM Spectrum Scale gehen keine Daten verloren – trotz Speicherwechsel“

Während der IBM Spectrum Scale Strategy Days 2018, für die mich IBM als Videoblogger engagiert hatte, durfte ich dieses Videointerview mit Dirk Thometzek führen, der bei Rohde & Schwarz für den Bereich Storage Solutions verantwortlich ist. Während der viereinhalb Minuten habe ich erfahren, über welche Themen Herr Thometzek während seines Vortrags auf dem IBM-Event gesprochen hat, warum die IBM Spectrum Scale-Technik in der SpycerBox-Serie von Rohde & Schwarz eingesetzt wird und was diese Storage-Appliances besser können als andere.

In seinem Vortrag sprach Herr Thometzek vor allem über die R&S SpycerBoxen, die von Rohde & Schwarz seit Ende 2017 in zwei Ausprägungen angeboten werden: als R&S SpycerBox Ultra TL und als R&S SpycerBox Cell. Allerdings war die Redundanz, die Spectrum Scale standardmäßig bietet, für spezielle SpycerBoxen-Anwendungen nicht ausreichend. Daher hat das Entwicklerteam von Rohde & Schwarz einen Software-Layer „gebaut“, der beim Video-Playout, also z.B. beim Ausstrahlen von Fernsehbildern, eine unterbrechungsfreie Datenübertragung garantiert. Auch davon handelte sein Vortrag.

Werbeclips müssen unterbrechungsfreie ausgestrahlt werden – dafür sorgt Rohde & Schwarz

So sprach er beispielsweise von Werbung, die einen immer höheren monetären Wert erfährt. So kostet beispielsweise ein 30-sekündiger Werbeclip während der Superbowl-Halbzeitpause rund 5 Millionen Dollar. Damit wird schnell klar, dass das Abreißen des zugehörigen Datenstroms unter monetären Aspekten ziemlich fatale Auswirkungen hätte. Der R&S-Layer, der für den unterbrechungsfreien Datenübertragung sorgt, basiert auf einer Technik, die sich Virtual Storage Access (VSA) nennt. Damit können zwei Storage-Cluster, die unabhängig voneinander arbeiten, wie ein einziger dargestellt und genutzt werden.

Mit IBM Spectrum Scale gehen keine Daten mehr verloren – trotz Speicherplatzwechsel

Doch warum kommt ausgerechnet IBM Spectrum Scale bei Rohe & Schwarz zum Einsatz? Nun, das ist vor allem der Tatsache geschuldet, dass in der Medienbranche zahlreiche Anwendungen eingesetzt werden, die unterschiedlichste Daten erzeugen, die wiederum auf unterschiedlichen Datenträgern gespeichert werden.  Daraus folgt in vielen Fällen ein wahres „Datenchaos“, das große Datensilos zur Folge hat. Dabei wird nicht unterschieden zwischen wichtigen Daten, also „Hot Data“, und weniger wichtigen Daten, also „Cold Data“. Vor allem die kalten, also weniger genutzten Daten, belegen oft teuren Datenspeicher, was eine ziemliche Verschwendung von kostbaren Ressourcen bedeutet.

Genau an dieser Stelle kommt IBM Spectrum Scale zum Einsatz. Denn mithilfe von Features wie „Global Name Space“ und „Information Lifecycle Management“ können Daten unterschiedlicher Storage-Pools für den Anwender unbemerkt verschoben werden, ohne dass sich die Zugriffspfade ändern. Folge: Daten liegen virtuell stets am gleichen Ort, obwohl sie zwischenzeitlich auf einem anderen Speicherelement „gelandet“ sein können, da sie vom teuren Speicher auf einen günstigeren transferiert wurden.

R&S SpycerBoxen genügen höchsten technischen Ansprüchen – bei der Datenraten und IOPS

In diesem Kontext wollte ich wissen, was die R&S SpycerBoxen besser machen als andere vergleichbare Lösungen. Hierbei verwies Herr Thometzek auf die langjährige Erfahrung von Rohde & Schwarz in den Bereichen Filmmastering und Videostreaming und die Anforderungen an Speicher in diesem Kontext. Da die erforderlichen Storage-Pools höchsten Leistungsanforderungen genügen müssen, die nicht jede Speicher-Hardware erfüllt, entschloss sich R&S dazu, den Video-Storage selbst zu bauen. Herausgekommen ist die SpycerBox-Familie, die ziemlich kompakte Maße aufweist, ohne dabei die erforderliche Leistung zu vernachlässigen.

So generiert beispielsweise ein 4K-Videostream problemlos einen Datenstrom von 4 bis 5 Gigabyte – pro Sekunde! Damit wird schnell klar, dass Video-Playout-Systeme echte Hochleistungssysteme sein müssen, und das zu einem überschaubaren Preis. Und genau dafür hat Rohde & Schwarz die passenden Produkte wie die SpycerBox Cell im Portfolio, die genau diesen Ansprüchen genügen.

Dirk Thometzek im Videonterview für IBM

Falls Sie die Erläuterungen von Herrn Thometzek höchstpersönlich anhören und -sehen möchten, empfehle ich dieses Videointerview. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

Dr. Axel Köster (IBM) über Cognitive Storage

[Video] Dr. Axel Köster von IBM über Cognitive Storage

Während des IBM Storage Strategy Day 2017 in Ehningen habe ich dieses Interview mit Dr. Axel Köster geführt. Darin spricht er über Cognitive Storage und was es damit auf sich hat. Er zeigt, welche Speichertechniken bereits „Cognitive-ready“ sind und was das IBM Watson IoT Center damit zu tun hat.

Zunächst einmal gilt festzuhalten, dass Herr Köster einen tollen Titel trägt, er ist nämlich Cheftechnologe des Europäischen Speicherkompetenzzentrums in Frankfurt/Main. Zudem ist er Chairman der IBM Technical Expert Council (TEC) im deutschsprachigen Raum.

Von „Cognitive Storage“ und IBM Watson

Meine erste Frage führte mich direkt zum Thema des Interviews, was denn „Cognitive Storage“ sei. Dabei handelt es sich laut Herrn Köster um eine zweigeteilte Technologie: Einerseits handele es sich um hochparalellen Speicher für die kognitiven Algorithmen, die dafür sorgen, dass kognitive Systeme wie IBM Watson  überhaupt arbeiten können.

Zum anderen stehen diese Algorithmen auch für Storage-Systeme zur Verfügung, womit intelligenter Speicher möglich wird, der also lernt, was zu tun ist. Die Speichereinheit weiß zum Beispiel nach einer gewissen Zeit, welche Daten wichtig (Hot Data) und welche weniger wichtig (Cold Data) sind.

Kognitive Speichersysteme sind in 10 Jahren Standard-IT

Aber gibt es überhaupt schon Speichersysteme, die mit dieser Form von Künstlicher Intelligenz zurecht kommen. Ja, diese Systeme gibt laut Herrn Köster schon, die extrem parallel arbeiten. Allerdings kommen diese Hochleistungssysteme vor allem bei größeren Unternehmen zum Einsatz, kleineren Firmen mangelt es an solchen Systemen noch.

Aber, und da ist er sich sicher, müssen sich mittel- bis langfristig alle IT-Verantwortlichen mit dieser neuen Form des Speichers befassen, denn in etwa zehn Jahren wird das zur Standard-IT gehören.

Sensoren & Co. generieren große Datenmengen

Natürlich hat auch das IBM Watson IoT Center mit großen Datenmengen zu tun, die beim Einsammeln derselben generiert werden. Denn überall dort, wo beispielsweise Sensoren große Datenmengen produzieren, lassen sich neue Erkenntnisse gewinnen, die dann an anderer Stelle eingesetzt werden können.

Diese Ergebnisse werden nicht mithilfe von Algorithmen erzielt, sondern auf Basis neuronaler Netze, die wie das menschliche Gehirn funktionieren. Damit können zum Beispiel Gebiete identifiziert werden, in denen möglicherweise Hagelschaden entsteht, um daraus die richtigen Maßnahmen abzuleiten.

x86 ist für neuronales Rechnen nicht parallel genug, IBM TrueNorth schon

Doch neben den hohen Anforderungen an Speicher kommen auch den Recheneinheiten von kognitiven Systemen eine große Bedeutung zu. So hat mich interessiert, ob General Purpose Prozessoren wie der Intel x86 für solche Aufgaben geeignet seien. Und nein, sind sie nicht, da diese CPUs laut Herrn Köster nicht parallel genug arbeiten. Hierfür taugen eher die grafischen Co-Prozessoren, wie man sie von NVIDIA kennt.

In dieser Kategorie tummelt sich auch der IBM-eigene Hochleistungschip TrueNorth, der bereits erste Rekorde aufgestellt hat und eben genau wie das menschliche Gehirn arbeitet. An dieser Stelle kommt Herr Köster geradezu ins Schwärmen, da die CPU gerade mal 70 Milliwatt im Betrieb verbraucht, weil sie ganz anders arbeitet als die Von-Neumann-Prozessoren.

Dr. Axel Köster im Videointerview

Wer die hier genannten Informationen lieber aus erster Hand bezieht, der klicke oder tippe auf den Startknopf des Videointerviews von und mit Axel Köster. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

Dr. Robert Haas (IBM Schweiz) über Storage-Trends

[Video] Dr. Robert Haas, IBM Schweiz, über neue und alte Speichertechnologien

Während des IBM Storage Strategy Day 2017 habe ich dieses Interview mit Dr. Robert Haas vom IBM-Labor in Rüschlikon, Schweiz, geführt. Darin spricht er über aktuelle und neue Speichertechniken, verrät, warum Cloud Service Provider immer häufiger Bandlaufwerke einsetzen und warum Dockers die neuen Virtual Machines sind.

Robert Haas ist Chief Technology Officer (CTO) Storage für Europa, und das an einem der schöneren Orte dieser Erde, im schweizerischen Rüschlikon am Zürichsee. Sehr malerisch, davon durfte ich mich auch schon überzeugen.

Von Speichermedien zu Dockers – das ist die Haas’sche Storage-Reise

Während seines Vortrags auf dem IBM-Event in Ehningen nahm Herr Haas seine Zuhörer auf eine mehretappige Reise mit, dir er für mich kurz und knapp zusammengefasst hat. Dabei bezieht er sich auf die Vielschichtigkeit von Storage-Lösungen, die ein Unten und ein Oben haben.

Speichermedien verändern sich – aber nicht alle

Unten, das sind die Medien, auf denen Daten gespeichert werden, sowohl im klassischen Sinne, also auf Festplatte, als auch im neue Sinne, also beispielsweise auf NVMe-kompatiblen Flashkomponenten. Und in Zukunft werden weitere Medien hinzu kommen, wie das Speichern einzelner Bits auf Atomkernen eindrucksvoll bewiesen hat.

Davon profitieren heute und morgen die Storage-Applikationen, mit denen sich große Datenmengen speichern und nutzen lassen. Und ganz oben befindet sich schließlich die Container-Speichertechnik, die mithilfe der Docker-Technik benötigten Speicherplatz blitzschnell zur Verfügung stellen kann. Und klar, dass IBM diese Container-basierte Speichertechnik mit eigenen Lösungen wie speziellen Schnittstellen unterstützt.

Tape-Laufwerke bieten einen unschlagbaren TCO-Wert

Ein wenig überrascht war ich ob einer Aussage von Robert Haas, der während des Interviews die These aufstellt, dass sich Tape-Laufwerke aktuell bei den Cloud Service Providern als wichtiges Speichermedium etablieren. Und ja, diese Firmen haben laut Herrn Haas erkannt, dass Bandlaufwerke noch wie vor einen unschlagbaren TCO (Total Cost of Ownership) aufweisen. Daher sind  sie vor allem für Cold Data-Anwendungen (Datenarchive, Langzeit-Backup) immer noch ein konkurrenzloses Medium.

Das weiß natürlich auch IBM, und so wundert es nicht, dass man in den Laboren daran arbeitet, die Speicherdichte von Magnetbändern weiter zu erhöhen, und das wird wohl auch die nächsten Jahre gelingen.

Die Container-Technik als Alternative zu Virtual Machines

Eine weitere These, die Herr Haas während seines Vortrags aufgestellt hat, betrifft die Container-Technik, die laut seiner Aussage gerade eine Konkurrenz zu Virtual Machines wird.

Das hat vor allem mit der Tatsache zu tun, dass agile Services immer mehr in den Vordergrund drängen, mit denen beispielsweise sehr schnell auf unerwartete Datenbankabfragen reagiert werden kann. Dafür eignen sich Docker-basierte Container sehr gut, weil sie sehr schlank sind und sehr schnell bereitgestellt werden können. Und das ohne die Notwendigkeit, ein komplettes OS-Image starten zu müssen.

Alles Infos aus erster Hand von Dr. Robert Haas

Wie immer kann man sich die Infos auch direkt aus erster Hand beim Interviewpartner abholen. Na dann: Film ab!

Ed Walsh, IBM, über Storage-Trends

[Video] Ed Walsh, IBM, über Storage-Trends aus IBM-Sicht

Während des IBM Storage Strategy Day 2017 hatte ich die Gelegenheit, mit Ed Walsh zu sprechen. Er verantwortet das weltweite Storage- und Storage-Defined-Infrastructure-Geschäft bei IBM und hat mir verraten, was die Kernaussagen seines Keynote-Talks waren und wie sich IBM derzeit im weltweiten Speichermarkt positioniert. Außerdem spricht Ed darüber, worauf sich Storage-Verantwortliche künftig einstellen sollten.

Da Ed Walsh seit gerade mal einem guten Jahr seine aktuelle Position bekleidet, kam es ihm während seiner Keynote-Session vor allem darauf an, die weltweite Storage-Strategie von IBM aufzuzeigen und einen aktuellen Zustandsbericht abzuliefern.

IBM rangiert im weltweiten Storage-Markt auf #2, in Spezialdisziplinen wie Object Storage auf #1

Da wollte ich natürlich gleich wissen, wie es bei IBM in Sachen Storage derzeit aussieht. Hier zeigte sich Ed sehr zufrieden, da die komplette Storage-Sparte profitabel arbeitet und ein Wachstum von 7% (Q1-16 vs. Q1-17) und 8% in Q2-17 aufweist. Damit steht IBM derzeit auf dem zweiten Platz, wenn man den weltweiten Storage-Gesamtmarkt betrachtet. Sieht man sich hingegen bestimmte Marktsegment wie Storage-Software oder Object Storage an, rangiert IBM dort auf Platz 1.

Neue Worksloads erfordern neue Speicherlösungen

Während seines Vortrags sprach Ed über neue Worksloads und was hierfür in Sachen Storage zu tun sei. Was denn das sei, wollte ich wissen. Hier verwies er vor allem auf das Thema Software-defined Storage, mit dem sich heterogene Speicherlandschaften effizienter nutzen lassen, und das über Netzwerkgrenzen hinweg.

Gerade in diesem Kontext spielt IBM Spectrum Software laut Ed Walsh eine immer größere Rolle. Damit lassen sich hoch-skalierbare Workloads administrieren und verwalten, die in Zeiten von Künstlicher Intelligenz und Co. immer mehr in den Vordergrund rücken.

Ed Walsh im Videointerview

Wer das ganze Interview von und mit Ed Walsh sehen und hören möchte, starte am besten jetzt das Video. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

Ralf Colbus von IBM über die NVMe-Speichertechnik

[Video] Ralf Colbus (IBM) über die NVMe-Speichertechnik

Auf dem IBM Storage Strategy Day 2017 habe ich dieses interessante Interview mit Ralf Colbus geführt. Darin spricht er über den Stand der Dinge in Sachen NVMe-Technik, mit der vor allem Latenzprobleme bei hochperformanten Speicherlösungen der Gar ausgemacht werden soll. Und wie es mit dem Umstieg auf NVMe bei IBM aussieht, hat er mir auch verraten.

Mit Ralf Colbus habe ich schon diverse Gespräche geführt, so auch unter anderem über das Thema Software-defined Storage-Lösungen. Und so saßen wir in Ehningen wieder einmal zusammen, um uns über das Thema Non-Volatile Memory express (NVMe) zu unterhalten. Denn darin, so Ralf, liegt die Zukunft des hochperformanten Speichers.

NVMe reduziert vor allem lästige I/O-Latenzen

Denn mit NVMe lässt sich vor allem die I/O-Leistung maßgeblich verbessern, indem Latenzwerte drastisch reduziert werden. Damit bekommen Anwendungen schneller ihre Daten, und IT-Verantwortliche können auf diesem Weg ihrer traditionellen SAS-Backend-Infrastrukturen Stück für Stück „Lebewohl“ sagen.

Transaktionale Datenbanken werden zunächst von NVMe profitieren

Welche Applikationen werden denn maßgeblich von NVMe profitieren, lautete meine nächste Frage. Nun, zunächst einmal werden vor allem transaktionale Datenbank-Anwendungen von dieser neuen Speichertechnik ihre Vorteile ziehen. Mittel- bis langfristig werden aber alle anderen Workloads ebenfalls die NVMe-Technik zu ihren Gunsten nutzen können.

IBM stellt sukzessive auf NVMe um

Und wie sieht es bei IBM mit NVMe-basierten Speicherlösungen aus? Nun, da ist man „Big Blue“ schon auf einem guten Weg. Soll heißen, dass man sukzessive auf NVMe umsteigt, zunächst auf Basis von SSD-Speichermodulen, später kommt NVMe direkt in den Fabrics zum Einsatz.

Und ganz offensichtlich hat man es bei IBM ziemlich eilig mit dem Umstieg auf NVMe-taugliche Produkte. So werden die ersten vielleicht noch Ende dieses Jahres erscheinen, spätestens aber im ersten Quartal 2018. Das betrifft allerdings nicht alle Storage-Familien von IBM, da einige von ihnen mit Techniken ausgestattet sind, die schneller arbeiten als NVMe. Aber kurz über lang werden alle Speicherprodukte von IBM mindestens auf NVMe-Niveau gehievt.

Alle NVMe-Infos aus erster Hand

So, und wer alles direkt von Ralf Colbus hören und sehen möchte, dem empfehle ich dieses interessante Videointerview. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

[Video] Ulrich Walter, IBM, über Künstliche Intelligenz und Storage

Dieses Videointerview mit Ulrich Walter von IBM ist auf dem IBM Storage Strategy Day 2017 in Ehningen entstanden. Darin spricht er über den Zusammenhang von Künstlicher Intelligenz und Storage-Systemen, was entsprechende Speicherlösungen können müssen und was IBM dazu im Portfolio hat.

Ulrich Walter kümmert sich bei IBM um das Thema Cloud & Cognitive Infrastructure im Kontext von Künstlicher Intelligenz (KI) und HPC. Daher wollte ich unbedingt wissen, wie KI und Storage zusammenpassen. Das ist aus Ulrich Walters Sicht ganz eindeutig: KI-Systeme benötigen in ausreichendem Maße Daten, von und mit denen sie lernen können.

KI-Anwendungen erfordern leistungsstarke und ausreichend dimensionierte Storage-Systeme

Doch genügen die aktuellen Speichersysteme den Anforderungen, die KI-Systeme an zugehörige Storage-Lösungen stellen? Nun, auch dazu hat er eine klare Meinung: KI-Anwendungen wie das Autonome Fahren oder die Gesichtserkennung im öffentlichen Raum generieren sehr viele Daten, die zuverlässig bereit stehen müssen. Hierfür sind große, leistungsstarke Speichersysteme erforderlich, die es heute schon gibt.

Das ist beispielsweise die IBM ESS-Familie (Elastic Storage Server), in Verbindung mit der IBM Spectrum Scale Software. Damit sind hochskalierbare Speichersysteme möglich, mit denen sich Daten speichern lassen, die mehrere hundert Petabyte umfassen.

Auch IBM POWER-Systeme sind KI-Storage-tauglich

Wer es ein wenig individueller mag, der kann laut Ulrich Walter alternativ auf IBM POWER-Systeme zurückgreifen. Diese bieten offene Betriebs- und Dateisysteme, in denen wahlweise Platten-, SSD- oder zunehmend NVMe-Speichersysteme zum Einsatz kommen. Je nach Budget und Einsatzgebiet.

So, und für alle Informationen aus erster Hand startet per Mausklick oder Fingertipp das Videointerview von und mit Ulrich Walter. Na dann: Film ab!

Disclaimer: Für diesen Beitrag hat mich IBM Deutschland als Blogger beauftragt.

Rückschau: Das war der IBM Storage Strategy Day 2017

Aufmerksame Leser meines Blogs wissen, dass ich letzte Woche im Auftrag von IBM auf zwei Events war, um von dort aus Bericht zu erstatten. Die erste Veranstaltung hatte mit dem Thema Mainframes und der IBM z14 zu tun, und das andere mit dem Thema Storage und Speicherlösungen. Und genau davon soll heute die Rede sein.

httpss://twitter.com/mhuelskoetter/status/907626741128220672

Die Veranstaltung war mehr als gut besucht, und eröffnet wurde sie standesgemäß vom neue Strorage-Chef DACH höchstpersönlich.

httpss://twitter.com/mhuelskoetter/status/907882075973459968

Den einleitenden Worten von Marcus Geist folgte die erste Keynote-Session von und mit Ed Walsh, der den Titel „General Manager Storage & Software Defined Infrastructure“ trägt.

httpss://twitter.com/mhuelskoetter/status/907883975884115968

Ed hatte eine ganze Menge zu erzählen darüber, warum alte, traditionelle Worksloads in neue Workloads überführt werden sollten und warum hierfür unter anderem neue Storage-Lösungen erforderlich sind.

httpss://twitter.com/mhuelskoetter/status/907885151698477056

Natürlich führte ihn das direkt zu der Stellung, die IBM derzeit im Storage-Markt inne hält. Dabei machte er anhand einer einzigen Folie klar, wo sich IBM in Sachen Speicherlösungen positioniert: Weltweit ist „Big Blue“ Nummer Zwei als „Storage Company“, und Nummer Eins, wenn es um die Gesamtheit an verfügbaren Speicherlösungen geht. Das hat vor allem mit den zahlreichen Softwarelösungen zu tun, die IBM im Portfolio hat.

httpss://twitter.com/mhuelskoetter/status/907886141139030017

Auf Ed Walsh folgte Dr. Robert Haas, der am schönen Zürichsee arbeitet, genauer gesagt am IBM-Labor Rüschlikon. Entsprechend  hatte sein Vortrag einen wissenschaftlichen Touch, indem er unter anderem von Atomen als Speicherzelle referierte.

httpss://twitter.com/mhuelskoetter/status/907889680066256896

httpss://twitter.com/mhuelskoetter/status/907891137096163329

Aber er wurde auch sehr konkret, indem er die These aufstellte, dass die Container-Technik die Virtual-Machine-Technik ablösen wird, da sich damit benötigter Speicherplatz innerhalb virtualisierter Umgebungen viel schneller bereitstellen lässt als mit VMs.

httpss://twitter.com/mhuelskoetter/status/907893938979303424

Aber auch das Thema Flash-Speicher war Robert Haas eine ausführliche Betrachtung wert. So referierte er über fallende Preise, die einen generellen Einsatz von Flashspeicher nach sich ziehen werden. Aber auch sinkende Latzenzzeiten führte er als Grund für die zunehmende Verbreitung von Flash-basierten Speichertechniken an.

httpss://twitter.com/mhuelskoetter/status/907898671047561217

httpss://twitter.com/mhuelskoetter/status/907899928785178624

5 Interviews runden die Storage-Berichterstattung ab

Ich wäre natürlich nicht ich, wenn ich nicht auf dem IBM Storage Strategy Day 2017 Videointerviews geführt hätte. Namentlich habe ich folgende IBM-Vertreter vor meine Kamera geholt:

  • Ed Walsh über Storage-Trends aus IBM-Sicht
  • Dr. Robert Haas über neue und alte Speichertechniken
  • Ralf Colbus über die Vorteile der NVMe-Speichertechnik
  • Dr. Axel Köster über Cognitive Storage
  • Ulrich Walter über Künstliche Intelligenz und Storage

Letzteres Video ist bereits online und kann hier an Ort und Stelle angesehen werden. Zu jedem dieser Interviews wird es übrigens einen separaten Blogbeitrag geben. Freut euch drauf.

 

Disclaimer: Für diesen Beitrag und die nachfolgenden Videointerview-Posts hat mich IBM Deutschland als Blogger beauftragt.