Leif Walter von Fortinet über Enterprise Firewalls und KI in der Security

Videoblog: „Enterprise Firewalls müssen performant, skalierbar und offen sein“

Während der it-sa 2018 habe ich mit Leif Walter von Fortinet dieses Videointerview geführt. Darin spricht er über die Besonderheiten der Fortinet Enterprise Firewalls und die künftige Rolle der Künstlichen Intelligenz im Kontext der IT-Security.

FortiGate Enterprise Firewalls sind performant, skalierbar und offen

Firewall-Lösungen für den Enterprise-Markt müssen vor allem performant und skalierbar sein, aber auch offen gegenüber anderen Systemen und Lösungen. Genau diesen Anforderungen werden Fortinet-Firewalls gerecht, indem sie auf Techniken basieren, die darauf abgestimmt sind. Hierbei steht vor allem die Netzwerk-Performance im Vordergrund genauso wie die Skalierbarkeit, die sich auf diverse Bereiche wie das Internet der Dinge und andere Segmente bezieht. Und klar, dass solche Firewall-Systeme auch mandantenfähig sein müssen.

Darüber hinaus spielen offene Schnittstellen eine zunehmend wichtige Rolle, da die Netzwerk-Topologien und ihre Komponenten immer heterogener werden und Anwender genau nach Lösungen suchen, die mit dieser Technikvielfalt klar kommen.

Künstliche Intelligenz in der IT-Security hat noch einen weiteren Weg vor sich

Die aktuelle Künstliche Intelligenz befindet sich im Grunde immer noch in einem Anfangsstadium, sodass immer noch von einer „schwachen“ KI die Rede ist, die innerhalb einer in sich geschlossenen Disziplin wie Autonomes Fahren oder Bilderkennung gute bis sehr gute Dienste leistet, also auch innerhalb der IT-Security.

Will man allerdings äußerst komplexe Bedrohungsszenarien mithilfe der Künstlichen Intelligenz schneller und zuverlässiger erkennen und abwehren können, ist eine sogenannte „starke“ KI vonnöten. Denn nur dort können die bisherigen „Insellösungen“ miteinander interagieren und schaffen damit ganz neue Modelle, die deutlich „schlauer“ sind als die heutigen Ansätze. Und genau dort wollen und werden sich Sicherheitsexperten wie Fortinet künftig noch mehr engagieren.

Das vollständige Interview mit Leif Walter

Disclaimer: Dieser Videoblogbeitrag ist in Zusammenarbeit mit Akima Media entstanden. 

Karsten Johannsen von IBM über Storage und KI

Videoblog: „KI-Systeme müssen skalierbar sein und gängigen Standards folgen“

Dieses Interview habe ich mit Karsten Johannsen von IBM über das Thema Künstliche Intelligenz und Storage gesprochen. Darin geht es aber auch um die Frage, warum Tech Data als wichtiger IBM-Partner die KI für sich entdeckt hat und welche Rolle IBM dabei spielt.

Tech Data begibt sich mit der KI auf neue Pfade

Gerade IT-Systemhäuser wie Tech Data müssen immer wieder neue Wege beschreiten, wollen sie neue Absatzmärkte gewinnbringend erschließen. Dazu gehört eben auch das weite Feld der Künstlichen Intelligenz, das das Unternehmen für sich entdeckt hat. So sollen in den nächsten Monaten und Jahren unter dem Begriff „Next Generation Technologies“ gemeinsam mit den Geschäftspartnern und Kunden KI-Szenarien und -Applikationen entwickelt werden.

Hierfür hat Tech Data gemeinsam mit IBM ein siebenköpfiges KI-Team aufgebaut, das sich künftig in den Bereichen Business Development, Architekturberatung, Vertrieb und Marketing tummeln wird.

Tech Data und IBM sind ein echtes KI-Gespann

Gemeinsam mit IBM will Tech Data seine Kunden (also Business Partner und Systemhäuser) näher heranführen an das Thema Künstliche Intelligenz. Hierfür gibt es dedizierte, unterstützende Maßnahmen seitens Tech Data/IBM, die den Tech Data-Kunden helfen sollen, eigene KI-Projekte umzusetzen. Denn in diesem Segment gestalten sich zahlreiche Anforderungen anders als bei herkömmlichen IT-Aufträgen, und genau an dieser Stelle soll und wird das Tech Data-IBM-KI-Team unterstützend aktiv.

Hierbei kommt vor allem das IBM-KI-Produktportfolio der Systems-Gruppe zum Einsatz, also alles, was mit den Begriffen IBM PowerAI und IBM Storage zu tun hat. So kommt es speziell bei KI-Projekten auf leistungsfähige Speicherlösungen an, da hier erfahrungsgemäß große Datenmengen anfallen und somit leistungsfähige Speichersysteme vonnöten sind.

Das verbirgt sich hinter der IBM KI-Referenzarchitektur

Wichtig ist bei einer geeigneten KI-Referenzarchitektur die Wahl der Komponenten, die den gängigen Standards folgen sollten. Wichtig ist aber auch eine bestmögliche Skalierbarkeit, sodass sich das System den jeweiligen Anforderungen ohne großen Aufwand anpassen lässt. Das ist speziell im KI-Umfeld von großer Wichtigkeit, da sich viele Unternehmen nach wie vor im Experimentierstadium befinden.

Gleichzeitig merkt dann der ein oder andere KI-Projektverantwortliche relativ schnell, dass die Datenmengen exponentiell anwachsen und die Maschine sowie die zugehörigen Speicherkomponenten schneller an ihre Grenzen stoßen als angenommen. Daher setzt Tech Data in Zusammenarbeit mit IBM auf die PowerAI- und IBM Spectrum-Produktfamilien, da diese die beschriebenen Voraussetzungen erfüllen.

Das komplette Interview mit Karsten Johannsen

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

 

Doug Balog über das IBM Storage-Geschäft

Videoblog: „Storage ist wichtig für Multi-Cloud, KI und mehr“

Dieses Interview habe ich mit Doug Balog von IBM anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über das Event im Allgemeinen, über den Storage-Markt im Speziellen und über die IBM-Vision in punkto Speicher mit all seinen Facetten.

Die IBM Storage Strategy Days sind für IBM äußerst wichtig

Speziell der Austausch mit Kunden und Geschäftspartnern stellt für IBM – und für Doug Balog selber – einen wichtigen Baustein dar, wenn es um die weltweite Ausrichtung der richtigen Produkte und Lösungen geht.

Konkret bedeutet das: Wie sehen die Visionen seitens IBM als Unternehmen aus und wie passt das Thema Storage in dieses Szenario. Das daraus resultierende Feedback der Kunden und Partner greift IBM auf, um sich noch besser auf die Bedürfnisse und Wünsche des Marktes einstellen zu können. Schließlich handelt es sich bei Storage in Zeiten von KI & Co. um einen echten Wachstumsmarkt.

Der Storage-Markt bietet zahlreiche Möglichkeiten – für IBM, deren Partner und Kunden

Mit dem enormen Anstieg an Daten, die für neue und traditionelle Anwendungen benötigt werden, steigt auch der Bedarf an leistungsstarken und kapazitiven Speicherlösungen. Denn gerade für KI-Disziplinen wie Machine und Deep Learning sind große Datensätze vonnöten, die der Maschine dahinter die Möglichkeit bieten, die richtigen Schlüsse aus vorhandenen Mustern und Aufgaben zu ziehen. Und das erfordert natürlich Speichersysteme, die mit diesen Daten quantitativ und qualitativ zurecht kommen.

Aber auch das Thema Multi-Cloud ist eng verknüpft mit dem Thema Storage. Denn mit jeder weiteren Cloud-Umgebung, die Teil der Gesamtstrategie eines Unternehmens ist, nimmt die Anforderung zu, all die anfallenden Daten bestmöglich zu verwalten und zu speichern. Daher kommt dem zugrunde liegenden Datenmanagement in Zeiten komplexer werdender Cloud-Lösungen eine immer wichtigere Rolle zu.

Von der IBM-Vision einer Storage-zentrierten Welt

Klar, dass Storage-Systeme in Zeiten von KI und Multi-Cloud zwar ein wichtiger Bestandteil sind, aber nicht der einzige, auf den es ankommt. Denn neben den performanten Speicherlösungen sind natürlich auch schnelle Recheneinheiten vonnöten, dies ja bei IBM ebenfalls beheimatet sind. Die Rede ist unter anderem von den IBM Mainframes der Z-Serie und den Power-basierten Rechnern, aber auch Spezialplattformen wie PowerAI, die speziell für KI-Anwendungen konzipiert wurden.

Aber, und das ist eine logische Einsicht, treibt IBM das Thema Storage und KI nicht alleine am Markt voran. Daher arbeitet „Big Blue“ schon seit vielen Jahren mit allen namhaften Hardware- und Software-Herstellern zusammen, um die jeweils beste IT-Lösung für den jeweiligen Kunden bieten zu können. Hierfür leistet sich IBM ein eigenes Businesspartner-Ecosystem, das Partnern und Kunden helfen soll, die beste IBM-Lösung für ihre Anwendungen zu finden.

Übrigens: Genau aus diesem Ansinnen heraus ist die OpenPOWER Foundation entstanden

Das komplette Videointerview mit Doug Balog

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Peter Ganten von Univention über Künstliche Intelligenz und Transparenz

Videoblog: „Die KI hält für uns Menschen großes Potential bereit“

Peter Ganten ist Gründer und Geschäftsführer der Univention GmbH aus Bremen, einem Software-Hersteller für Server- und Identitätsmanagement. Er ist bekennender Open-Source- und KI-Begeisteter, worüber ich mit ihm im folgenden Skype-Interview ausführlich gesprochen habe. Exklusive Einblicke in einen für Univention interessanten und aufstrebenden Bereich.

Herausforderung oder Risiko – das ist hier die KI-Frage

Über eines ist sich Herr Ganten völlig im Klaren: Die Künstliche Intelligenz mit all ihren Möglichkeiten und technischen Disziplinen hält ein unglaubliches Potential für uns Menschen und die Menschheit an sich bereit. Hier steht zum Beispiel die Medizin im Fokus, wo mithilfe der KI auf Patienten individuell zugeschnittene Medikamente möglich sind, aber auch die Früherkennung von Krankheiten verbessert werden kann. Zudem wird der Energiesektor von der KI maßgeblich profitieren genauso wie das Bildungswesen, das SchülerInnen und StudentInnen ganz neue Möglichkeiten an die Hand geben wird.

Gleichzeit können und werden neue KI-basierte Ansätze dafür sorgen, dass uns tendenziell monotone Aufgaben abgenommen werden. Die Rede ist vom Autonomen Fahren, das uns vom lästigen Steuern eines PKW befreit und wir stattdessen die Fahrt mit dem Auto für andere, sinnvollere Dinge nutzen können.

Aber, und auch da ist Herr Ganten ganz klar, dürfen wir nicht so naiv sein und glauben, dass die KI ausschließlich zum Wohle der Anwender genutzt werden kann. Daher sind wir alle dazu aufgefordert, richtig hinzusehen und die richtigen Fragen zu stellen, die sich rund um das Thema Künstliche Intelligenz ranken.

Ethik und Künstliche Intelligenz bedingen einander

So lautet eine der drängenden Fragen zum Thema KI aus Sicht von Herrn Ganten: Wie schützen wir uns bestmöglich vor Manipulationen? Dies kann zum Beispiel mithilfe von größtmöglicher Transparenz vermieden werden. Denn immer dann, wenn Algorithmen, Daten und andere Faktoren nicht öffentlich zugänglich sind, sind der Manipulation Tür und Tor geöffnet. So muss man sich ohne genaue Einblicke in KI-Anwendungen stets darauf verlassen, dass damit auch das gemacht wird, wozu die KI-Applikation eigentlich konzipiert wurde – und nicht etwa das Gegenteil davon.

Daher lautet eine der ethischen Forderungen: Die KI muss jederzeit öffentlich und nachprüfbar sein, und Unternehmen müssen sicher stellen, dass die vorhandenen Daten stets zum Wohle der Anwender und der Menschen eingesetzt werden.

Mit der Anwendung von KI nehmen die Risiken der „Erpressbarkeit“ zu

In einem seiner zahlreichen Vorträge spricht Herr Ganten von der „Erpressbarkeit der Anwender“, die im Kontext von KI eine ernstzunehmende Herausforderung darstellt. Gemeint sind damit Unternehmen und Organisationen, die auf die KI-Algorithmen von Cloud Service Providern zurückgreifen und dabei oft hochsensible Daten zu Verarbeitungszwecken bereitstellen.

So wird beispielsweise im Falle von Microsoft Office 365 jede Interaktion genauesten aufgezeichnet. Damit ist bekannt, welche Anwender mit welchen Applikationen arbeiten, welche Daten dabei mit anderen geteilt werden, und so fort. Das kann dazu führen, dass sich diese Daten mit anderen Daten in geeigneter Art und Weise verknüpfen lassen. So ließen sich beispielsweise die fachlichen Fertigkeiten bestimmter Anwender via LinkedIn an Recruiter oder andere Personen  transferieren, ohne dass der Arbeitgeber dieser Mitarbeiter Kenntnis davon erhält.

Und genau diese Möglichkeiten können letztlich dazu führen, dass Anbieter wie Microsoft neue Geschäftsmodelle entwickeln, die Unternehmen gegen Bezahlung garantieren, dass ihre in der Cloud bekannten Daten nicht für andere Zwecke missbraucht werden.

Open Source-Anwendungen stellen einen Ausweg aus dem Transparenzdilemma dar

Für ein Höchstmaß an Transparenz und Zuverlässigkeit entwickelt Univention sämtliche Lösungen als Open Source-Produkte, was den Nutzern diverse Vorteile bietet. So wissen die Kunden von Herrn Ganten jederzeit, was dort stattfindet, Programme lassen sich weiterentwickeln, und so fort. Das erhöht das Vertrauen in die Firma, was sich auf zahlreiche Bereiche positiv auswirkt. Dazu gehört das Thema Sicherheit, aber auch Innovationen werden damit gefördert, da quelloffene Systeme und Anwendungen relativ frei sind von vorgegebenen Update-Zyklen, proprietären Schnittstellen und vielem mehr.

Das Interview mit Peter Ganten in vollständiger Länge

Disclaimer: Für diesen Videoblogbeitrag hat mich die Firma ChannelBuzz beauftragt.

Thomas Harrer von IBM über KI und Daten

Videoblog: „Die KI wird uns helfen, die Welt besser zu verstehen“

Dieses Interview habe ich auf den IBM Storage Strategy Days 2018 mit Thomas Harrer geführt. Darin spricht er über die Notwendigkeit guter und valider Daten für KI-Anwendungen und was das für aktuelle und künftige Storage-Systeme bedeutet.

Die Datenexplosion der nächsten Jahre und ihre Folgen

Eine der wesentlichen Grundvoraussetzungen für eine funktionierende Künstliche Intelligenz ist das Bereitstellen und Vorhalten der benötigten Daten, die meist in großer Zahl vorliegen. Daher ist die richtige Storage-Strategie unerlässlich, will man die KI bestmöglich einsetzen und nutzen.

Eine Besonderheit kommt hierbei den unstrukturierten Daten zu, die im Verhältnis zu den strukturierten Daten deutlich schneller wachsen. Diese erfordern sehr viel leistungsfähigere und größere Speichersysteme, da hier die Datenmengen exponentiell wachsen. Das lässt sich sehr gut anhand einiger markanter Zahlen verdeutlichen.

Bis zum Jahr 2000 wurden weltweit etwa 2 Exabyte an Daten gespeichert. Das betraf alles von Büchern über Filme und anderen Informationen. Umgerechnet entspricht das 2.000 Petabyte. Mittlerweile werden 14 Exabyte an Daten generiert – und zwar pro Tag, woraus sich eine weltweit gespeicherte Datenmenge am Jahresende ergibt, die sich auf unglaubliche 20 Zettabyte beläuft.  Das sind 1.000.000.000.000.000.000.000 Bytes, also eine Million mal 1 Million mal eine Million mal 1.000.

Und diese Entwicklung schreitet weiter voran. So schätzen Experten, dass bis zum Jahr 2025 die Menschheit in etwa 165 Zettabyte an Daten generieren wird. Und was das für die benötigten Speichersysteme bedeutet, kann man sich wohl in etwa ausmalen.

Bereiche wie die Medizin treiben große Datenmenge voran

Dank medizinischer Apparaturen wie Mikroskope, Röntgengeräte, etc. werden schon seit vielen Jahren kontinuierlich Daten gesammelt und gespeichert. Hinzu kommt jetzt die Möglichkeit, das menschliche Genom immer kostengünstiger und besser analysieren und speichern zu können, wofür „nur“ etwa 700 Megabyte Datenspeicher erforderlich sind.

Will man allerdings noch das Genom sämtlicher menschlicher Bakterien entschlüsseln und protokollieren, verhält sich das gleich völlig anders. Hier kommen ganz schnell Terabyte an Daten zusammen, und das pro Patient! Was aber gleichzeitig bedeutet, dass die Erkenntnisse daraus neue Therapieformen ermöglichen, mit denen sich Patienten immer individueller behandeln lassen.

Die Künstliche Intelligenz hilft, die Welt besser zu verstehen

Die KI soll und wird uns helfen, die Welt anhand von Daten besser zu verstehen. Als Beispiel seien hier Videobilder zu nennen, die Geschehnisse aufzeichnen, die Bilder liefern für bestimmte Lebenslagen, und so fort. Klar ist hierbei, dass so sehr schnell riesige Datenmengen entstehen, die obendrein mit den typischen prozeduralen Algorithmen gar nicht richtig erfasst und verstanden werden können.

Daher sind neue Konzepte und Ansätze erforderlich, die vor allem auf Basis unstrukturierter Daten die Informationen liefern, die wir brauchen. Dazu gehören beispielsweise neuronale Netze, die mit diesen Daten ganz anders umgehen können und auch deutlich lernfähiger sind als die herkömmlichen Rechenansätze. So hilft die KI selbstfahrenden Autos, Gegenstände auf der Fahrbahn besser und schneller zu erkennen, weil sie permanent dazu lernen. Damit können autonom betriebene Fahrzeuge in Echtzeit entscheiden, wann sie bremsen sollen oder einem Hindernis einfach nur ausweichen können.

Das und vieles mehr wird uns helfen, die Welt ein bisschen verständlicher zu machen und die Automatisierung vieler Abläufe voranzutreiben.

Das komplette Videointerview mit Thomas Harrer

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von IBM erstellt. Bei der Ausgestaltung der Inhalte hatte ich vollkommen freie Hand.

Ein weiteres Interview von den IBM Storage Strategy Days 2018

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

 

Ralf Colbus über KI-taugliche Speichersysteme

Videoblog: “ Mit ‚MetaOcean‘ helfen wir Data Scientists, die richtigen Daten zu finden „

Dieses Interview habe ich mit Ralf Colbus von IBM Deutschland anlässlich der IBM Storage Strategy Days 2018 geführt. Darin spricht er über die Rolle von Strorage-Systemen im Kontext leistungshungriger KI-Anwendungen, wie sie immer häufiger zum Einsatz kommen. Und über ein Tool, das künftig Datenwissenschaftlern helfen soll, Daten zielgerichteter und schneller zu finden.

Storage-Lösungen für KI-Anwendungen müssen zahlreichen Anforderungen genügen

KI-Anwendungen durchlaufen verschiedene Phasen, und vor allem daran sollten sich die entsprechenden Storage-Systeme orientieren. So werden im ersten Schritt sämtliche Daten für die Lernphase gesammelt, und das aus ganz unterschiedlichen Quellen, was ein System erfordert, das sowohl mit strukturierten als auch unstrukturierten Datentypen klar kommt.

Darüber hinaus muss man sich die Frage stellen: Habe ich überhaupt genug Speicherplatz für all die Daten. Hierbei geht es also um Aspekte wie die passenden Schnittstellen und die richtigen  Speichersysteme wie NAS, die ich hierfür brauche.

Als Nächstes sind die Verarbeitung und die Präparation an der Reihe. Hierzu gehört vor allem das sogenannte Taggen, also das Versehen der Daten mit Metatags. Die helfen dem Data Scientist, Daten von Anfang besser zuordnen und kategorisieren zu können. Denn wie die Praxis zeigt, verschwenden Datenwissenschaftler Zweidrittel ihrer Arbeitszeit mit dem Suchen und Auffinden der richtigen Daten. Was angesichts ihrer Stundensätze ein kaum hinnehmbarer Zustand ist.

Sobald die Verschlagwortung der Daten abgeschlossen ist, wird dieser meist riesige Datensatz in den Rechner geladen, der sie verarbeiten soll, was zum einen enorme Rechenzeiten und zum anderen schnelle Datenverbindungen erfordert.

Aber auch das Thema Datenarchivierung spielt in diesem Kontext mitunter eine gewichtige Rolle, also muss das Speichersystem auch hierfür geeignet sein. Denkbar sind hier Fälle des Autonomen Fahrens, bei denen es beispielsweise zu einem Unfall kommt, dessen rechtliche Lage eindeutig geklärt werden muss. Hierbei dreht es sich zum Beispiel um Fragen nach den Algorithmen, mit deren Hilfe das KI-Modell erstellt wurde, etc.

 Mit „MetaOcean“ gibt IBM Datenwissenschaftlern das richtige Tool an die Hand

Hinter dem Projekt „MetaOcean“ verbirgt sich der Versuch seitens IBM, vor allem Data Scientists bei der Suche nach den richtigen Daten für ihr spezielles KI-Projekt bestmöglich zu unterstützen. Hiermit lassen sich Daten von vornherein mit den passenden Schlagwörter versehen, also taggen. Das Tool kann zudem Datendoubletten ausfindig machen, was den notwendigen Datenbestand von Anfang an auf ein Minimum reduziert. Darüber hinaus erfolgt das Verschlagworten von Daten teilweise automatisiert, sodass die KI-Wissenschaftler diese Arbeit nicht ausschließlich manuell erledigen müssen.

Das Gute daran: IBM wird das Projekt „MetaOcean“ im Laufe des Herbst in ein „richtiges“ Produkt überführen, das die Datenwissenschaftlern dieser Welt beim schnellen Auffinden der richtigen Daten unterstützen und so ihre kostbare Zeit schonen soll.

Das komplette Videointerview mit Ralf Colbus

Disclaimer: Für das Erstellen dieses Videoblogpost hat mit IBM Deutschland beauftragt. Bei der Ausgestaltung der Inhalte hatte ich freie Hand.

Die E-Ink-Tastatur des Lenovo Yoga Book C930 ist äußert anpassungsfähig und lernt dank KI permanent dazu

[Videochat] Mirco Krebs von Lenovo über Künstliche Intelligenz in Notebooks

Während der IFA 2018 habe ich dieses Interview mit Mirco Krebs von Lenovo geführt. Darin spricht der General Manager und Territory Leader der PCSD (PC and Smart Devices Group) DACH über das neue Wachstum von Lenovo, warum der B2B-Markt bei Lenovo gerade überproportional wächst und wie das Thema Künstliche Intelligenz Yoga Book-Anwendern hilft, besser zu schreiben.

Lenovo wächst und gedeiht

Legt man die Quartalszahlen des ersten Geschäftsvierteljahres zugrunde, geht es Lenovo derzeit ziemlich gut. So konnte der Umsatz im Vergleich zum Vorjahr um 20 Prozent gesteigert werden, der Gewinn fiel ebenfalls besser aus als im Vorjahreszeitraum, und auch sonst erfreut sich Lenovo allerbester Gesundheit.

So bescheinigt das Marktforschungsinstitut IDC Lenovo im PC- und Tablet-Segment einen weltweiten Marktanteil von 16,4 Prozent. Darüber hinaus sieht Gartner Lenovo in der Kategorie „schnell wachsender Computerhersteller“ auf dem ersten Platz . Aber auch die Sparte „Rechenzentrum“ wächst und gedeiht sehr ordentlich: Dort legte das Unternehmen in der Disziplin „Gewinn“ um 68 Prozent im Vergleich zum Vorjahr zu.

Die DACH-Regin wächst ebenfalls – und das dank Windows 10

Und wie verhält es sich mit den Zahlen in Herrn Krebs‘ „Einzugsgebiet“, also in Deutschland, Österreich und der Schweiz? Nun, dort ist Lenovo ähnlich erfolgreich, und das sowohl beim Umsatz als auch bei den Absatzzahlen. Gerade der sogenannte kommerzielle (B2B-)Markt ist hierzulande und bei den Alpennachbarn deutlich gewachsen, und das in einem äußerst umkämpften Segment.

Diesen überproportionalen Anstieg im B2B-PC-Markt hat Lenovo gewissermaßen Microsoft zu verdanken. Denn mit dem schrittweisen Umstieg zahlreicher Firmen von Windows 7 auf Windows 10 erfolgt gleichzeitig in vielen Fällen auch eine Neuanschaffung bei der Hardware, und hier kann Lenovo offensichtlich bei seinen Kunden sehr gut punkten. Das hat wohl unter anderem mit der engen Zusammenarbeit zwischen Intel und Lenovo zu tun, was vielen Anwendern das Gefühl gibt, auf ein erfahrenes und eingespieltes Team zu setzen.

Künstliche Intelligenz hält bei Lenovo jetzt auch in Notebooks Einzug

Dass sich Lenovo mit dem Thema Künstliche Intelligenz schon länger beschäftigt, ist für aufmerksame Leser dieser Blogs kein großes Geheimnis. Dass sich dieser Trend jetzt allerdings auch beim Thema Notebooks breit macht, hat mich während der IFA doch einigermaßen überrascht.

Denn mithilfe der erst kürzlich vorgestellten E-Ink-Tastatur des Yoga Book C930 hilft Lenovo seinen Kunden, besser, schneller und effizienter auf dem Laptop Texte zu schreiben. Hierfür kommt auf dem Gerät eine Software zum Einsatz, die das Schreibverhalten des Anwenders analysiert und auf dieser Basis die Tastatur den Schreibbedürfnissen des Notebook-Anwenders anpasst.

Dazu gehören die unterschiedlichen Schreibgewohnheiten genauso wie die ergonomischen Unterschiede, die sich von Anwender zu Anwender ergeben. Das ermöglicht eine ganz neue Schreibqualität beim 2-Finger-Tippen, auf die sich sicherlich schon viele User freuen.

Das komplette Interview mit Mirco Krebs

Disclaimer: Diesen Videoblogbeitrag habe ich im Auftrag von Lenovo verfasst und veröffentlicht. Dabei ließ mir das Unternehmen nahezu freie Hand.

Dagmar Schuller von der audDEERING GmbH

[Videoblog] Dagmar Schuller, audEERING, über openSMILE und sensAI

Dieses Interview habe ich mit CEO und Co-Gründerin Dagmar Schuller des Startup-Unternehmens audEERING aus Gliching bei München geführt. Darin spricht sie über die Open-Source-Software openSMILE und was diese mit audEERING zu tun hat. Und was es mit sensAI auf sich hat, erfahrt ihr in diesem Video ebenfalls.

openSMILE ist der „Grundstein“ der Firma audEERING

Ohne die Open-Source-Software openSMILE gäbe es die Firma audEERING wohl eher nicht. Denn mit dieser Eigenentwicklung der TU München schafft das Startup-Unternehmen rund um Dagmar Schuller all die Produkte, die man derzeit bereits am Markt sieht – und die künftig noch folgen werden.

Bei openSMILE handelt es sich um einen sogenannten Feature Extractor, mit dem sich eine Vielzahl von Emotionen in gesprochener Sprache erkennen lassen. Also egal, wie traurig, wütend oder glücklich ein Mensch gerade ist, openSMILE erkennt anhand bestimmter Parameter ziemlich genau, in welcher emotionalen Verfassung der Sprecher (oder Sänger) sich gerade befindet.

Das lässt sich sehr gut anhand des folgenden Videos erkennen, in dem openSMILE die wichtigsten emotionalen Parameter dem gesprochenen Wort zuordnet und daraus die Grundstimmung ableitet. Und das, wie ihr sehen könnt, macht die Software ziemlich gut.

Doch openSMILE kommt nicht nur bei audEERING selbst zum Einsatz. So wurde die Software bereits mehr als 50.000-mal von diversen Forschungszentren und anderen Anwendern von der audEERING-Seite geladen, um die Fähigkeiten des Feature Extractors in eigenen Projekten nutzen zu können. Selbstverständlich gibt es auch eine kommerzielle Lizenz, die sich direkt über audEERING beziehen lässt.

openSMILE erkennt an die 6.000 Merkmale

Bei openSMILE handelt es sich laut Frau Schuller um ein sehr variables System mit einem bereits sehr großen Featureset. Soll heißen, dass die Open-Source-Software an die 6.000 unterschiedlichsten emotionalen Zustände erkennen kann. Dabei kommt openSMILE in zwei Ausprägungen zum Einsatz: Entweder als Cloud-Service oder direkt auf dem Gerät, auf dem die Audiodateien entstehen. Der große Vorteil hierbei: Dank der hohen Rechenleistung der aktuellen Smartphones, Tablets und Smartwatches kann openSMILE das gesprochene Wort quasi in Echtzeit analysieren und die zugrundeliegenden Emotionen darstellen. Ohne dass dabei irgendwelche Daten das Gerät verlassen. Ein in Zeiten von DSGVO und Co. nicht zu unterschätzender Vorteil.

Von „Singing Voice Detection“ bis Vogelstimmen: openSMILE hat einiges zu bieten

Neben den sprachlichen Fähigkeiten hat openSMILE auch ein hohes musikalisches Talent vorzuweisen. Dies spiegelt sich zum Beispiel in sensAI Music wider, dem audEERING-Produkt für den Musik- und Videomarkt. So kommt beispielsweise die Funktion „Singing Voice Detection“ im Bereich Internetradio zum Einsatz. Dort bestimmt openSMILE selbstständig anhand des aktuellen Stücks, dass der Solopart für das Einstreuen eines kurzen Werbejingles bestens geeignet wäre. Aber auch für Vogelkundler ist openSMILE sehr interessant, da es für die genaue Bestimmung von Vogelstimmen und den zugehörige Vogelarten geeignet ist.

Das leistet sensAI im Allgemeinen

sensAI ist quasi das Frontend zu openSMILE und fasst je nach Ausprägung die zahlreichen Merkmale der Software unter einer einheitlichen Bedieneroberfläche zusammen. Hierbei kann man sich als Anwender entweder für die Web-API oder den Embedded Service entscheiden, je nach bevorzugter Integration von sensAI und openSMILE. In diesem Kontext kommen auch diverse Machine-Learning-Algorithmen zum Einsatz, die dafür sorgen, dass openSMILE und die zugrundeliegende Anwendung schlauer und schlauer wird.

sensAI gibt es derzeit in vier Ausprägungen: senAI Base, senAI Enhance, sensAI Emotion und sensAI Music.

sensAI von audEERING gibt es derzeit in vier Ausprägungen

Das vollständige Interview mit Dagmar Schuller

Dagmar Schuller von der audDEERING GmbH

Dagmar Schuller von audEERING über emotionale Künstliche Intelligenz

Um die ganze Bandbreite der menschlichen Emotionen zu beschreiben, soll ein Video dazu herhalten, dieses Phänomen zu visualisieren – und damit die Palette an Möglichkeiten sichtbar zu machen, die in dem Thema „emotionale Künstliche Intelligenz“ steckt.

In diesem Videoclip zeigt die Bloggerin Ewa Placzynska sehr anschaulich, wie mithilfe eines einzigen Worts Dutzende von Gefühlen und Emotionen transportiert werden können. Und genau das ist es, womit sich das Startup-Unternehmen audEERING aus Gilching bei München beschäftigt – und dies nach eigenem Bekunden ziemlich erfolgreich.

Wie das funktioniert und worauf es dabei ankommt hat mir die Geschäftsführerin und Co-Gründering Dagmar Schuller in einem zweiteiligen Videointerview nähergebracht. Im heutigen ersten Teil spricht sie über ihre Vision in Sachen emotionale Künstliche Intelligenz, über die involvierten Branchen und über die zum Einsatz kommenden Geräte und Plattformen.

Die Vision: intelligente Technik „made in Bavaria“

Die grundlegende Vision von audEERING zum Thema emotionale Künstliche Intelligenz ist in der Annahme begründet, dass Maschinen sehr viel besser in der Lage sind, menschliche Regungen und Emotionen anhand des gesprochenen Worts zu bewerten als der Menschen selbst. Der maßgebliche Beitrag von audEERING in diesem Kontext ist ein besserer und schnellerer Austausch von Mensch und Maschine, wenn es um das analytische Bewerten von menschlichen Stimmungen geht.

Dabei spielt eine wesentliche Rolle, dass Rechner und andere Geräte viel eher dazu in der Lage sind, aus einer Vielzahl an Emotionen die richtigen „herauszuhören“ als wir selbst. Das hat oft damit zu tun, dass der Mensch in vielen Fällen Gefangener seiner Gefühle ist und damit gar nicht wahrnehmen kann, was der Gegenüber gerade sagt, und vor allem wie er es sagt.

Rein markttechnisch betrachtet sieht sich audEERING als B2B-Marke, mit deren Hilfe Firmen und Einrichtungen in der Lage sind, ihre Software auf Basis der Kerntechnologie openSMILE so zu gestalten, dass ein größtmöglicher Nutzen daraus entsteht. Aber natürlich sollen auch Anwender anhand der drei kleinen audEERING-Wellen erkennen, dass im Gerät oder in der jeweiligen Software eine intelligente Technik „made in Bavaria“ steckt.

Die Firma audEERING ermöglicht das Analysieren und Erfassen von Stimmungen in Stimmen

audEERING-Software kommt in fünf Kernbereichen zum Einsatz

audEERING spielt in aktuell fünf Branchen eine wichtige Rolle, wenn es um das stimmbasierte Erkennen von Emotionen geht. Konkret handelt es sich um die Branchen Automotive, Call Center, Marketing, Medizin und Personal Assistant.

Automotive: Hier lässt sich anhand der aktuellen Stimmung im Auto feststellen, wie es dem Fahrer oder den Beifahrern geht, um auf dieser Basis die richtigen Maßnahmen einzuleiten (Stichworte: Übel-/Müdigkeit, Stress, Aggressionen, etc.).

Call Center: Mitarbeiter werden unterstützt, besser auf den Anrufer und dessen Emotionen zu reagieren. Der Agent erhält in Echtzeit Informationen, um das Gespräch richtig zu leiten.

Marketing: Die Emotionen von Kunden werden durch Atem- und Stimmgeräusche analysiert, um Werbung in Echtzeit darauf einzustellen oder um auszuwerten, wie ein Proband emotional auf ein vorgestelltes Produkt reagiert.

Medizin: Kürzeste Sprachaufnahmen können zur Frühdiagnostik von Krankheiten wie Parkinson, Depressionen oder ADHS dienen. Hier findet ein reger Austausch mit Kliniken und im Kontext von medizinischen Studien statt.

Personal Assistant: Roboter werden in die Lage versetzt, Emotionen in feinen Abstufungen zu erkennen und sozial mit ihrem menschlichen Gegenüber zu interagieren.

Diese möglichen Kernbereiche mündeten bereits in zahlreichen Applikation wie Audiary, Callyser und sensAI-Music.

audEERING-Software kommt auf unterschiedlichsten Geräten zum Einsatz

Grundsätzlich ist die audEERING-Software openSMILE multi-plattforn-tauglich. Sie kann also Daten sowohl aus der Cloud als auch von Großrechnern beziehen, die für das intelligente Erkennen von Stimmungen in Stimmen erforderlich sind. Allerdings bevorzugt audEERING das lokale Speichern und Nutzen lokaler Daten, also auf dem Endgerät selbst. Das kann eine Smartwatch sein, ein Smartphone oder jedes andere Device, auf dem die zugrundeliegende Software installiert werden kann.

Die Vorteile dieses lokalen Ansatzes sind klar: Zum einen hat der Anwender seine Daten jederzeit unter Kontrolle, was für viele Leute gerade in Zeiten des verstärkten Datenschutzes einen unvergleichlichen Mehrwert darstellt. Darüber sollen und dürfen besonders sensitive Daten, wie sie zum Beispiel im Bereich Medizin anfallen, den lokalen Bereich möglichst gar nicht verlassen, sodass hier das Erfassen und Berechnen von Emotionen am besten direkt auf dem Gerät stattfindet.

Das komplette Interview mit Dagmar Schuller

Udo Schneider, Trend Micro, über die akteulle IT-Sicherheitslage

[Videoblog] Udo Schneider, Trend Micro, über die aktuelle IT-Sicherheitslage

Während einer IDC-Veranstaltung zum Thema IT-Sicherheit habe ich dieses Interview mit Udo Schneider von Trend Micro Deutschland geführt. Darin spricht er über interne und externe Gefahren, wie man sich dagegen schützen kann und wie Künstliche Intelligenz die IT-Abteilung unterstützen kann.

Diese Gefahren lauern derzeit im Internet

Sieht man sich die aktuelle Gefahrenlage an, lauern vor allem zwei Bedrohungen auf Anwender: Die klassischen Erpressungstrojaner wie Wannacry und Konsorten, die auch als Ransomeware bezeichnet werden. Leider beschäftigt das immer noch viele zu viele Unternehmen, weil sie offenkundig noch nicht die richtigen Abwehrmechanismen implementieren konnten – oder im schlimmsten Fall wollten, da sie die potenzielle Bedrohung nicht ernst genug nehmen. Zu diesem Schluss kommt übrigens auch die groß angelegte IDC-Studie, die auf der Veranstaltung vorgestellt wurde.

Daneben macht der sogenannte Scheckbetrug (englisch: Business E-Mail Compromise, BEC) von sich Reden. In diesem Fall gehen Cyber-Erpresser vor allem gegen größere Unternehmen vor, um so an hohe Geldsummen heranzukommen. Dass sich dieses „Geschäftsmodell“ lohnt, zeigen Schätzungen von Trend Micro: So sollen alleine in diesem Jahr mittels BEC etwa 9 Milliarden US-Dollar erbeutet werden.

Die Vorgehensweise der BEC-Betrüger ist ganz oft dieselbe: Diese versenden an einen Finanzbeauftragten (z.B. den CFO der Firma) eine E-Mail mit dem Hinweis, er oder sie solle eine Summe X an einen Lieferanten oder ähnliches Unternehmen überweisen – was dann oft sehr gutgläubig auch geschieht. Dabei wäre es in vielen Fällen so einfach, diese Schadensfälle zu verringern bzw. ganz auszuschließen.

Große Gefahren lauern auch innerhalb vieler Unternehmen

Große Risiken gehen nach wie vor von den Anwendern selbst aus, wie das Beispiel BEC zeigt. Denn anstatt vorsichtig mit unseriösen Anfragen umzugehen, vertrauen viele Anwender nach wie vor auf die Technik und dass diese schon zwischen gut und böse unterscheiden kann. Hier ist also primär Aufklärungsarbeit notwendig, um Cyber-Angriffen effizient zu begegnen, und seien sie noch so banal und eigentlich leicht zu durchschauen. Dies können Trainings sein (auch auf Management-Ebene) oder regelmäßige Veranstaltung oder einfach nur interne Newsletter seitens der Security-Abteilung.

Gesunder Menschenverstand und Technik: So schützt man sich vor Angriffen

In Sachen Cyber-Angriffe müssen zwei Bereiche betrachtet werden: Zum einen sind für einen effektiven Schutz von Anwendern, Daten und Anwendungen technische Hilfemittel zwingend erforderlich. Hierzu gehören Security-Anwendungen, die helfen sollen, E-Mails nach schadhaften Inhalten zu filtern oder Webseiten vor dem Einschleusen von Schadcode zu schützen. Anti-Malware-Applikationen gehen mittlerweile sogar so weit, dass Krypto-Software Festplatten und andere Speicherkomponenten erst gar nicht verschlüsseln kann.

Darüber hinaus können organisatorische Maßnehmen helfen, Unternehmen vor unliebsamen Besuchern und Erpressungsversuchen zu bewahren. Dazu gehört neben dem richtigen Filtern und Scannen von E-Mails auch der regelmäßige Hinweis an die Anwender, nicht auf jeden Link zu klicken, der sich innerhalb einer Nachricht befindet.

So kann die Künstliche Intelligenz die IT-Abteilung unterstützen

Grundsätzlich kann die Künstliche Intelligenz (KI) resourcen-seitige Herausforderungen lösen. Denn redet man mit IT-Sicherheitsbeaurtragten in Unternehmen, bekommt man immer wieder zu hören, dass es aktuell nicht genügend Kandidaten am Markt gibt, mit deren Hilfe die anstehenden Aufgaben in Umfang und Qualität bewältigt und gelöst werden können.

Genau an dieser Stelle kommt die KI ins Spiel, da diese deutlich besser skaliert als IT-Security-Personal. Soll heißen, dass eine automatisierte Abwehr von Angriffen, so wie sie die KI leisten kann, deutlich effizienter und flexibler ist als mit Menschen, die noch nicht einmal zur Verfügung stehen. Die Herausforderung der KI besteht allerdings im Trainieren der zugehörigen Algorithmen und Anwendungen, wofür aussagekräftige und verlässliche Daten erforderlich sind. Und genau dieser Punkt bereitet vielen Unternehmen immer noch großen Kopfschmerzen.

Das komplette Videointerview mit Udo Schneider