Jahresrückblick 2017 IT-techBlog

Jahresrückblick: Das geschah 2017 auf dem IT-techBlog

In ein paar Tagen geht dieses Jahr zu Ende, noch genug Zeit also, die fast abgelaufenen 365 Tage Revue passieren zu lassen. Da das zweite Halbjahr mehr zu bieten hatte als das erste, beginnt dieser Jahresrückblick im Dezember und endet im Januar. Viel Spaß beim Schmökern!

Dezember: SVA StorageDay 2017 und eine Menge Know-how

Ende Oktober fand der SVA StorageDay 2017 statt, der bis in den Dezember hinein auf meinem IT-techBlog sichtbar wurde. Und das aus gutem Grund, schließlich war ich dort vor Ort (in der ziemlich coolen Location Millertorstadion des FC St. Pauli), um mit Teilen der anwesenden SVA-Experten Videointerviews zu führen. Herausgekommen sind insgesamt fünf Gespräche, von denen zwei im Dezember und drei im November online gegangen sind.

[Video] Konrad Trojok, SVA, über kognitive Objektspeicher-Lösungen

[Video] Gero Dieckmann über den SVA StorageDay 2017

Darüber hinaus habe ich zwei weitere Beiträge für meinen noch recht neuen Kunden CAST veröffentlich, und zwar zu den Themen „CAST Highlight ermittelt, wie cloud-tauglich Applikationen sind“ und „Darum ist das frühe Evaluieren von Softwarefehlern so wichtig„.

Ein weiterer Schwerpunkt auf dem IT-techBlog war im Dezember eine ganze Menge an technischem Wissen rund um die Themen „Internet“, „Netzwerktechnik“, „Verschlüsselung“ und „Ping“. Ach ja, und die Tatsache, dass in München wieder einmal ein Supercomputer gebaut wird, war mir eine Nachricht wert, die auf relativ großes Interesse stieß.

SuperMUC-NG: Der nächste Supercomputer aus München

November: SVA Storage Day und Netzwerk-Monitoring

Der November hatte blog- und arbeitstechnisch eine ganze Menge zu bieten. So gingen, wie bereits erwähnt, die ersten drei Blogbeiträge des SVA StorageDay 2017 online.

[Video] Wendel Zacheiss, SVA, über die Dell EMC Isilon-NAS-Plattform

[Video] Sven Kaminski, SVA, über NetApp ONTAP und mehr

[Video] Holger Fröhlich, SVA, über die Hitachi Content Platform

Darüber hinaus habe ich im November eine neue Serie gestartet, und zwar zum Thema Netzwerk-Monitoring, und das aus gutem Grund. So können meine Leser unter anderem lernen, wie das Überwachen von Netzwerkkomponenten funktioniert, worin der Unterschied zwischen Realtime- und Langzeit-Monitoring von Netzwerken besteht, welche Dienste und Komponenten sich überwachen lassen und einiges mehr.

Serie: Wichtige Fragen rund um das Netzwerk-Monitoring

Ansonsten war ich für meinen Kunden CAST aktiv, und zwar zu den Themen „Analyse von DevOps-Projekten“, „DSGVO“, „Cloud-Migration“, „Sicherheit von .NET- und Java-Apps“ und „Softwarequalität bewerten“. Und was im November auch ziemlich gut ankam, was mein Beitrag zum Thema „Fritzbox und Wireshark: WLAN-Router von AVM monitoren“.

Fritzbox und Wireshark: WLAN-Router von AVM monitoren (Teil 1)

Oktober: IBM, CAST und die DSGVO

Mitte September war ich für IBM auf zwei Veranstaltungen, die ich beide in Form von Videoblogbeiträgen für die Nachwelt festhalten durfte. Herausgekommen sind zahlreiche Veröffentlichungen vom IBM Storage Strategy Day 2017 und IBM z14 Launchevent , die die Bandbreite an Gesprächen sehr gut abbilden. Ein Teil davon ging im September online, und der Rest eben erst im Oktober.

[Video] Bernd Bohne von der SDV-IT zu IBM-Mainframes

[Video] Lars Herrmann (IBM) über das IBM Z-Event

Im Oktober begann auch meine Zusammenarbeit mit der Firma CAST, die Analysesoftware bereitstellt. Die ersten Beiträge handelten von der Frage, was CAST mit der IT-SA zu tun hat und warum CAST-Analysetools echte DSGVO-Helfer sind.

Apropos DSGVO: Mitte Oktober war ich unter anderem auf einer IDC-Veranstaltung zu diesem Thema. Herausgekommen sind zahlreiche Tweets und ein zusammenfassender Blogbeitrag. Das hat insgesamt für recht viel Aufmerksamkeit auf meinem Blog gesorgt.

DSGVO-Studie: Lehrreiches IDC-Event zum Thema Datenschutz

September: Praxisbeiträge und IBM-Videoblogposts

Der neunte Monat des Jahres war ziemlich arbeitsreich, wenn ich mir die 14 Einträge so ansehe. Los ging es mit drei Praxisbeiträgen, die allesamt eine Menge an Nutzwert bieten sollten. Damit wollte ich zeigen, wie die Mac-App von wordpress.com das Bloggen vereinfacht, wie sich die Fritzbox von außen steuern und nutzen lässt und wie der Umzug einer Fritzbox auf eine andere vonstatten geht.

Der große Schwerpunkt hatte aber wie bereits geschrieben mit den zwei großen IBM-Events zu tun, die ich in Wort und Bewegtbild begleiten durfte. Dazu gehörte das IBM z14-Event im IBM Watson IoT Center zu München und der IBM Storage Strategy Day 2017, der in der IBM-Zentrale Deutschland stattfand.

Herausgekommen sind neben den beiden verlinkten Rückblicken zahlreiche Videoblogbeiträge zu den Themen Mainframe und Storage.

[Video] Ulrich Walter, IBM, über Künstliche Intelligenz und Storage

[Video] Ralf Colbus (IBM) über die NVMe-Speichertechnik

[Video] Ed Walsh, IBM, über Storage-Trends aus IBM-Sicht

[Video] Dr. Axel Köster von IBM über Cognitive Storage

August: SVA, Fritzbox, Mac und PRTG

Der August ist zumindest in Bayern ein Urlaubsmonat, was mich aber nicht davon abgehalten hat, 17 Beiträge zu veröffentlichen. Los ging’s mit den etwas verspäteten Videoblogposts vom SVA VirtualizationDay 2017, der Mitte Juni stattgefunden hatte. Dort durfte ich fünf Videointerviews führen, die allesamt im August online gegangen sind.

[Videochat] Gero Dieckmann über IT-Slogans, Virtualisierung und den FC St. Pauli

[Videochat] Christian Strijbos über VMware-Lösungen wie VMware NSX

[Videochat] Stefan Müller über virtuelle CAD-/CAM-Arbeitsplätze

[Videochat] Christian Schmidt über software-defined Anything und digitale Transformation

[Videochat] Mark Sobol über EU-DSGVO, WannaCry und mehr

Doch nicht nur mit der SVA habe ich mich beschäftigt, sondern auch mit IBM und der IT-SA, mit meiner PA-Anlage TC-Helion Voicesolo FX150, mit der Navi-App Komoot und einigen anderen Dingen mehr.

Dazu gehört vor allem das Thema Fritzbox, mit dem ich mich intensiver auseinander gesetzt habe, und die Netzwerk-Monitoring-Anwendung PRTG, die ich vorgestellt habe.

Workshop: Internetzugang für Kinder richtig einschränken (Fritzbox 7430)

Und ja, ein Beitrag zum Thema Mac und was ich an den Rechner von Apple so mag, war auch mal wieder fällig.

Juli: IBM z14-Launch in München

Der Juli stand auf dem IT-techBlog ganz im Zeichen des IBM z14-Launch, der unter anderem im Münchner Presseclub stattfand. Und da mich „Big Blue“ eingeladen hatte, konnte ich dort drei Interviews führen, die allesamt auf meinem Blog online gingen.

[Videochat] IBM z14: Machine Learning, Blockchain, Apple Pay & Co.

[Videochat] IBM z14: Mainframes forever, DSGVO-Datenkopfschmerzen und mehr

[Videochat] IBM z14: Sicherheit first + „Made in Böblingen“ [Upd]

Juni: Flash-Event von speicherguide.de in München

Anfang Juni fand in München die erste FastForward Flash-Konferenz statt, die die lieben Kollegen (RIP, Berti!) von speicherguide.de mit organisierten. Damit war für mich ganz klar, dass ich von dort aus Bericht erstatten werde – und das ganz ohne monetäre Gegenleistung. Herausgekommen sind vier interessante Videogespräche auf meinem Blog.

FlashForward-Talk: „Flash ist vor allem für read-intensive Anwendungen interessant“

#flashMunich: „Flash ist der insgesamt günstigste Datenspeicher!“

FlashForward-Chat: „Gar kein Flash einzusetzen, ist wenig sinnvoll“

FlashForward-Talk: „Flash-Speicher wird zunehmend in anderen Szenarien eingesetzt“

Darüber hinaus blieb mir noch Zeit für das genauere Betrachten eines mobilen Videobeamers, dem iCodis CB-400.

April: Die große CeBIT 2017-Nachbetrachtung

Der April stand ganz im Zeichen der CeBIT 2017, auf der ich insgesamt zehn Videobeiträge produziert habe, die ich dann Stück für Stück und nicht alle auf einmal veröffentlicht habe. Dabei war die Bandbreite an Themen sehr groß. Das reichte von einer brandneuen DataCore-Lenovo-Storage-Appliance über IBM Cognitive Computing bis hin zu einem Roboter namens Paul.

CeBIT 2017: Stefan von Dreusche über die DataCore-Lenovo-Storage-Appliance

CeBIT 2017: Stefan von Dreusche über die DataCore-Lenovo-Storage-Appliance

CeBIT 2017: Bas Zwartkruis von ZTE über Smart Cities 3.0

https://www.it-techblog.de/cebit-2017-ulrich-reiser-von-unity-robotics-ueber-den-saturn-roboter-paul/04/2017/

CeBIT 2017: Dr. Hubert Jäger von Uniscon über Sealed Cloud und iDGARD

CeBIT 2017: Jan Füllemann von in-tech engineering zur geplanten eHealth-App

CeBIT 2017: Ulrich Walter von IBM über Künstliche Intelligenz und IBM-Systeme

CeBIT 2017: Oliver Naegele über die Notwendigkeit der Blockchain-Technik

März: CeBIT 2017 und Embedded World 2017

Der März führte mich auf zwei Reisen. Zunächst auf die Embedded World 2017 nach Nürnberg, und anschließend auf die CeBIT, die traditionell in Hannover stattfindet. Allerdings bin ich zum letzten Mal im März auf die CeBIT gefahren, denn von 2018 an öffnet die große IT-Messe im Sommer ihre Tore.

TenAsys-Videoimpressionen von der Embedded World 2017

CeBIT 2017: Yasser Eissa (IBM) über kognitive Cloud-Services in Frankfurt

CeBIT 2017: Gero Dieckmann über die SVA GmbH und künftige Herausforderungen

Februar / Januar: Produkt-Reviews

Der Anfang des Jahres war – wie so oft – ziemlich ruhig hier auf dem Blog. Und so habe ich den zweiten Teil meines MacBook-Pro-mit-Touchbar-Reviews veröffentlicht, genauso wie den Kurztest einer LED-Schreibtischlampe und von nützlichem USB-C-Zubehör, was für das Macbook Pro mit Touchbar hilfreich und nützlich ist.

Meine Erfahrungen mit der Touchbar des MacBook Pro (Teil 2)

 

 

Ethernet

Das sollte man zum Thema Netzwerke wissen

Router, Switch, Arpanet. Drei Begriffe, die man heutzutage kennen sollte, denn alle drei haben mit der Vernetzung von Rechnern und anderen Geräten zu tun. Daher lernen Sie in diesem Netzwerk-Special eine Menge zu Router, Switch und Co.

Sieht man sich die Geschichte des Computernetzwerks an, beginnt dessen Erfolgsstory in Zeiten des Kalten Kriegs, nämlich Ende der 1970er Jahre. Genauer gesagt 1969, da ging nämlich das Arpanet online, das vier US-amerikanische Universitäten miteinander verband. Die Absicht dahinter: Es sollte ein dezentrales Rechennetzwerk entstehen, das auch noch dann funktioniert, wenn einer der zugehörigen Mainframe-Computer durch Sabotage oder ähnliches ausfällt.

Heute nennen wie das Arpanet „Internet“, und die Idee ist immer noch dieselbe. Nur das aus vier Zentralrechnern viele Millionen Webserver geworden sind, die allesamt miteinander verbunden sind.

Das Internet existiert bereits seit Ende der 1950er Jahre

Mit dem Entstehen des Arpanet fand auch der paketgestützte Datentransfer namens X.25 eine große Beachtung. Damit war es möglich, Datenpakete über eine nahezu beliebte Anzahl von Rechnern zu übermitteln, bis die Daten an ihrem Zielort angekommen sind. In diesen Genuss kamen dann Ende der 1980er Jahre auch Privatanwender, die dank öffentlicher Zugänge an Universitäten die Anfänge des Internets nutzen und erleben durften.

Tim Berners-Lee, „Vater“ des heutigen World Wide Web

Fest verknüpft mit den Anfängen des Internets, so wie wir es heute kennen, ist der Name Tim Berners-Lee, der am CERN in Genf das World Wide Web erfand. Und das nur, weil sich das CERN sowohl auf französischem als schweizerischem Boden befand (und immer noch befindet), was die Kommunikation zwischen den einzelnen Rechnern sehr erschwerte. Und so gab Berners-Lee 1990 das Internet in seiner aktuellen Form für die breite Öffentlichkeit frei.

Während dieser Jahre, genauer gesagt ab 1981 mit Einführung des ersten IBM PCs namens 5150, startet die Vernetzung von PCs auch innerhalb lokaler Rechenumgebungen ihren Siegeszug. Für die interne Kommunikation der einzelnen Rechner mussten diese miteinander verbunden werden, was seinerzeit noch spezielle Hard- und Software erforderte. Erst mit der Einführung von Windows 3.11 und Windows NT mit ihren netzwerktauglichen Protokollen kam Schwung in das Thema Vernetzung für jedermann.

IBM 5150

Ethernet und TCP/IP sorgen für massentaugliche Netzwerke

Zeitgleich zur Vernetzung im großen Stil machte eine Technik von sich Reden, die noch heute aktuell ist und die sich in den letzten 40 Jahren zu der Standard-Netzwerktechnik schlechthin gemausert hat. Gemeint ist Ethernet, diese Übertragungstechnik über Kupferleitung.

Heute basiert die komplette Netzwerktechnik in großen Teilen auf Ethernet, da sie sich kostengünstig und sehr einfach implementieren lässt. Dank seiner zunehmenden Bandbreite von 40 und mehr Gigabit kommen Ethernet-Netzwerke auch vermehrt in Hochleistungsumgebungen wie Storage-Netzwerken zum Einsatz.

Ethernet

Der breitangelegte Erfolg von Ethernet ist mit einer weiteren Technik eng verzahnt, ohne die es das Internet und lokale Netze in der heutigen Form nicht gäbe: TCP/IP. Dieses Transportprotokoll sorgt dafür, dass Daten genau dort ankommen, wo sie landen sollen, selbst unter schwierigen Bedingungen.

Hierfür nutzt TCP/IP eine Technik, die auf optimaler Verständigung beruht. Denn nur dann, wenn zwei Rechner bereit sind, ein einzelnes Datum wie ein Musikstückschnipsel oder ein Fragment eines Bildes zu übertragen und zu empfangen, kommt der Datenaustausch zustande. TCP/IP entstand übrigens während der Entwicklung des Arpanet und spielt daher für den Internet-Boom eine große Rolle.

TCP/IP, HTTP, IMAP: diese Protokolle gibt es

Das wohl bekannteste Protokoll nennt sich TCP/IP, was für Transmission Control Protocol/Internet Protocol steht. Im Grunde ist es eine Protokollfamilie, die sich aus den Teilen TCP und IP zusammensetzt. Bekannt ist es deshalb, da jeglicher Internetverkehr, aber auch das Versenden und Empfangen lokaler Daten über das TCP/IP-Protokoll erfolgt. 

Mindestens genauso berühmt ist HTTP, eine Kurzform von Hypertext Transfer Protocol. Es sorgt dafür, dass die Webseiten, die auf einem Webserver gespeichert sind, von einem Internetbrowser wie dem Internet Explorer, Firefox oder Google Chrome richtig dargestellt werden. HTTP wird auch als Dateiübertragungsprotokoll benutzt.

Immer, wenn Sie eine E-Mail empfangen oder versenden, kommen drei Protokolle ins Spiel: POP3, SMTP und IMAP. Dabei sorgt das Post Office Protocol Version 3 (POP3) für das Abrufen von E-Mail-Nachrichten vom Mailserver, das Simple Mail Transfer Protocol (SMTP) hingegen kümmert sich um das Versenden von E-Mails über den E-Mail-Server. Da POP3 und SMTP diverse Nachteile aufweisen, kommt für das Versenden und Empfangen von Mails immer häufiger das Internet Message Access Protocol (IMAP) zum Einsatz.

Aber auch das File Transfer Protocol (FTP) hat seine Berechtigung: Damit lassen sich Daten von einem lokalen Rechner auf einen Server übertragen und von dort aus auf einen anderen PC transferieren. Allerdings verliert FTP in Zeiten von Blogsystemen wie WordPress immer mehr seine Bedeutung.

Diese Aufgaben erledigen Protokolle

Protokolle kümmern sich vor allem um den Verbindungsaufbau zwischen zwei Endgeräten wie einem Notebook und einem Smartphone. Aber auch die zuverlässige Datenübertragung gehört zu den Aufgaben eines Netzwerksprotokolls. Sollte dabei etwas schief gehen, kümmert sich das Protokoll um den erneuten Zustellversuch eines Datenpakets. Wichtig dabei ist auch die richtige Reihenfolge, in der mehrere Datenpakete beim Empfänger ankommen sollen. Auch dafür sind die Protokolle zuständig.

Typischer Aufbau eines Protokolls

Jedes Protokoll verfolgt einen bestimmten Aufbau, der für den fehlerfreien Datenaustausch erforderlich ist. Hierfür wird beispielsweise festgelegt, wie Absender und Empfänger heißen, damit alle anderen Rechner innerhalb eines Netzwerks die entsprechenden Datenpakete ignorieren.

Zudem wird bestimmt, um welchen Pakettyp es sich handelt, wie groß das Datenpaket ist, aus wie vielen Teilen die Datenübertragung besteht und einiges mehr. Wichtig dabei sind auch sogenannte Prüfsummen, die mithilfe bestimmter Berechnungen feststellen, ob sich ein Datenpaket während der Übertragung vom Empfänger zum Sender verändert hat. Sollte das nämlich der Fall sein, wird der erneute Datenversand initiiert.

Router: Datenvermittler mit eigener Intelligenz

Ein Router wie die allseits bekannte Fritzbox von AVM hat vor allem zwei Funktionen: Er leitet Datenpakete vom Sender zum Empfänger und blockiert diese bei Bedarf. Dabei weiß der Router stets, für wen die Daten bestimmt sind, die ihn gerade erreichen. Hierzu steht ihm eine sogenannte Routing-Tabelle zur Verfügung, in der steht, über welche Schnittstelle das jeweilige Datenpaket weitergeleitet bzw. zugestellt werden soll. Diese Informationen stehen auf Basis des TCP/IP-Protokolls bereit. Ganz ähnlich funktioniert das Blockieren unerwünschter Datenpakete, die Hacker unbemerkt in Datennetze einzuschleusen versuchen.

Router

Auf dem Markt tummeln sich zahlreiche Router-Typen, die je nach Anwendungsbereich bestimmten Anforderungen genügen. Für Betreiber von Onlineshops kommen beispielsweise Highend-Geräte in Betracht, die über redundante Komponenten wie ein zweites Netzteil verfügen, um so die Wahrscheinlichkeit eines Router-Ausfalls zu minimieren.

Daneben existieren zahlreiche, weniger leistungsfähige Router-Modelle wie die Fritzbox, die aufgrund ihrer umfangreichen Ausstattung echte Allrounder sind. Diese Low-Cost-Geräte lassen sich vor allem in kleineren Firmen und Agenturen einsetzen. Dazu gehören zweifelsohne die Router von AVM, die allerdings kaum die Sicherheit bieten, die in vielen Firmen unabdingbar ist. 

Switches: Schneller Datentransfer für lokale Netze

Ein Switch verfügt im Gegensatz zum Router über keine eigene „Intelligenz“, sondern verbindet lediglich mehrere Rechner miteinander und leitet ankommende Daten weiter. Daher geschieht die Datenübertragung zwischen TCP- und Hardware-Ebene, und nicht wie bei den Routern auf IP-Basis. Hierzu kennt der Switch sämtliche Ethernet-Ports der angeschlossenen Computer und speichert diese in einer zugehörigen Tabelle. Kommt ein Datum am Switch an, kann dieser das Paket direkt weiterleiten. Daher geschieht der Datentransport über Switches meist sehr schnell.

Für das noch schnellere Weiterleiten von Daten kommen diverse Methoden zum Einsatz, eine der Schnellsten nennt sich „Fragment Free“. Dabei werden Datenpakete erst ab einer bestimmten Größe weitergeleitet, um somit die Datenvermittlung von ganz kleinen Paketen zu unterbinden.

Repeater & mehr: Reichweite erhöhen und Hotspots schaffen

Vor allem in Netzwerken, in denen Anwender häufig mit Notebook, Smartphone und Tablet unterwegs sind, spielen drahtlose WLAN-Router eine große Rolle. Für die bessere Erreichbarkeit oder eine höhere Reichweite bietet sich der Einsatz zweier Spezialgeräte an: Repeater und Wireless Access Point.

Fritzbox 7430

Repeater verbinden sich zu diesem Zweck drahtlos mit dem WLAN-Router und können damit die Reichweite eines drahtlosen Netzwerks deutlich erhöhen. Hierfür lassen sich sogar mehrere Repeater in einem Netzwerk installieren.

Wireless Access Point hingegeben fungieren als drahtloser Zugangspunkt in einem Netzwerk, so wie man das von öffentlichen Hotspots kennt. Der Access Point ist wiederum per Kabel mit einem Router verbunden, der die Datenpakete dann zum gewünschten Empfänger weiterleitet – sei es lokal innerhalb eines abgeschlossenen Netzwerks oder via Internet an einen entfernten Rechner.

Das sollte man über Firewalls wissen

Das Funktionsprinzip einer Firewall ist recht simpel: Der ein- und ausgehende Datenverkehr wir anhand bestimmter Regeln überwacht. Sobald ein oder mehrere Datenpakete eine dieser Regeln verletzten, blockiert die Firewall den Datenstrom und schützt damit das lokale Netzwerk vor fremden Zugriffen oder Bedrohungen. Hierfür kommen diverse Lösungen infrage, die entweder als reine Software-Anwendung oder als Hardware-Firewall feilgeboten werden. Die möglichen Firewall-Schutzvorrichtungen weisen zahlreiche Unterschiede auf und erhöhen damit den Schutz von kaum bis bestmöglich.

Professionelle Firewalls regeln den Datenverkehr und schützen das interne Netzwerk

Kaum Schutz vor Eindringlingen: Software-Firewalls

Zahlreiche Firewall-Programme buhlen um die Gunst der Käufer, immer mit dem Versprechen verknüpft, einen robusten Schutz zu bieten. Für private Anwender mag das noch halbwegs stimmen, da der PC, auf dem die Firewall-Software installiert ist, vor unliebsamen Besuchern geschützt wird. Für Firmen mit mehreren Rechnern gilt das schon nicht mehr, da es meist schon genügt, mit geringem Aufwand den PC von außen solange mit gefälschten oder massenhaften Daten zu „beschießen“, bis entweder die Schutzsoftware oder der Rechner in die Knie gehen. 

Mehr Schutz, wenngleich eingeschränkt: Router-Firewalls

In jedem heute verfügbaren (WLAN-)Router steckt eine Firewall, und das mit den mehr oder weniger ähnlichen Schutzmechanismen. Ob Paket- und Content-Filter, Stateful Packet Inspection oder DMZ (Demilitarized Zone) – Fritzbox und Co. beherrschen die wichtigsten Filterfunktionen, mit denen die guten von den schlechten Datenpaketen getrennt werden können.

Allerdings, und darin unterscheidet sich ein Router von einer expliziten Firewall-Appliance (s. nächster Abschnitt), schützen diese Geräte aufgrund der geringen Rechenleistung und der nicht vorhandenen Funktionen ein Netzwerk nur eingeschränkt. Für kleinere Firmen und Home Offices mit geringen Sicherheitsbedenken mag das ausreichen – für alle anderen nicht.

Noch mehr Schutz für kleinere und mittelgroße Firmen: Firewall-Appliances

Wer es deutlich sicherer will als mit den Router-Firewalls sollte zu dedizierten Hardware-Firewalls greifen, die es in mannigfaltiger Ausprägung am Markt gibt. Dieses Geräte unterscheiden sich vor allem in der Hardware-Ausstattung. Dazu zählt speziell der verbaute Prozessor, der darüber befindet, wie viele Datenverbindungen parallel überwacht werden können. Das wieder bestimmt den Sicherheitsgrad eines Netzwerks, das von der Firewall überwacht wird. Aber auch die Zahl der möglichen Verbindungen von außen ins Firmennetzwerk (sogenannte VPN-Tunnel) variiert von Gerät zu Gerät.

Netzwerkschutz at its best: Next Generation Firewalls

Im Gegensatz zu den traditionellen Firewalls, die wie beschrieben rein datenpaket-orientiert arbeiten, können die Firewalls der nächsten Generation (NGF) Anwendungen und Benutzer im Datenstrom erkennen. Hierfür nutzen sie Techniken wie IPS (Intrusion Prevention System), mit denen sich Protokolle und Anwendungen unabhängig von ihren Einfallskanälen (Ports) identifizieren lassen. Ziel des Ganzen ist das Erkennen von manipulierten Datenpaketen, die beispielsweise mithilfe einer Anwendung wie einem Browser in das Netzwerk eingeschleust werden sollen. Damit arbeiten Next Generation Firewalls sehr viel kontextbasierter als die herkömmlichen Firewall-Lösungen.

Wissenswertes zum Thema Ethernetkabel

Bis vor ein paar Jahren tummelten sich diverse Netzwerkkabel am Markt, übrig geblieben davon ist vor allem eins: Ethernet-Kabel vom Typ Twisted Pair. Der Name beruht darauf, das sich in solch einem LAN-Kabel vier Kupferdrahtpaare befinden, was eine bessere Abschirmung vor elektromagnetischen Störquellen wie Stromleitungen bedeutet, die solch einem Übertragungsmedium ausgesetzt ist. Darunter würde nämlich die Datenrate leiden, was man tunlichst vermeiden will. 

Ethernetkabel

Wenn es aber nur noch Twisted Pair Ethernetkabel gibt, worin unterscheiden sie sich überhaupt? Nun, die zwei wesentlichen Unterschiede betreffen die Abschirmung und die Übertragungsfrequenz des Kabels. Beides wirkt sich auf die Übertragungsleistung, sprich auf die mögliche Geschwindigkeit bei der Datenübertragung aus.

UTP oder STP: Auf die richtige Ummantelung kommt es an

Ethernetkabel gibt es in den Ausprägungen „geschirmt“ (STP; Shielded Twisted Pair) und „ungeschirmt“ (UTP; Unshielded Twisted Pair). Ungeschirmte Kabel weisen eine schlechtere Übertragungsleistung als STP-Kabel auf, wenn damit längere Strecken überbrückt werden sollen. Daher sollte man zu UTP-Kabel nur dann greifen, wenn man PCs verkabeln will, die sich beispielsweise in einem Raum oder im selben Stockwerk befinden. Darüber hinaus sollten die zu übertragenden Daten nicht sonderlich störanfällig sein. Bei Video- und Musikdaten ist das beispielsweise der Fall.

Von STP bis S/FTP: Darin unterscheiden sich geschirmte LAN-Kabel

Geschirmte LAN-Kabel weisen unterschiedliche Materialien zum Schutz vor Störquellen auf, wovon die genaue Bezeichnung und der Schutzgrad abhängt. So nennen sich Kabel mit einer Aluminiumfolie als Abschirmung Foiled Twisted Pair (FTP), kommt hingegen ein Kupfergeflecht zum Einsatz, nennt sich das zugehörige Kabel STP (Screened Twisted Pair).

Darüber hinaus gibt es am Markt Kombinationen aus beiden Abschirmungstechniken, die sich S/STP (Screened Shielded Twisted Pair) und S/FTP (Screened Foiled Twisted Pair) nennen. Dabei werden je zwei Aderpaare gegeneinander abgeschirmt. Diese Kabeltypen kommen vor allem in störanfälligen Gigabit-Netzwerken zum Einsatz.

CAT5 bis CAT7: Eine Frage der Übertragungsqualität

Bei den Twisted Pair-Kabeln sind derzeit drei Kategorie von Relevanz: CAT5, CAT6 und CAT7. Diese unterscheiden sich vor allem in der Betriebsfrequenz, für die sie ausgelegt sind, was direkten Einfluss auf die Übertragungsqualität hat. So versenden und empfange CAT5-Kabel, die stets vom Typ UTP sind, Daten auf einer Frequenz von 100 MHz. Sie sind für hohe Übertragungsraten und geringe Störeinflüsse geeignet.

CAT6-Kabel (ebenfalls vom Typ UTP) übertragen Daten auf einem 250-MHz-Spektrum und kommen in 10-Gigabit-Netzwerken zum Einsatz, die ebenfalls relativ frei von Störquellen sind. Bei CAT7-LAN-Kabeln handelt es stets um STP-Modelle mit unterschiedlicher Ummantelung. Diese Kabel senden und empfangen auf 600 MHz bzw. 1000 MHz und sind für störanfällige 10-Gigabit-Netzwerke konzipiert.

Netzwerk-Zusatzgeräte: Powerline-Adapter, Printservern und Co.

Speziell in mehrstöckigen Einfamilien- und Reihenhäusern, in denen das drahtlose Signal des WLAN-Routers nicht alle Netzwerkteilnehmer erreicht, stellen Powerline-Adapter eine erprobte Erweiterung des WLAN-Signals dar. Diese kleinen Geräte werden hierzu einfach nur paarweise mit jeweils einer Steckdose verbunden, und schon findet der Datenaustausch zwischen zwei (W)LAN-Teilnehmern über die Stromleitung statt.

Dabei wir normalerweise der Router per Ethernetkabel mit dem einen Powerline-Adapter und der andere drahtlos oder per LAN-Kabel mit dem zweiten Adapter verbunden. Das Ergebnis eine verbesserte Reichweite und eine höhere Datenübertragungsrate als mit einer ausschließlich drahtlosen WLAN-Verbindung.

Printserver: Gemeinsames Drucken im Netzwerk

Anstatt für jeden Netzwerkrechner einen eigenen Drucker bereit zu stellen, erlauben sogenannte Print- oder Druckerserver den gemeinsamen Zugriff durch mehrere Anwender auf einen Drucker oder ein Multifunktionsgerät. Hierfür wird der Printserver mit dem USB- oder Ethernet-Anschluss des Druckers verbunden, der Zugriff darauf erfolgt dann entweder über das kabelgebundene oder drahtlose Ethernet-Netzwerk.

Spezielle Printserver wie der DPR-1020 von D-Link bieten sogar die Möglichkeit, auf Funktionen zuzugreifen, die nur Multifunktionsgeräte bieten. Die Rede ist vom dezentralen Kopieren, Faxen und Scannen mithilfe des Druckerservers. Diese Netzwerkkomponenten können unter Windows, Mac OS X und Linux betrieben werden.

Printserver

Repeater: Erhöhung der drahtlosen Reichweite

Ganz ähnlich wie die Powerline-Adapter erhöhen sogenannte Repeater die Reichweite eines lokalen Networks, allerdings nur auf WLAN-Basis. Hierfür verbinden sich Repeater und Router auf demselben Frequenzband miteinander, sodass die Daten vom Computer des Anwenders zunächst auf dem Repeater und anschließend auf dem Router landen, von wo sie aus beispielsweise mit einem anderen Netzwerkteilnehmer ausgetauscht werden können.

Auf diese Weise findet auch der Zugriff auf das Internet statt. Bei der Wahl des passenden Repeaters sollte auf eine bestmögliche Kompatibilität geachtet werden. So bietet beispielsweise die Firma AVM zu ihren Fritzbox-Router-Modellen dazu passende Fritzbox-Repeater, die sich quasi per Knopfdruck miteinander verbinden lassen.

Nehmen Sie mit mir einfach Kontakt auf

Hat Ihnen der Beitrag gefallen? Haben Sie Fragen zum Bloggen? Benötigen Sie Blog-Support? Dann nehmen Sie am besten noch heute Kontakt mit mir auf.

[pirate_forms]