- Anzeigen -


Sie sind hier: Home » Fachbeiträge » Grundlagen

Der primäre Anwendungsfall unserer Zeit


Hardware-Appliances im Rechenzentrum: Zeit Lebwohl zu sagen
Ist es an der Zeit, sich von den letzten physischen Appliances wie Load Balancers und Web Application Firewalls zu verabschieden
?



Von Guntram Alffen, Avi Networks

Es scheint ein Widerspruch zu sein: Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Und sagten einige Experten vor gut zehn Jahren voraus, dass das Rechenzentrum der Zukunft vollständig in der Cloud betrieben würde, sehen wir heute, dass dies nicht eingetreten ist. Stattdessen führten Unternehmen Hybrid- und Multi-Cloud-Umgebungen ein, die ihnen die Wahl geben, ihren Anwendungen und Daten das ideale Zuhause zu geben.

Hybrid und Multi-Cloud sind der primäre Anwendungsfall unserer Zeit.
Aufgrund dieses Ansatzes, und obschon viele Unternehmen einen Teil ihrer Workloads auf externe Cloud-Provider verlagern, bleibt die lokale Infrastruktur im Rechenzentrum ziemlich fest etabliert. Die Cloud ist oft nur eine Erweiterung des Rechenzentrums, wobei die hybride Cloud der primäre Anwendungsfall unserer Tage ist. Einer der Gründe, warum das Rechenzentrum weiter fest verankert bleibt, sind die Verschärfung der Compliance-Regeln. Vor allem in Europa hat die neue Gesetzgebung der DSGVO dazu geführt, dass Organisationen mehr Wert auf ihr eigenes Rechenzentrum legen, das einfacher abzusichern und zu kontrollieren scheint. Die Kontrolle jeder Facette der eigenen Architektur mag aufwändig klingen, aber zumindest haben Unternehmen die volle Kontrolle darüber, was mit ihren Daten passiert. Alle großen Public Cloud-Anbieter hatten in der Vergangenheit sowohl Ausfallzeiten als auch Datenverluste. Und Technologien für eine erhöhte Verfügbarkeit im Rechenzentrum sind schon seit ein paar Jahren verfügbar.

Ein weiterer Grund, warum Organisationen ihre Daten in unmittelbarer Nähe behalten wollen, ist das relativ neue Phänomen der "Data Gravity". Die Datenmenge wächst seit einiger Zeit exponentiell und wird weiter zunehmen, etwa indem die Digitale Transformation Technologien wie das Internet der Dinge oder künstliche Intelligenz ermöglicht. Das Problem mit wachsenden Datenmengen ist jedoch, dass sie fast nicht mehr zu bewegen sind. Selbst mit fortschrittlichen Netzwerktechnologien wie Glasfaser wird es nahezu unmöglich sein, größere Datensätze zur zeitnahen Verarbeitung an einen anderen Ort zu senden.

Dies hat dazu geführt, dass Unternehmen ihre Rechenleistung für die Verarbeitung von Daten in die Nähe des Standorts der Daten verlagern. Branchenschwergewichte wie Microsoft und Amazon haben bereits auf diesen Trend reagiert und bieten Azure Stack und Amazon Outpost an, die Cloud-Technologie in das Rechenzentrum bringen. Ein weiteres Zeichen für diesen Trend ist die steigende Nachfrage nach Edge Computing. Edge Computing verarbeitet und speichert Daten dort, wo sie erzeugt werden, ohne dass sie zuerst verschoben werden müssen.

Natürlich würde niemand, der bei klarem Verstand ist, Workloads und Daten aus einer modernen Cloud-Infrastruktur in ein altmodisches, hardwarebasiertes Rechenzentrum verschieben. Seitdem Unternehmen jedoch auf eine softwaredefinierte Infrastruktur im Rechenzentrum umgestellt haben, um sie für Hybrid- und Multi-Clouds fit zu machen, ist es nun problemlos möglich, davon Gebrauch zu machen - und sogar Apps zurück ins Rechenzentrum zu holen. Der aktuelle Trend der Cloud-Repatriation belegt diese Entwicklung.

Aber einer der langjährigen Bewohner des Rechenzentrums passt nicht in die neue hybride und Multi-Cloud-Welt, die auf Geschwindigkeit, Flexibilität und Wahlmöglichkeiten ausgerichtet ist: die gute alte Hardware-Appliance. Zu den letzten noch vorhandenen physischen Appliances in vielen Rechenzentren gehören der Load Balancer oder die Web Application Firewall.

Appliances werden zum Engpass im Rechenzentrum.
Die Server-Virtualisierung läutete einst den Aufstieg des Software-definierten Rechenzentrums ein. Heutzutage sind die meisten modernen Organisationen größtenteils virtualisiert, was ihnen eine bessere Automatisierung und Elastizität verleiht. Dennoch setzen viele Unternehmen immer noch auf physische und virtuelle Appliances für Anwendungsdienste wie Load Balancing und WAF. Das Ziel für Unternehmen ist es jedoch, dass Rechenzentren durch softwaredefinierte Technologie cloud-ähnlicher werden.

Aber Hardware und virtuelle Appliances bieten keine cloud-ähnliche Funktionalität - und untergraben damit die Modernisierung. Diese Geräte befinden sich zwischen zwei Welten. Sie haben immer noch eine Funktion, die jedoch in der Vergangenheit verwurzelt ist, und funktionieren in der neuen Welt der softwaredefinierten Infrastruktur nicht wirklich gut.

Das klassische Beispiel ist der traditionelle Load Balancer. Er kann nicht auf die Cloud umsteigen, und seine Zeit läuft ab. Unternehmen ersetzen ihn im Rechenzentrum durch moderne Software-Load-Balancer, die in die flexiblere, softwaredefinierte Welt passen. Der Schritt ist längst überfällig, da Load-Balancer-Appliances inhärente Mängel aufweisen, die hauptsächlich mit ihrer begrenzten Automatisierung und Skalierbarkeit zusammenhängen - eine Disziplin, in der softwaredefinierte Technologien herausragen. Die Hardware-Appliances lediglich zu virtualisieren reicht nicht aus, da die Technologie sich nicht in die software-definierte Welt integrieren lässt.

Frei nach Mark Twain: Die Nachricht vom Tod des Rechenzentrums ist stark übertrieben. Im Gegenteil, das Rechenzentrum bleibt wo es ist, nur eben nicht so, wie wir es uns vorgestellt haben. Die Nutzung der Cloud bietet die fehlende Flexibilität und Agilität und da Unternehmen ihr eigenes Rechenzentrum nicht so schnell aufgeben werden, ist das neue Rechenzentrum eben Cloud-ähnlich. Das bedeutet, dass das Rechenzentrum neu strukturiert werden muss, um softwaredefiniert zu sein. Um dies zu erreichen, müssen Unternehmen softwaredefinierte Lösungen begrüßen und alte Hardware und virtuelle Appliances endlich dorthin schaffen, wo sie hingehören: Auf den Schrotthaufen der IT-Geschichte. (Avi Networks: ra)

eingetragen: 11.07.19
Newsletterlauf: 13.08.19

Avi Networks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Grundlagen

  • Zertifikat ist allerdings nicht gleich Zertifikat

    Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

  • Datensicherheit und -kontrolle mit CASBs

    Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

  • KI: Neue Spielregeln für IT-Sicherheit

    Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

  • DDoS-Angriffe nehmen weiter Fahrt auf

    DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

  • Fluch und Segen des Darkwebs

    Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.