- Anzeigen -


Sie sind hier: Home » Markt » Hintergrund

Rechenzentrumsausfälle durch Attacken


Rechenzentrumsinfrastruktur 2017: Trendprognose
Trends wie Cloud, Big Data und Mobility rücken immer mehr in den Fokus - Wer sich in der IT diesen Entwicklungen verweigert wird untergehen

- Anzeigen -





Vertiv, früher Emerson Network Power, stellt sechs Trends vor, die 2017 für die Infrastruktur von Rechenzentren wichtig werden. Diese Trends schließen sich an die Rechenzentrumsinnovationen 2016 an, die im letzten Jahr von Emerson Network Power veröffentlicht wurden. "Weltweite Trends wie Cloud, Big Data und Mobility rücken immer mehr in den Fokus. Wer sich in der IT diesen Entwicklungen verweigert wird untergehen", so Reinhard Purzer, Vice President & Managing Director Deutschland, Österreich & Schweiz (DACH) von Vertiv. "Aber um hier mithalten zu können, braucht man leistungsfähige Infrastrukturen – Systeme, die agil und skalierbar sind. Wir glauben, dass nach einem Boom im Applikationsbereich das Augenmerk 2017 stärker auf der Zukunftsfähigkeit der Rechenzentren liegen muss: nur wer es versteht, die Möglichkeiten richtig zu kombinieren, ressourcensparend einzusetzen und dennoch vollkommen flexibel zu bleiben, kann wirtschaftlich arbeiten."

Die folgenden sechs Infrastrukturtrends werden das Ökosystem Rechenzentrum 2017 prägen:

1. Die Infrastruktur wird mit der Konnektivität am Netzwerkrand Schritt halten müssen
Verteilte IT und das industrielle Internet der Dinge (IIoT) bringen die IT-Ressourcen näher zu den Benutzern und industriellen Prozessen. Dabei bleibt das Rechenzentrum das Herzstück bei der Bereitstellung von Anwendungen und Dienstleistungen, wie beispielsweise am Point of Sale oder bei der Bestandsverwaltung. Doch je mehr Daten durch Sensoren und Geräte entstehen und je mehr Anwender aus der Ferne einen schnellen Zugriff auf diese Daten benötigen, desto mehr Netzwerkschränke und Mikro-Rechenzentren werden eingesetzt. Deswegen nimmt deren Bedeutung zu. Um auf diese Veränderungen zu reagieren, werden sich Unternehmen mehr für vorkonfigurierte Mikro-Rechenzentrumslösungen interessieren, die eine schnelle Bereitstellung, ein höheres Maß an Standardisierung und die Fernverwaltung über verteilte IT-Standorte hinweg unterstützen. Standardisierung und Modularität werden damit für verteilte IT-Standorte genauso wichtig, wie sie es bereits jetzt für große Rechenzentren sind.

Vorhandene Netzwerkschränke und entfernte IT-Standorte werden auch neu bewertet werden. Denn es muss sichergestellt werden, dass die Stromversorgungs- und Kühlsysteme ausreichen, um der zunehmenden Bedeutung dieser Standorte gerecht zu werden. Nicht zuletzt, weil diese zunehmend für die lokale Sammlung und Analyse der von den vernetzten Sensoren und Geräten stammenden Echtzeitdaten verantwortlich sein werden.

2. Thermal Management ist zunehmend von Nachhaltigkeit geprägt
Wohl kaum ein anderes System im Rechenzentrum hat sich in den vergangenen fünf Jahren so verändert wie die Kühlung. Ausschlaggebend dafür war der Wunsch nach Senkung der Energiekosten. So wurden traditionelle Ansätze, die auf "maximale Kühlung" abzielten, durch intelligentere Ansätze ersetzt, bei denen es um eine möglichst effiziente Wärmeableitung geht. Die zunehmende Verwendung moderner Economizer-Technologien und die Weiterentwicklung intelligenter Lösungen zur Klimaregelung ermöglichen hochflexible Thermal-Management-Strategien, mit denen sich PUE-Werte unter 1,2 erzielen lassen.

Neben der Energieeffizienz, die weiter ein wichtiger Faktor bleibt, spielen in einigen geografischen Regionen auch Faktoren wie der Wasserverbrauch und der Kühlmitteleinsatz eine wachsende Rolle. Dank der erweiterten Vielfalt an heute verfügbaren Thermal-Management-Strategien können sich die Betreiber von Rechenzentren ein maßgeschneidertes Thermal Management für ihren Standort und ihre verfügbaren Ressourcen zusammenstellen. Globale Markttrends zeigen eine zunehmende Nutzung von neuen Technologien wie dem Einsatz von Verdunstungs- und adabiatischer Kühlung, bei denen Wasser zur Kühlung der Umgebungsluft verwendet wird. Diese Technologien bieten ein hocheffizientes, zuverlässiges und sparsames Thermal Management.

Wo die Verfügbarkeit oder der Preis von Wasser jedoch problematisch sind, gewinnen Kühlsysteme ohne Wasser an Bedeutung. Ein traditionelles Kaltwassersystem mit offenem Kreislauf benötigt zur Kühlung von 1 MW an IT-Kapazität pro Jahr mehr als 15 Millionen Liter Wasser. Dank neuartiger Economiser-Systeme mit Kältemittelpumpe, die kein Wasser benötigen und dem Rechenzentrum keine Außenluft zuführen, konnten in Nordamerika 2016 fast vier Milliarden Liter Wasser eingespart werden.

3. Sicherheitsverantwortung verlagert sich zunehmend in das Rechenzentrumsmanagement
Während es in den Schlagzeilen vor allem um Datendiebstahl geht, ist die IT-Sicherheit längst auch zu einem Verfügbarkeitsproblem von Rechenzentren geworden. Die Studie des Ponemon Institute zu den Kosten von Rechenzentrumsausfällen für 2016 kam zu dem Ergebnis, dass Cyber-Angriffe für 22 Prozent der untersuchten Rechenzentrumsausfälle verantwortlich waren.

Je mehr Geräte vernetzt sind, um die Verwaltung zu vereinfachen und letztlich die Automatisierung zu ermöglichen, desto mehr Angriffsziele gibt es. Rechenzentrumsexperten ordnen daher die Sicherheit auf ihrer Prioritätenliste ganz oben ein und suchen zunehmend nach Lösungen, um Schwachstellen zu erkennen und die Abwehr von Angriffen zu verbessern. Management-Gateways, die Daten von zahlreichen Geräten für die Unterstützung von DCIM konsolidieren, können hier eine Lösung sein. Mit einigen Änderungen erkennen sie ungesicherte Ports in der gesamten kritischen Infrastruktur und warnen rechtzeitig vor Denial-of-Service-Angriffen.

4. DCIM bewährt sich
DCIM wird seinen Wert weiter unter Beweis stellen. Das gilt sowohl für Probleme, die sich schon jetzt damit lösen lassen, als auch für seine Fähigkeit zur erfolgreichen Verwaltung des immer komplexeren Ökosystems Rechenzentrum. Zukunftsorientierte Betreiber meistern mit DCIM ihre Herausforderungen im Rechenzentrum. Dazu zählen die Einhaltung behördlicher Vorschriften, die Information Technology Infrastructure Library (ITIL) und die Verwaltung hybrider Umgebungen. Letztlich sehen auch Colocation-Anbieter in DCIM ein wertvolles Tool. Sie analysieren damit ihre Kosten pro Kunde und können ihren Kunden remote Einblicke in deren Ressourcen gewähren.

DCIM hat sich zur Vorstufe des IIoT im Rechenzentrum entwickelt. Denn es gibt die gewünschten Einblicke, ermöglicht eine erweiterte systemübergreifende Koordination und unterstützt die Automatisierung – und damit den Kern der Wertschöpfung des IIoT.

5. Alternativen zur Blei-Säure-Batterie werden verfügbar
Neue Lösungen für das schwächste Kettenglied bei den Stromversorgungssystemen von Rechenzentren zeichnen sich ab. Denn die Betreiber wollen den Platzbedarf, das Gewicht und die Gesamtkosten von herkömmlichen ventilgeregelten Blei-Säure-Batterien (VRLA) senken. Dabei sind Lithium-Ionen-Batterien die vielversprechendste Lösung. Die Preise der Lithium-Ionen-Batterien sinken, und ihre Chemie und Konstruktionsweise werden ständig weiterentwickelt. Sie lassen sich auf die Anforderungen auf Reihen- und Raumebene skalieren und werden damit zu einer sinnvollen Option für das Rechenzentrum. Obwohl diese Technologie für Batterien bereits zuvor verfügbar war, sorgt die verbesserte Wirtschaftlichkeit für erhöhte Vermarktungsbemühungen in der Rechenzentrumsbranche.

Die Betreiber von Rechenzentren sind schon seit langem an Alternativen für Blei-Säure-Batterien interessiert, doch die bisher verfügbaren Technologien konnten mit dem Wert und der Speicherkapazität herkömmlicher Batterien nicht mithalten. Jetzt zeichnen sich echte Alternativen ab, mit denen der Platzbedarf gesenkt, die Laufzeiten verlängert und die Nachhaltigkeit verbessert werden kann.

6. Noch stärkere Integration von Rechenzentrumsdesign und -bereitstellung
In den vergangenen Jahren hat die Technologie-Integration in Rechenzentren stark zugenommen. Betreiber verlangen modulare, integrierte Lösungen, die schnell bereitgestellt, leicht skaliert und effizient betrieben werden können. Jetzt gilt diese Philosophie auch bei der Entwicklung von Rechenzentren. Die schnelle Markteinführung ist einer der wesentlichen Treiber für die Firmen, die heute den Großteil der Rechenzentrumskapazität entwickeln. Sie haben erkannt, dass die traditionell abgeschotteten Strukturen zwischen der Entwicklungs- und Konstruktionsphase hinderlich und unproduktiv sind. Daher verfolgen sie inzwischen bei Design und Bereitstellung von Rechenzentren schlüsselfertige Konzepte. Diese umfassen integrierte, modulare Designs, die die Konstruktion unabhängig vom vorgesehenen Standort machen, und ein diszipliniertes Projektmanagement. Anbieter, die Infrastruktur-Know-how, Design- und Engineering-Fähigkeiten und leistungsfähiges Projektmanagement zur Lieferung von schlüsselfertigen Lösungen kombinieren, können schneller bessere Rechenzentren bauen.

"Eine starke IT-Infrastruktur ist und bleibt Mittelpunkt des Erfolgs für Unternehmen, die dynamisch zwischen on-Premise und Cloud-basierten Technologien wechseln wollen.", erklärt Reinhard Purzer. "Zwei Trends werden das nächste Jahr prägen: der Umgang mit den immer größeren Datenmengen, die gespeichert, verarbeitet und ausgewertet werden müssen und die Sorge um die Sicherheit eben dieser Daten. Diesen Anforderungen gerecht zu werden, ist alleine kaum möglich. Hier braucht man einen Partner, der bei Rechenzentren jederzeit Hilfestellung leisten kann – sei es bei Skalierbarkeit und effizienten Betrieb, sei es bei der Absicherung gegen die immer raffinierteren Angriffe. Eine langjährige Erfolgsgeschichte im Bereich des Rechenzentrumsbetriebs ist dabei Gold wert."
(Vertiv: ra)

eingetragen: 22.01.17
Home & Newsletterlauf: 07.02.17


Vertiv: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser IT SecCity-Newsletter
Ihr IT SecCity-Newsletter hier >>>>>>

- Anzeigen -



Meldungen: Hintergrund

  • Debatte zu Screen Scraping und PSD2

    Soll das Screen Scraping als Fallback-Option im Rahmen der EU-Richtlinie über Zahlungsdienste (Payment Services Directive 2; PSD2) erlaubt werden? Die FIDO Alliance hat die Diskussionen zu diesem Thema zwischen der Europäischen Kommission (EC) und der Europäischen Bankenaufsichtsbehörde (EBA) aufmerksam verfolgt, insoweit sie die Regularien der technischen Standards (RTS) für eine starke Kundenauthentifizierung unter PSD2 betrifft. Ich habe Kernpunkte der Antwort der FIDO Alliance auf diese Frage folgend zusammengefasst.

  • Sicherheitsrisiken nicht auf Kunden abwälzen

    Software, die schlecht programmiert, schlecht gewartet oder schlecht konfiguriert ist, führt zu den meisten Cyber-Angriffen - das zeigen Cyberbedrohungen wie WannaCry, Locky oder das Mirai-Botnet. "Es lassen sich viele Kosten senken, wenn Hersteller von Software die Sicherheit von Anfang an stärker berücksichtigen, statt ständig neue Patches zur Verfügung zu stellen", sagt Cyber-Security-Experte Felix von Leitner. "Stattdessen haben wir eine resignative Grundhaltung eingenommen: Ein Weltbild, in dem Software halt Sicherheitslöcher hat, und Hacker diese halt ausnutzen."

  • Digitale Risiken der Bundestagswahl

    Die Bundestagswahlen befinden sich im Endspurt. Bislang scheinen die befürchteten Hackerangriffe auf Parteien, Behörden oder Politiker im Vorfeld der Wahlen ausgeblieben zu sein. Zudem macht der Verzicht auf E-Voting und elektronische Wahlsysteme eine Manipulation des Wahlvorgangs selbst unwahrscheinlich. Grundsätzlich gilt jedoch: Es gibt viele Wege, um Wahlen zu beeinflussen. Ein Rückblick auf Hackerangriffe vergangener Wahlen wie in den USA, in den Niederlanden und in Frankreich zeigt, welche Art der Manipulation Cyberkriminelle am häufigsten einsetzen.

  • Die Maschinen kommen. Und das ist gut so

    Maschinelles Lernen sorgt aktuell für jede Menge Schlagzeilen. Da ist etwa zu lesen "Roboter übernehmen Ihren Job" oder Twitter-Chats drehen sich um Themen wie "Ist künstliche Intelligenz das Ende der Menschheit?" und vieles mehr. Dabei dürfte jedem klar sein, dass Zukunftsvorhersagen in der Regel danebenliegen. Lässt man Science-Fiction aber einmal beiseite, gibt es durchaus einen Bereich, in dem automatisierte Hilfe erwünscht bzw. sogar erforderlich ist: IT-Sicherheit, denn Cyber-Bedrohungen entwickeln sich schnell und ausgefeilter weiter - so sehr, dass diese unerwünschten Gäste den Fortschritt des digitalen Zeitalters ernsthaft beeinträchtigen könnten.

  • Ratschläge für den sicheren Online-Aufenthalt

    Das Jahr 2017 hat bisher gezeigt, dass wir alle für Cyber-Bedrohungen anfällig sind, nachdem wir mit so großen Skandalen wie Wahl-Hacking, zwei großen globalen Ransomware-Angriffen und einem allgemeinen Anstieg von Hacking umgehen mussten. Was können wir also in der zweiten Hälfte dieses Jahres erwarten? Werden Cyber-Attacken zunehmen oder lernen wir, ihnen zu entgegen?