- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Flash-Speicher im Rechenzentrum


Flash-Speicher im Businessumfeld setzt Siegeszug fort: Zusammenspiel mit Copy-Data-Virtualisierung
Die rasante Entwicklung des Flash-Storage-Markts in den letzten zwei Jahren setzt sich in Kombination mit der Virtualisierung von Datenkopien fort

- Anzeigen -





Der Siegeszug von Flash-Speicher im Rechenzentrum setzt sich fort, immer mehr Unternehmen steigen um auf die effiziente Speichertechnologie. Actifio, spezialisiert auf Copy-Data-Virtualisierung, hat dazu eine Partnerschaft mit dem "All-Flash"-Pionier Pure Storage bekannt gegeben. Hervorgegangen ist daraus die Testdatenmanagement-Lösung "AppFlash", die auf Flash-Speicher von Pure Storage und Actifio-Technologie basiert und DevOps-Szenarien unterstützt.

"Das Thema Flash wurde bei uns nicht von heute auf morgen aktuell. Bereits im Jahr 2014 gab es zunehmendes Interesse bei Unternehmen – und einige begannen mit einer allmählichen Umstellung. Dabei erwies sich die Kombination der Geschwindigkeit und Effizienz des Flash-Speichers mit den Möglichkeiten der Datenreduzierung als attraktiv", so Thorsten Eckert, Sales Director DACH bei Actifio. "Durch die erhebliche Reduzierung von Datenkopien wird eine große Anzahl an Festplatten überflüssig. Gleichzeitig ermöglichen die kleineren Kapazitätsanforderungen, Flash als alternative Speichertechnologie ins Auge zu fassen. Flash beansprucht weniger Fläche im Rechenzentrum bei gleichzeitiger Reduzierung des Energieverbrauchs für Betrieb und Kühlung. Angesichts der sinkenden Preise für Flash trat der betriebswirtschaftliche Vorteil von Flash immer deutlicher zutage."

Andere Nutzer betonen den Zeitvorteil als einen der größten Vorteile von Flash. Die Performance ist deutlich schneller, wobei die Latenzzeit auf wenige Millisekunden sinkt. Die Verarbeitungszeiten für einige Transaktionen verringern sich um bis zu 80 Prozent. Eine schnellere Abwicklung von Transaktionen bedeutete mehr Geschäft in weniger Zeit. Und da Flash einfacher zu verwalten ist, wurde auch der Betriebsaufwand reduziert.

Die Kosten für Flash waren bislang für viele Unternehmen eine Hürde – oder zumindest eine Herausforderung in der Kalkulation. Die Verringerung der Komplexität, die Erhöhung der Geschwindigkeit und die höhere Zuverlässigkeit sind jedoch nicht zu vernachlässigen.

"Einige Unternehmen verzeichnen ein durchschnittliches Datenwachstum von 50 bis 60 Prozent pro Jahr. Da diese Unternehmen aber mittels Copy-Data-Virtualisierung die vormals unkontrollierte Vermehrung von Datenkopien in den Griff bekommen haben, ist heute die tatsächliche Zunahme an Speicherbedarf gering. Je nachdem, welcher Datenanteil bereits als virtuelle Datenbasis intelligent verwaltet wird, kann der Speicherbedarf sogar sinken – trotz Datenwachstum", so Thorsten Eckert. "Dabei spielt Copy Data Virtualization einen weiteren Vorteil aus, indem sie eine reibungslose Datenmigration ermöglicht. Der Umzug von den alten Festplatten-basierten, herkömmlich verwalteten Plattformen auf die zeitgemäße Kombination aus Flash und Datenvirtualisierung geht einfach und schnell vonstatten."

Die Preise für Flash sind in diesem Jahr weiter gesunken. Bis Jahresende sollen die Kosten für SSD und HDD nahezu auf gleichem Niveau sein. Als weitere Hürde erwies sich bislang aber die Form, in welcher Flash-Speicher verfügbar war. Viele etablierte Speicheranbieter taten ihr Möglichstes, um langjährige Kunden zu binden – mit Hybrid-Arrays. Dabei kommen SSDs in einer Architektur zum Einsatz, die eigentlich für HDDs konzipiert wurde. 2014 waren zudem die Auswahlmöglichkeiten bei All-Flash-Arrays begrenzt. Diejenigen, die verfügbar waren, hatten nur wenige typische Datenmanagement-Funktionen, die man von einem Enterprise-Array erwartet, wie etwa Thin Provisioning, Snapshots oder Verschlüsselung. Die heute erhältlichen All-Flash-Arrays verfügen aber nun über den erforderlichen Funktionsumfang.

Gartner kam bereits zu dem Schluss, dass Solid-State-Speicher zum Mainstream wird. In seiner März-Analyse mit dem Titel "Moving Toward the All Solid-State Storage Data Center” empfiehlt das Analystenhaus die Implementierung von Solid-State-Arrays im gesamten Unternehmen, um Management- und Betriebskosten zu reduzieren und gleichzeitig neue Dienste zu erschließen, die diese erheblichen Leistungsverbesserungen nutzen. SSDs mit höherer Kapazität in dichteren Speichersystemen werden es Gartner zufolge ermöglichen, das digitale Geschäft besser zu unterstützen, indem neue Anwendungen realisiert werden können.

"Höhere Geschwindigkeit, reduzierte Kosten und zuverlässige Verfügbarkeit auf globaler Ebene sind die Anforderungen großer Unternehmen an die Speicherumgebung. Akquisitionen erfordern zudem die Aufnahme neuer heterogener Betriebsumgebungen in die unternehmensweite IT-Landschaft. Dabei sollen zuverlässige Disaster-Recovery- und Business-Continuity-Funktionen zur Verfügung stehen. Hier ist Plattformunabhängigkeit gefragt", fasst Thorsten Eckert abschließend zusammen. "Copy-Data-Virtualisierung unterstützt einen solchen heterogenen Betrieb und befreit die Unternehmen in Sachen Speicherumgebung von der Abhängigkeit von einem bestimmten Anbieter. So können sukzessive neuen Architekturen für All-Flash-Plattformen aufgebaut werden. Unternehmen haben auch die Flexibilität, eine hybride Cloud einzurichten, die für ihr neues Geschäftsmodell optimiert ist und sich dynamisch verändern kann, wenn es erforderlich ist." (Actifio: ra)

eingetragen: 09.02.17
Home & Newsletterlauf: 02.03.17


Actifio: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • MySQL als unorthodoxes neues Einfallstor

    Cyberkriminelle finden immer wieder Wege, unbemerkt in Systeme einzusteigen, um von der Ferne aus Schadcode auszuführen. Beliebt als Einstiegsluken hierfür sind beispielsweise RDP oder SSH. Nun rückt auch SQL als Zugriffsmöglichkeit in den Fokus. Ein Sophos-Honeypot konnte kürzlich einen typischen Angriff über MySQL dokumentieren. Hacker haben verschiedene Möglichkeiten, in Systeme zu gelangen. Sie können etwa Schwachstellen und Exploits für ausgeklügelte Hackerangriffe verwenden, um vorhandene Sicherheitsüberprüfungen zu umgehen und Server dazu zu bringen, Schadsoftware auszuführen. Sie können aber auch versuchen herauszufinden, wie man ohne viel Aufwand über einen offiziellen Eingang und mit offiziellen Systembefehlen illegal und unbemerkt in fremde Systeme einsteigen kann.

  • Kontrolle von und über Zugriffsberechtigungen

    Gesetzliche Vorgaben einhalten, IT-Sicherheit gewährleisten und den Datenschutz nicht vernachlässigen - nur ein kleiner Einblick in die Aufgaben und Herausforderungen, die Unternehmen bewältigen müssen. Doch wie lassen sich diese Anforderungen professionell erfüllen? Die Verwaltung von Benutzern und deren Zugriffsberechtigungen nimmt dabei in jeder ganzheitlich ausgerichteten IT-Security-Strategie eine wesentliche Rolle ein. Access-Management ist im Zeitalter von Industrie 4.0 und Internet of Things unverzichtbar. Heutzutage vernetzt sich jedes Unternehmen vielfach mit Lieferanten, Kunden, Partnern sowie Mitarbeitern und tauscht sämtliche Daten mit diesen aus. Diese weltweite Vernetzung bietet viele Chancen aber auch Risiken: Denn die Zahl virtueller Angriffe mit dem Ziel an geschützte, häufig hoch brisante Daten zu gelangen, steigt stetig. "Ohne die Kontrolle von und über Zugriffsberechtigungen funktioniert deshalb nichts mehr. Der Mehrwert von konsequentem, transparentem Access-Management stellt die flexible Nutzung von Vernetzungen bei deutlicher Risikominimierung dar", erläutert Dr. Consuela Utsch, Geschäftsführerin der Acuroc Solutions und der AQRO GmbH. "Ein effektives Access-Management führt dazu, dass sich Funktionen, Rollen und damit Verantwortlichkeiten an Veränderungen bei Bedarf automatisch anpassen."

  • Ein Jahr DSGVO: keinerlei Anlass zur Freude

    Im ersten Jahr nach Inkrafttreten der DSGVO hat sich das Datenrisiko in Deutschland nicht reduziert, sondern ist tendenziell noch gestiegen. Zu diesem Ergebnis kommt der Datenrisiko-Report der Security-Spezialistin Varonis Systems dem Risk Assessments bei rund 50 deutschen Unternehmen unterschiedlicher Größe - vom mittelständischen Hersteller bis hin zum international agierenden Healthcare/Biotech-Konzern - zugrunde liegen. Weltweit wurden insgesamt 700 Unternehmen aus rund 30 Branchen und mehr als 30 Ländern mit einem Datenvolumen von insgesamt 54,6 Petabytes analysiert.

  • Ausweitung der Videoüberwachung

    Spätestens seit den Enthüllungen des Whistleblowers Edward Snowden ist klar: Jeder kann in einem schier unglaublichen Umfang überwacht und ausspioniert werden, und das nicht nur von der NSA. Auch Unternehmen wie Facebook, Google und Amazon überwachen, wo es nur geht. Die Überwachung fängt zwar im Internet an, ist aber nicht auf dieses beschränkt. "Der Datenskandal der Deutschen Post zeigt, dass die Überwacher längst in den eigenen Reihen sitzen. Da wäre die Meldebehörde, die unsere Daten für Parteiwerbung weitergibt, wenn wir nicht widersprechen. Oder Reise-Anbieter, die aufgrund bisher gebuchter Reisen neue passende Angebote machen. Oder auch Auskunfteien wie die Schufa, die überlegt hatte, Facebook-Daten für die Schufa-Auskunft mit auszuwerten", macht Christian Heutger, IT-Sicherheitsexperte bei der PSW Group Consulting aufmerksam.

  • Best Practices-Checkliste für die Cyber-Hygiene

    Nicht nur für die menschliche Gesundheit, sondern auch in der IT-Sicherheit gilt: Vorbeugen ist besser als Heilen. Angesichts steigender Bedrohungen durch fortschrittliche Malware und Datendiebstahl in großem Stil, ist eine solide Cyber-Hygiene für die gesamte Hard- und Software eines Unternehmens essentiell. Regelmäßig durchgeführte Hygienepraktiken sorgen dafür, Systeme effizient zu halten und vor Angriffen zu schützen. In Unternehmen gibt es viele Elemente, die ohne adäquaten Cyber-Hygiene-Plan zu Schwachstellen führen und damit die Geschäftskontinuität gefährden können. Deshalb sollten alle Geräte, Softwareprogramme und Web-Anwendungen in einen kontinuierlichen Wartungsplan aufgenommen werden. Hierdurch erfolgt eine grundlegende Prävention gegen Cyberattacken. Zudem ermöglicht die regelmäßige Wartung bestmögliche Effizienz der eingesetzten Soft- und Hardware. Schwachstellen werden frühzeitig erkannt und schwerwiegende Probleme vermieden. Obwohl mit jedem digitalen Puzzleteil zahlreiche Bedrohungen einhergehen, ist die Einführung einer effektiven Cyber-Hygiene-Routine nicht so schwierig, wie es auf den ersten Blick scheint. Einige wenige Best Practices, die regelmäßig umgesetzt werden, können die Sicherheit eines jeden Systems enorm verbessern.