- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Kontrolle von und über Zugriffsberechtigungen


Eine Frage des Zugriffs: Access-Management sorgt für klare Verhältnisse
Nur mithilfe eines funktionierenden Access-Managements lassen sich Rollen und Rechte transparent und nachvollziehbar steuern



Gesetzliche Vorgaben einhalten, IT-Sicherheit gewährleisten und den Datenschutz nicht vernachlässigen – nur ein kleiner Einblick in die Aufgaben und Herausforderungen, die Unternehmen bewältigen müssen. Doch wie lassen sich diese Anforderungen professionell erfüllen? Die Verwaltung von Benutzern und deren Zugriffsberechtigungen nimmt dabei in jeder ganzheitlich ausgerichteten IT-Security-Strategie eine wesentliche Rolle ein. Access-Management ist im Zeitalter von Industrie 4.0 und Internet of Things unverzichtbar.

Heutzutage vernetzt sich jedes Unternehmen vielfach mit Lieferanten, Kunden, Partnern sowie Mitarbeitern und tauscht sämtliche Daten mit diesen aus. Diese weltweite Vernetzung bietet viele Chancen aber auch Risiken: Denn die Zahl virtueller Angriffe mit dem Ziel an geschützte, häufig hoch brisante Daten zu gelangen, steigt stetig.

"Ohne die Kontrolle von und über Zugriffsberechtigungen funktioniert deshalb nichts mehr. Der Mehrwert von konsequentem, transparentem Access-Management stellt die flexible Nutzung von Vernetzungen bei deutlicher Risikominimierung dar", erläutert Dr. Consuela Utsch, Geschäftsführerin der Acuroc Solutions und der AQRO GmbH. "Ein effektives Access-Management führt dazu, dass sich Funktionen, Rollen und damit Verantwortlichkeiten an Veränderungen bei Bedarf automatisch anpassen."

Verzahnt mit dem Betrieb
Beim Access-Management – auch bekannt als Rights- oder Identity-Management – handelt es sich um eine Autorisierungsorganisation zur Steuerung von Zugriffsrechten der Anwender auf einen IT-Service oder ein Anwendungssystem. Nicht erst seit dem Inkrafttreten der neuen EU-Datenschutzgrundverordnung nimmt das Access-Management eine bedeutende Rolle im Lebenszyklus von IT-Anwendungen ein.

"Aspekte der Informationssicherheit sind meist die ausschlaggebenden Treiber für die Entscheidung, einen dezidierten Prozess für die Zugriffssteuerung aufzusetzen", weiß Utsch. "Das Ziel ist dabei eindeutig: Einerseits geht es darum, gesetzliche Vorgaben zu erfüllen sowie insbesondere die IT-Sicherheit in Zeiten eines hohen Vernetzungsgrads mit Externen zu erhöhen und andererseits die verborgenen Chancen in IT-Sicherheit und Datenschutz zu nutzen."

Implementierung nach Maß
Den Prozess für das Access-Management zu etablieren, ist meist nur die Spitze des Eisbergs. Denn eine solide Organisation in diesem Bereich umfasst noch wesentlich mehr Faktoren, die die einzelnen Services und Anwendungssysteme miteinbeziehen. Bei einer Ist-Analyse lassen sich eventuelle Schwachstellen identifizieren und eine Statusaufnahme bestehender Rollen und der Nutzerberechtigungen erstellen. Nach der Aufnahme des Status quo folgt die Definition des Zielbildes – dieses lässt sich basierend auf den Anforderungen von ITIL und der ISO 27001 induzieren. Hieraus erwächst dann die Maßnahmenableitung für das gesamte Unternehmen.

Im vorletzten Schritt folgt die Umsetzung des erarbeiteten Zielbildes. In dieser Phase werden die Regelungen nach Zeithorizont und Effektivität priorisiert. Anschließend müssen die festgelegten Schritte eine genaue Überprüfung erfahren, damit eine nachhaltige Implementierung durch die Etablierung von Prozessen und Standards sichergestellt ist. Während eines IT-Entwicklungsprojektes findet das Role-Engineering statt – die Entwicklung eines dezidierten Rollen- und Rechtekonzepts.

"Ein transparentes, flexibles und pragmatisches Rollenkonzept bildet die essenzielle Grundlage für den Erfolg von Access Management. Unerlässliche Basis für eine erfolgreiche Entwicklung und Implementierung eines solchen Konzepts ist daher ein ausgeprägtes Rollenverständnis in der Organisation – nur so lässt sich die nötige Akzeptanz des Access-Managements erreichen. Fehlt dieses Verständnis oder wird nicht parallel ausgeprägt, steigt die Gefahr, dass das Access Management scheitert. Um dieses kritische Risiko zu minimieren, setzen wir auf Methoden zum rollenbasierten Arbeiten wie AQRO", verdeutlicht die Acuroc-Solutions-Geschäftsführerin. Anschließend erfolgen die technische Abbildung im Neusystem sowie die Einsteuerung nichtfunktionaler Security-relevanter Anforderungen. Danach finden die Etablierung eines Access-Management-Prozesses in den Schritten "Prozessdesign" und "Set-up" der benötigten Dokumente statt. "Wesentlich ist, dass die involvierten Mitarbeiter sicher mit den neuen Elementen umgehen können – was wir durch umfassende Schulungen gewährleisten", sagt Utsch.

Individuelle Bedürfnisse
Nur mithilfe eines funktionierenden Access-Managements lassen sich Rollen und Rechte transparent und nachvollziehbar steuern. Durch die Optimierung in diesem Bereich profitieren Unternehmen von erhöhter Sicherheit ihrer Daten und Systeme. "Wir gehen auf die individuellen Bedürfnisse jedes einzelnen Unternehmens ein und stehen bei Entscheidungen mit unabhängigem Rat zur Seite", betont Utsch. "Dabei gehört zum Angebot im Bereich Access-Management auch die Vernetzung mit anderen Kompetenzen auf den Gebieten Digitalisierung, Transformation, Veränderungs- und Projektmanagement." Ein ganzheitliches Access-Management garantiert umfassende Transparenz bezüglich der Zugriffe und Berechtigungen der Mitarbeiter. So lassen sich effektiv gesetzliche Vorgaben erfüllen und verborgene Chancen in Sachen Datenschutz und IT-Sicherheit für das Unternehmen nutzen. Eine erfolgreiche Autorisierungssteuerung ist längst kein Luxus mehr – sondern notwendig, um den aktuellen Anforderungen gerecht zu werden. (Acuroc Solutions: ra)

eingetragen: 31.05.19
Newsletterlauf: 25.06.19

Acunetix: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • Sicherheitsmaßnahmen gegenüber Bedrohungen

    Steigende Compliance-Anforderungen und europäische Richtlinien wie die DSGVO oder die NIS-Richtlinie für kritische Infrastrukturen haben die Umsetzung von Cybersecurity-Maßnahmen in Unternehmen bereits wesentlich vorangetrieben. Jedoch erfüllen Unternehmen häufig lediglich die Mindestanforderungen - während Angreifer über umfassende und ausgefeilte Möglichkeiten verfügen, sich Zugang zu Unternehmensnetzwerken zu verschaffen. Mittelständische Unternehmen, beispielsweise in der produzierenden Industrie oder im Gesundheitswesen, stehen im Fokus von Hackern: Mittels Ransomware-Angriffen können Cyber-Akteure ganze Produktionsstraßen lahm legen oder Krankenhäuser vom Netz nehmen. Insbesondere in diesen Branchen ist der Schaden nach einer Attacke besonders groß, da sie enorme wirtschaftliche Auswirkungen zur Folge haben und eine Vielzahl von Menschen betreffen. Für Hacker sind zudem vor allem mittelständische Unternehmen interessant, die wirtschaftlich erfolgreich sind, aber gleichzeitig nicht über die gleichen umfassenden Sicherheitsmaßnahmen verfügen wie große, börsennotierte Konzerne.

  • Nahezu kein Expertenwissen mehr benötigt

    Cyberkriminelle greifen mit gefälschten Rechnungen vermehrt Unternehmen des produzierenden Gewerbes in Deutschland an. Das hat Proofpoint herausgefunden. Die Angreifer versenden dabei gefälschte Rechnungen, die als Köder verwendet werden oder aber die E-Mail beinhaltet einen Link zu einer Website, auf der das gefälschte Dokument zum Download zur Verfügung steht. Die Dokumente sind mit dem Remote Access Trojaner NanoCore infiziert. Laut Proofpoint enthalten Anhänge eine komprimierte ausführbare Datei (mit der Erweiterung ".Z"), während bösartige Links den Empfänger veranlassen, die auf onedrive.live.com gehostete Malware herunterzuladen.

  • Fünf Sofortmaßnahmen zur Systemhärtung

    Guardicore gibt Sicherheitsempfehlungen für das Support-Ende von Windows Server R2, Windows Server 2008 und Windows 7. Ab 14. Januar 2020 werden Nutzer dieser Microsoft-Betriebssysteme keine kostenlosen Sicherheitsupdates und Online-Aktualisierungen mehr erhalten. Ohne sicherheitsrelevante Updates sind die betroffenen IT-Systeme gegen neu entdeckte Schwachstellen nicht mehr geschützt. Zwar sind die genannten Betriebssysteme teilweise bereits über ein Jahrzehnt alt, aber Schätzungen zufolge ist allein Windows Server 2008/2008 R2 immer noch auf fast jedem dritten Server weltweit im Betrieb. Viele Organisationen können nicht auf aktuelle Betriebssystemversionen wechseln, weil sie komplizierten Gesetzes- und Zertifizierungsanforderungen unterliegen, oder einfach nicht das erforderliche Budget zur Verfügung haben. Gefragt sind deshalb Überbrückungslösungen - auch um zeitaufwendige Migrationsprozesse begleiten zu können.

  • Abfangen und Manipulieren von E-Mails

    Die E-Mail ist das Kommunikationsmittel Nummer eins. Unternehmen sind in der Pflicht, sich mit der E-Mail-Sicherheit zu beschäftigen, kommunizieren sie doch sowohl intern als auch extern. Nahezu täglich ist von Datenpannen und Datendiebstählen zu hören: Fremde verschaffen sich - zum Teil leider kinderleicht - Zugang zum internen Unternehmenssystem und greifen Daten ab oder manipulieren diese. Einfache, unverschlüsselte E-Mails stellen deshalb grundsätzlich eine Gefahr dar: Sie ähneln einer Postkarte, deren Inhalt jeder lesen kann. "Denn gehen E-Mails weder digital signiert noch verschlüsselt auf die Reise, können die Inhalte nicht nur ausspioniert, sondern auch manipuliert werden. Da Angriffe dieser Art in aller Regel nicht sicht- und nachweisbar sind, wird die E-Mail-Sicherheit leider nach wie vor oft stiefmütterlich behandelt. Wie oft und von wem E-Mails gelesen werden, kann ihnen niemand ansehen", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group.

  • Neuer Standort und neue BC/DR-Strategie?

    Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei einem Abstand von 200km jedoch nicht mehr möglich: Die Latenz zwischen den Standorten ist einfach zu hoch, um Organisationen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle zu schützen. Was können Unternehmen nun tun, um ihre IT etwa gegen logische Fehler oder Ransomware-Attacken abzusichern, um minimalen Datenverlust und kurze Ausfallzeiten zu garantieren? Der neue Mindestabstand, den das BSI (Bundesamt für Sicherheit in der Informationstechnik) seit Dezember 2018 zwischen sich Georedundanz gebenden Rechenzentren empfiehlt, stellt in vieler Hinsicht eine Zäsur dar. Er stellt die Nutzung synchroner Spiegelung grundsätzlich infrage und hat damit einen direkten Einfluss darauf, wie Rechenzentren hierzulande betrieben werden. Wer eine "kritische Infrastruktur" betreibt, wird vom Gesetzgeber sogar dazu gezwungen der Empfehlung zu folgen. Und wer das Pech hat Teil eines Branchenverbandes zu sein, der den Empfehlungen des BSI folgt, wie etwa Mitglieder der Bankenbranche Bafin, haben ebenfalls keine Wahl. All diese Organisationen müssen auf die Entscheidung reagieren und den Abstand ihrer Rechenzentren auf mindestens 200km bringen.