Schwerpunkt: Nutzen aus ChatGPT für Cyberkriminelle








Seit November 2022 sorgt der öffentlich zugängliche Chatbot ChatGPT von OpenAI für Furore. Das Tool bietet viele Vorteile im Unternehmensalltag, aber wie steht es um die Cybersicherheit? Experten warnen, dass Cyberkriminelle ChatGPT nutzen könnten, um Angriffe zu starten. Aber würden sie damit deutlich höhere Schäden anrichten, als sie es aktuell tun? Im Wesentlichen kann ChatGPT dabei helfen, Phishing-Texte und einfache Schadprogramme schneller und besser automatisiert zu erstellen. Wirklich ausgefeilte neue Malware wird man damit dagegen vorerst nicht erstellen können. Und auch die Bedrohungslandschaft wird sich nicht wesentlich verändern, abgesehen von der erhöhten Häufigkeit. KI-Lösungen wie ChatGPT werden manchmal auch als "stochastische Papageien" bezeichnet, weil sie als Sprachmodelle mit enormen Textmengen trainiert wurden und sie gut darin sind, schnell viele Texte zu generieren.

Studie: 55,2 Prozent der Führungskräfte möchten KI-Tools in Zukunft stärker nutzen und repetitive Aufgaben automatisieren
Wie sehen Führungskräfte den Einsatz Künstlicher Intelligenz (KI) im eigenen Unternehmen? Gibt es Regeln oder werden Google Bard oder OpenAI ChatGPT im eigenen Unternehmen sicherheitskritisch und ohne Kontrolle angewendet?

ChatGPTs Potenzial bei der Malware-Erstellung auf dem Prüfstand
Das mächtige Sprachmodell ChatGPT hat sich im Bereich der Code-Programmierung als vielversprechend erwiesen, denn es bietet höhere Genauigkeit und reduziert den Arbeitsaufwand der Programmierer. Daher sind Technologieunternehmen sehr daran interessiert, generative KI-Tools zu entwickeln.

Künstliche Intelligenz bietet Cyberangreifern neue Möglichkeiten, Identitäten ins Visier zu nehmen und sogar Authentifizierungsmechanismen zu umgehen
KI verändert die Bedrohungslandschaft massiv. Sie bietet Cyberangreifern neue Möglichkeiten, Identitäten ins Visier zu nehmen und sogar Authentifizierungsmechanismen zu umgehen. ChatGPT und andere generative KI-Tools bieten viele Vorteile, sie können aber auch von Angreifern genutzt werden und damit viel Schaden anrichten.

Vertrauenswürdige KI: Neue VDE-Anwendungsregel schafft ersten umfassenden Rahmen weltweit
Künstliche Intelligenz ist längst im Alltag angekommen – mit teil-autonomem Fahren, Sprach-Assistenzsystemen oder ChatGPT. Was darf KI, und wer trifft künftig wichtige Entscheidungen – das sind zentrale Fragen in der aktuellen Diskussion um KI-Entwicklung.

So vermeiden Unternehmen Datenlecks durch ChatGPT & Co.
KI-Tools wie ChatGPT, Bard und Copilot erfreuen sich wachsender Beliebtheit, gefährden allerdings die Datensicherheit. Forcepoint erklärt, wie Unternehmen den Abfluss vertraulicher Informationen und Datenschutzverletzungen erfolgreich verhindern.

Revolutioniert FraudGPT die Bedrohung durch Phishing?
Mit dem Aufkommen von generativen KI-Modellen hat sich die Bedrohungslandschaft drastisch verändert. Seit dem 22. Juli 2023 kursiert beispielsweise das Darknet-Programm FraudGPT in Telegram-Kanälen. Es ist davon auszugehen, dass der Anbieter die Software über einen Telegram-Kanal vertreibt, um seine Dienste nahtlos und ohne die Probleme von Exit-Scams auf Dark-Web-Marktplätzen anbieten zu können.

GenAI als große Chance für das Identitäts- und Zugangsmanagement von morgen
In generativer künstlicher Intelligenz (GenAI) schlummert enormes Potential. Unternehmensprozesse lassen sich mit ihrer Hilfe erheblich optimieren. Laut der kürzlich vom McKinsey Global Institute veröffentlichten Studie The economic potential of generative AI könnten GenAI-Technologien, wie ChatGPT oder DALL-E, schon in nicht allzu ferner Zukunft für einen weltweiten jährlichen Produktivitätszuwachs von 2,36 bis 3,99 Billionen Euro sorgen.

Facebook wird mit Anzeigen und Seiten für gefälschte ChatGPT, Google Bard und andere KI-Dienste überflutet und verleitet Nutzer zum Herunterladen von Malware
Cyber-Kriminelle versuchen immer wieder, neue Wege zu finden, um private Informationen zu stehlen. Ein neuer, von Check Point Research (CPR) aufgedeckter Betrug nutzt Facebook, um ahnungslosen Menschen ihre Passwörter und privaten Daten zu entlocken.

Keine Sicherheitsbedenken: 75 Prozent der deutschen Unternehmen vertrauen ChatGPT
Wie bei vielen neuen Technologien stellt sich auch bei Generative AI und Large Language Model (LLM) wie ChatGPT die Frage: Sind sich Unternehmen ihrer potenziellen Risiken bewusst und wie gehen sie damit um? Gigamon wollte es genau wissen und hat im Rahmen einer aktuellen weltweiten Studie die CIO/CISOs aus 150 deutschen Unternehmen gefragt, wie sie die Sicherheit moderner Technologien einschätzen.

Angriffstechnik auf Basis von ChatGPT: Mit geringem Aufwand Zugriff auf Entwicklerumgebungen zu erlangen
Das Voyager18-Forschungsteam von Vulcan Cyber hat eine neue Angriffstechnik entdeckt, die auf ChatGPT basiert. Diese ermöglicht es Angreifern, mit geringem Aufwand Zugriff auf Entwicklerumgebungen zu erlangen. Voyager18 hat die neue Technik "AI-Paket-Halluzination" genannt.

Revolutioniert FraudGPT die Bedrohung durch Phishing?
Mit dem Aufkommen von generativen KI-Modellen hat sich die Bedrohungslandschaft drastisch verändert. Seit dem 22. Juli 2023 kursiert beispielsweise das Darknet-Programm FraudGPT in Telegram-Kanälen. Es ist davon auszugehen, dass der Anbieter die Software über einen Telegram-Kanal vertreibt, um seine Dienste nahtlos und ohne die Probleme von Exit-Scams auf Dark-Web-Marktplätzen anbieten zu können.

Der Hype um Schnelligkeit, produktives Arbeiten und Automatisierung wird auch von Cyberkriminellen aufgegriffen
Wer kennt ihn mittlerweile nicht, den kleinen KI-Helfer im Berufsalltag: ChatGPT. Das innovative System mit einer Kombination aus fortschrittlicher Künstlicher Intelligenz (KI) und menschenähnlicher Chat-Kommunikation ist eine Revolution im Business-Alltag.

Gefälschte ChatGPT-Domänen und Websites entdeckt
Schon im Dezember 2022 äußerten Sicherheitsforscher von Check Point Software Technologies ihre Bedenken über die Auswirkungen von ChatGPT auf die IT-Sicherheit. Im nächsten Schritt entdeckten sie, dass die Geo-Blockierung des Herstellers OpenAI bereits von russischen Hackern umgangen wird.

Report: Betrüger nutzen den ChatGPT-Hype und verdienen mit Fleeceware-Apps Tausende von Dollar
Sophos X-Ops hat verschiedene Apps in den offiziellen Stores von Apple und Google aufgedeckt, die sich als legitime, ChatGPT-basierte Chatbots ausgeben, Nutzer mit verschleierten, oftmals enorm hohen Gebühren abzocken und den Betrügern so monatlich Tausende von Dollar in die Tasche spülen.

Mitarbeiter müssen, sofern sie die KI-Tools nutzen dürfen, darauf achten, dass sie keine personenbezogenen Daten und keine Firmeninterna eingeben oder in ihre Abfragen einbauen
Generative KI-Systeme wie ChatGPT und Co. erhalten viel Aufmerksamkeit und werden täglich von Tausenden Nutzern mit Daten gefüttert. Immer mehr Unternehmen nutzen die Technologien und setzen sie für die unterschiedlichsten Projekte und Prozesse ein.

Content Creation Second-Most Popular Use of ChatGPT
The recent launch of ChatGPT has launched a serious discussion regarding the broader use of Artificial Intelligence. ChatGPT has become a useful tool in various lines of work in a short time since its release. According to the numbers presented by SafeBettingSites.com, ChatGPT has been most commonly used for coding, with 66 percent of users using it to write codes.

ChatGPT wird zum Schweizer Taschenmesser der Hacker
Die Sicherheitsforscher von Check Point Research (CPR), Forschungsabteilung von Check Point Software Technologies, melden, dass Cyber-Kriminelle für wenig Geld nun Tools verkaufen, die es anderen Hackern ermöglichen, die Sicherheitsbeschränkungen von ChatGPT zu umgehen.

ChatGPT: 81 Prozent sind besorgt über mögliche Sicherheitsrisiken
ChatGPT hat ein Vertrauensproblem – das hat eine Umfrage von Malwarebytes ergeben. Im Rahmen einer "Consumer Pulse"-Umfrage, die Malwarebytes zwischen dem 29. und 31. Mai 2023 über die Plattform Alchemer Survey durchführte, zeigten die Befragten tiefe Vorbehalte gegenüber dem dialogbasierten Chatbot von OpenAI.

Rechtlicher Rahmen für KI: Anhörungen zum Thema KI vor dem US-Kongress
Weltweit erkennt man aktuell Bestrebungen, einen rechtlichen Rahmen für Künstliche Intelligenz (KI) abzustecken. Es gab Anhörungen zum Thema vor dem US-Kongress, bei denen sich unter anderem der ChatGPT-Chef Sam Altman für eine Regulierung für KI aussprach.

Während ChatGPT zwar Phishing-E-Mails erstellen und Malware schreiben könnte, zeigte sich das Tool bei der Erkennung schädlicher Links nur eingeschränkt effizient
Diskussionen rund um KI und ob sie eine Chance oder doch Jobkiller sein wird, gab es in den vergangenen Jahren immer wieder. Mit der Vorstellung von ChatGPT wurde die Debatte erneut entfacht. Laut aktueller Studien erhoffen sich Arbeitgeber und Arbeitnehmer durch den Chatbot eine Steigerung der Produktivität.

Umfrage: Fast die Hälfte fühlt sich von KI-Programmen wie ChatGPT bedroht
Aktuell lässt sich die rasante Entwicklung bei KI mit eigenen Augen beobachten. So wurde erst im März 2023 die neue Version GPT-4 von OpenAI veröffentlicht, deren Chancen und vor allem Risiken in der breiten Öffentlichkeit sehr lebhaft diskutiert werden.

"Darktrace/Email": Großes Upgrade verteidigt Unternehmen gegen neuartige Cyber-Bedrohungen wie generative KI-Business-E-Mails und noch nie dagewesene Social-Engineering-Angriffe
Darktrace-Forscher haben bei Tausenden von aktiven Darktrace/E-Mail-Kunden von Januar bis Februar 2023 einen Anstieg neuartiger Social-Engineering-Angriffe um 135 Prozent beobachtet. Das fällt mit der weit verbreiteten Nutzung von ChatGPT zusammen.

Studie: Anstieg der Phishing-Angriffe um fast 50 Prozent mit Bildungswesen, Finanzen und Behörden am stärksten im Visier
Das Aufkommen neuer KI-Technologien wie ChatGPT hat es Cyberkriminellen erleichtert, bösartigen Code zu generieren, BEC-Angriffe (Business Email Compromise) durchzuführen und polymorphe Malware zu entwickeln, die es den Opfern erschwert, Phishing zu erkennen. Böswillige Akteure hosten ihre Phishing-Seiten auch zunehmend auf dem InterPlanetary File System (IPFS).

Sicherheitsrisiken von ChatGPT: Wie Unternehmen ihre Daten schützen können
ChatGPT, entwickelt vom US-amerikanischen Unternehmen OpenAI, ist ein Chatbot, der weltweit für Aufsehen sorgt. Bisher ist ChatGPD die am schnellsten wachsende App der Geschichte und hat in nur zwei Monaten 100 Millionen aktive Nutzer erreicht – der bisherige Rekordhalter TikTok benötigte dafür neun Monate. konnte das Tool bestehen.

Marktplatz für gestohlene Premium-Konten von ChatGPT im Dark Net entdeckt
Sicherheitsforscher von Check Point entdeckten im Dark Net einen wachsenden Marktplatz für dergleichen Benutzerkonten. Das befeuert die Debatte um die Sicherheit von ChatGPT an sich und den Einfluss des KI-Programms auf die IT-Sicherheit allgemein.

Sicherheitsrisiken von ChatGPT: Wie Unternehmen ihre Daten schützen können
ChatGPT bietet zwar viele Vorteile für Unternehmen, wirft aber auch dringende Sicherheitsfragen auf. Eines der größten Risiken im Zusammenhang mit dieser Technologie besteht darin, dass auch Cyberkriminelle ohne Programmierkenntnisse die Möglichkeit haben, bösartige Software zu erstellen und einzusetzen.

Der Narzisst auf meinem Smartphone: Fluch und Segen des neuen ChatGPT 4
Es wurde mit großer Spannung erwartet: Das Update für ChatGPT. Die neue Version ChatGPT 4, die laut Hersteller Open AI die "fortschrittlichste" KI-Technologie darstelle, soll im Rahmen eines Tests sogar eine Anwaltsprüfung mit Bestnote bestanden haben soll.

Für und Wider des ChatGPT-Einsatzes bei der High-Tech-Entwicklung
ChatGPT, der KI-Chatbot der amerikanischen Firma OpenAI, hat für vielfältige Diskussionen gesorgt. Künstler und Texter machen sich Sorgen, von Künstlicher Intelligenz (KI) ersetzt zu werden.

ChatGPT und Cybercrime: Eine Katastrophe für die IT-Sicherheit?
Die Vergangenheit hat gezeigt, dass eine technologische Neuigkeit immer auch von Cyberkriminellen missbraucht wurde. Das gilt sicher auch für ChatGPT. Für diese konversationelle KI werden alle möglichen neuen Verwendungszwecke erdacht.

ChatGPT4: Sicherheitsanalyse zeigt Szenarien für beschleunigte Cyber-Kriminalität
Check Point Research (CPR) veröffentlicht eine erste Analyse von ChatGPT4. Die Sicherheitsforscher zeigen verschiedene Szenarien, die es Hackern ermöglichen, ihre bösartigen Bemühungen und Vorbereitungen zu verbessern, was zu schnelleren und präziseren Ergebnissen führt.

Wie schon bei dem Hype-Phänomen Pokémon Go nutzen Cyberkriminelle nun auch Fake-Versionen von ChatGPT, um Malware für Android und Windows zu verbreiten
Aufgrund der enormen Popularität von ChatGPT hat OpenAI ein kostenpflichtiges Angebot (ChatGPT Plus) eingeführt, das es Nutzern ermöglicht, den Chatbot ohne Verfügbarkeitsbeschränkungen zu verwenden.

Es gibt viele Möglichkeiten, wie ChatGPT von Cyberkriminellen eingesetzt werden könnte
Im Wesentlichen kann ChatGPT dabei helfen, Phishing-Texte und einfache Schadprogramme schneller und besser automatisiert zu erstellen.

ChatGPT bietet tatsächlich Potenzial für Cyberkriminelle – etwa, wenn das Tool eine Malware schreibt
Seit November 2022 sorgt der öffentlich zugängliche Chatbot ChatGPT von OpenAI für Furore. Das Tool bietet viele Vorteile im Unternehmensalltag, aber wie steht es um die Cybersicherheit?

Die Auswirkungen von ChatGPT auf die IT-Security
Die Einsatzgebiete von ChatGPT sind äußerst vielfältig. Begeisterte Nutzer lassen sich etwa Märchen schreiben oder lösen juristische Probleme aus Examen.

ChatGPT: Im richtigen Kontext verwendet, sorgen KI-gestützte Cybersecurity-Tools dafür, dass Sicherheitsteams in vielfacher Hinsicht profitieren
Die Veröffentlichung von GPT-4 und seine Integration in Tools wie Bing zeigt abermals neue Möglichkeiten auf, wie generative KI im Bereich Sicherheit und IT genutzt werden kann. Und diese Entwicklung ist erst der Anfang.

Gefälschte Webseite, die fast genauso aussieht wie die offizielle ChatGPT-Webseite
Kaspersky-Experten haben eine laufende Malware-Kampagne entdeckt, die sich den Hype rund um den KI-Chatbot ChatGPT zunutze macht.

ChatGPT: Das KI-Modell kann bösartige Aktivitäten in XDR-Telemetriedaten leichter filtern, Spam-Filter verbessern und Analyse von "LOLBins" vereinfachen
Sophos hat einen neuen Report veröffentlicht. Thema ist das GPT-3-Sprachmodell, das hinter dem bekannten ChatGPT-Framework steht, und wie die Cybersecurity-Branche das Modell für die Abwehr von Angreifern nutzen kann.

Bundestag gibt Studie zu Auswirkungen von ChatGPT auf Bildung und Forschung in Auftrag
Um die Risiken der immer größer und komplexer werdenden Computermodelle auf einer wissenschaftlichen Grundlage bewerten zu können, greifen die Abgeordneten auf die Expertise des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag zurück.

Russische Hacker versuchen OpenAI´s Beschränkungen für die böswillige Nutzung von ChatGPT zu umgehen
In Untergrundforen diskutieren Hacker darüber, wie sie die Kontrollen von IP-Adressen, Zahlungskarten und Telefonnummern überbrücken können – all das ist notwendig, um von Russland aus Zugang zu ChatGPT zu erhalten.

Was kann ChatGPT im Kontext von Cybersecurity leisten und was nicht?
ChatGPT beeindruckt derzeit Nutzer auf der ganzen Welt mit seiner Fähigkeit, Fragen zu beantworten und Texte aller Art zu generieren. Für eine Vielzahl von Berufen wird das Werkzeug zu einem wertvollen Assistenten bei ihren täglichen Aufgaben werden.

Cyberkriminelle nutzen Telegram-Bots zur Umgehung von ChatGPT-Beschränkungen
Erneut sind die Sicherheitsexperten von Check Point Research (CPR) auf Cyberkriminelle gestoßen, die Nutzen aus ChatGPT schlagen wollen. Die Hacker nutzen Telegram-Bots, welche mit ChatGPT verbunden sind, um Malware zu erstellen.

Fünf Disziplinen, in denen ChatGPT Cyberkriminelle unterstützen kann
Der OpenAI ChatGPT Chatbot belegt, wie Künstliche Intelligenz und Machine Learning Leben und Alltag unmittelbar bestimmen können. Fortgeschrittene IT-Anwender werden solche Tools für ihre Zwecke nutzen. Und damit leider auch Cyberkriminelle.

ChatGPT hat nicht die Rolle der legendären "Büchse der Pandora" inne
Die Software ChatGPT mit ihren bislang unerreichten KI-Fähigkeiten weckt Ängste in der IT-Security. Welche neuen Bedrohungen Kriminelle mit KI erzeugen können, hat eine gemeinsame Studie von Europol, Unicri und Trend Micro untersucht.

Die ChatGPT kann auch Software/Code entwickeln und debuggen
Die Software ChatGPT von Open AI schlägt hohe Wellen und wird von manchen mit dem Erscheinen der Suchmaschine Google verglichen. Der Chatbot beantwortet mit Hilfe von KI sehr eloquent unterschiedlichste Fragen, schreibt Vorträge, Gedichte und vieles mehr.

Logpoint stellt ChatGPT SOAR-Integration für Experimente zur Verfügung
Logpoint veröffentlicht eine ChatGPT-Integration für Logpoint SOAR in einer Laborumgebung. Sie ermöglicht es den Nutzern, mit dem Potenzial des KI-gesteuerten Chatbots zu experimentieren.

Mit Künstlicher Intelligenz und dem ChatGPT-Algorithmus auf der Jagd nach Cyberkriminellen
Die Verwendung von mehrschichtigen, neuronalen Netzen hat die Leistung des maschinellen Lernens in vielen Bereichen, etwa Bilderkennung, maschinelle Übersetzung und Malware-Klassifizierung, erheblich verbessert.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>

Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.