KI gefährdet die IT-Sicherheit in neuem Ausmaß

Artificial Intelligence High Tech Digital Hacker WarArtificial Intelligence High Tech Digital Hacker War

Photo credit: depositphotos.com

KI verändert die Bedrohungslandschaft massiv. Sie bietet Cyberangreifern neue Möglichkeiten, Identitäten ins Visier zu nehmen und sogar Authentifizierungsmechanismen zu umgehen. CyberArk hat drei aktuelle KI-basierte Angriffsszenarien näher untersucht.

Künstliche Intelligenz (KI) beeinflusst die moderne Gesellschaft in einem noch nie da gewesenen Tempo. ChatGPT und andere generative KI-Tools bieten viele Vorteile, sie können aber auch von Angreifern genutzt werden und damit viel Schaden anrichten.

Die CyberArk Labs haben nun diese sich entwickelnde Bedrohungslandschaft unter die Lupe genommen, um besser zu verstehen, was neue KI-Angriffsvektoren für Identity-Security-Programme bedeuten, und um bei der Entwicklung neuer Verteidigungsstrategien zu unterstützen. Konkret hat CyberArk dabei drei neue Angriffsszenarien analysiert.

KI-Szenario 1: Vishing

Mitarbeiter sind gegenüber Phishing-E-Mails sehr vorsichtig geworden und wissen, worauf Sie achten müssen. Beim Vishing hingegen, also dem Voice Phishing, ist diese Skepsis oft nicht vorhanden, sodass sich für Cyberangreifer neue Chancen eröffnen. KI-Text-to-Speech-Modelle machen es ihnen leicht, öffentlich verfügbare Informationen wie Interviews von CEOs in den Medien zu nutzen und sich als Führungskräfte von Unternehmen auszugeben.

Indem sie Vertrauen zu ihrer Zielperson aufbauen, können sie Zugang zu Anmeldedaten und anderen sensiblen Informationen erlangen. In großem Maßstab können solche Vishing-Angriffe nun mithilfe automatisierter Echtzeit-Generierung von Text-to-Speech-Modellen durchgeführt werden. Derartige KI-basierte Deepfakes sind bereits an der Tagesordnung und nur sehr schwer zu erkennen. KI-Experten sagen voraus, dass KI-generierte Inhalte irgendwann nicht mehr von menschlich erstellten Inhalten zu unterscheiden sein werden.

KI-Szenario 2: Biometrische Authentifizierung

Die Gesichtserkennung ist eine bewährte biometrische Authentifizierungsoption für den Zugang zu Geräten und Infrastrukturen. Sie kann aber auch von Angreifern überlistet werden, die generative KI einsetzen, um Identitäten zu kompromittieren und einen Zugang zu einer Unternehmensumgebung zu erhalten. Generative KI-Modelle gibt es schon seit Jahren. Man kann also die Frage stellen: Warum gibt es darum jetzt so viel Wirbel?

In einem Wort: Es ist die Skalierung. Die heutigen Modelle können in einem unglaublichen Umfang trainiert werden. ChatGPT-3 etwa verfügt über 175 Milliarden Parameter und damit über mehr als das Hundertfache von ChatGPT-2. Dieses exponentielle Wachstum der Parameter unterstützt realistische Fälschungen, auch im Hinblick auf die Gesichtserkennung.

KI-Szenario 3: Polymorphe Malware

Prinzipiell können mit generativer KI alle Arten von Code geschrieben werden, also auch Malware oder polymorphe Malware, die Sicherheitslösungen umgehen kann. Polymorphe Malware verändert ihre Implementierung, während ihre ursprüngliche Funktionalität erhalten bleibt.

So ist es möglich, dass ein Angreifer beispielsweise ChatGPT verwendet, um einen Infostealer zu generieren und den Code kontinuierlich zu verändern. Wenn der Angreifer mit der Malware ein Endgerät infiziert und lokal gespeicherte Session Cookies abruft, könnte er sich als Benutzer des Geräts ausgeben, die Sicherheitsabwehr umgehen und unbemerkt auf Zielsysteme zugreifen.

Die drei KI-basierten Bedrohungen für die Cybersicherheit zeigen, dass die Identitäten das primäre Ziel von Angreifern sind, da sie die effektivste Möglichkeit bieten, an vertrauliche Systeme und Daten zu gelangen. Für die Gefahrenabwehr ist folglich die Nutzung einer Identity-Security-Lösung unverzichtbar. Damit werden Identitäten sicher authentifiziert und mit den richtigen Berechtigungen autorisiert, sodass sie auf strukturierte Weise Zugang zu kritischen Ressourcen erhalten.

Wichtig sind zudem Malware-agnostische Verteidigungstechniken. Das heißt, Unternehmen sollten auch präventive Maßnahmen ergreifen wie die Umsetzung des Least-Privilege-Prinzips oder von Richtlinien für den bedingten Zugriff auf lokale Ressourcen (wie Cookie-Speicher) und Netzwerkressourcen (wie Webanwendungen).

„KI-basierte Angriffe stellen zwar eine Bedrohung für die IT-Sicherheit dar, aber zugleich ist KI auch ein leistungsfähiges Werkzeug für die Gefahrenerkennung und -abwehr“, betont Lavi Lazarovitz, Vice President Cyber Research der CyberArk Labs. „KI wird künftig eine wichtige Komponente sein, um den Veränderungen in der Bedrohungslandschaft zu begegnen, die Agilität zu verbessern und Unternehmen zu helfen, Angreifern einen Schritt voraus zu sein.“

LESEN SIE AUCH

Hazel robotic eyeHazel robotic eyeWho is Danny – stock.adobe.com
Assekuranz

KI verändert die Spielregeln für Cybersicherheit

Der öffentliche Zugang zu generativer KI wie ChatGPT hebt die Gefahren von Cyberkriminalität auf ein neues Level. Denn Hacker entwickeln mit dieser Technologie ihre Methoden weiter und maximieren durch gezielte Angriffe Reichweiten und Gewinne.

AI-666410770-DP-meshcubeAI-666410770-DP-meshcube
Digitalisierung

Generative KI: Praxis statt Prognosen!

Es vergeht kein Tag, ohne dass Schlagzeilen zu den Auswirkungen von ChatGPT und Co. durch die Medien geistern. Was dabei gerne unbeachtet bleibt: Dieser Blick in die Zukunft eignet sich wenig oder gar nicht als konkrete Handlungsempfehlung für Unternehmen.

Artificial intelligence conceptArtificial intelligence concept
Digitalisierung

Das sollte man jetzt zu generativen KIs wissen

Die Faszination für KI erreicht täglich neue Höhepunkte, ausgelöst durch aufregende Durchbrüche und wachsende Anwendungsgebiete. Doch stellen sich auch zunehmend kritische Fragen und vermehren sich die Bedenken. Ein Realitätscheck von Endava.

Wired glossy robotic organ - brain 3d render Cyborg brain 3d illustration generative Neural networks machine learning metaphorWired glossy robotic organ - brain 3d render Cyborg brain 3d illustration generative Neural networks machine learning metaphor
Assekuranz

Versicherer sehen EU-Regulierung zu generativer KI kritisch

Der GDV drängt darauf, die EU-Vorschläge zur Regulierung von Künstlicher Intelligenz nachzubessern. Denn die sehr hohen Compliance-Anforderungen könnten auf die Verbreitung von generativen KI-Anwendungen wie eine angezogene Handbremse wirken.

Modern female working on cyber security firewall protectionModern female working on cyber security firewall protectionAlliance – stock.adobe.com
Finanzen

Zahlungsbetrugsfälle steigen um fast ein Drittel

Wirtschaftskriminelle surfen weiterhin auf der Homeoffice-Welle und "Social Engineering" bleibt bei Betrügern ein Kassenschlager. Besonders die Betrugsmasche Zahlungsbetrug, bei der Zahlungsströme umgeleitet werden, verzeichnete 2022 einen Anstieg bei den Fallzahlen.

AI chatbot robot assistant sitting at desk using computer as artificial intelligence. Business concept. AI generatedAI chatbot robot assistant sitting at desk using computer as artificial intelligence. Business concept. AI generatedtop images – stock.adobe.com
Digitalisierung

Hackern einen Schritt voraus sein und bleiben

Im Cybersicherheitssektor eröffnet generative KI Möglichkeiten, die oft hohe Komplexität von IT-Systemen und Cyberangriffen verständlicher machen und Bedrohungsszenarien frühzeitig zu verstehen. Das haben auch drei der führenden Unternehmen erkannt, die vor kurzem KI-Projekte vorgestellt haben.