Die 5 häufigsten KI-Cyberangriffe und wie Sie sich schützen
Künstliche Intelligenz (KI) wird nicht nur für positive Zwecke genutzt wird, sondern bietet auch Cyberkriminellen neue Möglichkeiten. Phishing-Angriffe werden durch KI effizienter, da Kriminelle damit raffiniertere Betrugsmethoden entwickeln können. Mit KI-Technologien werden Angriffe noch dazu immer schwerer zu erkennen. Phishing-Mails, Deepfake-Videos und andere KI-basierte Methoden täuschen zunehmend auch erfahrene Fachleute.
Das Sicherheitsteam von Google hat eine eigene Untersuchung dazu durchgeführt, wie Cyberkriminelle das Sprachmodell Gemini für ihre Zwecke missbrauchen, mehr dazu im Infokasten unten. Es wird deutlich: Der Mensch bleibt jedoch der wichtigste Faktor in der Sicherheitskette.
1. Phishing
Angreifer nutzen KI-gestützte Chatbots, um täuschend echte Phishing-Nachrichten zu erstellen, die Menschen dazu verleiten, persönliche Daten preiszugeben. Besonders beliebt sind Nachrichten, die aktuelle Themen oder angebliche Bankwarnungen beinhalten.
KI verbessert die Qualität von Phishing-Mails, indem sie Rechtschreib- und Grammatikfehler eliminiert, die früher als Warnzeichen dienten. Zusätzlich ermöglichen KI-Tools das automatische Erstellen täuschend echter Webseiten, die für Phishing-Zwecke genutzt werden.
Das sind inzwischen sehr gut gefälschte E-Mails, die dazu verleiten, sensible Daten preiszugeben. Besonders beliebt sind Nachrichten, die aktuelle Themen oder angebliche Bankwarnungen beinhalten. Oder sie sehen so aus, als kommen sie von einem Kollegen, tragen dessen Signatur/ Bild im Footer und nehmen oft auf korrekte unternehmensinterne Daten Bezug.
Wenn das Anliegen merkwürdig erscheint, trauen Sie Ihrem Bauchgefühl.
Schutz: Zum Hörer greifen, dem Kollegen direkt eine Mail/ Chatnachricht schreiben und persönlich nachfassen. Schulungen zur Erkennung von Phishing-Mails und Einsatz von Anti-Phishing-Tools nutzen.
2. URL-basierte Angriffe
KI-gestützte Chatbots können von Kriminellen verwendet werden, um Malware zu generieren, selbst wenn diese keine Programmierkenntnisse haben. Auch wenn aktuelle KI-Modelle dabei noch unzureichende Schadsoftware erstellen, könnte sich dies durch die Lernfähigkeit der KI bald ändern.
Schadhafte Links, die Malware installieren oder Daten abfangen.
Schutz: Nicht auf Links klicken bzw. durch Mouse-Over über dem Link sehen, wo er hinführen würde. Nutzung von sicheren Browsern und URL-Filtern.
3. Advanced-Fee-Betrug
Das sind z.B. manipulative Zahlungsaufforderungen, die oft so aussehen, als würde Ihr Vorgesetzter Sie bitten, diese Zahlung freizugeben.
Schutz: Auch hier hinterfragen. Ist der Absender autorisiert, eine solche Zahlungsaufforderung zu senden? Ist er / sie es wirklich? Fassen Sie persönlich nach.
4. Deepfakes
KI ermöglicht das Erstellen von gefälschten Bildern, Videos und Audiodateien, sogenannten Deepfakes. Kriminelle können damit beispielsweise Gesichter in Videos austauschen oder Stimmen täuschend echt nachahmen, um Menschen zu manipulieren. Besonders gefährlich sind solche gefälschten Sprachaufnahmen, da sie das Vertrauen der Opfer gewinnen und gezielte Betrugsversuche erleichtern.
Diese KI-generierte Videos und Stimmen, oft von Kollegen oder Vorgesetzten, lassen Täuschungen realistisch erscheinen lassen. Wir haben es intern getestet und es hat leider funktioniert.
Ein 10-Sekunden-Video/ Audio reicht, um Fake-Audio-Stimmen zu erstellen. Schutz: Training für alle Mitarbeiter und Investition in KI-Detektionstools.
Schutz: Zurückrufen auf der bekannten Telefonnummer des angeblichen ANrufers, Kollgen fragen, AI-Fake Detection Tool wie z.B. SightEngine AI Detection.
5. Schadsoftware in Anhängen
Malware, die durch unachtsames Öffnen von Anhängen aktiviert wird. Sieht aus wie die E-Mail eines Kollegen, der dir ein wichtiges Dokument zuschickt. Auch beliebt: „Dieses lustige Video musst du gesehen haben.“
Schutz: Anti-Malware-Programme und klare Richtlinien für den Umgang mit E-Mails.
Exkurs: Wie nutzen Cyberkriminelle KI?
Laut einem aktuellen Bericht von Google Cloud’s Threat Intelligence wird generative KI von Bedrohungsakteuren derzeit vor allem für unterstützende Aufgaben im Cybercrime-Umfeld genutzt. Dazu gehören insbesondere:
- Informationsbeschaffung: Recherche über Zielorganisationen, deren IT-Infrastruktur und potenzielle Schwachstellen.
- Code-Analyse: Identifikation und Behebung von Fehlern im eigenen Schadcode zur Optimierung von Angriffsmethoden.
- Content-Erstellung & Anpassung: Automatisierte Generierung und Lokalisierung von Phishing-Mails, gefälschten Websites oder betrügerischen Inhalten.
- Infrastruktur-Recherche: Identifikation kostenloser Hosting-Dienste, anonym nutzbarer Server und weiterer Ressourcen für Angriffe.
- Payload-Entwicklung: Unterstützung bei der Erstellung von Schadsoftware oder Exploits.
- Optimierung von Angriffstechniken: Verfeinerung bösartiger Skripte und Entwicklung neuer Methoden zur Umgehung von Sicherheitsmaßnahmen.
Der Bericht stellt klar, dass generative KI aktuell vor allem als Werkzeug zur Erleichterung bestehender Cybercrime-Aktivitäten dient, anstatt selbstständig hochentwickelte Angriffe zu ermöglichen.
Hier können Sie die Google Studie lesen.
Fazit: Mit Technologie und Köpfchen gegen Cyberattacken wehren
Die aufgeführten Methoden sind nur ein kleiner Ausschnitt der Bedrohung durch KI-gestützte Angriffe. Sicherheitsexperten warnen bereits vor einer zunehmenden Gefahr.
Tipp 1: Eigene Sicherheitsmaßnahmen zu überprüfen, um sich besser vor KI-gestützten Angriffen zu schützen. Gern empfehlen wir Ihnen IT-Dienstleister, die Sie bei der Abwehr solcher Bedrohungen unterstützen.
Tipp 2: Da Cyberangreifer zunehmend auf KI setzen, ist die beste Verteidigung die richtige Vorbereitung. Mit gezielten Schulungen können Sie eure Organisation besser gegen diese Bedrohungen schützen. Nutzen Sie unsere praxisnahen Trainings, um nicht nur die Potenziale von KI für Ihr Unternehmen zu erschließen, sondern auch effektiv gegen KI-basierte Cyberangriffe gewappnet zu sein.
KI-Schulung für Mitarbeitende gesucht?
Jetzt anmelden und Sicherheitslücken schließen!
Jetzt KI-Kurse anfragen