cosoft B2B-Flyer 2024-01

KI – der rote Teppich für Hacker und Co.

KI, also Künstliche Intelligenz, hat längst Einzug in unser Leben gehalten. Nicht erst seit ChatGPT Texte aus dem Nichts zaubert, spielt KI in unserem Leben mit. Ob Smart-Home-Geräte, die Gesichtserkennung Ihres Smartphones oder die Assistenzsysteme im Auto – all das ist KI und erleichtert unseren Alltag. Leider hat KI aber nicht nur positive Effekte für uns: Auch Cyberkriminelle kennen die Möglichkeiten Künstlicher Intelligenz und wissen sie für ihre Betrugstechniken zu nutzen. Das zeigt sich allein daran, dass die Anzahl der Attacken und leider auch deren Erfolgsquote wächst. Kennen Sie die Tücken und lernen Sie die Methoden der Angreifer kennen!

Methode 1: ChatGPT als Phishing-Thema
Beim Phishing versuchen Kriminelle über betrügerische Webseiten, E-Mails, Textnachrichten oder Anrufe an vertrauliche Daten zu gelangen. Diese werden dann für Identitätsdiebstahl, Kreditkartenbetrug oder Ransomware-Angriffe genutzt. Damit Nutzer darauf hereinfallen, wählen die Angreifer meist Aufhänger, die potenziell eine große Nähe zum Opfer haben (beliebt sind zum Beispiel Nachrichten von Bankberatern, der Post aber auch Familienangehörigen) oder ein aktuelles, brisantes Thema aufgreifen. Neuerdings wird daher auch gern ChatGPT als Köder genutzt, um die Opfer zum Klick zu bewegen.

Methode 2: Chatbots als Phishing-Helfer
Cyberkriminelle lassen sich von KI-Tools die Texte für ihre Phishing-E-Mails und Webseiten schreiben und können dadurch den Erfolg ihrer Kampagnen maßgeblich verbessern. Problematisch dabei ist, dass Rechtschreibund Grammatikfehler bislang als gutes Indiz galten, um Phishing-Mails zu entlarven. Diese Fehler werden durch KI praktisch eliminiert. Noch perfekter wird ein Phishing-Versuch, wenn die Kriminellen zusätzlich KI-Tools nutzen, um täuschend echte Kopien von Webseiten zu erstellen.
Über einen Link in den Phishing-E-Mails gelangen die Opfer auf gefälschte Webseiten, auf denen Anmeldedaten abgefragt oder per Drive-by-Download Malware ausgeliefert wird.

Methode 3: Chatbots als Malware-Erzeuger
KI-Chatbots können sogar selbst Malware erstellen – praktisch für jene Kriminellen, die selbst keine Programmierkenntnisse haben. Häufig kommen dabei zwar keine raffinierten Schadprogramme heraus, das könnte sich aber bald ändern, schließlich ist KI lernfähig.

Methode 4: Deepfakes als Köder
KI-Technologien werden auch eingesetzt, um gefälschte Bilder, Videos und Sprachdateien zu erstellen – sogenannte Deepfakes. Angreifer können beispielsweise frei erfundene Geschichten durch Fotofälschungen glaubwürdig erscheinen lassen oder anhand von Fotos die Gesichter von Personen in Videos einfügen, die gar nicht anwesend waren. Derartige Deepfakes gibt es auch bei Sprachnachrichten: Mit speziellen Tools können Cyberkriminelle Stimmen ziemlich perfekt nachbilden und gefälschte Sprachnachrichten erstellen.

KI – die rechte Hand Cyberkrimineller
Wie Sie wahrscheinlich schon vermuten, ist die Liste an Methoden noch längst nicht ausgeschöpft. Sicherheitsfachleute malen bereits eine düstere Zukunft an die Wand.
Und auch wir finden: Vorsicht ist besser als Nachsicht. Jetzt erst recht lohnt es sich, die eigenen Sicherheitsmaßnahmen zu überprüfen, um sich vor (KI-)Angriffen zu schützen. Und dabei stehen wir Ihnen als IT-Dienstleister Ihres Vertrauens selbstverständlich gern zur Seite.

Laden Sie sich hier die komplette Ausgabe als PDF-Datei herunter, in der sich noch viele weitere Business IT-Themen und Angebote befinden:

Zurück