Cybercrime: I Rob(ot) – Wenn Künstliche Intelligenz zur Gefahr wird

 

Künstliche Intelligenz (KI – oder „AI“ für Artificial Intelligence) ist faszinierend, aber auch ein wenig bedrohlich. Selbst abseits von Dystopien wild gewordener Roboter kann eine künstlich generierte Intelligenzleistung Heil und Unheil gleichermaßen bringen. Wie immer kommt es auf das „was“ und vor allem auf das „wer“ an.

So bringt KI etwa bei Telefonservices, in der Verwaltung oder auch bei der Entwicklung neuer Lösungen zweifelsohne viel Segen – insbesondere im intelligenten Zusammenspiel mit jenen menschlichen Potenzialen, die Maschinen zumindest heute noch nicht erlernen können.

Kriminelle profitieren von intelligenten Systemen

Auf der anderen Seite bereichern sie aber auch das klassische Räuber-und-Gendarm-Sujet – und zwar auf beiden Seiten. Das Herz der künstlichen Intelligenz besteht aus immer komplexeren Algorithmen. Sie sind heute in der Lage, bestehende Lücken in Prozessen zu entdecken und auszunutzen, zum Beispiel bei Payment-Systemen, Transaktionen aller Art oder so genannten Kredit-Herauslagen. Betrüger nutzen solche Algorithmen derzeit vor allem, um Schwachstellen zu finden, die sie anschließend ausnutzen können.

Eine weitere, besonders perfide Art des KI-Missbrauchs für kriminelle Zwecke ist die authentische Stimmimitation. Zwar ist diese Technologie noch nicht uneingeschränkt auf dem Markt verfügbar, doch ist schon jetzt absehbar, welche (dunklen) Fähigkeiten sie beinhaltet. So sind per KI generierte Stimmlagen nicht mehr vom Original zu unterscheiden, sodass sich – bei ungeregeltem und ungefiltertem Zugang – nahezu jeder als jemand anders ausgeben kann. Das verleiht nicht nur dem so genannten Enkel- oder auch Chef-Trick (der vorgebliche Chef verlangt von einem Mitarbeiter telefonisch eine dezente Überweisung) neuen Schwung, sondern eröffnet ganz neue Perspektiven.

Effektiverer Schutz dank KI

Doch auch die Gegenseite rüstet auf: In der Betrugserkennung und -abwehr können Verhaltensmuster von (Kreditkarten-)Betrügern besser identifiziert werden, indem die bisherigen Methoden, die stets auf Ereignissen der Vergangenheit basierten, nun auch in die Zukunft „hochzurechnen“ und entsprechend zu erweitern sind. Möglich wird das durch eine gezielte Aufbereitung der Daten und die Entwicklung adäquater neuer Algorithmen.

Die Ironie liegt vor allem darin, dass die Technologie nicht nur beiden Seiten hilft, sondern die Anforderungen für die Täter gleichzeitig erhöht –sie müssen entsprechende Methoden und Tools für ihre Zwecke entwickeln und einsetzen – und senkt. Denn es sind gerade die zunehmend automatisierten Prozesse, die es den Angreifern leichter machen, an ihr Ziel zu kommen. Der Einsatz Künstlicher Intelligenz im Online-Betrugsgeschäft steckt noch in den Kinderschuhen, lapidar könnte es so ausgedrückt werden: Beide Seiten üben noch. Umso wichtiger ist ein umfassender Schutz abseits dieser Entwicklungen – bis hin zu einer geeigneten Versicherung gegen die Folgen eines Cyber-Angriffs.

Wie schützen Cyber-Versicherungen Sie vor finanziellen Schäden?

Jetzt informieren!

Passend zum Thema