Freitag, 18. Oktober 2024
Anzeige

KI-gesteuerter Betrug macht mittlerweile 42,5 Prozent aller aufgedeckten Betrugsversuche im Finanz- und Zahlungsverkehrssektor aus. Ausserdem werden schätzungsweise 29 Prozent dieser Versuche als erfolgreich angesehen.

Da Cyberkriminelle zunehmend auf künstliche Intelligenz zurückgreifen, um komplexe Betrugsversuche durchzuführen, befindet sich der Finanzsektor in einem Kampf, bei dem es um den Schutz seiner Kunden und Vermögenswerte geht. Neue Daten aus dem 2024-Report, “Battle Against AI-Driven Identity Fraud» von Signicat beweisen: KI-gesteuerter Betrug macht mittlerweile 42,5 Prozent aller aufgedeckten Betrugsversuche im Finanz- und Zahlungsverkehrssektor aus. Damit ist er ein kritischer Wendepunkt für die Cybersicherheit in der Finanzbranche. Ausserdem werden schätzungsweise 29 Prozent dieser Versuche als erfolgreich angesehen.

Dieser Bericht zeigt auf, wie schnell sich die Bedrohung durch KI-gestützte Betrugstaktiken ausbreitet. Dazu gehören der Einsatz von Deepfakes, synthetischen Identitäten und ausgeklügelten Phishing-Kampagnen. Diese fortschrittlichen Techniken ermöglichen es Betrügern, in einem noch nie dagewesenen Ausmass und einer noch nie dagewesenen Raffinesse zu operieren.

Anzeige

Aktuelle Trends bei KI-gesteuertem Betrug

  • 42,5 Prozent der aufgedeckten Fälle gehen auf KI zurück: Fast die Hälfte aller Betrugsversuche wird inzwischen durch KI gesteuert, was die zunehmende Raffinesse und Verbreitung dieser Angriffe verdeutlichten.
  • 80 Prozent Anstieg der Betrugsversuche insgesamt: Im Finanzsektor ist die Zahl der Versuche in den letzten drei Jahren um 80 Prozent gestiegen, was zum Teil auf den Einsatz von KI durch Betrüger zurückzuführen ist.
  • Nur 22 Prozent der Unternehmen haben KI-Schutzmassnahmen implementiert: Trotz des zunehmenden Risikos haben weniger als ein Viertel der Finanzinstitute Massnahmen zur KI-gestützten Betrugsprävention ergriffen, was eine erhebliche Schwachstelle darstellt.

Finanzinstitute hinken bei der KI-Abwehr hinterher

Die Bedrohungslandschaft entwickelt sich rasant und die herkömmlichen Abwehrmassnahmen erweisen sich als unzureichend gegen KI-gestützte Angriffe. Der Bericht, der in Zusammenarbeit mit Consult Hyperion erstellt wurde, fordert Unternehmen auf, jetzt zu handeln. KI-basierte Erkennungssysteme müssen eingeführt, Cybersecurity-Rahmenwerke verbessert und eine stärkere Zusammenarbeit in der Branche gefördert werden. Nur so kann man den sich entwickelnden Betrugstechniken einen Schritt voraus sein.

«Die Unternehmen richten natürlich Abwehrmechanismen gegen KI-gesteuerten Identitätsbetrug ein, aber die Bedrohung wächst. Die Beschleunigung der Digitalisierung in den letzten Jahren hat dazu geführt, dass Angriffe heute ausgefeilter und in grösserem Umfang durchgeführt werden. Die Unternehmen müssen jetzt dringend handeln. Mechanismen, die vor einigen Jahren noch funktioniert haben, reichen nicht mehr aus. Sie müssen einen mehrschichtigen Ansatz in Erwägung ziehen, bei dem beispielsweise elektronische Identitäten mit Risikoanalysen und bei Bedarf auch mit Verstärkungen kombiniert werden. Nur so können sie das richtige Gleichgewicht zwischen dem reibungslosen Zugang für legitime Nutzer und der Einführung zusätzlicher Sicherheitsmassnahmen im Falle eines Risikos finden», erklärt Pinar Alpay, Chief Product & Marketing Officer bei Signicat, mit Nachdruck.

Anzeige

Sichere und robuste digitale Identitätslösungen schützen die Endbenutzer und ihre Konten, wenn sie sich anmelden oder Dokumente akzeptieren – und sind damit die beste Verteidigung gegen die Übernahme von Konten.

Der Bericht macht deutlich, dass wir einen proaktiven, mehrschichtigen Cybersicherheitsansatz brauchen, der KI mit traditionellen Sicherheitsmassnahmen verbindet. Des Weiteren betont er die Relevanz, Mitarbeiter und Kunden über die neuen Gefahren, die KI in der sich wandelnden Landschaft der Cyberkriminalität darstellt, zu informieren.

Lesen Sie auch: Künstliche Intelligenz (KI) in Schweizer KMU: Chancen und Risiken

Teilen:
Antwort schreiben

Exit mobile version