Die Tech- und Cybersecurity-News-Website Cybernews.com hat die AI Incident Database analysiert und festgestellt, dass Deepfakes im Jahr 2025 die häufigste Art von KI-Vorfällen waren. 81 % aller KI-Betrugsfälle im Jahr 2025 betrafen demnach mithilfe von KI erzeugte oder manipulierte Audio-, Bild- oder Videoinhalte, die Personen täuschend echt Dinge sagen oder tun lassen, die so nie passiert sind. Die AI Incident Database (kurz: AIID) ist eine frei zugängliche, crowdbasierte Datenbank, die reale Vorfälle dokumentiert, bei denen KI-Systeme Schäden oder „Beinahe-Schäden“ verursacht haben.
(Bild: Cybenews)
Anzeige
Die AI Incident Database verzeichnet demnach im Jahr 2025 insgesamt 346 KI-Vorfälle – von Deepfake-Betrügereien bis hin zu unsicheren Inhalten, die von beliebten Chatbots produziert wurden. Von den 132 KI-Betrugsfällen waren 107 Deepfake-Betrugsfälle.
Die Ziele der Deepfake-Angriffe reichten von Politikern, CEOs und anderen Persönlichkeiten des öffentlichen Lebens bis hin zu Privatpersonen, die in Investitions- und Finanzbetrugsfällen imitiert wurden. Viele dieser Betrügereien waren aufgrund ihrer hohen Zielgenauigkeit und Realitätsnähe erfolgreich, sodass die Opfer glaubten, mit vertrauenswürdigen Personen zu sprechen.
In einem Fall verlor eine Frau aus Florida 15.000 Dollar, nachdem Betrüger eine Deepfake-Stimme ihrer Tochter verwendet hatten. In einem anderen Fall verlor eine britische Witwe eine halbe Million britische Pfund in einem Liebesbetrug, bei dem Kriminelle sich als der Schauspieler Jason Momoa ausgaben.
Diese Fälle zeigen, wie überzeugend Deepfakes das Vertrauen sowohl im privaten als auch im öffentlichen Kontext ausnutzen. Mit der zunehmendem Verbreitung von KI werden ganz offensichtlich auch schädliche KI-Vorfälle zu einem wachsenden Problem.