Deepfakes sind virtuelle Masken, mit denen man sich Identitäten erschleichen kann. Sie sind im Internet immer weiter verbreitet, wobei ihre Erstellung mit dem Fortschritt der Technologien des Deep Learning und der Künstlichen Intelligenz immer einfacher wird. Was sind die Risiken? Wie sieht ihre Zukunft aus? In diesem Artikel werden wir diese Fragen im Detail untersuchen.
Was ist ein Deepfake?
Der Begriff Deepfake bezieht sich nicht nur auf die so erstellten Inhalte, sondern auch auf die verwendeten Technologien er ist eine Kombination aus „Deep Learning“ und „Fake“, was mit „falsche Tiefe“ übersetzt werden kann und sich auf falsche Inhalte bezieht, die zutiefst glaubwürdig gemacht werden. Sie hat in der Regel die Form einer Video- oder Audioaufnahme, die mithilfe von künstlicher Intelligenz erstellt oder verändert wurde. Im Jahr 2014 erfand der Forscher Ian Goodfellow eine Technik, die den Deepfakes zugrunde liegt: GAN (Generative Adversarial Networks). Diese Technologie verwendet zwei Algorithmen, die sich gegenseitig trainieren: Der eine versucht, möglichst zuverlässige Fälschungen herzustellen, während der andere versucht, Fälschungen zu erkennen. Auf diese Weise verbessern sich die beiden Algorithmen im Laufe der Zeit durch ihr jeweiliges Training gemeinsam.
Seit Herbst 2017 sind Deepfakes immer weiter verbreitet. Im Jahr 2019 zählten die Forscher:innen der Firma Deeptrace etwa 15.000 Deepfake-Videos online, ein Jahr zuvor waren es weniger als 8.000. Audio-Deepfakes sind noch relativ wenig verbreitet, da ihre Erstellung erhebliche Hardwareressourcen erfordert.
Welche Risiken sind mit virtuellen Masken verbunden?
Deepfakes können für bösartige Zwecke wie Manipulation, Desinformation, Erniedrigung, Verleumdung und Erpressung eingesetzt werden. Ein Deepfake kann z. B. verwendet werden, um ein Video zu erstellen, in dem eine Person scheinbar etwas sagt oder tut, was sie nie gesagt oder getan hat. Deepfakes können auch dazu verwendet werden, Gesichtserkennungssysteme zu täuschen und die Identität einer anderen Person anzunehmen. Dies kann insbesondere bei Fernverfahren in Onboarding-Pfaden für Kund:innen zum Beispiel vorkommen, bei denen Cyberkriminelle versuchen, die Identität einer Person anzunehmen.
Die früher physischen Masken, mit denen versucht wird, die Gesichter anderer Menschen nachzuahmen, werden moderner und virtueller: Sie sind einfacher, schneller herzustellen und weniger nachweisbar. Die Bedrohung ist real und der Realismus dürfte sich mit der Zeit und dem technologischen Fortschritt verbessern. Dies könnte dem öffentlichen Image und der Privatsphäre der Zielpersonen erheblichen Schaden zufügen.
Die Erkennung und Verhinderung von Deepfakes ist daher eine große Herausforderung für die Cybersicherheit von Organisationen und Behörden.
Welche Zukunft für die Cybersicherheit?
Deepfakes sind ein wachsendes Problem vor allem in sozialen Netzwerken, wo sie einer großen Zahl von Menschen ausgesetzt sind und sich schnell und einfach verbreiten können. Um dieser Bedrohung zu begegnen, sind einige Lösungen in der Lage, einen Filter auf Videos anzuwenden, um zu verhindern, dass sie von Software, die Deepfakes erzeugen kann, ausgenutzt werden. In diesem Sinne arbeitet das FAIR-Labor von Facebook an diesem Projekt der „Desidentifizierung“.