Die dunkle Seite der Künstlichen Intelligenz

Gefahr für die Demokratie

Deepfake-Videos: Solche täuschend echte Filmchen, die mit Hilfe von künstlichen neuronalen Netzen manipuliert wurden, lassen sich mit wenig Aufwand erstellen.
Quelle: NTT Security
Organisationen wie die Defense Advanced Research Projects Agency (DARPA) forschen derzeit an Möglichkeiten, Deep-fakes zu identifizieren, indem sie sogenannte kompetitive neuronale Netze (Generative Adversarial Networks, GAN) einsetzen. Die Technik besteht im Wesentlichen aus zwei künstlichen neuronalen Netzen, die versuchen, sich gegenseitig auszutricksen. In bestimmten Fällen ist es relativ leicht möglich, Deepfakes zu erkennen, etwa wenn die Gesichts­simulation nur auf Standbildern basiert. «Da auf Fotos in der Regel die Augen einer Person immer geöffnet sind, kann das Blinzeln nicht korrekt simuliert werden», erklärt dazu Sicherheitsexperte Wollmann, «das lässt sich mit Hilfe von KI detektieren.»
Wesentlich schwieriger wird dies allerdings, wenn Videos als Basismaterial verwendet werden. Langfristig besteht sogar die Gefahr, dass sich Deepfakes gar nicht mehr von echtem Material unterscheiden lassen. Das befürchten zumindest die Rechtswissenschaftler Bobby Chesney und Danielle Citron, Autoren der Studie «Deep Fakes: A Looming Chal­lenge for Privacy, Democracy, and National Security». Eine solche Entwicklung könnte sogar massive Auswirkungen auf die Strafverfolgung haben. Schliesslich verlieren Audio- und Videobeweise ihre Aussagekraft, wenn echtes und gefälschtes Material nicht mehr unterscheidbar ist.
David Wollmann empfiehlt Unternehmen, sich durch Aufklärung gegen Deepfakes zu wappnen: «Security Awareness wird angesichts der neuen KI-basierten Bedrohungen noch wichtiger.» Auch organisatorische Massnahmen können das Risiko verringern: «Unternehmen sollten Prozesse implementieren, die eine Deepfake-Attacke erschweren.» Entscheidungen von grösserer Tragweite müssten nach dem Vier-Augen-Prinzip von mindestens zwei Mitarbeitern überprüft und genehmigt werden, Anweisungen per E-Mail oder Telefon sollten prinzipiell erst nach Bestätigung über einen weiteren Kanal ausgeführt werden. Das erfordere allerdings ein Umdenken der oberen Führungsriege: «Auch das Management muss sich der Gefahr bewusst sein und sich an vorgegebene Entscheidungsprozesse halten», betont der Sicherheitsexperte. «Es geht ja nicht darum, Prozesse tagelang zu verzögern, sondern das Unternehmen als Ganzes zu schützen.»



Das könnte Sie auch interessieren