SPUTNIK Tagesupdate Diese App macht dich (ungewollt) zum Pornostar

Künstliche Intelligenz ist ein krasses Thema. Programme können eigenständig Probleme lösen oder Prognosen treffen, indem die neuronalen Netzwerke durch menschlichen Input dazulernen. Oder sie machen dich zum Pornostar.

Protagonistin in einem HipHop Video
Bildrechte: Youtube

MDR SPUTNIK Fr 26.01.2018 20:36Uhr 02:58 min

https://www.sputnik.de/sendungen/tagesupdate/audio-610524.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Audio

Die schlechte Nachricht zuerst: Fake-News beschränken sich jetzt nicht mehr nur auf Tweets von Trump und die "Lügenpresse".

Auch normalerweise schwer zu manipulierendes Video-Material lässt sich jetzt einigermaßen problemlos faken. Dafür braucht man nicht mal mehr ausgefeilte Technik und Computerspezialisten, sondern nur eine selbstlernende künstliche Intelligenz (KI). Und einen Menschen, der diese mit Informationen füttert.

Erste Beispiele im Netz

Der Reddit-User Deepfakes hat im Dezember 2017 die Gesichter von Stars wie Taylor Swift auf die Körper von weiblichen Pornostars montiert. Das Ergebnis sah zumindest auf den ersten Blick täuschend echt aus.

Für die Fake-Videos hat er nicht mehr gebraucht als seinen Computer, öffentliche Videos, einen selbstlernenden Algorithmus und jede Menge Freizeit.

Seit Deepfakes seine ersten Videos bei Reddit hochgeladen hat, ist der Thread nahezu mit den Werken von Nachahmern explodiert.

Ein User machte sich sogar die Mühe, das Programm FakeApp zu entwickeln. Es erlaubt auch Menschen mit geringeren technischen Skills mit der Unterstützung einer KI Fake-Pornos herzustellen.

Deepfakes sind die neuen Fake News

So hat ein Nutzer beispielsweise eine Szene aus dem "Star Wars"-Film "Rogue One" nachgestellt. In der wurde für viele Millionen Dollar das Gesicht der jungen Carrie Fisher als Prinzessin Leia in eine neue Szene montiert.

Der Reddit-User hat das lediglich mit der FakeApp und etwas Zeit ebenfalls hinbekommen und der Unterschied ist kaum zu erkennen:

Innerhalb der Reddit-Community ist der Name Deepfakes jetzt zum Synonym für die durch neuronale Netzwerke gefakten Videos geworden.

Die Maschine lernt durch den Menschen

Genauso unheimlich sind allerdings die möglichen politischen und gesellschaftlichen Folgen. Je realistischer die Fake-Videos werden, desto schwieriger wird es zu erkennen, welche Informationen glaubhaft sind und was zu Fake News und Propaganda gehört.

Das Thema im SPUTNIK Programm: SPUTNIK Tagesupdate | 26.01.18 | 18:35 Uhr

Zuletzt aktualisiert: 29. Januar 2018, 12:10 Uhr