Forscher berichten von einer Software, die Privatfotos zu Nacktbildern macht. Wer hinter dem Programm steckt, ist nicht bekannt.

Mehr Digitalthemen finden Sie hier

Forscher haben im Messengerdienst Telegram ein Programm aufgedeckt, das mit wenigen Klicks aus normalen Fotos Nacktbilder machen kann. Die sogenannten Deepfakes werden mithilfe einer Art künstlichen Intelligenz erstellt.

"Bis Ende Juli 2020 wurden 104.852 solcher Fotos veröffentlicht und in mehreren Telegram-Kanälen verbreitet", schreiben die Experten der IT-Analysefirma Sensity in ihrem Bericht.

Künstliche Intelligenz hat gelernt, Anatomie von Frauen zu erfassen

Um ein Nacktbild zu generieren, schicken die Täter Fotos ihrer Opfer via Telegram an ein Programm. Nach kurzer Zeit bekommen sie das zu einem Nacktbild manipulierte Foto zurück.

Das Programm nutzt laut den Sensity-Forschern dazu die Technologie der Generative Adverserial Networks, eine Form von künstlicher Intelligenz. Hinter dem Programm stecken selbstlernende neuronale Netze. Die werden so programmiert, dass sie selbst lernen, bekleidete Frauenkörper zu erkennen, auszuziehen, die Anatomie zu erfassen und einen nackten Körper aus dem Foto zu erzeugen.

Die Software wurde in diesem Fall so programmiert, dass sie nur weibliche Körper erkennen und manipulieren kann. Laut dem Technikmagazin "The Verge" sei die Qualität der Bilder unterschiedlich.

Während manche offensichtlich manipuliert aussehen, wirken andere täuschend echt. In den Telegram-Kanälen finden sich Anleitungen mit Tipps für bessere Ergebnisse.

Größerer Teil der Bilder von Nutzern aus Ländern der ehemaligen Sowjetunion geteilt

In dem Messengerdienst wurde das Programm als sogenannter Bot angeboten. Über die Botfunktion von Telegram können Entwickler eigene kleine Programme als Zusatzfunktionen in Chat-Fenster integrieren.

Nutzerinnen oder Nutzer, die die Programme verwenden wollen, brauchen nur eine Chatnachricht an den Bot zu schreiben und dieser reagiert automatisch. Wer hinter dem aktuellen Deepfake-Programm steckt, ist nicht bekannt.

Auffällig ist, dass es das Programm nur in Englisch und Russisch gibt. Laut des Sensity-Berichts wurde ein größerer Teil der Bilder in den öffentlichen Kanälen von Nutzern aus Ländern der ehemaligen Sowjetunion geteilt.

Laut dem Bericht werden vor allem Bilder von Privatpersonen hochgeladen. Die Aufnahmen stammen demnach aus Privatbesitz oder von Social-Media-Accounts.

Ähnlich wie bei normalen Bildbearbeitungsprogrammen gibt es eine Gratisversion, die an einem Wasserzeichen im Bild zu erkennen ist. Es existiert aber auch eine Premiumversion, die Bilder schneller und ohne Wasserzeichen liefert. Der Preis pro Bild liegt bei rund 30 Cent, die Entwickler des Programmes bieten einen Mengenrabatt an.

Telegram antwortet auf Anfragen nicht

Die Sensity-Forscher nehmen an, dass die Zahl der Opfer deutlich größer ist, als es die mehr als 100.000 geteilten Nacktbilder vermuten lassen. Denn nicht immer würden die generierten Nacktbilder in öffentlichen Kanälen geteilt und damit erfassbar.

Deepfake-Software kursiert etwa seit 2017 im Netz. Die Forscher von Sensity sehen die Gefahr, dass die Bilder genutzt würden, um die Opfer öffentlich zu demütigen oder in ihrem privaten Umfeld zu verbreiten.

Es komme auch vor, dass Täter ihre Opfer erpressen, "indem sie mit der Veröffentlichung der Fotos drohen", schreiben die Forscher.

Bildmanipulationen durch Deepfake-Programme werden immer wieder als zukünftige Gefahr für Demokratien debattiert. Die Sorge ist, dass durch manipulierte Aufnahmen Falschinformationen sehr viel schwieriger entlarvt werden können. Der Bericht der Sensity-Forscher zeigt jedoch, dass die Technik bisher offenbar vor allem im privaten Bereich genutzt wird.

Die Telegram-Kanäle, in denen die Bilder verbreitet wurden, sind mittlerweile nicht mehr zu finden. Sensity vermutet, dass sie von den Betreibern gelöscht wurden. Telegram hat auf mehrere Anfragen der Forscher und auf Anfrage des SPIEGEL nicht geantwortet.  © DER SPIEGEL