sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Volk und Wirtschaft Medien und Gesellschaft Technologie und Gesellschaft Fundstücke
Leitet das Digital-Team im Wirtschaftsressort der Süddeutschen Zeitung, was nicht heißt, dass er nur Nerd-Kram piqt. Studierte in Erlangen und Portland Politikwissenschaft und Amerikanistik, schrieb in Nürnberg, Berlin, New York und München. Interessiert an allem Politischen. Am Absurden sowieso. Süchtig nach Longreads.
Deep Fakes gehören zu den digitalen Entwicklungen, die Menschen am meisten gruseln. Mit Machine-Learning-Technik kann das Gesicht eines Unbeteiligten (fast) täuschend echt in ein Video eingesetzt werden. Der Zuschauer denkt, der Unbeteiligte handele in dem Video. Staatschefs können bei einer Kriegserklärung gegen einen anderen Staat gezeigt werden, die sie nie vorgenommen haben. Menschen (meist Frauen) in Pornos geschnitten werden, um sie zu verleumden und zu erniedrigen.
Da von immer mehr Menschen Unmengen an Bildmaterial im Umlauf sind, stellt sich die Frage: Kann man Bilder Deep-Fake-sicher machen?
Einen möglichen Trick, das Problem zu lösen, haben die Forscher um Siwei Lyu von der State University of New York gefunden. Sie setzen nicht bei der Manipulationstechnik selbst an. Zugriff auf die Algorithmen der Bildfälscher zu haben, ist ja ein unrealistisches Szenario. Deshalb ist die Idee der Forscher, die Machine-Learning-Technik der Fälscher zu verwirren. Sie bauen visuellen "Lärm" in Fotos von Gesichtern ein, die sie schützen wollen. Sie durchsetzen das Bild mit zusätzlichen, für den Menschen unsichtbaren Gesichtern. Die sollen die Deep-Fake-Algorithmen vom echten Gesicht ablenken.
We have found a way to add specially designed noise to digital photographs or videos that are not visible to human eyes but can fool the face detection algorithms. It can conceal the pixel patterns that face detectors use to locate a face, and creates decoys that suggest there is a face where there is not one, like in a piece of the background or a square of a person’s clothing.
Wenn die Betreiber großer Plattformen diese Technik weiterentwickeln und klug einsetzen würden, könnte das zumindest ein Weg sein, Deep-Fake-Angriffe einzuschränken.
Quelle: Siwei Lyu Bild: meyer_solutions/S... EN theconversation.com
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.