sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
In nur wenigen anderen Berufen ist der Einzug von Künstlicher Intelligenz (KI) mit solch deutlichen Änderungen der beruflichen Kompetenzen verbunden wie im Journalismus. Jahrelang waren es nachträglich veränderte Bilder, die vor der Nutzung durch ein journalistisches Medium auf Fälschungen hin überprüft werden mussten. Mit dem technischen Fortschritt sind es aber mittlerweile bewegte Bilder, die "dank" Deepfakes bis zur Unkenntlichkeit des Originals hin gefälscht werden können. Bekanntheit haben Deepfakes erhalten, die die Köpfe von Prominenten in unpassende Filmsequenzen platzierten. Bisher geschah dies in den meisten Fällen ganz offensichtlich mit dem Hinweis auf eine Fälschung. Was aber geschieht, wenn nicht nur bewegte Bilder, sondern in kurzfristiger Perspektive Storylines in Videos künstlich kreiert werden können? Umgekehrt können damit auch zunehmend echte Videos angezweifelt werden.
Seit drei Jahren beschäftigt sich ein Forschungszweig mit dem Namen "Deepfake Detection" mit diesen Fragen – die eben gerade für den Journalismus von essentieller Bedeutung sind. So schreiben die Autoren:
“For our team, the right balance was to work with journalists, because they are the first line of defense against the spread of misinformation.”
Die eine Richtung der Forschung versucht anhand von Abgleichen der Mimiken und Gestiken der im Video dargestellten Personen Fälschungen zu erkennen. Die andere Richtung fokussiert sich eher auf die technische Überprüfung (konkret: Abfolge der Frames). Beide Richtungen sollten nach Auffassung der Autoren kombiniert werden. Hinzu müssen die aus dem Journalismus bekannten Plausibilitätsprüfungen kommen. Die Herausforderungen in diesem Bereich werden beständig größer:
“Journalists and the social media platforms also need to figure out how best to warn people about deepfakes when they are detected. Research has shown that people remember the lie, but not the fact that it was a lie.”
Quelle: John Sohrawardi, Matthew Wright Bild: Pixabay: CC0 Publ... EN techxplore.com
Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.