Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Mit Deepfake-Technologie lassen sich auch Stimmen täuschend echt fälschen

1E9 Magazin
Denkfabrik für die Zukunft: Magazin, Community und Events rund um neue Technologien.
Zum Kurator'innen-Profil
1E9 MagazinMittwoch, 11.03.2020

Hat Donald Trump das wirklich gesagt oder ist es eine Fälschung? Bei den Audioclips, die der YouTuber Tim McS bisher hochgeladen hat, lässt sich das nicht mehr "erhören". So gut klingen seine Fälschungen. Dass er sie mit Künstlicher Intelligenz erzeugt hat, erklärt er deshalb in seinen Videobeschreibungen.

Nach Deepfake-Videos, in denen mit KI die Köpfe oder Gesichter von Personen auf andere Körper montiert wurden, verbreiten sich nun Deepfake-Audios im Netz, hinter denen ebenfalls maschinelles Lernen und viel Arbeit steckt. Der Artikel geht nicht nur darauf ein, wie genau die Stimmfälschungen produziert werden und wie sie schon jetzt für kommerzielle sowie humoristische Zwecke genutzt werden. Er beleuchtet auch die möglichen Gefahren, die durch die Technologie entstehen könnten. 

Photoshop für Sprache oder 3. Weltkrieg?

Tim McS ist zwar relativ zuversichtlich, dass wir uns am Ende daran gewöhnen, dass nach Fotos nun auch Videos und Audios manipuliert werden können, ohne dass es am Ende noch auffällt. Aber ein Restrisiko sieht auch er.

„Ich kann mir vorstellen, dass es letztlich als ein ‚Photoshop für Video & Sprache‘ abgepackt und zu einem weiteren Werkzeug wird“, sagt McS. „Aber ebenso könnte jemand ein total überzeugendes Deepfake von Kim Jong Un schaffen, das Donald Trump beleidigt und den 3. Weltkrieg auslöst. Aber ich bin vorsichtig optimistisch, dass das nicht passieren wird. “
Mit Deepfake-Technologie lassen sich auch Stimmen täuschend echt fälschen

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.