sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Freie JournalistInnen schreiben in unserer Kooperative direkt für Ihre Leser, jenseits der Verlage. Bei uns laufen Themen, die anderswo nicht zu finden sind: tiefgründig und kontinuierlich. Ausgezeichnet mit dem Grimme Online Award 2018, als Wissenschaftsjournalisten des Jahres 2018 sowie mit dem Netzwende Award 2017.
Bereits 2015 zeichneten Forscher von der University of Southern California (USC) hunderte Therapiegespräche aus der Eheberatung über zwei Jahre hinweg auf. Zudem bekamen die Forscher Informationen über den Ehestatus der beteiligten Personen über die folgenden fünf Jahre. Sie fütterten ihren Algorithmus mit den Stimmdaten, der diese unter anderem nach Faktoren wie Lautstärke und Tonhöhe sowie zittrige oder brechende Stimmen analysierte. Anschließend sagte das System mit 80-prozentiger Genauigkeit voraus, ob ein Paar nach Ende des Beobachtungszeitraums noch zusammen war oder nicht – besser als die beteiligten Therapeuten, die die Forscher ebenfalls um ihre Einschätzung baten.
Künstliche Intelligenz kann inzwischen aus der Art, wie wir sprechen, Emotionen und Charakterzüge entschlüsseln. Solche Technologie lassen sich z. B. einsetzen, um psychisch Kranken zu helfen. Klar ist aber auch, dass mit der Anwendung solcher KI jede Menge ethische Probleme einhergehen können.
Eva Wolfangel hat sich für diesen Text einem Selbsttest der Software des Unternehmens Precire unterzogen. Deren KI hat herausgefunden: wer so spricht, wie Wolfangel, ist extrem neugierig und verträglich, nur mittelmäßig gut organisiert und akut im Stress.
So wie der Computer von Precire nun sehr genau um meine Schwächen weiß – und wäre ich eine Kandidatin in einem Bewerbungsgespräch diese brühwarm meinem künftigen Chef berichten würde, der dann vielleicht gar nicht mehr mein Chef werden will. Er würde ihm sogar sagen, ich sei unorganisiert – obwohl mir das selbst nicht bewusst ist. Oder liegt der Algorithmus hier falsch, kann es einer der gefürchteten Fehlschlüsse künstlicher Intelligenz sein, über die gerade so viel diskutiert wird? Jene Fehlschlüsse, die wir wahrscheinlich gar nicht bemerken, und wenn, dann nicht nachvollziehen können. Die Nicht-Erklärbarkeit maschineller Entscheidungen ist eines der großen Probleme von KI, an denen Forscher gerade arbeiten.
Quelle: Eva Wolfangel/RiffReporter Bild: Pixabay Artikel kostenpflichtig riffreporter.de
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Schöner Artikel. Aber eine Sache verstehe ich nicht:
" Die Nicht-Erklärbarkeit maschineller Entscheidungen ist eines der großen Probleme von KI, an denen Forscher gerade arbeiten."
Ist das denn überhaupt möglich? Ich dachte, dass wir ab einer gewissen Komplexität die Entscheidungen der Maschine einfach nicht mehr nachvollziehen können.
Gibt es aus Deutschland, z. B. 100 Worte: https://100worte.de/