sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
Angesichts der scheinbar immer komplexer werdenden Welt und ihrer globalen Herausforderungen ist es unabdingbar, nach neuen Möglichkeiten der KI-gestützten Entscheidungsfindung und Kollaboration zu forschen. Dieser BBC-Beitrag beschäftigt sich mit Ansätzen und derzeit noch vorhandenen Grenzen der Anwendung von KI in kollaborativen Arbeitsprozessen. Dabei orientieren sich viele Firmen, die eine solche KI entwickeln, an Vorbildern in der Natur – wie dem Zusammenwirken der Bienen in einem Bienenstock. Das Start-up Unanimous AI hat eine Anwendung entwickelt, die auf einem Bildschirm verschiedene Lösungsansätze für ein Problem zeigt. Die Teammitglieder, die zu einer Entscheidung bezüglich der “besten” Lösung kommen müssen, können nun von ihrem eigenen PC aus einen “Puck” in die Ecke versuchen zu ziehen, in der die von ihnen bevorzugte Lösung liegt. Durch die Interaktion, die Stärke des Engagements, die Eindeutigkeit der individuellen Zugbewegung und die Tendenz, sich entmutigen zu lassen, “errechnet” die KI am Ende die “beste” Lösung. Dieser Ansatz konnte – durch Studien belegt – in der Vergangenheit bereits die Prognosen von Börsenanalysten, die Vorhersehbarkeit des Erfolgs von TV-Serien und die Diagnosefähigkeit von Röntgen-Ärzten verbessern helfen.
Eine weitere genannte Studie hat sich mit dem konkreten Erfolg von Werkzeugen beschäftigt, die helfen sollen, die Potenziale von kollektiver Intelligenz zu heben. Dabei hat sich gezeigt, dass KI, die Teammitgliedern ein beständiges und sofortiges Feedback bezüglich ihrer Leistungen gibt oder aber dabei helfen soll, Aufgaben zu teilen und zu verteilen, zu Frustration und Planungs-Overload führt. Als eindeutig überlegen hat sich jedoch KI erwiesen, die Gruppen dazu bringt, über die jeweiligen individuellen Kompetenzen und Präferenzen zu reden. Nur diese Art von Werkzeugen stellt sicher, so die Forscher, dass jeweils die geeignetsten Menschen mit denen für das Team relevanten Aufgaben beschäftigt sind. Zudem hat sich gezeigt, dass KI in solchen sozialen Prozessen nur dann effektiv sein kann, wenn sie in ihrem Wirken nicht im Vordergrund steht und zugleich von allen Beteiligten als Unterstützung anerkannt ist. Wird die KI zu dominant, so versuchen Menschen sofort, sie wieder aus dem Prozess herauszudrängen.
Die Zukunft der KI in sozialen Dynamiken wird von Forschern vor allem dort gesehen, wo es darum geht, große Datenmengen effizienter zu nutzen, in komplexen sozialen Räumen zu Entscheidungen zu gelangen, implizite Verzerrungen zu vermeiden und eher ungewöhnliche Sichtweisen, die in sozialen Prozessen gern negiert werden, stärker hervorzuheben. Auch wird die Effektivität dieser KI in den Kontexten erhöht, in denen sie gemeinsam mit menschlicher Einschätzung zu besseren Ergebnissen führt. So nutzt das Start-up Factmata die Einschätzungen von 2.000 Experten aus den unterschiedlichsten Bereichen, um in Moderationsprozessen Verzerrungen oder implizite Meinungsfilter zu erkennen. Die Entwicklung einer solchen KI hätte weitreichende Bedeutung für die Filterung von Inhalten auf sozialen Plattformen.
Bei der Lektüre dieser Potenziale habe ich mich am Ende gefragt: Würde nicht KI, die in Gruppen ungewöhnliche Meinungen und Lösungsansätze sichtbarer machen würde, mit KI in Konflikt geraten, die auf sozialen Plattformen vorgibt, welche Meinung “üblich” und welche “unüblich” sei? Mir scheint, dass bei der Entwicklung von KI für soziale Gruppenprozesse wesentliche Erkenntnis der Sozialwissenschaften und der Psychologie vollkommen außen vor gelassen werden. Statt über die Verzerrungen von KI in der Personalauswahl zu sprechen, sollten wir vielleicht eher über die stärkere Berücksichtigung der Methoden der empirischen Sozialforschung beim Entwickeln dieser KI reden?
Quelle: Edd Gent EN bbc.com
Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.