KI-Mitarbeiterüberwachung ist kontraproduktiv
Mögliche Akzeptanz bei Arbeitnehmern laut Studie der Cornell University abhängig vom Kontext
Gläserne Mitarbeiter: KI-Überwachung wirkt sich häufig negativ aus (Bild: pixabay.com, geralt) |
Ithaca (pte012/05.07.2024/11:30)
Unternehmen, die das Verhalten und die Produktivität ihrer Mitarbeiter mit KI überwachen, müssen damit rechnen, dass diese sich öfter beschweren, weniger produktiv sind und eher kündigen wollen. Das gilt allerdings nicht, wenn Arbeitgeber dies glaubwürdig als Unterstützung für die Entwicklung der Arbeitnehmer darstellen. Zu dem Ergebnis kommen Forscherteam der Cornell University in einer Studie, die in "Communications Psychology" erschienen ist.
Tests mit 1200 Teilnehmern
In vier Experimenten mit insgesamt fast 1200 Teilnehmern haben die Forscherinnen Rachel Schlund und Emily Zitek untersucht, ob es eine Rolle spielt, ob Menschen oder KI und verwandte Technologien die Überwachung durchführen, und ob der Kontext, in dem sie eingesetzt wird - zur Leistungsbewertung oder zur Unterstützung der Entwicklung - die Wahrnehmung beeinflusst.
Überwachungsinstrumente, die zunehmend körperliche Aktivitäten, Gesichtsausdrücke, den Tonfall sowie die mündliche und schriftliche Kommunikation verfolgen und analysieren, führen laut Studie dazu, dass Menschen einen größeren Verlust an Autonomie empfinden als bei der Überwachung durch Menschen.
Firmen und andere Organisationen, die solche Technologien einsetzen, um zu beurteilen, ob Mitarbeiter nachlässig sind, Kunden gut behandeln oder Verfehlungen begehen, sollten die unbeabsichtigten Folgen bedenken, die zu Widerstand führen und die Leistung beeinträchtigen können, heißt es. Bei der US-Bank Wells Fargo führte die technologische Mitarbeiter-Überwachung gar zu Gegenmaßnahmen von Mitarbeitern, die daraufhin vor Kurzem entlassen wurden, wie pressetext berichtete.
Automatisierte Datenanalyse
Die Akzeptanz der KI-Überwachung wird jedoch erhöht, wenn die überwachten Mitarbeiter das Gefühl haben, von den Tools unterstützt statt in ihren Leistungen beurteilt zu werden, wobei sie dabei mangelnden Kontext und fehlende Genauigkeit befürchten, heißt es von den Wissenschaftlerinnen.
"Wenn Künstliche Intelligenz und andere fortschrittliche Technologien zu Entwicklungszwecken eingesetzt werden, gefällt es den Menschen, dass sie daraus lernen und ihre Leistung verbessern können. Das Problem tritt auf, wenn sie das Gefühl haben, dass die Bewertung automatisch erfolgt, direkt aus den Daten, und sie nicht in der Lage sind, sie in irgendeiner Weise zu kontextualisieren", resümiert Mitautorin Emily Zitek.
(Ende)Aussender: | pressetext.redaktion |
Ansprechpartner: | Lutz Steinbrück |
Tel.: | +43-1-81140-300 |
E-Mail: | steinbrueck@pressetext.com |
Website: | www.pressetext.com |