pte20250203002 in Forschung

Positive KI-Urteile werden eher akzeptiert

Erhebung zeigt höhere Zustimmung und vermeintlich stärkere Objektivität als bei Mitmenschen


KI: gilt vielen Menschen als objektiver bei Werturteilen (Bild: pixabay.com, geralt)
KI: gilt vielen Menschen als objektiver bei Werturteilen (Bild: pixabay.com, geralt)

Shinagawa/Kodaira (pte002/03.02.2025/06:05)

Menschen akzeptieren die Urteile von Künstlicher Intelligenz (KI) über moralische Entscheidungen eher, wenn diese ein positives Urteil fällt und der Mensch negativ urteilt. In ihrer Studie haben die Wissenschaftler um Hitoshi Yamamoto von der Rissho University und Takahisa Suzuki von der Tsuda University die Bedingungen, unter denen Menschen moralische Urteile von KI akzeptieren würden, untersucht. Ihre Forschungsergebnisse haben sie in "Scientific Reports" publiziert.

KI gilt vielen als objektiver

Das Team hat sich auf das Verhalten konzentriert, "Menschen mit schlechtem Ruf nicht zu helfen (gerechtfertigte Nicht-Kooperation)", das für Menschen schwer als "gut" oder "schlecht" zu beurteilen ist. Die Forscher wollten verstehen, unter welchen Bedingungen Menschen die Urteile von KI eher akzeptieren als menschliche Urteile. Die Ergebnisse deuten darauf hin, dass Individuen KI-Urteile als objektiver wahrnehmen, insbesondere wenn menschliche Urteile als voreingenommen oder von versteckten Absichten geleitet wahrgenommen werden könnten.

Die Studie befasst sich mit einem Szenario, in dem Individuen in ihrem moralischen Urteil unsicher sind, insbesondere bei indirekter Reziprozität, wo sie wegen ihrer Reputation entscheiden, ob sie mit anderen kooperieren. Die Forscher haben zwei Experimente mit japanischen Teilnehmern durchgeführt und untersucht, wie sie die Entscheidung eines KI-Managers im Vergleich zu der eines menschlichen Managers in einem Arbeitsplatz-Szenario beurteilten. Danach sind Teilnehmer eher geneigt, Entscheidungen der KI zu akzeptieren, wenn diese eine nicht-kooperative Handlung als positiv bewertete (gerechtfertigtes Abweichen) und ein Mensch sie als negativ einschätzte.

Gesellschaftliche Tragweite

Die Ergebnisse tragen zu einem tieferen Verständnis der Mechanismen bei, die der Akzeptanz von KI bei moralischen und sozialen Entscheidungen zugrundeliegen, und unterstreichen die Bedeutung des Kontexts bei der Gestaltung dieser Wahrnehmungen, so die Forscher. Da die Gesellschaft die Integration von KI in komplexe Entscheidungsprozesse vorantreibt, seien solche Erkenntnisse für die Entwicklung von KI-Systemen, die mit menschlichen Erwartungen und gesellschaftlichen Normen in Einklang stehen, von entscheidender Bedeutung.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Lutz Steinbrück
Tel.: +43-1-81140-300
E-Mail: steinbrueck@pressetext.com
Website: www.pressetext.com
|