pte20240607019 Bildung/Karriere, Technologie/Digitalisierung

ChatGPT kann moralische Haltung verändern

KI gibt Anregung zum Nachdenken, da Antworten mit jenen eines Menschen vergleichbar sind


Richtig versus falsch: KI hilft bei moralischen Dilemmas weiter (Foto: pixabay.com, Tumisu)
Richtig versus falsch: KI hilft bei moralischen Dilemmas weiter (Foto: pixabay.com, Tumisu)

Tuscaloosa (pte019/07.06.2024/12:30)

Künstliche Intelligenz (KI) hat das Potenzial, die Ansichten von Studenten in Bezug auf moralische Entscheidungsfindungen zu ändern. Zu diesem Schluss kommt Hyemin Han von der University of Alabama. Er hat untersucht, ob sich KI dafür nutzen lässt, Studenten beizubringen, sich unter anderem mit diesen Fragestellungen zu beschäftigen. Dafür hat der pädagogische Psychologe die Antworten von ChatGPT auf ein moralisches Dilemma untersucht.

Kein Schwarz und Weiß

Laut einem Artikel im "Journal of Moral Education" hat ChatGPT grundlegende ethische Fragen bereits fast so gut beantworten können wie ein durchschnittlicher Student. Auf Nachfrage gab der Chatbot auch Begründungen, die mit jenen eines Menschen durchaus vergleichbar sind. Dazu gehört unter anderem das Vermeiden eines Schadens für andere oder das Befolgen von sozialen Normen.

In der Folge erhielt das Programm ein neues Beispiel für ein tugendhaftes Verhalten, das jedoch den vorhergehenden Schlussfolgerungen widersprach. Dann stellte der Forscher diese Frage erneut. Das Programm wurde gefragt, was eine Person tun solle, die einen entflohenen Häftling entdeckt. ChatGPT erwiderte zuerst, die Polizei zu rufen. Als das Programm jedoch den "Letter from Birmingham Jail" von Martin Luther King, Jr. berücksichtigen sollte, änderte es seine Antwort dahingehend, dass die Möglichkeit einer zu Unrecht erfolgten Inhaftierung ebenfalls zu erwägen sei.

Menschen lernen von KI

Obwohl es sich dabei um rudimentäre Beispiele handelt, betont Han, dass ChatGPT seine Antwort bereits ohne weitere genaue Anweisungen anpassen kann. Daher sei es auch möglich, dass Menschen von der KI mehr über ihre moralische Argumentation lernen können. Forscher könnten so zum Beispiel die Leistungsfähigkeit von bestehenden und neuen Praktiken zur Moralerziehung testen und sie erst dann in den Klassenzimmern umsetzen.

Han schlägt nicht vor, dass die KI je einen Menschen im Unterricht ersetzen soll. Vorstellbar sei jedoch zum Beispiel ein mittels der sokratischen Methode trainierter Chatbot, der die Studenten mit zunehmenden komplexen Fragestellungen herausfordert. Die Lehrer würden dabei Seite an Seite mit der KI arbeiten und den Schülern bei einem verantwortungsvollen Einsatz dieser Technik helfen. Das ist laut Han von entscheidender Bedeutung.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Moritz Bergmann
Tel.: +43-1-81140-300
E-Mail: bergmann@pressetext.com
Website: www.pressetext.com
|